Mehr Rechenleistung für Deep Learning und HPC

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print

Mehr Rechenleistung für Deep Learning und HPC

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Share on print
Der Tesla P100 ist die neueste Entwicklung aus dem Portfolio von Nvidias Tesla-Plattform für Hochleistungs-Computing. Dieser Prozessor ermöglicht es allen Servern, die Leistung von hunderten CPU-Server-Knoten zu liefern.
nvidia_tesla_p100_gpu_topangleleft2

Nvidia hat gestern im Rahmen der GPU Technologie-Konferenz in San Jose die Tesla P100 GPU vorgestellt. Der Tesla P100 ist die neueste Entwicklung aus dem Portfolio von Nvidias Tesla-Plattform für Hochleistungs-Computing. Dieser Prozessor ermöglicht es allen Servern, die Leistung von hunderten CPU-Server-Knoten zu liefern. Aktuelle Rechenzentren bestehen aus großen Netzwerkinfrastrukturen mit unzähligen vernetzten CPU-Servern, die große Mengen direkter Daten, wie beispielsweise Web-Services, verarbeiten. Solche Infrastrukturen sind allerdings äußerst ineffizient, wenn sie im Bereich Künstlicher Intelligenz (KI) oder für Berechnungen im Forschungsbereich angewendet werden. Diese Prozesse verlangen nach ultra-effizienten und hyperschnellen Server-Knoten, die es bis dato nur sehr vereinzelt auf dem Markt gibt. 

Basierend auf Nvidias Pascal GPU-Architektur mit seinen fünf wichtigen technologischen Entwicklungen bietet der Tesla P100 so viel Rechenleistung, damit selbst die anspruchsvollsten Applikationen berechnet werden können.

„Unsere größten wissenschaftlichen Herausforderungen, wie die Heilung von Krebs, der Klimawandel und die Entwicklung intelligenter Maschinen, verlangen nach einer unglaublich hohen Rechenleistung. Wir haben die Pascal GPU–Architektur vom ersten Bleistiftstrich an so entwickelt, dass sie auf jeder Ebene große Innovationen bietet. Die Technologie repräsentiert in Hinblick auf Performance und Effizienz einen großen Schritt nach vorne und wird somit den größten Forschern und Denkern unserer Zeit dabei helfen, die Zukunft zu erschaffen“, sagt Jen-Hsun Huang, CEO und Mitgründer von Nvidia.

Dr. John Kelly III, Senior Vice President Cognitive Solutions von IBM Research, äußert sich wie folgt zur neuen Technologie: „Derzeit betreten wir ein neues Computerzeitalter, für das wir völlig revolutionäre Grundlagentechnologie brauchen – insbesondere in Bezug auf die Nutzung künstlicher Intelligenz und kognitiver Anwendungen.  Die Kombination aus Nvidias GPUs und der OpenPower-Technologie beschleunigt bereits jetzt das Lernverhalten von Watson bei IBM. Im Verbund aus IBMs Power Architektur und Nvidias Pascal Technologie (mit NVLink)  wird die kognitive Rechenleistung  immer höher und hilft so der gesamten KI-Industrie.“

Der Tesla P100 verdankt seine hohe Leistung, seine Skalierbarkeit und seine Effizienz diesen fünf technologischen Entwicklungen:

  • Nvidia Pascal-Architektur für exponentielle Leistungssprünge – eine auf Pascal basierende Tesla P100 Lösung bietet im Vergleich mit der älteren Nvidia-Maxwell-basierten Lösung mehr als das 12-fache an Leistung im Bereich neuronale Netzwerke
  • Nvidia NVLink für maximale Skalierbarkeit –  Die Nvidia NVLink Highspeed -Verbindung ist eine energieeffiziente Verbindung mit hoher Bandbreite, die eine besonders schnelle Kommunikation zwischen der CPU und dem Grafikprozessor sowie zwischen mehreren Grafikprozessoren ermöglicht. Bis zu acht Tesla P100 GPUs können so miteinander verbunden werden, um die maximale Applikationsleistung in jedem Serverknoten zu erreichen. IBM hat NVLink auf ihren POWER8-CPUs für schnelle CPU-to-GPU Kommunikation bereits implementiert.
  • 16 nm FInFET für Energieeffizienz – Mit 15,3 Milliarden Transistoren, verbaut auf 16 Nanometern FinFet-Technologie ist die Pascal-GPU der weltweit größte FinFet-Chip, der je gebaut wurde.
  • CoWoS mit HBM2 für Big Data Verarbeitung – Die Pascal-Architektur vereint Prozessor und Daten in ein einziges Paket und sorgt so für eine extrem hohe Effizienz. Der innovative Ansatz, Chip on Wafer on Substrate (CoWoS) mit HBM2 bietet dreimal mehr Memory-Bandbreite im Vergleich zur Maxwell Architektur. 
  • neuer KI-Algorithmus für die höchste Performance – ein neuer halbgenauer Code leistet mehr als 21 TeraFLOP an Höchstleistung für Deep Learning. 

Der Tesla P100 Grafikprozessor beschleunigt die Rechenleistung für eine große Bandbreite von Anwendungen im Bereich HPC und Deep Learning. Darunter ist beispielsweise auch der AMBER Molecular Dynamics Code, der auf einem einzelnen Server-Knoten (der mit P100 ausgerüstet ist) schneller arbeitet als 48 Dual-Socket CPU Systeme. Auch für das Training des bekannten neuronalen Netzwerks AlexNet würden derzeit 250 Dual-Socket CPU Serverknoten benötigt – im Gegensatz dazu reichen gerade einmal acht Tesla P100 GPUs aus, um dieselben Prozesse zu bearbeiten.4 Die weit verbreitete Wettervorhersage-Applikation COSMO läuft auf acht Tesla P100 GPUs schneller als auf 27 Dual-Socket Knoten.5

Updates für Nvidia SDK

Nvidia gab heute ebenfalls mehrere Updates bekannt, die sich um die Entwickler-Plattform NVIDIA SDK, drehen. Diese Updates enthalten unter anderem Nvidia CUDA 8. Die aktuellste Version der Parallel Computing Plattform bietet Entwicklern direkten Zugang zu den neuen Funktionen von Pascal inklusive NVLink und eine neue Graph Library namens nvGRAPH.

Außerdem kündigte Nvidia die Einführung der cuDNN version 5 an. Dies ist eine GPU beschleunigte Library für tiefe neuronale Netzwerke. cuDNN 5 unterstützt die Pascal GPU sowie die schnellere Bearbeitung von sich wiederholenden neuronale Netzen, die vor allem für Videodaten verwendet werden.

Tesla P100 Spezifikationen:

  • 5.3 TeraFLOPS Double-Precision Leistung, 10.6 TeraFLOPS Single-Precision Leistung und 21.2 TeraFLOPs Half-Precision Leistung mit der Nvidia-GPU-Boost-Technologie
  • 160 GByte/s bi-direktionale Bandbreite mit Nvidia NVLink
  • 16 GByte  CoWoS HBM2-Speicher
  • 720 GByte/s Speicherbandbreitemit CoWoS HBM2-Stacked-Speicher
  • verbesserte Programmierbarkeit mit einer Page Migration-Engine und Unified Memory
  • ECC-Schutz für eine höhere Verlässlichkeit
  • Server-optimiert für den höchsten Datendurchlauf und Verlässlichkeit im Rechenzentrum

Verfügbarkeit:

Ab Juni befindet sich der Pascal-basierte Nvidia Tesla P100 GPU im neuen Nvidia DGX-1 Deep Learning System. Außerdem wird das neue System ab Anfang 2017 bei führenden Serverproduzenten verfügbar sein. 

Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
LinkedIn
Share on xing
XING
Share on whatsapp
WhatsApp
Share on email
E-Mail
Share on print
Drucken

Ihre Meinung zum Artikel

avatar
  Abonnieren  
Benachrichtige mich bei

Andere Leser haben sich auch für die folgenden Artikel interessiert

EIT Digital, ein europäischer Cluster für Innovationen und Wissensaustausch, entwickelt zusammen mit Partnern ein VR-Trainingstool, das in der europäischen Fertigungsindustrie die Sicherheit verbessern, die Leerzeiten verringern und Kosten sparen soll. Als „Handcode Project“ bezeichnet, soll die Entwicklung von den beiden schwedischen Partnern von EIT Digital, RISE SICS Västerås und Gleechi in Zusammenarbeit der französischen Kommission für alternative Energien und Atomenergie (CEA) vorangetrieben werden.

Entdecken Sie weitere Magazine

Schön, dass Sie sich auch für weitere Fachmagazine unseres Verlages interessieren.

Unsere Fachtitel beleuchten viele Aspekte der Digitalen Transformation entlang der Wertschöpfungskette und sprechen damit unterschiedliche Leserzielgruppen an.