24.09.2020 – Kategorie: Technik

Grafikkarte: Mehr Tempo für KI und High Performance Computing

Grafikkarte Nvidia A100Quelle: PNY Technologies
PNY Technologies erweitert sein Sortiment an GPUs um die neue Grafikkarte Nvidia A100. Sie eignet sich…
  • Automatische Spracherkennung, medizinische Bildverarbeitung oder Projekte für autonomes Fahren: Die Nachfrage nach KI-Technologien ist hoch.
  • Doch für die komplexen Berechnungen mit enormen Datenmengen braucht es die leistungsstärksten Grafiksysteme.
  • PNY Technologies erweitert sein Sortiment um die die speziell für diese Anwendungen optimierte Grafikkarte Nvidia A100.

PNY Technologies erweitert sein Sortiment an GPUs um die neue Nvidia A100. Die Grafikkarte liefert mehr Tempo für KI-Anwendungen, Datenanalysen und High Performance Computing (HPC), um auch sehr anspruchsvolle Computing-Herausforderungen zu meistern

Automatische Spracherkennung, medizinische Bildverarbeitung aber auch Fahrspurerkennung selbstfahrender Fahrzeuge und Projekte für autonome Fortbewegung, wie erst kürzlich der Test eines KI-gesteuerten Flugzeugs zeigen: Die Nachfrage nach Beschleunigung von KI-Technologien ist hoch und Forschungsprojekte, die zunehmend auf künstliche Intelligenz setzen, werden immer komplexer. Die Nvidia A100 PCIe-Karte von PNY wurde zur Beschleunigung von AI- und HPC-Workflows, leistungsstarken Datenanalyse und Grafikdarstellungen entwickelt und ist für den Einsatz in Rechenzentren konzipiert. Mit ihrer Ampere-Architektur bietet die Nvidia A100 bis zu 20-mal mehr Leistung gegenüber der Vorgängergeneration.

Grafikkarte für den Einsatz in Rechenzentren

Die Nvidia Multi-Instanz-GPU-Technologie (MIG) verbessert die Leistung und Effizienz der neuen GPUs. MIG kann den A100-Grafikprozessor in bis zu sieben Instanzen aufteilen, die vollständig isoliert ausgeführt werden und über eigene Speicher-, Cache- und Recheneinheiten mit hoher Bandbreite verfügen.

Der Grafikprozessor basiert auf der neuen Ampere-Architektur mit insgesamt 6’912 Cuda-Kernen, 432 Tensor-Kernen, 40 GByte HBM2-Speicher mit 5’120 Bit breitem Speicherbus für 312 Tflops an Deep-Learning-Rechenleistung. Die A 100 bietet somit die Leistung eines Supercomputers im Taschenformat, mit dem Forscher und Ingenieure sich neuen Herausforderungen stellen können.

Durch die Kombination von Tensor- und CUDA-Kernen innerhalb einer einheitlichen Architektur kann ein einzelner Server mit Nvidia A100 GPUs Hunderte von herkömmlichen CPUs ersetzen, um IA- und HPC-Workflows nachhaltig zu beschleunigen. Das Produkt ist ab sofort über das PNY-Partnernetz von Großhändlern, Resellern, Integrationsspezialisten und VARs erhältlich.

Technische Daten

  • Grafikkarte für höchste Rechenleistungen
  • neue Generation NVLink
  • Architektur GPU: Ampere
  • Speicher : 40 GByte HBM2
  • CUDA Cores : 6’912
  • Tensor Cores: 432
  • Rechenleistung : 312 Tflops bei Deep Learning
  • FP32 Compute: 19,5 Tflops
  • FP64 Compute: 9,7 Tflops
  • System-Schnittstelle : PCIe Gen4
  • Multi-Instanz-GPU-Technologie: bis 7 GPU
  • passive Kühlung
  • Verbrauch : 250 W max.
  • API : CUDA, DirectCompute, OpenCL, OpenACC
  • Garantie: 3 Jahre

Weitere Informationen: https://www.pny.eu/de/

Erfahren Sie hier mehr über Workstations für 3D-Spezialisten.

Lesen Sie auch: „Deep Learning: Wie selbstfahrende Autos Szenen besser verstehen“


Teilen Sie die Meldung „Grafikkarte: Mehr Tempo für KI und High Performance Computing“ mit Ihren Kontakten:


Scroll to Top