Gegenwärtig findet die SuperComputing Konferenz in Atlanta in den USA statt. Nvidia ist vertreten und präsentiert neue KI-Hardware. Das Unternehmen kündigte H200 NVL und GB200 NVL4 an.
Nvidia stellt auf der SuperComputing Konferenz in Atlanta neue NIM-Microservices vor, die für die Berechnung komplexer Zusammenhänge im wissenschaftlichen Umfeld genutzt werden sollen. Verschiedene Microservices wie ein Trainings-Netzwerk, digitale Stellvertreter und ein Foundation Model können in Kombination mit Omniverse Blueprint und 3D-Modellen komplexe Simulationen ausführen. Nvidia arbeitet für die Omniverse Blueprints auch mit Ansys zusammen. Ansys stellt mit Fluent eine Multiphysis CFD-Software bereit.
Microservice für Wetter- und Klimasimulationen
Earth-2 NIM kann ab sofort für Wetter- und Klimasimulationen genutzt werden. Die Simulationen sollen um den Faktor 50 schneller möglich sein. Sie sind außerdem um den Faktor 10.000 effizienter. Simulationen in Chemie und Materialforschung können künftig mit NVIDIA Alchemi NIM durchgeführt werden.
Grundlagen für Erforschung von Quantencomputern
Die Auswertung von Ergebnissen ist ein wichtiger Faktor in der Erforschung von Quantencomputern. Falsche Ergebnisse müssen eliminiert werden. Die Verifizierung von Iterationen kann Wochen, Monate und mitunter sogar Jahre dauern. Nvidia will diesen Zeitraum von einem Jahr mit CUDA-Q auf nur eine Stunde verkürzen.
Google nutzt CUDA-Q bereits in seiner Quantum-AI-Forschung. Umfassende Dynamiksimulationen für neue QPU-Designs will Google nun damit durchführen.
Die Programmbibliothek NumPy ist ein wichtiger Aspekt bei den Frameworks. Sie wird für Simulationen in Biologie, Chemie, Materialforschung, Physik, Astronomie und anderen Bereichen genutzt. Auf der Basis von NumPy sollen Berechnungen der GPU-Beschleunigung per cuPyNumeric um den Faktor sechs beschleunigt werden.
Ankündigung von H200 NVL
Auf der SuperComputing Konferenz kündigte Nvidia den H200-NVL-Beschleuniger an, der auf der Hopper-Architektur basiert und auf das klassische PCI-Express-Format setzt. Anders als die SMX-Variante mit einer TDP bis zu 700 Watt hat der H200-NVL-Beschleuniger nur eine TDP von bis zu 600 Watt. Die von Nvidia reduzierte TDP wirkt sich auf die Rechenleistung aus. Die Speicherausstattung von HBM3E bleibt bei 141 GB. Die Speicherbandbreite beträgt 4,8 TB/s.
Eine Verbindung von zwei oder vier Karten miteinander ist über eine NVLink-Bridge möglich. Pro GPU liegt die Interconnect-Bandbreite bei 900 GB/s.
Auf einer PCI-Express-Karte, die über zwei Slots verfügt, können bis zu 600 Watt abgeführt werden. Das ist sicher nicht leicht, doch kommt es auf die geeignete Kühlung an. Die Serverhersteller sollten daher im Server einen Luftstrom für die Kühlung vorsehen.
Single-Server-Lösung GB200 NVL4 als Erweiterung der Blackwell-Serie
Nvidia erweitert die Blackwell-Serie mit der Single-Server-Lösung GB200 NVL4, die auf der SuperComputing Konferenz vorgestellt wurde. Die bereits verfügbare Lösung GB200 NVL 2 wird damit um jeweils zwei Blackwell-GPUs und zwei Grace-CPUs ergänzt. Beim GB200-NVL4-Modul sind vier Blackwell-GPUs und zwei Grace-CPUs vorhanden.
Alle Chips sind über NVLink miteinander verbunden. Die vier Blackwell-GPUs haben einen HBM3E Speicher mit einer Kapazität von 768 GB und einer Speicherbandbreite von insgesamt 32 TB/s. Ein LPDDR5X ist an zwei Grace-CPUs angebunden und hat eine Kapazität von 960 GB. Das Modul hat eine Leistungsaufnahme von 5.400 Watt. Das leitet sich aus der Tatsache ab, dass ein GB200 NVL2 aus zwei GB200 Grace Blackwell Superchips besteht, deren jeweilige Leistungsaufnahme bei 2.700 Watt liegt.
Auslieferung der Blackwell-Systeme soll verstärkt werden
Nvidia konzentriert sich auf die Auslieferung der Blackwell-Systeme, die zusammen mit den Partnern im OEM-Bereich hochgefahren werden soll. Die Blackwell-Lösungen GB200 Grace Blackwell Superchip, DGX B200, GB200 Blackwell NVL2, GB200 Grace Blackwell NVL72 und GB200 Grace Blackwell NVL4 gehören dazu. Auch bereits bestehende Hopper-Lösungen sollen ausgeliefert werden.
Quellen: Nvidia, Google, hardwareLUXX