Startseite » Nvidias Grace Hopper treibt Jupiter-Supercomputer mit 1 ExaFLOPS an

Nvidias Grace Hopper treibt Jupiter-Supercomputer mit 1 ExaFLOPS an

Nvidias Grace Hopper treibt Jupiter-Supercomputer mit 1 ExaFLOPS an Titel

Nvidia gab bekannt, dass sein Grace Hopper GH200-Superchip mit eigener Arm-basierter CPU und Hopper-basierter GPU für künstliche Intelligenz (AI) und High-Performance-Computing (HPC) den Jupiter, Europas ersten ExaFLOPS-Supercomputer im Forschungszentrum Jülich in Deutschland, antreibt. Die Maschine kann sowohl für Simulationen als auch für KI-Workloads verwendet werden, was sie von der großen Mehrheit der heute installierten Supercomputer unterscheidet. Darüber hinaus gab Nvidia an, dass sein GH200 weltweit 40 Supercomputer antreibt, deren kombinierte Leistung bei etwa 200 ‚AI‘ ExaFLOPS liegt.

Der Jupiter-Supercomputer wird von fast 24.000 GH200-Chips mit insgesamt 2,3 TB HBM3E-Speicher angetrieben, die über Quantum-2-InfiniBand-Netzwerke miteinander verbunden sind und mit der BullSequana XH3000-Flüssigkeitskühltechnologie von Eviden gekühlt werden. Die Maschine bietet eine FP64-Leistung von 1 ExaFLOPS für Simulationen in den Bereichen Klima- und Wettermodellierung, Materialwissenschaft, Arzneimittelentwicklung, Industrietechnik und Quantencomputing. Darüber hinaus kann die Maschine satte 90 ExaFLOPS an KI-Leistung für das Training von großen Sprachmodellen und ähnliche Aufgaben bereitstellen. All dies wird von Nvidias Softwarelösungen wie Earth-2, BioNeMo, Clara, cuQuantum, Modulus und Omniverse unterstützt.

Jeder Knoten innerhalb des Jupiter-Supercomputers ist ein Kraftpaket für sich. Er verfügt über 288 Arm Neoverse-Kerne und vier H200-GPUs für KI- und HPC-Arbeitslasten und ist in der Lage, eine bemerkenswerte KI-Leistung von 16 PetaFLOPS zu erzielen. Die GH200-Superchips sind über die NVLink-Verbindung von Nvidia miteinander verbunden, wobei Nvidia die Gesamtbandbreite dieser Verbindung nicht bekannt gegeben hat.

„Das Herzstück von Jupiter ist die beschleunigte Rechenplattform von NVIDIA, die das System zu einem bahnbrechenden System macht, das die wissenschaftliche Forschung revolutionieren wird“, sagt Thomas Lippert, Direktor des Jülich Supercomputing Centre. „Jupiter kombiniert Exascale-KI und Exascale-HPC mit dem weltweit besten KI-Software-Ökosystem, um das Training grundlegender Modelle auf ein neues Niveau zu heben.“

Jupiter ist zwar ein bemerkenswertes System – schließlich handelt es sich um die erste ExaFLOPS-Maschine Europas -, aber es ist nicht der einzige Supercomputer auf GH200-Basis. Insbesondere die Universität Bristol baut einen Supercomputer mit mehr als 5.000 GH200 mit 141 GB HBM3E, der der leistungsstärkste in Großbritannien sein soll. Der Grace Hopper GH 200 von Nvidia wird in mehr als 40 Supercomputern auf der ganzen Welt eingesetzt, die von Unternehmen wie Dell, HPE und Lenovo gebaut werden. Die kombinierte Leistung dieser Systeme wird etwa 200 AI ExaFLOPS betragen.

HPE beispielsweise wird den Grace Hopper GH200 Superchip von Nvidia in seinen HPE Cray EX2500 Supercomputern einsetzen. Diese Maschinen können mit Tausenden von GH200-Chips massiv skaliert werden, was ein schnelleres und effizienteres Training von KI-Modellen ermöglicht.

Der GH200 von Nvidia wird bis Ende des Jahres auch bei ASRock Rack, Asus, Gigabyte und Ingrasys erhältlich sein. Nvidia plant außerdem, den GH200 über sein LaunchPad-Programm kostenlos zur Verfügung zu stellen, um diese leistungsstarke Technologie mehr Menschen zugänglich zu machen.

 

Have your say!

0 0

Leave a Reply

Your email address will not be published.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Lost Password

Please enter your username or email address. You will receive a link to create a new password via email.