Der Boom der generativen KI treibt den Verkauf von Servern für künstliche Intelligenz (KI) und High-Performance-Computing (HPC) an, und Dutzende von Unternehmen werden davon profitieren. Aber ein Unternehmen wird wahrscheinlich mehr profitieren als andere. Nvidia wird im Jahr 2023 schätzungsweise mehr als eine halbe Million seiner High-End-Compute-GPUs vom Typ H100 im Wert von mehreren Milliarden Dollar verkaufen, berichtet die Financial Times.
Nvidia wird im Jahr 2023 weltweit rund 550.000 seiner neuesten H100-Compute-GPUs ausliefern, wobei der Großteil an amerikanische Technologieunternehmen geht, so mehrere Insider, die mit Nvidia und TSMC in Verbindung stehen und mit der Financial Times sprachen. Nvidia wollte sich zu dieser Angelegenheit nicht äußern, was angesichts der FTC-Regeln verständlich ist.
Wir kennen zwar nicht die genaue Zusammensetzung der verkauften GPUs, aber jede Nvidia H100 80GB HBM2E Compute GPU Add-in-Karte (14.592 CUDA Cores, 26 FP64 TFLOPS, 1.513 FP16 TFLOPS) kostet in den USA etwa 30.000 Dollar. Es handelt sich vielmehr um die billigste Karte, zumindest im Moment. In China kann eine solche Karte bis zu 70.000 Dollar kosten.
Zu den Spitzenangeboten von Nvidia im Bereich der H100-Karten gehören die H100 SXM 80GB HBM3 (16.896 CUDA-Kerne, 34 FP64 TFLOPS, 1.979 FP16 TFLOPS) und die H100 NVL 188GB HBM3 Dual-Card-Lösung. Diese Komponenten werden entweder direkt an Serverhersteller wie Foxconn und Quanta verkauft oder in Servern eingebaut, die Nvidia direkt vertreibt. Außerdem wird Nvidia in Kürze mit der Auslieferung seiner GH200 Grace Hopper-Plattform beginnen, die aus seinem 72-Kern Grace-Prozessor und einer H100 80GB HBM3E Compute GPU besteht.
Nvidia veröffentlicht keine Preise für seine H100 SXM-, H100 NVL- und GH200 Grace Hopper-Produkte, da diese von der Menge und der Geschäftsbeziehung zwischen Nvidia und einem bestimmten Kunden abhängen. Aber selbst wenn Nvidia jedes H100-basierte Produkt für 30.000 Dollar verkauft, würde dies in diesem Jahr immer noch 16,5 Milliarden Dollar allein für die neueste Generation von Compute-GPUs ausmachen. Aber das Unternehmen verkauft nicht nur Rechen-GPUs der H100-Serie.
Es gibt Unternehmen, die immer noch Nvidias frühere Generation der A100-Compute-GPUs verwenden, um ihre bestehenden Installationen ohne Änderungen an ihrer Software und Hardware zu erweitern. Außerdem gibt es die China-spezifischen Modelle A800 und H800.
Wir können zwar keine genauen Schätzungen darüber abgeben, wo Nvidias Einnahmen aus dem Verkauf von Compute-GPUs landen werden, und auch nicht über die genaue Anzahl der Compute-GPUs, die das Unternehmen dieses Jahr verkaufen wird, aber wir können einige Vermutungen anstellen. Das Rechenzentrumsgeschäft von Nvidia erwirtschaftete im ersten Quartal des Geschäftsjahres 2024 (das am 30. April endete) 4,284 Milliarden US-Dollar. In Anbetracht des anhaltenden KI-Wahns sieht es so aus, als ob die Verkäufe von Nvidias Compute-GPUs im zweiten Quartal des Geschäftsjahres 2024, das Ende Juli endete, höher waren. Mit anderen Worten: Das gesamte Geschäftsjahr 2023 wird für Nvidias Rechenzentrumssparte rekordverdächtig sein.
Es ist bemerkenswert, dass Nvidias Partner TSMC derzeit kaum die Nachfrage nach Compute-GPUs befriedigen kann, da alle diese Chips im CoWoS-Gehäuse gefertigt werden und die Foundry damit zu kämpfen hat, die Kapazitäten für dieses Chip-Gehäuseverfahren zu erhöhen. Da zahlreiche Unternehmen Zehntausende von Compute-GPUs für KI-Zwecke kaufen wollen, wird das Angebot die Nachfrage wohl noch eine ganze Weile nicht decken können.