SK Hynix hat mit der Rekrutierung von Designern für Logik-Halbleiter wie CPUs und GPUs begonnen, berichtet Joongang.co.kr. Das Unternehmen beabsichtigt offenbar, HBM4 direkt auf Prozessoren zu stapeln, was nicht nur die Art und Weise verändern wird, wie Logik- und Speicherbausteine üblicherweise miteinander verbunden sind, sondern auch die Art und Weise, wie sie hergestellt werden. Sollte SK Hynix erfolgreich sein, könnte dies die Arbeitsweise der Foundry-Industrie weitgehend verändern.
Heutzutage integrieren HBM-Stacks acht, 12 oder 16 Speicherbausteine sowie eine Logikschicht, die wie ein Hub wirkt. HBM-Stacks werden auf dem Interposer neben CPUs oder GPUs platziert und sind über eine 1024-Bit-Schnittstelle mit ihren Prozessoren verbunden. SK Hynix beabsichtigt, HBM4-Stacks direkt auf den Prozessoren zu platzieren und Interposer gänzlich zu eliminieren. In gewisser Weise ähnelt dieser Ansatz dem 3D V-Cache von AMD, der direkt auf den CPU-Chips platziert wird, aber HBM wird natürlich wesentlich höhere Kapazitäten aufweisen und billiger (wenn auch langsamer) sein.
Berichten zufolge erörtert SK Hynix seine HBM4-Integrationsmethode mit mehreren Fabless-Unternehmen, darunter auch Nvidia. Es ist wahrscheinlich, dass SK Hynix und Nvidia den Chip von Anfang an gemeinsam entwerfen und bei TSMC produzieren werden, das den HBM4-Baustein von SK Hynix auch auf Logikchips mit einer Wafer-Bonding-Technologie aufbringen wird. Ein gemeinsames Design ist unumgänglich, damit Speicher- und Logik-Halbleiter als Einheit auf demselben Chip arbeiten können.
Der HBM4-Speicher wird eine 2048-Bit-Schnittstelle für den Anschluss an Host-Prozessoren verwenden, so dass Interposer für HBM4 extrem komplex und teuer sein werden. Dadurch wird die direkte Verbindung von Speicher und Logik wirtschaftlich machbar. Die Platzierung von HBM4-Stapeln direkt auf Logikchips vereinfacht zwar das Chipdesign und senkt die Kosten, stellt aber eine weitere Herausforderung dar: die Wärmeentwicklung.
Moderne Logikprozessoren wie der H100 von Nvidia verbrauchen Hunderte von Watt an Strom und geben Hunderte von Watt an Wärmeenergie ab. Auch der HBM-Speicher ist ziemlich stromhungrig. Die Kühlung eines Gehäuses, das sowohl Logik als auch Speicher enthält, könnte also sehr ausgeklügelte Methoden erfordern, einschließlich Flüssigkeitskühlung und/oder Untertauchen.
„Wenn das Erwärmungsproblem zwei bis drei Generationen später als jetzt gelöst wird, können HBM und GPU wie ein einziger Körper ohne Interposer arbeiten“, so Kim Jung-ho, Professor am Fachbereich für Elektrotechnik und Elektronik des KAIST.
Die Integration des Speichers direkt in die Prozessoren wird aber auch die Art und Weise verändern, wie Chips entworfen und hergestellt werden. Die Herstellung von DRAM mit der gleichen Prozesstechnologie wie die Logik und in der gleichen Produktionsstätte garantiert zwar die ultimative Leistung, erhöht aber die Kosten für den Speicher drastisch, so dass diese Option derzeit nicht ernsthaft in Betracht gezogen wird. Dennoch sieht es so aus, als würden sich Speicher und Logik sowohl buchstäblich als auch auf der Ebene der Prozesstechnologie annähern.