Unter dem Codenamen Sierra Forrest startete vor drei Monaten die Xeon-6700E-Serie von Intel. Das E in der Bezeichnung steht für die Effizienzkerne. Am 24. September startete die neue Serie Xeon 6900P mit Performance-Kernen und dem Codenamen Granite Rapids.
Der Startschuss für die Serverprozessoren der Serie Xeon 6900P von Intel ist am 24. September gefallen. Die Prozessoren sind auf Anwendungen mit hoher Leistung pro Kern ausgelegt, beispielsweise bei Hochleistungsrechnern. Mit Angaben über die Zahl der Kerne und über die Große des L3 Caches hielt sich Intel bis vor der Veröffentlichung weitgehend zurück. Vorerst hat Intel fünf Varianten der Xeon-6900P-Prozessoren herausgebracht.
Xeon-6900P-Serie mit zwei verschiedenen Sockeln
Die Xeon-6900P-Serie besteht aus SP-Modellen auf Basis des Sockels LGA4710 und den AP-Modellen auf Basis des Sockels LGA7529. Alle Modelle bauen auf der Birch-Stream-Plattform auf. Intel veröffentlichte auf der diesjährigen Computex die ersten Details.
Die großen Prozessoren der Serie Xeon 6900E, bekannt als Sierra Forrest AP, werden im ersten Quartal 2025 veröffentlicht. Sie verfügen pro CPU über bis zu 288 Kerne. Die kleineren Prozessoren der Serie Xeon 6700P, bekannt als Granite Rapids-SP, werden ebenso im ersten Quartal 2025 herausgebracht. Vermutlich kommen auch der Xeon 6 Soc sowie Xeon 6300P und Xeon 3500P im ersten Quartal 2025 auf den Markt.
Xeon-6900P-Serie für maximale Rechenleistung
Die Serie Xeon 6900 P bietet auf kleinstem Raum maximale Rechenleistung. Im Gegensatz dazu ist die Serie Xeon 6700E auf eine hohe Effizienz ausgerichtet. Die Prozessoren der Serie Xeon 6 mit Performance-Kernen verfügen über die Redwood-Cove-Architektur, die bereits für die Performance-Kerne in Meteor Lake verwendet wurde. Die Redwood-Cove-Architektur unterstützt bei der Xeon-6900P-Serie AVX512. Jeder Kern hat einen etwas größeren L2 Cache. Die Kerne werden auf einem in Intel 3 gefertigten Compute-Tile eingesetzt. Bei Meteor Lake erfolgte noch die Fertigung in Intel 4.
Intel will die Effizienz nicht vernachlässigen, auch wenn es bei den Prozessoren der Serie Xeon 6900P vorrangig um maximale Leistung geht. Mit Sapphire Rapids und Emerald Rapids wurde Intel immer wieder vorgeworfen, dass die Rechenleistung fast ausschließlich über eine höhere TDP und eine höhere Zahl an Kernen steigen würde.
In der 4. und 5. Generation der Xeon-Prozessoren war der Optimized Power Mode noch optional. Bei den Prozessoren der Serie Xeon 6900 P ist er Standard. Die Leistung gegenüber der 5. Generation ist um das bis zu 1,9-Fache höher.
In den wenigsten Fällen sind die Server bei den Prozessoren der Xeon-6900P-Serie zu 100 Prozent ausgelastet. Das Ziel der Cloud- und Service-Anbieter mit einer 100-prozentigen Auslastung ist nicht immer erreichbar. Der Optimized Power Mode hat in der Effizienz daher das Ziel einer breiten Spannung bei der Auslastung.
Maximal 128 Kerne bei Xeon-6900P-Serie
Die Prozessoren der Serie Xeon 6900P verfügen über bis zu 128 Kerne. Zusätzlich müssen I/O-Funktionen untergebracht werden. Intel verwendet bei der Serie Xeon 6900P drei Compute-Tiles mit den Performance-Kernen und zwei I/O-Tiles. Auf den I/O-Tiles sind die I/O-Blöcke für CXL 2.0, PCI-Express und die Beschleuniger vorhanden. Die Fertigung der Compute-Tiles erfolgt in Intel 3, die I/O-Tiles werden in Intel 7 gefertigt. Die Tiles werden per EMIB miteinander verbunden.
Einige I/O-Blöcke sind frei konfigurierbar und können entweder für CXL-Lanes oder PCI-Express verwendet werden. Die UPI-Blöke können für die Anbindung von einem oder mehreren Sockeln genutzt werden. Bei den 1S- und 2S-CPUs sind teilweise keine UPI-Blöcke vorhanden. Dafür können mehr CXL-Lanes und PCI-Express angeboten werden.
Die I/O-Funktionen und die Beschleuniger auf den Plattformen von Granite Rapids-AP und Sierra Forrest-AP sind gleich. Bei den Serien Xeon 6900P und Xeon 6900E besteht der Unterschied lediglich zwischen den Performance- und den Effizienzkernen. Die Granite Rapids-AP hat zwölf Speicherkanäle, bis zu 96 PCIe-5.0- oder CXL-2.0-Lanes und sechs UPI-2.0-Links auf der Plattform.
Compute-Tiles als Ultra-Core-Count
Intel bezeichnet die Compute-Tiles, die bis zur Xeon-6900P-Serie verwendet werden, als UCC, was die Abkürzung für Ultra Core Count ist. Der UCC-Chip soll mit 44 Kernen ausgestattet sein, von denen aber bei keinem Prozessor alle aktiv sind. Bei den Modellen mit 128 Kernen und drei Compute-Tiles könnten auf jedem Compute-Tile 42,6 Kerne vorhanden sein. Da das nicht funktioniert, wird Intel beispielsweise auf zwei Compute-Tiles jeweils 44 Kerne und auf einem Compute-Tile 42 Kerne unterbringen.
Um zwölf Speichercontroller auf der Plattform anbieten zu können, muss Intel bei den Xeon-6900P-Prozessoren drei Compute-Tiles und bei den Xeon-6900E-Prozessoren zwei Compute-Tiles verwenden. Die Speichercontroller befinden sich in den Compute-Tiles Über ein Mesh-Interconnect sind die Kerne und Caches im Compute-Tile angebunden. Alle Kerne können auf einen Last Level Cache (LLC) zugreifen. Alternativ dazu ist ein NUMA-Clustering möglich.
Modelle der Xeon-6900P-Serie
Die Xeon-6900P-Serie zeigt sich aufgeräumt und verfügt nicht über allzu viele Modelle. Zunächst sind fünf Modelle verfügbar:
- Xeon 6960P mit 72 Kernen
- Xeon 6952P mit 96 Kernen
- Xeon 6972P mit 96 Kernen
- Xeon 6979P mit 120 Kernen
- Xeon 6980P mit 128 Kernen
Eine Differenzierung erfolgt über die Anzahl der Kerne und deren Takt. Bei den Prozessoren der Serie sind sonst alle weiteren Funktionen identisch. Xeon 6980P bietet mit 504 MB den größten Cache. Die niedrigste TDP hat Xeon 6952P mit 400 Watt.
Mehrleistung mit MRDIMMs
Um Transferraten bis zu 8.800 MT/s zu erreichen, unterstützt die Xeon-6900P-Serie MRDIMMs. Bei MRDIMM handelt es sich um die offizielle JEDEC-Bezeichnung des Speicherstandards, der von Intel, Renesas und Sk hynix als MCR entwickelt wurde. MCR bedeutet Mulitplexer Combined Ranks. Der DRAM arbeitet mit der halben Signalrate, also mit 4.400 MHz. Mit einem Multiplex-Verfahren werden zwei Pseudo-Kanäle wieder zusammengeführt. Aus zwei 4.400 M/s ergeben sich daher 8.800 MT/s. Mit MRDIMM werden HPC- und AI-Anwendungen verbessert. Aufgrund der höheren Speicherbandbreite kann je nach Anwendung ein Leistungsplus bis zu 33 Prozent erzielt werden.
Unterstützung von Type 3 für CXL 2.0
Erstmals unterstützen die Xeon-6-Prozessoren Type 3 für CXL 2.0. Type 3 ermöglicht die Speichererweiterung. Anstelle von 2,3 TB mit DDR5 können schnelle DDR5 mit 1,5 TB verbaut werden. Ein CXL-Speicher von 768 GB bietet eine Ergänzung und kann als DDR4-3200 umgesetzt werden. Der Leistungsunterschied ist abhängig von der Anwendung nicht groß. Bei Datenbankanwendungen soll die Leistung um 3 Prozent geringer sein. Intel spricht von einer deutlichen Kostenersparnis.
Mit dem Flat Memory Mode legt der Prozessor in eigener Hardware fest, welche Daten sich im DRAM und welche sich in der CXL-Erweiterung befinden sollen. Das ist von der Größe des DRAM abhängig. Ein NUMA-Clustering des Speichers ist mit CXL 2.0 Type 3 möglich. Die Erweiterung der Kapazität ermöglicht eine höhere Speicherbandbreite. Hetero Interleaving bei den Xeon-6900P-Prozessoren bringt noch vier weitere Speicherkanäle mit.
Quellen: Intel, Golem, Heise, Computer Base, hardwareLUXX