Wie nun bekannt wurde, möchte AMD als Konkurrenzprodukt zu CUDA ein System an Multi-GPU-Setups veröffentlichen. Diese bringen Künstliche Intelligenz und Maschinelles Lernen zusammen. Nutzen könnten diese leistungsstarken Systeme vor allem Unternehmen, doch sollen sie irgendwann auch für Privatanwender interessant sein.
AMD möchte RDNA3 nutzen
Vor ein paar Tagen berichteten wir, dass AMD ein neues MCM-Patent beantragt hat. Jetzt werden weitere Neuigkeiten diskutiert, die sich jedoch um Multi-GPU-Setups drehen.
Früher wurden Multi-GPU-Technologien mit SLI und Crossfire betrieben. Inzwischen spielen diese jedoch keinerlei Rolle mehr. Stattdessen etabliert sich immer mehr die Künstliche Intelligenz, doch auch ML-Workflows geraten immer wieder ins Gespräch.
AMD möchte dies nun für seine Entwicklung nutzen und mit der neuesten Version von ROCm ein Multi-GPU-Setup entwickeln, das mit mehreren Grafikprozessoren arbeitet. Hierbei möchte der Hersteller auf die Architektur von RDNA3 (GFX1100) zurückgreifen.
Dabei sollen vor allem die folgenden Konstellationen an Grafikkarten von ROCm 6.1.3 unterstützt werden:
- 2x Radeon Pro W7900
- 2x Radeon RX 7900 XTX
- 4x Radeon Pro W7900 Dual Slot
Zudem wurde erläutert, dass bei der Radeon RX 7900 XT, Radeon Pro W7800, sowie der Radeon RX 7900 GRE nur eine Unterstützung als Single-GPU gibt. Ältere Grafikkarten wie die Radeon RX 6600, Radeon R9 Fury, sowie die RX 6900 XT sollen ebenfalls in die Liste aufgenommen werden.
Aus den Release Notes von AMD geht hervor, dass neben einer Verbesserung des Windows-Subsystems für Linux (WSL) zusätzlich der Support in Bezug auf TensorFlow verbessert wurde.
Einsatz bei Unternehmen und im privaten Bereich
In erster Linie ist ein solches Setup hauptsächlich für Unternehmen bestimmter Sparten interessant. Mit den aktuellen Fähigkeiten des ROCm in der Version 6.x ist das System für die folgenden Bereiche interessant, die von einer KI gestützt werden:
- Autonomes Fahren
- Automatisierung und Robotik
- Arzneimittelforschung
- Biowissenschaften
- Bild- und Videoerkennung
Dazu kommen weitere Funktionen, die das System übernehmen kann, wie beispielsweise Containerisierungs-Tools (Docker, Kubernetes, Slurm, Singularity), sowie weitere Workload- und Systembereitstellungen. Die genannten Systeme sind zwar ohnehin bereits recht einfach und effizient, doch sollen sie durch das neue System in Sachen ML-Anwendungsentwicklung stark beschleunigt werden.
Daneben ist die Verwendung der Entwicklung auch im privaten Bereich denkbar und könnte zukünftig noch an Bedeutung gewinnen.
Unterschiede zur Konkurrenz
Schon vor längerer Zeit gab AMD seine KI- und ML-Plattform als Open Source frei und handelt damit anders als Konkurrent Nvidia. AMD profitiert in dieser Hinsicht von der Entwicklung, denn die quelloffene Software bietet unter Linux gute Möglichkeiten, um ML-Frameworks wie Tensor Flow oder PyTorch zu verwenden.
Gleichwohl werden MIOpen und MIVisionX als Implementierung für Khronos OpenVX und OpenVX genutzt. MIOpen bietet hauptsächlich bei Hochleistungs-ML-Primitiven eine gute Option.
Im Augenblick ist das AMD ROCm in der Version 6.1 ausschließlich für Ubuntu 22.04.3 LTS verfügbar. Hierbei ist auch gewährleistet, dass es eine Langzeit-Unterstützung gibt. Ob und wann es für Windows-Systeme erscheinen soll, ist derzeit noch nicht bekannt.
Quellen: PCGamesHardware, AMD, Nvidia