Die Wurzeln von KI reichen bis in die 1950er-Jahre zurück, doch war sie vor 20 Jahren noch kaum populär. Es ist jedoch ausgerechnet eine Idee aus dem Jahr 2003, die von Forschern der Universität von Minnesota entwickelt wurde und die Effizienz von KI sogar um das 1.000-fache steigern soll.
Mit der von Forschern der Universität von Minnesota 2003 entwickelten Idee soll ein gigantischer Effizienzsprung bei KI möglich sein. Eine völlig neu gestaltete Datenverarbeitung soll Energieeinsparungen ermöglichen, die mit dem Verbrauch in einem großen Industrieland vergleichbar sind. Gerade der Datentransfer verbraucht große Mengen an Energie. Das gilt vor allem bei Big Data, den großen Datenmengen, die bei KI verarbeitet werden.
Hoher Energieverbrauch beim Datentransfer
Der Datentransfer macht einen Großteil des Energieverbrauchs aus. Die Algorithmen der Künstlichen Intelligenz arbeiten mit Big Data, großen Datenmengen, die noch mehr Energie verbrauchen. Zwischen dem Speicher und den logischen Prozessen besteht daher ein Engpass. Eine Idee, die 2003 von Forschern der Universität von Minnesota entwickelt wurde, könnte Abhilfe schaffen und den Energieverbrauch deutlich reduzieren.
Zusammenarbeit von zahlreichen Disziplinen
Um den Energieverbrauch beim Datentransfer zu reduzieren, arbeiteten zahlreiche Disziplinen zusammen, darunter Ingenieurwesen, Physik und Computerwissenschaften. Die Forscher entwickelten einige Schaltungen, die inzwischen in verschiedenen Speicherelementen und in Smart Watches genutzt werden.
Einen wichtigen Platz nimmt der Computational Random Access Memory (CRAM) ein. Mit ihm können parallele Prozesse direkt im Arbeitsspeicher berechnet und ausgeführt werden. Das ist an jeder beliebigen Stelle möglich.
Schaltungen durch magnetische Tunnelkontakte
Der Energieverbrauch lässt sich durch magnetische Tunnelkontakte anstelle von klassischen Schaltungen deutlich reduzieren. Die Tunnelkontakte können für den Wechsel zwischen 0 und 1 einen Elektronenspin anstelle der Ladung verwenden.
Bei KI-basierten Anwendungen macht der Stromverbrauch auf diese Weise nur ein Tausendstel des Stromverbrauchs von klassischen Schaltungen aus. Dabei kommen die Anwendungen zum gleichen Ergebnis wie mit der klassischen Methode. Der Stromverbrauch der neuronalen Netze weltweit lag laut Angaben der Internationalen Energieagentur 2022 bei 460 Terawattstunden. Für 2026 wird ein Verbrauch von 1.000 Terawattstunden prognostiziert.
Gigantisches Sparpotenzial für KI-Anwendungen
Die magnetischen Tunnelkontakte ermöglichen bei den KI-Anwendungen ein Sparpotenzial von gigantischen 99,9 Prozent. Das entspricht einer Einsparung von 999 Terawattstunden und dem jährlichen Stromverbrauch im 126 Millionen Einwohner zählenden Japan. Immerhin ist Japan die viertgrößte Volkswirtschaft der Welt.
Auf NPJ Unconventional Computing ist diese Einsparung noch nicht das bestmögliche Ergebnis. Der Energieverbrauch könnte weiteren Versuchen zufolge sogar um das 1.700-fache oder sogar das 2.500-fache gesenkt werden. Diese zusätzliche Effizienzsteigerung wird möglich, wenn der CRAM gezielt an einzelne Algorithmen angepasst wird. So können die Algorithmen noch effizienter und schneller berechnet werden.
Quellen: Universität von Minnesota, Internationale Energieagentur, NPJ Unconventional Computing, Notebookcheck