Startseite » Revolution für KI-Hardware: Forscher arbeiten an KI-Beschleuniger für Silizium-Chips

Revolution für KI-Hardware: Forscher arbeiten an KI-Beschleuniger für Silizium-Chips

Intel-CEO attackiert Nvidia Motivation, den CUDA-Markt zu eliminieren Titel

Der KI-Boom kennt kein Ende. Inzwischen arbeiten Forscher an einem KI-Beschleuniger, der innerhalb von Silizium-Chips eingesetzt werden soll. Hierfür nutzen sie erstaunlicherweise Techniken alter Recheneinheiten, die in analogen Computern eingesetzt wurden.

Technik soll in Grafikkarten zum Einsatz kommen

Innerhalb der letzten Zeit, insbesondere seitdem die Fähigkeiten künstlicher Intelligenz immer mehr in den Fokus rücken, befassen sich zunehmend Forscher mit optischen Systemen. Ebenso gewinnen analoge Computer im Zuge dieser Entwicklung wieder an Beliebtheit. Forscher nutzen derlei Systeme, um energieeffizientere Möglichkeiten zu schaffen und somit eine Hardware zu entwickeln, die deutlich besser arbeitet, ohne hohe Ressourcen in Anspruch zu nehmen.

An der University of Pennsylvania in Philadelphia veröffentlichten Forscher vor kurzem im Rahmen eines Fachmagazins einen Artikel, der sich mit ihren Arbeiten beschäftigt. In diesem erläutern sie, wie sie optische Recheneinheiten benutzen und dass diese ihnen vor allem Vorteile in Bezug auf die 2×2- und 3×3-Matrixmultiplikationen bringen. Dazu lassen sich digitale und analoge Schaltkreise, wie sie zum Beispiel bei Globalfoundries und Intel produziert werden, mit ihnen kombinieren. Dies liegt vor allem daran, weil derlei Schaltkreise über von den Unternehmen entwickelte Silicon-Photonics-Prozesse verfügen.

Zum Einsatz sollen die Prozesse vor allem in unterschiedlicher Hardware kommen. Darunter sind beispielsweise Grafikkarten, in denen die KI-Berechnung eine schnellere Rechenleistung ermöglicht.

Fertigungsverfahren wurde bereits erforscht

Schon in der Vergangenheit entwickelten Forscher eine Fertigungsmöglichkeit, die heute bereits in anderen Systemen zum Einsatz kommt. In diesem Fertigungsprozess sorgt eine Metaoberfläche dafür, dass ein bestimmtes Material mit einer Nano-Struktur versehen wird. Auf diesem Weg entstehen komplexe Linsensysteme, die sich zum Beispiel in Mikrokameras einsetzen lassen.

Kommt das Ganze nun für einen optischen Computer infrage, werden die Strukturen in eine Oberfläche aus Silizium geätzt. Das Muster erinnert dabei an Wolken. Die Dicke des Materials variiert und beträgt 220 bis 150 nm. Dies beeinflusst die Lichtleitung immens.

Das Verfahren, wie der optische Computer arbeitet, ist sehr komplex. So lassen sich durch ihn Zahlen darstellen, die infolge der Intensität und Phase der Signale entstehen. Dabei entsteht durch die Berechnungen eine Struktur, welche die Strahlungsleistung kontrolliert und an die Eingänge, beziehungsweise Ausgänge weiterleitet. Dabei sind auch komplexere Prozesse wie eine Phasenverschiebung möglich. Die Strahlteilung und Phasenverschiebung werden dabei aus den Koeffizienten einer Matrix multipliziert, die Strahlen werden hier ebenfalls durch eine Interferenz addiert.

Speicherbedarf beträgt bei entsprechender Anpassung nur noch zwei Prozent

Natürlich ergeben sich für die Forscher auch allerhand Einschränkungen im Rahmen des Projekts. So können beispielsweise nur zwei Höhen und eine geringe Differenz genutzt werden, um die Vereinfachung zu ermöglichen. Die Forscher zeigten all das anhand eines Versuchs, der an einem 2D-Modell durchgeführt wurde.

Um ein 3D-Modell zu verwenden, musste ein 10×10 Multiplikator verwendet werden, mittels dem größere Strukturen überhaupt erst entstehen können. Die Rechenzeit sank auf insgesamt unter fünf Prozent, der Speicherbedarf nahm währenddessen nur zwei Prozent der Gesamtleistung ein.

Mit dem neuen Verfahren sollen sich auch Prozessvariationen umsetzen lassen, die wesentlich unempfindlicher sind und bei denen Ungenauigkeiten beim Ätzen gar nicht erst vorkommen.

Forschung bestätigt gleichzeitig Inflexibilität

Bei all den Fortschritten zeigte sich jedoch, dass noch eine ganze Menge Arbeit nötig ist, um eine Umsetzung zu ermöglichen. Bei den Berechnungen greift das System aktuell noch auf optische Moden zurück, die über N-Eingänge eingespeist werden und von ebenso vielen Ausgängen ausgelesen werden müssen.

Aktuell stellt diese Vorgehensweise nach wie vor eine Schwachstelle dar, die von den Forschern bislang noch nicht eliminiert werden konnte. Die optische Struktur ist hierbei vorgegeben und kann nicht verändert werden, was auch der Matrix entspricht. Lediglich der Eingangsvektor lässt sich verändern.

Andere Forscher legten inzwischen auch Möglichkeiten vor, die sich mit Multiplikatoren mit konfigurierbarem Koeffizienten umsetzen lassen, doch gehen hierdurch die oben aufgeführten Vorteile verloren. Eine solche Vorgehensweise wird beispielsweise aktuell über einen Mach-Zehnder-Interferometer realisiert. Dazu kommt jedoch auch, dass rekonfigurierbare Strukturen wieder deutlich größer angelegt werden.

Aufgrund dieser Probleme lässt sich die Möglichkeit noch nicht als Ersatz für den digitalen Prozessor einsetzen. Gleichwohl könnten optische Computer für Interferencing interessant sein, sofern sie eine Metaoberfläche besitzen.

Quelle: Phys.org

Have your say!

0 0

Antwort schreiben

Your email address will not be published.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Lost Password

Please enter your username or email address. You will receive a link to create a new password via email.

Zur Werkzeugleiste springen