Dass Künstliche Intelligenz nicht völlig sicher ist, belegt nun ein Experiment, mit dem sich Forscher beschäftigt haben. Sie kreierten einen KI-Wurm, der eine KI-Software dazu nutzen kann, Daten aufzunehmen und diese für kriminelle Zwecke zu verwenden. Anbieter wie OpenAI und Google wissen bereits Bescheid.
Künstliche Intelligenz wird immer wichtiger
In zahlreichen Unternehmen hat inzwischen Künstliche Intelligenz Einzug gehalten. Immer mehr Firmen setzen auf ihre Fähigkeiten und verlassen sich auf ihre Sicherheit. Typische Systeme wie ChatGPT, OpenAI oder Gemini von Google verzeichnen einen immer größeren Erfolg.
Die meisten sind sich sogar bewusst darüber, dass ein gewisses Risiko mit ihr verbunden ist und trotzdem nutzen sie die Systeme zu ihren Zwecken. Woran jedoch keiner denkt: Je offener die Systeme sind, desto anfälliger sind sie auch für Angriffe von außen.
KI-Wurm zeigt Sicherheitsrisiken auf
Eine generative KI hat die Eigenschaft, alle Informationen aufzunehmen und weiterzuentwickeln. Dies gibt ihr die Möglichkeit zu lernen und somit Konzepte zu konstruieren, mit denen der Nutzer arbeiten kann. Diese Eigenschaft könnte ihr jedoch auch zum Verhängnis werden.
Der von Forschern entwickelte KI-Wurm ist beispielsweise dazu in der Lage, sich ohne Mühe in das System zu integrieren und von dort aus Malware zu verbreiten oder zum Beispiel Daten zu stehlen und diese weiterzugeben. Die generativen KI-Würmer zeigen auf, dass auf diese Weise ein groß angelegter Cyberangriff sehr viel leichter für Kriminelle durchzuführen ist, als es überhaupt jemals vorher möglich war.
Im Rahmen der Studie, die von einem Forscherteam der Cornell Tech in New York durchgeführt wurde, hatte der KI-Wurm zunächst den E-Mail-Assistenten angegriffen. Auf diesem Weg erhielt er zahlreiche Daten, die sich in E-Mails befanden. Anschließend versendete er Spam-Mails mittels des Adressbuchs, welches im Programm integriert ist.
Sämtliche Sicherheitsmaßnahmen wurden mittels dieser Vorgehensweise dank Services wie Gemini und ChatGPT außer Kraft gesetzt.
Die Forscher erklärten, dass es sehr leicht möglich wäre, mittels eines solchen Wurms Daten aus den E-Mails zu extrahieren. Dabei sei es unerheblich, ob es sich um Namen, Adresse, Telefonnummer oder sogar Kreditkartendaten handelt.
Eingabeaufforderung ist schuld am Problem
Der Grund für diese einfache Vorgehensweise besteht darin, dass die meisten KI-Systeme so aufgebaut sind, dass der Nutzer eine Texteingabe vornehmen muss. Dieser Prozess kann jedoch ebenso gegen das System eingesetzt werden und einen sogenannten Jailbreak erzeugen.
Die Folge davon sind zum Beispiel hasserfüllte Inhalte, die das System wiedergibt. Abgesehen davon kann diese Abfolge der Eingaben auch dazu führen, dass einfach geheime Befehle ausgeführt werden, von denen der Nutzer gar nichts mitbekommt.
Um das Prinzip des KI-Wurms und die Auswirkungen noch besser zu verstehen, hat das Forscherteam ein Video erstellt. Dieses liefert weitere interessante Hinweise.
Zusammenarbeit zwischen Erfindern und KI-Teams geplant
Um etwas an der Situation zu ändern und auch die Nutzer der KI-Systeme zu schützen, wollen sich nun die Erfinder des KI-Wurms mit den Verantwortlichen von OpenAI und Google treffen. Auf diesem Weg soll an einer Lösung gearbeitet werden.
Quellen: YouTube, Ben Nassi