Startseite » Forscher erfinden KI-Wurm, der Daten stehlen kann und weisen auf Sicherheitsrisiken hin

Forscher erfinden KI-Wurm, der Daten stehlen kann und weisen auf Sicherheitsrisiken hin

Neue Angriffs-SLAMs für bestehende und zukünftige AMD-, Intel- und Arm-CPUs Titel

Dass Künstliche Intelligenz nicht völlig sicher ist, belegt nun ein Experiment, mit dem sich Forscher beschäftigt haben. Sie kreierten einen KI-Wurm, der eine KI-Software dazu nutzen kann, Daten aufzunehmen und diese für kriminelle Zwecke zu verwenden. Anbieter wie OpenAI und Google wissen bereits Bescheid.

Künstliche Intelligenz wird immer wichtiger

In zahlreichen Unternehmen hat inzwischen Künstliche Intelligenz Einzug gehalten. Immer mehr Firmen setzen auf ihre Fähigkeiten und verlassen sich auf ihre Sicherheit. Typische Systeme wie ChatGPT, OpenAI oder Gemini von Google verzeichnen einen immer größeren Erfolg.

Die meisten sind sich sogar bewusst darüber, dass ein gewisses Risiko mit ihr verbunden ist und trotzdem nutzen sie die Systeme zu ihren Zwecken. Woran jedoch keiner denkt: Je offener die Systeme sind, desto anfälliger sind sie auch für Angriffe von außen.

KI-Wurm zeigt Sicherheitsrisiken auf

Eine generative KI hat die Eigenschaft, alle Informationen aufzunehmen und weiterzuentwickeln. Dies gibt ihr die Möglichkeit zu lernen und somit Konzepte zu konstruieren, mit denen der Nutzer arbeiten kann. Diese Eigenschaft könnte ihr jedoch auch zum Verhängnis werden.

Der von Forschern entwickelte KI-Wurm ist beispielsweise dazu in der Lage, sich ohne Mühe in das System zu integrieren und von dort aus Malware zu verbreiten oder zum Beispiel Daten zu stehlen und diese weiterzugeben. Die generativen KI-Würmer zeigen auf, dass auf diese Weise ein groß angelegter Cyberangriff sehr viel leichter für Kriminelle durchzuführen ist, als es überhaupt jemals vorher möglich war.

Im Rahmen der Studie, die von einem Forscherteam der Cornell Tech in New York durchgeführt wurde, hatte der KI-Wurm zunächst den E-Mail-Assistenten angegriffen. Auf diesem Weg erhielt er zahlreiche Daten, die sich in E-Mails befanden. Anschließend versendete er Spam-Mails mittels des Adressbuchs, welches im Programm integriert ist.

Sämtliche Sicherheitsmaßnahmen wurden mittels dieser Vorgehensweise dank Services wie Gemini und ChatGPT außer Kraft gesetzt.

Die Forscher erklärten, dass es sehr leicht möglich wäre, mittels eines solchen Wurms Daten aus den E-Mails zu extrahieren. Dabei sei es unerheblich, ob es sich um Namen, Adresse, Telefonnummer oder sogar Kreditkartendaten handelt.

Eingabeaufforderung ist schuld am Problem

Der Grund für diese einfache Vorgehensweise besteht darin, dass die meisten KI-Systeme so aufgebaut sind, dass der Nutzer eine Texteingabe vornehmen muss. Dieser Prozess kann jedoch ebenso gegen das System eingesetzt werden und einen sogenannten Jailbreak erzeugen.

Die Folge davon sind zum Beispiel hasserfüllte Inhalte, die das System wiedergibt. Abgesehen davon kann diese Abfolge der Eingaben auch dazu führen, dass einfach geheime Befehle ausgeführt werden, von denen der Nutzer gar nichts mitbekommt.

Um das Prinzip des KI-Wurms und die Auswirkungen noch besser zu verstehen, hat das Forscherteam ein Video erstellt. Dieses liefert weitere interessante Hinweise.

Zusammenarbeit zwischen Erfindern und KI-Teams geplant

Um etwas an der Situation zu ändern und auch die Nutzer der KI-Systeme zu schützen, wollen sich nun die Erfinder des KI-Wurms mit den Verantwortlichen von OpenAI und Google treffen. Auf diesem Weg soll an einer Lösung gearbeitet werden.

Quellen: YouTube, Ben Nassi

Have your say!

0 0

Antwort schreiben

Your email address will not be published.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Lost Password

Please enter your username or email address. You will receive a link to create a new password via email.

Zur Werkzeugleiste springen