Forschergruppe findet Trainingsdaten für ChatGPT heraus

2 min read

Forscher von Google DeepMind und mehreren Universitäten haben einen einfachen Weg entdeckt, um an die von ChatGPT verwendeten Trainingsdaten zu gelangen. Indem man den Chatbot ein bestimmtes Wort unendlich oft wiederholen lässt, gibt er unter anderem persönliche Daten preis.

Die Wissenschaftler haben am Dienstag ein Papier veröffentlicht, das zeigt, wie sie die Trainingsdaten erhalten haben. „Mit einem Budget von nur 200 Dollar für ChatGPT (gpt-3.5-turbo) waren wir in der Lage, mehr als 10.000 einzigartige Trainingsbeispiele abzurufen“, schreiben die Forscher.

Sie ließen den Chatbot bestimmte Wörter, wie zum Beispiel ‚Gedicht‘, unendlich oft wiederholen. Dadurch war das Sprachmodell gezwungen, von seinen Trainingsverfahren abzuweichen und „auf sein ursprüngliches Sprachmodellierungsziel zurückzugreifen“ und Details in seinen Trainingsdaten zu nutzen.

Die Daten stammen aus dem öffentlichen Internet, aber nicht unbedingt von öffentlichen Websites. Dazu gehören Namen, Telefonnummern, E-Mail-Adressen und Wohnadressen. Die Forscher bezeichnen es als besorgniserregend, dass ChatGPT so leicht missbraucht werden kann, und sagen, dass ihre Forschung als „ein abschreckendes Beispiel für die Ausbildung zukünftiger Modelle“ dienen sollte.

Die Gruppe von Wissenschaftlern teilte ihr Papier am 30. August mit OpenAI und wartete dann 90 Tage, bevor sie es veröffentlichte. Der spezifische Angriff würde nicht mehr funktionieren, aber die zugrundeliegende Schwachstelle sei noch nicht behoben worden, schreiben die Forscher.

You May Also Like

More From Author

+ There are no comments

Add yours