Der Forscher Leopold Aschenbrenner wurde von OpenAI entlassen und hat einen Aufsatz mit 165 Seiten über den raschen Fortschritt und die Zukunft von KI verfasst. Er geht auf Auswirkungen auf die Sicherheit und gesellschaftliche Folgen ein.
In den letzten Monaten haben einige Mitarbeiter bei OpenAI aufgrund von Bedenken mit der Sicherheit gekündigt. Sie begründeten in ihren Kündigungen nicht, warum sie sich über die Zukunft von KI oder den Entwicklungsansatz von OpenAI sorgen. Leopold Aschenbrenner wurde bereits im April 2024 von OpenAI entlassen und hat nun in einem 165-seitigen Essay geschrieben, was er über die Zukunft von KI denkt.
Entlassung aufgrund von Weitergabe von Informationen
Leopold Aschenbrenner war im Super Alignment Team bei OpenAI beschäftigt und für die Abschwächung der Risiken von KI zuständig. Er sagte, dass er von OpenAI entlassen wurde, da er Informationen weitergegeben haben soll, bei denen es um die Bereitschaft von OpenAI für künstliche allgemeine Intelligenz ging.
Er ist der Meinung, dass die Informationen völlig normal waren und OpenAI möglicherweise nur einen Grund suchte, um ihm zu kündigen. Er weigerte sich, so wie auch einige andere Mitarbeiter, einen Brief zu unterzeichnen, der die Rückkehr von Sam Altman, dem früheren CEO, forderte. Altmann wurde bereits im letzten Jahr entlassen.
Im Essay von Aschenbrenner sind vermutlich keine sensiblen Daten über das Unternehmen enthalten, sondern öffentlich zugängliche Informationen über allgemeines Fachwissen sind die Grundlage.
Wir berichteten bereits Mitte Mai darüber, dass ein Mitbegründer und Forschungschef von OpenAI selbst gekündigt hatte und seine Entscheidung damit begründete, dass er sich einem anderen Projekt widmen wollte. Einige Tage später berichteten wir davon, dass sich eine Mitarbeiterin aufgrund von Sicherheitsbedenken dafür entschied, das Unternehmen zu verlassen.
Ansätze über die künftige Entwicklung von KI
Der Aufsatz von Leopold Aschenbrenner wurde von ChatGPT mit wenigen Worten zusammengefasst. Der Verfasser diskutiert über das Potenzial von KI und prognostiziert für die nahe Zukunft bedeutende Fortschritte. Er reißt auch die Entwicklung aktueller KI-Modelle an.
Im Aufsatz von Leopold Aschenbrenner geht es um vier grundlegende Erkenntnisse:
- Die KI-Entwicklung beschleunigt sich in einem noch nie dagewesenen Tempo. Bis 2027 könnten KI-Modelle die Fähigkeiten menschlicher KI-Forscher erreichen. Das könnte zu einer Intelligenzexplosion führen.
- Aschenbrenner weist auf die wirtschaftlichen und sicherheitspolitischen Auswirkungen von KI hin und betont die Wichtigkeit, den Missbrauch solcher Technologien durch staatliche Akteure zu verhindern.
- In seinem Aufsatz erörtert Aschenbrenner die technischen und ethischen Herausforderungen bei KI. Er betont, dass ein Superalignment-Problem bewältigt werden müsse, um katastrophale Folgen abzuwenden.
- Aschenbrenner betont, dass sich nur wenige Menschen darüber bewusst sind, welcher Wandel durch KI ausgelöst wird. Er weist auf das Potenzial zur Verbesserung der nationalen Sicherheit, die Umgestaltung von Branchen, aber auch auf neue ethische Herausforderungen hin.
Aktuelle Lage in der Branche
Aschenbrenner weist in seinem Essay darauf hin, dass wahrscheinlich nur wenige Menschen in den KI-Laboren tatsächlich über die aktuelle Lage der Branche Bescheid wissen. Die meisten dieser Menschen sind in San Francisco tätig und bekommen einen guten Einblick in die Umgestaltung der kommenden Jahre durch KI. Aschenbrenner glaubt, dass KI künftig in der nationalen Sicherheit eine entscheidende Rolle spielen wird.
Aussichten über die Entwicklung von KI in der Zukunft
In seinem Essay sagt Aschenbrenner einige Entwicklungen für die Zukunft vorher:
- Künstliche allgemeine Intelligenz könnte bis 2027 auffallend plausibel sein. Aschenbrenner verweist auf den raschen Fortschritt von GPT-Modellen und rechnet mit einer kontinuierlichen Verbesserung der Rechenleistung.
- Aschenbrenner rechnet mit einer Intelligenzexplosion, sodass Superintelligenz übermenschliche Fähigkeiten entwickeln könnte. KI-Systeme könnten künftig ihre eigene Forschung und Entwicklung automatisieren.
- Der KI-Sektor könnte laut Aschenbrenner Investitionen in Billionenhöhe erleben, da sich Regierungen und Unternehmen auf die Auswirkungen vorbereiten.
- Aschenbrenner weist auf die Notwendigkeit nationaler Sicherheitsmaßnahmen hin und auf die Möglichkeit eines totalen Krieges, wenn der Wettbewerb nicht richtig geführt wird.
- Aschenbrenner geht auf die Superalignment-Problematik ein, bei der es darum geht, KI in Einklang mit menschlichen Werten zu bringen.
- KI führt zu tiefgreifenden wirtschaftlichen und gesellschaftlichen Umwälzungen und wirkt sich auf den Arbeitsmarkt aus.
- Aufgrund der strategischen Bedeutung von KI sieht Aschenbrenner eine Beteiligung der US-Regierung mit einem speziellen Projekt über künstliche allgemeine Intelligenz in den Jahren 2027 und 2028 voraus.
- Aschenbrenner rechnet mit einer Mobilisierung von industriellen und technischen Ressourcen, ähnlich wie in Kriegszeiten, und sieht in KI eine Priorität der nationalen Politik.
Quellen: OpenAI, X, Leopold Aschenbrenner, ChatGPT, Business Insider