Der Mitbegründer und frühere Chef-Forscher von OpenAI, Ilya Sutskever, hat OpenAI bereits im Mai 2024 verlassen und seine Entscheidung damit begründet, dass er an einem anderen Projekt arbeiten wollte. Nun steht fest, um was für ein Projekt es sich handelt. Ilya Sutskever will eine Superintelligenz entwickeln, die eine Konkurrenz zu ChatGPT darstellt.
Ilya Sutskever gilt weltweit als einer der führenden Köpfe bei der Entwicklung Künstlicher Intelligenz. Nachdem er im Mai OpenAI verlassen hat, widmet er sich der Entwicklung einer Superintelligenz, die er als Safe Superintelligence, also sichere Superintelligenz, bezeichnet. Sie soll leistungsfähig sein und sich von ChatGPT fundamental unterscheiden. Mit seinem Projekt steht Sutskever nicht unter zeitlichem Druck.
Sichere Superintelligenz als erstes Produkt von Sutskever
Mitte Mai berichteten wir davon, dass der Forschungschef von OpenAI, Ilya Sutskever, das Unternehmen verlassen hat, um sich einem eigenen Projekt zu widmen. Ein Problem stellt bei OpenAI die Sicherheit dar, weshalb auch weitere Mitarbeiter und Führungskräfte bei OpenAI ausgeschieden sind. Der Forscher Leopold Aschenbrenner wurde von OpenAI entlassen und verfasste ein 165 Seiten langes Essay, in dem er ausführlich auf die Sicherheit bei OpenAI und die Gefahren von KI einging. Dieses Essay war auch Thema eines Beitrags von uns vom Mai.
Ilya Sutskever will nun eine führende Superintelligenz entwickeln und wird dabei von Daniel Levy, der ebenfalls bei OpenAI gearbeitet hat, und von Daniel Gros, der vorher bei Apple mit der Entwicklung von KI beschäftigt war, unterstützt. Ganz bewusst entzieht sich Ilya Sutskever mit seinen beiden Mitstreitern dem Wettlauf mit anderen KI-Unternehmen und dem kommerziellen Druck.
Gegenüber Bloomberg betonte Sutskever, dass die sichere Superintelligenz das erste Produkt der von ihm gegründeten Firma wird. Angetrieben wird er dabei von der Diskussion, ob leistungsstarke KI-Systeme eine Gefahr für die Menschheit darstellen könnten. Er nennt sein gerade erst aus der Taufe gehobenes Unternehmen daher Safe Superintelligence, was sichere Superintelligenz bedeutet.
Forschungslabor Safe Superintelligence nicht auf Profit ausgerichtet
Über lange Zeit war OpenAI nicht auf Profit ausgerichtet, doch einige Jahre nach der Gründung stellte das Unternehmen fest, dass es ohne ein kommerzielles Produkt nicht bestehen kann. Zur Veröffentlichung von ChatGPT schloss OpenAI daher mit Microsoft einen Vertrag in Milliardenhöhe. Kurz nach dem Vertragsabschluss zwischen OpenAI und Microsoft war Ilya Sutskever im November 2023 am überraschenden Rauswurf von OpenAI-Chef Sam Altman beteiligt. Wenige Tage später wurde dessen Entlassung aufgrund des Drucks von Mitarbeitern und von Microsoft wieder rückgängig gemacht.
Mit seinem neuen Unternehmen will Ilya Sutskever zu den Wurzeln zurückkehren. Er richtet sein Forschungslabor nicht auf Profit aus. Über die geplante Finanzierung seines Unternehmens und des Projekts machte er keine Angaben. In seinem von ihm gegründeten Start-up will er als Chefentwickler für revolutionäre Durchbrüche verantwortlich sein.
Wie sicher wird Künstliche Intelligenz sein?
Schon lange wird in der Branche diskutiert, ob KI, wenn sie eigenständiger und leistungsstärker ist, irgendwann eine Gefahr für die Menschheit darstellen könnte. Experten warnen immer wieder vor solchen Gefahren. Noch ist unklar, um welche sichere KI es sich bei dem Projekt von Ilya Sutskever handelt. Sutskever kündigte an, dass technische Durchbrüche in das KI-System integriert und nicht erst später hinzugefügt werden sollen. Solche technischen Durchbrüche sollen die Sicherheit gewährleisten.
Quellen: Safe Superintelligence, Bloomberg, Ilya Sutskever auf X, Tagesschau, Spiegel, Zeit, Hardware LUXX