OpenAI hat einen sogenannten „Agenten“ für ChatGPT veröffentlicht. Er heißt Operator und kann eigenständig Aktionen in einem Browser durchführen. Das Tool ist vorerst nur in der Forschungsphase als Beta verfügbar, kann aber „alles tun, was jeder in einem Browser mit einer Tastatur und Maus tun kann“.
Im Moment kann der Operator-Agent nur von Abonnenten des ChatGPT Pro-Abonnements genutzt werden, das 200 Dollar pro Monat kostet. Außerdem kann er vorerst nur von US-Nutzern verwendet werden. Letztendlich plant OpenAI, das Tool auch für Plus-, Team- und Enterprise-Abonnenten freizugeben.
Operator ist ein Agent, der in der Praxis alles tun können soll, was ein Nutzer auch auf einer Website innerhalb eines Browsers mit Tastatur und Maus tun kann, sagt OpenAI. Als konkrete Beispiele nennt sie das Ausfüllen von Formularen, das Bestellen von Lebensmitteln und das Erstellen von Memes. Dazu müssen die Nutzer lediglich eine Eingabeaufforderung in den Browser eingeben und dem Operator beschreiben, was sie tun wollen. Die Nutzer können Operator auch bestimmte Anweisungen erteilen, zum Beispiel, dass bei der Buchung von Flugtickets nur bestimmte Fluggesellschaften berücksichtigt werden sollen. OpenAI arbeitet mit verschiedenen Unternehmen wie DoorDash und Uber zusammen, um spezifische Eingabeaufforderungen zu ermöglichen.
OpenAI hat ein neues KI-Modell für Operator veröffentlicht: Computer-Using Agent. Dieses Modell beinhaltet unter anderem eine Kombination aus der visuellen Erkennung, die in GPT-4o enthalten ist, und dem sogenannten logischen Schlussfolgern von Informationen, um Aktionen im Browser durchzuführen. So wird bei der Eingabe nicht nur ein Text interpretiert, sondern auch ein Bildschirmfoto angehängt, das CUA analysiert. Bei jeder neuen Aktion, z.B. wenn der Operator auf eine Schaltfläche klickt, folgt ein neuer Screenshot.
Bestimmte Aktionen wie Bankgeschäfte, bei denen Benutzer sensible Daten austauschen, kann der Benutzer nicht durchführen. Andere Websites, wie z. B. E-Mail-Dienste, müssten vom Benutzer aktiv beobachtet werden. OpenAI hat auch eine Reihe von Sicherheitsvorkehrungen eingebaut, die verhindern sollen, dass das Tool funktioniert, wenn es bemerkt, dass ein Nutzer cyberkriminelle Handlungen durchführt.