Startseite » Forscher zeigen KI-Tool, das Bilder mit zwei Mausklicks manipulieren kann

Forscher zeigen KI-Tool, das Bilder mit zwei Mausklicks manipulieren kann

Forscher haben ein experimentelles KI-Tool vorgestellt, das Bilder in kürzester Zeit vollständig manipulieren kann. So soll es beispielsweise möglich sein, ein Gesicht zu drehen und den Gesichtsausdruck mit zwei Mausklicks anzupassen.

Das Tool mit dem Namen DragGAN wurde entwickelt, um spezifische Änderungen an bestimmten Teilen von Bildern vorzunehmen, ohne das gesamte Bild zu verändern. Dazu müssen die Benutzer zwei Punkte auf dem Foto markieren: den Teil, der verändert werden soll, und die Stelle auf dem Foto, an der dieser Teil erscheinen soll. Das Tool sollte den Rest erledigen, so die Forscher.

„Mit DragGAN kann jeder ein Bild mit präziser Kontrolle über die Position der Pixel verzerren und die Pose, Form, den Ausdruck und das Layout verschiedener Kategorien wie Tiere, Autos, Menschen und Landschaften manipulieren“, schreibt das Forscherteam. Im Gegensatz zu Photoshops Warp-Werkzeug beispielsweise werden keine bestehenden Pixel verändert, sondern das neuronale Netz erzeugt völlig neue Pixel.

So kann das Werkzeug beispielsweise das Maul eines Löwen öffnen und das Tier dann durch Drehen des Kopfes in eine andere Richtung blicken lassen. Auch Kleidungsstücke wie Ärmel von Menschen werden verlängert, und man kann sehen, wie Arme und Beine bewegt werden. Ein anderes Beispiel zeigt, wie ganze Landschaften verändert werden.

Die meisten Bilder in den Beispielen sind KI-generiert, aber die Forscher sagen, dass das Tool auch in der Lage sein sollte, mit echten Fotos umzugehen. Dies wird anhand eines lächelnden Fotos von US-Präsident Joe Biden demonstriert, das sich innerhalb von Minuten in einen schockierten Gesichtsausdruck verwandelt, wobei auch sein Kopf gedreht wird.

Den Forschern zufolge ist das Tool in der Lage, „selbst bei schwierigen Szenarien, wie z. B. verdeckten Teilen, realistische Ergebnisse zu erzielen, die konsequent der Steifigkeit des Objekts folgen“. Das Team verspricht, den Code des Tools nächsten Monat auf GitHub zu veröffentlichen.

An dem Projekt waren sechs Forscher beteiligt, die unter anderem an deutschen und US-amerikanischen Universitäten tätig sind. Auch Abhimitra Meka, ein Forscher in der AR-Abteilung von Google, hat daran mitgearbeitet.

Have your say!

0 0

Leave a Reply

Your email address will not be published.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

Lost Password

Please enter your username or email address. You will receive a link to create a new password via email.

Zur Werkzeugleiste springen