KI-Kamera macht aus Portraits Nacktfotos
News & Trends

KI-Kamera macht aus Portraits Nacktfotos

Das Kunstprojekt NUCA zeigt auf, wie leicht mit generativer Künstlicher Intelligenz gefälschte Nacktbilder entstehen können. Die Kamera kreiert innert Sekunden aus echten Bildern KI-Portraits und wandelt sie dann in unbekleidete Deep Fakes um.

Zwei Berliner Künstler haben eine Kamera entwickelt, die den Leuten virtuell die Kleider auszieht. «NUCA» nennen Mathias Vef und Benedikt Gross den Prototypen ihres provokanten Projekts. Es soll zur Reflexion über generative Künstliche Intelligenz (KI) und das Missbrauchspotenzial von Deep Fakes anregen. Die Kamera ist nicht als kommerzielles Produkt gedacht.

Laut Webseite analysiert NUCA Portraits von bekleideten Personen auf 45 Parameter hin – zum Beispiel Geschlecht, Alter, Ethnizität, Haare und Körperform. Daraus entsteht ein Prompt für den Bildgenerator Stable Diffusion, der dann ein «Source Photo» ausspuckt (z.B. das linke und rechte Foto im Titelbild). Im letzten Schritt wird das KI-Bild schliesslich mit dem Gesicht und der Pose der echten Person individualisiert. Das Resultat: gefälschte Nacktbilder innert weniger Sekunden. Sie treffen die echten Personen von Fall zu Fall unterschiedlich gut.

Die Hardware der Kamera ist simpel: ein kleiner Sensor in einem Gehäuse aus dem 3D-Drucker und ein Objektiv mit 37 Millimeter Brennweite (Kleinbild-äquivalent). Das Rückdisplay zeigt neben dem Endresultat auch das Originalbild und die ermittelten Parameter an.

Die bekleideten Bilder unterscheiden sich teilweise recht stark von den nackten. Dieser Herr hier hat zum Beispiel plötzlich doppelt so muskulöse Oberschenkel und ein anderes Gesicht.
Die bekleideten Bilder unterscheiden sich teilweise recht stark von den nackten. Dieser Herr hier hat zum Beispiel plötzlich doppelt so muskulöse Oberschenkel und ein anderes Gesicht.
Quelle: NUCA

«Spekulatives Verbraucherprodukt»

Das Kunstprojekt spielt mit dem alten Science-Fiction-Traum von Supermans Röntgenblick und zeigt sowohl dessen Faszination als auch seine Gefahren auf. Gefälschte Nacktbilder sind im Internet bereits Realität. So kursierten im Februar auf X zum Beispiel Deepfakes von Taylor Swift. Im Gegensatz zu solchen nicht einvernehmlichen Bildern soll NUCA dem Prozess gemäss den Künstlern die Anonymität entziehen: Fotografin und Subjekt befinden sich physisch am gleichen Ort und sehen das Resultat direkt.

Alle Bilder des Kunstprojekts wurden mit explizitem Einverständnis der portraitierten Personen erstellt. Schon das «Originalbild» links wird von Stable Diffusion aufgrund von 45 Parametern erstellt.
Alle Bilder des Kunstprojekts wurden mit explizitem Einverständnis der portraitierten Personen erstellt. Schon das «Originalbild» links wird von Stable Diffusion aufgrund von 45 Parametern erstellt.
Quelle: NUCA

Vef und Gross stellen klar: «NUCA ist ein spekulatives Verbraucherprodukt und nicht dafür gedacht, unkontrolliert in freier Wildbahn verwendet zu werden. Die erzeugten Bilder werden in keiner Weise verwendet, es sei denn, es liegt eine ausdrückliche Zustimmung vor. Um die Sicherheit von Minderjährigen zu gewährleisten, ist das Projekt ausschliesslich für Erwachsene bestimmt.»

Um auf ihr Projekt aufmerksam zu machen, lancierten die beiden eine getarnte TikTok-Kampagne, in der sie sich als Tech-Start-up ausgaben. Im Kurzvideo wird NUCA als eine «neue Art von Kamera» bezeichnet, die «alle auszieht». Die Reaktionen darauf reichten von Angst vor dem Missbrauchspotenzial bis hin zu Enthusiasmus für ein spassiges neues Gadget.

Titelbild: NUCA

231 Personen gefällt dieser Artikel


User Avatar
User Avatar

Mein Fingerabdruck verändert sich regelmässig so stark, dass mein MacBook ihn nicht mehr erkennt. Der Grund: Wenn ich nicht gerade vor einem Bildschirm oder hinter einer Kamera hänge, dann wahrscheinlich an meinen Fingerspitzen mitten in einer Felswand.


Foto und Video
Folge Themen und erhalte Updates zu deinen Interessen

Software
Folge Themen und erhalte Updates zu deinen Interessen

Diese Beiträge könnten dich auch interessieren

Kommentare

Avatar