VG Wort
Direkt zum Inhalt wechseln
logo Mobiler Lifestyle, Streaming und Smart Finance
Auf Reddit

KI-generierte Nacktbilder sorgen für Diskussion

KI-Nacktbilder Symbolbild: Ein Bild des Künstlers Julian van Dieken inspiriert vom „Mädchen mit dem Perlenohrring“
KI-Kunst ist längst nichts Neues mehr. Ein weiterer Aspekt facht die Debatte nun aber neu an. Foto: Getty Images
Marlene Polywka Techbook
Redakteurin

13.04.2023, 15:12 Uhr | Lesezeit: 4 Minuten

Über das Forum Reddit sind Nacktfotos verkauft worden – allerdings keine realen Fotos von unbekleideten Menschen. Es handelt sich um Bilder, die von einer KI erzeugt wurden. Das sorgt nun für Diskussionen.

Artikel teilen

Unter der Überschrift „F19 Feeling pretty today“ (dt. „Fühle mich heute hübsch“) findet man auf Reddit das vermeintliche Bild einer Frau. „Claudia“ ist scheinbar eine junge Brünette mit großen grau-grünen Augen, mittellangen dunklen Haaren und sehr makelloser Haut, die für das Selfie in einem Zimmer posiert, das ein Wohnzimmer sein könnte. Nur: Claudia ist keine echte Person. Das Bild wurde von einer Künstlichen Intelligenz (KI) generiert und im Anschluss, wie viele weitere, über die Plattform Reddit verkauft. Mittlerweile wurde das entsprechende Konto gemeldet – doch die Fotos sind immer noch erhältlich. Und es gibt auch reichlich Diskussionsstoff.

Nacktbilder von KI bei Reddit

Den Grundstein für diese Geschichte hat eigentlich ein Projekt zweier Informatikstudenten gelegt. Sie hatten gemeinsam ein KI-Programm namens „Stable Diffusion“ gestartet. Ziel war es, mithilfe einer KI und auf Basis von Texteingaben möglichst realistisch erscheinende Bilder zu generieren – scheinbar mit Erfolg.

Denn wie die beiden dem Magazin Rolling Stone berichteten, nahmen sie tatsächlich gut 100 US-Dollar mit Nacktfotos von „Claudia“ ein. Der Reddit-Account sei dabei wohl „als Scherz“ gemeint. „Wir hätten ehrlich gesagt nicht gedacht, dass es so viel Anklang finden würde“, gaben die beiden an. Neben „Anklang“ wird auch Kritik an dem Vorgehen laut.

Diskussion über KI-Nacktbilder

Ein Teil der nun neu entfachten Diskussion in der Debatte um KI-generierte Abbildungen ist, dass die KI zum Trainieren Bilder realer Personen braucht – Personen, die diesem Verwendungszweck wahrscheinlich nicht explizit zugestimmt haben. Außerdem lassen sich via KI auch Bilder realer Personen noch realistischer verändern als mit Programmen wie Photoshop. Von Megastar Keanu Reeves etwa gibt es einen fiktiven Instagram-Account, auf dem der Schauspieler scheinbar alle möglichen witzigen Dinge tut. Auch dieser Content ist nicht real.

Instagram Placeholder
An dieser Stelle findest du Inhalte aus Instagram
Um mit Inhalten aus Sozialen Netzwerken zu interagieren oder diese darzustellen, brauchen wir deine Zustimmung.

Ein weiteres aktuelles Beispiel liefern auch die sogenannten virtuellen Influencer. Der fiktiven „Imma“ folgen auf Instagram 400.000 Konten. Zwar ist aus ihrer Profilbeschreibung und vor allem auch in ihren Videos erkennbar, dass es sich um eine KI-generierte Person handelt. Auf den Bildern ist das jedoch weniger eindeutig. Zudem sind darauf oft echte Menschen zu sehen, die scheinbar mit der KI-generierten Person interagieren.

Instagram Placeholder
An dieser Stelle findest du Inhalte aus Instagram
Um mit Inhalten aus Sozialen Netzwerken zu interagieren oder diese darzustellen, brauchen wir deine Zustimmung.

„Imma“ macht Werbung, teilt mit ihren Followern scheinbar ihre Gedanken- und Gefühlswelt. Unter einem Post heißt es etwa: „Ist es nicht schwierig für jemanden, das wahre Ich zu kennen? Erreichen meine aufrichtigen Gefühle jemanden? Ich möchte, dass du mein wahres Ich verstehst …“ Das Unternehmen hinter dem Account kreiert eine komplette Geschichte um die virtuelle junge Frau mit dem rosafarbenen Bob. Sie geht auf Veranstaltungen, hat Streit mit ihrem Bruder, einen Job.

Ein Problem in dieser Art der Darstellung und Emotionalität ist laut Medienexperte Oliver Zöllner vom Stuttgarter Institut für Digitale Ethik oft die fehlende Transparenz. Wie die Programme dahinter arbeiten, sei nicht immer klar. Auch sei nicht für jeden direkt erkennbar, dass es sich nicht um reale Personen handeln würde, so Zöllner gegenüber der Nachrichtenagentur dpa. Nicht zu vernachlässigen ist laut dem Experten zudem das recht undurchsichtige „Geschäftsmodell der Datengewinnung und -ausbeutung“. Im Fall der KI-Nacktbilder bei Reddit war den Käufern offenbar nicht bewusst, dass die Bilder keine echten Menschen zeigen.

Mehr zum Thema

KI könnte die Porno-Branche verändern

Eine weitere Problematik bei KI-Nacktbildern wird oft mit der Porno-Industrie verknüpft, wo „Deepfakes“ häufiger auftreten. Dabei wird das Gesicht einer Person ohne deren Zustimmung mithilfe von KI in pornografische Inhalte eingefügt. Die Opfer sind meist Frauen. Doch Nacktbilder von Personen, die komplett KI-generiert sind, könnten auch eine Veränderung anstoßen. Das sehen auch die beiden Studenten so, die die fiktiven „Claudia“ erschaffen haben. „Die Person, die die Bilder kauft, ist ja zufrieden mit dem Ergebnis ist, da sie ja nach Pornos gesucht hat (…). Wir haben nie gesagt, dass es Bilder von einer echten Person sind und die Käufer haben nie wirklich danach gefragt. Sie haben es einfach angenommen.“

Mittlerweile ist das anders. Seit die Beiträge von „Claudia“ gemeldet wurden, sind ihre Posts mit einem entsprechenden Hinweis versehen. Ein Moderator des Forums weist außerdem explizit darauf hin, dass solche KI-generierten Inhalte nicht gegen die Regeln der Plattform verstoßen würden. Und nicht jeder stört sich an den KI-Nacktfotos.

Tatsächlich gibt es inzwischen sogar Communitys explizit für pornografische Inhalte von KIs. Das bietet unter anderem den Vorteil, dass die persönlichen Vorlieben der Nutzer anders bedient werden können. Das zeigt sich am Beispiel von „Claudia“. Die Texteingabe lautete hier: „Ohne Make-up mit schwarzen Haaren, schulterlangen Haaren, einfachem Hintergrund, glattem Haar, Ponyfrisur“. Mehr war nicht nötig für die Erstellung eines entsprechenden Bildes.

Themen Künstliche Intelligenz
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale-Netzwerke zu teilen, brauchen wir deine Zustimmung für
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.