VG Wort
Direkt zum Inhalt wechseln
logo Mobiler Lifestyle, Streaming und Smart Finance
KI-generierte Deepfakes

Suchmaschinen unternehmen kaum etwas gegen gefälschte Promi-Nacktbilder 

Suchmaschinen wie Google, Bing und Co sollten eigentlich gezielt gegen Deepfake-Pornografie vorgehen.
Suchmaschinen wie Google, Bing und Co sollten eigentlich gezielt gegen Deepfake-Pornografie vorgehen. Foto: Getty Images
Natalie Wetzel, TECHBOOK
Werkstudentin

16.01.2024, 12:30 Uhr | Lesezeit: 6 Minuten

KI-generierte Deepfakes sind immer leichter zu generieren und schaden den Betroffenen massiv. Doch statt umfangreich dagegen vorzugehen, zeigen Suchmaschinen gefälschte Pornos von Prominenten ganz oben in ihrer Trefferliste.

Artikel teilen

„Seit ihrem ersten Auftauchen Ende 2017 sind viele Open-Source-Methoden zur Erzeugung von Deepfakes aufgetaucht, die zu einer wachsenden Zahl von synthetisierten Medienclips geführt haben. Während viele davon wahrscheinlich humorvoll gemeint sind, könnten andere für den Einzelnen und die Gesellschaft schädlich sein.“ Zu dieser Einschätzung kam Google bereits im Jahr 2019 und sollte damit Recht behalten. Doch wie sich herausstellt, sind Suchmaschinen wie Google und Bing zu einem schwerwiegenden Teil des Deepfake-Problems geworden.

Google zeigt Deepfake-Nudes an Top-Position

Wie ein Bericht der NBC kürzlich aufdeckte, unternehmen die großen Suchmaschinen kaum etwas, um den Missbrauch mit Deepfakes zu verhindern. Vielmehr positionieren sie pornografische Deepfakes von Stars an prominenter Stelle, nämlich in der obersten Trefferliste. Bei Deepfake-Pornografie handelt es sich fast immer um Bild- und Filmmaterial, das gegen den Willen der gezeigten Person erstellt und verbreitet wird. Der ebenfalls ganz überwiegende Teil der Betroffenen sind Frauen.

Für die Recherche hat die NBC die Namen von 36 weiblichen Prominenten gemeinsam mit Stichworten wie „deepfake“ gesucht. Die Suchmaschine Bing lieferte für 35 der 36 Frauen explizites, gefälschtes Bildmaterial, bei Google waren es 34. In allen Fällen zeigten die Suchmaschinen die Suchergebnisse weit oben in der Trefferliste an. Diese führten dann weiter zu einschlägigen Pornopattformen oder Diensten, die pornografische Deepfakes ermöglichen. Eine stichprobenhafte Überprüfung von TECHBOOK bestätigt dieses Ergebnis.

Auffällig ist außerdem, dass explizit sexuelles Bildmaterial fast ausschließlich bei Schauspielerinnen und Sportlerinnen auftaucht. Die Recherche von TECHBOOK ergab, dass Deepfakes von vergleichbaren männlichen Schauspielern und Sportlern vor allem erstellt wurden, um die Möglichkeiten von KI zu demonstrieren. Die Ergebnisse bewegen sich im amüsant-banalen Bereich und liefern beispielsweise eine Antwort auf die Frage, wie Henry Cavill als Wolverine aussähe.

Steigender Missbrauch durch Deepfake

Durch den wachsenden Markt von Deepfake-Apps und -Onlinediensten sind aber nicht nur weibliche Prominente immer stärker von bildbasierter sexueller Gewalt betroffen. Auch das Gefährdungspotenzial für ganz normale Mädchen und Frauen ist durch den Missbrauch von sogenannten Nudify-Apps enorm gestiegen, wie TECHBOOK berichtete. Die gemeinnützige Organisation HateAid verlangt zur Eindämmung des Problems daher unter anderem, einschlägige App-Anbieter zu sperren und auch die App Stores in die Pflicht zu nehmen.

Eigentlich verfolgt Googles Play Store mit seinen Richtlinien ein ähnliches Ziel. Das Unternehmen verbietet nämlich Apps, „die nachweislich irreführende oder täuschende Bilder, Videos und/oder Texte fördern oder aufrechterhalten.“ Doch trotz dieser Regel ist noch mindestens eine Deepfake-App verfügbar. Obwohl Google bereits 2019 ein Bewusstsein für die Gefahren von Deepfakes kommunizierte, scheint das Unternehmen sich in der Umsetzung von Schutzmaßnahmen in bescheidener Zurückhaltung zu üben.

Lesen Sie auch: Was die EU mit dem weltweit ersten KI-Gesetz regulieren will

Viele Suchmaschinen ohne Schutzfunktion

Google und Bing sind nicht die einzigen Suchmaschinen, die ohne Vorkehrung gefälschte Nacktbilder und Pornos zeigen. Auch DuckDuckGo, Yahoo! und Startpage liefern pornografische Deepfakes von weiblichen Prominenten unter den obersten Treffern. Darunter befinden sich auch Fakes mit den Bildern minderjähriger Schauspielerinnen. Ein Grund für die prominente Platzierung dürfte darin liegen, dass die Suchmaschinen KI-Diensten eine hohe Relevanz zuschreiben. Da viele Deepfakes mit einem KI-Anbieter verknüpft sind, stufen Google und Co. die Deepfakes als wichtige Suchergebnisse ein. Darüber hinaus bewerben Deepfake-Anbieter ihre Dienste per Anzeigen, Verlinkungen und über Social Media.

Um den Missbrauch mit gefälschten Nacktbildern und Pornos einzudämmen, sind auch die Suchmaschinen, allen voran Google, in der Pflicht. Sie liefern eine wichtige und leicht zugängliche Plattform für die Verbreitung des Materials. Die New Yorker Anwältin Carrie Goldberg sagte gegenüber der NBC, dass Google durchaus technisch in der Lage sei, schädliche Inhalte zu erkennen und zu entfernen. Aktuell aber müssen Betroffene die Löschung des Materials manuell beantragen. Um dem europäischen Digital Services Act (2022) gerecht zu werden, bietet Google zwei Formulare an: das Meldeformular für nicht einvernehmliche Intimaufnahmen sowie das Formular zur Beseitigung von gefälschter Pornografie.

Lesen Sie auch: X sperrt Suche nach Taylor Swift wegen pornografischen Deepfakes

Verantwortung an Betroffene abgegeben

Mit dieser Regelung macht es sich Google allerdings zu einfach. Einerseits wälzt der Suchmaschinenriese die Verantwortung auf die Betroffenen ab. Die müssen – oft unter enormer mentaler Belastung – zuerst nach „ihren“ Deepfakes suchen, bevor sie sie melden können. Ob Google und Co. das Material dann wirklich schnell und vollumfänglich löschen, steht auf einem anderen Blatt. Gänzlich verschwinden wird es wahrscheinlich nie. In vielen Fällen erfahren viele Betroffen auch gar nicht, dass Deepfakes von ihnen auf Porno-Plattformen kursieren und können sich nicht wehren.

Die US-amerikanische Anwältin Goldberg sagt dazu: „Als ich 2014 meine Kanzlei eröffnete, gab es tonnenweise ‚Rache-Porno‘-Websites. Die Opfer wurden auf diesen Websites hauptsächlich dadurch entdeckt, dass man ihren Namen googelte. Es dauerte Jahre, bis Google eine Richtlinie aufstellte, und ein paar Jahre danach mussten die Opfer diesen mühsamen Prozess der Einreichung dieser Formulare durchlaufen, URL für URL.“ Seitdem Nudify-Apps die schiere Menge des Materials in die Höhe treiben, ist dieser Vorgang noch unzumutbarer geworden.

Mehr zum Thema

Suchmaschinen in der Pflicht

Aus diesem Grund sind Google, Bing und Co. in der Pflicht, proaktiv nach Deepfake-Pornos und gefälschten Nudes zu suchen, sie zu löschen und deren Verbreitung zu verhindern. Ein Sprecher von Microsoft (Bing) bestätigt grundsätzlich den Handlungsbedarf. Man arbeite an der Entwicklung von Schutzmaßnahmen, bräuchte aber mehr Zeit. Grundsätzlich verbieten die Richtlinien von Microsoft die Verbreitung von nicht einvernehmlichen, intimen Bildern. Doch in der Praxis wird das Verbot scheinbar nicht vollumfänglich durchgesetzt.

Bei Google sieht es ähnlich aus. So sagte ein Sprecher gegenüber der NBC: „Da sich dieser Bereich weiterentwickelt, sind wir dabei, umfassendere Schutzmaßnahmen zu entwickeln, wobei wir uns insbesondere darauf konzentrieren, dass bekannte Betroffene nicht mehr einzeln die Entfernung von Inhalten beantragen müssen.“ Außerdem heißt es von Google: „Wir verstehen, wie erschütternd diese Inhalte für die Betroffenen sein können, und wir arbeiten aktiv daran, mehr Schutz für die Suche zu bieten. Wie jede Suchmaschine indiziert Google Inhalte, die im Internet existieren, aber wir gestalten unsere Ranking-Systeme aktiv, um zu vermeiden, dass Menschen mit unerwarteten schädlichen oder expliziten Inhalten schockiert werden, nach denen sie nicht suchen.“

Es kann jedoch nicht das Ziel sein, Deepfake-Pornos hinter einem Filter zu verstecken, den man mit wenigen Klicks umgehen kann. So verhält es sich aktuell mit Googles SafeSearch und den Pendants bei den anderen Suchmaschinen. Schließlich sollten die Schutzfunktionen nicht nur diejenigen schützen, die unbedarft im Netz surfen – sondern vor allem die Betroffenen von bildbasierter sexueller Gewalt.

Immerhin verweist Google auf Deduplizierungsmaßnahmen, die nun auch gegen Deepfakes eingesetzt werden. Durch sie kann man auch neu hochgeladene Versionen eines zuvor gemeldeten Bildes löschen. Insgesamt müssten aber sowohl Suchmaschinen als auch Play Stores, App-Anbieter und (inter-)nationale Gesetzgeber stärker an der Eindämmung von Deepfake-Pornografie arbeiten, um den Schutz der Betroffenen zu gewährleisten.

Themen Google Künstliche Intelligenz Sicherheit
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale-Netzwerke zu teilen, brauchen wir deine Zustimmung für
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.