Zum Inhalt springen
logo Das Magazin für digitalen Lifestyle und Entertainment
Evergreener Künstliche Intelligenz Recht Tipps und Tricks Alle Themen
Wachsende Gefahr

So kann man prüfen, ob das eigene Foto für Deepfakes verwendet wird

Das eigene Bild in Deepfakes
Das eigene Bild in Deepfakes – eine schauderhafte Vorstellung. Ob sie Realität ist, kann man herausfinden. Foto: Getty Images
Artikel teilen
Laura Pomer
Freie Redakteurin

20. März 2026, 11:28 Uhr | Lesezeit: 4 Minuten

Immer wieder hört man von Stars, die Opfer von Deepfakes geworden sind. Doch je bekannter das Gesicht, desto schneller kommt der Missbrauch mit manipulierten Bildern oder Videos ans Licht. Das macht in gewisser Weise „normale“ Menschen zu umso dankbareren Vorlagen für falsche erotische oder auch andersgeartete Aufnahmen. Und manchmal steckt auch ein gezielter Angriff – etwa aus Rache oder zu Betrugszwecken – dahinter. TECHBOOK erklärt, mit welchen Mitteln sich am besten herausfinden lässt, ob das eigene Bild für Deepfakes verwendet wird.

Deepfakes – falsche Medieninhalte mit (Gefahren-)Potenzial

Generative künstliche Intelligenzen (KI) sind mittlerweile so leistungsstark, dass ihre Deepfakes – so der Überbegriff für von einer KI erstelltes oder manipuliertes Material – oft täuschend echt wirken. Das eröffnet verschiedene Chancen, birgt aber auch zunehmend Gefahren. Auf diese ist TECHBOOK in einem weiteren Beitrag bereits ausführlich eingegangen. Ein Negativbeispiel ist der Markt mit falschen pornografischen Inhalten, in den nicht zuletzt berühmte Persönlichkeiten wie Taylor Swift unfreiwillig hineingeraten.

Doch nicht nur Prominente, sondern auch „normale“ Menschen sind zunehmend die Stars in Deepfakes. Die Beweggründe dafür können vielfältig sein: von Rachepornos, mit denen Kriminelle ihren (meist weiblichen) Opfern eins auswischen wollen, über kompromittierendes Material, das zum Zweck des Mobbings eingesetzt wird, bis hin zum Identitätsdiebstahl in betrügerischer Absicht.

Laut dem Bundesamt für Sicherheit in der Informationstechnik (BSI) ist es eine der wichtigsten Maßnahmen gegen Deepfake-Angriffe, Menschen, deren Bild potenziell missbraucht werden könnte, gezielt zu schulen. Die Behörde verweist auf die gängigen Tipps zum Erkennen von KI-generiertem Video- und Bildmaterial. TECHBOOK hat solche hier zusammengetragen. Längst gibt es auch spezielle Deepfake-Detektions-Tools (z. B. Reality Defender, Hive Moderation, Attestiv), die auf synthetische Merkmale reagieren und somit auf eine Manipulation hinweisen können. Dadurch können sie allgemein Deepfakes identifizieren. Sie helfen persönlich allerdings nicht dabei, herauszufinden, ob und wo das eigene Bild womöglich zu finden ist.

Mehr zum Thema

Herausfinden, ob das eigene Bild in Deepfakes verwendet wird

Es ist einzuräumen, dass es derzeit keine absolut zuverlässige Methode gibt, mit der sich eine unautorisierte Nutzung des eigenen Bildes durch KI mit Sicherheit nachweisen lässt. Am ehesten gelingt dies über eine umgekehrte Bildsuche (Reverse Image Search). Zu diesem Zweck gibt es verschiedene Tools, beispielsweise Google Lens oder TinEye. Als besonders leistungsfähig gilt PimEyes – der Dienst zeigt sogar (in der kostenpflichtigen Version) manipulierte oder bearbeitete Versionen des aufgefundenen Gesichts. Die Programme funktionieren in der Regel so, dass Nutzer das womöglich missbrauchte Foto hochladen oder die URL einer Website eingeben, auf der das betreffende Bild veröffentlicht ist. Daraufhin suchen die Dienste das Web nach ähnlichen Bildern ab.

Auch der Messenger WhatsApp bietet seit einer Weile eine schnelle Möglichkeit zur Bilder-Rückwärtssuche an (mehr dazu hier).

Dem Missbrauch des eigenen Bildes zuvorkommen

Was man recht gut überprüfen kann, ist, ob das eigene Bild in öffentlich zugängliche KI-Trainingsdatensätze gelangt ist. Denn klar ist: Damit eine KI täuschend echte Bilder oder Videos generieren kann, muss sie zunächst mit Daten aus dem Netz trainiert worden sein, sprich mit Fotos von öffentlich zugänglichen Websites oder aus sozialen Netzwerken. Und auf diese Weise können sie logischerweise auch den Weg in generative KI-Modelle finden.

Der Dienst Have I been trained kann Nutzern dabei helfen, rechtzeitig einzuschreiten. Nutzer brauchen dafür nur das eigene Foto, eine Bildbeschreibung in Textform oder die URL, auf der das Bild zu finden ist, eingeben. Das Tool durchforstet dann die Bilddatensätze, die häufig zum Training von KI eingesetzt werden. Wurde es fündig, kann man der Nutzung des eigenen Bildes widersprechen.

Sollte man tatsächlich Deepfake-Aufnahmen von sich selbst im Internet gefunden haben, sollte man schnell handeln. TECHBOOK hat zum Thema Missbrauch mit KI-generierten Inhalten mit einem Anwalt gesprochen, der über die Rechte von Betroffenen aufklärt. Je nach Fall kann man zivil- oder sogar strafrechtlich gegen die Verbreitung derartiger Inhalte vorgehen.

Sie haben erfolgreich Ihre Einwilligung in die Nutzung unseres Angebots mit Tracking und Cookies widerrufen. Damit entfallen alle Einwilligungen, die Sie zuvor über den (Cookie-) Einwilligungsbanner bzw. über den Privacy-Manager erteilt haben. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit Tracking und Cookies entscheiden.

Bitte beachten Sie, dass dieser Widerruf aus technischen Gründen keine Wirksamkeit für sonstige Einwilligungen (z.B. in den Empfang von Newslettern) entfalten kann. Bitte wenden Sie sich diesbezüglich an datenschutz@axelspringer.de.