20. März 2026, 11:28 Uhr | Lesezeit: 4 Minuten
Immer wieder hört man von Stars, die Opfer von Deepfakes geworden sind. Doch je bekannter das Gesicht, desto schneller kommt der Missbrauch mit manipulierten Bildern oder Videos ans Licht. Das macht in gewisser Weise „normale“ Menschen zu umso dankbareren Vorlagen für falsche erotische oder auch andersgeartete Aufnahmen. Und manchmal steckt auch ein gezielter Angriff – etwa aus Rache oder zu Betrugszwecken – dahinter. TECHBOOK erklärt, mit welchen Mitteln sich am besten herausfinden lässt, ob das eigene Bild für Deepfakes verwendet wird.
Übersicht
Deepfakes – falsche Medieninhalte mit (Gefahren-)Potenzial
Generative künstliche Intelligenzen (KI) sind mittlerweile so leistungsstark, dass ihre Deepfakes – so der Überbegriff für von einer KI erstelltes oder manipuliertes Material – oft täuschend echt wirken. Das eröffnet verschiedene Chancen, birgt aber auch zunehmend Gefahren. Auf diese ist TECHBOOK in einem weiteren Beitrag bereits ausführlich eingegangen. Ein Negativbeispiel ist der Markt mit falschen pornografischen Inhalten, in den nicht zuletzt berühmte Persönlichkeiten wie Taylor Swift unfreiwillig hineingeraten.
Doch nicht nur Prominente, sondern auch „normale“ Menschen sind zunehmend die Stars in Deepfakes. Die Beweggründe dafür können vielfältig sein: von Rachepornos, mit denen Kriminelle ihren (meist weiblichen) Opfern eins auswischen wollen, über kompromittierendes Material, das zum Zweck des Mobbings eingesetzt wird, bis hin zum Identitätsdiebstahl in betrügerischer Absicht.
Laut dem Bundesamt für Sicherheit in der Informationstechnik (BSI) ist es eine der wichtigsten Maßnahmen gegen Deepfake-Angriffe, Menschen, deren Bild potenziell missbraucht werden könnte, gezielt zu schulen. Die Behörde verweist auf die gängigen Tipps zum Erkennen von KI-generiertem Video- und Bildmaterial. TECHBOOK hat solche hier zusammengetragen. Längst gibt es auch spezielle Deepfake-Detektions-Tools (z. B. Reality Defender, Hive Moderation, Attestiv), die auf synthetische Merkmale reagieren und somit auf eine Manipulation hinweisen können. Dadurch können sie allgemein Deepfakes identifizieren. Sie helfen persönlich allerdings nicht dabei, herauszufinden, ob und wo das eigene Bild womöglich zu finden ist.
Möglichkeiten und Gefahren von Deepfakes
Ist TikTok eine Gefahr für Kinder?
Herausfinden, ob das eigene Bild in Deepfakes verwendet wird
Es ist einzuräumen, dass es derzeit keine absolut zuverlässige Methode gibt, mit der sich eine unautorisierte Nutzung des eigenen Bildes durch KI mit Sicherheit nachweisen lässt. Am ehesten gelingt dies über eine umgekehrte Bildsuche (Reverse Image Search). Zu diesem Zweck gibt es verschiedene Tools, beispielsweise Google Lens oder TinEye. Als besonders leistungsfähig gilt PimEyes – der Dienst zeigt sogar (in der kostenpflichtigen Version) manipulierte oder bearbeitete Versionen des aufgefundenen Gesichts. Die Programme funktionieren in der Regel so, dass Nutzer das womöglich missbrauchte Foto hochladen oder die URL einer Website eingeben, auf der das betreffende Bild veröffentlicht ist. Daraufhin suchen die Dienste das Web nach ähnlichen Bildern ab.
Auch der Messenger WhatsApp bietet seit einer Weile eine schnelle Möglichkeit zur Bilder-Rückwärtssuche an (mehr dazu hier).
Dem Missbrauch des eigenen Bildes zuvorkommen
Was man recht gut überprüfen kann, ist, ob das eigene Bild in öffentlich zugängliche KI-Trainingsdatensätze gelangt ist. Denn klar ist: Damit eine KI täuschend echte Bilder oder Videos generieren kann, muss sie zunächst mit Daten aus dem Netz trainiert worden sein, sprich mit Fotos von öffentlich zugänglichen Websites oder aus sozialen Netzwerken. Und auf diese Weise können sie logischerweise auch den Weg in generative KI-Modelle finden.
Der Dienst Have I been trained kann Nutzern dabei helfen, rechtzeitig einzuschreiten. Nutzer brauchen dafür nur das eigene Foto, eine Bildbeschreibung in Textform oder die URL, auf der das Bild zu finden ist, eingeben. Das Tool durchforstet dann die Bilddatensätze, die häufig zum Training von KI eingesetzt werden. Wurde es fündig, kann man der Nutzung des eigenen Bildes widersprechen.
Sollte man tatsächlich Deepfake-Aufnahmen von sich selbst im Internet gefunden haben, sollte man schnell handeln. TECHBOOK hat zum Thema Missbrauch mit KI-generierten Inhalten mit einem Anwalt gesprochen, der über die Rechte von Betroffenen aufklärt. Je nach Fall kann man zivil- oder sogar strafrechtlich gegen die Verbreitung derartiger Inhalte vorgehen.