
8. Mai 2025, 9:12 Uhr | Lesezeit: 2 Minuten
Täuschend echte Deepfake-Videos mit prominenten Gesichtern stellen Plattformbetreiber vor neue Herausforderungen. Doch eine Entscheidung des OLG Frankfurt zeigt nun deutlich: Ein einmaliger Hinweis reicht – und ähnliche Inhalte müssen künftig proaktiv gesperrt werden.
Nach einem aktuellen Urteil des OLG Frankfurt müssen Plattformen bei Hinweisen auf rechtswidrige Inhalte – beispielsweise durch Deepfakes – eigenständig nach sinngleichen Beiträgen suchen und diese entfernen. Im behandelten Fall ging es um Videos mit prominenten Gesichtern zur Bewerbung von Schlankheitsmitteln.
Plattform ignorierte fast identisches Video
Ein prominenter Mann wurde in mehreren Deepfake-Videos auf einer Social-Media-Plattform fälschlich als Werbefigur für Schlankheitsmittel gezeigt. In Wahrheit war weder seine Zustimmung gegeben, noch hatte er die Produkte je empfohlen. Gesicht, Name und Stimme waren missbräuchlich verwendet worden.
Zunächst forderte der Betroffene im Juli 2024 per anwaltlichem Schreiben die Plattform auf, die entsprechenden Inhalte zu entfernen. Als das nicht ausreichte, beantragte er im August 2024 eine einstweilige Verfügung gegen die Verbreitung eines bestimmten Videos („Video 1“).
Später wurde das Verfahren ausgeweitet. Im November 2024 beantragte der Mann auch die Untersagung eines zweiten, nahezu identischen Videos („Video 2“), das inhaltlich dieselben Aussagen und Darstellungen enthielt. Zwar wies das Landgericht Frankfurt die Klage zunächst ab. Doch das Oberlandesgericht (OLG) Frankfurt entschied in einem aktuellen Urteil zu diesen Deepfakes anders.
Lesen Sie aus: Möglichkeiten und Gefahren von Deepfakes
Urteil zu Deepfakes besagt, dass Plattform aktiv nach sinngleichen Inhalten suchen muss
Mit seinem Beschluss (Az.: 16 W 10/25), auf den der Deutsche Anwaltverein (DAV) hinweist, stellte das OLG Frankfurt die Rechtslage klar. Plattformbetreiber – sogenannte Host-Provider – sind nach einem konkreten Hinweis auf eine Rechtsverletzung verpflichtet, auch nach sinngleichen Inhalten aktiv zu suchen und diese zu sperren.
Dies gelte insbesondere, wenn der gemeldete Beitrag so eindeutig beschrieben wurde, dass eine mögliche Rechtsverletzung leicht zu erkennen sei. Entscheidend sei laut Gericht, dass der Anbieter die Verbreitung „von Inhalten, die mit denen in Video 2 identisch sind“, unterlassen muss.

Missbrauch mit KI-generierten Nacktbildern nimmt zu – Anwalt klärt über Rechte auf

Taylor Swift Opfer von pornografischen Deepfakes – so reagiert X

Suchmaschinen unternehmen kaum etwas gegen gefälschte Promi-Nacktbilder
Technische Lösungen gefordert
Zwar verbietet das geltende EU-Recht eine generelle Überwachungspflicht für Host-Provider. Doch das OLG sieht dennoch eine Verantwortung der Plattformen, nach konkreten Hinweisen technische Mittel einzusetzen, um auch inhaltlich nahezu identische Beiträge – etwa mit minimalen Unterschieden in Bild oder Ton – zu erkennen und zu sperren.
Im vorliegenden Fall waren „Video 1“ und „Video 2“ fast identisch. Sie unterschieden sich lediglich im Titel und in wenigen grafischen Details. Das Gericht befand, dass die Plattform die Verbreitung hätte unterbinden müssen, ohne dass es einer erneuten Abmahnung für jedes einzelne ähnliche Video bedurft hätte. Eine gesonderte rechtliche Beanstandung für jeden sinngleichen Beitrag sei laut Beschluss nicht notwendig.