Bild.de Hier geht es zurück zu Bild.de

Künstliche Intelligenz

Deep Fakes – Möglichkeiten und Gefahren der realistischen KI-Gesichter

Frau verwundert von Deep Fakes
Deep Fakes sehen teilweise extrem realistisch ausFoto: Getty Images

Der Begriff Künstliche Intelligenz (KI) wird oft für simples Maschinenlernen oder nachgeahmte Intelligenz genutzt. Aber es gibt auch wirklich verblüffende Anwendungen für sogenannte Deep Fakes.

Es ist kaum zu glauben: F5, F5, F5 – bei jedem Tastendruck ein anderer Mensch. Na ja, zumindest ein neues Porträt eines anderen Menschen, so scheint es. Ob die Leute wohl damit einverstanden sind, dass sie zu Tausenden hochauflösend im Netz stehen? Oder ist das eine Datenbank mit Fotos gesuchter Straftäterinnen und Straftätern? Alles falsch: Auf „ThisPersonDoesNotExist.com“ zeigt der Entwickler Phil Wang Fake-Gesichter, Porträts von Menschen, die es einfach nicht gibt. Computer erstellen die beeindruckend realistischen Porträts (Deep Fakes) in Echtzeit. Genauer gesagt sind es zwei miteinander verschaltete neuronale Netze, die fortlaufend mit Fotos echter Menschen trainiert werden.

Deep Fakes mit Qualitätskontrolle

Dann geht das Spiel los: Das eine neuronale Netz berechnet aus all den möglichen menschlichen Merkmalen, die es sich beim Lernen eingeprägt hat, von Gesichtsformen über Hauteigenschaften und Augenfarben bis hin zu Frisuren, ganz und gar neue Gesichter. Dann bewertet das andere neuronale Netz das Ergebnis mit eigenen Erfahrungswerten. Besteht das Fake-Gesicht den „Realitätscheck“, wird es als fertig ausgegeben. Sonst muss das erste Netz noch einmal nacharbeiten.

Zu mehr als 90 Prozent sind die Ergebnisse so realistisch, dass jemand, der nicht weiß, wie das Porträt zustande gekommen ist, keinerlei Zweifel an seiner Authentizität hegen würde. Doch hier und da kommen auch noch einmal fehlerhafte Gesichter heraus, was ja auch irgendwie beruhigend ist. Häufig stimmt dann etwas nicht mit der Gesichtssymmetrie, jemanden wächst der Schirm einer Basecap aus der Stirn oder es gibt Texturfehler auf der Haut, an Übergängen oder im Hintergrund.

Künstliche Kunst und realistische Ahnen

Andere Projekte erwecken generierte Gesichter zum Leben, etwa auf dem KI-Portal Altered Qualia, das künstliche Kunst (Artificial Art) präsentiert. Dort beginnen die Porträts zu lächeln, bevor sie vom nächsten Gesicht überlagert werden (Morphs). Zusätzlich folgen die Augen und bewegen sich die Köpfe mit dem Mauszeiger. Noch mehr spannende Beispiele finden sich auf der Hauptseite des Portals.

Und auf Twitter teilen Nutzer*innen gerade zahllose KI-Animationen, die von einem Ahnenforschungsportal stammen. Das Unternehmen bietet seinen Kundinnen und Kunden neuerdings die Möglichkeit, selbst hochgeladene Porträts quasi zum Leben zu erwecken, mit Kopf- und Augenbewegungen und hier und da auch mit einem Lächeln – und nennt das Ganze Deep Nostalgia. Das funktioniert sogar mit Gesichtern von Gemälden oder Plastiken recht gut und realistisch.

Die Gefahren durch den Missbrauch von Deep Fakes

Deep Fakes mögen zwar eine technische Errungenschaft sein. Diese kann aber, wie die meisten anderen, auch missbraucht werden. Gerade jene Bilder und Videos, die im Netz am häufigsten geklickt werden, sind oft gefälscht oder aus dem Zusammenhang gerissen. Während man im Internet zumindest ein bisschen bei Fotomontagen sensibilisiert ist, sind Deep Fakes im Video-Bereich ein eher neues Phänomen. Hier rechnen viele nicht damit, dass eine solche Manipulation überhaupt möglich ist. Schlagzeilen machten Video-Deep-Fakes zum Beispiel, als betrügerische Gruppen Gesichter von Hollywood-Schauspielerinnen in pornographische Filme gefälscht haben. Die gute Nachricht: Derzeit sind die Video-Fakes noch nicht so ausgereift und oft leicht zu erkennen. Das wird sich in Zukunft aber ändern. Bleiben Sie also aufmerksam.

Mit Material von dpa