Optische Täuschung

Googles Künstliche Intelligenz verwechselt Schildkröte mit Gewehr

Schildkröte im Wasser
Objekte, die für den Menschen einfach zu erkennen sind, stellen KI-Systeme oft noch vor Herausforderungen.
Foto: Getty Images

Unser Alltag wird immer mehr von Computern bestimmt. Wie leicht diese sich austricksen lassen, zeigen nun Forscher in den USA – mit einer optischen Täuschung für Googles Künstliche Intelligenz.

Eigentlich sind Computer da, um uns das Leben zu erleichtern: Selbsteinparkende Autos sollen uns langwieriges Umherrangieren ersparen, automatische Gesichtserkennung das Freischalten unserer Smartphones vereinfachen und digitale Assistenten wie Siri und Alexa uns mit Infos und Tipps für den Alltag versorgen. Doch so gut Computersysteme die menschlichen Hirnfunktionen auch imitieren können, in manchen Angelegenheiten sind sie uns bis heute unterlegen – denn auch die ausgeklügeltsten Algorithmen und fortschrittlichsten künstlichen neuronalen Systeme lassen sich austricksen.

Google-KI hält Schildkröte für Gewehr

So haben Sicherheitsforscher des Massachusetts Institute of Technology (MIT) nun bewiesen, dass sie mit geringem Aufwand die Künstliche Intelligenz (KI) von Google austricksen können – mit schwerwiegenden Folgen. Für ihre Versuchsreihe druckten die Forscher ein 3D-Modell einer gewöhnlichen Schildkröte. Während das KI-System das Tier ursprünglich problemlos erkennen konnte, reichten bereits kleine optische Änderungen, um es zu verwirren: Die augenscheinlich ganz normale Schildkröte wurde plötzlich als Gewehr identifiziert.

Um die optische Täuschung für Googles Bilderkennungsprogramm Inception-v3 zu erschaffen, mussten die Forscher lediglich die Farbe des Schildkröten-Modells etwas ändern. Für das menschliche Auge ist dieser Unterschied kaum zu erkennen, für das KI-System, das Pixel nutzt, um Formen und letztendlich Objekte identifizieren zu können, machten die Änderungen jedoch einen großen Unterschied. Wie gefährlich diese als „Adversarial Examples” bezeichneten Manipulationen theoretisch sein können, ist bereits seit 2013 bekannt. Das aktuelle Experiment ist jedoch der erste Fall, in dem es gelang, ein KI-System in der Praxis mit einem dreidimensionalen Objekt zu überlisten. Ein ähnlicher Test gelang dem Forschungsteam mit einem Baseball, der von dem Bilderkennungsprogramm als Espresso identifiziert wurde.

„Echter Grund zur Sorge“

„Das beweist endgültig, dass Adversarial Examples ein echter Grund zur Sorge sind, denn sie könnten alltägliche KI-Systeme manipulieren. Daher müssen wir herausfinden, wie wir uns dagegen schützen können”, erklärt Forscher Anish Athalye vom ausführenden LabSix am MIT gegenüber Motherboard. Konkrete Gefahren könnten etwa entstehen, indem bei selbstfahrenden Autos die Erkennung von Straßenschildern manipuliert wird. Mit präparierten Koffern könnten Angreifer außerdem die Sicherheitsscanner in Flughäfen austricksen und gefährliche Objekte schmuggeln – denn genauso wie eine harmlose Schildkröte mit ein wenig Arbeit in eine gefährliche Schusswaffe verwandelt werden kann, ist auch das Gegenteil möglich.

Top-Artikel zum Thema
google-verstecken

Bei ihren Untersuchungen hatten die Forscher des MIT jedoch einen entscheidenden Vorteil gegenüber anderen Angreifern: Sie hatten selbst Zugriff auf den von ihnen attackierten Algorithmus und konnten seine Schwachstellen somit einfach herausfinden, untersuchen und ausnutzen. Wie Quartz berichtet, sollen nun auch weitere Experimente mit unbekannten Systemen folgen.