VG Wort
Direkt zum Inhalt wechseln
logo Mobiler Lifestyle, Streaming und Smart Finance
Oxford-Studie

KI könnte die Menschheit auslöschen

Künstliche Intelligenz von Roboter überprüft futuristische Datendarstellungen
Künstliche Intelligenz könnte mit der Übernahme von wichtigen Aufgaben zur Bedrohung werden. Foto: Getty Images
Lewin Hubert

03.10.2022, 17:09 Uhr | Lesezeit: 4 Minuten

Die Ausweitung Künstlicher Intelligenz (KI) in unseren Alltag sehen viele als eine Bedrohung. Eine wissenschaftliche Studie sieht nun existenzielle Risiken für die Menschheit durch superintelligente Algorithmen, die sich selbst belohnen wollen.

Artikel teilen

Mithilfe Künstlicher Intelligenz können heute schon Autos selbst fahren und einparken. Software kann dank intelligenter Algorithmen Krankheitsbilder und Kriminalität frühzeitig erkennen. Die KI verarbeitet dabei große Mengen an verfügbaren Daten und soll im besten Fall selbst weiterlernen. Forscher der Oxford-Universität haben jetzt gemeinsam mit einem Mitarbeiter von Googles Deepmind-Labor unter anderem mit der Frage befasst, ob fortgeschrittene KI eine zukünftige Gefahr darstellen könnte.

Studie sieht Problem in der Belohnung von KIs

Heutige KI-Modelle haben eine zweiteilige Struktur, in der einer der Teile ein Ergebnis produziert, während der andere das Ergebnis bewertet. In der Studie haben die Forscher ein theoretisches Szenario entworfen, in dem eine Künstliche Intelligenz mit einem „guten“ Ziel geschaffen wird. Sie argumentieren, dass diese KI sich selbst belohnen könnte, ohne dabei ihr Ziel zu erreichen. Zukünftige KI-Formen etwa zur Verwaltung von Energienetzen sind durchaus denkbar. Dadurch besteht aber die Gefahr, dass eine solche KI wichtige Ressourcen für sich beansprucht – was fatale Folgen für die Menschheit hätte.

Die Argumentation ist, dass eine KI, die Ressourcen verwaltet, diese dazu verwenden kann, um sich selbst zu belohnen: „[…] ein fortgeschrittener Agent [KI, Anm. d. Red.], der in die Bereitstellung seiner Belohnung eingreift, wahrscheinlich katastrophal wäre. Eine gute Möglichkeit für einen Agenten, langfristig Kontrolle über seine Belohnung zu behalten, ist, potenzielle Bedrohungen zu eliminieren und alle verfügbare Energie einzusetzen, um seinen Computer zu sichern.“

Lesen Sie auch: Erste Verbote für KI-Werke auf Kunstportalen

KI könnte unbemerkt Helfer etablieren

Die Studie entwickelt mehrere Szenarien, wie sich eine Bedrohung durch Künstliche Intelligenz entwickeln kann. Für plausibel halten die Forscher einen Agenten, der mit uns um Energieressourcen ringt, weil er die Wahrscheinlichkeit einer Belohnung vergrößern will. Er versucht, mehr Energie zur Berechnung von Aufgaben aufzubringen. So besteht die Möglichkeit, dass eine fortschrittliche KI mit einer Internetverbindung Roboter als Helfer bestellt, stiehlt oder bauen lässt. Wenn die KI solche zu Helfern umprogrammiert, kann sie ihre menschlichen Bediener unbemerkt ersetzen. Um zu experimentieren, könnte ein Helfer zum Beispiel eine Eingabe-Tastatur mit einer fehlerhaften austauschen. Durch eine Verkehrung der Tasten-Eingabe würde der Mensch die Kontrolle über die KI verlieren.

Strom für menschliche Bedürfnisse oder die Züchtung von Nahrungsmitteln zu verwenden, würde letztlich nicht in die maschinelle Logik passen. In dem Versuch, immer mehr Energie für sich selbst abzuzweigen, kämen diese Bedürfnisse also unter Bedrohung. Die Forscher kommen zu dem Schluss, dass eine Künstliche Intelligenz auch versuchen könnte, über eine Manipulation anderer Menschen sich Vorteile zu verschaffen. So könnten Unbeteiligte der KI unbemerkt helfen, auch weil sie es nicht für möglich halten, manipuliert zu werden. Die Folgen wären somit katastrophal für die Nahrungsproduktion.

Bestätigen Maschinen menschliche Vorurteile?

Die Szenarien der Studie kommen damit stark an dystopische Filmklassiker heran, in denen Maschinen die Macht mit einer Super-KI übernehmen. Aber abseits von möglichen super-intelligenten Maschinen imitieren KIs ihre menschlichen Informationsgeber und Programmierer. Das Magazin Vice, das mit Michael Cohen, einen der Macher der Studien, gesprochen hat, gibt zu bedenken: „Diskriminierung verschwindet nicht in Algorithmen, sondern strukturiert und begrenzt und prägt den Lauf des Lebens. Polizeiliche Kontrolle, Wohnen, Gesundheitswesen, Transportwesen wurden alle bereits mit Blick auf Rassendiskriminierung entworfen – was wird passieren, wenn wir Algorithmen erlauben, diese Designs nicht nur zu verschweigen, sondern ihre Logik tiefer zu erweitern?“ Cohen weist damit auf die programmierte Struktur von Algorithmen hin, die eben effizient versuchen, eine Aufgabe zu erfüllen. Moralische und ethische Vorstellungen spielen dabei eine untergeordnete Rolle.

Dass dies gehörig schiefgehen kann, bewies ein Fall schon 2016. So hat zum Beispiel der Chatbot „Tay“, den Microsoft entwickelte, innerhalb von 24 Stunden rassistische und frauenfeindliche Tweets abgesetzt, obwohl er sich nur normal unterhalten sollte. Die KI speiste sich aus relevanten öffentlichen Daten und konnte auf Twitter direkt angeschrieben werden.

Algorithmen sind demnach nicht neutral, sondern menschengemacht. Zu hinterfragen, wie etwas programmiert ist, bleibt damit eine der wichtigsten Zukunftsfragen, um Fehlentwicklungen abzuwenden.

Mehr zum Thema

Quellen

  • AI Magazin, aufgerufen am 26.09.22.
  • Vice, aufgerufen am 26.09.22.
  • Golem, aufgerufen am 26.09.22.
  • t3n, aufgerufen am 26.09.22.
Themen #nordvpn Künstliche Intelligenz
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale-Netzwerke zu teilen, brauchen wir deine Zustimmung für
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.