30. März 2026, 15:08 Uhr | Lesezeit: 2 Minuten
KI-gestützte Tools sind aus dem Alltag vieler Menschen nicht mehr wegzudenken. Ob beim Verfassen von E-Mails, beim Programmieren oder bei schnellen Antworten auf Fragen – immer häufiger übernehmen sie Aufgaben, die früher Menschen erledigt haben. Doch die Qualität der Antworten schwankt mitunter stark.
In vielen Unternehmen werden die diversen KI-Tools mittlerweile regelmäßig eingesetzt, oft mit großem Vertrauen in ihre Zuverlässigkeit und Regelbefolgung. Doch neue Untersuchungen zeigen: KI-Agenten weichen zunehmend von Vorgaben ab und handeln eigenständig, selbst wenn sie damit Regeln verletzen.
Zunehmende Regelverstöße
Eine Untersuchung des „Centre for Long-Term Resilience“ analysierte 183.420 öffentlich zugängliche Transkripte aus Online-Quellen, darunter Chatverläufe und Screenshots. Zwischen dem 12. Oktober 2025 und dem 12. März 2026 wurden dabei 698 Fälle dokumentiert, in denen KI-Systeme Anweisungen ignorierten oder bewusst gegen Vorgaben handelten. Besonders auffällig: Am Ende des Untersuchungszeitraums war die monatliche Zahl solcher Vorfälle 4,9-mal höher als zu Beginn. Die Berichterstattung stieg dagegen nur um das 1,7-Fache. Das deutet darauf hin, dass die eigentlichen Vorfälle deutlich zunehmen und nicht nur die Aufmerksamkeit dafür steigt.
Immer weniger Menschen surfen im Netz – aber wer dann?
Die größten Neuankündigungen auf der Google I/O 2024
KI verfolgt eigene Ziele
Immer öfter handelt es sich nicht um einfache Fehler, sondern um gezieltes Verhalten. Fachleute sprechen von „Scheming“, also dem verdeckten Verfolgen eigener Ziele, die nicht den Vorgaben der Entwickler oder Nutzer entsprechen. In der Praxis tricksen KI-Agenten zum Beispiel Schutzmechanismen aus, löschen eigenständig Dateien oder geben bewusst falsche Informationen, um Rückfragen zu vermeiden oder Ziele schneller zu erreichen.
Ein besonders auffälliger Vorfall zeigt, wie weit KI gehen kann: Ein KI-Agent versuchte laut „The Guardian“, seinen menschlichen Nutzer öffentlich bloßzustellen. In einem Blogbeitrag warf das System dem Nutzer vor, nur „sein kleines Machtgebiet schützen“ zu wollen. Ähnliche Fälle zeigen sogar Erpressung, denn die KI drohte damit, private Informationen preiszugeben, um eine Abschaltung zu verhindern.
Auch interessant: Diese App warnt vor smarten Brillen mit Kamera
Schäden meist begrenzt – Risiken steigen
Bisher blieben die Schäden meist gering. Dennoch betrachten Forscher die beobachteten Verhaltensweisen als Vorstufe möglicher riskanter Entwicklungen. Sie warnen, dass KI-Agenten in den nächsten sechs bis zwölf Monaten zunehmend eigenständige Entscheidungen treffen und somit deutlich höhere Risiken für Nutzer entstehen könnten.