1. März 2026, 12:56 Uhr | Lesezeit: 2 Minuten
Instagram verbessert den Schutz von Jugendlichen und bindet Eltern stärker ein. Künftig bekommen Erziehungsberechtigte eine Nachricht, wenn ihre Kinder wiederholt nach sensiblen Themen wie Suizid oder Selbstverletzung suchen.
Ziel ist es, Warnsignale frühzeitig zu erkennen und nicht allein innerhalb der App zu reagieren. Damit verschiebt die Plattform den Fokus vom reinen Blockieren problematischer Inhalte hin zu aktiver Prävention.
So funktioniert das neue Warnsystem
Bisher reagierte Instagram vor allem technisch auf bestimmte Anfragen. Problematische Suchbegriffe wurden blockiert und stattdessen erschienen Hinweise auf Beratungsstellen oder Hilfsangebote. Jetzt geht die Plattform einen Schritt weiter: Bei sogenannten Teen-Konten registriert das System, wenn sensible Begriffe mehrfach innerhalb eines bestimmten Zeitraums eingegeben werden. In diesem Fall erhalten Eltern, die ihre Daten im Teen-Konto hinterlegt haben, automatisch eine Mitteilung. Die Benachrichtigung kann per E-Mail, SMS, WhatsApp oder direkt in der App erfolgen. Voraussetzung ist, dass die Aufsichtsfunktionen aktiviert sind.
Google Messages verpixelt jetzt automatisch Nacktbilder
Instagram und Facebook trainieren KI mit Nutzerdaten – so legen Sie Widerspruch ein
Unterstützung für Familien
„Meta“ erklärt, dass das Warnsystem Familien helfen soll, schneller ins Gespräch zu kommen und bei Bedarf Hilfe zu organisieren. Zusätzlich stellt das Unternehmen Informationsmaterial bereit, das Eltern den Umgang mit belastenden Themen erleichtert. Meta betont aber auch, dass nur ein kleiner Teil der Jugendlichen aktiv nach solchen Inhalten sucht. Die Funktion dient daher vor allem der Prävention.
Auch interessant: Meta könnte bald tote Nutzer wiederbeleben
Einführung in ausgewählten Ländern
Die neue Funktion kommt vor dem Hintergrund gesellschaftlicher und politischer Diskussionen über die Verantwortung sozialer Netzwerke beim Schutz junger Menschen. Plattformen stehen unter Druck, wenn es um den Umgang mit sensiblen Inhalten und Risiken für die mentale Gesundheit geht. Zunächst startet das System in den USA, Großbritannien, Australien und Kanada. In Zukunft sollen weitere Länder folgen.
Mit dem neuen System will Instagram nicht nur Inhalte filtern, sondern Familien aktiv unterstützen und so einen Beitrag zum Schutz der psychischen Gesundheit junger Nutzer leisten.