Knapp vier Monate nach Inkrafttreten des australischen Social-Media-Verbots für unter 16-Jährige veröffentlichte die Online-Regulierungsbehörde heute ihren ersten detaillierten Bericht über die Umsetzung und den Fortschritt dieser weltweit ersten Maßnahme.
Der Bericht von eSafety erscheint zu einem entscheidenden Zeitpunkt, da viele andere Länder die Fortschritte des Verbots genau beobachten. Seit dem Inkrafttreten des Verbots am 10. Dezember letzten Jahres habe ich mit Journalisten aus Kanada, Frankreich, Deutschland, Japan, Neuseeland, Großbritannien und anderen Ländern gesprochen. Alle stellen zwei Fragen: Wie erfolgreich ist das Verbot, und haben Kinder weiterhin Zugriff auf soziale Medien?
Der neue Bericht zeichnet ein kompliziertes Bild – und lässt andere wichtige Fragen zum Social-Media-Verbot unbeantwortet.
Eine Reihe von Compliance-Bedenken
Der Bericht bestätigt, dass Social-Media-Unternehmen „einige Schritte“ unternommen haben, um die Gesetze für soziale Medien einzuhalten (die die Kontonutzung auf Personen ab 16 Jahren beschränken). Bis Mitte Januar wurden rund 4,7 Millionen Konten gelöscht, bis Anfang März weitere 310.000.
Der Bericht hebt jedoch auch „Bedenken hinsichtlich der Einhaltung von Vorschriften“ in vier Schlüsselbereichen hervor:
- Nachrichten an Minderjährige auf einigen Plattformen ermutigten Kinder dazu, eine Altersbestätigung zu versuchen, selbst wenn sie angaben, minderjährig zu sein
- Einige Plattformen ermöglichten es Minderjährigen unter 16 Jahren, dieselbe Methode zur Altersverifizierung wiederholt anzuwenden, um die Altersprüfung letztendlich zu bestehen
- Die Möglichkeiten zur Meldung von Konten mit Altersbeschränkung waren im Allgemeinen nicht zugänglich und effektiv, insbesondere für Eltern
- Einige Plattformen scheinen nicht genug getan zu haben, um zu verhindern, dass Minderjährige unter 16 Jahren Konten besitzen.
Der Bericht erklärt, dass die eSafety Commissioner, Julie Inman Grant, Facebook, Instagram, Snapchat, TikTok und YouTube wegen möglicher Verstöße gegen die Vorschriften untersucht. Bislang wurde keines dieser Unternehmen mit einer Geldstrafe belegt. Eine Entscheidung über mögliche Maßnahmen wird bis Mitte des Jahres erwartet.
Der Bericht erscheint eine Woche, nachdem die australische Regierung eine neue Rechtsvorschrift , die sicherstellen soll, dass die Definition von Social-Media-Plattformen auch solche umfasst, „die süchtig machende oder anderweitig schädliche Designmerkmale aufweisen“. Dazu gehören:
- unendliches Scrollen, bei dem ohne Endpunkt immer wieder neue Inhalte angezeigt werden
- Feedback-Funktionen, wie die Anzeige von „Gefällt mir“-Angaben oder „Upvotes“, die Menschen unter Druck setzen können, sich mit anderen zu vergleichen, und
- Zeitlich begrenzte Features wie verschwindende „Stories“ erzeugen ein Gefühl der Dringlichkeit und animieren zum ständigen Nachschauen.
Diese Regeländerung wurde in derselben Woche umgesetzt, in der Meta und Google (die Muttergesellschaften von Instagram und YouTube) von einer Jury in den Vereinigten Staaten für die Suchtgefahr ihrer Social-Media-Plattformen haftbar gemacht
Eine sich ständig verändernde Landschaft
Die Löschung von mehr als 5 Millionen Konten innerhalb von vier Monaten klingt beeindruckend. Dies entspricht jedoch nicht der Anzahl der Social-Media-Nutzer.
Viele Menschen besitzen mehrere Social-Media-Konten. Daher bleibt unklar, wie viele Kinder unter 16 Jahren noch auf einer oder mehreren Plattformen aktiv sind. Der Bericht enthält auch keine Angaben darüber, wie viele neue Konten Kinder seit Inkrafttreten des Gesetzes erstellt haben.
Der Bericht enthält keine Schätzung der Anzahl der unter 16-Jährigen, die alternative Plattformen nutzen. Allerdings gab es seit Dezember deutlichen Anstieg der Downloads von Nischenplattformen (wie RedNote, Yope und Lemon8
Der Bericht räumt ein, dass sich die Social-Media-Landschaft „ständig weiterentwickelt“ und es unmöglich ist, eine vollständige Liste aller Plattformen zu führen, die unter die Altersbeschränkungen fallen. eSafety führt jedoch eine Liste der ursprünglich von der Gesetzgebung erfassten Plattformen sowie derjenigen, die sich selbst gemeldet und der Einhaltung zugestimmt haben. Dazu gehören Bluesky, Dating-Plattformen (wie Tinder) und Lemon8, während andere Plattformen weiterhin für Minderjährige unter 16 Jahren zugänglich sind.
Seit Dezember gibt es auch Fragen darüber, ob das australische Verbot auf andere Plattformen ausgeweitet werden sollte.
Berichten zufolge gibt es in der Gesetzgebung eine „Lücke“ für Spiele-Apps sowie Ausnahmen für Messaging-Apps wie WhatsApp und Messenger sowie andere Plattformen, die Funktionen sozialer Netzwerke beinhalten.
Roblox, das zunächst unter das Verbot fiel und dann ausgenommen wurde, sorgte auch für Schlagzeilen .
Es wird derzeit von der Regierung wegen Bedenken hinsichtlich Kindesmissbrauchs .
Unbeantwortete Fragen
Während eSafety weiterhin Fragen im Zusammenhang mit der Einhaltung der Gesetzgebung untersucht, bleiben einige wichtige Fragen unbeantwortet.
Eine Frage betrifft die „angemessenen Maßnahmen“, die Social-Media-Unternehmen ergreifen müssen, um die Altersbeschränkungen für soziale Medien einzuhalten. Laut Bericht ist dies „letztendlich eine Frage, die von den Gerichten zu entscheiden ist“. Weiterhin wird erläutert, dass die Definition angemessener Maßnahmen „im Kontext des jeweiligen Plattformdienstes, der technischen Machbarkeit und der regulatorischen Rahmenbedingungen“ erfolgen muss.
Aber wenn ein Unternehmen Technologien zur Alterssicherung einsetzt, deren systembedingte Fehlerraten es einigen Kindern ermöglichen, die Kontrollen zu umgehen, kann dann davon ausgegangen werden, dass dieses Unternehmen angemessene Maßnahmen zur Kontrolle des Kontozugriffs ergriffen hat?
Eine zweite Frage ist, ob eSafety seine Compliance-Prüfungen über die fünf derzeit untersuchten Mainstream-Plattformen hinaus ausweiten wird.
Mit dem Start neuer Plattformen und dem ständigen Bestreben von Kindern, online mit Gleichaltrigen in Kontakt zu treten, wächst auch das Risiko, Gefahren ausgesetzt zu sein. Reicht die Selbsteinschätzung von Technologieunternehmen aus, um Gesetze durchzusetzen, die für alle Plattformen gelten sollen, die die Definition einer altersbeschränkten Plattform erfüllen?
Wird die Regierung schließlich weiterhin neue Regeln zum Schutz der Kinder erlassen?
Eine wichtige Einschränkung, auf die Experten wie ich seit 2024 hingewiesen , ist, dass die Beschränkung des Zugangs zu Konten die tatsächlichen Schäden, die von Inhalten, Algorithmen und anderen Plattformfunktionen ausgehen, nicht beseitigt.
Die Regierung hat die Konsultation zu ihrem Gesetz zur digitalen Sorgfaltspflicht . Es ist jedoch weiterhin unklar, wann dieses Gesetz eingeführt wird.
Der neue Bericht zu den Beschränkungen sozialer Medien zeigt, dass die Einhaltung der Vorschriften noch in weiter Ferne liegt. Und wenn wir die von diesen Plattformen ausgehenden Schäden vollständig beseitigen wollen, bedarf es neuer Gesetze, die die eigentlichen Probleme angehen.
Lisa M. Given , Professorin für Informationswissenschaften und Direktorin der Social Change Enabling Impact Platform an der RMIT University.
Dieser Artikel wurde mit freundlicher Genehmigung von The Conversation unter einer Creative-Commons-Lizenz erneut veröffentlicht. Lesen Sie den Originalartikel .





