SODP logo

    Ny rapport viser at giganter i sosiale medier ikke overholder forbudet mot sosiale medier for barn under 16 år

    Nesten fire måneder etter at Australia innførte forbud mot sosiale medier for barn under 16 år, publiserte nettregulatoren i dag sin første detaljerte oppdateringsrapport om samsvar med regelverket, som viser hvordan det går med den verdensledende politikken. eSafetys rapport kommer…
    Oppdatert: 6. april 2026
    Lisa M. Given

    Opprettet av

    Lisa M. Given

    Samtalen

    Faktasjekket av

    Samtalen

    Lisa M. Given

    Redigert av

    Lisa M. Given

    Nesten fire måneder etter at Australia innførte forbud mot sosiale medier for barn under 16 år, publiserte nettregulatoren i dag sin første detaljerte oppdateringsrapport om hvordan den verdensledende politikken utvikler seg.

    eSafetys rapport kommer på et kritisk tidspunkt, ettersom mange andre land følger med på fremdriften av forbudet. Siden forbudet trådte i kraft 10. desember i fjor, har jeg snakket med journalister fra Canada, Frankrike, Tyskland, Japan, New Zealand, Storbritannia og andre steder. Alle stiller to spørsmål: hvor vellykket er forbudet, og bruker barn fortsatt sosiale medieplattformer?

    Den nye rapporten tegner et komplisert bilde – og lar andre viktige spørsmål om forbudet mot sosiale medier stå ubesvart.

    En rekke samsvarsproblemer

    Rapporten erkjenner at sosiale medieselskaper har tatt «noen skritt» for å overholde lovgivningen om sosiale medier (som begrenser kontoinnehavere til de som er 16 år og eldre). Rundt 4,7 millioner kontoer ble fjernet innen midten av januar og ytterligere 310 000 innen begynnelsen av mars.

    Rapporten fremhever imidlertid også «problem med samsvar» på fire nøkkelområder:

    1. Meldinger til personer under 16 år på noen plattformer oppfordret barn til å forsøke alderssikring selv om de oppga at de var mindreårige
    2. Noen plattformer gjorde det mulig for personer under 16 år å gjentatte ganger prøve den samme alderssikringsmetoden for til slutt å bestå alderskontroller
    3. Veier for rapportering av aldersbegrensede kontoer har generelt ikke vært tilgjengelige og effektive, spesielt ikke for foreldre
    4. Noen plattformer ser ut til å ikke ha gjort nok for å forhindre at barn under 16 år har kontoer.

    Rapporten forklarer at e-sikkerhetskommissær Julie Inman Grant nå etterforsker Facebook, Instagram, Snapchat, TikTok og YouTube for «potensiell manglende overholdelse». Ingen av disse selskapene har ennå blitt bøtelagt. En avgjørelse om eventuelle håndhevingstiltak vil bli tatt innen midten av året.

    Rapporten kommer en uke etter at den australske regjeringen registrerte en ny lovbestemmelse for å sikre at definisjonen av sosiale medieplattformer inkluderer de som «har vanedannende eller på annen måte skadelige designfunksjoner». Disse inkluderer:

    • uendelig rulling, som viser nytt innhold uten sluttpunkt
    • tilbakemeldingsfunksjoner, som å vise «likes» eller «oppstemmer», som kan presse folk til å sammenligne seg med andre, og
    • tidsbegrensede funksjoner som forsvinnende «historier» som skaper en følelse av at det haster og oppmuntrer til konstant sjekking.

    Denne regelendringen ble implementert i samme uke som Meta og Google (morselskapene til Instagram og YouTube) ble funnet ansvarlige av en jury i USA for de vanedannende funksjonene på deres sosiale medieplattformer.

    Et landskap i «konstant utvikling»

    Fjerningen av mer enn 5 millioner kontoer på fire måneder høres imponerende ut. Men dette tilsvarer ikke antallet brukere på sosiale medier.

    Mange har flere kontoer på sosiale medier. Derfor er det fortsatt uklart hvor mange barn under 16 år som fortsatt er på én eller flere plattformer. Rapporten beskriver heller ikke hvor mange nye kontoer barn har opprettet siden lovgivningen ble implementert.

    Rapporten anslår heller ikke antallet barn under 16 år som nå bruker alternative plattformer. Det har imidlertid vært rapporter om en betydelig økning i nedlastinger av ikke-vanlige plattformer (som RedNote, Yope og Lemon8 ) siden desember.

    Rapporten erkjenner at landskapet på sosiale medier er i «stadig utvikling» og at det er umulig å opprettholde en fullstendig liste over plattformer som faller inn under aldersgrensene. eSafety opprettholder imidlertid en liste over de første plattformene som er inkludert i forbudslovgivningen, og de som har identifisert seg selv og samtykket i å overholde regelverket. Disse inkluderer Bluesky, datingplattformer (som Tinder) og Lemon8, men andre plattformer er fortsatt tilgjengelige for personer under 16 år.

    Siden desember har det også vært spørsmål om hvorvidt Australias forbud bør utvides til andre plattformer.

    Rapporter peker på lovgivningens «smutthull» for spillapper og unntak for meldingsapper som WhatsApp og Messenger, samt andre plattformer som inkluderer funksjoner for sosiale nettverk.

    Roblox, som opprinnelig ble ansett som forbudt og deretter unntatt, har også skapt overskrifter knyttet til barnesikkerhet.

    Det blir for tiden vurdert av myndighetene på grunn av bekymringer rundt barneforfølgelse .

    Ubesvarte spørsmål

    Ettersom eSafety fortsetter å undersøke problemstillinger knyttet til overholdelse av lovgivningen, er det flere viktige spørsmål som forblir ubesvarte.

    Det ene handler om hvilke «rimelige skritt» sosiale medieselskaper må ta for å overholde aldersbegrensningene på sosiale medier. Rapporten sier at dette «til syvende og sist er et spørsmål domstolene må avgjøre». Den forklarer også at det å definere hvilke skritt som er rimelige, må vurderes «i sammenheng med plattformens tjeneste, teknologiske gjennomførbarhet og det regulatoriske landskapet».

    Men hvis et selskap bruker alderssikringsteknologier, hvis innebygde feilrater gjør at noen barn slipper gjennom kontrollene, vil det da bli ansett for å ha tatt rimelige skritt for å kontrollere kontotilgang?

    Et annet spørsmål er om eSafety vil utvide sine samsvarskontroller utover de fem vanlige plattformene som for tiden undersøkes.

    Etter hvert som nye plattformer lanseres, og barn fortsetter å søke nye måter å få kontakt med jevnaldrende på nettet, fortsetter de potensielle områdene der de kan oppleve skade å vokse. Er selvvurdering fra teknologiselskaper tilstrekkelig til å håndheve lovgivning som er ment å gjelde for alle plattformer som oppfyller definisjonen av en aldersbegrenset plattform?

    Til slutt, vil myndighetene fortsette å legge til nye regler for å holde barn trygge?

    En viktig begrensning eksperter som meg har fremhevet siden 2024 er at det å begrense tilgangen til kontoer ikke adresserer de faktiske skadene som innhold, algoritmer og andre plattformfunksjoner utgjør.

    Regjeringen har fullført høringen om lovgivningen om digital omsorgsplikt . Men det er fortsatt uklart når denne lovgivningen vil bli innført.

    Den nye rapporten om restriksjoner på sosiale medier viser at det er en lang vei å gå før vi overholder regelverket. Og hvis vi ønsker å håndtere skadene som disse plattformene forårsaker fullt ut, trengs det ny lovgivning som faktisk retter seg mot de underliggende problemene.

    Lisa M. Given , professor i informasjonsvitenskap og direktør, Social Change Enabling Impact Platform, RMIT University.

    Denne artikkelen er publisert på nytt fra The Conversation under en Creative Commons-lisens. Les den opprinnelige artikkelen .

    0
    Vil gjerne ha dine tanker, legg igjen en kommentar. x
    ()
    x