SODP logo

    Les géants des médias sociaux ne respectent pas l'interdiction d'accès aux réseaux sociaux pour les moins de 16 ans, selon un nouveau rapport

    Près de quatre mois après l'entrée en vigueur de l'interdiction des réseaux sociaux pour les moins de 16 ans en Australie, l'autorité de régulation du numérique a publié aujourd'hui son premier rapport détaillé sur la mise en œuvre de cette politique inédite. Ce rapport d'eSafety paraît à…
    Mise à jour : 6 avril 2026
    Lisa M. Given

    Créé par

    Lisa M. Given

    La conversation

    Vérifié par

    La conversation

    Lisa M. Given

    Édité par

    Lisa M. Given

    Près de quatre mois après l'entrée en vigueur de l'interdiction des réseaux sociaux pour les moins de 16 ans en Australie, l'autorité de régulation en ligne a publié aujourd'hui son premier rapport détaillé sur la conformité et l'évolution de cette politique inédite au niveau mondial.

    Le rapport d'eSafety arrive à un moment crucial, alors que de nombreux pays suivent de près l'efficacité de l'interdiction. Depuis son entrée en vigueur le 10 décembre dernier, je me suis entretenu avec des journalistes du Canada, de France, d'Allemagne, du Japon, de Nouvelle-Zélande, du Royaume-Uni et d'ailleurs. Tous me posent deux questions : l'interdiction est-elle réellement efficace et les enfants continuent-ils d'accéder aux réseaux sociaux ?

    Le nouveau rapport dresse un tableau complexe et laisse sans réponse d'autres questions clés concernant l'interdiction des médias sociaux.

    Un certain nombre de problèmes de conformité

    Le rapport reconnaît que les entreprises de médias sociaux ont pris certaines mesures pour se conformer à la législation en vigueur (qui limite l'accès aux comptes aux personnes âgées de 16 ans et plus). Quelque 4,7 millions de comptes ont été supprimés à la mi-janvier et 310 000 autres début mars.

    Toutefois, le rapport met également en lumière des « problèmes de conformité » dans quatre domaines clés :

    1. Sur certaines plateformes, des messages adressés aux moins de 16 ans les encourageaient à tenter de prouver leur âge, même lorsqu'ils se déclaraient mineurs
    2. Certaines plateformes permettaient aux moins de 16 ans de tenter à plusieurs reprises la même méthode de vérification d'âge afin de finalement réussir les contrôles d'âge
    3. Les moyens de signaler les comptes à accès restreint en fonction de l'âge se sont généralement révélés inaccessibles et inefficaces, notamment pour les parents
    4. Certaines plateformes ne semblent pas avoir pris les mesures nécessaires pour empêcher les moins de 16 ans de posséder des comptes.

    Le rapport explique que la commissaire à la sécurité en ligne, Julie Inman Grant, enquête actuellement sur Facebook, Instagram, Snapchat, TikTok et YouTube pour « possible non-conformité ». Aucune de ces entreprises n'a encore été sanctionnée. Une décision concernant d'éventuelles poursuites sera prise d'ici le milieu de l'année.

    Ce rapport paraît une semaine après l'adoption par le gouvernement australien d'une nouvelle réglementation visant à inclure dans la définition des plateformes de médias sociaux celles « présentant des caractéristiques de conception addictives ou autrement nuisibles ». Ces dernières comprennent :

    • Défilement infini, qui affiche du nouveau contenu sans point final
    • les fonctionnalités de rétroaction, telles que l’affichage des « j’aime » ou des « votes positifs », qui peuvent inciter les gens à se comparer aux autres, et
    • Des fonctionnalités à durée limitée, comme les « stories » éphémères, qui créent un sentiment d’urgence et encouragent une vérification constante.

    Cette modification réglementaire a été mise en œuvre la même semaine où Meta et Google (sociétés mères d'Instagram et de YouTube) ont été reconnus coupables par un jury aux États-Unis des caractéristiques addictives de leurs plateformes de médias sociaux.

    Un paysage « en constante évolution »

    La suppression de plus de 5 millions de comptes en quatre mois est impressionnante. Mais cela ne correspond pas au nombre d'utilisateurs des réseaux sociaux.

    Nombreuses sont les personnes qui possèdent plusieurs comptes sur les réseaux sociaux. Il est donc difficile de savoir combien d'enfants de moins de 16 ans sont encore présents sur une ou plusieurs plateformes. Le rapport ne précise pas non plus le nombre de nouveaux comptes créés par les enfants depuis l'entrée en vigueur de la loi.

    Le rapport n'estime pas non plus le nombre de jeunes de moins de 16 ans qui utilisent désormais des plateformes alternatives. Cependant, on observe une forte augmentation des téléchargements de plateformes non traditionnelles (telles que RedNote, Yope et Lemon8 ) depuis décembre.

    Le rapport reconnaît que le paysage des médias sociaux est en constante évolution et qu'il est impossible de tenir une liste exhaustive des plateformes concernées par les restrictions d'âge. Cependant, eSafety tient à jour une liste des plateformes initialement visées par la législation, ainsi que celles qui se sont identifiées et ont accepté de s'y conformer. Parmi celles-ci figurent Bluesky, les plateformes de rencontre (comme Tinder) et Lemon8, mais d'autres plateformes restent accessibles aux moins de 16 ans.

    Depuis décembre, la question se pose également de savoir si l'interdiction australienne devrait s'étendre à d'autres plateformes.

    « faille » de la législation et les exclusions pour les applications de messagerie telles que WhatsApp et Messenger, ainsi que pour d'autres plateformes incluant des fonctionnalités de réseautage social.

    Roblox, qui avait initialement été visé par l'interdiction puis exempté, a également fait la une des journaux en lien avec la sécurité des enfants.

    Le gouvernement examine actuellement la question en raison de préoccupations liées à l'exploitation sexuelle d'enfants .

    Questions sans réponse

    Alors qu'eSafety poursuit son enquête sur les questions de conformité à la législation, plusieurs questions clés restent sans réponse.

    L'une des questions porte sur les « mesures raisonnables » que les entreprises de médias sociaux doivent prendre pour se conformer aux restrictions d'âge en vigueur sur ces plateformes. Le rapport indique qu'il s'agit « en définitive d'une question qui relève des tribunaux ». Il explique également que la définition de ce qui constitue des mesures raisonnables doit être envisagée « au regard du service offert par la plateforme, de sa faisabilité technique et du cadre réglementaire ».

    Mais si une entreprise utilise des technologies de vérification de l'âge dont les taux d'erreur intégrés permettent à certains enfants de passer entre les mailles du filet, cette entreprise sera-t-elle considérée comme ayant pris des mesures raisonnables pour contrôler l'accès aux comptes ?

    Une deuxième question se pose : eSafety étendra-t-elle ses contrôles de conformité au-delà des cinq principales plateformes actuellement sous enquête ?.

    Avec le lancement de nouvelles plateformes et la recherche constante par les enfants de nouveaux moyens de communiquer en ligne avec leurs pairs, les espaces potentiels où ils peuvent être exposés à des contenus préjudiciables ne cessent de croître. L'auto-évaluation des entreprises technologiques est-elle suffisante pour garantir l'application de la législation à toutes les plateformes répondant à la définition de plateforme à accès restreint en fonction de l'âge ?

    Enfin, le gouvernement continuera-t-il d'ajouter de nouvelles règles pour assurer la sécurité des enfants ?

    L'une des principales limites que des experts comme moi avons soulignées depuis 2024 est que la restriction de l'accès aux comptes ne résout pas les problèmes réels causés par le contenu, les algorithmes et les autres fonctionnalités de la plateforme.

    Le gouvernement a achevé la consultation sur son projet de loi relatif à l'obligation de vigilance numérique . Cependant, la date de son entrée en vigueur reste incertaine.

    Le nouveau rapport sur les restrictions imposées aux réseaux sociaux montre que le chemin à parcourir pour se conformer à la réglementation est encore long. Et si nous voulons lutter efficacement contre les méfaits de ces plateformes, une nouvelle législation s'attaquant aux causes profondes du problème est indispensable.

    Lisa M. Given , professeure en sciences de l'information et directrice de la plateforme Social Change Enabling Impact à l'université RMIT

    Cet article est republié de The Conversation sous licence Creative Commons. Lire l' article original .

    0
    J'aimerais beaucoup avoir votre avis, n'hésitez pas à commenter. x