Le régulateur d'Internet en Australie a adressé des avertissements à cinq grandes plateformes de médias sociaux pour leur échec à appliquer correctement l'interdiction révolutionnaire du pays concernant les utilisateurs de moins de 16 ans. Cette mesure marque le premier examen majeur de conformité depuis l'entrée en vigueur de la loi en décembre.
Le commissaire à la sécurité en ligne (eSafety) a identifié des lacunes significatives dans la manière dont Facebook, Instagram, Snapchat, TikTok et YouTube mettent en œuvre les mesures de vérification d'âge. Le régulateur a constaté que les plateformes permettaient aux enfants ayant précédemment déclaré avoir moins de 16 ans de tenter à plusieurs reprises de vérifier leur âge, tout en échouant à empêcher la création de nouveaux comptes pour les mineurs.
Les problèmes de conformité vont au-delà des défaillances techniques. Les plateformes n'ont pas mis en place de mécanismes efficaces de signalement pour que les parents et autres puissent signaler les utilisateurs mineurs qui conservent l'accès à leurs services. Certaines entreprises ont offert aux enfants plusieurs occasions de prouver qu'ils avaient plus de 16 ans après avoir initialement déclaré être plus jeunes.
Bien que les plateformes de médias sociaux aient pris certaines mesures initiales, je m'inquiète, à travers notre surveillance de la conformité, que certaines n'en fassent peut-être pas assez pour se conformer à la loi australienne
Julie Inman Grant, commissaire à la sécurité en ligne (eSafety) — BBC
Le régulateur a rapporté que 4,7 millions de comptes avaient été restreints ou supprimés au cours du premier mois suivant l'entrée en vigueur de l'interdiction le 10 décembre. Cependant, ce chiffre ne représente que les actions initiales de mise en application, et la surveillance continue révèle des défis persistants de conformité dans l'ensemble du secteur.
La BBC présente l'histoire comme un problème de conformité réglementaire, en mettant l'accent sur les défis techniques de mise en œuvre. La couverture souligne l'importance internationale de l'approche pionnière de l'Australie en matière de restrictions d'âge sur les médias sociaux.
SBS News cadre l'histoire comme une action nécessaire de mise en application contre les entreprises technologiques non conformes. Le média met en avant les critiques du gouvernement envers les plateformes et inclut des commentaires d'experts soutenant les objectifs de santé mentale de l'interdiction.
Tagesschau propose une couverture brève axée sur l'aspect de l'enquête réglementaire. Le média allemand présente l'histoire comme une action d'application directe des autorités australiennes contre les géants de la tech.
La législation australienne cible 10 plateformes et prévoit des amendes pouvant aller jusqu'à 49,5 millions de dollars australiens pour les entreprises qui ne prennent pas de mesures raisonnables pour empêcher l'accès des mineurs. La loi a attiré l'attention internationale, des pays comme le Royaume-Uni surveillant de près sa mise en œuvre et son efficacité.
Meta, propriétaire de Facebook et Instagram, a reconnu le défi mondial de la détermination précise de l'âge tout en plaidant pour des systèmes de vérification au niveau des magasins d'applications. L'entreprise a souligné son engagement en matière de conformité mais a mis en avant les limites techniques des méthodes actuelles de vérification d'âge.
Il ne suffit pas pour les géants de la tech d'offrir aux enfants plusieurs tentatives pour accéder aux plateformes via la numérisation de photos
Anika Wells, ministre des Communications — SBS News
Snap a déclaré avoir verrouillé 450 000 comptes depuis la mise en œuvre de l'interdiction, avec des suppressions quotidiennes en cours. La réponse de l'entreprise illustre l'ampleur de l'application nécessaire sur les plateformes comptant des millions d'utilisateurs australiens.
Le régulateur passe désormais de la surveillance à l'application active de la loi, recueillant des preuves pour déterminer si les plateformes ont mis en place des systèmes et processus adéquats. L'accent est mis sur la démonstration que les entreprises n'ont pas établi de mesures préventives raisonnables, plutôt que simplement sur le fait que certains enfants accèdent encore aux plateformes.
Des experts en santé mentale soutiennent les objectifs de l'interdiction, citant les algorithmes addictifs des médias sociaux et leur accessibilité constante comme des risques particuliers pour les jeunes utilisateurs. Des recherches suggèrent que les plateformes peuvent devenir problématiques lorsqu'elles sont utilisées pour gérer l'anxiété, la dépression ou d'autres défis émotionnels, créant potentiellement des voies vers des comportements addictifs plus graves.