Meta, la maison mère de Facebook, Instagram et WhatsApp, a récemment annoncé plusieurs mesures visant à renforcer la protection des adolescents sur Instagram. Alors que l’entreprise est actuellement sous le feu des critiques de nombreuses instances aux États-Unis et en Europe, elle a décidé de lancer plusieurs fonctionnalités pour mieux préserver les mineurs.
De nouvelles mesures
L’objectif de Meta est de « protéger les adolescents contre les contacts indésirables » et de « permettre aux parents d’influencer plus facilement l’expérience en ligne de leurs enfants ». Pour ce faire, certains paramètres d’Instagram ne pourront plus être modifiés sans un accord parental préalable via les outils dédiés.
Les utilisateurs mineurs devront ainsi obtenir l’autorisation explicite de leurs parents pour passer leur compte de privé à public, accéder à des contenus dits « sensibles » ou avoir la possibilité de recevoir des messages de personnes qu’ils ne suivent pas déjà sur la plateforme. L’une des mesures les plus attendues est la fermeture par défaut de la messagerie à toute personne avec qui les utilisateurs mineurs ne sont pas déjà connectés sur Instagram.
De nombreuses préoccupations
Cette décision fait suite aux préoccupations croissantes concernant la santé mentale des jeunes. En effet, plus de quarante États américains ont porté plainte contre Meta en octobre dernier, accusant l’entreprise de nuire à la « santé mentale et physique de la jeunesse » en raison des risques d’addiction, de cyberharcèlement ou de troubles de l’alimentation. Les procureurs généraux ont déclaré que Meta avait « exploité des technologies puissantes et sans précédent pour attirer et finalement piéger les jeunes et les adolescents afin de faire des profits ».
Selon eux, le groupe californien a « dissimulé la manière dont ces plateformes exploitent et manipulent les consommateurs les plus vulnérables » et « négligé les dommages considérables » causés à la « santé mentale et physique des jeunes de notre pays ». En Europe, la Commission européenne a annoncé en novembre avoir ouvert une enquête sur les mesures mises en œuvre par Meta, ainsi que par Snap (Snapchat), pour protéger les mineurs, notamment leur « santé physique et mentale ». Cette enquête fait suite à une démarche similaire visant TikTok et YouTube. A suivre…