Les procureurs dans un procès portant sur la question de savoir si les applications de médias sociaux, comme Instagram, créent ou non une dépendance et sont nuisibles, voulaient savoir pourquoi il a fallu si longtemps à Meta pour déployer des outils de sécurité de base, comme un filtre de nudité pour les messages privés envoyés aux adolescents. En avril 2024, Meta a introduit une fonctionnalité qui brouillerait automatiquement les images explicites dans les DM d’Instagram – ce que la société aurait compris comme étant un problème près de six ans auparavant.
Dans une déposition récemment non scellée dans le cadre d’un procès fédéral, le responsable d’Instagram, Adam Mosseri, a été interrogé sur une chaîne de courrier électronique d’août 2018 avec le vice-président de Meta et responsable de la sécurité de l’information, Guy Rosen, dans laquelle il a mentionné que des choses « horribles » pourraient se produire via des messages privés d’Instagram, également connus sous le nom de DM. Ces choses horribles pourraient inclure des photos de bites, a déclaré l’avocat du plaignant, et Mosseri a accepté.
Cependant, l’exécutif de Meta a repoussé les questions suggérant que l’entreprise aurait dû informer les parents que son système de messagerie n’était pas surveillé, au-delà de la suppression du CSAM (Child Sexual Abuse Material).
« Je pense qu’il est assez clair que vous pouvez envoyer des messages problématiques dans n’importe quelle application de messagerie, que ce soit Instagram ou autre », a déclaré Mosseri. Il a déclaré que l’entreprise essayait d’équilibrer les intérêts des personnes en matière de confidentialité avec ses propres intérêts en matière de sécurité.
Le témoignage a également révélé de nouvelles statistiques sur les activités nuisibles sur Instagram, révélant que 19,2 % des personnes interrogées âgées de 13 à 15 ans ont déclaré avoir vu des images de nudité ou à caractère sexuel sur Instagram qu’elles ne voulaient pas voir. Par ailleurs, 8,4 % des 13-15 ans déclarent avoir vu quelqu’un se faire du mal ou menacer de le faire sur Instagram au cours des sept derniers jours d’utilisation de l’application.
Bien qu’un filtre de nudité ne soit que l’une des nombreuses mises à jour ajoutées à Instagram ces dernières années pour protéger les adolescents, les procureurs étaient plus intéressés par le délai d’action que par la question de savoir si l’application est désormais plus sûre pour les adolescents.
Mosseri a également été interrogé sur d’autres sujets, comme un e-mail d’un stagiaire de Facebook en 2017, qui disait vouloir trouver des utilisateurs « accros » de Facebook et déterminer s’il existait des moyens de les aider.
Événement Techcrunch
Boston, Massachusetts
|
9 juin 2026
La chaîne de courrier électronique de 2018 était censée servir d’exemple montrant que Meta était consciente des risques pour les mineurs, mais il a fallu attendre 2024 pour que l’entreprise lance un produit abordant le problème des images sexuelles envoyées aux adolescents. Cela inclut les images envoyées par des adultes susceptibles de s’être livrés à du toilettage, un processus par lequel un adulte établit un climat de confiance avec un mineur au fil du temps pour le manipuler ou l’exploiter sexuellement.
Contactée pour commenter, la porte-parole de Meta, Liza Crenshaw, a souligné les autres façons dont l’entreprise a travaillé pour assurer la sécurité des adolescents au fil des ans, notant que « depuis plus d’une décennie, nous avons écouté les parents, travaillé avec des experts et les forces de l’ordre, et mené des recherches approfondies pour comprendre les problèmes les plus importants. Nous utilisons ces informations pour apporter des changements significatifs, comme l’introduction de comptes pour adolescents avec des protections intégrées et la fourniture aux parents d’outils pour gérer les expériences de leurs adolescents. Nous sommes fiers des progrès que nous avons réalisés. fait, et nous travaillons toujours pour faire mieux », a-t-elle déclaré.
La déposition fournie par Mosseri a eu lieu lors de l’un des nombreux procès visant à tenir les grandes technologies responsables des dommages causés aux adolescents. Cette affaire particulière, qui se déroule devant le tribunal de district américain du district nord de Californie, implique des plaignants alléguant que les plateformes de médias sociaux sont défectueuses parce qu’elles sont conçues pour maximiser le temps passé devant un écran, ce qui encourage les comportements addictifs chez les adolescents. Les accusés incluent Meta, Snap, TikTok et YouTube (Google).
Des poursuites similaires sont également en cours devant la Cour supérieure du comté de Los Angeles et au Nouveau-Mexique.
Les avocats des différentes affaires espèrent prouver que les grandes entreprises technologiques ont donné la priorité à la nécessité de développer le nombre d’utilisateurs et d’accroître leur engagement plutôt que d’éviter les préjudices potentiels affectant leurs plus jeunes utilisateurs.
Le moment choisi pour ces procès intervient alors qu’un nombre croissant de lois restreignent l’utilisation des médias sociaux par les adolescents, tant dans plusieurs États américains qu’à l’étranger.
Mis à jour après publication avec le commentaire de Meta.

