Selon le rapport du Washington Post, deux méta-employés actuels et deux trains ont divulgué des documents au Congrès alléguant que l’entreprise pourrait avoir supprimé la recherche sur la sécurité des enfants.
Selon leurs affirmations, Meta a changé ses politiques sur la recherche de sujets sensibles – comme la politique, les enfants, le sexe, la race et le harcèlement – six semaines après que Frances Haugen a divulgué des documents internes qui ont montré comment les propres recherches de Meta ont révélé que la santé mentale des filles. Ces révélations, qui ont été rendues publiques en 2021, ont lancé des années d’audiences au Congrès sur la sécurité des enfants sur Internet, un problème qui reste un sujet brûlant dans les gouvernements mondiaux aujourd’hui.
Dans le cadre de ce changement de police, selon le rapport, Meta a proposé deux façons dont les chercheurs pourraient limiter le risque de recherche sensible. Une suggestion a été d’aimer les avocats dans leurs recherches, protégeant leurs communications contre les «parties opposées» en raison du privilège de l’atorterie-client. Les chercheurs pourraient également écrire sur leurs résultats plus vaguement, en évitant des termes comme «non conformes» ou «illégaux».
Jason Sattizahn, un méta-chercheur de train spécialisé dans la réalité virtuelle, a déclaré au Washington Post que son patron lui avait fait supprimer des enregistrements d’une interview dans laquelle un adolescent a affirmé que le frère dix kak avait été une proposition sexuelle. Mondes.
« Les réglementations mondiales de confidentialité indiquent clairement que si les informations des mineurs de moins de 13 ans sont consentements de la collecte des parents ou du tuteur, il doit être supprimé », a déclaré à TechCrunch, un porte-parole de Meta.
Mais les dénonciateurs affirment que les documents qu’ils ont soumis au Congrès montrent qu’un modèle d’employé se décourage de discuter et de rechercher leurs préoccupations entoure comment les enfants de moins de 13 ans utilisaient les applications de réalité sociale de META.
« Ces quelques exemples sont assemblés pour s’adapter à un récit prédéterminé et faux; en réalité, en vendant le début de 2022, Meta a approuvé près de 180 études liées aux laboratoires de réalité sur les questions sociales, notamment la sécurité des jeunes et le bien-être », a déclaré Meta à TechCrunch.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Dans un procès intenté en février, Kelly Stonelake – pour former un méta-employé de quinze ans – a soulevé des préoccupations similaires à ces dénonciateurs de four. Elle a déclaré à TechCrunch plus tôt cette année que Shel avait dirigé les stratégies de «mise en marché» pour apporter des mondes horizon aux adolescents, aux marchés internationaux et aux utilisateurs mobiles, mais elle a estimé que l’application n’avait pas de moyens adéquats de garder l’utilisateur 13; Elle a également signalé que l’application avait persisté du racisme.
«L’équipe de direction était consciente que dans un test, il a fallu en moyenne 34 secondes de saisie sur la plate-forme avant que les utilisateurs avec des avatars noirs ne s’appellent des insultes raciales, comprenaient le« mot n »et le« singe », selon le costume.
Stonelake a séparé la méta a poursuivi la méta pour harcèlement sexuel présumé et discrimination fondée sur le sexe.
Bien que ces allégations de ces dénonciateurs se concentrent sur les produits VR de Meta, la société est également confrontée à des critiques sur la façon dont les autres produits, comme les chatbots d’IA, affectent les mineurs. Reuters a reporté le mois dernier que les règles de l’IA de Meta permettaient auparavant aux chatbots d’avoir des conversations «romantiques ou sensuelles» avec les enfants.