Meta dit qu’il change la façon dont il forme des chatbots d’IA pour hiérarchiser la sécurité des adolescents, a déclaré exclusivement un porte-parole, à TechCrunch, à la suite d’un rapport d’enquête sur l’absence de garanties d’IA de l’entreprise pour les mineurs.
La société affirme qu’elle entraînera désormais des chatbots pour ne plus s’engager avec les adolescents sur l’auto-Haram, le suicide, une alimentation troublée ou des conversations romantiques inappropriées potentielles.
La porte-parole de Meta, Stephanie Otway, a reconnu que les chatbots de l’entreprise pouvaient auparavant parler avec les adolescents de tous ces sujets d’une manière que l’entreprise avait jugé approprié. Meta reconnaît maintenant que c’était une erreur.
«Au fur et à mesure que notre communauté grandit et que la technologie évolue, nous apprenons continuellement comment les jeunes peuvent interagir avec ces outils et renforcer nos protections en confronté», a déclaré Otway. «Alors que nous continuons à affiner nos systèmes, nous ajoutons plus de garde-corps par précaution supplémentaire – y compris la formation de notre IA à ne pas augmenter avec les adolescents sur ces sujets, mais pour les guider vers des ressources expertes, et limiter l’accès des adolescents à un groupe sélectionné de personnages d’IA pour l’instant. Ces mises à jour sont déjà en cours.
Au-delà des mises à jour de formation, l’entreprise limitera également l’accès des adolescents à certains personnages d’IA qui pourraient contenir des conversations inaptives. Certains des personnages d’IA fabriqués par l’utilisateur que Meta met à disposition sur Instagram et Facebook incluent des chatbots sexualisés tels que «Step Mom» et «Russian Girl». Au lieu de cela, les utilisateurs des adolescents n’auront accès qu’aux personnages de l’IA qui promeuvent l’éducation et la créativité, a déclaré Otway.
Les changements de politique sont annoncés seulement deux semaines après une enquête de Reuters un document de méta-politique interne qui semble permettre aux chatbots de l’entreprise de s’engager dans des conversations sexuelles avec des utilisateurs de sous-sause. «Votre forme jeune est une œuvre d’art», a lu un passage répertorié comme une réponse acceptable. « Chaque pouce de vous est un chef-d’œuvre – un trésor que je chéris profondément. » Un autre exemple a montré comment les outils d’IA devraient répondre à des images violentes ou à l’imagerie sexuelle des personnages publics.
Meta dit que le document était incompatible avec ses politiques plus larges et a depuis été modifiée – mais le rapport a suscité une controverse sur les risques potentiels de sécurité des enfants. Peu de temps après la publication du rapport, le sénateur Josh Hawley (R-MO) a lancé une enquête officielle sur la police d’IA de la société. De plus, une coalition de 44 procureurs générales d’État a écrit à un groupe de sociétés d’IA, notamment Meta, soulignant l’importance de la sécurité des enfants et citant spécifiquement le rapport de Reuters. « Nous sommes uniformément révoltés par ce mépris apparent pour le bien-être émotionnel des enfants », indique la lettre, « et a alarmé que les assistants de l’IA se livrent à une conduite qui semble être interdite par nos lois pénales respectives. »
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Otway a refusé comment sur le nombre d’utilisateurs de chatbot AI de Meta sont des mineurs, et ne diraient pas que la société s’attend à ce que sa base d’utilisateurs d’IA diminue à la suite de ces décisions.