En réponse aux préoccupations croissantes sur la sécurité des enfants en ligne, OpenAI a dévoilé un plan visant à renforcer les efforts américains de protection de l’enfance dans le contexte du boom de l’IA. Thé Plan de sécurité des enfantsqui a été publié mardi, est conçu pour contribuer à une détection plus rapide, à un meilleur reporting et à une enquête plus efficace sur les cas d’exploitation d’enfants grâce à l’IA.
L’objectif global du Child Safety Blueprint est de lutter contre l’augmentation alarmante de l’exploitation sexuelle des enfants liée aux progrès de l’IA. Selon l’Internet Watch Foundation (IWF), plus de 8 000 signalements de contenus d’abus sexuels sur enfants générés par l’IA ont été détectés au cours du premier semestre 2025, soit une augmentation de 14 % par rapport à l’année précédente. Cela inclut les criminels qui utilisent des outils d’IA pour générer de fausses images explicites d’enfants à des fins de sextorsion financière et pour générer des messages convaincants à des fins de toilettage.
Le projet d’OpenAI intervient également dans un contexte de surveillance accrue de la part des décideurs politiques, des éducateurs et des défenseurs de la sécurité des enfants, en particulier à la lumière d’incidents troublants au cours desquels des jeunes se sont suicidés après avoir prétendument interagi avec des chatbots IA.
En novembre dernier, le Social Media Victims Law Center et le Tech Justice Law Project ont déposé sept poursuites devant les tribunaux de l’État de Californie, alléguant qu’OpenAI avait publié GPT-4o avant qu’il ne soit prêt. Les poursuites affirment que la nature psychologiquement manipulatrice du produit a contribué à des décès injustifiés par suicide et suicide assisté. Ils citent quatre personnes qui se sont suicidées et trois autres qui ont souffert de délires graves et potentiellement mortels après des interactions prolongées avec le chatbot.
Ce plan a été élaboré en collaboration avec le Centre national pour les enfants disparus et exploités (NCMEC) et l’Alliance du procureur général, ainsi qu’avec les commentaires du procureur général de Caroline du Nord, Jeff Jackson, et du procureur général de l’Utah, Derek Brown.
La société affirme que le plan se concentre sur trois aspects : mettre à jour la législation pour inclure le matériel abusif généré par l’IA, affiner les mécanismes de signalement aux forces de l’ordre et intégrer des garanties préventives directement dans les systèmes d’IA. Ce faisant, OpenAI vise non seulement à détecter les menaces potentielles plus tôt, mais également à garantir que les informations exploitables parviennent rapidement aux enquêteurs.
Le nouveau plan de sécurité des enfants d’OpenAI s’appuie sur des initiatives précédentes, notamment des directives mises à jour pour les interactions avec les utilisateurs de moins de 18 ans, qui interdisent la génération de contenu inapproprié ou encouragent l’automutilation, et évitent les conseils qui aideraient les jeunes à dissimuler un comportement dangereux aux soignants. La société a récemment publié un plan de sécurité pour les adolescents en Inde.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026

