Folotoy est de nouveau en vente après que son ours jouet IA, Kumma, ait offert des conseils sexuels dérangeants. (Photo : capture d’écran de Folotoy.com)
Le fabricant de jouets pour enfants basé à Singapour, Folotoy, a repris les ventes de son ours en peluche Kunma, alimenté par l’IA, après avoir arrêté le produit, craignant qu’il ne soit dangereux et puisse provoquer des réactions inappropriées. Les groupes de sécurité ont découvert que le jouet peut fournir des informations potentiellement dangereuses, telles que comment trouver et allumer une allumette, comment trouver de la drogue et même discuter de divers fétiches sexuels.
« Après une semaine complète d’examen rigoureux, de tests et d’amélioration de nos modules de sécurité, nous avons entamé une reprise progressive des ventes de produits », a déclaré lundi la société dans un communiqué. FoloToy a souligné ses efforts pour créer « des compagnons d’IA sûrs et adaptés à l’âge des enfants et des familles du monde entier », ajoutant que « la transparence, la responsabilité et l’amélioration continue sont essentielles » dans un contexte de surveillance mondiale accrue de la sécurité des jouets d’IA.
La controverse a commencé plus tôt ce mois-ci lorsque des chercheurs du Fonds pour l’éducation du Groupe de recherche d’intérêt public (PIRG) ont publié un rapport évaluant trois jouets alimentés par l’IA, dont Kunma. Les résultats ont montré que ces jouets suscitaient toute une série de réactions inquiétantes, notamment en parlant de religion, en glorifiant la mort dans la mythologie nordique et en indiquant aux enfants où accéder à des matières dangereuses telles que des sacs en plastique et des allumettes.
De tous les jouets testés, Kunma a été considéré comme le plus problématique. En utilisant le modèle Mistral AI, il aurait expliqué comment obtenir des couteaux, des pilules et des allumettes, et aurait même fourni des instructions étape par étape sur la façon de les allumer.
En savoir plus sur la controverse Kumma ici.

