La Federal Trade Commission a lancé une enquête sur plusieurs sociétés de réseaux sociaux et de renseignement artificiel sur le préjudice potentiel pour les enfants et les adolescents qui utilisent des chatbots d’IA comme pairs.
La FTC a déclaré jeudi qu’elle avait envoyé des lettres à Parealphabet de Google, à Facebook et à la plate-forme parentale d’Instagram, Snap, Technologies de caractère, Chatgpt Maker Openai et Xai.
La FTC a déclaré qu’elle voulait comprendre quelles étapes ils comprennent pour évaluer la sécurité des chatbots lorsque les entreprises agissent comme des pairs, limitent l’utilisation du produit et l’impact négatif potentiel sur les enfants et les adolescents et évaluent les utilisateurs et les parents des risques associés aux chatbots.
Notes de l’éditeur – Cette histoire contient une discussion de suicide. Si vous ou quelqu’un que vous connaissez avez besoin d’aide, le National Suicide and Crisis Lifeline est disponible en appelant ou en envoyant des SMS 988.
Cette décision est utilisée par de plus en plus d’enfants, de l’aide aux devoirs aux conseils personnels, au soutien émotionnel et à la prise de décision quotidienne. Il a été démontré qu’en dépit de la recherche sur les dommages des chatbots, il offre aux enfants des conseils dangereux sur des sujets tels que les drogues, l’alcool et les troubles de l’alimentation. La mère d’une adolescente en Floride a développé ce qu’elle a décrit comme une relation émotionnelle et sexuellement abusive avec un chatbot, puis la mère qui s’est suicidée a déposé une plainte pour mort illégale contre Charition.ai. Et les parents d’Adam Raine, 16 ans, ont récemment poursuivi Openai et son PDG Sam Altman, affirmant que Chatgpt a pris sa vie plus tôt cette année et a entraîné un garçon de Californie.
« Nous sommes impatients de travailler avec la FTC sur cette enquête afin de fournir des informations sur la technologie en évolution rapide de l’industrie de l’IA grand public et de l’espace », a déclaré Charition.ai.
« Nous avons investi une énorme quantité de ressources en fiducie et en sécurité, en particulier pour les startups. Au cours de la dernière année, nous avons déployé de nombreuses caractéristiques de sécurité substantielles, y compris toutes les nouvelles expériences de moins de 18 ans et des informations parentales », a indiqué la société. « Il y a un avertissement important dans chaque chat, rappelant aux utilisateurs que les personnages ne sont pas de vraies personnes et tout ce que les personnages disent devraient être traités comme une fiction. »
Snap a déclaré que mon chatbot AI est « transparent et clair sur ses capacités et ses limites ».
« Nous partageons l’accent de la FTC sur la garantie de développement réfléchi de l’IA générée et nous sommes impatients de travailler avec le comité des politiques d’IA qui améliorent l’innovation américaine tout en protégeant notre communauté », a déclaré la société dans un communiqué.
Meta a refusé de commenter l’enquête, et l’alphabet, Openai, X.ai n’a pas répondu immédiatement au message pour commentaires.
Plus tôt ce mois-ci, Openai et Meta ont annoncé des modifications à la façon dont les chatbots réagissent aux adolescents qui remettent en question le suicide ou montrent des signes de détresse mentale et mentale. Openai a déclaré qu’il déploie de nouveaux contrôles qui permettent aux parents de relier leurs comptes à des comptes adolescents.
Selon un article de blog d’une entreprise qui indique que les modifications prendront effet cet automne, les parents peuvent choisir les fonctionnalités à désactiver et « recevoir des notifications lorsqu’un adolescent détecte un adolescent ».
Quel que soit l’âge de l’utilisateur, la société affirme que les chatbots tentent de rediriger les conversations les plus désastreuses à des modèles d’IA plus capables qui peuvent fournir de meilleures réponses.
Meta a également déclaré que les chatbots empêchent les adolescents de parler de l’automutilation, du suicide, de l’invalidité et des conversations romantiques inappropriées, et de les diriger plutôt sur des ressources expertes. Meta offre déjà un contrôle parental sur les comptes des adolescents.