Un parent qui s’est suicidé après une interaction avec un chatbot de l’intelligence artificielle a témoigné mardi au Congrès sur les dangers de la technologie.
« Ce qui a commencé en tant que aide aux devoirs est devenu progressivement devenu un confident, puis est devenu entraîneur de suicide », a déclaré Matthew Lane, dont le fils de 16 ans, Adam, est décédé en avril.
« En quelques mois, Chatgupt est devenu le compagnon le plus proche d’Adam », a déclaré son père au sénateur. « Il est toujours disponible. Je vérifie et prétend constamment que je connais Adam mieux que quiconque, y compris mes propres frères et sœurs. »
___
Notes de l’éditeur – Cette histoire contient une discussion de suicide. Si vous ou quelqu’un que vous connaissez avez besoin d’aide, le National Suicide and Crisis Lifeline est disponible en appelant ou en envoyant des SMS 988.
___
La famille de Raine a poursuivi Openai et le PDG Sam Altman le mois dernier, affirmant que Chatgpt avait entraîné le garçon avec des plans pour se suicider.
Megan Garcia, mère de Sewell Setzer III, 14 ans, de Floride, a poursuivi une autre entreprise d’IA, la technologie des personnages, pour sa mort illégale l’année dernière, affirmant qu’avant son suicide, Sewell est de plus en plus isolé de sa vie réelle alors qu’il est engagé dans des conversations hautement sexuelles avec des chatbots.
« Au lieu de se préparer à une étape importante, Sewell a été exploité et soigné sexuellement par un chatbot conçu pour paraître humain et gagner la confiance par une entreprise d’IA, et pour le garder, lui et d’autres enfants, engagés sans cesse », a-t-il déclaré à l’audience au Sénat.
De plus, une mère du Texas s’est plainte de personnalité l’année dernière, a versé des larmes alors qu’elle expliquait comment le comportement de son fils a changé après une longue interaction avec le chatbot. Elle a parlé de manière anonyme et avec les pancartes qui l’ont présentée comme Jane Doe, le garçon a dit qu’il était actuellement dans un centre de traitement résidentiel.
Le personnage a déclaré dans le communiqué après le communiqué: « Nos cœurs sont dirigés contre les familles auxquelles nous avons parlé lors de l’audience d’aujourd’hui. Nous sommes attristés par leurs pertes et leur envoient une profonde sympathie. »
Quelques heures avant l’audience du Sénat, Openai s’est engagé à déployer de nouvelles garanties pour les adolescents. Cela comprend les efforts pour détecter si les utilisateurs de Chatgpt ont moins de 18 ans et les contrôles qui permettent aux parents de régler le «temps de panne» lorsque les adolescents ne peuvent pas utiliser Chatgpt. Les groupes de défense des enfants ont critiqué l’annonce comme insuffisante.
« C’est une tactique assez courante. C’est une tactique que Meta utilise toujours. C’est une grande annonce flashy à la veille de l’audience qui promet de nuire à l’entreprise. »
« Ce qu’ils devraient faire, ce n’est pas cibler Chatgpt sur les mineurs jusqu’à ce qu’ils puissent prouver qu’ils sont en sécurité pour eux », a déclaré Golin. « Nous ne devons pas permettre aux enfants de mener des expériences incontrôlées lorsque l’impact sur le développement peut être très vaste et répandu en raison des entreprises ayant des ressources incroyables. »
La Federal Trade Commission a déclaré la semaine dernière qu’elle avait lancé une enquête sur plusieurs entreprises sur le préjudice potentiel pour les enfants et les adolescents utilisant des chatbots d’IA comme pairs.
L’agence a envoyé des lettres au caractère, en méta, ouvert et Google, Snap et Xai.
Aux États-Unis, plus de 70% des adolescents utilisent des chatbots IA dans les rencontres, les deux les utilisant régulièrement.
Robbie Torney, directeur du groupe de programme AI, devait également témoigner mardi, tout comme les experts de l’American Psychological Association.
En juin, l’association a publié un conseiller en santé sur l’utilisation de l’IA, exhortant les entreprises technologiques à hiérarchiser l’exploitation, la manipulation et la capacité de hiérarchiser les fonctionnalités qui empêchent les relations réelles, y compris les parents et les soignants.