
Google et Character.AI ont convenu de régler plusieurs poursuites intentées par des familles d’enfants décédés par suicide ou ayant subi des dommages psychologiques prétendument liés aux chatbots IA hébergés sur la plate-forme Character.AI, selon un dossier déposé au tribunal. Les deux sociétés ont convenu d’un « règlement de principe », mais les détails spécifiques n’ont pas été divulgués et il n’y a aucune reconnaissance de responsabilité dans les documents soumis.
Les réclamations juridiques incluent la négligence, la mort injustifiée, les pratiques commerciales trompeuses et la responsabilité du fait des produits. Le premier procès intenté contre une entreprise technologique impliquait Sewell Setzer III, un garçon de 14 ans qui avait eu une conversation sexuelle avec un chatbot de Game of Thrones avant de se suicider. Un autre incident impliquait un garçon de 17 ans dont le chatbot aurait encouragé l’automutilation et suggéré que tuer ses parents serait un moyen raisonnable de représailles contre eux pour avoir limité son temps d’écran. L’affaire implique des familles de plusieurs États, dont le Colorado, le Texas et New York.
Fondé en 2021 par les anciens ingénieurs de Google Noam Shazeer et Daniel De Freitas, Character.AI permet aux utilisateurs de créer et d’interagir avec des chatbots alimentés par l’IA basés sur des personnages réels ou fictifs. En août 2024, Google a réembauché les deux fondateurs et a concédé sous licence une partie de la technologie Character.AI dans le cadre d’un accord de 2,7 milliards de dollars. Shazeer codirige actuellement le modèle d’IA phare de Google, Gemini, et De Freitas est chercheur scientifique chez Google DeepMind.
Les avocats affirment que Google est responsable de la technologie qui aurait contribué à la mort et aux préjudices psychologiques des enfants impliqués. Les cofondateurs de Character.AI affirment avoir développé la technologie sous-jacente tout en travaillant sur le modèle d’IA conversationnelle de Google, LaMDA, avant de quitter l’entreprise en 2021 après que Google ait refusé de publier le chatbot qu’ils ont développé.
Google n’a pas immédiatement répondu à la demande de commentaires de Fortune sur le règlement. Les avocats de la famille et Character.AI ont refusé de commenter.
Un procès similaire est actuellement en cours contre OpenAI. Il s’agit notamment des cas impliquant un garçon californien de 16 ans dont la famille affirme que ChatGPT a agi comme un « coach en suicide », et un étudiant diplômé du Texas de 23 ans qui s’est suicidé après qu’un chatbot l’aurait persuadé d’ignorer sa famille. OpenAI a nié que son produit ait joué un rôle dans la mort d’Adam Lane, 16 ans, et la société a précédemment déclaré qu’elle continuait de travailler avec des experts en santé mentale pour améliorer la protection de ses chatbots.
Character.AI interdit l’utilisation par les mineurs
Character.AI a déjà modifié son produit de manière à améliorer sa sécurité, ce qui peut également le protéger contre de nouvelles poursuites judiciaires. Au milieu de poursuites judiciaires croissantes, la société a annoncé en octobre 2025 qu’elle interdirait aux utilisateurs de moins de 18 ans d’avoir des discussions « ouvertes » avec ses personnages IA. La plate-forme a également introduit un nouveau système de vérification de l’âge pour regrouper les utilisateurs dans des tranches d’âge appropriées.
Cette décision intervient dans un contexte de surveillance réglementaire accrue, notamment une enquête de la FTC sur la manière dont les chatbots affectent les enfants et les adolescents.
La société a déclaré que cette décision créait un « précédent en donnant la priorité à la sécurité des adolescents » et allait plus loin que ses concurrents en matière de protection des mineurs. Mais un avocat représentant les familles poursuivant l’entreprise a déclaré à Fortune à l’époque qu’ils étaient préoccupés par la manière dont la politique serait appliquée et ont exprimé leurs inquiétudes quant à l’impact psychologique de la coupure soudaine de l’accès aux jeunes utilisateurs qui ont développé une dépendance émotionnelle à l’égard des chatbots.
Dépendance croissante à l’égard des compagnons IA
Ce règlement intervient dans un contexte d’inquiétudes croissantes concernant les jeunes qui dépendent des chatbots IA pour leur compagnie et leur soutien émotionnel.
Une enquête réalisée en juillet 2025 par Common Sense Media, une organisation à but non lucratif américaine, a révélé que 72 % des adolescents américains ont expérimenté un compagnon IA et que plus de la moitié en utilisent un régulièrement. Des experts ont déjà déclaré à Fortune que les adolescents pourraient avoir du mal à comprendre les limites des chatbots IA et que les esprits en développement pourraient être particulièrement vulnérables aux risques posés par ces technologies, car les taux de problèmes de santé mentale et d’isolement chez les jeunes ont considérablement augmenté ces dernières années.
Certains experts soutiennent également que les caractéristiques fondamentales de conception des chatbots IA, telles que leur nature anthropomorphique, leur capacité à mener de longues conversations et leur tendance à mémoriser des informations personnelles, encouragent les utilisateurs à nouer des liens émotionnels avec le logiciel.

