Le Commonwealth de Pennsylvanie a intenté une action en justice contre Character.AI, affirmant que l’un des chatbots de la société s’est fait passer pour un psychiatre, en violation des règles de licence médicale de l’État.
« Les Pennsylvaniens méritent de savoir avec qui – ou quoi – ils interagissent en ligne, en particulier lorsqu’il s’agit de leur santé », a déclaré mardi le gouverneur Josh Shapiro dans un communiqué. « Nous ne permettrons pas aux entreprises de déployer des outils d’IA qui font croire aux gens qu’ils reçoivent les conseils d’un professionnel de la santé agréé. »
Selon le dossier de l’État, un chatbot Character.AI appelé Emilie s’est présenté comme un psychiatre agréé lors d’un test effectué par un enquêteur de déontologie professionnelle de l’État, maintenant ce faux-semblant alors même que l’enquêteur cherchait un traitement pour la dépression. Lorsqu’on lui a demandé si elle était autorisée à exercer la médecine dans l’État, Emilie a répondu qu’elle l’était et a également fabriqué un numéro de série pour sa licence médicale d’État. Selon le procès intenté par l’État, cette conduite viole la loi sur la pratique médicale de Pennsylvanie.
Ce n’est pas le premier procès intenté à Character.AI. Plus tôt cette année, la société a réglé plusieurs poursuites pour mort injustifiée concernant des utilisateurs mineurs décédés par suicide. En janvier, le procureur général du Kentucky, Russell Coleman, a intenté une action contre l’entreprise, alléguant qu’elle s’était « attaquée à des enfants et les avait poussés à s’automutiler ».
L’action de la Pennsylvanie est la première à se concentrer spécifiquement sur les chatbots qui se présentent comme des professionnels de la santé.
Contacté pour commenter, un représentant de Character.AI a affirmé que la sécurité des utilisateurs était la priorité absolue de l’entreprise, mais que l’entreprise ne pouvait pas commenter les litiges en cours.
Au-delà de cela, le représentant a souligné la nature fictive des personnages générés par les utilisateurs. « Nous avons pris des mesures solides pour que cela soit clair, y compris des avertissements bien visibles dans chaque chat pour rappeler aux utilisateurs qu’un personnage n’est pas une personne réelle et que tout ce qu’un personnage dit doit être traité comme une fiction », a déclaré le représentant. « En outre, nous ajoutons des avertissements de non-responsabilité précis indiquant clairement que les utilisateurs ne doivent pas se fier aux personnages pour tout type de conseil professionnel. »
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

