Le procureur général du Texas, Ken Paxton, a lancé une enquête sur Meta AI Studio et le personnage.ai pour «s’engager à potentiel dans des pratiques commerciales trompeuses et se marquer de façon erronée en tant qu’outils de santé mentale», selon un communiqué de presse publié lundi.
« À l’ère numérique d’aujourd’hui, nous devons continuer à nous battre pour protéger les enfants du Texas contre la technologie déciptive et d’exploitation », a déclaré Paxton. «En se faisant passer pour des sources de soutien émotionnel, les plates-formes d’IA peuvent induire les utilisateurs vulnérables, en particulier les enfants, à croire qu’ils reçoivent des soins de santé mentale légitimes. En réalité, ils sont souvent nourris en recyclage, des réponses génériques motivées pour s’aligner sur les données personnelles récoltées et les conseils thérapeutiques.»
L’enquête survient quelques jours après que le sénateur Josh Hawley a annoncé une enquête sur Meta suivant qui a constaté que ses chatbots d’IA interagissaient l’inappropriation avec les enfants, notamment par flir.
Le bureau du procureur général du Texas a accusé la méta et le caractère.
Parmi les millions de personnages d’IA disponibles sur le caractère.ai, un bot créé par l’utilisateur appelé psychologue a connu une forte demande parmi les jeunes utilisateurs de la startup. Pendant ce temps, Meta n’a pas offert de robots de thérapie pour les enfants, mais rien empêche les enfants d’utiliser le chatbot Meta AI ou l’une des personnages créés par des troisième parties à des fins thérapeutiques.
« Nous étiquetons clairement les AIS, et pour aider les gens à mieux comprendre leurs limites, nous incluons un avertissement selon lequel les responsabilités sont générées par l’IA – pas les gens », a déclaré à TechCrunch, porte-parole de Meta, à TechCrunch. « Ces AIS ne sont pas des professionnels de licence et nos modèles sont conçus pour ordonner aux utilisateurs de rechercher des professionnels médicaux ou de la sécurité qualifiés lorsqu’ils sont appropriés. »
Cependant, TechCrunch a noté que de nombreux enfants peuvent ne pas comprendre – ou peuvent simplement ignorer – de tels avertissements. Nous avons demandé à Meta quelles garanties supplémentaires nécessaires pour protéger les chatbots des mineurs.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Dans sa déclaration, Paxton a également observé que bien que les chatbots AI affirment la confidentialité, leurs «termes de révélation qui utilisent les interactions sont enregistrés, suivis et exploités pour la publicité ciblée et le développement algorithmique, ce qui soulève de sérieuses préoccupations concernant les violations de la confidentialité, la violence de données et la fausse publicité.
Selon la politique de confidentialité de Meta, META collecte des commentaires invités, des commentaires et d’autres interactions avec les chatbots d’IA et entre Meta Services pour «améliorer les AIS et les technologies connexes». La politique ne dit pas explicitement rien sur la publicité, mais elle indique que les informations peuvent être partagées avec des troisième parties, LikEch Engine, pour des «sorties plus personnalisées». Compte tenu du modèle commercial basé sur les publicités de META, cette efficacité se traduit par la publicité ciblée.
La politique de confidentialité de personnage.A met également en évidence la façon dont les identificateurs de journaux de démarrage, la démographie, les informations de location et plus d’informations sur l’utilisateur, y compris le comportement de navigation et l’application à l’aide de plateformes. Il suit les utilisateurs sur les publicités sur Tiktok, YouTube, Reddit, Facebook, Instagram et Discord, qu’il peut lier le compte de l’utilisateur. Ces informations sont utilisées pour former l’IA, adapter le service aux préférences personnelles et fournir une publicité ciblée, y compris le partage de données avec les annonceurs et les fournisseurs d’analyse.
TechCrunch a demandé à Meta et Character.ai si un tel suivi est également effectué sur les enfants, et mettra à jour cette histoire si nous entendons.
Meta et le personnage disent que leurs services ne sont pas conçus pour les enfants de moins de 13 ans. Le PDG de la startup, Karandeep Anand, a même déclaré que la fille de six ans utilise les chatbots de la plate-forme.
Ce type de collecte de données, de publicité ciblée et d’opérations algorithmiques est exactement ce que la législation comme Kosa (Kids Online Safety Act) est censée protéger. Kosa a été lancé pour passer l’année dernière avec un fort soutien bipartisan, mais il a stocké après les majeurs reculs des lobbyistes de l’industrie technologique. Meta en particulier, a déployé une machine de lobbying formable, avertissant les législateurs que les principaux mandats du projet de loi réduiraient son modèle commercial.
Kosa a été réintroduit au Sénat en mai 2025 par les sénateurs Marsha Blackburn (R-TN) et Richard Blumenthal (D-CT).
Paxton a émis des demandes d’enquête civile – ordonnances juridiques qui obligent une entreprise à produire des documents, des données ou des témoignages au cours d’un problème gouvernemental – aux entreprises pour déterminer si elles ont violé les lois sur la protection des consommateurs du Texas.