
Les chatbots IA ont fait l’objet d’un examen minutieux en raison des risques pour la santé mentale associés aux relations des utilisateurs avec la technologie et à l’utilisation de chatbots IA pour le traitement et le soutien lors de crises aiguës de santé mentale. L’une des nouvelles dirigeantes d’OpenAI affirme que cette question est au premier plan de son travail alors que l’entreprise répond aux critiques des utilisateurs et des experts.
En mai de cette année, Fidji Simo, ancien élève de Meta, a été embauché en tant que PDG des applications d’OpenAI. Dans une interview avec Wired publiée lundi, elle a détaillé le contraste frappant entre travailler pour l’entreprise technologique de Mark Zuckerberg et travailler pour Altman, dans une interview avec Wired publiée lundi.
« Je pense que ce que nous n’avons pas bien fait chez Meta, c’est d’anticiper les risques que nos produits créaient pour la société », a déclaré Simo à Wired. « Avec OpenAI, ces risques sont bien réels. »
Mehta n’a pas immédiatement répondu à la demande de commentaires de Fortune.
Simo a travaillé chez Meta pendant 10 ans, de 2011 à juillet 2021, lorsque Meta était encore connue sous le nom de Facebook. Depuis deux ans et demi, il dirige l’application Facebook.
En août 2021, Simo est devenu PDG d’Instacart, un service de livraison d’épicerie. Elle a dirigé l’entreprise pendant quatre ans avant de rejoindre l’une des startups les plus prisées au monde en tant que PDG adjointe en août.
L’un des premiers efforts de Simo chez OpenAI était la santé mentale, a déclaré l’homme de 40 ans à Wired. Une autre tâche qui lui était confiée consistait à lancer le programme de certification en IA de l’entreprise afin de renforcer les compétences en IA des employés sur un marché du travail compétitif et d’atténuer les perturbations de l’IA au sein de l’entreprise.
« C’est une énorme responsabilité, mais nous pensons que nous avons à la fois la culture et les priorités pour l’affronter de front », a déclaré Simo.
Simo a déclaré que lorsqu’il a rejoint le géant de la technologie, il a tout de suite su que sa santé mentale devait être abordée simplement en regardant le paysage.
De plus en plus de personnes sont victimes de ce que l’on appelle parfois la psychose de l’IA. Les experts craignent que les chatbots comme ChatGPT puissent rendre les utilisateurs paranoïaques et paranoïaques, ce qui pourrait entraîner une hospitalisation, un divorce et la mort.
Un audit de la société OpenAI réalisé par la revue médicale à comité de lecture BMJ, publié en octobre, a révélé que des centaines de milliers d’utilisateurs de ChatGPT présentent chaque semaine des signes de psychose, de manie ou de pensées suicidaires.
Une étude récente de l’Université Brown a également révélé qu’à mesure que de plus en plus de personnes se tournent vers ChatGPT et d’autres modèles linguistiques à grande échelle pour obtenir des conseils en matière de santé mentale, ces modèles violent systématiquement les normes éthiques en matière de santé mentale établies par des organisations telles que l’American Psychological Association.
Répondre à ces problèmes de santé mentale nécessitera une voie « inexplorée », a déclaré Simo, ajoutant qu’il existe des risques inhérents à mesure qu’OpenAI continue de déployer différentes capacités.
« Chaque semaine, de nouveaux comportements émergent en raison des fonctionnalités publiées lorsque nous nous disons : ‘Oh, c’est un autre problème de sécurité que nous devons résoudre' », a déclaré Simo à Wired.
Néanmoins, Simo supervise l’introduction récente par l’entreprise du contrôle parental pour les comptes adolescents ChatGPT, ajoutant qu’OpenAI travaille sur « la prédiction de l’âge pour protéger les adolescents ». Meta prévoit également d’introduire le contrôle parental au début de l’année prochaine.
« Cependant, il est très difficile de faire la bonne chose à chaque fois », a déclaré Simo, ajoutant qu’en raison du grand nombre d’utilisateurs (800 millions par semaine), « nous essayons donc de capturer autant de comportements non idéaux que possible et d’améliorer continuellement le modèle. »

