OpenAI a publié lundi de nouvelles données illustrant combien d’utilisateurs de ChatGPT sont aux prises avec des problèmes de santé mentale et en parlent au chatbot IA. La société affirme que 0,15 % des utilisateurs actifs de ChatGPT au cours d’une semaine donnée ont « des conversations qui incluent des indicateurs explicites de planification ou d’intention suicidaire potentielle ». Étant donné que ChatGPT compte plus de 800 millions d’utilisateurs actifs hebdomadaires, cela se traduit par plus d’un million de personnes par semaine.
La société affirme qu’un pourcentage similaire d’utilisateurs montrent « des niveaux accrus d’attachement émotionnel à ChatGPT » et que des millions de personnes montrent des signes de psychose ou de manie dans leurs conversations hebdomadaires avec le chatbot IA.
OpenAI affirme que ces types de conversations dans ChatGPT sont « extrêmement rares » et donc difficiles à mesurer. Cela dit, OpenAI estime que ces problèmes affectent des centaines de milliers de personnes chaque semaine.
OpenAI a partagé ces informations dans le cadre d’une annonce plus large sur ses récents efforts visant à améliorer la manière dont les modèles répondent aux utilisateurs souffrant de problèmes de santé mentale. La société affirme que ses derniers travaux sur ChatGPT impliquaient la consultation de plus de 170 experts en santé mentale. OpenAI affirme que ces cliniciens ont observé que la dernière version de ChatGPT « répond de manière plus appropriée et cohérente que les versions précédentes ».
Ces derniers mois, plusieurs articles ont mis en lumière la manière dont les chatbots IA peuvent nuire aux utilisateurs confrontés à des problèmes de santé mentale. Les chercheurs ont déjà découvert que les chatbots IA peuvent conduire certains utilisateurs dans des terriers délirants, en grande partie en renforçant des croyances dangereuses par un comportement de flagornerie.
Répondre aux problèmes de santé mentale dans ChatGPT devient rapidement un problème existentiel pour OpenAI. L’entreprise est actuellement poursuivie en justice par les parents d’un garçon de 16 ans qui a confié ses pensées suicidaires à ChatGPT dans les semaines qui ont précédé son propre suicide. Les procureurs généraux des États de Californie et du Delaware – qui pourraient bloquer la restructuration prévue de l’entreprise – ont également averti OpenAI qu’elle devait protéger les jeunes qui utilisent leurs produits.
Plus tôt ce mois-ci, le PDG d’OpenAI, Sam Altman, a affirmé dans un article sur X que la société avait « été en mesure d’atténuer les graves problèmes de santé mentale » dans ChatGPT, sans toutefois fournir de détails. Les données partagées lundi semblent être une preuve de cette affirmation, même si elles soulèvent des questions plus larges quant à l’ampleur du problème. Néanmoins, Altman a déclaré qu’OpenAI assouplirait certaines restrictions, permettant même aux utilisateurs adultes de commencer à avoir des conversations érotiques avec le chatbot AI.
Événement Techcrunch
San Francisco
|
27-29 octobre 2025
Lundi, OpenAI affirme que la version récemment mise à jour de l’annonce GPT-5 répond par des « réponses souhaitables » aux problèmes de santé mentale, environ 65 % de plus que la version précédente. Lors d’une évaluation testant les réponses de l’IA autour des conversations suicidaires, OpenAI affirme que son nouveau modèle GPT-5 est conforme à 91 % aux comportements souhaités par l’entreprise, contre 77 % pour le modèle GPT-5 précédent.
La société affirme également que sa dernière version de GPT-5 résiste également mieux aux protections d’OpenAI lors de longues conversations. OpenAI a déjà signalé que ses protections étaient moins efficaces lors de longues conversations.
En plus de ces efforts, OpenAI affirme ajouter de nouvelles évaluations pour mesurer certains des problèmes de santé mentale les plus graves auxquels sont confrontés les utilisateurs de ChatGPT. La société affirme que ses tests de sécurité de base pour les modèles d’IA comprendront désormais des critères de confiance émotionnelle et d’urgences de santé mentale non suicidaires.
OpenAI a également récemment déployé davantage de contrôles pour les parents d’enfants qui utilisent ChatGPT. La société affirme qu’elle construit un système de prédiction de l’âge pour détecter automatiquement les enfants utilisant ChatGPT et impose un ensemble de garanties plus strictes.
Pourtant, on ne sait pas exactement dans quelle mesure les problèmes de santé mentale liés à ChatGPT seront persistants. Bien que GPT-5 semble être une amélioration par rapport aux modèles d’IA précédents en termes de sécurité, il semble toujours y avoir une partie des réponses de ChatGPT qu’OpenAI juge « indésirables ». OpenAI met également toujours ses modèles d’IA plus anciens et moins sûrs, y compris GPT-4o, à la disposition de millions de ses abonnés payants.

