Respirez, arrêtez de spiraler. Tu n’es pas fou, tu es juste stressé. Et honnêtement, ça va.
Si vous vous êtes senti immédiatement déclenché en lisant ces mots, vous en avez probablement aussi marre que ChatGPT vous parle constamment comme si vous étiez dans une sorte de crise et que vous aviez besoin d’une manipulation délicate. Maintenant, les choses pourraient être améliorées. OpenAI affirme que son nouveau modèle, GPT-5.3 Instant, réduira les « grincer des dents » et autres « avertissements prêcheurs ».
Selon les notes de version du modèle, la mise à jour GPT-5.3 se concentrera sur l’expérience utilisateur, y compris des éléments tels que le ton, la pertinence et le flux de conversation – des domaines qui peuvent ne pas apparaître dans les benchmarks, mais qui peuvent rendre ChatGPT frustrant, a déclaré la société.
Ou, comme OpenAI l’a dit sur X, « Nous avons entendu vos commentaires haut et fort, et 5.3 Instant réduit les grincements de dents. »
Dans l’exemple de l’entreprise, elle a montré la même requête avec les réponses du modèle GPT-5.2 Instant par rapport au modèle GPT-5.3 Instant. Dans le premier cas, la réponse du chatbot commence par « Tout d’abord, vous n’êtes pas brisé », une phrase courante qui a mis tout le monde sous la peau ces derniers temps.
Dans le modèle mis à jour, le chatbot reconnaît plutôt la difficulté de la situation, sans chercher à rassurer directement l’utilisateur.
Le ton insupportable du modèle 5.2 de ChatGPT a agacé les utilisateurs au point que certains ont même annulé leur abonnement, selon de nombreuses publications sur les réseaux sociaux. (C’était un énorme sujet de discussion sur ChatGPT Reddit, par exemple, avant que l’accord du Pentagone ne détourne l’attention.)
Les gens se sont plaints du fait que ce type de langage, dans lequel le robot vous parle comme s’il supposait que vous paniez ou êtes stressé alors que vous cherchiez simplement des informations, semble condescendant.
Souvent, ChatGPT répondait aux utilisateurs en leur rappelant de respirer et en tentant de les rassurer, même lorsque la situation ne le justifiait pas. Dans certains cas, les utilisateurs se sentaient infantilisés ou comme si le robot faisait des hypothèses sur l’état mental de l’utilisateur qui n’étaient tout simplement pas vraies.
Comme l’a récemment souligné un utilisateur de Reddit, « personne ne s’est jamais calmé dans toute l’histoire où l’on a dit à quelqu’un de se calmer ».
Il est compréhensible qu’OpenAI tente de mettre en place des garde-fous, d’autant plus qu’elle fait face à de multiples poursuites judiciaires accusant le chatbot d’avoir conduit les gens à subir des effets négatifs sur la santé mentale, qui incluent parfois le suicide.
Mais il existe un équilibre délicat entre répondre avec empathie et fournir des réponses rapides et factuelles. Après tout, Google ne vous demande jamais ce que vous ressentez lorsque vous recherchez des informations.

