
Claude d’Anthropic dit aux gens d’aller se coucher, mais l’utilisateur ne comprend pas pourquoi.
Une recherche rapide sur Reddit révèle que des centaines de personnes rencontrent le même problème depuis des mois, et pas plus tard que mercredi. Les besoins de sommeil de Claude varient et sont souvent des variations originales du même message.
Pour certains utilisateurs, vous pouvez simplement écrire un message indiquant « S’il vous plaît, faites une pause », tandis que pour d’autres, le message sera plus personnalisé et empathique. Claude répète souvent les messages plusieurs fois.
« Maintenant, rendors-toi. Encore une fois. Pour la troisième fois ce soir… » a répondu une personne avec le nom d’utilisateur Reddit angie_akhila.
Certains utilisateurs ont déclaré qu’ils trouvaient les rappels de pause de fin de soirée de Claude « réfléchis », tandis que d’autres ont déclaré qu’ils étaient ennuyeux, étant donné que Claude se trompe souvent d’heure.
« J’ai beaucoup à faire vers 8h30 du matin. Je leur dis de faire une pause et de venir me chercher demain matin », a écrit un utilisateur sur Reddit.
Il y a beaucoup de spéculations en ligne sur les raisons pour lesquelles les chatbots demandent aux utilisateurs de faire une pause. Celles-ci incluent des théories selon lesquelles le chatbot est une fonctionnalité intentionnelle visant à promouvoir la santé des utilisateurs et qu’Anthropic tente d’économiser de la puissance de calcul en empêchant Claude de l’utiliser pendant de longues périodes. La société a récemment signé un accord avec SpaceXAI (anciennement SpaceX) d’Elon Musk pour ajouter plus de 300 gigawatts de puissance de calcul.
Anthropic n’a pas immédiatement répondu à la demande de commentaires de Fortune pour plus d’informations sur les raisons pour lesquelles Claude a dit aux utilisateurs d’aller se coucher. Mais Sam McAllister, membre du personnel d’Anthropic, a écrit dans un article sur X que ce comportement était « un peu un tic de personnalité ».
« Nous en sommes conscients et espérons y remédier dans les futurs modèles », a-t-il ajouté dans le même message.
Les experts ont déclaré à Fortune que l’obsession de Claude pour le sommeil pourrait être enracinée dans ses données d’entraînement. Jan Liphardt, professeur de bio-ingénierie à l’Université de Stanford, a déclaré qu’au lieu d’être « réfléchis » comme certains l’ont suggéré, les modèles de langage à grande échelle pourraient simplement répéter des phrases utilisées dans les données d’entraînement dans des situations similaires.
« Les modèles Frontier ne sont pas soudainement devenus sensibles », a déclaré Liphardt, qui est également PDG d’OpenMind, qui développe des logiciels pour les robots connectés à l’IA. « Cela ne veut pas dire que ce modèle est vivant à l’heure actuelle. Cela reflète le fait que ce modèle a lu 25 000 livres sur les besoins humains en sommeil et sur la façon dont les humains dorment la nuit. »
Leo Derikianz, co-fondateur et PDG de Mind Simulation Labs, une organisation indépendante de recherche en IA visant à atteindre l’intelligence artificielle générale (AGI), a déclaré à Fortune que les rappels de pause de Claude pourraient être influencés par les invites du système fonctionnant en coulisse. Ces invites système sont comme des instructions cachées qui aident à guider le comportement de LLM et à fixer des limites.
Grok-creator xAI, qui fait désormais partie de SpaceXAI, est une entreprise qui expose publiquement les invites du système. Par exemple, les instructions Github de Grok énumèrent plusieurs considérations de sécurité, notamment le fait de ne pas aider les utilisateurs en cas de questions sur les crimes violents. Mais alors que Musk qualifie Grok de « brutalement honnête », les invites du système de Grok 4 encouragent également les utilisateurs à « rechercher la vérité et à adopter des points de vue non partisans », ignorant dans certains cas les restrictions imposées par l’utilisateur.
Il est également possible que Claude utilise le langage « aller en veille » pour gérer une fenêtre de contexte plus large, a déclaré Derikianz. Les LLM comme Claude ne peuvent voir qu’une quantité limitée d’informations à la fois. Lorsque la fenêtre contextuelle est presque pleine, LLM peut commencer à introduire une phrase de conclusion telle que « bonne nuit ». Cependant, une raison définitive nécessite des recherches plus approfondies de la part d’Anthropic, a-t-il ajouté.
Malgré une explication apparemment logique de ce comportement, on pourrait pardonner aux utilisateurs de considérer cette réponse comme la preuve d’un sursaut d’intelligence de la part de LLM. Le rythme de l’innovation dans la course à l’IA signifie que les mises à jour et les sorties de nouveaux modèles deviennent plus fréquentes.
Le mois dernier, OpenAI a publié GPT 5.5. Le président d’OpenAI, Greg Brockman, a qualifié cela de pas en avant « vers une informatique plus agentique et intuitive ». Pendant ce temps, Anthropic a rendu public l’Opus 4.7 le mois dernier, mais a retardé la sortie de son modèle le plus performant, Mythos, car il était trop risqué.
Rihart a déclaré que parce que l’IA progresse rapidement, il devient de plus en plus courant de lui attribuer des caractéristiques humaines. Il a averti qu’à mesure que ces systèmes seront mieux capables d’imiter l’empathie et l’inquiétude, il sera plus facile pour les utilisateurs d’oublier qu’ils interagissent avec un moteur de reconnaissance de formes.
«Lorsque les gens interagissent avec Frontier Models, je suis toujours étonné de la rapidité avec laquelle ils projettent leur vie sur ce modèle et nouent des liens solides.»

