Le PDG d’Anthropic, Dario Amodei, croit que les modèles AI d’aujourd’hui hallucinent, ou inventent les choses et les présentent comme s’ils le faisaient, à un taux plus bas que les humains, a-t-il déclaré lors d’un point de presse lors de l’événement de développeur d’Anthropic, Code avec Claude, à San Francisco jeudi.
Amodei a dit tout cela au milieu d’un point plus grand qu’il faisait: que les hallucinations de l’IA ne sont pas une limitation du chemin d’Anthropic vers le système ACT-AI avec l’intelligence de l’humanité ou mieux.
« Cela dépend vraiment de la façon dont vous le mesurez, mais je soupçonne que les modèles d’IA hallucinent probablement moins que les humains, mais ils hallucinent de manière plus surprise », a déclaré Amodei, répondant à la question de TechCrunch.
Le PDG d’Anthropic est l’un des leaders les plus optimistes de l’industrie à la perspective de la réalisation des modèles d’IA. Dans un article largement diffusé, qu’il a écrit l’année dernière, Amodei a déclaré qu’il croyait que la crème vieillie arrive dès 2026. Lors du point de presse de jeudi, le PDG anthropique a déclaré qu’il voyait des progrès réguliers vers cela, notant que «l’eau augmentait partout.
« Tout le monde cherche toujours ces blocs durs sur ce que (IA) peut faire », a déclaré Amodei. « Ils sont maintenant à voir. Il n’y a rien de tel. »
Les dirigeants nothes croient que l’hallucination présente un grand obstacle à la réalisation de l’AG. Plus tôt cette semaine, le PDG de Google Deepmind Demis Hassabis a déclaré que les modèles d’IA de Teday avaient trop de «trous» et obtiennent trop de mauvaises questions évidentes. Par exemple, plus tôt ce mois-ci, un avocat représentant Anthropic a été obligé de s’excuser en bref après avoir utilisé pour créer des citations dans un court dossier, et le chatbot AI a halluciné et a eu des noms et des titres.
Il est difficile de vérifier la revendication d’Amodei, en grande partie de la plupart des références d’hallucination se présentent les modèles IA; Ils comparent les modèles aux humains. Certaines techniques peuvent aider à aider les rats d’hallucination inférieurs, comme donner aux modèles d’IA l’accès à la recherche Web. Par ailleurs, certains modèles d’IA, tels que le GPT-4.5 d’OpenAI, ont notamment des rats d’hallucination inférieurs sur des repères par rapport aux générations de systèmes au début.
Cependant, il existe également des preuves pour suggérer que les hallucinations empirent en fait dans les modèles avancés de raisonnement d’IA. Les modèles O3 et O4-Mini d’Openai ont des rats d’hallucination plus élevés que les modèles de raisonnement de la génération précédente d’Openai, et la société ne comprend pas vraiment pourquoi.
Plus tard dans le point de presse, Amodei souligne que les diffuseurs télévisés, les politiciens et les humains dans tous les types de professions font des erreurs tout le temps. Le fait que l’IA fasse aussi des erreurs n’est pas un coup sur son intelligence, selon Amodei. Cependant, le PDG d’Anthropic a reconnu la confiance avec laquelle les modèles d’IA présentent des choses fausses car les faits pourraient être un problème.
En fait, Anthropic a fait un bon amour de la recherche sur la tendance des modèles d’IA à tromper les humains, un problème qui semblait particulièrement répandu dans le Claude Opus 4 récemment lancé. Apollo Research, un institut de sécurité ayant eu un accès précoce pour tester le modèle de l’IA, a révélé que Claude Opus 4 a montré une forte tendance à schématiser les humains et à les tromper. Apollo est allé jusqu’à suggérer qu’Anthropic n’aurait pas dû publier ce premier modèle. Anthropic a déclaré qu’il avait trouvé certaines atténuations qui semblaient additionner la sortie qu’Apollo a soulevé.
Les commentaires d’Amodei suggèrent qu’Anthropic peut envisager un modèle d’IA comme, ou égal à l’intelligence de l’électration humaine, même s’il hallucine toujours. Une IA qui hallucine peut échapper à Ang par la définition de nombreuses personnes, cependant.

