
Le PDG d’Anthropic, Dario Amodei, ne pense pas qu’il devrait être responsable des garde-fous entourant l’IA.
Dans une interview avec Anderson Cooper dans l’émission 60 Minutes de CBS News diffusée en novembre 2025, le PDG a déclaré que l’IA devrait être plus étroitement réglementée et que les décisions concernant l’avenir de la technologie devraient être laissées uniquement aux dirigeants des grandes entreprises technologiques.
« Je pense qu’il est très inconfortable que ces décisions soient prises par un petit nombre d’entreprises, par un petit nombre de personnes », a déclaré Amodei. « Et c’est l’une des raisons pour lesquelles j’ai toujours plaidé en faveur d’une réglementation responsable et réfléchie de la technologie. »
« Qui vous a choisi, toi et Sam Altman ? » » a demandé Cooper.
« Personne. Honnêtement, personne », a répondu Amodei.
Anthropic a adopté une philosophie de transparence sur les limites et les risques associés au développement de l’IA, a-t-il ajouté. Avant de publier l’interview, la société a annoncé avoir déjoué « le premier cas documenté de cyberattaque d’IA à grande échelle menée sans intervention humaine substantielle ».
Anthropic a annoncé la semaine dernière avoir fait un don de 20 millions de dollars à Public First Action, un super PAC axé sur la sécurité et la réglementation de l’IA qui s’oppose directement au super PAC soutenu par les investisseurs de son rival OpenAI.
« La sécurité de l’IA reste notre priorité absolue », a déclaré Amodei à Fortune dans un article de couverture de janvier. « Les entreprises valorisent la confiance et la fiabilité », dit-il.
Il n’existe aucune réglementation fédérale définissant des interdictions concernant la sécurité de l’IA ou de la technologie. Alors que les 50 États ont adopté cette année une législation sur l’IA et que 38 d’entre eux ont adopté ou promulgué des mesures de transparence et de sécurité, les experts de l’industrie technologique appellent les entreprises d’IA à aborder la cybersécurité avec un sentiment d’urgence.
Au début de l’année dernière, Kevin Mandia, expert en cybersécurité et PDG de Mandiant, a averti que les premières attaques de cybersécurité par des agents d’IA se produiraient dans les 12 à 18 prochains mois. Cela signifie que la divulgation par Anthropic des attaques déjouées a eu lieu plusieurs mois plus tôt que le calendrier prévu par Mandia.
M. Amodei a souligné les risques à court, moyen et long terme associés à une IA sans restriction. Premièrement, cette technologie présente des préjugés et de la désinformation, comme c’est le cas actuellement. Il utilise ensuite des connaissances scientifiques et techniques améliorées pour générer des informations nuisibles, posant finalement une menace existentielle en éliminant l’action humaine et en excluant potentiellement les humains du système en devenant trop autonomes.
Ces préoccupations font écho à celles du « parrain de l’IA », Jeffrey Hinton, qui a prévenu que l’IA aurait la capacité de déjouer et de contrôler les humains, peut-être au cours de la prochaine décennie.
La pierre angulaire du lancement d’Anthropic en 2021 était la surveillance de l’IA et des mesures de sécurité renforcées. Amodei était auparavant vice-président de la recherche chez OpenAI de Sam Altman. Il a quitté l’entreprise en raison de désaccords sur les problèmes de sécurité de l’IA. (Jusqu’à présent, les efforts d’Amodei pour concurrencer Altman semblent porter leurs fruits ; Anthropic a annoncé ce mois-ci que la société est évaluée à 380 milliards de dollars ; la valorisation d’OpenAI est estimée à 500 milliards de dollars.)
« Il y avait un groupe au sein d’OpenAI qui a commencé avec la création de GPT-2 et GPT-3 et qui se concentrait très fortement sur deux choses », a déclaré Amodei à Fortune en 2023. « L’une était l’idée que si nous mettions de plus en plus de calcul dans ces modèles, ils s’amélioreraient de plus en plus, et il n’y avait presque aucune fin à cela.
L’engagement d’Anthropic en faveur de la transparence
Alors qu’Anthropic continue d’étendre ses investissements dans les centres de données, l’entreprise a dévoilé certains de ses efforts pour remédier aux lacunes et aux menaces de l’IA. Dans son rapport de sécurité de mai 2025, Anthropic a rapporté que certaines versions de ses modèles Opus avaient proféré des menaces, notamment en révélant la liaison extraconjugale d’un ingénieur, pour éviter la fermeture. La société a également déclaré que lorsqu’elle recevait des invites nuisibles, telles que la manière de planifier une attaque terroriste, le modèle d’IA se conformait à la demande dangereuse, mais se corrigeait plus tard.
En novembre dernier, l’entreprise a déclaré dans un article de blog que son chatbot Claude avait reçu une note « d’égalité politique » de 94 %, surpassant ou à égalité avec ses concurrents en termes de neutralité.
En plus des propres efforts de recherche d’Anthropic pour lutter contre la corruption technologique, Amodei a appelé à des efforts législatifs accrus pour lutter contre les risques liés à l’IA. Dans un éditorial du New York Times de juin 2025, il a critiqué la décision du Sénat d’inclure un moratoire de 10 ans sur la réglementation étatique de l’IA dans le projet de loi politique du président Donald Trump.
« L’IA progresse à un rythme vertigineux », a déclaré Amodei. « Je crois que ces systèmes peuvent changer radicalement le monde d’ici deux ans. Dans dix ans, tout s’effondrera. »
Critique de la théorie humaine
Anthropic a été critiqué pour avoir souligné ses erreurs et s’être efforcé d’y remédier. Alors qu’Anthropic tire la sonnette d’alarme concernant les attaques de cybersécurité basées sur l’IA, Yann LeCun, scientifique en chef de l’IA chez Meta, a déclaré que cet avertissement est un moyen de manipuler les législateurs pour restreindre l’utilisation de modèles open source.
En réponse à un message du sénateur du Connecticut Chris Murphy exprimant son inquiétude face à l’attaque, LeCun a déclaré dans un message X qu’il était « dupé par des gens qui veulent une capture réglementaire ». « Ils effraient tout le monde avec des recherches douteuses, de sorte que le modèle open source sera réglementé et cessera d’exister. »
Certains disent que la stratégie d’Anthropic est une stratégie de « théâtre de sécurité », l’équivalent d’une bonne image de marque, mais sans aucune promesse de mettre réellement en place des garanties pour la technologie.
Même certains employés d’Anthropic semblent avoir des doutes quant à la capacité de l’entreprise technologique à s’autoréguler. Au début de la semaine dernière, Mrinank Sharma, chercheur en sécurité de l’IA humaine, a annoncé qu’il démissionnait de l’entreprise, déclarant : « Le monde est en danger ».
« Pendant mon séjour ici, j’ai vu à maintes reprises combien il est difficile de laisser nos valeurs gouverner véritablement nos actions », a déclaré Sharma dans sa lettre de démission. « J’ai constaté cela en moi-même, au sein des organisations, où nous sommes constamment confrontés à des pressions pour mettre de côté ce qui est le plus important, mais aussi dans la société dans son ensemble. »
Anthropic n’a pas immédiatement répondu à la demande de commentaires de Fortune.
Amodei a nié à Cooper qu’Anthropic s’engageait dans un « théâtre de sécurité », mais a reconnu dans l’épisode de la semaine dernière du podcast Dwarkesh que l’entreprise avait parfois du mal à équilibrer sécurité et profit.
« Nous sommes soumis à une pression commerciale incroyable et c’est encore plus difficile pour nous-mêmes car je pense que nous avons mis en place davantage de mesures de sécurité que d’autres entreprises », a-t-il déclaré.
Une version de cet article a été publiée sur Fortune.com le 17 novembre 2025.

