Dario Amodei a déclaré jeudi qu’Anthropic prévoyait de contester devant les tribunaux la décision du ministère de la Défense de qualifier l’entreprise d’IA de risque pour la chaîne d’approvisionnement, une désignation qu’il a qualifiée de « juridiquement mal fondée ».
Cette déclaration intervient quelques heures après que le ministère ait officiellement désigné Anthropic comme un risque pour la chaîne d’approvisionnement à la suite d’un différend de plusieurs semaines sur le degré de contrôle que l’armée devrait avoir sur les systèmes d’IA. Une désignation de risque lié à la chaîne d’approvisionnement peut interdire à une entreprise de travailler avec le Pentagone et ses sous-traitants. Amodei a établi une ligne ferme selon laquelle l’IA d’Anthropic ne devrait pas être utilisée pour la surveillance de masse des Américains ou pour des armes entièrement autonomes, mais le Pentagone estimait qu’elle devrait avoir un accès illimité à « toutes fins légales ».
Dans sa déclaration, Amodei a déclaré que la grande majorité des clients d’Anthropic ne sont pas affectés par la désignation de risque lié à la chaîne d’approvisionnement.
« En ce qui concerne nos clients, cela s’applique clairement uniquement à l’utilisation de Claude par les clients dans le cadre direct des contrats avec le ministère de la Guerre, et non à toute utilisation de Claude par les clients qui ont de tels contrats », a-t-il déclaré.
En guise d’aperçu de ce qu’Anthropic défendra probablement devant le tribunal, Amodei a déclaré que la lettre du ministère qualifiant l’entreprise de risque pour la chaîne d’approvisionnement avait une portée limitée.
« Elle existe pour protéger le gouvernement plutôt que pour punir un fournisseur ; en fait, la loi exige que le secrétaire à la Guerre utilise les moyens les moins restrictifs nécessaires pour atteindre l’objectif de protection de la chaîne d’approvisionnement », a déclaré Amodei. « Même pour les sous-traitants du ministère de la Guerre, la désignation de risque de chaîne d’approvisionnement ne limite pas (et ne peut pas) limiter l’utilisation de Claude ou les relations commerciales avec Anthropic si celles-ci ne sont pas liées à leurs contrats spécifiques au ministère de la Guerre. »
Amodei a réitéré qu’Anthropic avait eu des conversations productives avec le Département au cours des derniers jours, conversations qui, selon certains soupçonnés, ont déraillé lorsqu’une note interne qu’il avait envoyée au personnel a été divulguée. Dans ce document, Amdodei qualifie les relations de son rival OpenAI avec le ministère de la Défense de « théâtre de sécurité ».
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
OpenAI a signé un accord pour travailler avec le ministère de la Défense à la place d’Anthropic, une décision qui a suscité des réactions négatives au sein du personnel d’OpenAI.
Amodei s’est excusé pour la fuite dans sa déclaration de jeudi, affirmant que la société n’avait pas intentionnellement partagé le mémo ni ordonné à quiconque de le faire. « Il n’est pas dans notre intérêt d’aggraver la situation », a-t-il déclaré.
Amodei a déclaré que le mémo avait été rédigé « quelques heures » après une série d’annonces, y compris un article présidentiel de Truth Social disant qu’Anthropic serait retiré des systèmes fédéraux, puis la désignation de risque de chaîne d’approvisionnement par le secrétaire à la Défense Hegseth, et enfin l’annonce d’un accord entre le Pentagone et OpenAI. Il s’est excusé pour le ton, le qualifiant de « journée difficile pour l’entreprise » et a déclaré que la note ne reflétait pas ses « opinions prudentes ou réfléchies ». Rédigé il y a six jours, a-t-il ajouté, il s’agit désormais d’une « évaluation obsolète ».
Il a terminé en affirmant que la priorité absolue d’Anthropic est de garantir que les soldats américains et les experts en sécurité nationale conservent l’accès aux outils importants au milieu des opérations de combat majeures en cours. Anthropic soutient actuellement certaines opérations américaines en Iran, et Amodei a déclaré que la société continuerait à fournir ses modèles au ministère de la Défense à un « coût nominal » « aussi longtemps que nécessaire pour effectuer cette transition ».
Anthropic pourrait contester cette désignation devant un tribunal fédéral, probablement à Washington, mais la loi qui sous-tend la décision rend la contestation plus difficile car elle limite les moyens habituels par lesquels les entreprises peuvent contester les décisions en matière de marchés publics et donne au Pentagone un large pouvoir discrétionnaire sur les questions de sécurité nationale.
Ou comme le dit Dean Ball – un ancien conseiller en IA de la Maison Blanche sous l’ère Trump qui s’est prononcé contre le traitement réservé par Hegseth à Anthropic – : « Les tribunaux sont plutôt réticents à remettre en question le gouvernement sur ce qui est ou n’est pas une question de sécurité nationale… Il y a une barre très haute qu’il faut franchir pour y parvenir. Mais ce n’est pas impossible. »

