Anthropic a jusqu’à vendredi soir pour soit donner à l’armée américaine un accès illimité à son modèle d’IA, soit en assumer les conséquences, rapporte Axios.
Le secrétaire à la Défense, Pete Hegseth, a déclaré mardi matin au PDG d’Anthropic, Dario Amodei, lors d’une réunion que le Pentagone déclarerait Anthropic comme un « risque pour la chaîne d’approvisionnement » – une désignation habituellement réservée aux adversaires étrangers – ou invoquerait la loi sur la production de défense (DPA) pour forcer l’entreprise à adapter une version du modèle aux besoins militaires.
La DPA donne au président le pouvoir d’obliger les entreprises à donner la priorité ou à accroître leur production pour la défense nationale. Elle a récemment été invoquée lors de la pandémie de COVID-19 pour obliger des entreprises comme General Motors et 3M à produire respectivement des respirateurs et des masques.
Anthropic déclare depuis longtemps qu’elle ne veut pas que sa technologie soit utilisée pour la surveillance massive des Américains ou pour des armes entièrement autonomes – et refuse de faire des compromis sur ces points.
Les responsables du Pentagone ont fait valoir que l’utilisation de la technologie par l’armée devrait être régie par la loi américaine et les limites constitutionnelles, et non par les politiques d’utilisation des entrepreneurs privés.
L’utilisation de la DPA dans un différend sur les garde-fous en matière d’IA marquerait une expansion significative de l’utilisation moderne de la loi. Cela refléterait également l’expansion d’un schéma plus large d’instabilité du pouvoir exécutif qui s’est intensifié ces dernières années, selon Dean Ball, chercheur principal à la Foundation for American Innovation et ancien conseiller politique principal sur l’IA à la Maison Blanche de Trump.
« En gros, le gouvernement dirait : ‘Si vous n’êtes pas d’accord avec nous politiquement, nous allons essayer de vous mettre à la faillite' », a déclaré Ball.
Événement Techcrunch
Boston, Massachusetts
|
9 juin 2026
Le conflit se déroule sur fond de frictions idéologiques, certains membres de l’administration – dont le tsar de l’IA David Sacks – critiquant publiquement les politiques de sécurité d’Anthropic comme étant « éveillées ».
« Tout investisseur ou dirigeant d’entreprise raisonnable et responsable examinera la situation et pensera que les États-Unis ne sont plus un endroit stable pour faire des affaires », a déclaré Ball. « Cela s’attaque au cœur même de ce qui fait de l’Amérique une plaque tournante si importante du commerce mondial. Nous avons toujours eu un système juridique stable et prévisible. »
C’est un jeu de poulet sérieux, et Anthropic n’est peut-être pas le premier à cligner des yeux. Selon Reuters, Anthropic ne prévoit pas d’assouplir ses restrictions d’utilisation.
Anthropic est le seul laboratoire d’IA frontalier doté d’un accès classifié au DOD, selon plusieurs rapports. Le ministère de la Défense ne dispose pas actuellement d’option de sauvegarde – bien que le Pentagone aurait conclu un accord pour utiliser Grok de xAI dans des systèmes classifiés.
Ce manque de redondance pourrait expliquer en partie la posture agressive du Pentagone, a soutenu Ball.
« Si Anthropic annulait le contrat demain, ce serait un problème sérieux pour le DOD », a-t-il déclaré à TechCrunch, notant que l’agence ne semble pas respecter un mémorandum sur la sécurité nationale de la fin de l’administration Biden qui ordonne aux agences fédérales d’éviter de dépendre d’un seul système d’IA frontalier prêt à être classifié.
« Le DOD n’a pas de sauvegardes. Il s’agit ici d’une situation de fournisseur unique », a-t-il poursuivi. « Ils ne peuvent pas résoudre ce problème du jour au lendemain. »
TechCrunch a contacté Anthropic et le DOD pour commentaires.

