Anthropic a tenu sa promesse de contester le ministère de la Défense (DOD) devant les tribunaux après que l’agence l’a qualifié de risque pour la chaîne d’approvisionnement à la fin de la semaine dernière.
Le fabricant de Claude a déposé deux plaintes contre le DOD lundi en Californie et à Washington, DC, après un conflit de plusieurs semaines entre Anthropic et le DOD sur la question de savoir si l’armée devrait avoir un accès illimité aux systèmes d’IA d’Anthropic. Anthropic avait deux lignes rouges: il ne voulait pas que sa technologie soit utilisée pour la surveillance massive des Américains et ne croyait pas être prêt à alimenter des armes entièrement autonomes sans qu’aucun humain ne prenne les décisions de ciblage et de tir.
Le secrétaire à la Défense, Pete Hegseth, a fait valoir que le Pentagone devrait avoir accès aux systèmes d’IA à des fins « légitimes » et que cet accès ne devrait pas être limité par un entrepreneur privé.
Le label de risque lié à la chaîne d’approvisionnement est généralement réservé aux adversaires étrangers et exige que toute entreprise ou agence travaillant avec le Pentagone certifie qu’elle n’utilise pas les modèles d’Anthropic. Alors que plusieurs sociétés privées travaillent toujours avec Anthropic, la société est en passe de perdre une grande partie de ses activités au sein du gouvernement.
Anthropic a qualifié les actions du DOD de « sans précédent et illégales » et a accusé l’administration de représailles dans une plainte déposée devant le tribunal fédéral de San Francisco. « La Constitution ne permet pas au gouvernement d’exercer son énorme pouvoir pour punir une entreprise pour son discours protégé », indique le procès.
Le discours protégé auquel Anthropic fait référence est sa conviction sur les « limites de ses propres services d’IA et les problèmes importants de sécurité de l’IA », selon le procès. L’administration, y compris le secrétaire à la Défense Hegseth et le président Trump, ont critiqué Anthropic et son PDG Dario Amodei comme étant « éveillés » et « radicaux » face aux appels de l’entreprise en faveur de mesures plus strictes en matière de sécurité et de transparence de l’IA.
Dans le procès, Anthropic a soutenu que le gouvernement n’était pas obligé d’être d’accord avec ses opinions ou d’utiliser ses produits, mais qu’il ne pouvait pas utiliser le pouvoir de l’État pour punir ou supprimer l’expression d’Anthropic.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Anthropic a également fait valoir qu’« aucune loi fédérale n’autorise les mesures prises ici », affirmant que la désignation de risque pour la chaîne d’approvisionnement du ministère de la Défense a été émise « sans le respect des procédures requises par le Congrès ». La loi exige généralement que les agences procèdent à une évaluation des risques, informent l’entreprise ciblée et lui permettent de répondre, prennent une décision écrite en matière de sécurité nationale et informent le Congrès avant d’exclure un fournisseur des chaînes d’approvisionnement fédérales.
La société accuse également le président d’agir en dehors des limites de l’autorité accordée par le Congrès lorsqu’il a ordonné à chaque agence fédérale de cesser immédiatement d’utiliser la technologie d’Anthropic, suite à la déclaration d’Amodei selon laquelle il ne budgétiserait pas ses lignes dures. À la suite des déclarations faites par le président Trump et le secrétaire Hegseth, la General Services Administration – l’agence fédérale qui gère les contrats et les achats gouvernementaux – a résilié le contrat « OneGov » d’Anthropic, mettant ainsi fin à la disponibilité des services Anthropic pour les trois branches du gouvernement fédéral.
« Les accusés cherchent à détruire la valeur économique créée par l’une des sociétés privées à la croissance la plus rapide au monde », indique le procès. « Les actions contestées infligent un préjudice immédiat et irréparable à Anthropic ; à d’autres dont le discours sera refroidi ; à ceux qui bénéficient de la valeur économique que l’entreprise peut continuer à créer ; et à un public mondial qui mérite un dialogue et un débat approfondis sur ce que l’IA signifie pour la guerre et la surveillance. »
Dans le cadre de sa plainte, Anthropic a demandé au tribunal de suspendre immédiatement la désignation du ministère de la Défense pendant que l’affaire avance et, finalement, d’invalider et d’empêcher définitivement le gouvernement de l’appliquer.
« Demander un contrôle judiciaire ne change rien à notre engagement de longue date à exploiter l’IA pour protéger notre sécurité nationale, mais il s’agit d’une étape nécessaire pour protéger notre entreprise, nos clients et nos partenaires », a déclaré un porte-parole d’Anthropic dans un communiqué. « Nous continuerons à rechercher toutes les voies possibles pour parvenir à une résolution, y compris le dialogue avec le gouvernement. »
Anthropic a déposé une plainte distincte auprès de la Cour d’appel du circuit de DC, car la loi fédérale sur les marchés publics permet aux entreprises de faire appel des désignations de risques liés à la chaîne d’approvisionnement. La requête demande au tribunal de réexaminer et d’annuler la décision du ministère de la Défense de désigner l’entreprise comme un risque pour la chaîne d’approvisionnement pour la sécurité nationale. Dans la plainte, Anthropic a fait valoir que cette décision était illégale, qu’elle constituait des représailles et qu’elle avait été mal exécutée en vertu de la loi fédérale sur les marchés publics.
Cette histoire a été mise à jour avec plus de détails et des informations selon lesquelles Anthropic a déposé une plainte distincte auprès de la Cour d’appel du circuit de DC.

