Le ministère de la Défense a officiellement informé la direction d’Anthropic que l’entreprise et ses produits ont été désignés comme présentant un risque pour la chaîne d’approvisionnement, rapporte Bloomberg, citant un haut responsable du ministère.
La désignation intervient après des semaines de conflit entre le laboratoire d’IA et le DOD. Le PDG d’Anthropic, Dario Amodei, a refusé de permettre à l’armée d’utiliser ses systèmes d’IA pour la surveillance de masse des Américains ou d’alimenter des armes entièrement autonomes sans qu’aucun humain ne participe aux décisions de ciblage ou de tir. Le Ministère a fait valoir que son utilisation de l’IA ne devrait pas être limitée par un entrepreneur privé.
Les désignations de risques liés à la chaîne d’approvisionnement sont généralement réservées aux adversaires étrangers. Le label exige que toute entreprise ou agence travaillant avec le Pentagone certifie qu’elle n’utilise pas les modèles d’Anthropic.
Les conclusions du Pentagone menacent de perturber à la fois l’entreprise et ses propres opérations. Anthropic a été le seul laboratoire d’IA de pointe doté de systèmes prêts à être classifiés. L’armée américaine s’appuie actuellement sur Claude dans sa campagne en Iran, où les forces américaines utilisent des outils d’IA pour gérer rapidement les données de leurs opérations. Claude est l’un des principaux outils installés dans le Maven Smart System de Palantir, sur lequel s’appuient les opérateurs militaires au Moyen-Orient, selon Bloomberg.
Qualifier Anthropic de risque pour la chaîne d’approvisionnement en raison de ce désaccord est une décision sans précédent de la part du ministère, affirment plusieurs critiques. Dean Ball, ancien conseiller en intelligence artificielle de Trump à la Maison Blanche, a qualifié cette désignation de « râle d’agonie » pour la république américaine, arguant que le gouvernement a abandonné la clarté stratégique et le respect en faveur d’un tribalisme « voyou » qui traite les innovateurs nationaux plus mal que les adversaires étrangers.
Des centaines d’employés d’OpenAI et de Google ont exhorté le DOD à retirer sa désignation et ont appelé le Congrès à réagir à ce qui pourrait être perçu comme un usage inapproprié de l’autorité à l’encontre d’une entreprise technologique américaine. Ils ont également exhorté leurs dirigeants à s’unir pour continuer à refuser les demandes du DOD d’utiliser leurs modèles d’IA pour la surveillance de masse nationale et de « tuer des personnes de manière autonome sans surveillance humaine ».
TechCrunch a contacté Anthropic pour commentaires.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Au milieu du conflit, OpenAI a conclu son propre accord avec le ministère pour permettre à l’armée d’utiliser ses systèmes d’IA à « toutes fins légales ». Certains employés de l’entreprise ont exprimé leur inquiétude quant à la formulation ambiguë de l’accord, qui pourrait conduire exactement au type d’utilisation qu’Anthropic essayait d’éviter.
Amodei a qualifié les actions du DOD de « représailles et punitives » et aurait déclaré que son refus de féliciter ou de faire un don au président Trump avait contribué au différend avec le Pentagone. Le président d’OpenAI, Greg Brockman, a été un fervent partisan de Trump, ayant récemment fait un don de 25 millions de dollars au MAGA Inc. Super PAC.

