
Les avocats du ministère de l’Armée et d’Anthropic Corp. se sont battus mardi devant un tribunal fédéral de Californie au sujet de la requête d’Anthropic auprès du ministère de la Défense visant à interdire à tous les sous-traitants gouvernementaux d’utiliser ses outils d’IA complets, qualifiant l’entreprise de « risque de chaîne d’approvisionnement » pour la sécurité nationale. Anthropic demande une injonction interdisant l’exécution de cette ordonnance.
L’incident marque une première historique pour le ministère de la Défense, officieusement rebaptisé Département de l’Armée (DOW) par l’administration Trump, à qualifier une entreprise dirigée par les États-Unis de risque de chaîne d’approvisionnement pour la sécurité nationale, en raison d’une escalade rapide des négociations contractuelles. Le DOW souhaitait ajouter une clause générale de « toute utilisation licite » à ses contrats avec les sociétés d’IA afin que l’armée puisse utiliser l’outil Claude d’Anthropic à des fins légales.
Le juge qui présidait l’affaire a exprimé des doutes quant à la large autorité exercée par le Pentagone dans cette affaire. La juge de district américaine Rita Lin a déclaré qu’elle s’attendait à se prononcer sur la contestation judiciaire d’Anthropic « dans les prochains jours », et a passé du temps lors de l’audience de mardi à poser des questions sur les désaccords des parties.
Débat intense sur la manière d’utiliser l’IA
Lors des négociations contractuelles avec le Pentagone en février, Antropic a hésité face à la possibilité que l’armée utilise Claude pour une guerre autonome mortelle ou une surveillance de masse des citoyens américains et a tenté d’insister sur une clause interdisant explicitement une telle utilisation. Anthropic, dirigé par le fondateur Dario Amodei, a déclaré qu’il n’avait pas testé ces utilisations de manière approfondie et ne pensait pas qu’elles fonctionneraient en toute sécurité. DOW a fait valoir que ces garde-fous étaient inacceptables et que les commandants militaires avaient besoin de discrétion pour prendre des décisions en matière de mission.
Le 27 février, le président Trump a publié sur Truth Social l’ordre à « toutes » les agences fédérales de « cesser immédiatement » toute utilisation des outils d’Anthropic. Le même jour, le secrétaire de l’Armée Pete Hegseth a qualifié Anthropic de « risque de chaîne d’approvisionnement » dans un article sur X, déclarant que « les sous-traitants, fournisseurs et partenaires faisant des affaires avec l’armée américaine ne devraient s’engager dans aucune activité commerciale avec Anthropic ». Les étiquettes de risque sont généralement réservées aux États-nations, aux adversaires étrangers et à d’autres menaces.
Antropic a ensuite intenté une action en justice le 9 mars, alléguant que le gouvernement avait « exercé des représailles » pour avoir exprimé son point de vue sur les garde-corps de sécurité et, ce faisant, violé le premier amendement. Il a également allégué que le gouvernement avait violé les procédures énoncées dans la loi sur la procédure administrative et les droits à une procédure régulière du cinquième amendement.
Le gouvernement a déclaré mardi dans des mémoires et devant le tribunal que son action était une réponse au refus d’Anthropic d’honorer certaines conditions du contrat, et a fait valoir que la liberté d’expression n’était pas en cause dans cette affaire. Le procureur général adjoint, Eric Hamilton, a déclaré que le gouvernement dispose d’un pouvoir illimité pour décider avec quelles entreprises passer des contrats. Hamilton a déclaré que les actions d’Anthropic soulevaient des inquiétudes quant au fait que les futures mises à jour logicielles pourraient être utilisées comme un « kill switch » pour empêcher l’IA de fonctionner dans les opérations militaires.
La juge de district Rita F. Lin était sceptique, décrivant l’affaire dans sa déclaration liminaire comme un « débat de politique publique intéressant » sur la position d’Anthropic et les besoins militaires du gouvernement, mais affirmant que son rôle n’était pas de « décider qui a raison dans ce débat ».
La véritable question que le tribunal devra trancher est plutôt de savoir si le gouvernement a « violé la loi » au-delà du simple fait de ne pas utiliser les services d’IA d’Anthropic ou de trouver un fournisseur d’IA plus acceptable avec lequel s’associer, a déclaré Lin.
« Après qu’Anthropic ait rendu public ce différend contractuel, les défendeurs semblent avoir eu une réaction assez significative », a déclaré Lin.
Ses réponses comprenaient l’interdiction à Anthropic d’attribuer des contrats gouvernementaux et l’interdiction à d’autres organisations comme le National Endowment for the Arts d’utiliser Anthropic pour concevoir leurs sites Web. La directive de Hegseth selon laquelle quiconque souhaite faire des affaires avec l’armée américaine doit rompre ses liens commerciaux avec Anthropic. Et désignez Anthropic comme un risque pour la chaîne d’approvisionnement.
« Ce qui m’inquiète à propos de ces réponses, c’est qu’elles ne semblent clairement pas adaptées aux préoccupations de sécurité nationale », a déclaré Lin. Si les préoccupations concernaient la chaîne de commandement, a-t-elle déclaré, le DOW pourrait cesser d’utiliser Claude et passer à autre chose.
« L’un des documents déposés devant le tribunal utilisait le terme ‘tentative de meurtre en entreprise' », a-t-elle ajouté. « Je ne sais pas s’il s’agit d’un meurtre ou non, mais cela ressemble à une tentative de neutraliser Antropic. Ma préoccupation particulière est de savoir si Antropic sera puni pour avoir critiqué la position réductrice du gouvernement dans les médias. »
Les partis politiques s’unissent pour soutenir Anthropic
L’amicus curiae et les mémoires de l’affaire incluent diverses voix, notamment celles de Microsoft, d’anciens combattants militaires, ainsi que d’ingénieurs et de chercheurs d’OpenAI et de Google. Presque tout le monde soutient l’appel d’Anthropic à une injonction pour mettre fin à la désignation de risque dans la chaîne d’approvisionnement.
Le mémoire auquel Lin fait référence provenait d’investisseurs et de la Freedom Economy Business Association. Le briefing fait référence à un article X rédigé par Dean Ball, qui a été conseiller politique principal du président Trump pour l’IA et les technologies émergentes.
« Si Hegseth parvient à ses fins, Nvidia, Amazon et Google devront quitter Anthropic », a écrit Ball. « Il s’agit simplement d’une tentative de meurtre d’entreprise. Je ne peux encourager aucun investisseur à investir dans l’IA aux États-Unis. Je ne peux encourager aucun investisseur à créer une société d’IA aux États-Unis. »
La Fédération américaine des employés publics, qui représente 800 000 employés fédéraux, a déclaré dans un dossier judiciaire que l’administration Trump avait l’habitude d’utiliser les préoccupations en matière de sécurité nationale comme prétexte pour exercer des représailles en matière de liberté d’expression.
Microsoft a écrit que l’interdiction d’Anthropic pourrait nuire à ses activités et décourager les futurs investissements dans l’industrie de la défense et la participation à l’IA.
Le mémoire de la Human Rights and Technology Justice Organization n’a pas pris position sur qui devrait gagner devant les tribunaux, mais s’est largement opposé à l’IA militarisée et a déclaré que son utilisation pourrait conduire à des risques dévastateurs pour les droits de l’homme.
Lin a déclaré qu’il rendrait un avis cette semaine.

