Plus de 30 employés d’OpenAI et de Google DeepMind ont déposé lundi une déclaration soutenant le procès d’Anthropic contre le département américain de la Défense après que l’agence fédérale a qualifié l’entreprise d’IA de risque pour la chaîne d’approvisionnement, selon des documents déposés auprès du tribunal.
« La désignation par le gouvernement d’Anthropic comme risque pour la chaîne d’approvisionnement était une utilisation inappropriée et arbitraire du pouvoir qui a de graves conséquences pour notre industrie », lit-on dans le mémoire, dont les signataires incluent Jeff Dean, scientifique en chef de Google DeepMind.
À la fin de la semaine dernière, le Pentagone a qualifié Anthropic de risque pour la chaîne d’approvisionnement – généralement réservé aux adversaires étrangers – après que la société d’IA a refusé d’autoriser le ministère de la Défense (DOD) à utiliser sa technologie pour la surveillance de masse des Américains ou pour tirer des armes de manière autonome. Le ministère de la Défense avait fait valoir qu’il devrait pouvoir utiliser l’IA à des fins « licites » et ne pas être contraint par un entrepreneur privé.
Le mémoire d’amicus en faveur d’Anthropic est apparu sur le rôle quelques heures après que Claude Maker a déposé deux poursuites contre le DOD et d’autres agences fédérales. Wired a été le premier à annoncer la nouvelle.
Dans le dossier judiciaire, les employés de Google et d’OpenAI font valoir que si le Pentagone n’était « plus satisfait des termes convenus de son contrat avec Anthropic », l’agence aurait pu « simplement annuler le contrat et acheter les services d’une autre grande société d’IA ».
Le DOD a en fait signé un accord avec OpenAI quelques instants après avoir désigné Anthropic comme un risque pour la chaîne d’approvisionnement – une décision contre laquelle de nombreux employés du fabricant de ChatGPT ont protesté.
« S’il est autorisé à se poursuivre, cet effort visant à punir l’une des principales sociétés américaines d’IA aura sans aucun doute des conséquences sur la compétitivité industrielle et scientifique des États-Unis dans le domaine de l’intelligence artificielle et au-delà », indique le document. « Et cela refroidira les délibérations ouvertes dans notre domaine sur les risques et les avantages des systèmes d’IA actuels. »
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Le dossier affirme également que les lignes rouges énoncées par Anthropic sont des préoccupations légitimes justifiant de solides garde-fous. Sans droit public pour régir l’utilisation de l’IA, affirme-t-il, les restrictions contractuelles et techniques que les développeurs imposent à leurs systèmes constituent une garantie essentielle contre une utilisation abusive catastrophique.
De nombreux employés qui ont signé la déclaration ont également signé des lettres ouvertes au cours des dernières semaines exhortant le DOD à retirer le label et appelant les dirigeants de leurs entreprises à soutenir Anthropic et à refuser l’utilisation unilatérale de leurs systèmes d’IA.

