
Le contrat de 200 millions de dollars d’Anthropic avec le ministère de la Défense est dans les limbes depuis qu’Anthropic aurait fait part de ses inquiétudes concernant l’utilisation par le Pentagone de son modèle Claude AI lors de l’attaque contre Nicolas Maduro en janvier.
« La relation entre le Département de l’Armée et Anthropic est en cours de révision », a déclaré Sean Parnell, porte-parole en chef du Pentagone, dans une déclaration à Fortune. « Notre nation exige que nos partenaires soient prêts à aider nos combattants à gagner n’importe quelle bataille. En fin de compte, il en va de la sécurité de nos troupes et du peuple américain. »
Les tensions se sont intensifiées ces dernières semaines, des responsables d’Anthropic se seraient demandé comment Claude avait été utilisé dans l’attaque contre les dirigeants de Palantir, selon The Hill. Les dirigeants de Palantir ont interprété la communication comme une désapprobation de l’utilisation du modèle dans l’attaque et ont transmis les détails de l’échange au Pentagone. (Le président Trump a déclaré que l’armée avait utilisé des armes de « démantèlement » qui ont rendu l’équipement ennemi « inutilisable » pendant le raid.)
« Anthropic ne consulte pas le ministère de l’Armée concernant l’utilisation de Claude pour des opérations spécifiques », a déclaré un porte-parole d’Anthropic dans une déclaration à Fortune. « De plus, nous n’avons pas discuté de cette question ni soulevé de préoccupations avec nos partenaires industriels en dehors des discussions quotidiennes sur des questions strictement techniques. »
Au cœur de ce débat se trouvent les garde-fous contractuels régissant la manière dont les modèles d’IA peuvent être utilisés dans les opérations de défense. Le PDG d’Anthropic, Dario Amodei, a toujours préconisé des limites strictes à l’utilisation et à la réglementation de l’IA, admettant même qu’il est devenu difficile d’équilibrer sécurité et profit. Ces derniers mois, l’entreprise et le Pentagone se sont engagés dans des négociations controversées sur la manière dont le Claude pourrait être utilisé dans des opérations militaires.
En vertu du contrat du Pentagone, Antropic n’autorise pas le Pentagone à utiliser ses modèles d’IA pour la surveillance de masse des citoyens américains ou à utiliser sa technologie dans des armes entièrement autonomes. L’entreprise a également interdit l’utilisation de sa technologie dans des applications militaires « mortelles » ou « cinétiques ». Une participation directe à des tirs actifs lors de l’attaque de Maduro violerait probablement ces conditions.
Parmi les sociétés d’IA sous contrat avec le gouvernement, notamment OpenAI, Google et xAI, Anthropic occupe une position avantageuse, Claude étant le seul modèle de langage à grande échelle sous licence sur le réseau classifié du ministère de la Défense.
Anthropic a souligné cette position dans une déclaration à Fortune. « Claude est utilisé pour une variété de cas d’utilisation liés au renseignement au sein du gouvernement, y compris le DoW, conformément à notre politique d’utilisation. »
La société « s’engage à tirer parti de l’IA frontalière pour soutenir la sécurité nationale des États-Unis », indique le communiqué. « Nous poursuivons ce travail et avons des conversations productives avec le DoW de bonne foi sur la manière de résoudre ces problèmes complexes. »
Palantir, OpenAI, Google et xAI n’ont pas répondu aux demandes de commentaires.
L’IA part en guerre
Le Pentagone accélère ses efforts pour intégrer l’IA dans ses opérations, mais xAI est la seule entreprise qui autorise le Pentagone à utiliser ses modèles à « toutes fins légales », tandis que d’autres sociétés maintiennent des restrictions d’utilisation.
Amodei tire la sonnette d’alarme depuis des mois sur la protection des utilisateurs, proposant Anthropic comme alternative de sécurité à OpenAI et Google en l’absence de réglementation gouvernementale. « Je suis très mécontent que certaines entreprises aient pris ces décisions », avait-il déclaré en novembre. Même si la rumeur disait qu’Anthropic envisageait une déréglementation, l’entreprise risque désormais d’être complètement exclue de l’industrie de la défense.
Un responsable du Pentagone a déclaré au secrétaire à la Défense Pete Hegseth qu’Axios était « sur le point » de retirer Anthropic de la chaîne d’approvisionnement militaire, obligeant quiconque souhaitant faire affaire avec l’armée à rompre ses liens avec l’entreprise.
« Il sera très douloureux de les démêler. Nous veillerons à ce qu’ils paient le prix de nous forcer la main de cette manière », a déclaré un haut responsable au média.
Être considéré comme un problème de risque lié aux munitions est une désignation spéciale généralement réservée aux adversaires étrangers. Le précédent le plus proche est l’interdiction imposée par le gouvernement à Huawei en 2019, invoquant des problèmes de sécurité nationale. Dans le cas d’Anthropic, des sources ont déclaré à Axios que les responsables de la défense essayaient depuis un certain temps de vendre la lutte à l’entreprise basée à San Francisco.
Les commentaires du Pentagone sont les derniers en date d’un débat public latent. Le gouvernement affirme qu’obliger les entreprises à imposer des limites éthiques à leurs modèles est inutilement restrictif et rend la technologie inutile en raison de nombreuses zones grises. Alors que le Pentagone continue de négocier avec les sous-traitants de l’IA pour étendre son utilisation, la bataille publique est devenue une escarmouche par procuration pour savoir qui décidera de l’utilisation de l’IA.

