
Lorsque l’administration Trump a désigné Anthropic comme un « risque pour la chaîne d’approvisionnement » et a ordonné à toutes les agences fédérales de cesser d’utiliser Claude, elle a fait plus que simplement annuler un contrat de 200 millions de dollars. Cela aurait pu déclencher une chaîne d’événements qui ont fragilisé les sociétés américaines d’IA les plus avancées au moment précis où l’Amérique en a le plus besoin.
Anthropic a actuellement deux poursuites contre le ministère de la Défense. Ce qui se passera ensuite pourrait être bien plus important que ce que les deux parties annoncent.
que s’est-il réellement passé
Vraisemblablement, Anthropic a refusé de donner au Pentagone un accès illimité à Claude, le seul modèle Frontier AI fonctionnant actuellement sur des réseaux militaires classifiés. Ils voulaient avoir l’assurance qu’il n’y aurait pas de surveillance de masse ni d’armes autonomes, sans intervention humaine prenant les décisions finales concernant la vie ou la mort. Le message du ministère de la Guerre était le suivant : « Supprimez ces restrictions ou perdez tout. » Le président Trump a ensuite ordonné à toutes les agences fédérales de cesser d’utiliser Anthropic et a désigné l’entreprise comme un « risque pour la chaîne d’approvisionnement ».
Mais il y a bien plus dans cette histoire que des procès et des egos meurtris.
La vraie menace n’est pas le contrat.
La loi fédérale interdit déjà la surveillance massive des citoyens américains. La politique du DoW limite déjà les armes autonomes. Anthropic réclame un droit contractuel de refus pour les activités déjà illégales. Il est inacceptable que des entreprises privées affirment leur autorité sur le fonctionnement de l’armée américaine. Personne n’a élu Dario Amodei et nous ne laisserons pas Lockheed dicter les principes de ciblage. L’idée selon laquelle un éditeur de logiciels devrait avoir un droit de veto sur les décisions opérationnelles militaires est sans précédent.
Claude surpasse ChatGPT sur presque tous les critères d’évaluation importants de l’entreprise, du raisonnement juridique et de la modélisation financière à la cybersécurité et à la modernisation des systèmes existants. Mais la désignation de « risque lié à la chaîne d’approvisionnement » par le ministère de l’Armée menace de stopper la dynamique commerciale d’Anthropic avant qu’elle ne puisse pleinement capitaliser sur ses avantages technologiques.
intérêts géopolitiques
Anthropic a signé un contrat de 200 millions de dollars avec le ministère de la Défense en juillet 2025. C’était il y a 8 mois. C’est désormais chose faite, et OpenAI intervient pour combler le vide. Dire que cela s’est produit rapidement serait un euphémisme.
De plus, Anthropic et OpenAI ont publiquement accusé les laboratoires chinois d’extraire leurs modèles. Ces versions open source volées, y compris Deepseek, sont désormais disponibles pour l’Armée populaire de libération, l’Iran et tous les méchants de la planète, sans aucun garde-fou. Voulons-nous exister dans un monde où les entreprises américaines limitent leur armée tandis que leurs adversaires entraînent des copies piratées de la même technologie sans aucune restriction ?
La véritable menace existentielle n’est pas la perte de contrat de 200 millions de dollars, mais les effets d’entraînement qui se répercutent sur l’ensemble de l’écosystème des sous-traitants de la défense, atteignant profondément la clientèle commerciale d’AWS, Google, Palantir, Accenture, Deloitte et Anthropic aux États-Unis.
Le monde des affaires a montré qu’il était prêt à faire tout ce qu’il fallait pour satisfaire l’administration actuelle. Toutes les entreprises faisant affaire avec le gouvernement fédéral pourraient désormais être tenues de démontrer qu’elles n’ont aucune exposition aux produits fabriqués par l’homme. AWS, Google Cloud et Azure fournissent tous des services au gouvernement, et Anthropic affirme que Claude est utilisé par certaines des plus grandes entreprises des États-Unis, dont beaucoup sont des sous-traitants de la défense. Si cela se produit, Anthropic pourrait ne pas durer longtemps aux États-Unis.
Antropic gagnera-t-il au tribunal ?
À mon avis, légalement, cette désignation ne survit pas. Il existe les dix limitations de l’USC § 3252, les arguments relatifs à la procédure régulière et au premier amendement, ainsi que les précédents Luokung et Xiaomi. En outre, il existe une contradiction inhérente dans la mesure où le gouvernement affirme qu’Anthropic est dangereux, tout en lui donnant six mois pour l’éliminer progressivement.
Tout cela combiné constitue une stratégie pour Anthropic pour gagner ces deux procès. Ils disposent de milliards de dollars, ce qui signifie qu’ils peuvent se permettre la meilleure équipe juridique possible. Ils ont les munitions et la volonté de combattre ce régime aussi longtemps que nécessaire.
Ce que l’humanité doit faire maintenant
Gagner au tribunal est nécessaire mais pas suffisant. Pour qu’Anthropic reste viable, il doit agir simultanément sur plusieurs fronts.
Accélérer la domination commerciale nationale des entreprises non liées par des contrats gouvernementaux Construire une stratégie gouvernementale de coalition — identifier les partenaires internationaux qui peuvent bénéficier de Claude et constituer immédiatement leur base de clients Mener des poursuites agressives et sans fin — le retard est l’ennemi Approfondir la dépendance envers l’écosystème en dirigeant une coalition de gouvernance responsable et fondée sur des valeurs pour l’IA — Plus nous aurons de bonne volonté du public et de confiance de l’industrie, plus la position à long terme d’Anthropic sera forte
La question centrale ne concerne pas vraiment les litiges ou l’argent du contrat. Il s’agit de savoir qui décide des limites de la défense nationale : les élus responsables devant les électeurs ou les dirigeants d’entreprises technologiques responsables devant les conseils d’administration. Vinod Khosla l’a dit clairement. Bien qu’il admire les principes de l’humanisme, il n’est pas d’accord avec les principes eux-mêmes.
Les opinions exprimées dans les articles de commentaires de Fortune.com sont uniquement celles de l’auteur et ne reflètent pas nécessairement les opinions ou les croyances de Fortune.

