Des centaines de travailleurs du secteur technologique ont signé une lettre ouverte exhortant le ministère de la Défense à retirer sa désignation d’Anthropic comme « risque pour la chaîne d’approvisionnement ». La lettre appelle également le Congrès à intervenir et à « examiner si le recours à ces autorités extraordinaires contre une entreprise technologique américaine est approprié ».
La lettre comprend des signataires de grandes sociétés de technologie et de capital-risque, notamment OpenAI, Slack, IBM, Cursor, Salesforce Ventures, etc. Cela fait suite à un différend entre le DOD et Anthropic après que le laboratoire d’IA a refusé la semaine dernière de donner à l’armée un accès illimité à ses systèmes d’IA.
Les deux lignes rouges d’Anthropic dans ses négociations avec le Pentagone étaient qu’il ne voulait pas que sa technologie soit utilisée pour la surveillance de masse des Américains ou pour alimenter des armes autonomes qui prenaient des décisions de ciblage et de tir sans qu’un humain soit impliqué. Le DOD a déclaré qu’il n’avait pas l’intention de faire l’une ou l’autre de ces choses, mais qu’il ne pensait pas qu’il devrait être limité par les règles d’un fournisseur.
En réponse au refus du PDG d’Anthropic, Dario Amodei, de céder aux menaces de Hegseth, le président Donald Trump a ordonné vendredi aux agences fédérales de cesser d’utiliser la technologie d’Anthropic après une période de transition de six mois. Hegseth a déclaré qu’il mettrait à exécution ses menaces et désignerait Anthropic comme un risque pour la chaîne d’approvisionnement – une désignation normalement réservée aux adversaires étrangers qui mettraient la société d’IA sur une liste noire de toute collaboration avec toute agence ou entreprise faisant affaire avec le Pentagone.
Dans un article publié vendredi, Hegseth a écrit : « À compter d’aujourd’hui, aucun entrepreneur, fournisseur ou partenaire qui fait des affaires avec l’armée américaine ne peut mener une quelconque activité commerciale avec Anthropic. »
Mais une publication sur X ne fait pas automatiquement d’Anthropic un risque pour la chaîne d’approvisionnement. Le gouvernement doit réaliser une évaluation des risques et en informer le Congrès avant que ses partenaires militaires ne soient obligés de rompre leurs liens avec Anthropic ou ses produits. Anthropic a déclaré dans un article de blog que la destination était à la fois « juridiquement malsaine » et qu’elle « contesterait toute désignation de risque de chaîne d’approvisionnement devant les tribunaux ».
De nombreux acteurs du secteur considèrent le traitement réservé à Anthropic par l’administration comme une mesure de représailles dures et claires.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
« Lorsque deux parties ne parviennent pas à s’entendre sur les conditions, la solution normale consiste à se séparer et à travailler avec un concurrent », peut-on lire dans la lettre ouverte. « Cette situation crée un dangereux précédent. Punir une entreprise américaine pour avoir refusé d’accepter les modifications d’un contrat envoie un message clair à toutes les entreprises technologiques américaines : acceptez toutes les conditions exigées par le gouvernement, sous peine de représailles. »
Au-delà des inquiétudes suscitées par le traitement sévère réservé à Anthropic par le gouvernement, de nombreux acteurs du secteur restent préoccupés par les excès potentiels du gouvernement et l’utilisation de l’IA à des fins néfastes.
Boaz Barak, un chercheur d’OpenAI, a écrit lundi dans un article sur les réseaux sociaux qu’empêcher les gouvernements d’utiliser l’IA pour effectuer une surveillance de masse est également sa « ligne rouge personnelle » et « cela devrait être la nôtre à tous ».
Quelques instants après que Trump ait publiquement attaqué Anthropic, OpenAI a annoncé avoir conclu son propre accord pour que ses modèles soient déployés dans les environnements classifiés du DOD. Le PDG d’OpenAI, Sam Altman, a déclaré la semaine dernière que l’entreprise avait les mêmes lignes rouges qu’Anthropic.
« Si quelque chose de positif peut ressortir des événements de la semaine dernière, ce serait si nous, dans l’industrie de l’IA, commençons à traiter la question de l’utilisation de l’IA à des fins d’abus par le gouvernement et la surveillance de son propre peuple comme un risque catastrophique en soi », a écrit Barak. « Nous avons fait un bon travail d’évaluation, d’atténuation et de processus pour des risques tels que les armes biologiques et la cybersécurité. Utilisons des processus similaires ici. »

