
Un juge fédéral a donné raison à la société d’intelligence artificielle Anthropic, empêchant temporairement le ministère de la Défense de la classer comme risque pour la chaîne d’approvisionnement.
La juge de district américaine Rita Lin a déclaré jeudi qu’elle bloquait également la directive du président Donald Trump ordonnant à toutes les agences fédérales de cesser d’utiliser Anthropic et son chatbot Claude.
Lin a déclaré que les « vastes mesures punitives » prises par l’administration Trump et le secrétaire à la Défense Pete Hegseth contre les sociétés d’IA semblent arbitraires et capricieuses et pourraient « paralyser de manière anthropique » l’utilisation par Hegseth de rares pouvoirs militaires généralement dirigés contre des adversaires étrangers.
« Il n’y a rien dans la disposition qui soutient l’idée orwellienne selon laquelle les entreprises américaines qui expriment leur désaccord avec le gouvernement peuvent être qualifiées d’adversaires potentiels et d’obstructionnistes des Etats-Unis », a déclaré Lin.
La décision de Lin fait suite à une audience de 90 minutes devant le tribunal fédéral de San Francisco mardi au cours de laquelle il s’est demandé pourquoi l’administration Trump avait pris la mesure inhabituelle de punir Anthropic après l’impasse des négociations sur un contrat de défense en raison des efforts de l’entreprise pour empêcher l’utilisation de sa technologie d’IA dans des armes entièrement autonomes et la surveillance des Américains.
Anthropic avait demandé à M. Lin d’émettre une ordonnance d’urgence pour éliminer la stigmatisation qui, selon elle, lui avait été injustement appliquée dans le cadre d’une « campagne de représailles illégales » qui a conduit l’entreprise basée à San Francisco à poursuivre l’administration Trump en justice au début du mois. Le Pentagone avait insisté sur le fait qu’il devrait pouvoir utiliser Claude de toute manière jugée légale.
Lin a déclaré que sa décision ne concernait pas les débats de politique publique, mais les actions du gouvernement en réponse.
« Si l’inquiétude concerne l’intégrité de la chaîne de commandement opérationnelle, alors le Département de l’Armée devrait simplement cesser d’utiliser Claude. Au lieu de cela, ces mesures semblent viser à punir Anthropic », a écrit Lin.
Anthropic a également déposé une plainte distincte, plus restreinte, qui est toujours en cours devant la Cour d’appel des États-Unis à Washington, D.C.
Lin a écrit que même si sa commande est en retard d’une semaine, elle n’oblige pas le ministère de la Défense à utiliser les produits d’Anthropic ni à l’empêcher de passer à d’autres fournisseurs d’IA.

