Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Comment la Shadow Fleet profite du chaos de la guerre

mars 25, 2026

La startup d’un ancien boursier Thiel vient de lancer un drone qui, selon elle, pourrait remplacer les hélicoptères de la police

mars 25, 2026

« Tentative de meurtre en entreprise » : l’anthropologie et le ministère de la Guerre se battent devant les tribunaux

mars 25, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » « Tentative de meurtre en entreprise » : l’anthropologie et le ministère de la Guerre se battent devant les tribunaux
Business

« Tentative de meurtre en entreprise » : l’anthropologie et le ministère de la Guerre se battent devant les tribunaux

JohnBy Johnmars 25, 2026Aucun commentaire6 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email



Les avocats du ministère de l’Armée et d’Anthropic Corp. se sont battus mardi devant un tribunal fédéral de Californie au sujet de la requête d’Anthropic auprès du ministère de la Défense visant à interdire à tous les sous-traitants gouvernementaux d’utiliser ses outils d’IA complets, qualifiant l’entreprise de « risque de chaîne d’approvisionnement » pour la sécurité nationale. Anthropic demande une injonction interdisant l’exécution de cette ordonnance.

L’incident marque une première historique pour le ministère de la Défense, officieusement rebaptisé Département de l’Armée (DOW) par l’administration Trump, à qualifier une entreprise dirigée par les États-Unis de risque de chaîne d’approvisionnement pour la sécurité nationale, en raison d’une escalade rapide des négociations contractuelles. Le DOW souhaitait ajouter une clause générale de « toute utilisation licite » à ses contrats avec les sociétés d’IA afin que l’armée puisse utiliser l’outil Claude d’Anthropic à des fins légales.

Le juge qui présidait l’affaire a exprimé des doutes quant à la large autorité exercée par le Pentagone dans cette affaire. La juge de district américaine Rita Lin a déclaré qu’elle s’attendait à se prononcer sur la contestation judiciaire d’Anthropic « dans les prochains jours », et a passé du temps lors de l’audience de mardi à poser des questions sur les désaccords des parties.

Débat intense sur la manière d’utiliser l’IA

Lors des négociations contractuelles avec le Pentagone en février, Antropic a hésité face à la possibilité que l’armée utilise Claude pour une guerre autonome mortelle ou une surveillance de masse des citoyens américains et a tenté d’insister sur une clause interdisant explicitement une telle utilisation. Anthropic, dirigé par le fondateur Dario Amodei, a déclaré qu’il n’avait pas testé ces utilisations de manière approfondie et ne pensait pas qu’elles fonctionneraient en toute sécurité. DOW a fait valoir que ces garde-fous étaient inacceptables et que les commandants militaires avaient besoin de discrétion pour prendre des décisions en matière de mission.

Le 27 février, le président Trump a publié sur Truth Social l’ordre à « toutes » les agences fédérales de « cesser immédiatement » toute utilisation des outils d’Anthropic. Le même jour, le secrétaire de l’Armée Pete Hegseth a qualifié Anthropic de « risque de chaîne d’approvisionnement » dans un article sur X, déclarant que « les sous-traitants, fournisseurs et partenaires faisant des affaires avec l’armée américaine ne devraient s’engager dans aucune activité commerciale avec Anthropic ». Les étiquettes de risque sont généralement réservées aux États-nations, aux adversaires étrangers et à d’autres menaces.

Antropic a ensuite intenté une action en justice le 9 mars, alléguant que le gouvernement avait « exercé des représailles » pour avoir exprimé son point de vue sur les garde-corps de sécurité et, ce faisant, violé le premier amendement. Il a également allégué que le gouvernement avait violé les procédures énoncées dans la loi sur la procédure administrative et les droits à une procédure régulière du cinquième amendement.

Le gouvernement a déclaré mardi dans des mémoires et devant le tribunal que son action était une réponse au refus d’Anthropic d’honorer certaines conditions du contrat, et a fait valoir que la liberté d’expression n’était pas en cause dans cette affaire. Le procureur général adjoint, Eric Hamilton, a déclaré que le gouvernement dispose d’un pouvoir illimité pour décider avec quelles entreprises passer des contrats. Hamilton a déclaré que les actions d’Anthropic soulevaient des inquiétudes quant au fait que les futures mises à jour logicielles pourraient être utilisées comme un « kill switch » pour empêcher l’IA de fonctionner dans les opérations militaires.

La juge de district Rita F. Lin était sceptique, décrivant l’affaire dans sa déclaration liminaire comme un « débat de politique publique intéressant » sur la position d’Anthropic et les besoins militaires du gouvernement, mais affirmant que son rôle n’était pas de « décider qui a raison dans ce débat ».

La véritable question que le tribunal devra trancher est plutôt de savoir si le gouvernement a « violé la loi » au-delà du simple fait de ne pas utiliser les services d’IA d’Anthropic ou de trouver un fournisseur d’IA plus acceptable avec lequel s’associer, a déclaré Lin.

« Après qu’Anthropic ait rendu public ce différend contractuel, les défendeurs semblent avoir eu une réaction assez significative », a déclaré Lin.

Ses réponses comprenaient l’interdiction à Anthropic d’attribuer des contrats gouvernementaux et l’interdiction à d’autres organisations comme le National Endowment for the Arts d’utiliser Anthropic pour concevoir leurs sites Web. La directive de Hegseth selon laquelle quiconque souhaite faire des affaires avec l’armée américaine doit rompre ses liens commerciaux avec Anthropic. Et désignez Anthropic comme un risque pour la chaîne d’approvisionnement.

« Ce qui m’inquiète à propos de ces réponses, c’est qu’elles ne semblent clairement pas adaptées aux préoccupations de sécurité nationale », a déclaré Lin. Si les préoccupations concernaient la chaîne de commandement, a-t-elle déclaré, le DOW pourrait cesser d’utiliser Claude et passer à autre chose.

« L’un des documents déposés devant le tribunal utilisait le terme ‘tentative de meurtre en entreprise' », a-t-elle ajouté. « Je ne sais pas s’il s’agit d’un meurtre ou non, mais cela ressemble à une tentative de neutraliser Antropic. Ma préoccupation particulière est de savoir si Antropic sera puni pour avoir critiqué la position réductrice du gouvernement dans les médias. »

Les partis politiques s’unissent pour soutenir Anthropic

L’amicus curiae et les mémoires de l’affaire incluent diverses voix, notamment celles de Microsoft, d’anciens combattants militaires, ainsi que d’ingénieurs et de chercheurs d’OpenAI et de Google. Presque tout le monde soutient l’appel d’Anthropic à une injonction pour mettre fin à la désignation de risque dans la chaîne d’approvisionnement.

Le mémoire auquel Lin fait référence provenait d’investisseurs et de la Freedom Economy Business Association. Le briefing fait référence à un article X rédigé par Dean Ball, qui a été conseiller politique principal du président Trump pour l’IA et les technologies émergentes.

« Si Hegseth parvient à ses fins, Nvidia, Amazon et Google devront quitter Anthropic », a écrit Ball. « Il s’agit simplement d’une tentative de meurtre d’entreprise. Je ne peux encourager aucun investisseur à investir dans l’IA aux États-Unis. Je ne peux encourager aucun investisseur à créer une société d’IA aux États-Unis. »

La Fédération américaine des employés publics, qui représente 800 000 employés fédéraux, a déclaré dans un dossier judiciaire que l’administration Trump avait l’habitude d’utiliser les préoccupations en matière de sécurité nationale comme prétexte pour exercer des représailles en matière de liberté d’expression.

Microsoft a écrit que l’interdiction d’Anthropic pourrait nuire à ses activités et décourager les futurs investissements dans l’industrie de la défense et la participation à l’IA.

Le mémoire de la Human Rights and Technology Justice Organization n’a pas pris position sur qui devrait gagner devant les tribunaux, mais s’est largement opposé à l’IA militarisée et a déclaré que son utilisation pourrait conduire à des risques dévastateurs pour les droits de l’homme.

Lin a déclaré qu’il rendrait un avis cette semaine.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleAmazon vient de racheter une startup fabriquant des robots humanoïdes pour enfants
Next Article La startup d’un ancien boursier Thiel vient de lancer un drone qui, selon elle, pourrait remplacer les hélicoptères de la police
John
  • Website

Related Posts

Comment la Shadow Fleet profite du chaos de la guerre

mars 25, 2026

La Moldavie impose une urgence énergétique de 60 jours suite à l’attaque russe contre l’Ukraine

mars 24, 2026

La dette nationale iranienne de 39 000 milliards de dollars et la dédollarisation : comment le président Trump a révélé le talon d’Achille de l’Amérique

mars 24, 2026

Pourquoi les employés de l’ICE sont-ils toujours payés mais pas ceux de la TSA pendant la fermeture du gouvernement ?

mars 24, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Hampus, une fintech transfrontalière, s’envole après ses débuts avec le Kosdaq

mars 24, 2026

Securing Your Future: A Guide to Fintech Internships in 2026

mars 24, 2026

TradingBlock nommée « Plateforme de trading de l’année » dans le cadre du programme FinTech Breakthrough Awards 2026

mars 24, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Comment la Shadow Fleet profite du chaos de la guerre

mars 25, 2026

La startup d’un ancien boursier Thiel vient de lancer un drone qui, selon elle, pourrait remplacer les hélicoptères de la police

mars 25, 2026

« Tentative de meurtre en entreprise » : l’anthropologie et le ministère de la Guerre se battent devant les tribunaux

mars 25, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.