
Selon un haut responsable du Pentagone, le recours du Pentagone à l’IA d’Anthropic a été une prise de conscience choquante qui a finalement conduit à une scission dramatique.
Emil Michael, sous-secrétaire du ministère à la recherche et à l’ingénierie et directeur de la technologie, a détaillé les événements qui ont conduit à la querelle publique dans l’épisode de vendredi du podcast « All In ».
Après que les forces américaines ont attaqué le Venezuela et capturé le dictateur Nicolas Maduro début janvier, Anthropic a demandé à Palantir si son IA avait été utilisée dans l’opération. Bien qu’Anthrop ait qualifié l’enquête de routine, le Pentagone et Palantir l’ont interprétée comme une menace potentielle pour leur accès.
« Oh mon Dieu, et si ce logiciel tombait en panne et que les garde-corps se brisaient et qu’il y avait un refus du prochain combat comme celui-ci, mettant les gens en danger ? » Michael se souvient. « Je suis donc allé voir le secrétaire Hegseth et lui ai dit que cela allait inévitablement se produire. Ce fut une surprise pour l’ensemble des dirigeants du ministère de la Défense que nous puissions devenir si dépendants d’un fournisseur de logiciels que nous n’avons aucune autre alternative. »
Jusqu’à récemment, Claude d’Anthropic était le seul modèle d’IA autorisé dans un cadre classifié. La startup basée à San Francisco se dit patriote et veut protéger l’Amérique, mais ne permettra pas que son IA soit utilisée pour la surveillance de masse nationale ou pour des armes autonomes.
Le Pentagone a insisté sur le fait qu’il utilise l’IA dans des scénarios juridiques et a refusé de se conformer aux restrictions des entreprises allant au-delà de ces contraintes.
Après avoir échoué à parvenir à un compromis la semaine dernière, le président Donald Trump a ordonné au gouvernement fédéral de cesser d’utiliser Antropic tout en donnant six mois au Pentagone pour l’éliminer progressivement. Le secrétaire à la Défense, Pete Hegseth, a également désigné l’entreprise comme présentant un risque pour la chaîne d’approvisionnement, ce qui signifie que les sous-traitants ne peuvent pas l’utiliser pour des opérations militaires.
Pour l’instant, l’armée continue d’utiliser Anthropic pendant la guerre américaine contre l’Iran, car l’IA aide les combattants à identifier rapidement les cibles potentielles.
Lors de son apparition dans le podcast, Michael a exprimé sa crainte que des développeurs malhonnêtes puissent « empoisonner les modèles » et les rendre inutiles à l’armée, ou les entraîner intentionnellement à halluciner ou à désobéir aux instructions.
Il a ensuite contacté OpenAI et a finalement conclu un accord similaire avec Anthropic. La xAI d’Elon Musk a également été classifiée, et le Pentagone tente également de classifier l’IA de Google.
« Je ne suis pas partial », a déclaré Michael. « Je veux juste que tout le monde. Je veux un licenciement, donc je veux que tout le monde ait exactement les mêmes conditions. »
Il a reconnu que même si d’autres sociétés d’IA recherchent moins agressivement des clients d’entreprise en fournissant des ingénieurs déployés à l’avant-garde, Anthropic est « profondément ancrée » dans le secteur.
Le conflit entre le Pentagone et l’anthropologie a mis en lumière le choc culturel entre l’establishment de la défense et la Silicon Valley. La Silicon Valley a ses racines dans l’innovation militaire, mais est depuis devenue peu encline à voir sa technologie utilisée dans la guerre.
En fait, le principal ingénieur en robotique d’OpenAI a annoncé samedi sa démission de l’entreprise, citant les mêmes préoccupations soulevées par Anthropic.
« Cela n’a pas été une décision facile. L’IA joue un rôle essentiel dans la sécurité nationale. Mais la surveillance du peuple américain sans contrôle judiciaire et l’autonomie mortelle sans autorisation humaine sont une ligne qui mérite plus de considération qu’elle n’en a reçue », a posté Caitlin Kalinowski sur X et LinkedIn.

