De l’aveu même du PDG Sam Altman, l’accord d’OpenAI avec le ministère de la Défense a été « définitivement précipité » et « les perspectives ne semblent pas bonnes ».
Après l’échec des négociations entre Anthropic et le Pentagone vendredi, le président Donald Trump a ordonné aux agences fédérales de cesser d’utiliser la technologie d’Anthropic après une période de transition de six mois, et le secrétaire à la Défense Pete Hegseth a déclaré qu’il désignant la société d’IA comme un risque pour la chaîne d’approvisionnement.
Ensuite, OpenAI a rapidement annoncé avoir conclu son propre accord pour des modèles à déployer dans des environnements classifiés. Alors qu’Anthropic déclarait qu’elle traçait des lignes rouges autour de l’utilisation de sa technologie dans des armes entièrement autonomes ou dans la surveillance nationale de masse, et Altman affirmant qu’OpenAI avait les mêmes lignes rouges, des questions évidentes se posaient : OpenAI était-elle honnête quant à ses garanties ? Pourquoi a-t-elle réussi à parvenir à un accord alors qu’Anthropic n’y est pas parvenu ?
Alors que les dirigeants d’OpenAI défendaient l’accord sur les réseaux sociaux, la société a également publié un article de blog décrivant son approche.
En fait, le message souligne trois domaines dans lesquels les modèles d’OpenAI ne peuvent pas être utilisés : la surveillance nationale de masse, les systèmes d’armes autonomes et « les décisions automatisées à enjeux élevés (par exemple, des systèmes tels que le « crédit social »).
La société a déclaré que contrairement à d’autres sociétés d’IA qui ont « réduit ou supprimé leurs garde-fous de sécurité et se sont appuyées principalement sur des politiques d’utilisation comme principales garanties dans les déploiements de sécurité nationale », l’accord d’OpenAI protège ses lignes rouges « grâce à une approche plus large et à plusieurs niveaux ».
« Nous conservons toute discrétion sur notre pile de sécurité, nous déployons via le cloud, le personnel OpenAI autorisé est au courant et nous disposons de solides protections contractuelles », indique le blog. « Tout cela s’ajoute aux solides protections existantes dans la loi américaine. »
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
La société a ajouté : « Nous ne savons pas pourquoi Anthropic n’a pas pu conclure cet accord, et nous espérons qu’eux et d’autres laboratoires l’envisageront. »
Après la publication du message, Mike Masnick de Techdirt a affirmé que l’accord « permet absolument la surveillance nationale », car il stipule que la collecte de données privées sera conforme au décret 12333 (ainsi qu’à un certain nombre d’autres lois). Masnick a décrit cet ordre comme « la manière dont la NSA dissimule sa surveillance intérieure en capturant les communications en exploitant des lignes *en dehors des États-Unis*, même si elles contiennent des informations provenant de/sur des personnes américaines ».
Dans un article sur LinkedIn, Katrina Mulligan, responsable des partenariats de sécurité nationale chez OpenAI, a fait valoir qu’une grande partie de la discussion autour du libellé du contrat suppose que « la seule chose qui oppose les Américains à l’utilisation de l’IA pour la surveillance intérieure de masse et les armes autonomes est une disposition politique d’utilisation unique dans un contrat unique avec le ministère de la Guerre ».
« Ce n’est pas ainsi que tout cela fonctionne », a déclaré Mulligan, ajoutant : « L’architecture de déploiement compte plus que le langage contractuel (…) En limitant notre déploiement à l’API cloud, nous pouvons garantir que nos modèles ne peuvent pas être intégrés directement dans des systèmes d’armes, des capteurs ou tout autre matériel opérationnel. »
Altman a également répondu à des questions sur l’accord sur Alors pourquoi le faire ?
« Nous voulions vraiment désamorcer la situation et nous pensions que l’accord proposé était bon », a déclaré Altman. « Si nous avons raison et que cela conduit à une désescalade entre le DoW et l’industrie, nous passerons pour des génies et une entreprise qui a pris beaucoup de peine pour faire des choses pour aider l’industrie. Dans le cas contraire, nous continuerons à être qualifiés de (…) précipités et imprudents. »

