En un peu plus d’une semaine, les négociations sur l’utilisation par le Pentagone de la technologie Claude d’Anthropic ont échoué, l’administration Trump a désigné Anthropic comme un risque pour la chaîne d’approvisionnement et la société d’IA a déclaré qu’elle combattrait cette désignation devant les tribunaux.
OpenAI, quant à lui, a rapidement annoncé son propre accord, provoquant des réactions négatives qui ont vu les utilisateurs désinstaller ChatGPT et pousser Claude d’Anthropic au sommet des classements de l’App Store. Et au moins un dirigeant d’OpenAI a démissionné, craignant que l’annonce ait été précipitée sans que les garde-fous appropriés soient mis en place.
Dans le dernier épisode du podcast Equity de TechCrunch, Kirsten Korosec, Sean O’Kane et moi-même avons discuté de ce que cela signifie pour d’autres startups cherchant à travailler avec le gouvernement fédéral, en particulier le Pentagone, alors que Kirsten se demandait : « Allons-nous assister à un petit changement de ton ?
Sean a souligné qu’il s’agit d’une situation inhabituelle à plusieurs égards, en partie parce qu’OpenAI et Claude fabriquent des produits dont « personne ne peut se taire ». Et surtout, il s’agit d’un différend sur « la manière dont leurs technologies sont utilisées ou non pour tuer des gens », ce qui va naturellement faire l’objet d’un examen plus approfondi.
Pourtant, a soutenu Kirsten, il s’agit d’une situation qui devrait « donner une pause à toute startup ».
Lisez ci-dessous un aperçu de notre conversation, édité pour plus de longueur et de clarté.
Kirsten : Je me demande si d’autres startups commencent à regarder ce qui s’est passé avec le gouvernement fédéral, en particulier le Pentagone et Anthropic, ce débat et cette lutte, et (prennent) une pause pour savoir si elles veulent s’attaquer aux dollars fédéraux. Est-ce qu’on va assister à un petit changement de ton ?
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Sean : Je me pose des questions à ce sujet aussi. Je pense que non, dans une certaine mesure, à court terme, ne serait-ce que parce que lorsque l’on essaie vraiment de penser à toutes les différentes entreprises, qu’il s’agisse de startups ou même de sociétés Fortune 500 plus établies qui travaillent avec le gouvernement et en particulier avec le ministère de la Défense ou le Pentagone, (pour) beaucoup d’entre elles, ce travail passe inaperçu.
General Motors fabrique des véhicules de défense pour l’armée et le fait depuis très longtemps et a travaillé sur toutes les versions électriques de ces véhicules et sur les versions autonomes. Il y a des trucs comme ça qui se produisent tout le temps et ça ne rentre jamais vraiment dans l’air du temps. Je pense que le problème rencontré par OpenAI et Anthropic au cours de la semaine dernière est le suivant: ce sont des entreprises qui fabriquent des produits qu’une tonne de personnes utilisent – et aussi, plus important encore, (que) personne ne peut se taire.
Ils sont donc sous le feu des projecteurs, ce qui met naturellement en évidence leur implication à un niveau auquel, je pense, la plupart des autres entreprises qui passent des contrats avec le gouvernement fédéral — et, en particulier, les éléments de guerre du gouvernement fédéral — n’ont pas nécessairement à faire face.
La seule mise en garde que j’ajouterai à cela est qu’une grande partie de la chaleur autour de cette discussion entre Anthropic et OpenAI et le Pentagone porte très spécifiquement sur la façon dont leurs technologies sont utilisées ou non pour tuer des gens, ou dans certaines parties des missions qui tuent des gens. Il ne s’agit pas seulement de l’attention qui leur est portée et de la familiarité que nous avons avec leurs marques, il y a là un élément supplémentaire qui me semble plus abstrait lorsque l’on pense à General Motors en tant qu’entrepreneur de défense ou autre.
Je ne pense pas que nous allons voir, par exemple, Applied Intuition ou l’une de ces autres sociétés qui se présentent comme étant à double usage reculer beaucoup, simplement parce que je ne vois pas l’attention portée à ce sujet et qu’il n’y a tout simplement pas le genre de compréhension partagée de ce que pourrait être cet impact.
Anthony : Cette histoire est tellement unique et spécifique à ces entreprises et personnalités à bien des égards. Je veux dire, il y a eu beaucoup de réflexions vraiment intéressantes sur : quel est le rôle de la technologie dans le gouvernement ? (De) L’IA au gouvernement ? Et je pense que ce sont toutes des questions intéressantes et intéressantes à poser et à explorer.
Je pense aussi, cependant, qu’il s’agit d’une lentille très curieuse à travers laquelle examiner certaines de ces choses, car Anthropic et OpenAI ne sont pas réellement si différents à bien des égards ni dans les positions qu’ils adoptent. Ce n’est pas comme si une entreprise disait : « Hé, je ne veux pas travailler avec le gouvernement » et une autre « Oui, je le veux ». Ou bien on dit : « Vous pouvez faire ce que vous voulez. » et (l’autre) dit : « Non, je veux avoir des restrictions. » Tous deux déclarent, au moins publiquement : « Nous voulons des restrictions sur la manière dont notre IA est utilisée. » Il semble simplement qu’Anthropic s’entête beaucoup plus sur le point : vous ne pouvez pas changer les termes de cette façon.
Et puis en plus de cela, il semble aussi y avoir une couche de personnalité où le PDG d’Anthropic et Emil Michael – dont beaucoup de lecteurs de TechCrunch se souviennent peut-être de ses jours Uber, et est maintenant (directeur de la technologie pour le ministère de la Défense). Apparemment, ils ne s’aiment vraiment pas. Apparemment.
Sean : Oui, il y a ici un très gros élément « les filles se battent » que nous ne devrions pas négliger.
Kirsten : Ouais, un peu. Il y en a, mais les implications sont un peu plus fortes que cela. Encore une fois, pour prendre un peu de recul, ce dont nous parlons ici, c’est du Pentagone et d’Anthropic qui entrent dans un conflit dans lequel Anthropic semble avoir perdu, même si je dois dire qu’ils sont encore largement utilisés par l’armée. Ils sont considérés comme une technologie cruciale, mais OpenAI est en quelque sorte intervenu, et cela évolue et changera probablement au moment où cet épisode sortira.
Le retour de flamme a été intéressant pour OpenAI, où nous avons vu de nombreuses désinstallations de ChatGPT qui, je pense, ont bondi de 295 % après qu’OpenAI ait conclu un accord avec le ministère de la Défense.
Pour moi, tout cela n’est que du bruit par rapport à ce qui est vraiment critique et dangereux, à savoir que le Pentagone cherchait à modifier les conditions existantes d’un contrat existant. Et cela est vraiment important et devrait faire réfléchir toute start-up, car la machine politique qui se déroule actuellement, en particulier avec le DoD, semble être différente. Ce n’est pas normal. Les contrats mettent une éternité à être adoptés au niveau gouvernemental et le fait qu’ils cherchent à modifier ces conditions est un problème.

