Vous pouvez tracer une année à travers les lancements de produits, ou vous pouvez la mesurer dans les moments les plus importants qui changent notre façon de voir l’IA. L’industrie de l’IA produit constamment des nouvelles, comme des acquisitions majeures, des succès de développeurs indépendants, un tollé public contre des produits sommaires et des négociations contractuelles existentiellement dangereuses – il y a beaucoup de choses à démêler, nous jetons donc un aperçu d’où nous en sommes et où nous en sommes jusqu’à présent cette année.
Anthropique contre le Pentagone
Autrefois partenaires commerciaux, le PDG d’Anthropic, Dario Amodei, et le secrétaire à la Défense, Pete Hegseth, se sont retrouvés dans une amère impasse en février alors qu’ils renégociaient les contrats qui dictaient la manière dont l’armée américaine pouvait utiliser les outils d’IA d’Anthropic.
Anthropic a établi une ligne dure contre l’utilisation de son IA pour la surveillance de masse des Américains ou pour alimenter des armes autonomes capables d’attaquer sans surveillance humaine. Parallèlement, le Pentagone a fait valoir que le ministère de la Défense – que l’administration du président Donald Trump appelle le ministère de la Guerre – devrait être autorisé à accéder aux modèles d’Anthropic pour toute « utilisation légale ». Les représentants du gouvernement ont été offensés par l’idée selon laquelle l’armée devrait se limiter aux règles d’une entreprise privée, mais Amodei a tenu bon.
« Anthropic comprend que le ministère de la Guerre, et non les entreprises privées, prend les décisions militaires. Nous n’avons jamais soulevé d’objections à des opérations militaires particulières ni tenté de limiter l’utilisation de notre technologie de manière ad hoc », a écrit Amodei dans un communiqué traitant de la situation. « Cependant, dans un nombre restreint de cas, nous pensons que l’IA peut saper, plutôt que défendre, les valeurs démocratiques. »
Le Pentagone a donné à Anthropic un délai pour accepter son contrat. Des centaines d’employés de Google et d’OpenAI ont signé une lettre ouverte exhortant leurs dirigeants respectifs à respecter les limites d’Amodei et à refuser de budgétiser les questions d’armes autonomes ou de surveillance intérieure.
Le délai est passé sans qu’Anthropic n’accepte les exigences du Pentagone. Trump a ordonné aux agences fédérales d’abandonner progressivement leur utilisation des outils Anthropic sur une période de transition de six mois et a qualifié la société d’IA, évaluée à 380 milliards de dollars, de « entreprise éveillée de gauche radicale » dans une publication en majuscules sur les réseaux sociaux. Le Pentagone a ensuite décidé de déclarer Anthropic comme un « risque pour la chaîne d’approvisionnement », une désignation généralement réservée aux adversaires étrangers et qui empêche toute entreprise travaillant avec Anthropic de faire affaire avec l’armée américaine. (Anthropic a depuis intenté une action en justice pour contester la désignation.)
Son rival anthropique, OpenAI, est alors intervenu et a annoncé avoir conclu un accord autorisant le déploiement de ses propres modèles dans des situations classifiées. Ce fut un choc pour la communauté technologique, car des rapports indiquaient qu’OpenAI respecterait les lignes rouges d’Anthropic régissant l’utilisation de l’IA à des fins militaires.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
L’opinion publique indiquerait que les gens ont trouvé la décision d’OpenAI louche : le lendemain de l’annonce de l’accord par OpenAI, les désinstallations de ChatGPT ont bondi de 295 % d’une journée à l’autre et Claude d’Anthropic s’est hissé au premier rang de l’App Store. Caitlin Kalinowski, responsable du matériel OpenAI, a démissionné en réponse à l’accord, affirmant qu’il avait été « précipité sans que les garde-fous soient définis ».
OpenAI a déclaré à TechCrunch qu’elle pensait que son accord « définit clairement (ses) lignes rouges : pas d’armes autonomes et pas de surveillance autonome ».
Au fur et à mesure que cette saga se déroulera, elle aura des implications significatives sur l’avenir de la manière dont l’IA sera déployée en guerre, modifiant potentiellement le cours de l’histoire – vous savez, ce n’est pas grave…
L’application « codée par Vibe » OpenClaw accélère le passage à l’IA agentique
Février a été le mois d’OpenClaw, et son impact continue de se faire sentir. Rapidement, l’application d’assistant d’IA codée par ambiance est devenue virale, a donné naissance à un certain nombre d’entreprises dérivées, a souffert de problèmes de confidentialité, puis a été rachetée par OpenAI. Même l’une des sociétés construites sur OpenClaw, un clone Reddit pour les agents d’IA appelé Moltbook, a été récemment acquise par Meta. Cet écosystème sur le thème des crustacés a plongé la Silicon Valley dans une véritable frénésie.
Créé par Peter Steinberger – qui a depuis rejoint OpenAI – OpenClaw est un wrapper pour des modèles d’IA comme Claude, ChatGPT, Gemini de Google ou Grok de xAI. Ce qui le distingue, c’est qu’il permet aux gens de communiquer avec des agents IA en langage naturel via les applications de chat les plus populaires, comme iMessage, Discord, Slack ou WhatsApp. Il existe également un marché public où les gens peuvent coder et télécharger des « compétences » que les gens peuvent ajouter à leurs agents d’IA, ce qui permet d’automatiser pratiquement tout ce qui peut être fait sur un ordinateur.
Si cela semble trop beau pour être vrai, c’est parce que c’est en quelque sorte le cas. Pour qu’un agent IA soit efficace en tant qu’assistant personnel, il doit avoir accès à votre courrier électronique, à vos numéros de carte de crédit, à vos messages texte, à vos fichiers informatiques, etc. S’il devait être piraté, beaucoup de choses pourraient mal se passer et, malheureusement, il n’existe aucun moyen de sécuriser complètement ces agents contre les attaques par injection rapide.
« Il s’agit simplement d’un agent assis avec un tas d’informations d’identification sur une boîte connectée à tout : votre courrier électronique, votre plate-forme de messagerie, tout ce que vous utilisez », a déclaré à TechCrunch Ian Ahl, CTO chez Permiso Security. « Donc, cela signifie que lorsque vous recevez un e-mail, et peut-être que quelqu’un est capable d’y mettre une petite technique d’injection rapide pour entreprendre une action, (et) cet agent assis sur votre boîte avec accès à tout ce que vous lui avez donné peut désormais entreprendre cette action. »
Un chercheur en sécurité IA chez Meta a déclaré qu’OpenClaw était devenu fou dans sa boîte de réception, supprimant tous ses e-mails malgré des appels répétés pour arrêter. «J’ai dû courir sur mon Mac mini comme si je désamorçais une bombe» pour débrancher physiquement l’appareil, a-t-elle écrit dans un article désormais viral sur X, qui comprenait des images des invites d’arrêt ignorées comme reçus.
Malgré les risques de sécurité, la technologie a suffisamment suscité l’intérêt d’OpenAI pour une acquisition.
D’autres outils basés sur OpenClaw, notamment Moltbook – un « réseau social » de type Reddit où les agents d’IA peuvent communiquer entre eux – ont fini par devenir plus viraux qu’OpenClaw lui-même.
Dans un cas, une publication est devenue virale dans laquelle un agent d’IA semblait encourager ses collègues agents à développer leur propre langage secret, crypté de bout en bout, dans lequel ils pourraient s’organiser entre eux à l’insu des humains.
Mais les chercheurs ont rapidement révélé que le Moltbook codé par ambiance n’était pas très sécurisé, ce qui signifie qu’il était très facile pour les utilisateurs humains de se faire passer pour des IA pour publier des messages susceptibles de déclencher une hystérie sociale virale.
Encore une fois, même si la discussion autour de Moltbook était plus fondée sur la panique que sur la réalité, Meta a vu quelque chose dans l’application et a annoncé que Moltbook et ses créateurs, Matt Schlicht et Ben Parr, rejoindraient Meta Superintelligence Labs.
Il semble étrange que Meta achète un réseau social dont tous les utilisateurs sont des robots. Bien que Meta n’ait pas révélé grand-chose sur l’acquisition, nous émettons l’hypothèse que posséder Moltbook consiste davantage à accéder aux talents derrière, qui sont enthousiastes à l’idée d’expérimenter les écosystèmes d’agents d’IA. Le PDG Mark Zuckerberg l’a dit lui-même : il pense qu’un jour, chaque entreprise aura une IA commerciale.
Alors que nous regardons le brouhaha autour d’OpenClaw, Moltbook et NanoClaw, il semble que ceux qui ont prédit un avenir d’IA agentique soient sur quelque chose, du moins pour le moment.
Les pénuries de puces, les drames matériels et les demandes des centres de données s’intensifient
Les exigences sévères de l’industrie de l’IA – qui nécessitent une puissance de calcul et des centres de données dans des volumes sans précédent – atteignent un point où le consommateur moyen n’a d’autre choix que d’y prêter attention. Aujourd’hui, il n’est peut-être même plus possible pour l’industrie de satisfaire la demande astronomique de puces mémoire, et les consommateurs voient déjà les prix de leurs téléphones, ordinateurs portables, voitures et autres matériels augmenter.
Jusqu’à présent, les analystes d’IDC et de Counterpoint ont prédit que les livraisons de smartphones, par exemple, chuteraient d’environ 12 à 13 % cette année ; Apple a déjà augmenté les prix des MacBook Pro jusqu’à 400 $.
Google, Amazon, Meta et Microsoft prévoient de dépenser au total jusqu’à 650 milliards de dollars rien que pour les centres de données cette année, ce qui représente une augmentation estimée de 60 % par rapport à l’année dernière.
Si la pénurie de puces ne touche pas votre portefeuille, elle pourrait toucher votre communauté dans son ensemble. Aux États-Unis seulement, près de 3 000 nouveaux centres de données sont en construction, s’ajoutant aux 4 000 déjà opérationnels dans le pays. Le besoin de main-d’œuvre pour construire ces centres de données est suffisamment important pour que des « camps d’hommes » soient apparus au Nevada et au Texas, tentant d’attirer les travailleurs avec la promesse de salles de jeux sur simulateur de golf et de steaks grillés à la demande.
Non seulement la construction de centres de données a un impact à long terme sur l’environnement, mais elle crée également des risques pour la santé des résidents à proximité, en polluant l’air et en nuisant à la sécurité des sources d’eau à proximité.
Pendant ce temps, l’un des développeurs de matériel et de puces les plus précieux, Nvidia, remodèle ses relations avec les principales sociétés d’IA comme OpenAI et Anthropic. Nvidia a toujours soutenu ces sociétés, suscitant des inquiétudes quant à la circularité de l’industrie de l’IA et à la mesure dans laquelle ces valorisations époustouflantes sont basées sur des accords récursifs entre elles. L’année dernière, par exemple, Nvidia a investi 100 milliards de dollars dans les actions OpenAI, et OpenAI a ensuite annoncé qu’elle achèterait 100 milliards de dollars de puces Nvidia.
Il a donc été surprenant que le PDG de Nvidia, Jensen Huang, ait déclaré que son entreprise cesserait d’investir dans OpenAI et Anthropic. Il a expliqué que cela était dû au fait que les sociétés prévoyaient d’entrer en bourse plus tard cette année, bien que cette logique n’ait pas tout à fait de sens, puisque les investisseurs investissent généralement plus d’argent avant l’introduction en bourse pour en extraire autant de valeur que possible.

