
Bonjour. Bienvenue dans Eye on AI. Jeremy Kahn sera remplacé par Sharon Goldman. Dans cet épisode : Ce que signifie réellement l’adoption d’OpenClaw par OpenAI… Le Pentagone menace de sanctions humaines… Pourquoi la vidéo d’IA de Tom Cruise combattant Brad Pitt a horrifié Hollywood… Les peurs qui animent la culture de travail brutale de l’IA.
Ce ne serait pas un week-end sans de grandes nouvelles sur l’IA. Cette fois, OpenAI a dominé le cycle après que le PDG Sam Altman a révélé que la société avait embauché Peter Steinberger, le développeur autrichien qui a créé OpenClaw, le logiciel open source permettant de créer des agents d’IA autonomes qui est devenu à la mode au cours des trois derniers mois. Dans un article sur son site Web personnel, Steinberger a déclaré que rejoindre OpenAI lui permettrait de poursuivre son objectif de rendre les agents d’IA accessibles au grand public sans alourdir le fardeau de la gestion de son entreprise.
OpenClaw a été présenté comme un moyen de créer l’assistant personnel ultime, connectant des LLM comme ChatGPT et Claude aux plateformes de messagerie et aux applications quotidiennes pour automatiser des tâches complexes en plusieurs étapes en gérant les e-mails, en planifiant des calendriers, en réservant des vols, en effectuant des réservations de restaurant, etc. Mais Steinberger a démontré qu’on pouvait aller encore plus loin. Dans un cas, lorsqu’il a accidentellement envoyé à OpenClaw un message vocal pour lequel il n’était pas conçu, le système n’a pas échoué. Au lieu de cela, il a deviné le format du fichier, identifié l’outil requis et a répondu comme d’habitude sans qu’on lui demande explicitement de le faire.
C’est ce type de comportement autonome qui rend OpenClaw passionnant pour les développeurs et les rapproche de leur rêve d’un véritable JARVIS, l’assistant permanent du film Iron Man. Cependant, cela a rapidement suscité l’inquiétude des experts en sécurité. La semaine dernière, j’ai décrit OpenClaw comme le « méchant » des agents IA. Parce qu’il est également beaucoup plus difficile de sécuriser des assistants persistants, autonomes et profondément connectés entre les systèmes.
Certains disent que l’embauche d’OpenAI est le « meilleur résultat »
Cette tension contribue à expliquer pourquoi certains considèrent l’intervention d’OpenAI comme une étape nécessaire. « Je pense que c’est probablement le meilleur résultat pour tout le monde », a déclaré Gabriel Cohen, l’ingénieur logiciel qui a développé NanoClaw. Nous appelons NanoClaw une « alternative sûre » à OpenClaw. « Peter a un grand sens du produit, mais il a construit le projet trop gros et trop rapidement sans accorder suffisamment d’attention à l’architecture et à la sécurité. OpenClaw est fondamentalement peu sécurisé et défectueux, et un correctif ne le réparera pas. »
Certains pensent que cette décision est également stratégique pour OpenAI. « C’est une grande avancée pour eux », a déclaré William Falcon, PDG de Lightning AI, une société cloud d’IA axée sur les développeurs, soulignant que les produits Claude d’Anthropic, y compris Claude Code, dominent le segment des développeurs. OpenAI « veut capter tous les développeurs, et c’est là que sera la majorité de nos dépenses en IA », a-t-il expliqué. OpenClaw, qui est à bien des égards une alternative open source à Claude Code et est devenu du jour au lendemain un favori des développeurs, donne à OpenAI une « carte gratuite pour sortir de prison », a-t-il déclaré.
Altman a présenté l’embauche comme un pari sur la suite. Il a déclaré que Steinberger avait apporté « beaucoup d’idées étonnantes » sur la façon dont les agents d’IA interagissent, ajoutant que « l’avenir sera très multi-agents » et que de telles capacités « deviendront bientôt au cœur de notre offre de produits ». OpenAI a déclaré qu’il prévoyait de continuer à exploiter OpenClaw en tant que projet open source indépendant via sa fondation, plutôt que de l’incorporer dans ses propres produits. Steinberger a déclaré que cet engagement était au cœur de sa décision de choisir OpenAI plutôt que des concurrents comme Anthropic et Meta (Steinberger a déclaré dans une interview avec Lex Fridman que Mark Zuckerberg l’avait personnellement contacté sur WhatsApp).
La prochaine étape consiste à gagner la confiance des développeurs dans l’agent IA
Au-delà du buzz du week-end, l’adoption d’OpenClaw par OpenAI offre une fenêtre sur l’évolution de la course aux agents IA. À mesure que les modèles deviennent plus compatibles, la course s’oriente vers une infrastructure discrète qui détermine si les agents peuvent fonctionner de manière fiable, sécurisée et à grande échelle. En accueillant le créateur de l’agent autonome viral mais controversé tout en s’engageant à maintenir le projet open source, OpenAI démontre que la prochaine étape de l’IA ne sera pas définie uniquement par des modèles plus intelligents, mais en gagnant la confiance des développeurs chargés de transformer les agents expérimentaux en systèmes dignes de confiance.
Cela pourrait conduire à une vague de nouveaux produits, a déclaré Yohei Nakajima, associé chez Untapped Capital. Son expérience open source « BabyAGI » de 2023 a contribué à démontrer comment les LLM peuvent générer et exécuter des tâches de manière autonome, lançant ainsi le mouvement des agents d’IA modernes. BabyAGI et OpenClaw ont incité les développeurs à réfléchir à ce qu’ils peuvent construire de plus avec la technologie moderne, a-t-il déclaré. « Peu de temps après BabyAGI, la première vague de sociétés d’agents a été lancée, notamment gpt-engineer (devenu Lovable), Crew AI, Manus et Genspark », a-t-il déclaré. « Nous espérons voir de nouveaux produits inspirés similaires suite à cette récente vague. »
Voici donc d’autres nouvelles sur l’IA pour vous.
Sharon Goldman
[email protected]
@SharonGoldman
Le sort de l’IA
Les investissements dans l’IA augmentent en Inde alors que les leaders technologiques se réunissent pour le sommet de Delhi – Écrit par Béatrice Nolan
Les grandes entreprises technologiques sont proches du moment du « drapeau rouge » : Evercore prévient que les hyperscalers avec des investissements en IA trop importants pourraient être confrontés à un flux de trésorerie négatif – Écrit par Jim Edwards
Le PDG d’Anthropic, Dario Amodei, explique ses dépenses prudentes et prévient que si les prévisions de croissance de l’IA s’écartent d’un an seulement, il « fera faillite ». – Écrit par Jason Marr
L’IA dans l’actualité
Le Pentagone menace de punir les humains. Le Pentagone a menacé de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement », une mesure inhabituelle et punitive qui obligerait effectivement les entreprises qui font affaire avec l’armée américaine à rompre leurs liens avec la start-up d’IA. Axios. Les responsables de la défense sont frustrés qu’Anthropic n’ait pas complètement assoupli les garanties sur la manière dont son modèle Claude peut être utilisé, en particulier les restrictions visant à empêcher la surveillance massive des Américains ou le développement d’armes entièrement autonomes, arguant que l’armée doit être en mesure d’utiliser l’IA à « toutes fins légales ». Ce conflit est particulièrement troublant car Claude est actuellement le seul modèle d’IA approuvé pour une utilisation sur les systèmes classifiés du ministère de la Défense et est profondément intégré aux flux de travail militaires. Cela signifie que les pannes soudaines sont coûteuses et perturbatrices. La controverse met en évidence les tensions croissantes entre les laboratoires de recherche en IA qui veulent fixer des limites éthiques et les établissements militaires américains de plus en plus radicaux qui cherchent à exercer un plus grand contrôle sur les puissants outils d’IA.
Pourquoi la vidéo IA de Tom Cruise combattant Brad Pitt a surpris Hollywood. J’ai suivi cette histoire révélatrice. temps de New York expliqué Je comprends très bien. Essentiellement, la vidéo hyperréaliste de Tom Cruise et Brad Pitt se battant sur un toit a envoyé une onde de choc à travers Hollywood, soulignant à quel point la technologie vidéo générée progresse et à quel point les garde-fous existants peuvent être mal préparés. Le clip a été créé avec le nouveau modèle vidéo d’IA de la société chinoise ByteDance, Seedance 2.0, mais son saut spectaculaire en termes de réalisme a déclenché une violente réaction de la part des studios, des syndicats et des groupes industriels concernant les droits d’auteur, les droits à l’image et les pertes d’emplois. Des groupes hollywoodiens ont accusé ByteDance de formation de masse sur du matériel protégé par le droit d’auteur, tandis que Disney a envoyé une lettre de cessation et d’abstention et que les syndicats ont averti que de tels outils menaçaient le contrôle des images et des voix des artistes. Bien que ByteDance affirme avoir renforcé les mesures de sécurité, cet épisode met en évidence une ligne de fracture qui s’élargit. Alors que la vidéo IA passe du statut de nouveauté à celui d’une qualité quasi cinématographique, la bataille pour savoir qui contrôle le travail créatif, la propriété intellectuelle et l’identité numérique prend une phase plus urgente.
L’anxiété est à l’origine de la dure culture de travail d’IA. Si vous vous inquiétez pour votre équilibre travail-vie personnelle, je pense que la lecture de ce livre vous aidera à vous sentir mieux. Dans l’économie de l’IA en plein essor de San Francisco, les avantages de longue date et la culture de flexibilité du secteur technologique sont remplacés par des attentes « écrasantes » incessantes, alors que les startups imposent de longues heures, peu de vacances et une pression de productivité extrême sur les employés au nom de suivre les progrès rapides et une concurrence acharnée, selon le Guardian. Les travailleurs décrivent un environnement dans lequel sauter les week-ends et la vie sociale semble être le prix à payer pour rester socialement engagés, malgré des journées de 12 heures, des semaines de six jours et des inquiétudes croissantes concernant la sécurité de l’emploi et l’impact de l’IA sur les rôles futurs. Ce changement reflète un changement plus large dans la façon dont la main-d’œuvre en IA est évaluée, remodèle les normes du lieu de travail et pourrait laisser présager des pressions similaires dans d’autres secteurs à mesure que l’automatisation et l’innovation s’accélèrent. Je devrai certainement vérifier à quoi cela ressemble sur le terrain la prochaine fois que je me dirigerai vers la baie.
Focus sur la recherche en IA
Défcon, La plus grande et la plus ancienne conférence sur les hackers au monde publie du nouveau contenu Rapport annuel de recherche publié dans la dernière édition du Hacker Yearbook, août 2025. Le rapport se concentre sur la manière dont les chercheurs ont montré que les systèmes d’IA peuvent non seulement aider les humains à pirater plus rapidement, mais peuvent parfois même les surpasser. Dans plusieurs compétitions de cybersécurité, des équipes utilisant des agents d’IA ont vaincu des équipes composées uniquement d’humains, et dans un cas, l’IA a fonctionné seule et a réussi à pénétrer un système cible sans intervention humaine. Les chercheurs ont également démontré des outils d’IA capables de découvrir des failles logicielles à grande échelle, d’imiter la voix humaine et de manipuler des systèmes d’apprentissage automatique, soulignant ainsi à quel point les utilisations offensives de l’IA progressent rapidement.
Le problème, selon les chercheurs, est que la plupart des décideurs politiques comprennent mal ces caractéristiques, ce qui augmente le risque d’application de règles d’IA mal informées. Leur proposition est de permettre aux systèmes d’IA de participer ouvertement à des concours publics de piratage, d’enregistrer leurs résultats dans une base de données ouverte et partagée et d’utiliser ces preuves concrètes pour aider les gouvernements à développer des politiques de sécurité en matière d’IA plus intelligentes et plus réalistes.
Calendrier IA
16-20 février : India AI Impact Summit 2026, Delhi.
24-26 février : Association internationale pour une IA sûre et éthique (IASEAI), UNESCO, Paris, France.
2-5 mars : Mobile World Congress, Barcelone, Espagne.
12-18 mars : Sud par sud-ouest, Austin, Texas.
16-19 mars : Nvidia GTC, San Jose, Californie
6-9 avril : HumanX, San Francisco
nourriture pour le cerveau
Le dilemme de la confiance lorsqu’une IA entre dans la salle d’examen. J’ai été intrigué par ce nouvel article publié dans Scientific American. Cet article souligne qu’à mesure que l’IA pénètre plus profondément dans les soins cliniques, les infirmières sont en première ligne face à de nouveaux dilemmes de confiance. En d’autres termes, devrions-nous suivre les ordres générés par un algorithme alors que le jugement du monde réel dit le contraire ? Par exemple, une alerte de septicémie a incité l’équipe des urgences à administrer des liquides à un patient souffrant d’insuffisance rénale, jusqu’à ce qu’une infirmière refuse et qu’un médecin annule l’IA. Cet article révèle que dans les hôpitaux américains, les modèles prédictifs sont intégrés dans tout, de l’évaluation et de la documentation des risques à la logistique et même au renouvellement autonome des ordonnances, mais le personnel de première ligne est de plus en plus frustré par le fait que ces outils ont des ratés, manquent de transparence et compromettent parfois le jugement clinique. Les frictions ont déclenché des manifestations et des débrayages, et les défenseurs affirment que les infirmières devraient être incluses à la table décisionnelle de l’IA, car les humains en supportent en fin de compte les conséquences.

