Pour les développeurs utilisant l’IA, le « vibe coding » revient désormais à surveiller chaque action ou à risquer de laisser le modèle s’exécuter sans contrôle. Anthropic affirme que sa dernière mise à jour de Claude vise à éliminer ce choix en laissant l’IA décider elle-même quelles actions peuvent être entreprises en toute sécurité – avec certaines limites.
Cette décision reflète un changement plus large dans l’industrie, dans la mesure où les outils d’IA sont de plus en plus conçus pour agir sans attendre l’approbation humaine. Le défi consiste à équilibrer vitesse et contrôle : trop de garde-fous ralentissent les choses, tandis que trop peu peuvent rendre les systèmes risqués et imprévisibles. Le nouveau « mode automatique » d’Anthropic, désormais en aperçu de recherche – ce qui signifie qu’il est disponible pour des tests mais pas encore un produit fini – est sa dernière tentative d’enfiler cette aiguille.
Le mode automatique utilise les protections de l’IA pour examiner chaque action avant son exécution, en vérifiant les comportements à risque que l’utilisateur n’a pas demandé et les signes d’injection rapide – un type d’attaque dans lequel des instructions malveillantes sont cachées dans le contenu que l’IA est en train de traiter, l’amenant à entreprendre des actions involontaires. Toutes les actions sûres se dérouleront automatiquement, tandis que les actions risquées seront bloquées.
Il s’agit essentiellement d’une extension de la commande « sauter dangereusement les autorisations » existante de Claude Code, qui confie toute la prise de décision à l’IA, mais avec une couche de sécurité ajoutée en plus.
La fonctionnalité s’appuie sur une vague d’outils de codage autonomes d’entreprises comme GitHub et OpenAI, qui peuvent exécuter des tâches au nom d’un développeur. Mais cela va encore plus loin en déplaçant la décision de demander l’autorisation de l’utilisateur à l’IA elle-même.
Anthropic n’a pas détaillé les critères spécifiques utilisés par sa couche de sécurité pour distinguer les actions sûres de celles à risque – ce que les développeurs voudront probablement mieux comprendre avant d’adopter largement la fonctionnalité. (TechCrunch a contacté l’entreprise pour plus d’informations à ce sujet.)
Le mode automatique fait suite au lancement par Anthropic de Claude Code Review, son réviseur de code automatique conçu pour détecter les bogues avant qu’ils n’atteignent la base de code, et de Dispatch for Cowork, qui permet aux utilisateurs d’envoyer des tâches à des agents IA pour gérer le travail en leur nom.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Le mode automatique sera déployé auprès des utilisateurs Enterprise et API dans les prochains jours. La société affirme qu’elle ne fonctionne actuellement qu’avec Claude Sonnet 4.6 et Opus 4.6 et recommande d’utiliser la nouvelle fonctionnalité dans des « environnements isolés » – des configurations en bac à sable séparées des systèmes de production, limitant ainsi les dommages potentiels en cas de problème.

