Anthropic a construit son identité publique autour de l’idée gagnante selon laquelle il s’agit d’une entreprise prudente en matière d’IA. L’entreprise publie des recherches détaillées sur les risques liés à l’IA, emploie certains des meilleurs chercheurs du domaine et s’exprime clairement sur les responsabilités liées à la construction d’une technologie aussi puissante – si clairement, bien sûr, qu’elle se bat actuellement avec le ministère de la Défense. Mardi, hélas, quelqu’un a oublié de cocher une case.
C’est notamment la deuxième fois en une semaine. Jeudi dernier, Fortune a rapporté qu’Anthropic avait accidentellement rendu public près de 3 000 fichiers internes, y compris un projet d’article de blog décrivant un nouveau modèle puissant que la société n’avait pas encore annoncé.
Voici ce qui s’est passé mardi : lorsqu’Anthropic a publié la version 2.1.88 de son progiciel Claude Code, il a accidentellement inclus un fichier exposant près de 2 000 fichiers de code source et plus de 512 000 lignes de code – essentiellement le plan architectural complet de l’un de ses produits les plus importants. Un chercheur en sécurité nommé Chaofan Shou l’a remarqué presque immédiatement et l’a publié sur X. La déclaration d’Anthropic à plusieurs médias était nonchalante : « Il s’agissait d’un problème d’emballage de version causé par une erreur humaine, pas une faille de sécurité. » (En interne, nous supposerions que les choses étaient moins mesurées.)
Claude Code n’est pas un produit mineur. Il s’agit d’un outil en ligne de commande qui permet aux développeurs d’utiliser l’IA d’Anthropic pour écrire et modifier du code et qui est devenu suffisamment puissant pour déstabiliser ses concurrents. Selon le WSJ, OpenAI a débranché son produit de génération vidéo Sora six mois seulement après son lancement au public afin de recentrer ses efforts sur les développeurs et les entreprises – en partie en réponse à la dynamique croissante de Claude Code.
Ce qui a fuité, ce n’est pas le modèle d’IA lui-même, mais l’échafaudage logiciel qui l’entoure – les instructions qui indiquent au modèle comment se comporter, quels outils utiliser et où se trouvent ses limites. Les développeurs ont commencé à publier des analyses détaillées presque immédiatement, l’une d’entre elles décrivant le produit comme « une expérience de développement de niveau production, et pas seulement un emballage autour d’une API ».
Que cela s’avère important de manière durable est une question qu’il vaut mieux laisser aux développeurs. Les concurrents peuvent trouver l’architecture instructive ; en même temps, le terrain évolue rapidement.
Quoi qu’il en soit, quelque part chez Anthropic, vous pouvez imaginer qu’un ingénieur très talentueux a passé le reste de la journée à se demander tranquillement s’il avait encore un travail. On ne peut qu’espérer qu’il ne s’agisse pas du même ingénieur, ou de la même équipe d’ingénierie, de la fin de la semaine dernière.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026

