
La société d’IA Anthropic développe un nouveau modèle d’IA plus puissant que tous les modèles d’IA précédemment publiés et a commencé à tester avec des clients à accès anticipé, a indiqué la société, à la suite d’une violation de données qui a révélé l’existence du modèle.
Un porte-parole d’Anthropic a déclaré que le nouveau modèle représente un « changement radical » dans les performances de l’IA et est « le plus performant que nous ayons jamais construit ». La société a déclaré que le modèle était actuellement testé par des « clients à accès anticipé ».
La description du modèle a été accidentellement stockée dans un cache de données accessible au public et examinée par Fortune.
Un projet d’article de blog publié jeudi soir sur un magasin de données non sécurisé et consultable publiquement appelle le nouveau modèle « Claude Mythos » et indique que l’entreprise estime qu’il pose un risque de cybersécurité sans précédent.
La même cache de documents non sécurisés et accessibles au public a révélé les détails d’un sommet des PDG prévu sur invitation uniquement en Europe dans le cadre des efforts de l’entreprise pour vendre des modèles d’IA aux grandes entreprises clientes.
L’AI Institute a laissé du matériel dans un lac de données public non sécurisé, y compris ce qui semble être une ébauche d’un article de blog annonçant un nouveau modèle, selon des documents localisés et examinés de manière indépendante par Roy Pass, chercheur principal en sécurité de l’IA au sein de la société de sécurité informatique et réseau LayerX Security, et Alexander Powells, chercheur en cybersécurité à l’Université de Cambridge.
Au total, il semble y avoir près de 3 000 actifs liés au blog d’Anthropic qui n’étaient pas publiés auparavant sur les sites d’actualités et de recherche de l’entreprise, mais qui étaient néanmoins accessibles au public dans ce cache de données, selon Powell’s, qui a été embauché par Fortune pour évaluer et examiner les documents.
Après avoir été informé de la violation de données par Fortune jeudi, Anthropic a supprimé la possibilité pour les utilisateurs réguliers de rechercher et de récupérer des documents dans le magasin de données.
Dans une déclaration fournie à Fortune, Anthropic a reconnu qu’une ébauche du billet de blog était devenue accessible en raison d’une « erreur humaine » dans la configuration de son système de gestion de contenu. Le rapport décrit les documents non publiés laissés dans des magasins de données non sécurisés et consultables publiquement comme « les premières ébauches de contenu envisagées pour publication ».
En plus de mentionner Mythos, le projet d’article de blog aborde également une nouvelle étape des modèles d’IA appelée « Capybara ». « ‘Capybara’ est le nouveau nom d’une nouvelle couche de modèles qui est plus grande et plus intelligente que notre modèle Opus le plus puissant à ce jour », a déclaré Anthropic dans un communiqué. Capybara et Mythe semblent faire référence au même modèle sous-jacent.
Actuellement, Anthropic vend chaque modèle en trois tailles différentes. La version la plus grande et la plus performante s’appelle Opus, une version légèrement plus rapide et moins chère mais moins performante s’appelle Sonnet, et la version la plus petite, la moins chère et la plus rapide s’appelle Haiku. Cependant, Anthropic a expliqué dans un article de blog que Capybara est un nouveau modèle de scène encore plus grand et plus performant que l’Opus, mais aussi plus cher.
« Par rapport à notre précédent modèle haut de gamme, Claude Opus 4.6, Capybara a obtenu des résultats nettement supérieurs à des tests tels que le codage de logiciels, le raisonnement académique et la cybersécurité », a déclaré la société dans un article de blog.
Le document indique également que la société a suivi une formation sur Claude Mythos, qu’un projet d’article de blog décrit comme « le modèle d’IA le plus puissant que nous ayons jamais développé ».
En réponse à des questions sur un projet d’article de blog, la société a confirmé qu’elle avait formé et testé le nouveau modèle. « Nous développons un modèle à usage général qui a fait des progrès significatifs en matière d’inférence, de codage et de cybersécurité », a déclaré un porte-parole d’Anthropic. « Compte tenu de la force de ses capacités, nous réfléchissons attentivement à la manière dont nous le publierons. Comme c’est la pratique courante dans l’industrie, nous travaillons avec un petit groupe de clients à accès anticipé pour tester le modèle. Nous pensons que ce modèle constitue un changement radical et le plus performant que nous ayons construit à ce jour. »
Le document examiné par Fortune et des experts en cybersécurité se compose de données structurées provenant d’une page Web avec un titre et une date de publication, suggérant qu’il fait partie d’un lancement de produit prévu. Il décrit une stratégie de déploiement minutieuse du modèle, en commençant par un petit groupe d’utilisateurs à accès anticipé. Le projet de blog note que ce modèle est coûteux à exploiter et n’est pas encore prêt pour une diffusion générale.
De nouveaux risques importants en matière de cybersécurité
Les nouveaux modèles d’IA présentent des risques importants en matière de cybersécurité, selon des documents divulgués.
« En préparant la libération de Claude Capybara, nous voulons agir avec une extrême prudence et aller au-delà de ce que nous avons appris de nos propres tests pour comprendre les risques qu’il pose. En particulier, nous voulons comprendre les risques potentiels à court terme de ce modèle dans le domaine de la cybersécurité et partager nos résultats pour aider à préparer les cyber-défenseurs », peut-on lire dans le document.
Anthropic semble particulièrement préoccupé par les implications du modèle en matière de cybersécurité, notant que le système est « bien en avance sur tout autre modèle d’IA en matière de cybercapacités aujourd’hui » et « préfigure une vague de modèles qui seront capables d’exploiter les vulnérabilités d’une manière qui dépasse de loin les efforts des défenseurs ». En d’autres termes, Anthropic craint que des pirates informatiques puissent utiliser ce modèle pour mener des cyberattaques à grande échelle.
En raison de ce risque, la société a déclaré dans un projet de blog que ses projets de publication du modèle étaient axés sur les cyber-défenseurs, « le rendant accessible aux organisations en accès anticipé pour leur donner une longueur d’avance dans l’amélioration de la robustesse de leurs bases de code face à la vague imminente d’exploits pilotés par l’IA ».
La dernière génération de modèles frontières d’Anthropic et d’OpenAI franchit des seuils qui, selon les deux sociétés, posent de nouveaux risques en matière de cybersécurité. Lorsque OpenAI a publié GPT-5.3-Codex en février, la société a déclaré qu’il s’agissait du premier modèle classé comme « haute performance » pour les tâches liées à la cybersécurité dans son cadre de préparation, et du premier modèle directement formé pour identifier les vulnérabilités logicielles.
Anthropic, en revanche, a évité un risque similaire avec l’Opus 4.6, sorti la même semaine. Ce modèle a démontré sa capacité à révéler des vulnérabilités jusque-là inconnues dans les bases de code de production. La société a confirmé que cette capacité avait un double objectif. Cela signifie qu’en plus d’aider les pirates informatiques, cela aide également les défenseurs de la cybersécurité à trouver et à résoudre les vulnérabilités de leur code.
La société a également signalé que des groupes de pirates informatiques, notamment des groupes associés au gouvernement chinois, avaient tenté d’exploiter Claude dans le cadre de cyberattaques réelles. Dans l’un des incidents documentés, Anthropic a découvert qu’un groupe soutenu par l’État chinois avait déjà mené une campagne coordonnée utilisant le code Claude pour infiltrer environ 30 organisations, notamment des entreprises technologiques, des institutions financières et des agences gouvernementales, avant que l’entreprise ne le détecte. Au cours des 10 jours suivants, Anthropic a enquêté sur toute l’ampleur de l’opération, a interdit les comptes impliqués et a informé les organisations concernées.
Une retraite exécutive de luxe
Selon les experts en cybersécurité, la fuite d’informations non publiques semble avoir été provoquée par une erreur de l’utilisateur dans le système de gestion de contenu (CMS), le logiciel utilisé pour publier les blogs publics de l’entreprise.
Les actifs numériques créés à l’aide d’un système de gestion de contenu sont définis comme publics par défaut et se voient généralement attribuer une URL accessible au public lors du téléchargement, à moins que l’utilisateur ne modifie explicitement les paramètres pour garder ces actifs privés. En conséquence, un grand cache d’images, de fichiers PDF et de fichiers audio semble avoir été exposé par inadvertance à des URL non sécurisées et accessibles au public via un système de gestion de contenu disponible dans le commerce.
Dans une déclaration à Fortune, Anthropic a reconnu qu ‘ »il y avait un problème avec l’un de nos outils CMS externes qui rendait le contenu préliminaire inaccessible ». L’entreprise a imputé le problème à une « erreur humaine ».
De nombreux documents semblaient être des éléments abandonnés ou inutilisés provenant d’anciens articles de blog, tels que des images, des bannières et des logos. Toutefois, certains semblaient être des documents personnels ou internes. Par exemple, un actif possède un titre qui décrit le « congé parental » d’un employé.
Le document comprend également un PDF contenant des informations sur une retraite sur invitation uniquement pour les PDG européens qui se tiendra au Royaume-Uni, à laquelle participera également le PDG d’Anthropic, Dario Amodei. Les noms des autres participants ne sont pas répertoriés, mais ils sont répertoriés comme les dirigeants d’entreprise les plus influents d’Europe.
La retraite de deux jours est décrite comme un « rassemblement intime » pour des « conversations réfléchies » dans un manoir-hôtel et spa reconverti du XVIIIe siècle dans la campagne anglaise. Les participants entendront des législateurs et des décideurs politiques expliquer comment les entreprises mettent en œuvre l’IA et pourront découvrir les capacités inédites de Claude, selon le document.
Un porte-parole d’Anthropic a déclaré à Fortune que l’événement « fait partie d’une série d’événements en cours que nous avons organisés au cours de l’année écoulée. Nous sommes impatients d’accueillir des dirigeants d’entreprises européens pour discuter de l’avenir de l’IA ».

