Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Melinda French Gates a une règle en matière de conflits au travail : attendre 48 heures avant de dire quoi que ce soit.

mars 27, 2026

Exclusif : le modèle d’IA « mythique » de l’humanité illustrant des « changements progressifs » de pouvoir révélés lors d’une violation de données

mars 27, 2026

Exclusif : Anthropic a laissé des modèles d’IA inédits, des détails exclusifs sur les événements du PDG dans une base de données non sécurisée.

mars 27, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Exclusif : le modèle d’IA « mythique » de l’humanité illustrant des « changements progressifs » de pouvoir révélés lors d’une violation de données
Business

Exclusif : le modèle d’IA « mythique » de l’humanité illustrant des « changements progressifs » de pouvoir révélés lors d’une violation de données

JohnBy Johnmars 27, 2026Aucun commentaire9 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email



La société d’IA Anthropic développe un nouveau modèle d’IA plus puissant que tous les modèles d’IA précédemment publiés et a commencé à tester avec des clients à accès anticipé, a indiqué la société, à la suite d’une violation de données qui a révélé l’existence du modèle.

Un porte-parole d’Anthropic a déclaré que le nouveau modèle représente un « changement radical » dans les performances de l’IA et est « le plus performant que nous ayons jamais construit ». La société a déclaré que le modèle était actuellement testé par des « clients à accès anticipé ».

La description du modèle a été accidentellement stockée dans un cache de données accessible au public et examinée par Fortune.

Un projet d’article de blog publié jeudi soir sur un magasin de données non sécurisé et consultable publiquement appelle le nouveau modèle « Claude Mythos » et indique que l’entreprise estime qu’il pose un risque de cybersécurité sans précédent.

La même cache de documents non sécurisés et accessibles au public a révélé les détails d’un sommet des PDG prévu sur invitation uniquement en Europe dans le cadre des efforts de l’entreprise pour vendre des modèles d’IA aux grandes entreprises clientes.

L’AI Institute a laissé du matériel dans un lac de données public non sécurisé, y compris ce qui semble être une ébauche d’un article de blog annonçant un nouveau modèle, selon des documents localisés et examinés de manière indépendante par Roy Pass, chercheur principal en sécurité de l’IA au sein de la société de sécurité informatique et réseau LayerX Security, et Alexander Powells, chercheur en cybersécurité à l’Université de Cambridge.

Au total, il semble y avoir près de 3 000 actifs liés au blog d’Anthropic qui n’étaient pas publiés auparavant sur les sites d’actualités et de recherche de l’entreprise, mais qui étaient néanmoins accessibles au public dans ce cache de données, selon Powell’s, qui a été embauché par Fortune pour évaluer et examiner les documents.

Après avoir été informé de la violation de données par Fortune jeudi, Anthropic a supprimé la possibilité pour les utilisateurs réguliers de rechercher et de récupérer des documents dans le magasin de données.

Dans une déclaration fournie à Fortune, Anthropic a reconnu qu’une ébauche du billet de blog était devenue accessible en raison d’une « erreur humaine » dans la configuration de son système de gestion de contenu. Le rapport décrit les documents non publiés laissés dans des magasins de données non sécurisés et consultables publiquement comme « les premières ébauches de contenu envisagées pour publication ».

En plus de mentionner Mythos, le projet d’article de blog aborde également une nouvelle étape des modèles d’IA appelée « Capybara ». « ‘Capybara’ est le nouveau nom d’une nouvelle couche de modèles qui est plus grande et plus intelligente que notre modèle Opus le plus puissant à ce jour », a déclaré Anthropic dans un communiqué. Capybara et Mythe semblent faire référence au même modèle sous-jacent.

Actuellement, Anthropic vend chaque modèle en trois tailles différentes. La version la plus grande et la plus performante s’appelle Opus, une version légèrement plus rapide et moins chère mais moins performante s’appelle Sonnet, et la version la plus petite, la moins chère et la plus rapide s’appelle Haiku. Cependant, Anthropic a expliqué dans un article de blog que Capybara est un nouveau modèle de scène encore plus grand et plus performant que l’Opus, mais aussi plus cher.

« Par rapport à notre précédent modèle haut de gamme, Claude Opus 4.6, Capybara a obtenu des résultats nettement supérieurs à des tests tels que le codage de logiciels, le raisonnement académique et la cybersécurité », a déclaré la société dans un article de blog.

Le document indique également que la société a suivi une formation sur Claude Mythos, qu’un projet d’article de blog décrit comme « le modèle d’IA le plus puissant que nous ayons jamais développé ».

En réponse à des questions sur un projet d’article de blog, la société a confirmé qu’elle avait formé et testé le nouveau modèle. « Nous développons un modèle à usage général qui a fait des progrès significatifs en matière d’inférence, de codage et de cybersécurité », a déclaré un porte-parole d’Anthropic. « Compte tenu de la force de ses capacités, nous réfléchissons attentivement à la manière dont nous le publierons. Comme c’est la pratique courante dans l’industrie, nous travaillons avec un petit groupe de clients à accès anticipé pour tester le modèle. Nous pensons que ce modèle constitue un changement radical et le plus performant que nous ayons construit à ce jour. »

Le document examiné par Fortune et des experts en cybersécurité se compose de données structurées provenant d’une page Web avec un titre et une date de publication, suggérant qu’il fait partie d’un lancement de produit prévu. Il décrit une stratégie de déploiement minutieuse du modèle, en commençant par un petit groupe d’utilisateurs à accès anticipé. Le projet de blog note que ce modèle est coûteux à exploiter et n’est pas encore prêt pour une diffusion générale.

De nouveaux risques importants en matière de cybersécurité

Les nouveaux modèles d’IA présentent des risques importants en matière de cybersécurité, selon des documents divulgués.

« En préparant la libération de Claude Capybara, nous voulons agir avec une extrême prudence et aller au-delà de ce que nous avons appris de nos propres tests pour comprendre les risques qu’il pose. En particulier, nous voulons comprendre les risques potentiels à court terme de ce modèle dans le domaine de la cybersécurité et partager nos résultats pour aider à préparer les cyber-défenseurs », peut-on lire dans le document.

Anthropic semble particulièrement préoccupé par les implications du modèle en matière de cybersécurité, notant que le système est « bien en avance sur tout autre modèle d’IA en matière de cybercapacités aujourd’hui » et « préfigure une vague de modèles qui seront capables d’exploiter les vulnérabilités d’une manière qui dépasse de loin les efforts des défenseurs ». En d’autres termes, Anthropic craint que des pirates informatiques puissent utiliser ce modèle pour mener des cyberattaques à grande échelle.

En raison de ce risque, la société a déclaré dans un projet de blog que ses projets de publication du modèle étaient axés sur les cyber-défenseurs, « le rendant accessible aux organisations en accès anticipé pour leur donner une longueur d’avance dans l’amélioration de la robustesse de leurs bases de code face à la vague imminente d’exploits pilotés par l’IA ».

La dernière génération de modèles frontières d’Anthropic et d’OpenAI franchit des seuils qui, selon les deux sociétés, posent de nouveaux risques en matière de cybersécurité. Lorsque OpenAI a publié GPT-5.3-Codex en février, la société a déclaré qu’il s’agissait du premier modèle classé comme « haute performance » pour les tâches liées à la cybersécurité dans son cadre de préparation, et du premier modèle directement formé pour identifier les vulnérabilités logicielles.

Anthropic, en revanche, a évité un risque similaire avec l’Opus 4.6, sorti la même semaine. Ce modèle a démontré sa capacité à révéler des vulnérabilités jusque-là inconnues dans les bases de code de production. La société a confirmé que cette capacité avait un double objectif. Cela signifie qu’en plus d’aider les pirates informatiques, cela aide également les défenseurs de la cybersécurité à trouver et à résoudre les vulnérabilités de leur code.

La société a également signalé que des groupes de pirates informatiques, notamment des groupes associés au gouvernement chinois, avaient tenté d’exploiter Claude dans le cadre de cyberattaques réelles. Dans l’un des incidents documentés, Anthropic a découvert qu’un groupe soutenu par l’État chinois avait déjà mené une campagne coordonnée utilisant le code Claude pour infiltrer environ 30 organisations, notamment des entreprises technologiques, des institutions financières et des agences gouvernementales, avant que l’entreprise ne le détecte. Au cours des 10 jours suivants, Anthropic a enquêté sur toute l’ampleur de l’opération, a interdit les comptes impliqués et a informé les organisations concernées.

Une retraite exécutive de luxe

Selon les experts en cybersécurité, la fuite d’informations non publiques semble avoir été provoquée par une erreur de l’utilisateur dans le système de gestion de contenu (CMS), le logiciel utilisé pour publier les blogs publics de l’entreprise.

Les actifs numériques créés à l’aide d’un système de gestion de contenu sont définis comme publics par défaut et se voient généralement attribuer une URL accessible au public lors du téléchargement, à moins que l’utilisateur ne modifie explicitement les paramètres pour garder ces actifs privés. En conséquence, un grand cache d’images, de fichiers PDF et de fichiers audio semble avoir été exposé par inadvertance à des URL non sécurisées et accessibles au public via un système de gestion de contenu disponible dans le commerce.

Dans une déclaration à Fortune, Anthropic a reconnu qu ‘ »il y avait un problème avec l’un de nos outils CMS externes qui rendait le contenu préliminaire inaccessible ». L’entreprise a imputé le problème à une « erreur humaine ».

De nombreux documents semblaient être des éléments abandonnés ou inutilisés provenant d’anciens articles de blog, tels que des images, des bannières et des logos. Toutefois, certains semblaient être des documents personnels ou internes. Par exemple, un actif possède un titre qui décrit le « congé parental » d’un employé.

Le document comprend également un PDF contenant des informations sur une retraite sur invitation uniquement pour les PDG européens qui se tiendra au Royaume-Uni, à laquelle participera également le PDG d’Anthropic, Dario Amodei. Les noms des autres participants ne sont pas répertoriés, mais ils sont répertoriés comme les dirigeants d’entreprise les plus influents d’Europe.

La retraite de deux jours est décrite comme un « rassemblement intime » pour des « conversations réfléchies » dans un manoir-hôtel et spa reconverti du XVIIIe siècle dans la campagne anglaise. Les participants entendront des législateurs et des décideurs politiques expliquer comment les entreprises mettent en œuvre l’IA et pourront découvrir les capacités inédites de Claude, selon le document.

Un porte-parole d’Anthropic a déclaré à Fortune que l’événement « fait partie d’une série d’événements en cours que nous avons organisés au cours de l’année écoulée. Nous sommes impatients d’accueillir des dirigeants d’entreprises européens pour discuter de l’avenir de l’IA ».



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleExclusif : Anthropic a laissé des modèles d’IA inédits, des détails exclusifs sur les événements du PDG dans une base de données non sécurisée.
Next Article Melinda French Gates a une règle en matière de conflits au travail : attendre 48 heures avant de dire quoi que ce soit.
John
  • Website

Related Posts

Melinda French Gates a une règle en matière de conflits au travail : attendre 48 heures avant de dire quoi que ce soit.

mars 27, 2026

Exclusif : Anthropic a laissé des modèles d’IA inédits, des détails exclusifs sur les événements du PDG dans une base de données non sécurisée.

mars 27, 2026

Shield AI a plus que doublé sa valorisation à 12,7 milliards de dollars et projette un chiffre d’affaires de plus de 540 millions de dollars cette année

mars 27, 2026

Un juge fédéral suspend l’interdiction « orwellienne » du Pentagone sur la technologie d’IA d’Anthropic

mars 27, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Le marché japonais de la fintech blockchain devrait atteindre 770 millions de dollars d’ici 2032, grâce à l’adoption institutionnelle et à l’expansion des cas d’utilisation financière.

mars 26, 2026

L’accélérateur Fintech de Women in GIFT City soutient les startups IFSC dirigées par des femmes

mars 26, 2026

GIFT City lance l’accélérateur Women in Fintech pour les startups dirigées par des femmes

mars 26, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Melinda French Gates a une règle en matière de conflits au travail : attendre 48 heures avant de dire quoi que ce soit.

mars 27, 2026

Exclusif : le modèle d’IA « mythique » de l’humanité illustrant des « changements progressifs » de pouvoir révélés lors d’une violation de données

mars 27, 2026

Exclusif : Anthropic a laissé des modèles d’IA inédits, des détails exclusifs sur les événements du PDG dans une base de données non sécurisée.

mars 27, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.