Débloquez Editor’s Digest gratuitement
La rédactrice en chef du FT, Roula Khalaf, a choisi ses histoires préférées dans cette newsletter hebdomadaire.
Anthropic enquête pour savoir si certains utilisateurs ont obtenu un accès non autorisé au modèle Claude Mythos, qui n’a été diffusé qu’à un petit nombre d’entreprises de confiance en raison de ses fonctionnalités avancées de cybersécurité.
L’AI Institute a annoncé mardi qu’il enquêtait sur des informations selon lesquelles un groupe aurait accédé au modèle via un système mis en place pour des sociétés tierces travaillant pour Anthropic.
La société a déclaré qu’elle « enquêtait sur des rapports faisant état d’un accès non autorisé à Claude Mythos Preview via l’un de nos environnements de fournisseurs tiers ».
L’incident a suscité des inquiétudes quant à savoir si l’institut d’IA, doté de 380 milliards de dollars, sera en mesure d’empêcher la technologie qu’il développe de tomber entre de mauvaises mains.
Anthropic a limité la sortie de Claude Mythos Preview à un petit groupe d’entreprises technologiques de confiance en raison du risque que des personnes puissent exploiter ce modèle pour mener des cyberattaques à une échelle et à une vitesse dépassant les capacités humaines.
Le risque d’accès non autorisé s’ajoutera aux inquiétudes concernant Mythos, qui a choqué les marchés et suscité des discussions de haut niveau entre les institutions financières et les régulateurs mondiaux.
Selon Bloomberg, qui a été le premier à signaler l’incident, l’une des personnes ayant obtenu l’accès a pu utiliser Mythos grâce à ses privilèges en tant qu’entrepreneur Anthropic.
Anthropic a déclaré qu’il n’y avait aucune preuve que l’activité s’étende au-delà de « l’environnement du fournisseur » utilisé par des tiers pour accéder au système pour le développement de modèles.
AI Labs fait généralement appel à des sous-traitants tiers pour des tâches telles que les tests de modèles, mais il n’est pas clair quels fournisseurs ont été impliqués dans l’incident.
Anthropic a publié Mythos plus tôt ce mois-ci pour des entreprises telles qu’Amazon, Microsoft, Apple, Cisco et CrowdStrike.
La société basée à San Francisco a déclaré que ces partenaires pourront utiliser les capacités avancées de Mythos pour détecter et se protéger contre les cyber-vulnérabilités avant que leurs modèles ne soient rendus publics.
Les experts en sécurité préviennent que, entre de mauvaises mains, les pirates pourraient exploiter les bogues plus rapidement que les organisations ne peuvent les corriger.
Les processus de sécurité d’Anthropic font l’objet d’un examen minutieux depuis mars, lorsqu’une description d’un modèle portant ce nom a été découverte dans un cache de données accessible au public. L’AI Research Institute a affirmé que l’erreur humaine en était la cause.
Plus tôt ce mois-ci, le code source interne de Claude Code, l’assistant de codage de l’entreprise, a également été exposé lors d’un deuxième incident.

