
L’accès non autorisé du groupe Discord au puissant modèle Mythos d’Anthropic AI ne soulève pas seulement des questions sur les garde-fous autour des puissants outils de cybersécurité de l’IA.
Cela expose un problème plus vaste pour le secteur de la cybersécurité. L’IA peut détecter et exploiter les failles si rapidement que les défenseurs peuvent être les seuls à être réellement à risque.
Un groupe de chercheurs d’informations Discord alimentés par l’IA, dont l’un était associé au fournisseur tiers de la startup d’IA, a réussi à accéder à un système de défense de cybersécurité fortement gardé en février, le même mois que ses débuts.
La violation, qui combine accès interne, robots d’enquête Web et ingéniosité brute, provoque une nouvelle vague d’alarme dans un secteur déjà craintif.
Ironiquement, alors que l’incident de Discord se déroulait, la Cloud Security Alliance a averti dans un briefing de réponse immédiate publié quelques jours après l’annonce de Mythos que l’IA accélérait la découverte de vulnérabilités plus rapidement que les organisations ne pouvaient suivre, créant ainsi une tempête parfaite pour les défenseurs.
L’introduction de Mythos, qui a découvert des milliers de failles et de failles Zero Day sur des centaines de systèmes logiciels, a effectivement réduit les délais de mise à jour sur lesquels les défenseurs s’appuient depuis des années, passant de quelques jours à seulement quelques heures.
Si elles sont exposées et adoptées par des pirates informatiques, les équipes de sécurité seront inévitablement chargées de créer un tout nouveau manuel de stratégie pour les aider à prioriser et à décider comment résoudre ce qui est important, mais rien ne garantit qu’elles mettront fin à la cyber-hémorragie.
Plus de 250 responsables de la sécurité ont contribué à la création de ce briefing, affirmant que le défi n’est plus seulement de trouver des failles, mais de déterminer celles qui présentent réellement un risque réel et de les corriger avant qu’elles ne puissent être transformées en exploits utiles.
Il s’agit d’un changement que certains experts en sécurité affirment que l’industrie sous-estime encore. Le problème n’est plus seulement une question de découverte. La question est celle de la remédiation, de la responsabilité et de savoir si les défenseurs peuvent suivre le rythme alors que l’IA passe de l’identification des vulnérabilités à la démonstration de la manière dont elles peuvent être exploitées dans le monde réel.
Le moment mythique ne concerne peut-être pas un seul modèle de cybersécurité solide, mais plutôt ce qui se passe dans la fenêtre de plus en plus étroite entre la découverte d’une faille et sa militarisation.
La réponse actuelle d’Anthropic est le projet Glasswing. Il s’agit d’un effort étroitement contrôlé visant à utiliser Mythos pour sécuriser les logiciels critiques avant que des modèles comparables ne soient plus largement disponibles.
Mais cela met en lumière un problème plus vaste. L’industrie sait ce qui s’en vient et s’efforce toujours d’élaborer à temps un manuel indispensable pour se protéger contre les menaces plus importantes telles que les États-nations et les attaquants de ransomwares.
Si un groupe de passionnés de l’IA parvenait à se faufiler dans Mythos sans intention malveillante, imaginez l’impact si la prochaine personne à franchir la porte était un véritable criminel.
Les opinions exprimées dans les articles de commentaires de Fortune.com sont uniquement celles de l’auteur et ne reflètent pas nécessairement les opinions ou les croyances de Fortune.

