
Lorsque le secrétaire au Trésor Scott Bessent et le président de la Réserve fédérale Jay Powell ont convoqué les directeurs généraux des principales banques américaines pour discuter du dernier modèle d’Anthropic, le Mythos, au début du mois, ils ont signalé un changement dans la façon dont la finance comprend l’intelligence artificielle. Il ne s’agissait pas d’une conférence sur l’innovation, mais plutôt d’un avertissement selon lequel les modèles permettant d’identifier et d’exploiter les vulnérabilités peuvent présenter des risques importants pour l’infrastructure financière de base.
Cette préoccupation est valable. Mais la portée reste trop étroite.
Lors de récentes discussions avec de grandes institutions financières, nous avons constaté que les inquiétudes grandissaient rapidement une fois que les utilisations contradictoires de l’IA étaient comprises. Toutefois, la transition vers l’action reste lente et inégale. Une grande partie de l’attention actuelle se concentre sur les cyber-risques. Il s’agit d’une menace sérieuse. Mais ce n’est pas le seul, ni le plus direct.
Outre les risques soulignés par Mythos, des menaces parallèles se manifestent déjà à grande échelle. Il ne s’agit pas d’un nouveau modèle frontière et s’appuie sur des capacités d’IA déjà largement disponibles. De plus, contrairement aux cyberattaques qui nécessitent l’accès aux systèmes, cette menace cible les personnes.
Ce n’est pas seulement la sophistication qui a changé : c’est aussi l’économie.
L’intelligence artificielle a rendu la fraude considérablement moins chère, plus facile à exécuter et beaucoup plus évolutive. Ce qui nécessitait autrefois du temps et de la coordination peut désormais être automatisé et mis en œuvre à l’échelle industrielle. Les systèmes d’IA peuvent générer des milliers de messages, d’audio et de vidéos persuasifs personnalisés pour des individus spécifiques en quelques secondes. Ce n’est pas progressif. C’est une chose structurelle.
La fraude passe d’une fraude manuelle à une fraude automatisée. Les campagnes d’ingénierie sociale hyperpersonnalisées, souvent alimentées par des agents d’IA, fonctionnent désormais sur plusieurs canaux, juridictions et identités. Ils se font passer pour des dirigeants, des conseillers et des membres de la famille pour accroître la crédibilité, accroître l’urgence et inciter à des transferts approuvés.
Dans ces scénarios, votre système n’est pas compromis. Contourné.
Le système n’a pas été piraté. Les clients sont satisfaits.
Les clients ne sont pas nécessairement piratés. ils en sont sûrs. De plus, les transactions étant autorisées, les garanties existantes sont souvent inefficaces. Les contrôles biométriques peuvent être contrecarrés par les deepfakes. La surveillance basée sur des règles est conçue pour détecter les fraudeurs humains, plutôt qu’un réseau coordonné d’agents IA fonctionnant à la vitesse d’une machine.
Cela crée un type de risque fondamentalement différent.
Contrairement aux cyberattaques, qui ont tendance à être épisodiques et visibles, la fraude basée sur l’IA fait fuir des fonds de manière continue et répartie sur des millions de transactions. Il s’agit d’une menace rampante, facile à mettre en œuvre, rapide à mettre en œuvre et souvent invisible jusqu’à ce que les pertes deviennent importantes. Cette trajectoire laisse présager des pertes de plusieurs milliards de dollars au cours des prochaines années.
Le risque n’est pas seulement financier
Si le public en vient à croire que les institutions financières sont incapables de protéger leurs clients contre la manipulation et la fraude, la confiance dans le système financier s’érodera. L’impact s’étend au-delà de la perte. Les frictions augmenteront, les clients hésiteront et la confiance dans la capacité d’une banque à protéger ses fonds pourrait s’affaiblir d’une manière tout aussi dommageable que les cybermenaces.
Il ne s’agit pas d’une menace plus grande que le cyber-risque. C’est parallèle. Et cela mérite la même attention.
Repenser les défenses au lieu de correctifs incrémentiels
La plupart des agences s’appuient encore sur des données fragmentées, une surveillance traditionnelle et une analyse humaine, incapables de répondre aux menaces adaptatives basées sur l’IA. Obtenir des réponses significatives nécessite une refonte architecturale : une détection native par IA en temps réel. Intégration de la fraude, de l’AML et des signaux comportementaux. Capacité d’intervenir au point de transaction, y compris les paiements autorisés.
Nous devons également passer d’une défense isolée à une défense coordonnée. Les campagnes de fraude ciblent simultanément les clients de toute une organisation, mais la direction reste cloisonnée. Une réponse efficace dépend de l’identification des modèles et des campagnes en temps réel. Les considérations en matière de confidentialité et de concurrence restent importantes, mais les angles morts structurels ne peuvent plus être justifiés. Les technologies préservant la confidentialité permettent aux agences de partager des signaux sans exposer de données sensibles.
Dans le même temps, les agences doivent adopter une approche de « défense par l’IA », c’est-à-dire une approche qui utilise l’IA pour se défendre contre les menaces de l’IA. Une première ligne de défense exclusivement humaine ne peut pas être étendue. Les systèmes natifs d’IA doivent permettre une détection et une réponse plus rapides sous supervision humaine.
Les régulateurs doivent également se réunir sur ce sujet – avant qu’une catastrophe ne survienne.
La leçon de ce moment mythique n’est pas seulement que l’IA peut perturber les systèmes. Cela signifie que le système financier est déjà exploité d’autres manières. C’est discret, hautement évolutif et potentiellement tout aussi corrosif.
Si le système financier ne réagit pas rapidement, les conséquences seront graves, notamment des pertes plus élevées, des frictions accrues et une baisse significative de la confiance du public.
Les régulateurs devraient réunir les dirigeants financiers sur cette question et sur les risques liés à l’IA avant que la catastrophe qui est déjà à la portée des méchants ne se réalise pleinement. Le système financier, le secteur technologique et les décideurs politiques doivent désormais reconnaître l’ampleur de cette vulnérabilité et agir de manière plus urgente.
Les opinions exprimées dans les articles de commentaires de Fortune.com sont uniquement celles de l’auteur et ne reflètent pas nécessairement les opinions ou les croyances de Fortune.

