
Imaginez que vous demandiez à un agent d’IA de convertir 10 000 $ américains en dollars canadiens d’ici la fin de la journée. L’exécution des agents est terrible. Ils interprètent mal les paramètres, placent des paris avec un effet de levier injuste et leur argent s’évapore. Qui est responsable ? Qui vous rendra votre argent ?
Pour l’instant, personne n’est obligé de le faire. Un groupe de chercheurs affirme qu’il s’agit d’une vulnérabilité critique à l’ère de l’IA basée sur les agents.
Dans un article publié le 8 avril, des chercheurs de Microsoft Research, de l’Université de Columbia, de Google DeepMind, de Virtuals Protocol et de la startup d’IA t54 Labs ont proposé un nouveau cadre complet de protection financière appelé Agenttic Risk Standard (ARS). Le cadre est conçu pour faire aux agents d’IA ce que font le dépôt fiduciaire, l’assurance et les chambres de compensation pour les transactions financières traditionnelles. Ce standard est open source et disponible sur GitHub via t54 Labs.
Nous parlons ici de toute une « économie de substitution », a déclaré le fondateur de t54, Chandler Fang, à Fortune dans une déclaration envoyée par courrier électronique. « C’est très différent de simplement utiliser un agent IA pour des opérations financières. » Il a expliqué qu’il existe essentiellement deux types de trading d’agents : le trading financier impliquant des humains et le trading autonome d’agents. Il a déclaré que tout le monde se concentre sur la participation humaine, ce qui constitue un gros problème car il n’existe actuellement pas d’autre moyen de gérer l’écosystème financier que de confier toutes les responsabilités aux humains. Tout cela est dû à la nature probabiliste de la technique, ont expliqué les chercheurs.
problème de probabilité
Le principal problème identifié par l’équipe est ce qu’elle appelle le « déficit d’assurance », qu’elle définit comme « le décalage entre la confiance probabiliste fournie par les technologies de sécurité de l’IA et les assurances obligatoires dont les utilisateurs ont besoin avant de déléguer des tâches à enjeux élevés ». Cette explication n’est pas sans rappeler ce que l’expert en leadership Jason Wilde avait précédemment déclaré à Fortune : les outils d’IA sont probabilistes, ce qui déroute les managers du monde entier. L’équipe t54 a écrit : « Sans aucun moyen de limiter les pertes potentielles, les utilisateurs limitent raisonnablement la délégation de l’IA aux tâches à faible risque, limitant ainsi l’adoption généralisée des services basés sur des agents. »
Ils soutiennent qu’une sécurité améliorée au niveau du modèle peut réduire la probabilité de pannes de l’IA, mais ne peut pas éliminer complètement les pannes de l’IA. Les modèles linguistiques à grande échelle sont intrinsèquement probabilistes, donc peu importe à quel point un agent d’IA est bien formé et réglé, il peut halluciner ou commettre des erreurs. Lorsque cet agent gère un compte de courtage ou effectue des appels d’API financière, même un seul échec peut entraîner des pertes instantanées.
« La recherche sur l’IA la plus fiable vise à réduire la probabilité d’échec », a déclaré Wenyue Hua, chercheur principal chez Microsoft Research. « Même si ce travail est essentiel, les probabilités ne sont pas des garanties. L’ARS adopte une approche complémentaire : plutôt que d’essayer de rendre le modèle parfait, elle formalise ce qui se passe financièrement s’il ne l’est pas. Le résultat est un protocole de règlement où la protection des utilisateurs est déterministe plutôt que probabiliste. »
La solution des chercheurs s’inspire directement de siècles d’ingénierie financière. ARS introduit un cadre de paiement multicouche. Un coffre-fort séquestre qui contient les frais de service et n’est libéré que lorsque la livraison de la tâche est confirmée. Exigences de garantie qui doivent être affichées avant qu’un fournisseur de services d’IA puisse accéder à vos fonds. Souscription facultative – Un tiers qui prend le risque d’évaluer le risque de défaillance de l’IA, de facturer une prime et de promettre de rembourser l’utilisateur en cas de problème.
Ce cadre distingue deux types d’emplois en IA. Les tâches de service standard (création de présentations, rédaction de rapports) comportent un risque financier limité, le règlement par séquestre est donc suffisant. La souscription est essentielle pour les tâches impliquant l’échange de fonds, telles que les transactions de devises, les positions à effet de levier et les appels d’API financières, où les agents doivent accéder au capital utilisateur avant de valider les résultats. C’est la même logique qui régit le marché des produits dérivés. Sur le marché des produits dérivés, une chambre de compensation se situe entre les contreparties pour éviter qu’un seul défaut ne provoque une réaction en chaîne.
Ce document mappe explicitement l’ARS au secteur d’allocation des risques existant dans un tableau. En d’autres termes, la construction utilise des garanties de bonne exécution, le commerce électronique utilise le dépôt de plateforme, les marchés financiers utilisent des exigences de marge et des chambres de compensation, et DeFi utilise des garanties de contrats intelligents. Les chercheurs affirment que les agents d’IA ne constituent que la prochaine catégorie de services à enjeux élevés qui nécessite sa propre version de cette infrastructure.
le timing est important
Les régulateurs financiers ont déjà commencé à surveiller. Le rapport de surveillance réglementaire 2026 de la FINRA, publié en décembre, comprenait une section unique en son genre sur l’IA générative, avertissant les courtiers de développer des procédures ciblant spécifiquement les hallucinations et d’examiner les agents d’IA susceptibles d’agir « au-delà de la portée et de l’autorité réelles ou prévues de l’utilisateur ». La SEC et d’autres agences surveillent de près.
Mais l’ARS est présenté comme quelque chose que les régulateurs n’ont pas encore construit. Autrement dit, un protocole, plutôt qu’un ensemble de règles, est une machine à états standardisée qui régit la façon dont les fonds sont bloqués, les réclamations sont soumises et le remboursement est déclenché en cas de défaillance de l’agent IA. Les chercheurs reconnaissent que l’ARS constitue une couche dans une pile de confiance plus large et que le véritable goulot d’étranglement réside dans la création de modèles précis de tarification des risques pour le comportement des agents.
« Ce document est la première étape dans la mise en place d’un cadre de haut niveau pour comprendre à quoi ressemblent les processus de bout en bout et les évaluations des risques associés aux transactions autonomes d’agent », a déclaré Huang à Fortune. « De plus, à l’avenir, nous devrons introduire des détails, des modèles et d’autres études plus spécifiques pour comprendre comment capturer les risques dans différents cas d’utilisation. »

