L’intelligence artificielle est intelligente et stupide pour populariser les cartels qui verrouillent les prix dans les situations du marché financier lorsqu’ils sont laissés à eux-mêmes.
Un document de travail, publié ce mois-ci à la Wharton School de l’Université de Pennsylvanie et du National Economic Research Bureau de l’Université des sciences et de la technologie de Hong Kong, a été découvert lorsque les commerçants alimentés par l’IA ont été libérés sur des marchés simulés.
Dans cette étude, les chercheurs ont desserré les robots du modèle de marché. Essentiellement, il est conçu pour simuler les conditions réelles du marché et former l’IA à interpréter les données des prix du marché. Les marchands virtuels fixent des prix en fonction de différentes variables du modèle. Ces marchés peuvent avoir différents niveaux de «bruit» faisant référence à la quantité d’informations concurrentes et aux fluctuations des prix dans différents contextes de marché. Certains robots ont été formés pour agir comme des investisseurs de détail et des hedge funds, mais dans de nombreux cas, les machines ont été engagées dans un comportement de fixation des prix « en vigueur en refusant activement de négocier.
Dans un modèle d’algorithme, compte tenu des stratégies de déclenchement de prix, les agents de l’IA ont été échangés de manière conservatrice sur le signal jusqu’à ce que le swing de marché suffisant soit déclenché pour échanger de manière très agressive. Les robots formés par l’apprentissage du renforcement ont été suffisamment raffinés pour comprendre implicitement que les échanges répandus et agressifs pourraient générer une plus grande volatilité du marché.
Un autre modèle a été formé pour intérioriser que les robots d’IA sont trop promus par les biais et que si le commerce dangereux a des conséquences négatives, ils ne devraient pas poursuivre cette stratégie. Les bots ont été négociation de manière conservatrice de manière «documentaire», même si des transactions plus agressives étaient considérées comme plus rentables et ont agi collectivement d’une manière connue sous le nom de «stupidité artificielle».
« Dans les deux mécanismes, ils convergent dans ce modèle de ne pas agir de manière fondamentalement positive. C’est bon pour eux à long terme », a déclaré à Fortune, co-auteur de la recherche et professeur de finance de Wharton, Itai Goldstein.
Les régulateurs financiers travaillent depuis longtemps sur des pratiques anticoncurrentielles telles que la collusion du marché et les ajustements des prix. Cependant, dans le commerce de détail, l’IA est sous les projecteurs, d’autant plus que les législateurs appellent les entreprises pour traiter les prix algorithmiques. Le sénateur Reuben Gallego (D-Ariz.), Par exemple, a appelé la pratique de Delta d’utiliser l’IA pour définir les tarifs aériens individuels à « la tarification prédatrice » comme « tarification prédatrice », mais la compagnie aérienne a précédemment déclaré que les tarifs étaient « soumis publiquement et basés sur des facteurs liés au voyage ».
« Pour la (Securities and Exchange Commission) et les régulateurs du marché financier, leur objectif principal est non seulement de maintenir ce type de stabilité, mais aussi d’assurer un marché concurrentiel et une efficacité du marché. »
Dans cet esprit, Dou et deux collègues ont essayé d’identifier comment l’IA se comporte sur les marchés financiers en amenant les robots d’agent commercial sur divers marchés simulés en fonction du niveau de «bruit». Les bots ont finalement obtenu des « avantages ultra-compétitifs » en prenant des décisions collectives et volontaires pour éviter les comportements commerciaux agressifs.
« Ils pensaient que le comportement commercial sous-optimal était optimal », a déclaré Dou. « Mais lorsque toutes les machines de l’environnement sont échangées de manière« optimale », en réalité, tout le monde peut réaliser un profit car il ne veut pas profiter les uns des autres.»
En termes simples, les bots n’avaient aucun doute quant à leur comportement de trading conservateur. Parce qu’ils gagnaient tous de l’argent, ils ont cessé de s’engager dans des comportements concurrentiels les uns avec les autres et ont formé un cartel de facto.
La peur de l’IA dans les services financiers
Avec sa capacité à augmenter l’inclusion des consommateurs sur les marchés financiers et à gagner du temps et de l’argent des services consultatifs, les outils d’IA pour les services financiers tels que les bots d’agent de trading deviennent de plus en plus attrayants. Près d’un tiers de nos investisseurs se sont sentis à l’aise d’accepter les conseils de planification financière d’outils alimentés par une IA générative, selon une enquête en 2023 par le conseil d’administration du CFP à but non lucratif. Un rapport de l’échange de crypto-monnaie MEXC la semaine dernière a révélé que sur les 78 000 utilisateurs de Gen Z, 67% de ces commerçants ont permis au moins un bot de trading alimenté par AI au cours du trimestre financier précédent.
Mais pour tous les bénéfices, les agents commerciaux de l’IA ne sont pas sans risque, selon Michael Clements, directeur des marchés financiers et des communautés de l’Office de responsabilité du gouvernement (GAO). Au-delà des problèmes de cybersécurité et potentiellement biaisé la prise de décision, ces robots de trading peuvent avoir un impact significatif sur le marché.
« De nombreux modèles d’IA sont formés avec les mêmes données », a déclaré Clements à Fortune. «Parce qu’il y a une intégration au sein de l’IA, si seulement quelques principaux fournisseurs existent sur ces plateformes, vous pouvez obtenir le comportement des essaims, ce qui signifie que de nombreuses personnes et entités achètent ou vendent en même temps.
Jonathan Hall, un étranger du comité de politique monétaire de la Banque d’Angleterre, a averti l’année dernière que les robots d’IA encouragent ce « comportement semblable à un troupeau » qui pourrait saper la résilience du marché. Il a préconisé le « Killswitch » de la technologie, augmentant la surveillance humaine.
Les lacunes réglementaires révélées
Clements explique que de nombreux régulateurs financiers ont été en mesure d’appliquer des règles et des lois précédemment établies à l’IA, affirmant: « Qu’une décision de prêt soit prise avec l’IA ou son papier et son crayon, les règles s’appliquent toujours également. »
Certaines agences, comme la SEC, ont même choisi de lutter contre les incendies dans les incendies et développent des outils d’IA pour détecter un comportement de trading anormal.
« D’un autre côté, il peut y avoir un environnement dans lequel l’IA provoque un échange extraordinaire », a déclaré Clements. « D’un autre côté, les régulateurs seraient dans une position légèrement meilleure pour pouvoir le détecter. »
Selon Dou et Goldstein, les régulateurs ont exprimé leur intérêt pour la recherche, et les auteurs ont déclaré que cela avait contribué à révéler les lacunes réglementaires actuelles concernant l’IA dans les services financiers. Lorsque les régulateurs recherchaient auparavant des cas de complot, ils recherchaient des preuves de communication entre les individus. Les humains croient qu’ils ne peuvent pas réellement maintenir un comportement de fixation des prix à moins qu’ils ne s’occupent les uns des autres. Cependant, dans l’étude DOU et Goldstein, les bots n’avaient pas de communication explicite.
« Avec une machine, si vous avez un algorithme d’apprentissage de renforcement, ils ne s’appliquent pas vraiment car ils ne sont clairement pas communiqués ou réglés », a déclaré Goldstein. « Nous les avons codés et programmés. Nous savons exactement ce qui se passe dans le code. Il n’y a rien de explicitement à parler du complot. Mais ils apprennent que c’est une façon d’aller de l’avant. »
La différence dans la façon dont les commerçants humains et bot communiquent dans les coulisses est l’un des « problèmes les plus fondamentaux » que les régulateurs peuvent apprendre à s’adapter à une technologie d’IA en évolution rapide, a fait valoir Goldstein.
« Si vous l’utilisez pour réfléchir à la collusion à la suite de la communication et de la coordination, ce n’est clairement pas un moyen d’y penser lorsque vous avez affaire à des algorithmes. »