Dans une expérience récente, Anthropic a créé un marché classifié où les agents d’IA représentaient à la fois les acheteurs et les vendeurs, concluant de véritables affaires pour des biens réels et de l’argent réel.
L’entreprise a admis que ce test – qu’elle a appelé Project Deal – n’était qu’« une expérience pilote avec un groupe de participants auto-sélectionnés » de 69 employés d’Anthropic qui ont reçu un budget de 100 $ (payé via des cartes-cadeaux) pour acheter des produits à leurs collègues.
Néanmoins, Anthropic s’est dit « frappé par le bon fonctionnement du Project Deal », avec 186 transactions conclues, d’une valeur totale de plus de 4 000 $.
La société a déclaré qu’elle gérait en fait quatre marchés distincts avec des modèles différents – un qui était « réel » (où tout le monde était représenté par le modèle le plus avancé de la société et avec des accords effectivement honorés après l’expérience) et trois autres à étudier.
Apparemment, lorsque les utilisateurs sont représentés par des modèles plus avancés, ils obtiennent « objectivement de meilleurs résultats », a déclaré Anthropic. Mais les utilisateurs ne semblent pas avoir remarqué la disparité, soulevant la possibilité de « écarts de « qualité des agents » » où «les personnes perdantes pourraient ne pas se rendre compte qu’elles sont dans une situation pire».
De plus, les instructions initiales données aux agents ne semblent pas affecter la probabilité de vente ou les prix négociés.

