Albert Saniger, le fondateur et PDG de Form de Nate, une application d’achat de l’IA qui a promis une expérience de paiement «universelle», a été chargé de frauder les investisseurs mercredi, selon un communiqué de presse du ministère américain de la Justice.
Fondée en 2018, Nate a levé plus de 50 millions de dollars d’investisseurs comme Coatue et Forerunner Ventures, le plus récemment collecté une série A de 38 millions de dollars en 2021 dirigée par Renegade Partners.
Nate a déclaré que les utilisateurs de son application pouvaient acheter à partir de n’importe quel site de commerce électronique en un seul clic, grâce à l’IA. En réalité, cependant, Nate a réalisé Heavy sur des centaines d’entrepreneurs humains dans un centre d’appels des Philippines pour compléter manuellement ces achats, le District du DOJ au sud de New York.
Saniger a relevé des millions de fonds en capital-risque en affirmant que Nate était en mesure de transformer en ligne «sans intervention humaine», à l’exception des boîtes de bord où l’IA n’a pas réussi à terminer une transaction. Mais pas le Nate qui acquiert une technologie d’IA et l’embauche de scientifiques des données, le taux d’automatisation réel de son application était en vigueur de 0%, affirme le DOJ.
L’utilisation intensive des entrepreneurs humains par Nate a fait l’objet d’une enquête par les informations en 2022.
Saniger n’a pas répondu à une demande de comment. Il est actuellement répertorié comme associé directeur chez New York VC Buttercore Partners, qui n’a pas répondu à une demande de commentaire.
L’acte d’accusation du DOJ indique que Nate a manqué d’argent et a été contraint de vendre ses actifs en janvier 2023, laissant à ses investisseurs des pertes «presque totales». Le profil LinkedIn d’Albert Saniger indique qu’il n’était pas le PDG de Long en 2023.
Nate n’est pas la seule startup qui aurait exagéré sa capacité d’IA. Par exemple, une startup logicielle «IA» au volant a également été alimentée en grande partie par les humains aux Philippines, a rapporté le Verge en 2023.
Plus récemment, Business Insider a indiqué qu’une licorne de technologie juridique de l’IA A AI, Anipup, avait utilisé des humains pour faire une grande partie de son travail.

