Abhishek Gandotra, vice-président des produits à Green Dot.
La montée en puissance de l’IA a changé le fonctionnement des services financiers, mais il a également changé les événements frauduleux. Rien qu’en 2024, les consommateurs américains ont perdu plus de 12,5 milliards de dollars à la fraude, en hausse de 25% en glissement annuel. Beaucoup de ces escroqueries avaient des FAKED-FAKES générés par l’AI, des documents usurpés et des identités synthétiques.
Cette évolution est la même que les régulateurs mondiaux augmentent les normes de risque, de conformité et de transparence. Pour les chefs de produit fintech, cela présente à la fois les défis et les responsabilités. Comment construisez-vous une solution sécurisée, conforme, fiable, innovante et alimentée par IA?
Pourquoi est-ce important pour moi?
Au cours de la dernière décennie, j’ai dirigé la conversion de produits sur les plateformes d’IA, les systèmes de prévention de la fraude et l’infrastructure bancaire de base. Plus récemment, il est vice-président des produits de Green Dot. En travaillant en étroite collaboration avec des équipes de régulateur, de juridiction, d’ingénierie et de risque, nous intégrons l’IA dans un environnement à enjeux élevés, des modèles de notation de fraude et de l’industrie bancaire aux cadres conformes.
L’IA, la fraude et la conformité ne sont pas des sujets abstraits pour moi. Ils sont au cœur de ce que j’ai construit ma carrière. Je suis profondément intéressé à utiliser l’IA pour améliorer l’accès financier sans saper la confiance.
L’impact de l’IA sur la fraude financière
L’IA générée est soumise à un crime financier excessif. Les escrocs créent actuellement des identités synthétiques ainsi que des antécédents de crédit réels, générant de faux documents, générant des chèques KYC et des voix de clones, tous les cadres imitants à grande échelle. Nous entrons dans une nouvelle ère où les obstacles au lancement de la fraude sophistiquée peuvent être faibles et les dommages peuvent être plus importants.
Mais l’IA est également notre défense la plus puissante. En tant que leader dans l’espace fintech, j’ai vu des institutions financières mettre en œuvre l’apprentissage automatique pour détecter les anomalies en temps réel sur des milliards de transactions. La notation des risques basée sur le comportement, les empreintes digitales de l’appareil et la reconnaissance des modèles aident à signaler tout en réduisant les faux positifs et en améliorant la sécurité et l’expérience client.
Dans cette course d’armes, l’IA est armée par les deux côtés. La différence consiste à surveiller et à responsabilité, et qui l’applique de manière responsable.
Augmentation des réglementations
Partout dans le monde, les régulateurs nettoient de nouvelles règles en réponse à ces menaces et à la propagation de l’IA dans les services financiers.
• La DORA de l’UE (Digital Operations Resilience Act) oblige les banques et les fintechs à répondre aux normes strictes de cyber-résilience d’ici 2025, notamment en surveillant les fournisseurs de technologies tierces.
• Les lois sur la LMA se resserrent à l’échelle mondiale, les régulateurs hiérarchisant les programmes «efficaces et basés sur les risques». Une agence qui ne peut pas être condamnée à une amende pour les barreaux, comme on le voit dans les récentes mesures d’application.
• CFPB l’a clairement indiqué. Les outils d’IA doivent encore se conformer aux lois existantes sur la protection des consommateurs. L’entreprise est responsable si le chatbot induit en erreur les utilisateurs ou si l’algorithme discrimine les prêts.
• La loi sur l’IA de l’UE, adoptée en 2024, introduit un cadre basé sur les risques qui traite de l’audit, des tests équitables et de la transparence pour les systèmes d’IA financiers à haut risque, y compris la notation du crédit et la détection de fraude.
La fintech, une fois légèrement réglementée, est désormais confrontée à un examen minutieux de la qualité des banques. Et le changement n’est pas temporaire. C’est une nouvelle norme.
Équilibre entre l’innovation et la surveillance
Ce paysage nécessite plus qu’une simple conformité. Vous devez choisir une conception intelligente qui équilibre la vitesse et la sécurité.
Dans mon vaste expérience de leadership produit, j’ai appris que les innovations les plus fortes naissent pour eux, pas malgré les contraintes. C’est ce que signifie réellement:
1. Conception de conception: Enfin, ne boulonnez pas l’examen des risques. Nous les avons intégrés dans le cycle de vie de votre produit. Si vous créez un outil de crédit avec l’IA, créez une partie de l’équité et de l’explication de l’architecture initiale, plutôt qu’une réflexion après coup.
2. Gérer l’IA avec l’IA: le même outil qui aide les biais du modèle de la personnalisation de puissance, de suivre les signaux de fraude et de déclencher des alertes pour les violations réglementaires. S’il est utilisé judicieusement, l’IA peut automatiser la surveillance, mais les examens humains doivent rester dans la boucle.
3. Friction basée sur les risques: toutes les transactions ne nécessitent pas le même niveau de vérification. Le contrôle de Taylor est basé sur le risque réel, donc les utilisateurs connaissent une protection sans obstacles inutiles. La clé est de vous protéger sans être paralysé.
4. Avant les changements de politique: de nouvelles règles telles que le droit de l’UE AI et la surveillance du CFPB ne sont pas une surprise. Ce sont des signaux. Rejoignez les groupes industriels, engagez-vous avec les régulateurs tôt et construisez des systèmes modulaires qui peuvent être adaptés à mesure que les règles évoluent.
En fin de compte, la confiance ne peut pas être rétroactive. Vous devez concevoir à partir de zéro.
Design pour la confiance: un appel à l’action
Les escroqueries continuent d’évoluer. Il en va de même pour les réglementations. Mais ce qui reste le même, c’est le besoin de confiance des clients. Dans le monde numérique, la confiance est votre devise la plus précieuse et la monnaie la plus difficile à gagner à la fois perdue.
C’est ce qui nous met au défi de nous concentrer sur notre industrie.
• Construire pour l’inclusion. Utilisez l’IA pour amener plus de personnes dans le système financier. Test de biais. Servir la banque pensivement.
• Faites de la conformité un avantage du produit. Si cela fait correctement, le contrôle ne doit pas vous ralentir. Ils donnent aux clients la confiance nécessaire pour s’engager plus profondément.
• Il devient fondamentalement transparent. Si le bot prend une décision, informez le client. S’il y a une friction de sécurité, expliquez pourquoi. La communication renforce la fiabilité.
• Regardez le risque comme une entrée de conception. Ne demandez pas: « Cette fonctionnalité est-elle cool? » « Êtes-vous en sécurité, juste et résilient? » demande-t-il. L’innovation qui néglige les risques n’est pas l’innovation. C’est une exposition.
La prochaine entreprise de fintech réussie n’est pas seulement la décision la plus rapide. Ils deviendront les constructeurs les plus fiables. Utilisez l’IA, la conformité et le risque comme leviers pour créer des produits financiers qui servent plus de personnes, plus en toute sécurité, et faire tout ce qui est en intégrité.
L’avenir de la fintech appartient à des personnes qui conçoivent la confiance.
Forbes Technology Council est une communauté uniquement sur l’invitation pour les DSI, les CTO et les cadres technologiques de classe mondiale. Êtes-vous qualifié?