Aditya v Kashyap, l’IA et le leader de l’innovation stimulent la transformation des entreprises grâce à une stratégie fiable, une gouvernance et un leadership audacieux.
C’était une demi-semaine de semaine typique où les temps étaient flous avec un mélange méconnaissable d’épingles lâches et d’appels consécutifs. J’ai atteint mon téléphone, parcourir la page d’accueil et les notifications ont glissé de l’application bancaire.
« Il devrait dépasser notre budget alimentaire d’ici jeudi. »
Il n’y a pas de sonnettes d’alarme ou de texte rouge éblouissant. Une observation douce et presque attentionnée comme un ami bien intentionné qui a réalisé que j’avais décidé d’offrir des suggestions pour trois nuits consécutives en Thaïlande.
Curieusement, je n’ai rien dit à l’application. Ils n’ont pas fixé des objectifs de dépenses, configuré des alertes de dépenses ou classé les transactions. Mais c’était là. Il y avait une projection de ce que j’essayais de dépenser, pas seulement de ce que j’ai dépensé.
À ce moment, j’ai cliqué. Je n’ai pas seulement utilisé l’application. L’application m’utilisait également.
Nous parlons souvent comme si l’IA arrivait. Comme s’il s’agissait d’une menace imminente, une force puissante quelque part à l’horizon. Mais nous sommes ici et ça ne vient pas avec un coup. Cela nous amène à des ajustements apaisants et doux qui servent de suggestion utile.
FinTech n’automatise pas seulement la gestion financière. FinTech nous apprend – nos habitudes, nos facteurs de stress, notre humeur financière. Ces outils suivent le nombre de fois où vous appuyez sur une fonctionnalité, combien de temps vous souhaitez faire défiler l’historique des transactions et combien de temps vous souhaitez planer au-dessus du bouton « Confirmer » lors de la vérification de l’équilibre.
Ce n’est pas une personnalisation. Ceci est une simulation. Il s’agit d’une modélisation comportementale massive. Bien que cela puisse sembler inoffensif (et même utile), cela soulève une question importante: dont le comportement est modélisé?
Au mieux, ces outils utilisent des données comportementales pour favoriser des habitudes saines. Dans le pire des cas, ils prétendent être une friction (ou un successeur) à des points où ils ne peuvent pas évaluer raisonnablement leur choix. Ce n’est pas une parodie. Il s’agit d’une stratégie de produit.
Un scénario simple est: lors d’une journée difficile, à 23h47, nous passons en revue nos habitudes de dépenses. Vous avez peu d’énergie, votre jugement est brumeux et vous vous inquiétez des coûts. En ce moment vulnérable, vous obtenez une nouvelle ligne de crédit, une offre de budgétisation premium ou une suggestion d’applications pour un prêt « temps limité ».
Le timing n’est pas aléatoire. C’est intentionnel. C’est une dynamique que de nombreuses fintechs optimisent tranquillement. Plutôt que de nous faire savoir ce que nous faisons, nous le façonnerons. Identifie le moment correct où le coup de pouce devient «oui».
L’asymétrie de cette force est une réelle préoccupation. L’IA et la conception intelligente sont transformatrices en finance. Les idées personnalisées aident les gens à éviter les découverts, à réaliser des économies et à gagner de la littératie financière. Les meilleures plateformes comprennent cette responsabilité et la construisent attentivement.
Cependant, la limite de support et de fonctionnement n’est pas fixe. Changement basé sur l’intention et les incitations. De nouvelles normes de transparence sont nécessaires.
• Les utilisateurs doivent savoir quand leur comportement est modélisé.
• Les réglementations doivent aborder non seulement la confidentialité mais aussi l’influence.
• Les fintechs doivent divulguer non seulement les données qu’ils collectent, mais aussi comment les signaux comportementaux éclairent les décisions des produits.
Si vous attendez que l’opération soit révélée, les dégâts seront déjà causés. Une décision sera prise. Un motif est formé. Le modèle est formé.
Nous travaillons en supposant que ces applications sont conçues pour nous aider. Ils aident parfois, mais nous les entraînons de plus en plus. Nous fournissons leurs modèles, façonnons leurs prédictions et renforçons les boucles comportementales que nous n’avons jamais acceptées.
Cela ne signifie pas que la fintech est prédatrice. Certaines plateformes sont en fait des conceptions réfléchies et montrent une réelle préoccupation pour les personnes qu’ils visent à servir. Si la personnalisation est éthique, elle peut absolument favoriser l’inclusion financière.
Le continuum des conseils aux opérations est mince et souvent invisible pour l’utilisateur. Si les algorithmes sont autorisés à optimiser le nombre de bénéfices et de transactions au détriment de la formation du bien-être de l’utilisateur, et si la conception du produit utilise les vulnérabilités comportementales comme déclencheur de monétisation, elle n’est pas simplement contraire à l’éthique. C’est pillage.
Un bon coup de pouce solide pour encourager des fonctions à profit élevé peut verrouiller quelqu’un dans une dette de longue date. Les prêts de style salarial qui violent la «réparation» peuvent être des multiples de vulnérabilité financière. Les applications régulières qui utilisent intentionnellement les modèles de stress pour encourager les mises à niveau ne concernent pas l’autonomisation. C’est forcé et calme.
Il est temps de repenser notre langue et nos réglementations. Nous sommes passés de la question de savoir quelles données sont collectées pour comment ces données sont utilisées pour manipuler le comportement.
Le consentement seul ne suffit pas. Le consentement éclairé doit être suivi. Les utilisateurs méritent de savoir quand leur comportement est modélisé et pour poser des questions sur la façon dont leurs signaux de comportement sont utilisés pour éclairer la conception des produits. Ils ont besoin de savoir que la personnalisation se croit avec la persuasion.
« Nous utilisons vos données pour améliorer votre expérience. » Cette phrase est une conversion qui tourne en représentations de la musique électronique d’entreprise, souvent avec des motivations déjà attirées.
Peut-être plus important encore, nous devons nous demander si un système conçu pour nous prévoir devrait être autorisé à nous reconstruire tranquillement même si nous ne le savons pas.
L’avenir financier est exploitable. Les intervenants les plus puissants du futur ne sont pas des plates-formes avec la meilleure expérience utilisateur (UX) ou le plus grand ensemble de données, mais des plates-formes qui comprennent parfaitement notre rythme.
C’est là que la confiance est construite et brisée, et à partir de là, vous devez commencer à chercher la responsabilité. Si vous remarquez les effets lorsqu’il est évident, il est déjà trop tard.
Avec le recul, je me demande avec quelle facilité ils ont abandonné le contrôle afin d’optimiser des outils conçus pour promouvoir l’autonomisation. Un coup de pouce et une notification à la fois.
Forbes Technology Council est une communauté uniquement sur l’invitation pour les DSI, les CTO et les cadres technologiques de classe mondiale. Êtes-vous qualifié?