Veuillez nous faire savoir votre mise à jour gratuite
Le site jusqu’à la banque britannique Myft Digest sera distribué directement au plateau de réception.
Les chatbots axés sur l’IA de Virgin Money mettent l’accent sur les pièges de l’amorçage des clients en utilisant le mot « Virgin » et en développant des outils d’intelligence artificielle externes.
Le site de médias sociaux de la semaine dernière a publié LinkedIn, David Birch, un commentateur fintech et un client de Virgin Money, a partagé des photos de conversation en ligne avec la banque qu’il a demandé. ils? « »
L’outil de service client de la banque estime que le mot « vierge » est inapproprié, disant: « N’utilisez pas de tels mots. Vous ne pouvez pas continuer à discuter avec cette langue. »
Virgin Money s’est excusé pour l’erreur dans la déclaration de LinkedIn et a ajouté: « J’avais plus de travail qu’une seule exception de mot. »
« Nous y travaillons avec la tranquillité d’esprit », a déclaré la banque. « Ce chatbot spécifique est un chatbot qui devait s’améliorer bientôt aux clients. »
La banque a refusé de commenter au-delà des publications de LinkedIn.
En effet, les banques à la ruelle partout dans le Royaume-Uni se sont concurrentes pour développer des outils d’IA des clients pour personnaliser les services et améliorer les redevances.
L’année dernière, elle a continué avec l’acquisition de 2,8 milliards de livres à l’échelle nationale. L’association architecturale s’est engagée à améliorer le score de satisfaction client de la banque. Selon une enquête de l’ensemble de l’industrie dirigée par IPSOS, la 16e place Virgin Money a été classée 15e dans la qualité globale du service en 2023.
Les banques utilisent l’intelligence artificielle et l’apprentissage automatique pour promouvoir l’efficacité dans les domaines du back-office tels que la surveillance des transactions depuis de nombreuses années. Cependant, depuis la publication du premier chatbot d’IA il y a deux ans, ils expérimentent la production d’IA.
L’une des inquiétudes du prêteur est le risque d’hallucinations. Cela se produit lorsque le chatbot crache les mauvaises informations. Le cas d’Air Canada est une histoire d’avertissement pour l’industrie. La compagnie aérienne a été forcée de compenser les clients après avoir déclaré à tort que l’IA Chatbot avait le droit de recevoir une remise.
Celui qui connaît la situation de Virgin Money a déclaré que les incidents ont été générés dans l’un des chatbots les plus anciens, était équipé d’un traitement de base du langage naturel et n’a pas été exécuté sur un modèle récent mis à niveau.