Faites-nous part des mises à jour gratuites
Inscrivez-vous simplement à Myft AI Digest et il sera livré directement à votre boîte de réception.
La compagnie d’assurance de Lloyd à Londres vise à bénéficier de préoccupations concernant le risque d’hallucinations et d’erreurs coûteuses causées par les chatbots, il a donc lancé un produit qui couvre les pertes causées par le dysfonctionnement des outils d’intelligence artificielle.
La politique développée par Armilla, une startup soutenue par le combinateur Y, couvre les frais de réclamation contre la société si elle est poursuivie par un client ou un autre tiers qui a causé un préjudice en raison de mauvaises performances de l’outil d’IA.
L’assurance est entreprise par plusieurs compagnies d’assurance Lloyd pour couvrir les dépenses telles que la rémunération et les frais juridiques.
Alors que les entreprises se sont précipitées pour adopter l’IA pour accroître l’efficacité, certains outils, y compris les robots de service à la clientèle, font face à des erreurs embarrassantes et coûteuses. De telles erreurs peuvent survenir, par exemple, en raison de défauts dans les modèles de langage AI « hâtant » et l’organisation des choses.
Virgin Money s’est excusé en janvier après qu’un chatbot propulsé par l’IA a réprimandé ses clients pour avoir utilisé le mot « Virgin », mais l’année dernière, il a juré aux clients et a désactivé certains de ses robots de service à la clientèle après avoir appelé son propriétaire « la pire entreprise de services de prestation du monde ».
L’année dernière, un tribunal a ordonné à Air Canada de respecter les remises configurées par les chatbots du service client.
Armilla a déclaré que si les chatbots d’Air Canada trouvent des performances pires que prévu, les pertes de la vente de billets à un prix inférieur sont une couverture pour les contrats d’assurance.
Le PDG d’Armilla, Karthik Ramakrishnan, a déclaré que le nouveau produit pourrait encourager davantage d’entreprises à adopter l’IA. En effet, de nombreuses personnes sont contrecarrées par la peur des chatbots et d’autres outils qui s’effondrent.
Certains assureurs comprennent déjà des erreurs techniques générales et des pertes liées à l’IA dans les politiques d’omission, mais celles-ci incluent généralement des limites de paiement minimales. Selon Rockton Broker Preet Gill, une politique générale couvrant des pertes allant jusqu’à 5 millions de dollars pourrait fournir une sous-établissement de 25 000 $ pour les passifs liés à l’IA.
Les modèles de langue IA sont dynamiques et signifient «l’apprentissage» au fil du temps. Cependant, les pertes causées par les erreurs causées par ce processus d’adaptation ne sont généralement pas couvertes par des erreurs techniques typiques et des politiques d’omission, a déclaré Logan Payne, courtier à Lockton.
Les erreurs des outils d’IA ne sont pas suffisantes pour déclencher des paiements sous la politique d’Armilla. Au lieu de cela, la couverture commence si la compagnie d’assurance détermine que l’IA a fait en dessous de ses attentes initiales.
Par exemple, si Chatbot fournit uniquement aux clients ou aux employés les informations correctes 85% du temps, l’assurance d’Armilla peut payer.
« Nous évaluons les modèles d’IA, nous nous habituons à la probabilité de dégradation et corrigeons si le modèle s’est détérioré », a déclaré Ramakrishnan.
Tom Graham, responsable des partenariats chez l’assureur de Lloyd, Chaucer, est l’assureur de Lloyd qui a souscrit des politiques vendues par Armilla, et a déclaré que son groupe ne signerait pas de politique couvrant les systèmes d’IA qu’elle considère comme sujets aux ruptures. « Comme toute compagnie d’assurance, nous sommes sélectifs », a-t-il déclaré.