Que se passe-t-il lorsque le logiciel que tout le monde s’empresse d’adopter devient trop risqué pour que quiconque puisse l’assurer ? Selon un article du Financial Times, nous sommes sur le point de le découvrir.
De grands assureurs, dont AIG, Great American et WR Berkley, demandent aux régulateurs américains l’autorisation d’exclure les responsabilités liées à l’IA des polices d’assurance des entreprises. Un souscripteur décrit les résultats des modèles d’IA vers le FT comme « une boîte noire trop importante ».
L’industrie a de bonnes raisons d’être effrayée, nous rappelle l’histoire. L’AI Overview de Google a faussement accusé une entreprise solaire de problèmes juridiques, déclenchant un procès de 110 millions de dollars en mars. L’année dernière, Air Canada s’est retrouvée bloquée pour honorer une remise inventée par son chatbot. Et l’année dernière, des fraudeurs ont utilisé une version clonée numériquement d’un cadre supérieur pour voler 25 millions de dollars à la société d’ingénierie de conception basée à Londres, Arup, lors d’un appel vidéo qui semblait tout à fait réel.
Ce qui terrifie vraiment les assureurs, ce n’est pas un paiement massif ; c’est le risque systémique de milliers de réclamations simultanées lorsqu’un modèle d’IA largement utilisé y intervient. Comme l’a dit un dirigeant d’Aon, les assureurs peuvent gérer une perte de 400 millions de dollars pour une seule entreprise. Ce qu’ils ne peuvent pas gérer, c’est un incident d’IA agentique qui déclenche 10 000 pertes d’un coup.

