À l’avocat représentant Anthropic admis avoir utilisé une citation erronée créée par le chatbot Claude AI de la société dans sa bataille juridique de Nailgong avec des éditeurs de musique, selon un dossier déposé dans un tribunal du nord de la Californie.
Claude a halluciné la citation avec «un titre inexact et des auteurs inexacts», dit Anthropic dans le dossier, rapporté pour la première fois par Bloomberg. Les avocats d’Anthropic expliquent que leur «chèque de guillemets manuels» ne l’a pas lutté, ni plusieurs autres erreurs causées par les hallucinations de Claude.
Anthropic s’est excusé pour l’erreur et l’a appelé «une erreur de citation honnête et non une fabrication d’autorité».
Plus tôt cette semaine, des avocats représentant Universal Music Group et d’autres éditeurs de musique ont accusé le témoin expert d’Anthropic – l’un des employés de l’entreprise, Olivia Chen – d’utiliser Claude pour citer de faux articles dans son témoignage. Le juge fédéral, Susan Van Keulen, a ensuite ordonné à Anthropic de répondre à ces prétendus.
Le procès des éditeurs de musique est l’un des nombreux différends entre les propriétaires de droits d’auteur et les entreprises technologiques sur l’utilisation abusive supposée de leur travail pour créer des outils d’IA génératifs.
Il s’agit de la dernière instance d’avocats utilisant l’IA devant le tribunal, puis de regretter la décision. Plus tôt cette semaine, un juge de Californie a critiqué une paire de cabinets d’avocats pour avoir soumis des recherches générées par des faux AI « dans son court métrage. En janvier, un avocat australien a été surpris en utilisant Chatgpt dans la préparation de documents courts et le chatbot a produit des citations défectueuses.
Cependant, ces erreurs n’empêchent pas les startups de lever d’énormes rondes pour automatiser les travaux juridiques. Harvey, qui utilise des modèles d’IA génératifs pour aider les avocats, est signalé dans des pourparlers pour lever plus de 250 millions de dollars à une évaluation de 5 milliards de dollars.