L’augmentation des défauts créés par l’IA a été découvert dans les documents juridiques déposés devant le tribunal a exposé les avocats à un examen minutieux.
Les tribunaux à travers le pays ont approuvé les avocats pour une mauvaise utilisation des LLM open source comme le chatpt d’Openai et le claude d’Anthropic, qui constituent des affaires « imaginées », suggérant que les avocats ont inventé les décisions judiciaires pour renforcer la discussion et ont fourni des citations inappropriées dans des documents juridiques.
Les experts disent Fortune que bon nombre de ces cas sont apparus et imposeront des sanctions soudaines aux avocats qui abusent de l’IA.
Damien Charlotin, avocat et chercheur à HEC Paris, dirige une base de données des cas d’hallucination de l’IA. Il a jusqu’à présent récolté 376 cas, dont 244 des États-Unis.
« Je ne nie pas que nous étions sur une courbe exponentielle », a-t-il déclaré à Fortune.
Charlotin a souligné que les avocats sont particulièrement sensibles à la supervision en tant qu’individus dans sa profession délégués tâches à l’équipe, lisant souvent tout le matériel collecté par leurs collègues et copie et collant la chaîne de devis sans méthodes de vérification des faits appropriées. Aujourd’hui, l’IA élabore une pratique plus claire alors que les avocats s’adaptent aux nouvelles technologies.
« Il y a une situation où ces (modèles open source) complétent la loi », a déclaré à Fortune Sean Fitzpatrick, Lexisnexis North America, PDG du Royaume-Uni et de l’Irlande. « Les enjeux augmentent et c’est du côté de l’avocat. »
Fitzpatrick, un partisan de l’application d’IA dédiée de Legal Market, reconnaît que les chatbots pilotes à faible coût des géants de la technologie conviennent aux résumés de documents et à la rédaction d’e-mails. Mais en raison du « travail juridique réel » comme le projet de mouvements, le modèle « ne peut pas faire ce dont les avocats ont besoin », a déclaré Fitzpatrick.
Par exemple, la rédaction des documents de réponse aux tribunaux pour les affaires qui pourraient inclure les décisions de rémunération de Medicaid, les prestations de sécurité sociale ou les poursuites pénales ne peuvent pas se permettre de faire des erreurs créées par l’IA.
Autres risques
La saisie d’informations confidentielles dans le modèle open source met en danger une violation des privilèges d’avocat et des clients.
Frank Emmert, directeur exécutif du Center for International and Comparative Law de l’Indiana University et Expert de l’IA, a déclaré à Fortune que les modèles open source pouvaient recevoir des informations privilégiées des avocats qui les utilisent.
Si quelqu’un d’autre le sait, par exemple, vous pouvez insensé un contrat entre un client et un avocat. Par exemple, utilisez l’invite appropriée.
« Vous n’allez pas trouver de contrat complet, mais si vous téléchargez ces contrats, vous trouvez suffisamment d’informations », explique Emmert. « Peut potentiellement trouver le nom du client … ou du moins, des informations qui vous permettront d’identifier le client. »
S’il est téléchargé sans autorisation d’un avocat, le modèle open source ne protège pas les privilèges, ce qui pourrait être accessible au public et trouver des informations accessibles au public, a déclaré Fitzpatrick.
« Je pense que ce n’est qu’une question de temps avant de voir des avocats perdre leur permis pour cela », a-t-il déclaré.
Fitzpatrick a déclaré que des modèles comme l’outil de génération de son entreprise Lexis + AI, qui a signé un contrat de sept ans en tant qu’informateur judiciaire fédéral en mars, pourrait être la réponse aux risques d’hallucination et de confidentialité des clients.
LexisNexis ne forme pas les LLM avec vos données et les invites sont chiffrées. De plus, la technologie est « la plus équipée » pour résoudre les problèmes d’hallucination, car il s’appuie dans un « jardin de contenu clos » ou un système unique et unique qui est mis à jour quotidiennement, a déclaré Fitzpatrick.
Pourtant, LexisNexis ne prétend pas maintenir les privilèges et reconnaît que ses obligations reposent toujours sur l’avocat, a indiqué la société.
Cependant, les experts disent que Fortune IA, qui est utilisée à des fins juridiques, est intrinsèquement open source.
IA La maternelle légale
Emmert dit qu’il divise le modèle en trois paniers. Il s’agit d’un outil d’accès ouvert tel que Chatgpt, une application interne appelée « Small Language Models » et un « modèle de langue moyenne » comme les produits de LexisNexis.
La peur des erreurs a conduit les entreprises à restreindre l’utilisation de modèles open source et à développer à la place des applications internes. Il s’agit essentiellement d’un serveur pour une entreprise où les avocats téléchargent des contrats et des documents et commencent à former des modèles d’IA sur eux et essentiellement un serveur.
Cependant, il y a toujours une réponse inférieure aux applications internes par rapport à la grande quantité de données disponibles pour les modèles open source, a déclaré Emmert.
Il a déclaré que des modèles de taille moyenne peuvent être utilisés pour aider à la rédaction de contrats, à des examens de documents, à l’évaluation des preuves ou à des procédures de découverte, mais il y a encore des choses limitées qui peuvent être dessinées par rapport à Internet ouvert.
« Et le problème est, pouvons-nous leur faire complètement confiance? … Une chose est que ce ne sont pas des hallucinations, et deuxièmement, les données restent vraiment privilégiées et privées », a déclaré Emmert.
Il a dit que s’il faisait partie d’un cabinet d’avocats, il hésiterait à s’inscrire avec ce type de fournisseur et à dépenser beaucoup d’argent pour quelque chose qui pourrait ne pas être dans les premiers stades et être vraiment utile.
« Personnellement, je pense que ces outils d’IA sont super », a déclaré Emmert. « Ils nous aident vraiment à faire plus de travail avec un investissement de temps beaucoup plus bas et des niveaux de qualité plus élevés. »
Pourtant, il a averti que l’industrie est dans une nouvelle ère et a besoin d’une éducation accélérée pour quelque chose qui a été adopté rapidement sans être pleinement compris.
« Cela a commencé dans le monde universitaire, mais nous continuons notre profession, nous devons former tous les avocats, tous les juges, pas au sens technique, mais tous les avocats, tous juges, à l’utiliser », a déclaré Emmert. « C’est là qu’il y a un vrai défi. »