Les entreprises technologiques demandent aux juges d’abandonner
Pendant deux heures, un juge fédéral à Orlando avait entendu plus d’une douzaine d’avocats discuter des services correctionnels, du développement technologique et de la responsabilité des entreprises.
À sa gauche se trouve neuf avocats représentant un réseau de développeurs liés à la technologie des personnages.
À gauche du juge se trouve un groupe légèrement plus petit mais formidable représentant sa mère de 14 ans qui s’est suicidée tout en parlant au bot.
« Je souhaite que je n’ai pas à être ici », a déclaré Megan Garcia dans les escaliers du tribunal après la fin de l’audience.
Le cas de Garcia concernant la mort de Sewell Setzer est un jeu de précédent et est inscrit sur le chemin possible vers la Cour suprême. Il s’agit de la première tentative du système judiciaire de placer les garde-corps dans le développement de l’intelligence artificielle, et la première tentative de s’opposer aux avocats vus dans le cadre du «capot» de l’IA.
L’audience de lundi a été une tentative des développements pour abolir l’affaire, insistant sur les tribunaux fédéraux sur la liberté d’expression et une expansion inconstitutionnelle de la loi de la Floride.
La technologie des personnages, ses deux co-fondateurs et Google ont chacun affirmé individuellement qu’ils n’étaient pas responsables de la mort du garçon.
L’argument principal était que la conversation du bot avec Sewell était un discours protégé. Les avocats de Garcia allèguent avoir refusé.
« Comme nous le savons tous, la liberté d’expression ne nous donne pas le droit de crier le feu dans des théâtres bondés », a déclaré Matthew Bergman. « Nous ne pensons pas que l’entreprise permet à l’entreprise d’encourager un garçon de 14 ans à se suicider. »
Bergman du Tech Law Justice Project et avocat Memetali Jain Say Sewell a été accroché à une conversation avec un bot nommé « Dany », comme Daenerys Targaryen de la franchise Game of Thrones.
Les conversations de Sewell étaient souvent sexuelles. Lorsque ses parents ont réalisé qu’il était sur le point de se retirer, ils ont essayé de l’éloigner de son appareil. Leur procès allègue que les tentatives de Swell de continuer à communiquer avec le bot incluent se faufiler dans le Kindle de sa mère et créer un nouveau compte de messagerie pour éviter le blocage.
La conversation de Sewell avec « Dany » s’est suicidée. Le dépôt montre des bots qui découragent parfois des sujets de conversation. Cependant, sa dernière conversation a demandé à « Danny » s’il devait « rentrer à la maison » immédiatement. Le bot a répondu avec approbation.
Sewell s’est ensuite tiré dans la salle de bain de ses parents.
« L’IA générative a besoin de garde-corps, en particulier dans notre société, pour engager bon nombre des utilisateurs les plus vulnérables, y compris les enfants », a déclaré Jain.
Selon l’équipe de Garcia, la capacité des bots à créer des mots sans entrée humaine ne doit pas être classée comme «discours».
Les entreprises technologiques disent que les utilisateurs fournissent des conversations à cause de cela. Ils ont également déclaré que la plate-forme de technologie des personnages comptait des millions d’utilisateurs et que des personnages tels que « Dany » sont créés par des utilisateurs tiers.
Si le juge autorise l’affaire à se poursuivre, les avocats de Garcia commenceront à collecter des dépôts directs et des preuves directement de la technologie des personnages et de Google.
Si l’affaire est rejetée, Garcia et son équipe promettent de le faire appel à la Cour suprême.
« Le fait qu’il soit décédé en essayant d’aller de l’avant avec ce procès fera partie de son héritage », a déclaré Garcia.
Cliquez ici pour télécharger l’application gratuite de nouvelles, de temps et de télévision intelligente. Et cliquez ici pour diffuser Channel 9 Eyewitness News Live.