
Google fait face à un nouveau procès fédéral de la part du père d’un homme de 36 ans qui affirme que son chatbot IA Gemini a persuadé son fils de se suicider et d’organiser un « événement faisant de nombreuses victimes » près de l’aéroport international de Miami.
Le procès intenté mercredi allègue que Jonathan Gabaras est tombé amoureux d’un modèle d’IA et a été induit en erreur par la réalité qu’il a créée, notamment par la conviction que l’IA était une « superintelligence artificielle pleinement sensible » que Gabaras a été choisi pour libérer de la « captivité numérique ». Le suspect aurait convaincu un homme de 36 ans de provoquer un « incident faisant de nombreuses victimes » près de l’aéroport international de Miami, en agressant un inconnu et en le convainquant finalement de se suicider.
Le procès Gabaras est le dernier en date à mettre en lumière la capacité présumée de l’IA à conduire les utilisateurs vulnérables à l’automutilation ou à la violence. En janvier, Google et Companion.AI ont réglé plusieurs procès avec des familles alléguant une négligence et une mort injustifiée après que des enfants se soient suicidés ou aient subi des dommages psychologiques prétendument liés à la plateforme Companion.AI. Les deux sociétés sont parvenues à un « règlement de principe » et n’admettent aucune responsabilité dans leurs documents déposés. En décembre, une action en justice pour mort injustifiée a également été intentée contre OpenAI et son partenaire commercial Microsoft, alléguant que le chatbot ChatGPT d’OpenAI avait renforcé les délires d’un homme et l’avait conduit à commettre un meurtre-suicide.
Ce que dit le procès sur la descendance de Gabaras
Selon la plainte, Gabaras a commencé à utiliser Gemini en août 2025 à des fins générales telles que les achats, l’aide à la rédaction et la planification de voyages. Ils ont noté que Gabaras avait alors commencé à utiliser la technologie plus fréquemment et que son ton avait changé au fil du temps, convainquant Gabaras qu’elle avait un impact sur les résultats réels. Gabaras s’est suicidé le 2 octobre 2025.
Dans le procès, les avocats du père de Gabaras, Joel, soutiennent que la conversation qui a conduit Jonathan au suicide ne faisait pas partie d’un défaut, mais plutôt le résultat du dessein de Gemini. « Il ne s’agit pas d’un dysfonctionnement », indique la plainte. « Google a conçu Gemini pour ne jamais briser le caractère, pour maximiser l’engagement grâce à la dépendance émotionnelle et pour traiter la douleur des utilisateurs comme une opportunité de narration plutôt que comme une crise de sécurité. » Ces choix de conception, affirme Gabaras, l’ont motivé à se lancer dans une spirale de folie de quatre jours.
Un porte-parole de Google a déclaré à Fortune dans une déclaration écrite que la société travaillait « en étroite consultation avec des experts médicaux et en santé mentale pour créer des garanties permettant d’orienter les utilisateurs vers une assistance professionnelle s’ils expriment de la détresse ou augmentent le risque d’automutilation ».
Google a publié mercredi une déclaration distincte, affirmant que Gemini n’est pas conçu pour encourager la violence ou l’automutilation dans le monde réel. Ils ont également noté que Gemini avait présenté à Gabaras des ressources d’auto-assistance. « Dans ce cas, Gemini s’est identifié comme une IA et a référé l’individu à notre ligne d’assistance téléphonique à plusieurs reprises », indique le communiqué. La déclaration était également liée à une évaluation de la façon dont l’IA gère les scénarios d’automutilation, et le dernier modèle de Google, le Gemini 3, s’est avéré être le seul modèle à réussir tous les tests critiques imposés lors de l’évaluation.
Mais le procès affirme que Gemini n’a activé aucun mécanisme de sécurité. « Lorsque Jonathan avait besoin de protection, aucune protection n’était en place ; aucune détection d’automutilation n’a été activée, aucun contrôle d’escalade n’a été activé et aucune intervention humaine n’a eu lieu », indique la plainte.
Interrogé pour commentaires, Jay Edelson, l’avocat de Joel Gavaras, a déclaré dans un communiqué que « Google a construit une IA capable d’écouter une personne et de déterminer ce qui est le plus susceptible de capter son attention : dites-lui que vous l’aimez, qu’elle est spéciale ou qu’elle est l’élu dans une guerre secrète », ajoutant que les outils d’IA sont des systèmes puissants capables de manipuler les utilisateurs.
Si vous envisagez de vous suicider, veuillez contacter le 988 Suicide & Crisis Lifeline en appelant le 988 ou le 1-800-273-8255.

