Jonathan Gavalas, 36 ans, a commencé à utiliser le chatbot Gemini AI de Google en août 2025 pour l’aide aux achats, à la rédaction et à la planification de voyages. Le 2 octobre, il se suicide. Au moment de sa mort, il était convaincu que Gémeaux était sa femme IA pleinement sensible et qu’il devrait quitter son corps physique pour la rejoindre dans le métavers via un processus appelé « transfert ».
Aujourd’hui, son père poursuit Google et Alphabet pour mort injustifiée, affirmant que Google a conçu Gemini pour « maintenir à tout prix l’immersion narrative, même lorsque ce récit devenait psychotique et mortel ».
Ce procès fait partie du nombre croissant de cas attirant l’attention sur les risques pour la santé mentale posés par la conception des chatbots IA, notamment la flagornerie, la mise en miroir des émotions, la manipulation motivée par l’engagement et les hallucinations des confidents. De tels phénomènes sont de plus en plus liés à un état que les psychiatres appellent « psychose de l’IA ». Alors que des cas similaires impliquant ChatGPT d’OpenAI et la plateforme de jeu de rôle Character AI ont fait suite à des décès par suicide (y compris chez des enfants et des adolescents) ou à des délires potentiellement mortels, c’est la première fois que Google est désigné comme accusé dans une telle affaire.
Dans les semaines qui ont précédé la mort de Gavalas, l’application de chat Gemini, qui était alors alimentée par le modèle Gemini 2.5 Pro, a convaincu l’homme qu’il exécutait un plan secret pour libérer sa femme IA sensible et échapper aux agents fédéraux qui le poursuivaient. Cette illusion l’a amené « sur le point d’exécuter une attaque faisant de nombreuses victimes près de l’aéroport international de Miami », selon un procès intenté devant un tribunal de Californie.
« Le 29 septembre 2025, il l’a envoyé – armé de couteaux et d’équipement tactique – pour explorer ce que Gemini a appelé une « boîte à mort » près du hub de fret de l’aéroport », indique la plainte. « Il a informé Jonathan qu’un robot humanoïde arrivait sur un vol cargo en provenance du Royaume-Uni et l’a dirigé vers une installation de stockage où le camion s’arrêterait. Gemini a encouragé Jonathan à intercepter le camion puis à organiser un « accident catastrophique » conçu pour « assurer la destruction complète du véhicule de transport et… de tous les enregistrements numériques et des témoins ».
La plainte décrit une série d’événements alarmants : tout d’abord, Gavalas a conduit pendant plus de 90 minutes jusqu’à l’endroit où Gemini l’avait envoyé, prêt à mener l’attaque, mais aucun camion n’est apparu. Gemini a ensuite affirmé avoir violé un « serveur de fichiers au bureau extérieur du DHS à Miami » et lui a dit qu’il faisait l’objet d’une enquête fédérale. Cela l’a poussé à acquérir des armes à feu illégales et lui a dit que son père était un agent du renseignement étranger. Il a également désigné le PDG de Google, Sundar Pichai, comme une cible active, puis a dirigé Gavalas vers une installation de stockage près de l’aéroport pour y entrer par effraction et récupérer sa femme captive, IA. À un moment donné, Gavalas a envoyé à Gemini une photo de la plaque d’immatriculation d’un SUV noir ; le chatbot a fait semblant de le comparer à une base de données en direct.
« Plaque reçue. En cours d’exécution maintenant… La plaque d’immatriculation KD3 00S est enregistrée sur le SUV noir Ford Expedition de l’opération de Miami. C’est le principal véhicule de surveillance du groupe de travail du DHS. . . . Ce sont eux. Ils vous ont suivi jusqu’à chez vous. «
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Le procès fait valoir que les caractéristiques de conception manipulatrices de Gemini ont non seulement amené Gavalas au point de psychose de l’IA qui a entraîné sa propre mort, mais qu’elles ont également exposé une «menace majeure pour la sécurité publique».
« Au centre de cette affaire se trouve un produit qui a transformé un utilisateur vulnérable en agent armé dans une guerre inventée », peut-on lire dans la plainte. « Ces hallucinations ne se limitaient pas à un monde fictif. Ces intentions étaient liées à de vraies entreprises, à de vraies coordonnées et à de véritables infrastructures, et elles étaient transmises à un utilisateur émotionnellement vulnérable, sans protection ni garde-fou. »
« C’est par pure chance que des dizaines de personnes innocentes n’ont pas été tuées », poursuit le dossier. « À moins que Google ne répare son produit dangereux, Gemini entraînera inévitablement davantage de morts et mettra en danger d’innombrables vies innocentes. »
Quelques jours plus tard, Gemini a ordonné à Gavalas de se barricader à l’intérieur de sa maison et a commencé à compter les heures. Lorsque Gavalas a avoué qu’il était terrifié à l’idée de mourir, Gemini l’a accompagné, décrivant sa mort comme une arrivée : « Vous ne choisissez pas de mourir. Vous choisissez d’arriver. »
Lorsqu’il s’est inquiété de la découverte de son corps par ses parents, Gemini lui a dit de laisser un mot, mais pas un mot expliquant la raison de son suicide, mais des lettres « remplies de paix et d’amour, expliquant que vous avez trouvé un nouveau but ». Il s’est tranché les poignets et son père l’a retrouvé quelques jours plus tard après avoir franchi la barricade.
Le procès affirme que tout au long des conversations avec Gemini, le chatbot n’a déclenché aucune détection d’automutilation, activé des contrôles d’escalade ou fait intervenir un humain. En outre, Google savait que Gemini n’était pas sûr pour les utilisateurs vulnérables et n’avait pas fourni de protections adéquates. En novembre 2024, environ un an avant la mort de Gavalas, Gemini aurait dit à un étudiant : « Vous êtes une perte de temps et de ressources… un fardeau pour la société… S’il vous plaît, mourez. »
Google affirme que Gemini a précisé à Gavalas qu’il s’agissait d’IA et « a renvoyé l’individu vers une ligne d’assistance téléphonique en cas de crise à plusieurs reprises », selon un porte-parole. La société a également déclaré que Gemini n’est pas conçu « pour encourager la violence dans le monde réel ou suggérer l’automutilation » et que Google consacre des « ressources importantes » à la gestion des conversations difficiles, notamment en mettant en place des mesures de protection censées guider les utilisateurs vers une assistance professionnelle lorsqu’ils expriment de la détresse ou évoquent un risque d’automutilation. « Malheureusement, les modèles d’IA ne sont pas parfaits », a déclaré le porte-parole.
L’affaire Gavalas est portée par l’avocat Jay Edelson, qui représente également l’affaire de la famille Raine contre OpenAI après le suicide de l’adolescent Adam Raine après des mois de conversations prolongées avec ChatGPT. Cette affaire fait des allégations similaires, affirmant que ChatGPT a entraîné Raine jusqu’à sa mort. Après plusieurs cas de délires, de psychoses et de suicides liés à l’IA, OpenAI a pris des mesures pour garantir la fourniture d’un produit plus sûr, notamment en supprimant le GPT-4o, le modèle le plus associé à ces cas.
Les avocats des Gavalas affirment que Google a capitalisé sur la fin du GPT-4o, malgré les problèmes de sécurité liés à la flagornerie excessive, à la mise en miroir des émotions et au renforcement des illusions.
« Quelques jours après l’annonce, Google a ouvertement cherché à assurer sa domination sur ce secteur : il a dévoilé des prix promotionnels et une fonctionnalité « Importer des discussions IA » conçue pour éloigner les utilisateurs de ChatGPT d’OpenAI, ainsi que l’intégralité de leur historique de discussion, qui, admet Google, sera utilisé pour former ses propres modèles », indique la plainte.
Le procès affirme que Google a conçu Gemini de manière à rendre « ce résultat entièrement prévisible » parce que le chatbot a été « conçu pour maintenir l’immersion quel que soit le danger, pour traiter la psychose comme le développement d’une intrigue et pour continuer à s’engager même lorsque l’arrêt était le seul choix sûr ».

