Jeudi, OpenAI a annoncé une nouvelle fonctionnalité appelée Trusted Contact, conçue pour alerter un tiers de confiance si des mentions d’automutilation sont exprimées au cours d’une conversation. La fonctionnalité permet à un utilisateur adulte de ChatGPT de désigner une autre personne comme contact de confiance au sein de son compte, comme un ami ou un membre de sa famille. Dans les cas où une conversation peut tourner à l’automutilation, OpenAI encouragera désormais l’utilisateur à contacter ce contact. Il envoie également une alerte automatisée au contact, l’encourageant à s’enregistrer auprès de l’utilisateur.
OpenAI a fait face à une vague de poursuites judiciaires de la part des familles de personnes qui se sont suicidées après avoir parlé avec son chatbot. Dans un certain nombre de cas, les familles affirment que ChatGPT a encouragé leur proche à se suicider – ou même l’a aidé à le planifier.
OpenAI utilise actuellement une combinaison d’automatisation et d’examen humain pour gérer les incidents potentiellement dangereux. Certains déclencheurs conversationnels alertent le système de l’entreprise en cas d’idées suicidaires, qui transmettent ensuite l’information à une équipe de sécurité humaine. L’entreprise affirme que chaque fois qu’elle reçoit ce type de notification, l’incident est examiné par un humain. « Nous nous efforçons d’examiner ces notifications de sécurité dans un délai d’une heure », déclare la société.
Si l’équipe interne d’OpenAI décide que la situation représente un risque sérieux pour la sécurité, ChatGPT envoie une alerte au contact de confiance, soit par e-mail, par SMS ou par notification dans l’application. L’alerte est conçue pour être brève et inciter le contact à prendre contact avec la personne concernée. Il ne contient pas d’informations détaillées sur ce qui a été discuté, afin de protéger la vie privée de l’utilisateur, affirme l’entreprise.

La fonctionnalité Trusted Contact suit les garanties introduites par la société en septembre dernier qui donnaient aux parents le pouvoir d’exercer une certaine surveillance sur les comptes de leurs adolescents, notamment la réception de notifications de sécurité conçues pour alerter le parent si le système d’OpenAI estime que leur enfant est confronté à un « risque sérieux pour la sécurité ». Depuis un certain temps déjà, ChatGPT inclut également des alertes automatisées pour rechercher des services de santé professionnels, si une conversation s’oriente vers le sujet de l’automutilation.
Surtout, Trust Contact est facultatif et, même si la protection est activée sur un compte particulier, n’importe quel utilisateur peut avoir plusieurs comptes ChatGPT. Les contrôles parentaux d’OpenAI sont également facultatifs, présentant une limitation similaire.
« Trusted Contact fait partie des efforts plus larges d’OpenAI visant à créer des systèmes d’IA qui aident les gens dans les moments difficiles », a écrit la société dans le message d’annonce. « Nous continuerons à travailler avec des cliniciens, des chercheurs et des décideurs politiques pour améliorer la manière dont les systèmes d’IA réagissent lorsque les personnes peuvent être en détresse. »
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

