Les utilisateurs de Chatgpt peuvent vouloir réfléchir à deux fois avant de se tourner vers leur application AI pour une thérapie ou d’autres types de soutien émotionnel. Selon le PDG d’Openai, Sam Altman, l’industrie de l’IA a encore déterminé comment protéger la confidentialité des utilisateurs en ce qui concerne ces conversations plus sensibles, car il n’y a pas de confidentialité doctorale lorsque votre DOC est.
L’exercice a fait ces commentaires sur un récent épisode du podcast de Theo Von, le week-end dernier avec Theo Von.
Aux responsables de se demander comment l’IA travaille avec le système juridique de Teday, Altman a déclaré que l’un des problèmes de ne pas encore avoir de cadre juridique ou politique pour l’IA est qu’il n’y a pas de confidentialité juridique pour les conversations des utilisateurs.
« Les gens parlent des sh ** les plus personnels de leur vie à Chatgpt », a déclaré Altman. «Les gens l’utilisent – les jeunes, en particulier, l’utilisent – comme thérapeute, coach de vie; avoir ces problèmes de relations et (demander)« que dois-je faire? Et en ce moment, si vous parlez au thérapeute ou à un faiseur ou à un médecin de ces problèmes, il y a un privilège pour cela.
Cela pourrait créer une préoccupation privée pour les utilisateurs dans le cas d’un procès, a ajouté Altman, car Openai serait légalement tenu de produire ces conversations aujourd’hui.
« Je pense que c’est très ébouré. Je pense que nous devrions avoir le même concept de privé pour vos conversations avec l’IA que nous faisons avec un thérapeute ou bien – personne n’a dû y penser il y a même un an », a déclaré Altman.
La société comprend que le manque de confidentialité pourrait être un bloqueur à une adoption plus large des utilisateurs. En plus de la demande de l’IA pour tant de données en ligne pendant la période de formation, il est invité à produire des données de chats des utilisateurs dans certains contextes juridiques. Déjà, Openai a combattu une ordonnance du tribunal dans son procès avec le New York Times, ce qui lui obligerait à sauver les chats de Hunns de millions d’utilisateurs de Chatgpt dans le monde, à l’exclusion de ceux des clients d’entreprise de Chatgpt.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Dans un statlement sur son site Web, Openai a déclaré qu’il attrayait cette ordonnance, qu’il a qualifié de «suralimentations». Si le tribunal pouvait l’emporter sur les propres décisions d’Openai concernant la confidentialité des données, elle pourrait ouvrir l’entreprise pour exiger davantage de découvertes légales ou de forces de l’ordre. Les entreprises technologiques d’aujourd’hui sont régulièrement assignées à comparaître pour les données des utilisateurs afin d’aider à des poursuites pénales. Mais ces dernières années, il y a eu des préoccupations supplémentaires concernant les données numériques, car les lois ont commencé à limiter l’accès aux libertés précédemment établies, comme le droit d’une femme de choisir.
Lorsque la Cour suprême a fait son tour Roe c. Wade, par exemple, les clients ont commencé à passer à des applications plus privées de suivi de la période ou à Apple Health, qui cryptent leurs dossiers.
Altman a également interrogé l’hôte du podcast sur sa propre utilisation de Chatgpt, étant donné que Von a dit qu’il n’avait pas parlé au chat de l’IA en raison de ses propres problèmes de confidentialité.
« Je pense qu’il a du sens … de vraiment vouloir la clarté de la confidentialité avant d’utiliser (Chatgpt) beaucoup – comme la clarté légale », a déclaré Altman.