Alors que nos vies deviennent de plus en plus numériques et que nous passons plus de temps à interagir avec des chatbots étrangement humains, la frontière entre la connexion humaine et la simulation de machine commence à se brouiller.
Aujourd’hui, plus de 20% des Daters rapportent en utilisant l’IA pour des choses comme la fabrication de profils de rencontres ou les conversations étincelantes, selon une récente étude Match.com. Certains le font trop davantage en formant des liens émotionnels, comprenant des relations amoureuses, avec des compagnons.
Des millions de personnes suscitent le monde utilise des compagnons d’IA de sociétés comme Relima, Character IA et NOMI IA, comprenait 72% des adolescents américains. Certaines personnes ont déclaré être tombées amoureuses de LLM plus généraux comme Chatgpt.
Pour certains, la tendance de la datation des robots est dystopique et malsaine, une version réelle du film «Her» et un signal que l’amour authentique est remplacé par le code d’une entreprise technologique. Pour d’autres, les compagnons de l’IA sont une bouée de sauvetage, un moyen de se sentir vu et soutenu dans un monde où l’intimité humaine est de plus en plus difficile à trouver. Une étude récente a révélé qu’un quart des jeunes adultes pensent que les relations d’IA pourraient bientôt remplacer les relations humaines.
L’amour, semble-t-il, n’est pas strictement humain. La question est: cela devrait-il être? Ou sortir avec une Ai Beter que sortir ensemble en humain?
C’était le sujet de discussion le mois dernier dans un élément que j’attendais à New York, organisé par Open to Debate, une organisation médiatique non partisane et axée sur les débats. TechCrunch a reçu un accès exclusif pour publier la vidéo complète (qui m’a inclus pour poser une question aux débatteurs, car je dois signaler, et je ne peux pas aider Myyself!).
Le journaliste et cinéaste Nayema Raza a modéré le débat. Raza formait le produit exécutif à l’antenne du podcast «ON With Kara Swisther» et est l’hôte actuel de «Smart Girl Dumb».
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Le frappeur pour les compagnons de l’IA était Thao Ha, professeur agrégé de psychologie à l’Arizona State University et co-fondateur du Modern Love Collective, où elle défend des technologies qui améliorent notre capacité d’amour, d’empathie et de bien-être. Lors du débat, elle a fait valoir que «l’IA est une nouvelle forme de connexion passionnante… pas une menace pour l’amour, mais une évolution de celui-ci».
REPPING THE HUMAL CONNECTION était Justin Garcia, directeur exécutif et scientifique principal au Kinsey Institute, et en chef Scientific Advis à Match.com. Il est un biologiste évolutif axé sur la science du sexe et des relations, et son prochain livre s’intitule «The Animal Intimatus».
Vous pouvez regarder le tout ici, mais lire pour avoir une idée des arguments de la main.
Toujours là pour vous, mais est-ce une bonne chose?
Ha dit que les compagnons d’IA peuvent fournir aux gens le soutien et la validation émotionnels qui peuvent ne pas avoir leurs relations humaines.
« L’IA vous écoute sans son ego », a déclaré Ha. «Cela s’adapte dans le jugement. Il apprend à aimer d’une manière cohérente, réactive et peut-être même plus sûre. Il vous comprend d’une manière que personne n’a jamais. Il est assez curieux de vos pensées, cela peut vous faire rire, et cela peut même vous surprendre avec un poème. Les gens se sentent généralement aimés par leur IA.
Elle a demandé au public de comparer ce niveau de toujours faire attention à «votre ex tombant ou peut-être votre partenaire actuel».
« Celui qui soupire quand vous commencez à parler, ou celui qui dit: » J’écoute « sans regarder pendant qu’ils continuent de faire défiler sur leur téléphone », a-t-elle déclaré. «À quand remonte la dernière fois qu’ils vous ont demandé comment ça va, ce que vous ressentez, ce que vous pensez?»
Ha a concédé que Sincen a Ai n’a pas de consommateur, elle ne prétend pas que «l’IA peut nous aimer authentiquement». Cela ne signifie pas que les gens n’ont pas l’expérience d’être aimé par l’IA.
Garcia a contré qu’il n’est pas bon que les humains aient une validation et une attention constantes, de s’appuyer sur la machine qui a été invite à répondre d’une manière que vous aimez. Ce n’est pas «un indicateur honnête d’une dynamique relationnelle», a-t-il soutenu.
«Cette idée que l’IA va remplacer les hauts et les bas et le désordre des relations dont nous avons envie? Je ne le pense pas.»
Roues de formation ou remplacement
Garcia Note Les compagnons AI peuvent être de bonnes roues d’entraînement pour certaines personnes, comme les personnes neurodivergentes, qui pourraient avoir de l’anxiété à l’idée de prendre des dates et doivent pratiquer comment flirter ou résoudre les conflits.
« Je pense que nous nous utilise comme un outil pour développer des compétences, oui … cela peut être très utile pour beaucoup de gens », a déclaré Garcia. « L’idée que cela devient les modèles de relations permanentes? Non. »
Selon une étude Match.com Singles in America, publiée en juin, près de 70% des personnes disent qu’elles considéreraient l’infidaly si leur partenaire embauchait avec une IA.
« Maintenant, je pense que d’une part, cela va au point (HA), que les gens disent que ce sont de vraies relations », a-t-il déclaré. « D’un autre côté, cela va sur mon point, qu’ils sont des menaces pour nos relations. Et l’animal humain ne tolère pas les menaces à leurs relations à long terme. »
Comment pouvez-vous aimer quelque chose en qui vous ne pouvez pas faire confiance?
Garcia dit que la confiance est la partie la plus importante de toutes les relations humaines et des personnes en qui vous faites confiance.
« Selon un récent sondage, un tiers des Américains pensent qu’une IA détruira l’humanité », a déclaré Garcia, notant qu’un récent sondage Yougo a révélé que 65% des Américains ont peu de confiance dans une IA pour prendre des décisions éthiques.
« Un peu de risque peut être excitant pour une relation à court terme, un stand à un-guht, mais vous voulez généralement vous réveiller à quelqu’un qui, selon vous, pourrait vous tuer ou détruire la société », a déclaré Garcia. «Nous ne pouvons pas prospérer avec une personne ou une organisation ou une botte en qui nous ne faisons pas confiance.»
Ha a contré que les gens ont tendance à faire confiance à leurs compagnons d’IA d’une manière similaire aux relations humaines.
« Ils y font confiance avec leur vie et leurs histoires et émotions les plus intimes qu’ils ont », a déclaré Ha. «Je pense que sur un niveau pratique, l’IA ne vous sauvera pas pour le moment?
Touche physique et sexualité
Les compagnons d’IA peuvent être un excellent moyen pour les gens de jouer leurs fantasmes sexuels les plus intimes et vulnérables, a déclaré Ha, notant que les gens peuvent utiliser des jouets sexuels ou des robots pour voir certains de ces fantasmes.
Mais ce n’est pas un substitut à la touche humaine, que Garcia dit que nous sommes biologiques que nous avons besoin et que nous voulons. Il a noté qu’en raison de l’ère numérique isolée dans laquelle nous nous sommes, beaucoup de gens ont ressenti une «famine de toucher» – à condition qui se produit lorsque vous donnez autant de toucher physique que vous avez besoin, ce qui peut provoquer du stress, de l’anxiété et de la dépression. En effet, s’engager dans une touche agréable, comme un câlin, fait libérer votre cerveau de l’ocytocine, une hormone de bien-être.
Ha a déclaré qu’elle a testé des couples de touche humaine dans la réalité virtuelle en utilisant d’autres outils, comme des combinaisons potentialytes.
« Le potentiel du toucher en VR et également lié à l’IA est énorme », a déclaré Ha. «Les technologies tactiles qui sont développées sont en plein essor.»
Le côté obscur de la fantaisie
La violence entre partenaires intimes est un problème dans le monde entier, et une grande partie de l’IA est formée à cette violence. Ha et Garcia ont convenu que l’IA pourrait être un problème dans le problème, par exemple, en amplifiant les comportements agressifs – surtout si c’est un fantasme que quelqu’un joue avec son IA.
Ce qui concerne n’est pas infondé. Plusieurs études ont montré que les hommes qui regardent plus de pornographie, qui peuvent inclure des relations sexuelles violentes et agressives, sont plus susceptibles d’être agressives sexuellement avec des partenaires réels.
« Le travail de l’un de mes collègues de l’Institut Kinsey, Ellen Kaufman, a examiné ce problème exact de la langue du consentement et comment les gens peuvent former leurs chatbots pour amplifier le langage non consensuel », a déclaré Garcia.
Il a noté que les gens utilisent des compagnons d’IA pour vivre avec les bons et les mauvais, mais le fil est que vous pouvez finir par former des gens sur la façon d’être des partenaires agressifs et non consensuels.
« Nous en avons assez dans la société », a-t-il déclaré.
HA pense que ces risques peuvent être atténués avec une régulation réfléchie, des algorithmes transparents et une conception éthique.
De race, elle a fait qu’avant la libération de la Maison Blanche son plan d’action AI, qui ne dit rien sur la transparence – à laquelle de nombreuses entreprises de l’IA frontalière sont contre – ou de l’éthique. Le plan vise également à éliminer beaucoup de réglementations entourées.