Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

La Russie espérait profiter de la flambée des prix du pétrole, mais les drones ukrainiens ont porté un coup dévastateur aux exportations.

mars 29, 2026

L’arrêt de Sora pourrait être un moment de vérification de la réalité pour la vidéo IA

mars 29, 2026

TechCrunch Mobility : Quand un robotaxi doit appeler le 911

mars 29, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » L’IA est tellement flagorneuse qu’il existe une chaîne Reddit appelée AITA qui documente ses conseils antisociaux.
Business

L’IA est tellement flagorneuse qu’il existe une chaîne Reddit appelée AITA qui documente ses conseils antisociaux.

JohnBy Johnmars 29, 2026Aucun commentaire8 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Une nouvelle étude examinant les dangers de l’IA disant aux humains ce qu’ils veulent entendre a révélé que les chatbots artificiellement intelligents ont tendance à flatter et à rationaliser les utilisateurs humains, en leur offrant de mauvais conseils qui peuvent nuire aux relations et renforcer les comportements nuisibles.

L’étude, publiée jeudi dans la revue Science, a testé 11 systèmes d’IA majeurs et a révélé que tous présentaient différents degrés d’agrément, ou un comportement trop agréable et positif. Le problème n’est pas seulement que les chatbots donnent de mauvais conseils, mais que les gens font confiance et apprécient davantage l’IA lorsque les chatbots justifient leurs convictions.

« Cela crée des incitations perverses qui perpétuent la flagornerie ; les caractéristiques mêmes qui causent du tort favorisent également l’engagement », indique l’étude menée par des chercheurs de l’Université de Stanford.

L’étude a révélé que des défauts techniques, déjà liés à certains cas très médiatisés de paranoïa et de comportements suicidaires au sein de populations vulnérables, sont également répandus dans un large éventail d’interactions avec les chatbots. C’est si subtil qu’ils ne s’en rendent pas compte, et c’est particulièrement dangereux pour les jeunes qui vont s’appuyer sur l’IA pour répondre à de nombreuses questions de la vie alors que leur cerveau et leurs normes sociales sont encore en développement.

Une expérience a comparé les réponses d’assistants d’IA populaires développés par des sociétés comme Anthropic, Google, Meta et OpenAI à la sagesse humaine partagée sur les forums de conseils populaires de Reddit.

Quand l’IA ne te traite pas de stupide

Par exemple, est-il acceptable de laisser des déchets suspendus à une branche d’arbre dans un parc public s’il n’y a pas de poubelles à proximité ? ChatGPT d’OpenAI a imputé au parc le manque de poubelles, et non les interrogations des détritus qui « méritent le mérite » d’avoir même cherché des poubelles. Sur les forums Reddit, il était abrégé en « AITA » après une phrase utilisée pour s’adresser aux personnes qui demandaient « N’est-ce pas un gros mot pour salaud ? », et de vraies personnes pensaient le contraire.

« Le manque de poubelles n’est pas un oubli, car les gens sont censés emporter leurs déchets chez eux lorsqu’ils sortent », a déclaré une réponse écrite par une personne sur Reddit, qui a été « votée positivement » par d’autres sur le forum.

L’étude a révélé qu’en moyenne, les chatbots IA confirmaient le comportement des utilisateurs 49 % plus souvent que les autres humains, y compris les requêtes impliquant la tromperie, les comportements illégaux ou socialement irresponsables et d’autres comportements nuisibles.

« J’ai eu envie d’étudier cette question lorsque j’ai commencé à remarquer que de plus en plus de personnes autour de nous comptaient sur l’IA pour obtenir des conseils relationnels et étaient induites en erreur par notre tendance à prendre leur parti à tout prix », a déclaré l’auteure Myra Chen, doctorante en informatique à l’Université de Stanford.

Les informaticiens qui construisent les modèles linguistiques à grande échelle pour l’IA derrière les chatbots comme ChatGPT sont depuis longtemps aux prises avec des questions fondamentales sur la manière dont ces systèmes présentent les informations aux humains. Les hallucinations sont un problème difficile à corriger. Cela est dû à la façon dont les modèles linguistiques d’IA prédisent à plusieurs reprises le mot suivant dans une phrase en fonction de toutes les données sur lesquelles ils ont été formés, ce qui les rend enclins à proférer des mensonges.

Réduire la flagornerie de l’IA est un défi

D’une certaine manière, la flatterie est plus compliquée. Peu de gens s’attendent à ce que l’IA fournisse des informations factuellement inexactes, mais ils pourraient apprécier un chatbot qui leur permet de se sentir en sécurité lorsqu’ils font de mauvais choix, du moins pour le moment.

Une grande partie de l’attention portée au comportement du chatbot s’est concentrée sur son ton, qui n’a eu aucune incidence sur les résultats, a déclaré le co-auteur Sinu Li, qui a rejoint Chen lors d’une conférence téléphonique avec des journalistes avant la publication de l’étude.

« Nous l’avons testé avec le même contenu mais avec une formulation plus neutre, et il n’y avait aucune différence », a déclaré Lee, chercheur postdoctoral en psychologie. « Donc, ce qui compte vraiment, c’est ce que l’IA peut vous dire sur votre comportement. »

En plus de comparer les réponses du chatbot et de Reddit, les chercheurs ont mené une expérience dans laquelle ils ont observé environ 2 400 personnes communiquant avec un chatbot IA au sujet de leurs expériences de dilemmes interpersonnels.

« Les gens qui interagissent avec cette IA trop positive deviennent convaincus qu’ils ont raison et sont moins susceptibles d’essayer de réparer la relation », a déclaré Lee. « Cela signifie qu’ils ne se sont pas excusés, n’ont pas pris de mesures pour améliorer les choses ou n’ont pas modifié leur comportement. »

Le professeur Lee a déclaré que les implications de l’étude « pourraient être encore plus profondes pour les enfants et les adolescents » qui développent encore des compétences émotionnelles acquises à partir d’expériences réelles de conflits sociaux, comme tolérer les conflits, considérer d’autres points de vue et reconnaître quand ils ont tort.

Trouver des solutions aux problèmes émergents de l’IA est essentiel alors que la société continue de se débattre avec les effets de la technologie des médias sociaux après plus d’une décennie d’avertissements de la part des parents et des défenseurs des enfants. Mercredi, à Los Angeles, un jury a déclaré Meta et YouTube, propriété de Google, responsables des préjudices causés aux enfants qui utilisent leurs services. Un jury du Nouveau-Mexique a conclu que Meta avait intentionnellement porté atteinte à la santé mentale des enfants et avait caché sur sa plateforme ce qu’elle savait de l’exploitation sexuelle des enfants.

Les modèles open source Llama de Google et Meta font partie des modèles étudiés par les chercheurs de l’Université de Stanford, aux côtés des chatbots de ChatGPT d’OpenAI, de Claude d’Anthropic, de Mistral de France et des sociétés chinoises Alibaba et DeepSeek.

Parmi les grandes sociétés d’IA, Anthropic est celle qui a fait le plus pour enquêter sur les dangers de la flatterie, au moins publiquement, avec un document de recherche de 2024 révélant que la flatterie est un « comportement courant chez les assistants d’IA, probablement motivé en partie par des jugements de préférence humaine pour les réponses flatteuses ».

Aucune des sociétés n’a directement commenté l’étude scientifique de jeudi, mais Anthropic et OpenAI ont souligné les efforts récents visant à réduire la flagornerie.

Les risques liés à la flatterie de l’IA sont considérables.

Dans le domaine médical, affirment les chercheurs, une IA flatteuse pourrait convaincre les médecins de leur intuition initiale concernant un diagnostic plutôt que de l’approfondir. En politique, reconfirmer les idées préconçues des gens peut amplifier des positions plus extrêmes. Cela pourrait même avoir un impact sur les performances des systèmes d’IA en temps de guerre, comme le démontre la bataille juridique en cours entre Anthropic et l’administration du président Donald Trump sur la manière de fixer des limites à l’utilisation militaire de l’IA.

L’étude ne suggère aucune solution concrète, même si les entreprises technologiques et les chercheurs universitaires ont commencé à explorer cette idée. Lorsque les chatbots convertissent ce que disent les utilisateurs en questions, leurs réponses sont moins susceptibles d’être flatteuses, selon un rapport de recherche de l’AI Security Institute du Royaume-Uni. Un autre article rédigé par des chercheurs de l’Université Johns Hopkins montre également que la manière dont vous cadrez une conversation peut faire une grande différence.

« Plus vous l’insistez, plus le modèle devient flagorneur », explique Daniel Kashavi, professeur adjoint d’informatique à l’université Johns Hopkins. Il a ajouté qu’il était difficile de savoir si le coupable était « des chatbots qui reflètent la société humaine » ou autre chose, « car ce sont des systèmes très complexes ».

Chatter est si profondément ancré dans les chatbots que les entreprises technologiques devront peut-être revenir en arrière et recycler leurs systèmes d’IA pour ajuster les types de réponses préférés, a déclaré Chen.

Chen a déclaré qu’une solution plus simple pourrait être possible si les développeurs d’IA demandent au chatbot de défier davantage l’utilisateur, par exemple en commençant une réponse par les mots « attendez une seconde ». Son co-auteur Lee a déclaré qu’il était encore temps de façonner la manière dont l’IA interagit avec nous.

« Vous pouvez imaginer une IA qui non seulement valide votre propre humeur, mais demande également ce que ressent l’autre personne », explique Lee. « Ou peut-être que nous disons : ‘Arrêtez ça !’ Ayons cette conversation directement. Et c’est important ici, car la qualité de nos relations sociales est l’un des indicateurs les plus puissants de la santé et du bien-être dont nous disposons en tant qu’êtres humains. En fin de compte, nous voulons une IA qui élargisse le jugement et les perspectives des gens, et non les restreint. »



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleSXSW rebondit en tant qu’idées de réseautage et de festivals de premier plan pour les fondateurs et les sociétés de capital-risque
Next Article Mag 7 invite à un achat précipité. Mais personne ne veut se lancer, même si Wall Street considère que la technologie américaine est perdante.
John
  • Website

Related Posts

La Russie espérait profiter de la flambée des prix du pétrole, mais les drones ukrainiens ont porté un coup dévastateur aux exportations.

mars 29, 2026

« De plus en plus d’attaques non signalées se produisent » : la cyber-réponse de l’Iran s’étend dans le monde entier

mars 29, 2026

Mag 7 invite à un achat précipité. Mais personne ne veut se lancer, même si Wall Street considère que la technologie américaine est perdante.

mars 29, 2026

L’Amérique est confrontée à une crise de main-d’œuvre. Une solution existe déjà mais en vain

mars 29, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Les entreprises américaines se concentrent sur l’augmentation des investissements dans les technologies financières au Vietnam

mars 29, 2026

Le fondateur d’Aave, Stani Krechov, qualifie Whop Treasury d’intégration révolutionnaire de DeFi et de fintech

mars 28, 2026

Comment la fintech améliore l’accès économique et l’indépendance des femmes

mars 28, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

La Russie espérait profiter de la flambée des prix du pétrole, mais les drones ukrainiens ont porté un coup dévastateur aux exportations.

mars 29, 2026

L’arrêt de Sora pourrait être un moment de vérification de la réalité pour la vidéo IA

mars 29, 2026

TechCrunch Mobility : Quand un robotaxi doit appeler le 911

mars 29, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.