Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Anthropic dit que la plupart des modèles d’IA, pas seulement Claude, auront recours au chantage

juin 20, 2025

Le laboratoire d’institution de pensée de Mira Murati d’une valeur de 10 milliards de dollars après 2 milliards de dollars de financement

juin 20, 2025

La Réserve fédérale commencera à se séparer lorsque nous réduirons nos baisses de taux d’intérêt

juin 20, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » X Les utilisateurs traitant Grok comme un vérificateur de vérification des faits concernant les préoccupations concernant la désinformation
Startups

X Les utilisateurs traitant Grok comme un vérificateur de vérification des faits concernant les préoccupations concernant la désinformation

JohnBy Johnmars 19, 2025Aucun commentaire6 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Certains utilisateurs de X d’Elon Musk se tournent vers la botte AI de Musk pour la vérification des faits, ce qui soulève des préoccupations parmi les vérifications des faits humains que cela pourrait alimenter la désinformation.

Plus tôt ce mois-ci, X a permis aux utilisateurs d’appeler Grok de Xai et de poser des questions sur différents. Cette décision était similaire à Perplexity, qui a exécuté un compte automatisé sur X pour offrir une expérience similaire.

Peu de temps après que Xai ait créé le compte automatisé de Grok sur X, les utilisateurs ont commencé à expérimenter pour lui poser des questions. Certaines personnes sur les marchés, dont l’Inde, ont commencé à demander à Grok de vérifier les faits et les questions qui ciblent des convictions politiques spécifiques.

Les vérificateurs de faits sont préoccupés par l’utilisation de Grok ou tout autre assistant AI de l’IA de ce type de cette manière parce que les bots peuvent encadrer leurs réponses à un son convaincant, même s’ils ne sont pas corrects. Des exemples de fausses nouvelles et de désinformation ont été vus avec Grok dans le passé.

En août de l’année dernière, cinq sécrétions d’État ont exhorté Musk à impressionner les changements critiques à Grok après que les informations trompeuses générées par l’assistant ont fait surface sur les réseaux sociaux avant les élections américaines.

D’autres chatbots, comprenaient le chatppt d’Openai et les Gémeaux de Google, ont également été considérés comme des informations inexactes sur l’élection l’année dernière. Par ailleurs, les chercheurs en désinformation ont constaté en 2023 que les chatbots de l’IA incluaient le chatppt pouvaient facilement être utilisés pour produire du texte convaincant avec un récit trompeur.

« Les assistants de l’IA, comme Grok, ils sont vraiment doués pour utiliser le langage naturel et donner une réponse qui ressemble à un être humain le dit. Et de cette façon, les produits d’IA ont cette affirmation sur le naturel et les stations de sondage authentiques, même lorsqu’ils sont potentialisés très erronés.

Un utilisateur a demandé à X pour vérifier les affirmations des réclamations faites par un autre utilisateur

Contrairement aux assistants de l’IA, les vérificateurs de faits humains utilisent plusieurs sources crédibles pour vérifier les informations. Ils assument également une pleine responsabilité pour leurs conclusions, avec leurs noms et organisations attachés pour assurer la crédibilité.

Pratik Sinha, co-fondateur du site Web de vérification non professionnel de l’Inde, Alt News, a déclaré que bien que Grok semble actuellement avoir des réponses convaincantes, elle est aussi bonne que les données avec lesquelles elle est fournie.

« Qui va décider quelles données elles sont fournies, et c’est là que les interférences du gouvernement, etc., prendront la photo », a-t-il noté.

« Il n’y a pas de transparence. Tout ce qui manque de transparence causera des dommages car tout ce qui manque de transparence peut être moulé de n’importe quelle manière. »

« Pourrait être utilisé à mauvais escient – pour répandre la désinformation »

Dans l’une des réponses publiées plus tôt cette semaine, le compte de Grok sur X a reconnu qu’il «pourrait être utilisé à mauvais escient – pour répandre la désinformation et violer la vie privée».

Cependant, le compte automatisé ne montre aucun avertissement aux utilisateurs lorsqu’ils obtiennent ses réponses, les conduisant à être mal informés s’il a, par exemple, halluciné la réponse, ce qui est le potentiel Disad IA.

La réponse de Grok sur WHSTROR, il peut répandre une désinformation (traduite de Hinglish)

« Il peut constituer des informations à fournir », a déclaré à TechCrunch, Anushka Jain, associée de recherche au Labrunk Multidisciplinary Digital Futures Lab, à TechCrunch.

Il y a aussi une question sur la quantité de GROK utilise des publications sur X comme données de formation, et quelles mesures de contrôle de la qualité qu’il utilise pour vérifier ces articles. L’été dernier, il a repoussé un changement qui semble permettre à Grok de consommer les données utilisateur x par défaut.

L’autre domaine concernant les possités d’IA comme Grok étant accessible via les plateformes de médias sociaux est leur livraison d’informations en public – contrairement à Chatgpt ou à d’autres chatbots utilisés en privé.

Même si un utilisateur est bien conscient que les informations qu’elle obtiennent de l’assistant pourrait être trompeuse ou pas très bien, d’autres sur la plate-forme pourraient toujours le croire.

Cela pourrait causer de graves dommages sociaux. Des cas de celle-ci ont été vus plus tôt en Inde lorsque la désinformation a circulé sur WhatsApp a conduit à des lynchages de la foule. Cependant, ces incidents graves se sont produits avant l’arrivée du Genai, ce qui a rendu la génération de contenu synthétique encore plus facile et semble plus réaliste.

«Si vous voyez beaucoup de ces réponses Grok, vous allez dire, hé, eh bien, la plupart sont raison, et c’est peut-être ainsi, mais il y en a pour certains qui sont faux. Et combien? Ce n’est pas une petite fraction.

AI par rapport aux véritables vérifications des faits

Bien que les sociétés d’IA incluent que XAI affine leurs modèles d’IA pour rendre la communication plus comme les humains, elles ne sont toujours pas – et ne peuvent pas – remplacer les humains.

Au cours des derniers mois, les entreprises technologiques explorent des moyens de réduire la dépendance à l’égard des vérifications des faits humains. Des plates-formes telles que X et Meta ont commencé à adopter le nouveau concept de vérification des faits sur le crowdsource grâce à des notes dits communautaires.

Naturellement, de tels modifications suscitent également la préoccupation de faire des vérificateurs.

Sinha of Alt News croit de manière optimiste que les gens apprendront à différencier les machines et les vérificateurs de faits humains et apprécieront davantage la précision des humains.

« Nous allons voir le pendule qui a le dossier de la vérification des faits », a déclaré Holan de l’IFCN.

Cependant, elle a noté qu’en attendant, les vérificateurs de faits auront probablement plus de travail à faire avec les informations sur les légumes AI-Gehede se propageant rapidement.

« Une grande partie de ce problème dépend, vous souciez-vous vraiment de ce qui est réellement vrai ou non? Cherchez-vous simplement le placage de quelque chose qui sonne et se sent vrai sans être réellement vrai? Parce que c’est ce que l’assistance à l’IA vous mènera », a-t-elle déclaré.

X et Xai n’ont pas répondu à comment.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleSequoia Shutters DC Office, lâchons l’équipe politique
Next Article Technologie aux banques: le boom des données de la Thaïlande invite les géants mondiaux
John
  • Website

Related Posts

Anthropic dit que la plupart des modèles d’IA, pas seulement Claude, auront recours au chantage

juin 20, 2025

Snap a acquis Saturn, une application de calendrier social pour les étudiants du secondaire et du collège

juin 20, 2025

Les startups sortant de la scène de la micromobilité en phase de première étape européenne

juin 20, 2025

X codes d’application sur une carte physique à venir

juin 20, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Développement des compétences La fintech irlandaise nécessite une croissance et une concurrence

juin 20, 2025

L’IA Challenge Technode relie les talents fintech au premier plan de la finance

juin 19, 2025

Fichier de connexion IPO Micro Connection de la plate-forme fintech du PDG de l’ancien PDG HK

juin 19, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Anthropic dit que la plupart des modèles d’IA, pas seulement Claude, auront recours au chantage

juin 20, 2025

Le laboratoire d’institution de pensée de Mira Murati d’une valeur de 10 milliards de dollars après 2 milliards de dollars de financement

juin 20, 2025

La Réserve fédérale commencera à se séparer lorsque nous réduirons nos baisses de taux d’intérêt

juin 20, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.