Certains utilisateurs de X d’Elon Musk se tournent vers la botte AI de Musk pour la vérification des faits, ce qui soulève des préoccupations parmi les vérifications des faits humains que cela pourrait alimenter la désinformation.
Plus tôt ce mois-ci, X a permis aux utilisateurs d’appeler Grok de Xai et de poser des questions sur différents. Cette décision était similaire à Perplexity, qui a exécuté un compte automatisé sur X pour offrir une expérience similaire.
Peu de temps après que Xai ait créé le compte automatisé de Grok sur X, les utilisateurs ont commencé à expérimenter pour lui poser des questions. Certaines personnes sur les marchés, dont l’Inde, ont commencé à demander à Grok de vérifier les faits et les questions qui ciblent des convictions politiques spécifiques.
Les vérificateurs de faits sont préoccupés par l’utilisation de Grok ou tout autre assistant AI de l’IA de ce type de cette manière parce que les bots peuvent encadrer leurs réponses à un son convaincant, même s’ils ne sont pas corrects. Des exemples de fausses nouvelles et de désinformation ont été vus avec Grok dans le passé.
En août de l’année dernière, cinq sécrétions d’État ont exhorté Musk à impressionner les changements critiques à Grok après que les informations trompeuses générées par l’assistant ont fait surface sur les réseaux sociaux avant les élections américaines.
D’autres chatbots, comprenaient le chatppt d’Openai et les Gémeaux de Google, ont également été considérés comme des informations inexactes sur l’élection l’année dernière. Par ailleurs, les chercheurs en désinformation ont constaté en 2023 que les chatbots de l’IA incluaient le chatppt pouvaient facilement être utilisés pour produire du texte convaincant avec un récit trompeur.
« Les assistants de l’IA, comme Grok, ils sont vraiment doués pour utiliser le langage naturel et donner une réponse qui ressemble à un être humain le dit. Et de cette façon, les produits d’IA ont cette affirmation sur le naturel et les stations de sondage authentiques, même lorsqu’ils sont potentialisés très erronés.

Contrairement aux assistants de l’IA, les vérificateurs de faits humains utilisent plusieurs sources crédibles pour vérifier les informations. Ils assument également une pleine responsabilité pour leurs conclusions, avec leurs noms et organisations attachés pour assurer la crédibilité.
Pratik Sinha, co-fondateur du site Web de vérification non professionnel de l’Inde, Alt News, a déclaré que bien que Grok semble actuellement avoir des réponses convaincantes, elle est aussi bonne que les données avec lesquelles elle est fournie.
« Qui va décider quelles données elles sont fournies, et c’est là que les interférences du gouvernement, etc., prendront la photo », a-t-il noté.
« Il n’y a pas de transparence. Tout ce qui manque de transparence causera des dommages car tout ce qui manque de transparence peut être moulé de n’importe quelle manière. »
« Pourrait être utilisé à mauvais escient – pour répandre la désinformation »
Dans l’une des réponses publiées plus tôt cette semaine, le compte de Grok sur X a reconnu qu’il «pourrait être utilisé à mauvais escient – pour répandre la désinformation et violer la vie privée».
Cependant, le compte automatisé ne montre aucun avertissement aux utilisateurs lorsqu’ils obtiennent ses réponses, les conduisant à être mal informés s’il a, par exemple, halluciné la réponse, ce qui est le potentiel Disad IA.

« Il peut constituer des informations à fournir », a déclaré à TechCrunch, Anushka Jain, associée de recherche au Labrunk Multidisciplinary Digital Futures Lab, à TechCrunch.
Il y a aussi une question sur la quantité de GROK utilise des publications sur X comme données de formation, et quelles mesures de contrôle de la qualité qu’il utilise pour vérifier ces articles. L’été dernier, il a repoussé un changement qui semble permettre à Grok de consommer les données utilisateur x par défaut.
L’autre domaine concernant les possités d’IA comme Grok étant accessible via les plateformes de médias sociaux est leur livraison d’informations en public – contrairement à Chatgpt ou à d’autres chatbots utilisés en privé.
Même si un utilisateur est bien conscient que les informations qu’elle obtiennent de l’assistant pourrait être trompeuse ou pas très bien, d’autres sur la plate-forme pourraient toujours le croire.
Cela pourrait causer de graves dommages sociaux. Des cas de celle-ci ont été vus plus tôt en Inde lorsque la désinformation a circulé sur WhatsApp a conduit à des lynchages de la foule. Cependant, ces incidents graves se sont produits avant l’arrivée du Genai, ce qui a rendu la génération de contenu synthétique encore plus facile et semble plus réaliste.
«Si vous voyez beaucoup de ces réponses Grok, vous allez dire, hé, eh bien, la plupart sont raison, et c’est peut-être ainsi, mais il y en a pour certains qui sont faux. Et combien? Ce n’est pas une petite fraction.
AI par rapport aux véritables vérifications des faits
Bien que les sociétés d’IA incluent que XAI affine leurs modèles d’IA pour rendre la communication plus comme les humains, elles ne sont toujours pas – et ne peuvent pas – remplacer les humains.
Au cours des derniers mois, les entreprises technologiques explorent des moyens de réduire la dépendance à l’égard des vérifications des faits humains. Des plates-formes telles que X et Meta ont commencé à adopter le nouveau concept de vérification des faits sur le crowdsource grâce à des notes dits communautaires.
Naturellement, de tels modifications suscitent également la préoccupation de faire des vérificateurs.
Sinha of Alt News croit de manière optimiste que les gens apprendront à différencier les machines et les vérificateurs de faits humains et apprécieront davantage la précision des humains.
« Nous allons voir le pendule qui a le dossier de la vérification des faits », a déclaré Holan de l’IFCN.
Cependant, elle a noté qu’en attendant, les vérificateurs de faits auront probablement plus de travail à faire avec les informations sur les légumes AI-Gehede se propageant rapidement.
« Une grande partie de ce problème dépend, vous souciez-vous vraiment de ce qui est réellement vrai ou non? Cherchez-vous simplement le placage de quelque chose qui sonne et se sent vrai sans être réellement vrai? Parce que c’est ce que l’assistance à l’IA vous mènera », a-t-elle déclaré.
X et Xai n’ont pas répondu à comment.