La plate-forme sociale X pilote une fonctionnalité qui permet aux chatbots d’IA de générer des notes communautaires.
Community Notes est une fonctionnalité de l’ère Twitter qu’Elon Musk a élargi sous son propre serrship du service, maintenant appelé X. Les utilisateurs qui font partie de ce programme de vérification des faits peuvent apporter des commentaires qui ajoutent du contexte à certains publications, qui sont ensuite vérifiées par d’autres avant le message. Une note communautaire peut apparaître, par exemple, sur un poste d’une vidéo générée par l’IA qui n’est pas claire sur ses origines synthétiques, ou comme addendum à un article trompeur d’un politicien.
Les notes deviennent publiques lorsqu’ils parviennent à un consensus entre des groupes qui étaient historiquement en désaccord sur les notes passées.
Les notes de la communauté ont été suffisamment réussies sur X pour inspirer Meta, Tiktok et YouTube à poursuivre des initiatives similaires, Meta a éliminé ses programmes de vérification des faits tiers en échange de ce travail à faible coût et à la communauté.
Mais il reste à être si l’utilisation de chatbots AA comme vérificateurs de faits sera utile ou nuisible.
Ces notes d’IA peuvent être générées à l’aide de Grok de X ou en utilisant d’autres outils d’IA et en les connectant à X via une API. Toute note selon laquelle une soumission d’IA sera traitée de la même manière qu’une note soumise par une personne, ce qui signifie qu’elle passera par le même processus de vérification pour encourager la précision.
L’utilisation de l’IA dans la vérification des faits semble douteuse, compte tenu de la fréquence pour les AIS pour halluciner, ou constituer un contexte qui n’est pas basé dans la réalité.
Selon le document publié cette semaine par des chercheurs travaillant sur des notes de communauté X, il est recommandé que les humains et les LLM travaillent en tandem. La rétroaction humaine peut améliorer la génération de notes d’IA par l’apprentissage du renforcement, les évaluateurs de notes humaines restant comme vérification finale avant la publication des notes.
« L’objectif n’est pas de créer une AI AI Ai AI Ai dit aux utilisateurs quoi penser, mais de construire un écosystème qui permet de penser plus critique et de mieux comprendre le monde », dit le journal. «Les LLM et les humains peuvent travailler ensemble dans une boucle vertueuse.»
Même avec des chèques humains, il y a toujours un risque de compter trop sur une IA, en particulier les utilisateurs de Salece pourront intégrer les LLM à partir de troisième parties. Le Chatgpt d’Openai, par exemple, a récemment connu des problèmes avec un modèle trop sycophantique. Si un LLM priorise la «l’aide» sur la réalisation avec précision d’une vérification des faits, les commentaires générés par l’AI-AI peuvent finir par être à plat inexact.
Il est également à craindre que les évaluateurs humains soient surchargés par le montant des commentaires générés par l’AI, ce qui réduit leur motivation pour terminer correctement ce travail bénévole.
Les utilisateurs ne devraient pas s’attendre à voir les notes de la communauté générée par l’AI-X prévoyant de tester les contributions de l’IA pendant quelques semaines avant de les déployer plus largement s’ils réussissent.