Un utilisateur de Reddit prétendant être un lanceur d’alerte provenant d’une application de livraison de nourriture a été dénoncé comme un faux. L’utilisateur a écrit un message viral alléguant que l’entreprise pour laquelle il travaillait exploitait ses chauffeurs et ses utilisateurs.
« Vous soupçonnez toujours que les algorithmes sont truqués contre vous, mais la réalité est en réalité bien plus déprimante que les théories du complot », a écrit le soi-disant lanceur d’alerte.
Il a affirmé qu’il était ivre et qu’il se trouvait à la bibliothèque pour utiliser le Wi-Fi public, où il tapait ce long discours sur la manière dont l’entreprise exploitait les failles juridiques pour voler en toute impunité les pourboires et les salaires des chauffeurs.
Ces affirmations étaient malheureusement crédibles : DoorDash a en fait été poursuivi pour avoir volé des pourboires aux conducteurs, ce qui a abouti à un règlement de 16,75 millions de dollars. Mais dans ce cas précis, l’affiche avait inventé son histoire.
Les gens mentent tout le temps sur Internet. Mais il n’est pas si courant que de tels messages apparaissent en première page de Reddit, recueillent plus de 87 000 votes positifs et soient publiés sur d’autres plateformes comme X, où ils ont obtenu 208 000 likes supplémentaires et 36,8 millions d’impressions.
Casey Newton, le journaliste derrière Platformer, a écrit qu’il avait contacté l’affiche de Reddit, qui l’avait ensuite contacté sur Signal. Le Redditor a partagé ce qui ressemblait à une photo de son badge d’employé UberEats, ainsi qu’un « document interne » de dix-huit pages décrivant l’utilisation de l’IA par l’entreprise pour déterminer le « score de désespoir » de chaque conducteur. Mais alors que Newton essayait de vérifier que le récit du lanceur d’alerte était légitime, il s’est rendu compte qu’il était victime d’un canular d’IA.
« Pendant la majeure partie de ma carrière jusqu’à présent, le document partagé avec moi par le lanceur d’alerte aurait semblé hautement crédible, en grande partie parce qu’il aurait fallu beaucoup de temps pour le rassembler », a écrit Newton. « Qui prendrait le temps de rédiger un document technique détaillé de 18 pages sur la dynamique du marché juste pour troller un journaliste ? Qui se donnerait la peine de créer un faux badge ? »
Événement Techcrunch
San Francisco
|
13-15 octobre 2026
Il y a toujours eu de mauvais acteurs cherchant à tromper les journalistes, mais la prédominance des outils d’IA rend la vérification des faits encore plus rigoureuse.
Les modèles d’IA générative ne parviennent souvent pas à détecter si une image ou une vidéo est synthétique, ce qui rend difficile la détermination de la réalité du contenu. Dans ce cas, Newton a pu utiliser Gemini de Google pour confirmer que l’image a été créée avec l’outil d’IA, grâce au filigrane SynthID de Google, qui peut résister au recadrage, à la compression, au filtrage et à d’autres tentatives de modification d’une image.
Max Spero, fondateur de Pangram Labs, une société qui fabrique un outil de détection de texte généré par l’IA, travaille directement sur le problème de la distinction du contenu réel et du faux.
« La situation de l’IA sur Internet s’est bien aggravée, et je pense que cela est dû en partie à l’utilisation accrue des LLM, mais aussi à d’autres facteurs », a déclaré Max Spero, fondateur de Pangram Labs, à TechCrunch. « Il y a des entreprises avec des millions de revenus qui peuvent payer pour un » engagement organique « sur Reddit, ce qui signifie simplement qu’elles vont essayer de devenir virales sur Reddit avec des publications générées par l’IA qui mentionnent le nom de votre marque. »
Des outils comme Pangram peuvent aider à déterminer si le texte est généré par l’IA, mais surtout lorsqu’il s’agit de contenu multimédia, ces outils ne sont pas toujours fiables – et même s’il s’avère qu’une publication synthétique est fausse, elle est peut-être déjà devenue virale avant d’être démystifiée. Donc pour l’instant, nous devons parcourir les réseaux sociaux comme des détectives, en nous demandant si tout ce que nous voyons est réel.
Exemple concret : lorsque j’ai dit à un éditeur que je voulais écrire sur le « canular viral de livraison de nourriture par IA qui était sur Reddit ce week-end », elle a pensé que je parlais d’autre chose. Oui, il y a eu plus d’un « canular viral sur la livraison de nourriture par l’IA sur Reddit ce week-end ».

