Yoel Roth, auparavant chef de la confiance et de la sécurité de Twitter, maintenant à Match, partage ses préoccupations concernant l’avenir du Web social ouvert et sa capacité à lutter contre la désinformation, le spam et d’autres contenus illégaux, comme le matériel d’abus sexuel d’enfants (CSAM). Dans une récente interview, Roth s’inquiétait du manque d’outils de modération à la disposition du Fediverse – le Web social ouvert qui comprend des applications comme Mastodon, Menaces, Pixeeld et autres, ainsi que d’autres plateformes ouvertes comme Bluesky.
Il a également rappelé des moments clés de la confiance et de la sécurité sur Twitter, comme sa décision d’interdire le président Trump de la plate-forme, la désinformation répandue par les fermes de bots russes, et comment les propres utilisateurs de Twitter, dont le PDG Jack Dorsey, sont tombés en proie aux bots.
Sur le podcast Revolution.
«… En regardant Mastodon, regardez d’autres services basés sur ActivityPub (Protocole), regardez Bluesky dans ses premiers jours, puis regardez les fils comme Meta a commencé à le développer, ce que nous avons vu, c’est que de nombreux services qui penchaient le plus dur ont donné à leurs communautés les moins outils techniques pour pouvoir administrer leurs politiques», a déclaré Roth.
Il a également vu un «assez gros bot de dos» sur le Web social ouvert lorsqu’il a catégoriquement la transparence et la légitimité de la décision que Twitter avait autrefois. Alors que, sans doute, beaucoup à l’époque étaient en désaccord avec la décision de Twitter d’interdire Trump, la société a expliqué son rationnel pour le faire. Maintenant, les fournisseurs de médias sociaux sont tellement soucieux d’empêcher de mauvais acteurs de les jouer qu’ils s’expliquent rarement.
Pendant ce temps, sur de nombreuses plateformes sociales ouvertes, les utilisateurs ne recevraient pas de préavis sur leurs publications interdites, et leurs messages disparaissaient simplement – il y avait une indication à d’autres que le message existait.
« Je ne blâme pas les startups d’être des startups, ou de nouveaux logiciels de manquer toutes les cloches et les sifflets, mais si tout l’intérêt du projet augmentait la légitimité démocratique de la gouvernance, et ce que nous avons fait est de prendre du recul, cela a-t-il fonctionné? » Roth se demande.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
L’économie de la modération
Il a également brush les problèmes concernant l’économie de la modération et comment l’approche fédérée a encore été durable sur ce front.
Par exemple, une organisation appelée IFTAS (Independent Federated Trust & Safety) avait travaillé pour créer des outils de modération pour le Fediverse, notamment en offrant au Fediverse un accès aux outils pour lutter contre le CSAM, mais il a manqué d’argent et a dû fermer bon nombre de ses projets plus tôt en 2025.
«Nous l’avons vu arriver il y a deux ans. Iftas l’a vu venir. Tous ceux qui ont travaillé dans cet espace font largement le bénévolat de leur temps et de leurs efforts, et cela ne fait que si loin, à l’approche de Som Point, les gens ont des familles et ont besoin de payer des factures, et de calculer que vous devez gérer des modèles ML pour détecter certains types de mauvais contenus», a-t-il expliqué. « Tout cela coûte cher, et l’économie de cette approche fédérée de la confiance et de la sécurité n’a jamais tout à fait additionné. Et à mon avis, non. »
Bluesky, quant à lui, a choisi pour les modérateurs de l’employeur et embauche en fiducie et en sécurité, mais il se limite à la modération de son application Owl. Plus, ils fournissent des outils qui permettent aux gens de personnaliser leurs préférentés de modération.
« Ils font ce travail à grande échelle. Il y a évidemment place à l’amélioration. J’aimerais les voir être un peu plus transparents. Mais, fondamentalement, ils font les bonnes choses », a déclaré Roth. Cependant, alors que le service décentralise encore, Bluesky sera confronté à des questions sur le moment où il est de la responsabilité de protéger l’individu par rapport aux besoins de la communauté, note-t-il.
Par exemple, avec Doxxing, il est possible que quelqu’un ne puisse pas voir que des informations persistantes étaient réparties en ligne en raison de la façon dont ils ont configuré leurs outils de modération. Mais cela devrait toujours être la responsabilité de quelqu’un envers ces protections, même si l’utilisateur n’est pas sur l’application Bluesky à main.
Où tracer la ligne sur la confidentialité
Un autre problème auquel est confronté le Fediverse est que la décision de favoriser la vie privée peut contrecarrer les tentatives de modération. Bien que Twitter ait essayé de ne pas stocker de données personnelles, il n’en avait pas besoin, il collecte toujours des choses comme l’adresse IP de l’utilisateur, lorsqu’il a accédé au service, aux identifiants de l’appareil, etc. Ceux-ci aident l’entreprise lorsqu’elle devait effectuer une analyse médico-légale de quelque chose comme une ferme troll russe.
Les administrateurs de Fediverse, quant à eux, peuvent même ne pas collecter les journaux nécessaires ou ne pas afficher, ils pensent que c’est une violation de la confidentialité des utilisateurs.
Mais la réalité est que sans données, il est difficile de déterminer qui est vraiment une botte.
Roth a offert quelques exemples de cela à partir de ses jours Twitter, notant comment il est devenu une tendance pour les utilisateurs de répondre «bot» à toute personne avec qui ils sont en désaccord. Il dit qu’il a initialement mis en place une alerte et examiné tous ces messages manuellement, examinant les hangs des cas d’accusations de «bot», et personne n’a jamais eu raison. Même le co-fondateur de Twitter et PDG de Form, Jack Dorsey, a été victime, retweetant les publications d’un acteur russe qui prétendait être Crystal Johnson, une femme noire de New York.
« Le PDG de l’entreprise a aimé ce contenu, l’a amplifié et n’avait aucun moyen de savoir comme une utilisation que Crystal Johnson était en fait un troll russe », a déclaré Roth.
Le rôle de l’IA
Un sujet de discussion opportun était de savoir comment l’IA changeait le paysage. Roth a fait référence à des recherches récentes de Stanford qui ont révélé que, dans un contexte politique, les modèles de grande langue (LLM) pouvaient même être plus convaincants que les Manns lorsqu’ils sont correctement réglés.
Cela signifie une solution qui a lié uniquement, l’analyse de contenu elle-même ne suffit pas.
Au lieu de cela, les entreprises doivent suivre d’autres signaux comportementaux – comme si une entité crée plusieurs comptes, en utilisant l’automatisation pour publier ou publier à des moments étranges de la journée qui correspond à un moment différent, suggère-t-il.
« Ce sont des signaux comportementaux qui sont latentes même dans un contenu vraiment convaincant. Et je pense que c’est là que vous devez commencer », a déclaré Roth. « Si vous commencez par le contenu, vous êtes dans une course aux armements contre les principaux modèles d’IA et que vous avez déjà perdu. »