Meta a annoncé jeudi qu’elle commençait à déployer des systèmes d’IA plus avancés pour gérer l’application du contenu, dans le cadre de son intention de réduire le recours aux fournisseurs tiers. Les tâches liées à l’application du contenu comprennent la détection et la suppression de contenus relatifs au terrorisme, à l’exploitation des enfants, à la drogue, à la fraude et aux escroqueries.
La société affirme qu’elle déploiera ces systèmes d’IA plus avancés dans ses applications une fois qu’ils surpasseront systématiquement ses méthodes actuelles d’application du contenu. Dans le même temps, elle réduira sa dépendance à l’égard de fournisseurs tiers pour l’application du contenu.
« Même si nous aurons toujours des personnes qui réviseront le contenu, ces systèmes seront capables d’effectuer des tâches mieux adaptées à la technologie, comme des révisions répétitives de contenu graphique ou des domaines dans lesquels les acteurs adverses changent constamment de tactique, comme dans le cas des ventes de drogues illicites ou des escroqueries », a expliqué Meta dans un article de blog.
Meta estime que ces systèmes d’IA peuvent détecter davantage de violations avec une plus grande précision, mieux prévenir les escroqueries, réagir plus rapidement aux événements du monde réel et réduire les mesures excessives d’application.
La société affirme que les premiers tests des systèmes d’IA ont été prometteurs, car ils peuvent détecter deux fois plus de contenus de sollicitation sexuelle pour adultes violant que ses équipes d’examen, tout en réduisant également le taux d’erreur de plus de 60 %. Il indique également que les systèmes peuvent identifier et empêcher davantage de comptes usurpés d’identité impliquant des célébrités et d’autres personnes de premier plan, ainsi qu’aider à arrêter les piratages de comptes en détectant des signaux tels que les connexions à partir de nouveaux emplacements, les changements de mot de passe ou les modifications apportées à un profil.
De plus, Meta affirme que les systèmes peuvent identifier et atténuer environ 5 000 tentatives d’escroquerie par jour, dans lesquelles les escrocs tentent d’inciter les gens à divulguer leurs informations de connexion.
« Des experts concevront, formeront, superviseront et évalueront nos systèmes d’IA, mesureront les performances et prendront les décisions les plus complexes et les plus importantes », a écrit Meta dans le billet de blog. « Par exemple, les gens continueront à jouer un rôle clé dans la façon dont nous prenons les décisions les plus risquées et les plus critiques, comme les appels en cas de désactivation de compte ou les rapports aux forces de l’ordre. »

Cette décision intervient alors que Meta a assoupli ses règles de modération de contenu au cours de la dernière année, alors que le président Donald Trump a pris ses fonctions pour la deuxième fois. L’année dernière, la société a mis fin à son programme de vérification des faits par des tiers au profit d’un modèle Community Notes de type X. Il a également levé les restrictions sur les « sujets qui font partie du discours dominant » et a déclaré que les utilisateurs seraient encouragés à adopter une approche « personnalisée » du contenu politique.
Cela survient également alors que Meta et d’autres grandes entreprises technologiques font actuellement face à plusieurs poursuites judiciaires visant à tenir les géants des médias sociaux responsables des dommages causés aux enfants et aux jeunes utilisateurs.
Meta a également annoncé jeudi le lancement d’un assistant d’assistance Meta AI qui donnera aux utilisateurs un accès à une assistance 24h/24 et 7j/7. L’assistant est déployé à l’échelle mondiale sur les applications Facebook et Instagram pour iOS et Android, ainsi que dans le centre d’aide sur Facebook et Instagram sur ordinateur.

