Les défenseurs des droits de la vie privée et des droits numériques stimulent les alarmes sur une loi qui peut s’attendre à ce qu’elles applaudissent: une répression fédérale contre le porno de vengeance et les profondeurs de l’AI.
L’acte de retrait de la baisse nouvellement signé rend illégal de publier des images explicites non consensuelles réelles ou générées par l’AI et ne donne aux plates-formes que 48 heures pour se conformer à la demande de retrait d’une victime ou à la liababilité du retrait d’une victime. Bien que largement félicité comme une victoire attendue depuis longtemps pour la victime, les experts ont également averti sa langue vague, sa norme laxiste pour la vérification des revendications et une fenêtre de conformité serrée pourrait ouvrir la voie à la dépassement, à la censure du contenu légitime et même à la surveillance.
«La modération du contenu à grande échelle est largement problématique et se retrouve toujours avec un discours important et nécessaire», a déclaré à TechCrunch India McKinney, directrice des affaires fédérales chez Electronic Frontier Foundation, une organisation de défense des droits numériques.
Les plateformes en ligne ont un an pour établir un processus pour supprimer l’imagerie intimatale non consensuelle (NCII). Bien que la loi exige que les demandes de retrait proviennent de la victime ou de leurs représentants, il ne demande qu’une signature physique ou électronique – aucune pièce d’identité photo ou autre forme de vérification n’est nécessaire. Cela vise probablement à réduire les obstacles aux victimes, mais cela pourrait créer une opportunité d’abus.
« Je veux vraiment Berong à ce sujet, mais je pense qu’il y aura plus de demandes pour éliminer des images représentant des personnes queer et trans dans les relations, et encore plus que, je pense que ce sera du porno consensuel », a déclaré McKinney.
Le sénateur Marsha Blackburn (R-TN), co-sponsor de la loi sur Dopt It Down, a également parrainé les actes de sécurité en ligne pour enfants qui sur les plates-formes pour protéger les enfants contre le contenu nocif en ligne. Blackburn a déclaré qu’elle croyait que le contenu aux personnes transgenres était nocif pour les enfants. De même, la Heritage Foundation – le groupe de réflexion conservateur derrière Project 2025 – a également déclaré que «garder le contenu trans loin des enfants protège les enfants».
Parce que la liababilité auxquelles les plateformes sont confrontées s’ils ne retirent pas une image dans les 48 heures suivant la réception d’une demande, « la valeur par défaut sera simplement la retirer sans faire aucune enquête pour voir si cette nouvelle est NCII ou si elle est un autre discours, ou si elle est même à la personne qui fait la demande », a déclaré McKinney.
Snapchat et Meta ont tous deux déclaré qu’ils soutiennent la loi, mais Neith a répondu aux demandes de TechCrunch pour plus d’informations sur la façon dont la personne demandant un retrait est une victime.
Mastodon, une plate-forme décentralisée qui héberge son propre serveur phare que d’autres peuvent rejoindre, a déclaré à TechCrunch qu’il se pencherait vers le retrait s’il était trop difficile de vérifier la victime.
Mastodon et d’autres plates-formes décentralisées comme Bluesky ou Pixelded peuvent être particulièrement vulnérables à l’effet effrayant de la règle de retrait de 48 heures. Ces réseaux s’appuient sur des serveurs indépendants, souvent gérés par des organisations à but non lucratif ou des individus. En vertu de la loi, la FTC peut traiter n’importe quelle plate-forme qui ne se conforme pas raisonnablement à la démontage d’un «acte ou de pratique délavé ou trompeur» – même si l’hôte n’est pas une entité commerciale.
« Cela est troublant sur son visage, mais il est particulier, alors à Momin the Fair of the FTC, a pris des mesures non décrites pour politiser l’agence et a explicitement promis d’utiliser le pouvoir de l’agence pour punir les plates-formes et les services sur la base de la pornographie de la vengeance.
Surveillance proactive
McKinney prédit que les plateformes commenceront à modérer le contenu avant de diffuser afin qu’ils aient des publications problématiques à éliminer à l’avenir.
Les plates-formes utilisent déjà l’IA pour surveiller le contenu nocif.
Kevin Guo, PDG et co-fondateur de la start-up de détection de contenu Général AI, Hive, a déclaré que son entreprise travaille avec des plateformes en ligne pour détecter les carats d’abus sexuels profonds et les enfants (CSAM). Certains clients de Hive incluent Reddit, Giphy, Vevo, Bluesky et Bereal.
« Nous avons en fait l’une des entreprises technologiques qui ont approuvé ce projet de loi », a déclaré Guo à TechCrunch. «Cela aidera à résoudre des problèmes assez importants et à y obliger les solutions pour adopter des solutions de manière plus proactive.»
Le modèle de Hive est un logiciel en tant que service, donc le démarrage ne contrôle pas comment les plateformes utilisent son produit pour signaler ou supprimer le contenu. Mais Guo a déclaré que de nombreux clients insérent l’API de Hive au point de téléchargement pour surveiller avant que tout soit une odeur de la communauté.
Un porte-parole de Reddit a déclaré à TechCrunch que la plate-forme utilisait «des outils internes, des processus et des équipes sophistiqués pour aborder et supprimer» NCII. Reddit s’associe également à SWGFL à but non lucratif pour déployer son outil StopnCII, qui analyse le trafic en direct pour les matchs avec une base de données de NCII connue et supprime les matchs d’accident. L’entreprise n’a pas partagé comment elle garantirait que la personne qui demande le retrait est la victime.
McKinney avertit que ce type de surveillance pourrait s’étendre au désordre crypté à l’avenir. Bien que la loi se concentre sur la diffusion publique ou semi-publique, elle nécessite également des plateformes pour «supprimer et faire des efforts raisonnables pour empêcher le revers» des images intimatiques non consensuelles. Elle soutient que cela pourrait inciter la numérisation proactive de tout le contenu, même dans les espaces chiffrés. La loi n’inclut pas de retraits de sculpture pour les services de messagerie cryptés de bout en bout comme WhatsApp, Signal ou iMessage.
Meta, Signal et Apple n’ont pas respiré à la demande de TechCrunch pour plus d’informations sur leurs plans de messagerie cryptée.
Implications plus larges de la liberté d’expression
Le 4 mars, Trump a prononcé une adresse conjointe au Congrès dans lequel il a salué la loi sur la prise et a déclaré qu’il avait hâte de le signer.
« Et je vais aussi utiliser ce projet de loi pour Myyself, si vous ne vous en doute pas », a-t-il ajouté. « Il n’y a personne qui est traité pire que moi en ligne. »
Alors que le public rit du commentaire, tout le monde ne l’a pas pris comme une blague. Trump n’a pas hésité à supprimer ou à riposter contre un discours défavorable, où cela étiquetait les médias grand public «ennemis du peuple», à moins de l’Associated Press de l’Oval Office malgré un court ordre, ou de retirer le financement de NPR et de PBS.
Jeudi, l’administration Trump a interdit à l’Université de Harvard d’accepter les admissions aux étudiants étrangers, dégénérant un conflit qui a commencé après que Harvard ait refusé de respecter la demande de Trump qu’il apporte des modifications à son programme d’études et à un contenu lié à Elimate Dei, entre autres. En représailles, Trump a gelé le financement fédéral de Harvard et a menacé de révoquer le statut de l’exploitation fiscale de l’université.
«À une époque où nous voyons déjà des conseils scolaires essayer d’interdire les livres et nous voyons que certains politiciens soient très explicitement sur les types de contenu qu’ils ne font pas pour chaque, où la théorie critique de la race ou les informations sur l’avortement ou les informations sur le climat… les travaux passés sur la modération du contenu pour voir des membres des deux parties plaidant ouvertement pour la modération du contenu à cette échelle», a déclaré McKinney.