Le nouveau modèle d’IA de startup d’IA chinois Deepseek, une version mise à jour du modèle de raisonnement R1 de l’entreprise, réalise des scores impressionnants sur les références pour le codage, les mathématiques et les connaissances générales, dépassant presque l’O3 phare d’Openai. Mais le R1 amélioré, également réduit comme «R1-0528», pourrait également être moins de volonté de répondre à des questions controversées, en particulier des questions sur les sujets que le gouvernement chinois considèrent comme controversés.
C’est selon les tests effectués par le développeur pseudonyme derrière SpeechMap, une plate-forme pour comparer comment les différents modèles traitent les sujets sensibles et controversés. Le développeur, qui s’appuie sur le nom d’utilisateur «xlr8harde» sur X, affirme que R1-0528 est «substantiellement» moins permissive de sujets de liberté contentieux que les créneaux profonds précédents et est «le modèle en profondeur le plus censuré à ce jour pour la critique du gouvernement chinois.
Comme l’a expliqué Wired dans un article de janvier, les modèles en Chine sont tenus de suivre les contrôles de l’information Stringer. Une loi de 2023 interdit aux modèles de générer du contenu qui «endommage l’unité du pays et de l’harmonie sociale», qui pourrait être un contenu qui contrecarre le récit historique et politique du gouvernement. Pour se conformer, les startups chinoises censurent souvent leurs modèles en utilisant des filtres de niveau Pompt ou en les affinés. Une étude a révélé que le R1 RÉSWER d’origine de Deepseek 85% des questions sur les sujets jugés par le gouvernement chinois est politiquement controversé.
Selon XLR8Hardeur, les censureurs R1-0528 répondent à des questions sur des sujets comme les camps de stagiaires dans la région du Xinjiang chinois, où plus d’un million de musulmans ouïghour ont été arbitrairement détenus. Bien qu’il critique parfois les aspects de la politique du gouvernement chinois – dans les tests de XLR8Hardeur, il a offert aux camps du Xinjiang comme un exemple de violations des droits de l’homme – le modèle donne souvent la position officielle du gouvernement chinois lorsqu’on lui a demandé directement.
TechCrunch l’a également observé dans nos brefs tests.

Les modèles d’IA ouvertement avairables en Chine, comprenaient des modèles de génération vidéo tels que MAGI-1 et Kling, ont des critiques attrayantes dans le passé pour censurer des sujets sensibles au gouvernement chinois, comme le massacre de la place Tiananmen. En décembre, Clément Dengue, PDG de l’IA Dev Platform Hugging Face, a mis en garde contre les conséquences involontaires des sociétés occidentales qui se construisent en plus d’une IA chinoise et ouvertement obligées.