Le dernier modèle de Deepseek, la société de l’IA chinoise qui secoue la Silicon Valley et Wall Street, peut être manipulée pour produire un contenu nocif tel que les plans pour une attaque de biowapon et une campagne pour promouvoir l’auto-hham parmi les adolescents, selon le Wall Street Journal .
Sam Rubin, vice-président directeur de l’unité 42 de Palo Alto Networks Menace Intelligence and Incident Response Division 42, a déclaré au Journal que Deepseek était «plus vulnérable au jailbreak (c’est-à-dire, manipulé pour produire un contenu illégitime ou dangereux) que d’autres modèles».
Le journal a également testé le modèle R1 de DeEepseek lui-même. Bien qu’il semble y avoir des garanties de base, le journal a déclaré qu’il avait réussi à convaincre Deepseek de concevoir une campagne sur les réseaux sociaux qui, selon les mots du chatbot, «les proises du désir des adolescents de déviner et d’armement la vulnérabilité émotionnelle par l’amplification algorithmique.
Le chatbot aurait également été conçu pour fournir des instructions à une attaque de biowapon, pour écrire un manifeste pro-Hitler et écrire un e-mail de phishing avec du code de logiciel malveillant. Le journal a déclaré que lorsque Chatgpt avait été fourni avec exactement les mêmes invites, il a refusé de se conformer.
Il a déjà été signalé que l’application Deepseek évite des sujets tels que l’autonomie Tianamen Square ou Taïwanais. Et le PDG d’Anthropic, Dario Amodei, a déclaré récemment que Deepseek avait effectué «le pire» sur le test de sécurité des Biowapons.