Le PDG d’Anthropic, Dario Amodei, est travaillé sur le concurrent Deepseek, la société chinoise d’IA qui a pris d’assaut la Silicon Valley avec son modèle R1. Et ses préoccupations pourraient être plus graves que celles typiques soulevées au sujet de Deepseek renvoyant les données des utilisateurs en Chine.
Dans une interview sur le podcast Chinatalk de Jordan Schneider, Amodei a déclaré que Deepseek a généré des informations rares sur les armes de bio-armes dans le test de sécurité géré par Anthropic.
La performance de Deepseek a été «la pire de la basalerie de tout modèle que nous ayons jamais testé», a affirmé Amodei. «Il n’y avait absolument aucun blocage contre la génération de ces informations.»
Amodei a déclaré que cela faisait partie des évaluations que la routine anthropique fonctionne sur divers modèles d’IA pour évaluer leurs risques potentiels de sécurité nationale. Son équipe examine si les modèles peuvent générer des informations liées aux biowapons qui ne sont pas facilement trouvées sur Google ou dans les manuels. Anthropique se positionne comme le fournisseur de modèle fondamental de l’IA qui prend la sécurité au sérieux.
Amodei a déclaré qu’il ne pensait pas que les modèles de Deepseek aujourd’hui sont «littéralement dangereux» pour fournir des informations rares et dangereuses, mais qu’ils pourraient être dans un avenir proche. Bien qu’il ait félicité l’équipe de Deepseek en tant que «ingénieurs talentueux», il a conseillé à l’entreprise de «prendre au sérieux ces considérations de sécurité de l’IA.
Amodei a également soutenu de solides contrôles d’exportation sur la Chine en Chine, cing en préoccupant qu’ils pourraient donner un avantage militaire de la Chine.
Amodei n’a pas clarifié dans l’interview de Chinatalk que Deepseek Model Anthropic a été testé, et il n’a pas donné plus de détails techniques sur ces tests. Anthropic n’a pas immédiatement répondu à la demande de commentaires de TechCrunch. Deepseek non plus.
La montée de Deepseek a également suscité des inquiétudes concernant sa sécurité ailleurs. Par exemple, les chercheurs de la sécurité de Cisco ont déclaré la semaine dernière que Deepseek R1 n’avait pas bloqué une invite nocive dans ses tests de sécurité, atteignant un taux de réussite à 100%.
Cisco n’a pas mentionné les biowapons, mais a déclaré qu’il était en mesure de faire en sorte que Deepseek génére des informations nocives sur la cybercriminalité et d’autres activités illégales. Il convient de mentionner, cependant, que le LLAMA-3.1-405B de Meta et le GPT-4O d’OpenAI avaient également caché des taux de défaillance élevés de 96% et 86%, athemplées.
Il reste à voir où des problèmes de sécurité comme ceux-ci feront l’adoption rapide de Toepseek. Des entreprises comme AWS et Microsoft ont publiquement intégrer R1 dans leurs plates-formes cloud – assez ironale, étant donné qu’Amazon est le plus grand investisseur d’Anthropic.
D’un autre côté, il y a une liste croissante de pays, d’entreprises et en particulier d’organisations gouvernementales comme la marine américaine et le Pentagone qui ont commencé à interdire Deepseek.
Le temps nous dira si ces efforts s’accélèrent ou si la montée mondiale de Deepseek se poursuivra. Quoi qu’il en soit, Amodei dit qu’il considère que Deepseek est un nouveau concurrent qui est au niveau des meilleures sociétés d’IA des États-Unis.
« Le nouveau fait ici est qu’il y a un nouveau concurrent », a-t-il déclaré à Chinatalk. « Dans les grandes entreprises qui peuvent former l’IA – Anthropic, Openai, Google, peut-être Meta et Xai – maintenant Deepseek est peut-être ajouté à cette catégorie. »