OpenAI a déclaré en surprise ses activités de sécurité pour se protéger contre l’espionnage des entreprises. Selon le Financial Times, la société a accéléré une répression de sécurité existante après que la startup chinoise Deepseek ait publié un modèle concurrente en janvier, Openai alléguant que Deepseek a mal copié ses modèles en utilisant des techniques de «distillation».
La sécurité renforcée comprenait des politiques de «truffes d’information» qui limitent l’accès du personnel aux algorithmes sensibles et aux nouveaux produits. Par exemple, lors du développement du modèle O1 d’Openai, seuls les membres de l’équipe qui avaient été lus dans le projet pouvaient le discuter dans des espaces de bureau partagés, selon le FT.
Et il y a plus. OpenAI isole désormais la technologie propulsaire dans les systèmes informatiques hors ligne, les contrôles d’accès biométriques pour les zones de bureau (les analyses informatiques utilisées par des « empreintes digitales) et maintient une politique Internet «refusée par défaut» nécessitant une approbation explicite pour les connexions externes, selon le rapport, ce qui ajoute en outre une augmentation de la sécurité physique dans les centres de données et a élargi son personnel de cybersécurité.
Les changements reflètent des conatns plus larges sur les adversaires étrangers qui tentent de voler la propriété intellectuelle d’Openai, bien que compte tenu des guerres de braconnage de clouage au milieu des sociétés américaines d’IA et des fuites de plus en plus fréquentes des commentaires du PDG Sam Altman, Openai pourrait également participer à des problèmes.
Nous avons contacté Openai pour commenter.