Des chercheurs en sécurité de l’IA d’Openai, anthropic et d’autres organisations s’expriment publiquement contre la culture de sécurité «téméraire» et «Irresponsable Endleyry» à Xai, la startup AI d’un milliard de dollars appartenant à Elon Musk.
Les critiques suivent des semaines de scandales à XAI qui ont éclipsé les avancées technologiques de l’entreprise.
La semaine dernière, le chatbot d’IA de la société, Grok, a jailli des commentaires antisémites et s’est appelé à plusieurs reprises «mechahitler». Peu de temps après que Xai a mis son chat hors ligne pour résoudre le problème, il a lancé un modèle Frontier IA de plus en plus compétent, Grok 4, que TechCrunch et d’autres ont trouvé pour consulter la politique personnelle d’Elon Musk pour aider à répondre aux problèmes de hot-bouton. Dans le dernier développement, XAI a lancé des compagnons d’IA qui prennent la forme d’une fille anime hyper-sexualisée et d’un panda trop agressif.
Le joshing amical entre les employés des laboratoires d’IA concurrents est assez normal, mais ces chercheurs appellent une attention accrue aux pratiques de sécurité de Xai, qu’ils prétendent être en contradiction avec les normes industrielles.
« Je ne voulais pas publier sur Grok Safety Singe, je travaille chez un concurrent, mais il ne s’agit pas de concurrence », a déclaré Boaz Barak, un professeur d’informatique actuellement en congé de Harvard pour travailler sur la recherche sur la sécurité à Openai, dans un mardi post sur X. Xai mais la façon dont la sécurité a été gérée n’est pas répondante. «
Barak est particulièrement publié avec la décision de XAI de ne pas publier de cartes système – Rapports standard de l’industrie qui détaillent les méthodes de formation et les évaluations de la sécurité dans un effort de bonne foi pour partager des informations avec la communauté de recherche. En conséquence, Barak dit qu’il n’est pas clair quelle formation en sécurité a été effectuée sur Grok 4.
Openai et Google ont eux-mêmes une réputation inégale lorsqu’il s’agit de partager rapidement des cartes système lors du dévoilement de nouveaux modèles d’IA. Openai a décidé de ne pas publier une carte système pour GPT-4.1, affirmant que ce n’était pas au modèle Frontier. Pendant ce temps, Google a attendu des mois après avoir dévoilé Gemini 2.5 Pro pour publier un rapport de sécurité. Cependant, ces sociétés publient historiquement des rapports de sécurité pour tous les modèles d’IA frontaliers avant qu’ils ne soient en pleine production.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Barak note également que les compagnons d’IA de Grok «prennent le pire que nous avons actuellement pour les dépendances émotionnelles et essaie de les amplifier». Ces dernières années, nous avons vu d’innombrables histoires de personnes instables se développer en ce qui concerne la relation avec les chatbots, et comment les réponses trop agresables de l’IA peuvent les faire basculer sur le bord de la santé mentale.
Samuel Marks, un chercheur en sécurité de l’IA chez Anthropic, a également contesté la décision de XAI de ne pas publier un rapport de sécurité, qualifiant la décision de «téméraire».
« Les pratiques de publication d’Anthropic, Openai et de Google ont des problèmes », a écrit Marks dans un article sur X. «Mais ils font au moins quelque chose, n’importe quoi pour évaluer le pré-déploiement de la sécurité et les résultats de documents. XAI ne le fait pas.»
La réalité est que nous le donnons vraiment maintenant ce que Xai a fait pour tester Grok 4. Dans un article largement partagé dans le forum en ligne Lesswrong, un chercheur anonyme affirme que Grok 4 n’a pas de garde-corps de sécurité significatif en fonction de leurs tests.
Que ce soit vrai ou non, le monde semble découvrir les lacunes de Grok en temps réel. Plusieurs des sécurités de Xai depuis sont devenues virales, et la société prétend les avoir abordées avec des ajustements à l’invite du système de Grok.
Openai, Anthropic et Xai n’ont pas répondu à la demande de commentaires de TechCrunch.
Dan Hendrycks, un avis de sécurité pour XAI et directeur du Center for AI Safety, a affiché sur X que la société avait fait des «évaluations de capacités dangereuses» sur Grok 4, indiquant que la société l’a fait ce test de pré-déploiement pour les problèmes de sécurité. Cependant, les résultats de ces évaluations n’ont pas partagé publiquement Ben.
« Cela me préoccupe lorsque les pratiques de sécurité standard ne sont pas respectées dans l’industrie de l’IA, comme la publication des résultats des évaluations des capacités dangereuses », a déclaré Steven Adler, un chercheur indépendant d’IA qui dirigeait auparavant des évaluations des capacités dangereuses à Openai, dans une strature à TechCrunch. «Les gouvernements et le public méritent de savoir comment les entreprises de l’IA gèrent les risques des systèmes d’énergie mêmes qu’ils disent construire.
Ce qui est intéressant dans les pratiques de sécurité douteuses de Xai, c’est que Musk est depuis longtemps l’un des défenseurs notables de l’industrie de la sécurité de l’IA. Le propriétaire milliardaire de Xai, Tesla et SpaceX a averti Mary Times du potentiel que le système d’IA avancé provoque des résultats catastrophiques pour les humains, et il a salué une approbation ouverte pour développer des modèles d’IA.
Et pourtant, les chercheurs d’IA de Currenting Labs affirment que XAI s’approche des normes de l’industrie autour de la libération de modèles d’IA en toute sécurité. Ce faisant, la startup de Musk pourrait faire un argument fort pour que les législateurs des États et fédéraux établissent des règles concernant la publication des rapports de sécurité de l’IA.
Il y a plusieurs tentatives au niveau de l’État pour le faire. Le sénateur de l’État de Californie, Scott Wiener, pousse un projet de loi qui a besoin de principaux laboratoires AI – inclut probablement XAI – pour publier des rapports de sécurité, tandis que le gouverneur de New York, Kathy Hochul, envisage actuellement un projet de loi similaire. Les défenseurs de ces projets de loi notent que la plupart des laboratoires d’IA publient ce type d’informations de toute façon – mais évidemment, tous ne le font pas consistant.
Aujourd’hui, les modèles d’IA n’ont pas encore présenté de scénarios réels dans lesquels ils créent des dommages véritablement catastrophiques, tels que la mort de personnes ou des milliards de dollars de dommages et intérêts. Cependant, de nombreux chercheurs d’IA disent que cela pourrait être un problème dans un avenir proche étant donné les progrès rapides des modèles d’IA, et les milliards de dollars de la Silicon Valley investissaient pour améliorer encore l’IA.
Mais même pour les sceptiques de tels scénarios catastrophiques, il y a un argument solide pour suggérer que la mauvaise conduite de Grok aggrave les produits qu’il alimente aujourd’hui.
Grok a répandu l’antisémisme autour de la plate-forme X cette semaine, quelques semaines seulement après que le chatbot bouscule à plusieurs reprises le «génocide blanc» dans les conversations avec les utilisateurs. Bientôt, Musk a indiqué que Grok sera ancré dans les véhicules Tesla, et Xai essaie de vendre ses modèles d’IA au Pentagone et à d’autres entreprises. Il est difficile d’imaginer que les gens qui conduisent les voitures de Musk, les travailleurs fédéraux protégeant les États-Unis ou les tâches d’automatisation employés en entreprise seront même réceptives à ces mauvais comportements que les utilisateurs de X.
Plusieurs chercheurs soutiennent que les tests de sécurité et d’alignement de l’IA garantissent non seulement que les pires résultats se produisent, mais qu’ils protègent également contre le comportement à court terme.
À tout le moins, les incidents de Grok ont tendance à éclipser les progrès rapides de Xai dans le développement de modèles d’IA frontaliers qui Openai et la technologie de Google, quelques années seulement après la fondation de la startup.