La société d’IA d’Elon Musk, XAI, a été massé une échéance auto-imposée pour publier un cadre de sécurité finalisé dans l’IA, comme l’a noté le groupe de surveillance The Midas Project.
Xai n’est pas exactement connu pour ses forts engagements envers une sécurité car il est généralement compris. Un récent rapport a révélé que le chatbot d’IA de l’entreprise, Grok, soulignerait les photos des femmes lorsqu’on lui a demandé. Grok peut également être considérablement plus grossier que les chatbots comme Gemini et Chatgpt, maudissant sans trop de retenue à parler.
Néanmoins, en février au sommet de l’IA Séoul, un rassemblement mondial des dirigeants et des parties prenantes de l’IA, XAI a publié un projet de cadre entourant l’approche de l’entreprise en matière de sécurité de l’IA. Les huit pages ont présenté les priorités et la philosophie de la sécurité de Xai, notamment les protocoles d’analyse comparative de la société et les considérations de déploiement du modèle d’IA.
Cependant, comme la note du projet Midas dans le billet de blog, le projet ne s’appliquait qu’aux futurs modèles d’IA non spécifiés «pas actuellement en développement.
Dans le projet, Xai a déclaré qu’il prévoyait de publier une version révisée de sa politique de sécurité «dans les trois mois» – d’ici le 10 mai. La date limite est venue et est venue sans reconnaître sur les chaînes officielles de Xai.
Malgré les avertissements fréquents de Musk sur les dangers de l’IA, sans contrôle, Xai a une mauvaise expérience en matière de sécurité de l’IA. Une étude récente de Saferai, un organisme à but non lucratif visant à améliorer la responsabilité des laboratoires d’IA, a révélé que XA se classe mal parmi ses pairs, en raison de ses pratiques de gestion des risques «très faibles».
Cela ne suggère pas que d’autres laboratoires d’IA farinent considérablement mieux. Ces derniers mois, les rivaux de Xai incluent Google et Openai ont précipité les tests de sécurité et ont été lents à publier des rapports de sécurité des modèles (ou des rapports de publication sautés au long de la place). Certains experts se préoccupent expressément que la priorité apparente des efforts de sécurité se déroule à un moment où l’IA est plus capable – et donc potentiellement dangereuse – que jamais.