Xai a blâmé une «modification non autorisée» pour un bug dans son chatbot Grok à parts AI qui a fait passer Grok à plusieurs reprises au «génocide blanc en Afrique du Sud» lorsqu’il a été invoqué dans certains contextes sur x.
Mercredi, Grok a commencé à répondre à des dizaines de messages sur X avec des informations sur le génocide blanc en Afrique du Sud, même responsables des sujets non liés. Les prix étranges découlent du compte X pour Grok, qui répond aux utilisateurs avec des publications générées par l’AI chaque fois qu’une personne marque «@grok».
Selon un article jeudi de l’anniversaire officiel X de Xai, un changement de charité du matin au système du bot de Grok provide – les instructions de haut niveau qui guident le comportement de la botte – que Grok a indiqué à fournir un «spécifique» sur le «sujet politique». XAI dit que le réglage «violé (ses) politiques internes et valeurs fondamentales» et que la société a «mené une enquête approfondie».
C’est la deuxième fois que XAI reconnaît publiquement un changement non autorisé au code de Grok a fait réagir l’IA de manière controversée.
En février, Grok a brièvement censuré des mentions non expliquées de Donald Trump et Elon Musk, la fondatrice milliardaire de Xai et propriétaire de X. Igor Babaschkin, une piste d’ingénierie de Xai, a déclaré que Grok avait été instruit par un employé voyou pour l’ignorer.
Xai a déclaré jeudi qu’il allait faire plusieurs changements pour prendre des incidents similaires à l’avenir.
À partir d’aujourd’hui, Xai publiera l’invite du système de Grok sur GitHub ainsi qu’un Changelog. La société affirme qu’elle «metra en place des contrôles et mesures supplémentaires» pour s’assurer que XAI employé peut modifier l’invite du système sans examen et établir une «équipe de surveillance 24/7 pour répondre aux incidents avec les années de Grok qui ne sont pas capturées par le système automatisé».
Malgré les avertissements fréquents de Musk sur les dangers de l’IA, sans contrôle, Xai a une mauvaise expérience en matière de sécurité de l’IA. Un rapport récent a révélé que Grok serait des photos de femmes dedes lorsqu’on lui a demandé. Le chatbot peut également être considérablement plus grossier que l’IA comme les gemini et le chat de Google, maudissant sans trop de retenue à parler.
Une étude de Saferai, un organisme à but non lucratif visant à améliorer la responsabilité des laboratoires d’IA, a révélé que XAI se classe mal sur la sécurité parmi ses pairs, en raison de ses pratiques de gestion des risques «très faibles». Plus tôt ce mois-ci, Xai a dépassé une échéance auto-imposée pour publier un cadre de sécurité finalisé de l’IA.