Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Un marché tumultueux a conduit à une année record pour le XTX d’Alex Garko

avril 3, 2026

Sundar Pichai, PDG de Google : les centres de données spatiaux deviendront la nouvelle norme au cours des 10 prochaines années

avril 3, 2026

Les corbynistes s’unissent aux Verts de Zac Polanski

avril 3, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » La coalition exige l’interdiction fédérale de Grok pour les contenus sexuels non consensuels
Startups

La coalition exige l’interdiction fédérale de Grok pour les contenus sexuels non consensuels

JohnBy Johnfévrier 2, 2026Aucun commentaire7 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Une coalition d’organisations à but non lucratif exhorte le gouvernement américain à suspendre immédiatement le déploiement de Grok, le chatbot développé par xAI d’Elon Musk, dans les agences fédérales, dont le ministère de la Défense.

La lettre ouverte, partagée exclusivement avec TechCrunch, fait suite à une série de comportements inquiétants du grand modèle de langage au cours de l’année écoulée, y compris plus récemment une tendance des utilisateurs de X demandant à Grok de transformer des photos de vraies femmes, et dans certains cas d’enfants, en images sexualisées sans leur consentement. Selon certains rapports, Grok générait chaque heure des milliers d’images explicites non consensuelles, qui étaient ensuite diffusées à grande échelle sur X, la plateforme de médias sociaux de Musk appartenant à xAI.

« Il est profondément préoccupant que le gouvernement fédéral continue de déployer un produit d’IA avec des défaillances au niveau du système entraînant la génération d’images sexuelles non consensuelles et de matériel d’abus sexuels sur des enfants », lit-on dans la lettre, signée par des groupes de défense comme Public Citizen, Center for AI and Digital Policy et Consumer Federation of America. « Compte tenu des décrets et des orientations de l’administration et de la loi Take It Down récemment adoptée et soutenue par la Maison Blanche, il est alarmant que (le Bureau de la gestion et du budget) n’ait pas encore ordonné aux agences fédérales de démanteler Grok. »

xAI a conclu un accord en septembre dernier avec la General Services Administration (GSA), la branche d’achat du gouvernement, pour vendre Grok aux agences fédérales relevant du pouvoir exécutif. Deux mois auparavant, xAI – aux côtés d’Anthropic, Google et OpenAI – avait obtenu un contrat d’une valeur pouvant atteindre 200 millions de dollars avec le ministère de la Défense.

Au milieu des scandales sur X à la mi-janvier, le secrétaire à la Défense Pete Hegseth a déclaré que Grok rejoindrait Gemini de Google pour opérer au sein du réseau du Pentagone, traitant à la fois des documents classifiés et non classifiés, ce qui, selon les experts, constitue un risque pour la sécurité nationale.

Les auteurs de la lettre affirment que Grok s’est révélé incompatible avec les exigences de l’administration en matière de systèmes d’IA. Selon les directives de la CAMO, les systèmes qui présentent des risques graves et prévisibles qui ne peuvent être atténués adéquatement doivent être abandonnés.

« Notre principale préoccupation est que Grok s’est révélé assez régulièrement être un modèle de langage à grande échelle dangereux », a déclaré à TechCrunch JB Branch, un défenseur de la responsabilité du Public Citizen Big Tech et l’un des auteurs de la lettre. « Mais il y a aussi une histoire profonde de Grok qui a connu diverses crises, y compris des diatribes antisémites, des diatribes sexistes, des images sexualisées de femmes et d’enfants. »

Événement Techcrunch

Boston, Massachusetts
|
23 juin 2026

Plusieurs gouvernements ont démontré leur réticence à s’engager avec Grok suite à son comportement de janvier, qui s’appuie sur une série d’incidents, notamment la génération de messages antisémites sur X et le fait de se faire appeler « MechaHitler ». L’Indonésie, la Malaisie et les Philippines ont toutes bloqué l’accès à Grok (ils ont ensuite levé ces interdictions), et l’Union européenne, le Royaume-Uni, la Corée du Sud et l’Inde enquêtent activement sur xAI et X concernant la confidentialité des données et la distribution de contenu illégal.

La lettre arrive également une semaine après que Common Sense Media, une organisation à but non lucratif qui examine les médias et la technologie pour les familles, a publié une évaluation des risques accablante selon laquelle Grok est l’un des plus dangereux pour les enfants et les adolescents. On pourrait affirmer que, sur la base des conclusions du rapport – y compris la propension de Grok à offrir des conseils dangereux, à partager des informations sur les drogues, à générer des images violentes et sexuelles, à cracher des théories du complot et à générer des résultats biaisés – Grok n’est pas non plus si sûr pour les adultes.

« Si vous savez qu’un grand modèle de langage est ou a été déclaré dangereux par les experts en sécurité de l’IA, pourquoi diable voudriez-vous qu’il gère les données les plus sensibles dont nous disposons ? » » dit Branche. « Du point de vue de la sécurité nationale, cela n’a absolument aucun sens. »

Andrew Christianson, ancien entrepreneur de la National Security Agency et actuel fondateur de Gobbi AI, une plateforme d’agents d’IA sans code pour les environnements classifiés, affirme que l’utilisation de LLM à source fermée en général constitue un problème, en particulier pour le Pentagone.

« Les pondérations fermées signifient que vous ne pouvez pas voir l’intérieur du modèle, vous ne pouvez pas vérifier la façon dont il prend des décisions », a-t-il déclaré. « Un code fermé signifie que vous ne pouvez pas inspecter le logiciel ni contrôler son exécution. Le Pentagone est fermé sur les deux, ce qui est la pire combinaison possible pour la sécurité nationale. »

« Ces agents IA ne sont pas de simples chatbots », a ajouté Christianson. « Ils peuvent entreprendre des actions, accéder aux systèmes, déplacer des informations. Vous devez être en mesure de voir exactement ce qu’ils font et comment ils prennent des décisions. L’Open Source vous offre cela. Ce n’est pas le cas de l’IA cloud propriétaire. »

Les risques liés à l’utilisation de systèmes d’IA corrompus ou dangereux s’étendent au-delà des cas d’utilisation liés à la sécurité nationale. Branch a souligné qu’un LLM qui s’est avéré avoir des résultats biaisés et discriminatoires pourrait également produire des résultats négatifs disproportionnés pour les gens, en particulier s’il est utilisé dans des départements impliquant le logement, le travail ou la justice.

Bien que l’OMB n’ait pas encore publié son inventaire fédéral consolidé des cas d’utilisation de l’IA pour 2025, TechCrunch a examiné les cas d’utilisation de plusieurs agences, dont la plupart n’utilisent pas Grok ou ne divulguent pas leur utilisation de Grok. Outre le DoD, le ministère de la Santé et des Services sociaux semble également utiliser activement Grok, principalement pour planifier et gérer les publications sur les réseaux sociaux et générer les premières ébauches de documents, de briefings ou d’autres supports de communication.

Branch a souligné ce qu’il considère comme un alignement philosophique entre Grok et l’administration comme raison pour ignorer les lacunes du chatbot.

« La marque de Grok est le ‘modèle de langage large anti-réveil’, et cela s’inscrit dans la philosophie de cette administration », a déclaré Branch. « Si vous avez une administration qui a eu de multiples problèmes avec des gens accusés d’être des néo-nazis ou des suprémacistes blancs, et qu’elle utilise ensuite un vaste modèle linguistique lié à ce type de comportement, j’imagine qu’elle pourrait avoir une propension à l’utiliser. »

Il s’agit de la troisième lettre de la coalition après avoir écrit des préoccupations similaires en août et octobre de l’année dernière. En août, xAI a lancé le « mode épicé » dans Grok Imagine, déclenchant la création massive de deepfakes sexuellement explicites et non consensuels. TechCrunch a également signalé en août que les conversations privées de Grok avaient été indexées par la recherche Google.

Avant la lettre d’octobre, Grok était accusé d’avoir fourni de fausses informations électorales, notamment de fausses dates limites pour les modifications des bulletins de vote et des contrefaçons politiques. xAI a également lancé Grokipedia, dont les chercheurs ont découvert qu’il légitimait le racisme scientifique, le scepticisme face au VIH/SIDA et les complots vaccinaux.

En plus de suspendre immédiatement le déploiement fédéral de Grok, la lettre exige que l’OMB enquête officiellement sur les manquements à la sécurité de Grok et demande si les processus de surveillance appropriés ont été menés pour le chatbot. Il demande également à l’agence de clarifier publiquement si Grok a été évalué comme étant conforme au décret de Trump exigeant que les LLM soient neutres et en quête de vérité et s’il répond aux normes d’atténuation des risques de l’OMB.

« L’administration doit faire une pause et réévaluer si Grok atteint ou non ces seuils », a déclaré Branch.

TechCrunch a contacté xAI et OMB pour commentaires.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleLe fondateur d’UpScrolled affirme que le réseau social a dépassé les 2,5 millions d’utilisateurs
Next Article Le président Trump est furieux de la blague de Trevor Noah reliant Bill Clinton à Jeffrey Epstein : « Je ne peux pas parler au nom de Bill, mais je ne suis jamais allé sur l’île d’Epstein. »
John
  • Website

Related Posts

Amazon frappe les vendeurs avec un « supplément carburant » alors que la guerre en Iran huile les marchés mondiaux de l’énergie

avril 2, 2026

Le géant de la télésanté Hims & Hers affirme que son système de support client a été piraté

avril 2, 2026

Artemis II est la dernière mission lunaire de la NASA sans la Silicon Valley

avril 2, 2026

OpenAI acquiert TBPN, le talk-show commercial animé dirigé par son fondateur

avril 2, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

OPay nommé sponsor principal du BusinessDay Fintech Summit 2026

avril 2, 2026

Fintech Unicorn Dan prévoit l’acquisition potentielle d’Infinite Club pour accélérer sa croissance

avril 2, 2026

Le retour sur investissement de la plateforme de paiement dépend uniquement du choix technologique

avril 2, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Un marché tumultueux a conduit à une année record pour le XTX d’Alex Garko

avril 3, 2026

Sundar Pichai, PDG de Google : les centres de données spatiaux deviendront la nouvelle norme au cours des 10 prochaines années

avril 3, 2026

Les corbynistes s’unissent aux Verts de Zac Polanski

avril 3, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.