Lorsque Deepseek, Alibaba et d’autres sociétés chinoises sont prêts aux modèles d’IA, les chercheurs occidentaux remarquent rapidement qu’ils sont des côtés et critiques envers le Parti communiste chinois. Plus tard, des responsables américains ont confirmé que ces outils sont motivés pour refléter les points de discussion de Pékin, ce qui soulève des préoccupations concernant la censure et les préjugés.
Les dirigeants américains de l’IA comme Openai ont renoncé à cela comme une justification pour faire avancer leur technologie rapidement, sans trop de surveillance. Comme l’a écrit le directeur des affaires mondiales d’Openai, Chris Lehane, dans un poste de LinkedIn le mois dernier, il y a un «IA démocratique américain et dirigé par les États-Unis et l’IA autocratique chinoise dirigée par les communistes».
Un décret exécutif a signé mercredi par le président Donald Trump qui interdit les modèles «réveillés de l’IA» et de l’IA qui ne sont pas «idéologiquement neutres» du gouvernement pourraient perturber cet équilibre.
L’ordre appelle la diversité, l’équité et l’inclusion (DEI) l’appelant une idéologie «omniprésente et destructrice» qui peut «fausser la qualité et la précision de la production». Plus précisément, l’ordre fait référence à des informations sur la race ou le sexe, la manipulation de la représentation raciale ou sexuelle, la théorie critique de la race, le transgenre, le biais inconscient, l’intersectional et le racisme système.
Les experts avertissent qu’il pourrait créer un effet effrayant sur les développeurs qui peuvent ressentir une pression pour aligner les sorties du modèle et les ensembles de données avec la rhétorique de la Maison Blanche pour garantir des dollars fédéraux pour leur entreprise en espèces.
L’ordre survient le même jour que la Maison Blanche a publié le «plan d’action de l’IA» de Trump, ce qui éloigne les priorités nationales des risques sociétaux et se concentre sur la construction d’infrastructures d’IA, la réduction des formalités administratives pour les entreprises technologiques, la sécurité nationale et le compating avec la Chine.
L’ordonnance dirige le directeur de l’Office of Management and Budget ainsi que l’administrateur de la politique fédérale sur l’approvisionnement, l’administrateur des services généraux et le directeur de l’Office of Science and Technology Policy, pour émettre des conseils à d’autres agences sur la façon de se conformer.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
« Une fois pour toutes, nous nous débarrassons de Woke », a déclaré Trump mercredi lors d’un événement de l’IA organisé par le podcast All-In et Hill & Valley Forum. «Je vais signer une ordonnance interdisant au gouvernement fédéral d’obtenir une technologie d’IA qui a été imprégnée de préjugés des supporters ou d’agendas idéologiques, tels que la théorie critique de la race, ce qui est ridicule. Et à partir de maintenant, le gouvernement américain ne traitera que de l’IA qui offre la vérité et une stricte impartialité.»
Déterminer ce qui est impartial ou objectif est l’un des nombreux défis à l’ordre.
Philip Seareant, lecture senior en linguistique appliquée à l’université ouverte, a déclaré à TechCrunch que rien ne peut être objectif.
« L’un des principes fondamentaux de la sociolinguistique est que la langue est neutre », a déclaré le sergent. « Donc, l’idée que vous pouvez chaque objectif est un fantasme. »
En plus de cela, l’idéologie de l’administration Trump ne reflète pas les croyances et les valeurs de tous les Américains. Trump a cherché à plusieurs reprises à émerger le financement des initiatives climatiques, de l’éducation, de la radiodiffusion publique, de la recherche, des subventions aux services sociaux, des programmes de soutien communautaire et agricole et des soins affirmés par les sexes, encadrant souvent ces initiatives asmples de dépenses gouvernementales «réveillées» ou politiquement biaisées.
Alors que Rumman Chowdhury, un scientifique des données, PDG de la technologie à but non lucratif humain, et formez la science américaine pour l’IA, l’a dit: «Tout ce qui est (tout ce que l’administration Trump ne aime pas) est à l’abri de ce tas péjoratif de Woke».
Les définitions de la «recherche de vérité» et de la «neutralité idéologique» dans l’ordre publié mercredi sont vagues à certains égards et spécifiques dans d’autres. Alors que la «recherche de vérité» est définie comme des LLM qui «priorisent la précision historique, la recherche scientifique et l’objectif», la «neutralité idéologique» est définie comme des LLM qui sont des «outils neutres et non partisans qui ne manipulent pas Dei».
Ces définitions laissent de la place à une large interprétation, ainsi qu’à une presse potentielle. Les sociétés d’IA ont poussé à moins de contraintes sur la façon dont elles fonctionnent. Et bien qu’un décret ne porte pas la force de la législation, les entreprises de l’IA frontalière pourraient encore se retrouver soumises aux priorités changeantes de l’agenda politique de l’administration.
La semaine dernière, Openai, Anthropic, Google et XAI ont signé des contrats avec le ministère de la Défense pour recevoir jusqu’à 200 millions de dollars chacun pour développer des flux de travail d’IA agentiques qui relèvent des défis de sécurité nationale critiques.
Il n’est pas clair que de ces sociétés est mieux placée pour gagner de l’interdiction de l’IA réveillée, ou si elles se conforment.
TechCrunch a contacté chacun d’eux et mettra à jour cet article si nous entendons.
Malgré l’affichage de ses propres biais, XAI peut être le plus aligné sur l’ordre – du moins à ce stage précoce. Elon Musk a positionné Grok, le chatbot de Xai, comme l’ultime anti-réveil, «moins biaisé», Truthseer. Les invites du système de Grok l’ont dirigé pour éviter de reporter les autorités et les médias traditionnels, pour rechercher des informations contraires même si elles sont politiquement incorrectes, et même pour référencer les opinions de Musk sur des sujets controversés. Ces derniers mois, Grok a même jeté des commentaires antisémites et a félicité Hitler sur X, entre autres articles haineux, racistes et misogynes.
Mark Lemley, professeur de droit à l’Université de Stanford, a déclaré à TechCrunch que le décret est «clairement destiné à la discrimination de la vue, la vente (le gouvernement), il suffit de signer un contrat avec Grok, alias« mechahitler ».
Parallèlement au financement du DoD de XAI, la société a annoncé que «Grok for Governd» avait été ajouté au calendrier de l’administration des services généraux, ce qui signifie que les produits XAI sont désormais averables à l’achat dans tous les bureaux et agences du gouvernement.
«La bonne question est la suivante: interdisent-ils Grok, l’IA avec qui ils viennent de signer un gros contrat, car il a été de délibéralités pour donner des réponses politiquement chargées?» Lemley a déclaré dans une interview par e-mail. «Sinon, il est clairement conçu pour discriminer un point de vue particulier.»
Comme l’ont montré les invites du système de Grok, les sorties du modèle peuvent refléter les deux personnes sur la technologie et les données sur lesquelles l’IA est formée. Dans certaines cases, une surabumination de Bond entre les développeurs et une formation sur le contenu Internet qui favorise des valeurs comme Inclusive doit déformer les sorties du modèle. Google, par exemple, l’année dernière a été critiqué après que son chatbot Gemini a montré un Black George Washington et des nazis racialement différents, ce que l’Ordre de Trump appelle comme un exemple de modèles d’IA infetés à Dei.
Chowdhury dit que sa plus grande crainte avec ce décret est que les sociétés de l’IA repenseront activement la formation des données pour remorquer la ligne du parti. Elle a atteint des déclarations de Musk quelques semaines avant de lancer Grok 4, affirmant que Xai utiliserait le nouveau modèle et ses capacités de raisonnement avancées pour «réécrire l’ensemble du corpus de connaissances humaines, l’ajout d’informations manquantes et la suppression des erreurs.
Cela placerait ostensiblement le musc dans la position de juger ce qui est vrai, ce qui pourrait avoir d’énormes implications en aval sur la façon dont les informations sont accélérées.
De race, les entreprises ont fait des jugements sur les informations que les informations sont vues et non vues depuis l’aube d’Internet.
Des conservateurs comme David Sacks – l’entrepreneur et l’investisseur que Trump a nommé comme tsar-has a été franc sur ses préoccupations concernant « Woke Ai » sur le podcast tout-in, qui a co-organisé les annonces du jour de l’IA de Trump. Sacks a accusé les créateurs de produits de l’IA extérieurs de les infuser des valeurs de gauche, de cadrer ses arguments en matière de défense de la liberté d’expression et d’un avertissement contre une tendance à un contrôle idéologique centralisé dans les plateformes numériques.
Le problème, disent les experts, est qu’il n’y a pas de vérité. Il est impossible d’obtenir des résultats impartiaux ou neutres, en particulier dans le monde de Teday où même les faits sont politisés.
« Si les résultats qu’une IA produit dit que la science du climat est correcte, est-ce le biais de gauche? » Dit Searging. «Certaines personnes disent que vous devez donner les deux côtés de l’argument à objectif, même si un côté de l’argument n’a aucun statut.»