CAMBRIDGE, MASSACHUSETTS (AP) – Après avoir retiré la diversité du lieu de travail, les actions et les programmes complets, les entreprises technologiques ont été en mesure de faire face à des travaux de DEI sur les produits d’IA pour la deuxième fois.
Au Congrès dirigé par la Maison Blanche et dirigée par les républicains, « Woke IA » a remplacé la discrimination algorithmique nuisible comme un problème qui doit être résolu. L’enquête vise à produire une « production nocive et biaisée », selon les efforts passés pour « améliorer les capitaux propres » dans le développement de l’IA et une assignation envoyée par le comité judiciaire de la Chambre le mois dernier à Amazon, Google, Meta, Microsoft, OpenAI et 10 autres technologies.
La division des normes du département américain du Commerce a également supprimé les mentions de l’équité, de la sécurité et de l’IA «d’IA responsable» de l’IA à la collaboration avec des chercheurs externes. Au lieu de cela, une copie du document obtenu par l’Associated Press ordonne aux scientifiques de se concentrer sur la «réduction des préjugés idéologiques» d’une manière qui «permette la prospérité humaine et la compétitivité économique».
À certains égards, les travailleurs de la technologie sont habitués aux priorités dirigées par Washington.
Cependant, le dernier changement a soulevé des préoccupations parmi les experts dans le domaine, notamment la sociologue de Harvard, Ellis Monk. Il y a quelques années, Google a approché des produits d’IA pour les rendre plus complets.
À l’époque, l’industrie technologique savait déjà qu’il y avait un problème avec les succursales d’IA qui forment les machines à « voir » et à comprendre et à comprendre les images. La vision par ordinateur avait de grandes promesses commerciales, mais a répété les biais historiques observés dans la technologie précédente de la caméra, représentant les personnes en noir et brun dans une lumière étonnante.
« Les gens noirs ou à la peau apparaissent sur les photos et nous avons parfois l’air ridicule », a déclaré Monk, un érudit du colorisme, une forme de discrimination basée sur le teint des gens et d’autres caractéristiques.
Google a adopté l’échelle des couleurs inventée par Monk, améliorant la façon dont les outils d’imagerie de l’IA dépeignent la diversité des tons de peau humaine, en remplaçant les normes vieille des décennies conçues pour les médecins qui traitent les patients en dermatologie blanc.
« Les consommateurs ont certainement eu une grande réponse positive au changement », a-t-il déclaré.
Maintenant, les moines se demandent si de tels efforts se poursuivront à l’avenir. Il ne croit pas que l’échelle de tonalité de la peau de son moine est menacée car il est déjà brûlé dans des dizaines de produits sur Google et ailleurs, y compris les téléphones-appareils photo, les jeux vidéo et les générateurs d’images de l’IA, mais lui et d’autres chercheurs craignent que la nouvelle humeur refroidisse les initiatives et les fonds futurs pour améliorer la technologie encore.
« Google veut travailler avec nos produits pour tout le monde, comme l’Inde, la Chine, l’Afrique, et cette partie est une sorte d’immunité », a déclaré Monk. « Mais le financement futur pour ces types de projets pourrait tomber? Absolument, lorsque l’humeur politique change et qu’il y a beaucoup de pression pour se rendre sur le marché très rapidement. »
Alors que Trump a réduit des centaines de subventions de financement scientifique, technologie et santé en abordant le thème de Dei, l’impact sur le développement commercial de chatbots et d’autres produits d’IA est plus indirect. Dans une enquête sur les sociétés de l’IA, le représentant Jim Jordan, président du comité judiciaire, a déclaré qu’il voulait savoir si l’administration de l’ancien président Joe Biden « forcé ou conspiration » pour censurer les discours juridiques.
Michael Kratzos, directeur du Département des sciences et technologiques de la Maison Blanche, a déclaré ce mois-ci lors d’un événement du Texas que la politique de l’IA de Biden « favorise la division sociale et la redistribution au nom de l’équité ».
L’administration Trump a refusé de rendre le Kratsios disponible pour des entretiens, mais a cité quelques exemples de ce qu’il voulait dire. L’une était une ligne de la stratégie de recherche de l’IA de l’ère Biden qui disait: « Sans contrôle approprié, les systèmes d’IA peuvent amplifier, perpétuer ou exacerber les résultats injustes ou indésirables pour les individus et les communautés. »
Même avant que Biden ne prenne ses fonctions, un nombre croissant de recherches et d’anecdotes personnelles se sont concentrées sur les préjudices du biais de l’IA.
Une étude a montré que la technologie automobile autonome a du mal à détecter les piétons à la peau foncée et à augmenter le risque de s’échapper. Une autre étude demandant aux générateurs de texte à l’image d’IA populaires pour créer des photos de chirurgiens a révélé que les hommes produisent des hommes blancs à environ 98% du temps, beaucoup plus élevés que leurs proportions réelles, même dans un domaine principalement vaste.
Le logiciel de correspondance du visage pour déverrouiller votre téléphone a un visage asiatique mal identifié. La police des villes américaines a arrêté par erreur un homme noir basé sur de fausses matchs de reconnaissance faciale. Il y a dix ans, l’application de photographie de Google a divisé deux photos noires en catégories étiquetées «gorilles».
Même les premiers scientifiques du gouvernement de l’administration Trump ont conclu en 2019 que la technologie de reconnaissance faciale fonctionne de manière inégale basée sur la race, le sexe ou l’âge.
L’élection de Biden a poussé certaines entreprises technologiques à se concentrer sur les actions de l’IA. L’arrivée d’OpenAI en 2022 de Chatgpt a ajouté de nouvelles priorités, créant un boom commercial dans de nouvelles applications d’IA pour la création de documents et la génération d’images, exerçant une pression sur des entreprises comme Google pour promouvoir l’attention et suivre.
Puis vint le chatbot Gemini AI de Google. L’année dernière, un produit imparfait a été introduit qui est devenu le symbole de « Woke IA » que les conservateurs voulaient résoudre. Parce qu’il est laissé à ses propres appareils, les outils d’IA qui génèrent des images à partir d’invites écrites ont tendance à perpétuer les stéréotypes accumulés à partir de toutes les données visuelles formées.
Google est similaire et lorsqu’on lui demande de dépeindre les gens de diverses professions, les jeunes femmes sont plus susceptibles de préférer les visages et les hommes à la peau, et lorsque les femmes sont choisies, les jeunes femmes, selon les recherches officielles de la société.
Google a tenté de placer des garde-corps techniques pour réduire ces disparités avant de déployer le générateur d’images d’IA de Gemini il y a plus d’un an. Il a été surcompensé en raison de biais, plaçant des personnes de couleur et des femmes dans un environnement historique inexact. Par exemple, répondant aux exigences des pères du fondateur américain, qui ont l’image d’hommes vêtus du XVIIIe siècle, qui ressemblent à des noirs, des Asie et des Amérindiens. Google s’est rapidement excusé et a temporairement retiré la fonctionnalité, mais la colère est devenue un cri de rallye qui a été entrepris par les droits politiques.
Avec le PDG de Google Sundar Pichai assis à proximité, le vice-président JD Vance a utilisé le sommet de l’IA à Paris en février pour condamner les progrès dans « un programme social vraiment historique à l’IA ».
« Nous devons nous souvenir des leçons que nous avons apprises de ces moments ridicules », a déclaré Vance lors du rassemblement. « Et ce que nous en tirons, c’est de veiller à ce que les systèmes d’IA de l’administration Trump développés aux États-Unis soient libérés des préjugés idéologiques et ne limitent jamais les droits de nos citoyens à la liberté d’expression. »
Un ancien conseiller scientifique de Biden qui a assisté à ce discours, Alondra Nelson, a déclaré que l’accent mis sur les « biais idéologiques » de l’IA de l’administration Trump est une perception d’années de travail pour lutter contre les préjugés algorithmiques qui pourraient en quelque sorte affecter le logement, les hypothèques, les soins de santé et d’autres aspects de la vie des gens.
« Essentiellement, dire que les systèmes d’IA sont biaisés idéologiquement, signifie que nous identifions, reconnaissons et nous inquiétons des problèmes de biais de l’algorithme dont beaucoup d’entre nous sont préoccupés depuis longtemps. »
Cependant, Nelson voit peu de place pour la collaboration au milieu d’une calomnie d’initiatives impartiales de l’IA.
« Malheureusement, dans cet espace politique, je pense que c’est très peu probable », a-t-elle déclaré. « Les problèmes qui reçoivent des noms différents – l’identification des algorithmes ou le biais d’algorithme d’une part, et le biais idéologique d’autre part, malheureusement, sont considérés comme deux problèmes différents. »