Alors que la reconnaissance faciale et la technologie de l’IA augmentent en adoption dans les forces de l’ordre américaines, les preuves d’une utilisation inappropriée, d’un biais et d’un manque de responsabilité soulignent le besoin urgent de surveillance malgré l’élan politique en faveur de la déréglementation et de l’expansion des entreprises.
Malgré l’optimisme technologique rayonné des chefs de file de l’industrie et de l’administration Trump, l’humeur du public devient de plus en plus sceptique. La suppression du président Biden d’un développement sûr, sécurisé, fiable et fiable et de l’utilisation des décrets pour l’intelligence artificielle (où l’IA a imposé des garde-corps fédéraux) et l’autonomisation d’Elon Musk de l’efficacité du gouvernement (DOGE) avec un accès approfondi aux données sensibles du gouvernement ont alimenté cette incertitude.
L’opinion publique soutenue par une analyse d’experts montre un groove élargi entre les promesses de l’IA et sa performance, en particulier dans le contexte policier que la fausse identification, la surveillance et l’identification algorithmique ne sont pas seulement des risques théoriques, mais également une réalité documentée.
La technologie de reconnaissance faciale, qui est devenue le centre des boîtes à outils AI d’application de la loi, est de plus en plus connue de sa disparité, et non de sa précision. De nombreuses études académiques et gouvernementales dans ces systèmes documentent les biais raciaux et de genre.
Les tests biométriques de l’Institut national des normes et de la technologie (NIST) ont constaté que la majorité des algorithmes de reconnaissance faciale sont « très susceptibles d’identifier mal les personnes de couleur, de femmes et de personnes âgées. Des sept personnes qui ont été illégalement arrêtées aux États-Unis en fonction d’un match de fausse reconnaissance faciale et qui ont été illustrés par la suite de toutes les charges, six sont noirs.
Selon une revue complète du Pew Research Center en avril, 55% des experts de l’IA ont exprimé une grande préoccupation concernant les biais dans la prise de décision de l’IA, y compris les systèmes de reconnaissance faciale. Cette préoccupation est enracinée dans les preuves difficiles que les algorithmes de reconnaissance faciale ne fonctionnent pas de manière cohérente et plus précisément lors de l’identification des individus blancs, masculins ou non-âge.
Le résultat n’est pas abstrait. En justice pénale, une fausse identification peut entraîner une arrestation illégale, une détention ou pire encore. Cependant, en vertu de la poussée de l’administration Trump pour la déréglementation, y compris une loi fédérale proposée d’une décennie qui entrave les règles de l’IA au niveau de l’État, le déploiement de ces outils se poursuivra avec une responsabilité minimale.
Malgré les alarmes accrues, certains dirigeants de la technologie comme Sam Altman d’Openai ont récemment annulé les cours et minimisé la nécessité d’une réglementation après avoir préalablement averti les risques de l’IA. Cette incohérence, associée à des contrats fédéraux à grande échelle et aux pratiques de déploiement incertaines, sape la confiance du public dans les parties prenantes des entreprises et les régulateurs du gouvernement.
Ce qui est impressionnant, c’est comment les préoccupations bipartites sont devenues. Selon une enquête Pew, seulement 17% des Américains pensent que l’IA aura un impact positif sur les États-Unis au cours des 20 prochaines années, 51% exprimant plus de préoccupation que l’excitation quant à son rôle en expansion. Ces chiffres représentent des changements majeurs depuis les premières années et les zones de consensus rares entre les circonscriptions libérales et conservatrices.
Environ 55% des adultes américains et 57% des experts de l’IA disent qu’ils veulent avoir plus de contrôle sur la façon dont l’IA est utilisée dans leur vie, montrant un bon sens de l’impuissance car l’IA imprègne les fonctions quotidiennes. Ceci est particulièrement pertinent pour la suppression des forces de l’ordre. Ici, il n’est souvent pas possible que le public ait un moyen significatif de se retirer de la surveillance, de l’analyse ou de la signalisation par des algorithmes.
Cette disparité n’est pas seulement entre les décideurs publics et politiques, mais également entre les ingénieurs du secteur public et privé. Par exemple, 60% des experts de l’IA travaillant dans les universités disent avoir peu ou pas de confiance que les entreprises se développent de manière responsable avec l’IA, contre seulement 39% des entreprises privées.
De même, l’agence Brookings a récemment déclaré: « Une revue de la littérature révèle que l’opinion publique sur l’IA est multiforme et dynamique. Dans l’ensemble, les masses américaines et britanniques ont tendance à être optimistes quant à l’impact de l’IA, mais de nombreuses personnes ont des opinions mitigées ou incohérentes. Les gouvernements la mettent en œuvre eux-mêmes. »
« Comme nous le soutenons, la compréhension des attitudes du public envers l’IA aide à plusieurs fonctions importantes », a déclaré l’installation de Brookings. « Il aide les développeurs de l’IA à aligner leurs produits sur les attentes sociales, permet à la société civile de plaider efficacement et permet aux décideurs de créer des réglementations qui reflètent les valeurs publiques plutôt que de simples ordres techniques ou commerciaux. »
« Cependant, pour réaliser ces objectifs, nous avons besoin d’un meilleur mécanisme pour étudier et comprendre l’opinion publique », a-t-il déclaré, « le sentiment public envers l’IA semble être plus négatif que positif dans les pays occidentaux.
Les systèmes d’IA de biais d’application de la loi ne sont pas simplement le produit d’erreurs techniques. Cela reflète une sous-estimation systématique et des priorités déformées dans la conception de l’IA. Selon le Pew Survey, seulement 44% des experts de l’IA estiment que les perspectives des femmes sont correctement expliquées dans le développement de l’IA. Le nombre de minorités raciales et ethniques chute encore plus. Seulement 27% et 25% disent que les perspectives des communautés noires et hispaniques sont bien représentées dans le système d’IA, respectivement.
Ces disparités sont plus que la simple surveillance. Ils sont intégrés dans la façon dont les données sont collectées, étiquetées et déployées. Les systèmes d’IA formés avec des ensembles de données qui reflètent de manière disproportionnée les expériences des hommes blancs peuvent échouer lorsqu’ils sont appliqués à diverses populations. Ceci est particulièrement dangereux dans l’application des lois. Certains systèmes de reconnaissance faciale identifient mal les noirs à un rythme beaucoup plus élevé, augmentant le risque d’interactions illégales avec la police.
Les experts interrogés par Pew ont décrit la sous-estimation des communautés marginalisées dans l’IA comme des défauts techniques et des échecs sociaux. Un expert a noté que parce que l’IA est principalement formée avec les données Internet provenant de riches pays occidentaux, les modèles reproduisent les biais structurels intégrés dans ces sociétés. Un autre expert a observé que les efforts pour améliorer la diversité de la main-d’œuvre, qui est essentiel pour améliorer l’équité des modèles, ont été discrètement abandonnés alors que les entreprises sont confrontées à des reculs politiques et à des pressions économiques.
Pendant ce temps, l’administration Trump a adopté une approche opposée à la restriction. Le démantèlement du décret de Biden et la montée en puissance de Doge ont conduit à un déploiement sans précédent de l’IA dans les agences fédérales sans transparence ni responsabilité. Comme le montre les données Pew, 62% du public et 53% des experts de l’IA manquent de confiance dans la capacité du gouvernement à réglementer efficacement l’IA. Une majorité similaire est sceptique quant à l’autorégulation de l’industrie.
Alors que les républicains du Congrès soutiennent une suspension sur les réglementations de l’IA de l’État et font pression pour des lois qui entravent 10 ans d’application, ils ont besoin des mécanismes nécessaires pour traiter les biais et garantir que la précision est systématiquement démantelée. Cette préemption juridique permet aux systèmes d’IA victimes défectueux de se multiplier sans compter au nom de la victime.
C’est dans ce vide que les forces de l’ordre continuent de déployer la technologie de reconnaissance faciale renforcée par les dollars fédéraux et les partenariats d’entreprise. Le résultat est un système qui utilise une IA non testée ou biaisée sur des personnes réelles sans surveillance publique significative et dans des environnements de justice pénale où les intérêts ne peuvent pas être élevés.
Dans son livre, « Techlash: Qui établit les règles de l’âge de la Guilde numérique? », Tom Wheeler a prédit que les capacités techniques intensives, les innovations non identifiées et les conflits de préjudice public pouvaient entraîner un contrecoup politique. Cette réaction a déjà été démontrée dans les données de sondage, les avertissements d’experts et les mesures législatives au niveau de l’État qui cherchent à limiter la surveillance biométrique.
La frustration du public augmente non seulement en raison de l’inaction du gouvernement mais aussi du biais de l’industrie. Les efforts pour présenter l’IA dans une équité neutre ou essentiellement sont pleins face à des preuves réelles. Plus d’IA prennent des décisions discriminatoires, plus il y aura de demandes pour la surveillance démocratique, les audits publics et les réglementations dentaires.
Mais malgré ces préoccupations, les dirigeants politiques le long du secteur technique ne semblent pas vouloir reconnaître la profondeur du problème. Cette attitude négative peut s’avérer myope. Comme le montre l’histoire, les excès techniques non identifiés conduisent inévitablement à des révisions réglementaires lorsque le préjudice du public est trop visible au point de négliger.
Le déploiement de l’IA dans l’application des lois est peut-être l’exemple le plus vivant de la rapidité avec laquelle la technologie non réglementée peut saper les libertés civiles. L’utilisation abusive de la reconnaissance faciale des fausses arrestations est portée par de vraies personnes de manière disproportionnée à partir de communautés marginalisées si le fardeau du mensonge n’est pas abstrait.
Pour inverser cette trajectoire, la confiance du public doit être restaurée par une réforme systématique. Cela implique un audit indépendant des outils d’IA d’application de la loi, des comités de surveillance communautaire, des tests de biais essentiels et des affirmations selon lesquelles le financement fédéral de l’IA est lié à des pratiques transparentes et responsables.
Sans ces changements, la légitimité de l’IA dans la sécurité publique reste un problème. La possibilité de progrès technologique est cachée par la peur, le doute, les dommages, les dommages et la promesse de la TI dans sa capacité à améliorer la vie et à augmenter les capitaux propres n’est pas gaspillé à cause de ce qu’elle est, mais comment elle a été utilisée.
Sujets d’article
Ai | Biométrique biométrique | Authentification biométrique | Reconnaissance du visage | Faux Arrestation | Loi | Police | Règlement | Ai responsable