Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Les dépenses de combustibles fossiles tombent pour la première fois depuis la pandémie

juin 5, 2025

L’Amérique du Nord prend la majeure partie des investissements en VC AI, malgré un environnement politique difficile

juin 5, 2025

Donald Trump cible les immigrants et Joe Biden avec une explosion de commande

juin 5, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » L’optimisme technologique est l’IA, le FRT et la police.
Technology

L’optimisme technologique est l’IA, le FRT et la police.

JohnBy Johnmai 28, 2025Aucun commentaire10 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Alors que la reconnaissance faciale et la technologie de l’IA augmentent en adoption dans les forces de l’ordre américaines, les preuves d’une utilisation inappropriée, d’un biais et d’un manque de responsabilité soulignent le besoin urgent de surveillance malgré l’élan politique en faveur de la déréglementation et de l’expansion des entreprises.

Malgré l’optimisme technologique rayonné des chefs de file de l’industrie et de l’administration Trump, l’humeur du public devient de plus en plus sceptique. La suppression du président Biden d’un développement sûr, sécurisé, fiable et fiable et de l’utilisation des décrets pour l’intelligence artificielle (où l’IA a imposé des garde-corps fédéraux) et l’autonomisation d’Elon Musk de l’efficacité du gouvernement (DOGE) avec un accès approfondi aux données sensibles du gouvernement ont alimenté cette incertitude.

L’opinion publique soutenue par une analyse d’experts montre un groove élargi entre les promesses de l’IA et sa performance, en particulier dans le contexte policier que la fausse identification, la surveillance et l’identification algorithmique ne sont pas seulement des risques théoriques, mais également une réalité documentée.

La technologie de reconnaissance faciale, qui est devenue le centre des boîtes à outils AI d’application de la loi, est de plus en plus connue de sa disparité, et non de sa précision. De nombreuses études académiques et gouvernementales dans ces systèmes documentent les biais raciaux et de genre.

Les tests biométriques de l’Institut national des normes et de la technologie (NIST) ont constaté que la majorité des algorithmes de reconnaissance faciale sont « très susceptibles d’identifier mal les personnes de couleur, de femmes et de personnes âgées. Des sept personnes qui ont été illégalement arrêtées aux États-Unis en fonction d’un match de fausse reconnaissance faciale et qui ont été illustrés par la suite de toutes les charges, six sont noirs.

Selon une revue complète du Pew Research Center en avril, 55% des experts de l’IA ont exprimé une grande préoccupation concernant les biais dans la prise de décision de l’IA, y compris les systèmes de reconnaissance faciale. Cette préoccupation est enracinée dans les preuves difficiles que les algorithmes de reconnaissance faciale ne fonctionnent pas de manière cohérente et plus précisément lors de l’identification des individus blancs, masculins ou non-âge.

Le résultat n’est pas abstrait. En justice pénale, une fausse identification peut entraîner une arrestation illégale, une détention ou pire encore. Cependant, en vertu de la poussée de l’administration Trump pour la déréglementation, y compris une loi fédérale proposée d’une décennie qui entrave les règles de l’IA au niveau de l’État, le déploiement de ces outils se poursuivra avec une responsabilité minimale.

Malgré les alarmes accrues, certains dirigeants de la technologie comme Sam Altman d’Openai ont récemment annulé les cours et minimisé la nécessité d’une réglementation après avoir préalablement averti les risques de l’IA. Cette incohérence, associée à des contrats fédéraux à grande échelle et aux pratiques de déploiement incertaines, sape la confiance du public dans les parties prenantes des entreprises et les régulateurs du gouvernement.

Ce qui est impressionnant, c’est comment les préoccupations bipartites sont devenues. Selon une enquête Pew, seulement 17% des Américains pensent que l’IA aura un impact positif sur les États-Unis au cours des 20 prochaines années, 51% exprimant plus de préoccupation que l’excitation quant à son rôle en expansion. Ces chiffres représentent des changements majeurs depuis les premières années et les zones de consensus rares entre les circonscriptions libérales et conservatrices.

Environ 55% des adultes américains et 57% des experts de l’IA disent qu’ils veulent avoir plus de contrôle sur la façon dont l’IA est utilisée dans leur vie, montrant un bon sens de l’impuissance car l’IA imprègne les fonctions quotidiennes. Ceci est particulièrement pertinent pour la suppression des forces de l’ordre. Ici, il n’est souvent pas possible que le public ait un moyen significatif de se retirer de la surveillance, de l’analyse ou de la signalisation par des algorithmes.

Cette disparité n’est pas seulement entre les décideurs publics et politiques, mais également entre les ingénieurs du secteur public et privé. Par exemple, 60% des experts de l’IA travaillant dans les universités disent avoir peu ou pas de confiance que les entreprises se développent de manière responsable avec l’IA, contre seulement 39% des entreprises privées.

De même, l’agence Brookings a récemment déclaré: « Une revue de la littérature révèle que l’opinion publique sur l’IA est multiforme et dynamique. Dans l’ensemble, les masses américaines et britanniques ont tendance à être optimistes quant à l’impact de l’IA, mais de nombreuses personnes ont des opinions mitigées ou incohérentes. Les gouvernements la mettent en œuvre eux-mêmes. »

« Comme nous le soutenons, la compréhension des attitudes du public envers l’IA aide à plusieurs fonctions importantes », a déclaré l’installation de Brookings. « Il aide les développeurs de l’IA à aligner leurs produits sur les attentes sociales, permet à la société civile de plaider efficacement et permet aux décideurs de créer des réglementations qui reflètent les valeurs publiques plutôt que de simples ordres techniques ou commerciaux. »

« Cependant, pour réaliser ces objectifs, nous avons besoin d’un meilleur mécanisme pour étudier et comprendre l’opinion publique », a-t-il déclaré, « le sentiment public envers l’IA semble être plus négatif que positif dans les pays occidentaux.

Les systèmes d’IA de biais d’application de la loi ne sont pas simplement le produit d’erreurs techniques. Cela reflète une sous-estimation systématique et des priorités déformées dans la conception de l’IA. Selon le Pew Survey, seulement 44% des experts de l’IA estiment que les perspectives des femmes sont correctement expliquées dans le développement de l’IA. Le nombre de minorités raciales et ethniques chute encore plus. Seulement 27% et 25% disent que les perspectives des communautés noires et hispaniques sont bien représentées dans le système d’IA, respectivement.

Ces disparités sont plus que la simple surveillance. Ils sont intégrés dans la façon dont les données sont collectées, étiquetées et déployées. Les systèmes d’IA formés avec des ensembles de données qui reflètent de manière disproportionnée les expériences des hommes blancs peuvent échouer lorsqu’ils sont appliqués à diverses populations. Ceci est particulièrement dangereux dans l’application des lois. Certains systèmes de reconnaissance faciale identifient mal les noirs à un rythme beaucoup plus élevé, augmentant le risque d’interactions illégales avec la police.

Les experts interrogés par Pew ont décrit la sous-estimation des communautés marginalisées dans l’IA comme des défauts techniques et des échecs sociaux. Un expert a noté que parce que l’IA est principalement formée avec les données Internet provenant de riches pays occidentaux, les modèles reproduisent les biais structurels intégrés dans ces sociétés. Un autre expert a observé que les efforts pour améliorer la diversité de la main-d’œuvre, qui est essentiel pour améliorer l’équité des modèles, ont été discrètement abandonnés alors que les entreprises sont confrontées à des reculs politiques et à des pressions économiques.

Pendant ce temps, l’administration Trump a adopté une approche opposée à la restriction. Le démantèlement du décret de Biden et la montée en puissance de Doge ont conduit à un déploiement sans précédent de l’IA dans les agences fédérales sans transparence ni responsabilité. Comme le montre les données Pew, 62% du public et 53% des experts de l’IA manquent de confiance dans la capacité du gouvernement à réglementer efficacement l’IA. Une majorité similaire est sceptique quant à l’autorégulation de l’industrie.

Alors que les républicains du Congrès soutiennent une suspension sur les réglementations de l’IA de l’État et font pression pour des lois qui entravent 10 ans d’application, ils ont besoin des mécanismes nécessaires pour traiter les biais et garantir que la précision est systématiquement démantelée. Cette préemption juridique permet aux systèmes d’IA victimes défectueux de se multiplier sans compter au nom de la victime.

C’est dans ce vide que les forces de l’ordre continuent de déployer la technologie de reconnaissance faciale renforcée par les dollars fédéraux et les partenariats d’entreprise. Le résultat est un système qui utilise une IA non testée ou biaisée sur des personnes réelles sans surveillance publique significative et dans des environnements de justice pénale où les intérêts ne peuvent pas être élevés.

Dans son livre, « Techlash: Qui établit les règles de l’âge de la Guilde numérique? », Tom Wheeler a prédit que les capacités techniques intensives, les innovations non identifiées et les conflits de préjudice public pouvaient entraîner un contrecoup politique. Cette réaction a déjà été démontrée dans les données de sondage, les avertissements d’experts et les mesures législatives au niveau de l’État qui cherchent à limiter la surveillance biométrique.

La frustration du public augmente non seulement en raison de l’inaction du gouvernement mais aussi du biais de l’industrie. Les efforts pour présenter l’IA dans une équité neutre ou essentiellement sont pleins face à des preuves réelles. Plus d’IA prennent des décisions discriminatoires, plus il y aura de demandes pour la surveillance démocratique, les audits publics et les réglementations dentaires.

Mais malgré ces préoccupations, les dirigeants politiques le long du secteur technique ne semblent pas vouloir reconnaître la profondeur du problème. Cette attitude négative peut s’avérer myope. Comme le montre l’histoire, les excès techniques non identifiés conduisent inévitablement à des révisions réglementaires lorsque le préjudice du public est trop visible au point de négliger.

Le déploiement de l’IA dans l’application des lois est peut-être l’exemple le plus vivant de la rapidité avec laquelle la technologie non réglementée peut saper les libertés civiles. L’utilisation abusive de la reconnaissance faciale des fausses arrestations est portée par de vraies personnes de manière disproportionnée à partir de communautés marginalisées si le fardeau du mensonge n’est pas abstrait.

Pour inverser cette trajectoire, la confiance du public doit être restaurée par une réforme systématique. Cela implique un audit indépendant des outils d’IA d’application de la loi, des comités de surveillance communautaire, des tests de biais essentiels et des affirmations selon lesquelles le financement fédéral de l’IA est lié à des pratiques transparentes et responsables.

Sans ces changements, la légitimité de l’IA dans la sécurité publique reste un problème. La possibilité de progrès technologique est cachée par la peur, le doute, les dommages, les dommages et la promesse de la TI dans sa capacité à améliorer la vie et à augmenter les capitaux propres n’est pas gaspillé à cause de ce qu’elle est, mais comment elle a été utilisée.

Sujets d’article

Ai | Biométrique biométrique | Authentification biométrique | Reconnaissance du visage | Faux Arrestation | Loi | Police | Règlement | Ai responsable

Dernières nouvelles biométriques

28 mai 2025, 18:26 PM HAE

Le mois dernier, le gouvernement du Punjab a forcé des photos biométriques à déposer une pétition auprès du tribunal, ce qui fait partie d’une poussée plus large …

28 mai 2025, 17h12 HAE

Le gouverneur du Texas, Greg Abbott, a signé une loi obligeant les magasins d’applications à mettre en œuvre des mesures de garantie d’âge ou à acquérir des parents …

28 mai 2025, 17h06 ESP

Le ministère de l’économie numérique et le ministère du Togo de la transformation numérique recherchent des sociétés de conseil pour proposer …

28 mai 2025, 16 h 15 HAE

Le Royaume-Uni de l’Ofcom plonge certains orteils dans les eaux de l’application des règlements de la loi de la garantie d’âge, mais les Européens …

28 mai 2025, 15 h 07 HAE

La Grèce a lancé un système d’identification numérique unifié à l’aide d’un nouveau numéro de citoyen personnel (PCN). PCN est nouveau …

28 mai 2025, 15 h EST

Le régulateur des communications italien AGCOM est l’un des coordinateurs des services numériques de choix par la Commission européenne.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleLes meilleures façons de publier les services de sécurité à domicile en ligne
Next Article Les investisseurs de détail pour obtenir des conseils d’experts en FPI lorsque les classes d’actifs reviennent
John
  • Website

Related Posts

Après l’opération Sindoor, Govt pousse la « souveraineté technologique » dans le cadre de la « nouvelle normale »

juin 4, 2025

Après l’opération Sindoor, Govt pousse la « souveraineté technologique » dans le cadre de la « nouvelle normale »

juin 4, 2025

Après l’opération Sindoor, Govt pousse la « souveraineté technologique » dans le cadre de la « nouvelle normale »

juin 4, 2025

Les techniciens de la région de la baie perdurent 2025 alors que les grandes entreprises dévoilent les licenciements 2025

juin 4, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Ant International déploie une plate-forme d’agent AI qui poursuit le « Saint Graal » de la fintech

juin 4, 2025

Cointelegraph et Fintech.TV Partners Amplifiez la couverture de l’industrie mondiale de la crypto-monnaie

juin 4, 2025

PH FINTECH GCASH donne aux Philippins un accès gratuit à l’assurance via le service « Acheter des bagages »

juin 4, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Les dépenses de combustibles fossiles tombent pour la première fois depuis la pandémie

juin 5, 2025

L’Amérique du Nord prend la majeure partie des investissements en VC AI, malgré un environnement politique difficile

juin 5, 2025

Donald Trump cible les immigrants et Joe Biden avec une explosion de commande

juin 5, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.