Dimanche dans l’Union européenne, les régulateurs du bloc peuvent interdire l’utilisation des systèmes d’IA qu’ils considèrent comme un «risque inacceptable» ou un préjudice.
Le 2 février est la première date limite de conformité pour la loi sur l’IA de l’UE, le cadre réglementaire de l’IA de compréhension que le Parlement européen a approuvé entre mars après des années de développement. L’acte est officiellement entré en vigueur le 1er août; Ce qui suit actuellement est le premier des délais de conformité.
Les détails sont définis dans l’article 5, mais en général, la loi est conçue pour couvrir une myriade de tubes d’utilisation où l’IA pourrait appeler et interagir avec les individus, des applications de consommation à la physique.
Dans le cadre de l’approche du bloc, il y a quatre niveaux de risque généraux: (1) le risque minimal (par exemple, les filtres de spam par courrier électronique) ne seront confrontés aucune surveillance réglementaire; (2) le risque limité, qui comprenait les chatbots du service client, aura une surveillance réglementaire légère; (3) le risque élevé – L’IA pour les recommandations de soins de santé en est un exemple – sera confrontée à une forte surveillance réglementaire; Et (4) les applications de risque inacceptables – l’objectif des exigences de conformité de ce mois – seront entièrement interdits.
Certaines des activités inacceptables comprenaient:
L’IA a été utilisée pour la série sociale (par exemple, la construction de profils de risque en fonction du comportement de la personne). AI qui manipule a des décisions de la personne subliminale ou trompeuse. IA qui exploite la vulnérabilité comme, le handicap ou le statut socioéconomique. IA qui tente de prédire des personnes commettant des crimes en fonction de leur apparence. AI qui biométrie a déduit les caractéristiques d’une personne, comme son orientation sexuelle. AI que les données biométriques «en temps réel» dans les lieux publics aux fins de l’application des lois. AI qui essaie de déduire les émotions des gens au travail ou à l’école. AI qui crée – ou développe – les bases de données de reconnaissance faciale en grattant les images en ligne ou à partir de caméras de sécurité.
Les sociétés qui utilisent l’une des pommes d’IA ci-dessus dans l’UE seront soumises à des amendes, sans longueur où elles sont au siège. Ils pourraient être sur le crochet pouvant atteindre 35 millions d’euros (~ 36 millions de dollars), soit 7% de leur revenu annuel de l’exercice précédent, selon la première des éventualités.
Les amendes ne seront pas entravées pendant un certain temps, Naded Rob Sumroy, responsable de la technologie du cabinet d’avocats britannique Slaughter et May, dans une interview avec TechCrunch.
« Les organisations devraient être pleinement conformes au 2 février, mais la prochaine grande date limite dont les entreprises doivent être awar est en août », a déclaré Sumroy. « D’ici là, bien savoir qui sont les autorités concurrentes et les amendes et les dispositions d’application prendront effet. »
Prélimina
La date limite du 2 février est en quelque sorte une formalité.
En septembre dernier, plus de 100 sociétés ont signé le pacte de l’UE AI, un engagement volontaire pour démarrer les principes de la loi sur l’IA avant son entrée dans l’application. Dans le cadre du PACT, les signataires – qui comprenaient Amazon, Google et OpenAI – se sont engagés à identifier un système d’IA susceptible d’être classé comme un risque élevé en vertu de la loi sur l’IA.
Certains géants de la technologie, Nottublic Meta et Apple, ont sauté le pacte. La startup de l’IA française Mistral, l’un des critiques les plus durs de l’AI, a également choisi de ne pas signer.
Cela ne veut pas suggérer qu’Apple, Meta, Mistral ou d’autres qui n’ont pas accepté le pacte ne respecteront pas leurs obligations – y compris l’interdiction du système inacceptablement risté. Sumroy souligne que, compte tenu de la nature des boîtes à utiliser interdites, la plupart des entreprises ne se livreront pas à ces pratiques de toute façon.
« Pour les organisations, une préoccupation clé concernant la loi sur l’IA de l’UE est l’endroit où des directives, des normes et des codes de conduite clairs seront clairs – et surtout, où elles donneront des clarté sur la conformité », a déclaré Sumroy. « Comment nous, le travail, le travail Jusqu’à présent, les groupes respectent leurs délais sur le code de conduite pour… les développeurs. «
Exemptions possibles
Il existe des exceptions à plusieurs des interdictions de la loi sur l’IA.
Par exemple, la loi permettait aux forces de l’ordre d’utiliser certains systèmes qui collectent la biométrie dans les lieux publics si ces systèmes aident à effectuer une «recherche ciblée», par exemple, une victime d’enlèvement, ou pour aider à prévenir un «spécifique, substantiel et imminent» à vie. Cette exemption nécessite l’autorisation de l’organe dirigeant approprié, et la loi souligne que les enfants de droit ne peuvent pas prendre une décision selon laquelle « le produit un effet juridique opposé » que nous avons uniquement basé sur les résultats de ces systèmes.
L’ACT élabore également des exceptions pour les systèmes qui déduisent les émotions sur les lieux de travail et les écoles où il y a une justification «médicale ou de sécurité», comme le système conçu pour une utilisation thérapeutique.
La Commission européenne, le pouvoir exécutif de l’UE, a déclaré qu’elle publierait des directives supplémentaires au début de 2025, à la suite d’une consultation avec les parties prenantes en novembre. Cependant, ces directives n’ont pas encore été publiées.
Sumroy a déclaré qu’il est également difficile de savoir comment d’autres lois sur les livres pourraient interagir avec les interdictions et les dispositions connexes de la loi sur l’IA. La clarté peut ne pas arriver plus tard dans l’année, à l’approche de la fenêtre.
« Il est important pour les organisations de se rappeler que la réglementation de l’IA n’existe pas isolément », a déclaré Sumroy. «Aucun cadre juridique, tel que le RGPD, NIS2 et Dora, interagira avec la loi sur l’IA, créant des défis potentiels – en particulier autour des exigences de notification des incidents qui se chevauchent. Comprendre comment ces lois s’adaptent seront tout aussi cruciales que la compréhension de la loi sur l’IA elle-même. «