Dans un nouveau report, un groupe de politiques basé en Californie co-dirigé par Fei-Fei Li, un pionnier de l’IA, suggère que les législateurs à court terme considèrent les risques d’IA qui «n’ont pas encore été observés dans le monde» lors de l’élaboration de la police réglementaire de l’IA.
Le rapport intérimaire de 41 pages publié mardi provient du Joint California Policy Working Group sur Frontier IA Models, un effort organisé par le gouverneur Gavin Newsom à la suite de son veto du projet de loi controversé de la sécurité de l’IA de Californie, SB 1047. Alors que Newsom a constaté que l’année dernière, le NEEED pour une évaluation plus d’estagné des risques de l’IA pour informer les législateurs.
Dans le rapport, Li, ainsi que les co-auteurs UC Berkeley College of Computing Dean Jennifer Chayes et Carnegie Endowment for International Peace, le président de la paix Mariano-Florentino Cuéllar, plaiderait en faveur de lois qui augmenteraient la transparence dans les laboratoires de Frontier AI comme OpenI. Les parties prenantes de l’industrie de partout dans le spectre idéologique examinent le rapport avant sa publication, y compris les défenseurs de la sécurité de l’IA Stauunch comme le lauréat du prix Turing Yoshua Benjio ainsi que ceux qui ont plaidé contre SB 1047, comme le cofondateur de Databrics Ion Stoica.
Selon le rapport, les nouveaux risques posés par le système d’IA peuvent les lois nécessaires qui obligeraient le développement du modèle d’IA à signaler publiquement leurs tests de sécurité, leurs pratiques d’acquisition de données et leurs mesures de sécurité. Le rapport préconise également l’augmentation des normes concernant les évaluations tierces de ces mesures et politiques d’entreprise, en plus des protections élargies des dénonciateurs pour les employés et entrepreneurs de l’entreprise d’IA.
Li et al. Écrivez, il y a un niveau de preuve gênant « du potentiel de l’IA pour aider à effectuer des cyberattaques, à créer des armes biologiques ou à provoquer d’autres menaces » extrêmes « . Ils soutiennent également que la politique de l’IA ne devrait pas seulement répondre aux risques actuels, un objectif anticipé des conséquences futures qui pourraient se produire sans des garanties suffisantes.
« Par exemple, nous n’avons pas besoin d’observer une arme nucléaire (explosant) pour prédire connecter que cela pourrait et causerait un préjudice considérable », statistique le rapport. « Si ceux qui spéculent sur les risques les plus extrêmes sont corrects – et nous ne savons pas s’ils le seront – alors les enjeux et le coût de l’inaction sur l’IA frontalière à ce courant sont extrêmement élevés. »
Le rapport recommande une stratégie de deux réponses pour stimuler la transparence du développement du modèle d’IA: confiance mais vérifiez. Les développeurs de modèles d’IA et leurs employés devraient bénéficier de voies pour faire rapport sur les domaines de préoccupation du public, selon le rapport, tels que les tests de sécurité interne, tout en étant tenu de soumettre des allégations de tests pour la vérification des tiers.
Bien que le rapport, dont la version finale soit due en juin 2025, n’approuve aucune législation spécifique, elle a été bien reçue par des experts des deux côtés du débat sur l’élaboration des politiques de l’IA.
Dean Ball, un chercheur axé sur l’IA à l’Université George Mason qui critiquait le SB 1047, a déclaré en poste sur X que le rapport était une étape prometteuse pour la réglementation de la sécurité de l’IA de Californie. C’est également une victoire pour les défenseurs de l’IA en matière de sécurité, selon le sénateur de l’État de Californie, Scott Wiener, qui a présenté SB 1047 l’année dernière. Wiener a déclaré dans un communiqué de presse que le rapport s’appuyait sur «des conversations urgentes entourées de gouvernance de l’IA que nous avons commencé à l’Assemblée législative (en 2024)».
Le rapport semble s’aligner sur plusieurs composants de SB 1047 et du projet de loi de suivi de Wiener, SB 53, tels que les développeurs de modèles d’IA pour signaler les résultats des tests de sécurité. Prenant une opinion plus large, cela semble être une victoire bien nécessaire pour les gens de la sécurité de l’IA, dont l’ordre du jour a perdu Grind au cours de la dernière année.