Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Le voleur accusé d’avoir volé 100 millions de dollars de bijoux a également attrapé les aéraisons Apple et Samsung Electronics, selon les autorités

juin 21, 2025

Modelo Special est devenue la bière numéro un de l’Amérique. Puis vint la répression contre les immigrants de Trump.

juin 21, 2025

Les prix du carburant des jets montent en flèche en Europe alors que les guerres au Moyen-Orient menacent l’offre

juin 21, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Le groupe co-dirigé par FEI-FEI Li suggère que les lois sur la sécurité de l’IA devraient anticiper les risques futurs
Startups

Le groupe co-dirigé par FEI-FEI Li suggère que les lois sur la sécurité de l’IA devraient anticiper les risques futurs

JohnBy Johnmars 19, 2025Aucun commentaire4 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Dans un nouveau report, un groupe de politiques basé en Californie co-dirigé par Fei-Fei Li, un pionnier de l’IA, suggère que les législateurs à court terme considèrent les risques d’IA qui «n’ont pas encore été observés dans le monde» lors de l’élaboration de la police réglementaire de l’IA.

Le rapport intérimaire de 41 pages publié mardi provient du Joint California Policy Working Group sur Frontier IA Models, un effort organisé par le gouverneur Gavin Newsom à la suite de son veto du projet de loi controversé de la sécurité de l’IA de Californie, SB 1047. Alors que Newsom a constaté que l’année dernière, le NEEED pour une évaluation plus d’estagné des risques de l’IA pour informer les législateurs.

Dans le rapport, Li, ainsi que les co-auteurs UC Berkeley College of Computing Dean Jennifer Chayes et Carnegie Endowment for International Peace, le président de la paix Mariano-Florentino Cuéllar, plaiderait en faveur de lois qui augmenteraient la transparence dans les laboratoires de Frontier AI comme OpenI. Les parties prenantes de l’industrie de partout dans le spectre idéologique examinent le rapport avant sa publication, y compris les défenseurs de la sécurité de l’IA Stauunch comme le lauréat du prix Turing Yoshua Benjio ainsi que ceux qui ont plaidé contre SB 1047, comme le cofondateur de Databrics Ion Stoica.

Selon le rapport, les nouveaux risques posés par le système d’IA peuvent les lois nécessaires qui obligeraient le développement du modèle d’IA à signaler publiquement leurs tests de sécurité, leurs pratiques d’acquisition de données et leurs mesures de sécurité. Le rapport préconise également l’augmentation des normes concernant les évaluations tierces de ces mesures et politiques d’entreprise, en plus des protections élargies des dénonciateurs pour les employés et entrepreneurs de l’entreprise d’IA.

Li et al. Écrivez, il y a un niveau de preuve gênant « du potentiel de l’IA pour aider à effectuer des cyberattaques, à créer des armes biologiques ou à provoquer d’autres menaces » extrêmes « . Ils soutiennent également que la politique de l’IA ne devrait pas seulement répondre aux risques actuels, un objectif anticipé des conséquences futures qui pourraient se produire sans des garanties suffisantes.

« Par exemple, nous n’avons pas besoin d’observer une arme nucléaire (explosant) pour prédire connecter que cela pourrait et causerait un préjudice considérable », statistique le rapport. « Si ceux qui spéculent sur les risques les plus extrêmes sont corrects – et nous ne savons pas s’ils le seront – alors les enjeux et le coût de l’inaction sur l’IA frontalière à ce courant sont extrêmement élevés. »

Le rapport recommande une stratégie de deux réponses pour stimuler la transparence du développement du modèle d’IA: confiance mais vérifiez. Les développeurs de modèles d’IA et leurs employés devraient bénéficier de voies pour faire rapport sur les domaines de préoccupation du public, selon le rapport, tels que les tests de sécurité interne, tout en étant tenu de soumettre des allégations de tests pour la vérification des tiers.

Bien que le rapport, dont la version finale soit due en juin 2025, n’approuve aucune législation spécifique, elle a été bien reçue par des experts des deux côtés du débat sur l’élaboration des politiques de l’IA.

Dean Ball, un chercheur axé sur l’IA à l’Université George Mason qui critiquait le SB 1047, a déclaré en poste sur X que le rapport était une étape prometteuse pour la réglementation de la sécurité de l’IA de Californie. C’est également une victoire pour les défenseurs de l’IA en matière de sécurité, selon le sénateur de l’État de Californie, Scott Wiener, qui a présenté SB 1047 l’année dernière. Wiener a déclaré dans un communiqué de presse que le rapport s’appuyait sur «des conversations urgentes entourées de gouvernance de l’IA que nous avons commencé à l’Assemblée législative (en 2024)».

Le rapport semble s’aligner sur plusieurs composants de SB 1047 et du projet de loi de suivi de Wiener, SB 53, tels que les développeurs de modèles d’IA pour signaler les résultats des tests de sécurité. Prenant une opinion plus large, cela semble être une victoire bien nécessaire pour les gens de la sécurité de l’IA, dont l’ordre du jour a perdu Grind au cours de la dernière année.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleUn chercheur en robotique de Deepmind Deepmind a quitté Google et Nvidia a déjà soutenu sa startup furtive
Next Article News and Stock Market News, Economie and Finance News, Sensex, Nifty, Global Market, NSE, BSE Live IPO News
John
  • Website

Related Posts

Ondulant l’espion dit que les hommes l’ont suivi et que sa femme a peur

juin 20, 2025

Le laboratoire des machines de pensée de Mira Murati se rapproche de 2 milliards de dollars à une évaluation de 10 milliards de dollars

juin 20, 2025

Cluelley, une startup qui aide à «tricher sur votre autre»

juin 20, 2025

TechCrunch Mobility: Applied Intuition’s Poppping Valuation, The New Age of Micromobility et Waymo’s Wild Week

juin 20, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Ce que les banquiers américains ont vu lors de la journée de démonstration du laboratoire d’innovation fintech

juin 20, 2025

Ce que les banquiers américains ont vu lors de la journée de démonstration du laboratoire d’innovation fintech

juin 20, 2025

Développement des compétences La fintech irlandaise nécessite une croissance et une concurrence

juin 20, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Le voleur accusé d’avoir volé 100 millions de dollars de bijoux a également attrapé les aéraisons Apple et Samsung Electronics, selon les autorités

juin 21, 2025

Modelo Special est devenue la bière numéro un de l’Amérique. Puis vint la répression contre les immigrants de Trump.

juin 21, 2025

Les prix du carburant des jets montent en flèche en Europe alors que les guerres au Moyen-Orient menacent l’offre

juin 21, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.