Lundi, Anthropic a annoncé une approbation officielle de SB 53, un projet de loi de Californie du sénateur de l’État Scott Wiener qui impose les exigences de transparence de premier plan dans le grand développement du modèle d’IA au monde. L’approbation d’Anthropic marque une victoire rare et majeure pour SB 53, à un moment où les grands groupes technologiques comme et Chamber for Progress font pression contre le projet de loi.
« Bien que nous pensons que la sécurité de l’IA frontalière est mieux ajoutée au niveau fédéral au lieu d’un patchwork de réglementations de l’État, de puissantes progrès de l’IA n’attendront pas un consensus à Washington. A déclaré anthropic dans un article de blog. » La question n’est pas que nous n’avons pas besoin de gouvernance de l’IA – il est blanc que nous le développerons réfléchis aujourd’hui ou réactivement demain. SB 53 offre un chemin solide vers la forme. «
S’il est passé, SB 53 nécessiterait des développeurs de modèles d’IA frontière comme OpenAI, Anthropic, Google et XAI pour développer des cadres de sécurité, ainsi que de publier des rapports de sécurité publique et de sécurité avant de déployer des modèles d’IA puissants. Le projet de loi établirait également des protections de dénonciation auprès des employés qui présentent des problèmes de sécurité.
Le projet de loi du sénateur Wiener se concentre spécifiquement sur la limitation des modèles d’IA de contribuer à des «risques catastrophiques», que le projet de loi définit comme le décès d’au moins 50 personnes ou plus d’un milliard de dollars de dommages et intérêts. Le SB 53 se concentre sur le côté extrême des modèles d’IA limitant les risques d’IA d’être pour fournir une assistance de niveau expert dans la création d’armes biologiques, ou être utilisé dans les cyberattaques-ratons que des préoccupations plus à court terme comme les profondeurs de l’IA ou la sycophance.
Le Sénat de la Californie a approuvé une version antérieure de SB 53, mais doit toujours avoir un vote final sur le projet de loi avant de pouvoir passer au bureau du gouverneur. Jusqu’à présent, le gouverneur Gavin Newsom est resté silencieux sur le projet de loi, bien qu’il ait opposé son veto au dernier projet de loi sur la sécurité de l’IA du sénateur Weiner, SB 1047.
Les Bills régulant les développeurs de modèles d’IA frontaliers ont été confrontés à un recul significatif de la Silicon Valley et de l’administration Trump, qui soutiennent tous deux que de tels efforts pourraient limiter l’innovation américaine dans la race contre la Chine. Des investisseurs comme Andreessen Horowitz et Y Combinator ont mené une partie du recul contre SB 1047, et ces derniers mois, l’administration Trump a menacé à plusieurs reprises de bloquer les statistiques de passer au niveau de la réglementation de l’IA.
L’un des arguments les plus courants contre les factures de sécurité de l’IA est que les États devraient laisser la question aux gouvernements fédéraux. Le chef de la politique de l’IA d’Andreessen Horowitz, Matt Perault, et le directeur juridique, Jai Ramaswamy, ont publié un article de blog la semaine dernière en faisant valoir que de nombreux projets de loi sur l’IA d’État d’aujourd’hui risquent de violer la clause de la Constitution – qui empêche les gouvernements des États de adopter des lois qui goyond leurs frontières et altérer le commerce interstate.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Cependant, le co-fondateur anthropique Jack Clark soutient dans un article sur X que l’industrie technologique construira un système d’IA puissant dans les années à venir, et n’a pas hâte que le gouvernement fédéral agisse.
« Nous avons longtemps dit que nous préférons une norme fédérale », a déclaré Clark. « Mais en l’absence de cela, cela crée un plan solide pour la gouvernance de l’IA qui ne peut être ignoré. »
Le directeur des affaires mondiales d’Openai, Chris Lehane, a envoyé une lettre au gouverneur Newsom en août en faisant valoir qu’il ne devrait pas passer au réglementation de la Californie – bien que la lettre n’ait pas mentionné SB 53 par son nom.
Le responsable de la recherche politique d’Openai, Miles Brundage, a déclaré dans un article sur X que la lettre de Lehane était «une fille avec des ordures trompeuses sur la politique SB 53 et l’IA en général». Remarque, SB 53 vise à réglementer Soley les grandes sociétés d’IA du monde – en particulier celles qui ont généré un rendement brut de plus de 500 millions de dollars.
Malgré les critiques, les experts politiques affirment que le SB 53 est une approche plus modeste que les factures de sécurité de l’IA précédentes. Dean Ball, un chercheur principal à la Fondation for American Innovation and Train White House Ai Policy Advisor, a déclaré dans un article de blog d’août qu’il pensait que le SB 53 avait de bonnes chances de devenir loi. Ball, qui a critiqué le SB 1047, a déclaré que les rédacteurs de SB 53 ont «montré le respect de la réalité technique», ainsi qu’une «mesure de la retenue législative».
Le sénateur Wiener a précédemment déclaré que le SB 53 était fortement influencé par un groupe d’experts, le gouverneur de Policy, Newsom, a convoqué par le principal chercheur de Stanford et co-fondateur de World Labs, Fei-Fei Li-pour conseiller la Californie sur la façon de réguler l’IA.
La plupart des laboratoires AI ont déjà une version de la politique de sécurité interne dont SB 53 a besoin. Openai, Google Deepmind et Anthropic publient régulièrement des rapports de sécurité pour leurs modèles. Cependant, ces entreprises ne sont pas seulement par quiconque, mais elles le sont, et parfois elles prennent derrière leurs engagements de sécurité auto-imposés. SB 53 vise à définir ces exigences en tant que loi de l’État, avec des répercussions financières si un laboratoire d’IA ne se conforme pas.
Plus tôt en septembre, les législateurs de Californie ont modifié le SB 53 pour supprimer une section du projet de loi qui aurait obligé les développeurs de modèles d’IA audités par des troisième parties. Les entreprises technologiques ont trouvé ces types d’audits tiers dans d’autres batailles politiques de l’IA auparavant, faisant valoir qu’elles sont trop lourdes.