Le Sénat de l’État de Californie a donné l’approbation définitive tôt le matin saturé à une grande facture de sécurité de l’IA fixant de nouvelles exigences de transparence sur les grandes entreprises.
Comme décrit par son auteur, le sénateur de l’État Scott Wiener, SB 53 «exige que les grands laboratoires d’IA soient transparents au sujet de leurs protocoles de sécurité, crée des protections de dénonciation pour (employés) dans les laboratoires AI et crée un cloud public pour étendre l’accès à calcul (CalComppt).»
Le projet de loi va maintenant au gouverneur de Californie Gavin Newsom pour signer ou opposer son veto. Il n’a pas commenté publiquement le SB 53, mais l’année dernière, il a opposé son veto à un projet de loi de sécurité plus vaste également rédigé par Wiener, tout en signant une législation plus étroite ciblant comme Deepfakes.
À l’époque, Newsom a reconnu l’importance de «protéger le public contre les menaces réelles posées par cette technologie», mais a critiqué le projet de loi précédent de Wiener pour appliquer des «normes strictes» à de grands modèles, qu’ils aient été «déployés dans une décision critique (impliquée) à haut risque (impliquée) l’utilisation de données sensibles».
Wiener a déclaré que le nouveau projet de loi avait été influencé par les recommandations d’un panel de politique d’experts en IA que Newsom Contred après son veto.
Politico rapporte également que le SB 53 a été récemment modifié afin que les entreprises développant des modèles d’IA «frontière» tout en apportant moins de 500 millions de dollars de revenus annuels ne devront disklose que les détails de sécurité de haut niveau, tandis que les entreprises en fabriquant plus que cela devront fournir des rapports plus détalés.
Le projet de loi s’est opposé à un certain nombre de sociétés de la Silicon Valley, de sociétés de capital-risque et de groupes de lobbying. Dans une lettre récente à Newsom, Openai n’a pas mentionné spécifiquement le SB 53, mais a fait valoir que pour avoir «des doublées et des incohérences», les entreprises devraient être conformes aux règles de sécurité à l’échelle de l’État tant qu’elles respectent la norme fédérale ou européenne.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Et le chef de la politique de l’IA d’Andreesen Horowitz et le directeur juridique de l’IA a récemment affirmé que « de nombreux projets de loi de l’IA de l’État de Teday – comme des propositions en Californie et à New York – risquent » de franchir une ligne en violant les limites constitutionnelles de la façon dont les États peuvent réglementer le commerce.
Les co-fondateurs d’A16Z avaient précédemment souligné la réglementation technologique comme l’un des facteurs les conduisant à soutenir l’offre de Donald Trump pour un deuxième mandat. L’administration Trump et ses alliés ont ensuite appelé à une interdiction de 10 ans sur la réglementation de l’IA de l’État.
Anthropic, quant à lui, est sorti en faveur du SB 53.
« Nous avons longtemps dit que nous préférons une norme fédérale », a déclaré le co-fondateur anthropique Jack Clark dans un post. « Mais en l’absence de cela, cela crée un plan solide pour la gouvernance de l’IA qui ne peut être ignoré. »