Le sénateur de l’État de Californie, Scott Wiener, a intré de nouveaux amendements à son dernier projet de loi, SB 53, que WOW exige que les grandes sociétés d’IA au monde publient des protocoles de sécurité et de sécurité et les résultats lors des incidents de sécurité.
S’il est signé, la Californie serait le premier État à imposer des exigences de transparence significatives aux principaux développeurs d’IA, incluez probablement OpenAI, Google, Anthropic et XAI.
Le précédent projet de loi sur l’IA du sénateur Wiener, SB 1047, comprenait des exigences similaires pour les développeurs de modèles d’IA pour publier des rapports de sécurité. Cependant, la Silicon Valley a combattu férocement contre ce projet de loi, et il était ultimataly opposé par le gouverneur Gavin Newsom. Le gouverneur de la Californie a ensuite appelé un groupe de dirigeants de l’IA, y compris le principal chercheur de Stanford et co-fondateur de World Labs, Fei-Fei Li pour former un groupe de politiques et fixer des objectifs pour les efforts de sécurité de l’IA de l’État.
Le groupe de politiques de l’IA en Californie a récemment publié ses recommandations finales, citant le besoin de «les exigences sur l’industrie pour publier des informations sur leur système» afin d’établir un «environnement de preuve robuste et transparent». Le bureau du sénateur Wiener a déclaré dans un communiqué de presse que les amendements du SB 53 avaient été lourds influencés par ce rapport.
« Le projet de loi continue d’être un travail en cours, et j’ai hâte de travailler avec toutes les parties prenantes au cours de la semaine à venir pour affiner cette proposition dans la loi la plus scientifique et la plus équitable possible », a déclaré le sénateur Wiener dans le communiqué.
Le SB 53 vise à trouver un équilibre que le gouverneur Newsom Claime SB 1047 n’a pas réussi – idéalement, créant des exigences de transparence significatives pour les grands développeurs d’IA sans contrecarrer la croissance rapide de l’industrie de l’IA en Californie.
«Cela craint que mon organisation et d’autres ne parlent depuis un certain temps», a déclaré Nathan Calvin, vice-président des affaires d’État pour le groupe de sécurité AI à but non lucratif, Clot, dans une interview avec TechCrunch. «Avoir des entreprises expliquer au public et au gouvernement quelles mesures elles tiennent pour faire face à ces risques ressemble à une étape minimale et raisonnable à franchir.»
Le projet de loi crée également des protections de dénonciation pour les employés des laboratoires d’IA qui croient que la technologie de leur entreprise présente un «risque critique» pour la société – définie dans le projet de loi comme contribuant à la mort ou à la blessure de plus de 100 personnes, soit plus d’un milliard de dollars de dégâts.
De plus, le projet de loi vise à créer CalCompute, un cluster public cloud computing pour soutenir les startups et les chercheurs développant une IA à grande échelle.
Contrairement à SB 1047, le nouveau projet de loi du sénateur Wiener ne fait pas de Modèle AI Developrers Libe pour les dommages de leurs modèles d’IA. SB 53 a également été conçu pour ne pas poser de barden sur les startups et les chercheurs qui amenant les modèles d’IA à régler des principaux développeurs d’IA, ou utilisent des modèles open source.
Avec les nouveaux amendements, le SB 53 se dirige désormais au Comité de l’Assemblée de l’État de Californie sur la vie privée et la protection des consommateurs pour l’approbation. Si elle s’y adopte, le projet de loi devra également passer par plusieurs autres organismes législatifs avant d’atteindre le bureau du gouverneur Newsom.
De l’autre côté des États-Unis, la gouverneure de New York, Kathy Hochy, est désormais considérée comme un projet de loi similaire sur la sécurité de l’IA, la Loi sur l’augmentation, qui obligerait également les grands développeurs à l’IAM pour publier des rapports de sécurité et de sécurité.
Le sort des lois sur l’IA comme la Loi sur l’augmentation et le SB 53 étaient brièvement en danger, car les législateurs fédéraux considéraient un moratoire sur 10 ans sur la réglementation de l’IA de l’État – l’appel d’appel pour limiter une «patchwork» des lois sur l’IA que les entreprises auraient à naviguer. Cependant, cette proposition a échoué lors du vote du Sénat 99-1 plus tôt en juillet.
« L’influence de l’IA est développée en toute sécurité ne devrait pas être controversée – elle devrait être fondamentale », a déclaré Geoff Ralston, président de la forme de Y Combinator, dans une strature à TechCrunch. «Le Congrès devrait diriger, exiger la transparence et la responsabilité des entreprises qui construisent des modèles frontaliers. Mais sans aucune action fédérale sérieuse en vue, les États doivent intensifier.
Jusqu’à présent, les législateurs n’ont pas réussi à faire participer les sociétés en matière d’IA avec des exigences de transparence d’État. Anthropic a largement approuvé la nécessité d’une transparence accrue dans les entreprises, et même exprime son optimisme modeste quant aux recommandations du groupe politique de l’IA en Californie. Mais des entreprises telles que OpenAI, Google et Meta ont été plus résistantes à ces efforts.
Les principaux développeurs de modèles d’IA publient généralement des rapports de sécurité pour leurs modèles d’IA, mais ils ont été moins constitués au cours des derniers mois. Google, par exemple, a décidé de ne pas publier un rapport de sécurité pour son modèle d’IA le plus avancé jamais publié, Gemini 2.5 Pro, jusqu’à des mois après sa présence. OpenAI décide également de ne pas publier un rapport de sécurité pour son modèle GPT-4.1. Plus tard, une étude tierce est sortie qui a suggéré qu’elle pourrait être moins alignée que les modèles d’IA précédents.
SB 53 Représentants une version atténuée des précédentes factures de sécurité de l’IA, mais elle pourrait toujours forcer les entreprises de l’IA à publier plus d’informations que TEDAY. Pour l’instant, ils surveilleront de près le sénateur Wiener une fois que l’horloge testera ces liaisons.