Ce n’est pas le premier Attamt du sénateur de l’État de Californie Scott Wiener à aborder les dangers de l’IA.
En 2024, la Silicon Valley a lancé une campagne féroce contre sa facture controversée de sécurité de l’IA, SB 1047, qui aurait fait que les entreprises technologiques ont fait des dommages potentiels de leurs systèmes d’IA. Les dirigeants technologiques ont averti que cela étoufferait le boom de l’AI de l’Amérique. Le gouverneur Gavin Newsom a finalement opposé son veto au projet de loi, faisant écho à des préoccupations similaires, et une populaire maison de pirates d’IA a rapidement organisé une «fête de veto SB 1047». Une attente m’a dit: «Dieu merci, l’IA est toujours légale.»
Maintenant, Wiener est revenu avec une nouvelle facture de sécurité de l’IA, SB 53, qui se trouve sur le bureau du gouverneur Newsom en attendant sa signature ou son veto dans les prochaines semaines de flux. Cette fois, le projet de loi est beaucoup plus populaire ou du moins, la Silicon Valley ne semble pas être en guerre.
Anthropic a approuvé SB 53 plus tôt ce mois-ci. Le porte-parole de Meta, Jim Cullinan, a déclaré à TechCrunch que la société soutient la réglementation de l’IA qui équilibre les garde-corps avec l’innovation et disent que «SB 53 est un pas dans cette direction», bien qu’il existe des domaines à améliorer.
Le conseiller politique de Train White House AI, Dean Ball, dit à TechCrunch que SB 53 est une «victoire pour des voix raisonnables» et pense qu’il y a une forte chance du gouverneur Newsom le signe.
S’il est signé, SB 53 imposerait des exigences de rapport de la sécurité de SOE de la nation sur les géants de l’IA IA comme comparent, anthropic, xai et google – les entreprises qui ne sont aujourd’hui confrontées à aucune obligation de se délecter de la façon dont ils sont du système. De nombreux laboratoires d’IA publient volontaires la sécurité en réparant comment leurs modèles d’IA pourraient être utilisés pour créer des biowapons et d’autres dangers, mais ils le font à volonté et ils ne sont pas toujours comportés.
Le projet de loi nécessite les principaux laboratoires AI – en particulier ceux qui gagnent plus de 500 millions de dollars de revenus – pour publier des rapports de sécurité pour leurs modèles la plupart de l’IA. Tout comme SB 1047, le projet de loi se concentre spécifiquement sur les pires types de risques d’IA: leur capacité à contribuer à la mort humaine, aux cyberattaques et aux armes chimiques. Le gouverneur Newsom envisage plusieurs autres projets de loi qui traitent d’autres types de risques d’IA, tels que les techniques d’optimisation d’engagement dans les compagnons d’IA.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025
Le SB 53 crée également des chapines protégées pour les employés qui se sont efforcés de faire des services de sécurité à l’IA pour signaler que la sécurité sert aux responsables gouvernementaux et établit un cluster en troncs de gamme exploité par l’État, Calcompute, pour fournir des ressources de recherche sur l’IA au-delà des grandes entreprises technologiques.
L’une des raisons pour lesquelles SB 53 peut être plus populaire que SB 1047 est qu’elle est moins grave. Le SB 1047 aurait également rendu les sociétés d’IA responsables de tout dommage causé par leurs modèles d’IA, tandis que SB 53 se concentre davantage sur l’exigence de l’auto-déclaration et de la transparence. SB 53 s’appliquait également de peu aux grandes entreprises technologiques du monde, plutôt qu’aux startups.
Mais de nombreux membres de l’industrie technologique pensent toujours que les États devraient laisser la réglementation de l’IA au gouvernement fédéral. Dans une récente lettre au gouverneur Newsom, Openai a fait valoir que les laboratoires de l’AI ne devraient avoir qu’à se conformer aux normes fédérales – ce qui est drôle à dire à un gouverneur de l’État. La société de capital-risque Andreessen Horowitz a écrit un récent article de blog suggérant vaguement que certains projets de loi en Californie pourraient violer la clause de commerce dormant de la Constitution, qui interdit aux États de limiter injustement le commerce interétatique.
Le sénateur Wiener répond à ces préoccupations: il manque de confiance dans le gouvernement fédéral pour adopter un règlement significatif sur la sécurité de l’IA, donc les statistiques doivent intensifier. En fait, Wiener pense que l’administration Trump a été capturée par l’industrie de la technologie, et que les efforts fédéraux récents pour bloquer toutes les lois de l’IA de l’État sont une forme de «récompenser ses bailleurs de fonds».
L’administration Trump a fait un changement notable de l’éloignement de l’administration Biden sur une sécurité, le remplaçant par un accent sur la croissance. Peu de temps après avoir pris ses fonctions, le vice-président JD Vance Apered lors d’une conférence sur l’IA à Paris et a déclaré: « Je ne suis pas ici ce matin pour parler de la sécurité de l’IA, qui était le titre de la conférence il y a quelques années. Je suis ici pour parler d’une opportunité. »
La Silicon Valley a applaudi ce quart de travail, illustré par le plan d’action de l’IA de Trump, qui a supprimé les obstacles à la construction de l’infrastructure nécessaire pour former et servir les modèles d’IA. Aujourd’hui, les grands PDG de Tech sont régulièrement vus dîner à la Maison Blanche ou des centres de données HuDred-Billlar, aux côtés du président Trump.
Le sénateur Wiener pense qu’il est essentiel pour la Californie de diriger la nation sur la sécurité de l’IA, mais sans étouffer l’innovation.
J’ai récemment interviewé le sénateur Wiener pour discuter de ses années à la table de négociation avec la Silicon Valley et pourquoi il est tellement concentré sur les projets de loi de sécurité. Notre conversation a été modifiée légèrement pour plus de clarté et de brièveté. Mes questions sont en gras, et ses réponses ne le sont pas.
Maxwell Zeff: Sénateur Wiener, je vous interviewe lorsque SB 1047 était assis sur le bureau du gouverneur Newsom. Parlez-moi du jour où vous avez réglé la sécurité de l’IA au cours des dernières années.
Scott Wiener: Ce fut une montagne russe, une expérience d’apprentissage incroyable et vraiment enrichissante. Nous avons pu aider à élever ce problème (de la sécurité de l’IA), non seulement en Californie, mais dans le discours national et international.
Nous avons cette nouvelle technologie incroyablement puissante qui change le monde. Comment pouvons-nous nous assurer que cela profite à l’humanité d’une manière où nous réduisons le risque? Comment promouvoir l’innovation, tout en étant très conscient de la santé publique et de la sécurité publique. C’est important – et à certains égards, une conversation existentielle – sur l’avenir. SB 1047 et maintenant SB 53, ont aidé à favoriser cette conversation sur une innovation sûre.
Au cours des 20 dernières années de technologie, qu’avez-vous appris sur l’importance des lois qui peuvent tenir la Silicon Valley à donner?
Je suis le gars qui représente San Francisco, le cœur battant de l’innovation de l’IA. Je suis à l’abri au nord de la Silicon Valley elle-même, donc nous sommes ici au milieu de tout cela. Mais nous avons également vu comment les grandes entreprises technologiques – certaines des entreprises les plus riches de l’histoire mondiale – ont pu arrêter la réglementation fédérale.
Chaque fois que je vois des PDG technologiques dîner à la Maison Blanche avec le dictateur fasciste en herbe, je dois respirer. Ce sont toutes des gens vraiment brillants qui ont généré une richesse énorme. Beaucoup de gens que je reproduisais pour eux. Cela me pèle vraiment quand je vois les offres qui sont conclues avec l’Arabie saoudite et les Émirats arabes unis, et comment cet argent est canalisé dans le même coin de Trump. Cela me cause profondément inquiet.
Je ne suis pas quelqu’un qui est anti-tech. Je veux que l’innovation technologique se produise. C’est incroyablement important. Mais c’est une industrie à laquelle nous ne devons pas faire confiance pour se réguler ou prendre des engagements volontaires. Et cela ne jette pas les aspersions sur personne. Il s’agit du capitalisme, et cela peut créer une prospérité énorme mais aussi causer des dommages s’il n’y a pas de réglementation sensible pour protéger l’intérêt public. En ce qui concerne une sécurité, nous essayons de enfiler cette aiguille.
Le SB 53 est axé sur les pires dommages que l’IA pourrait imaginer – la mort, les cyberattaques massives et la création de biowapons. Pourquoi se concentrer là-bas?
Les risques de l’IA sont variés. Il y a une discrimination algorithmique, une perte d’emploi, des contrefaçons et des escroqueries. Il y a eu diverses factures en Californie et ailleurs pour ajouter des risques de succion. Le SB 53 n’a jamais été destiné à couvrir le champ et à répondre à chaque risque créé par l’IA. Nous nous concentrons sur une catégorie de risque spécifique, en termes de risque catastrophique.
Ce numéro est venu à moi Organica des gens de l’espace d’IA à San Francisco – des fondateurs de startup, des technologues de l’IA de première ligne et des personnes qui construisent ces modèles. Ils sont venus vers moi et ont dit: «C’est un résultat qui doit être abordé de manière réfléchie.
Pensez-vous que le système d’IA est intrinsèquement dangereux ou a le potentiel de provoquer la mort et des cyberattaques massives?
Je ne pense pas qu’ils soient intrinsèquement sûrs. Je sais qu’il y a beaucoup de gens qui travaillent dans ces laboratoires qui se soucient très profondément d’essayer d’atténuer les risques. Et encore une fois, il ne s’agit pas d’éliminer les risques. La vie est une question de risque, à moins que vous ne vivriez dans votre sous-sol et ne partez jamais, vous aurez des risques dans votre vie. Même dans votre sous-sol, le plafond pourrait tomber.
Y a-t-il un risque que certains modèles d’IA puissent être utilisés pour faire des dommages importants à la société? Oui, et nous savons qu’il y a des gens qui aimeraient faire ça. Nous devrions essayer de rendre plus difficile pour les mauvais acteurs de causer ces gravement dommages, tout comme les personnes devraient développer ces modèles.
Anthropic a émis son soutien à SB 53. Quelles sont vos conversations avec d’autres acteurs de l’industrie?
Nous avons parlé à tout le monde: les grandes entreprises, les petites startups, les investisseurs et les universitaires. Anthropic a été vraiment constructif. L’année dernière, ils n’ont jamais officiellement soutenu (SB 1047) mais ils ont des choses positives à dire sur les aspects du projet de loi. Je ne pense pas (Anthropic} aime tous les aspects du SB 53, mais je pense qu’ils ont conclu qu’en équilibre, le projet de loi était un soutien.
J’ai eu des conversations avec de grands laboratoires AI qui ne soutiennent pas le projet de loi, mais qui ne sont pas en guerre avec lui comme ils l’étaient avec SB 1047. Ce n’est pas une surprise. SB 1047 était plus une facture de responsabilité, SB 53 est plus un projet de loi de transparence. Les startups ont été moins engagées cette année car le projet de loi se concentre vraiment sur les grandes entreprises.
Ressentez-vous la pression des grands PAC IA qui s’est formé ces derniers mois?
Il s’agit d’un autre symptôme de Citizens United. Les entreprises les plus riches du monde peuvent simplement verser des ressources infinies dans ces PAC pour essayer d’intimider les élus. En vertu des règles que nous avons, ils ont le droit de le faire. Cela n’a jamais vraiment d’impact sur la façon dont j’aborde la politique. Il y a eu des groupes qui ont essayé de me détruire depuis aussi longtemps que je suis en fonction des élus. Divers groupes ont passé des millions à essayer de me faire exploser, et me voici. Je suis dans ce domaine pour bien faire par mon constituant et essayer de faire de ma communauté, de San Francisco et du monde un meilleur endroit.
Quel est votre message au gouverneur Newsom alors qu’il débatra de signer ou de veto à ce projet de loi?
Mon message est que nous vous avons entendu. Vous avez opposé son veto à SB 1047 et avez fourni un message de veto très compréhensif et réfléchi. Vous conservez sagement un groupe de travail qui a produit un rapport très fort, et nous nous tournons vraiment à ce rapport dans l’élaboration de ce projet de loi. Le gouverneur a suivi un chemin, et nous suivons ce chemin pour arriver à un égard, et j’espère que nous y allons.