Les législateurs de l’État de New York adoptent un projet de loi jeudi qui vise à empêcher les modèles d’IA frontaliers d’Openai, de Google et d’anthropic de contribuer à des scénarios de catastrophe, y compris la mort ou la blessure de plus de 100 personnes, soit plus d’un milliard de dollars de dommages et intérêts.
L’adoption de la loi sur l’augmentation représente une victoire pour le mouvement de sécurité de l’IA, qui a perdu le groupe ces dernières années alors que la Silicon Valley et l’administration Trump ont priorisé la vitesse et l’innovation. Les défenseurs de la sécurité incluent le lauréat du prix Nobel Geoffrey Hinton et le pionnier de la recherche sur l’IA Yoshua Bengio ont défendu la loi sur l’augmentation. Si elle devient loi, le projet de loi établirait le premier ensemble américain de normes de transparence juridiquement mandatées pour les laboratoires de Frontier AI.
La loi sur l’augmentation comporte plusieurs des mêmes dispositions et objectifs que le projet de loi de sécurité controversé de l’IA de Californie, SB 1047, qui a finalement été opposé au veto. Cependant, le co-sponsor du projet de loi, le sénateur de l’État de New York, Andrew Gounardes, a déclaré à TechCrunch dans une interview qu’il avait délibérément conçu la loi sur la relance de telle sorte qu’elle ne refroidit pas l’innovation entre les startups ou les chercheurs universitaires – une critique commune de SB 1047.
« La fenêtre à mettre en place des garde-corps se rétrécit rapidement étant donné la vitesse à laquelle cette technologie évolue », a déclaré le sénateur Gounardes. «Les gens qui connaissent (IA) le mieux disent que ces risques sont incroyablement probables (…) qui sont alarmants.»
La loi sur l’augmentation est désormais dirigée vers le bureau du gouverneur de New York, Kathy Hochul, où pourrait siter le projet de loi, le renvoyer pour des amendements ou son veto.
S’il est signé, le projet de loi sur la sécurité de l’IA de New York exigerait que les grands laboratoires d’IA au monde publient des rapports de sécurité et de sécurité approfondis sur leurs modèles d’IA frontaliers. Le projet de loi exige également que les laboratoires d’IA signalent des incidents de sécurité, tels que le comportement du modèle d’IA ou les mauvais acteurs volant un modèle d’IA, s’ils se produisent. Si les entreprises technologiques ne respectent pas ces normes, la loi sur l’augmentation permet au procureur général de New York de porter des pénalités civiles pouvant atteindre 30 millions de dollars.
La loi sur l’augmentation vise à réglementer de justesse les grandes entreprises du monde – ce qui est basée en Californie (comme Openai et Google) ou la Chine (comme Deepseek et Alibaba). Les exigences de transparence du projet de loi s’appliquent aux entreprises dont les modèles d’IA ont été formés à Mora que 100 millions de dollars en ressources informatiques et sont rendus averables aux résidents de New York.
La Silicon Valley a considérablement repoussé le projet de loi sur la sécurité de l’IA de New York, l’assemblée de New York et le co-sponsor de la loi sur l’augmentation, Alex Bores, a déclaré à TechCrunch. Les forages ont qualifié la résistance de l’industrie sans surprise, mais ont affirmé que la loi sur l’augmentation ne limiterait en aucune façon l’innovation des entreprises technologiques.
Anthropic, le laboratoire d’IA axé sur la sécurité qui a appelé à des normes de transparence fédérales pour les sociétés d’IA plus tôt ce mois-ci, n’a pas atteint une position officielle sur le projet de loi, a déclaré le co-fondateur Jack Clark dans un article de vendredi sur X. Cependant, Clark exprime certains griefs sur l’ampleur de la loi sur l’augmentation qu’il pourrait présenter un risque pour les «petites entreprises».
Interrogé sur les critiques d’Anthropic, le sénateur de l’État Gounardes a déclaré à TechCrunch qu’il lui avait «manqué la marque», notant qu’il avait conçu le projet de loi de ne pas s’appliquer aux petites entreprises.
Openai, Google et Meta n’ont pas répondu à la demande de commentaires de TechCrunch.
Une autre critique commune de la loi sur l’augmentation est que les développeurs de modèles d’IA ne proposeraient tout simplement pas leurs modèles d’IA les plus avancés dans l’État de New York. Ce fut une critique similaire contre SB 1047, et c’est en grande partie ce qui s’est joué en Europe grâce aux réglementations difficiles du continent sur la technologie.
Assemblymember Bores a déclaré à TechCrunch que le fardeau réglementaire de la Loi sur l’augmentation était relativement léger et que, par conséquent, ne devait pas exiger des entreprises technologiques qu’ils cessent d’exploiter leurs produits à New York. Étant donné que New York a le troisième grand PIB aux États-Unis, se retirer de l’État n’est pas que la plupart des entreprises prendraient à la légère.
« Je ne veux pas sous-estimer la mesquinerie politique qui pourrait se produire, mais je suis très convaincu qu’il n’y a aucune raison économique à ne pas rendre leurs modèles disponibles à New York », a déclaré Assemblyber Borres.