Un super PAC pro-IA soutenu par Andreessen Horowitz et le président d’OpenAI, Greg Brockman, a choisi Alex Bores, membre de l’Assemblée de New York – et sa candidature au Congrès – comme première cible.
Le PAC, surnommé Leading the Future, a été formé en août avec un engagement de plus de 100 millions de dollars pour soutenir les décideurs politiques avec une approche légère – ou sans contact – de la réglementation de l’IA. Et cela signifie s’en prendre aux décideurs politiques qui veulent réglementer l’IA. Le super PAC bénéficie du soutien d’un certain nombre d’autres leaders éminents de la technologie, notamment le co-fondateur de Palantir et associé directeur de 8VC, Joe Lonsdale, ainsi que le moteur de recherche d’IA Perplexity.
« J’apprécie à quel point ils sont francs à ce sujet », a déclaré Bores à une salle de journalistes lundi soir lors d’un atelier de journalisme sur les impacts et la gouvernance des AGI à Washington, DC. « Quand ils disent: ‘Hé, nous allons dépenser des millions contre Alex parce qu’il pourrait réglementer les grandes technologies et mettre des garde-fous de base sur l’IA’, je transmets simplement cela à mes électeurs. «
Bores, qui se présente pour représenter le 12e district du Congrès de l’État, a déclaré que les inquiétudes liées à l’IA sont croissantes parmi ses électeurs, qui s’inquiètent de tout, depuis les centres de données qui font augmenter les factures de services publics et aggravent le changement climatique, jusqu’aux chatbots ayant un impact sur la santé mentale des enfants et à l’automatisation transformant le marché du travail.
Bores est le principal sponsor de la loi bipartite RAISE de New York, qui exige que les grands laboratoires d’IA mettent en place un plan de sécurité pour prévenir les dommages critiques, suivent leur propre plan de sécurité et divulguent les incidents de sécurité critiques, comme le vol d’un modèle d’IA par de mauvais acteurs. Le projet de loi interdit également aux entreprises d’IA de publier des modèles présentant des risques déraisonnables de dommages critiques et impose des sanctions civiles pouvant aller jusqu’à 30 millions de dollars si les entreprises ne respectent pas ces normes. La législation attend actuellement la signature du gouverneur Kathy Hochul.
Bores a déclaré qu’en rédigeant et en reformulant le projet de loi, il avait consulté les grandes sociétés d’IA comme OpenAI et Anthropic. Ces négociations ont conduit à la suppression de dispositions telles que les audits de sécurité par des tiers, que l’industrie a refusé d’accepter, selon lui. Néanmoins, la loi RAISE, et Bores lui-même, semblent avoir suscité la colère de la Silicon Valley.
Zac Moffatt et Josh Vlasto, responsables de Leading the Future, ont déclaré à Politico qu’ils travailleraient sur un effort de plusieurs milliards de dollars pour faire échouer la campagne de Bores.
Événement Techcrunch
San Francisco
|
13-15 octobre 2026
Dans une déclaration envoyée à TechCrunch, ils ont accusé Bores d’avoir avancé « une législation à motivation idéologique et politique qui limiterait non seulement la capacité de New York, mais aussi celle du pays tout entier, à devenir leader en matière d’emploi et d’innovation dans le domaine de l’IA ». Les deux hommes ont déclaré que « des projets de loi comme la loi RAISE menacent la compétitivité américaine, limitent la croissance économique, exposent les utilisateurs à l’influence et à la manipulation étrangères et compromettent notre sécurité nationale ».
« La loi RAISE est un exemple clair de lois d’État disparates, mal informées et bureaucratiques qui ralentiraient les progrès américains et ouvriraient la porte à la Chine pour remporter la course mondiale au leadership en IA », ont déclaré Moffatt et Vlasto dans le communiqué envoyé par courrier électronique. « L’Amérique a besoin d’un cadre réglementaire national clair et cohérent pour l’IA qui renforce notre économie, crée des emplois pour les travailleurs américains, soutient des communautés dynamiques et protège les utilisateurs. »
De nombreuses personnes dans la Silicon Valley ont fait pression pour interdire aux États d’adopter des réglementations liées à l’IA. Plus tôt cette année, une disposition bloquant les lois des États sur l’IA a été insérée dans le projet de loi budgétaire fédérale, puis supprimée. Aujourd’hui, des législateurs comme le sénateur Ted Cruz cherchent à le ressusciter par d’autres voies législatives.
Bores a déclaré qu’il craignait qu’un tel mouvement puisse continuer à gagner du terrain au sein du gouvernement à un moment où le gouvernement fédéral n’a adopté aucune réglementation significative sur l’IA. Là où le gouvernement fédéral avance lentement, les États sont comme des startups : ils peuvent fonctionner comme des laboratoires politiques et agir rapidement pour tester ce qui fonctionne.
« La question devrait être : le Congrès a-t-il résolu le problème ? dit Bores. « Si le Congrès résout le problème, alors il peut dire aux États de se retirer, mais s’ils ne veulent pas adopter un projet de loi qui résoudrait réellement l’un des problèmes… et alors (en disant que les États ne peuvent rien faire) cela n’a tout simplement pas de sens pour moi. »
Bores a également indiqué qu’il avait été en contact avec des décideurs politiques d’autres États pour travailler à la normalisation de la législation, ce qui pourrait combattre l’objection du « patchwork » de la Silicon Valley. Il estime également que les législateurs devraient veiller à ce qu’il n’y ait pas de redondance dans la loi européenne sur l’IA.
Bores a souligné que la réglementation de l’IA n’est pas destinée à limiter l’innovation et qu’il a rejeté les projets de loi qui, selon lui, auraient des conséquences inattendues pour l’industrie.
« Avoir des règles de base, littérales ou métaphoriques, est en fait une position très favorable à l’innovation si elle est bien appliquée », a déclaré Bores. « Je crois fondamentalement que l’IA qui gagnera sera l’IA qui est digne de confiance. Et je pense que les gens rejettent à tous les niveaux la réticence de l’industrie à dire que le gouvernement n’a aucun rôle dans l’établissement de cette confiance. »

