
Selon OpenAI, le monde doit tout repenser, de la fiscalité à la durée du travail, pour se préparer à un changement désastreux dans la technologie de la superintelligence, permettant aux systèmes d’IA de surpasser même les humains les plus intelligents.
Lundi, OpenAI a déclaré dans un article de 13 pages intitulé « La politique industrielle à l’ère de l’intelligence » qu’elle souhaitait « entamer » la conversation avec « un ensemble d’idées politiques axées sur l’humain ». Mais dans quelle mesure croire les paroles et les motivations d’OpenAI semble être l’une des questions clés parmi de nombreuses personnes qui lisent cet article. L’article a été publié le même jour. Le New Yorker a publié les résultats d’une enquête d’un an et demi sur OpenAI qui a remis en question la crédibilité du PDG Sam Altman sur diverses questions, notamment la sécurité de l’IA.
Cet article, rédigé par l’équipe OpenAI Global Affairs, décrit bon nombre des impacts économiques attendus de la superintelligence et présente différentes approches pour y répondre. « Nous ne les proposons pas comme un ensemble complet ou final de recommandations, mais plutôt comme un point de départ pour une discussion qui invite les autres à construire, à améliorer, à remettre en question et à choisir à travers un processus démocratique », peut-on lire dans le billet d’introduction du blog.
L’« ensemble d’idées » autoproclamées contenues dans le document, qui vont d’un fonds de richesse public à une semaine de travail plus courte, ne fera peut-être pas grand-chose pour rassurer un public de plus en plus anxieux et désillusionné face au rythme des changements induits par l’IA et à ses conséquences. Et OpenAI est, bien sûr, l’un des partis les moins neutres dans ce débat en cours, une tension au cœur du document, a déclaré Lucia Velasco, économiste principale et responsable de la politique en matière d’IA à la Banque interaméricaine de développement basée à Washington, D.C. et ancienne responsable de la politique en matière d’IA au Bureau des Nations Unies pour les technologies numériques et émergentes.
« OpenAI est le parti qui s’intéresse le plus à la façon dont se déroule cette conversation, et les propositions qu’elle avance façonnent un environnement dans lequel OpenAI peut fonctionner avec une latitude significative sous les contraintes qu’OpenAI a largement contribué à définir », a-t-elle déclaré, ajoutant que même si ce n’est pas une raison pour rejeter le document, « c’est une raison pour garantir que la conversation qu’OpenAI essaie d’entamer ne se termine pas avec les mêmes entreprises qui l’ont commencée ».
Elle a néanmoins souligné qu’OpenAI avait raison de souligner que les gouvernements avaient mis du temps à proposer des solutions politiques. « La plupart des gens considèrent encore l’IA comme un problème technologique, alors qu’en réalité il s’agit d’un changement économique structurel qui nécessite une politique industrielle appropriée », a-t-elle déclaré. « Il s’agit d’une contribution utile, et même en tant que point de départ, ce document mérite d’être pris au sérieux en tant qu’exercice d’établissement d’un agenda. »
Solibel Feliz, conseiller indépendant en politique de l’IA et ancien conseiller principal en politique de l’IA et de la technologie au Sénat américain, a convenu qu’OpenAI mérite le mérite d’avoir « mis cela sur papier ». Il a déclaré qu’il était exact que les institutions américaines et le filet de sécurité étaient à la traîne dans le développement et l’adoption de l’IA, ajoutant : « Nous devons avoir des conversations à ce niveau à ce stade. »
Cependant, elle a souligné que la plupart de ce qui est proposé n’est pas nouveau. « Certains de ces piliers, à savoir « partager largement la prospérité, réduire les risques et démocratiser l’accès », ont constitué le cadre de chaque discussion majeure sur la gouvernance de l’IA depuis l’annonce de ChatGPT en novembre 2022.
« J’ai servi au Sénat américain en 2023-2024, et tout cela a été dit lors du 9ème Forum politique sur l’IA. C’est dans mes notes manuscrites ! Tout cela a déjà été dit, tout », a-t-elle écrit dans un message direct à Fortune. « Le langage autour des partenariats public-privé, de la maîtrise de l’IA et de la voix des travailleurs ressemble à un rapport sur le cadre politique de l’UNESCO ou de l’OCDE en matière d’IA, et ce n’est pas faux. Le problème réside dans l’écart entre la formulation de solutions et la construction des mécanismes réels pour les mettre en œuvre. »
Évidemment, le public cible n’est pas constitué des centaines de millions d’utilisateurs de ChatGPT chaque semaine. Ce sont plutôt les décideurs politiques de Belt and Road qui ont fait pression en faveur d’une réglementation de l’IA (ou nié son avenir) sous diverses formes depuis la publication de ChatGPT en novembre 2022. En ce sens, certains disent qu’il s’agit d’un progrès par rapport aux efforts précédents.
« Nous avons trouvé que ce document constituait une réelle amélioration par rapport au document précédent, qui était plus flottant et de haut niveau », a déclaré Nathan Calvin, vice-président des affaires nationales et avocat général chez Encode AI. « Je pense que les propositions concrètes autour de choses comme l’audit, le signalement des incidents et les restrictions gouvernementales sur certaines utilisations de l’IA sont de bonnes idées. »
Mais il a également souligné les efforts de lobbying menés par les dirigeants d’OpenAI au sein de Leading the Future PAC, qui œuvre en faveur de politiques favorables à l’industrie de l’IA. Si le directeur des affaires mondiales, Chris Lehane, est considéré comme l’un des moteurs de ces efforts, le plus grand donateur est le président Greg Brockman.
« Nous espérons que ce document marque une évolution vers un engagement plus constructif, plutôt que d’attaquer les politiciens qui promeuvent les politiques mêmes qu’OpenAI soutient actuellement », a déclaré Calvin, soulignant spécifiquement les efforts de lobbying de Leading the Future auprès du candidat au Congrès de New York Alex Boas, l’auteur et principal sponsor de la loi RAISE, la loi sur la sécurité et la transparence de l’IA de l’État de New York, récemment promulguée par la gouverneure Kathy Hochul.
Calvin a également accusé OpenAI d’utiliser des tactiques alarmistes pour saper le SB 53 (California Frontier Artificial Intelligence Transparency Act) de Californie alors qu’il était encore en débat. Il a également affirmé qu’OpenAI avait utilisé sa bataille juridique en cours avec Elon Musk comme prétexte pour cibler et menacer ses critiques, y compris Encode, et a laissé entendre que l’entreprise était secrètement financée par Musk.
Pourtant, dans une interview avec Axios, le PDG d’OpenAI, Sam Altman, a comparé l’ensemble de propositions politiques de lundi au New Deal, qui, selon certains, ressemble plus à une expérience de pensée de la Silicon Valley qui ne se traduira pas comme par magie en action qu’une législation de l’ère FDR.
Par exemple, Anton Leicht, chercheur invité au sein de l’équipe Technologie et Affaires internationales du Carnegie Endowment, écrit à propos de X que l’idée est en fait un changement social fondamental et un élan politique majeur. « Ils ne se présentent pas simplement comme des alternatives organiques », écrit-il. « Selon cette interprétation, c’est le travail des agences de presse de couvrir le nihilisme réglementaire. »
Une meilleure version de cela, a-t-il dit, serait de réorienter le capital politique et les compétences de lobbying de l’industrie de l’IA pour faire avancer ce type de programme politique. Mais il a ajouté que la « nature ambiguë et le calendrier » du document le rendaient « peu optimiste ».

