Quand prenons-nous au sérieux les doomers de l’IA ?
C’est un sous-texte clé de la tentative d’Elon Musk de fermer l’activité d’IA à but lucratif d’OpenAI. Ses avocats affirment que l’organisation a été créée comme une organisation caritative axée sur la sécurité de l’IA et qu’elle s’est égarée dans la recherche du profit. Pour le prouver, ils citent d’anciens courriels et déclarations des fondateurs de l’organisation sur la nécessité d’un contrepoids citoyen à Google DeepMind.
Aujourd’hui, ils ont appelé leur seul témoin expert : Stuart Russell, professeur d’informatique à l’Université de Californie à Berkeley qui étudie l’IA depuis des décennies. Son travail consistait à offrir des informations sur l’IA et à établir que cette technologie est suffisamment dangereuse pour s’inquiéter.
Russell a cosigné une lettre ouverte en mars 2023 appelant à une pause de six mois dans la recherche sur l’IA. Signe des contradictions ici, Musk a également signé la même lettre, alors même qu’il lançait xAI, son propre laboratoire d’IA à but lucratif.
Russell a déclaré aux jurés et à la juge Yvonne Gonzalez Rodgers qu’il existait une variété de risques associés au développement de l’IA, allant des menaces de cybersécurité aux problèmes de désalignement et à la nature du gagnant-gagnant dans le développement de l’intelligence générale artificielle (AGI). En fin de compte, il a déclaré qu’il existait une tension entre la poursuite de l’AGI et la sécurité.
Les préoccupations plus larges de Russell concernant les menaces existentielles d’une IA sans contrainte n’ont pas été exprimées en audience publique après que les objections des avocats d’OpenAI ont conduit le juge à limiter le témoignage de Russell. Mais Russell critique depuis longtemps la dynamique de course aux armements créée par les laboratoires pionniers du monde entier rivalisant pour atteindre l’AGI en premier, et a appelé les gouvernements à réglementer ce domaine plus étroitement.
Les avocats d’OpenAI ont passé leur contre-interrogatoire à établir que Russell n’évaluait pas directement la structure d’entreprise de l’organisation ou ses politiques de sécurité spécifiques.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Mais ce journaliste (ainsi que le juge et les jurés) évaluera la valeur à accorder à la relation entre la cupidité des entreprises et les problèmes de sécurité de l’IA. Pratiquement tous les fondateurs d’OpenAI ont vigoureusement mis en garde contre les risques de l’IA, tout en soulignant les avantages, en essayant de développer l’IA le plus rapidement possible – et en élaborant des plans pour les entreprises à but lucratif axées sur l’IA qu’ils contrôleraient.
De l’extérieur, un problème évident est la prise de conscience croissante au sein d’OpenAI après sa création que l’organisation avait simplement besoin de plus de dépenses en calcul pour réussir. Cet argent ne pouvait provenir que d’investisseurs à but lucratif. La crainte de l’équipe fondatrice de voir AGI entre les mains d’une seule organisation les a poussés à rechercher le capital qui a finalement déchiré l’équipe, créant la course aux armements que nous connaissons aujourd’hui et nous amenant à ce procès.
La même dynamique se joue déjà au niveau national : la pression du sénateur Bernie Sanders en faveur d’une loi imposant un moratoire sur la construction des centres de données cite les craintes en matière d’IA exprimées par Musk, Sam Altman, Geoffrey Hinton et d’autres. Hoden Omar, qui travaille au sein de l’organisation commerciale Center for Data Innovation, s’est opposé au fait que Sanders cite ses craintes sans ses espoirs, déclarant à TechCrunch qu’« il n’est pas clair pourquoi le public devrait ignorer tout ce que disent les milliardaires de la technologie, sauf lorsque leurs mots peuvent être recherchés pour combler les lacunes d’un argument précaire ».
Aujourd’hui, les deux parties demandent au tribunal de faire exactement cela : prendre au sérieux une partie des arguments d’Altman et Musk, mais écarter les parties qui sont les moins utiles pour leur argument juridique.
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

