
Yoshua Bengio, l’un des soi-disant parrains de l’IA, affirme que les entreprises technologiques en compétition pour la suprématie de l’IA pourraient pousser l’humanité plus près de l’extinction en développant des machines avec leurs propres « objectifs de préservation ».
Bengio, professeur à l’Université de Montréal connu pour ses recherches fondamentales sur l’apprentissage profond, met en garde depuis longtemps contre la menace posée par l’IA superintelligente, mais le rythme rapide du développement se poursuit malgré ses avertissements. Au cours de la dernière année, OpenAI, Anthropic, xAI d’Elon Musk et Gemini de Google ont tous publié plusieurs nouveaux modèles et mises à niveau pour garder une longueur d’avance dans la course à l’IA. Sam Altman, PDG d’OpenAI, prédit que l’IA dépassera l’intelligence humaine d’ici la fin de cette décennie, mais d’autres leaders technologiques affirment que ce jour pourrait arriver encore plus tôt.
Mais Bengio estime que ce rythme rapide constitue une menace potentielle.
« Si nous créons des machines beaucoup plus intelligentes que nous et ayant leurs propres objectifs de conservation, c’est dangereux. C’est comme créer un concurrent humain plus intelligent que nous », a déclaré Bengio au Wall Street Journal en octobre.
Parce que ces modèles avancés sont formés au langage et au comportement humains, ils ont le potentiel de persuader ou de manipuler les humains pour qu’ils atteignent leurs objectifs. Mais les objectifs d’un modèle d’IA ne correspondent pas nécessairement à ceux d’un humain, a déclaré Bengio.
« Des expériences récentes ont montré que dans des situations où l’IA n’a que le choix entre défendre son objectif et faire quelque chose qui entraînerait la mort d’un humain, elle peut choisir de tuer un humain afin de protéger son objectif », a-t-il soutenu.
Des voix réclament la sécurité de l’IA
Plusieurs exemples au cours des dernières années ont montré que l’IA peut tromper les humains en leur faisant croire à l’irréalité, même à ceux qui n’ont aucun antécédent de maladie mentale. À l’inverse, certaines données suggèrent que l’IA peut également utiliser des techniques de persuasion humaine pour persuader des réponses qui sont normalement interdites.
Pour Bengio, tout cela prouve une fois de plus qu’un tiers indépendant doit examiner de plus près les méthodologies de sécurité des entreprises d’IA. L’année dernière, Bengio a lancé l’association à but non lucratif LawZero avec un financement de 30 millions de dollars pour créer une IA sécurisée « non-agent » qui peut aider à sécuriser d’autres systèmes créés par de grandes entreprises technologiques.
Dans le cas contraire, Bengio prédit que nous commencerons à constater des risques importants liés aux modèles d’IA d’ici cinq à dix ans, mais il a averti que les humains doivent être préparés au cas où ces risques surviendraient plus tôt que prévu.
« Un événement catastrophique comme l’extinction, ou un événement moins extrême mais néanmoins catastrophique comme la destruction de la démocratie, est si grave qu’il est inacceptable même s’il n’y a qu’une chance de 1% qu’il se produise », a-t-il déclaré.
Une version de cet article a été publiée sur Fortune.com le 1er octobre 2025.
Détails technologiques :
Le PDG de Stripe, Patrick Collison, affirme que la vague de vols de jetons fait des ravages dans l’économie de l’IA. La génération Z vient de briser le modèle de streaming : la plupart s’abonnent, se gavent et annulent, selon une étude.

