
Elon Musk a une vision lunaire de la vie avec l’IA. Alors que la technologie va supprimer tous nos emplois, le « revenu universel élevé » signifie que chacun a théoriquement accès à une abondance de biens et de services. Si les nobles rêves de M. Musk deviennent réalité, il y aura naturellement un bilan existentiel majeur.
« La question sera vraiment une question de sens », a déclaré Musk lors de la conférence Viva Technology en mai 2024. « Si un ordinateur peut tout faire mieux que vous, et même les robots peuvent le faire… votre vie a-t-elle un sens ? »
Cependant, selon Jeffrey Hinton, lauréat du prix Nobel et « parrain de l’IA », la plupart des dirigeants de l’industrie ne se posent pas cette question sur l’avenir de l’IA. Lorsqu’il s’agit de développer l’IA, les Big Tech se soucient moins de l’impact à long terme de la technologie que des résultats rapides.
« Pour les propriétaires d’entreprise, ce qui motive la recherche, ce sont les profits à court terme », a déclaré Hinton, professeur émérite d’informatique à l’Université de Toronto, à Fortune.
Et pour les développeurs de technologies, l’accent est également mis sur la tâche à accomplir plutôt que sur le résultat final de la recherche elle-même, a déclaré Hinton.
« Les chercheurs sont curieux et intéressés par la résolution de problèmes. Ils ne partent pas du même objectif : quel est l’avenir de l’humanité ? » » dit Hinton.
« Nous avons un petit objectif : comment y parvenir ? Ou comment permettre aux ordinateurs de reconnaître les objets dans les images ? Comment permettre aux ordinateurs de produire des vidéos convaincantes ? » il a ajouté. « C’est vraiment ce qui motive la recherche. »
Hinton met depuis longtemps en garde contre les dangers d’une IA non surveillée et d’une évolution délibérée, estimant qu’il y a 10 à 20 % de chances que la technologie anéantisse les humains une fois que la superintelligence se développera.
En 2023, dix ans après avoir vendu sa société de réseaux neuronaux DNNresearch à Google, Hinton a quitté son emploi chez le géant de la technologie, voulant s’exprimer librement sur les dangers de la technologie et craignant qu’elle ne soit pas en mesure « d’empêcher les mauvais acteurs de l’utiliser à de mauvaises fins ».
Quels sont les risques d’une IA non réglementée ?
Pour Hinton, les dangers de l’IA se répartissent en deux catégories. L’un est le risque que la technologie elle-même représente pour l’avenir de l’humanité, et l’autre est l’impact de la manipulation de l’IA par des personnes malveillantes.
« Il existe une grande différence entre les deux types de risques », a-t-il déclaré. « Il existe déjà un risque que de mauvais acteurs utilisent l’IA à mauvais escient. Cela s’est déjà produit avec des choses comme de fausses vidéos et des cyberattaques, et cela pourrait bientôt se produire avec des virus. Et cela est très différent du risque que l’IA devienne elle-même mauvaise. »
En novembre 2025, Anthropic a déjoué « le premier incident documenté d’une cyberattaque d’IA à grande échelle menée sans intervention humaine substantielle » et a identifié un groupe soutenu par l’État chinois qui a manipulé le code de Claude dans le but d’infiltrer environ 30 entreprises technologiques, institutions financières, agences gouvernementales et fabricants de produits chimiques, a déclaré la société d’IA dans un article de blog.
Cette perturbation a conduit les experts en cybersécurité à croire que l’Iran pourrait utiliser l’IA pour lancer des cyberattaques quasi automatisées contre les États-Unis.
En plus de plaider en faveur d’une réglementation plus stricte, l’appel à l’action de Hinton pour lutter contre le potentiel de mauvais comportement de l’IA sera une bataille difficile, car chaque problème technologique nécessite une solution sur mesure, a-t-il déclaré. À l’avenir, il envisage une authentification similaire à l’origine des vidéos et des images pour lutter contre la propagation des deepfakes.
Tout comme les imprimeurs ont ajouté des noms aux œuvres depuis l’avènement de l’imprimerie il y a des centaines d’années, les sources médiatiques doivent également trouver des moyens d’ajouter des signatures aux œuvres authentiques. Mais Hinton a déclaré qu’il y avait des limites aux correctifs qui peuvent être apportés.
« Vous pouvez probablement résoudre ce problème, mais résoudre ce problème ne résoudra pas les autres problèmes », dit-il.
Quant aux risques posés par l’IA elle-même, Hinton estime que les entreprises technologiques doivent changer fondamentalement la façon dont elles perçoivent leurs relations avec l’IA. Lorsque l’IA atteindra la superintelligence, non seulement elle dépassera les capacités humaines, mais elle aura également un fort désir de survivre et d’acquérir plus de contrôle, a-t-il déclaré. Par conséquent, le paradigme actuel autour de l’IA, dans lequel les humains peuvent contrôler la technologie, n’aura plus de sens.
Hinton soutient que les modèles d’IA doivent être imprégnés d’un « instinct maternel » qui leur permet de traiter les humains moins puissants avec compassion plutôt qu’avec le désir de les contrôler.
Citant les idéaux traditionnels de la féminité, il a déclaré que le seul exemple qu’il pouvait donner d’un être plus intelligent tombant sous l’influence d’un être moins intelligent était celui d’un bébé contrôlant sa mère.
« Je pense donc qu’il s’agit d’un meilleur modèle que nous pouvons mettre en pratique en utilisant une IA super intelligente », a déclaré Hinton. « Elles deviennent mères et nous, nous devenons des bébés. »
Une version de cet article a été publiée sur Fortune.com le 15 août 2025.

