Dernière mise à jour:25 février 2025, 10:03 IST
Elon Musk avait prédit qu’il y aurait une IA proche d’ici 2029. Il a précédemment averti qu’il serait difficile de prédire ce qui se passera ensuite avec l’émergence d’une super intelligence, mais « cela pourrait mettre fin à l’humanité ».
Bien qu’il y ait d’énormes avancées dans l’IA, les algorithmes d’apprentissage automatique peuvent désormais s’apprendre. Cependant, aucune créature d’IA entièrement autonome l’emporte sur l’intelligence humaine n’a pas encore eu lieu (image de représentation / Shutterstock)
Le milliardaire Elon Musk a de nouveau soulevé le sujet de la singularité de l’intelligence artificielle (IA). C’est un terme qui signifie que l’IA dépasse l’intelligence humaine et conduit à un changement potentiellement transformateur.
L’année dernière, Musk a déclaré que l’intelligence artificielle surhumaine est plus intelligente, tant que la puissance du secteur et les demandes informatiques ne sont pas inutiles, il pourrait exister plus que quiconque sur la planète.
Il prédit que l’IA étroite existera d’ici 2029. « Surhumain » est généralement défini comme étant plus intelligent que les humains individuels dans une tâche particulière.
Comprenons ce que signifie la singularité de l’IA, combien de progrès cela a fait, ce que cela signifie et ce que sont les experts et les opinions d’Elon Musk.
Qu’est-ce qu’une singularité d’IA?
L’idiosyncraticité technique est considérée comme un événement futuriste théorique dans lequel l’intelligence informatique dépasse celle des humains.
Le terme est probablement venu de la physique dans le cadre de la théorie de la relativité générale d’Albert Einstein en 1915. Il se réfère également aux points dérivés des mathématiques, non clairement définis et se comportent de manière imprévisible.
Einstein a décrit la singularité comme un point de densité et de gravité infinies au centre d’un trou noir. La singularité est le point où la compréhension existante de la physique ne peut pas expliquer la réalité.
L’effet en fuite de la spécificité de l’IA hypothétique signifie où les machines serrées peuvent construire de meilleures versions à un rythme si rapide que les humains n’ont plus pu les comprendre ou les contrôler.
John von Neumann, qui a lancé le concept de singularité, a déclaré que si la machine pouvait atteindre la singularité, « comme nous le savons, les problèmes humains ne pouvaient pas continuer ».
Par conséquent, les singularités de l’IA peuvent être vues sous différents angles, chacune avec ses avantages et ses inconvénients. Certains experts considèrent la singularité comme un danger réel et actuel, tandis que d’autres le rejettent comme une pure science-fiction.
Quand cela se produira-t-il?
Il y a eu des avancées importantes dans le domaine de l’IA, mais les algorithmes d’apprentissage automatique peuvent désormais s’apprendre. Cependant, aucune créature d’IA entièrement autonome n’a encore eu lieu, dépassant l’intelligence humaine.
Actuellement, les décideurs politiques du monde entier réfléchissent à des moyens de réguler le développement de l’IA.
Le futuriste Ray Kurzweil a fixé la date de la singularité de l’AI 2045, mais Elon Musk pense que cela pourrait arriver cette année.
Dans l’article original publié en 1965, le co-fondateur d’Intel, Gordon Moore, a prédit que l’alimentation informatique doublerait tous les deux ans à mesure que le matériel était réduit. Malgré la limite quantique inévitable, la théorie est mémorable depuis de nombreuses années.
Pendant ce temps, plus de 33 700 individus citent collectivement « des risques profonds pour la société et l’humanité » pour suspendre tous les projets de laboratoire d’IA qui pourraient être meilleurs que le chatbot GPT-4 d’Openai.
Le marché de l’IA, actuellement évalué à 100 milliards de dollars, devrait croître 20 fois d’ici 2030, à environ 2 billions de dollars.
Que signifie la spécificité de l’IA?
Du point de vue de l’intelligence artificielle et de la croissance de l’apprentissage automatique, la spécificité technologique peut automatiser l’innovation scientifique et les avancées évolutives plus rapidement que les possibilités humaines, révélant des idées de niveau Nobel en quelques minutes.
Ce meilleur cas mélange en outre les humains et les machines, augmentant l’esprit avec des outils informatisés non biologiques, tout comme les membres prothétiques font partie du corps. Cela améliore l’expérience humaine à tous les niveaux au niveau souhaité et saisit une meilleure compréhension de vous-même et de l’univers entier dans le processus.
Cependant, les singularités peuvent conduire à l’extinction humaine. Les experts disent qu’à mesure que les machines serrées deviennent les espèces dominantes, elles peuvent ignorer les humains.
Quels que soient leurs plans, les machines super intelligentes ont besoin de problèmes locaux pour commencer à construire une civilisation posthume « y compris les atomes dont nous sommes faits ». Comme l’intégré, il a contribué à la conversation sur la singularité.
Que disent les experts?
Le fondateur d’Openai, qui a lancé Sam Altman, qui a lancé Chatgpt, admet qu’il se sent « un peu effrayant » de sa propre création.
« Je pense qu’il est vaniteux de supposer que nous n’atteinons pas une urgence artificielle. Après tout, nous sommes juste une machine pour lui-même. Mais il peut arriver à la proximité artificielle à l’ancienne, et non par un certain degré de spécificité technique, mais plutôt dans la manière à l’ancienne de transpiration et d’inventivité. «
Cependant, certains experts disent que l’IA ne peut pas l’emporter sur l’intelligence humaine. Mark Bishop, professeur émérite de l’informatique cognitive à Goldsmith, Université de Londres, soutient que les ordinateurs peuvent, bien sûr, atteindre une compréhension de niveau humain.
Qu’a dit Elon Musk sur la singularité de l’IA?
Elon Musk met en garde contre la spécificité de l’IA à plusieurs reprises. Il a insisté sur le fait que cela pourrait être lié par ce qui s’est passé et que l’humanité pourrait être mis à sa fin.
« Je suppose que d’ici la fin de l’année prochaine (2025), il y aura probablement plus de plus intelligent que les humains », a écrit Elon Musk en 2024, une interview diffusée en direct sur son réseau social X. Il en parlait.
« Lorsqu’il y a une émergence de super intelligence, il est très difficile de prédire ce qui va se passer ensuite. Il a dit: » Lorsqu’il y a une émergence de super intelligence, il est très difficile de prédire ce qui se passera ensuite. « Ai Godfather », a déclaré Il a accepté Geoffrey Hinton.
En 2023, lorsqu’il a prédit une piste de 5 à 6 ans pour être une piste super intelligente, Musk était inquiet de l’impact. Avec le lancement de sa startup AI, Xai cette année-là, il a déclaré: Xai construit essentiellement l’IA, car cela ne semble pas réaliste. Dans le bon sens, espérons-le.
« Il est en fait important de s’inquiéter de l’avenir de Terminator pour éviter l’avenir du Terminator », cite Musk The Guardian, disant que les systèmes informatiques conscients de soi se réfèrent à des films dans lesquels les guerres avec l’humanité.

