Faites-nous part des mises à jour gratuites
Inscrivez-vous simplement à Myft AI Digest et il sera livré directement à votre boîte de réception.
Lorsque la centrale nucléaire de Tchernobyl a explosé en 1986, c’était une catastrophe pour ceux qui vivaient à proximité dans le nord de l’Ukraine. Cependant, l’accident a également été un désastre pour l’industrie mondiale, qui promeut l’énergie nucléaire en tant que technologie future. Les numéros de réacteur net sont maintenus presque plats car ils sont considérés comme dangereux. Que se passe-t-il aujourd’hui si l’industrie de l’IA se met dans un accident égal?
Cette question a été soulevée en marge du sommet de l’action de l’IA de cette semaine à Paris par Stuart Russell, professeur d’informatique à l’Université de Californie à Berkeley. Sa réponse était que c’était une erreur de croire qu’il doit y avoir un compromis entre la sécurité et l’innovation. Par conséquent, ceux qui sont le plus enthousiasmés par la promesse de la technologie de l’IA doivent encore procéder à la prudence. « Sans sécurité, vous ne pouvez pas avoir d’innovation », a-t-il déclaré.
Les avertissements de Russell ont été repris par d’autres experts de l’IA à Paris. « Nous devons accepter des normes de sécurité minimales dans le monde entier », m’a expliqué Wendy Hall, directrice du Web Science Institute de l’Université de Southampton.
Cependant, de tels avertissements étaient principalement en marge en tant que représentants du gouvernement du sommet ont été écrasés autour du Grand Palais spongieux. Dans un discours percutant, JD Vance a souligné l’ordre de sécurité nationale pour diriger l’IA. Le vice-président américain a fait valoir que cette technologie nous rend «plus productifs, plus prospères et plus gratuits». « L’avenir de l’IA ne gagnera pas en enroulant les mains dans la sécurité », a-t-il déclaré.
Le premier sommet international de l’IA organisé dans le parc Bletchley au Royaume-Uni en 2023 a eu un accent quant à la sécurité, mais les priorités de Paris incluent l’investissement du président Emmanuel Macron dans l’industrie de la technologie française. « Le processus qui a commencé avec Bletchley est vraiment incroyable, mais c’était la guillotine ici », a co-organisé Max Tegmark, président du Future of Life Institute, a co-organisé un événement marginal.
La plupart des militants de sécurité sont la vitesse à laquelle la technologie se développe et la dynamique des entreprises pour réaliser des informations générales artificielles que les ordinateurs peuvent faire correspondre les humains sur toutes les tâches cognitives; c’est une concurrence géopolitique. Plusieurs grandes sociétés de recherche sur l’IA, comme Openai, Google Deepmind, Anthropic et Deepseek en Chine, ont une mission claire de réaliser AGI.
Plus tard dans la semaine, le co-fondateur et PDG de l’humanité Dario Amody a prédit que AGI serait probablement réalisé en 2026 ou 2027. « Les fonctions exponentielles peuvent nous surprendre », a-t-il déclaré.
À côté de lui, Demis Hassabis, co-fondateur et PDG de Google Deepmind, a prédit 50% de chances d’atteindre AGI dans les cinq ans et était encore plus prudent. « Si c’était court, je ne serais pas choqué. Je serais choqué si c’était plus d’une décennie », a-t-il déclaré.
Les critiques des militants de sécurité les décrivent comme des fantasmes dans la science-fiction qui croient que la création d’une urgence artificielle conduira à l’extinction humaine. Cependant, les experts en matière de sécurité sont préoccupés par les dommages qui peuvent être créés par les systèmes d’IA extrêmement puissants qui existent aujourd’hui et les dangers des attaques d’armes à grande arme ou biologique compatibles avec l’IA. Même les principaux chercheurs reconnaissent qu’ils ne comprennent pas pleinement comment leurs modèles fonctionnent, créant des problèmes de sécurité et de confidentialité.
L’année dernière, un document de recherche sur les agents des dormeurs humains a révélé que certains modèles de base peuvent être dupés en croyant que les humains fonctionnent en toute sécurité. Par exemple, un modèle formé pour écrire du code sécurisé en 2023 peut insérer du code exploitable lorsque l’année change en 2024. Un tel comportement de porte dérobée n’a pas été détecté par des techniques de sécurité standard de l’humanité. La possibilité d’un candidat de la Mandchourie à l’algorithme qui se cache dans le modèle de recherche profonde de Chine a conduit à être déjà interdit par plusieurs pays.
Cependant, Tegmark est optimiste et je pense que les entreprises d’IA et les gouvernements voient un intérêt personnel écrasant dans la sécurité du réajustement. Les États-Unis, la Chine ou toute autre personne veulent mettre hors contrôle les systèmes d’IA. « L’IA Safety est un bien public mondial », a déclaré à The Safety Event.
Dans une course pour tirer le meilleur parti du potentiel de l’IA, la meilleure devise pour l’industrie pourrait être la devise US Navy SEAL, avec tant de cueillettes n’attirent pas beaucoup d’attention. « Le lent est lisse et le lisse est rapide. »