Google Deepmind a publié mercredi un article exhaustif sur ses approches de sécurité pour agir, à peu près comme l’IA qui peut accomplir toute tâche qu’un humain peut.
AG est un peu un sujet controversé dans le domaine de l’IA, avec des opposants en souffrant que ce n’est guère plus qu’un rêve de pipe. D’autres, comprenaient des laboratoires AI comme anthropiques, avertir qui approche à grands pas, et pourrait entraîner des dommages catastrophiques si les mesures ne sont pas prises pour mettre en œuvre des garanties d’appropria.
Le document de 145 pages de Deepmind, co-écrit par le co-fondateur Deepmind, Shane Legg, prévoit que la loi pourrait arriver d’ici 2030 et que cela peut entraîner ce que les auteurs appellent «un grave préjudice». Le document ne définit pas concrètement cela, mais donne l’exemple alarmiste de «risques existentiels» qui «détruisent en permanence l’humanité».
« (Nous prévoyons) le développement d’un âge exceptionnel avant la fin de la décennie en cours », ont écrit les auteurs. «Un acte exceptionnel est un système qui a des capacités qui correspondent à au moins 99e centile d’adultes qualifiés en grande rage de tâches non physiques, incluent des tâches métacognitives comme l’apprentissage de nouvelles compétences.
Au cours du coup, le papier contraste le traitement de Deepmind de l’atténuation des risques de cul avec les anthropics et les ouverts. Anthropic, dit-il, met moins l’accent sur «une formation, une surveillance et une sécurité robustes», tandis que OpenAI est trop optimiste sur «l’automatisation» d’une forme de recherche sur la sécurité de l’IA connue sous le nom de recherche d’alignement.
Le document jette également un doute sur la viabité de l’IA superintelligeante – IA qui peut exécuter des travaux mieux que l’homme. (Openai a récemment affirmé que son chiffre d’affaires est son amour à la superintelligence.) En l’absence de «signification de l’innovation architecturale», les auteurs DeepMind ne sont pas convaincus que les systèmes surintendants émergeront bientôt – si jamais.
Le document trouve cependant plausible, cependant, que les paradigmes actuels permettra une «amélioration de l’IA en tant que Recresh»: une boucle de rétroaction positive où une IA mène ses propres recherches sur l’IA pour créer des systèmes d’IA plus sophistiqués. Et cela pourrait être incroyablement dangereux, affirmer aux auteurs.
À un niveau élevé, l’article a proposé et préconise le développement de techniques pour bloquer l’accès des mauvais acteurs à l’AG hypothétique, améliorer la compréhension des actions des systèmes d’IA et «durcir» l’environnement dans lequel l’IA peut agir. Il reconnaît que Marie des techniques est naissante et a des «problèmes de recherche ouverts», mais de la possibilité d’ignorer les défis de sécurité possibles à l’horizon.
«La nature transformatrice d’Anga a le potentiel à la fois pour des avantages incroyables ainsi que de graves dommages», écrivent les auteurs. « En conséquence, pour construire des accords, il est essentiel pour les développeurs de l’IA de frontière à un plan proactif pour atténuer les dommages graves. »
Cependant, certains experts en désaccord avec les locaux du journal.
Heidy Khlaaf, scientifique en chef de l’IA à l’Institut à but non lucratif de l’IA Now, a déclaré à TechCrunch qu’elle pensait que le concept d’acte est trop mal défini pour être «rigoureusement évalué scientifiquement». Un autre chercheur de l’IA, Matthew Guzdial, professeur adjoint à l’Université de l’Alberta, a déclaré qu’il ne croyait pas que l’amélioration récursive de l’IA est actuellement réaliste.
« (Recresh Improvement) est la base des arguments de la singularité de l’intelligence », a déclaré Guzdial à TechCrunch, « mais nous ne voyons jamais de preuve qu’il fonctionne. »
Sandra Wachter, un chercheur étudiant la technologie et la réglementation à Oxford, soutient qu’une préoccupation plus réaliste est un renforcement de «résultats inexacts».
« Avec la prolifération des sorties d’IA génératives sur Internet et le remplacement progressif de données authentiques, les modèles sont réunis de leurs propres résultats qui sont criblés de misrtuths ou d’hallucinations », a déclaré Shet à TechCrunch. «À ce stade, les chatbots sont principalement utilisés à des fins de recherche et de vérité.
Aussi compréhensif que cela puisse être, le document de Deepmind semble peu susceptible de définir les débats sur la réalité de l’acte – et les domaines de la sécurité de l’IA dans la plupart des besoins d’attention urgents.

