Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Les investisseurs ignorent les craintes d’un retour de l’Iran en Asie, « l’épine dorsale de toute la chaîne de valeur de l’IA ».

avril 30, 2026

La question à 665 milliards de dollars : le pari de l’IA des Big Tech sera-t-il payant ?

avril 30, 2026

Le détroit d’Ormuz n’est pas seulement un problème militaire, c’est un problème de données

avril 30, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Le papier de 145 pages de Deepmind sur la sécurité peut ne pas convaincre les sceptiques
Startups

Le papier de 145 pages de Deepmind sur la sécurité peut ne pas convaincre les sceptiques

JohnBy Johnavril 2, 2025Aucun commentaire4 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Google Deepmind a publié mercredi un article exhaustif sur ses approches de sécurité pour agir, à peu près comme l’IA qui peut accomplir toute tâche qu’un humain peut.

AG est un peu un sujet controversé dans le domaine de l’IA, avec des opposants en souffrant que ce n’est guère plus qu’un rêve de pipe. D’autres, comprenaient des laboratoires AI comme anthropiques, avertir qui approche à grands pas, et pourrait entraîner des dommages catastrophiques si les mesures ne sont pas prises pour mettre en œuvre des garanties d’appropria.

Le document de 145 pages de Deepmind, co-écrit par le co-fondateur Deepmind, Shane Legg, prévoit que la loi pourrait arriver d’ici 2030 et que cela peut entraîner ce que les auteurs appellent «un grave préjudice». Le document ne définit pas concrètement cela, mais donne l’exemple alarmiste de «risques existentiels» qui «détruisent en permanence l’humanité».

« (Nous prévoyons) le développement d’un âge exceptionnel avant la fin de la décennie en cours », ont écrit les auteurs. «Un acte exceptionnel est un système qui a des capacités qui correspondent à au moins 99e centile d’adultes qualifiés en grande rage de tâches non physiques, incluent des tâches métacognitives comme l’apprentissage de nouvelles compétences.

Au cours du coup, le papier contraste le traitement de Deepmind de l’atténuation des risques de cul avec les anthropics et les ouverts. Anthropic, dit-il, met moins l’accent sur «une formation, une surveillance et une sécurité robustes», tandis que OpenAI est trop optimiste sur «l’automatisation» d’une forme de recherche sur la sécurité de l’IA connue sous le nom de recherche d’alignement.

Le document jette également un doute sur la viabité de l’IA superintelligeante – IA qui peut exécuter des travaux mieux que l’homme. (Openai a récemment affirmé que son chiffre d’affaires est son amour à la superintelligence.) En l’absence de «signification de l’innovation architecturale», les auteurs DeepMind ne sont pas convaincus que les systèmes surintendants émergeront bientôt – si jamais.

Le document trouve cependant plausible, cependant, que les paradigmes actuels permettra une «amélioration de l’IA en tant que Recresh»: une boucle de rétroaction positive où une IA mène ses propres recherches sur l’IA pour créer des systèmes d’IA plus sophistiqués. Et cela pourrait être incroyablement dangereux, affirmer aux auteurs.

À un niveau élevé, l’article a proposé et préconise le développement de techniques pour bloquer l’accès des mauvais acteurs à l’AG hypothétique, améliorer la compréhension des actions des systèmes d’IA et «durcir» l’environnement dans lequel l’IA peut agir. Il reconnaît que Marie des techniques est naissante et a des «problèmes de recherche ouverts», mais de la possibilité d’ignorer les défis de sécurité possibles à l’horizon.

«La nature transformatrice d’Anga a le potentiel à la fois pour des avantages incroyables ainsi que de graves dommages», écrivent les auteurs. « En conséquence, pour construire des accords, il est essentiel pour les développeurs de l’IA de frontière à un plan proactif pour atténuer les dommages graves. »

Cependant, certains experts en désaccord avec les locaux du journal.

Heidy Khlaaf, scientifique en chef de l’IA à l’Institut à but non lucratif de l’IA Now, a déclaré à TechCrunch qu’elle pensait que le concept d’acte est trop mal défini pour être «rigoureusement évalué scientifiquement». Un autre chercheur de l’IA, Matthew Guzdial, professeur adjoint à l’Université de l’Alberta, a déclaré qu’il ne croyait pas que l’amélioration récursive de l’IA est actuellement réaliste.

« (Recresh Improvement) est la base des arguments de la singularité de l’intelligence », a déclaré Guzdial à TechCrunch, « mais nous ne voyons jamais de preuve qu’il fonctionne. »

Sandra Wachter, un chercheur étudiant la technologie et la réglementation à Oxford, soutient qu’une préoccupation plus réaliste est un renforcement de «résultats inexacts».

« Avec la prolifération des sorties d’IA génératives sur Internet et le remplacement progressif de données authentiques, les modèles sont réunis de leurs propres résultats qui sont criblés de misrtuths ou d’hallucinations », a déclaré Shet à TechCrunch. «À ce stade, les chatbots sont principalement utilisés à des fins de recherche et de vérité.

Aussi compréhensif que cela puisse être, le document de Deepmind semble peu susceptible de définir les débats sur la réalité de l’acte – et les domaines de la sécurité de l’IA dans la plupart des besoins d’attention urgents.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleUn nouveau fonds de sécurité s’ouvre pour aider à protéger le Fediverse
Next Article Après un sentiment de bonheur, le Liban et la Syrie comprennent ce qui nous attend
John
  • Website

Related Posts

SoftBank crée une entreprise de robotique qui construit des centres de données – et envisage déjà une introduction en bourse de 100 milliards de dollars

avril 30, 2026

Amazon et Meta se joignent à la lutte pour mettre fin à la domination de Google Pay et PhonePe en Inde

avril 30, 2026

L’activité cloud d’Amazon est en plein essor, tout comme ses dépenses en capital

avril 30, 2026

Sources : Anthropic pourrait lever un nouveau tour de table de 50 milliards de dollars pour une valorisation de 900 milliards de dollars

avril 30, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

L’adoption du Stablecoin dans la région Asie-Pacifique a dépassé le stade expérimental. Que se passe-t-il ensuite ?

avril 30, 2026

Postulez maintenant pour devenir la meilleure entreprise Fintech émergente de 2026

avril 29, 2026

Auditoria.AI nommée meilleure solution FinTech pour les comptes créditeurs et clients aux FinTech Awards 2026

avril 29, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Les investisseurs ignorent les craintes d’un retour de l’Iran en Asie, « l’épine dorsale de toute la chaîne de valeur de l’IA ».

avril 30, 2026

La question à 665 milliards de dollars : le pari de l’IA des Big Tech sera-t-il payant ?

avril 30, 2026

Le détroit d’Ormuz n’est pas seulement un problème militaire, c’est un problème de données

avril 30, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.