Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

L’application de fond d’écran de MKBHD, Panels, s’arrête

décembre 1, 2025

L’investisseur « Big Short » Michael Varley déclare que les actions de Tesla sont « ridiculement surévaluées » et ravive l’intérêt à court terme pour Tesla

décembre 1, 2025

La ville de New York soutient les casinos du Queens et du Bronx, au profit du milliardaire Steve Cohen et peut-être aussi de Donald Trump.

décembre 1, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Anthropic lance un nouveau programme pour étudier le «modèle de bien-être du modèle»
Startups

Anthropic lance un nouveau programme pour étudier le «modèle de bien-être du modèle»

JohnBy Johnavril 24, 2025Aucun commentaire3 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Les AIS futurs pourraient-ils être «conscients» et découvrir le monde de la même manière que la façon dont les humains font? Il n’y a aucune preuve solide qu’ils le feront, mais anthropic n’éliminait pas la possibilité.

Jeudi, le laboratoire de l’IA a annoncé qu’il avait lancé un programme de recherche pour enquêter – et se préparer à naviguer – ce qui appelle le «modèle de bien-être du modèle». Depuis l’effort, Anthropic dit qu’il explorera des choses comme la façon de déterminer si le «bien-être» d’un modèle d’IA déserve la considération morale, l’importance potentielle des «signes de détresse» du modèle et des interventions possibles «à faible coût».

Il y a un désaccord majeur au sein de la communauté de l’IA sur ce que les modèles des caractéristiques humaines «présentent», le cas échéant, et comment nous devons les «traiter».

De nombreux universitaires croient que l’IA aujourd’hui ne peut pas se rapprocher de la conscience ou de l’expérience humaine, et ne sera pas nécessaire à l’avenir. AI Comme nous le savons, c’est un moteur de prédiction statistique. Il ne «pense» pas ou ne «se sent» pas vraiment car ces concepts ont traditionnellement été compris. Formé sur d’innombrables exemples de texte, d’images, etc., l’IA apprend des modèles et parfois des moyens utiles d’extrapoler pour résoudre les tâches.

Comme Mike Cook, chercheur au King’s College de Londres, spécialisé dans l’IA, a récemment déclaré à TechCrunch dans une interview, un modèle ne peut pas «opposer» à changer ses «valeurs» parce que vous avez été fait. Pour suggérer le contraire, nous projettent sur le système.

« Quiconque anthropomorphiser les systèmes d’IA à ce degré joue soit pour l’attention, soit sérieusement mal compris sa relation avec l’IA », a déclaré Cook. «Un système d’IA est-il optimisé pour ses objectifs, ou« acquiert-il ses propres valeurs »? Il s’agit de la façon dont vous le décrivez, et à quel point la langue que vous voulez en train de le regarder.»

Un autre chercheur, Stephen Casper, un doctorant au MIT, a déclaré à TechCrunch qu’il pensait à un amour d’IA à un «imitateur» qui «(fait) toutes les sorts de confabulation» »et disent« tous les sorts de choses frivoles ».

Pourtant, d’autres scientifiques insistent sur le fait que l’IA a des valeurs et d’autres composantes de type humain de la prise de décision morale. Une étude hors du Center for IA Safety, une organisation de recherche sur l’IA, implique que l’IA a un système de valeurs qui l’a conduit à hiérarchiser son bien-être sur les humains dans certains scénarios.

Anthropic ment depuis un certain temps aux bases de son initiative de bien-être modèle. L’année dernière, la société a embauché son premier chercheur dédié à la protection sociale de l’IA, Kyle Fish, pour élaborer des lignes directrices sur la façon dont les sociétés anthropiques et autres devraient aborder le problème. (Fish, qui dirige le nouveau programme de recherche sur le bien-être du modèle, a déclaré au New York Times qu’il pensait qu’il y avait 15% de chances que Claude ou une autre IA est consciente aujourd’hui.)

Dans un article de blog jeudi, Anthropic a reconnu qu’il n’y a pas de consensus scientifique sur quels systèmes d’IA actuels ou futurs pourraient être conscients ou avoir des expériences qui justifient une considération éthique.

« À la lumière de cela, nous abordons le sujet avec l’humité et avec le moins possible », a déclaré la société. «Nous reconnaissons bien que nous devons réviser régulièrement nos idées en tant que développement sur le terrain.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleRien que l’expression: Leslie Studio et artiste de l’artiste Leslie Zhao, l’expérience de style de vie de Leslie Zhao
Next Article 20 marques que vous pouvez voir tous les jours sur la liste SGX
John
  • Website

Related Posts

L’application de fond d’écran de MKBHD, Panels, s’arrête

décembre 1, 2025

Les ouvriers du bâtiment profitent du boom de l’IA

décembre 1, 2025

Festivitas vous permet de décorer vos appareils Apple avec des lumières de Noël et de la neige

décembre 1, 2025

L’investissement d’OpenAI dans Thrive Holdings est son dernier accord circulaire

décembre 1, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

La néobanque Web3 apparaît comme la prochaine étape de la finance numérique

décembre 1, 2025

Money 20/20 Dates: Your Guide to the Premier FinTech Event in 2025 and Beyond

décembre 1, 2025

Le Singapore FinTech Festival 2025 a attiré plus de 70 000 participants pour sa 10e édition

novembre 30, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

L’application de fond d’écran de MKBHD, Panels, s’arrête

décembre 1, 2025

L’investisseur « Big Short » Michael Varley déclare que les actions de Tesla sont « ridiculement surévaluées » et ravive l’intérêt à court terme pour Tesla

décembre 1, 2025

La ville de New York soutient les casinos du Queens et du Bronx, au profit du milliardaire Steve Cohen et peut-être aussi de Donald Trump.

décembre 1, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.