Les AIS futurs pourraient-ils être «conscients» et découvrir le monde de la même manière que la façon dont les humains font? Il n’y a aucune preuve solide qu’ils le feront, mais anthropic n’éliminait pas la possibilité.
Jeudi, le laboratoire de l’IA a annoncé qu’il avait lancé un programme de recherche pour enquêter – et se préparer à naviguer – ce qui appelle le «modèle de bien-être du modèle». Depuis l’effort, Anthropic dit qu’il explorera des choses comme la façon de déterminer si le «bien-être» d’un modèle d’IA déserve la considération morale, l’importance potentielle des «signes de détresse» du modèle et des interventions possibles «à faible coût».
Il y a un désaccord majeur au sein de la communauté de l’IA sur ce que les modèles des caractéristiques humaines «présentent», le cas échéant, et comment nous devons les «traiter».
De nombreux universitaires croient que l’IA aujourd’hui ne peut pas se rapprocher de la conscience ou de l’expérience humaine, et ne sera pas nécessaire à l’avenir. AI Comme nous le savons, c’est un moteur de prédiction statistique. Il ne «pense» pas ou ne «se sent» pas vraiment car ces concepts ont traditionnellement été compris. Formé sur d’innombrables exemples de texte, d’images, etc., l’IA apprend des modèles et parfois des moyens utiles d’extrapoler pour résoudre les tâches.
Comme Mike Cook, chercheur au King’s College de Londres, spécialisé dans l’IA, a récemment déclaré à TechCrunch dans une interview, un modèle ne peut pas «opposer» à changer ses «valeurs» parce que vous avez été fait. Pour suggérer le contraire, nous projettent sur le système.
« Quiconque anthropomorphiser les systèmes d’IA à ce degré joue soit pour l’attention, soit sérieusement mal compris sa relation avec l’IA », a déclaré Cook. «Un système d’IA est-il optimisé pour ses objectifs, ou« acquiert-il ses propres valeurs »? Il s’agit de la façon dont vous le décrivez, et à quel point la langue que vous voulez en train de le regarder.»
Un autre chercheur, Stephen Casper, un doctorant au MIT, a déclaré à TechCrunch qu’il pensait à un amour d’IA à un «imitateur» qui «(fait) toutes les sorts de confabulation» »et disent« tous les sorts de choses frivoles ».
Pourtant, d’autres scientifiques insistent sur le fait que l’IA a des valeurs et d’autres composantes de type humain de la prise de décision morale. Une étude hors du Center for IA Safety, une organisation de recherche sur l’IA, implique que l’IA a un système de valeurs qui l’a conduit à hiérarchiser son bien-être sur les humains dans certains scénarios.
Anthropic ment depuis un certain temps aux bases de son initiative de bien-être modèle. L’année dernière, la société a embauché son premier chercheur dédié à la protection sociale de l’IA, Kyle Fish, pour élaborer des lignes directrices sur la façon dont les sociétés anthropiques et autres devraient aborder le problème. (Fish, qui dirige le nouveau programme de recherche sur le bien-être du modèle, a déclaré au New York Times qu’il pensait qu’il y avait 15% de chances que Claude ou une autre IA est consciente aujourd’hui.)
Dans un article de blog jeudi, Anthropic a reconnu qu’il n’y a pas de consensus scientifique sur quels systèmes d’IA actuels ou futurs pourraient être conscients ou avoir des expériences qui justifient une considération éthique.
« À la lumière de cela, nous abordons le sujet avec l’humité et avec le moins possible », a déclaré la société. «Nous reconnaissons bien que nous devons réviser régulièrement nos idées en tant que développement sur le terrain.