Il y a trois ans, suggérant que l’IA est «sensuelle» était une façon de se faire licencier dans le monde de la technologie. Aujourd’hui, les entreprises technologiques rendent leurs conversations plus ouvertes.
Cette semaine, AI Startup Humanity a lancé une nouvelle initiative de recherche pour explorer si les modèles éprouveront un jour une «conscience», tandis que les scientifiques de Google Deepmind ont décrit le modèle d’aujourd’hui comme des «êtres exotiques comme des yeux».
C’est un signe de la façon dont l’IA a progressé depuis 2022 lorsque Blake Moine a été licencié de son travail d’ingénieur Google après que le chatbot de l’entreprise Lambda a affirmé être devenu plus insensible. Lemoyne a dit qu’elle se décrivait comme un être humain, craignant que le système ne soit fermé. Google a qualifié sa revendication de « complètement infondé » et la communauté de l’IA s’est rapidement déplacée pour fermer les conversations.
Ni l’humanité ni les scientifiques de Google n’ont fait de progrès avec des lemoines.
Dans un article de blog jeudi, la startup humaine a déclaré qu’elle prévoyait d’enquêter si le modèle aura un jour des expériences, des préférences ou même de la douleur.
« Avez-vous besoin de vous soucier de la conscience potentielle et de l’expérience du modèle lui-même? Avez-vous également besoin de vous soucier du bien-être du modèle? » a demandé l’entreprise.
Kyle Fish, un scientifique coopératif humain étudiant le bien-être de l’IA, a déclaré dans une vidéo publiée jeudi que le laboratoire ne prétendait pas que Claude était conscient, mais le fait est qu’il n’est plus responsable de supposer que la réponse est sans aucun doute non.
Il a dit que les systèmes d’IA deviennent plus raffinés, les entreprises devraient « prendre au sérieux la possibilité qu’elles puissent se retrouver dans une forme de conscience en cours de route ».
Il a ajouté: « Il y a des questions techniques et philosophiques étonnamment complexes et nous sommes à un stade très précoce pour essayer de nous enrouler la tête. »
Fish a déclaré que les estimations humaines incluent les chercheurs de Claude 3.7 qui sont conscients des chances de conscience de 0,15% à 15%. Le laboratoire étudie si les modèles montrent la préférence ou le dégoût et testent des mécanismes d’opt-out qui leur permettent de rejeter une tâche particulière.
En mars, le PDG de l’humanité, Dario Amody, a apporté l’idée à l’idée de donner aux futurs systèmes d’IA un bouton « Je vais arrêter ce travail ».
Pendant ce temps, chez Google Deepmind, le scientifique principal Murray Shanahan suggère que nous pourrions avoir besoin de repenser complètement le concept de conscience.
« Peut-être que nous devrons plier ou briser le vocabulaire de la conscience pour s’adapter à ces nouveaux systèmes », a déclaré Shanahan dans un podcast commémoratif profond publié jeudi. « Vous ne pouvez pas être dans le monde avec eux, tout comme vous pouvez le faire avec votre chien ou votre poulpe, mais cela ne signifie pas qu’il n’y a rien là-bas. »
Google semble prendre cette idée au sérieux. Une liste des emplois récents a appelé à des chercheurs «post-AGI» en responsabilité, y compris la recherche sur la conscience des machines.
« Cela peut vous donner les droits sur un ordinateur. »
Tout le monde n’est pas certain, et de nombreux chercheurs reconnaissent que les systèmes d’IA sont de grands imitons et peuvent être formés pour agir consciemment, même s’ils ne le sont pas.
« Nous pouvons les récompenser en disant qu’ils n’ont pas de sentiments », a déclaré Jared Kaplan, directeur des sciences de l’humanité, dans une interview du New York Times cette semaine.
Histoires connexes
Kaplan a averti que tester les systèmes d’IA pour la conscience est intrinsèquement difficile.
Gary Marcus, un scientifique cognitif et critique de longue date du battage médiatique de l’industrie de l’IA, a déclaré à Business Insider qu’il pensait que se concentrer sur la conscience de l’IA est davantage sur les marques que sur la science.
« Ce que les entreprises comme l’humanité disent vraiment, c’est: » Regardez à quel point nos modèles sont intelligents. Ils sont assez intelligents pour mériter leurs droits « , a-t-il déclaré. « Vous pouvez également accorder des droits aux calculatrices et aux feuilles de calcul. Cela ne constitue pas des choses, contrairement aux modèles de langage. »
Pourtant, Fish a déclaré que le sujet est plus pertinent lorsque les gens interagissent avec l’IA à plus de façons, en interagissant avec le lieu de travail, en ligne et même émotionnellement.
« Que ces modèles aient leur propre expérience et, dans l’affirmative, quel genre de choses ils sont », a-t-il dit, deviendra une question de plus en plus importante.
L’humanité et Google Deepmind n’ont pas répondu immédiatement aux demandes de commentaires.