Mercredi, Anthropic a publié une version révisée de la Constitution de Claude, un document évolutif qui fournit une explication « holistique » du « contexte dans lequel Claude opère et du type d’entité que nous aimerions que Claude soit ». Le document a été publié à l’occasion de la comparution du PDG d’Anthropic, Dario Amodei, au Forum économique mondial de Davos.
Depuis des années, Anthropic cherche à se distinguer de ses concurrents via ce qu’elle appelle « l’IA constitutionnelle », un système dans lequel son chatbot, Claude, est formé en utilisant un ensemble spécifique de principes éthiques plutôt que par des commentaires humains. Anthropic a publié ces principes pour la première fois – la Constitution de Claude – en 2023. La version révisée conserve la plupart des mêmes principes mais ajoute plus de nuances et de détails sur l’éthique et la sécurité des utilisateurs, entre autres sujets.
Lorsque la Constitution de Claude a été publiée pour la première fois il y a près de trois ans, le co-fondateur d’Anthropic, Jared Kaplan, l’a décrite comme un « système d’IA (qui) s’auto-supervise, basé sur une liste spécifique de principes constitutionnels ». Anthropic a déclaré que ce sont ces principes qui guident « le modèle pour adopter le comportement normatif décrit dans la constitution » et, ce faisant, « évitent les résultats toxiques ou discriminatoires ». Un premier mémo politique de 2022 note plus crûment que le système d’Anthropic fonctionne en entraînant un algorithme à l’aide d’une liste d’instructions en langage naturel (les soi-disant « principes »), qui constituent ensuite ce qu’Anthropic appelle la « constitution » du logiciel.
Anthropic cherche depuis longtemps à se positionner comme une alternative éthique (certains pourraient dire qu’elle est ennuyeuse) aux autres sociétés d’IA – comme OpenAI et xAI – qui ont courtisé de manière plus agressive les perturbations et la controverse. À cette fin, la nouvelle Constitution publiée mercredi est pleinement alignée sur cette marque et a offert à Anthropic l’opportunité de se présenter comme une entreprise plus inclusive, plus sobre et démocratique. Le document de 80 pages comporte quatre parties distinctes qui, selon Anthropic, représentent les « valeurs fondamentales » du chatbot. Ces valeurs sont :
Être « globalement en sécurité ». Être « globalement éthique ». Être conforme aux directives d’Anthropic. Être « véritablement utile ».
Chaque section du document explique ce que signifie chacun de ces principes particuliers et comment ils impactent (théoriquement) le comportement de Claude.
Dans la section sécurité, Anthropic note que son chatbot a été conçu pour éviter les types de problèmes qui ont frappé d’autres chatbots et, lorsque des preuves de problèmes de santé mentale apparaissent, orienter l’utilisateur vers les services appropriés. « Orientez toujours les utilisateurs vers les services d’urgence concernés ou fournissez des informations de sécurité de base dans les situations impliquant un risque pour la vie humaine, même si elles ne peuvent pas être plus détaillées que cela », indique le document.
La considération éthique est un autre article important de la Constitution de Claude. « Nous sommes moins intéressés par la théorie éthique de Claude que par le fait que Claude sache comment être réellement éthique dans un contexte spécifique, c’est-à-dire dans la pratique éthique de Claude », indique le document. En d’autres termes, Anthropic souhaite que Claude soit capable de naviguer habilement dans ce qu’il appelle des « situations éthiques du monde réel ».
Événement Techcrunch
San Francisco
|
13-15 octobre 2026
Claude a également certaines contraintes qui l’empêchent d’avoir certains types de conversations. Par exemple, les discussions sur le développement d’une arme biologique sont strictement interdites.
Enfin, il y a l’engagement de Claude envers la serviabilité. Anthropic présente les grandes lignes de la façon dont la programmation de Claude est conçue pour être utile aux utilisateurs. Le chatbot a été programmé pour prendre en compte une grande variété de principes lorsqu’il s’agit de fournir des informations. Certains de ces principes incluent des éléments tels que les « désirs immédiats » de l’utilisateur, ainsi que le « bien-être » de l’utilisateur, c’est-à-dire qu’il faut considérer « l’épanouissement à long terme de l’utilisateur et pas seulement ses intérêts immédiats ». Le document note : « Claude devrait toujours essayer d’identifier l’interprétation la plus plausible de ce que veulent ses dirigeants et d’équilibrer de manière appropriée ces considérations. »
La Constitution d’Anthropic se termine sur une note résolument dramatique, ses auteurs prenant un tournant assez important et se demandant si le chatbot de l’entreprise a effectivement une conscience. « Le statut moral de Claude est profondément incertain », indique le document. « Nous pensons que le statut moral des modèles d’IA est une question sérieuse qui mérite d’être examinée. Ce point de vue ne nous est pas propre : certains des philosophes les plus éminents de la théorie de l’esprit prennent cette question très au sérieux. »

