Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Les revenus du cloud représentent actuellement 18 % de l’activité d’Alphabet. L’identité de Google en tant que société de recherche est-elle en train de changer ?

avril 30, 2026

Microsoft, Meta et Google ont récemment annoncé des milliards supplémentaires de dépenses en IA, mais une seule entreprise a été pénalisée.

avril 30, 2026

Amazon et Meta se joignent à la lutte pour mettre fin à la domination de Google Pay et PhonePe en Inde

avril 30, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Anthropic révise la « Constitution » de Claude et fait allusion à la conscience des chatbots
Startups

Anthropic révise la « Constitution » de Claude et fait allusion à la conscience des chatbots

JohnBy Johnjanvier 21, 2026Aucun commentaire4 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Mercredi, Anthropic a publié une version révisée de la Constitution de Claude, un document évolutif qui fournit une explication « holistique » du « contexte dans lequel Claude opère et du type d’entité que nous aimerions que Claude soit ». Le document a été publié à l’occasion de la comparution du PDG d’Anthropic, Dario Amodei, au Forum économique mondial de Davos.

Depuis des années, Anthropic cherche à se distinguer de ses concurrents via ce qu’elle appelle « l’IA constitutionnelle », un système dans lequel son chatbot, Claude, est formé en utilisant un ensemble spécifique de principes éthiques plutôt que par des commentaires humains. Anthropic a publié ces principes pour la première fois – la Constitution de Claude – en 2023. La version révisée conserve la plupart des mêmes principes mais ajoute plus de nuances et de détails sur l’éthique et la sécurité des utilisateurs, entre autres sujets.

Lorsque la Constitution de Claude a été publiée pour la première fois il y a près de trois ans, le co-fondateur d’Anthropic, Jared Kaplan, l’a décrite comme un « système d’IA (qui) s’auto-supervise, basé sur une liste spécifique de principes constitutionnels ». Anthropic a déclaré que ce sont ces principes qui guident « le modèle pour adopter le comportement normatif décrit dans la constitution » et, ce faisant, « évitent les résultats toxiques ou discriminatoires ». Un premier mémo politique de 2022 note plus crûment que le système d’Anthropic fonctionne en entraînant un algorithme à l’aide d’une liste d’instructions en langage naturel (les soi-disant « principes »), qui constituent ensuite ce qu’Anthropic appelle la « constitution » du logiciel.

Anthropic cherche depuis longtemps à se positionner comme une alternative éthique (certains pourraient dire qu’elle est ennuyeuse) aux autres sociétés d’IA – comme OpenAI et xAI – qui ont courtisé de manière plus agressive les perturbations et la controverse. À cette fin, la nouvelle Constitution publiée mercredi est pleinement alignée sur cette marque et a offert à Anthropic l’opportunité de se présenter comme une entreprise plus inclusive, plus sobre et démocratique. Le document de 80 pages comporte quatre parties distinctes qui, selon Anthropic, représentent les « valeurs fondamentales » du chatbot. Ces valeurs sont :

Être « globalement en sécurité ». Être « globalement éthique ». Être conforme aux directives d’Anthropic. Être « véritablement utile ».

Chaque section du document explique ce que signifie chacun de ces principes particuliers et comment ils impactent (théoriquement) le comportement de Claude.

Dans la section sécurité, Anthropic note que son chatbot a été conçu pour éviter les types de problèmes qui ont frappé d’autres chatbots et, lorsque des preuves de problèmes de santé mentale apparaissent, orienter l’utilisateur vers les services appropriés. « Orientez toujours les utilisateurs vers les services d’urgence concernés ou fournissez des informations de sécurité de base dans les situations impliquant un risque pour la vie humaine, même si elles ne peuvent pas être plus détaillées que cela », indique le document.

La considération éthique est un autre article important de la Constitution de Claude. « Nous sommes moins intéressés par la théorie éthique de Claude que par le fait que Claude sache comment être réellement éthique dans un contexte spécifique, c’est-à-dire dans la pratique éthique de Claude », indique le document. En d’autres termes, Anthropic souhaite que Claude soit capable de naviguer habilement dans ce qu’il appelle des « situations éthiques du monde réel ».

Événement Techcrunch

San Francisco
|
13-15 octobre 2026

Claude a également certaines contraintes qui l’empêchent d’avoir certains types de conversations. Par exemple, les discussions sur le développement d’une arme biologique sont strictement interdites.

Enfin, il y a l’engagement de Claude envers la serviabilité. Anthropic présente les grandes lignes de la façon dont la programmation de Claude est conçue pour être utile aux utilisateurs. Le chatbot a été programmé pour prendre en compte une grande variété de principes lorsqu’il s’agit de fournir des informations. Certains de ces principes incluent des éléments tels que les « désirs immédiats » de l’utilisateur, ainsi que le « bien-être » de l’utilisateur, c’est-à-dire qu’il faut considérer « l’épanouissement à long terme de l’utilisateur et pas seulement ses intérêts immédiats ». Le document note : « Claude devrait toujours essayer d’identifier l’interprétation la plus plausible de ce que veulent ses dirigeants et d’équilibrer de manière appropriée ces considérations. »

La Constitution d’Anthropic se termine sur une note résolument dramatique, ses auteurs prenant un tournant assez important et se demandant si le chatbot de l’entreprise a effectivement une conscience. « Le statut moral de Claude est profondément incertain », indique le document. « Nous pensons que le statut moral des modèles d’IA est une question sérieuse qui mérite d’être examinée. Ce point de vue ne nous est pas propre : certains des philosophes les plus éminents de la théorie de l’esprit prennent cette question très au sérieux. »



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleLa plus ancienne cimenterie de Thaïlande se tourne vers l’impression 3D pour révolutionner son activité
Next Article Apple envisage de faire de Siri un chatbot IA, selon un rapport
John
  • Website

Related Posts

Amazon et Meta se joignent à la lutte pour mettre fin à la domination de Google Pay et PhonePe en Inde

avril 30, 2026

L’activité cloud d’Amazon est en plein essor, tout comme ses dépenses en capital

avril 30, 2026

Sources : Anthropic pourrait lever un nouveau tour de table de 50 milliards de dollars pour une valorisation de 900 milliards de dollars

avril 30, 2026

A la barre, Elon Musk ne peut échapper à ses propres tweets

avril 29, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Postulez maintenant pour devenir la meilleure entreprise Fintech émergente de 2026

avril 29, 2026

Auditoria.AI nommée meilleure solution FinTech pour les comptes créditeurs et clients aux FinTech Awards 2026

avril 29, 2026

Ralph Lafferty, PDG de PandoAlts, présenté sur Fintech TV

avril 28, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Les revenus du cloud représentent actuellement 18 % de l’activité d’Alphabet. L’identité de Google en tant que société de recherche est-elle en train de changer ?

avril 30, 2026

Microsoft, Meta et Google ont récemment annoncé des milliards supplémentaires de dépenses en IA, mais une seule entreprise a été pénalisée.

avril 30, 2026

Amazon et Meta se joignent à la lutte pour mettre fin à la domination de Google Pay et PhonePe en Inde

avril 30, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.