Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Le FBI affirme que les attaques de « jackpotting » dans les distributeurs automatiques sont en augmentation et rapportent aux pirates informatiques des millions d’argent volé

février 19, 2026

Le parrainage de Red Bull par Visa, largement ridiculisé, reprend, le chef insiste sur le fait que « les noms s’attachent » si les gens trouvent un lien

février 19, 2026

Joseph C Belden : Dernière chance pour les innovateurs de bénéficier d’avantages en matière de mise à l’échelle

février 19, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Le PDG d’Anthropic, Dario Amodei, est « très mal à l’aise » à l’idée que les leaders technologiques décident de l’avenir de l’IA.
Business

Le PDG d’Anthropic, Dario Amodei, est « très mal à l’aise » à l’idée que les leaders technologiques décident de l’avenir de l’IA.

JohnBy Johnfévrier 19, 2026Aucun commentaire7 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email



Le PDG d’Anthropic, Dario Amodei, ne pense pas qu’il devrait être responsable des garde-fous entourant l’IA.

Dans une interview avec Anderson Cooper dans l’émission 60 Minutes de CBS News diffusée en novembre 2025, le PDG a déclaré que l’IA devrait être plus étroitement réglementée et que les décisions concernant l’avenir de la technologie devraient être laissées uniquement aux dirigeants des grandes entreprises technologiques.

« Je pense qu’il est très inconfortable que ces décisions soient prises par un petit nombre d’entreprises, par un petit nombre de personnes », a déclaré Amodei. « Et c’est l’une des raisons pour lesquelles j’ai toujours plaidé en faveur d’une réglementation responsable et réfléchie de la technologie. »

« Qui vous a choisi, toi et Sam Altman ? » » a demandé Cooper.

« Personne. Honnêtement, personne », a répondu Amodei.

Anthropic a adopté une philosophie de transparence sur les limites et les risques associés au développement de l’IA, a-t-il ajouté. Avant de publier l’interview, la société a annoncé avoir déjoué « le premier cas documenté de cyberattaque d’IA à grande échelle menée sans intervention humaine substantielle ».

Anthropic a annoncé la semaine dernière avoir fait un don de 20 millions de dollars à Public First Action, un super PAC axé sur la sécurité et la réglementation de l’IA qui s’oppose directement au super PAC soutenu par les investisseurs de son rival OpenAI.

« La sécurité de l’IA reste notre priorité absolue », a déclaré Amodei à Fortune dans un article de couverture de janvier. « Les entreprises valorisent la confiance et la fiabilité », dit-il.

Il n’existe aucune réglementation fédérale définissant des interdictions concernant la sécurité de l’IA ou de la technologie. Alors que les 50 États ont adopté cette année une législation sur l’IA et que 38 d’entre eux ont adopté ou promulgué des mesures de transparence et de sécurité, les experts de l’industrie technologique appellent les entreprises d’IA à aborder la cybersécurité avec un sentiment d’urgence.

Au début de l’année dernière, Kevin Mandia, expert en cybersécurité et PDG de Mandiant, a averti que les premières attaques de cybersécurité par des agents d’IA se produiraient dans les 12 à 18 prochains mois. Cela signifie que la divulgation par Anthropic des attaques déjouées a eu lieu plusieurs mois plus tôt que le calendrier prévu par Mandia.

M. Amodei a souligné les risques à court, moyen et long terme associés à une IA sans restriction. Premièrement, cette technologie présente des préjugés et de la désinformation, comme c’est le cas actuellement. Il utilise ensuite des connaissances scientifiques et techniques améliorées pour générer des informations nuisibles, posant finalement une menace existentielle en éliminant l’action humaine et en excluant potentiellement les humains du système en devenant trop autonomes.

Ces préoccupations font écho à celles du « parrain de l’IA », Jeffrey Hinton, qui a prévenu que l’IA aurait la capacité de déjouer et de contrôler les humains, peut-être au cours de la prochaine décennie.

La pierre angulaire du lancement d’Anthropic en 2021 était la surveillance de l’IA et des mesures de sécurité renforcées. Amodei était auparavant vice-président de la recherche chez OpenAI de Sam Altman. Il a quitté l’entreprise en raison de désaccords sur les problèmes de sécurité de l’IA. (Jusqu’à présent, les efforts d’Amodei pour concurrencer Altman semblent porter leurs fruits ; Anthropic a annoncé ce mois-ci que la société est évaluée à 380 milliards de dollars ; la valorisation d’OpenAI est estimée à 500 milliards de dollars.)

« Il y avait un groupe au sein d’OpenAI qui a commencé avec la création de GPT-2 et GPT-3 et qui se concentrait très fortement sur deux choses », a déclaré Amodei à Fortune en 2023. « L’une était l’idée que si nous mettions de plus en plus de calcul dans ces modèles, ils s’amélioreraient de plus en plus, et il n’y avait presque aucune fin à cela.

L’engagement d’Anthropic en faveur de la transparence

Alors qu’Anthropic continue d’étendre ses investissements dans les centres de données, l’entreprise a dévoilé certains de ses efforts pour remédier aux lacunes et aux menaces de l’IA. Dans son rapport de sécurité de mai 2025, Anthropic a rapporté que certaines versions de ses modèles Opus avaient proféré des menaces, notamment en révélant la liaison extraconjugale d’un ingénieur, pour éviter la fermeture. La société a également déclaré que lorsqu’elle recevait des invites nuisibles, telles que la manière de planifier une attaque terroriste, le modèle d’IA se conformait à la demande dangereuse, mais se corrigeait plus tard.

En novembre dernier, l’entreprise a déclaré dans un article de blog que son chatbot Claude avait reçu une note « d’égalité politique » de 94 %, surpassant ou à égalité avec ses concurrents en termes de neutralité.

En plus des propres efforts de recherche d’Anthropic pour lutter contre la corruption technologique, Amodei a appelé à des efforts législatifs accrus pour lutter contre les risques liés à l’IA. Dans un éditorial du New York Times de juin 2025, il a critiqué la décision du Sénat d’inclure un moratoire de 10 ans sur la réglementation étatique de l’IA dans le projet de loi politique du président Donald Trump.

« L’IA progresse à un rythme vertigineux », a déclaré Amodei. « Je crois que ces systèmes peuvent changer radicalement le monde d’ici deux ans. Dans dix ans, tout s’effondrera. »

Critique de la théorie humaine

Anthropic a été critiqué pour avoir souligné ses erreurs et s’être efforcé d’y remédier. Alors qu’Anthropic tire la sonnette d’alarme concernant les attaques de cybersécurité basées sur l’IA, Yann LeCun, scientifique en chef de l’IA chez Meta, a déclaré que cet avertissement est un moyen de manipuler les législateurs pour restreindre l’utilisation de modèles open source.

En réponse à un message du sénateur du Connecticut Chris Murphy exprimant son inquiétude face à l’attaque, LeCun a déclaré dans un message X qu’il était « dupé par des gens qui veulent une capture réglementaire ». « Ils effraient tout le monde avec des recherches douteuses, de sorte que le modèle open source sera réglementé et cessera d’exister. »

Certains disent que la stratégie d’Anthropic est une stratégie de « théâtre de sécurité », l’équivalent d’une bonne image de marque, mais sans aucune promesse de mettre réellement en place des garanties pour la technologie.

Même certains employés d’Anthropic semblent avoir des doutes quant à la capacité de l’entreprise technologique à s’autoréguler. Au début de la semaine dernière, Mrinank Sharma, chercheur en sécurité de l’IA humaine, a annoncé qu’il démissionnait de l’entreprise, déclarant : « Le monde est en danger ».

« Pendant mon séjour ici, j’ai vu à maintes reprises combien il est difficile de laisser nos valeurs gouverner véritablement nos actions », a déclaré Sharma dans sa lettre de démission. « J’ai constaté cela en moi-même, au sein des organisations, où nous sommes constamment confrontés à des pressions pour mettre de côté ce qui est le plus important, mais aussi dans la société dans son ensemble. »

Anthropic n’a pas immédiatement répondu à la demande de commentaires de Fortune.

Amodei a nié à Cooper qu’Anthropic s’engageait dans un « théâtre de sécurité », mais a reconnu dans l’épisode de la semaine dernière du podcast Dwarkesh que l’entreprise avait parfois du mal à équilibrer sécurité et profit.

« Nous sommes soumis à une pression commerciale incroyable et c’est encore plus difficile pour nous-mêmes car je pense que nous avons mis en place davantage de mesures de sécurité que d’autres entreprises », a-t-il déclaré.

Une version de cet article a été publiée sur Fortune.com le 17 novembre 2025.

Détails de la réglementation sur l’IA :



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleMeta ferme le site Web autonome de Messenger
Next Article Sam Altman d’OpenAI et Dario Amodei d’Anthropic refusent de se tenir la main des semaines après la bataille publicitaire du Super Bowl
John
  • Website

Related Posts

Le parrainage de Red Bull par Visa, largement ridiculisé, reprend, le chef insiste sur le fait que « les noms s’attachent » si les gens trouvent un lien

février 19, 2026

Vous n’imagineriez pas que les coupes au beurre de cacahuète de Reese aient un goût différent. Il suffit de demander au petit-fils de l’inventeur.

février 19, 2026

Jeff Bezos a lancé son empire Amazon dans un garage loué. Son « touche-à-tout » vaut désormais 24 milliards de dollars

février 19, 2026

Sam Altman d’OpenAI et Dario Amodei d’Anthropic refusent de se tenir la main des semaines après la bataille publicitaire du Super Bowl

février 19, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

5 meilleures sociétés de développement de logiciels FinTech en Europe en 2026

février 19, 2026

La société indienne de regtech IDfy lève plus de 52 millions de dollars

février 18, 2026

BridgeWise est le pionnier de solutions d’IA d’actifs robustes avec une acquisition révolutionnaire de technologie financière avant son lancement aux Philippines

février 18, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Le FBI affirme que les attaques de « jackpotting » dans les distributeurs automatiques sont en augmentation et rapportent aux pirates informatiques des millions d’argent volé

février 19, 2026

Le parrainage de Red Bull par Visa, largement ridiculisé, reprend, le chef insiste sur le fait que « les noms s’attachent » si les gens trouvent un lien

février 19, 2026

Joseph C Belden : Dernière chance pour les innovateurs de bénéficier d’avantages en matière de mise à l’échelle

février 19, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.