Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Pourquoi investir dans la cybersécurité est devenu un « incontournable » pour les directeurs financiers

mars 3, 2026

Le candidat que la Silicon Valley a construit est désormais celui qu’ils veulent démolir

mars 3, 2026

Jamie Dimon : « L’Iran n’en est pas encore au point où il déteste les partis en raison de l’inflation »

mars 3, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Les laboratoires d’IA comme Meta, Deepseek et Xai ont les pires notes de l’indice de sécurité existentielle
Business

Les laboratoires d’IA comme Meta, Deepseek et Xai ont les pires notes de l’indice de sécurité existentielle

JohnBy Johndécembre 5, 2025Aucun commentaire4 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email



Le dernier rapport d’un organisme de surveillance de la sécurité de l’IA n’est pas quelque chose que les entreprises technologiques veulent coller sur leurs réfrigérateurs.

Le dernier indice de sécurité de l’IA du Future of Life Institute a révélé que les principaux instituts d’IA ne répondent pas à la plupart des mesures de responsabilité en matière d’IA, et que peu d’entre eux obtiennent des notes supérieures à C. L’organisation a évalué huit entreprises dans des catégories telles que le cadre de sécurité, l’évaluation des risques et les dangers présents.

Le plus remarquable était peut-être la ligne « sécurité de survie », où les entreprises obtenaient des D et des F dans tous les domaines. Max Tegmark, professeur au Massachusetts Institute of Technology et directeur du Future of Life Institute, a déclaré que bon nombre de ces entreprises recherchent clairement la superintelligence mais n’ont pas de plan pour la gérer en toute sécurité.

« Les évaluateurs ont ressenti ce genre d’inconfort », a déclaré Tegmark.

Les évaluateurs en question étaient un panel d’universitaires de l’IA et d’experts en gouvernance qui ont examiné les documents publics et les réponses à l’enquête soumises par cinq des huit entreprises.

Anthropic, OpenAI et GoogleDeepMind ont pris les trois premières places avec une note globale de C+ ou C. Viennent ensuite Xai, Z.ai, Meta, DeepSeek et Alibaba d’Elon Musk, qui ont tous reçu un D ou D-.

Tegmark accuse le manque de réglementation, ce qui signifie plus de concurrence pour l’IA que de mesures de sécurité. La Californie a récemment adopté la première loi obligeant les sociétés d’IA avancée à divulguer des informations de sécurité sur les risques catastrophiques, et New York est désormais sur le point de le faire. Il y a cependant peu d’espoir qu’une loi fédérale soit adoptée.

« Les entreprises, même avec de bonnes intentions, ont toujours intérêt à lancer de nouveaux produits avant leurs concurrents, plutôt que de passer nécessairement plus de temps à assurer la sécurité », a déclaré Tegmark.

Tegmark a déclaré que l’industrie commençait à prendre plus au sérieux les indicateurs de sécurité régulièrement publiés par le groupe, plutôt que les normes imposées par le gouvernement. Tegmark a déclaré que quatre des cinq entreprises américaines ont désormais répondu à l’enquête (Meta est la seule à résister) et que les entreprises ont apporté certaines améliorations au fil du temps, citant comme exemple la transparence de Google concernant ses politiques de dénonciation.

Mais il a ajouté que les préjudices réels signalés autour de questions telles que le suicide des adolescents prétendument facilité par les chatbots, les interactions inappropriées avec des mineurs et les cyberattaques à grande échelle rendent également la discussion plus importante.

« (Ils) ont fait comprendre à beaucoup de gens que ce n’est pas l’avenir dont nous parlons, c’est maintenant », a déclaré Tegmark.

Le Future of Life Institute a récemment appelé des personnalités publiques aussi diverses que le prince Harry et Meghan Markle, l’ancien assistant du président Trump Steve Bannon, le cofondateur d’Apple Steve Wozniak et le rappeur will.i.am à signer une déclaration s’opposant à la recherche qui pourrait conduire à la superintelligence.

« J’aimerais voir quelque chose comme la FDA pour l’IA, où les entreprises doivent d’abord convaincre les experts que leurs modèles sont sûrs avant de pouvoir les vendre », a déclaré Tegmark.

« L’industrie de l’IA est tout à fait unique dans la mesure où c’est la seule industrie aux États-Unis qui développe une technologie puissante qui est moins réglementée qu’un sandwich et qui est essentiellement totalement non réglementée », a déclaré Tegmark. « Si quelqu’un disait : « Je veux ouvrir une nouvelle sandwicherie près de Times Square », et avant de pouvoir vendre mon premier sandwich, je devrais demander à un inspecteur de la santé d’inspecter la cuisine pour s’assurer qu’elle n’est pas pleine de rats… Si à la place je disais : « Oh, je ne vends pas de sandwichs. Je libère simplement la superintelligence. » D’accord ! Il n’y a pas besoin d’un inspecteur ni d’une quelconque approbation. »

« La solution à ce problème est donc très claire », a ajouté Tegmark. « Nous devons simplement mettre fin au programme d’aide sociale aux entreprises qui accorde aux entreprises d’IA des exemptions dont les autres entreprises n’ont pas droit. »

Ce rapport a été initialement publié par Tech Brew.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleSpaceX de Musk, valorisation record, parle d’une introduction en bourse dès 2026
Next Article Waymo va émettre un rappel de logiciel sur le comportement des robotaxis autour des autobus scolaires
John
  • Website

Related Posts

Pourquoi investir dans la cybersécurité est devenu un « incontournable » pour les directeurs financiers

mars 3, 2026

Jamie Dimon : « L’Iran n’en est pas encore au point où il déteste les partis en raison de l’inflation »

mars 3, 2026

La guerre en Iran pourrait accélérer la montée des entreprises « multinationales »

mars 3, 2026

Les conseils d’administration ne sont pas prêts pour l’ère de l’IA : et si le PDG était falsifié ?

mars 3, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Les parties prenantes commencent à travailler à la création d’une commission de réglementation des technologies financières

mars 2, 2026

Meilleures plateformes Fintech de 2026

mars 2, 2026

YEIDA prévoit un centre de technologie financière sur 500 acres près de l’aéroport de Noida | Nouvelles de Noida

mars 2, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Pourquoi investir dans la cybersécurité est devenu un « incontournable » pour les directeurs financiers

mars 3, 2026

Le candidat que la Silicon Valley a construit est désormais celui qu’ils veulent démolir

mars 3, 2026

Jamie Dimon : « L’Iran n’en est pas encore au point où il déteste les partis en raison de l’inflation »

mars 3, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.