
Le dernier rapport d’un organisme de surveillance de la sécurité de l’IA n’est pas quelque chose que les entreprises technologiques veulent coller sur leurs réfrigérateurs.
Le dernier indice de sécurité de l’IA du Future of Life Institute a révélé que les principaux instituts d’IA ne répondent pas à la plupart des mesures de responsabilité en matière d’IA, et que peu d’entre eux obtiennent des notes supérieures à C. L’organisation a évalué huit entreprises dans des catégories telles que le cadre de sécurité, l’évaluation des risques et les dangers présents.
Le plus remarquable était peut-être la ligne « sécurité de survie », où les entreprises obtenaient des D et des F dans tous les domaines. Max Tegmark, professeur au Massachusetts Institute of Technology et directeur du Future of Life Institute, a déclaré que bon nombre de ces entreprises recherchent clairement la superintelligence mais n’ont pas de plan pour la gérer en toute sécurité.
« Les évaluateurs ont ressenti ce genre d’inconfort », a déclaré Tegmark.
Les évaluateurs en question étaient un panel d’universitaires de l’IA et d’experts en gouvernance qui ont examiné les documents publics et les réponses à l’enquête soumises par cinq des huit entreprises.
Anthropic, OpenAI et GoogleDeepMind ont pris les trois premières places avec une note globale de C+ ou C. Viennent ensuite Xai, Z.ai, Meta, DeepSeek et Alibaba d’Elon Musk, qui ont tous reçu un D ou D-.
Tegmark accuse le manque de réglementation, ce qui signifie plus de concurrence pour l’IA que de mesures de sécurité. La Californie a récemment adopté la première loi obligeant les sociétés d’IA avancée à divulguer des informations de sécurité sur les risques catastrophiques, et New York est désormais sur le point de le faire. Il y a cependant peu d’espoir qu’une loi fédérale soit adoptée.
« Les entreprises, même avec de bonnes intentions, ont toujours intérêt à lancer de nouveaux produits avant leurs concurrents, plutôt que de passer nécessairement plus de temps à assurer la sécurité », a déclaré Tegmark.
Tegmark a déclaré que l’industrie commençait à prendre plus au sérieux les indicateurs de sécurité régulièrement publiés par le groupe, plutôt que les normes imposées par le gouvernement. Tegmark a déclaré que quatre des cinq entreprises américaines ont désormais répondu à l’enquête (Meta est la seule à résister) et que les entreprises ont apporté certaines améliorations au fil du temps, citant comme exemple la transparence de Google concernant ses politiques de dénonciation.
Mais il a ajouté que les préjudices réels signalés autour de questions telles que le suicide des adolescents prétendument facilité par les chatbots, les interactions inappropriées avec des mineurs et les cyberattaques à grande échelle rendent également la discussion plus importante.
« (Ils) ont fait comprendre à beaucoup de gens que ce n’est pas l’avenir dont nous parlons, c’est maintenant », a déclaré Tegmark.
Le Future of Life Institute a récemment appelé des personnalités publiques aussi diverses que le prince Harry et Meghan Markle, l’ancien assistant du président Trump Steve Bannon, le cofondateur d’Apple Steve Wozniak et le rappeur will.i.am à signer une déclaration s’opposant à la recherche qui pourrait conduire à la superintelligence.
« J’aimerais voir quelque chose comme la FDA pour l’IA, où les entreprises doivent d’abord convaincre les experts que leurs modèles sont sûrs avant de pouvoir les vendre », a déclaré Tegmark.
« L’industrie de l’IA est tout à fait unique dans la mesure où c’est la seule industrie aux États-Unis qui développe une technologie puissante qui est moins réglementée qu’un sandwich et qui est essentiellement totalement non réglementée », a déclaré Tegmark. « Si quelqu’un disait : « Je veux ouvrir une nouvelle sandwicherie près de Times Square », et avant de pouvoir vendre mon premier sandwich, je devrais demander à un inspecteur de la santé d’inspecter la cuisine pour s’assurer qu’elle n’est pas pleine de rats… Si à la place je disais : « Oh, je ne vends pas de sandwichs. Je libère simplement la superintelligence. » D’accord ! Il n’y a pas besoin d’un inspecteur ni d’une quelconque approbation. »
« La solution à ce problème est donc très claire », a ajouté Tegmark. « Nous devons simplement mettre fin au programme d’aide sociale aux entreprises qui accorde aux entreprises d’IA des exemptions dont les autres entreprises n’ont pas droit. »
Ce rapport a été initialement publié par Tech Brew.

