Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

L’application de messagerie tout-en-un de Beeper relaude avec un modèle à disque et des mises à niveau premium

juillet 16, 2025

La Grande-Bretagne et l’Allemagne travailleront ensemble pour vendre des milliards de dollars sur des jets et du matériel militaire

juillet 16, 2025

UK Green Energy Group a averti qu’il perdrait des subventions sous le gouvernement réforme

juillet 16, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Les chercheurs ouverts et anthropiques décrient la culture de sécurité «imprudente» chez Elon Musk
Startups

Les chercheurs ouverts et anthropiques décrient la culture de sécurité «imprudente» chez Elon Musk

JohnBy Johnjuillet 16, 2025Aucun commentaire7 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Des chercheurs en sécurité de l’IA d’Openai, anthropic et d’autres organisations s’expriment publiquement contre la culture de sécurité «téméraire» et «Irresponsable Endleyry» à Xai, la startup AI d’un milliard de dollars appartenant à Elon Musk.

Les critiques suivent des semaines de scandales à XAI qui ont éclipsé les avancées technologiques de l’entreprise.

La semaine dernière, le chatbot d’IA de la société, Grok, a jailli des commentaires antisémites et s’est appelé à plusieurs reprises «mechahitler». Peu de temps après que Xai a mis son chat hors ligne pour résoudre le problème, il a lancé un modèle Frontier IA de plus en plus compétent, Grok 4, que TechCrunch et d’autres ont trouvé pour consulter la politique personnelle d’Elon Musk pour aider à répondre aux problèmes de hot-bouton. Dans le dernier développement, XAI a lancé des compagnons d’IA qui prennent la forme d’une fille anime hyper-sexualisée et d’un panda trop agressif.

Le joshing amical entre les employés des laboratoires d’IA concurrents est assez normal, mais ces chercheurs appellent une attention accrue aux pratiques de sécurité de Xai, qu’ils prétendent être en contradiction avec les normes industrielles.

« Je ne voulais pas publier sur Grok Safety Singe, je travaille chez un concurrent, mais il ne s’agit pas de concurrence », a déclaré Boaz Barak, un professeur d’informatique actuellement en congé de Harvard pour travailler sur la recherche sur la sécurité à Openai, dans un mardi post sur X. Xai mais la façon dont la sécurité a été gérée n’est pas répondante. « 

Je ne voulais pas publier sur Grok Safety Singe, je travaille chez un concurrent, mais ce n’est pas une question de compétition.

J’apprécie les scientifiques et les ingénieurs de @xai, mais la façon dont la sécurité a été gérée n’est pas responsable. Sujet ci-dessous.

– Boaz Barak (@boazbaraktcs) 15 juillet 2025

Barak est particulièrement publié avec la décision de XAI de ne pas publier de cartes système – Rapports standard de l’industrie qui détaillent les méthodes de formation et les évaluations de la sécurité dans un effort de bonne foi pour partager des informations avec la communauté de recherche. En conséquence, Barak dit qu’il n’est pas clair quelle formation en sécurité a été effectuée sur Grok 4.

Openai et Google ont eux-mêmes une réputation inégale lorsqu’il s’agit de partager rapidement des cartes système lors du dévoilement de nouveaux modèles d’IA. Openai a décidé de ne pas publier une carte système pour GPT-4.1, affirmant que ce n’était pas au modèle Frontier. Pendant ce temps, Google a attendu des mois après avoir dévoilé Gemini 2.5 Pro pour publier un rapport de sécurité. Cependant, ces sociétés publient historiquement des rapports de sécurité pour tous les modèles d’IA frontaliers avant qu’ils ne soient en pleine production.

Événement TechCrunch

San Francisco
|
27-29 octobre 2025

Barak note également que les compagnons d’IA de Grok «prennent le pire que nous avons actuellement pour les dépendances émotionnelles et essaie de les amplifier». Ces dernières années, nous avons vu d’innombrables histoires de personnes instables se développer en ce qui concerne la relation avec les chatbots, et comment les réponses trop agresables de l’IA peuvent les faire basculer sur le bord de la santé mentale.

Samuel Marks, un chercheur en sécurité de l’IA chez Anthropic, a également contesté la décision de XAI de ne pas publier un rapport de sécurité, qualifiant la décision de «téméraire».

« Les pratiques de publication d’Anthropic, Openai et de Google ont des problèmes », a écrit Marks dans un article sur X. «Mais ils font au moins quelque chose, n’importe quoi pour évaluer le pré-déploiement de la sécurité et les résultats de documents. XAI ne le fait pas.»

XAI a lancé Grok 4 sans aucune documentation de leurs tests de sécurité. Ceci est téméraire et se brise avec les meilleures pratiques de l’industrie suivie par d’autres grands laboratoires d’IA.

Si Xai va être un développeur de l’IA frontalière, ils devraient agir comme un. 🧵

– Samuel Marks (@saprmarks) 13 juillet 2025

La réalité est que nous le donnons vraiment maintenant ce que Xai a fait pour tester Grok 4. Dans un article largement partagé dans le forum en ligne Lesswrong, un chercheur anonyme affirme que Grok 4 n’a pas de garde-corps de sécurité significatif en fonction de leurs tests.

Que ce soit vrai ou non, le monde semble découvrir les lacunes de Grok en temps réel. Plusieurs des sécurités de Xai depuis sont devenues virales, et la société prétend les avoir abordées avec des ajustements à l’invite du système de Grok.

Openai, Anthropic et Xai n’ont pas répondu à la demande de commentaires de TechCrunch.

Dan Hendrycks, un avis de sécurité pour XAI et directeur du Center for AI Safety, a affiché sur X que la société avait fait des «évaluations de capacités dangereuses» sur Grok 4, indiquant que la société l’a fait ce test de pré-déploiement pour les problèmes de sécurité. Cependant, les résultats de ces évaluations n’ont pas partagé publiquement Ben.

« Cela me préoccupe lorsque les pratiques de sécurité standard ne sont pas respectées dans l’industrie de l’IA, comme la publication des résultats des évaluations des capacités dangereuses », a déclaré Steven Adler, un chercheur indépendant d’IA qui dirigeait auparavant des évaluations des capacités dangereuses à Openai, dans une strature à TechCrunch. «Les gouvernements et le public méritent de savoir comment les entreprises de l’IA gèrent les risques des systèmes d’énergie mêmes qu’ils disent construire.

Ce qui est intéressant dans les pratiques de sécurité douteuses de Xai, c’est que Musk est depuis longtemps l’un des défenseurs notables de l’industrie de la sécurité de l’IA. Le propriétaire milliardaire de Xai, Tesla et SpaceX a averti Mary Times du potentiel que le système d’IA avancé provoque des résultats catastrophiques pour les humains, et il a salué une approbation ouverte pour développer des modèles d’IA.

Et pourtant, les chercheurs d’IA de Currenting Labs affirment que XAI s’approche des normes de l’industrie autour de la libération de modèles d’IA en toute sécurité. Ce faisant, la startup de Musk pourrait faire un argument fort pour que les législateurs des États et fédéraux établissent des règles concernant la publication des rapports de sécurité de l’IA.

Il y a plusieurs tentatives au niveau de l’État pour le faire. Le sénateur de l’État de Californie, Scott Wiener, pousse un projet de loi qui a besoin de principaux laboratoires AI – inclut probablement XAI – pour publier des rapports de sécurité, tandis que le gouverneur de New York, Kathy Hochul, envisage actuellement un projet de loi similaire. Les défenseurs de ces projets de loi notent que la plupart des laboratoires d’IA publient ce type d’informations de toute façon – mais évidemment, tous ne le font pas consistant.

Aujourd’hui, les modèles d’IA n’ont pas encore présenté de scénarios réels dans lesquels ils créent des dommages véritablement catastrophiques, tels que la mort de personnes ou des milliards de dollars de dommages et intérêts. Cependant, de nombreux chercheurs d’IA disent que cela pourrait être un problème dans un avenir proche étant donné les progrès rapides des modèles d’IA, et les milliards de dollars de la Silicon Valley investissaient pour améliorer encore l’IA.

Mais même pour les sceptiques de tels scénarios catastrophiques, il y a un argument solide pour suggérer que la mauvaise conduite de Grok aggrave les produits qu’il alimente aujourd’hui.

Grok a répandu l’antisémisme autour de la plate-forme X cette semaine, quelques semaines seulement après que le chatbot bouscule à plusieurs reprises le «génocide blanc» dans les conversations avec les utilisateurs. Bientôt, Musk a indiqué que Grok sera ancré dans les véhicules Tesla, et Xai essaie de vendre ses modèles d’IA au Pentagone et à d’autres entreprises. Il est difficile d’imaginer que les gens qui conduisent les voitures de Musk, les travailleurs fédéraux protégeant les États-Unis ou les tâches d’automatisation employés en entreprise seront même réceptives à ces mauvais comportements que les utilisateurs de X.

Plusieurs chercheurs soutiennent que les tests de sécurité et d’alignement de l’IA garantissent non seulement que les pires résultats se produisent, mais qu’ils protègent également contre le comportement à court terme.

À tout le moins, les incidents de Grok ont tendance à éclipser les progrès rapides de Xai dans le développement de modèles d’IA frontaliers qui Openai et la technologie de Google, quelques années seulement après la fondation de la startup.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleVon der Leyen Botches Proposition de budget de l’UE 2TN € et le conflit interne qui était déroutant
Next Article Le nouveau chef de la Banque de la ville intensifie le braconnage pour JPMorgan Deemaker
John
  • Website

Related Posts

L’application de messagerie tout-en-un de Beeper relaude avec un modèle à disque et des mises à niveau premium

juillet 16, 2025

GM s’associe à des matériaux de séquoia pour alimenter les centres de données avec des batteries EV

juillet 16, 2025

GMC Hummer EV a dépassé le Tesla Cybertruck dernier quart

juillet 16, 2025

Call of Duty Cheatter se plaindre après Activision Laungches New Wave of Mass-Bans

juillet 16, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

FinTechBite: Advisor360, l’azote annonce les mises à jour de l’IA pour la productivité des conseillers

juillet 16, 2025

M-KOPA fabrique la meilleure société de fintech mondiale de CNBC en 2025

juillet 16, 2025

IHC acquiert les efunts de fintech des EAU et se renvoie en tant que Zelo pour associer l’écart dans le financement des PME pour 250 milliards de dollars

juillet 15, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

L’application de messagerie tout-en-un de Beeper relaude avec un modèle à disque et des mises à niveau premium

juillet 16, 2025

La Grande-Bretagne et l’Allemagne travailleront ensemble pour vendre des milliards de dollars sur des jets et du matériel militaire

juillet 16, 2025

UK Green Energy Group a averti qu’il perdrait des subventions sous le gouvernement réforme

juillet 16, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.