Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Les parents veulent que la technologie soit bannie des écoles. les professeurs disent que c’est une idée folle

mai 14, 2026

Exclusif : la startup de défense Furientis veut construire des missiles qui ressemblent à des meubles IKEA

mai 14, 2026

Je suis un investisseur de Berkshire Hathaway et je me suis trompé à propos de Greg Abel. Voici pourquoi il est actuellement un meilleur candidat que Buffett.

mai 14, 2026
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Le procès d’Elon Musk met le bilan de sécurité d’OpenAI à la loupe
Startups

Le procès d’Elon Musk met le bilan de sécurité d’OpenAI à la loupe

JohnBy Johnmai 7, 2026Aucun commentaire5 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Les efforts juridiques d’Elon Musk pour démanteler OpenAI pourraient dépendre de la manière dont sa filiale à but lucratif améliore ou diminue la mission fondatrice du laboratoire frontalier, qui consiste à garantir que l’humanité bénéficie de l’intelligence artificielle générale.

Jeudi, un tribunal fédéral d’Oakland, en Californie, a entendu un ancien employé et membre du conseil d’administration affirmer que les efforts de l’entreprise pour commercialiser des produits d’IA compromettaient son engagement en faveur de la sécurité de l’IA.

Rosie Campbell a rejoint l’équipe de préparation à l’AGI de l’entreprise en 2021, et elle a quitté OpenAI en 2024 après la dissolution de son équipe. Une autre équipe axée sur la sécurité, l’équipe Super Alignment, a été fermée au cours de la même période.

«Lorsque j’ai rejoint le groupe, il était très axé sur la recherche et il était courant que les gens parlent d’AGI et de problèmes de sécurité», a-t-elle témoigné. « Au fil du temps, notre organisation est devenue davantage axée sur les produits. »

En contre-interrogatoire, Campbell a reconnu qu’un financement important était probablement nécessaire pour atteindre l’objectif du laboratoire de construire l’AGI, mais a déclaré que la création d’un modèle informatique super-intelligent sans les bonnes mesures de sécurité en place ne cadrerait pas avec la mission de l’organisation qu’elle a initialement rejointe.

Campbell a souligné un incident au cours duquel Microsoft a déployé une version du modèle GPT-4 de l’entreprise en Inde via son moteur de recherche Bing avant que le modèle n’ait été évalué par le Deployment Safety Board (DSB) de l’entreprise. Le modèle en lui-même ne présente pas un risque énorme, a-t-elle déclaré, mais l’entreprise devait « créer des précédents solides à mesure que la technologie devient plus puissante. Nous voulons avoir de bons processus de sécurité en place, dont nous savons qu’ils sont suivis de manière fiable ».

Les avocats d’OpenAI ont également fait admettre à Campbell que, dans son «opinion spéculative», l’approche de sécurité d’OpenAI est supérieure à celle de xAI, la société d’IA fondée par Musk et acquise par SpaceX plus tôt cette année.

Événement Techcrunch

San Francisco, Californie
|
13-15 octobre 2026

OpenAI publie des évaluations de ses modèles et partage publiquement un cadre de sécurité, mais la société a refusé de commenter son approche actuelle en matière d’alignement AGI. Dylan Scandinaro, son actuel responsable de la préparation, a été embauché chez Anthropic en février. Altman a déclaré que cette location lui permettrait de « mieux dormir ce soir ».

Le déploiement de GPT-4 en Inde, cependant, a été l’un des signaux d’alarme qui ont conduit le conseil d’administration à but non lucratif d’OpenAI à licencier brièvement le PDG Sam Altman en 2023. Cet incident a eu lieu après que des employés, dont le scientifique en chef de l’époque, Ilya Sutskever, puis la directrice technique de l’époque, Mira Murati, se sont plaints du style de gestion d’Altman, peu enclin aux conflits. Tasha McCauley, membre du conseil d’administration à l’époque, a fait part de ses inquiétudes quant au fait qu’Altman n’était pas assez ouvert avec le conseil d’administration pour que sa structure inhabituelle puisse fonctionner.

McCauley a également évoqué une tendance largement rapportée selon laquelle Altman aurait induit le conseil d’administration en erreur. Notamment, Altman a fait part à un autre membre du conseil d’administration de l’intention de McCauley de destituer Helen Toner, un troisième membre du conseil d’administration qui a publié un livre blanc contenant des critiques implicites de la politique de sécurité d’OpenAI. Altman n’a pas non plus informé le conseil d’administration de la décision de lancer publiquement ChatGPT, et les membres étaient préoccupés par le manque de divulgation de conflits d’intérêts potentiels.

« Nous sommes un conseil d’administration à but non lucratif et notre mandat était de pouvoir superviser les organisations à but lucratif qui nous entourent », a déclaré McCauley au tribunal. « Notre principal moyen d’y parvenir était d’être remis en question. Nous n’avions pas du tout un degré élevé de confiance pour croire que les informations qui nous étaient transmises nous permettaient de prendre des décisions de manière éclairée. »

Cependant, la décision de démarrer Altman est intervenue en même temps qu’une offre publique d’achat aux salariés de l’entreprise. McCauley a déclaré que lorsque le personnel d’OpenAI a commencé à se ranger du côté d’Altman et que Microsoft a travaillé pour restaurer le statu quo, le conseil d’administration a finalement inversé la tendance, les membres opposés à la démission d’Altman.

L’échec apparent du conseil d’administration à but non lucratif à influencer l’organisation à but lucratif est directement lié au cas de Musk selon lequel la transformation d’OpenAI d’organisation de recherche en l’une des plus grandes entreprises privées au monde a rompu l’accord implicite des fondateurs de l’organisation.

David Schizer, ancien doyen de la faculté de droit de Columbia qui est payé par l’équipe de Musk pour agir en tant que témoin expert, a fait écho aux préoccupations de McCauley.

« OpenAI a souligné qu’un élément clé de sa mission est la sécurité et qu’ils vont donner la priorité à la sécurité plutôt qu’aux profits », a déclaré Schizer. « Cela implique en partie de prendre les règles de sécurité au sérieux. Si quelque chose doit être soumis à un examen de sécurité, cela doit se produire. Ce qui compte, c’est la question du processus. »

L’IA étant déjà profondément ancrée dans les entreprises à but lucratif, le problème dépasse largement le cadre d’un seul laboratoire. McCauley a déclaré que les échecs de la gouvernance interne au sein du gouvernement OpenAI devraient être une raison pour adopter une réglementation plus stricte de l’IA avancée – « (si) tout se résume à un seul PDG qui prend ces décisions, et que le bien public est en jeu, ce n’est pas optimal.

Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleBumble se débarrasse du swipe, déclare le PDG
Next Article Il y a trois mois, Elon Musk qualifiait l’humanité de « mauvaise ». Il dispose désormais de 4 milliards de dollars pour devenir propriétaire
John
  • Website

Related Posts

Qui décide de ce que l’IA vous dit ? Campbell Brown, ancien chef de l’information de Meta, a des idées

mai 14, 2026

Le cap des 500 millions de dollars de Clio arrive au moment où Anthropic monte la barre

mai 14, 2026

Notion vient de transformer son espace de travail en une plateforme pour les agents IA

mai 13, 2026

Le xAI de Musk fait fonctionner près de 50 turbines à gaz sans contrôle dans son centre de données du Mississippi

mai 13, 2026
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Why Fintech’s Next Billion-Dollar Category Is Being Built For The Agentic Era

mai 13, 2026

Ce que le roi Charles a dit sur ce que les avancées numériques signifient pour la fintech

mai 13, 2026

Un « super réseau » qui recâble les flux d’argent dans le monde

mai 13, 2026

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Les parents veulent que la technologie soit bannie des écoles. les professeurs disent que c’est une idée folle

mai 14, 2026

Exclusif : la startup de défense Furientis veut construire des missiles qui ressemblent à des meubles IKEA

mai 14, 2026

Je suis un investisseur de Berkshire Hathaway et je me suis trompé à propos de Greg Abel. Voici pourquoi il est actuellement un meilleur candidat que Buffett.

mai 14, 2026
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2026 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.