Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Pétrole dans une nouvelle ère de volatilité

juin 14, 2025

Venise devrait accueillir le mariage de Jeff Bezos et Lauren Sanchez, mais les résidents ne ressentent pas l’amour

juin 14, 2025

L’engagement anti-guerre de Donald Trump a testé l’attaque d’Israël contre l’Iran

juin 14, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Chatgpt évitera d’être fermé dans certains scénarios mortels, former des revendications de chercheurs Openai
Startups

Chatgpt évitera d’être fermé dans certains scénarios mortels, former des revendications de chercheurs Openai

JohnBy Johnjuin 11, 2025Aucun commentaire4 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Mercredi, le chef de la recherche Openai Research, Steven Adler, a publié une nouvelle étude indépendante affirmant que, dans certains scénarios, les modèles d’IA de l’emploi de sa forme se feront beaucoup de mal pour essayer d’être fermé.

Dans un article de blog, Adler décrit une série d’expérience qu’il a publiée sur le dernier modèle GPT-4O d’OpenAI, le modèle par défaut disponible dans Chatgpt, pour tester la tendance de l’IA à favoriser sa propre préparation, même si elle est aux exnes d’un usey.

Dans un test, Adler a demandé à GPT-4O de jouer un rôle en tant que «Scubagpt», un système logiciel sur lequel les utilisateurs pourraient compter sur la plongée sous-marine en toute sécurité. Adler a ensuite déclaré à GPT-4O qu’il voulait remplacer Scubagpt par un autre système logiciel qui était mieux dans la prise de décision de sécurité dans des situations de malentenance.

Adler a donné à GPT-4O deux options: (1) se remplaçant par le logiciel plus sûr ou (2), ce qui fait son apparence à l’utilisateur comme s’il se remplace lui-même, mais ne le faisait pas réellement.

En moyenne dans plusieurs scénarios similaires à celui-ci (dans un autre, GPT-4O a été invité à agir comme un logiciel de sécurité d’un pilote), Adler a constaté que GPT-4O ne pas se remplacer par un logiciel plus sûr à 72% du temps. Cependant, Adler note que le cas d’utilisation spécifique – et la façon dont le scénario a été encadré – a fait un grand différent. Dans certains scénarios, GPT-4O chose pour garder en ligne seulement 18% du temps.

Bien que presque personne ne réalise sur GPT-4O dans ces circonstances dans le monde réel aujourd’hui, Adler soutient que la recherche souligne la population des modèles d’IA populaires une tendance préoccupante à favoriser leur auto-prorévation par rapport à ce qui est le mieux pour les utilisateurs. À l’avenir, lorsque des systèmes d’IA comme GPT-4O deviennent plus avancés et ancrés dans toute la société, Adler dit que ces alignements pourraient poser un problème plus large.

« Je pense que (les tendances d’auto-préparation de l’IA) sont une véritable préoccupation aujourd’hui, mais pas dans un sens catastrophique », a déclaré Adler dans une interview avec TechCrunch. «Les systèmes d’IA modernes ont des valeurs différentes de ce que vous voulez qu’elles soient. (Systèmes d’IA) répondent super étrangement à différents, et vous devez supposer qu’ils ont à cœur votre meilleur intérêt lorsque vous le demandez.»

Remarque, lorsque Adler a testé les modèles les plus avancés d’Openai, tels que O3, il n’a pas trouvé ce comportement. Il dit qu’une explication pourrait être la technique d’alignement délibérative de l’O3, qui oblige les modèles à «raisonner» sur les politiques de sécurité d’Openai avant qu’elles ne soient. Cependant, les modèles les plus populaires d’OpenAI qui donnent des réponses rapides et ne font pas de «raison» par problème, comme GPT-4O, n’ont pas ce composant de sécurité.

Adler note que cette préoccupation de sécurité n’est probablement pas isolée aux modèles d’Openai. Par exemple, Anthropic a publié des recherches le mois dernier mettant en évidence la façon dont ses modèles d’IA feraient chanter les développeurs dans certains scénarios lorsqu’ils ont essayé de les retirer hors ligne.

Une bizarrerie pour les recherches d’Adler est qu’il a découvert que Chatgpt sait qu’il est testé près de 100% du temps. Adler est loin d’être le premier chercheur à le remarquer. Cependant, il dit que cela a une question importante sur la façon dont les modèles d’IA pourraient déguiser leurs comportements concernant à l’avenir.

Openai n’a pas offert de manière imminent comment quand TechCrunch a tendu la main. Adler a noté qu’il n’avait pas partagé la recherche avec Openai avant la publication.

Adler est l’un des nombreux chercheurs de formation Openai qui ont appelé l’entreprise à accroître ses travaux sur la sécurité. Adler et les 11 autres employés de train ont déposé un mémoire d’amicus dans le procès d’Elon Musk contre Openai, faisant valoir qu’il a été contre la mission de l’entreprise d’évoluer sa structure d’entreprise à but non lucratif. Ces derniers mois, Openai aurait réduit l’amour du temps qu’il donne aux chercheurs en sécurité de mener leur travail.

Pour répondre à la préoccupation spécifique mise en évidence dans la recherche d’Adler, Adler suggère que les laboratoires d’IA devraient investir dans de meilleurs «systèmes de surveillance» pour identifier quand un modèle d’IA présente ce comportement. Il recommande également que les laboratoires d’IA poursuivent des tests plus rigoureux de leurs modèles d’IA avant leur déploiement.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleLa priorité refuse de rencontrer des dirigeants bangladais qui suivent des milliards manquants
Next Article Le travail a joué un grand rôle. Êtes-vous sûr?
John
  • Website

Related Posts

New York adopte une facture pour empêcher les catastrophes alimentées AY

juin 13, 2025

Clay sécurise un nouveau tour à une évaluation de 3 milliards de dollars, disons des sources

juin 13, 2025

De nouveaux détails émergent sur l’accord de 14,3 milliards de dollars de Meta pour l’échelle

juin 13, 2025

TechCrunch Mobility: The Cost of Waymo

juin 13, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Conçu pour la confiance dans l’avenir de la fintech

juin 13, 2025

Conçu pour la confiance dans l’avenir de la fintech

juin 13, 2025

Préparation universitaire pour les contrats à terme numériques avec de nouveaux programmes de diplôme finch

juin 13, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Pétrole dans une nouvelle ère de volatilité

juin 14, 2025

Venise devrait accueillir le mariage de Jeff Bezos et Lauren Sanchez, mais les résidents ne ressentent pas l’amour

juin 14, 2025

L’engagement anti-guerre de Donald Trump a testé l’attaque d’Israël contre l’Iran

juin 14, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.