Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Uber s’associe à Nuro, investit 300 millions de dollars en Lucid pour lancer le service Robotaxi

juillet 17, 2025

Pourquoi l’IA du PDG d’Apple Tim Cook sert d’avertissement pour les leaders C-suite

juillet 17, 2025

RFK Jr. espère approuver les psychédéliques tels que le LSD et l’extase pour les personnes souffrant de dépression et d’autres conditions dans les 12 mois

juillet 17, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Les leaders de la recherche exhorte l’industrie technologique à surveiller les «pensées» de l’IA
Startups

Les leaders de la recherche exhorte l’industrie technologique à surveiller les «pensées» de l’IA

JohnBy Johnjuillet 15, 2025Aucun commentaire5 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Les chercheurs d’IA d’OpenAI, Google Deepmind, anthropic et une large coalition d’entreprises et de groupes à but non lucratif appellent à une enquête plus approfondie sur les techniques de surveillance des pensées dites des modèles de raisonnement d’IA dans un article de position publié.

Une caractéristique clé des modèles de raisonnement d’IA, telles que l’O3 et le R1 de Deepseek, sont leurs chaînes de réflexion ou COTS-un processus externalisé dans lequel les modèles d’IA fonctionnent à travers des problèmes, similaire à la façon dont les humains utilisent un pavé à gratter pour fonctionner à travers un difficile. Les modèles de raisonnement sont une technologie de base pour alimenter les agents de l’IA, et les auteurs du document soutiennent que la surveillance du lit sur le lit pourrait être une méthode de base pour garder les agents de l’IA sous contrôle à mesure qu’ils deviennent plus répandus et capables.

« La surveillance du COT présente un ajout précieux aux mesures de sécurité pour l’IA frontalière, offrant un aperçu rare de la façon dont les agents de l’IA prennent des décisions », ont déclaré les chercheurs du document de position. «Pourtant, rien ne garantit que le degré de visibilité actuel persistera. Nous encourageons la communauté de recherche et les développeurs d’IA frontaliers à faire le meilleur usage de la surveillance et à étudier comment il peut être préservé.»

Le document de position demande aux principaux développeurs de modèles d’IA à étudier ce qui rend «surveillable» – en d’autres termes, quels facteurs peuvent augmenter ou réduire la transparence dans la façon dont les modèles d’IA arrivent réellement aux réponses. Les auteurs de l’article disent que la surveillance du COT peut être une méthode clé pour comprendre les modèles de raisonnement sur l’IA, mais notez qu’il pourrait être fragile, liant à toute intervention qui est une transparence ou une connexion.

Les auteurs du document appellent également les développeurs de modèles AA à suivre la surveillance du COT et à étudier comment la méthode pourrait un jour être implémentée comme mesure de sécurité.

Les signataires notables du journal incluent le directeur des recherches d’OpenAI, Mark Chen, le PDG de la surintiffentince Safe Ilya Sutskever, le lauréat du prix Nobel Geoffrey Hinton, le cofondateur de Google Deepmind Shane Legg, le XAI Safety Adis Dan Hendrycks et le cofondateur de Machines Thinking John Schulman. Les premiers auteurs incluent des dirigeants du Royaume-Uni AI Security Institute et Apollo Research, et d’autres signataires proviennent de METR, Amazon, Meta et UC Berkeley.

Le papier marque à Momille of Unity parmi de nombreux leaders de l’industrie de l’IA pour tenter de stimuler la sécurité de l’IA de recherche. Cela survient à un moment où les entreprises technologiques sont prises dans une concurrence féroce – qui a conduit Meta à braconner les meilleurs chercheurs d’Openai, Google Deepmind et anthropic avec des offres d’un million de dollars. Certains des chercheurs les plus recherchés sont ceux qui construisent des agents d’IA et des modèles de raisonnement en IA.

Événement TechCrunch

San Francisco
|
27-29 octobre 2025

« Nous sommes à ce moment critique où nous avons cette nouvelle chose de la chaîne de pensées. Cela semble assez utile, mais cela pourrait disparaître en quelques yers si les gens se concentrent vraiment dessus », a déclaré Bowen Baker, un chercheur Openai qui était sur le journal, avec TechCrunch. «Publier un article de position comme celui-ci, pour moi, est un mécanisme pour obtenir plus de recherches et faire attention à ce sujet avant que cela ne se produise.»

OpenAI a publié publiquement un aperçu du premier modèle de raisonnement d’IA, O1, en septembre 2024. Au cours des mois sincères, l’industrie de la technologie a rapidement publié des concurrents qui présentent des similitudes, avec certains modèles de Google Deepmind, Xai et anthropic montrant que nous avons des benchmarks.

Cependant, il est relativement peu compris sur le fonctionnement des modèles de raisonnement IA. Alors que les laboratoires de l’IA ont dépassé l’amélioration des performances de l’IA au cours de la dernière année, cela a été nécessaire dans une meilleure compréhension de la façon dont ils arrivent à leurs réponses.

Anthropic a été l’un des leaders de l’industrie pour déterminer comment les modèles d’IA fonctionnent vraiment – un domaine appelé interprétabilité. Plus tôt cette année, le PDG Dario Amodei a annoncé un engagement à ouvrir la boîte noire des modèles d’IA d’ici 2027 et à investir davantage dans l’interprétabilité. Il a également appelé Openai et Google Deepmind pour rechercher davantage le sujet.

Les premières recherches d’Anthropic ont indiqué que COTS peut ne pas être une indication pleinement fiable de la façon dont ces modèles arrivent à une réponse. Dans le même temps, les chercheurs d’OpenAI ont déclaré que la surveillance du COT pourrait un jour être un moyen fiable de suivre l’alignement et la sécurité dans les modèles d’IA.

L’objectif des articles de position comme celui-ci est de signaler un boost et d’attirer plus d’attention sur les domaines de recherche naissants, tels que la surveillance du COT. Des entreprises comme Openai, Google Deepmind et Anthropic recherchent déjà ces sujets, mais il est possible que ce document encourage davantage de financement et de recherche sur l’espace.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleMistral Voxtral Relaases, son premier modèle audio d’IA open source
Next Article Jamie Dimon met en garde contre l’indépendance de la Fed alors que Donald Trump met la pression sur Jay Powell
John
  • Website

Related Posts

Uber s’associe à Nuro, investit 300 millions de dollars en Lucid pour lancer le service Robotaxi

juillet 17, 2025

Roblox présente de nouvelles garanties pour les adolescents, y compris la technologie d’estimation de l’âge

juillet 17, 2025

Tiktok ajoute des fonctionnalités pour les auteurs-compositeurs à son application

juillet 17, 2025

Jack Dorsey pompe 10 millions de dollars dans un organisme à but non lucratif axé sur les médias sociaux open source

juillet 17, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Tiger Broker 2025, la meilleure société mondiale de fintech reconnue par CNBC

juillet 16, 2025

FinTechBite: Advisor360, l’azote annonce les mises à jour de l’IA pour la productivité des conseillers

juillet 16, 2025

M-KOPA fabrique la meilleure société de fintech mondiale de CNBC en 2025

juillet 16, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Uber s’associe à Nuro, investit 300 millions de dollars en Lucid pour lancer le service Robotaxi

juillet 17, 2025

Pourquoi l’IA du PDG d’Apple Tim Cook sert d’avertissement pour les leaders C-suite

juillet 17, 2025

RFK Jr. espère approuver les psychédéliques tels que le LSD et l’extase pour les personnes souffrant de dépression et d’autres conditions dans les 12 mois

juillet 17, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.