Il y a eu un grand intérêt pour ce que le laboratoire des machines de pensée de Mira Murati construit avec ses 2 milliards de dollars de financement de semences et l’équipe All-Star de chercheurs Openai WH a rejoint le laboratoire. Dans un article de blog publié mercredi, le laboratoire de recherche de Murati a donné au monde son premier aperçu de l’un de ses projets: créer des modèles d’IA avec des réponses reproductibles.
Le billet de blog de recherche, intitulé «Vaincre le non-déterminisme dans l’inférence LLM», essaie de déballer la cause profonde de ce qui introduit le caractère aléatoire dans les réponses du modèle d’IA. Par exemple, posez à chatte la même question à quelques reprises et vous aurez probablement un large éventail de réponses. Cela a été largement accepté dans la communauté de l’IA car les modèles d’IA de fait-today sont considérés comme des systèmes non daterministes mais des machines de réflexion que le laboratoire le considère comme un problème résoluble.
Le post, rédigé par le chercheur de laboratoire de Machines Thinking Horace He, fait valoir que la cause profonde de l’aléatoire des modèles d’IA est la façon dont les nains GPU – les petits programmes qui fonctionnent à l’intérieur des puces informatiques de Nvidia – sont cousues ensemble dans le traitement d’inférence (tout ce qui se passe Chatgpt). Il suggère qu’en contrôlant soigneusement cette couche d’orchestration, il est possible de rendre la Mote déterministe.
Au-delà de la création de réponses plus fiables pour les entreprises et les scientifiques, il note que l’obtention de modèles d’IA générer des respects reproductibles pourrait également améliorer la formation d’apprentissage par renforcement (RL). RL est le processus de récompense des modèles d’IA pour les réponses correctes, mais les réponses sont toutes légèrement différentes, alors les données deviennent un peu bruyantes. La création de réponses plus composées du modèle IA pourrait rendre l’ensemble du processus RL «étouffer», selon He. Le laboratoire de Thinking Machines a déclaré aux investisseurs qu’il prévoyait d’utiliser RL pour personnaliser les modèles d’IA pour les entreprises, les informations précédemment reportées.
Murati, directeur en chef de la technologie du train d’Openai, a déclaré en juillet que le premier produit de Thinking Machines Lab sera dévoilé dans les prochains mois et qu’il sera «utile pour les chercheurs et les startups qui développent des modèles personnalisés». On ne sait toujours pas quel est ce produit ou où il utilisera des techniques de cette recherche pour générer des réponses plus reproductibles.
Le laboratoire de Thinking Machines a également déclaré qu’il prévoyait de publier fréquemment des articles de blog, du code et d’autres informations sur ses recherches dans le but de «bénéficier au public, mais aussi d’améliorer notre façon de la culture de recherche». Cet article, le premier de la nouvelle série de blogs de l’entreprise intitulé «Connexionnisme», semble faire partie de cet effort. Openai s’est également engagé à ouvrir la recherche lors de sa création, mais la société est devenue plus fermée à mesure qu’elle est devenue plus grande. Nous verrons si le laboratoire de recherche de Murati reste fidèle à cette affirmation.
Le blog de recherche propose une glumpse rare dans l’une des startups d’IA les plus secrètes de la Silicon Valley. Bien qu’il ne révèle pas exactement que la technologie se déroule, cela indique que Thinking Machines Lab s’attaque parfois à la grande question de la frontière de la recherche sur l’IA. Le véritable test est l’endroit où Thinking Machines Lab peut résoudre ce problème et faire des produits autour de ses recherches pour justifier sa valorisation de 12 milliards de dollars.
Événement TechCrunch
San Francisco
|
27-29 octobre 2025