Noam Brown, qui mène des recherches de raisonnement en IA à OpenAI, a déclaré que certaines formes de «raisonnement» d’IA auraient pu arriver 20 ans plus tôt si des chercheurs «connu (la bonne) approche» et des algorithmes.
« Il y avait diverses raisons pour lesquelles cette direction de recherche a été négligée », a déclaré Brown lors d’un panel de la conférence GTC de NVIDIA à San Jose mercredi. «Je note sur la course de mes recherches qui, OK, il manque quelque chose. Les humains passent beaucoup de temps à réfléchir avant qu’ils agissent dans une situation difficile. Peut-être que ce serait très utile (en IA).
Brown revichait son travail sur l’IA de jeu à l’Université Carnegie Melon, comprenait Multibus, qui a défilé Elite Human Professionals chez Poker. L’IA Brown a aidé à créer était unique au moment où elle a «raisonné» par des problèmes plutôt que de tenter une approche plus brute.
Brown est l’un des architectes derrière O1, un modèle d’IA OpenAI qui utilise une technique appelée inférence du temps de test pour «penser» avant de répondre aux questions. Inférences de temps de test appliquant un calcul supplémentaire aux modèles en cours d’exécution pour conduire une forme de «raisonnement». En général, les modèles de raisonnement soi-disant sont plus précis et fiables que les modèles traditionnels, en particulier dans les domaines comme les mathématiques et les sciences.
On a demandé à Brown pendant le panel si le monde universitaire pouvait espérer effectuer une expérience sur l’échelle des laboratoires d’IA comme OpenAI, compte tenu du manque général d’accès des institutions aux ressources informatiques. Il a admis que cela est devenu plus difficile dans les YEA récents devenus plus instantanés en informatique, mais que les universitaires peuvent avoir un impact en explorant des domaines qui nécessitent moins de calcul, comme la conception d’architecture modèle.
« (T) Voici une collaboration opportun entre les Frontier Labs (et le monde universitaire) », a déclaré Brown. « Certes, les Labs Frontier regardent les publications académiques et réfléchissent attentivement, OK, fait-il un argument convaincant selon lequel, si cela était étendu, ce serait très efficace. S’il y a cet argument convaincant de l’article, vous savez, nous le ferons. »
Les commentaires de Brown surviennent à l’heure lorsque l’administration Trump fait des coupes profondes à la réalisation des subventions scientifiques. Des experts de l’IA, dont le lauréat du prix Nobel, Geoffrey Hinton, ont critiqué ces coupes, affirmant qu’ils peuvent menacer les efforts de recherche de l’IA à la fois nationaux et à l’étranger.
Brown a appelé l’analyse comparative de l’IA comme un domaine où le monde universitaire pourrait faire a un impact significatif. « L’état des références dans l’IA est vraiment mauvais, et cela ne nécessite pas beaucoup de calcul pour le faire », a-t-il déclaré.
Comme nous l’avons écrit auparavant, les références populaires de l’IA aujourd’hui ont tendance à tester les connaissances ésotériques et à donner des scores mal en corrélation à la compétence sur les tâches dont la plupart des gens se soucient. Cela a conduit à une confusion généralisée sur les capacités et l’improvisation des modèles.
Mis à jour 16 h 06 Pacific: Une version antérieure de cette pièce impliquait que Brown faisait référence à des modèles de raisonnement comme O1 dans sa première remarque. En fait, il fermait son travail sur un jeu d’IA avant son temps à Openai. Nous regrettons l’erreur.