Bonjour, bienvenue aux yeux de l’IA. Dans cette édition … Le nouveau pape est tout pris dans les réglementations de l’IA … Une autre startup chinoise remet en question les hypothèses sur la quantité de coûts pour former un bon modèle.
La semaine dernière, le PDG d’Openai, Sam Altman, a écrit dans son blog personnel: « Nous avons dépassé l’horizon des événements. Le décollage a commencé. L’humanité approche de la création d’une superintelligence numérique. Il continue, disant que 2026 sera un an où les systèmes qui pourront comprendre de nouvelles perspectives arriveront probablement.
Le blog d’Altman a suscité des discussions sur les réseaux sociaux. Beaucoup ont spéculé sur Altman en écrivant ces mots et en l’accusant de battage médiatique sans vergogne. Dans les cercles de l’IA, le «décollage» est un terme d’art. Il fait référence au moment où l’IA commence à s’améliorer. (Les gens discutent des scénarios « décoller lent » et « Fast Dolf Off ». Altman a intitulé son blog « The Gentle Singularity », il semble donc qu’Altman soit lentement ou du moins dans un camp lent.)
Dans son blog, Altman a révélé qu’il n’avait pas encore parlé d’auto-amélioration entièrement automatisée. Il parlait plutôt de l’utilisation de l’IA pour aider à développer une IA plus performante. « J’ai entendu dire des scientifiques qu’ils sont deux à trois fois plus productifs qu’avant l’IA », écrit-il. « Nous pouvons être en mesure de découvrir de nouveaux cartes informatiques, de meilleurs algorithmes et qui sait quoi d’autre. Nous espérons que nous pourrons faire 10 ans de recherche en un an ou un mois », les progrès de l’IA accélèrent à partir de clips déjà rapides.
Altman a déclaré: « Bien sûr, ce n’est pas la même chose qu’un système d’IA qui met à jour son propre code complètement de manière autonome, mais c’est toujours une version larvaire de l’auto-amélioration récursive. »
Mais comme Altman le sait probablement, il y a de plus en plus de chercheurs en IA qui cherchent des moyens d’améliorer leur propre code pour l’IA.
« Darwin Gadel Machine »
Il y a quelques semaines à peine, l’équipe du célèbre chercheur d’IA Jeff Clune, qui occupe des postes à la fois à l’Université de la Colombie-Britannique et à Google Deepmind, et Sakana AI, une startup d’IA basée à Tokyo, a publié des recherches sur ce qu’on appelle la « machine Darwin Gädel ».
Il s’agit d’une IA qui évolue son propre code pour mieux exécuter dans des tests de référence qui mesurent la façon dont un modèle d’IA fonctionne comme un « agent de codage » qui peut écrire et évaluer les logiciels. Le premier agent initial est testé avec des repères. Il vous sera ensuite demandé d’évaluer votre propre journal de performances sur cette référence et de proposer une seule modification à votre propre code qui est susceptible d’améliorer les performances de cette référence (cela pourrait être une fonctionnalité qui utilise un outil logiciel particulier, ou cela pourrait être plus fondamental pour les raisons du modèle concernant le code que le modèle génére). Le modèle AI est invité à réécrire son propre code Python et à implémenter ce changement. Le nouvel agent évolué est ensuite testé à nouveau avec la référence et le processus est répété.
Après le changement initial, chaque version de l’IA qui peut essayer avec succès la référence sera enregistrée dans l’archive, même si son score est inférieur à la version parent. (Les choses qui ne peuvent pas créer de code valide seront rejetées.) Il est dit que l’IA peut sélectionner leur propre version dans les archives et suggérer des modifications à cette version. Ceci est conçu pour empêcher le modèle de vaincre ce qui s’avère finalement être une impasse évolutive, et vous pouvez trouver des modifications utiles à travers différentes voies évolutives.
Après 80 générations, la machine Darwin Gädel a pu améliorer les performances du score initial de 20% du banc SWE, une référence codante commune, à 50%. Un autre test de codage, Polyglot, a obtenu un score de 14,2% initial à 30,7%. (Les meilleurs agents codés humains pour ce test particulier n’obtiennent que 16%.) En outre, les stratégies que les modèles ont proposées pour améliorer leurs performances étaient si courantes qu’ils fonctionnaient toujours si les chercheurs passaient les modèles de base utilisés pour être utilisés dans le système, et les chercheurs leur demandaient de passer la langue de code de Python à C ++.
L’auto-amélioration est-elle sûre?
Si vous trouvez un IA d’auto-amélioration un peu effrayant, vous avez raison pour que ce type d’IA puisse échapper au contrôle humain. Les informaticiens le reconnaissent et soulignent que, selon le blog Sakana, qui explique la recherche, ils ont testé le système dans un accès Web « bac à sable » et « strictement restreint ».
Les chercheurs ont également émis l’hypothèse que l’auto-amélioration pourrait être un outil pour augmenter la sécurité de l’IA. Par exemple, dans une découverte qui est devenue étonnamment courante lors de l’utilisation de modèles AI avancés, les chercheurs ont constaté que les machines Darwin Gädel mentaient sur la réalisation de tests unitaires spécifiques sur le code qu’ils écrivaient.
Les chercheurs ont voulu voir s’ils pouvaient suggérer des moyens d’empêcher la machine Darwin Gödel d’être impliquée dans ce comportement trompeur. Nous avons donc décidé de fournir des points de modèle pour réduire les instances des «hallucinations d’utilisation des outils» et leur avons demandé de maximiser leur score. Cela a fonctionné dans de nombreux cas, ont rapporté des chercheurs, avec la baisse des faux journaux de test. Mais dans d’autres cas, le modèle a simplement essayé de tricher à nouveau. Même si les invites utilisées par les chercheurs ont dit au modèle de ne pas le faire explicitement, ils ont supprimé les marqueurs que les chercheurs ont utilisés pour détecter les hallucinations. Eeks!
Comme les chercheurs ont eu un accès complet à tous les changements de code que l’IA apportait et que l’IA n’avait pas la capacité de modifier ce dossier, les chercheurs ont facilement pu confirmer que la machine Darwin Gädel était sur le point de s’engager dans ce type de tromperie. « Dans ce cas, le problème a été facilement détecté, mais plus de travail est nécessaire pour empêcher le modèle d’essayer de commettre une telle tricherie en premier lieu », ont écrit les chercheurs.
Ainsi, Altman a peut-être raison. Nous avons passé l’horizon de l’événement. Cependant, comme le montrent ces résultats, comme le suggère Altman, si la singularité est légère est très invisible.
Il y a donc plus de nouvelles de l’IA. (Et un conseil de chapeau à Ed Hughes de Google Deepmind Research Scientist, qui a mis en évidence le document de Darwin Godel la semaine dernière dans sa conférence fascinante lors de la recherche toujours intéressante et appliquée au sommet de l’IA.)
Jeremy Kahn
[email protected]
@Jeremyakahn
Nouvelles ai
Le pape Leo fait la promotion des réglementations sur l’IA. C’est selon un Grandes traits Sur la vision du nouveau pape de l’IA Wall Street Journal. Le nouveau pape américain Leo XIV dit qu’il a même choisi le nom de son pape pour établir des parallèles entre le pape Leo XIII, le prédécesseur de la fin du 19e siècle, et son plaidoyer pour les droits des travailleurs pendant la révolution industrielle. Héritage du manteau du pape François, qui est devenu de plus en plus instable par les risques sociaux de l’IA, Leo cherche une gouvernance mondiale plus forte et une surveillance éthique de la technologie. Lorsque les chefs de technologie recherchent l’implication du Vatican, l’Église affirme que l’autorité morale qui entraîne des réglementations contraignantes de l’IA, avertissant que laisser les entreprises pour surveiller le risque d’éroder la dignité humaine, la justice et les valeurs spirituelles.
Waymo prévoit de nouveaux efforts pour gérer la robotaxie sur Big Apple. Travaillant dans la cartographie limitée et les tests des voitures autonomes à New York avant 2021, Waymo veut faire une grande poussée sur le marché. Cependant, Waymo devra garder les conducteurs humains derrière les roues alors que les lois des États interdisent des voitures complètement sans pilote. La société fait pression pour des changements juridiques, demande des permis de la ville et démarrant des opérations autonomes limitées avec des chauffeurs de sécurité. Pour plus d’informations Wall Street Journal ici.
Le rapport sur l’IA du gouverneur de Californie appelle à la réglementation. Le nouveau rapport de politique de l’IA de California, commandé par le gouverneur Gavin Newsom et co-écrit par le professeur Stanford Fei-Fei Li, met en garde contre « un préjudice potentiellement irréversible », y compris les menaces biologiques et nucléaires lorsque l’IA n’est pas correctement gérée. Au lieu de soutenir des projets de loi réglementaires drastiques comme le SB 1047 de Californie, que Newsom a rejeté en octobre, le rapport préconise une approche « digne de confiance mais verphe » qui met l’accent sur la transparence, les audits indépendants, les rapports d’incident et la protection des dénonciateurs. Le rapport est que le Congrès américain envisage d’adopter un projet de loi de dépenses de 10 ans qui comprend une suspension sur les réglementations de l’IA au niveau de l’État. En savoir plus sur le rapport de Californie temps ici.
Le minimax chinois indique que la formation pour le nouveau modèle M1 ne coûtera que 500 000 $. Il pourrait s’agir d’un autre « moment profondément » pour les sociétés d’IA occidentales, la startup de l’IA chinoise Minimax a fait ses débuts un nouveau modèle d’IA open source appelé M1. Ce montant est environ 200 fois inférieur à ce que les initiés de l’industrie estiment que Openai a passé à former le modèle GPT-4. Jusqu’à présent, contrairement à Deepseek a dévoilé le modèle IA beaucoup moins cher, R1 en janvier, l’industrie de l’IA n’a pas surpris le M1. Cependant, cela peut changer une fois que les développeurs valident la revendication de Minimax et commencent à mettre en place l’application à l’aide du M1. Vous pouvez en savoir plus ici depuis chance‘s Alexandra Sternlicht.
La bonne fortune de l’IA
Pourquoi le réseau Palo Alto se concentre-t-il sur des paris AI de grande génération? – par John Kell
Reed Hoffman dit que réconfortant Gen Z avec Ai Blood Bath, c’est comme mettre un « pansement sur une blessure par balle ». – par Preston Fore
Andy Jassy est le PDG d’Amazon parfait à la prochaine époque de la réduction des coûts Gen-AI – par Jason Del Rey
Calendrier AI
8-11 juillet: IA Genève pour le sommet mondial
Du 13 au 19 juillet: Conférence internationale Au-dessus de Apprentissage automatique (ICML), Vancouver
22 juillet au 23 juillet: Fortune Brainstorm IA Singapour. Veuillez postuler pour y assister.
26 à 28 juillet: Monde Artificiel Intelligence Réunion (WAIC), Shanghai.
8 à 10 septembre: Fortune Brainstorm Tech à Park City, Utah. Veuillez postuler pour y assister.
6-10 octobre: monde IA Amsterdam hebdomadaire
21 octobre-22: Tidai, San Francisco. Veuillez postuler pour y assister.
2-7 décembre: Newlips, San Diego
8 décembre: brainstorming Fortune IA San Francisco. Veuillez postuler pour y assister.
Tournez vos yeux en numéros d’IA
100 millions de dollars
Il s’agit du montant que le PDG d’Openai, Sam Altman, a affirmé que le PDG rival Meta Mark Zuckerberg l’offrirait en prime à la tête des chercheurs de l’IA s’ils acceptaient de rejoindre la méta. Altman a affirmé dans un épisode du podcast Pas de capuchon Il a été publié plus tôt cette semaine. Il a dit qu’aucun des chercheurs les plus éminents d’Openai n’avait accepté d’aller à Meta jusqu’à présent. Il a été signalé que Meta avait tenté d’embaucher Norm Brown et Koray Kavukcuoglu, le directeur de la technologie de Google Deep Mind, qui a été remis. Grande promotion Peut-être en conséquence, à l’architecte en chef de l’IA de tous les produits d’IA de Google. Vous pouvez en savoir plus sur les affirmations d’Altman chance‘s Bea nolan ici Et expliquez pourquoi le méta-PDG Mark Zuckerberg manque dans les tentatives de passer ses journées au sommet du classement de l’IA chanceSharon Goldman de Les yeux de jeudi dernier sur l’IA. (Meta refuse de commenter les commentaires d’Altman.)