Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

Le ministère de la Justice poursuit Uber pour avoir prétendument discriminé les personnes handicapées

septembre 11, 2025

Le FBI sort des photos de personnes intéressées par l’assassinat de Charlie Kirk

septembre 11, 2025

« Bonne nuit après la sortie de Chatgpt »: Sam Altman admet que le poids de l’IA le gardera la nuit

septembre 11, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Voici une IA qui vous permet de changer et d’améliorer votre propre code. Cela signifie-t-il que Sam Altman d’Openai a raison sur la singularité?
Business

Voici une IA qui vous permet de changer et d’améliorer votre propre code. Cela signifie-t-il que Sam Altman d’Openai a raison sur la singularité?

JohnBy Johnjuin 19, 2025Aucun commentaire10 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email



Bonjour, bienvenue aux yeux de l’IA. Dans cette édition … Le nouveau pape est tout pris dans les réglementations de l’IA … Une autre startup chinoise remet en question les hypothèses sur la quantité de coûts pour former un bon modèle.

La semaine dernière, le PDG d’Openai, Sam Altman, a écrit dans son blog personnel: « Nous avons dépassé l’horizon des événements. Le décollage a commencé. L’humanité approche de la création d’une superintelligence numérique. Il continue, disant que 2026 sera un an où les systèmes qui pourront comprendre de nouvelles perspectives arriveront probablement.

Le blog d’Altman a suscité des discussions sur les réseaux sociaux. Beaucoup ont spéculé sur Altman en écrivant ces mots et en l’accusant de battage médiatique sans vergogne. Dans les cercles de l’IA, le «décollage» est un terme d’art. Il fait référence au moment où l’IA commence à s’améliorer. (Les gens discutent des scénarios « décoller lent » et « Fast Dolf Off ». Altman a intitulé son blog « The Gentle Singularity », il semble donc qu’Altman soit lentement ou du moins dans un camp lent.)

Dans son blog, Altman a révélé qu’il n’avait pas encore parlé d’auto-amélioration entièrement automatisée. Il parlait plutôt de l’utilisation de l’IA pour aider à développer une IA plus performante. « J’ai entendu dire des scientifiques qu’ils sont deux à trois fois plus productifs qu’avant l’IA », écrit-il. « Nous pouvons être en mesure de découvrir de nouveaux cartes informatiques, de meilleurs algorithmes et qui sait quoi d’autre. Nous espérons que nous pourrons faire 10 ans de recherche en un an ou un mois », les progrès de l’IA accélèrent à partir de clips déjà rapides.

Altman a déclaré: « Bien sûr, ce n’est pas la même chose qu’un système d’IA qui met à jour son propre code complètement de manière autonome, mais c’est toujours une version larvaire de l’auto-amélioration récursive. »

Mais comme Altman le sait probablement, il y a de plus en plus de chercheurs en IA qui cherchent des moyens d’améliorer leur propre code pour l’IA.

« Darwin Gadel Machine »

Il y a quelques semaines à peine, l’équipe du célèbre chercheur d’IA Jeff Clune, qui occupe des postes à la fois à l’Université de la Colombie-Britannique et à Google Deepmind, et Sakana AI, une startup d’IA basée à Tokyo, a publié des recherches sur ce qu’on appelle la « machine Darwin Gädel ».

Il s’agit d’une IA qui évolue son propre code pour mieux exécuter dans des tests de référence qui mesurent la façon dont un modèle d’IA fonctionne comme un « agent de codage » qui peut écrire et évaluer les logiciels. Le premier agent initial est testé avec des repères. Il vous sera ensuite demandé d’évaluer votre propre journal de performances sur cette référence et de proposer une seule modification à votre propre code qui est susceptible d’améliorer les performances de cette référence (cela pourrait être une fonctionnalité qui utilise un outil logiciel particulier, ou cela pourrait être plus fondamental pour les raisons du modèle concernant le code que le modèle génére). Le modèle AI est invité à réécrire son propre code Python et à implémenter ce changement. Le nouvel agent évolué est ensuite testé à nouveau avec la référence et le processus est répété.

Après le changement initial, chaque version de l’IA qui peut essayer avec succès la référence sera enregistrée dans l’archive, même si son score est inférieur à la version parent. (Les choses qui ne peuvent pas créer de code valide seront rejetées.) Il est dit que l’IA peut sélectionner leur propre version dans les archives et suggérer des modifications à cette version. Ceci est conçu pour empêcher le modèle de vaincre ce qui s’avère finalement être une impasse évolutive, et vous pouvez trouver des modifications utiles à travers différentes voies évolutives.

Après 80 générations, la machine Darwin Gädel a pu améliorer les performances du score initial de 20% du banc SWE, une référence codante commune, à 50%. Un autre test de codage, Polyglot, a obtenu un score de 14,2% initial à 30,7%. (Les meilleurs agents codés humains pour ce test particulier n’obtiennent que 16%.) En outre, les stratégies que les modèles ont proposées pour améliorer leurs performances étaient si courantes qu’ils fonctionnaient toujours si les chercheurs passaient les modèles de base utilisés pour être utilisés dans le système, et les chercheurs leur demandaient de passer la langue de code de Python à C ++.

L’auto-amélioration est-elle sûre?

Si vous trouvez un IA d’auto-amélioration un peu effrayant, vous avez raison pour que ce type d’IA puisse échapper au contrôle humain. Les informaticiens le reconnaissent et soulignent que, selon le blog Sakana, qui explique la recherche, ils ont testé le système dans un accès Web « bac à sable » et « strictement restreint ».

Les chercheurs ont également émis l’hypothèse que l’auto-amélioration pourrait être un outil pour augmenter la sécurité de l’IA. Par exemple, dans une découverte qui est devenue étonnamment courante lors de l’utilisation de modèles AI avancés, les chercheurs ont constaté que les machines Darwin Gädel mentaient sur la réalisation de tests unitaires spécifiques sur le code qu’ils écrivaient.

Les chercheurs ont voulu voir s’ils pouvaient suggérer des moyens d’empêcher la machine Darwin Gödel d’être impliquée dans ce comportement trompeur. Nous avons donc décidé de fournir des points de modèle pour réduire les instances des «hallucinations d’utilisation des outils» et leur avons demandé de maximiser leur score. Cela a fonctionné dans de nombreux cas, ont rapporté des chercheurs, avec la baisse des faux journaux de test. Mais dans d’autres cas, le modèle a simplement essayé de tricher à nouveau. Même si les invites utilisées par les chercheurs ont dit au modèle de ne pas le faire explicitement, ils ont supprimé les marqueurs que les chercheurs ont utilisés pour détecter les hallucinations. Eeks!

Comme les chercheurs ont eu un accès complet à tous les changements de code que l’IA apportait et que l’IA n’avait pas la capacité de modifier ce dossier, les chercheurs ont facilement pu confirmer que la machine Darwin Gädel était sur le point de s’engager dans ce type de tromperie. « Dans ce cas, le problème a été facilement détecté, mais plus de travail est nécessaire pour empêcher le modèle d’essayer de commettre une telle tricherie en premier lieu », ont écrit les chercheurs.

Ainsi, Altman a peut-être raison. Nous avons passé l’horizon de l’événement. Cependant, comme le montrent ces résultats, comme le suggère Altman, si la singularité est légère est très invisible.

Il y a donc plus de nouvelles de l’IA. (Et un conseil de chapeau à Ed Hughes de Google Deepmind Research Scientist, qui a mis en évidence le document de Darwin Godel la semaine dernière dans sa conférence fascinante lors de la recherche toujours intéressante et appliquée au sommet de l’IA.)

Jeremy Kahn
[email protected]
@Jeremyakahn

Nouvelles ai

Le pape Leo fait la promotion des réglementations sur l’IA. C’est selon un Grandes traits Sur la vision du nouveau pape de l’IA Wall Street Journal. Le nouveau pape américain Leo XIV dit qu’il a même choisi le nom de son pape pour établir des parallèles entre le pape Leo XIII, le prédécesseur de la fin du 19e siècle, et son plaidoyer pour les droits des travailleurs pendant la révolution industrielle. Héritage du manteau du pape François, qui est devenu de plus en plus instable par les risques sociaux de l’IA, Leo cherche une gouvernance mondiale plus forte et une surveillance éthique de la technologie. Lorsque les chefs de technologie recherchent l’implication du Vatican, l’Église affirme que l’autorité morale qui entraîne des réglementations contraignantes de l’IA, avertissant que laisser les entreprises pour surveiller le risque d’éroder la dignité humaine, la justice et les valeurs spirituelles.

Waymo prévoit de nouveaux efforts pour gérer la robotaxie sur Big Apple. Travaillant dans la cartographie limitée et les tests des voitures autonomes à New York avant 2021, Waymo veut faire une grande poussée sur le marché. Cependant, Waymo devra garder les conducteurs humains derrière les roues alors que les lois des États interdisent des voitures complètement sans pilote. La société fait pression pour des changements juridiques, demande des permis de la ville et démarrant des opérations autonomes limitées avec des chauffeurs de sécurité. Pour plus d’informations Wall Street Journal ici.

Le rapport sur l’IA du gouverneur de Californie appelle à la réglementation. Le nouveau rapport de politique de l’IA de California, commandé par le gouverneur Gavin Newsom et co-écrit par le professeur Stanford Fei-Fei Li, met en garde contre « un préjudice potentiellement irréversible », y compris les menaces biologiques et nucléaires lorsque l’IA n’est pas correctement gérée. Au lieu de soutenir des projets de loi réglementaires drastiques comme le SB 1047 de Californie, que Newsom a rejeté en octobre, le rapport préconise une approche « digne de confiance mais verphe » qui met l’accent sur la transparence, les audits indépendants, les rapports d’incident et la protection des dénonciateurs. Le rapport est que le Congrès américain envisage d’adopter un projet de loi de dépenses de 10 ans qui comprend une suspension sur les réglementations de l’IA au niveau de l’État. En savoir plus sur le rapport de Californie temps ici.

Le minimax chinois indique que la formation pour le nouveau modèle M1 ne coûtera que 500 000 $. Il pourrait s’agir d’un autre « moment profondément » pour les sociétés d’IA occidentales, la startup de l’IA chinoise Minimax a fait ses débuts un nouveau modèle d’IA open source appelé M1. Ce montant est environ 200 fois inférieur à ce que les initiés de l’industrie estiment que Openai a passé à former le modèle GPT-4. Jusqu’à présent, contrairement à Deepseek a dévoilé le modèle IA beaucoup moins cher, R1 en janvier, l’industrie de l’IA n’a pas surpris le M1. Cependant, cela peut changer une fois que les développeurs valident la revendication de Minimax et commencent à mettre en place l’application à l’aide du M1. Vous pouvez en savoir plus ici depuis chance‘s Alexandra Sternlicht.

La bonne fortune de l’IA

Pourquoi le réseau Palo Alto se concentre-t-il sur des paris AI de grande génération? – par John Kell

Reed Hoffman dit que réconfortant Gen Z avec Ai Blood Bath, c’est comme mettre un « pansement sur une blessure par balle ». – par Preston Fore

Andy Jassy est le PDG d’Amazon parfait à la prochaine époque de la réduction des coûts Gen-AI – par Jason Del Rey

Calendrier AI

8-11 juillet: IA Genève pour le sommet mondial

Du 13 au 19 juillet: Conférence internationale Au-dessus de Apprentissage automatique (ICML), Vancouver

22 juillet au 23 juillet: Fortune Brainstorm IA Singapour. Veuillez postuler pour y assister.

26 à 28 juillet: Monde Artificiel Intelligence Réunion (WAIC), Shanghai.

8 à 10 septembre: Fortune Brainstorm Tech à Park City, Utah. Veuillez postuler pour y assister.

6-10 octobre: ​​monde IA Amsterdam hebdomadaire

21 octobre-22: Tidai, San Francisco. Veuillez postuler pour y assister.

2-7 décembre: Newlips, San Diego

8 décembre: brainstorming Fortune IA San Francisco. Veuillez postuler pour y assister.

Tournez vos yeux en numéros d’IA

100 millions de dollars

Il s’agit du montant que le PDG d’Openai, Sam Altman, a affirmé que le PDG rival Meta Mark Zuckerberg l’offrirait en prime à la tête des chercheurs de l’IA s’ils acceptaient de rejoindre la méta. Altman a affirmé dans un épisode du podcast Pas de capuchon Il a été publié plus tôt cette semaine. Il a dit qu’aucun des chercheurs les plus éminents d’Openai n’avait accepté d’aller à Meta jusqu’à présent. Il a été signalé que Meta avait tenté d’embaucher Norm Brown et Koray Kavukcuoglu, le directeur de la technologie de Google Deep Mind, qui a été remis. Grande promotion Peut-être en conséquence, à l’architecte en chef de l’IA de tous les produits d’IA de Google. Vous pouvez en savoir plus sur les affirmations d’Altman chance‘s Bea nolan ici Et expliquez pourquoi le méta-PDG Mark Zuckerberg manque dans les tentatives de passer ses journées au sommet du classement de l’IA chanceSharon Goldman de Les yeux de jeudi dernier sur l’IA. (Meta refuse de commenter les commentaires d’Altman.)



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleL’ancien analyste de Janus Henderson a plaidé coupable à des délits d’initiés
Next Article Les Européens racontent l’histoire de l’Iran et le dernier fossé lorsque Trump entre en guerre
John
  • Website

Related Posts

Le FBI sort des photos de personnes intéressées par l’assassinat de Charlie Kirk

septembre 11, 2025

« Bonne nuit après la sortie de Chatgpt »: Sam Altman admet que le poids de l’IA le gardera la nuit

septembre 11, 2025

Elon Musk dégénère la querelle avec Sam Altman en ravivant une théorie du complot non fondée que les chercheurs d’Openai ont été assassinés

septembre 11, 2025

Le géant suédois du BNPL Klarna saute près de 15% dans la plus grande introduction en bourse de 2025 dans le NYSE

septembre 11, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Comment les noix de noix de cajou fintech peuvent-elles vous aider à comprendre et à protéger votre hypothèque?

septembre 10, 2025

Comment les noix de noix de cajou fintech peuvent-elles vous aider à comprendre et à protéger votre hypothèque?

septembre 10, 2025

La blockchain Tempo Fintex Stripe et d’autres chaînes d’entreprise pourraient augmenter la position d’Ethereum: Analyse

septembre 10, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

Le ministère de la Justice poursuit Uber pour avoir prétendument discriminé les personnes handicapées

septembre 11, 2025

Le FBI sort des photos de personnes intéressées par l’assassinat de Charlie Kirk

septembre 11, 2025

« Bonne nuit après la sortie de Chatgpt »: Sam Altman admet que le poids de l’IA le gardera la nuit

septembre 11, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.