Bienvenue dans la newsletter régulière de l’IA de TechCrunch! Je faisais un peu de pause, mais vous pouvez trouver toute notre couverture d’IA, y compris mes colonnes, notre analyse quotidienne et les reportages en train de briser, chez TechCrunch. Si vous voulez ces histoires et bien plus dans votre boîte de réception tous les jours, inscrivez-vous à nos newsletters quotidiennes ici.
Cette semaine, la startup AI du milliardaire Elon Musk, XAI, a publié son dernier modèle phare d’IA, Grok 3, qui alimente les applications Grok Chatbot de l’entreprise. Formé sur environ 200 000 GPU, le modèle bat un certain nombre d’autres modèles de premier plan, notamment d’Openai, sur des repères pour les mathématiques, la programmation, etc.
Mais que nous disent vraiment ces repères?
Ici, à TC, nous rapportons souvent à contrecœur des chiffres de référence, ils sont l’une des rares façons (relativement) normalisées des façons dont le modèle des mesures de l’industrie de l’IA improvise. Les références populaires de l’IA ont tendance à tester le Nowledge ésotérique et à donner des scores agrégés qui sont mal en corrélation à Profice sur les taasks qui se soucient de la plupart des gens.
Alors que le professeur de Wharton Ethan Mollick le souligne dans une série de messages sur X après le dévoilement de Grok 3 lundi, il y a un «besoin urgent de meilleures batteries de tests et d’autorités de test indépendantes». Les sociétés d’IA sont les résultats de référence d’auto-évaluation le plus souvent, comme Mollick l’a fait allusion, ce qui rend ces résultats encore plus difficiles à accepter à leur valeur nominale.
«Les références publiques sont à la fois« meh »et saturées, laissant beaucoup de tests sur l’IA pour être des sorties, sur la base de Tate», a écrit Mollick. «Si est essentiel pour travailler, nous en avons besoin de plus.»
Il ne manque pas de tests et d’organisations indépendants proposant de nouvelles repères pour l’IA, mais leur mérite relatif est loin d’être une affaire établie au sein de l’industrie. Certains commentateurs et experts de l’IA proposent des repères d’alignement avec l’impact économique pour assurer leur utilité, tandis que d’autres soutiennent que l’adoption et l’utilité sont les références ultimes.
Ce débat peut rage jusqu’à la fin des temps. Peut-être devrions-nous à la place, comme le prescrit à l’utilisateur de X, prêtez simplement moins d’attention aux nouveaux modèles et références à moins de percées techniques d’IA majeures. Pour notre santé mentale collective, ce n’est peut-être pas la pire idée, même si elle induit un niveau unique de l’IA FOMO.
Comme mentionné Aboo, cette semaine dans l’IA est en pause. Merci de rester avec nous, les lecteurs, à travers ces montagnes russes d’un voyage. Temps uxt.
Nouvelles

Openai essaie de «Uncensor» Chatgpt: Max a écrit sur la façon dont Openai modifie son approche de développement de l’IA pour adopter explicitement la «liberté intellectuelle», peu importe à quel point un sujet peut être difficile ou controversé.
La nouvelle startup de Mira: Formez le CTO Openai CTO Mira Murati, Thinking Machines Lab, a l’intention de créer des outils pour «faire fonctionner l’IA pour les besoins et les objectifs uniques des gens».
Grok 3 Cometh: la startup AI d’Elon Musk, Xai, a publié son dernier modèle phare d’IA, Grok 3, et a dévoilé de nouvelles capacités pour les applications Grok pour iOS et le Web.
Une conférence très lama: Meta accueillera sa première conférence dédiée à une IA générative ce printemps. Appelé Llamacon Après la famille des modèles d’IA génératrices de Meta de Meta, la conférence est prévue pour le 29 avril.
L’IA et la souveraineté numérique de l’Europe: Paul a profilé OpenEurollm, A entre les organisations de collection SOE 20 pour construire «une série de modèles de fondation pour l’IA transparent en Europe» qui préserve la «diversité linguistique et culturelle» de toutes les langues de l’UE.
Document de recherche de la semaine
Les chercheurs OpenAI ont créé une nouvelle référence d’IA, Swe-Lance, qui vise à évaluer les prouesses de codage des puissants systèmes d’IA. La référence se compose de plus de 1 400 tâches d’ingénierie logicielle indépendantes qui vont des corrections de bogues et des déploiements de fonctionnalités vers des propulsions techniques «de niveau gestionnaire».
Selon Openai, le modèle d’IA le plus performant, le sonnet Claude 3.5 d’Anthropic, marque 40,3% sur la référence complète de Sweetr que l’IA a beaucoup de chemin à parcourir. Il convient de noter que les chercheurs n’ont pas comparé des modèles plus récents comme O3-Mini ou la société d’IA chinois d’Openai Deepseek’s R1.
Modèle de la semaine
Une société d’IA chinoise nommée StepFun a publié un modèle d’IA «ouvert», Step-Audio, qui peut comprendre et générer une parole en plusieurs langues. Step-Audio prend en charge le chinois, l’anglais et le japonais et permet aux utilisateurs d’ajuster l’émotion et même le dialecte de l’audio synthétique qu’il crée, inclus.
Stepfun est l’une des nombreuses startups d’IA chinois bien financées libérant des modèles sous une licence permissive. Fondée en 2023, Stepfun aurait récemment clôturé un tour de financement d’une valeur de plusieurs millions de chances d’une multitude d’investisseurs qui comprenaient des sociétés chinoises de capital-investissement appartenant à l’État.
Sac à main
We Research, un groupe de recherche sur l’IA, a publié ce qu’il prétend être l’un des premiers modèles d’IA qui unifie le raisonnement et les «capacités de modèle de langage intuitif».
Le modèle, Deepheremes-3 Preview, peut basculer sur et désactiver de longues «chaînes de pensée» pour une amélioration de l’acccaracy au prix d’une heft informatique. En mode «raisonnement», l’aperçu des deepheremes-3, similaire à d’autres modèles de raisonnement d’IA, «pense» plus longtemps pour des problèmes plus difficiles et montre que son processus de réflexion arrive à la réponse.
Anthropic prévoit de publier un modèle similaire architectural bientôt, et Openai a déclaré qu’un tel modèle était sur sa feuille de route à court terme.