Nous tuons, Meta organise sa première conférence de développeur Llamacon AI à son siège social de Menlo Park, où la société tentera de présenter des développeurs sur la construction d’applications avec ses modèles ouverts AI LLAMA. Il y a à peine un an, ce n’était pas difficile à vendre.
Cependant, ces derniers mois, Meta a eu du mal à suivre les deux laboratoires d’IA «ouverts» comme Deecseek et ses concurrents commerciaux fermés tels qu’Openai dans la course en évolution rapide de l’IA. Llamacon arrive à un moment critique pour Meta dans sa quête pour construire un écosystème de lama tentaculaire.
Gagner les développeurs peut être aussi simple que d’expédier de meilleurs modèles ouverts. Mais cela peut être plus difficile à réaliser qu’il n’y paraît.
Un début précoce prometteur
Le lancement de META de Llama 4 plus tôt ce mois-ci a sous-obtenu des développeurs, avec un certain nombre de scores de référence à venir dans des modèles comme R1 et V3 de Deepseek. C’était loin de ce qu’était la Llama: une gamme de modèles de chute des limites.
Lorsque Meta a lancé son modèle LLAMA 3.1 405b l’été dernier, le PDG Mark Zuckerberg l’a toqué comme une grande victoire. Dans un article de blog, Meta appelé Llama 3.1 405b le «modèle de fondation le plus capable ouvertement disponible», avec les performances rivalisant avec le meilleur modèle d’Openai à l’époque, GPT-4O.
C’était un modèle impressionnant, bien sûr – et donc nous les autres modèles de la famille Llama 3 de Meta. Jeremy Nixon, qui a accueilli des hackathons chez San Francisco au cours des dernières années, a appelé les «moments historiques» de Llama 3 Laungons.
Llama 3 a sans doute fait de Meta un chouchou parmi les développeurs de l’IA, offrant des performances de pointe avec la liberté d’accueillir les modèles partout où ils sont. Aujourd’hui, le modèle LLAMA 3.3 de Meta est téléchargé plus souvent que Llama 4, a déclaré le responsable des produits et de la croissance de Hugging Face, Jeff Boudier, dans une interview.
Comparez cela avec la réception à la famille Llama 4 de Meta, et le différent est Startk. Mais Llama 4 a été controversé dès le début.
Shenanigans Analyse comparative
Meta a optimisé une version de l’un de ses modèles Llama 4, Llama 4 Maverick, pour «Conversationalité», ce qui l’a aidé à saisir la première place du Crowdsourced Benchmark Arena. Meta n’a cependant jamais publié ce modèle – la version de Maverick qui a été déployée a finalement fini par effectuer beaucoup Werse sur LM Arena.
Le groupe derrière LM Arena a déclaré que Meta aurait dû être «plus claire» quant à l’écréance. Ion Stoica, co-fondateur de LM Arena et professeur UC Berkeley, qui a également cofondé des sociétés, notamment AnyScale et Databricks, a déclaré à TechCrunch que le faisait du mal à la confiance de la communauté des développeurs dans Meta.
« (Meta) aurait dû être plus expri sur le modèle du non-condu qui se trouvait sur (LM Arena) était différent du modèle qui a été publié », a déclaré Stoica à TechCrunch dans une interview. «Lorsque cela se produit, c’est un peu une perte de confiance avec la communauté. De race, ils peuvent récupérer cela en libérant de meilleurs modèles.
Aucun raisonnement
Une omission flagrante de la famille Llama 4 était un modèle de raisonnement en IA. Les modèles de raisonnement peuvent fonctionner avec soin à travers des questions avant de leur répondre. Au cours de la dernière année, une grande partie de l’industrie de l’IA a publié des modèles de raisonnement, qui ont tendance à mieux performer sur des références spécifiques.
Meta’s Tooning to Llama 4 Reasoning Model, mais la société a été indiquée quand la cacher.
Nathan Lambert, chercheur chez AI2, dit que le fait que Meta n’a pas publié de modèle de raisonnement avec Llama 4 suggère que la société a peut-être précipité le lancement.
« Tout le monde est sous le choc d’un modèle de raisonnement, et cela rend leurs modèles si beaux », a déclaré Lambert. « Pourquoi ne pouvait pas (Meta) attendre de faire ça? Je n’ai pas la réponse à cette question. Cela semble être une bizarrerie normale de l’entreprise. »
Les modèles ouverts rivaux de Lambert Nade sont plus proches de la frontière que jamais auparavant, et qu’ils se présentent maintenant sous plus de formes et de tailles – augmentant considérablement la pression sur la méta. Par exemple, lundi, Alibaba a publié une collection de modèles, Qwen 3, qui surpasserait certains des meilleurs modèles de codage d’Openai et de Google sur CodeFoces, une référence de programmation.
Pour regagner le fonctionnement du modèle ouvert, Meta a simplement besoin de fournir des modèles supérieurs, selon Ravid Shwartz-Ziv, un chercheur de l’IA au NYU’s Center for Data Science. Cela peut impliquer de prendre plus de risques, comme les nouvelles techniques de l’emploi, a-t-il déclaré à TechCrunch.
Où Meta est en mesure de prendre de gros risques en ce moment n’est pas clair. Les employés actuels et formés ont déclaré auparavant que le laboratoire de recherche sur l’IA de Fortune Meta «mourrait une mort lente». La vice-présidente de la recherche de l’IA de l’entreprise, Joelle Pineau, a annoncé ce mois-ci qu’elle partait.
Llamacon a la chance de Meta de montrer ce qu’il a cuisine pour battre les versions à venir de AI Labs Likeai, Google, Xai et d’autres. S’il ne parvient pas, l’entreprise pourrait prendre encore plus de retard dans l’espace ultra-compétitif.