Meta a publié une nouvelle collection de modèles d’IA, Llama 4, dans sa famille Llama – nous avons samedi, pas moins.
Il y a quatre nouveaux modèles dans Total: Llama 4 Scout, Llama 4 Maverick et Llama 4 Behemoth. Tous ont été formés sur «de grandes quantités de données de texte, d’image et de vidéo non marquées» pour leur donner une «compréhension visuelle large», dit Meta.
Le succès des modèles ouverts du laboratoire de l’IA chinois Deepseek, qui se déroule sur ou mieux que les précédents modèles phares de Meta, aurait lancé le développement de Llama dans Overdrive. Meta aurait la frappe SCRATED WAR ROOMS pour déchiffrer la façon dont Deepseek a abaissé le coût de l’exécution et du déploiement de modèles comme R1 et V3.
Scout et Maverick sont ouvertement disponibles sur Llama.com et chez Meta’s Partners, comprenaient la plate-forme AI Dev Hugging Face, tandis que Behemoth est toujours en formation. Meta dit que Meta Ai, son assistant AI-Per à travers les applications, il y a WhatsApp, Messenger et Instagram, a été mise à jour pour utiliser le pays 4 dans 40. Les fonctionnalités multimodales sont limitées aux États-Unis en anglais pour l’instant.
Certains développeurs peuvent contester la licence LLAMA 4.
Les utilisateurs et les entreprises «Homed» ou avec un «principal lieu d’affaires» dans l’UE sont interdits d’utiliser ou de distribuer les modèles, probablement le résultat des exigences de gouvernance imposées par les lois sur l’IA et la confidentialité des données de la région. (Dans le passé, Meta a décrout ces lois comme trop bubbiusome.) De plus, comme pour les versions précédentes de LLAMA, les entreprises avec plus de 700 millions d’utilisateurs actifs mensuels doivent demander une licence spéciale de Meta, que Meta peut accorder ou nier à elle une seule discrétion.
« Ces modèles LLAMA 4 marquent le début d’une nouvelle ère pour l’écosystème de lama », a écrit Meta dans un article de blog. «Ce n’est que le début de la collection Llama 4.»

Meta dit que Llama 4 est sa première cohorte de modèles pour utiliser une architecture d’experts (MOE), qui est plus efficace sur le plan informatique pour la formation et la réponse aux fleurons. Architectures MOE Basalement décomposer les tâches de traitement des données en sous-tâches, puis les déléguer à des modèles «experts» plus petits et spécialisés.
Maverick, par exemple, a 400 milliards de paramètres au total, mais seulement 17 milliards de paramètres actifs sur 128 «experts». (Les paramètres correspondent à peu près aux compétences de résolution de problèmes d’un modèle.) Scout a 17 milliards de paramètres actifs, 16 experts et 109 milliards de paramètres au total.
Selon les tests internes de Meta, Maverick, qui, selon la société, est le meilleur pour les cas d’utilisation «Assistant général et CHAT» tels que l’écriture créative, excède des modèles tels que GPT-4O d’OpenAI et Gemini 2.0 de Google sur certains benchmarks de codage, de raisonnement, multilingue, à petit contexte et à l’image. Cependant, Maverick ne mesure pas tout à fait à des modèles récents plus compétents comme Google’s Gemini 2.5 Pro, Claude 3.7 d’Anthropic et GPT-4.5 d’OpenAI.
Les forces de Scout résident dans des tâches comme le résumé des documents et le raisonnement sur les grandes bases de code. Iné à même, il a une très grande fenêtre de contexte: 10 millions de jetons. (Les «jetons» prennent des morceaux de texte brut – par exemple le mot «fantastique» divisé en «fan», «tas» et «tic».) En anglais simple, le scout peut prendre des images et jusqu’à des millions de mots, ce qui lui permet de traiter et de travailler avec des documents extrêmement longs.
Le Scout peut fonctionner sur un seul GPU NVIDIA H100, tandis que Maverick nécessite un système NVIDIA H100 DGX ou équivalent, selon les calculs de Meta.
Le géant inédit de Meta aura besoin d’un matériel encore plus robuste. Selon la société, Behemoth a 288 milliards de paramètres actifs, 16 experts et près de deux billions de paramètres au total. L’analyse comparative interne de META a surperformant GPT-4.5, Claude 3.7 Sonnet et Gemini 2.0 Pro (mais pas 2.5 Pro) sur plusieurs évaluations mesurant les compétences STEM comme la résolution de problèmes mathématiques.
Il convient de noter qu’aucun des modèles Llama 4 n’est un modèle de «raisonnement» approprié dans le sens des O1 et O3-MinI d’OpenAI. Modèles de raisonnement Vérifiez leurs réponses et généralement Lispond à des questions de manière plus fiable, mais en conséquence, prenez une longueur que les modèles traditionnels «non déposés» pour fournir des réponses.

Fait intéressant, Meta dit qu’il a réglé tous ses modèles Llama 4 pour refuser de répondre aux questions «controversées» moins souvent. Selon la société, Llama 4 répond à des sujets politiques et sociaux «débattus» que la récolte précédente de modèles lama. De plus, la société dit que Llama 4 est «dramatiquement plus équilibré» avec cette invite qui ne se divertit pas.
« (Y) ou peut compter sur (Lllama 4) pour fournir des réponses utiles et facturées sans jugement », a déclaré à TechCrunch, un porte-parole de Meta. «(W) est en train de continuer à rendre Llama plus de responsabilités afin qu’il puisse plus de questions, puisse répondre à une variété de points de vue différents (…) et ne favorise pas certains points de vue par rapport aux autres.»
Ces ajustements viennent alors que des alliés de la Maison Blanche accusent un chatbots d’être trop politiquement «réveillé».
Beaucoup de la fermeture confiante du président Donald Trump, dont le milliardaire Elon Musk et la crypto et l’IA «tsar» David Sacks, ont allégué que les opinions conservatrices de censure des chatbots AI populaires. Sacks a historiquement chanté le chatppt d’Outai comme «programmé pour être réveillé» et mensonger à l’égard des sujets politiques.
En réalité, le biais dans un problème technique insoluble. La société d’IA de Musk, Xai, a eu du mal à créer un chatbot qui n’approuve pas des opinions politiques sur d’autres.
Cela n’a pas empêché les entreprises d’inclure OpenAI d’ajouter leurs modèles d’IA pour répondre à plus de questions qu’ils ne l’auraient fait auparavant, en particulier les questions reloyantes à des sujets controversés.

