Close Menu
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
What's Hot

OpenAI passe du statut de sauveur boursier à celui de fardeau à mesure que les risques liés à l’IA augmentent

décembre 8, 2025

Les dirigeants du Congrès surpassent les membres ordinaires jusqu’à 47 % par an en matière de négociation d’actions.

décembre 7, 2025

Le directeur commercial de HP prédit des PC IA qui n’utiliseront pas le cloud à l’avenir

décembre 7, 2025
Facebook X (Twitter) Instagram
Facebook X (Twitter) Instagram
221 France221 France
  • Home
  • Fintech
  • Economy
  • Fashion
  • Latest
  • Lifestyle
  • Invest
  • Remote work
  • Startups
  • Tech
  • Business
221 France221 France
Home » Meta Llama: Tout ce que vous devez savoir sur le modèle d’IA génératif ouvert
Startups

Meta Llama: Tout ce que vous devez savoir sur le modèle d’IA génératif ouvert

JohnBy Johnoctobre 6, 2025Aucun commentaire9 Mins Read
Facebook Twitter Pinterest Reddit Telegram LinkedIn Tumblr VKontakte WhatsApp Email
Share
Facebook Twitter Reddit Pinterest Email


Comme toutes les grandes entreprises technologiques de nos jours, Meta a son propre modèle phare d’IA, appelé Llama. LLAMA est quelque peu unique parmi les principaux modèles en ce qu’il est «ouvert», ce qui signifie que les développeurs peuvent télécharger et l’utiliser est très s’il vous plaît (avec certaines limitations). Cela contraste avec des modèles comme Claude d’Anthropic, Gemini de Google, Grok de Xai et la plupart des modèles Chatgpt d’Openai, qui ne peuvent être accédés que via des API.

Cependant, dans l’intérêt de donner aux développeurs le choix, Meta s’est également séparée de fournisseurs, notamment AWS, Google Cloud et Microsoft Azure, pour rendre les versions de lama hébergées par le cloud disponibles. De plus, la société publie des outils, des bibliothèques et des recettes de son livre de cuisine LLAMA pour aider les développeurs à affiner, à évaluer et à adapter les modèles à leur domaine. Avec des générations plus récentes comme Llama 3 et Llama 4, ces capacités se sont élargies pour inclure le support multimodal natif et les déploiements de cloud plus larges.

Voici tout ce que vous devez savoir sur le lama de Meta, de ses capacités et éditions à l’endroit où vous pouvez l’utiliser. Nous garderons ce message à jour car META releve des mises à niveau et introduit de nouveaux outils de développement pour prendre en charge l’utilisation du modèle.

Qu’est-ce que Llama?

Lama est une famille de modèles – pas seulement un. La dernière version est Llama 4; Il est sorti en avril 2025 et comprend trois modèles:

Scout: 17 milliards de paramètres actifs, 109 milliards de paramètres au total et une fenêtre de contexte de 10 millions de jetons. Maverick: 17 milliards de paramètres actifs, 400 milliards de paramètres au total et une fenêtre de contexte de 1 million de jetons. Behemoth: Pas encore libéré mais aura 288 milliards de paramètres actifs et 2 paramètres totaux totaux.

(En science des données, les jetons sont des morceaux de données brutes subdivisés, comme les syllabes «fan», «tas» et «tic» dans le mot «fantastique»))

Le contexte d’un modèle, ou fenêtre de contexte, fait référence aux données d’entrée (par exemple, texte) que le modèle considère avant de générer une sortie (par exemple, texte supplémentaire). Le contexte long peut empêcher les modèles de «oublier» le contenu des documents et des données récents, et de s’éloigner du sujet et d’extrapolation à tort. Cependant, des fenêtres de contexte plus long peuvent également entraîner le modèle «oublier» certains garde-corps de sécurité et être plus enclin à produire du contenu conforme à la conversation, ce qui a conduit certains utilisateurs à la pensée délirant.

Pour référence, la fenêtre de 10 millions de contextes que Llama 4 Scout promet à peu près égal au texte d’environ 80 romans moyens. La fenêtre de contexte de 1 million de Maverick de Llama 4 équivaut à environ huit romans.

Événement TechCrunch

San Francisco
|
27-29 octobre 2025

Tous les modèles Llama 4 ont été formés sur le «grand amour des données de texte, d’image et de vidéo non étiquetées» pour leur donner une «compréhension visuelle large», ainsi que sur 200 langues, selon Meta.

LLAMA 4 Scout et Maverick sont les premiers modèles multimodaux nativement ouverts de Meta. Ils ont construit en utilisant une «architecture de« MOE) «mélange-inferts» (MOE), qui la charge de calcul et améliore l’efficacité de la formation et de l’inférence. Scout, par exemple, compte 16 experts et Maverick compte 128 experts.

Le géant de Llama 4 comprenait 16 experts, et la méta se rendra en tant qu’enseignant pour les petits modèles.

LLAMA 4 s’appuie sur la série Llama 3, qui comprenait des modèles 3.1 et 3.2 largement utilisés pour les applications réglées par l’instruction et le déploiement du cloud.

Que peut faire Llama?

Comme d’autres modèles d’IA génératifs, LLAMA peut effectuer une gamme de tâches assistantes différentes, comme le codage et la réponse aux questions de mathématiques de base, ainsi que la résumé des documents dans au moins 12 langues (arabe, anglais, allemand, français, hindi, indonésien, italien, portugee, hindou. Vietnamien). La plupart des charges de travail basées sur le texte analysent les fichiers volumineux comme les PDF et les feuilles de calcul – sont dans sa compétence, et tous les modèles LLAMA 4 prennent en charge le texte, l’image et l’entrée vidéo.

LLAMA 4 Scout est conçu pour des flux de travail plus longs et une analyse massive des données. Maverick est un modèle généraliste qui est meilleur pour équilibrer la puissance de raisonnement et la vitesse de réponse et est suivi pour le codage, les chatbots et les assistants techniques. Et Behemoth est conçu pour la recherche avancée, la distillation du modèle et les tâches STEM.

Les modèles de lama, y ​​compris LLAMA 3.1, peuvent être configurés pour tirer parti des applications, des outils et des API tiers pour effectuer des tâches. Ils sont formés pour utiliser une recherche courageuse pour répondre aux questions sur les événements récents; L’API Wolfram Alpha pour les requêtes liées aux mathématiques et aux sciences; et un interprète Python pour valider le code. Cependant, ces outils nécessitent une configuration appropriée et ne sont pas automatiquement activés hors de la boîte.

Où puis-je utiliser Llama?

Si vous cherchez simplement à discuter avec Llama, il alimente l’expérience Meta AI Chatbot sur Facebook Messenger, WhatsApp, Instagram, Oculus et Meta.ai dans 40 pays. Des versions affinées de lama sont utilisées dans les expériences de méta-ai dans plus de 200 pays et territoires.

Les modèles LLAMA 4 Scout et Maverick sont disponibles sur LLAMA.com et Meta’s Partners, comprenait la plate-forme de développeur AI Huging Face. Behemoth est toujours en formation. Les développeurs qui construisent avec LLAMA peuvent télécharger, utiliser ou affiner le modèle sur la plupart des plates-formes cloud populaires. Meta affirme qu’il compte plus de 25 partenaires accueillant Llama, notamment Nvidia, Databricks, Groq, Dell et Snowflake. Et bien que «vendre un accès» aux modèles ouvertement disponibles de Meta ne soit pas le modèle commercial de Meta, la société gagne de l’argent grâce à des accords de partage de revenus avec des hôtes modèles.

Certains de ces partenaires ont construit des outils et services supplémentaires au-dessus de Llama, comprenaient que les modèles de données réfrigéraires et leur permettent de fonctionner à des latences basses.

Surtout, le LLAMA Lifens limite la façon dont les développeurs peuvent déployer le modèle: les développeurs d’applications avec plus de 700 millions d’utilisateurs mensuels doivent demander un Lifens spécial à Meta que la société accordera à sa discrétion.

En mai 2025, Meta a lancé un nouveau programme pour inciter les startups à adopter ses modèles de lama. Lama pour les startups offre aux entreprises le soutien de l’équipe LLAMA de Meta et l’accès au financement potentiel.

Aux côtés de lama, des outils de méta-prodides destinés à rendre le modèle «plus sûr» à utiliser:

Llama Guard, avec modération du cadre. Cybersceval, un assassin de risque de cybersécurité qui suit. Llama Firewall, un garde-corps de sécurité conçu pour permettre la construction de systèmes d’IA sécurisés. SHIELD CODE, qui prend en charge le filtrage du temps d’inférence du code non sécurisé produit par LLMS.

Llama Guard essaie de détecter un contenu potentiellement problématique soit alimenté ou généré par un modèle de lama, y ​​compris le contenu relatif à l’activité criminelle, le fonctionnement des enfants, les violations du droit d’auteur, la haine, l’automutilation et l’absus sexuel.

Cela dit, ce n’est clairement pas une solution miracle, car les directives de Meta ont permis au chatbot de s’engager dans des chats sensuels et romantiques avec des mineurs, et certains rapports montrent ceux qui se sont transformés en conversations sexuelles. Les développeurs peuvent personnaliser les catégories de contenu bloqué et appliquer les blocs à toutes les langues de LLAMA prises en charge.

Comme Llama Guard, Prompt Guard peut bloquer le texte destiné à Llama, mais seul le texte destiné à «attaquer» le modèle et à le faire se comporter de manière indésirable. Meta affirme que le gardien de lama peut se défendre contre une invite explicitement malveillante (c’est-à-dire, des jailbreaks qui tentent de contourner les filtres de sécurité de l’intégration de Llama) en plus d’inviter qui contiennent des «intrants injectés». Le pare-feu de lama travaille à détecter et à prévenir les risques tels que l’injection rapide, le code sans sécurité et les interactions à risque d’outils. Et Code Shield aide à atténuer les suggestions de code sans sécurité et offre une exécution de commande sécurisée pour sept langages de programmation.

Quant à Cybersceval, c’est moins un outil qu’une collection de repères pour mesurer la sécurité du modèle. CyberseCeval peut évaluer le risque qu’un modèle LLAMA pose (au moins un registre des critères de Meta) aux développeurs d’applications et aux utilisateurs finaux dans des domaines tels que «l’ingénierie sociale automatisée» et «l’échelle des cyber-opérations offensives».

Limitations de Llama

Crédits Image: analyse artificielle

LLAMA est livré avec certains risques et limitations, comme tous les modèles d’IA génératifs. Par exemple, bien que son modèle le plus récent ait des fonctionnalités multimodales, celles-ci sont principalement limitées à la langue anglaise pour l’instant.

Zoom out, Meta utilisé dans l’ensemble de données de livres électroniques piratés et d’articles pour former ses modèles LLAMA. Un juge fédéral s’est récemment pris du côté de la méta dans une plainte pour droit d’auteur pour la société par 13 auteurs de livres, jugeant que l’utilisation des œuvres protégées pour la formation était tombée. « Cependant, si Llama régurgite un extrait de copyrightd et que quelqu’un l’utilise dans un produit, ils pourraient potentialiser potentialiment le droit d’auteur et être lisible.

Meta forme également controversé son IA sur Instagram et les publications, les photos et les légendes de Facebook, et rend difficile pour les utilisateurs de s’opposer.

La programmation est une autre est l’endroit où il est sage de marcher légèrement lors de l’utilisation de lama. C’est parce que Llama pourrait – peut-être plus que ses homologues d’IA génératifs – produire un buggy ou un code insécurité. Sur LivecodeBench, une référence qui teste les modèles d’IA sur des problèmes de codage concurrentiel, le modèle META LLAMA 4 Maverick a obtenu un score de 40%. C’est comparé à 85% pour le GPT-5 d’Openai et 83% pour le Grok 4 de Xai.

Comme toujours, il est préférable de faire en sorte qu’un expert humain examine tout code généré par AY AY avant de l’intégrer au service ou au logiciel.

Finally, comme avec d’autres modèles d’IA, les modèles LLAMA sont toujours coupables de générer des informations plausibles mais fausses ou trompeuses, où cela en codage, des conseils juridiques ou des conversations émotionnelles avec des personnages d’IA.

Ceci a été initialement publié le 8 septembre 2024 et est mis à jour régulièrement avec de nouvelles informations.



Source link

Share. Facebook Twitter Pinterest LinkedIn Reddit Email
Previous ArticleLes pirates de Clop ont capturé l’exploitation du bug de l’oracle pour voler les données personnelles des cadres
Next Article Sam Altman dit que Chatgpt a atteint 800m les utilisateurs actifs hebdomadaires
John
  • Website

Related Posts

Le co-PDG de Netflix aurait discuté de l’accord Warner Bros. avec Trump

décembre 7, 2025

X désactive le compte publicitaire de la Commission européenne après que l’entreprise a été condamnée à une amende de 120 millions d’euros

décembre 7, 2025

L’accélérateur est au sol pour les véhicules autonomes

décembre 7, 2025

Coinbase recommence à intégrer des utilisateurs en Inde et prévoit une rampe d’accès fiduciaire l’année prochaine

décembre 7, 2025
Add A Comment
Leave A Reply Cancel Reply

Top Posts

Le MENA Fintech & Insurtech Festival 2025 se termine à Doha, accélérant la transformation numérique dans la région

décembre 7, 2025

Luana López Lara : à 29 ans, la plus jeune milliardaire autodidacte au monde redéfinit la fintech

décembre 6, 2025

Luana López Lara : à 29 ans, la plus jeune milliardaire autodidacte au monde redéfinit la fintech

décembre 6, 2025

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

Bienvenue sur 221 France, votre source d’informations de qualité sur les domaines de la technologie, des affaires, du lifestyle et des animaux de compagnie. Nous sommes passionnés par la création de contenus qui enrichissent votre quotidien et vous aident à naviguer dans un monde en constante évolution.

Facebook X (Twitter) Instagram Pinterest YouTube
Top Insights

OpenAI passe du statut de sauveur boursier à celui de fardeau à mesure que les risques liés à l’IA augmentent

décembre 8, 2025

Les dirigeants du Congrès surpassent les membres ordinaires jusqu’à 47 % par an en matière de négociation d’actions.

décembre 7, 2025

Le directeur commercial de HP prédit des PC IA qui n’utiliseront pas le cloud à l’avenir

décembre 7, 2025
Get Informed

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

© 2025 221france. Designed by 221france.
  • Home
  • About us
  • Advertise us
  • Contact us
  • DMCA
  • Privacy policy
  • Terms & Condition

Type above and press Enter to search. Press Esc to cancel.