Dans un article de blog en juillet dernier, le méta-PDG Mark Zuckerberg a déclaré que «vendre un accès» aux modèles LLAMA AI disponibles de Meta «n’est pas un modèle commercial (Meta)». Pourtant, Meta gagne au moins un peu d’argent de Llama par le biais d’accords de partage des revenus, selon un dossier judiciaire nouvellement non rythmé.
Le dossier, soumis par des avocats pour les plaignants dans le procès du droit d’auteur, Kadrey c. Meta, dans lequel Meta est accusé d’avoir formé ses modèles LLAMA sur des centaines de térabbytes d’ebooks piratés, révèle que les méta-partagent «partage un pourcentage du revers» que les sociétés hurlant ses modèles LLAMA génèrent à partir des utilisateurs de ces modèles.
Le dépôt n’indique pas quels hôtes spécifiques paient Meta. Mais Meta répertorie un certain nombre de partenaires d’accueil de lama dans divers articles de blog, notamment AWS, Nvidia, Databricks, Groq, Dell, Azure, Google Cloud et Snowflake.
Les développeurs ne sont pas tenus d’utiliser un modèle de lama via un partenaire hôte. Les modèles peuvent être téléchargés, affinés et exécutés sur une gamme de matériel différent. Mais de nombreux hôtes fournissent des services et des outils supplémentaires qui facilitent la mise en service des modèles LLAMA plus simples et plus faciles.
Zuckerberg a mentionné la possibilité d’octroi de licences à l’accès aux modèles LLAMA lors d’un appel de bénéfices en avril dernier, lorsqu’il a également lancé la monétisation LLAMA par d’autres moyens, comme par le biais de services de messagerie commerciale et d’annonces dans les «interactions de l’IA». Mais il n’a pas décrit les détails.
« (I) f Vous êtes quelqu’un comme Microsoft ou Amazon ou Google et vous allez revérifier ces services, c’est quelque chose que nous pensons crier une partie des revenus », a déclaré Zuckerberg. « Ce sont donc les offres que nous avons l’intention de conclure, et nous commençons à le faire un peu. »
Plus récemment, Zuckerberg a soutenu que la majeure partie de la valeur que la méta dérive de Llama se présente sous la forme d’améliorations des modèles de la communauté de la recherche sur l’IA. Meta utilise des modèles LLAMA pour alimenter un certain nombre de produits agissent ses plaques et ses propriétés, incluent Meta’s Ai Asseuster, Meta Ai.
« Je pense que c’est une bonne affaire pour nous de le faire de manière ouverte », a déclaré Zuckerberg lors de l’appel de gains du troisième trimestre de Meta 2024. «(I) t rend nos produits meilleurs plutôt que si nous étions juste sur un bâtiment insulaire un modèle que personne n’était un peu standardisant dans l’industrie.»
Le fait que Meta puisse générer de retour de manière assez directe de LLAMA est significatif parce que les demandeurs de Kadrey c. Meta affirment que Meta a non seulement utilisé des œuvres piratées pour développer LLAMA, mais a facilité une contrefaçon par «semis» ou téléchargement, ces œuvres. Les plaignants allèguent que Meta a utilisé des méthodes de torrente collaboratrice pour obtenir des livres électroniques pour la formation et, dans le processus – en raison de la façon dont le torrent fonctionne – a partagé les livres électroniques avec d’autres torrenters.
Meta prévoit de augmenter considérablement ses dépenses en capital cette année, en grande partie grâce à ses investissements dans l’IA. En janvier, la société a déclaré qu’elle dépenserait 60 milliards de dollars à 80 milliards de dollars sur CAPEX en 2025 doublement CAPEX de Meta en 2024-primaire dans les centres de données et augmentant les équipes de développement de l’IA de l’entreprise.
Probablement compenser une partie des coûts, Meta envisagera de lancer un service Subcript pour Meta AI qui ajoutera une capacité non spécifiée à l’assistant.
Mise à jour du 2/21 à 13 h 54: Un porte-parole de Meta a incliné TechCrunch à cette transcription d’appel de gains pour un contexte supplémentaire. Nous en avons ajouté une citation de Zuckerberg – en particulier une citation sur l’intention de Meta de revenir partager avec de grands hôtes de modèles LLAMA.