Beaucoup dans l’industrie pensent que les gagnants du marché des modèles d’IA ont déjà été décidés : les grandes technologies en seront propriétaires (Google, Meta, Microsoft, un peu Amazon) aux côtés de leurs modélistes de choix, en grande partie OpenAI et Anthropic.
Mais la petite start-up Arcee AI, composée de 30 personnes, n’est pas d’accord. La société vient de publier un modèle de fondation à usage général véritablement et définitivement ouvert (licence Apache), appelé Trinity, et Arcee affirme qu’avec des paramètres de 400B, il fait partie des plus grands modèles de fondation open source jamais formés et publiés par une société américaine.
Arcee affirme que Trinity se compare au Llama 4 Maverick 400B de Meta et au Z.ai GLM-4.5, un modèle open source très performant de l’Université Tsinghua en Chine, selon des tests de référence effectués à l’aide de modèles de base (très peu de post-formation).

Comme d’autres modèles de pointe (SOTA), Trinity est conçu pour le codage et les processus en plusieurs étapes comme les agents. Pourtant, malgré sa taille, ce n’est pas encore un véritable concurrent SOTA car il ne prend actuellement en charge que le texte.
D’autres modes sont en préparation – un modèle de vision est actuellement en développement et une version parole-texte est sur la feuille de route, a déclaré le CTO Lucas Atkins à TechCrunch (photo ci-dessus, à gauche). En comparaison, Llama 4 Maverick de Meta est déjà multimodal, prenant en charge le texte et les images.
Mais avant d’ajouter davantage de modes d’IA à sa liste, Arcee déclare qu’elle souhaitait un LLM de base qui impressionnerait ses principaux clients cibles : les développeurs et les universitaires. L’équipe souhaite particulièrement inciter les entreprises américaines de toutes tailles à éviter de choisir des modèles ouverts en provenance de Chine.
« En fin de compte, les gagnants de ce jeu, et la seule façon de vraiment gagner sur l’utilisation, est d’avoir le meilleur modèle à poids ouvert », a déclaré Atkins. « Pour conquérir le cœur et l’esprit des développeurs, il faut leur donner le meilleur. »
Événement Techcrunch
San Francisco
|
13-15 octobre 2026
Les benchmarks montrent que le modèle de base Trinity, actuellement en avant-première alors que d’autres post-formations ont lieu, tient largement le coup et, dans certains cas, surpasse légèrement Llama aux tests de codage et de mathématiques, de bon sens, de connaissances et de raisonnement.
Les progrès réalisés par Arcee jusqu’à présent pour devenir un laboratoire d’IA compétitif sont impressionnants. Le grand modèle Trinity fait suite à deux petits modèles précédents publiés en décembre : le Trinity Mini à paramètres 26B, un modèle de raisonnement entièrement post-entraîné pour des tâches allant des applications Web aux agents, et le Trinity Nano à paramètres 6B, un modèle expérimental conçu pour repousser les limites des modèles minuscules mais bavards.
Le plus intéressant, c’est qu’Arcee les a tous formés en six mois pour un total de 20 millions de dollars, en utilisant 2 048 GPU Nvidia Blackwell B300. Cela sur les quelque 50 millions de dollars que l’entreprise a levés jusqu’à présent, a déclaré le fondateur et PDG Mark McQuade (photo ci-dessus, à droite).
Ce genre d’argent représentait « beaucoup pour nous », a déclaré Atkins, qui a dirigé l’effort de construction du modèle. Néanmoins, il a reconnu que cela n’est rien en comparaison des dépenses actuelles des plus grands laboratoires.
Le délai de six mois « était très calculé », a déclaré Atkins, dont la carrière avant les LLM impliquait la création d’agents vocaux pour les voitures. « Nous sommes une jeune startup qui a extrêmement faim. Nous avons énormément de talents et de jeunes chercheurs brillants qui, lorsqu’ils ont eu l’opportunité de dépenser autant d’argent et de former un modèle de cette taille, nous avons cru qu’ils se montreraient à la hauteur. Et ils l’ont certainement fait, avec de nombreuses nuits blanches et de longues heures. »
McQuade, ancien employé du marché de modèles open source HuggingFace, affirme qu’Arcee n’a pas commencé par vouloir devenir un nouveau laboratoire d’IA américain : la société effectuait à l’origine la personnalisation de modèles pour de grandes entreprises clientes comme SK Telecom.
« Nous ne faisions que du post-formation. Nous prenions donc l’excellent travail des autres : nous prenions un modèle Llama, nous prenions un modèle Mistral, nous prenions un modèle Qwen qui était open source, et nous le post-formions pour le rendre meilleur » pour l’utilisation prévue par une entreprise, a-t-il déclaré, y compris en faisant l’apprentissage par renforcement.
Mais à mesure que leur liste de clients s’allongeait, a déclaré Atkins, le besoin de leur propre modèle devenait une nécessité et McQuade craignait de s’appuyer sur d’autres sociétés. Dans le même temps, bon nombre des meilleurs modèles ouverts provenaient de Chine, ce dont les entreprises américaines se méfiaient ou n’avaient pas le droit d’utiliser.
C’était une décision angoissante. « Je pense qu’il y a moins de 20 entreprises dans le monde qui ont déjà pré-entraîné et publié leur propre modèle » à la taille et au niveau recherchés par Arcee, a déclaré McQuade.
L’entreprise a commencé modestement au début, en s’essayant à un petit modèle de 4,5 milliards créé en partenariat avec la société de formation DatologyAI. Le succès du projet a ensuite encouragé des efforts plus importants.
Mais si les États-Unis ont déjà Llama, pourquoi ont-ils besoin d’un autre modèle de poids ouvert ? Atkins affirme qu’en choisissant la licence open source Apache, la startup s’engage à toujours garder ses modèles ouverts. Cela survient après que le PDG de Meta, Mark Zuckerberg, a indiqué l’année dernière que son entreprise ne rendait pas toujours tous ses modèles les plus avancés open source.
« Llama peut être considéré comme n’étant pas véritablement open source car il utilise une licence contrôlée par Meta avec des mises en garde commerciales et d’utilisation », dit-il. Cela a amené certaines organisations open source à affirmer que Llama n’est pas du tout conforme à l’open source.
« Arcee existe parce que les États-Unis ont besoin d’une alternative ouverte en permanence, sous licence Apache, de qualité frontière, qui puisse réellement rivaliser à la frontière d’aujourd’hui », a déclaré McQuade.
Tous les modèles Trinity, petits et grands, peuvent être téléchargés gratuitement. La plus grande version sera publiée en trois saveurs. Trinity Large Preview est un modèle d’instruction légèrement post-entraîné, ce qui signifie qu’il a été formé pour suivre les instructions humaines, et pas seulement pour prédire le mot suivant, ce qui le prépare à une utilisation générale du chat. Trinity Large Base est le modèle de base sans post-formation.
Ensuite, nous avons TrueBase, un modèle avec toutes les données d’instruction ou post-formation afin que les entreprises ou les chercheurs qui souhaitent le personnaliser n’aient pas à dérouler de données, de règles ou d’hypothèses.
Acree AI proposera à terme une version hébergée de son modèle de version générale pour, dit-il, un prix d’API compétitif. Cette version est dans six semaines, alors que la startup continue d’améliorer l’entraînement au raisonnement du modèle.
Le prix de l’API pour Trinity-Mini est de 0,045 $/0,15 $, et un niveau gratuit à tarif limité est également disponible. Pendant ce temps, l’entreprise vend toujours des options de post-formation et de personnalisation.

