Alors que les défauts de paiement des entreprises privées atteignent plus de 9,2 % – le taux le plus élevé depuis des années – la société de capital-risque Lux Capital a récemment conseillé aux entreprises qui s’appuient sur l’IA de faire confirmer par écrit leurs engagements en matière de capacité de calcul. Avec l’instabilité financière qui se répercute sur la chaîne d’approvisionnement de l’IA, a prévenu Lux, un accord de poignée de main ne suffit pas.
Mais il existe une toute autre option, qui consiste à cesser complètement de dépendre d’une infrastructure de calcul externe. Les modèles d’IA plus petits qui s’exécutent directement sur l’appareil de l’utilisateur (pas de centre de données, pas de fournisseur de cloud, pas de risque de contrepartie) deviennent suffisamment performants pour mériter d’être envisagés. Et le Multiverse Computing lève la main.
La startup espagnole a jusqu’à présent gardé un profil plus bas que certains de ses pairs, mais à mesure que la demande d’efficacité de l’IA augmente, la situation est en train de changer. Après avoir compressé les modèles des principaux laboratoires d’IA, notamment OpenAI, Meta, DeepSeek et Mistral AI, la société a lancé à la fois une application qui présente les capacités de ses modèles compressés et un portail API (une passerelle qui permet aux développeurs d’accéder à ces modèles et de les utiliser) qui les rend plus largement disponibles.
L’application CompactifAI, qui partage son nom avec la technologie de compression d’inspiration quantique de Multiverse, est un outil de chat IA dans la veine de ChatGPT ou Le Chat de Mistral. Posez une question et le modèle répond. La différence est que Multiverse a intégré Gilda, un modèle si petit qu’il peut fonctionner localement et hors ligne, selon l’entreprise.

Pour les utilisateurs finaux, c’est un avant-goût de l’IA à la pointe de la technologie, avec des données qui ne quittent pas leurs appareils et ne nécessitent pas de connexion. Mais il y a une mise en garde : leurs appareils mobiles doivent disposer de suffisamment de RAM et de stockage. Si ce n’est pas le cas – et de nombreux iPhones plus anciens ne le feront pas – l’application revient aux modèles basés sur le cloud via l’API. Le routage entre le traitement local et le cloud est géré automatiquement par un système que Multiverse a nommé Ash Nazg, dont le nom sonnera une cloche pour les fans de Tolkien car il fait référence à l’inscription One Ring dans « Le Seigneur des Anneaux ». Mais lorsque l’application est acheminée vers le cloud, elle perd ainsi son principal avantage en matière de confidentialité.
Ces limitations signifient que CompactifAI n’est pas encore tout à fait prêt pour une adoption massive par les clients, même si cela n’a peut-être jamais été l’objectif. Selon les données de Sensor Tower, l’application a été téléchargée moins de 5 000 fois au cours du mois dernier.
La véritable cible, ce sont les entreprises. Aujourd’hui, Multiverse lance un portail API en libre-service qui permet aux développeurs et aux entreprises d’accéder directement à ses modèles compressés, sans qu’AWS Marketplace ne soit nécessaire.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
« Le portail API CompactifAI donne (désormais) aux développeurs un accès direct aux modèles compressés avec la transparence et le contrôle nécessaires pour les exécuter en production », a déclaré le PDG Enrique Lizaso dans un communiqué.
La surveillance de l’utilisation en temps réel est l’une des fonctionnalités clés de l’API, et ce n’est pas un hasard. Outre les avantages potentiels du déploiement en périphérie, la réduction des coûts de calcul est l’une des principales raisons pour lesquelles les entreprises envisagent des modèles plus petits comme alternative aux grands modèles de langage (LLM).
Il est également utile que les petits modèles soient moins limités qu’avant. Plus tôt cette semaine, Mistral a mis à jour sa petite famille de modèles avec le lancement de Mistral Small 4, qui, selon lui, est simultanément optimisé pour le chat général, le codage, les tâches d’agent et le raisonnement. La société française a également lancé Forge, un système qui permet aux entreprises de créer des modèles personnalisés, y compris de petits modèles pour lesquels elles peuvent choisir les compromis que leurs cas d’utilisation peuvent le mieux tolérer.
Les résultats récents de Multiverse suggèrent également que l’écart avec les LLM se réduit. Son dernier modèle compressé, HyperNova 60B 2602, est construit sur gpt-oss-120b, un modèle OpenAI dont le code sous-jacent est accessible au public. La société affirme qu’elle fournit désormais des réponses plus rapides à un coût inférieur à celui de l’original dont elle est issue, un avantage particulièrement important pour les flux de travail de codage agent, où l’IA effectue de manière autonome des tâches de programmation complexes en plusieurs étapes.
Rendre les modèles suffisamment petits pour fonctionner sur des appareils mobiles tout en restant utiles constitue un défi de taille. Apple Intelligence a contourné ce problème en combinant un modèle sur appareil et un modèle cloud. L’application CompactifAI de Multiverse peut également acheminer les requêtes vers gpt-oss-120b via l’API, mais son objectif principal est de montrer que les modèles locaux comme Gilda et ses futurs remplaçants présentent des avantages qui vont au-delà des économies de coûts.
Pour les travailleurs travaillant dans des domaines critiques, un modèle pouvant s’exécuter localement et sans connexion au cloud offre plus de confidentialité et de résilience. Mais la plus grande valeur réside dans les cas d’utilisation commerciale que cela peut débloquer – par exemple, l’intégration de l’IA dans des drones, des satellites et d’autres paramètres où la connectivité ne peut pas être considérée comme acquise.
L’entreprise dessert déjà plus de 100 clients mondiaux, dont la Banque du Canada, Bosch et Iberdrola, mais l’élargissement de sa clientèle pourrait l’aider à débloquer davantage de fonds. Après avoir levé une série B de 215 millions de dollars l’année dernière, la rumeur dit qu’elle lèverait un nouveau tour de table de 500 millions d’euros pour une valorisation de plus de 1,5 milliard d’euros.

