Alors que les modèles d’IA deviennent de plus en plus banalisés, les startups s’empressent de créer la couche logicielle qui les recouvre. Un entrant intéressant dans cet espace est Osaurus, un serveur LLM open source réservé à Apple qui permet aux utilisateurs de se déplacer entre différents modèles d’IA locaux, localement ou dans le cloud, tout en conservant leurs fichiers et outils sur leur propre matériel.
Osaurus est né de l’idée d’un compagnon d’IA de bureau, Dinoki, que le co-fondateur d’Osaurus, Terence Pae, a décrit comme une sorte de « Clippy alimenté par l’IA ». Les clients de Dinoki lui avaient demandé pourquoi ils devraient acheter l’application s’ils devaient quand même payer pour les jetons – les unités d’utilisation que les sociétés d’IA facturent pour traiter les invites et générer des réponses.
Cela a amené Pae à réfléchir plus profondément à l’exécution de l’IA localement.
« C’est ainsi qu’Osaurus a commencé », a déclaré Pae, auparavant ingénieur logiciel chez Tesla et Netflix, à TechCrunch lors d’un appel. L’idée, a-t-il expliqué, était d’essayer de faire fonctionner un assistant IA localement. « Vous pouvez faire à peu près tout sur votre Mac localement, comme parcourir vos fichiers, accéder à votre navigateur, accéder aux configurations de votre système. J’ai pensé que ce serait un excellent moyen de positionner Osaurus comme une IA personnelle pour les particuliers. »
Pae a commencé à créer l’outil en public en tant que projet open source, ajoutant des fonctionnalités et corrigeant des bugs en cours de route.

Aujourd’hui, Osaurus peut se connecter de manière flexible à des modèles d’IA hébergés localement ou à des fournisseurs de cloud comme OpenAI et Anthropic. Les utilisateurs peuvent choisir librement les modèles d’IA qu’ils utilisent et conserver d’autres aspects de l’expérience d’IA sur leur propre matériel, comme la propre mémoire des modèles, ou leurs fichiers et outils.
Étant donné que les différents modèles d’IA ont des atouts différents, l’avantage de ce système est que les utilisateurs peuvent passer au modèle d’IA qui correspond le mieux à leurs besoins.
Une telle structure fait d’Osaurus ce qu’on appelle un « harnais » : une couche de contrôle qui connecte différents modèles, outils et flux de travail d’IA via une interface unique, similaire à des outils comme OpenClaw ou Hermes. Cependant, la différence est que ces outils s’adressent souvent à des développeurs qui connaissent bien un terminal. Et parfois, comme dans le cas d’OpenClaw, ils peuvent poser des problèmes de sécurité et des failles dont il faut s’inquiéter.
Osaurus, quant à lui, présente une interface facile à utiliser que les consommateurs peuvent utiliser et répond aux problèmes de sécurité en exécutant les choses dans un bac à sable virtuel isolé du matériel. Cela limite l’IA à une certaine portée, assurant la sécurité de votre ordinateur et de vos données.

Bien entendu, la pratique consistant à exécuter des modèles d’IA sur votre machine en est encore à ses débuts, étant donné qu’elle nécessite beaucoup de ressources et dépend du matériel. Pour exécuter des modèles locaux, votre système aura besoin d’au moins 64 Go de RAM. Pour exécuter des modèles plus grands, comme DeepSeek v4, Pae recommande des systèmes dotés d’environ 128 Go de RAM.
Mais Pae pense que les besoins locaux en IA diminueront avec le temps.
« Je peux en voir le potentiel, car l’intelligence par watt – qui est comme la mesure de l’IA locale – a considérablement augmenté. Elle suit sa propre courbe d’innovation. L’année dernière, l’IA locale pouvait à peine terminer ses phrases, mais aujourd’hui, elle peut réellement exécuter des outils, écrire du code, accéder à votre navigateur et commander des produits sur Amazon (…) cela ne fait que s’améliorer », a-t-il déclaré.

Osaurus peut aujourd’hui exécuter MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama, DeepSeek V4 et d’autres modèles. Il prend également en charge les modèles de base sur appareil d’Apple, la famille LFM de modèles sur appareil de Liquid AI, et dans le cloud, il peut se connecter à OpenAI, Anthropic, Gemini, xAI/Grok, Venice AI, OpenRouter, Ollama et LM Studio.
En tant que serveur MCP (Model Context Protocol) complet, vous pouvez également accorder à n’importe quel client compatible MCP l’accès à vos outils. De plus, il est livré avec plus de 20 plugins natifs pour Mail, Calendrier, Vision, Utilisation de macOS, XLSX, PPTX, Navigateur, Musique, Git, Système de fichiers, Recherche, Récupération, etc.
Plus récemment, Osaurus a été mis à jour pour inclure également des fonctionnalités vocales.
Depuis que le projet a été lancé il y a près d’un an, il a été téléchargé plus de 112 000 fois, selon son site Internet.
Actuellement, les fondateurs d’Osaurus (dont le co-fondateur Sam Yoo) participent à l’Alliance des accélérateurs de startups basée à New York. Ils réfléchissent également aux prochaines étapes, qui pourraient voir Osaurus être proposé aux entreprises, comme celles du secteur juridique ou du secteur de la santé, où la gestion de LLM locaux pourrait répondre aux problèmes de confidentialité.
À mesure que la puissance des modèles d’IA locaux augmente, l’équipe pense que cela pourrait réduire la demande de centres de données d’IA.
« Nous assistons à cette croissance explosive dans le domaine de l’IA où (les fournisseurs d’IA cloud) doivent évoluer en utilisant des centres de données et des infrastructures, mais nous avons l’impression que les gens n’ont pas encore vraiment vu la valeur de l’IA locale », a déclaré Pae. « Au lieu de s’appuyer sur le cloud, ils peuvent déployer un Mac Studio sur site, et il devrait consommer beaucoup moins d’énergie. Vous disposez toujours des capacités du cloud, mais vous ne dépendrez pas d’un centre de données pour pouvoir exécuter cette IA », a-t-il ajouté.
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

