Jeudi, OpenAI a annoncé la sortie d’une version allégée de son outil de codage agent Codex, le dernier modèle dont OpenAI a été lancé plus tôt ce mois-ci. GPT-5.3-Codex-Spark est décrit par la société comme une « version plus petite » de ce modèle, conçue pour une inférence plus rapide. Pour alimenter cette inférence, OpenAI a fait appel à une puce dédiée de son partenaire matériel Cerebras, marquant un nouveau niveau d’intégration dans l’infrastructure physique de l’entreprise.
Le partenariat entre Cerebras et OpenAI a été annoncé le mois dernier, lorsqu’OpenAI a annoncé avoir conclu un accord pluriannuel avec l’entreprise d’une valeur de plus de 10 milliards de dollars. « L’intégration de Cerebras dans notre combinaison de solutions informatiques vise à faire en sorte que notre IA réagisse beaucoup plus rapidement », avait déclaré la société à l’époque. Désormais, OpenAI appelle Spark la « première étape » de cette relation.
Spark, qui, selon OpenAI, est conçu pour une collaboration rapide en temps réel et une « itération rapide », sera alimenté par le Wafer Scale Engine 3 de Cerebras. Le WSE-3 est la mégapuce à l’échelle d’une tranche de troisième génération de Cerebras, dotée de 4 000 milliards de transistors. OpenAI décrit le nouvel outil léger comme un « moteur de productivité quotidien, aidant les utilisateurs avec un prototypage rapide » plutôt que comme les tâches plus longues et plus lourdes pour lesquelles la version 5.3 d’origine est conçue. Spark bénéficie actuellement d’un aperçu de recherche pour les utilisateurs de ChatGPT Pro dans l’application Codex.
Dans un tweet précédant l’annonce, le PDG Sam Altman a semblé faire allusion au nouveau modèle. « Nous avons une nouveauté spéciale qui sera lancée aux utilisateurs du Codex sur le plan Pro plus tard dans la journée », a tweeté Altman. « Cela me procure de la joie. »
Dans sa déclaration officielle, OpenAI a souligné que Spark était conçu pour la latence la plus faible possible sur le Codex. « Codex-Spark est la première étape vers un Codex qui fonctionne selon deux modes complémentaires : une collaboration en temps réel lorsque vous souhaitez une itération rapide et des tâches de longue durée lorsque vous avez besoin d’un raisonnement et d’une exécution plus approfondis », a expliqué OpenAI. La société a ajouté que les puces de Cerebras excellaient dans l’assistance « aux flux de travail qui exigent une latence extrêmement faible ».
Cerebras existe depuis plus d’une décennie mais, à l’ère de l’IA, elle joue un rôle de plus en plus important dans l’industrie technologique. La semaine dernière, la société a annoncé avoir levé 1 milliard de dollars de nouveaux capitaux, pour une valorisation de 23 milliards de dollars. La société a déjà annoncé son intention de procéder à une introduction en bourse.
« Ce qui nous passionne le plus à propos de GPT-5.3-Codex-Spark, c’est le partenariat avec OpenAI et la communauté des développeurs pour découvrir ce que l’inférence rapide rend possible : de nouveaux modèles d’interaction, de nouveaux cas d’utilisation et une expérience de modèle fondamentalement différente », a déclaré Sean Lie, CTO et co-fondateur de Cerebras, dans un communiqué. « Cet aperçu n’est que le début. »
Événement Techcrunch
Boston, Massachusetts
|
23 juin 2026

