La startup de Mira Murati, ancienne cadre d’OpenAI, Thinking Machines Lab, a signé un nouvel accord de plusieurs milliards de dollars pour étendre son utilisation de l’infrastructure d’IA de Google Cloud, y compris les systèmes alimentés par les derniers GPU de Nvidia, a appris TechCrunch en exclusivité.
L’accord est évalué à plusieurs milliards à un chiffre, selon une source proche du dossier, et comprend l’accès aux derniers systèmes d’IA de Google construits sur les nouvelles puces GB300 de Nvidia, ainsi que des services d’infrastructure pour prendre en charge la formation et le déploiement des modèles.
Google a activement conclu un certain nombre d’accords cloud avec des développeurs d’IA dans le but de regrouper ses offres cloud avec d’autres services tels que le stockage, un moteur Kubernetes et Spanner, son produit de base de données. Plus tôt ce mois-ci, Anthropic a signé un accord avec Google et Broadcom pour plusieurs gigawatts de capacité d’unités de traitement tensoriel (TPU) (il s’agit des puces d’IA conçues sur mesure par Google pour les charges de travail d’apprentissage automatique).
Mais la concurrence est rude. Cette semaine encore, Anthropic a également signé un nouvel accord avec Amazon pour obtenir jusqu’à 5 gigawatts de capacité pour la formation et le déploiement de Claude.
Plus tôt cette année, Thinking Machines s’est associé à Nvidia dans le cadre d’un accord comprenant un investissement du fabricant de puces. Mais c’est la première fois que le laboratoire conclut un accord avec un fournisseur de services cloud. L’accord n’est pas exclusif, donc Thinking Machines peut utiliser plusieurs fournisseurs de cloud au fil du temps, mais cela reste un signe que Google cherche à s’implanter rapidement dans des laboratoires frontières à croissance rapide.
Murati a quitté son poste de technologue en chef d’OpenAI et a fondé Thinking Machines en février 2025. La société, qui a levé peu après un tour de table de 2 milliards de dollars pour une valorisation de 12 milliards de dollars, est restée très secrète, mais a lancé son premier produit en octobre. Surnommé Tinker, il s’agit d’un outil qui automatise la création de modèles d’IA frontaliers personnalisés.
L’accord de mercredi a donné un aperçu de ce que Thinking Machines est en train de développer. Dans un communiqué de presse, Google a indiqué qu’il pouvait prendre en charge les charges de travail d’apprentissage par renforcement de la startup, sur lesquelles repose l’architecture de Tinker. L’apprentissage par renforcement est une approche de formation qui a soutenu les récentes percées dans les laboratoires, notamment DeepMind et OpenAI, et l’ampleur de l’accord Google Cloud reflète le coût informatique de ce travail.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Thinking Machines est l’un des premiers clients de Google Cloud à accéder à ses systèmes alimentés par GB300, qui offrent une vitesse de formation et de service 2 fois supérieure à celle des GPU de génération précédente, selon Google.
« Google Cloud nous a permis de fonctionner à une vitesse record avec la fiabilité que nous exigeons », a déclaré Myle Ott, chercheur fondateur de Thinking Machines, dans un communiqué.
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

