
Habituellement, c’est à Nvidia que les autres sociétés doivent faire face. Pas l’inverse. Mais mardi, le fabricant de puces, estimé à 4 000 milliards de dollars, a fait quelque chose d’inhabituel. X est venu se défendre publiquement suite à des informations selon lesquelles Meta, l’un de ses plus gros clients, envisageait de déplacer une partie de son infrastructure d’IA vers les propres puces de Google, appelées TPU.
L’action Nvidia a chuté de plus de 2,5 % à l’approche de la clôture, entraînant des mouvements défensifs, tandis que l’action Alphabet a augmenté pour la troisième journée consécutive, soutenue par les éloges de son nouveau modèle Gemini 3, qui a reçu les éloges d’éminents technologues tels que le PDG de Salesforce, Marc Benioff.
L’impulsion était un rapport dans The Information alléguant que Google vendait ses puces d’IA, connues sous le nom de TPU, à des sociétés extérieures, dont Meta et plusieurs grandes institutions financières. Google loue déjà ces puces à ses clients via ses services cloud, mais étendre l’utilisation des TPU aux propres centres de données des clients augmenterait considérablement la concurrence avec Nvidia.
Cela a suffi à bouleverser non seulement Wall Street mais aussi NVIDIA elle-même.
Dans un article sur X, Nvidia a déclaré : « Nous sommes enthousiasmés par le succès de Google. Google fait de grands progrès en matière d’IA et nous continuerons à fournir des services à Google. Nvidia a une génération d’avance sur l’industrie. Nous sommes la seule plate-forme à exécuter n’importe quel modèle d’IA et à l’exécuter partout où le calcul a lieu. »
Ce n’est pas difficile à lire entre les lignes. Les TPU de Google gagnent peut-être du terrain, mais Nvidia veut que les investisseurs et les clients sachent qu’il pense toujours que c’est imparable.
Brian Kursmank, gestionnaire de portefeuille baissier chez GQG Partners, a prédit ce moment. Dans une interview accordée au magazine Fortune la semaine dernière, il a prévenu que l’industrie commençait à considérer les puces de Google comme une alternative viable.
« Je pense que cela a été très discret dans les médias, mais c’est intéressant, Alphabet a déclaré que le modèle Gemini 3 de Google utilise ses propres TPU pour entraîner ce modèle », a déclaré Kersmank. « L’argument de Nvidia est donc qu’ils sont présents sur toutes les plateformes, mais (Google), qui est probablement la société d’IA la plus performante aujourd’hui, n’utilisait même pas de GPU pour entraîner ses derniers modèles. »
Pourquoi Google redevient soudainement pertinent
Pendant la majeure partie de la dernière décennie, les puces d’IA de Google ont été traitées comme des outils internes intelligents, rapides, efficaces et étroitement intégrés aux propres systèmes de Google, mais n’ont jamais constitué une menace réelle pour les GPU à usage général de Nvidia, qui contrôlent plus de 90 % du marché des accélérateurs d’IA.
Une partie est architecturale. Un TPU est un ASIC, une puce personnalisée optimisée pour des charges de travail limitées. Nvidia a souligné ce contraste dans son article X.
« Nvidia offre des performances, une polyvalence et une substituabilité supérieures par rapport aux ASIC », déclare la société, positionnant ses GPU comme une option à usage général capable de former et d’exécuter n’importe quel modèle dans des environnements cloud, sur site et en périphérie. Nvidia pointe également du doigt sa dernière architecture Blackwell, affirmant avoir encore une génération d’avance dans ce domaine.
Mais depuis un mois, l’ambiance a changé. Le Gemini 3 de Google (entièrement formé sur les TPU) a reçu de nombreux éloges, certains le qualifiant de comparable aux meilleurs modèles d’OpenAI. Et l’idée que Meta pourrait déployer des TPU directement dans ses propres centres de données, réduisant ainsi sa dépendance aux GPU Nvidia dans le cadre de la pile, signale un changement potentiel que les investisseurs soupçonnent depuis longtemps mais n’ont pas vu se concrétiser.
Pendant ce temps, la bataille de Berry s’intensifie
La posture défensive ne se limitait pas à Google. En coulisses, Nvidia se bat également discrètement sur un autre front. C’est une querelle croissante avec Michael Burry, l’investisseur célèbre pour avoir prédit le krach immobilier de 2008 et personnage central du classique de Michael Lewis, The Big Short.
Après que Burry ait publié une série d’avertissements comparant le boom actuel de l’IA aux bulles Internet et télécom (arguant que NVIDIA, le Cisco de ce cycle et qui fournit également le matériel de construction, signifie qu’il pourrait être soumis à des révisions intensives), le fabricant de puces a fait circuler une note de sept pages aux analystes de Wall Street réfutant spécifiquement ses affirmations. Burley lui-même a révélé un mémo sur Substack.
Barry a accusé l’entreprise de rémunération excessive à base d’actions, de calendriers d’amortissement gonflés qui donnent l’impression que les centres de données de construction sont plus rentables et de permettre un « financement cyclique » dans l’écosystème des startups de l’IA. Dans une note, Nvidia a rétracté ses affirmations ligne par ligne.
« NVIDIA ne ressemble en rien à une fraude comptable historique, car les activités sous-jacentes de NVIDIA sont financièrement saines, nos rapports sont complets et transparents et nous apprécions notre réputation d’intégrité », a déclaré la société dans une note rapportée pour la première fois par Barron’s.

