Google Cloud a annoncé mercredi que sa huitième génération de puces d’IA sur mesure, ou unités de traitement tensoriel (TPU), serait divisée en deux. Une puce, nommée TPU 8t, sera destinée à la formation de modèles et une autre, la TPU 8i, est destinée à l’inférence.
L’inférence est l’utilisation continue de modèles, c’est-à-dire ce qui se passe après que les utilisateurs ont soumis des invites.
Comme on peut s’y attendre, la société vante des spécifications de performances impressionnantes pour ces nouveaux TPU par rapport aux générations précédentes : une formation de modèles d’IA jusqu’à 3 fois plus rapide, des performances 80 % supérieures par dollar et la possibilité de faire fonctionner plus d’un million de TPU ensemble dans un seul cluster. Le résultat devrait être beaucoup plus de calcul pour beaucoup moins d’énergie (et de coûts pour les clients) que les versions précédentes. Il appelle ces puces TPU, et non GPU, car ses puces personnalisées à faible consommation s’appelaient à l’origine Tensor.
Mais les puces de Google ne constituent pas une attaque frontale contre l’avenir de Nvidia, du moins pas encore. Comme les autres fournisseurs géants de cloud, dont Microsoft et Amazon, Google utilise ces puces pour compléter les systèmes basés sur Nvidia qu’il propose dans son infrastructure. Il ne remplace pas complètement Nvidia. En fait, Google promet que son cloud sera doté de la dernière puce de Nvidia, Vera Rubin, disponible plus tard cette année.
Un jour, les hyperscalers qui construisent leurs propres puces d’IA (dont Amazon, Microsoft et Google) pourraient avoir moins besoin de Nvidia, à mesure que les entreprises déplacent leurs besoins en IA vers leurs cloud et portent leurs applications sur ces puces.
Pourtant, dans l’état actuel des choses, il n’est pas rentable de parier contre Nvidia. Comme l’a posté en plaisantant Patrick Moorhead, analyste du marché des puces, sur X, il avait prédit que le TPU de Google pourrait être une mauvaise nouvelle pour Nvidia (et Intel) en 2016, lorsque le géant de la recherche a lancé son premier. Nvidia a désormais une capitalisation boursière de près de 5 000 milliards de dollars, ce qui signifie que cette prévision n’a pas vraiment résisté à l’épreuve du temps.
Si tout se passe selon le plan de Nvidia, la croissance de Google en tant que fournisseur de cloud d’IA se traduirait par davantage d’activité pour le fabricant de puces, et non par une diminution, même si de nombreuses charges de travail s’exécutent sur les puces de Google.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
En fait, Google affirme également avoir accepté de travailler avec Nvidia pour concevoir un réseau informatique permettant aux systèmes basés sur Nvidia de fonctionner encore plus efficacement dans son cloud. En particulier, les deux géants de la technologie s’efforcent de renforcer la technologie de réseau logicielle appelée Falcon, que Google a créée et open source en 2023 sous le parrain de toutes les organisations de matériel de centre de données open source, l’Open Compute Project.
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

