Google vient de faire un pas majeur dans la course aux armements pour les infrastructures d’IA, en élevant Amin Vahdat au poste de technologue en chef pour les infrastructures d’IA, un poste nouvellement créé relevant directement du PDG Sundar Pichai, selon une note interne rapportée pour la première fois par Semafor. Cela montre à quel point ce travail est devenu crucial alors que Google investit jusqu’à 93 milliards de dollars en dépenses d’investissement d’ici la fin de 2025 – un chiffre qui, selon la société mère Alphabet, sera bien plus important l’année prochaine.
Vahdat n’est pas nouveau dans le jeu. L’informaticien, titulaire d’un doctorat de l’Université de Berkeley et qui a débuté comme stagiaire de recherche chez Xerox PARC au début des années 90, a tranquillement construit l’épine dorsale de l’IA de Google au cours des 15 dernières années. Avant de rejoindre Google en 2010 en tant qu’ingénieur et vice-président, il a été professeur associé à l’Université Duke, puis professeur et titulaire de la chaire SAIC à l’UC San Diego. Ses diplômes universitaires sont formidables – avec ce qui semble être environ 395 articles publiés – et ses recherches ont toujours été axées sur l’amélioration de l’efficacité des ordinateurs à grande échelle.
Vahdat jouit déjà d’une grande notoriété auprès de Google. Il y a à peine huit mois, lors de Google Cloud Next, il a dévoilé le TPU de septième génération de l’entreprise, appelé Ironwood, en tant que vice-président et directeur général du ML, des systèmes et de l’IA cloud. Les spécifications qu’il a présentées lors de l’événement étaient également stupéfiantes : plus de 9 000 puces par module délivrant 42,5 exaflops de calcul, soit plus de 24 fois la puissance du supercalculateur n°1 mondial à l’époque, a-t-il déclaré. « La demande en matière de calcul IA a été multipliée par 100 millions en seulement huit ans », a-t-il déclaré au public.
Dans les coulisses, comme l’a noté Semafor, Vahdat a orchestré le travail peu glamour et essentiel qui maintient Google compétitif, y compris ces puces TPU personnalisées pour la formation et l’inférence de l’IA qui donnent à Google un avantage sur des concurrents comme OpenAI ainsi que sur le réseau Jupiter, le réseau interne ultra-rapide qui permet à tous ses serveurs de communiquer entre eux et de déplacer d’énormes quantités de données. (Dans un article de blog à la fin de l’année dernière, Vahdat a déclaré que Jupiter évoluait désormais à 13 pétabits par seconde, expliquant que c’était une bande passante suffisante pour théoriquement prendre en charge un appel vidéo pour les 8 milliards de personnes sur Terre simultanément.) Il s’agit de la plomberie invisible qui relie tout, depuis YouTube et la recherche jusqu’aux opérations massives de formation en IA de Google sur des centaines de structures de centres de données dans le monde.
Vahdat a également été profondément impliqué dans le développement en cours du système logiciel Borg, le système de gestion de cluster de Google qui agit comme le cerveau coordonnant tout le travail effectué dans ses centres de données et dont le travail consiste à déterminer quels serveurs doivent exécuter quelles tâches, quand et pendant combien de temps. Et il a déclaré qu’il avait supervisé le développement d’Axion, le premier processeur à usage général personnalisé basé sur Arm de Google, conçu pour les centres de données, que la société a dévoilé l’année dernière et continue de construire.
En bref, Vahdat est au cœur de l’histoire de l’IA de Google.
En effet, dans un marché où les meilleurs talents en IA bénéficient d’une rémunération astronomique et d’un recrutement constant, la décision de Google d’élever Vahdat au rang de direction peut également être une question de rétention. Lorsque vous avez passé 15 ans à faire d’une personne un pilier de votre stratégie d’IA, vous vous assurez qu’elle reste.
Événement Techcrunch
San Francisco
|
13-15 octobre 2026

