Plus tôt cette semaine, cinq personnes qui touchent tous les niveaux de la chaîne d’approvisionnement de l’IA se sont assises à la Milken Global Conference à Beverly Hills, où elles ont discuté avec cet éditeur de tout, des pénuries de puces aux centres de données orbitaux en passant par la possibilité que toute l’architecture qui sous-tend la technologie soit fausse.
Sur scène avec TechCrunch : Christophe Fouquet, PDG d’ASML, la société néerlandaise qui détient le monopole des machines de lithographie extrême ultraviolet sans lesquelles les puces modernes n’existeraient pas ; Francis deSouza, COO de Google Cloud, qui supervise l’un des plus gros paris sur les infrastructures de l’histoire de l’entreprise ; Qasar Younis, co-fondateur et PDG d’Applied Intuition, une société d’IA physique de 15 milliards de dollars qui a débuté dans la simulation et s’est depuis tournée vers la défense ; Dimitry Shevelenko, directeur commercial de Perplexity, la société de recherche d’agents basée sur l’IA ; et Eve Bodnia, une physicienne quantique qui a quitté le monde universitaire pour remettre en question l’architecture fondamentale que la plupart de l’industrie de l’IA tient pour acquise dans sa startup, Logical Intelligence. (L’ancien scientifique en chef de l’IA de Meta, Yan LeCun, a signé en tant que président fondateur de son conseil de recherche technique plus tôt cette année.)
Voici ce que les cinq avaient à dire :
Les goulots d’étranglement sont réels
Le boom de l’IA se heurte à des limites physiques strictes, et les contraintes commencent plus loin que beaucoup ne le pensent. Fouquet a été le premier à le dire, décrivant une « énorme accélération de la fabrication de puces », tout en exprimant sa « ferme conviction » que malgré tous ces efforts, « pendant les deux, trois, peut-être cinq années à venir, l’offre du marché sera limitée », ce qui signifie que les hyperscalers – Google, Microsoft, Amazon, Meta – n’obtiendront pas toutes les puces pour lesquelles ils paient, point final.
DeSouza a souligné l’ampleur – et la rapidité de croissance – d’un problème, rappelant au public que les revenus de Google Cloud ont dépassé les 20 milliards de dollars au dernier trimestre, en croissance de 63 %, tandis que son carnet de commandes – les revenus engagés mais non encore livrés – a presque doublé en un seul trimestre, passant de 250 milliards de dollars à 460 milliards de dollars. « La demande est réelle », dit-il avec un calme impressionnant.
Pour Younis, la contrainte vient avant tout d’ailleurs. Applied Intuition construit des systèmes d’autonomie pour les voitures, les camions, les drones, les équipements miniers et les véhicules de défense, et son goulot d’étranglement n’est pas le silicium : ce sont les données que l’on ne peut collecter qu’en envoyant des machines dans le monde réel et en observant ce qui se passe. « Il faut trouver les résultats dans le monde réel », a-t-il déclaré, et aucune simulation synthétique ne comble complètement cet écart. « Il faudra beaucoup de temps avant que vous puissiez entraîner pleinement des modèles qui fonctionnent de manière synthétique sur le monde physique. »
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Le problème énergétique est également réel
Si les puces constituent le premier goulot d’étranglement, c’est l’énergie qui se profile derrière. DeSouza a confirmé que Google explore les centres de données dans l’espace comme réponse sérieuse aux contraintes énergétiques. « Vous avez accès à une énergie plus abondante », a-t-il noté. Bien sûr, même en orbite, ce n’est pas simple. DeSouza a observé que l’espace est un vide, éliminant donc la convection, laissant le rayonnement comme seul moyen d’évacuer la chaleur dans l’environnement (un processus beaucoup plus lent et plus difficile à concevoir que les systèmes de refroidissement par air et liquide sur lesquels s’appuient les centres de données aujourd’hui). Mais l’entreprise continue de le considérer comme une voie légitime.
L’argument le plus profond avancé par De Souza, sans surprise, concernait l’efficacité par l’intégration. La stratégie de Google consistant à co-ingénierier sa pile d’IA complète – depuis les puces TPU personnalisées jusqu’aux modèles et agents – rapporte des dividendes en flops par watt (plus de calculs par unité d’énergie) qu’une entreprise qui achète des composants disponibles dans le commerce ne peut tout simplement pas reproduire, a-t-il suggéré. « Faire fonctionner Gemini sur des TPU est beaucoup plus économe en énergie que toute autre configuration », car les concepteurs de puces savent ce qui se passe dans le modèle avant sa livraison, a-t-il déclaré.
Fouquet’s a fait une remarque similaire plus tard dans la discussion. « Rien ne peut avoir de prix », a-t-il déclaré. L’industrie traverse actuellement une période étrange, investissant des sommes extraordinaires de capitaux, motivées par des nécessités stratégiques. Mais plus de calcul signifie plus d’énergie, et plus d’énergie a un prix.
Une autre forme d’intelligence
Alors que le reste de l’industrie débat de l’échelle, de l’architecture et de l’efficacité de l’inférence dans le cadre du paradigme du grand modèle de langage, Bodnia construit quelque chose de très différent.
Son entreprise, Logical Intelligence, est construite sur ce qu’on appelle des modèles basés sur l’énergie (EBM), une classe d’IA qui ne prédit pas le prochain jeton dans une séquence mais tente plutôt de comprendre les règles qui sous-tendent les données, d’une manière qui, selon elle, est plus proche du fonctionnement réel du cerveau humain. « La langue est une interface utilisateur entre mon cerveau et le vôtre », a-t-elle déclaré. « Le raisonnement lui-même n’est attaché à aucune langue. »
Son plus grand modèle fonctionne avec 200 millions de paramètres – contre des centaines de milliards dans les principaux LLM – et elle affirme qu’il fonctionne des milliers de fois plus rapidement. Plus important encore, il est conçu pour mettre à jour ses connaissances à mesure que les données changent, plutôt que de nécessiter une nouvelle formation à partir de zéro.
Pour la conception de puces, la robotique et d’autres domaines dans lesquels un système doit comprendre des règles physiques plutôt que des modèles linguistiques, elle affirme que les EBM sont la solution la plus naturelle. « Lorsque vous conduisez une voiture, vous ne recherchez pas de modèles dans aucune langue. Vous regardez autour de vous, comprenez les règles du monde qui vous entoure et prenez une décision. » C’est un argument intéressant et susceptible d’attirer davantage d’attention dans les mois à venir, étant donné que le domaine de l’IA commence à se demander si l’échelle seule est suffisante.
Agents, garde-fous et confiance
Shevelenko a passé une grande partie de la conversation à expliquer comment Perplexity est passé d’un produit de recherche à quelque chose qu’il appelle désormais un « travailleur numérique ». Perplexity Computer, sa toute dernière offre, n’est pas conçue comme un outil utilisé par un travailleur du savoir, mais comme une équipe dirigée par un travailleur du savoir. « Chaque jour, vous vous réveillez et vous avez une centaine d’employés dans votre équipe », a-t-il déclaré à propos de cette opportunité. « Que vas-tu faire pour en profiter au maximum ? »
C’est un argumentaire convaincant ; cela soulève également des questions évidentes sur le contrôle, alors je les ai posées. Sa réponse a été : la granularité. Les administrateurs d’entreprise peuvent non seulement spécifier à quels connecteurs et outils un agent peut accéder, mais aussi si ces autorisations sont en lecture seule ou en lecture-écriture — une distinction qui est extrêmement importante lorsque les agents agissent au sein des systèmes de l’entreprise. Lorsque Comet, l’agent informatique de Perplexity, prend des mesures au nom d’un utilisateur, il présente un plan et demande d’abord son approbation. Certains utilisateurs trouvent les frictions ennuyeuses, a déclaré Shevelenko, mais il a déclaré qu’il la considérait essentielle, en particulier après avoir rejoint le conseil d’administration de Lazard, où il a déclaré qu’il s’était trouvé étonnamment sympathique aux instincts conservateurs d’un RSSI protégeant une marque vieille de 180 ans construite entièrement sur la confiance des clients. « La granularité est la base d’une bonne hygiène de sécurité », a-t-il déclaré.
La souveraineté, pas seulement la sécurité
Younis a présenté ce qui a peut-être été l’observation la plus géopolitiquement chargée du panel, à savoir que l’IA physique et la souveraineté nationale sont intriquées d’une manière que l’IA purement numérique ne l’a jamais été.
Internet s’est d’abord répandu en tant que technologie américaine et n’a été confronté à un recul qu’au niveau de la couche applicative – les Ubers et les DoorDashes – lorsque les conséquences hors ligne sont devenues visibles. L’IA physique est différente. Véhicules autonomes, drones de défense, équipements miniers, machines agricoles : ils se manifestent dans le monde réel d’une manière que les gouvernements ne peuvent ignorer, soulevant des questions sur la sécurité, la collecte de données et sur qui contrôle en fin de compte les systèmes qui fonctionnent à l’intérieur des frontières d’un pays. « Presque systématiquement, tous les pays disent : nous ne voulons pas de ces renseignements sous forme physique à nos frontières, contrôlés par un autre pays. » Moins de pays, a-t-il déclaré à la foule, sont actuellement en mesure de déployer un robot-taxi que de posséder des armes nucléaires.
Fouquet l’a formulé un peu différemment. Les progrès de l’IA en Chine sont réels – la sortie de DeepSeek plus tôt cette année ressemble à une panique dans certaines parties de l’industrie – mais ces progrès sont limités au-dessous de la couche modèle. Sans accès à la lithographie EUV, les fabricants de puces chinois ne peuvent pas fabriquer les semi-conducteurs les plus avancés, et les modèles construits sur du matériel plus ancien fonctionnent dans une situation désavantageuse, quelle que soit la qualité du logiciel. « Aujourd’hui, aux États-Unis, vous avez les données, vous avez l’accès informatique, vous avez les puces, vous avez le talent. La Chine fait un très bon travail en haut de la pile, mais il lui manque certains éléments en bas », a déclaré Fouquet.
La question de la génération
Vers la fin de notre panel, quelqu’un dans l’auditoire a posé la question évidente et inconfortable : tout cela va-t-il avoir un impact sur la capacité de pensée critique de la prochaine génération ?
Les réponses ont été optimistes, comme on peut s’y attendre de la part de personnes qui ont consacré leur carrière à cette technologie. DeSouza a immédiatement souligné l’ampleur des problèmes que des outils plus puissants pourraient enfin permettre à l’humanité de résoudre. Pensez aux maladies neurologiques dont nous ne comprenons pas encore les mécanismes biologiques, à l’élimination des gaz à effet de serre et aux infrastructures de réseau qui ont été différées pendant des décennies. « Cela devrait nous permettre d’atteindre un niveau supérieur de créativité », a-t-il déclaré.
Shevelenko a fait valoir un point plus pragmatique : le poste de débutant est peut-être en train de disparaître, mais la capacité de lancer quelque chose de manière indépendante n’a jamais été aussi accessible. « (Pour) quiconque possède Perplexity Computer… la contrainte est votre propre curiosité et votre libre arbitre. »
Younis a établi la distinction la plus nette entre le travail intellectuel et le travail physique. Il a souligné le fait que l’agriculteur américain moyen a 58 ans et que les pénuries de main-d’œuvre dans les secteurs minier, du transport routier longue distance et de l’agriculture sont chroniques et croissantes – non pas parce que les salaires sont trop bas, mais parce que les gens ne veulent pas de ces emplois. Dans ces domaines, l’IA physique ne remplace pas les travailleurs volontaires. Cela comble un vide qui existe déjà et qui ne fera que se creuser à partir de maintenant.
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

