Nvidia a annoncé lundi de nouveaux modèles d’infrastructure et d’IA alors qu’elle s’efforce de construire la technologie de base pour l’IA physique, y compris des robots et des véhicules autonomes capables de percevoir et d’interagir avec le monde réel.
Le géant des semi-conducteurs a annoncé Alpamayo-R1, un modèle de langage de vision de raisonnement ouvert pour la recherche sur la conduite autonome lors de la conférence NeurIPS AI à San Diego, en Californie. La société affirme qu’il s’agit du premier modèle d’action en langage visuel axé sur la conduite autonome. Les modèles de langage visuel peuvent traiter à la fois le texte et les images, permettant aux véhicules de « voir » leur environnement et de prendre des décisions en fonction de ce qu’ils perçoivent.
Ce nouveau modèle est basé sur le modèle Cosmos-Reason de Nvidia, un modèle de raisonnement qui réfléchit aux décisions avant de réagir. Nvidia a initialement lancé la famille de modèles Cosmos en janvier 2025. Des modèles supplémentaires ont été lancés en août.
Une technologie comme l’Alpamayo-R1 est essentielle pour les entreprises qui cherchent à atteindre le niveau 4 de conduite autonome, ce qui signifie une autonomie totale dans une zone définie et dans des circonstances spécifiques, a déclaré Nvidia dans un article de blog.
Nvidia espère que ce type de modèle de raisonnement donnera aux véhicules autonomes le « bon sens » nécessaire pour mieux aborder les décisions de conduite nuancées comme le font les humains.
Ce nouveau modèle est disponible sur GitHub et Hugging Face.
Parallèlement au nouveau modèle de vision, Nvidia a également mis en ligne de nouveaux guides étape par étape, des ressources d’inférence et des flux de travail post-formation sur GitHub – collectivement appelés Cosmos Cookbook – pour aider les développeurs à mieux utiliser et former les modèles Cosmos pour leurs cas d’utilisation spécifiques. Le guide couvre la conservation des données, la génération de données synthétiques et l’évaluation des modèles.
Événement Techcrunch
San Francisco
|
13-15 octobre 2026
Ces annonces interviennent alors que la société s’oriente à toute vitesse vers l’IA physique comme nouvelle voie pour ses GPU IA avancés.
Le co-fondateur et PDG de Nvidia, Jensen Huang, a déclaré à plusieurs reprises que la prochaine vague d’IA serait l’IA physique. Bill Dally, scientifique en chef de Nvidia, a fait écho à ce sentiment lors d’une conversation avec TechCrunch au cours de l’été, mettant l’accent sur l’IA physique dans la robotique.
« Je pense qu’à terme, les robots deviendront un acteur majeur dans le monde et nous voulons essentiellement fabriquer le cerveau de tous les robots », avait déclaré Dally à l’époque. « Pour y parvenir, nous devons commencer à développer les technologies clés. »
Découvrez les dernières révélations sur tout, de l’IA agentique et de l’infrastructure cloud à la sécurité et bien plus encore, lors de l’événement phare Amazon Web Services à Las Vegas. Cette vidéo vous est présentée en partenariat avec AWS.

