Le laboratoire chinois d’IA DeepSeek a lancé deux versions préliminaires de son nouveau grand modèle de langage, DeepSeek V4, une mise à jour très attendue du modèle V3.2 de l’année dernière et du modèle de raisonnement R1 qui l’accompagne qui a pris d’assaut le monde de l’IA.
La société affirme que DeepSeek V4 Flash et V4 Pro sont des modèles mixtes d’experts avec des fenêtres contextuelles d’un million de jetons chacune, suffisamment pour permettre l’utilisation de bases de code ou de documents volumineux dans des invites. L’approche mixte d’experts consiste à activer uniquement un certain nombre de paramètres par tâche pour réduire les coûts d’inférence.
Le modèle Pro compte un total de 1,6 billion de paramètres (49 milliards actifs), ce qui en fait le plus grand modèle à poids ouvert disponible, devançant le Kimi K 2,6 de Moonshot AI (1,1 billion), le M1 de MiniMax (456 milliards) et plus du double de DeepSeek V3.2 (671 milliards). Le plus petit, V4 Flash, possède 284 milliards de paramètres (13 milliards actifs).
DeepSeek affirme que les deux modèles sont plus efficaces et performants que DeepSeek V3.2 en raison d’améliorations architecturales, et ont presque « réduit l’écart » avec les principaux modèles actuels, à la fois ouverts et fermés, sur les tests de raisonnement.
La société affirme que son nouveau modèle V4-Pro-Max surpasse ses pairs open source dans les tests de raisonnement et dépasse les GPT-5.2 et Gemini 3.0 Pro d’OpenAI sur certaines tâches. Lors des tests de codage de la concurrence, DeepSeek a déclaré que les performances des deux modèles V4 sont « comparables à celles de GPT-5.4 ».

Cependant, les modèles semblent être légèrement en retard dans les tests de connaissances, en particulier le GPT-5.4 d’OpenAI et le dernier Gemini 3.1 Pro de Google. Ce décalage suggère une « trajectoire de développement qui suit les modèles de pointe d’environ 3 à 6 mois », a écrit le laboratoire.
V4 Flash et V4 Pro prennent en charge uniquement le texte, contrairement à beaucoup de leurs pairs à source fermée, qui offrent une prise en charge pour la compréhension et la génération d’audio, de vidéo et d’images.
Événement Techcrunch
San Francisco, Californie
|
13-15 octobre 2026
Notamment, DeepSeek V4 est beaucoup plus abordable que n’importe quel modèle frontière disponible aujourd’hui. Le plus petit modèle V4 Flash coûte 0,14 $ par million de jetons d’entrée et 0,28 $ par million de jetons de sortie, ce qui est inférieur à GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini et Claude Haiku 4.5. Le plus grand modèle V4 Pro, quant à lui, coûte 0,145 $ par million de jetons d’entrée et 3,48 $ par million de jetons de sortie, ce qui est également inférieur à Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 et GPT-5.4.
Ce lancement intervient un jour après que les États-Unis ont accusé la Chine d’avoir volé la propriété intellectuelle des laboratoires américains d’IA à l’échelle industrielle en utilisant des milliers de comptes proxy. DeepSeek lui-même a été accusé par Anthropic et OpenAI de « distiller », essentiellement de copier, leurs modèles d’IA.
Lorsque vous achetez via des liens dans nos articles, nous pouvons gagner une petite commission. Cela n’affecte pas notre indépendance éditoriale.

