Les géants de la technologie investissent des milliards de dollars dans la puissance de calcul pour former des modèles d’IA de pointe, mais DeepSeek en Chine a obtenu des résultats comparables en travaillant de manière plus intelligente et non plus durement. Le modèle d’IA DeepSeek V3.2 est à la hauteur du GPT-5 d’OpenAI en termes de performances de raisonnement malgré l’utilisation de « moins de FLOPs totaux d’entraînement » – une percée qui pourrait remodeler la façon dont l’industrie pense à la construction d’une intelligence artificielle avancée.
Pour les entreprises, cette avancée démontre que les capacités d’IA de pointe ne nécessitent pas nécessairement des budgets de calcul de pointe. La disponibilité en open source de DeepSeek V3.2 permet aux organisations d’évaluer les capacités avancées de raisonnement tout en conservant le contrôle sur l’architecture de déploiement – une considération pratique alors que l’efficacité coût-revenu devient de plus en plus centrale aux stratégies d’adoption de l’IA.
Le laboratoire basé à Hangzhou a publié deux versions le lundi : DeepSeek V3.2 de base et DeepSeek-V3.2-Speciale, cette dernière ayant obtenu des performances dignes d’une médaille d’or aux Olympiades Internationales de Mathématiques et aux Olympiades Internationales d’Informatique en 2025 – des benchmarks atteints précédemment uniquement par des modèles internes non publiés de grandes entreprises d’IA américaines.
Cette réalisation est particulièrement significative étant donné l’accès limité de DeepSeek à des puces semi-conductrices avancées en raison des restrictions à l’exportation.
Efficacité des ressources comme avantage concurrentiel
L’exploit de DeepSeek contredit l’hypothèse prédominante de l’industrie selon laquelle les performances de l’IA de pointe nécessitent une grande mise à l’échelle des ressources de calcul. L’entreprise attribue cette efficacité à des innovations architecturales, en particulier DeepSeek Sparse Attention (DSA), qui réduit considérablement la complexité de calcul tout en préservant les performances du modèle.
Le modèle d’IA de base DeepSeek V3.2 a obtenu une précision de 93,1 % sur les problèmes de mathématiques de l’AIME 2025 et un classement Codeforces de 2386, le plaçant aux côtés du GPT-5 en termes de benchmarks de raisonnement.
La variante Speciale a été encore plus réussie, obtenant 96,0 % à l’American Invitational Mathematics Examination (AIME) 2025, 99,2 % au Harvard-MIT Mathematics Tournament (HMMT) de février 2025, et a obtenu une performance de médaille d’or aux Olympiades Internationales de Mathématiques et aux Olympiades Internationales d’Informatique de 2025.
Les résultats sont particulièrement significatifs étant donné l’accès limité de DeepSeek aux tarifs douaniers et aux restrictions à l’exportation affectant la Chine. Le rapport technique révèle que l’entreprise a alloué un budget computationnel post-entraînement dépassant 10 % des coûts de pré-entraînement – un investissement substantiel qui a permis des capacités avancées grâce à l’optimisation de l’apprentissage par renforcement plutôt qu’à une mise à l’échelle brute.
Innovation technique pour une efficacité accrue
Le mécanisme DSA représente un écart par rapport aux architectures d’attention traditionnelles. Au lieu de traiter tous les tokens avec une intensité de calcul égale, DSA utilise un « indexeur éclair » et un mécanisme de sélection de jetons finement granulaire qui identifie et traite uniquement les informations les plus pertinentes pour chaque requête.
Cette approche réduit la complexité de l’attention de base de O(L²) à O(Lk), où k représente le nombre de jetons sélectionnés – une fraction de la longueur totale de la séquence L. Lors du pré-entraînement continu à partir du point de contrôle DeepSeek-V3.1-Terminus, l’entreprise a formé DSA sur 943,7 milliards de jetons en utilisant 480 séquences de 128K jetons par étape d’entraînement.
L’architecture introduit également une gestion contextuelle adaptée aux scénarios d’appel d’outils. Contrairement aux modèles de raisonnement précédents qui ont rejeté le contenu de réflexion après chaque message de l’utilisateur, le modèle d’IA DeepSeek V3.2 conserve des traces de raisonnement lorsque seuls des messages liés à l’outil sont ajoutés, améliorant ainsi l’efficacité des jetons dans les flux de travail d’agents multi-tours en éliminant les raisonnements redondants.
Applications en entreprise et performances pratiques
Pour les organisations évaluant la mise en œuvre de l’IA, l’approche de DeepSeek offre des avantages concrets au-delà des scores de référence. Sur Terminal Bench 2.0, qui évalue les capacités de flux de travail de codage, DeepSeek V3.2 a obtenu une précision de 46,4 %.
Le modèle a obtenu 73,1 % sur SWE-Verified, un benchmark de résolution de problèmes d’ingénierie logicielle, et 70,2 % sur SWE Multilingue, démontrant ainsi son utilité pratique dans les environnements de développement.
Dans les tâches agentic nécessitant l’utilisation autonome d’outils et le raisonnement à plusieurs étapes, le modèle a montré des améliorations significatives par rapport aux systèmes open source précédents. L’entreprise a développé un pipeline de synthèse de tâches agentic à grande échelle qui a généré plus de 1 800 environnements distincts et 85 000 prompts complexes, permettant au modèle de généraliser des stratégies de raisonnement à des scénarios d’utilisation d’outils inconnus.
DeepSeek a rendu le modèle de base V3.2 open source sur Hugging Face, permettant aux entreprises de l’implémenter et de le personnaliser sans dépendre des fournisseurs. La variante Speciale reste accessible uniquement via API en raison de besoins plus élevés en jetons – un compromis entre performances maximales et efficacité de déploiement.
Implications pour l’industrie et reconnaissance
La sortie a suscité de nombreuses discussions au sein de la communauté de recherche en IA. Susan Zhang, ingénieur de recherche principal chez Google DeepMind, a salué la documentation technique détaillée de DeepSeek, mettant en avant spécifiquement le travail de l’entreprise pour stabiliser les modèles après l’entraînement et améliorer les capacités agentic.
Le timing avant la Conférence sur les Systèmes d’Information Neuronale a amplifié l’attention. Florian Brand, un expert de l’écosystème chinois de l’IA en open source participant à NeurIPS à San Diego, a noté la réaction immédiate : « Tous les groupes de discussion étaient pleins aujourd’hui après l’annonce de DeepSeek. »
Limitations reconnues et voie de développement
Le rapport technique de DeepSeek aborde les lacunes actuelles par rapport aux modèles de pointe. L’efficacité des jetons reste un défi – le modèle d’IA DeepSeek V3.2 nécessite généralement des trajectoires de génération plus longues pour atteindre la qualité de production de systèmes comme Gemini 3 Pro. L’entreprise reconnaît également que la largeur de la connaissance du monde est en retard par rapport aux modèles propriétaires de premier plan en raison d’une puissance de calcul totale d’entraînement plus faible.
Les priorités de développement futures incluent l’augmentation des ressources computationnelles de pré-entraînement pour étendre la connaissance du monde, l’optimisation de l’efficacité des chaînes de raisonnement pour améliorer l’utilisation des jetons, et le perfectionnement de l’architecture de base pour les tâches complexes de résolution de problèmes.
Pour en savoir plus sur l’IA et le big data grâce aux leaders de l’industrie, consultez l’AI & Big Data Expo qui se déroule à Amsterdam, en Californie et à Londres. Cet événement complet fait partie de TechEx et est co-localisé avec d’autres événements technologiques de premier plan. AI News est alimenté par TechForge Media. Découvrez d’autres événements technologiques d’entreprise à venir et des webinaires ici.


