Services Agents IA Savoir Faire Références Actualités Contact
Logo DeepSeek (baleine indigo) à côté du wordmark deepseek et V4 sur fond bleu nuit
News IA

DeepSeek V4 : entraîné 100 % sur Huawei Ascend, sans NVIDIA

DeepSeek lance V4 en preview, premier modèle d'envergure entraîné 100 % sur puces Huawei Ascend, avec une politique tarifaire agressive et un contexte long. Premier signal de découplage technologique pour les acheteurs IA français.

7 min de lecture Benoit Charlier
Guide complet : News IA

DeepSeek vient de lancer V4 en preview, et la nouvelle dépasse largement le simple lancement d'un nouveau modèle de langage. C'est la première fois qu'un modèle d'envergure mondiale est entraîné 100 % sur des puces chinoises Huawei Ascend, sans aucune dépendance à NVIDIA. Ajoutez à cela une politique tarifaire agressive et un contexte long, et vous tenez le signal le plus net du découplage technologique sino-américain depuis 2024.

Pour les dirigeants français qui choisissent leur stack IA en 2026, ce lancement n'est pas une anecdote. Il rebat les cartes du rapport prix-performance, ouvre une voie de sortie crédible à la dépendance NVIDIA, et pose la question stratégique : faut-il diversifier vers des modèles chinois maintenant que la qualité y est ?

Premier modèle d'envergure entraîné sans NVIDIA

Le tour de force technique mérite d'être pris au sérieux. Jusqu'à présent, tous les modèles frontières (GPT-5.5, Claude Opus 4.7, Gemini, Llama) reposaient sur des clusters NVIDIA H100, H200 ou Blackwell. Même les acteurs chinois passaient par NVIDIA quand ils le pouvaient, en contournant les restrictions à l'export américaines.

DeepSeek a fait l'inverse : assumer dès le départ une chaîne 100 % chinoise. V4 a été entraîné sur des puces Huawei Ascend 910B (et probablement leur successeur 910C en cours de déploiement), en utilisant la stack logicielle MindSpore plutôt que CUDA. Ce n'est pas un proof of concept de quelques milliards de paramètres : V4 joue dans la même catégorie que les modèles US de référence.

Puce Huawei Ascend en gros plan

Le précédent existait déjà avec GLM-5.1 de Z.ai sur Ascend, mais DeepSeek franchit un cap : un modèle généraliste, multilingue, optimisé pour le coding et le raisonnement, livré directement sur l'écosystème chinois. Pour Huawei, c'est une validation industrielle majeure de leur architecture Da Vinci, et un argument commercial fort pour vendre Ascend aux clouds chinois et asiatiques.

Une politique tarifaire qui casse le marché

L'autre signal fort, c'est le pricing. DeepSeek, déjà connu pour V3 et ses tarifs très bas, pousse encore plus loin avec V4. Le prix par million de tokens est plusieurs fois inférieur à celui des équivalents américains, et la grille incite explicitement à un usage en agent autonome (consommation massive de tokens en interne).

Comparaison de prix entre modèles US et chinois

Cette politique tarifaire s'inscrit dans un contexte précis. Quelques jours plus tôt, OpenAI a triplé les prix API avec GPT-5.5, justifiant ce surcoût par les capacités d'agent autonome. DeepSeek prend l'angle opposé : le même type de capacités, mais à un prix qui rend l'agent économiquement viable même sur des cas d'usage à faible valeur unitaire.

Pour une PME qui fait tourner un agent commercial à 200 € par mois en API GPT-5.4, le surcoût de migration vers GPT-5.5 frôle les 700 €. Avec DeepSeek V4, l'addition pourrait rester sous les 100 €. C'est un changement d'ordre de grandeur qui rouvre des cas d'usage que la hausse OpenAI avait fermés. Cette logique, on l'avait anticipée dans notre analyse du budget agent IA en 2026 : la stratégie hybride multi-modèles devient incontournable.

Contexte long et performances

Côté capacités techniques, DeepSeek V4 mise sur trois axes. Un contexte long (l'ordre de grandeur annoncé est de 256 K tokens, suffisant pour traiter des bases documentaires entières en un seul appel). Un raisonnement amélioré sur les tâches mathématiques et de coding, où DeepSeek a historiquement été en tête sur les benchmarks open source. Un fine-tuning multilingue qui inclut un travail sérieux sur le français, le japonais et le coréen, là où DeepSeek V3 était parfois critiqué pour sa préférence anglais/chinois.

Les premiers retours communautaires sur la preview indiquent des performances comparables à Claude Sonnet 4.6 sur le coding et à Llama 4 405B sur le raisonnement général. Sur SWE-bench, V4 se situerait autour de 84 %, soit à quelques points de GPT-5.5 et Claude Opus 4.7. Pour un modèle entraîné sans NVIDIA et facturé 5 à 10 fois moins cher, le rapport qualité-prix est inédit.

Le découplage technologique sino-américain accéléré

Le sens géopolitique de cette release dépasse la tech. Depuis 2022, les États-Unis ont multiplié les restrictions à l'export des puces NVIDIA vers la Chine. Pendant deux ans, la réponse chinoise s'est focalisée sur le contournement : import via Singapour, achat de puces grand public, optimisation logicielle pour faire tourner les modèles sur du matériel sous-dimensionné.

Découplage technologique sino-américain

DeepSeek V4 marque un changement de phase : la Chine n'a plus besoin de NVIDIA pour produire des modèles compétitifs. Huawei Ascend a atteint un niveau de maturité industrielle où l'écart de performance se mesure désormais en pourcentages, plus en facteurs. Combiné aux progrès logiciels (MindSpore, CANN, l'écosystème open source chinois), ça donne à la Chine une autonomie complète sur la chaîne IA.

Pour les pays tiers, dont la France, ce découplage crée un choix nouveau. Jusqu'ici, "modèle américain ou modèle européen" était la seule alternative pratique. À partir de maintenant, la stack chinoise devient une option viable : moins chère, performante, ouverte (DeepSeek est open source). Le revers : des questions de souveraineté, de dépendance à un acteur extra-européen, et de conformité AI Act à 3 mois de l'échéance.

Notre avis chez RedArrow

DeepSeek V4 ne va pas remplacer Claude ou GPT-5.5 dans nos déploiements pour clients français B2B. Les raisons sont simples : la conformité AI Act, le RGPD, l'hébergement des données, et la traçabilité des décisions favorisent encore les modèles US ou européens (Mistral) pour les usages métier sensibles. Hébergez votre agent commercial sur DeepSeek, et vous devrez documenter en détail pourquoi vous avez choisi un modèle chinois face à un auditeur ou un grand compte client.

Mais ce serait une erreur d'ignorer V4. Il devient un excellent modèle de bench dans les architectures multi-modèles que nous mettons en place. Dans une logique de routing intelligent, certaines tâches peuvent légitimement basculer sur DeepSeek : génération de code interne, traitement de documents non sensibles, expérimentation en R&D, prototypage. Le rapport prix-performance ouvre des cas d'usage qui n'étaient pas viables auparavant.

L'autre lecture stratégique : la pression tarifaire que DeepSeek met sur OpenAI et Anthropic va forcer ces deux derniers à réagir. Soit par une baisse de prix sur certains tiers (Haiku 4.5 et GPT-5.5 mini ont déjà commencé), soit par un découplage encore plus marqué sur les capacités d'agent. Pour l'acheteur final, c'est plutôt une bonne nouvelle. À court terme, on conseille à nos clients de tester DeepSeek V4 sur un cas d'usage non critique pour mesurer concrètement ce que ça peut apporter, sans s'y engager pour les workflows production.

FAQ

DeepSeek V4 est-il vraiment meilleur que GPT-5.5 ou Claude Opus 4.7 ?

Non, pas en absolu. Sur les benchmarks de référence (SWE-bench, MMLU, raisonnement complexe), V4 se situe quelques points en dessous des leaders américains. Mais il joue dans la même catégorie, et son prix très bas en fait une option intéressante pour des usages où la performance pure n'est pas le seul critère. Pour des workflows agents où le volume de tokens est élevé, V4 peut diviser la facture par 5 sans dégradation visible côté utilisateur.

Peut-on utiliser DeepSeek pour des données sensibles en entreprise française ?

Pas en l'état pour des données confidentielles. L'API officielle DeepSeek est hébergée en Chine, ce qui pose des questions RGPD et de souveraineté qui ne sont pas résolues. Pour un usage avec données sensibles, il faut soit attendre une offre européenne hébergeant le modèle (Hugging Face, OVHcloud, Scaleway proposent déjà DeepSeek V3 sur leurs infrastructures), soit déployer V4 en self-hosted sur votre propre cluster GPU.

Qu'est-ce que ça change pour les acheteurs publics français ?

Beaucoup. La stratégie ANSSI 2026-2030 et les obligations AI Act privilégient déjà des fournisseurs européens souverains. L'arrivée de DeepSeek V4 ne va pas inverser cette tendance, mais elle complique les décisions des acheteurs qui veulent à la fois souveraineté et compétitivité. La probable réponse à 12 mois : une accélération du soutien public à Mistral et OVHcloud pour qu'ils égalent le rapport prix-performance de V4 sans sortir du cadre européen.

Conclusion

DeepSeek V4 marque un tournant que les acheteurs IA français ne peuvent plus ignorer : la Chine produit désormais des modèles compétitifs sans NVIDIA, à un prix qui casse le marché. Pour les PME et ETI, cela ne signifie pas qu'il faut migrer demain, mais que la cartographie des fournisseurs IA s'élargit pour de bon. Les architectures multi-modèles, déjà recommandées pour absorber la hausse de GPT-5.5, deviennent encore plus pertinentes avec un acteur chinois en compétition frontale.

Vous voulez auditer votre stack IA et comprendre où DeepSeek, Mistral, Claude ou GPT-5.5 ont leur place dans votre architecture ? Discutons-en. On vous donne en une heure une cartographie multi-modèles adaptée à vos cas d'usage et à vos contraintes de conformité.

Source : Fortune : DeepSeek V4, le modèle IA chinois qui défie NVIDIA.

Agent commercial IAAgent IA entrepriseAutomatisation n8nChatbot IAE-commerce IAFormation IAGEOMulti-canaln8nQualification leadsRAGRGPDROISEO intelligentSite vitrineSite web IASupport client IAWhatsApp Business