DeepSeek-V3 : l’IA chinoise qui va plus vite qu’OpenAI sur Mac…

L’intelligence artificielle n’a pas fini de faire parler d’elle, surtout lorsqu’une startup chinoise met la pression sur les géants américains. DeepSeek, vient de lancer sa dernière version : DeepSeek-V3, un grand modèle de langage open-source qui tourne à… 20 tokens par seconde en local sur un Mac Studio M2 Ultra. Oui, vous avez bien lu : pas dans le cloud, pas sur un cluster NVIDIA A100, mais sur une machine que l’on peut techniquement se procurer chez Apple Store. Et c’est là que les choses deviennent gênantes pour OpenAI.
DeepSeek n’en est pas à son coup d’essai. Après la version V2, la startup revient avec un modèle 236 milliards de paramètres en mélange d’experts (MoE, ou Mixture of Experts), optimisé pour la vitesse et la légèreté sans faire trop de compromis sur la qualité. Le modèle utilise une stratégie technique bien connue mais rarement aussi bien exécutée : à chaque étape de génération de texte, seuls 2 experts sur 64 sont activés, réduisant drastiquement la charge computationnelle. Cela permet de multiplier les performances sans exploser la RAM — un Graal que peu de laboratoires ont su atteindre de façon aussi élégante.
Mais ce n’est pas tout : DeepSeek-V3 est proposé sous licence Apache 2.0, ce qui signifie qu’il peut être librement utilisé, modifié, et intégré à des projets commerciaux. Une décision audacieuse, qui contraste avec les restrictions de plus en plus strictes observées chez OpenAI ou Anthropic. En clair, vous pouvez télécharger le modèle, le faire tourner chez vous, et en faire… ce que bon vous semble. À condition d’avoir un Mac Studio ou une machine suffisamment costaude.
Le détail qui fâche, du moins pour la Silicon Valley, c’est que DeepSeek-V3 s’aligne désormais sérieusement en termes de qualité de génération face aux ténors du secteur. Selon les premiers benchmarks, la cohérence des réponses, la richesse sémantique, et les performances sur des tâches variées le placent entre GPT-3.5 et GPT-4. Tout cela avec un temps de latence de seulement 50 ms par requête et une vitesse de génération comparable à celle de ChatGPT… sans serveur distant.
Pour les développeurs, chercheurs et intégrateurs, cela signifie une chose très concrète : la possibilité de déployer localement des assistants IA ultra-rapides, sûrs, et souverains, sans craindre les coupures d’API, les quotas de tokens ou les factures astronomiques. En entreprise, c’est une révolution potentielle — surtout dans les secteurs où la confidentialité et le contrôle des données sont critiques. La souveraineté numérique, longtemps théorique, commence à prendre une forme très tangible.
Évidemment, tout n’est pas parfait. Le modèle pèse lourd : même avec sa structure MoE, il faut au moins 64 Go de RAM GPU pour le faire tourner confortablement. DeepSeek a prévu des versions quantifiées (INT4, INT8) pour des exécutions sur CPU ou GPU plus modestes, mais on reste dans un cadre technique réservé à des utilisateurs avancés. Autrement dit, ce n’est pas encore pour madame Michu — sauf si elle est ingénieure en ML et fan d’Apple.
Du côté d’OpenAI, on peut imaginer une certaine gêne. Alors que l’entreprise se concentre sur les intégrations cloud (GPT Store, plugins, API sur abonnement…), l’idée qu’un modèle open-source d’origine chinoise puisse offrir une alternative crédible, locale, rapide et gratuite pourrait rebattre les cartes. D’autant plus que DeepSeek a indiqué vouloir continuer à affiner ses modèles sur des corpus multilingues — y compris en anglais — ce qui élargit encore son potentiel international.
En définitive, DeepSeek-V3 est bien plus qu’une prouesse technique. C’est une déclaration d’indépendance dans le monde fermé des LLMs, dominé par quelques acteurs privés. C’est aussi une gifle symbolique pour ceux qui pensaient que seules les fermes de GPU californiennes pouvaient produire de l’IA haut de gamme. Si la tendance se confirme, la vraie révolution de l’IA ne se passera peut-être pas dans le cloud… mais sur votre bureau, à côté de votre tasse de café.
Nous reviendrons sur tout ceci, et bien plus encore lors du prochain Briefing Calipia !