Petite analyse critique de l’intervention du patron de Mistral devant la commission d’enquête sur nos vulnérabilités numériques…
Le contexte et format de l’intervention
Arthur Mensch, le cofondateur et CEO de Mistral AI, a été auditionné le 12 mai 2026 par la commission d’enquête de l’Assemblée nationale sur les dépendances structurelles et les vulnérabilités systémiques dans le secteur du numérique, accompagné d’Audrey Herblin-Stoop, directrice des affaires publiques et de la communication de Mistral AI. Ce format, audition ouverte à la presse, devant des parlementaires, est à la fois une tribune politique et un exercice de lobbying implicite. Il faut le lire comme tel : Mensch ne fait pas une conférence neutre, il défend une vision du monde qui sert aussi les intérêts de son entreprise.
Sur la forme et le fond, pas de doute les propos sont très interessants et bien documentés, on est très loin au passage de l’intervention controversée (et a juste titre) de Luc Julia au Sénat qui mêlait approximations et contre vérités manifestes sur un ton péremptoire…
Les thèses principales et leur analyse critique
1 « L’Europe n’a pas beaucoup d’atouts »
Face aux députés, Mensch n’a pas cherché à adoucir son diagnostic : « Je dois dire que l’Europe n’a pas beaucoup d’atouts. »
Ce qui est juste : Le constat de départ est honnête et salutaire. L’Europe souffre effectivement d’un retard cumulé sur les infrastructures GPU, le financement en capital-risque deeptech et l’attraction des talents. Mensch a le mérite d’une franchise inhabituellement directe pour un dirigeant en position de bénéficier de la commande publique européenne.
Ce qui mérite d’être questionné : Cette rhétorique du déclin est aussi une mécanique politique bien rodée. En dramatisant les faiblesses européennes, Mensch crée une urgence qui justifie implicitement une accélération des commandes publiques, des exemptions réglementaires et du soutien d’État à des acteurs comme… Mistral AI :). Mais c’est de bonne guerre.
2 La réglementation européenne, jugée « lourde » et fragmentée
Arthur Mensch a critiqué la réglementation européenne, qu’il juge « lourde » et manquant d’harmonisation, ce qui peut freiner selon lui la croissance d’entreprises comme la sienne. Il dénonce un « empilement de réglementations » entre RGPD, législation sur le copyright et AI Act, et plaide pour une fiscalité unifiée :
« Vous ne pouvez pas avoir de marché unifié si vous n’avez pas une forme de fiscalité unifiée. »
Ce qui est juste : La fragmentation réglementaire est réelle. Une PME tech française doit effectivement naviguer entre des régimes juridiques distincts selon les États membres, et l’AI Act superpose des obligations à un RGPD déjà parfois complexe à appliquer.
Ce qui mérite d’être questionné : Cette critique est le point le plus politiquement orienté de l’audition. Elle reprend presque mot pour mot le plaidoyer des lobbies tech américains contre toute régulation contraignante. On peut légitimement se demander si le problème est la quantité de réglementation ou sa qualité et sa prévisibilité. Par ailleurs, le RGPD (souvent cité comme fardeau par tous les acteurs, américains en tête) a aussi constitué un avantage compétitif pour les acteurs européens capables de s’en prévaloir auprès de clients soucieux de la protection des données. Mensch ne fait aucune nuance sur ce point. Enfin, il est notable qu’il critique la réglementation tout en bénéficiant de la commande publique française (France Travail, ministère des Armées), qui suppose justement un cadre réglementaire protecteur.
3 La souveraineté numérique comme levier, non comme isolationnisme
Mensch plaide pour une vision offensive :
« Il faut arrêter de penser à la souveraineté comme un isolationnisme. Dans un monde où vous importez la totalité de vos services numériques aux États-Unis, vous n’avez pas de levier. »
Il illustre le risque commercial :
« Notre consommation d’intelligence artificielle pour nos employés, c’est 10% de notre masse salariale. Si vous extrapolez, d’ici trois ou quatre ans, 10% de la masse salariale en Europe c’est à peu près un trilliard »,
une somme qui viendrait s’ajouter au déficit commercial de l’Europe sur les services numériques.
Ce qui est juste : Le raisonnement sur le déficit commercial est solide et pédagogiquement bien construit. La dépendance aux infrastructures américaines (compute, APIs, fondations cloud) est un risque réel de perte de levier géopolitique et économique. Le chiffrage du « trilliard » est frappant, même si on peut en discuter la robustesse méthodologique.
Ce qui mérite d’être questionné : Mensch glisse habilement de la souveraineté collective européenne à la nécessité de soutenir Mistral AI en particulier. Mais la souveraineté numérique ne se réduit pas à avoir un champion national. Elle implique aussi des choix sur l’hébergement, la gouvernance des données, l’open source, la capacité des administrations à auditer les systèmes qu’elles utilisent. Sur tous ces points, l’audition reste silencieuse.
4 L’emploi : « certains métiers disparaissent presque »
Mensch a déclaré :
« Vous êtes dans une situation où certains métiers disparaissent presque », ajoutant que les ingénieurs au sein de son entreprise « n’écrivent plus de lignes de code ». Il n’exclut pas « une augmentation du chômage dans certains domaines et d’une certaine manière un déplacement de la valeur du travail vers le capital, un capital qui n’est pour le moment largement pas du capital européen ».
Deux sujets que nous aborderons au passage lors du prochain Briefing Calipia qui débute dans 15 jours à Aix avant les autres dates et villes, n’hésitez pas à nous rejoindre pour discuter de cela avec nous et vos pairs 🙂
Ce qui est juste : C’est le passage le plus courageux et le plus surprenant de l’audition. Un dirigeant d’une entreprise d’IA qui reconnaît publiquement devant des parlementaires que sa technologie peut provoquer du chômage et un transfert de valeur du travail vers le capital, c’est rare.
Ce qui mérite d’être questionné : Si le diagnostic est honnête, il n’est assorti d’aucune proposition concrète. Quel rôle Mistral AI entend-il jouer dans la gestion de ces transitions ? Y a-t-il une responsabilité du développeur de modèles dans l’accompagnement des secteurs impactés ? La franchise du constat ne débouche sur aucune prise de responsabilit, dommage. Enfin, il ne dit pas quels sont les modèles de developpement utilisés pour le developpement: Claude Code peut-être… 🙂
5 L’énergie : « tout le monde veut de l’électricité et il n’y en a pas assez »
Mensch alerte sur la pression croissante sur les ressources énergétiques et signale qu’il existe :
« du surplus énergétique en France, à peu près 9 gigawatts en moyenne », mais que ce surplus risque d’être rapidement capté par les groupes les plus puissants financièrement, ce qui pourrait créer des « conflits d’usage et donc de l’inflation ».
Ce qui est juste : La tension sur l’énergie pour l’IA est un sujet sérieux, souvent sous-estimé dans les débats politiques français. La mention du surplus nucléaire français comme actif stratégique est pertinente.
Ce qui mérite d’être questionné : Mensch ne dit mot de l’empreinte carbone des modèles d’IA entraînés massivement, ni de la sobriété numérique comme alternative partielle. La question de qui devrait avoir accès à ce surplus énergétique et selon quelles conditions n’est pas davantage traitée. Ni l’évolution de la consommation des différents modèles et le positionnement sur le traitement local qui est aussi un alternative interessante et où par ailleurs Mistral à sans doute un carte à jouer…
6 Défense et usage militaire : « l’armée est souveraine »
Alors que Mistral AI travaille déjà avec le ministère des Armées français, Mensch assume cette collaboration et refuse de revendiquer un droit de regard sur l’usage final :
« L‘armée est souveraine, elle a une légitimité démocratique qu’on n’a pas. » Il justifie également la nécessité de systèmes de contre-mesures par IA face à des armées comme l’armée russe qui « utilisent massivement l’intelligence artificielle dans leurs drones ».
Ce qui est juste : La position est au moins cohérente. Dans un contexte géopolitique dégradé, le refus absolu de tout usage dual est difficile à défendre pour un acteur qui veut être souverain.
Ce qui mérite d’être questionné : C’est le point le plus idéologiquement chargé de l’audition. Déléguer entièrement l’usage éthique à la légitimité démocratique de l’armée, c’est se décharger de toute responsabilité sur la conception même des systèmes. Des entreprises comme Anthropic ou OpenAI (avec des fortunes diverses) ont au moins tenté de formaliser des cadres éthiques internes. La position de Mensch à mon avis : « l’armée décide, pas nous » évacue la question du design des modèles et de la possibilité d’y intégrer des contraintes de sécurité.
Ce qui est significativement absent
Plusieurs angles auraient mérité d’être abordés et ne l’ont pas été :
- L’open source comme outil de souveraineté. Mistral s’est longtemps réclamé d’une approche ouverte. La tension entre modèles ouverts (qui peuvent être utilisés par n’importe qui, y compris des acteurs hostiles) et souveraineté nationale n’est pas traitée.
- La concentration du marché. Mensch rappelle que Mistral a été créé parce qu’on « se dirigeait vers un oligopole assez net » — mais il ne dit rien sur le fait que Mistral lui-même, avec sa valorisation de 14 milliards de dollars, est un acteur concentrateur dans le paysage européen.
- La gouvernance des modèles. Aucune mention de la transparence algorithmique, de l’auditabilité des systèmes déployés dans des services publics, ni des biais potentiels.
- L’éducation et la montée en compétences. Si des métiers disparaissent, la formation professionnelle est le sujet central. Mensch n’y consacre pas un mot.
Petite conclusion
Arthur Mensch s’est présenté comme un technicien lucide, presque candide dans ses aveux sur les risques (chômage, énergie, déficit), ce qui lui confère une crédibilité inhabituelle dans cet exercice. Mais cette franchise calibrée sert une stratégie rhétorique précise : seul un acteur européen fort comme Mistral peut répondre aux vulnérabilités décrites. L’audition est, en ce sens, un plaidoyer pro Mistral AI d’une sophistication réelle, présenté sous les dehors d’un diagnostic désintéressé. Mais est-ce réellement une surprise ?
Pour un DSI , le message à retenir est double : le diagnostic sur la dépendance numérique européenne est fondé et mérite d’être intégré dans toute stratégie cloud ou IA mais les remèdes proposés par Mensch demandent à mon avis à être complétés par des exigences de transparence, de gouvernance et d’accompagnement social que l’audition laisse délibérément dans l’ombre.