Derrière la course à l’IA, une bataille de gigawatts : le partenariat nucléaire de Microsoft et NVIDIA
Il y a quelque chose d’assez vertigineux dans ce que Microsoft et NVIDIA viennent d’annoncer. Les deux entreprises, dont les data centers engloutissent collectivement des gigawatts à un rythme que les années 2010 n’auraient pas imaginé, se positionnent désormais comme les architectes d’une solution à la crise énergétique qu’elles ont elles-mêmes contribué à créer. Le paradoxe est assumé, et c’est peut-être là sa seule grâce.
Microsoft et NVIDIA ont officiellement identifié le principal obstacle entre l’IA actuelle et l’intelligence artificielle générale (AGI) : non pas la puissance de calcul, non pas les algorithmes, mais bien la capacité à produire suffisamment d’énergie propre pour alimenter les infrastructures de demain. En réponse, les deux géants ont choisi de mobiliser l’IA générative pour accélérer la construction de nouvelles centrales nucléaires. L’idée a le mérite d’une certaine cohérence interne : puisque l’IA pose le problème, autant lui faire résoudre.
L’énergie, le seul bottleneck qu’on ne peut pas patcher
Pour comprendre pourquoi ce partenariat a du sens sur le plan technique, il faut d’abord poser les chiffres. Selon Goldman Sachs, la demande énergétique liée à l’explosion de l’IA devrait progresser de 160 % d’ici 2030, et la consommation des centres de données pourrait représenter jusqu’à 8 % de l’énergie électrique produite aux États-Unis. ChatGPT nécessite déjà quinze fois plus d’énergie qu’une simple requête web classique (0,23 W selon l’ADEME en moyenne). Multipliez cela par des centaines de millions d’utilisateurs quotidiens, ajoutez l’inférence des agents autonomes, les cycles d’entraînement des futurs modèles, et vous obtenez une équation que les énergies renouvelables intermittentes seules ne peuvent pas résoudre.
Une baie de serveurs applicatifs classique consomme jusqu’à 12 kW et peut encore être refroidie à l’air. Un cluster DGX GB200 NVL72 de NVIDIA, lui, consomme 120 kW et exige un refroidissement à eau. À l’échelle d’un data center complet, la différence n’est plus linéaire, elle est exponientielle. Microsoft avait déjà anticipé ce mur en septembre 2024 en signant un accord pour relancer la centrale de Three Mile Island en Pennsylvanie, qui délivrera 837 MW et alimentera ses data centers dans plusieurs États américains, avec un redémarrage prévu dès 2027, soit un an avant le calendrier initial.
Ce que le partenariat couvre réellement
Le partenariat entre Microsoft et NVIDIA vise à développer une plateforme numérique intégrant l’ensemble des données et simulations nécessaires au bon fonctionnement d’une centrale nucléaire, dans un cadre prenant en compte la traçabilité, l’auditabilité, la sécurisation et les prévisions. Concrètement, cela se décline sur trois niveaux opérationnels.
En phase de conception, des jumeaux numériques permettent de réutiliser des schémas d’ingénierie éprouvés et de simuler l’impact d’une modification architecturale avant de poser le premier boulon, ce qui dans l’industrie nucléaire peut représenter des mois de travail d’ingénierie. Sur le volet réglementaire, particulièrement douloureux dans ce secteur, l’IA générative est mobilisée pour prendre en charge la rédaction et l’analyse documentaire, unifier les informations et faciliter la création de dossiers complets. Enfin, pour l’exploitation et la maintenance, des capteurs couplés à des jumeaux numériques pilotés par l’IA permettent une détection précoce des anomalies et une maintenance prédictive.
Un exemple concret illustre l’efficacité annoncée de cette approche. Aalo Atomics, une startup texane qui conçoit des réacteurs modulaires pour data centers, affirme avoir réduit de 92 % sa charge de travail liée aux permis grâce à la solution Microsoft, pour une économie estimée à 80 millions de dollars par an. La startup construit actuellement son réacteur expérimental Aalo-X à l’Idaho National Laboratory, avec un objectif de criticité pour mi-2026. Les chiffres sont séduisants, même si l’on est en droit de garder un oeil critique sur les annonces d’économies projettées par des entreprises en phase de levée de fonds.
Deux acteurs supplémentaires complètent l’écosystème. Everstar, une startup issue du programme NVIDIA Inception, apporte une IA spécialisée pour la gestion de workflows nucléaires sur Azure, tandis que la plateforme Neutron d’Atomic Canyon est désormais disponible dans le Microsoft Marketplace, donnant aux développeurs nucléaires accès à ces capacités via les circuits d’achats entreprise classiques. Ce dernier point mérite attention pour les DSI : la commercialisation de ces outils via le Marketplace Microsoft ouvre une voie d’accès standard pour les acteurs du secteur de l’énergie qui sont déjà dans l’écosystème Azure.
La plateforme Vera Rubin, bras armé de l’ambition
Il serait incomplet d’analyser ce partenariat sans mentionner le contexte matériel dans lequel il s’inscrit. Les prochaines superfactories d’IA de Microsoft, baptisées Fairwater, intègreront les systèmes rack NVL72 de NVIDIA Vera Rubin et devraient monter à des centaines de milliers de Vera Rubin Superchips (NVIDIA Newsroom). Cette plateforme, annoncée au CES 2026, nous vous en parlions sur le Blog, représente une rupture significative dans l’architecture des accélérateurs. NVIDIA annonce une réduction jusqu’à dix fois du coût d’inférence par token et une réduction par quatre du nombre de GPU nécessaires pour entraîner des modèles basés sur une architecture Mixture of Experts.
Ce point est important pour les architectes en charge des décisions d’investissement infrastructure. La promesse n’est plus simplement « plus de puissance », elle est « même puissance, moins de GPU, moins d’énergie consommée par token produit ». Dans un contexte où l’énergie devient la contrainte principale, l’efficacité énergétique par unité de calcul devient un critère de sélection matériel de premier rang.
Le nouveau CPU Vera, avec ses 88 coeurs, offre une bande passante cohérente CPU-GPU de 1,8 To/s via NVLink-C2C, bien au-delà du PCIe Gen 6. Pour les architectes qui dimensionnent des pipelines agentiques, ce chiffre a une signification directe : les agents qui enchaînent appels d’outils, requêtes SQL et compilations de code ne sont plus bridés par le bus d’interconnexion.
Ce que cela change pour les DSI et architectes IT
La question pratique pour les professionnels qui lisent cet article n’est pas de savoir si l’AGI est atteignable, mais bien d’anticiper les effets de bord de cette course à l’énergie sur leurs propres budgets et stratégies.
Premier effet : la tension sur les capacités de data centers cloud va s’intensifier avant de se résoudre. Les réacteurs modulaires de type SMR, présentés comme la solution à long terme, ne seront opérationnels qu’à partir de 2028-2029 au mieux, après des phases de licence et de construction qui ne souffrent pas d’accélération magique, même assistée par IA. Entre maintenant et cette échéance, la pression sur les prix de l’énergie et sur les capacités disponibles en cloud restera élevée.
Deuxième effet : l’efficacité matérielle redevient un argument central dans les appels d’offres. Les architectures MoE et les nouveaux accélérateurs comme Rubin réduisent le coût par token, ce qui modifie l’équation économique de l’IA générative en entreprise. Un modèle entraîné ou inféré à moindre coût énergétique change la viabilité de cas d’usage qui paraissaient trop onéreux il y a dix-huit mois.
Troisième effet, peut-être le plus structurant : la dépendance de l’infrastructure IA à une source d’énergie pilotable et décarbonée crée une convergence entre les décisions d’achat cloud et les politiques RSE des entreprises. Les DSI qui reportent encore la question énergétique à leur DG ou à leur direction RSE auront de plus en plus de mal à le faire.
Un pari lucide ou une belle histoire pour les investisseurs ?
Il serait naïf de ne pas noter que cet accord intervient dans un contexte où les grandes entreprises technologiques américaines, Amazon, Google, Meta et Microsoft, prévoient d’investir collectivement plus de 600 milliards de dollars dans l’IA en 2026. À cette échelle, l’énergie n’est pas une contrainte qu’on gère en changeant de fournisseur : c’est une infrastructure stratégique qu’on doit construire. Le recours au nucléaire n’est donc pas une posture environnementale, c’est une nécessité d’ingénierie.
Ce qui est nouveau ici, et réellement intéressant sur le plan technique, c’est l’idée d’utiliser l’IA générative pour s’attaquer non pas à un problème logiciel, mais à un problème de gouvernance réglementaire et d’ingénierie physique. Les processus de certification nucléaire sont historiquement longs, documentaires, fragmentés entre des dizaines d’organismes. Si les outils Microsoft et NVIDIA parviennent effectivement à réduire les délais de permitting de plusieurs années à quelques mois, l’impact sera réel, bien au-delà du seul secteur de l’IA.
Reste une question ouverte : l’IA peut-elle accélérer la construction de centrales nucléaires assez vite pour que ces centrales alimentent la prochaine génération d’IA ? La boucle est fascinante. La réponse, elle, prendra quelques années.