Azure : Microsoft lève le voile sur des VM ultra-puissantes pour l’IA et le calcul intensif…

Microsoft a récemment annoncé l’ajout de nouvelles options de VM dans sa plateforme Azure, répondant spécifiquement aux besoins croissants des charges de travail intensives en calcul, notamment dans le domaine de l’intelligence artificielle. Les deux nouvelles gammes de machines virtuelles, Azure ND H200 v5 et FXv2, visent à offrir des solutions optimisées pour la gestion des workloads AI et autres calculs de haute intensité.
Azure ND H200 v5 : la nouvelle référence pour l’IA
La première gamme annoncée, les VM ND H200 v5, est désormais disponible. Microsoft positionne ces machines comme une solution pour la mise en œuvre de clusters de supercalcul d’IA directement dans le cloud.
Les machines virtuelles ND H200 v5 ont été conçues pour traiter la complexité croissante des charges de travail d’IA avancée, qu’il s’agisse de l’entraînement de modèles fondamentaux ou de l’inférence générative. Les workloads nécessitant des ensembles de données volumineux et une vitesse de calcul accrue, tels que le deep learning et les simulations d’IA, bénéficieront particulièrement de cette infrastructure.
Ces VMs sont équipées de huit GPU Nvidia H200 Tensor Core, permettant d’atteindre des performances sans précédent dans le traitement de l’IA. Par rapport aux ND H100, la génération précédente, la ND H200 v5 offre une amélioration notable avec une augmentation de 76 % de la mémoire haute bande passante (HBM), atteignant désormais 141 Go, ainsi qu’une augmentation de 43 % de la bande passante HBM, passant à 4,8 To/s. Ces améliorations techniques permettent de réduire la latence, d’augmenter le débit et d’optimiser l’utilisation des GPU.
Les machines virtuelles ND H200 v5 ne fonctionnent pas de manière isolée, mais sont intégrées de manière transparente avec plusieurs services Azure tels que Azure Batch, Azure Kubernetes Service, Azure OpenAI Service et Azure Machine Learning. Cette intégration permet aux entreprises d’exploiter pleinement les capacités de ces VMs dans leurs workflows d’IA, offrant une flexibilité et une évolutivité accrues pour répondre aux demandes des projets d’IA de grande envergure.
En parallèle, Microsoft a également lancé une préversion publique de la série de VM FXv2, une gamme optimisée pour les charges de travail nécessitant des capacités de calcul intensives, notamment dans les domaines de la finance, de la modélisation scientifique et de l’analyse de données. Ces VM sont spécialement adaptées pour les bases de données SQL Server et les applications d’IA.
Améliorations notables des performances
Les nouvelles machines virtuelles FXv2 offrent des améliorations substantielles par rapport à leurs prédécesseurs de la série FXv1. Parmi les nouveautés, on retrouve :
- Une augmentation des performances CPU jusqu’à 1,5x.
- Le doublement du nombre de vCPU, avec jusqu’à 96 vCPU disponibles dans la taille la plus grande.
- Une bande passante réseau augmentée de 1,5x, pouvant atteindre 70 Gbps.
- Des capacités de stockage local étendues avec jusqu’à 5280 Go de SSD.
- Un doublement des performances en IOPS et en débit dans les solutions de stockage à distance.
- Jusqu’à 400k IOPS et 11 Go/s de débit pour le stockage Premium v2 ou Ultra Disk.
- Une mémoire maximale de 1800 Go.
Ces spécifications rendent les VM FXv2 idéales pour des applications nécessitant une grande capacité de calcul et de stockage, notamment pour les processus d’inférence et de formation en IA, ainsi que pour des charges de travail analytiques dans le secteur financier et scientifique.
Nous reviendrons sur ces annonces et leurs usages dans une sessions sur l’IA générative On-premise lors du prochain Briefing Calipia.