Archives des étiquettes : NVidia

Perlmutter : le superordinateur d’IA le plus rapide du monde.

Image Nvidia

IMPRESSIONNANT ! Nvidia et le National Energy Research Scientific Computing Center (NERSC) ont mis en marche jeudi dernier le Perlmutter, présenté comme le supercalculateur le plus rapide du monde pour l’intelligence Artificielle. Il doit son nom en l’honneur de l’astrophysicien Saul Perlmutter, qui travaille toujours comme astrophysicien au Berkeley Lab, et avait reçu le prix Nobel de physique en 2011 pour sa contribution à la découverte de l’énergie noire.

Saul Perlmutter

Le nouveau supercalculateur est doté de 6 144 GPU NVIDIA A100 Tensor Core et sera chargé, entre autres, d’assembler la plus grande carte 3D jamais réalisée de l’univers visible. Il traitera les données de l’instrument spectroscopique d’énergie noire (DESI), une sorte de caméra cosmique qui peut capturer jusqu’à 5 000 galaxies en une seule exposition. Il est hébergé au NERSC du Lawrence Berkeley National Laboratory.

« Perlmutter est le système le plus rapide de la planète pour le calcul en 16 et 32 bits utilisées dans les applications d’intelligence artificielle (IA) »

Dion Harris, responsable marketing des produits HPC/AI de Nvidia

Selon Nvidia, qui démontre ici son savoir faire indéniable en IA, les chercheurs ont besoin de la vitesse des GPU de Perlmutter pour capturer des dizaines d’expositions d’une nuit afin de savoir où diriger les appareils de vision la nuit suivante. La préparation d’une année de données en vue de leur publication prendrait des semaines ou des mois sur les systèmes précédents, mais Perlmutter devrait les aider à accomplir cette tâche en quelques jours seulement…

« Les gens explorent des modèles de réseaux neuronaux de plus en plus grands et il y a une demande d’accès à des ressources plus puissantes. Perlmutter, avec ses GPU A100, son système de fichiers all-flash et ses capacités de streaming de données, arrive à point nommé pour répondre à ce besoin d’IA ».

Wahid Bhimji, responsable par intérim du groupe des services de données et d’analyse du NERSC.

Perlmutter permettra aux quelque 7 000 chercheurs soutenus par le NERSC d’accéder à quatre exaflops de performances de calcul en précision mixte pour des projets scientifiques assistés par l’IA. Outre le projet de cartographie, les chercheurs utilisent le supercalculateur pour des travaux dans des domaines tels que la climatologie, où Perlmutter aidera à sonder les interactions subatomiques pour découvrir des sources d’énergie vertes. Sujet ô combien important maintenant aux USA… depuis Biden !

En attendant la mise au point (sans doute plus lointaine) d’un Ordinateur Quantique capable de réaliser avec cette machine, le projet, qui générera des simulations d’interactions entre atomes, requiert le mélange spécial d’IA et de calcul haute performance (HPC) . Le NERSC a déjà constaté des performances de traitement par GPU 20 fois plus rapides que celles des systèmes précédemment disponibles.

Nous reviendrons sur les applications de l’IA dans le domaine des entreprises lors d’une session spéciale du prochain Briefing Calipia qui commence la semaine prochaine et la suivante.

Enquête de l’administration Biden sur la pénurie de semi-conducteurs

La pénurie de semi-conducteurs est l’une des raisons pour lesquelles les consoles de jeux vidéo , telles que la PlayStation 5 et la Xbox Series X|S, ont été si difficiles à trouver ces trois derniers mois. Mais également des composants nécessaires à l’industrie américaine dans son ensemble.

La pénurie a plusieurs causes C’est clairement un des effets secondaires de la pandémie de COVID-19 avec l’augmentation mondiale de la demande mondiale d’électronique grand public, d’abord en raison d’équipements nécessaires pour le télétravail : nouveaux PC, Ecrans, Webcam, Clavier, etc mais aussi une des conséquences des ralentissements dues aux différentes quarantaines. Mais cela met en lumière aussi la dépendance des USA (et du monde entier) envers des pays comme Taiwan et la Corée du Sud par exemple pour les processeurs…

la Semiconductor Industry Association (SIA) a envoyé une lettre ouverte au président Biden, notant que la part des États-Unis dans la fabrication mondiale de semi-conducteurs n’a cessé de diminuer au cours des 30 dernières années, passant de 37 % à 12 %, avec des investissements américains en R&D relativement stables. Cette lettre, était cosignée par les PDG d’AMD, NVIDIA, Intel, Qualcomm et 17 autres sociétés technologiques américaines, elle demandait au président à s’attaquer à ce problème en autorisant des incitations fédérales pour la fabrication, la recherche et le développement de semi-conducteurs au niveau national. Ces mêmes sociétés louaient encore il y a quelques années les bénéfices de cette délocalisation de la production justifiant cette dernière car l’ingénierie restait bien sur le sol américain…

L’administration Biden à publié en fin de semaine dernière un décret sur les chaînes d’approvisionnement américaines qui ordonne aux ministères du commerce, de l’énergie, de la défense et de la santé de procéder à un examen de 100 jours des risques liés aux chaînes d’approvisionnement, et au secrétaire de chaque ministère de présenter des recommandations politiques qui permettront de faire face à ces risques.

Nvidia rachète ARM pour 40 Milliards de $

On savait que le fond Softbank souhaitait se désengager de la société Anglaise ARM qu’il avait acquis en 2016 pour 32 milliards de $. C’est donc Nvidia qui rafle ma mise avec une belle plus value à la clé pour SoftBank de 25% tout de même en 4 ans.

Dans un article de blog, Nvidia a déclaré que la transaction lui permettait de créer « la première société informatique de l’ère de l’intelligence artificielle« . Nvidia a précisé qu’Arm continuera à exploiter son modèle de licence open-source, la propriété intellectuelle de la société restant enregistrée au Royaume-Uni. L’entreprise cherchera également à étendre sa présence au Royaume-Uni en construisant un nouveau centre d’excellence mondial d’IA sur le campus d’Arm à Cambridge, et investira également dans un superordinateur IA alimenté par Arm.

Jensen Huang, le « Geek » fondateur et CEO de NVIDIA, dont les présentations au CES sont toujours très techniques argumentées et passionnantes à déclaré que :

« Dans les années à venir, des billions d’ordinateurs équipés de l’IA créeront un nouvel internet des choses qui sera des milliers de fois plus grand que l’internet des personnes d’aujourd’hui. Notre combinaison créera une entreprise fabuleusement positionnée pour l’ère de l’IA. Simon Segars et son équipe chez Arm ont bâti une entreprise extraordinaire qui contribue à presque tous les marchés technologiques du monde. En associant les capacités informatiques de l’IA de NVIDIA au vaste écosystème du CPU d’Arm, nous pouvons faire progresser l’informatique dans le nuage, les smartphones, les PC, les voitures et la robotique, pour atteindre l’OT et étendre l’informatique IA à tous les coins du monde. »

Ceci dit la partie IoT d’ARM semble avoir été écarté du deal…

Reste à voir maintenant les réactions des régulateurs, américains, européen mais aussi chinois, ces derniers voyant aussi la prise de contrôle par le Californien Nvidia de la société anglaise pas forcément d’un bon oeil. Le deal devra être ficelé durant les 18 prochains mois. Ces régulateurs devront valider les gardes fous mis pour que les concurrents d’Nvidia puissent tout de même garder des relations normales avec ARM : on pense en particulier à Apple, Samsung mais aussi Qualcomm et… Huawei ?

Nvidia lance Deep Learning Super Sampling 2.0 pour améliorer le rendu graphique

NvidiaNvidia a lancé cette semaine sa technologie  Deep Learning Super Sampling (DLSS) 2.0. Cette technologie est basée sur un réseau neuronal artificiel qui utilise les TensorCores RTX de Nvidia pour augmenter les fréquences d’images et générer des images nettes qui approchent ou dépassent selon le constructeur le rendu natif.

Le DLSS 2.0 a été formé sur des dizaines de milliers d’images haute résolution dans un superordinateur à des fréquences d’images très basses. Avec les poids d’entraînement pour le réseau neuronal, DLSS 2.0 prend ensuite des images à plus faible résolution comme entrée et construit des images à haute résolution. Une fois cette opération réalisée Nvidia distribuece modèle d’apprentissage profond formé aux PC basés sur RTX via les pilotes NVIDIA et les mises à jour en continue.

Nividia indique que DLSS 2.0 :

« utilise les TensorCores de Turing fournissant jusqu’à 110 téraflops de puissance de calcul dédiée et fonctionne deux fois plus vite que son prédécesseur. Pour améliorer encore les performances, DLSS 2.0 utilise des techniques de rétroaction temporelle pour ne rendre qu’un quart à la moitié des pixels tout en offrant une qualité d’image comparable aux résolutions natives« .

De plus, contrairement à l’itération précédente, qui exigeait que le réseau neuronal soit entraîné pour chaque nouveau jeu, DLSS 2.0 s’entraîne en utilisant un contenu non spécifique au jeu. Cela génère un réseau généralisé qui fonctionne sur plusieurs jeux et conduit finalement à une intégration plus rapide des jeux et à un plus grand nombre de jeux DLSS.

Il dispose de trois modes de qualité d’image pour la résolution de rendu interne d’un jeu : Qualité, Équilibré et Performance. Parmi ces trois modes, le mode Performance permet d’augmenter la résolution jusqu’à 4X (c’est-à-dire 1080p vers du 4K).

Si vous êtes intéressé par le développement avec ces technologies, vous trouverez de plus amples informations ici.

Autre point (mais non lié aux jeux cette fois :)) : notre prochaine mission d’étude aux USA se déroulera du 4 au 10 octobre prochain (Seattle et San-Francisco) et le thème sera « IA et environnement de travail« . Si vous êtes intéressés contactez-nous par mail (mail direct ou sur contact (at) calipia.com )

Nvidia sur les terres d’Amazon et Microsoft

Nvidia vient d’ouvrir un centre de recherche en robotique à Seattle. Ce centre de recherche est basé près du campus de l’Université de Washington et sera dirigé par Le Professeur Dieter Fox. Des experts du secteur travailleront au développement de la prochaine génération de robots capables d’effectuer des tâches de manipulation complexes aux côtés de l’homme.

« Dans le passé, la recherche en robotique était concentrée sur de petits projets indépendants plutôt que sur des systèmes entièrement intégrés. Nous réunissons ici une équipe interdisciplinaire collaborative d’experts du contrôle et de la perception des robots, de la vision par ordinateur et des robots humanoïdes. » précise le professeur Dieter Fox. Le centre comptera environ 50 employés, allant des experts de l’industrie et académiques aux visiteurs du corps professoral et aux étudiants stagiaires.

Le premier scénario en cours de travail au laboratoire est un simulateur de cuisine dans lequel un robot a été construit pour effectuer une série de tâches courantes, notamment récupérer des objets dans une armoire et nettoyer une table.

Le robot utilise la plate-forme Jetson de Nvidia pour la navigation, tandis que le traitement des inférences en temps réel est géré par les GPU TITAN. Plus de détails dans cette vidéo.

Deep Learning : Microsoft ajoute à Azure des nouveaux modèles avec les GPUs Nvidia

Nvidia et Microsoft annonce la disponibilité de nouveaux projets Azure utilisant l’architecture Nvidia.

Il s’agit de nouveaux conteneurs pré-configurés bénéficiant d’une accélération via le GPU pour   aider les scientifiques, les développeurs et les chercheurs à contourner un certain nombre d’étapes d’intégration et de test avant d’exécuter leurs tâches nécessitant d’importante puissance de calcul (HPC).

Nvidia GPUMicrosoft offre maintenant le choix entre 35 conteneurs accélérés par GPU pour un usage de Deep Learning ou d’autres  applications HPC par exemple.

Les types d’instances Microsoft Azure peuvent maintenant fonctionner avec les configuration NVIDIA suivante :

  • NCv3 (1, 2 ou 4 GPU NVIDIA Tesla V100)
  • NCv2 (1, 2 ou 4 GPU NVIDIA Tesla P100)
  • ND (1, 2 ou 4 GPU NVIDIA Tesla P40)

Pour encore plus de simplicité, Microsoft propose une image de machine virtuelle Azure préconfigurée avec tout le nécessaire pour exécuter des conteneurs NGC dans la Marketplace Azure.

Nous partons début octobre, comme tous les ans, pour un voyage d’étude dans la Silicon Valley puis à Seattle avec des clients. Cette année notre voyage commence par Nvidia à Santa Clara et se termine par Microsoft à Seattle, de quoi faire le point sur les apports de ces technologies 🙂