Archives des étiquettes : Datacenters

Datacenters sous-marins : cela fonctionne très bien…

Project Natick, Vessel retrieval Stromness, Orkney. Microsoft – Tuesday 7th to Wednesday 15th of July 2020

Souvenez-vous du projet « Natick » de Microsoft, nous vous en parlions sur le blog en juin dernier, pour rappel c’est un projet de recherche de Microsoft visant à déterminer la faisabilité de centres de données sous-marins alimentés par des énergies renouvelables offshore avec un refroidissement plus simple : ) Pour tester si la submersion d’un centre de données pouvait améliorer sa fiabilité, les chercheurs ont abaissé le containerjusqu’au fond de la mer près des îles Orcades en Écosse. Après une longue période de tests impliquant les 864 serveurs à bord, le 9 juillet, il a été récupéré et Microsoft a maintenant enfin révélé ce qu’il a appris de son expérimentation.

En 2018, le PDG de Microsoft Satya Nadella pensait que l’avenir du déploiement des centres de données résidait dans ces serveurs sous-marins. Outre le fait qu’ils promettent un déploiement plus rapide, sans besoin de construire une infrastructure complexe et sécurisée, l’un des principaux avantages de ce dispositif est qu’en plaçant les centres de données plus près des zones côtières, cela réduit a latence due aux retards de transmission.

Les chercheurs du Projet Natick ont annoncé que leur hypothèse initiale était en effet correcte. Les data centers sous-marins peuvent améliorer la fiabilité des data centers actuels tout en étant alimentés par une énergie renouvelable offshore. Cela est dû en grande partie au fait que les centres de données terrestres souffrent de phénomènes naturels tels que les fluctuations de température, la corrosion et l’humidité, qui entraînent des pannes fréquentes des équipements et, par conséquent, la nécessité d’un entretien régulier. Mais sous l’eau, ils se trouvent dans un environnement plus frais et moins sujet à de tels facteurs. En fait, l’environnement plus frais sous l’eau permet un échange de chaleur efficace sur le plan énergétique, ce qui peut encore réduire les coûts d’exploitation.

Project Natick, Inverness at Nigg Energy Park – Opening vessel and analysising data, 20-23 July 2020

Microsoft affirme que ce datacenter immergé a eu un taux de défaillance de 15% inférieur à un datacenter terrestre. Des données très prometteuses, alors même qu’il s’agit d’un prototype. De plus, alors que le déploiement d’un centre de données terrestre peut prendre jusqu’à deux ans en raison du refroidissement coûteux et des infrastructures nécessaires, les datacenters sous-marins peuvent au contraire être déployés en 90 jours…

Les discussions entre les chercheurs du Projet Natick et les responsables de Microsoft Azure pour un déploiement commercial sont déjà en cours. Cerise sur le gâteau, en plus des considérations écologiques, cela permettrait aussi de déployer de plus petits datacenter plus proche des utilisateurs, étant donné que la moitié de la population mondiale vit à moins de 120 miles des côtes…

Les nouvelles puces AMD « EPYC Rome » vont sérieusement concurrencer Intel dans les datacenters…

AMD EPYCSi il y a bien un secteur de l’informatique que domine Intel c’est celui des datacenters où ses processeurs règnent en maîtres. Il y a bien sur de la concurrence sur les puces spécialisées : ARM sur l’entrée de gamme pour certains services, Nvidia sur les puces dédiées pour l’IA, mais en gros le reste est pour Intel, AMD se contentant des miettes. Avec la nouvelle série de processeurs EPYC 7002 « Rome » d’AMD, la course est relancée pour le leadership sur les centres de données et Intel risque bien d’en faire les frais et sans doute plus rapidement que prévu.

AMD RomeSelon Hans Mosesmann, directeur général de Rosenblatt Securities et important analyste de Wall Street, les puces de Rome auront probablement « d’importantes répercussions sur le secteur et profiteront à AMD au cours des prochaines années« . Il qualifie le lancement de cette nouvelle série de processeurs  « d’événement historique qui pourrait s’avérer être l’un des plus grands tournants de l’histoire de la Silicon Valley et de l’informatique« , rien de moins ! Il compare la situation actuelle à celle de 2006 où AMD avec pris 25% du marché. Selon lui si ils sont aujourd’hui à 1% du marché des datacenters, il vont rapidement en conquérir 25%… au détriment d’Intel.

Technologiquement ces puces sont bien en avances sur celles d’Intel. Elles sont gravées à   7 nm. Elles intègrent jusqu’à 64 cœurs Zen 2 par SoC ((Zen 2 est la micro-architecture maison d’AMD), fournissent jusqu’à 23% d’instructions supplémentaires par cycle d’horloge et par cœur et disposent jusqu’à quatre fois plus de mémoire cache L3 par rapport à la génération précédente. Et tout cela bien sur avec une consommation en baisse…

AMD Perfs

Qui seront les principaux clients de ces équipements ? Lors du lancement qui s’est tenu au Palais des Beaux-Arts de San Francisco mi août, plusieurs clients ont pris la parole pour évoquer leurs projets de déploiement. Les premiers à faire état de leurs achats sont Google, Microsoft, Hewlett Packard Enterprise (HPE), Lenovo, Dell, Cray et VMware…Un peu plus tard c’était au tour d’Amazon Web Services (AWS) d’annoncer aussi l’utilisation prochaine de ces processeurs…

Sale temps pour Intel, bien sûr, qui a néanmoins (sans doute pour contrer les effets d’annonce d’AMD) annoncé le renouvellement se sa « collaboration mondiale pluriannuelle » avec Lenovo pour ses Datacenters et pour « accélérer la convergence du HPC et de l’IA« . En tout cas le géant des puces devra mettre les bouchées doubles pour ne pas voir ses parts de marchés fondre, attaqué cette fois aussi sur ce qui était sa chasse gardée.

 

Google économise 30% de ses dépenses énergétiques en utilisant l’intelligence artificielle (IA) pour réguler le refroidissement de ses datacenters

Google Datacenter LogoL’IA, en plus de son utilisation grand public (donc très médiatisée) avec les assistants vocaux, la traduction ou la reconnaissance d’images etc., est aussi utilisée par certains acteurs de l’industrie pour résoudre des problèmes complexes afin d’optimiser leurs couts d’exploitation ou les performances de leurs produits, en exploitant des masses importantes de données fournies par de nombreux capteurs.

Concernant la réduction des coûts d’exploitation Google à annoncé dans un billet de blog des résultats assez intéressants concernant la réduction de la consommation énergétique de ses datacenters en s’appuyant sur une Intelligence Artificielle basée dans le Cloud :

  • Toutes les cinq minutes, l’IA de Google réalise une capture de l’état du système de refroidissement de ses datacenters, enregistrant par la même occasion les données fournies par les milliers de capteurs qui y sont disséminés. Ces informations alimentent par la suite des réseaux neuronaux profonds qui aident à prédire l’impact de différents scénarios de régulation envisageables sur la consommation énergétique future et à choisir la meilleure option.
  • Pour chaque action potentielle, l’IA doit calculer sa confiance dans le fait qu’il s’agit d’une bonne action et éliminer les actions jugées peu fiables. Les actions potentielles calculées par l’IA sont comparées à une liste interne de contraintes de sécurité et des opérateurs locaux peuvent reprendre le contrôle en cas de besoin.

Google datacenter IA

Cette initiative qui a débuté lors de l’été 2017 et a dès sa mise en œuvre permis 12% d’économies d’énergie, a durant un an évolué, avec au fur et à mesure de la collecte d’informations et l’apprentissage de l’IA une économie d’énergie maintenant de 30% avec plus de 98 millions d’exemples de situations d’entrainement collectées.

Google Datacenter IA apprentissage

[Billet d’humeur] Des Datacenters en France pour créer des emplois ?

Patriotisme économique aidant, la question a le mérite d’être posée : la création de Datacenters en France est-elle une source de création d’emplois durables ? (hors pour la construction de ces centres)

Maitres chiens

Pas forcément. Tout au moins s’il on regarde le personnel embauché pour faire fonctionner ces établissements… Nous avons pu encore le constater lors de notre visite du Datacenter de Redmond la semaine dernière chez Microsoft Corp : très peu de personnel sur place pour la maintenance, avec plus de maitres-chien que d’informaticiens ! Est-ce bien ce type d’emplois que nous voulons en France ? 🙂 Il faut bien se rendre à l’évidence que la création d’emplois liés au Cloud sont plutôt à rechercher coté développeurs applicatifs, et ceux là ne sont pas dans les Datacenters et pas forcément dans le même pays !

En revanche la justification de disposer de Datacenter locaux est bien sur à rechercher ailleurs, et en premier lieu pour des raisons de propriétés des données. Ainsi depuis cet été avec l’affaire PRISM / Edward Snowden, la suspicion face aux sociétés américaines offrant de l’hébergement s’est considérablement accentuée et cela ne fait pas que des malheureux : le journal allemand Der Spiegel relève ainsi que les opérateurs locaux comme ont vu leur nombre de clients littéralement exploser.

Il est aussi assez amusant de voir la communication de ces acteurs locaux, sans surprise à mots couverts, PRISM est un argument commercial quitte à oublier parfois que le traitement des données par la NSA porte majoritairement sur la communication et moins sur l’accès au stockage… Pas sur que cela règle donc tous les problèmes…

Bon voilà, c’était juste un petit billet d’humeur du vendredi 🙂