Archives des étiquettes : Datacenters

Les nouvelles puces AMD « EPYC Rome » vont sérieusement concurrencer Intel dans les datacenters…

AMD EPYCSi il y a bien un secteur de l’informatique que domine Intel c’est celui des datacenters où ses processeurs règnent en maîtres. Il y a bien sur de la concurrence sur les puces spécialisées : ARM sur l’entrée de gamme pour certains services, Nvidia sur les puces dédiées pour l’IA, mais en gros le reste est pour Intel, AMD se contentant des miettes. Avec la nouvelle série de processeurs EPYC 7002 « Rome » d’AMD, la course est relancée pour le leadership sur les centres de données et Intel risque bien d’en faire les frais et sans doute plus rapidement que prévu.

AMD RomeSelon Hans Mosesmann, directeur général de Rosenblatt Securities et important analyste de Wall Street, les puces de Rome auront probablement « d’importantes répercussions sur le secteur et profiteront à AMD au cours des prochaines années« . Il qualifie le lancement de cette nouvelle série de processeurs  « d’événement historique qui pourrait s’avérer être l’un des plus grands tournants de l’histoire de la Silicon Valley et de l’informatique« , rien de moins ! Il compare la situation actuelle à celle de 2006 où AMD avec pris 25% du marché. Selon lui si ils sont aujourd’hui à 1% du marché des datacenters, il vont rapidement en conquérir 25%… au détriment d’Intel.

Technologiquement ces puces sont bien en avances sur celles d’Intel. Elles sont gravées à   7 nm. Elles intègrent jusqu’à 64 cœurs Zen 2 par SoC ((Zen 2 est la micro-architecture maison d’AMD), fournissent jusqu’à 23% d’instructions supplémentaires par cycle d’horloge et par cœur et disposent jusqu’à quatre fois plus de mémoire cache L3 par rapport à la génération précédente. Et tout cela bien sur avec une consommation en baisse…

AMD Perfs

Qui seront les principaux clients de ces équipements ? Lors du lancement qui s’est tenu au Palais des Beaux-Arts de San Francisco mi août, plusieurs clients ont pris la parole pour évoquer leurs projets de déploiement. Les premiers à faire état de leurs achats sont Google, Microsoft, Hewlett Packard Enterprise (HPE), Lenovo, Dell, Cray et VMware…Un peu plus tard c’était au tour d’Amazon Web Services (AWS) d’annoncer aussi l’utilisation prochaine de ces processeurs…

Sale temps pour Intel, bien sûr, qui a néanmoins (sans doute pour contrer les effets d’annonce d’AMD) annoncé le renouvellement se sa « collaboration mondiale pluriannuelle » avec Lenovo pour ses Datacenters et pour « accélérer la convergence du HPC et de l’IA« . En tout cas le géant des puces devra mettre les bouchées doubles pour ne pas voir ses parts de marchés fondre, attaqué cette fois aussi sur ce qui était sa chasse gardée.

 

Google économise 30% de ses dépenses énergétiques en utilisant l’intelligence artificielle (IA) pour réguler le refroidissement de ses datacenters

Google Datacenter LogoL’IA, en plus de son utilisation grand public (donc très médiatisée) avec les assistants vocaux, la traduction ou la reconnaissance d’images etc., est aussi utilisée par certains acteurs de l’industrie pour résoudre des problèmes complexes afin d’optimiser leurs couts d’exploitation ou les performances de leurs produits, en exploitant des masses importantes de données fournies par de nombreux capteurs.

Concernant la réduction des coûts d’exploitation Google à annoncé dans un billet de blog des résultats assez intéressants concernant la réduction de la consommation énergétique de ses datacenters en s’appuyant sur une Intelligence Artificielle basée dans le Cloud :

  • Toutes les cinq minutes, l’IA de Google réalise une capture de l’état du système de refroidissement de ses datacenters, enregistrant par la même occasion les données fournies par les milliers de capteurs qui y sont disséminés. Ces informations alimentent par la suite des réseaux neuronaux profonds qui aident à prédire l’impact de différents scénarios de régulation envisageables sur la consommation énergétique future et à choisir la meilleure option.
  • Pour chaque action potentielle, l’IA doit calculer sa confiance dans le fait qu’il s’agit d’une bonne action et éliminer les actions jugées peu fiables. Les actions potentielles calculées par l’IA sont comparées à une liste interne de contraintes de sécurité et des opérateurs locaux peuvent reprendre le contrôle en cas de besoin.

Google datacenter IA

Cette initiative qui a débuté lors de l’été 2017 et a dès sa mise en œuvre permis 12% d’économies d’énergie, a durant un an évolué, avec au fur et à mesure de la collecte d’informations et l’apprentissage de l’IA une économie d’énergie maintenant de 30% avec plus de 98 millions d’exemples de situations d’entrainement collectées.

Google Datacenter IA apprentissage

[Billet d’humeur] Des Datacenters en France pour créer des emplois ?

Patriotisme économique aidant, la question a le mérite d’être posée : la création de Datacenters en France est-elle une source de création d’emplois durables ? (hors pour la construction de ces centres)

Maitres chiens

Pas forcément. Tout au moins s’il on regarde le personnel embauché pour faire fonctionner ces établissements… Nous avons pu encore le constater lors de notre visite du Datacenter de Redmond la semaine dernière chez Microsoft Corp : très peu de personnel sur place pour la maintenance, avec plus de maitres-chien que d’informaticiens ! Est-ce bien ce type d’emplois que nous voulons en France ? 🙂 Il faut bien se rendre à l’évidence que la création d’emplois liés au Cloud sont plutôt à rechercher coté développeurs applicatifs, et ceux là ne sont pas dans les Datacenters et pas forcément dans le même pays !

En revanche la justification de disposer de Datacenter locaux est bien sur à rechercher ailleurs, et en premier lieu pour des raisons de propriétés des données. Ainsi depuis cet été avec l’affaire PRISM / Edward Snowden, la suspicion face aux sociétés américaines offrant de l’hébergement s’est considérablement accentuée et cela ne fait pas que des malheureux : le journal allemand Der Spiegel relève ainsi que les opérateurs locaux comme ont vu leur nombre de clients littéralement exploser.

Il est aussi assez amusant de voir la communication de ces acteurs locaux, sans surprise à mots couverts, PRISM est un argument commercial quitte à oublier parfois que le traitement des données par la NSA porte majoritairement sur la communication et moins sur l’accès au stockage… Pas sur que cela règle donc tous les problèmes…

Bon voilà, c’était juste un petit billet d’humeur du vendredi 🙂