Archives de Catégorie: Cloud

Microsoft s’intéresse à son tour aux véhicules autonomes

source : Microsoft

Google a, depuis longtemps, démontré son intérêt pour les voitures autonomes, Apple fait régulièrement des retours sur le devant de la scène des rumeurs concernant ses projets sur le même sujet, Amazon s’intéresse également au sujet, en particulier sur les véhicules de livraison pour le dernier kilomètre. Microsoft était resté sur la réserve jusqu’à présent, préférant se positionner comme fournisseur de briques technologiques mais ne s’affirmant pas comme un possible compétiteur direct. Mais les choses changent, puisque Redmond vient d’annoncer une coopération à double sens avec General Motors :

  • Microsoft rejoint GM, Honda et quelques autres investisseurs pour injecter 2 milliards de dollars dans Cruise, la filiale de GM spécialisée sur les véhicules autonomes (la part de Microsoft sur ces 2 milliards n’a pas été dévoilée).
  • GM choisit Azure en tant que partenaire préféré pour les solutions de cloud public. Cette collaboration autour d’Azure, même non exclusive, poursuit un rapprochement entre les 2 acteurs opérés à partir de 2018, avec l’annonce du choix par GM de Teams (auparavant GM utilisait les outils de Google).

Cruise a été acquis par GM en 2016 et porte aujourd’hui l’ensemble des projets de développement de véhicules autonomes pour la marque. Grâce à cet investissement de 2 milliards, la valorisation de Cruise est estimée à 30 milliards.

Amazon accuse Trump de corruption

Haussement de ton chez Amazon, dans le dossier qui l’oppose à Microsoft sur le fameux contrat JEDI (Joint Enterprise Defense Infrastructure) de Cloud de La Défense américaine (10 Milliards de dollars tout de même). Hier était rendu public la plainte officielle déposée fin octobre par les avocats d’Amazon. Autant dire qu’ils n’y vont pas avec le dos de la cuillère… Amazon accuse un « environnement extraordinaire de corruption, d’ingérence et de représailles » de la part de Donald Trump et de son administration et d’avoir influencé de manière inappropriée ce que la société prétend être une décision par ailleurs « inexplicable du ministère américain de la défense d’attribuer un projet de cloud computing de 10 milliards de dollars à son rival Microsoft« .

Avant que Microsoft ne remporte le contrat en octobre 2019, Amazon était considéré comme le favori pour remporter ce contrat dont l’objectif est pour rappel demigrer l’infrastructure informatique et les données du Pentagone vers le cloud. L’autre géant de Seattle ne digère visiblement pas sa défaite et du coup cette migration est en suspens dans l’attente de l’appel, ce qui selon Microsoft cette fois qui répondait à ces accusations « ne profite pas à ceux qui en ont un besoin urgent : les femmes et les hommes qui protègent notre nation« . Un argument qui serait jugé un peu facile de ce côté de l’atlantique mais qui passe bien chez eux.

Ce qui est clair en revanche, c’est de Jeff Bezos, le patron d’Amazon, soutient sans faille du président élu Joe Biden, risque bien de faire pression pour sur la nouvelle administration pour faire changer la décision…

Alliance OVH / Google Cloud EN EUROPE

Google Cloud et OVH Cloud viennent d’annoncer hier 9 novembre 2020 la mise en place d’un » partenariat stratégique pour co-construire une solution de confiance en Europe. Il s’agit d’une belle réussite pour la société familiale de Roubaix qui affiche ainsi un accord avec un des géants du cloud mondial.

Ce partenariat s’inscrit d’une part dans la stratégie de Google pour remonter sur le duo de tête du cloud d’entreprise, AWS et Microsoft. Depuis maintenant plusieurs années, Google a affiché sa volonté de diversifier son activité au-delà de la publicité (qui représente encore 81% sur le dernier trimestre publié – juillet à septembre 2020), et de ne pas laisser seuls AWS et Microsoft sur le terrain du cloud d’entreprises. Par ailleurs, la remise en cause l’été dernier du Privacy Shield par la Cour de Justice Européenne, est en passe de rebattre les cartes du cloud en Europe. La pression de la Commission Européenne sur Google, Microsoft et AWS, avec notamment au coeur des débats la protection des données personnelles, incite les géants à nouer des accords avec des acteurs plus petits, ex concurrents, mais qui ont le grand mérite d’être des locaux…

OVHcloud proposera une nouvelle offre Hosted Private Cloud alliant la technologie Anthos de Google Cloud, compatible avec les technologies Open source, depuis sa propre infrastructure dédiée, hyper évolutive qui sera entièrement exploitée et gérée en Europe, par les équipes OVHcloud.

Source : OVH

Quant à l’intérêt d’OVH il est clair aussi. Grâce à ce partenariat, l’entreprise française accède à une visibilité et une technologie qui jusqu’à présent lui manquait (avec tout les respect dû à la success story de Roubaix).

AWS intègre les GPU NVIDIA A100

Source : AWS

Près de 4 mois après Google, et 3 mois après Microsoft, AWS annonce le support des GPU Nvidia les plus puissantes actuellement, A100, sous la forme d’une nouvelle instance EC2 (Elastic Compute Cloud) dénommée P4d, qui comptera 8 GPU Nvidia A100.

Les instances P4d disposent de 8 GPU NVIDIA A100 Tensor Core capables d’atteindre 2,5 pétaflops de performance de précision mixte et 320 Go de mémoire GPU à haut débit dans une instance EC2. Les instances P4d sont les premières du secteur à offrir une bande passante réseau de 400 Gbps avec les interfaces réseau Elastic Fabric Adapter (EFA) et NVIDIA GPUDirect RDMA pour permettre une communication directe entre les GPU sur les serveurs pour une latence réduite et une plus grande efficacité de mise à l’échelle, ce qui contribue à débloquer les goulots d’étranglement de mise à l’échelle dans les charges de travail distribuées sur plusieurs nœuds. Chaque instance P4d offre également 96 vCPU Intel Xeon Scalable (Cascade Lake), 1,1 To de mémoire système et 8 To de stockage NVMe local.

Source : AWS

Cette nouvelle instance est selon AWS, avant tout destinée à l’entrainement de modèle de Machine Learning, mais aussi à tout workload exigeant en termes de performance de calcul et de mémoire, tels que « l’analyse sismique, la découverte de médicaments, le séquençage de l’ADN, la science des matériaux et la modélisation des risques financiers et d’assurance ».

Si vous êtes intéressés par ces bêtes de course, sachez qu’il vous en coutera 32,77$/heure, et si vous êtes près à réserver une instance sur un an, 19,22 $/heure (ou 11,57 sur 3 ans).

Microsoft Cloud for Healthcare disponible

A l’heure où le microcosme du cloud français s’agite autour de l’hébergement de certaines données de santé (françaises) chez Microsoft, ce dernier vient d’annoncer la disponibilité générale de son cloud spécialisé pour le monde de la santé : Microsoft cloud for Healthcare, qui fédère Azure, Microsoft 365, Dynamics 365, et Power Platform. Annoncé en mai dernier, ce cloud spécialisé est donc maintenant ouvert à tous les acteurs du domaine (professionnels de santé, patients, assureurs …), pour construire et héberger des solutions. Avec cette nouvelle brique, Microsoft compte bien renforcer ses positions sur un marché crucial, en particulier dans cette période de pandémie mondiale.

Ce qui suscite le débat en France, c’est le choix en juin dernier de Microsoft comme hébergeur du Health Data Hub (ou Plateforme des données de santé), la plate-forme créée fin 2019, pour centraliser des données de santé de Français à des fins de recherche médicale, choix effectué au détriment du français OVH. Cette plateforme se veut un point focal pour le stockage des données de santé des français, qu’elles soient administratives ou cliniques. Dans le domaine des données de santé, la France a défini des objectifs ambitieux avec, dès 2016, la création du SNDS (Système National des Données de Santé), première tentative de plateforme fédérant des données de santé de différentes sources (assurance maladie, hôpitaux …). Le Health Data Hub est le dernier produit de cette démarche, et le choix d’un acteur américain, Microsoft, pour fournir l’infrastructure de la plateforme a suscité des réactions fortes de l’écosystème français, s’appuyant en particulier sur l’invalidation en juillet 2020 par la Cour Européenne de Justice du Privacy Shield, accord qui régissait les transferts de données entre l’Europe et les USA. Le Conseil d’Etat saisi par plusieurs organisations, a rendu une décision le 13 octobre dernier, qui si elle n’invalide pas le choix Microsoft, confirme l’existence de risques de fuites de données et demande des garanties supplémentaires. La recherche de telles garanties auprès de Microsoft sera t’elle positive ou bien le gouvernement devra t’il sélectionner un autre fournisseur ? Pour l’instant, pas de réponse à cette question, mais il est clair que les retards/absence total d’acteurs d’envergure, français ou européens, pour offrir des alternatives cloud crédibles face aux géants Microsoft, Google ou AWS, va peser lourd dans la réponse.

Quand le cloud computing devient space computing

source : Microsoft

La devise pourrait être « Toujours plus haut » ! Avec Azure Space, Microsoft vient de dévoiler une série de nouveaux services et des partenariats avec des industriels de l’espace, tels SpaceX, SES, KSat, Viasat… Avec le déploiement à grande échelle de constellations de satellites au dessus de nos têtes, tels Starlink de la société SpaceX, les enjeux sont grands pour interconnecter ces myriades de satellites de l’espace aux datacenters du cloud. Les micros satellites Starlink fabriqués à Redmond dans l’état de Washington, à deux pas du campus Microsoft, contiennent de nombreux serveurs Linux, et sont envoyés par « paquets » de 60 satellites dans l’espace, à chaque lancement par une fusée Falcon 9 (de SpaceX également). La constellation actuellement déployée dans l’espace compte plus de 30 000 noeuds Linux. La collaboration entre SpaceX et Microsoft vise à fournir :

  • une infrastructure terrestre capable de capturer toutes les données provenant de l’espace
  • des moyens d’utiliser l’infrastructure de satellites comme canal de communication pour des emplacements qui sur terre n’ont pas accès à des réseaux haut-débits,

Microsoft a également annoncé le Microsoft Azure Modular Datacenter, qui proposera des capacités de Datacenter connecté au cloud via des connexions satellites, en environnement contraint en termes d’infrastructure réseau (selon Microsoft, les scénarios d’usages du MDC vont « des centres de commandement mobiles à l’aide humanitaire, en passant par les besoins des missions militaires, la prospection minière et d’autres cas d’utilisation nécessitant un calcul sécurisé de haute intensité sur Azure »). Les MDC feront naturellement parti d’Azure Space pour assurer les connexions réseaux, avec des niveaux de débit et de latence optimums.

La collaboration entre Microsoft et SpaceX s’inscrit dans une compétition grandissante d’accès à l’espace, avec Amazon qui s’est également lancé avec la création récente d’une entité Aeospace and Satellite Solutions, après le financement de Blue Origin par Jeff Bezons. Les ennemis de nos ennemis sont nos amis !

Google accusé de protection illégale de monopole

Selon une information parue hier dans le New-York Times, le ministère de la Justice américain serait en passe d’entamer une procédure contre le géant de Mountain View, concernant ses pratiques jugées illégale de protection de monopole sur le marché de la recherche et de la publicité. Nous vous en parlions en juin dernier, mais il semble que le début d’une action officielle conjointe du DOJ et de certains états américains soit très proche. Cette menace est à prendre au sérieux, car de manière tout à fait exceptionnel ce sujet rapproche des extrêmes : le DOJ aux ordres de D.Trump, mais aussi des parlementaires américains qui s’inquiètent de plus en plus ouvertement des positions des grands acteurs du numérique, GAFA en tête.

Si les actions démarrent effectivement, Google va entrer dans une période troublée, qui va mobiliser son énergie et une partie de ses ressources pour se défendre sur de multiples fronts. De quoi nous rappeler ce qui s’est passé lors du précédent procès retentissant entamé contre Microsoft, il y a longtemps, en fin du siècle dernier. Si Microsoft a réussi à échapper à la découpe (bien que condamné à cette peine en 2000 par le juge Thomas Penfield Jackson), le procès a laissé des traces sur l’entreprise, qui a démarré en 1998, avec un Microsoft ultra dominant, et dont les derniers effets (Consent Decree) se sont arrêtés en 2007, totalement dans une autre ère, avec Apple revenu des limbes, Google et Facebook en nouveaux conquistadors….

Separation d’ibm en 2 entreprises

Pour l’ancien IBMer que je suis, cette nouvelle m’a particulièrement touché. L’IBM que j’ai connu (de 1989 à 1993) n’a plus rien a voir avec l’entreprise actuelle, et cette annonce de splitter l’entreprise en 2 entités différentes reflète le chemin parcouru par l’ancien Big Blue depuis cette époque, et plus encore les perspectives qui sont celles d’Armonk pour le futur.

IBM annonce donc sa séparation en 2 entreprises :

  • une première qui conservera le nom d’IBM et sera chargée des activités Cloud hybride et IA
  • une seconde, nommée sous le nom de code NewCo qui rassemblera toutes les activités de clouds managés d’IBM

Annoncée conjointement par Arvind Krishna (CEO) et Ginni Rometty (Executive Chairman et ancienne CEO), l’annonce est d’importance. Elle correspond à la séparation des activités services d’IBM, d’un côté le groupe GBS (Global Business Services) qui conservera le nom d’IBM et de l’autre l’entité GTS (Global Technology Services) qui va constituer NewCo. Les activités GTS correspondent au traditionnel business d’outsourcing d’infra clients, et déclinent en termes de chiffre d’affaires (huit trimestres consécutifs de baisse). Quant à GBS et les activités cloud hybride d’IBM, l’annonce présente cette nouvelle donne comme la suite de l’acquisition de RedHat par l’entreprise d’Armonk, finalisée en juillet 2019. Le poids en termes de CA des 2 entités sera très largement en faveur d’IBM avec environ 69 milliards de dollars par an, pour seulement 19 milliards pour NewCO. Quand aux effectifs il devrait représenter environ 90 000 personnes pour chacune des nouvelles structures. La séparation devrait être effective vers le fin de 2021.

Pour en savoir plus sur cette nouvelle donne et les stratégies de grands acteurs, venez nous rejoindre à une prochaine édition du Briefing Calipia, les 9, 11, 15 ou 16 décembre.

Intégration d’Azure Lab Services dans Teams : une excellente idée pour les formations

Avant ce parler de cette annonce de l’éditeur, revenons brièvement sur ce qu’est « Azure Lab Services ». Pour rappel c’est un service d’Azure donc, qui permet aux utilisateurs de fournir des machines virtuelles (VM) à la demande pour divers cas d’utilisation, la mise en oeuvre de tests, des hackathons, pour la formation, dans l’éducation, etc.

Un des avantage offert par cette annonce est que les utilisateurs peuvent accéder aux ressources sans abonnement à Azure et sans la complexité de la navigation sur le portail Azure. Tout se fait alors directement dans Teams.

Autre avantage qui sera particulièrement utile dans le cadre de ma mise en oeuvre de classes pour de la formation : Les administrateurs n’ont pas besoin de maintenir des listes de classes dans deux systèmes différents (Teams et Azure). La liste des utilisateurs Azure est automatiquement alimentée par les membres Teams et une synchronisation est effectuée automatiquement toutes les 24 heures. De plus la capacité offerte (c’est-à-dire le nombre de VM) sera automatiquement ajustée en fonction de l’ajout/suppression d’utilisateurs parmi les membres de l’équipe. Les stagiaires dans le cadre de la mise en oeuvre d’une classe par exemple ne verront que les VMs, qui sont provisionnées pour l’équipe spécifique.

Petite restriction qui a son importance toute fois l’application Azure Lab Services dans Teams ne peut être ajoutée qu’à un groupe Teams dans son ensemble, vous ne pouvez pas l’ajouter à des conversations individuelles ou à des groupes de conversations.

Si vous souhaitez mettre en place Azure Lab Services dans Teams, rendez-vous sur la page web dédiée ici.

Nous reviendrons également sur ces possibilités lors du prochain Briefing Calipia : tous les détails en suivant ce lien.

Datacenters sous-marins : cela fonctionne très bien…

Project Natick, Vessel retrieval Stromness, Orkney. Microsoft – Tuesday 7th to Wednesday 15th of July 2020

Souvenez-vous du projet « Natick » de Microsoft, nous vous en parlions sur le blog en juin dernier, pour rappel c’est un projet de recherche de Microsoft visant à déterminer la faisabilité de centres de données sous-marins alimentés par des énergies renouvelables offshore avec un refroidissement plus simple : ) Pour tester si la submersion d’un centre de données pouvait améliorer sa fiabilité, les chercheurs ont abaissé le containerjusqu’au fond de la mer près des îles Orcades en Écosse. Après une longue période de tests impliquant les 864 serveurs à bord, le 9 juillet, il a été récupéré et Microsoft a maintenant enfin révélé ce qu’il a appris de son expérimentation.

En 2018, le PDG de Microsoft Satya Nadella pensait que l’avenir du déploiement des centres de données résidait dans ces serveurs sous-marins. Outre le fait qu’ils promettent un déploiement plus rapide, sans besoin de construire une infrastructure complexe et sécurisée, l’un des principaux avantages de ce dispositif est qu’en plaçant les centres de données plus près des zones côtières, cela réduit a latence due aux retards de transmission.

Les chercheurs du Projet Natick ont annoncé que leur hypothèse initiale était en effet correcte. Les data centers sous-marins peuvent améliorer la fiabilité des data centers actuels tout en étant alimentés par une énergie renouvelable offshore. Cela est dû en grande partie au fait que les centres de données terrestres souffrent de phénomènes naturels tels que les fluctuations de température, la corrosion et l’humidité, qui entraînent des pannes fréquentes des équipements et, par conséquent, la nécessité d’un entretien régulier. Mais sous l’eau, ils se trouvent dans un environnement plus frais et moins sujet à de tels facteurs. En fait, l’environnement plus frais sous l’eau permet un échange de chaleur efficace sur le plan énergétique, ce qui peut encore réduire les coûts d’exploitation.

Project Natick, Inverness at Nigg Energy Park – Opening vessel and analysising data, 20-23 July 2020

Microsoft affirme que ce datacenter immergé a eu un taux de défaillance de 15% inférieur à un datacenter terrestre. Des données très prometteuses, alors même qu’il s’agit d’un prototype. De plus, alors que le déploiement d’un centre de données terrestre peut prendre jusqu’à deux ans en raison du refroidissement coûteux et des infrastructures nécessaires, les datacenters sous-marins peuvent au contraire être déployés en 90 jours…

Les discussions entre les chercheurs du Projet Natick et les responsables de Microsoft Azure pour un déploiement commercial sont déjà en cours. Cerise sur le gâteau, en plus des considérations écologiques, cela permettrait aussi de déployer de plus petits datacenter plus proche des utilisateurs, étant donné que la moitié de la population mondiale vit à moins de 120 miles des côtes…

« Entrées précédentes