Archives d’Auteur : Patrick Barriere

Rumeurs d’acquisition de Slack par Salesforce

Selon des rumeurs (Reuters, Wall Street Journal) Salesforce aurait engagé des discussions avec Slack visant à acquérir l’entreprise. Si ni l’un ou l’autre des acteurs concernés ne confirment pour le moment ces rumeurs, une telle opération ne serait pas une surprise. En effet, qu’il s’agisse de Slack ou de Salesforce le rapprochement a du sens. Slack est une pépite, mais elle est un peu seule et les derniers mois ont vu son principal concurrent, Microsoft Teams, prendre une assise très importante face à Slack. Pour Salesforce, leader du marché PaaS et du CRM en ligne, l’ajout à son portefeuille des technologies de Slack constituerait certainement une avancée importante.

Une telle opération porterait peut-être un coup aux accords passés ces dernières années entre Salesforce et Microsoft, en particulier concernant l’utilisation d’Azure pour la plateforme Salesforce Marketing Cloud. Teams est une priorité stratégique pour Redmond, et l’arrivée de Slack dans le giron de Salesforce serait vraisemblablement mal perçue. Mais la « coopétition » a des vertus qui permettent des coexistence entre acteurs à priori un peu ombrageux l’un envers l’autre …

Sinon, détail qui ne pèse pas dans les discussions actuelles, le siège de Slack est à un jet de banane de la tour Salesforce à San Francisco, il suffit de traverser la rue pour passer de l’un à l’autre :). A suivre donc.

Licensing Microsoft : Azure Hybrid Benefit étendu aux serveurs Linux

Source : azure.microsoft.com

Azure Hybrid Benefit est un bénéfice du licensing Microsoft, accessible soit avec la Software Assurance, soit avec les Souscriptions serveurs, qui permet d’utiliser dans Azure des licences (ou des souscriptions) acquises on premise. Jusqu’à présent réservé à des licences Microsoft, dans les contextes SA ou souscription, Azure Hybrid Benefit est maintenant accessible également pour certaines distributions Linux (Red Hat Enterprise Linux or SUSE Linux Enterprise).

Il existait déjà une option en Bring Your Own Subscription qui permettait à un client Red Hat ou SUSE d’utiliser ses souscriptions Linux pré existantes pour équiper des VM dans Azure. Avec l’extension Azure Hybrid Benefit, Microsoft indique que cette capacité est enrichie :

  • Possibilité d’obtenir des images depuis l’Azure Marketplace ou l’Azure Portal, pas besoin de venir avec sa propre image.
  • Possibilité de simplement convertir les images Pay as you Go utilisées lors des testes de Proof of concept en souscription, pas besoin de procéder à un nouveau déploiement.
  • Maintenance automatique des images, Microsoft prenant en charge les mises à jour et les correctifs.
  • Guichet unique pour le support technique d’Azure, Red Hat et SUSE.

ARM : sur les serveurs aussi ….

CPU ARM A64FX – Source : Wikipedia Commons

Nous en parlions ici même vendredi, les architectures ARM gagnent de plus en plus de support sur nos appareils, smartphones et tablettes depuis longtemps, mais aussi sur les ordinateurs avec les nouveaux MacBook.

Mais les serveurs ne sont pas en reste non plus. En tout cas si l’on regarde les derniers résultats publiés par le projet Top500 qui propose tous les 6 mois la liste des 500 supercalculateurs le plus puissants au monde. Ce mois de novembre 2020, Top500 propose la 56ème édition de sa liste (qui existe depuis 1993). Et le numéro 1 de la liste est le système Fugaku, développé par Fujitsu pour le compte de l’institut scientifique japonais RIKEN, et dont la particularité est d’être basée sur un assemblage de processeurs Fujitsu A64FX d’architecture ARM. Chaque A64FX comprend 48 coeurs. Fugaku tenait déjà la pole position sur la dernière mise à jour de juin 2020 et Fujitsu a encore accru son avance sur le numéro 2, la machine Summit d’IBM (ex numéro 1) pour proposer aujourd’hui :

  • près de 160 000 processeurs A64FX
  • soit un total de 7 630 848 coeurs,
  • pour une performance de 442 pétaflops (nouveau record mondial), selon le benchmark HPL (High Performance Linpack)

Le second sur le podium est donc Summit, le système d’IBM, à base de processeurs maison Power9 et de GPU Nvidia, avec une performance de moins de 200 petaflops, et le troisième est aussi une machine d’origine IBM, Sierra, avec un peu moins de 95 petaflops, et des processeurs Power9 et Nvidia.

Lire la suite

Transfert des données hors Europe : toujours pas de solution en vue

Depuis l’invalidation par la Cour Européenne de Justice l’été du Privacy Shield (qui définissait le cadre légal de sortie des données de l’Europe vers les USA), considéré comme insuffisant en termes de protection des données personnelles vis à vis de la loi américaine, la sortie des données depuis le territoire européen vers les USA se fait dans un flou total. En effet, en l’absence d’une réglementation remplaçant le Privacy Shield les entreprises qui envoient les données de résidants européens vers d’autres pays s’exposent à des actions en justice puisqu’aucun support légal ne le permet, et donc au cas par cas il faut identifier si le pays destinataire (ou ceux en transit) offrent un cadre légal qui protège aussi bien que celui de l’Europe. Sachant qu’en l’état, ni les USA ni de nombreux autres pays n’offrent ces garanties…

Les avis de l’European Data Protection Board (EDPB) ou Comité Européen de Protection des Données (CEPD) sont donc attendus pour essayer d’y voir plus clair. Le CEPD est l’autorité chargée de la protection des données pour les institutions, organes et organismes de l’Union européenne, et elle a été institué dans le cadre de la mise en place du RGPD. Le 10 novembre dernier, le CEPD vient de publier ses « Recommandations 01/2020 sur les mesures qui complètent les outils de transfert pour assurer le respect du niveau européen de protection des données à caractère personnel« , qui définit le cadre dans lequel des données peuvent être échangées, en garantissant le respect de la loi européenne. Et ces recommandations semblent loin d’apporter les clarifications attendues pour sortir du flou. Les recommandations du CEDP portent à la fois sur les aspects contractuels, organisationnel et surtout des mesures techniques drastiques, en particulier liées au cryptage (obligatoire) et à la pseudonymisation des données. Ainsi pour certains experts (voir ici l’analyse de Theodore Christakis, professeur de droit international et européen à l’Université de Grenobl, sur son blog), les possibilités de transfert sont en l’état quasi impossibles.

En résumé, les orientations de l’EDPB indiquent clairement qu’aucun transfert de données ne doit avoir lieu vers des pays non adéquats/non équivalents, à moins que les données ne soient cryptées ou pseudonymisées de manière si complète qu’elles ne puissent être lues par personne dans le pays destinataire, même pas par le destinataire prévu.

Theodore Christakis

Bref, la sortie du tunnel ne semble pas pour tout de suite ….

Teams et Power Platform : vers plus d’intégration

Microsoft continue à délivrer sur sa promesse de faire de Teams LE hub de travail pour l’entreprise collaborative. Hier l’entreprise a donc annoncé sur le blog Teams, l’arrivée de nouveaux outils pour développer des applications « low code » :

  • Power Apps pour Teams : version de Power Apps intégrée à Teams, qui permet de développer des applications simples, de manière graphique, sans codage, et qui peuvent être ajoutées directement à des équipes.
  • Power Virtual Agents : pour créer des chatbots dans Teams, avec l’interface graphique et sans code.
  • Microsoft Dataverse pour Teams : nouvelle composante de la Power Platform, Dataverse Dataverse for Teams fournit un sous-ensemble de Microsoft Dataverse (anciennement CDS – Common Data Service), permettant ainsi aux applications développées dans Teams d’avoir un accès sur les modèles de données accessibles.

Si vous souhaitez en savoir plus sur les solutions low code/no code de Microsoft, retrouvez vous pour une session du Briefing Calipia 30, les 9, 11, 15 ou 16 décembre prochain, via …. Microsoft Teams.

Briefing Calipia 30 : l’Impact environnemental du cloud entre débauche et sobriété

La pandémie de COVID-19 et les épisodes de confinement associés ont fortement booster les usages du digital dans nos pratiques personnelles et professionnelles. Nous ferons un point sur l’impact environnemental de tous ces usages lors du prochain Briefing Calipia les 9, 11, 15 et 16 décembre prochain. Venez nous rejoindre sur https://www.calipia.com/briefing !

Alliance OVH / Google Cloud EN EUROPE

Google Cloud et OVH Cloud viennent d’annoncer hier 9 novembre 2020 la mise en place d’un » partenariat stratégique pour co-construire une solution de confiance en Europe. Il s’agit d’une belle réussite pour la société familiale de Roubaix qui affiche ainsi un accord avec un des géants du cloud mondial.

Ce partenariat s’inscrit d’une part dans la stratégie de Google pour remonter sur le duo de tête du cloud d’entreprise, AWS et Microsoft. Depuis maintenant plusieurs années, Google a affiché sa volonté de diversifier son activité au-delà de la publicité (qui représente encore 81% sur le dernier trimestre publié – juillet à septembre 2020), et de ne pas laisser seuls AWS et Microsoft sur le terrain du cloud d’entreprises. Par ailleurs, la remise en cause l’été dernier du Privacy Shield par la Cour de Justice Européenne, est en passe de rebattre les cartes du cloud en Europe. La pression de la Commission Européenne sur Google, Microsoft et AWS, avec notamment au coeur des débats la protection des données personnelles, incite les géants à nouer des accords avec des acteurs plus petits, ex concurrents, mais qui ont le grand mérite d’être des locaux…

OVHcloud proposera une nouvelle offre Hosted Private Cloud alliant la technologie Anthos de Google Cloud, compatible avec les technologies Open source, depuis sa propre infrastructure dédiée, hyper évolutive qui sera entièrement exploitée et gérée en Europe, par les équipes OVHcloud.

Source : OVH

Quant à l’intérêt d’OVH il est clair aussi. Grâce à ce partenariat, l’entreprise française accède à une visibilité et une technologie qui jusqu’à présent lui manquait (avec tout les respect dû à la success story de Roubaix).

AWS intègre les GPU NVIDIA A100

Source : AWS

Près de 4 mois après Google, et 3 mois après Microsoft, AWS annonce le support des GPU Nvidia les plus puissantes actuellement, A100, sous la forme d’une nouvelle instance EC2 (Elastic Compute Cloud) dénommée P4d, qui comptera 8 GPU Nvidia A100.

Les instances P4d disposent de 8 GPU NVIDIA A100 Tensor Core capables d’atteindre 2,5 pétaflops de performance de précision mixte et 320 Go de mémoire GPU à haut débit dans une instance EC2. Les instances P4d sont les premières du secteur à offrir une bande passante réseau de 400 Gbps avec les interfaces réseau Elastic Fabric Adapter (EFA) et NVIDIA GPUDirect RDMA pour permettre une communication directe entre les GPU sur les serveurs pour une latence réduite et une plus grande efficacité de mise à l’échelle, ce qui contribue à débloquer les goulots d’étranglement de mise à l’échelle dans les charges de travail distribuées sur plusieurs nœuds. Chaque instance P4d offre également 96 vCPU Intel Xeon Scalable (Cascade Lake), 1,1 To de mémoire système et 8 To de stockage NVMe local.

Source : AWS

Cette nouvelle instance est selon AWS, avant tout destinée à l’entrainement de modèle de Machine Learning, mais aussi à tout workload exigeant en termes de performance de calcul et de mémoire, tels que « l’analyse sismique, la découverte de médicaments, le séquençage de l’ADN, la science des matériaux et la modélisation des risques financiers et d’assurance ».

Si vous êtes intéressés par ces bêtes de course, sachez qu’il vous en coutera 32,77$/heure, et si vous êtes près à réserver une instance sur un an, 19,22 $/heure (ou 11,57 sur 3 ans).

Bye Bye NETMARKETSHARE !

Le site Netmarketshare qui compile depuis 14 ans des statistiques d’utilisation d’OS, de navigateurs, types de tablettes … vit ses dernières heures, et c’est bien dommage pour tous ceux qui comme nous l’utilisions régulièrement.

Comme l’indique la bandeau affiché sur le site, la raison de cet arrêt est principalement liée à des modifications de navigateurs qui vont rendre inopérantes les solutions de détection de Netmarketshare, et fausser les résultats d’usages. De plus, les algorithmes de l’entreprise permettaient de distinguer le bon grain de l’ivraie en termes de trafic sur le web, et donc d’identifier ce qui provenait de bots pour obtenir des chiffres correspondant à la réalité. Sur ce point, Netmarketshare indique que la complexité de cette tâche est devenue trop lourde pour garantir des mesures d’usages précises 😦

Briefing Calipia 30 : un point sur l’intégration de LinkedIn 4 ans après son rachat

Lors des sessions du Briefing Calipia 30, les 9, 11, 15 et 16 décembre prochain, nous ferons le point sur l’intégration de LinkedIn, 4 ans après son rachat par Microsoft. Cette intégration touche plusieurs facettes du portefeuille de services de Microsoft, et constitue un vrai succès.

Si vous voulez en savoir plus, venez nous inscrire à l’une de nos sessions en ligne.

« Entrées précédentes