Archives d’Auteur : Stephane Sabbague

AWS : disponibilité du service de localisation multi-source

Amazon Web Services (AWS) a annoncé la disponibilité générale d’Amazon Location Service, une nouvelle offre qui permet aux entreprises d’ajouter plus facilement des fonctionnalités de localisation à leurs applications. Cette offre se veut être très simple à utiliser tout en gérant la confidentialité ou la sécurité des utilisateurs. Les données, provenant des fournisseurs de services de localisation (LBS) Esri et HERE Technologies, peuvent fournir des cartes, des points d’intérêt, la planification d’itinéraires, le géocodage, le géofencing et le suivi des actifs. Autant d’applications qu’il est actuellement bien sur possible de réaliser avec les services de Google, Microsoft ou même ceux d’Apple, mais qui reste mono-source. Pour se démarquer, AWS insiste sur trois éléments :

  • La simplicité de mise en oeuvre, en particulier dans le cadre de fournisseurs de cartographie multiples
  • Le coût
  • La confidentialité

Le service fournit également une API unique qui fonctionne avec tous les fournisseurs LBS, ce qui permet aux clients de passer facilement de l’un à l’autre pour différents cas d’utilisation ou régions plus ou moins bien couverte par une des offres. Plus précisément, il permet une telle variation sans qu’il soit nécessaire d’embarquer de nouveaux fournisseurs ou de mettre en place une infrastructure distincte. Amazon Location Services s’intègre aux autres offres de la société, notamment Amazon CloudWatch, AWS CloudTrail et Amazon EventBridge. Il s’intègre également à AWS Identity, Access Management (IAM) et Amazon Cognito pour ce qui est de la mise en place de solutions plus sécurisées.

Concernant la confidentialité des données, Amazon insiste sur le fait que les conditions de licence associées à Amazon Location Service n’accordent pas à l’entreprise ou à des tiers le droit de vendre ou d’utiliser les données de localisation d’un client à des fins publicitaires. On s’en doutait mais bon…

Chiffrement des conversations vocales : Teams rattrape (enfin et bientôt) son retard

On attendait une date de disponibilité pour la fonction de chiffrement des communications vocales de bout en bout après l’annonce qu’avait faite sur le sujet Microsoft en mars dernier lors de l’évènement Ignite. Cela devrait être déployé dès juillet.

Actuellement, que les choses soient claires, tous les types de communication entre les utilisateurs de Microsoft Teams et les serveurs sont déjà bien sur sécurisés, mais à l’aide de TLS (un chiffrement de base du web moins sécurisé). Selon Microsoft, actuellement le chiffrement des données de Microsoft Teams se produit « en transit et au repos », et il permet aux services autorisés de décrypter et de surveiller le contenu des réunions ou des chats… Demain avec la nouvelle version, les utilisateurs pourront activer le chiffrement pour les appels 1:1 non programmés en activant l’option « E2EE » dans les paramètres. Un peu plus tard, Microsoft prévoit d’étendre cette fonctionnalité pour prendre en charge les appels programmés et les réunions en ligne.

Microsoft précise dans sa communication que le chiffrement de bout en bout nécessitera que l’appelant et le destinataire de l’appel activent tous les deux cette option sur leurs clients Teams. Seront concernés aussi bien sur, les transferts d’appels, les enregistrements et le sous-titrage.

Microsoft rattrape donc enfin son retard là dessus après avoir passé par mal de temps à expliquer que la sécurité TLS était suffisante 🙂 . Son grand concurrent (sur la partie visio conférence) Zoom avait annoncé souvenez-vous cette fonctionnalités dès l’année dernière à la même époque.

Tout savoir sur les nouveautés de Teams : inscrivez-vous au Briefing Calipia les 14 et 15 juin, il reste encore quelques places (complet pour les 9 et 10)

Azure Defender protégera les serveurs Linux

Le mois dernier, Microsoft avait annoncé la prise en charge, via Microsoft Defender for Endpoint security, de la protection de machines Linux et de la possibilité de réaliser des analyses après intrusion. Poursuivant sa stratégie, Microsoft annonce aujourd’hui que Azure Defender disposera à court terme de la capacité de protéger les serveurs Linux. La beta est attendue dans une dizaine de jours (le 14 juin normalement).

Les distributions de serveurs Linux suivantes seront prises en charge par la beta d’Azure Defender :

  • Red Hat Enterprise Linux 7.2 ou version supérieure
  • CentOS 7.2 ou version supérieure
  • Ubuntu 16.04 LTS ou version supérieure
  • Debian 9 ou supérieure
  • SUSE Linux Enterprise Server 12 ou version supérieure
  • Oracle Linux 7.2 ou version supérieure

Attention on parle ici à la fois de protection dans le Cloud (Azure) mais aussi en local Azure Defender fonctionnant pour rappel avec des environnements hybrides. Cette protection est possible par l’utilisation de l’agent Azure Arc. Azure Arc étant défini comme la « plateforme de gestion multi-cloud et sur site ».

Aucune information complémentaire en matière de licensing n’est en revanche annoncée, impossible de savoir par exemple si une licence pour Azure Arc est nécessaire pour utiliser l’agent nécessaire dans ce type d’usage. Pour cela il faudra sans doute attendre la version finale.

IoT et Sécurité : Microsoft rachète ReFirm Labs

Le mois dernier, nous vous en parlions, Microsoft avait publié un nouvel outil appelé Counterfit qui automatise les tests de sécurité des systèmes d’IA d’une organisation et s’est associé à Darktrace pour aider les clients à combattre les cybermenaces avec là aussi de l’IA.

Aujourd’hui, Microsoft a annoncé l’acquisition de ReFirm Labs, une société américaine qui fournit des outils pour évaluer et surveiller les risques qui se cachent dans le micrologiciel des appareils IoT et connectés. Cette acquisition devrait renforcer la plateforme Azure Defender for IoT de Microsoft, en aidant à se protéger contre les attaques exploitants le micro code des objets connectés. Il est effectivement à craindre que ce code intégré dans ces objets multiples et souvent mal protégé devient rapidement la prochaine surface d’attaque de choix dans un contexte ou de nombreux constructeurs d’appareils qui intègrent des composants tiers dans leurs produits manquent souvent d’expertise ou d’outils pour détecter toute vulnérabilité. Ceci est aussi vrai sur des objets du quotidien, de domotique, que sur des objets industriels.

Selon une enquête récemment commandée par Microsoft auprès de 1 000 RSI, 83 % des personnes interrogées ont été confrontées à un incident de sécurité lié aux microcode, mais seulement 29 % ont consacré des ressources à la découverte et à la résolution des problèmes…

Avec l’ajout de la technologie de ReFirm Labs et de son outil d’analyse de microcode open-source Binwalk, Microsoft veut fournir aux clients une solution tout-en-un, basée sur le cloud, qui les aidera à identifier, surveiller et répondre aux problèmes de sécurité allant du niveau de la puce et du micrologiciel au réseau et au cloud.

Windows 11 annoncé le 24 juin ?

La semaine dernière, lors de la Build, nous nous attendions tous à une annonce sur la nouvelle interface de Windows 10 après l’abandon annoncé officiellement mi mai de Windows 10X. Mais visiblement le système n’était pas encore prêt… Le patron de Microsoft Satya Nadella a donc repoussé cette présentation en indiquant tout de même que cette version sera la plus importante depuis Windows 10… Du bon teasing donc.

Et bien, nous en saurons plus le 24 juin.

Alors, que faut-il attendre de cette version ? Les spéculations vont bon train. Nouvelle version avec nouvelle numérotation ? Version 11 ou sans numéro « Windows » tout simplement ? Nouvelle version grand public alors que Windows 10 classique continuera sa route ? Une chose est sure nous devrions avoir (enfin) la nouvelle interface Sun Valley (nous reviendrons sur ceci lors du Briefing qui commence la semaine prochaine, il reste des places pour la semaine suivante les 14 et 15 juin).

Les tunnels d’Elon Musk seront largement prets pour le prochain CES et nous espérons bien les tester !

IMG_20210222_152813-2.jpg

C’est à la fin du mois que les tunnels de « The Boring Company » , la société d’Elon Musk commencera officiellement sont activité à Las Vegas à savoir faire circuler des passagers dans les tunnels jumeaux qu’elle a construits sous le Las Vegas Convention Center (LVCC). Ceux qui nous accompagnent depuis plusieurs années le savent, les embouteillages sont souvent monstres pour se déplacer entre les différents lieux de la convention, si bien que nous faisons souvent cela à pied !

Pour palier ceci la société d’Elon Musk à remporté un contrat pour construire des tunnels et y faire circuler des voitures autonomes… et devinez quoi se sont des Tesla 🙂 Depuis quelques jours la société test ses tunnels avec du public ! Les vidéos, les images et les récits partagés sur Internet par les personnes qui se sont présentées au test offrent une vision assez précise de la solution proposée par Musk pour traverser le campus du LVCC. Il s’agit littéralement de Teslas conduites à travers deux tunnels de 1,3 Km. Il faut en période de convention 45 min pour parcourir une distance que devrait se faire en 2 minutes avec ces tunnels.

Voici une petite Vidéo publiée sur The Verge qui présente l’expérience de quelques testeurs (ils sont dans le tunnel à partir de la 11 ème minute environ).

Le système « LVCC Loop » comporte trois arrêts. Les stations situées à chaque extrémité sont en surface, tandis que celle du milieu se trouve à la même profondeur que les tunnels.

Le tunnel semble très étroit et éclairé d’une drôle de façon depuis le bas ce qui donne cet aspect assez futuriste à mon avis. Si il y a encore un conducteur humain qui supervise, la conduite devrait être à terme complètement autonome avec une vitesse de 150 miles / heure … 240 Kmh ! Nous en sommes très loin encore avec une vitesse de 70 Kmh durant les tests…

La société affirme vouloir transporter à terme 4 400 personnes par heure dans les tunnels de la LVCC Loop.

Autant le dire tout de suite, nous testerons sans aucun doute ceci par nous même lors du prochain CES en janvier ! Si vous êtes intéressé pour nous accompagner là bas, faites nous signe !

Le protocole QUIC de Google enfin validé par l’IETF

Cela fait depuis 2013 que Google travaille sur l’accélération d’Internet via le protocole QUIC (Quick UDP Internet Connections). Google avait présenté QUIC pour la première fois en juin 2013 sous la forme d’un module complémentaire expérimental pour Chrome, et en a rapidement fait la principale méthode de transport des données entre des applications comme Chrome et les serveurs de Google. Nous vous en parlions lors du dernier Briefing Calipia en décembre 2020. Un peu plus tard en 2016, l’entreprise avait soumis QUIC à l’IETF pour examen.

5 ans plus tard, le protocole devient une norme officielle de l’Internet validée par l’IETF, enfin. La technologie de transmission de données plus rapide est suffisamment bien établie maintenant pour être utilisée à grande échelle. L’usage de ce protocole entre Chrome et les serveurs de Google donnait un avantage en terme de rapidité au navigateur de Google dès lors qu’il se connectait aux serveurs maison. Cela ne devrait plus être le cas maintenant. Microsoft ayant annoncé aussi le support de cette technologie.

Concrètement, cette technologie remplace effectivement le TCP (Transmission Control Protocol), qui gère la manière dont les données sont placées dans des paquets adressés, acheminés et renvoyés vers des informations utilisables. QUIC utilise cette fois le protocole UDP (User Datagram Protocol), plus rapide, tout en offrant une récupération plus rapide. Il permet également des connexions cryptées plus rapides et une meilleure gestion des commutateurs de réseau. En d’autres termes, vos visites de sites web sécurisés, vos chats audiovisuels et votre navigation mobile devraient bénéficier des plus grandes améliorations.

Ceci dit, reste à savoir si QUIC sera largement adopté ou non. S’il s’agit désormais d’une norme que tout le monde peut utiliser, il n’y a peut-être pas d’empressement à abandonner le protocole TCP, qui est disponible depuis 1974. QUIC pourrait se répandre progressivement parmi les entreprises et les services qui pourraient bénéficier de la vitesse supplémentaire, mais une transition globale pourrait ne pas se produire avant longtemps, voire pas du tout.

Perlmutter : le superordinateur d’IA le plus rapide du monde.

Image Nvidia

IMPRESSIONNANT ! Nvidia et le National Energy Research Scientific Computing Center (NERSC) ont mis en marche jeudi dernier le Perlmutter, présenté comme le supercalculateur le plus rapide du monde pour l’intelligence Artificielle. Il doit son nom en l’honneur de l’astrophysicien Saul Perlmutter, qui travaille toujours comme astrophysicien au Berkeley Lab, et avait reçu le prix Nobel de physique en 2011 pour sa contribution à la découverte de l’énergie noire.

Saul Perlmutter

Le nouveau supercalculateur est doté de 6 144 GPU NVIDIA A100 Tensor Core et sera chargé, entre autres, d’assembler la plus grande carte 3D jamais réalisée de l’univers visible. Il traitera les données de l’instrument spectroscopique d’énergie noire (DESI), une sorte de caméra cosmique qui peut capturer jusqu’à 5 000 galaxies en une seule exposition. Il est hébergé au NERSC du Lawrence Berkeley National Laboratory.

« Perlmutter est le système le plus rapide de la planète pour le calcul en 16 et 32 bits utilisées dans les applications d’intelligence artificielle (IA) »

Dion Harris, responsable marketing des produits HPC/AI de Nvidia

Selon Nvidia, qui démontre ici son savoir faire indéniable en IA, les chercheurs ont besoin de la vitesse des GPU de Perlmutter pour capturer des dizaines d’expositions d’une nuit afin de savoir où diriger les appareils de vision la nuit suivante. La préparation d’une année de données en vue de leur publication prendrait des semaines ou des mois sur les systèmes précédents, mais Perlmutter devrait les aider à accomplir cette tâche en quelques jours seulement…

« Les gens explorent des modèles de réseaux neuronaux de plus en plus grands et il y a une demande d’accès à des ressources plus puissantes. Perlmutter, avec ses GPU A100, son système de fichiers all-flash et ses capacités de streaming de données, arrive à point nommé pour répondre à ce besoin d’IA ».

Wahid Bhimji, responsable par intérim du groupe des services de données et d’analyse du NERSC.

Perlmutter permettra aux quelque 7 000 chercheurs soutenus par le NERSC d’accéder à quatre exaflops de performances de calcul en précision mixte pour des projets scientifiques assistés par l’IA. Outre le projet de cartographie, les chercheurs utilisent le supercalculateur pour des travaux dans des domaines tels que la climatologie, où Perlmutter aidera à sonder les interactions subatomiques pour découvrir des sources d’énergie vertes. Sujet ô combien important maintenant aux USA… depuis Biden !

En attendant la mise au point (sans doute plus lointaine) d’un Ordinateur Quantique capable de réaliser avec cette machine, le projet, qui générera des simulations d’interactions entre atomes, requiert le mélange spécial d’IA et de calcul haute performance (HPC) . Le NERSC a déjà constaté des performances de traitement par GPU 20 fois plus rapides que celles des systèmes précédemment disponibles.

Nous reviendrons sur les applications de l’IA dans le domaine des entreprises lors d’une session spéciale du prochain Briefing Calipia qui commence la semaine prochaine et la suivante.

Build 2021 : pléthore de nouveautés pour les développeurs

MyBuild - Your home for Microsoft Build

Microsoft a annoncé une pléthore de nouvelles fonctionnalités pour sa plateforme de cloud computing et ses services associés. Un petit résumé des points les plus marquant selon nous.

On commence par les outils de développements :

  • Visual Studio 2019 16.10 est maintenant disponible avec de nouvelles fonctionnalités IntelliSense, des outils de test et Git, et des fonctionnalités de conformité pour C++.
  • .NET 6 Preview 4 est maintenant disponible et contient de nombreuses améliorations. Les développeurs d’applications multi-plateformes peuvent maintenant utiliser l’interface utilisateur d’applications multiplateformes .NET (.NET MAUI) directement dans Visual Studio. Coté développeurs Web Microsoft annonce qu’ils pourront tirer parti des applications hybrides ASP.NET Blazor. Pour rappel, Blazor est une infrastructure permettant de créer une interface utilisateur Web interactive côté client en .net et d’utiliser C# au lieu de Javascript (et de partager plus simplement la logique entre client et serveur, comme on peut le faire en Javascript avec Nodejs par exemple).
  • Toujours côté .net Microsoft annonce la prise en charge d’Apple Silicon et de Windows Presentation Foundation (WPF) sur ARM64 (Windows ARM).
  • Microsoft propose aussi des images de conteneur plus petites (qui ont une empreinte mémoire moindre) et des API Web pouvant être utilisées pour créer des microservices plus petits donc et on imagine plus rapides.

Côté services Azure toujours pour les développeurs :

  • les services d’applications Azure sont désormais compatibles avec Azure Arc (services d’administration centralisée de services multicloud et hybrides), ce qui signifie qu’ils peuvent aussi désormais être déployés sur des clusters Kubernetess.
  • Open Service Mesh (OSM) est désormais disponible en beta (qui est pour rappel un maillage de services cloud natif gratuit et open source développé par Microsoft qui s’exécute sur Kubernetes). Ce module complémentaire permet une gestion et une sécurité plus efficaces des clusters Kubernetes compatibles avec Azure Arc.
  • Azure Kubernetes Services (AKS) sur Azure Stack HCI est maintenant disponible. Grâce à cela, le déploiement de clusters Kubernetes vers des environnements sur site est plus simple. On retrouve également sur Azure Stack HCI un nouveau mécanisme de surveillance multi-clusters.
  • Azure Security Center peut désormais afficher les résultats d’une analyse de conteneur à l’aide des actions GitHub pour une meilleure traçabilité.
  • Vous en rêviez, la version 0.4 d’Azure Bicep est dispo. Pour rappel, il s’agit d’un langage déclaratif open source pour le déploiement de ressources. On peut donc utiliser Bicep au lieu de JSON pour développer les modèles Azure Resource Manager (modèles ARM). Microsoft annonce que cette nouvelle version facilite la gestion et la validation des bases de code.
  • Deux mises à jour sur Azure IoT sont aussi disponibles. Tout d’abord, les capacités d’imbrication dans Azure IoT Edge qui permettent aux fabricants de consolider les données provenant de divers systèmes et de les transmettre en toute sécurité dans le cloud. Deuxièmement, Azure IoT Edge pour Linux sur Windows est aussi proposé en version finale, ce qui permet de tirer parti à la fois de Windows et de Linux au lieu d’opter pour l’un des deux seulement.
  • Enfin, Microsoft et Elastic ont annoncé travailler ensemble pour publier une expérience native sur Azure. L’intégration est actuellement en phase beta et permet d’utiliser les capacités de recherche et de visualisation à partir du portail Azure.

Nous reviendrons sur une partie de ces éléments lors du Briefing.

« Entrées précédentes