Archives des étiquettes : Azure

Services Azure OpenAI assurés avec l’aide des composants Nvidia

Microsoft met en avant ses offres pour créer des supercalculateurs via son programme de cloud computing Azure pour aider la société OpenAI. Parallèlement, la société a également annoncé une nouvelle machine virtuelle d’IA utilisant les nouvelles GPU améliorés de NVIDIA. Ainsi la nouvelle ND H100 v5 VM de Microsoft utilise, on s’en doutait, les GPU H100 de NVIDIA, Il est donc possible pour toutes les entreprises qui ont besoin d’ajouter des fonctions d’IA d’accéder à ce service de machine virtuelle qui présente les caractéristiques suivantes, un nouveau bond en terme de performance :

8x GPU NVIDIA H100 Tensor Core interconnectés via la nouvelle génération de NVSwitch et NVLink 4.0

  • 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand par GPU avec 3,2 To/s par VM dans un réseau fat-tree non bloquant
    NVSwitch et NVLink 4.0 avec une bande passante bisectionnelle de 3,6 To/s entre 8 GPU locaux dans chaque VM.
  • Processeurs Intel Xeon Scalable de 4ème génération
    Interconnexion hôte-GPU PCIE Gen5 avec une bande passante de 64 Go/s par GPU
    16 canaux de DIMM DDR5 à 4800 MHz

Cette offre vient s’ajouter au ChatGPT in Azure OpenAI Service annoncé précédemment par Microsoft, nous vous en parlions hier sur le blog, qui permet à des tiers d’accéder à la technologie des chatbots via Azure.

Dans un autre billet de blog, Microsoft explique comment l’entreprise a commencé à travailler avec OpenAI pour aider à créer les supercalculateurs nécessaires au grand modèle de langage de ChatGPT (donc le nouveau Bing). Pour ce faire, il a fallu relier des milliers de GPU d’une toute nouvelle manière. Le blog propose une explication de Nidhi Chappell, chef de produit chez Microsoft pour Azure High Performance Computing and AI :

Pour former un grand modèle de langage, explique-t-elle, la charge de calcul est répartie entre des milliers de GPU dans un cluster. À certaines phases de ce calcul – appelé allreduce – les GPU échangent des informations sur le travail qu’ils ont effectué. Un réseau InfiniBand accélère cette phase, qui doit se terminer avant que les GPU ne puissent commencer le morceau de calcul suivant.

Ce matériel est associé à un logiciel qui permet d’optimiser l’utilisation des GPU NVIDIA et du réseau qui les fait fonctionner ensemble. Microsoft indique qu’elle continue d’ajouter des GPU et d’étendre son réseau tout en essayant de les faire fonctionner 24 heures sur 24 et 7 jours sur 7 grâce à des systèmes de refroidissement, des générateurs de secours et des systèmes d’alimentation électrique sans interruption.

ChatGPT en preview sur Azure OpenAI

Image générée par Midjourney 🙂

Microsoft a annoncé en fin de semaine que son service Azure OpenAI offre désormais en preview de ChatGPT, le célèbre moteur de chat basé sur OpenAI. Le service Azure OpenAI de Microsoft prend déjà en charge d’autres modèles génératifs OpenAI, notamment « Dall-E 2 » pour la génération d’images, « GPT-3.5 » pour la génération de langage naturel et de code, et « Codex » pour la génération de code à partir de langage naturel. L’ajout de l’aperçu ChatGPT permettra donc de renforcer les chatbots pour les utiliser dans le cadre du service à la clientèle, entre autres cas d’utilisation.

Voici comment Microsoft décrit ces cas d’utilisation :

« Désormais, avec ChatGPT en avant-première dans Azure OpenAI Service, les développeurs peuvent intégrer des expériences personnalisées basées sur l’IA directement dans leurs propres applications, notamment en améliorant les robots existants pour répondre à des questions inattendues, en récapitulant les conversations dans les centres d’appels pour permettre une résolution plus rapide des problèmes d’assistance à la clientèle, en créant de nouveaux textes publicitaires avec des offres personnalisées, en automatisant le traitement des réclamations, et bien plus encore« .

Microsoft vend également l’utilisation de son service Azure Cognitive Search avec ces chatbots améliorés par ChatGPT. L’intégration avec Azure Cognitive Search permettra aux organisations de connecter le chatbot à des données spécifiques de l’entreprise, évitant ainsi les réponses génériques. Le service Azure Cognitive Search agit comme « une base de connaissances externe qui peut retrouver des éléments rapidement et avec une bonne pertinence », a expliqué Microsoft dans cette annonce.

Microsoft a présenté également Azure OpenAI Studio, un environnement de développement permettant de créer des applications intelligentes « sans code ». Il peut également être utilisé pour « personnaliser ChatGPT ».

En général, Microsoft utilise « la puissance des grands modèles de langage d’OpenAI et l’infrastructure optimisée pour l’IA d’Azure » pour soutenir ses divers produits commerciaux et grand public, nous vous parlions de ceci avec Dynamics la semaine dernière sur le Blog.

Le service Azure OpenAI peut être utilisé dans différents scénarios, selon Microsoft. Il peut être utilisé pour générer du contenu en réponse aux demandes des clients ou pour personnaliser l’interface utilisateur sur les sites web. Il peut être utilisé pour résumer le contenu dans des scénarios d’assistance à la clientèle ou pour résumer les tendances des médias sociaux. Le service Azure OpenAI peut également générer du code à partir de requêtes en langage naturel, y compris des requêtes SQL et de la documentation de code. Le service renforce également la recherche grâce à ses capacités de « knowledge mining ».

Le choses qui fâchent
La preview de ChatGPT dans le service Azure OpenAI peut actuellement être essayé, mais Microsoft peut facturer certains aspects, même en beta… : Microsoft indique que le prix est de 0,002 $/1k tokens et la facturation pour toute utilisation de ChatGPT commence à partir d’aujourd’hui (13 mars). Outre le tarif d’utilisation des modèles (appelé « inferencing » et facturé sur la base des « tokens »), Azure OpenAI a des coûts d’hébergement et de formation. Les détails de la tarification sont indiqués sur cette page. Ainsi le taux d’utilisation du modèle d’inférence pour 1 000 jetons varie en fonction du modèle d’IA sélectionné. Par exemple, le modèle « Curie » est tarifé à « 0,002 $/1 000 jetons ».

La page de tarification ne donne pas beaucoup de détails sur ces questions, nous reviendrons sur ceci lors d’une session dédiée au prochain Briefing Calipia, histoire de tenter de comprendre les modes de tarifications cloud en général de l’éditeur. N’hésitez pas à vous inscrire.

IPv6 arrive sur Azure AD

Microsoft avait annoncé la prise en charge globale d’IPv6 sur les services Azure dès 2016 mais la semaine dernière elle a annoncé commencer à apporter la prise en charge du protocole Internet version 6 (IPv6) à ses services Azure Active Directory.

Ce changement pourrait présenter un avantage financier en premier lieu, car la prise en charge de l’IPv6 pourrait également contribuer à réduire les dépenses liées aux adresses IPv4 coûteuses et surtout en voie d’épuisement rapide. Néanmoins aucune obligation à ce stade de passer par iPV6 et Microsoft précise qu’il n’a pas l’intention de « déprioriser » l’IPv4, car son utilisation ne devrait pas disparaître dans un avenir proche…

La prise en charge d’IPv6 pour Azure AD arrivera selon « une approche progressive », à partir du 31 mars 2023, les utilisateurs d’Azure AD pourront accéder à ces services via « des points d’extrémité IPv4, IPv6 ou à double pile », explique Microsoft.

Sans surprise, Microsoft a conseillé de procéder à un audit avant le prochain changement d’IPv6. Ils devraient vérifier s’ils utilisent des « emplacements nommés » ou Azure AD « des politiques d’accès conditionnel basées sur l’emplacement pour restreindre et sécuriser l’accès à leurs applications », ce qui pourrait avoir logiquement des effets avec la prise en charge d’IPv6.

Microsoft précise que dans certains cas, l’utilisation d’une adresse IPv6 sera déclenchée automatiquement. Par exemple,lorsque Exchange Online est utilisé avec des méthodes d' »authentification anciennes ». L’Outlook Web App utilisé dans un navigateur peut voir sa session interrompue s’il n’y a pas de plage d’adresses IPv6 configurée, prévient également microsoft. L’entreprise précise aussi que les organisations utilisant Azure VNets auront « du trafic provenant d’une adresse IPv6 », de sorte que les politiques d’accès conditionnel Azure AD doivent être vérifiées pour toute exclusion IPv6.

Pour rappel il est possible d’identifier le trafic IPv6 utilisé avec leurs locations Azure AD via les « rapports d’activité de connexion Azure AD« . Ils devront ajouter une colonne « adresse IP » au rapport pour voir cette activité

IA : Microsoft restreint l’usage de certains de ces outils

Suivant les traces de Google, Microsoft arrête la vente de technologies de lecture des émotions. L’entreprise limitera également l’accès à la technologie de reconnaissance faciale.

Que se passera-t-il pour les clients utilisant ces technologies, ou encore les applications comme la très impressionnante (et gratuite) application Microsoft Seeing AI disponible sur iOS ? Les clients existants n’auront qu’un an avant de perdre l’accès à Azure Face, un ensemble d’outils d’intelligence artificielle qui tentent de déduire les émotions, le sexe, l’âge, le sourire, la pilosité faciale, les cheveux et le maquillage. Logiquement l’app Seeing AI verra donc ses fonctions largement amputées et perdra de son intérêt face à ce qui existe déjà en standard sour iOS 15 aujourd’hui et iOS 16 demain en matière d’accessibilité (Nous avons détaillé ces fonctions lors du dernier Briefing Calipia ce mois).

Sarah Bird, chef de produit principal de l’unité Azure AI de Microsoft, donne une explication à ces suppressions :

Ces technologies ont soulevé d’importantes questions concernant la vie privée, l’absence de consensus sur la définition des « émotions » et l’incapacité à généraliser le lien entre l’expression faciale et l’état émotionnel à travers les cas d’utilisation, les régions et les données démographiques.

En cause donc le fait que la détection d’émotions se serait pas scientifiquement démontrée, même si cela semble correspondre à l’analyse humaine dans la majorité des cas. Les erreurs seraient néanmoins très fréquentes. Il est possible que la société n’ait pas été en mesure de perfectionner les algorithmes qui devinent l’état émotionnel d’une personne sur la base d’une image et qu’elle jette alors l’éponge sur ceci, ou qu’elle désire se mettre à l’abri de nouvelles règles et réglementations relatives à l’utilisation de ces outils aux USA (comme chez nous d’ailleurs…).

Outre l’arrêt de la vente des technologies de lecture des émotions, Microsoft met également un terme à l’accès illimité à ses technologies faciales. L’entreprise a indiqué que les clients qui utilisent ses technologies de reconnaissance faciale doivent obtenir une autorisation préalable. Toutefois, on ne sait pas si Microsoft impose des restrictions supplémentaires ou si elle demande simplement aux entreprises de signer une clause de non-responsabilité l’exonérant de toute sanction juridique en cas d’utilisation abusive. Pour l’instant, Microsoft s’est contenté de demander à ses clients « d’éviter les situations qui portent atteinte à la vie privée ou dans lesquelles la technologie pourrait poser problème ».

En plus de tout cela, Microsoft impose également certaines restrictions à sa fonction Custom Neural Voice, qui permet aux clients de créer des voix d’IA à partir d’enregistrements de personnes réelles.

En attendant (redoutant ?) une plus forte régulation, les entreprises de la tech se lancent donc dans de l’autorégulation. Une manière d’éviter des restrictions plus importantes des états ?

Des processeurs ARM enfin disponibles pour les VM Azure

Microsoft a confirmé que les processeurs ARM, en particulier ceux développés par Ampere Computing, alimenteront désormais plusieurs machines virtuelles Azure, notamment des serveurs web, des bases de données open-source, des serveurs de jeux, des serveurs multimédias.

Après avoir adopté presque toutes les distributions Linux populaires comme OS cible pour ces VM, la plateforme Azure VM accueille désormais l’architecture ARM. Dans un premier temps ces services seront disponibles en preversion (Beta) dans les régions Azure de l’Ouest des États-Unis, du Centre Ouest des États-Unis et chez nous en Europe de l’Ouest. Ampere Computing, une startup spécialisée dans les processeurs pour serveurs, avait annoncé l’année dernière qu’elle avait signé un partenariat avec Microsoft mais aussi et le géant chinois Tencent (le T des BATX…).

Les machines virtuelles actuellement disponibles en beta prennent en charge Ubuntu, CentOS, mais aussi Windows 11 Professional et Enterprise Edition, en version ARM. Est-ce un signe d’une meilleure prise en charge d’ARM par Microsoft côté client et d’une diversification annoncée de fournisseur (Seul Qualcomm fournissait, timidement, des processeurs pour Windows ARM actuellement ) ? Microsoft a annoncé que Azure devraient bientôt prendre en charge plusieurs autres systèmes d’exploitation tels que Red Hat Enterprise Linux, SUSE Linux Enterprise Server, Debian, AlmaLinux et Flatcar sous AR.

Une pique pour Intel : Microsoft a indiqué que les VM Azure, avec les processeurs Ampere Altra basés sur Arm, offriront un rapport prix/performance jusqu’à 50 % supérieur à celui des VM comparables basées sur x86. L’entreprise cible dans un premier temps des services relativement classques, qui étaient déjà disponibles via des processeur ARM chez AWS et GCP (Google Cloud Platform) : les serveurs web, les serveurs d’applications, les bases de données open-source, les serveurs de jeux, les serveurs de médias, etc.

Les nouvelles machines virtuelles peuvent être configurées avec jusqu’à 64 vCPU, et ont la possibilité d’opter pour des tailles de machines virtuelles avec des configurations de mémoire de 2GiB, 4GiB, et 8GiB par vCPU. Elles disposeront d’un réseau allant jusqu’à 40 Gbps. Un stockage SSD local haute performance est aussi disponible en option.

Nous reviendrons lors du prochain Briefing Calipia sur le sujet ô combien sensible actuellement de l’évolution des processeurs.

Microsoft prépare avec Nvidia de nouveaux GPUs dans Azure pour assurer la confidentialité des données

Afin de garantir la confidentialité et la sécurité des données sensibles dans le cloud, les principaux acteurs utilisent des mécanismes via des contrôles matériels et logiciels qui régissent la manière dont les données sont partagées et utilisées, ainsi que la manière dont les propriétaires des données peuvent valider ces processus. Aujourd’hui, les processeurs Intel et AMD permettent déjà la création d’environnements d’exécution de confiance afin d’assurer la confidentialité au niveau du processeur. Ces fonctions intégrées garantissent que les données restent chiffrées au repos, en transit et même en cours d’utilisation. Elles offres également un moyen pour valider la configuration du matériel et n’accorder l’accès aux données qu’aux algorithmes requis.

Ces solutions sont donc intégrées dans les CPU et Microsoft cherche donc maintenant à étendre ceci aux GPU, Systèmes largement utilisé dans des activités confidentielle lié à l’IA par exemple, ceci afin de s’assurer que les données peuvent être déchargées en toute sécurité vers du matériel plus puissant pour les besoins de calcul. Pour ce faire Microsoft collabore avec Nvidia qui équipe déjà largement des différents datacenter avec ses processeurs.

Microsoft a noté qu’il ne s’agit pas d’une mise en œuvre simple, car elle doit protéger les GPU contre diverses attaques tout en veillant à ce que les machines hôtes Azure disposent d’un contrôle adéquat pour les activités administratives. Au niveau matériel, l’implémentation ne devrait pas avoir d’impact négatif en matière énergétique et en terme de performances d’après les deux sociétés. Nvidia précisant qu’il ne devrait pas non plus nécessiter de modifications de l’architecture GPU existante.

L’entreprise détaille un peu le mode de fonctionnement de cette protection :

Un nouveau mode dans lequel tous les états sensibles du GPU, y compris sa mémoire, sont isolés de l’hôte.
Une racine de confiance matérielle sur la puce du GPU qui peut générer des attestations vérifiables capturant tous les états sensibles de sécurité du GPU, y compris tous les micrologiciels et microcodes.
Extensions du pilote du GPU pour vérifier les attestations du GPU, établir un canal de communication sécurisé avec le GPU et chiffrer de manière transparente toutes les communications entre le CPU et le GPU.
Support matériel pour crypter de manière transparente toutes les communications GPU-GPU sur NVLink.
Support dans le système d’exploitation invité et l’hyperviseur pour attacher de manière sécurisée les GPU à un CPU sécurisé, même si le contenu du CPU est chiffré.

Microsoft a déclaré qu’elle avait déjà intégré des capacités de chiffrement dans les GPU Nvidia A100 Tensor Core sur Azure et que cela a été fait grâce à une nouvelle fonctionnalité appelée Ampere Protected Memory (APM). Les détails de la mise en œuvre sont de nature forcément très technique et vous pouvez les consulter ici.

Cette solution est désormais disponible en bêta privée par le biais des VM GPU confidentielles Azure. Il est actuellement possible d’utiliser des VMs avec jusqu’à quatre GPU Nvidia A100 Tensor Core pour leurs charges de travail Azure à ce stade. Les prochaines étapes de Microsoft consistent à assurer une adoption plus large de ces pratiques et à travailler avec Nvidia sur son architecture Hopper pour améliorer encore la mise en œuvre existante.

Quantique : les travaux de la startup française Pasqal bientôt intégrés à Azure Quantum

Pasqal est une startup française reconnue dans le domaine du quantique pour son « système de traitement quantique à atomes neutres ». Processus que la société doit rendre disponible dans le courant de l’année, il offrira une méthode de traitement des données différente des autres méthodes proposées par l’industrie actuellement et Azure Quantum de Microsoft en particulier. Aujourd’hui Microsoft a annoncé s’allier au français pour offrir cette méthode de traitement dans son service Azure Quantum. Une belle reconnaissance des travaux réalisé de ce côté de l’atlantique.

Ceci dit Pasqal est loin d’être un inconnu, il suffit de se pencher sur l’organisation de la société pour y découvrir son personnel dont Alain Aspect, excusez du peu… connu notamment pour avoir conduit le premier test concluant portant sur un des paradoxes fondamentaux de la mécanique quantique, le paradoxe Einstein-Podolsky-Rosen. Il a obtenu la médaille Niels Bohr en 2013, seul lauréat français à ce jour.

« L’exécution d’algorithmes sur le matériel à atomes neutres de Pasqal ouvre la porte à des capacités uniques qu’aucun autre système quantique n’offre »

a déclaré Georges-Olivier Reymond, PDG et fondateur de Pasqal, dans un communiqué.

Vous le savez contrairement à l’approche binaire (0 ou 1) de l’informatique classique, l’informatique quantique utilise des bits quantiques, ou qubits, qui peuvent essentiellement représenter différents états simultanément jusqu’à ce que les résultats soient lus. L’approche quantique devrait permettre de résoudre certains types de problèmes, comme l’optimisation des réseaux, beaucoup plus rapidement que l’approche classique. Cette technologie pourrait ouvrir de nouvelles frontières dans des domaines allant de la planification du trafic au développement de médicaments. Pas étonnant que l’on retrouve pas mal de laboratoires pharmaceutiques dans les investisseurs de ces technologies.

Techniquement si les deux principales voies de développement du matériel quantique font appel aux circuits supraconducteurs et aux pièges à ions et ceci à des températures proches du zéro degré absolu (-273,15 ° celcius). Pasqal adopte une approche différente : des atomes neutres sont manipulés à température ambiante à l’aide de « pinces » optiques alimentées par laser.

La société a déjà lancé une gamme de matériel de traitement des atomes neutres appelée Fresnel, et elle vise à commercialiser un processeur quantique de 1 000 qubits d’ici à la fin de 2023.

Parmi les clients de Pasqal figurent Johnson & Johnson, LG, Airbus et BMW Group. En janvier, la société a annoncé une fusion avec Qu&Co, un développeur d’algorithmes et de logiciels quantiques. (Qu&Co a fait partie de la gamme quantique d’Amazon Braket.) Plus récemment, Pasqal et Aramco ont annoncé qu’ils allaient unir leurs forces pour développer des applications d’informatique quantique pour le secteur de l’énergie.

« Pasqal devrait offrir aux utilisateurs d’Azure Quantum de nouvelles possibilités de calcul, notamment le calcul quantique analogique, ouvrant ainsi de nouvelles voies pour la recherche d’impacts quantiques dans le monde réel »,

Krysta Svore, vice-présidente de Microsoft chargée des logiciels quantiques

Microsoft Edge : de l’IA au service de l’accessibilité

Microsoft vient d’annoncer en fin de semaine dernière que son navigateur Edge génèrera désormais automatiquement des légendes d’images afin que les lecteurs d’écran puissent décrire le contenu visuel comme c’est le cas actuellement dans Office 365 dès lors que vous ajoutez des illustrations à votre document Word ou votre présentation Powerpoint. Les légendes d’images ou « texte alt » sont un élément crucial du web accessible qui est souvent ignoré, et Microsoft veut remédier à ce problème en fournissant des légendes générées automatiquement mais cette fois lors de la visualisation de la page au cas où les textes alternatifs n’étaient pas indiqué par le développeur de la page Web (ce qui est très souvent le cas… y compris sur le site Calipia et le blog…)

Pour cela, comme c’est le cas pour Office 365; Microsoft utilise les Azure Cognitive Services pour analyser et décrire les images dont le « texte alternatif » est manquant. Lorsque Edge détecte une image non étiquetée, il l’envoie aux serveurs de Microsoft pour traitement. Les algorithmes d’apprentissage automatique peuvent travailler avec les formats les plus courants, tels que JPEG, PNG, GIF, WEBP, et autres, pour fournir des résumés descriptifs en 5 langues. En outre, Microsoft peut analyser le texte des images dans plus de 120 langues. L’éditeur précise qu’il ne générera pas de descriptions pour les images décoratives, les images de moins de 50 x 50 pixels, les images géantes et qu’il se réserve le droit de ne rien générer du tout pour des images dont le contenu est trop … suggestif (comprendre pornographique par exemple mais aussi trop violent).

Sans surprise, les légendes générées automatiquement ne sont pas parfaites, et Microsoft prévient que la qualité est variable en fonction de la simplicité du contenu. Mais c’est mieux que rien !

Si vous souhaitez essayer les légendes générées automatiquement dans Microsoft Edge, mettez à jour votre navigateur avec la dernière version et accédez à Paramètres > Accessibilité, puis activez la fonction « Décrire les images à partir de Microsoft pour les lecteurs d’écran« . Pour l’instant, elle est disponible dans Microsoft Edge pour Windows, Linux et macOS.

Sécurité : beaucoup d’annonces de Microsoft à Ignite 2021

Lors de sa conférence Ignite 2021 qui a commencé mardi soir pour nous européens, Microsoft a annoncé par mal de nouveautés (ou de confirmations autour de la sécurité). En particulier la société a annoncé des améliorations importantes à la suite Defender for Cloud, qui protègera désormais de manière native les environnements multi-clouds Azure et Amazon Web Services (AWS).

Microsoft serait selon lui le seul fournisseur de cloud computing à offrir un hub centralisé pour surveiller et gérer les configurations multicloud, après avoir supprimé les dépendances avec AWS Security Hub. Les configurations AWS peuvent désormais être évaluées, des recommandations sont proposées et une vue globale de votre état de sécurité est désormais fournie. Il prend également en charge Elastic Kubernetes Service (EKS) d’Amazon et s’intègre à Azure Purview. Il existait toutefois des offres tierces réalisant la même chose, mais pas intégrées nativement…

Autres annonces concernant également la sécurité :

  • Microsoft Defender for Endpoint offre désormais une couverture de gestion des vulnérabilités pour les appareils Android et iOS.
  • Une nouvelle offre pour Microsoft Defender for Endpoint : le plan P1, qui offre des capacités de gestion de la sécurité des points de terminaison à un prix inférieur et peut être acheté de manière autonome. Il couvre Windows, macOS, Android et iOS, et est disponible dès maintenant pour les clients Microsoft 365 E3.
  • Disponibilité de Microsoft Defender for IoT peut maintenant être utilisé pour sécuriser les appareils IoT de l’entreprise. Il offre une intégration avec Sentinel, Defender et d’autres outils tiers.
  • Les VM confidentielles construites sur Intel SGX sont maintenant en beta, tandis que le lancement de Trusted pour toutes les VM Azure Generation 2 avec Secure boot et vTPMs est maintenant disponible.
  • Azure Active Directory (AAD) Identity Governance arrive en beta il sera ainsi possible de gérer les applications critiques pour l’entreprise sur sur site ou dans des clouas privés.

Enfin parmi les annonces importantes, Endpoint Manager a reçu quelques mises à jour en beta pour améliorer son étendue multiplateforme. Cela inclut la gestion PC Linux, la possibilité de déployer et de gérer des applications macOS non packagées avec Intune, des améliorations dans la gestion de la sécurité Office pour Windows. On retrouvera également la fonction Connected Cache fonctionnant de pair avec Windows Update, pour mettre dynamiquement en cache les mises à jour, les pilotes et les applications Microsoft sur les serveurs Configuration Manager.

Nous reviendrons sur toutes ces annonces lors d’une session spéciale sur la sécurité lors du prochain Briefing, rejoignez-nous.

Azure Defender protégera les serveurs Linux

Le mois dernier, Microsoft avait annoncé la prise en charge, via Microsoft Defender for Endpoint security, de la protection de machines Linux et de la possibilité de réaliser des analyses après intrusion. Poursuivant sa stratégie, Microsoft annonce aujourd’hui que Azure Defender disposera à court terme de la capacité de protéger les serveurs Linux. La beta est attendue dans une dizaine de jours (le 14 juin normalement).

Les distributions de serveurs Linux suivantes seront prises en charge par la beta d’Azure Defender :

  • Red Hat Enterprise Linux 7.2 ou version supérieure
  • CentOS 7.2 ou version supérieure
  • Ubuntu 16.04 LTS ou version supérieure
  • Debian 9 ou supérieure
  • SUSE Linux Enterprise Server 12 ou version supérieure
  • Oracle Linux 7.2 ou version supérieure

Attention on parle ici à la fois de protection dans le Cloud (Azure) mais aussi en local Azure Defender fonctionnant pour rappel avec des environnements hybrides. Cette protection est possible par l’utilisation de l’agent Azure Arc. Azure Arc étant défini comme la « plateforme de gestion multi-cloud et sur site ».

Aucune information complémentaire en matière de licensing n’est en revanche annoncée, impossible de savoir par exemple si une licence pour Azure Arc est nécessaire pour utiliser l’agent nécessaire dans ce type d’usage. Pour cela il faudra sans doute attendre la version finale.

« Entrées précédentes