Archives des étiquettes : IA

Le preview de Microsoft Loop est disponible :)

Avant-hier, nous vous en parlions, Microsoft faisait du teasing sur Loop, nous pensions que cela indiquait une arrivée imminente de la beta publique, et c’est le cas. Enfin, après plus de 9 mois de retard elle est dispo depuis cette nuit. Uniquement dispo depuis le Web, application iOS et Android dans un premier temps. Microsoft sans trop de surprise devrait l’encapsuler (comme son modèle Notion) dans une app native (via electron ou autre).

Pour rappel, et c’est une des originalité de l’application versus Notion, elle peut être utilisée à la fois en tant qu’application/canvas autonome et sous la forme de pages intégrables qui peuvent être intégrées dans des applications Microsoft comme Outlook, Teams, OneNote, Word pour le web et Whiteboard,nous vous montrions l’année dernière comment faire ceci avec Teams dans une vidéo. L’application Loop fonctionne essentiellement comme une sorte de gestionnaire de projet construit autour d’un espace de travail commun. Les utilisateurs peuvent créer des pages Loop à l’aide de modèles ou en faisant glisser des blocs de contenu dans leur espace de travail, où ils peuvent collectivement discuter, commenter, modifier et garder le contrôle sur les tâches à accomplir. SharePoint / Onedrive Entreprise fournit la plate-forme sous-jacente de stockage et de collaboration pour l’application Loop, ont indiqué les responsables. Logiquement l’application sera intégrée à M365.

Petit ajout qui n’est pas une grande surprise en ce moment, Microsoft ajoute également sa technologie d’assistant IA Microsoft 365 Copilot à Loop, là encore en suivant l’exemple de Notion qui avait ajouté ces fonctions fin d’année. Les utilisateurs pourront utiliser des prompts tels que « créer », « brainstorming », « blueprint » et « décrire » ou utiliser leurs propres mots pour obtenir des suggestions spécifiques et personnalisées. Alors que l’application Loop elle-même est en preview publique à partir d’aujourd’hui, la fonction Copilot est elle en preview privée seulement.

Pour tester l’application Loop il suffit se rendre sur la page d’accueil de Loop pour y accéder sur le web. On peut également télécharger les versions mobiles de l’application pour Android et iOS, mais pour l’instant uniquement pour les comptes professionnels. Pour ce qui est de l’application Web et les utilisateurs professionnels, l’application Loop est désactivée par défaut, de sorte qu’elle ne sera pas disponible dans les entreprises, à moins que les administrateurs ne l’autorise expressément. Tout sauf cohérent : donc en gros compte perso ok pour l’application web mais pas pour les mobiles l’inverse pour les comptes pro…

Attention aussi en entreprise : cette beta n’a pas accès encore à toutes les capacités de conformité de Microsoft, puisque l’eDiscovery, l’étiquetage de sensibilité et d’autres fonctionnalités ne sont pas encore activés. Les responsables de Microsoft ont déclaré qu’ils fourniraient une liste de ce qui sera disponible dans les prochaines mises à jour de la feuille de route.

Nous aurons l’occasion de parler de tout ceci, du positionnement vis a vis du reste des techno Microsoft et des zones de recouvrement fonctionnel avec des applis comme OneNote par exemple mais aussi Planner, etc, lors du prochain Briefing Calipia en juin prochain. Inscrivez-vous dès maintenant 🙂

IA : Microsoft annonce le SDK Semantic Kernel

Microsoft vient d’annoncer la prévision du kit de développement « Semantic Kernel ». Logiquement ce dernier est dispo en Open Source sur GitHub. Le Semantic Kernel est donc un kit de développement logiciel (SDK) léger qui facilite l’utilisation d’éléments tels que ChatGPT d’OpenAI dans les applications, selon John Maeda, vice-président de Microsoft chargé de la conception et de l’intelligence artificielle, il fonctionne avec les langages de programmation conventionnels, avec une prise en charge actuelle en beta de « C# et Python ». Microsoft envisage d’ajouter la prise en charge de TypeScript et d’autres langages dans un futur proche.

Semantic Kernel, qui a débuté en tant que projet d’incubation interne à Microsoft, il prend actuellement en charge le modèle GPT-4 d’OpenAI et le service Azure OpenAI. Ses capacités peuvent être intégrées dans n’importe quel type d’application et peuvent se connecter à des sources de données et à des services externes. Semantic Kernel se distingue également par le fait qu’il permet aux développeurs d’utiliser des prompts complexes, ce qui peut s’avérer problématique lorsqu’on travaille avec de l’IA

« Ainsi, imaginez que vous puissiez facilement créer des invites complexes, des invites à multiples facettes, des invites qui font toutes sortes de choses comme se connecter à du code natif. Ce genre de choses est offert gratuitement avec Symantec Kernel » – John Maeda.

Ce SDK peut être en réalité considéré comme un ensemble de bonnes pour ajouter une IA riche en sémantique aux applications existantes. Ainsi la source GitHub comprend quelques exemples de codes modèles que les développeurs peuvent essayer. Il existe une capacité de « résumé de chat simple » pour les applications. Un exemple de code « Book creator » permet aux applications de créer des aperçus de livres. Il existe également un modèle de code de connecteur de base qui peut être utilisé pour « s’authentifier et se connecter à une API ».

Nous reviendrons lors du prochain Briefing sur les IA conversationnelles et leurs usages.

Que retenir en synthèse de la conférence Microsoft « Futur of Work with AI » d’hier ?

Elle était attendue, nous vous en parlions hier sur le blog autour des avancées en matière d’IA dans Linkedin. Nous n’avons pas été déçu, tant ces nouveautés annoncées sont enthousiasmantes, avec peut-être néanmoins quelques bémols, nous y reviendrons.

Microsoft a donc annoncé sans surprise ses nouvelles fonctions d’intelligence artificielle pour les applications Microsoft 365, avec de nombreuses démonstrations assez bluffantes. Ses fonctions présentées logiquement sous l’appellation « Copilot » sont basées sur GPT-4 d’OpenAI, cette nouvelle capacité sera placé à côté des applications Microsoft 365 comme un assistant, apparaissant dans la barre latérale comme un chatbot qui permettra aux utilisateurs de l’appeler pour générer du texte dans les documents, créer des présentations PowerPoint basées sur des documents Word, aider dans l’animation d’une réunion Teams ou même aider à utiliser des fonctionnalités telles que les tableaux croisés dynamiques dans Excel. La promesse énoncée par Microsoft est ambitieuse : « offrir une nouvelle façon de travailler »… tout simplement.

Amusant, l’annonce de Microsoft intervient quelques jours seulement après que Google a annoncé des fonctionnalités d’IA similaires pour Google Workspace, notamment la génération de texte assistée par l’IA dans Gmail, Docs, etc. Cette annonce de Google n’a visiblement pas enthousiasmé les foules avec aucune démo probante et surtout très peu de détail sur les technologies utilisées. Où est passé Bart ?

Regardons concrètement ce que propose Microsoft :

Copilot avec Word

Il pourra être utilisé dans Word pour rédiger des documents à partir d’autres fichiers. Le texte généré par l’IA sera ensuite être librement édité et adapté. Copilot étant essentiellement un chatbot, vous pourrez même lui demander de créer une présentation PowerPoint de 10 diapositives à partir d’un document Word lui même généré à partir de données externes…

Une petite vidéo de résumé :

Copilot avec Excel

C’est encore plus impressionnant dans Excel. Les utilisateurs peuvent utiliser Copilot pour créer instantanément une analyse SWOT ou un tableau croisé dynamique à partir de données. Là encore en langage naturel.

La vidéo de résumé :

Copilot avec Teams

Avant la réunion, Copilot pourra fournir des informations sur une réunion Microsoft Teams à venir, préparer les gens avec des mises à jour sur les projets connexes, les changements tels que des embauches récentes, et même des mises à jour sur les collègues qui pourraient être rentrés de vacances.

Lire la suite

Services Azure OpenAI assurés avec l’aide des composants Nvidia

Microsoft met en avant ses offres pour créer des supercalculateurs via son programme de cloud computing Azure pour aider la société OpenAI. Parallèlement, la société a également annoncé une nouvelle machine virtuelle d’IA utilisant les nouvelles GPU améliorés de NVIDIA. Ainsi la nouvelle ND H100 v5 VM de Microsoft utilise, on s’en doutait, les GPU H100 de NVIDIA, Il est donc possible pour toutes les entreprises qui ont besoin d’ajouter des fonctions d’IA d’accéder à ce service de machine virtuelle qui présente les caractéristiques suivantes, un nouveau bond en terme de performance :

8x GPU NVIDIA H100 Tensor Core interconnectés via la nouvelle génération de NVSwitch et NVLink 4.0

  • 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand par GPU avec 3,2 To/s par VM dans un réseau fat-tree non bloquant
    NVSwitch et NVLink 4.0 avec une bande passante bisectionnelle de 3,6 To/s entre 8 GPU locaux dans chaque VM.
  • Processeurs Intel Xeon Scalable de 4ème génération
    Interconnexion hôte-GPU PCIE Gen5 avec une bande passante de 64 Go/s par GPU
    16 canaux de DIMM DDR5 à 4800 MHz

Cette offre vient s’ajouter au ChatGPT in Azure OpenAI Service annoncé précédemment par Microsoft, nous vous en parlions hier sur le blog, qui permet à des tiers d’accéder à la technologie des chatbots via Azure.

Dans un autre billet de blog, Microsoft explique comment l’entreprise a commencé à travailler avec OpenAI pour aider à créer les supercalculateurs nécessaires au grand modèle de langage de ChatGPT (donc le nouveau Bing). Pour ce faire, il a fallu relier des milliers de GPU d’une toute nouvelle manière. Le blog propose une explication de Nidhi Chappell, chef de produit chez Microsoft pour Azure High Performance Computing and AI :

Pour former un grand modèle de langage, explique-t-elle, la charge de calcul est répartie entre des milliers de GPU dans un cluster. À certaines phases de ce calcul – appelé allreduce – les GPU échangent des informations sur le travail qu’ils ont effectué. Un réseau InfiniBand accélère cette phase, qui doit se terminer avant que les GPU ne puissent commencer le morceau de calcul suivant.

Ce matériel est associé à un logiciel qui permet d’optimiser l’utilisation des GPU NVIDIA et du réseau qui les fait fonctionner ensemble. Microsoft indique qu’elle continue d’ajouter des GPU et d’étendre son réseau tout en essayant de les faire fonctionner 24 heures sur 24 et 7 jours sur 7 grâce à des systèmes de refroidissement, des générateurs de secours et des systèmes d’alimentation électrique sans interruption.

Paiement à l’utilisation à venir pour Microsoft Syntex

Depuis la fin de l’année 2022 le service Syntex est disponible sous forme d’une option avec un paiement par utilisateur et par mois en plus donc de l’abonnement Microsoft 365. Microsoft vient d’annoncer qu’en mars prochain, nous disposerons d’une nouvelle option permettant un paiement au document, à l’usage donc. Ceci avec deux types de facturation en fonction de la nature du document :

  • Dans le cas d’un document préalablement structuré par l’entreprise : 0,01 $ par page traitée,
  • Dans le cas d’un document dont la structure n’a pas été définie préalablement par l’entreprise (et donc on le suppose nécessitant un traitement d’IA plus complex : 0,10 $ par page

Les entreprise pourront appliquer la licence Syntex à la carte « à tous les utilisateurs sans avoir besoin de licences distinctes ». Toutefois, l’annonce précise, dans une section de questions-réponses, que les détenteurs de licences payantes ne bénéficient pas de toutes les fonctionnalités actuellement offertes par la licence Syntex par utilisateur du produit. En particulier il n’auront pas accès à l’assemblage de différents contenus, le système d’annotation automatique ou encore la possibilité de requête sur du contenu.

Ce type de licence sera pour Microsoft un moyen de faire découvrir les services très interessants de Syntex avant que l’entreprise décide peut-être de sauter le pas avec des licences utilisateurs qui sont tout de même à 4,20 € par mois.

Un petit rappel sur ce qu’est Microsoft Syntex

Vous vous souvenez peut-être du projet Cortex ? Projet qui visait à transformer les informations non structurées en connaissances exploitables pour les entreprises. Une solution qui utilise l’IA pour extraire, organiser et enrichir les informations à partir de diverses sources telles que des documents, des e-mails, des conversations et des vidéos, afin de créer une base de connaissances partagée. Objectif : faciliter l’accès à l’expertise et aux connaissances en rendant ces informations plus accessibles et plus faciles à utiliser. La solution utilisait des modèles d’IA pour analyser les informations et extraire des connaissances spécifiques, telles que des termes clés, des personnes clés et des relations entre elles.

Cortex utilisait également des fonctionnalités de collaboration pour permettre aux utilisateurs de contribuer à la base de connaissances en ajoutant des informations, en commentant des articles ou en partageant leur expertise. Sans surprise cette solution était conçue pour fonctionner avec Microsoft Office 365, SharePoint et Microsoft Teams, afin de faciliter l’accès aux connaissances et de permettre aux utilisateurs de trouver facilement des informations pertinentes dans leur environnement de travail habituel.

Ce que Cortex faisait avec l’objectif de créer une base de connaissances partagée et améliorer la collaboration, Syntex le fait au niveau plus fin sur les documents.

Formellement, Microsoft Syntex est une solution d’automatisation de traitement de contenu basée sur l’Intelligence Artificielle (IA) intégrée à Microsoft SharePoint et Microsoft Teams. Elle utilise l’IA pour extraire des informations à partir de grandes quantités de données non structurées telles que des documents, des images et des vidéos.

La solution utilise des modèles d’IA pré-entraînés pour comprendre le contenu du document et l’organiser en fonction des concepts et des relations qu’il contient. Les modèles peuvent être personnalisés pour répondre aux besoins spécifiques de l’entreprise et peuvent être utilisés pour extraire des informations telles que des noms de personnes, des numéros de téléphone, des dates, des montants d’argent, etc.

On peut par exemple utiliser Syntex pour automatiser des processus métier tels que la classification des documents, l’extraction de données, la reconnaissance optique de caractères (OCR) et la création de flux de travail. Elle utilise une technologie de traitement de langage naturel (NLP) pour comprendre le sens du contenu et pour extraire les entités clés et les relations entre elles. Elle utilise également une technologie de vision par ordinateur pour extraire des informations à partir d’images et de vidéos.

Syntex peut être utilisé pour extraire des informations à partir de différents types de contenus, tels que des documents Word, des fichiers PDF, des images et des vidéos. Elle peut également extraire des informations à partir de sources externes telles que des sites web et des bases de données. Le tout s’intégrant donc directement à SharePoint et Teams

Enfin Syntex propose également des fonctionnalités de création de flux de travail, qui permettent de créer des processus automatisés pour la gestion de contenu, comme pour automatiser des tâches telles que la classification des documents, la validation de contenu et la gestion des approbations.

Nous reviendrons sur ces services innovants proposés en plus de l’abonnement Microsoft 365 et leur positionnement lors du prochain Briefing Calipia en juin.

Microsoft Edge : de l’IA au service de l’accessibilité

Microsoft vient d’annoncer en fin de semaine dernière que son navigateur Edge génèrera désormais automatiquement des légendes d’images afin que les lecteurs d’écran puissent décrire le contenu visuel comme c’est le cas actuellement dans Office 365 dès lors que vous ajoutez des illustrations à votre document Word ou votre présentation Powerpoint. Les légendes d’images ou « texte alt » sont un élément crucial du web accessible qui est souvent ignoré, et Microsoft veut remédier à ce problème en fournissant des légendes générées automatiquement mais cette fois lors de la visualisation de la page au cas où les textes alternatifs n’étaient pas indiqué par le développeur de la page Web (ce qui est très souvent le cas… y compris sur le site Calipia et le blog…)

Pour cela, comme c’est le cas pour Office 365; Microsoft utilise les Azure Cognitive Services pour analyser et décrire les images dont le « texte alternatif » est manquant. Lorsque Edge détecte une image non étiquetée, il l’envoie aux serveurs de Microsoft pour traitement. Les algorithmes d’apprentissage automatique peuvent travailler avec les formats les plus courants, tels que JPEG, PNG, GIF, WEBP, et autres, pour fournir des résumés descriptifs en 5 langues. En outre, Microsoft peut analyser le texte des images dans plus de 120 langues. L’éditeur précise qu’il ne générera pas de descriptions pour les images décoratives, les images de moins de 50 x 50 pixels, les images géantes et qu’il se réserve le droit de ne rien générer du tout pour des images dont le contenu est trop … suggestif (comprendre pornographique par exemple mais aussi trop violent).

Sans surprise, les légendes générées automatiquement ne sont pas parfaites, et Microsoft prévient que la qualité est variable en fonction de la simplicité du contenu. Mais c’est mieux que rien !

Si vous souhaitez essayer les légendes générées automatiquement dans Microsoft Edge, mettez à jour votre navigateur avec la dernière version et accédez à Paramètres > Accessibilité, puis activez la fonction « Décrire les images à partir de Microsoft pour les lecteurs d’écran« . Pour l’instant, elle est disponible dans Microsoft Edge pour Windows, Linux et macOS.

Gartner : Le marché des logiciels d’IA atteindra 62 Milliards de $ en 2022

Selon Gartner le Chiffre d’affaire des logiciels d’IA devrait atteindre 62,5 milliards de dollars en 2022. En croissance de plus de 20% sur 2021 donc. Le cabinet détaille chacune des principales catégories du domaine :

  • la gestion des connaissances, l
  • les assistants virtuels,
  • les véhicules autonomes,
  • le lieu de travail numérique,
  • les données issues des foules et autres.

Parmi ces catégories , la gestion des connaissances devrait connaître la plus forte croissance à 31,5 %, en revanche les assistants virtuels qui avaient connus une très forte croissance en 2019 devraient cette fois croissent plus faiblement à à 14,7 %. Nous sommes en tout cas encore bien loin d’un marché mature ! Y compris dans ce dernier secteur.

Un des freins les plus important étant, sans surprise, l’éthique de ces solutions. Nous l’avons vu encore récemment avec la pression des employés de Google pour freiner les ventes sur des secteurs comme l’armée, ou encore dans certains pays. Mais aussi les expérimentations liées à la reconnaissance faciale qui sont très limitées dans les démocraties, un peu moins dans les dictatures…

Selon Gartner, les dépenses des entreprises en matière d’IA continueront d’augmenter à mesure que les organisations surmonteront leur réticence à adopter l’IA et à lui faire confiance, et qu’elles trouveront des moyens de tirer une valeur commerciale des technologies d’IA.

Perlmutter : le superordinateur d’IA le plus rapide du monde.

Image Nvidia

IMPRESSIONNANT ! Nvidia et le National Energy Research Scientific Computing Center (NERSC) ont mis en marche jeudi dernier le Perlmutter, présenté comme le supercalculateur le plus rapide du monde pour l’intelligence Artificielle. Il doit son nom en l’honneur de l’astrophysicien Saul Perlmutter, qui travaille toujours comme astrophysicien au Berkeley Lab, et avait reçu le prix Nobel de physique en 2011 pour sa contribution à la découverte de l’énergie noire.

Saul Perlmutter

Le nouveau supercalculateur est doté de 6 144 GPU NVIDIA A100 Tensor Core et sera chargé, entre autres, d’assembler la plus grande carte 3D jamais réalisée de l’univers visible. Il traitera les données de l’instrument spectroscopique d’énergie noire (DESI), une sorte de caméra cosmique qui peut capturer jusqu’à 5 000 galaxies en une seule exposition. Il est hébergé au NERSC du Lawrence Berkeley National Laboratory.

« Perlmutter est le système le plus rapide de la planète pour le calcul en 16 et 32 bits utilisées dans les applications d’intelligence artificielle (IA) »

Dion Harris, responsable marketing des produits HPC/AI de Nvidia

Selon Nvidia, qui démontre ici son savoir faire indéniable en IA, les chercheurs ont besoin de la vitesse des GPU de Perlmutter pour capturer des dizaines d’expositions d’une nuit afin de savoir où diriger les appareils de vision la nuit suivante. La préparation d’une année de données en vue de leur publication prendrait des semaines ou des mois sur les systèmes précédents, mais Perlmutter devrait les aider à accomplir cette tâche en quelques jours seulement…

« Les gens explorent des modèles de réseaux neuronaux de plus en plus grands et il y a une demande d’accès à des ressources plus puissantes. Perlmutter, avec ses GPU A100, son système de fichiers all-flash et ses capacités de streaming de données, arrive à point nommé pour répondre à ce besoin d’IA ».

Wahid Bhimji, responsable par intérim du groupe des services de données et d’analyse du NERSC.

Perlmutter permettra aux quelque 7 000 chercheurs soutenus par le NERSC d’accéder à quatre exaflops de performances de calcul en précision mixte pour des projets scientifiques assistés par l’IA. Outre le projet de cartographie, les chercheurs utilisent le supercalculateur pour des travaux dans des domaines tels que la climatologie, où Perlmutter aidera à sonder les interactions subatomiques pour découvrir des sources d’énergie vertes. Sujet ô combien important maintenant aux USA… depuis Biden !

En attendant la mise au point (sans doute plus lointaine) d’un Ordinateur Quantique capable de réaliser avec cette machine, le projet, qui générera des simulations d’interactions entre atomes, requiert le mélange spécial d’IA et de calcul haute performance (HPC) . Le NERSC a déjà constaté des performances de traitement par GPU 20 fois plus rapides que celles des systèmes précédemment disponibles.

Nous reviendrons sur les applications de l’IA dans le domaine des entreprises lors d’une session spéciale du prochain Briefing Calipia qui commence la semaine prochaine et la suivante.

L’IA « Deep Nostalgia » fait revivre deS vieilles photos

Le service Deep Nostalgia, proposé par le site de généalogie en ligne MyHeritage, utilise l’IA sous licence de la société D-ID pour créer l’effet d’une photo en mouvement. Comme les fonctions Live Photos d’iOS, Deep Nostalgia peut prendre des photos à partir de n’importe quel appareil photo et les rendre ainsi « vivantes ». Mais le programme ne s’arrête pas là et utilise via ses algorithmes des vidéos préenregistrées de mouvements du visage et les applique à des photos que l’on propose. Juste Bluffant.

Si vous souhaitez essayer sur de vielles photos c’est par ici.

Microsoft met au point un nouveau modèle de Machine Learning pour détecter les attaques par « vaporisation de passwords »…

Bon commençons par revenir sur ce qu’est la « Vaporisation de passwords » ou « Password spraying » en anglais. C’est une forme relativement grossière et courante de cyberattaque dans laquelle un acteur malveillant attaque des milliers d’IP avec quelques mots de passe couramment utilisés plutôt que d’essayer de nombreux mots de passe contre un seul utilisateur. Si cela indique que le taux de réussite par compte peut être assez faible mais que sur la masse cela marche… Problème : cette attaque est très difficile à détecter car elle est étalée sur plusieurs comptes dans un schéma de connexion qui peut paraitre normal, avec des erreurs courantes de saisie de mot de passe que ferait le véritable propriétaire du compte en question. Cette attaque ne peut être détectée sur plusieurs compte que si vous remarquez qu’une seule et même tentative avec le même « hash » échoue sur plusieurs comptes.

Voilà pour l’explication théorique de cette technique.

Pour contrer les attaques par « vaporisation de mots de passe », Microsoft avait auparavant mis au point un mécanisme heuristique dans lequel la société observait « la défaillance principale du système dans… le trafic mondial ! » et informait les organisations à risque. Aujourd’hui, la société a amélioré ce mécanisme en formant un nouvel algorithme de Machine Learning supervisé qui utilise des caractéristiques telles que la réputation IP, les propriétés de connexion inconnues et d’autres différences sur les comptes pour détecter quand un compte est attaqué.

Microsoft affirme que son nouveau modèle présente une augmentation de 100 % de la mémorisation par rapport à l’algorithme heuristique. Cela signifie qu’il détecte deux fois plus de comptes compromis. En outre, il a également une précision de 98%, ce qui signifie que si le modèle prétend qu’un compte a été victime d’une attaque par pulvérisation de mots de passe, alors cela est presque certainement vrai dans tous les cas… Un usage particulièrement interessant de l’IA donc, alors même que cette dernière est de plus en plus utilisée par les malfaiteurs eux-mêmes ! Une sorte de jeu du chat et de la souris…

Le nouveau modèle sera bientôt disponible pour les clients d’Azure AD Identity Protection, qui pourront l’utiliser via le portail et les API pour la protection de l’identité.

« Entrées précédentes