Selon Gartner le Chiffre d’affaire des logiciels d’IA devrait atteindre 62,5 milliards de dollars en 2022. En croissance de plus de 20% sur 2021 donc. Le cabinet détaille chacune des principales catégories du domaine :
la gestion des connaissances, l
les assistants virtuels,
les véhicules autonomes,
le lieu de travail numérique,
les données issues des foules et autres.
Parmi ces catégories , la gestion des connaissances devrait connaître la plus forte croissance à 31,5 %, en revanche les assistants virtuels qui avaient connus une très forte croissance en 2019 devraient cette fois croissent plus faiblement à à 14,7 %. Nous sommes en tout cas encore bien loin d’un marché mature ! Y compris dans ce dernier secteur.
Un des freins les plus important étant, sans surprise, l’éthique de ces solutions. Nous l’avons vu encore récemment avec la pression des employés de Google pour freiner les ventes sur des secteurs comme l’armée, ou encore dans certains pays. Mais aussi les expérimentations liées à la reconnaissance faciale qui sont très limitées dans les démocraties, un peu moins dans les dictatures…
Selon Gartner, les dépenses des entreprises en matière d’IA continueront d’augmenter à mesure que les organisations surmonteront leur réticence à adopter l’IA et à lui faire confiance, et qu’elles trouveront des moyens de tirer une valeur commerciale des technologies d’IA.
IMPRESSIONNANT ! Nvidia et le National Energy Research Scientific Computing Center (NERSC) ont mis en marche jeudi dernier le Perlmutter, présenté comme le supercalculateur le plus rapide du monde pour l’intelligence Artificielle. Il doit son nom en l’honneur de l’astrophysicien Saul Perlmutter, qui travaille toujours comme astrophysicien au Berkeley Lab, et avait reçu le prix Nobel de physique en 2011 pour sa contribution à la découverte de l’énergie noire.
Saul Perlmutter
Le nouveau supercalculateur est doté de 6 144 GPU NVIDIA A100 Tensor Core et sera chargé, entre autres, d’assembler la plus grande carte 3D jamais réalisée de l’univers visible. Il traitera les données de l’instrument spectroscopique d’énergie noire (DESI), une sorte de caméra cosmique qui peut capturer jusqu’à 5 000 galaxies en une seule exposition. Il est hébergé au NERSC du Lawrence Berkeley National Laboratory.
« Perlmutter est le système le plus rapide de la planète pour le calcul en 16 et 32 bits utilisées dans les applications d’intelligence artificielle (IA) »
Dion Harris, responsable marketing des produits HPC/AI de Nvidia
Selon Nvidia, qui démontre ici son savoir faire indéniable en IA, les chercheurs ont besoin de la vitesse des GPU de Perlmutter pour capturer des dizaines d’expositions d’une nuit afin de savoir où diriger les appareils de vision la nuit suivante. La préparation d’une année de données en vue de leur publication prendrait des semaines ou des mois sur les systèmes précédents, mais Perlmutter devrait les aider à accomplir cette tâche en quelques jours seulement…
« Les gens explorent des modèles de réseaux neuronaux de plus en plus grands et il y a une demande d’accès à des ressources plus puissantes. Perlmutter, avec ses GPU A100, son système de fichiers all-flash et ses capacités de streaming de données, arrive à point nommé pour répondre à ce besoin d’IA ».
Wahid Bhimji, responsable par intérim du groupe des services de données et d’analyse du NERSC.
Perlmutter permettra aux quelque 7 000 chercheurs soutenus par le NERSC d’accéder à quatre exaflops de performances de calcul en précision mixte pour des projets scientifiques assistés par l’IA. Outre le projet de cartographie, les chercheurs utilisent le supercalculateur pour des travaux dans des domaines tels que la climatologie, où Perlmutter aidera à sonder les interactions subatomiques pour découvrir des sources d’énergie vertes. Sujet ô combien important maintenant aux USA… depuis Biden !
En attendant la mise au point (sans doute plus lointaine) d’un Ordinateur Quantique capable de réaliser avec cette machine, le projet, qui générera des simulations d’interactions entre atomes, requiert le mélange spécial d’IA et de calcul haute performance (HPC) . Le NERSC a déjà constaté des performances de traitement par GPU 20 fois plus rapides que celles des systèmes précédemment disponibles.
Nous reviendrons sur les applications de l’IA dans le domaine des entreprises lors d’une session spéciale du prochain Briefing Calipia qui commence la semaine prochaine et la suivante.
Le service Deep Nostalgia, proposé par le site de généalogie en ligne MyHeritage, utilise l’IA sous licence de la société D-ID pour créer l’effet d’une photo en mouvement. Comme les fonctions Live Photos d’iOS, Deep Nostalgia peut prendre des photos à partir de n’importe quel appareil photo et les rendre ainsi « vivantes ». Mais le programme ne s’arrête pas là et utilise via ses algorithmes des vidéos préenregistrées de mouvements du visage et les applique à des photos que l’on propose. Juste Bluffant.
Si vous souhaitez essayer sur de vielles photos c’est par ici.
Bon commençons par revenir sur ce qu’est la « Vaporisation de passwords » ou « Password spraying » en anglais. C’est une forme relativement grossière et courante de cyberattaque dans laquelle un acteur malveillant attaque des milliers d’IP avec quelques mots de passe couramment utilisés plutôt que d’essayer de nombreux mots de passe contre un seul utilisateur. Si cela indique que le taux de réussite par compte peut être assez faible mais que sur la masse cela marche… Problème : cette attaque est très difficile à détecter car elle est étalée sur plusieurs comptes dans un schéma de connexion qui peut paraitre normal, avec des erreurs courantes de saisie de mot de passe que ferait le véritable propriétaire du compte en question. Cette attaque ne peut être détectée sur plusieurs compte que si vous remarquez qu’une seule et même tentative avec le même « hash » échoue sur plusieurs comptes.
Voilà pour l’explication théorique de cette technique.
Pour contrer les attaques par « vaporisation de mots de passe », Microsoft avait auparavant mis au point un mécanisme heuristique dans lequel la société observait « la défaillance principale du système dans… le trafic mondial ! » et informait les organisations à risque. Aujourd’hui, la société a amélioré ce mécanisme en formant un nouvel algorithme de Machine Learning supervisé qui utilise des caractéristiques telles que la réputation IP, les propriétés de connexion inconnues et d’autres différences sur les comptes pour détecter quand un compte est attaqué.
Microsoft affirme que son nouveau modèle présente une augmentation de 100 % de la mémorisation par rapport à l’algorithme heuristique. Cela signifie qu’il détecte deux fois plus de comptes compromis. En outre, il a également une précision de 98%, ce qui signifie que si le modèle prétend qu’un compte a été victime d’une attaque par pulvérisation de mots de passe, alors cela est presque certainement vrai dans tous les cas… Un usage particulièrement interessant de l’IA donc, alors même que cette dernière est de plus en plus utilisée par les malfaiteurs eux-mêmes ! Une sorte de jeu du chat et de la souris…
Le nouveau modèle sera bientôt disponible pour les clients d’Azure AD Identity Protection, qui pourront l’utiliser via le portail et les API pour la protection de l’identité.
Microsoft a annoncé une nouvelle technologie pour lutter contre les fameux Deepfakes qui sont les vecteurs importants de la désinformation, qui ne manquera pas d’être largement utilisée lors des prochaines élections américaines.Vous le savez, ces « deepfakes », utilisent l’intelligence artificielle pour modifier des photos, des vidéos ou des fichiers audio de manière difficilement détectable afin de donner l’impression que quelqu’un fait ou dit quelque chose qu’il n’a pas fait ou qu’il se trouve dans des endroits où il n’était pas. On voit bien le danger de telles pratiques que la technologie permet malheureusement aujourd’hui.
Microsoft propose ainsi, Microsoft Video Authenticator, outil qui analyse une photo ou une vidéo pour fournir un pourcentage de chance, ou score de confiance, indiquant la probabilité qu’elle soit manipulée. Pour les vidéos, l’outil peut fournir ce score en temps réel sur chaque image pendant la lecture de la vidéo. Cette technologie a été développée à l’origine par Microsoft Research en coordination avec l’équipe responsable de l’IA de Microsoft et le comité AETHER (Ethics and Effects in Engineering and Research). Pour fonctionner cette technologie détecterait la limite de mélange entre les éléments de fond et les éléments plus subtils de décoloration ou de niveaux de gris qui aurait été modifiés et surtout qui sont souvent indétectables par l’œil humain. Problème, cette technologie risque de devenir rapidement obsolète, car pendant ce temps se sont aussi les technologies de Deepfake, elles aussi alimentées à l’IA qui continueront de se perfectionner. Pour lutter contre ceci Microsoft a annoncé un systèmequi permettra aux producteurs de contenu d’ajouter un code caché à leurs séquences afin de signaler toute manipulation des séquences initiales. Microsoft s’est également associé à un consortium de médias comme la BBC, la CBC/Radio-Canada et le New York Times pour tester la technologie et contribuer à la faire progresser en tant que norme.
Cette technologie ne sera pas directement mise à la disposition du public. Microsoft s’est associé à l’AI Foundation, une entreprise à la fois commerciale et à but non lucratif basée à San Francisco pour que cette technologie soit utilisée dans le cadre de l’initiative Reality Defender 2020 (RD2020) de la fondation pour les organisations impliquées dans le processus démocratique, y compris les organes d’information et les campagnes politiques.
Microsoft est présent dans le secteur de l’information depuis plus de 25 ans, après avoir lancé MSN (Microsoft Network) en 1995. Ce qui était un fournisseur de contenu avant Internet sur un protocole propriétaire (à la manière des AOL per exemple) s’est transformé en fournisseur de contenu pour internet avec le célèbre portail MSN.
Il y a deux ans, Microsoft lançait Microsoft News. La société indiquait alors qu’elle disposait de « plus de 800 rédacteurs travaillant à partir de 50 endroits dans le monde« . Aujourd’hui, Microsoft licencie des dizaines de journalistes et d’employés de la rédaction de ses organisations Microsoft News et MSN. Ces licenciements s’inscrivent dans le cadre d’un effort plus important de Microsoft pour s’appuyer sur l’intelligence artificielle afin de sélectionner les informations et les contenus présentés sur MSN.com, dans le navigateur Edge de Microsoft et dans les différentes applications Microsoft News.
« Comme toutes les entreprises, nous évaluons régulièrement notre activité« , déclare un porte-parole de Microsoft dans une déclaration. « Cela peut se traduire par une augmentation des investissements dans certains endroits et, de temps en temps, par un redéploiement dans d’autres. Ces décisions ne sont pas le résultat de la pandémie actuelle« .
La pandémie, n’est effectivement pas la raison de ces licenciements. Ceci illustre assez bien qu’avec l’IA ce ne sont pas uniquement des jobs à faibles qualifications qui sont concernés. On prend souvent l’exemple des radiologues (bac +10) ou des pilotes d’avions…
Il y aurait environ 50 emplois touchés aux États-Unis. Le Guardian rapporte qu’environ 27 personnes ont été licenciées au Royaume-Uni après que Microsoft ait décidé de ne plus employer d’humains pour la rédaction d’articles sur ses pages d’accueil.
Lors de sa conférence développeurs Build (qui s’est tenue en ligne la semaine dernière), Microsoft a présenté un supercalculateur, positionné (selon Microsoft) dans le top 5 mondial des configurations de ce type. Destiné aux travaux dans le domaine de l’intelligence artificielle, conçu avec le spécialiste du domaine OpenAI, et pour son usage exclusif, ce supercalculateur est doté de caractéristiques impressionnantes, avec plus de 285 000 coeurs de CPU, 10 000 GPU et 400 gigabits par seconde en termes de connectivité pour chaque GPU. Cette méga configuration est (bien entendu) hébergée dans Azure.
Une telle puissance à disposition devrait permettre de pouvoir s’attaquer à des questions encore plus ambitieuses en termes de Deep Learning, autorisant ainsi de travailler sur des modèles capables de s’entrainer sur des très grandes quantités de données non étiquetées.
Le consortium gérant la compression des JPEG vient de lancer une étude pour une évolution du standard de compression avec deux objectifs :
Utiliser l’Intelligence Artificielle pour optimiser la compression et donc notamment augmenter l’efficacité de cette compression en reconnaissant les parties interessantes de l’image et affecter aux autres des taux de compressions différents.
Utilisation de la Blockchain pour la validation des images et le cas échant vérifier leur exactitude.
Toutes les informations sur ces évolutions assez prometteuses sont discutées sur le site de l’organisation.
Avec le lancement de ses nouvelles unités de traitement neuronal (NPU : Neuronal Processor Unit), Arm vise à étendre les fonctions de Machine Learning aux appareils grand public et bas de gamme et donc de banaliser ce type d’usage.
La société à annoncée ces NPU Ethos-N57 et Ethos-N37, qu’elle fournira comme d’habitude sous licence aux fabricants de puces qui pourront l’intégrer dans leurs propres produits. Si les principaux clients d’ARM, Apple, Samsung, Nvidia, Huawei et Qualcomm en tête dispose déjà de leur propres unité de Machine Learning, l’idée ici est d’étendre la gamme des processeurs Arm Machine Learning (ML) pour permettre des applications d’intelligence artificielle (IA) dans des appareils grand public de toutes sortes réalisé par des fondeurs n’ayant pas forcément les capacités de développer leur propre puce.
L’intelligence intelligence artificielle est maintenant omniprésente, des consoles de jeu aux téléviseurs, et il faut augmenter le calcul en local pour offrir des expériences réactives. Par exemple, les expériences intelligentes dans le domaine de télé vont des commandes vocales intelligentes de l’assistant intelligent à la traduction en temps réel pour les émissions dans une autre langue voire la reconnaissance faciale pour améliorer le contrôle parental. Les nouvelles NPU sont ainsi dotées de fonctions telles que la reconnaissance vocale et les fonctions de mise en marche permanente, qui ne sont plus propres aux téléphones mobiles.
Ethos-N57 et Ethos-N37 ont tous deux été conçus avec quelques principes de base à l’esprit. Ils sont optimisés autour de la prise en charge des types de données Int8 et Int16 et utilisent des techniques avancées de gestion des données, minimisant le mouvement des données et la puissance associée. Ils offrent également une augmentation de performance de plus de 200% par rapport à de nombreuses autres NPU grâce à des techniques telles que l’implémentation innovante de Winograd.
Afin de continuer de mettre au point ses outils de réalité augmentée Facebook a annoncé aujourd’hui l’acquisition de CTRL-Labs, une startup basée à New York qui offre des solutions permettantt de contrôler des ordinateurs en utilisant son cerveau. CNBC rapporte que la transaction est évaluée à environ 1 milliard de dollars.
Le vice-président de AR / VR de Facebook, Andrew Bosworth, a confirmé l’acquisition dans un message, soulignant que la technologie CTRL-labs ouvrait de «nouvelles possibilités créatives». L’objectif étant de constituer une extension naturelle du mouvement. Dès juin dernier Facebook fournissait des éléments sur les usages de ce type de technologies dans un article très instructif : « Imagining a new interface: Hands-free communication without saying a word »
L’objet proposé se présente sous forme d’un bracelet qui permet aux utilisateurs de contrôler leurs appareils de la façon suivante :
Votre cerveau envoie des signaux électriques aux muscles de votre main, leur demandant de se déplacer de manière spécifique, par exemple en cliquant sur une souris ou en appuyant sur un bouton.
Le bracelet décodera ces signaux et les traduira en un signal numérique transmis à votre ordinateur, qui passera à l’action. Il enregistre ainsi votre intention pour pour réaliser une tache en utilisant un mouvement imperceptible pour le faire.
Une approche totalement différente donc de ce que propose Brain qui enregistre directement les ondes cérébrales avec un casque. C’est bien plus discret dans le cas de CTRL-Labs !
CTRL-labs a été fondée en 2015 et a récemment obtenu un financement de 28 millions de dollars d’investisseurs (dont Amazon). La société a été fondée par Thomas Reardon et Patrick Kaifosh, le premier ayant passé neuf ans chez Microsoft.
En juillet dernier, Facebook a fourni une mise à jour de sa technologie «de communication mains libres sans dire un mot». Les recherches suggèrent cependant que ce type de technologie est encore à des années de la disponibilité commerciale.