Archives de Catégorie: IA

évènement en ligne Microsoft dédié aux apports de la réalité mixte pour la chirurgie

Microsoft propose aujourd’hui à partir de 15h un évènement en ligne consacré à la chirurgie assistée par la technologie de réalité mixte. De nombreuses tables rondes et interviews de spécialistes du sujet seront présentées (certaines en live), mais aussi 13 interventions seront également présentées, dans 13 pays différents. L’agenda de l’évènement s’étend sur 24h et propose donc un panorama large du sujet. Avis aux amateurs de sensations fortes 🙂 .

La promesse est alléchante, « embarquez pour un tour du monde des chirurgies assistées par la réalité mixte avec des chirurgiens de 13 pays. Rejoignez les plus de 60 intervenants de renom pour aller encore plus loin grâce à diverses tables rondes et interviews. Vous découvrirez comment les chirurgiens et les cliniciens tirent parti des nouvelles technologies au quotidien ».

Parmi les invités participant à cet évènement, le français Thomas Gregory, chef du service de Chirurgie orthopédique et traumatologique à l’hôpital Avicenne (Bobigny), et spécialiste de la chirurgie de l’épaule et du coude. Il est notamment connu pour ses interventions au bloc avec Hololens.

L’intérêt de Microsoft pour le marché de la santé n’est pas un scoop, avec notamment une plateforme dédiée : Microsoft Cloud for Healthcare. Mais la capacité à monter un évènement de cet ampleur est bluffante. Nous verrons si la promesse, ambitieuse, est tenue.

L’ouverture de l’évènement aura lieu à 15h et sera assurée par Martin Hirsch, Directeur Général de l’APHP (Assistance Publique, Hôpitaux de Paris). Si vous êtes intéressés, rendez vous ici.

#CES2021 Une solution pour identifier rapidement les signes d’AVC

Selon l’INSERM, ce sont plus de 140 000 nouveaux AVC qui ont lieu en France chaque année, et qui mènent à près de 30 000 décès. L’AVC (Accident Vasculaire Cérébral) est la première cause de handicap physique acquis de l’adulte et plus le temps d’identification de l’AVC d’un patient est long plus le risque de décès ou d’handicap est élevé.
La société coréenne Pulxion a présenté hier au CES 2021, PulStroke , un nouveau dispositif de dépistage rapide de la sténose de l’artère carotide, un indicateur précoce de l’AVC. Actuellement l’identification de cette sténose passe par l’utilisation d’un équipement Doppler, en milieu hospitalier, avec des professionnels de santé pour mettre en oeuvre le système et interpréter les résultats. Ce qui est donc limité en termes d’accès mais aussi de temps.

PulStroke est, selon Pulxion, un outil d’évaluation non invasif, non radioactif, simple à utiliser. Avec PulStroke, les résultats du dépistage sont accessibles aux utilisateurs via l’appareil lui-même ou les smartphones des utilisateurs dans un délai de 5 minutes. L’appareil enregistre d’abord un clip de 20 secondes de la peau du cou de l’utilisateur sous une lumière LED. Ensuite, l’algorithme (et son IA) analyse dans le cloud les données et fournit les résultats du dépistage aux utilisateurs. La précision de PulStroke est supérieure à 90 % de celle de la méthode d’échographie Doppler.

source : Pulxion

La solution opérationnelle n’est néanmoins pas attendue avant mi 2022 en Corée, après validation des autorités sanitaires.

Amazon améliore encore son simulateur quantique

Vous connaissez sans doute le simulateur Quantique dans le Cloud d’Amazon : l’offre AWS Bracket, nous vous en parlions sur le blog. Amazon Braket est disponible depuis aout dernier. Ce service permet d’accéder à distance à des simulateurs d’informatique quantique et à du matériel quantique réel hébergés sur le cloud. Amazon vient d’annoncer des améliorations interessante dans le cadre de la mise au point d’algorithmes quantique de Machine Learning. Ainsi, Amazon Braket prendrait désormais en charge PennyLane, un framework open source pour des applications le Machine Learning sur ordinateurs quantique.

L’intégration de Braket à PennyLane devrait permettre de former des circuits quantiques de la même manière qu’on formeraient un réseau neuronal traditionnel en utilisant des bibliothèques de machine Learning communes grâce au support natif de PennyLane pour PyTorch et TensorFlow. AWS affirme que le processus de formation des circuits quantiques sera beaucoup plus rapide puisque sa bibliothèque exploite le parallélisme.

Autre point, AWS a élargi le choix de simulateurs disponibles sur Braket. En plus du simulateur de vecteur d’état, qui simulait un ordinateur quantique de 34 qubits, un nouveau simulateur disponible pourra simuler jusqu’à 50 qubits…

Pour rappel, l’offre d’Amazon s’appuie sur les machines quantiques de D-Wave, IonQ et Rigetti.

Si vous désirez en savoir plus sur l’offre AWS, voir le post de Jeff Barr qui explique (simplement) le périmètre de l’offre complète.

Google : toujours plus d’IA et de ML

Google a publié hier 15 octobre 2020 un message présentant les nouveautés à venir concernant son moteur de recherche (la vidéo correspondante est disponible sur YouTube également). Signé par Prabhakar Raghavan, Senior Vice President, Search & Assistant, Geo, Ads, Commerce, Payments & NBU, ce message présente un aperçu des améliorations que l’IA et le Machine Learning vont apporter dans les semaines à venir aux capacités de recherche de sa plateforme.

Parmi les améliorations mises en avant :

  • une meilleure prise en compte des fautes de frappe ou d’orthographe : selon Google, une recherche sur 10 contient des fôtes d’ortografe :). Le nouvel algorithme d’analyse de l’orthographe utilisera un réseau neuronal profond pour améliorer ses capacités de déchiffrement.
source Google

Les recherches très spécifiques peuvent être les plus difficiles à réaliser, car parfois la seule phrase qui répond à votre question peut être enfouie dans une page web

P.Raghavan
  • Si l’indexation de pages web constitue la capacité de base du moteur de recherche de Google, celui-ci va maintenant être capable d’indexer des passages spécifiques dans une page. En améliorant grâce à l’IA la compréhension de de manière plus ciblée à l’intérieur d’une page complète, il sera possible de répondre de façon plus précise aux requêtes.
source : Google
  • indexation des moments clés dans une vidéo : selon Google, l’IA va permettre de mieux comprendre la sémantique profonde d’une video et de tagger ainsi les moments clés, et l’utilisateur pourra alors naviguer au travers de ces moments clés, un peu comme on parcourt les chapitres d’un livre. La fonction a commencé à être testée en début d’année et selon P.Raghavan ce sont 10% des requêtes Google qui devraient en tirer partie d’ici fin 2020.
source Google
  • la possibilité de chanter ou siffloter un air pour rechercher le nom du titre, même sans avoir de talent de chanteur ! Shazam a popularisé depuis plusieurs années l’identification de morceaux musicaux, mais qui n’a pas rêvé de siffloter l’air qu’on a en tête depuis le matin sans parvenir à mettre un nom dessus ?

Et de nombreuses autres fonctions, la recherche à partir de photos, des outils spécifiques pour les journalistes, ou l’élargissement de l’initiative Data Commons vont également tirer parti de l’IA pour améliorer l’expérience des utilisateurs. Dommage peut-être que Google ne mette pas autant d’ardeur à filtrer sur YouTube toutes les vidéos de fake news, complotistes …. 😦

Le modèle GPT-3 accessible en exclusivité via Azure

GPT-3 est la dernière version d’un modèle de langage développé par la société OpenAI, qui possède grâce au Deep Learning, la capacité de générer du texte qu’il est quasiment impossible de distinguer d’un texte produit par un auteur humain. Ainsi OpenAI avait démontré en février 2019 comment à partir d’une courte phrase fournie en entrée (« In a shocking finding, scientist discovered a herd of unicorns living in a remote, previously unexplored valley, in the Andes Mountains. Even more surprising to the researchers was the fact that the unicorns spoke perfect English« ), GPT-2 avait généré un texte de 300 mots. Sur son site, OpenAI présente quelques exemples de traitement GPT-2, tous plus bluffants les uns que les autres.

En juillet 2019, Microsoft avait noué un partenariat étroit avec OpenAI, portant en particulier sur l’intégration des technologies OpenAI dans Azure et le choix par cette dernière d’Azure comme plateforme de choix, en particulier pour les phases d’apprentissage du modèle GPT. Les 2 acteurs ont profité de la conférence Ignite pour annoncer un pallier supplémentaire dans cette collaboration. Ainsi GPT-3, la dernière itération de la techno phare d’OpenAI, sera accessible via son API en exclusivité prochainement depuis Azure. Le changement d’échelle en terme de puissance de la dernière version GPT va permettre de répondre à des cas d’usages encore plus sophistiquées, avec par exemple la possibilité d’utiliser le même modèle mais entrainer sur des pixels, pour obtenir par exemple une solution qui génère des compléments et des échantillons d’images cohérents. Mais par ailleurs, cette montée en puissance va amener encore plus d’eau au moulin de ceux qui redoutent de voir se multiplier les fake news et fakes images de toutes sortes ….

Nvidia rachète ARM pour 40 Milliards de $

On savait que le fond Softbank souhaitait se désengager de la société Anglaise ARM qu’il avait acquis en 2016 pour 32 milliards de $. C’est donc Nvidia qui rafle ma mise avec une belle plus value à la clé pour SoftBank de 25% tout de même en 4 ans.

Dans un article de blog, Nvidia a déclaré que la transaction lui permettait de créer « la première société informatique de l’ère de l’intelligence artificielle« . Nvidia a précisé qu’Arm continuera à exploiter son modèle de licence open-source, la propriété intellectuelle de la société restant enregistrée au Royaume-Uni. L’entreprise cherchera également à étendre sa présence au Royaume-Uni en construisant un nouveau centre d’excellence mondial d’IA sur le campus d’Arm à Cambridge, et investira également dans un superordinateur IA alimenté par Arm.

Jensen Huang, le « Geek » fondateur et CEO de NVIDIA, dont les présentations au CES sont toujours très techniques argumentées et passionnantes à déclaré que :

« Dans les années à venir, des billions d’ordinateurs équipés de l’IA créeront un nouvel internet des choses qui sera des milliers de fois plus grand que l’internet des personnes d’aujourd’hui. Notre combinaison créera une entreprise fabuleusement positionnée pour l’ère de l’IA. Simon Segars et son équipe chez Arm ont bâti une entreprise extraordinaire qui contribue à presque tous les marchés technologiques du monde. En associant les capacités informatiques de l’IA de NVIDIA au vaste écosystème du CPU d’Arm, nous pouvons faire progresser l’informatique dans le nuage, les smartphones, les PC, les voitures et la robotique, pour atteindre l’OT et étendre l’informatique IA à tous les coins du monde. »

Ceci dit la partie IoT d’ARM semble avoir été écarté du deal…

Reste à voir maintenant les réactions des régulateurs, américains, européen mais aussi chinois, ces derniers voyant aussi la prise de contrôle par le Californien Nvidia de la société anglaise pas forcément d’un bon oeil. Le deal devra être ficelé durant les 18 prochains mois. Ces régulateurs devront valider les gardes fous mis pour que les concurrents d’Nvidia puissent tout de même garder des relations normales avec ARM : on pense en particulier à Apple, Samsung mais aussi Qualcomm et… Huawei ?

Microsoft propose une technologie pour lutter contre les « Deepfakes »

Microsoft a annoncé une nouvelle technologie pour lutter contre les fameux Deepfakes qui sont les vecteurs importants de la désinformation, qui ne manquera pas d’être largement utilisée lors des prochaines élections américaines.Vous le savez, ces « deepfakes », utilisent l’intelligence artificielle pour modifier des photos, des vidéos ou des fichiers audio de manière difficilement détectable afin de donner l’impression que quelqu’un fait ou dit quelque chose qu’il n’a pas fait ou qu’il se trouve dans des endroits où il n’était pas. On voit bien le danger de telles pratiques que la technologie permet malheureusement aujourd’hui.

Microsoft propose ainsi, Microsoft Video Authenticator, outil qui analyse une photo ou une vidéo pour fournir un pourcentage de chance, ou score de confiance, indiquant la probabilité qu’elle soit manipulée. Pour les vidéos, l’outil peut fournir ce score en temps réel sur chaque image pendant la lecture de la vidéo. Cette technologie a été développée à l’origine par Microsoft Research en coordination avec l’équipe responsable de l’IA de Microsoft et le comité AETHER (Ethics and Effects in Engineering and Research). Pour fonctionner cette technologie détecterait la limite de mélange entre les éléments de fond et les éléments plus subtils de décoloration ou de niveaux de gris qui aurait été modifiés et surtout qui sont souvent indétectables par l’œil humain. Problème, cette technologie risque de devenir rapidement obsolète, car pendant ce temps se sont aussi les technologies de Deepfake, elles aussi alimentées à l’IA qui continueront de se perfectionner. Pour lutter contre ceci Microsoft a annoncé un systèmequi permettra aux producteurs de contenu d’ajouter un code caché à leurs séquences afin de signaler toute manipulation des séquences initiales. Microsoft s’est également associé à un consortium de médias comme la BBC, la CBC/Radio-Canada et le New York Times pour tester la technologie et contribuer à la faire progresser en tant que norme.

Cette technologie ne sera pas directement mise à la disposition du public. Microsoft s’est associé à l’AI Foundation, une entreprise à la fois commerciale et à but non lucratif basée à San Francisco pour que cette technologie soit utilisée dans le cadre de l’initiative Reality Defender 2020 (RD2020) de la fondation pour les organisations impliquées dans le processus démocratique, y compris les organes d’information et les campagnes politiques.

Text Analytics for Health : Microsoft étend ses API cognitives Azure au monde de la santé

Capture d’écran 2020-07-10 à 11.54.00.png

Microsoft vient d’annoncer récemment une nouvelle capacité des Azure Cognitives Services, nommée Text Analytics for Health, et destinée comme son nom l’indique à proposer un moteur d’analyse de textes entrainé sur le domaine médical. Les Azure Cognitive Services représentent une large palette d’outils du langage naturel à la vision, en passant par l’analyse de contenu et la reconnaissance de sentiments.

Avec le nouveau service, Microsoft propose aux acteurs du monde médical et de la santé, un outil entrainé avec des documents du domaine, pour simplifier le traitement de masses de données médicales à analyser.

Text Analytics for Health permet aux développeurs de traiter et d’extraire des informations à partir de données médicales non structurées. Formé à une large gamme de données médicales – couvrant divers formats de notes cliniques, de protocoles d’essais cliniques, etc. -, le module santé est capable de traiter un large éventail de types de données et de tâches, sans qu’il soit nécessaire de développer manuellement des modèles personnalisés pour extraire des informations de ces données.

Hadas Bitran, Group Manager, Microsoft Healthcare

Text Analytics for Health est disponible en containers, permettant ainsi un déploiement dans des environnements « privés ».

Pour illustrer un cas d’usages de ces nouveaux Text Analytics for Health, Microsoft propose un moteur de recherches dédié au Covid 19, qui permet d’effectuer des recherches parmi une base documentaire dédiée à l’épidémie.

Capture d’écran 2020-07-10 à 11.59.11

Google Cloud Platform : des VMs avec les dernières GPU Nvidia A100

Capture d’écran 2020-07-09 à 12.38.45.pngLe Machine Learning et e Deep Learning se démocratisent, et les capacités d’exécution pour cela (apprentissage et inférence) sont de plus en plus sollicitées. Dans ce contexte, Google vient d’annoncer une nouvelle génération de VM hébergées sur GCP et s’appuyant sur la dernière génération de GPU annoncée en mai dernier la GPU Nvidia A100 Tensor Code.

Le GPU NVIDIA A100 Tensor Core offre des capacités d’accélération sans précédent pour les workflows d’intelligence artificielle (IA), d’analyse de données et de calcul haute performance (HPC) afin répondre aux défis informatiques les plus complexes au monde – (source Nvidia) 

Google annonce l’introduction de la famille A2 de VM, pouvant intégrer jusqu’à 16 GPU A100 par VM, et un total de 1360 GO de mémoire !! Selon Nvidia, sa nouvelle plateforme offre des performances jusqu’à 10 fois supérieures à celles de la génération précédente (Tesla V100). Google revendique d’être le premier à proposer de telles configurations et capacités dans un cloud public. Microsoft offre aujourd’hui dans Azure des VM (famille NCsv3) qui compte jusqu’à 4 Tesla V100 par VM, pour 448 GO de RAM (12 euros/heure sur le datacenter Azure France Centre, avec Azure Hybrid Benefit).

Pas d’information sur le prix de la nouvelle offre GCP, mais si une telle bête vous intéresse, vous pouvez vous inscrire pour obtenir plus d’info et (peut-être) tester une version alpha de ces nouvelles ressources : cliquez ici.

Que deviennent vos photos ? Demandez à Clearview.ai ….

Capture d’écran 2020-06-19 à 15.11.20La reconnaissance faciale n’a pas bonne presse en ce moment, encore moins lorsqu’il s’agit de son usage par les forces de police (voir ici ou ). Au-delà des grandes plateformes du web (Google, AWS, Microsoft ou IBM) qui proposent (proposaient) des services de reconnaissance faciale, un autre acteur, certes moins connu mais très spécialisé en la matière, s’est fait connaitre au fil des mois : Clearview.ai. Cette startup propose en effet, non pas des technologies pour bâtir des solutions, mais une base de photos de plusieurs milliards de photos de visages collectées sur le web et qui est ensuite utilisée pour comparer avec des photos de suspects afin de trouver si une correspondance existe. Concrètement, les photos des profils facebook, linkedin, ou tout autre partie qui est public sur le web, se retrouvent aspirées par la mécanique clearview et injectée dans leur base de données. Puis exploitées, avec bien entendu des techniques d’IA.  Ses clients sont les services de police ou agences de sécurité aux USA, et de nombreuses autres organisations à travers le monde sont intéressées par de telles capacités.

Le problème est que clearview.ai récupère les photos sur des sites web publiques sans jamais demander l’autorisation, ni au site qui héberge la photo, ni encore moins à la personne concernée. En février dernier, 3 acteurs (Twitter, Google, et YouTube – propriété de Google) ont adressé un courrier à clearview.ai pour lui enjoindre de cesser cette pratique. Plus récemment encore, l’ACLU (American Civil Liberties Union) vient d’engager une action en justice à l’encontre de la startup pour la capture et le stockage illégale de données biométriques. Si l’ACLU est de par sa nature, tout à fait en position de demander des comptes à clearview.ai, il est par contre plus surprenant de retrouver Google, elle-même assez encline à aller utiliser le contenu disponible sur le web pour en faire son miel. Comme quoi chacun voit midi à sa porte, même à l’heure digitale…

« Entrées précédentes Derniers articles »