Archives de Catégorie: IA

#CES2021 Une solution pour identifier rapidement les signes d’AVC

Selon l’INSERM, ce sont plus de 140 000 nouveaux AVC qui ont lieu en France chaque année, et qui mènent à près de 30 000 décès. L’AVC (Accident Vasculaire Cérébral) est la première cause de handicap physique acquis de l’adulte et plus le temps d’identification de l’AVC d’un patient est long plus le risque de décès ou d’handicap est élevé.
La société coréenne Pulxion a présenté hier au CES 2021, PulStroke , un nouveau dispositif de dépistage rapide de la sténose de l’artère carotide, un indicateur précoce de l’AVC. Actuellement l’identification de cette sténose passe par l’utilisation d’un équipement Doppler, en milieu hospitalier, avec des professionnels de santé pour mettre en oeuvre le système et interpréter les résultats. Ce qui est donc limité en termes d’accès mais aussi de temps.

PulStroke est, selon Pulxion, un outil d’évaluation non invasif, non radioactif, simple à utiliser. Avec PulStroke, les résultats du dépistage sont accessibles aux utilisateurs via l’appareil lui-même ou les smartphones des utilisateurs dans un délai de 5 minutes. L’appareil enregistre d’abord un clip de 20 secondes de la peau du cou de l’utilisateur sous une lumière LED. Ensuite, l’algorithme (et son IA) analyse dans le cloud les données et fournit les résultats du dépistage aux utilisateurs. La précision de PulStroke est supérieure à 90 % de celle de la méthode d’échographie Doppler.

source : Pulxion

La solution opérationnelle n’est néanmoins pas attendue avant mi 2022 en Corée, après validation des autorités sanitaires.

Amazon améliore encore son simulateur quantique

Vous connaissez sans doute le simulateur Quantique dans le Cloud d’Amazon : l’offre AWS Bracket, nous vous en parlions sur le blog. Amazon Braket est disponible depuis aout dernier. Ce service permet d’accéder à distance à des simulateurs d’informatique quantique et à du matériel quantique réel hébergés sur le cloud. Amazon vient d’annoncer des améliorations interessante dans le cadre de la mise au point d’algorithmes quantique de Machine Learning. Ainsi, Amazon Braket prendrait désormais en charge PennyLane, un framework open source pour des applications le Machine Learning sur ordinateurs quantique.

L’intégration de Braket à PennyLane devrait permettre de former des circuits quantiques de la même manière qu’on formeraient un réseau neuronal traditionnel en utilisant des bibliothèques de machine Learning communes grâce au support natif de PennyLane pour PyTorch et TensorFlow. AWS affirme que le processus de formation des circuits quantiques sera beaucoup plus rapide puisque sa bibliothèque exploite le parallélisme.

Autre point, AWS a élargi le choix de simulateurs disponibles sur Braket. En plus du simulateur de vecteur d’état, qui simulait un ordinateur quantique de 34 qubits, un nouveau simulateur disponible pourra simuler jusqu’à 50 qubits…

Pour rappel, l’offre d’Amazon s’appuie sur les machines quantiques de D-Wave, IonQ et Rigetti.

Si vous désirez en savoir plus sur l’offre AWS, voir le post de Jeff Barr qui explique (simplement) le périmètre de l’offre complète.

Google : toujours plus d’IA et de ML

Google a publié hier 15 octobre 2020 un message présentant les nouveautés à venir concernant son moteur de recherche (la vidéo correspondante est disponible sur YouTube également). Signé par Prabhakar Raghavan, Senior Vice President, Search & Assistant, Geo, Ads, Commerce, Payments & NBU, ce message présente un aperçu des améliorations que l’IA et le Machine Learning vont apporter dans les semaines à venir aux capacités de recherche de sa plateforme.

Parmi les améliorations mises en avant :

  • une meilleure prise en compte des fautes de frappe ou d’orthographe : selon Google, une recherche sur 10 contient des fôtes d’ortografe :). Le nouvel algorithme d’analyse de l’orthographe utilisera un réseau neuronal profond pour améliorer ses capacités de déchiffrement.
source Google

Les recherches très spécifiques peuvent être les plus difficiles à réaliser, car parfois la seule phrase qui répond à votre question peut être enfouie dans une page web

P.Raghavan
  • Si l’indexation de pages web constitue la capacité de base du moteur de recherche de Google, celui-ci va maintenant être capable d’indexer des passages spécifiques dans une page. En améliorant grâce à l’IA la compréhension de de manière plus ciblée à l’intérieur d’une page complète, il sera possible de répondre de façon plus précise aux requêtes.
source : Google
  • indexation des moments clés dans une vidéo : selon Google, l’IA va permettre de mieux comprendre la sémantique profonde d’une video et de tagger ainsi les moments clés, et l’utilisateur pourra alors naviguer au travers de ces moments clés, un peu comme on parcourt les chapitres d’un livre. La fonction a commencé à être testée en début d’année et selon P.Raghavan ce sont 10% des requêtes Google qui devraient en tirer partie d’ici fin 2020.
source Google
  • la possibilité de chanter ou siffloter un air pour rechercher le nom du titre, même sans avoir de talent de chanteur ! Shazam a popularisé depuis plusieurs années l’identification de morceaux musicaux, mais qui n’a pas rêvé de siffloter l’air qu’on a en tête depuis le matin sans parvenir à mettre un nom dessus ?

Et de nombreuses autres fonctions, la recherche à partir de photos, des outils spécifiques pour les journalistes, ou l’élargissement de l’initiative Data Commons vont également tirer parti de l’IA pour améliorer l’expérience des utilisateurs. Dommage peut-être que Google ne mette pas autant d’ardeur à filtrer sur YouTube toutes les vidéos de fake news, complotistes …. 😦

Le modèle GPT-3 accessible en exclusivité via Azure

GPT-3 est la dernière version d’un modèle de langage développé par la société OpenAI, qui possède grâce au Deep Learning, la capacité de générer du texte qu’il est quasiment impossible de distinguer d’un texte produit par un auteur humain. Ainsi OpenAI avait démontré en février 2019 comment à partir d’une courte phrase fournie en entrée (« In a shocking finding, scientist discovered a herd of unicorns living in a remote, previously unexplored valley, in the Andes Mountains. Even more surprising to the researchers was the fact that the unicorns spoke perfect English« ), GPT-2 avait généré un texte de 300 mots. Sur son site, OpenAI présente quelques exemples de traitement GPT-2, tous plus bluffants les uns que les autres.

En juillet 2019, Microsoft avait noué un partenariat étroit avec OpenAI, portant en particulier sur l’intégration des technologies OpenAI dans Azure et le choix par cette dernière d’Azure comme plateforme de choix, en particulier pour les phases d’apprentissage du modèle GPT. Les 2 acteurs ont profité de la conférence Ignite pour annoncer un pallier supplémentaire dans cette collaboration. Ainsi GPT-3, la dernière itération de la techno phare d’OpenAI, sera accessible via son API en exclusivité prochainement depuis Azure. Le changement d’échelle en terme de puissance de la dernière version GPT va permettre de répondre à des cas d’usages encore plus sophistiquées, avec par exemple la possibilité d’utiliser le même modèle mais entrainer sur des pixels, pour obtenir par exemple une solution qui génère des compléments et des échantillons d’images cohérents. Mais par ailleurs, cette montée en puissance va amener encore plus d’eau au moulin de ceux qui redoutent de voir se multiplier les fake news et fakes images de toutes sortes ….

Nvidia rachète ARM pour 40 Milliards de $

On savait que le fond Softbank souhaitait se désengager de la société Anglaise ARM qu’il avait acquis en 2016 pour 32 milliards de $. C’est donc Nvidia qui rafle ma mise avec une belle plus value à la clé pour SoftBank de 25% tout de même en 4 ans.

Dans un article de blog, Nvidia a déclaré que la transaction lui permettait de créer « la première société informatique de l’ère de l’intelligence artificielle« . Nvidia a précisé qu’Arm continuera à exploiter son modèle de licence open-source, la propriété intellectuelle de la société restant enregistrée au Royaume-Uni. L’entreprise cherchera également à étendre sa présence au Royaume-Uni en construisant un nouveau centre d’excellence mondial d’IA sur le campus d’Arm à Cambridge, et investira également dans un superordinateur IA alimenté par Arm.

Jensen Huang, le « Geek » fondateur et CEO de NVIDIA, dont les présentations au CES sont toujours très techniques argumentées et passionnantes à déclaré que :

« Dans les années à venir, des billions d’ordinateurs équipés de l’IA créeront un nouvel internet des choses qui sera des milliers de fois plus grand que l’internet des personnes d’aujourd’hui. Notre combinaison créera une entreprise fabuleusement positionnée pour l’ère de l’IA. Simon Segars et son équipe chez Arm ont bâti une entreprise extraordinaire qui contribue à presque tous les marchés technologiques du monde. En associant les capacités informatiques de l’IA de NVIDIA au vaste écosystème du CPU d’Arm, nous pouvons faire progresser l’informatique dans le nuage, les smartphones, les PC, les voitures et la robotique, pour atteindre l’OT et étendre l’informatique IA à tous les coins du monde. »

Ceci dit la partie IoT d’ARM semble avoir été écarté du deal…

Reste à voir maintenant les réactions des régulateurs, américains, européen mais aussi chinois, ces derniers voyant aussi la prise de contrôle par le Californien Nvidia de la société anglaise pas forcément d’un bon oeil. Le deal devra être ficelé durant les 18 prochains mois. Ces régulateurs devront valider les gardes fous mis pour que les concurrents d’Nvidia puissent tout de même garder des relations normales avec ARM : on pense en particulier à Apple, Samsung mais aussi Qualcomm et… Huawei ?

Microsoft propose une technologie pour lutter contre les « Deepfakes »

Microsoft a annoncé une nouvelle technologie pour lutter contre les fameux Deepfakes qui sont les vecteurs importants de la désinformation, qui ne manquera pas d’être largement utilisée lors des prochaines élections américaines.Vous le savez, ces « deepfakes », utilisent l’intelligence artificielle pour modifier des photos, des vidéos ou des fichiers audio de manière difficilement détectable afin de donner l’impression que quelqu’un fait ou dit quelque chose qu’il n’a pas fait ou qu’il se trouve dans des endroits où il n’était pas. On voit bien le danger de telles pratiques que la technologie permet malheureusement aujourd’hui.

Microsoft propose ainsi, Microsoft Video Authenticator, outil qui analyse une photo ou une vidéo pour fournir un pourcentage de chance, ou score de confiance, indiquant la probabilité qu’elle soit manipulée. Pour les vidéos, l’outil peut fournir ce score en temps réel sur chaque image pendant la lecture de la vidéo. Cette technologie a été développée à l’origine par Microsoft Research en coordination avec l’équipe responsable de l’IA de Microsoft et le comité AETHER (Ethics and Effects in Engineering and Research). Pour fonctionner cette technologie détecterait la limite de mélange entre les éléments de fond et les éléments plus subtils de décoloration ou de niveaux de gris qui aurait été modifiés et surtout qui sont souvent indétectables par l’œil humain. Problème, cette technologie risque de devenir rapidement obsolète, car pendant ce temps se sont aussi les technologies de Deepfake, elles aussi alimentées à l’IA qui continueront de se perfectionner. Pour lutter contre ceci Microsoft a annoncé un systèmequi permettra aux producteurs de contenu d’ajouter un code caché à leurs séquences afin de signaler toute manipulation des séquences initiales. Microsoft s’est également associé à un consortium de médias comme la BBC, la CBC/Radio-Canada et le New York Times pour tester la technologie et contribuer à la faire progresser en tant que norme.

Cette technologie ne sera pas directement mise à la disposition du public. Microsoft s’est associé à l’AI Foundation, une entreprise à la fois commerciale et à but non lucratif basée à San Francisco pour que cette technologie soit utilisée dans le cadre de l’initiative Reality Defender 2020 (RD2020) de la fondation pour les organisations impliquées dans le processus démocratique, y compris les organes d’information et les campagnes politiques.

Text Analytics for Health : Microsoft étend ses API cognitives Azure au monde de la santé

Capture d’écran 2020-07-10 à 11.54.00.png

Microsoft vient d’annoncer récemment une nouvelle capacité des Azure Cognitives Services, nommée Text Analytics for Health, et destinée comme son nom l’indique à proposer un moteur d’analyse de textes entrainé sur le domaine médical. Les Azure Cognitive Services représentent une large palette d’outils du langage naturel à la vision, en passant par l’analyse de contenu et la reconnaissance de sentiments.

Avec le nouveau service, Microsoft propose aux acteurs du monde médical et de la santé, un outil entrainé avec des documents du domaine, pour simplifier le traitement de masses de données médicales à analyser.

Text Analytics for Health permet aux développeurs de traiter et d’extraire des informations à partir de données médicales non structurées. Formé à une large gamme de données médicales – couvrant divers formats de notes cliniques, de protocoles d’essais cliniques, etc. -, le module santé est capable de traiter un large éventail de types de données et de tâches, sans qu’il soit nécessaire de développer manuellement des modèles personnalisés pour extraire des informations de ces données.

Hadas Bitran, Group Manager, Microsoft Healthcare

Text Analytics for Health est disponible en containers, permettant ainsi un déploiement dans des environnements « privés ».

Pour illustrer un cas d’usages de ces nouveaux Text Analytics for Health, Microsoft propose un moteur de recherches dédié au Covid 19, qui permet d’effectuer des recherches parmi une base documentaire dédiée à l’épidémie.

Capture d’écran 2020-07-10 à 11.59.11

Google Cloud Platform : des VMs avec les dernières GPU Nvidia A100

Capture d’écran 2020-07-09 à 12.38.45.pngLe Machine Learning et e Deep Learning se démocratisent, et les capacités d’exécution pour cela (apprentissage et inférence) sont de plus en plus sollicitées. Dans ce contexte, Google vient d’annoncer une nouvelle génération de VM hébergées sur GCP et s’appuyant sur la dernière génération de GPU annoncée en mai dernier la GPU Nvidia A100 Tensor Code.

Le GPU NVIDIA A100 Tensor Core offre des capacités d’accélération sans précédent pour les workflows d’intelligence artificielle (IA), d’analyse de données et de calcul haute performance (HPC) afin répondre aux défis informatiques les plus complexes au monde – (source Nvidia) 

Google annonce l’introduction de la famille A2 de VM, pouvant intégrer jusqu’à 16 GPU A100 par VM, et un total de 1360 GO de mémoire !! Selon Nvidia, sa nouvelle plateforme offre des performances jusqu’à 10 fois supérieures à celles de la génération précédente (Tesla V100). Google revendique d’être le premier à proposer de telles configurations et capacités dans un cloud public. Microsoft offre aujourd’hui dans Azure des VM (famille NCsv3) qui compte jusqu’à 4 Tesla V100 par VM, pour 448 GO de RAM (12 euros/heure sur le datacenter Azure France Centre, avec Azure Hybrid Benefit).

Pas d’information sur le prix de la nouvelle offre GCP, mais si une telle bête vous intéresse, vous pouvez vous inscrire pour obtenir plus d’info et (peut-être) tester une version alpha de ces nouvelles ressources : cliquez ici.

Que deviennent vos photos ? Demandez à Clearview.ai ….

Capture d’écran 2020-06-19 à 15.11.20La reconnaissance faciale n’a pas bonne presse en ce moment, encore moins lorsqu’il s’agit de son usage par les forces de police (voir ici ou ). Au-delà des grandes plateformes du web (Google, AWS, Microsoft ou IBM) qui proposent (proposaient) des services de reconnaissance faciale, un autre acteur, certes moins connu mais très spécialisé en la matière, s’est fait connaitre au fil des mois : Clearview.ai. Cette startup propose en effet, non pas des technologies pour bâtir des solutions, mais une base de photos de plusieurs milliards de photos de visages collectées sur le web et qui est ensuite utilisée pour comparer avec des photos de suspects afin de trouver si une correspondance existe. Concrètement, les photos des profils facebook, linkedin, ou tout autre partie qui est public sur le web, se retrouvent aspirées par la mécanique clearview et injectée dans leur base de données. Puis exploitées, avec bien entendu des techniques d’IA.  Ses clients sont les services de police ou agences de sécurité aux USA, et de nombreuses autres organisations à travers le monde sont intéressées par de telles capacités.

Le problème est que clearview.ai récupère les photos sur des sites web publiques sans jamais demander l’autorisation, ni au site qui héberge la photo, ni encore moins à la personne concernée. En février dernier, 3 acteurs (Twitter, Google, et YouTube – propriété de Google) ont adressé un courrier à clearview.ai pour lui enjoindre de cesser cette pratique. Plus récemment encore, l’ACLU (American Civil Liberties Union) vient d’engager une action en justice à l’encontre de la startup pour la capture et le stockage illégale de données biométriques. Si l’ACLU est de par sa nature, tout à fait en position de demander des comptes à clearview.ai, il est par contre plus surprenant de retrouver Google, elle-même assez encline à aller utiliser le contenu disponible sur le web pour en faire son miel. Comme quoi chacun voit midi à sa porte, même à l’heure digitale…

Amazon met en pause ses services de reconnaissance faciale pour la police

Capture d’écran 2020-06-11 à 07.18.03Nous en parlions récemment, parmi les nombreuses conséquences du meurtre de George Floyd à Minneapolis, IBM vient d’annoncer l’arrêt de ses services de reconnaissance faciale, critiquant au passage les entreprises qui commercialisaient des services identiques. Amazon n’était pas nommé, mais la société de Seattle était clairement visée par A.Krishna, le CEO d’IBM.

Amazon a donc dû réagir, aux propos d’IBM, mais avant tout au contexte de l’affaire Floyd, et hier 10 juin, Amazon a publié sur son blog Day One, un message lapidaire annonçant une pause d’un an dans la fourniture de ses services de reconnaissance faciale aux services de police. Le billet explique qu’Amazon  » préconisait que les gouvernements mettent en place des réglementations plus strictes pour régir l’utilisation éthique de la technologie de reconnaissance faciale« , et que le Congrès américain semblant prêt à s’attaquer à cette tâche, l’entreprise de Jeff Bezos mettait ses services en pause (pour les usages par la police uniquement) et restait prête à aider les parlementaires américains pour contribuer à une nouvelle règlementation.

Cette décision devrait donc mettre fin à plusieurs expérimentations engagées par différents services de police à travers les USA, qui tiraient profit d’Amazon Rekognition, les services de reconnaissance faciale proposées par AWS. Par contre, le court billet du blog Amazon ne mentionne pas ce qu’il en sera pour les usages d’autres services de sécurité, en dehors de la police seule indiquée explicitement. Quid par exemple des agences fédérales aux USA (CIA, FBI ..) ou dans d’autres pays ….

En tout cas, la décision d’Amazon démontre aussi la force du mouvement né suite à l’affaire G.Floyd, qui aura réussi  à stopper Amazon alors que de nombreuses associations qui contestaient depuis plus de 2 ans l’utilisation des services de reconnaissance faciale par la police américaine s’étaient heurtés à un refus de la part d’Amazon.

« Entrées précédentes