Archives de Catégorie: IA

IBM développe une « e-tongue » (une langue artificielle) pour identifier des liquides

Capture d’écran 2019-07-08 à 16.48.32.pngEn ces périodes de chaleur, et pour tous ceux qui voudraient profiter des vacances pour découvrir des nouvelles boissons (non alcoolisées bien entendu :)), IBM Research développe un accessoire qui pourrait être intéressant : dénommé Hypertaste, il s’agit d’une langue artificielle capable d’identifier les composantes des boissons qui lui sont proposées.  Ceci est rendu possible grâce à un ensemble de capteurs plongés dans le liquide, puis par une analyse chimique et du machine Learning pour comparer et classifier les éléments identifiés. Une telle solution offre de nombreux avantages, dont le fait d’être rapide (moins d’une minute entre la mesure et l’identification), de ne pas nécessiter un test humain (signifiant ingurgiter une petite quantité du liquide considéré, pas forcément toujours possible), ni d’analyse chimique lourde.

Le proto a été démontré la semaine dernière à Lausanne lors de la conférence World Conference of Science Journalists (1 au 5 juillet 2019), et a identifié différentes marques d’eau en bouteille locales. Pour un éventuel test personnel pendant vos congés, ne le cherchez pas dans le commerce, il ne s’agit pour le moment que d’un démonstrateur.

Baidu aidera à la mise au point du processeur neuronal Nervana d’Intel

Lors de la conférence Create de Baidu à Pekin la semaine dernière, le vice-président d’Intel, Naveen Rao, a annoncé que Baidu collaborait avec Intel au développement de son processeur neuronal Nervana destiné à la formation (également appelé NNP-T 1000). Les deux sociétés vont dont combiner leur expertise pour développer un accélérateur à haute vitesse capable d’entraîner les modèles d’intelligence artificielle encore plus rapidement d’après Naveen Rao.

Capture d’écran 2019-07-03 à 11.27.14«Les prochaines années verront une explosion de la complexité des modèles d’intelligence artificielle et la nécessité d’un calcul d’apprentissage en profondeur massif à grande échelle», a déclaré Naveen Rao. « Intel et Baidu concentrent leur collaboration, qui dure depuis dix ans, sur la construction de nouveaux matériels, qui évolueront en fonction de cette nouvelle réalité: ce que nous appelons » AI 2.0 « .« . Il annonce de plus que les capacités seront 2 à 3 fois ce qu’offre la concurrence actuellement… A voir dans les faits, car les projets de Nvidia en particulier sont aussi impressionnants en matière de puissance cible.

Malgré les invectives de l’actuel locataire de la Maison Blanche, ce n’est pas la première fois que Intel et Baidu s’associent pour développer des solutions destinées aux applications d’intelligence artificielle. Et les deux acteurs ne compte pas que cela cesse ! Depuis 2016, Intel optimise le framework d’apprentissage en profondeur PaddlePaddle de Baidu  pour ses processeurs Xeon Scalable, et les deux sociétés travaillent ensemble sur MesaTEE, une infrastructure informatique basée sur la technologie SGX (Software Guard Extensions) d’Intel.

Plus récemment, Baidu et Intel ont dévoilé BIE-AI-Box, un kit spécialement conçu pour analyser les images capturées par les caméras de surveillances du réseau routier(très nombreuses là bas !). Il se connecte à des caméras pour la reconnaissance de la route, la surveillance de la carrosserie et la reconnaissance du comportement du conducteur…

Clairement Intel, à défaut d’avoir raté le boom de la mobilité voit son avenir dans l’IA et la puissance que cela nécessitera. Ce marché a déjà enregistré un chiffre d’affaires de 2,5 milliards de dollars en 2017 et devrait passé à 10 milliards de dollars en 2022…

Le Machine Learning Microsoft permet de colorier une vidéo à partir d’une seule image de référence

Dans un article publié sur le serveur Arxiv.org («Deep Exemplar-based Video Colorization»), des scientifiques de Microsoft Research Asie, de la division Perception de l’IA et réalité mixte de Microsoft, de l’Université Hamad Bin Khalifa et de l’Institute for Creative Technologies de l’USC détaillent le premier système  pour la colorisation vidéo autonome basée sur des exemples (dérivée d’une seule image de référencera exemple).

Capture d’écran 2019-06-28 à 15.12.23«Le principal défi consiste à atteindre une cohérence temporelle tout en restant fidèle au style de référence», ont écrit les coauteurs. « Tous les composants du modèle, appris de bout en bout, permettent de produire des vidéos réalistes avec une bonne stabilité temporelle. »

Des IA qui sont capables de convertir des clips monochromes en couleur ne sont pas une nouveauté. Des chercheurs de Nvidia, en septembre dernier, ont décrit un cadre qui déduit les couleurs d’une seule image vidéo colorisée et annotée. En juin, Google a également introduit un algorithme permettant de coloriser les vidéos sans supervision humaine manuelle. Mais ces modèles et de la plupart des autres modèles contiennent souvent de nombreux  artefacts et des erreurs, qui s’accumulent plus la longueur de la vidéo est importante.

Pour remédier aux lacunes, la méthode des chercheurs ici prend en entrée le résultat de la trame vidéo précédente (pour préserver la cohérence) et effectue la colorisation à l’aide d’une image de référence, ce qui permet à cette image de guider la colorisation image par image et de réduire les erreurs d’accumulation.  En conséquence, il est capable de prédire des couleurs «naturelles» en fonction de la sémantique des images en niveaux de gris en entrée, même lorsqu’aucune correspondance correcte n’est disponible dans une image de référence donnée ou dans un cadre précédent.

Capture d’écran 2019-06-28 à 15.12.40Les chercheurs précisent : «Dans l’ensemble, les résultats de notre méthode, bien que légèrement moins dynamiques, présentent une coloration similaire à la réalité. La comparaison qualitative indique également que notre méthode produit les résultats de colorisation les plus réalistes et les plus dynamiques ».

AWS lance son service Amazon Personalize : pour créer votre concurrent à Amazon.com :)

Amazon Personalize est un service AWS facilitant le développement de sites Web, d’applications mobiles, de systèmes de gestion de contenu et d’e-marketing proposant des produits en fournissant des résultats de recherche personnalisés et en personnalisant à la volée les cycles de vente par types de produits et de clients. De quoi bâtir votre concurrent à Amazon.com 🙂 C’est disponible dans certaines régions AWS,  notamment l’UE (Irlande).

«Nous sommes ravis de partager avec nos clients AWS l’expertise que nous avons développée au cours de deux décennies d’utilisation de l’apprentissage automatique pour offrir de superbes expériences sur Amazon.com», a déclaré Swami Sivasubramanian, le VP Machine Learning chez AWS. Effectivement la référence est interessante !

Personalize est un service entièrement géré qui forme, ajuste et déploie des modèles d’apprentissage automatique personnalisés dans le cloud en fournissant l’infrastructure nécessaire et en gérant des tâches telles que le traitement des données, l’extraction de fonctionnalités, la formation et l’optimisation d’algorithmes et l’hébergement. Les clients fournissent un flux d’activités à partir de leurs applications et de leurs sites Web (clics, pages vues, inscriptions, achats, etc.), ainsi qu’un inventaire des éléments qu’ils souhaitent recommander (articles, produits, vidéos ou musique, par exemple), éventuellement des informations démographiques ( comme l’âge ou l’emplacement géographique), et ils reçoivent les résultats via une API et ne paient que pour ce qu’ils utilisent.

Le schéma ci-dessous illustre le processus :

Capture d’écran 2019-06-12 à 15.01.08

Nvidia EGX : une nouvelle plateforme AI pour l’Edge Computing

Nvidia a annoncé hier, en ouverture du COMPTUTEX à Taiwan, la plateforme EGX.

D’un point de vue matériel, EGX peut supporter des modules de petites tailles (Nvidia Jetson Nano) capable d’embarquer de l’intelligence dans des scénarios IoT (par exemple de reconnaissance d’images) pour une puissance de calcul de 1/2 TOPS (trillion operation per second), et jusqu’à des configurations de serveurs dopés avec des GPU Nvidia T4 qui peuvent monter jusqu’à des puissances de calcul de 10 000 Tops et des applications consommatrices en temps réel.

Du point de vue logiciel, Nvidia EGX est basé sur Nvidia Edge Stack, qui a pour le coup été optimisé sur Red Hat Openshift (plateforme d’orchestration de containers Kubernetes).

Les applications développées sur Nvidia EGX peuvent également fonctionner sur les couches de services Nvidia proposées chez AWS ou Microsoft Azure, et vice versa.

Parmi les constructeurs qui ont annoncés leur support à Nvidia EGX, on retrouve les principaux acteurs du marché : DELL, HPE, Lenovo, Fujitsu, Cisco, ASUS, ACER …. mais aussi des industriels qui vont intégrer cette technologie au sein de leurs processus logistiques (BMW, Foxconn, GE Healthcare …).

IA : comment se rendre invisible…

Un groupe d’ingénieurs de l’université de Leuven en Belgique a mis au point une sorte de cape d’invisibilité pour les systèmes de reconnaissance faciale. Dans un document partagé la semaine dernière les étudiants expliquent comment de simples motifs imprimés peuvent tromper un système d’intelligence artificielle conçu pour reconnaître les personnes dans des images.

Amusant : si vous imprimez une affiche spéciale et que vous la suspendez à votre cou, vous risquez de brouiller les algorithmes de reconnaissance faciale.. C’est sans doute assez surprenant, mais l’idée est de mettre en place des éléments très imprévisibles pour tromper l’IA qui a « appris » avec des modèles assez similaires finalement. Bien entendu on imagine qu’une correction pourrait-être faite si tout le monde se balade avec ce type de pancarte !

«Nous pensons que, si nous combinons cette technique pour réaliser des vêtements, nous pouvons concevoir un  T-shirt qui peut rendre une personne pratiquement invisible pour les caméras de surveillance automatiques.»

 

Une semaine après sa création, le conseil éthique sur l’Intelligence Artificielle de Google ferme ses portes…

Capture d’écran 2019-04-06 à 19.18.59Google a annoncé la fermeture de son « Conseil consultatif externe sur les technologies de pointe (ATEAC) » une semaine à peine après sa création. Ce conseil devait apporter ses réflexions sur l’usage de l’Intelligence Artificielle chez Google et établir des règles (consultatives donc) éthiques. La fermeture du conseil intervient alors que la présidente de la Fondation du Patrimoine, Kay Coles James, membre du conseil, a attiré l’attention avec des prises de positions politiques assez tranchées et que la présence de Dyan Gibbens, la PDG de Trumbull Unmanned, une entreprise de drones à vocation militaires, n’était pas souhaité par les employés de Google qui s’étaient précédemment opposés à ce que Google soutienne des projets avec le Pentagone ;  la direction avait alors été obligée de faire machine arrière.

Dans le même temps, un autre membre, Alessandro Acquisti a annoncé sur Twitter qu’il ne participerait finalement pas. Ce professeur à Carnegie Mellon est l’une des premières personnes qui soulignait l’importance du respect de la vie privée dans une conférence très à TEDx en 2013.

Google a donc logiquement jeté l’éponge : «Il est devenu évident que dans l’environnement actuel, l’ATEAC ne peut pas fonctionner comme nous le souhaitions. Nous arrêtons donc le conseil. Nous continuerons d’être responsables sur les questions importantes soulevées par l’intelligence artificielle et trouverons différents moyens d’obtenir des opinions extérieures sur ces sujets.  »

La raison pour laquelle Google avait inclus des personnes de tous horizons politiques et sensibilité était pour que ce conseil soit plus le plus représentatif possible. C’est raté ! A voir quelle structure le géant de Mountain View va pouvoir proposer en échange ? Et pourquoi pas une alliance les autres géants du secteurs : Facebook, Microsoft et Amazon par exemple… En laissant les états le soin de réguler les usages…

« Entrées précédentes Derniers articles »