Archives des étiquettes : ML

ARM veut rendre le Machine Learning encore plus accessible avec ses processeurs neuronaux

Avec le lancement de ses nouvelles unités de traitement neuronal (NPU : Neuronal Processor Unit), Arm vise à étendre les fonctions de Machine Learning aux appareils grand public et bas de gamme et donc de banaliser ce type d’usage.

ARM EthosLa société à annoncée ces NPU Ethos-N57 et Ethos-N37, qu’elle fournira comme d’habitude sous licence aux fabricants de puces qui pourront l’intégrer dans leurs propres produits. Si les principaux clients d’ARM, Apple, Samsung, Nvidia, Huawei et Qualcomm en tête dispose déjà de leur propres unité de Machine Learning, l’idée ici est d’étendre la gamme des processeurs Arm Machine Learning (ML) pour permettre des applications d’intelligence artificielle (IA) dans des appareils grand public de toutes sortes réalisé par des fondeurs n’ayant pas forcément les capacités de développer leur propre puce.

L’intelligence intelligence artificielle est maintenant omniprésente, des consoles de jeu aux téléviseurs, et il faut augmenter le calcul en local pour offrir des expériences réactives. Par exemple, les expériences intelligentes dans le domaine de télé vont des commandes vocales intelligentes de l’assistant intelligent à la traduction en temps réel pour les émissions dans une autre langue voire la reconnaissance faciale pour améliorer le contrôle parental. Les nouvelles NPU sont ainsi dotées de fonctions telles que la reconnaissance vocale et les fonctions de mise en marche permanente, qui ne sont plus propres aux téléphones mobiles.

Ethos-N57 et Ethos-N37 ont tous deux été conçus avec quelques principes de base à l’esprit. Ils sont optimisés autour de la prise en charge des types de données Int8 et Int16 et utilisent des techniques avancées de gestion des données, minimisant le mouvement des données et la puissance associée. Ils offrent également une augmentation de performance de plus de 200% par rapport à de nombreuses autres NPU grâce à des techniques telles que l’implémentation innovante de Winograd.

Le Machine Learning Microsoft permet de colorier une vidéo à partir d’une seule image de référence

Dans un article publié sur le serveur Arxiv.org («Deep Exemplar-based Video Colorization»), des scientifiques de Microsoft Research Asie, de la division Perception de l’IA et réalité mixte de Microsoft, de l’Université Hamad Bin Khalifa et de l’Institute for Creative Technologies de l’USC détaillent le premier système  pour la colorisation vidéo autonome basée sur des exemples (dérivée d’une seule image de référencera exemple).

Capture d’écran 2019-06-28 à 15.12.23«Le principal défi consiste à atteindre une cohérence temporelle tout en restant fidèle au style de référence», ont écrit les coauteurs. « Tous les composants du modèle, appris de bout en bout, permettent de produire des vidéos réalistes avec une bonne stabilité temporelle. »

Des IA qui sont capables de convertir des clips monochromes en couleur ne sont pas une nouveauté. Des chercheurs de Nvidia, en septembre dernier, ont décrit un cadre qui déduit les couleurs d’une seule image vidéo colorisée et annotée. En juin, Google a également introduit un algorithme permettant de coloriser les vidéos sans supervision humaine manuelle. Mais ces modèles et de la plupart des autres modèles contiennent souvent de nombreux  artefacts et des erreurs, qui s’accumulent plus la longueur de la vidéo est importante.

Pour remédier aux lacunes, la méthode des chercheurs ici prend en entrée le résultat de la trame vidéo précédente (pour préserver la cohérence) et effectue la colorisation à l’aide d’une image de référence, ce qui permet à cette image de guider la colorisation image par image et de réduire les erreurs d’accumulation.  En conséquence, il est capable de prédire des couleurs «naturelles» en fonction de la sémantique des images en niveaux de gris en entrée, même lorsqu’aucune correspondance correcte n’est disponible dans une image de référence donnée ou dans un cadre précédent.

Capture d’écran 2019-06-28 à 15.12.40Les chercheurs précisent : «Dans l’ensemble, les résultats de notre méthode, bien que légèrement moins dynamiques, présentent une coloration similaire à la réalité. La comparaison qualitative indique également que notre méthode produit les résultats de colorisation les plus réalistes et les plus dynamiques ».