ARM veut rendre le Machine Learning encore plus accessible avec ses processeurs neuronaux
Avec le lancement de ses nouvelles unités de traitement neuronal (NPU : Neuronal Processor Unit), Arm vise à étendre les fonctions de Machine Learning aux appareils grand public et bas de gamme et donc de banaliser ce type d’usage.
La société à annoncée ces NPU Ethos-N57 et Ethos-N37, qu’elle fournira comme d’habitude sous licence aux fabricants de puces qui pourront l’intégrer dans leurs propres produits. Si les principaux clients d’ARM, Apple, Samsung, Nvidia, Huawei et Qualcomm en tête dispose déjà de leur propres unité de Machine Learning, l’idée ici est d’étendre la gamme des processeurs Arm Machine Learning (ML) pour permettre des applications d’intelligence artificielle (IA) dans des appareils grand public de toutes sortes réalisé par des fondeurs n’ayant pas forcément les capacités de développer leur propre puce.
L’intelligence intelligence artificielle est maintenant omniprésente, des consoles de jeu aux téléviseurs, et il faut augmenter le calcul en local pour offrir des expériences réactives. Par exemple, les expériences intelligentes dans le domaine de télé vont des commandes vocales intelligentes de l’assistant intelligent à la traduction en temps réel pour les émissions dans une autre langue voire la reconnaissance faciale pour améliorer le contrôle parental. Les nouvelles NPU sont ainsi dotées de fonctions telles que la reconnaissance vocale et les fonctions de mise en marche permanente, qui ne sont plus propres aux téléphones mobiles.
Ethos-N57 et Ethos-N37 ont tous deux été conçus avec quelques principes de base à l’esprit. Ils sont optimisés autour de la prise en charge des types de données Int8 et Int16 et utilisent des techniques avancées de gestion des données, minimisant le mouvement des données et la puissance associée. Ils offrent également une augmentation de performance de plus de 200% par rapport à de nombreuses autres NPU grâce à des techniques telles que l’implémentation innovante de Winograd.