Les enjeux de l’IA sont importants et se heurtent souvent à la forte consommation énergétique qu’ils engendrent face au peu de résultats obtenus, imaginer la puissance nécessaire pour « Apprendre » à la machine à reconnaitre un chat alors qu’un bébé ne mettra que quelques secondes sans « consommé » beaucoup de watts… Dans ce contexte, la société canadienne Applied Brain Research Inc. (ABR) a dévoilé sa plateforme d’intelligence artificielle à faible consommation énergétique au CES 2020. La Startup avait déjà reçue cette année le prestigieux label « Startup IA de l’année« .
ABR fabrique des technologies d’IA qui réduisent la puissance requise pour calculer l’IA dans des systèmes embarqués : les téléphones, les voitures, les drones, les robots, les capteurs et les dispositifs ioT par rapport à l’usage plus classique des GPU. En avril avait déjà fait sensation en démontrant une réduction par 100 fois de la puissance utilisée pour le traitement de la parole par mot-clé par rapport aux GPU.
Le coeur du système est une plateforme d’IA à faible consommation d’énergie utilisant une « Unité de Mémoire Legendre (LMU) », un remplacement complet des LSTM (Long short-term memory). Les LMU seraient plus précises, plus évolutives et remplaceraient avantageusement les LSTM à faible consommation d’énergie. Concrètement la LMU est un nouvel algorithme de réseau neuronal récurrent pour le traitement du signal en continu qui peut apprendre à classer et à prédire les motifs dans les signaux de manière beaucoup plus efficace que le LSTM. La LMU surpasserait d’un point les résultats les plus connus des RNN de Yann LeCun (93,7-94,5 %) et de Bengio et al. (95,4-95,9 %).
Les LMU sont également plus évolutives, capables d’apprendre les dépendances temporelles qui s’étendent sur des milliers de pas de temps. Contrairement aux LSTM, les LMU peuvent également être calculées sur du matériel neuromorphique, en utilisant beaucoup moins de puissance pour obtenir des résultats identiques ou meilleurs que les LSTM calculées sur GPU.
Les LMU peuvent être utilisées partout où se trouvent les LSTM, par exemple pour la classification, l’apprentissage et le traitement de données de séries temporelles dans la parole, le contrôle et les données de capteurs dans le traitement des mouvements robotiques, de la parole, de l’écriture et de la musique. Parmi les avantages qui changent la donne, citons une plus grande autonomie de la batterie pour les smartphones et les haut-parleurs intelligents, et une plus grande autonomie pour les voitures autonomes en raison de la forte réduction de la puissance de calcul de l’IA.
Pour en savoir plus : https://appliedbrainresearch.com/services/lmu/