Archives de Catégorie: IA

#CES2020 Une IA à faible consommation énergétique par « la Startup IA de l’année »

ABRLes enjeux de l’IA sont importants et se heurtent souvent à la forte consommation énergétique qu’ils engendrent face au peu de résultats obtenus, imaginer la puissance nécessaire pour « Apprendre » à la machine à reconnaitre un chat alors qu’un bébé ne mettra que quelques secondes sans « consommé » beaucoup de watts… Dans ce contexte, la société canadienne Applied Brain Research Inc. (ABR) a dévoilé sa plateforme d’intelligence artificielle à faible consommation énergétique au CES 2020. La Startup avait déjà reçue cette année le prestigieux label « Startup IA de l’année« .

ABR fabrique des technologies d’IA qui réduisent la puissance requise pour calculer l’IA dans des systèmes embarqués : les téléphones, les voitures, les drones, les robots, les capteurs et les dispositifs ioT par rapport à l’usage plus classique des GPU. En avril avait déjà fait sensation en démontrant une réduction par 100 fois de la puissance utilisée pour le traitement de la parole par mot-clé par rapport aux GPU.

Le coeur du système est une  plateforme d’IA à faible consommation d’énergie utilisant une « Unité de Mémoire Legendre (LMU) », un remplacement complet des LSTM (Long short-term memory). Les LMU seraient plus précises, plus évolutives et remplaceraient avantageusement les LSTM à faible consommation d’énergie. Concrètement la LMU est un nouvel algorithme de réseau neuronal récurrent pour le traitement du signal en continu qui peut apprendre à classer et à prédire les motifs dans les signaux de manière beaucoup plus efficace que le LSTM. La LMU surpasserait d’un point les résultats les plus connus des RNN de Yann LeCun (93,7-94,5 %) et de Bengio et al. (95,4-95,9 %).

Les LMU sont également plus évolutives, capables d’apprendre les dépendances temporelles qui s’étendent sur des milliers de pas de temps. Contrairement aux LSTM, les LMU peuvent également être calculées sur du matériel neuromorphique, en utilisant beaucoup moins de puissance pour obtenir des résultats identiques ou meilleurs que les LSTM calculées sur GPU.

Les LMU peuvent être utilisées partout où se trouvent les LSTM, par exemple pour la classification, l’apprentissage et le traitement de données de séries temporelles dans la parole, le contrôle et les données de capteurs dans le traitement des mouvements robotiques, de la parole, de l’écriture et de la musique. Parmi les avantages qui changent la donne, citons une plus grande autonomie de la batterie pour les smartphones et les haut-parleurs intelligents, et une plus grande autonomie pour les voitures autonomes en raison de la forte réduction de la puissance de calcul de l’IA.

Pour en savoir plus : https://appliedbrainresearch.com/services/lmu/

 

Magic Leap, le concurrent de Hololens dans la tourmente

magic leapRien ne va plus chez Magic Leap, le concurrent de Microsoft Hololens est à la peine. Selon d’anciens employés et proches de l’entreprise, Magic Leap avait vendu environ 6 000 casques Magic Leap One six mois après leur sortie, contre un objectif de 100 000… La faute à un marché qui reste encore attentiste et des technologies de développement très chères y compris pour un simple prototypage.

Signe des temps : deux membres très importants du conseil d’administration ont quitté discrètement leur fonction en 2018 : Sundar Pichai, PDG de Google (et maintenant aussi Alphabet la maison mère), et Paul Jacobs, ancien président exécutif de Qualcomm. Mais Magic Leap aurait également licencié des dizaines d’employés au cours des dernières semaines. Le mois dernier, Business Insider a annoncé que deux dirigeants, Scott Henry, directeur financier, et John Gaeta, vice-président principal de la stratégie créative, avaient quitté l’entreprise.

Néanmoins, La société est apparemment en train de prototyper une nouvelle version de son casque le Magic Leap Two qui disposera d’une connectivité 5G, d’un champ de vision plus large et un matériel plus petit et plus léger avec de multiples options de couleurs. Mais le projet serait entravé par des « contraintes technologiques fondamentales », qui pourrait réduire ces ambitions. La société mettrait actuellement en gage plus de 2000 brevets qu’elle détient pour obtenir un soutien financier de JPMorgan Chase.

Google ajoute (encore) de l’IA dans G Suite

Google est un des champions du monde dans le domaine de l’intelligence artificielle, et la société de Mountain View en fait bénéficier ses différentes solutions depuis de nombreuses années. Ainsi avec Gmail, Google a depuis de nombreux mois proposé des fonctions basées sur de l’IA telles que par exemple

  • les fonctions de vérification de la grammaire (grammar checker), annoncé en juillet 2018,
  • Smart Reply de Gmail, qui propose du texte pour une réponse à un mail et plus récemment (annoncée en mai 2018, lors du Google I/O, et déployée à partir de l’été 2018)
  • Smart Compose (Rédaction intelligente en français). Cette dernière fonctionnalité met en oeuvre du Machine Learning sur la base d’un corpus documentaire correspondant à l’utilisateur, et qui doit donc s’affiner au fur et à mesure de l’usage. Elle propose au fur et à mesure que l’utilisateur commence ses phrases/mots des suites. Selon Google, la fonction Smart Compose permet aux utilisateurs de Gmail de s’éviter l’écriture de 2 milliards de caractères par semaine.

Lors de son évènement Google Cloud Next’19 qui s’est déroulé du 19 au 21 novembre à Londres, Google a annoncé l’extension de ces capacités au-delà de Gmail, pour permettre à Google Docs d’en bénéficier. Disponible pour l’instant en tant que bêta, uniquement en anglais, cette fonctionnalité doit permettre de générer automatiquement du texte, en continuant le début des phrases saisies par l’utilisateur, sur la base de ce qu’il écrit généralement. Il reste à confirmer que ce qui peut marcher sur un texte court (typiquement ce que l’on trouve dans un mail) marchera aussi pour des textes plus longs …

Comment Google est passé d’un moteur de recherche à un géant de l’IA à 800 milliards de dollars

Une étude très interessante de CBInsights (étude payante) analyse la montée en puissance de Google dans l’IA et comment la société a consacré tous ses efforts pour devenir un géant du secteur ou elle pourra concurrencer demain bon nombre d’industries en les « disruptant« …

Quelques illustrations avec l’évolution des publications réalisées par la firme de Mountain View :

publications IA

Mais aussi une infographie sur l’organisation actuelle des entités réalisant de l’IA :

Organisation Alphabet

Une IA pour valider le passage du permis de conduire

Et si demain une IA validait qu’un conducteur a passé avec succès son permis de conduire ? C’est ce que Microsoft est en train de tester dans une région de l’Inde. Le projet HAMS (Harnessing AutoMobiles for Safety) remplace en effet l’inspecteur humain par un smartphone fixé sur le pare-brise de la voiture. Pendant l’exercice de conduite, l’application donne des consignes au conducteur et elle va utiliser les caméras avant et arrière du smartphone, ainsi que d’autres capteurs pour mesurer le comportement du conducteur (son regard par exemple, les respect des consignes données) et l’environnement du véhicule, pour produire en fin de session d’évaluation du conducteur un rapport détaillé sur sa conduite (maintien d’une trajectoire sur la route, dans les rond-points, capacité à garer le véhicule en marche arrière, les trottoirs ont-ils été heurtés, le conducteur a t’il mis trop de temps à) effectuer certaines manoeuvres ….). En fonction du résultat atteint, le conducteur se voit attribuer son permis, ou pas. Un candidat rejeté pourra demandé à visionner l’enregistrement vidéo de son tet pour confirmer l’avis négatif émis.

Si le test de l’application est jugé positif alors HAMS sera généralisé au niveau du pays.

Pourquoi ce test a t’il lieu en Inde ? Tout d’abord selon une enquête menée dans 10 grandes villes indiennes, près de 59% des automobilistes interrogés n’ont pas passé le permis de conduire. Souvent par crainte d’échouer face à une évolution souvent perçue comme subjective. D’autre part Microsoft Research possède une entité en Inde qui a donc contribué au développement de HAMS.

Facebook modifie des vidéos pour bloquer la reconnaissance faciale

logo facebookFacebook se soucie de votre vie privée (si si…). Des chercheurs du laboratoire de recherche en Intelligence Artificielle de Facebook aurait mis au point un système à base de Machine Learning pour « dépersonnaliser des personnes dans les vidéos« .

Il existait déjà des startups comme D-ID par exemple ou d’autres algorithmes qui avaient réussi à faire de la dé-identification pour des images fixes, mais c’est la première technologie qui fonctionne sur des vidéos. Lors des premiers tests, la méthode a permis de contrecarrer les systèmes de reconnaissance faciale les plus modernes.

L’IA développée par Facebook propose une version légèrement déformée du visage d’une personne afin qu’il soit difficile pour la technologie de reconnaissance faciale de l’identifier. Et c’est là tout l’intérêt car un humain sera lui capable de reconnaitre la personne mais pas la machine ! Comment ? L’humain lui ne remarquera pas cette petite différence alors que la machine pensera qu’elle est suffisamment importante pour estimer que c’est une personne différente !

Facebook justifie ainsi sa démarche : « La reconnaissance faciale peut entraîner une perte de vie privée et la technologie de remplacement du visage peut être utilisée à mauvais escient pour créer des vidéos trompeuses « . Et d’ajouter « Les récents événements mondiaux concernant les progrès de la technologie de reconnaissance faciale et l’abus de cette technologie invoquent la nécessité de comprendre les méthodes qui permettent de traiter avec succès la dépersonnalisation de l’identité. Notre contribution est la seule qui convient à la vidéo, y compris la vidéo en direct, et présente une qualité qui surpasse de loin les méthodes actuelles. »

Lior Wolf, l’ingénier en charge du projet chez Facebook explique le fonctionnement : « L’approche de Facebook associe un codeur automatique contradictoire à un réseau de classificateurs« . Je sais pas si c’est plus clair, mais visiblement cela fonctionne. A voir si la société compte exploiter ceci dans ces applications : Facebook, Instagram, WhatsApp, son récent écran connecté Portal… rien n’est moins sur pour l’instant !

Hyundai démarre un pilote de taxi automatique en novembre

Capture d’écran 2019-10-28 à 19.02.00.pngLa société coréenne va lancer en novembre 2019 un pilote d’un service de taxi automatique. Ce pilote va voir le jour dans la ville californienne d’Irvine. Les véhicules concernées seront des SUV électriques Hyundai Kona.
Il s’agit d’un projet en partenariat avec la société chinoise Pony.ai et la société de transport américaine Via, qui opérera le service de taxi dénommé BotRide.  La société Pony.ai, créée en 2016, de capitaux chinois mais dont le siège est à Fremont (quelle surprise !?), est en charge des aspects de conduite autonome, quant à Via elle est responsable de l’application mobile et de la plateforme en BackOffice pour gérer les véhicules, allouer les courses (on peut partager un véhicule entre plusieurs clients sur un trajet).

Ce projet n’est pas une première en Californie, ni à Irvine. Google via sa filiale Waymo est déjà en cours de test pour des services de transports autonomes. Seules 4 entreprises, AutoX, Pony.ai, Waymo et Zoox ont l’autorisation d’exploiter un service d’appel de véhicules autonomes dans l’État de Californie.

« Entrées précédentes Derniers articles »