Archives de Catégorie: IA

Google ajoute (encore) de l’IA dans G Suite

Google est un des champions du monde dans le domaine de l’intelligence artificielle, et la société de Mountain View en fait bénéficier ses différentes solutions depuis de nombreuses années. Ainsi avec Gmail, Google a depuis de nombreux mois proposé des fonctions basées sur de l’IA telles que par exemple

  • les fonctions de vérification de la grammaire (grammar checker), annoncé en juillet 2018,
  • Smart Reply de Gmail, qui propose du texte pour une réponse à un mail et plus récemment (annoncée en mai 2018, lors du Google I/O, et déployée à partir de l’été 2018)
  • Smart Compose (Rédaction intelligente en français). Cette dernière fonctionnalité met en oeuvre du Machine Learning sur la base d’un corpus documentaire correspondant à l’utilisateur, et qui doit donc s’affiner au fur et à mesure de l’usage. Elle propose au fur et à mesure que l’utilisateur commence ses phrases/mots des suites. Selon Google, la fonction Smart Compose permet aux utilisateurs de Gmail de s’éviter l’écriture de 2 milliards de caractères par semaine.

Lors de son évènement Google Cloud Next’19 qui s’est déroulé du 19 au 21 novembre à Londres, Google a annoncé l’extension de ces capacités au-delà de Gmail, pour permettre à Google Docs d’en bénéficier. Disponible pour l’instant en tant que bêta, uniquement en anglais, cette fonctionnalité doit permettre de générer automatiquement du texte, en continuant le début des phrases saisies par l’utilisateur, sur la base de ce qu’il écrit généralement. Il reste à confirmer que ce qui peut marcher sur un texte court (typiquement ce que l’on trouve dans un mail) marchera aussi pour des textes plus longs …

Comment Google est passé d’un moteur de recherche à un géant de l’IA à 800 milliards de dollars

Une étude très interessante de CBInsights (étude payante) analyse la montée en puissance de Google dans l’IA et comment la société a consacré tous ses efforts pour devenir un géant du secteur ou elle pourra concurrencer demain bon nombre d’industries en les « disruptant« …

Quelques illustrations avec l’évolution des publications réalisées par la firme de Mountain View :

publications IA

Mais aussi une infographie sur l’organisation actuelle des entités réalisant de l’IA :

Organisation Alphabet

Une IA pour valider le passage du permis de conduire

Et si demain une IA validait qu’un conducteur a passé avec succès son permis de conduire ? C’est ce que Microsoft est en train de tester dans une région de l’Inde. Le projet HAMS (Harnessing AutoMobiles for Safety) remplace en effet l’inspecteur humain par un smartphone fixé sur le pare-brise de la voiture. Pendant l’exercice de conduite, l’application donne des consignes au conducteur et elle va utiliser les caméras avant et arrière du smartphone, ainsi que d’autres capteurs pour mesurer le comportement du conducteur (son regard par exemple, les respect des consignes données) et l’environnement du véhicule, pour produire en fin de session d’évaluation du conducteur un rapport détaillé sur sa conduite (maintien d’une trajectoire sur la route, dans les rond-points, capacité à garer le véhicule en marche arrière, les trottoirs ont-ils été heurtés, le conducteur a t’il mis trop de temps à) effectuer certaines manoeuvres ….). En fonction du résultat atteint, le conducteur se voit attribuer son permis, ou pas. Un candidat rejeté pourra demandé à visionner l’enregistrement vidéo de son tet pour confirmer l’avis négatif émis.

Si le test de l’application est jugé positif alors HAMS sera généralisé au niveau du pays.

Pourquoi ce test a t’il lieu en Inde ? Tout d’abord selon une enquête menée dans 10 grandes villes indiennes, près de 59% des automobilistes interrogés n’ont pas passé le permis de conduire. Souvent par crainte d’échouer face à une évolution souvent perçue comme subjective. D’autre part Microsoft Research possède une entité en Inde qui a donc contribué au développement de HAMS.

Facebook modifie des vidéos pour bloquer la reconnaissance faciale

logo facebookFacebook se soucie de votre vie privée (si si…). Des chercheurs du laboratoire de recherche en Intelligence Artificielle de Facebook aurait mis au point un système à base de Machine Learning pour « dépersonnaliser des personnes dans les vidéos« .

Il existait déjà des startups comme D-ID par exemple ou d’autres algorithmes qui avaient réussi à faire de la dé-identification pour des images fixes, mais c’est la première technologie qui fonctionne sur des vidéos. Lors des premiers tests, la méthode a permis de contrecarrer les systèmes de reconnaissance faciale les plus modernes.

L’IA développée par Facebook propose une version légèrement déformée du visage d’une personne afin qu’il soit difficile pour la technologie de reconnaissance faciale de l’identifier. Et c’est là tout l’intérêt car un humain sera lui capable de reconnaitre la personne mais pas la machine ! Comment ? L’humain lui ne remarquera pas cette petite différence alors que la machine pensera qu’elle est suffisamment importante pour estimer que c’est une personne différente !

Facebook justifie ainsi sa démarche : « La reconnaissance faciale peut entraîner une perte de vie privée et la technologie de remplacement du visage peut être utilisée à mauvais escient pour créer des vidéos trompeuses « . Et d’ajouter « Les récents événements mondiaux concernant les progrès de la technologie de reconnaissance faciale et l’abus de cette technologie invoquent la nécessité de comprendre les méthodes qui permettent de traiter avec succès la dépersonnalisation de l’identité. Notre contribution est la seule qui convient à la vidéo, y compris la vidéo en direct, et présente une qualité qui surpasse de loin les méthodes actuelles. »

Lior Wolf, l’ingénier en charge du projet chez Facebook explique le fonctionnement : « L’approche de Facebook associe un codeur automatique contradictoire à un réseau de classificateurs« . Je sais pas si c’est plus clair, mais visiblement cela fonctionne. A voir si la société compte exploiter ceci dans ces applications : Facebook, Instagram, WhatsApp, son récent écran connecté Portal… rien n’est moins sur pour l’instant !

Hyundai démarre un pilote de taxi automatique en novembre

Capture d’écran 2019-10-28 à 19.02.00.pngLa société coréenne va lancer en novembre 2019 un pilote d’un service de taxi automatique. Ce pilote va voir le jour dans la ville californienne d’Irvine. Les véhicules concernées seront des SUV électriques Hyundai Kona.
Il s’agit d’un projet en partenariat avec la société chinoise Pony.ai et la société de transport américaine Via, qui opérera le service de taxi dénommé BotRide.  La société Pony.ai, créée en 2016, de capitaux chinois mais dont le siège est à Fremont (quelle surprise !?), est en charge des aspects de conduite autonome, quant à Via elle est responsable de l’application mobile et de la plateforme en BackOffice pour gérer les véhicules, allouer les courses (on peut partager un véhicule entre plusieurs clients sur un trajet).

Ce projet n’est pas une première en Californie, ni à Irvine. Google via sa filiale Waymo est déjà en cours de test pour des services de transports autonomes. Seules 4 entreprises, AutoX, Pony.ai, Waymo et Zoox ont l’autorisation d’exploiter un service d’appel de véhicules autonomes dans l’État de Californie.

ARM veut rendre le Machine Learning encore plus accessible avec ses processeurs neuronaux

Avec le lancement de ses nouvelles unités de traitement neuronal (NPU : Neuronal Processor Unit), Arm vise à étendre les fonctions de Machine Learning aux appareils grand public et bas de gamme et donc de banaliser ce type d’usage.

ARM EthosLa société à annoncée ces NPU Ethos-N57 et Ethos-N37, qu’elle fournira comme d’habitude sous licence aux fabricants de puces qui pourront l’intégrer dans leurs propres produits. Si les principaux clients d’ARM, Apple, Samsung, Nvidia, Huawei et Qualcomm en tête dispose déjà de leur propres unité de Machine Learning, l’idée ici est d’étendre la gamme des processeurs Arm Machine Learning (ML) pour permettre des applications d’intelligence artificielle (IA) dans des appareils grand public de toutes sortes réalisé par des fondeurs n’ayant pas forcément les capacités de développer leur propre puce.

L’intelligence intelligence artificielle est maintenant omniprésente, des consoles de jeu aux téléviseurs, et il faut augmenter le calcul en local pour offrir des expériences réactives. Par exemple, les expériences intelligentes dans le domaine de télé vont des commandes vocales intelligentes de l’assistant intelligent à la traduction en temps réel pour les émissions dans une autre langue voire la reconnaissance faciale pour améliorer le contrôle parental. Les nouvelles NPU sont ainsi dotées de fonctions telles que la reconnaissance vocale et les fonctions de mise en marche permanente, qui ne sont plus propres aux téléphones mobiles.

Ethos-N57 et Ethos-N37 ont tous deux été conçus avec quelques principes de base à l’esprit. Ils sont optimisés autour de la prise en charge des types de données Int8 et Int16 et utilisent des techniques avancées de gestion des données, minimisant le mouvement des données et la puissance associée. Ils offrent également une augmentation de performance de plus de 200% par rapport à de nombreuses autres NPU grâce à des techniques telles que l’implémentation innovante de Winograd.

Magnifique : Microsoft dévoile Ada, une structure d’IA qui traduit les données en lumière et en couleurs…

L’IA ne fait pas que résoudre des problèmes, elle inspire aussi les artistes. La semaine dernière Microsoft a dévoilé Project Ada, une réalisation s’inscrivant dans son programme « Artist in Residence ». Située dans l’immeuble 99 du campus de Redmond de la firme, la structure à deux étages présente une fusion de l’IA et de l’architecture, la première du genre selon Microsoft. Nommé Ada en mémoire d’Ada Lovelace (de son nom complet Augusta Ada King, comtesse de Lovelace, née Ada Byron le 10 décembre 1815, pionnière de la science informatique), le projet était dirigé par Jenny Sabin, artiste en résidence donc chez Microsoft Research.

jenny sabinLes composants de la structure en nid d’abeilles d’Ada sont reliés à un certain nombre de caméras et de microphones dans le bâtiment, qui recueillent des données anonymes qui servent de repères pour les émotions. Cela va de l’expression des gens à la façon dont ils interagissent les uns avec les autres. Ces données sont ensuite traduites sous forme de couleur et de lumière, et exprimées par des LEDs adressables dans la structure réelle, ainsi que par les lumières de scène qui l’entourent.

Une petite vidéo pour en savoir plus :

« Entrées précédentes