Archives de Catégorie: IA

AWS lance son service Amazon Personalize : pour créer votre concurrent à Amazon.com :)

Amazon Personalize est un service AWS facilitant le développement de sites Web, d’applications mobiles, de systèmes de gestion de contenu et d’e-marketing proposant des produits en fournissant des résultats de recherche personnalisés et en personnalisant à la volée les cycles de vente par types de produits et de clients. De quoi bâtir votre concurrent à Amazon.com 🙂 C’est disponible dans certaines régions AWS,  notamment l’UE (Irlande).

«Nous sommes ravis de partager avec nos clients AWS l’expertise que nous avons développée au cours de deux décennies d’utilisation de l’apprentissage automatique pour offrir de superbes expériences sur Amazon.com», a déclaré Swami Sivasubramanian, le VP Machine Learning chez AWS. Effectivement la référence est interessante !

Personalize est un service entièrement géré qui forme, ajuste et déploie des modèles d’apprentissage automatique personnalisés dans le cloud en fournissant l’infrastructure nécessaire et en gérant des tâches telles que le traitement des données, l’extraction de fonctionnalités, la formation et l’optimisation d’algorithmes et l’hébergement. Les clients fournissent un flux d’activités à partir de leurs applications et de leurs sites Web (clics, pages vues, inscriptions, achats, etc.), ainsi qu’un inventaire des éléments qu’ils souhaitent recommander (articles, produits, vidéos ou musique, par exemple), éventuellement des informations démographiques ( comme l’âge ou l’emplacement géographique), et ils reçoivent les résultats via une API et ne paient que pour ce qu’ils utilisent.

Le schéma ci-dessous illustre le processus :

Capture d’écran 2019-06-12 à 15.01.08

Nvidia EGX : une nouvelle plateforme AI pour l’Edge Computing

Nvidia a annoncé hier, en ouverture du COMPTUTEX à Taiwan, la plateforme EGX.

D’un point de vue matériel, EGX peut supporter des modules de petites tailles (Nvidia Jetson Nano) capable d’embarquer de l’intelligence dans des scénarios IoT (par exemple de reconnaissance d’images) pour une puissance de calcul de 1/2 TOPS (trillion operation per second), et jusqu’à des configurations de serveurs dopés avec des GPU Nvidia T4 qui peuvent monter jusqu’à des puissances de calcul de 10 000 Tops et des applications consommatrices en temps réel.

Du point de vue logiciel, Nvidia EGX est basé sur Nvidia Edge Stack, qui a pour le coup été optimisé sur Red Hat Openshift (plateforme d’orchestration de containers Kubernetes).

Les applications développées sur Nvidia EGX peuvent également fonctionner sur les couches de services Nvidia proposées chez AWS ou Microsoft Azure, et vice versa.

Parmi les constructeurs qui ont annoncés leur support à Nvidia EGX, on retrouve les principaux acteurs du marché : DELL, HPE, Lenovo, Fujitsu, Cisco, ASUS, ACER …. mais aussi des industriels qui vont intégrer cette technologie au sein de leurs processus logistiques (BMW, Foxconn, GE Healthcare …).

IA : comment se rendre invisible…

Un groupe d’ingénieurs de l’université de Leuven en Belgique a mis au point une sorte de cape d’invisibilité pour les systèmes de reconnaissance faciale. Dans un document partagé la semaine dernière les étudiants expliquent comment de simples motifs imprimés peuvent tromper un système d’intelligence artificielle conçu pour reconnaître les personnes dans des images.

Amusant : si vous imprimez une affiche spéciale et que vous la suspendez à votre cou, vous risquez de brouiller les algorithmes de reconnaissance faciale.. C’est sans doute assez surprenant, mais l’idée est de mettre en place des éléments très imprévisibles pour tromper l’IA qui a « appris » avec des modèles assez similaires finalement. Bien entendu on imagine qu’une correction pourrait-être faite si tout le monde se balade avec ce type de pancarte !

«Nous pensons que, si nous combinons cette technique pour réaliser des vêtements, nous pouvons concevoir un  T-shirt qui peut rendre une personne pratiquement invisible pour les caméras de surveillance automatiques.»

 

Une semaine après sa création, le conseil éthique sur l’Intelligence Artificielle de Google ferme ses portes…

Capture d’écran 2019-04-06 à 19.18.59Google a annoncé la fermeture de son « Conseil consultatif externe sur les technologies de pointe (ATEAC) » une semaine à peine après sa création. Ce conseil devait apporter ses réflexions sur l’usage de l’Intelligence Artificielle chez Google et établir des règles (consultatives donc) éthiques. La fermeture du conseil intervient alors que la présidente de la Fondation du Patrimoine, Kay Coles James, membre du conseil, a attiré l’attention avec des prises de positions politiques assez tranchées et que la présence de Dyan Gibbens, la PDG de Trumbull Unmanned, une entreprise de drones à vocation militaires, n’était pas souhaité par les employés de Google qui s’étaient précédemment opposés à ce que Google soutienne des projets avec le Pentagone ;  la direction avait alors été obligée de faire machine arrière.

Dans le même temps, un autre membre, Alessandro Acquisti a annoncé sur Twitter qu’il ne participerait finalement pas. Ce professeur à Carnegie Mellon est l’une des premières personnes qui soulignait l’importance du respect de la vie privée dans une conférence très à TEDx en 2013.

Google a donc logiquement jeté l’éponge : «Il est devenu évident que dans l’environnement actuel, l’ATEAC ne peut pas fonctionner comme nous le souhaitions. Nous arrêtons donc le conseil. Nous continuerons d’être responsables sur les questions importantes soulevées par l’intelligence artificielle et trouverons différents moyens d’obtenir des opinions extérieures sur ces sujets.  »

La raison pour laquelle Google avait inclus des personnes de tous horizons politiques et sensibilité était pour que ce conseil soit plus le plus représentatif possible. C’est raté ! A voir quelle structure le géant de Mountain View va pouvoir proposer en échange ? Et pourquoi pas une alliance les autres géants du secteurs : Facebook, Microsoft et Amazon par exemple… En laissant les états le soin de réguler les usages…

Bientôt un corps pour Alexa ?

lhomme-bicentenaireDans une intervention à la conférence EmTech Digital AI de la MIT Technology Review à San Francisco, Rohit Prasad, le responsable scientifique de la division Alexa du géant Amazon a déclaré que : « Le seul moyen de rendre les assistants intelligents vraiment intelligents est de le regarder dans les yeux et de le laisser explorer le monde.« , et que pour que celà soit une réalité, « il faut aussi que l’assistant dispose d’un corps » !

Le scientifique pense aussi que donner aux assistants intelligents des caméras et des corps physiques leur permettraient de collecter plus de données sur le monde qui les entoure et aiderait à construire ce qui peut s’appeler pour nous du «sens commun», ce qui permettrait d’exécuter des tâches complexes nécessitant un contexte visuel.

Cette théorie autour du mélange de neurobiologie, de robotique et intelligence artificielle est souvent appelée cognition incarnée par les spécialistes.

Ces remarque alimentent les rumeurs d’un robot Alexa mobile qu’un rapport de Bloomberg  l’année dernière évoquait. Ce robot pourrait suivre les utilisateurs dans la maison (voir ailleurs) pour se faire « sa propre expérience de la vie »… un scénario proche du roman d’Isaac Asimov (et le film avec Robin Williams) « L’homme bicentenaire » !

Une solution Microsoft contre le harcèlement et les injures sur le net ?

Microsoft vient de déposer un brevet pour lutter contre le harcèlement et plus généralement les insultes sur le net. L’éditeur prévoit dans son brevet récemment déposé un «bouclier de toxicité» personnalisé qui permettrait de surveiller les communications et de censurer les données en fonction des préférences de l’utilisateur. Les choses ne sont pas simples car la définition de ce que l’on peut considérer comme «agressif» varie d’une personne à l’autre. Par exemple, un juron qui peut offenser quelqu’un, peut ne pas être interprété de la même manière par un autre utilisateur.

Capture d’écran 2019-02-21 à 10.29.23L’objet est de traiter toutes formes de communications : vocales ou textuelles, telles que celles de sessions de jeu en ligne, ou même des affichages dans des flux vidéo. Le système pourrait également être implémenté pour fonctionner dans le cadre de conférences Web en ligne ou de sessions VR / AR. Cela permettrait essentiellement aux utilisateurs de communiquer efficacement avec plusieurs autres personnes sans qu’une personne en particulier ne soit heurtée par des propos inadaptés…

Lire la suite

OpenAI : les possibilités et les implications de la génération de textes par l’IA

Capture d’écran 2019-02-19 à 10.23.06.png

La société OpenAI, créée par Elon Musk en 2015 pour travailler sur le concept d’une IA « sûre », sous contrôle et au bénéfice des humains, a publié la semaine dernière sur son blog un article qui présente leur état d’avancement concernant un modèle pour prédire du texte à partir de texte existant. A noter qu’Elon Musk a quitté le board d’OpenAI il y a tout juste un an afin de limiter les risques de conflit d’intérêt, l’IA constituant un enjeu majeur pour les véhicules autonomes, dont Tesla est la figure de proue aujourd’hui.

Concrètement, OpenAI travaille sur un modèle, GPT-2, et l’entraine pour pouvoir prédire le mot suivant à partir des mots précédents dans un texte. Les possibilités d’un tel modèle sont, par exemple de générer un texte cohérent, ou de répondre à des questions, à partir d’une phrase qui lui est fourni, en se basant sur un dataset de 8 millions de pages Web. La force de GPT-2 est de travailler à partir d’informations qui ne sont pas spécifiques à un domaine, en tirant partie de techniques d’apprentissage non supervisé avec de gros volumes de données non étiquetées.

Dans son billet de blog, OpenAI donne des exemples de traitement (voir ici le premier exemple, c’est une histoire de licornes qui parlent anglais :)), et c’est vraiment bluffant. En partant d’un texte de 2 phrases d’une quarantaine de mots, GPT-2 est capable de produire une histoire de près de 400 mots, précise et cohérente.

Fidèle à sa mission (« Discovering and enacting the path to safe artificial general intelligence« ), OpenAI explique aussi dans ce billet que compte tenu des risques d’exploitation « maligne » d’un tel système, pour produire des fake news, ils ont décidé de ne pas publier l’intégralité de leur modèle, mais uniquement un sous ensemble de GPT-2, sans le dataset. le code d’entrainement ou les paramètres du modèle.

 

« Entrées précédentes