Archives des étiquettes : ChatGPT

Accès internet et Plugins pour ChatGPT

Vous le savez sans doute malgré ses capacités de conversation impressionnantes, ChatGPT tire ses informations d’anciennes données au lieu d’aller les chercher sur Internet en temps réel. Ce qui est aussi un élément différentiateur par rapport à l’implémentation de cette technologie dans Big de Microsoft. Cette situation pourrait bientôt prendre fin, car OpenAI annonce maintenant la prise en charge de la navigation sur le web pour ChatGPT. En outre, les plugins ChatGPT seront désormais plus largement disponibles.

OpenAI a récemment mis à jour ses notes de publication pour ChatGPT, annonçant que le chatbot a désormais accès à l’internet. Entre-temps, les plugins – ou outils qui vous permettent d’accéder à des services tiers via ChatGPT – passent de la phase alpha à la phase bêta et seront désormais disponibles pour tous les utilisateurs de ChatGPT Plus (abonnement payant, n’ayant rien à voir à l’abonnement aux APIs qui est lui à la consommation). OpenAI affirme que les utilisateurs de ChatGPT Plus pourront désormais utiliser plus de 70 plugins dont ceux d’Expedia, Zapier, Kayak, etc.,

Si vous êtes abonné à ChatGPT Plus, vous pouvez accéder à la navigation web et aux plugins en allant dans ChatGPT Settings dans le coin inférieur gauche de l’interface du chatbot. Sous Paramètres, allez dans Fonctionnalités bêta et activez Navigation Web et Plugins. OpenAI ne révèle pas en revanche quand (et si) les utilisateurs gratuit y auront accès. Si vous êtes un développeur et que vous souhaitez que vos applications soient accessibles via ChatGPT, vous pouvez néanmoins rejoindre la liste d’attente ici.

De son coté, Microsoft a déclaré que des plugins seront bientôt disponibles pour Bing chat, et que les détails seront annoncés lors de la prochaine conférence Microsoft Build prévue la semaine prochaine…

Nous aborderons tout ceci ainsi que les annonces de la Build lors du prochain Briefing.

Des versions privées de ChatGPT fournis par Microsoft aux entreprises

A moins que vous ayez séjourné durant les six derniers mois sur une ile déserte, plus besoin de présenter ChatGPT. On apprenait hier que Microsoft pourrait offrir des versions privées d’instances ChatGPT sur des serveurs dédiés dans Azure aux entreprises. Ces versions du chatbot cibleraient en particulier les banques, les prestataires de soins de santé et à d’autres grandes organisations soucieuse de la conformité réglementaire associée aux usages de ces tâchons, selon un rapport de The Information .

Le produit, qui pourrait être annoncé « dans le courant du trimestre », exécuterait ChatGPT sur des serveurs dédiés enrichi des données interne à l’entreprise, et donc distincts de ceux utilisés par d’autres entreprises ou d’autres utilisateurs individuels utilisant les versions de ChatGPT que Microsoft intègrerait uniquement dans Edge, Windows et ses autres produits. Cela empêcherait que des données sensibles soient utilisées pour entraîner le modèle linguistique de ChatGPT et pour prévenir également des fuites de données involontaires révélant ainsi des secrets de l’entreprise.

Le Wall Street Journal rapportait que des entreprise comme comme Verizon, JPMorgan Chase, Citigroup et Goldman Sachs ont interdits ChatGPT en interne face à ces risques. Bloomberg à rapporté également dans un article du 2 mai que des entreprises telles queSamsung a aussi interdit à ses employés d’utiliser des chatbots comme ChatGPT ou Bard de Google sur leurs appareils professionnels après qu’un employé a introduit un code source interne dans ChatGPT en avril. Les instances privées de ChatGPT pourraient permettre à ces employés de profiter de ce que ChatGPT et d’autres produits d’IA générative font bien sans divulguer d’informations internes à d’autres entreprises ou au public.

Le problème, c’est que fatalement ces implémentations auront un coût qui serait assez élevé : ces versions isolées de ChatGPT pourraient coûter beaucoup plus cher à gérer et à utiliser. Le rapport indique que les instances privées « pourraient coûter jusqu’à 10 fois ce que les clients paient actuellement pour utiliser la version normale de ChatGPT« . Pour rappel Microsoft est autorisé à revendre les produits d’OpenAI selon les termes d’un investissement judicieux pluriannuel de plusieurs milliards de dollars que Microsoft a fait dans OpenAI. Apparemment, les deux entreprises se retrouveront en concurrence pour certains des mêmes utilisateurs.

Dans le même temps on a aussi appris via Computerworld qu’OpenAI est censée disposer d’un produit similaire dans les mois à venir, un abonnement dans lequel les données transmises à ChatGPT par les employés et les clients d’une entreprise ne seront pas utilisées par défaut pour former ses modèles de langage. La principale différence réside dans le fait que la version de Microsoft utilisera la plateforme Azure de l’entreprise comme backend plutôt que des plateformes concurrentes comme Amazon Web Services.

Nous reviendrons sur toutes ces choses lors d’une session dédiée sur les IA Génératives et leurs usages en entreprise lors du prochain Briefing Calipia en juin.

Google fusionne ses deux champions d’IA… dans l’espoir de contrer plus efficacement l’alliance Microsoft – OpenIA

C’est peu de dire que Google prend la menace OpenIA et l’alliance de ce dernier avec Microsoft au sérieux. Ceci pourrait à terme menacer la suprématie de son moteur de recherche et donc de ses revenus (qui sont essentiellement publicitaires, est-il besoin de le rappeler). Toucher au moteur publicitaire, c’est clairement « toucher au grisbi »! De plus, et nous l’avons vu récemment, Google se trouve de plus dans l’incapacité à enthousiasmer le monde avec ses produits d’IA il est loin le temps ou le monde s’enthousiasmait de DeepMind et ses exploits au jeu de Go…

Afin de concentrer ses effort, les deux grandes équipes d’IA d’Alphabet, la société indépendante DeepMind et la division d’IA « Google Brain », fusionnent pour former « Google DeepMind ». Google et DeepMind ont tous deux publié des articles de blog. Sundar Pichai, PDG de Google, explique que la fusion des deux unités « nous aidera à construire des systèmes plus performants, de manière plus sûre et plus responsable« .

Pour rappel, DeepMind n’était pas issu de Google à l’origine, c’était un laboratoire de recherche en IA britannique que Google a racheté en 2014. Depuis lors, il vit comme une société Alphabet indépendante, distincte de Google, avec son PDG Demis Hassabis. De son coté la division Google Brain était dirigée par Jeff Dean. Ce groupe a apporter des améliorations progressives aux produits Google existants. Ironie de l’histoire, l’équipe Brain a inventé et mis en libre accès l’architecture de réseau neuronal « Transformer » qui a conduit aux chatbots dont ChatGPT… (Le « GPT » dans « ChatGPT » signifie « Generative Pre-trained Transformer »), le produit qui fait trembler le géant de Mountain View…

Le dirigeant de DeepMind, Hassabis, sera désormais PDG du nouveau Google DeepMind, et Dean, le dirigeant de la division IA de Google, obtiendra le titre de « scientifique en chef » chez Google DeepMind. La cohabitation des deux hommes risque d’être néanmoins assez compliqué, un rapport de mars de The Information indique que, dans le sillage de l’alerte interne sur ChatGPT, l’équipe Google Brain et DeepMind ont été obligées de « mettre de côté les rancœurs » accumulées pendant « des années de rivalité intense » et de travailler ensemble. Le rapport indique que les deux groupes « ont rarement collaboré ou partagé du code informatique l’un avec l’autre », mais qu’ils construiraient désormais ensemble « Gemini », un projet récemment lancé qui représente une deuxième tentative de concurrencer ChatGPT, après Google Bard. The Information a décrit ce projet unique comme un « mariage forcé ».

Un avant goût de Microsoft 365 Copilot dans Excel…

Il y a quelques semaines, nous vous en parlions sur le blog, Microsoft a annoncé la fonctionnalité Copilot pour Microsoft 365. Avec un objectif :  permettre aux utilisateurs d’accéder à l’IA générative pour aider à automatiser des tâches dans, par exemple, les feuilles de calcul Excel. Actuellement, Microsoft 365 Copilot est en beta très restreinte dans quelques rares entreprises. 

Néanmoins aujourd’hui l’entité « Garage » de Microsoft qui travaille en amont sur pas mal de fonctionnalités et dépend directement de la R&D Microsoft propose un outil : Excel Lab  qui permet d’utiliser les fonctions d’IA générative dans Excel.

Il s’agit en fait d’une version améliorée d’un ancien complément appelé Advanced Formula Environment, qui, selon Microsoft, permet aux utilisateurs d’Excel de « créer, modifier et réutiliser plus facilement des formules complexes et les fonctions LAMBDA« .

Le nouveau complément Excel Labs combine les fonctionnalités de l’ancien programme Advanced Formula Environment avec la nouvelle fonction personnalisée LABS.GENERATIVEAI. Microsoft indique qu’il utilise de grands modèles de langage d’OpenAI pour permettre aux utilisateurs de taper des prompts directement dans une feuille Excel afin d’obtenir des résultats.

Alors je vous propose de regarder cela ensemble dans cette nouvelle petite vidéo :

Pour faire fonctionner ce complément vous aurez besoin de la version Excel 365 sur PC ou Mac. Vous devez avoir un compte OpenAI avec une souscription pour l’usage de l’API. C’est payant mais très peu onéreux dans la pratique.

Première chose à faire, installer le composant :

  • Allez sur insérer,
  • puis compléments,
  • Télécharger des compléments.
  • Une fois le store ouvert, recherchez Excel Labs,
  • Installez la composante
  • Ce dernier apparait alors dans votre ruban et vous pouvez y accéder.

Vous devez ensuite donner votre clé OpenAI pour accéder à l’API. Et c’est tout.

Dans l’exemple qui est pris ici, imaginons que j’ai besoin d’analyser simplement les évaluations laissées sous forme de texte par des stagiaires. Je dispose d’un tableau avec le prénom de la personne et son évaluation. Je voudraisun résumé m’indiquant si au global le commentaire est positif, négatif ou neutre.

Je vais pour cela utiliser la fonction LABS.GENERATIVEAI comme cela :

=LABS.GENERATIVEAI(« Synthétise le sentiment global de ce texte comme ‘Positif’, ‘Neutre’ ou ‘Négatif’ : « &[@Evaluation])

En ajoutant donc la colonne « Evaluation » de mon tableau comme source.

Nous obtenons le résultat après un bref temps de calcul… Pas si mal non ? Alors oui c’est pas parfait, parfois pas si évident, mais globalement le résultat est tout de même impressionnant.

Microsoft est conscient que son IA pourrait léser les créateurs de contenus

Mercredi dernier Microsoft reconnaissait pas la voix de son patron marketing grand public : Yusuf Mehdi, que sa nouvelle recherche Bing basée sur l’IA pourrait affecter les modèles de revenus des éditeurs de contenu, mais a également laissé entendre qu’elle était prête à discuter des conditions : en gros éviter les actions légales qui commencent à se profiler aux USA entre créateur de contenus humains et société qui on produits des IA en les entrainant sur leur modèles… Mais aussi cet article du New York Times, qui fait état des craintes des éditeurs de journaux quant à la manière dont la recherche assistée par l’IA affecterait les modèles de revenus.

Certains éditeurs pensent à juste titre selon moi, que les personnes qui utilisent la recherche basée sur l’IA n’iront plus consulter les sources de contenu, car elles obtiendront un résumé suffisamment bon … Mais cela risque d’être aussi un problème pour Microsoft (et Google demain) car moins de clics sur les sources dit aussi moins de clics sur les contenus publicitaires… Microsoft teste donc aussi en parallèle de tout cela pour Bing le moyen de produire de la publicité sur les réponses de ChatGPT.

Pour rassurer tout le monde, Microsoft précise que son IA inclut déjà des « citations dans le corps des réponses du chat qui sont liées à des sources« . Les résultats de la recherche comprennent également des liens « en savoir plus« . Mais comme cela ne sera sans doute pas suffisant l’entreprise propose des idée pour reconnaître le contenu de l’éditeur récupéré par ses technologies d’IA, comme :

  • Des liens vers le contenu de l’éditeur qui afficheront d’autres liens lorsqu’un utilisateur les survolera.
  • Des « légendes enrichies » pointant vers le contenu sous licence « Microsoft Start » (flux de contenu de Microsoft utilisé par des fournisseurs de contenu rédactionnel qui fait également partie du bureau Windows en tant qu’expérience « Actualité » dans la barre des tâches de Windows 10 et « de Widgets » dans Windows 11) , qui pourraient apparaître à côté des réponses au chat.
  • Placer des publicités dans l’expérience de chat afin de partager les revenus publicitaires avec les partenaires dont le contenu a contribué à la réponse au chat.

Les salles de rédaction ont déjà été décimées par le passage au contenu en ligne, qui a affecté les revenus des éditeurs de presse. Cependant, les résultats des recherches ont toujours renvoyé les lecteurs vers les sites des fournisseurs de contenu. Cette situation pourrait changer avec les recherches basées sur l’IA.

Des solutions légales sont en train d’être mis en place aux USA pour apporter des réponses économiques :

  • La « Journalism Competition and Preservation Act of 2022, » présentée l’année dernière , permettrait aux « fournisseurs de journalisme numérique de négocier collectivement avec les grandes plateformes en ligne » sur l’utilisation du contenu, ce qui serait exempté des lois antitrust fédérales, d’après la description de la loi.
  • Fait notable, souvent en avance sur le reste des USA (nous l’avons vu avec un équivaillent du RGPD), la Californie a sa propre version législative, appelée « The California Journalism Competition and Preservation Act« , qui « obligerait les géants de la publicité numérique à payer aux organes d’information une ‘taxe d’utilisation du journalisme’ lorsqu’ils vendent de la publicité avec du contenu d’information »

IA : Microsoft annonce le SDK Semantic Kernel

Microsoft vient d’annoncer la prévision du kit de développement « Semantic Kernel ». Logiquement ce dernier est dispo en Open Source sur GitHub. Le Semantic Kernel est donc un kit de développement logiciel (SDK) léger qui facilite l’utilisation d’éléments tels que ChatGPT d’OpenAI dans les applications, selon John Maeda, vice-président de Microsoft chargé de la conception et de l’intelligence artificielle, il fonctionne avec les langages de programmation conventionnels, avec une prise en charge actuelle en beta de « C# et Python ». Microsoft envisage d’ajouter la prise en charge de TypeScript et d’autres langages dans un futur proche.

Semantic Kernel, qui a débuté en tant que projet d’incubation interne à Microsoft, il prend actuellement en charge le modèle GPT-4 d’OpenAI et le service Azure OpenAI. Ses capacités peuvent être intégrées dans n’importe quel type d’application et peuvent se connecter à des sources de données et à des services externes. Semantic Kernel se distingue également par le fait qu’il permet aux développeurs d’utiliser des prompts complexes, ce qui peut s’avérer problématique lorsqu’on travaille avec de l’IA

« Ainsi, imaginez que vous puissiez facilement créer des invites complexes, des invites à multiples facettes, des invites qui font toutes sortes de choses comme se connecter à du code natif. Ce genre de choses est offert gratuitement avec Symantec Kernel » – John Maeda.

Ce SDK peut être en réalité considéré comme un ensemble de bonnes pour ajouter une IA riche en sémantique aux applications existantes. Ainsi la source GitHub comprend quelques exemples de codes modèles que les développeurs peuvent essayer. Il existe une capacité de « résumé de chat simple » pour les applications. Un exemple de code « Book creator » permet aux applications de créer des aperçus de livres. Il existe également un modèle de code de connecteur de base qui peut être utilisé pour « s’authentifier et se connecter à une API ».

Nous reviendrons lors du prochain Briefing sur les IA conversationnelles et leurs usages.

Que retenir en synthèse de la conférence Microsoft « Futur of Work with AI » d’hier ?

Elle était attendue, nous vous en parlions hier sur le blog autour des avancées en matière d’IA dans Linkedin. Nous n’avons pas été déçu, tant ces nouveautés annoncées sont enthousiasmantes, avec peut-être néanmoins quelques bémols, nous y reviendrons.

Microsoft a donc annoncé sans surprise ses nouvelles fonctions d’intelligence artificielle pour les applications Microsoft 365, avec de nombreuses démonstrations assez bluffantes. Ses fonctions présentées logiquement sous l’appellation « Copilot » sont basées sur GPT-4 d’OpenAI, cette nouvelle capacité sera placé à côté des applications Microsoft 365 comme un assistant, apparaissant dans la barre latérale comme un chatbot qui permettra aux utilisateurs de l’appeler pour générer du texte dans les documents, créer des présentations PowerPoint basées sur des documents Word, aider dans l’animation d’une réunion Teams ou même aider à utiliser des fonctionnalités telles que les tableaux croisés dynamiques dans Excel. La promesse énoncée par Microsoft est ambitieuse : « offrir une nouvelle façon de travailler »… tout simplement.

Amusant, l’annonce de Microsoft intervient quelques jours seulement après que Google a annoncé des fonctionnalités d’IA similaires pour Google Workspace, notamment la génération de texte assistée par l’IA dans Gmail, Docs, etc. Cette annonce de Google n’a visiblement pas enthousiasmé les foules avec aucune démo probante et surtout très peu de détail sur les technologies utilisées. Où est passé Bart ?

Regardons concrètement ce que propose Microsoft :

Copilot avec Word

Il pourra être utilisé dans Word pour rédiger des documents à partir d’autres fichiers. Le texte généré par l’IA sera ensuite être librement édité et adapté. Copilot étant essentiellement un chatbot, vous pourrez même lui demander de créer une présentation PowerPoint de 10 diapositives à partir d’un document Word lui même généré à partir de données externes…

Une petite vidéo de résumé :

Copilot avec Excel

C’est encore plus impressionnant dans Excel. Les utilisateurs peuvent utiliser Copilot pour créer instantanément une analyse SWOT ou un tableau croisé dynamique à partir de données. Là encore en langage naturel.

La vidéo de résumé :

Copilot avec Teams

Avant la réunion, Copilot pourra fournir des informations sur une réunion Microsoft Teams à venir, préparer les gens avec des mises à jour sur les projets connexes, les changements tels que des embauches récentes, et même des mises à jour sur les collègues qui pourraient être rentrés de vacances.

Lire la suite

Linkedin bénéficiera aussi de ChatGPT

Alors que Microsoft, nous vous en parlons régulièrement sur le Blog utilise de plus en plus de fonctions issues de son partenariat avec OpenAI, c’est au tour de sa filiale Linkedin de bénéficier de l’IA générative ChatGPT à la sauce Bing Chat . Aujourd’hui, comme le souligne TechCrunch le réseau social va ajouter des fonctions d’IA pour ses utilisateurs et les entreprises qui publient des offres d’emploi.

Côté profil personnel

Ainsi lorsque vous saisissez les informations de votre profil par exemple, comme le résumé ou l’expérience professionnelle, la nouvelle IA générative utilisera la toute dernière version 4 de GTP (qui au passage est vraiment bluffante et constitue une sérieuse itération de la 3.5, mais c’est un autre sujet nous y reviendrons), pour générer les textes, vous pourrez ensuite à votre guise modifier tout ceci bien entendu, il ne s’agit ici que de suggestions.

Cette fonctionnalité est disponible dès maintenant pour les personnes qui ont souscrit un abonnement payant à LinkedIn Premium.

A ce propos, nous vous proposons dans le prochain Briefing Calipia une session sur les bonnes pratiques d’utilisation de Linkedin.

Autre volet concernant cette fois les pages entreprises.

Les entreprises peuvent créer des descriptions de postes, en utilisant des invites de base telles que le titre du poste et le nom de l’entreprise, avec des informations générées par GPT-3.5 cette fois. Là encore, les entreprises peuvent logiquement modifier ces suggestions créées par l’IA.

C’est cet après midi à 16h

Cette nouvelle intervient alors que Microsoft présentera son grand événement en ligne à 16h ici « The Future of Work with AI »qui devrait montrer comment l’IA générative sera incorporée dans les applications Office.

Satya Nadella, etJared Spataro, feront des présentations lors de l’événement diffusé en direct. L’entreprise affirme que les personnes qui regarderont l’événement « apprendront comment l’IA alimentera une toute nouvelle façon de travailler pour chaque personne et chaque organisation » quelle promesse !

Cet événement en ligne, dont la première rumeur remonte à février, montrera probablement comment Microsoft prévoit d’ajouter des fonctions génératives de type IA, telles que son nouveau Bing Chat, à Office comme par exemple des fonctionnalités telles qu’un chatbot écrivant automatiquement dans Word, ou proposant un tableau Excel adapté à un usage particulier ou à une description d’un problème que vous auriez fait… Il sera intéressant de voir jusqu’où Microsoft est allé dans l’utilisation de l’IA comme « copilote » dans ces domaines.

A ce propos, notre prochaine Learning Expedition sur le thème de l’Environnement de travail et l’IA se déroulera du 8 au 14 octobre 2023 contactez nous si vous souhaitez plus d’informations (formation@calipia.com), nous devrions aller chez Microsoft, AWS à Seattle, puis dans la Silicon Valley chez Google, Nvidia, Apple, …

Services Azure OpenAI assurés avec l’aide des composants Nvidia

Microsoft met en avant ses offres pour créer des supercalculateurs via son programme de cloud computing Azure pour aider la société OpenAI. Parallèlement, la société a également annoncé une nouvelle machine virtuelle d’IA utilisant les nouvelles GPU améliorés de NVIDIA. Ainsi la nouvelle ND H100 v5 VM de Microsoft utilise, on s’en doutait, les GPU H100 de NVIDIA, Il est donc possible pour toutes les entreprises qui ont besoin d’ajouter des fonctions d’IA d’accéder à ce service de machine virtuelle qui présente les caractéristiques suivantes, un nouveau bond en terme de performance :

8x GPU NVIDIA H100 Tensor Core interconnectés via la nouvelle génération de NVSwitch et NVLink 4.0

  • 400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand par GPU avec 3,2 To/s par VM dans un réseau fat-tree non bloquant
    NVSwitch et NVLink 4.0 avec une bande passante bisectionnelle de 3,6 To/s entre 8 GPU locaux dans chaque VM.
  • Processeurs Intel Xeon Scalable de 4ème génération
    Interconnexion hôte-GPU PCIE Gen5 avec une bande passante de 64 Go/s par GPU
    16 canaux de DIMM DDR5 à 4800 MHz

Cette offre vient s’ajouter au ChatGPT in Azure OpenAI Service annoncé précédemment par Microsoft, nous vous en parlions hier sur le blog, qui permet à des tiers d’accéder à la technologie des chatbots via Azure.

Dans un autre billet de blog, Microsoft explique comment l’entreprise a commencé à travailler avec OpenAI pour aider à créer les supercalculateurs nécessaires au grand modèle de langage de ChatGPT (donc le nouveau Bing). Pour ce faire, il a fallu relier des milliers de GPU d’une toute nouvelle manière. Le blog propose une explication de Nidhi Chappell, chef de produit chez Microsoft pour Azure High Performance Computing and AI :

Pour former un grand modèle de langage, explique-t-elle, la charge de calcul est répartie entre des milliers de GPU dans un cluster. À certaines phases de ce calcul – appelé allreduce – les GPU échangent des informations sur le travail qu’ils ont effectué. Un réseau InfiniBand accélère cette phase, qui doit se terminer avant que les GPU ne puissent commencer le morceau de calcul suivant.

Ce matériel est associé à un logiciel qui permet d’optimiser l’utilisation des GPU NVIDIA et du réseau qui les fait fonctionner ensemble. Microsoft indique qu’elle continue d’ajouter des GPU et d’étendre son réseau tout en essayant de les faire fonctionner 24 heures sur 24 et 7 jours sur 7 grâce à des systèmes de refroidissement, des générateurs de secours et des systèmes d’alimentation électrique sans interruption.

ChatGPT en preview sur Azure OpenAI

Image générée par Midjourney 🙂

Microsoft a annoncé en fin de semaine que son service Azure OpenAI offre désormais en preview de ChatGPT, le célèbre moteur de chat basé sur OpenAI. Le service Azure OpenAI de Microsoft prend déjà en charge d’autres modèles génératifs OpenAI, notamment « Dall-E 2 » pour la génération d’images, « GPT-3.5 » pour la génération de langage naturel et de code, et « Codex » pour la génération de code à partir de langage naturel. L’ajout de l’aperçu ChatGPT permettra donc de renforcer les chatbots pour les utiliser dans le cadre du service à la clientèle, entre autres cas d’utilisation.

Voici comment Microsoft décrit ces cas d’utilisation :

« Désormais, avec ChatGPT en avant-première dans Azure OpenAI Service, les développeurs peuvent intégrer des expériences personnalisées basées sur l’IA directement dans leurs propres applications, notamment en améliorant les robots existants pour répondre à des questions inattendues, en récapitulant les conversations dans les centres d’appels pour permettre une résolution plus rapide des problèmes d’assistance à la clientèle, en créant de nouveaux textes publicitaires avec des offres personnalisées, en automatisant le traitement des réclamations, et bien plus encore« .

Microsoft vend également l’utilisation de son service Azure Cognitive Search avec ces chatbots améliorés par ChatGPT. L’intégration avec Azure Cognitive Search permettra aux organisations de connecter le chatbot à des données spécifiques de l’entreprise, évitant ainsi les réponses génériques. Le service Azure Cognitive Search agit comme « une base de connaissances externe qui peut retrouver des éléments rapidement et avec une bonne pertinence », a expliqué Microsoft dans cette annonce.

Microsoft a présenté également Azure OpenAI Studio, un environnement de développement permettant de créer des applications intelligentes « sans code ». Il peut également être utilisé pour « personnaliser ChatGPT ».

En général, Microsoft utilise « la puissance des grands modèles de langage d’OpenAI et l’infrastructure optimisée pour l’IA d’Azure » pour soutenir ses divers produits commerciaux et grand public, nous vous parlions de ceci avec Dynamics la semaine dernière sur le Blog.

Le service Azure OpenAI peut être utilisé dans différents scénarios, selon Microsoft. Il peut être utilisé pour générer du contenu en réponse aux demandes des clients ou pour personnaliser l’interface utilisateur sur les sites web. Il peut être utilisé pour résumer le contenu dans des scénarios d’assistance à la clientèle ou pour résumer les tendances des médias sociaux. Le service Azure OpenAI peut également générer du code à partir de requêtes en langage naturel, y compris des requêtes SQL et de la documentation de code. Le service renforce également la recherche grâce à ses capacités de « knowledge mining ».

Le choses qui fâchent
La preview de ChatGPT dans le service Azure OpenAI peut actuellement être essayé, mais Microsoft peut facturer certains aspects, même en beta… : Microsoft indique que le prix est de 0,002 $/1k tokens et la facturation pour toute utilisation de ChatGPT commence à partir d’aujourd’hui (13 mars). Outre le tarif d’utilisation des modèles (appelé « inferencing » et facturé sur la base des « tokens »), Azure OpenAI a des coûts d’hébergement et de formation. Les détails de la tarification sont indiqués sur cette page. Ainsi le taux d’utilisation du modèle d’inférence pour 1 000 jetons varie en fonction du modèle d’IA sélectionné. Par exemple, le modèle « Curie » est tarifé à « 0,002 $/1 000 jetons ».

La page de tarification ne donne pas beaucoup de détails sur ces questions, nous reviendrons sur ceci lors d’une session dédiée au prochain Briefing Calipia, histoire de tenter de comprendre les modes de tarifications cloud en général de l’éditeur. N’hésitez pas à vous inscrire.

« Entrées précédentes