Il y a plusieurs domaines de calcul où les puces Mx d’Apple rivalisent avantageusement avec les processeur Intel, en particulier le rapport puissance/consommation bien sur, le fonctionnement cohérent entre processeur et OS mais aussi l’intégration d’unité de calcul dédié à l’IA (NPU). Autant de raisons pour que le fondeur Intel et Microsoft unissent leurs forces.
Ainsi pour stimuler le développement de l’intelligence artificielle (IA) sur les PC Windows 11. Les deux entreprises ont pour objectif d’offrir aux utilisateurs de PC de nouvelles fonctions et capacités basées sur l’IA, afin de rendre ses machines plus performantes et plus abordables.
Lors de la conférence Build 2023 Intel a présenté les prochains processeurs Meteor Lake pour PC, en mettant en avant leur architecture et les puissantes capacités d’IA qu’ils offrent. Cette collaboration pose un jalon important dans l’évolution de la coopération entre les deux entreprises dans une puce qui pourrait être spécifique à Windows. Les linuxiens et autres vont sans doute hurler, mais c’est tout de meme une tendance de fond : les puces Apple ne fonctionnent qu’avec un OS Apple (iOS ou MacOS), les puces Google qu’avec un OS Google… Alors qu’Intel face un peu de spécifique pour Microsoft, pourquoi pas. Cela permet également pour l’éditeur de trouver une alternative crédible à l’alliance qu’il avait lancé avec Qualcomm pour ses éditions Windows ARM qui connaissent toujours le même franc succès (c’est de l’humour…)
La dernière plateforme PC d’Intel introduit un design de SoC IA avec NPU. Cette conception permet d’optimiser les performances pertinentes tout en réduisant la consommation d’énergie. Selon Intel, les accélérateurs d’IA de Meteor Lake sur le CPU et le GPU offrent des performances améliorées pour l’exécution efficace des modèles d’IA, permettant :
L’utilisation d’outils de développement, y compris le support du Runtime ONNX activé par OpenVino-EP et DirectML-EP.
Apprentissage automatique plus efficace sur WinML/DirectML pour l’accélération des VPU et GPU neuronaux.
Pour illustrer ceci, Intel et Microsoft on fait une démonstration des bénéfices de cette combinaison Puce + OS avec Adobe Premiere Pro : avec le recadrage automatique et la détection de montage de scène très sympa.
L’utilisation des IA, en particulier avec l’arrivée des IA Génératives déchaine les passions, et comme d’habitude, dès lors qu’une nouveauté majeure arrive, les inquiétudes naissent. Rappelez-vous l’arrivée du Cloud, les inquiétudes sur les emplois, les données, etc. Encore plus loin, avec l’arrivée des moteurs de recherche : beaucoup d’établissements scolaires en interdisaient l’usage et dans les entreprises on craignait (parfois à juste titre…) qu’envoyer une requêtes sur Google renseignerait ce dernier et nos concurrents sur nos besoins, avec des divulgations possibles d’informations confidentielles. Pas si loin des éléments entendus sur ChatGPT finalement.
A lire la presse qui en fait depuis des semaines ses gros titres, certaines personnes pensent ces IA vont priver les humains d’emplois et d’autres que l’IA pourrait être utilisée à des fins hostiles par des individus, des groupes, voire des nations. Autant d’éléments qui ne sont pas faux à des degrés divers.
En cette fin de semaine, Microsoft a annoncé la publication d’un nouveau rapport intitulé Governing AI : A Blueprint for the Future (Gouverner l’IA : un plan d’action pour l’avenir), qui contient ses propres propositions sur la manière dont les entreprises et les gouvernements devraient contrôler l’IA.
Le président de Microsoft, Brad Smith, a rédigé l’avant-propos du rapport, qui résume ses objectifs. Le rapport comporte cinq points spécifiques qui, selon Microsoft, devraient être mis en œuvre pour rendre l’IA plus sûre et plus accessible au public.
Mettre en œuvre et développer de nouveaux cadres de sécurité de l’IA dirigés par les gouvernements : Selon Brad Smith, ces cadres sont déjà proposés par l’Institut national américain des normes et de la technologie.
Exiger des freins de sécurité efficaces pour les systèmes d’IA qui contrôlent les infrastructures critiques : Selon Brad Smith, « ces systèmes à sécurité intégrée feraient partie d’une approche globale de la sécurité des systèmes qui garderait à l’esprit une surveillance humaine efficace, la résilience et la robustesse ».
Élaborer un vaste cadre juridique et réglementaire fondé sur l’architecture technologique de l’IA : Brad Smith affirme que de nouvelles lois et réglementations, fondées sur les lois existantes, seront nécessaires pour régir l’IA, y compris la création d’une nouvelle agence gouvernementale chargée de réglementer l’intelligence artificielle.
Promouvoir la transparence et garantir l’accès des universitaires et des organisations à but non lucratif à l’IA : Microsoft publiera un rapport annuel sur ses efforts de transparence en matière d’IA et que de nouveaux efforts doivent être déployés pour étendre la recherche sur l’IA aux universitaires et aux organisations à but non lucratif.
Rechercher de nouveaux partenariats public-privé afin d’utiliser l’IA comme un outil efficace pour relever les défis sociétaux inévitables qui accompagnent les nouvelles technologies : « Un travail important est maintenant nécessaire pour utiliser l’IA afin de protéger la démocratie et les droits fondamentaux, de fournir un large accès aux compétences en IA qui favoriseront une croissance inclusive, et d’utiliser le pouvoir de l’IA pour faire avancer les besoins de durabilité de la planète.«
Alors, pourquoi pas profiter de ce (long) week end pour lire ce document Microsoft 🙂
Microsoft lançait l’automne dernier, Microsoft Syntex : un ensemble de services de gestion de contenu dans le Cloud alimentés par de l’IA. Nous vous en parlions encore dernièrement sur le blog et ceci fera l’objet d’une session au prochain Briefing.
Lors de la deuxième journée de sa conférence développeurs Build, Microsoft a annoncé de nouveaux plugins Syntex pour Microsoft 365 et des services de dépôts de documents. Mais aussi deux nouvelles fonctionnalités Syntex eSignature et Projet Archimedes. Regardons ce qu’apportent ces nouveautés :
1. Les plugins Syntex pour Microsoft 365 Copilot
Ces derniers permettent d’intègrer les actions et les fonctions Syntex dans les futures options Copilot en mettant à disposition des fonctions de gestion de contenu pour sécuriser, ancrer et traiter les informations clés de l’entreprise. Objectif aussi : faciliter le traitement des documents alimenté par l’IA, comme la classification, l’assemblage de contenu et la signature électronique dans Copilot. Microsoft précise que ceci sera valable pour Teams, Word, Outlook, SharePoint, OneNote, etc. Dans word par exemple Copilot sera en mesure d’invoquer le traitement des documents Syntex pour classer automatiquement les documents à l’aide des métadonnées extraites et des politiques de sécurité. Vous pourrez également demander des signatures électroniques par l’intermédiaire de Copilot. Nous donnerons d’autres exemples lors du Briefing Calipia.
2. Plugins de services de dépôts de documents
Contrairement au stockage de fichiers de base, les services de dépôt Syntex offrent aux développeurs des API d’accès aux fonctions du backend de gestion de contenu de Microsoft 365 : versionnage, partage, recherche, sécurité, conformité, etc. Et ceci donc sans avoir besoin de passer systématiquement par les interfaces de SharePoint et Teams. Ces fonctions intéresserons particulièrement les éditeurs logiciels désirant tirer parti des fonctions de Syntex dans leur application.
Pour illustrer ceci, Microsoft a mis une avant son partenaire de longue date AvePoint qui a construit une nouvelle version de son application AvePoint Confide entièrement architecturée autour des services de dépôt Microsoft Syntex permettant de mettre en oeuvre des services de partages documentaires à la volée. Autre exemple pris, la société BDO, fournisseur mondial de services fiscaux, d’audit et de conseil, est en train de réarchitecturer une application de portail orientée client avec les services de référentiel Syntex pour une couche de document universelle évolutive qui tire parti des solutions intégrées de sécurité et de gouvernance de Microsoft 365.
3. Syntex eSignature
Objectif ici : envoyer des demandes de signature électronique à l’aide de Syntex eSignature tandis que le contenu reste dans Microsoft 365 pendant qu’il est révisé, signé et post-signé en tant qu’enregistrement. Nous reviendrons sur ces fonctions avec des démos lors du Briefing.
4. Projet Archimede
Composante à destination des analystes. Il fournit des analyses de big data sur contenu OneDrive et SharePoint à l’échelle de l’entreprise, afin également de synthétiser les éléments liés à la sécurité des documents partagés. Il permet la création de rapports, tableaux de bord, etc.
Nous vous en parlons sur le Blog régulièrement et ce sera un thème majeur du prochain Briefing Calipia qui fera le point sur l’apport de toutes ces fonctions, Microsoft a progressivement introduit l’assistant d’intelligence artificielle Copilot dans un certain nombre de ses produits et services. Satya Nadella, lors de l’ouverture de la conférence développeurs Build 2023 a annoncé hier que ce serait au tour de Windows, et en beta dès le mois prochain.
Introduire un assistant (vocal ou pas) dans Windows n’est pas nouveau, on se souvient tous de l’intégration de Cortana et de sa sortie du système par la petite porte tant il ne parvenait pas à trouver son public et ses usages. Mais cette fois ci Microsoft l’assure, l’entreprise veut profiter de l’engouement autour des IA génératives et ChatGPT pour tenter une approche encore plus intime entre l’assistant et le système combinant à la fois une aide contextuelle, mais aussi la réalisation réelle de tâches pouvant être liées pour établir de réels scénarios. C’est pas idiot, encore faut-il que les choses soient réellement utilisables passé l’excitation de la nouveauté. Et c’est pas gagné. Apple s’est lui aussi cassé les dents sur ceci avec l’intégration de Siri dans MacOS qui se révèle en pratique… inutile.
Concrètement, Microsoft va mettre le bouton Windows Copilot bien visible, au centre de la barre des tâche. Une fois cliqué, la barre latérale de Windows Copilot sera disponible pour agir en tant qu’assistant personnel contextuel à votre travail. Vous pourrez non seulement réaliser des tâches basiques comme modifier les paramètres de Windows, lancer un programme, mais aussi demander à Copilot de réécrire, résumer ou expliquer votre contenu présent sur une fenêtre active et comme vous le feriez avec Bing Chat, vous pouvez poser au Copilote Windows toute une série de questions, des plus simples aux plus complexes.
Petite question également, pour plus d’intégration pourquoi ne pas avoir choisi d’intégrer directement Copilot dans le bouton recherche de Windows 11 ?
Microsoft présente Windows Copilot en même temps que Bing Chat, et explique que Copilot a pour but de faire de « chaque utilisateur un utilisateur puissant« . Pour rendre cela possible, des plugins Bing Chat tiers sont désormais disponibles, ce que Microsoft avait promis.
Windows Copilot sera disponible en avant-première dans Windows 11 Insider builds à partir du mois prochain. Vous pouvez vous inscrire sur ce lien sur le site de Microsoft pour recevoir des mises à jour sur Windows Copilot. Nous verrons ceci en démonstration lors du prochain Briefing.
Il y a plusieurs domaines de calcul où les puces Mx d’Apple rivalisent avantageusement avec les processeur Intel, en particulier le rapport puissance/consommation bien sur, le fonctionnement cohérent entre processeur et OS mais aussi l’intégration d’unité de calcul dédié à l’IA (NPU). Autant
L’utilisation des IA, en particulier avec l’arrivée des IA Génératives déchaine les passions, et comme d’habitude, dès lors qu’une nouveauté majeure arrive, les inquiétudes naissent. Rappelez-vous l’arrivée du Cloud, les inquiétudes sur les emplois, les données, etc. Encore plus loin, avec l’arrivée des
Microsoft lançait l’automne dernier, Microsoft Syntex : un ensemble de services de gestion de contenu dans le Cloud alimentés par de l’IA. Nous vous en parlions encore dernièrement sur le blog et ceci fera l’objet d’une session au prochain Briefing. Lors de la
Vous le savez sans doute malgré ses capacités de conversation impressionnantes, ChatGPT tire ses informations d’anciennes données au lieu d’aller les chercher sur Internet en temps réel. Ce qui est aussi un élément différentiateur par rapport à l’implémentation de cette technologie dans Big de Microsoft. Cette situation pourrait bientôt prendre fin, car OpenAI annonce maintenant la prise en charge de la navigation sur le web pour ChatGPT. En outre, les plugins ChatGPT seront désormais plus largement disponibles.
OpenAI a récemment mis à jour ses notes de publication pour ChatGPT, annonçant que le chatbot a désormais accès à l’internet. Entre-temps, les plugins – ou outils qui vous permettent d’accéder à des services tiers via ChatGPT – passent de la phase alpha à la phase bêta et seront désormais disponibles pour tous les utilisateurs de ChatGPT Plus (abonnement payant, n’ayant rien à voir à l’abonnement aux APIs qui est lui à la consommation). OpenAI affirme que les utilisateurs de ChatGPT Plus pourront désormais utiliser plus de 70 plugins dont ceux d’Expedia, Zapier, Kayak, etc.,
Si vous êtes abonné à ChatGPT Plus, vous pouvez accéder à la navigation web et aux plugins en allant dans ChatGPT Settings dans le coin inférieur gauche de l’interface du chatbot. Sous Paramètres, allez dans Fonctionnalités bêta et activez Navigation Web et Plugins. OpenAI ne révèle pas en revanche quand (et si) les utilisateurs gratuit y auront accès. Si vous êtes un développeur et que vous souhaitez que vos applications soient accessibles via ChatGPT, vous pouvez néanmoins rejoindre la liste d’attente ici.
De son coté, Microsoft a déclaré que des plugins seront bientôt disponibles pour Bing chat, et que les détails seront annoncés lors de la prochaine conférence Microsoft Build prévue la semaine prochaine…
Nous aborderons tout ceci ainsi que les annonces de la Build lors du prochain Briefing.
Décidément la réponse de Google à OpenAI et à Microsoft n’est pas simple à mettre en place. Après une présentation (en France) précipité et chaotique. Puis des annonces de la semaine dernière qui indique que le produit ne sera dans un premier temps que disponible en Anglais, en Coréen et Japonais… (il n’y a pas de traduction automatique chez Google ? Les équipes de Google Translate sont en vacances ?)
On apprend que Google a déployé Bard dans plus de 180 pays à travers le monde, mais a oublié une région géopolitique : l’Union européenne (UE).
Sans reconnaître clairement son absence de l’UE, Google affirme qu’il « s’étendra à d’autres pays et territoires d’une manière compatible avec les réglementations locales » sur la même page d’assistance. ll est facile d’associer cette décision aux réglementations strictes concernant la vie privée des utilisateurs dans l’UE, en particulier le Règlement général sur la protection des données ou RGPD. Google veut être prudent au lieu de s’exposer à une nouvelle pénalité de plusieurs millions de dollars dans la région. Outre les pays de l’UE, Google fera également patienter les utilisateurs du Canada avant qu’ils ne puissent essayer Bard. En revanche ce ne sera pas le cas visiblement de l’Angleterre qui dispose de sa propre version du GDPR qui a été créée après le Brexit, ou encore de la Californie (cela aurait tout de même été très surprenant) qui dispose de son propre ensemble de lois sur la protection de la vie privée dans le cadre du California Consumer Privacy Act (CCPA).
Outre la protection de la vie privée, les outils d’IA générative comme ChatGPT et Bard ont également suscité des inquiétudes concernant la réutilisation non autorisée de la propriété intellectuelle. En réponse, l’UE a commencé à travailler sur de nouvelles règles pour pénaliser les violations du droit d’auteur dues à l’utilisation de l’IA, comme le soulignait Reuters.
Nous reviendrons sur ces éléments lors d’une session consacrée aux IA génératives et leurs applications en entreprise, au Briefing Calipia de juin. Inscrivez-vous !
Vous reprendrez bien encore un peu de « Copilot » ? Microsoft continue d’ajouter des fonctions d’intelligence artificielle à ses applications. nous vous parlions il y a quelques jours de Copilot pour OneNote, Copilot pour Viva, Pour Office 365… nous avions même imaginé un Copilot pour remplacer les commerciaux le 1er avril … La dernière en date est un Copilot pour SharePoint, qui est censée faciliter la création de contenu dans le service de collaboration phare de Microsoft.
Ainsi Microsoft précise :
« Si vous pouvez décrire le site ou la page, Copilot in SharePoint commencera à le créer pour vous, puis travaillera avec vous pour le modifier et l’affiner. Et tout cela dans le respect de nos engagements actuels en matière de sécurité des données et de respect de la vie privée dans l’entreprise. Ces nouvelles fonctionnalités vous permettront de passer moins de temps à configurer des sites SharePoint et vous donneront l’assurance que votre site utilise ce que SharePoint a de mieux à offrir.«
Microsoft devrait aussi proposer une nouvelle expérience pour le démarrage d’un site de zéro basé sur une requête en langage naturel du style « je veux faire une page qui fait cela »… Mais aussi un nouvel éditeur d’images qui prendra en charge des fonctionnalités telles que les filtres, les superpositions de texte. Il est également prévu d’ajouter plus simplement des pages SharePoint dans les mails afin que les utilisateurs puissent envoyer des articles complets en partage et de créer une section permettant aux utilisateurs de commenter les pages en cours de développement avant qu’elles ne soient mises en ligne.
Copilot in SharePoint devrait être lancé en version preview avant la fin de l’année.
Hier avait lieu à Mountain View (au siège de Google) la session d’ouverture de la Google IO, l’occasion pour l’entreprise d’annoncer pas mal de choses très interessantes comme des mises à jour majeures de sa gamme Pixel (Smartphone et Tablette) et les dernières avancées en matière d’IA. Voici selon nous, les informations les plus importantes qui sont ressorties de la keynote.
On commence par les mobiles
L’entreprise a lancé trois nouveaux produits : le PixelFold, la Pixel Tablet et le Pixel 7A. Le Pixel Fold marque la première entrée de Google sur la scène des appareils pliables, avec un écran extérieur OLED de 5,8 pouces qui se déploie pour révéler un écran plus grand de 7,6 pouces (OLED avec un taux de rafraîchissement de 120 Hz) pas d’emballement, très bizarrement, Il ne sera vendu en France… mais en Allemagne (1900 €) et chez les anglais…
Annoncée déjà il y a presque un an, la nouvelle tablette Pixel de 11 pouces, fonctionne à la fois comme une tablette classique et comme un écran intelligent grâce à la station d’accueil magnétique incluse qui fait également office de haut-parleur, pas bête. L’appareil est équipé de la puce Tensor G2 de Google le tout à moins de 700 €, le prix est sans doute pas mauvais du tout sur ce segment. Cela signifie-t-il le retour de versions plus adaptées d’Android dans le monde des tablettes ? Pas si sur, alors que le marché n’est pas au mieux en ce moment. A suivre mais disons que le combat interne chez Google entre des tablettes sous Android ou des convertibles sous Chrome OS avait jusqu’à présent été gagné par le second…
Google a mis à jour sa gamme de milieu de gamme de la série A avec l’ajout du Pixel 7A. l’appareil est équipé aussi de la puce Tensor G2 , ainsi que d’un écran OLED 1080p de 6,1 pouces pouvant fonctionner jusqu’à 90 Hz. La version de base du téléphone coûte 500 €. Un tarif assez agressif donc, qui comme d’habitude devrait largement baisser avec es promos d’ici 2 à 3 mois.
Le coeur du réacteur nucléaire de Google : la Recherche
Il fallait que Google réagisse rapidement aux avancées de Microsoft / OpenAI. Les premiers éléments de réponses avait été jugés décevant par les analystes. Le géant de la recherche a tenté ici de montrer qu’il en avait largement sous le pied.
On commence par la version actualisée du grand modèle linguistique (LLM) de Google appelé PaLM 2, que Google a annoncée lors de la conférence I/O. Le nouveau modèle alimente déjà 25 services Google, dont le chatbot Bard, et apporte des améliorations en matière de raisonnement, y compris de codage et bien sur la traduction. À propos de Bard, Google a annoncé que son chatbot alimenté par l’IA était désormaisaccessible à tous, que vous ayez été ou non sur la liste d’attente. L’entreprise ajoute également une série de nouvelles fonctionnalités, telles que la prise en charge des langues japonaise et coréenne , mais toujours pas le français !
Google Search bénéficie d’une mise à jour majeure sous la forme d’une fonctionnalité appelée « AI snapshots« . Ceci permet de voir des réponses alimentées par l’IA tout en haut des résultats de recherche pour certaines requêtes, ce qui peut fournir plus de contexte à votre recherche. Vous pouvez ensuite préciser les informations contenues dans l’instantané en posant des questions complémentaires (en mode conversationnel donc), l’idée ici est d’avoir quelque chose de plus intégré que ce qui se fait avec Bing de Microsoft… mais aussi plus intégré avec la publicité !
Google à aussi présenté une nouvelle recherche visuelle (qui existe déjà depuis de nombreuses années mais ici à plus performante, permettant justement de vérifier quand l’image est apparue sur le net et si elle a été générée par une… IA. Google prévoit d’ajouter d’autres fonctionnalités à l’avenir, notamment la génération d’images par IA qui utilise le générateur d’images par IA d’Adobe (Firefly), ainsi que des intégrations avec des services tiers tels qu’OpenTable. Là encore on l’imagine avec des liens de partenariats (rémunéré).
De l’IA pour Android
Google a annoncé qu’il mettait également en place de nouvelles fonctionnalités basées sur l’IA pour Android dont la fonction « Magic Compose », intégrée à l’application Messages qui permettra de répondre à des textes en utilisant des réponses suggérées par l’IA. Comme c’est le cas pour gmail ou les suggestions dans Teams de Microsoft par exemple.
Plus futile, on disposer aussi d’une fonction qui permettra d’utiliser l’IA pour créer votre propre fond d’écran. Au lieu de choisir parmi un ensemble d’options prédéfinies, il sera possible décrire une image, que votre appareil génèrera ensuite à l’aide du modèle génératif d’images de Google. Google lancera le mois prochain une fonctionnalité exclusive aux Pixel qui vous permettra de personnaliser l’appareil avec un nouveau « fond d’écran cinématique » qui ajoutera de la profondeur à l’une de vos photos existantes comme ce que l’on retrouve sur les iPhones depuis iOS16.
Wear OS 4 pointe le bout de son nez
Google se prépare déjà à Wear OS 4. Google a annoncé que la mise à jour de l’OS offrira une meilleure autonomie de la batterie, un moyen pour les utilisateurs de sauvegarder et de restaurer leurs montres, ainsi que de nouvelles fonctions d’accessibilité. Il sera aussi possible de contrôler les médias et de voir des aperçus animés des notifications de l’appareil photo, à partir de votre montre. Wear OS 4 sera disponible dans le courant de l’année sans plus de précision.
Google Photos innove encore
Google Photos se dote d’une toute nouvelle fonction d’édition pilotée par l’IA qui permet d’apporter des modifications importantes à une photo, comme l’amélioration du ciel, le déplacement d’une personne ou d’un objet à l’intérieur de la photo (bluffant sur la démo), ou la suppression de personnes (un peu comme dans la dernière version de Photoshop). Elle sera disponible pour les utilisateurs de Pixel dans le courant de l’année. On voit de plus en plus des fonctions réservés dans un premier temps (uniquement ?) aux utilisateurs des smartphones de l’entreprise…
En réponse aux « Copilot » de Microsoft
Google a également annoncé un nouveau nom pour la suite d’outils d’IA qu’elle apporte à Docs, Sheets, Slides, Meet et Gmail : se sera « Duet AI ». On retrouve ici des fonctions pour aider à composer un e-mail de réponse, de générer des images à partir d’un texte dans Slides, etc. En gros c’est la réponse du berger à la bergère (Microsoft) sur les nombreuses fonctions « Copilot » que ce dernier est en train d’introduire dans la suite M365. Elles ne sont pas disponibles aujourd’hui, il faut s’inscrire en liste d’attente…
Google a annoncé également son concurrent à GitHub Copilot : Studio Bot, un assistant construit sur les grands modèles de langage et spécialisé dans la création d’apps. Il viendra se placer directement dans la barre latérale de l’environnement Android Studio pour donner des conseils, mais aussi proposer du code. Pas beaucoup plus d’information pour l’instant et visiblement un outil pas encore finalisé comme peu l’être son concurrent de Microsoft qui est réellement bluffant, nous avons déjà eu l’occasion d’en parler.
Voici pour cette liste de nouveautés, marquantes à notre avis, liste non exhaustive. Nous aurons l’occasion de revenir sur tout ceci en comparant avec les fonctions que proposera également la concurrence (dont Microsoft) lors du prochain Briefing Calipia.
Au cours des derniers mois, Microsoft a lancé tous azimuts des produits d’intelligence artificielle de Bing Chat (via les technologies ChatGPT) , ses produits Copilot pour l’assistance dans diverses applications, etc. En parallèle, de nombreuses inquiétudes ont été exprimées quant à la manière dont des entreprises comme Microsoft gèrent les questions de confidentialité et d’éthique liées à l’utilisation des produits d’intelligence artificielle. Alors fatalement ces annonces de licenciement de l’équipe Ethique paraissaient assez surprenantes pour ne pas dire plus.
Le 1er mai, dans un billet de blog, Natasha Crampton, Vice Présidente IA chez Microsoft, explique pourquoi cette décision a été prise dans le cadre d’une réflexion globale sur les projets de l’entreprise en matière d’IA responsable :
« l’équipe Éthique et société a joué un rôle important pour nous permettre d’arriver là où nous sommes aujourd’hui. Toutefois, Microsoft avait décidé de procéder à des changements organisationnels au sein de la division de l’IA responsable de l’entreprise. Nous avons insufflé une expertise spécialisée à certaines de nos équipes de recherche et de conception des utilisateurs en transférant d’anciens membres de l’équipe Éthique et Société directement dans les équipes Azure en charge de l’IA. À la suite de ces changements, nous avons pris la décision difficile de réduire le reste de l’équipe Éthique et société, ce qui a affecté sept personnes. Aucune décision concernant nos collègues n’est facile à prendre, mais cette décision a été guidée par notre expérience des structures organisationnelles les plus efficaces pour garantir l’adoption de nos pratiques d’IA responsable dans l’ensemble de l’entreprise. »
350 personnes travailleraient aujourd’hui chez Microsoft d’une manière ou d’une autre sur l’IA responsable. Sur ce nombre, 129 employés travailleraient à temps plein sur ce seul sujet et les autres auraient l’IA responsable comme une partie importante de leurs tâches. Face aux critiques ayant suivi la suppression de l’équipe « Ethique » Microsoft a indiqué prévoir d’embaucher de nouveaux employés et de déplacer certains employés actuels pour qu’ils travaillent à temps plein sur des tâches liées à l’IA responsable, et que davantage d’informations seront révélées sur ces efforts « dans les mois à venir »…
Le billet de blog parle également du Conseil de l’IA responsable de Microsoft, qui se réunit régulièrement pour discuter de ces sujets. Ce conseil est présidé par Brad Smith, président de la société, et Kevin Scott, directeur technique. Il explique également comment Microsoft s’efforce de mettre en place une éthique de l’IA responsable dans toutes les divisions de l’entreprise.
Pas sur que ces éléments suffisent à faire taire les questionnement sur ce sujet, mais c’est en tout cas une prise de parole qui était à minima attendue.
A moins que vous ayez séjourné durant les six derniers mois sur une ile déserte, plus besoin de présenter ChatGPT. On apprenait hier que Microsoft pourrait offrir des versions privées d’instances ChatGPT sur des serveurs dédiés dans Azure aux entreprises. Ces versions du chatbot cibleraient en particulier les banques, les prestataires de soins de santé et à d’autres grandes organisations soucieuse de la conformité réglementaire associée aux usages de ces tâchons, selon un rapport de The Information .
Le produit, qui pourrait être annoncé « dans le courant du trimestre », exécuterait ChatGPT sur des serveurs dédiés enrichi des données interne à l’entreprise, et donc distincts de ceux utilisés par d’autres entreprises ou d’autres utilisateurs individuels utilisant les versions de ChatGPT que Microsoft intègrerait uniquement dans Edge, Windows et ses autres produits. Cela empêcherait que des données sensibles soient utilisées pour entraîner le modèle linguistique de ChatGPT et pour prévenir également des fuites de données involontaires révélant ainsi des secrets de l’entreprise.
Le Wall Street Journal rapportait que des entreprise comme comme Verizon, JPMorgan Chase, Citigroup et Goldman Sachs ont interdits ChatGPT en interne face à ces risques. Bloomberg à rapporté également dans un article du 2 mai que des entreprises telles queSamsung a aussi interdit à ses employés d’utiliser des chatbots comme ChatGPT ou Bard de Google sur leurs appareils professionnels après qu’un employé a introduit un code source interne dans ChatGPT en avril. Les instances privées de ChatGPT pourraient permettre à ces employés de profiter de ce que ChatGPT et d’autres produits d’IA générative font bien sans divulguer d’informations internes à d’autres entreprises ou au public.
Le problème, c’est que fatalement ces implémentations auront un coût qui serait assez élevé : ces versions isolées de ChatGPT pourraient coûter beaucoup plus cher à gérer et à utiliser. Le rapport indique que les instances privées « pourraient coûter jusqu’à 10 fois ce que les clients paient actuellement pour utiliser la version normale de ChatGPT« . Pour rappel Microsoft est autorisé à revendre les produits d’OpenAI selon les termes d’un investissement judicieux pluriannuel de plusieurs milliards de dollars que Microsoft a fait dans OpenAI. Apparemment, les deux entreprises se retrouveront en concurrence pour certains des mêmes utilisateurs.
Dans le même temps on a aussi appris via Computerworld qu’OpenAI est censée disposer d’un produit similaire dans les mois à venir, un abonnement dans lequel les données transmises à ChatGPT par les employés et les clients d’une entreprise ne seront pas utilisées par défaut pour former ses modèles de langage. La principale différence réside dans le fait que la version de Microsoft utilisera la plateforme Azure de l’entreprise comme backend plutôt que des plateformes concurrentes comme Amazon Web Services.
Nous reviendrons sur toutes ces choses lors d’une session dédiée sur les IA Génératives et leurs usages en entreprise lors du prochain Briefing Calipia en juin.