Archives de Catégorie: Divers

Renault + Google : sur les traces de Tesla… ou juste sur la défensive ?

Les constructeurs automobiles, et Renault en particulier auraient ils enfin compris l’intérêt supérieur du logiciel dans les véhicules de demain ? Après avoir passé des années à se séparer de leurs entités logicielles en confiants les ordinateurs de bords aux équipementiers (Valeo pour Renault et Faurecia pour PSA) tandis qu’ils continuaient à privilégier leur R&D et dépôts de brevets pour leurs moteurs … Thermiques (ou hybrides, histoire seulement de faire vivre un peu plus longtemps leurs plateformes à énergie fossile…).

Il leur faut maintenant mettre les bouchés doubles, et plus d’autres choix que de s’allier aux géants du logiciels : Google Automotive ou demain Apple Car, avec un backoffice type Digital Twin confié à Google, Microsoft ou AWS… Et tout ceci pour lutter contre des sociétés telles que Tesla…

Google et le Groupe Renault promettent donc de poursuivre leur partenariat déjà actif depuis pas mal d’années en l’amplifiant dans le développement d’une plateforme logicielle avancée pour les futurs véhicules. Ce qui sera d’après le constructeur au losange un « véhicule défini par logiciel » sera construit sur le système d’exploitation Android Automotive de Google et enverra des données aux serveurs cloud de l’entreprise pour traitement (en remplacement de plusieurs fonctions qui étaient gérées aussi par Azure de Microsoft)

Le premier accord conclu entre les société en 2018 portait uniquement sur l’intégration d’Android dans des millions de nouveaux véhicules. L’annonce d’aujourd’hui est un peu plus complexe. Google et Renault annoncent qu’ils vont travailler ensemble pour créer un « jumeau numérique, pour une intégration plus facile et continue de nouveaux services dans le véhicule et la création de nouvelles applications embarquées (In-Car Services) et hors-bord »

Google et Renault affirment que la collaboration sur le logiciel et le test des nouvelles capacités d’IA dans une simulation virtuelle permettront d’améliorer le fonctionnement du véhicule grâce à des diagnostics améliorés en temps réel. La voiture indiquera au conducteur quand elle a besoin d’être entretenue, voire rectifiera elle-même le problème. En outre, les propriétaires de véhicules pourront créer une expérience personnalisée incluant le comportement de conduite, les destinations fréquemment visitées et les lieux de chargement des VE.

En gros ce que Tesla fait aujourd’hui… et depuis des années maintenant. Mais aussi ce que les constructeurs automobile chinois ont commencé depuis 3 ans…

Ce qui n’est pas un détail, l’entreprise annonce que « des modèles d’assurance proposées pourront être élaborés à partir des données réelles de la voiture elle-même ». Reste à voir avec qui proposer ce type d’assurance, et pourquoi pas Google lui même ? la société de Mountain View a déjà mis un pied dans le secteur aux USA et puis avec la masse de données sur les utilisateurs il sera sans doute très performant… et profitable ! un sacré pavé dans la marre demain pour les assureurs, mais ceci ils le savent déjà, cela risque juste d’arriver un peu plus rapidement que prévu.

Alors Renault aura-t-il adossé à Google les moyens de ses ambitions ? C’est pour cela qu’il créé une entité indépendante « Ampère » avec la volonté de la mettre sur le marché dès l’année prochaine. Une réaction logique lorsque l’on sait que Renault vaut actuellement 9,3 milliards d’euros, bien moins que Stellantis (44 milliards), Volkswagen (53,5 milliards) et, surtout, Tesla (627 milliards d’euros). Dans la course qui s’organise avec l’Américain mais aussi et surtout les chinois, l’argent est là aussi le nerf de la guerre…

Evolutions des règles de Licensing Microsoft vers des clouds concurrents

Nous en parlions ici même en mai dernier, Microsoft pré-annonçait des évolutions concernant les modalités de licensing de ses logiciels dans des clouds non Microsoft. Cette communication faisait suite à des restrictions apportées par l’entreprise aux possibilités offertes à ses clients d’utiliser leurs licences Microsoft dans des clouds autres que Microsoft, lesquelles avaient à leur tour suscité des réactions négatives des clients, concurrents, ainsi qu’une annonce d’enquête par la Commission Européenne… Microsoft avait dû réagir, et c’était Brad Smith, President et Vice Charirman qui s’y était collé, dans un long message qui n’en disait pas beaucoup sur le détail des changements à venir, en particulier sur la question des clouds Google, Amazon et Alibaba.

Microsoft vient d’officialiser les changements proposés via un post de Nicole Dezen, la Chief Partner Officer et Corporate VP de l’entreprise. Parmi les annonces faites par N.Dezen on peut citer :

  • un nouveau bénéfice (de la SA et des licences de souscription), le Flexible Virtualization benefit, qui va permettre à un client d’utiliser ses licences Windows Server pour outsourcer dans un cloud non Microsoft ses workloads, en mode mutualisé ou dédié.
  • un nouveau mode de licensing Windows Server par coeur virtuel et ne nécessitant donc plus de couvrir tous les coeurs physiques du serveur.
  • Tout utilisateur disposant d’une licence Microsoft 365 F3, Microsoft 365 E3 ou Microsoft 365 E5 pourra virtualiser Windows 10 ou Windows 11 sur ses propres serveurs ou sur les serveurs de ses sous-traitants (à l’exception des fournisseurs répertoriés), que le dispositif principal de l’utilisateur dispose ou non d’un système d’exploitation qualifiant (QOS)** – par exemple, Windows 11 Pro – et sans avoir besoin de licences supplémentaires. Plus besoin d’Add-On VDA donc.

Attention toutefois, ces ouvertures ne sont pas possibles pour ceux que Microsoft classent en « Listed Providers », c’est à dire AWS, Google, Alibaba et Microsoft. Pour ceux ci les règles existantes continuent de s’appliquer : pas possible de faire du BYOL, les licences doivent être obtenues de l’hébergeur, renchérissant ainsi d’autant le cout de l’externalisation pour un client qui possédait par ailleurs des licences Microsoft qu’il aurait pu utiliser. Si paradoxalement Microsoft figure en tant que Listed Provider, l’entreprise s’est réservé un échappatoire avec l’Azure Hybrid Benefit (pour Windows Server et SQL Server) qui offre la mobilité aux licences de ses produits (SA ou souscriptions). Bref, ces modifications risquent de ne pas suffire à éteindre la contestation et les enquêtes lancées à Bruxelles….

Restructuration de l’équipe Metavers de Microsoft

Alex Kipman, acteur historique chez Microsoft (entreprise qu’il a rejoint en 2001) autour des techno telles que Kinect, Hololens et patron de l’équipe Metavers de l’entreprise (Hololens, Mesh …) va quitter l’entreprise. Ce départ se situe à la fois dans le contexte des incertitudes autour d’Hololens, en particulier liées aux difficultés rencontrées sur le marché de La Défense américaine(voir ici et ), ainsi que suite à des rumeurs concernant de nombreuses plaintes de comportements inappropriés d’Alex Kipman vis à vis de collaboratrices Microsoft.

Le départ d’Alex Kipman engendrerait une réorganisation de son équipe, avec un partage en 2 :

  • Le groupe « Mixed Reality Hardware » de Microsoft rejoindrait l’organisation « Windows & Devices ».
  • Le groupe « Présence et collaboration en réalité mixte » serait intégré à l’organisation Microsoft Teams.

Si cette nouvelle organisation se confirme, elle mettra fin à un chapitre d’intégration logiciel + matériel pour les solutions Metavers de Microsoft, et elle consacrera le retour à une organisation plus classique chez Microsoft, avec les 2 piliers Windows et Teams qui se partageront la dépouille. Concernant Teams, ce ne sera qu’une demie-surprise après les précédentes annonces d’intégration de Teams et Mesh.

Microsoft analyse le comportement de ses employés en situation de télétravail

A l’occasion de la session sur l’évolution du travail hybride, la semaine dernière, Satya Nadella, le patron de Microsoft est revenu sur les modifications du comportement des employés de Microsoft en situation de télétravail. Comportement analysé via les outils de l’éditeur intégrés pour rappel à l’offre Office 365.

Satya Nadella, en a profité pour rappeler l’importance de fixer des limites au travail à distance. Les résultats des analyses indiquant qu’un troisième pic d’activité est apparu : les employés se reconnectant ainsi plus souvent le soir après le diner pour travailler. Il est important pour le patron de Microsoft que ses employés ne se sentent pas obligés de répondre aux communications en dehors des heures de travail…

« Historiquement, il y avait des pics d’activité juste avant le déjeuner et juste après le déjeuner. Il semble qu’il y ait maintenant un troisième pic le soir après le dîner« .

Il est difficile de déterminer la cause de ce pic car plusieurs facteurs entrent en jeu. Certains employés peuvent préférer faire une pause pendant la journée pour passer du temps seul ou avec leur famille, puis se reconnecter pour effectuer des tâches plus tard dans la nuit. D’autres membres du personnel peuvent se trouver dans des lieux situés dans un fuseau horaire différent de celui du reste de leur équipe (éléments assez fréquent dans une multinationale comme Microsoft) , ce qui repousse les heures de travail les plus importantes à plus tard dans la journée. Où que tout simplement les personnes travaillent plus.

Quel que soit le raisonnement, le PDG de Microsoft, a déclaré qu’il était important de fixer des limites :

« Nous pensons à la productivité à travers la collaboration et les mesures de rendement, mais le bien-être est l’un des éléments les plus importants de la productivité. Nous savons ce que le stress fait. Nous devons apprendre les soft skills, les bonnes vieilles pratiques de gestion, pour que les gens aient leur bien-être pris en charge. Même si un employé reçoit un du PDG le week-end il ne doit pas se sentir obligé d’y répondre !« 

Le travail à distance a contribué à la formation d’un troisième (petit) pic de productivité en formation sur ce schéma

Avec de nombreuses personnes en situation de télétravail, l’équilibre entre vie personnelle et vie professionnelle est devenu plus clairement plus compliqué. Bonne nouvelle, ceci est de plus en plus pris en compte par toutes les organisations (y compris américaines !). Surprenant ? sans doute pas tant que cela. Ne nous y trompons pas, paradoxalement peut-être, les outils de mesures les mettent aussi face à leurs responsabilités face un burnout éventuel et qui sait un recours aux avocats, pratique ô combien addictive de l’autre côté de l’atlantique…

Avec les sanctions contre la Russie, un danger de balkanisation de l’Internet ?

Les sanctions contre la Russie se multiplient sur Internet, et les géants du numérique ne sont pas (pour une fois) les derniers à prendre des actions. Ce qui tranche habituellement avec leurs pratiques plutôt conciliantes avec les dictatures en places au nom du « Business » bien entendu… pour s’en convaincre, il suffit de voir leurs pratiques passées en Russie mais actuelles en Chine, donnant très largement accès à leurs Cloud au pouvoir en place dans ces pays.

Mais aujourd’hui ces géants ont pris positions pour une fermeture de leur services (où de leurs nouvelles ventes, comme c’est le cas pour Microsoft par exemple, qui craint, on l’imagine l’arme russe de la légalisation piratage…). Aujourd’hui, les sanctions numériques contre la Russie sont actives, coupant le pays de la fourniture de matériel, de logiciels et de services. Le pays serait à deux mois de manquer de stockage dans le Cloud… Mais si la pression exercée sur Vladimir Poutine est bienvenue, le Massachusetts Institute of Technology (MIT) prévient que si la situation perdure, elle pourrait déboucher sur une balkanisation à terme d’Internet.

Aujourd’hui, ces sanctions jouent paradoxalement le jeu de Poutine, qui bloque l’accès à un certain nombre de sites pour maintenir ses citoyens dans l’ignorance de la réalité de la guerre. Ainsi le gouvernement russe à bloqué Facebook, Instagram, Twitter allant même jusqu’à déclaré que Meta la maison mère de Facebook et Insta était une « organisation extrémiste ». Mais c’est vrai que Poutine sait mieux que personne que ces réseaux sociaux sont capables de forger des convictions, l’élection de Donald Trump avec le support de la russie en est une belle démonstration.

Pour continuer d’utiliser ces services, le peuple russe, en tout cas une partie de ce dernier, utilise des VPN permettant de contrer la censure, pour combien de temps encore ? Mystère. L’usage de ces derniers pouvant être limité par l’état comme c’est le cas actuellement en Chine.

Ces actions combinées font craindre, pour le MIT, la balkanisation d’Internet, dans lequel, au lieu de l’internet mondial unique que nous connaissons aujourd’hui, nous aurions un certain nombre de réseaux nationaux ou régionaux qui ne se parlent pas et qui utilisent peut-être même des technologies incompatibles. Mécanisme amplifié demain avec des Metavers incompatibles dont on nous dit qu’ils seront l’avenir d’Internet. Et c’est déjà le cas pour la Chine et l’Iran par exemple : si ils utilisent toujours la même technologie Internet que les États-Unis et l’Europe, ils n’ont accès qu’à certains de ses services. Si ces pays mettent en place des organes de gouvernance rivaux et un réseau rival, seul l’accord mutuel de toutes les grandes nations du monde pourrait le reconstruire. L’ère du monde connecté serait alors révolue…

Alors jusqu’où aller en terme de blocage des accès sans jouer le jeu de Poutine ? Pas simple.

Microsoft annonce la réouverture complète de son campus à Redmond

Après 2 années de fermeture quasi totale, Microsoft vient d’annoncer la réouverture de son campus principal à Redmond pour le 28 février. Dans le message posté par Chris Capossela (CMO) il est indiqué que «  qu’à partir de cette date, les employés disposeront de 30 jours pour adapter leurs habitudes et adopter les préférences de travail dont ils ont convenu avec leurs responsables ». Le nouveau campus Microsoft dans la Silicon Valley réouvrira ses portes à la même date.

Le travail à distance n’a pas fait son apparition chez Microsoft avec le COVID. La réouverture des campus le 28 février ne va pas donc marquer un retour au présenciel pour tous, ni même un retour aux conditions pré-COVID. Les modalités de travail vont s’inscrire dans ce mode hybride auquel Microsoft attache beaucoup d’importance, pour ses collaborateurs comme pour ses clients. Par ailleurs, Microsoft maintient en ligne ses différents événements, comme la prochaine conférence partenaires, Inspire 2022 prévue les 12 et 13 juillet prochains.

Après Meta qui a annoncé une réouverture de ses bureaux pour le 28 mars 2022, Microsoft est le second GAFAM à se lancer. De leurs côtés, Alphabet et Apple n’ont pas de dates annoncées pour la réouverture de leurs campus. Prévues initialement pour février, celles-ci ont été annulées en décembre avec le montée en puissance du variant Omicron, sans qu’aucune nouvelle date ne soit fixée.

Horizon Worlds : pas touche les avatars !

source : oculus.com

Meta vient d’annoncer la mise en place par défaut dans son metavers Horizon Worlds d’un espace vital cylindrique 4 pieds (1,2 m environ) autour de chaque avatar à l’intérieur duquel aucun autre avatar ne peut pénétrer. Cette limite personnelle (Personal Boundary) « empêche les avatars de s’approcher à une certaine distance les uns des autres, créant ainsi plus d’espace personnel pour les gens et permettant d’éviter plus facilement les interactions non désirées« . Selon le site Ars Technica, cette mesure viserait à empêcher le harcèlement et les agressions dans le monde virtuel, qui ne sont pas liés spécifiquement au metavers de Meta, mais auraient déjà fait l’objet de signalement dès 2017 dans une ancêtre du monde virtuel, l’appli Rec Room. En décembre 2021 sur Horizon Worlds, selon le site The Verge, une beta testeur s’est plainte d’avoir été harcelée dans l’espace de VR : « Non seulement j’ai été pelotée hier soir, mais il y avait d’autres personnes présentes qui soutenaient ce comportement, ce qui m’a fait me sentir isolée« .

Tout ceci alors que la réalité virtuelle n’en est qu’à son tout début et que les acteurs tech sont en train d’en faire leur cheval de bataille pour les années à venir. On pourrait sourire à ces questions de pelotage d’un avatar par un autre, mais si les réseaux sociaux doivent nous avoir appris quelque chose, c’est que les meilleures intentions du monde (rappellez-vous la Mission de Facebook : « Donner aux gens le pouvoir de créer une communauté et de rapprocher le monde ») peuvent aboutir à des débordements gravissimes. De tels débordements peuvent être imputés au mieux à l’incapacité des opérateurs de contrôler leur création, au pire à une volonté délibérée de privilégier leur business par rapport à la protection de leurs utilisateurs. Y a t’il des raisons pour que demain dans le metavers les mêmes causes produisent des effets différents ?

Incroyable : le Wifi 7 arrive…

Alors que de très nombreuses personnes ou entreprises n’ont pas encore effectué de mise à niveau vers le Wi-Fi 6, sans parler du 6e qui a fait sont apparition il y a quelques mois, on commence à parler, et ce n’est pas une surprise, du Wi-Fi 7. Histoire aussi sans doute de concurrence avec les standards de la 5G autour de l’utilisation de la même bande de fréquence du 6 Ghz et fatalement de la confusion que cela entraine aussi en particulier autour de l’IoT…

Mais commençons tout d’abord sur un bref rappel sur les versions de Wifi, histoire de simplifier (je plaisante) tout cela…

Auparavant, le WiFi était désigné par le nom de la spécification originale de l’Institute of Electrical and Electronic Engineers (IEEE) pour les réseaux sans fil, à savoir 802.11. Des lettres ont ensuite été utilisées pour indiquer les différentes générations, et donc, en gros les différentes vitesses. Mais pas simplement a, b, c, d, e bien sûr dans l’ordre alphabétique… pourquoi faire simple lorsque l’on peut faire compliqué : la séquence réelle était donc d’abord b, puis a, g, n, ac, et ax. Et je passe sous silence les autres sous normes dédiés à des usages spécifiques (pour de la faible consommation, ou forte distance par exemple)

La WiFi Alliance , organisation qui regroupe cette fois les industriels du secteur, a fini par se rendre compte de l’absurdité de ces appelations. Elle a donc choisi de passer à une simple séquence numérique à partir de la version ax qu’elle a appelée Wifi version 6, et dans la foulée elle en à profité pour rebaptiser rétroactivement les anciennes normes : le Wifi version 802.11b est devenu Wifi version 1, 802.11a le Wifi 2, etc pour finir avec le 802.11 ac devenu Wifi 5 et ax Wifi 6 donc. C’est tout de même plus simple. Oui mais peut-être trop simple ?

Alors le Wifi 6e est arrivé, qui est toujours 802.11ax (vous suivez ?) et théoriquement identique en vitesse au simple Wi-Fi 6, mais sur la bande des 6 Ghz (en fait très peu de différence de vitesses pour les rares appareils qui le supporte). Et puis voilà le WiFi 7 qui arrive, pour les puristes (et les nostalgiques des appellations en 802.11) il est techniquement connu sous le nom de 802.11be.

Mais alors que nous promet le Wifi 7 ?

Le WiFi 7 est destinée aux cas d’usages encore plus exigeants, notamment la réalité virtuelle et la réalité augmentée. Les fameux accès au Metavers demain. L’idée est d’offrir de bonnes capacités pour les applications en temps réel avec des vitesses de données élevées.

Ainsi, la vitesse de transfert de données sera théoriquement de 46 Gbps même si les premiers chiffres réels atteignent environ « que » 40 Gbps. Cela signifie que l’on pourra techniquement télécharger un fichier vidéo de 25 Go en quelques secondes. A condition bien sûr que les serveurs et notre connexion internet suivent… mais on ne va pas nous refaire la pub de la vidéo dans l’ascenseur 🙂

Mais surtout l’autre avantage du WiFi 7 est qu’il double le nombre de flux MIMO, qui passe de 8 à 16. Cela pourrait permettre à davantage d’appareils de bénéficier de connexions simultanées à haut débit et d’augmenter également la couverture Wifi des lieux. Aujourd’hui, pour rappel la plupart de nos smartphones et PC ont une configuration MIMO (Multi-input Multiple-outputs) dite de 2×2 donc deux antennes pour la réception (entrée) et deux pour la transmission (sortie). Un routeur 16×16 pourrait ainsi permettre de connecter davantage d’appareils avec des flux 2×2 simultanés avec des vitesse de transfert de données élevée et surtout des interruptions minimales.

Bon alors, je change de routeur Wifi ?

Pas de précipitation rien visiblement avant l’année prochaine, et encore moins dans le grand public, uniquement des appareils professionnels haut de gamme dans un premier temps. La nome ne sera également disponible que dans les pays autorisant l’utilisation de la bande 6GHz (la même bande que celle nécessaire au Wi-Fi 6e). En France, l’autorité de régulation : l’ARCEP à validée le 13 décembre dernier son usage, après une autorisation européenne de fin juin 2021. reste donc à attendre les équipements…

Fin de la pluie des résultats Q4 2021 pour les Gafams

La publication des résultats trimestriels s’est donc terminée hier 3 février avec ceux d’Amazon. Le moment est donc venu pour une petit récap.

Globalement les trimestres se suivent et se ressemblent. Même si on sait que les arbres n’atteignent jamais le ciel on reste toujours sidéré par les progressions affichées par les géants du numérique. Quasiment aucun segment n’est en reste sur ces hausses vertigineuses : ventes aux entreprises et au grand public, hardware, software, services, équipements de datacenter, équipements utilisateurs, réseaux… Ni la pandémie ni les difficultés d’approvisionnement en composants ne semblent peser sur leurs activités !

Seule Meta a reçu un accueil très mitigé, avec un résultat net en recul, des indicateurs de fréquentation de ses plateformes en légère baisse (une première pour l’entreprise depuis sa création). L’avertissement lancé par David Wehner, le CFO (Chief Financial Officer) de Meta, lors de l’annonce des résultats, d’un probable manque à gagner de 10 milliards de dollars sur le revenu publicitaire en 2022 à cause du méchant Apple et des nouvelles règles imposées sur iOS, ont fini de doucher l’enthousiasme.

La synthèse ci dessous illustre cette situation :

Voyons le détail par entreprise.

Lire la suite

Pourquoi le Web 3 n’est pas (à mon avis) prêt de voir le jour…

Nous entendons de plus en plus parler du Web 3 qui serait soit-disant l’évolution majeure du Web tel qu’on le connait aujourd’hui avec, selon ses partisans, une plus large autonomie des utilisateurs grâce à un système décentralisé. Autre objectif poursuivi : une dépendance bien moindre, voire nulle, aux GAFAMS… tout un programme. Alors une réalité et pour quand ? Ou buzz marketing ? Bon vous l’avez compris, ce n’est pas à mon avis pour demain, mais développons un peu…

Résumé des épisodes précédents

Commençons par le début avec ce nom de Web 3. Quelques années après le début d’internet sont arrivés les sites Web et le fameux protocole ” HTML », c’était le Web 1.0. A cette époque le web ne présentait qu’un contenu purement informatif et globalement très statique. Les communications étaient simples elles allaient de notre poste via notre navigateur vers un seul serveur Web qui fournissait les informations souhaitées provenant toutes du site en question. Mais cela c’était au siècle dernier, le temps des dinosaures en informatique 🙂

Peu après, les différents sites ont commencé à agréger des informations provenants d’autres sites, puis sont apparus les médias sociaux. On a alors parlé de Web “participatif”, le contenu est devenu de moins en moins statique et les relations entre sites se sont multipliées pour offrir des services composites tels qu’on les connait aujourd’hui sur Internet, c’est le Web 2.0. 

Puis le concept de Web 3 est arrivé…

En 2014 le terme de Web 3 apparait sur le net, un anglais du nom de Gavin Wood, connu pour avoir créer une blockchain de crypo monnaie : l’Etherum. Son idée : developper une évolution du Web s’appuyant sur la Blockchain et permettant ainsi de s’affranchir de sites web centraux pour échanger et concevoir de nouveaux services. Avec dans la ligne de mire non seulement les GAFAMS, qui trustent nos différentes actions sur internet en étant des points de passage obligés, mais aussi des services plus techniques comme les DNS par exemple. Interessant en effet sur le papier d’utiliser ici la Blockchain ! Les plateformes comme Facebook ou Google sont aujourd’hui incontournables pour utiliser la quasi totalité des services sur le Web et on imagine assez bien leurs plans pour le rester demain dans les Metavers ! Tout ceci à coup de milliards de $.

Ainsi donc le Web 3 utiliserait pour cela la Blockchain, ce registre décentralisé qui contiendrait alors tous les échanges entres utilisateurs ou utilisateurs et sites marchands sans organisation centrale, sans intermédiaire et de façon sécurisée, comme le sont les cryptomonnaies aujourd’hui via un système cryptographique de validation par les utilisateurs à chaque transaction. Bien sûr, cela permettrait également de sécuriser les échanges inter-serveurs. La gestion des identités et des profils utilisateurs serait elle aussi basée sur ces technologies, donc plus besoin de réaliser une connexion via un compte Facebook ou Google par exemple : on parle ici d’identités distribuées et autonomes qui resteraient donc à la main de l’utilisateur.

Si je suis très critique sur le Web 3 en général, je le suis beaucoup moins vis à vis des identités autonomes et distribuées, qui elles ont, selon moi, un bel avenir et peut-être à moyen terme. Nous avons déjà eu l’occasion de parler de tout cela lors du Briefing Calipia de juin 2021, où encore sur le blog.

Pourquoi y croire ? Et bien c’est simple : l’engagement de Microsoft dans cette technologie (Microsoft reste l’acteur majeur des identités dans le domaine des entreprises avec l’Active Directory) mais aussi sa volonté de ne pas laisser le champs libre à Facebook et Google avec leurs systèmes de « tiers de confiance » dans la gestion des identités (les fonctions « se connecter avec Facebook » ou « se connecter avec Google » qui fleurissent et constituent de superbes aspirateurs à données personnelles… )

Alors le Web 3 c’est pour quand ?

C’est la question… Question à laquelle j’aurais tendance à réponse : pas pour tout de suite et ceci pour trois raisons principales :

  1. Aucune application de taille importante au delà de la démonstration technologique n’a vue encore le jour avec cette technologie. Or depuis 2014, on s’attendrait tout de même à voir beaucoup plus d’expérimentations.
  2. Les GAFAMs ne se précipitent pas dans cette technologie et au vu des objectifs du Web 3 on comprend aisément pourquoi. Donc une chose est sure ils ne seront pas promoteurs, hors aujourd’hui serait-il possible de mettre en place une évolution (révolution) sans eux ? (et sans les BATX aussi au passage) ?
  3. On peut aussi estimer que sur le prétexte de redonner du pouvoir aux utilisateurs, il ne ferait que de déplacer leur dépendance en passant d’acteurs techniques comme effectivement les GAFAMs aujourd’hui à des acteurs financiers comme le célèbre fond américain de capital risque Andreessen Horowitz, aujourd’hui largement à la manœuvre sur la promotion (et le financement) du Web 3…

Enfin on peut même ajouter une raison supplémentaire : les régulateurs ont aussi fait part aussi de leurs inquiétudes concernant certains aspects du projet, en particulier la finance décentralisée et la transparence des échanges qui permettrait de favoriser les activités illégales. Les États Unis qui disposent actuellement très majoritairement des DNS racines ne sont sans doute pas à mon avis prêt non plus à lâcher le pouvoir qu’ils ont…

« Entrées précédentes