Archives des étiquettes : top

[La Lettre Calipia] Le CES 2016, un petit résumé à chaud

CES 0Comme chaque année nous assistions avec quelques clients à la grande messe des nouvelles technologies qu’est le Consumer Electronic Show, salon gigantesque (à Las Vegas) qui permet de capter des indications intéressantes sur les évolutions potentielles du marché des nouvelles technologies. D’autant plus que le CES débute par deux journées de conférences réservées à la presse et aux analystes durant lesquelles il est possible de glaner des informations intéressantes en avance de phase. Et comme du fait de notre production éditoriale (La Lettre, la Synthèse et le Blog) nous sommes considérés par le CTA (Consumer Technology Association) qui organise le CES depuis 49 ans comme des « Industry Analysts » nous avons pu bénéficier de ces informations. Et assister au « CES Unveiled », petit salon qui regroupe une bonne centaine de sociétés présentées comme les plus innovantes, avec ce qui ne gâte rien de superbes buffets et des boissons à volonté.

 

Vous avez dit gigantesque ?

CES 1Outre l’aspect salon, qui avec 3 670 exposants (20 000 nouveaux produits), 170 000 visiteurs, dont 50 000 venant de 153 pays et une surface d’exposition de plus de 205 000 mètres carrés (soit 20 hectares ou 50 terrains de football américain) répartie entre le Las Vegas Convention Center et Sands Expo and Convention Center de l’hôtel Venetian, ce qui en fait le plus gros évènement mondial traitant des technologies de l’information, le CES est aussi une occasion incroyable pour les exposants de faire connaître leurs innovations :

  • Avec l’Eureka Park, zone dédiée dans un hall regroupant 500 start-up de 29 pays, et une forte présence française avec le label « French Tech » regroupant plus de 160 entreprises dont 66 startups dans l’Eureka Park dont plusieurs furent distinguées lors des « Innovation Awards ».
  • Avec de nombreux distributeurs (83% des top retailers), société de capital risque et dirigeants d’entreprises (environ 50 000) à la recherche de la prochaine bonne idée d’investissements ou de produits.
  • Mais aussi avec une couverture presse impressionnante avec environ 6 000 journalistes et analystes, plus d’1,2 millions de références twitter au hashtag #CES2016, et plus de 15 milliards de références sur les réseaux sociaux.

En gros si vous vous voulez vous faire connaître, investir ou observer le marché, un séjour à Las Vegas pour assister au CES est probablement une bonne idée.

 

Les principaux enseignements

Le fait d’aller tous les ans au CES permet de voir que certaines innovations ne résistent malheureusement pas aux réalités du marché. Par exemple les TV 3D, qui furent largement mis en avant il y a deux ans ont complètement disparu cette année.

L’originalité de cette cette édition du CES est la montée en puissance de technologies présentées comme innovantes lors des précédentes éditions.

Voici les trois principaux ressentis de notre visite dans le Nevada.

 

Des capteurs partout, même dans les endroits les plus improbables

Tout ce qui touche aux capacités de connexion, reconnaissance et analyse de phénomènes physiques divers (vision, parole, bruit, mais aussi des paramètres physiques, températures et autres) a été démontré lors de ce CES. 2016 devrait donc voir apparaître de nombreuses solutions atteignant un véritable niveau d’usages grand public.

On assiste dans le domaine des objets connectés à un changement de paradigme, la question n’étant plus « comment techniquement le faire » mais plutôt « qu’est-ce qui va être utile ».

CES 2Dans ce domaine de très nombreuses solutions « historiques » ont été présentées, avec de très nombreuses « Smart Watch », d’innombrables bracelets et autres dispositifs vous informant de votre rythme cardiaque et du nombre de pas parcourus dans la journée, avec une forte progression des « wearables » et des solutions de suivi médical.

Subsiste un certain nombre de questions concernant les choix effectués pour cette question de l’utilité. Faire de son réfrigérateur le hub de la CES 3maison (Samsung) ou avoir un Sex Toy (B.Sensory) connecté ne me semblent pas vraiment des priorités, mais bon, tout est question de point de vue.

Un autre point important est la standardisation des modes de communications avec les objets connectés (et donc les capteurs). Ce qui ne semble pas être une préoccupation des sociétés : Par exemple la société (française) B.Sensory qui a reçu une distinction pour la plate-forme de communications IoT n’est pas du tout préoccupée par cette question.

On assiste donc ici à un marché potentiellement très prometteur mais qui est en phase de petite adolescence avec tous les risques que cela comporte.

 

Des investissements concernant les technologies prédictives (surtout pour les voitures)

Qu’il s’agisse de la reconnaissance visuelle (par ex pour les véhicules à conduite sans chauffeur), de la reconnaissance de la parole (avec un taux d’erreur de 100% en 1995 à 5% en 2015), de la capacité d’identifier des sentiments dans des paroles, beaucoup de solutions ont été présentées.

Lors de cette édition du CES l’application la plus marquante de cette utilisation des recherches en Intelligence Artificielle fut sans conteste liée à l’automobile, afin de répondre aux doutes et aux craintes liés au concept d’automobile autonome.

CES 4Si Google est perçu comme innovateur dans ce domaine, ses Google Car ayant parcouru plus d’1,6 millions de kilomètres, des acteurs sérieux investissent et commencent à communiquer. On peut citer Toshiba qui crée deux centres de recherches dédiés à la sécurité des objets autonomes (avec des tests allant jusqu’à un milliard de kilomètres, et 16 projets de recherche intégrant des étudiants de Stanford et du MIT), Bosch avec un prototype de voiture, et au moins une dizaine d’autre petites sociétés proposant des solutions d’assistance plus modeste à la conduite.

Tous ces travaux concernant l’Intelligence Artificielle me font un peu frémir, mais bon, c’est une tendance qu’il ne faut ignorer.

 

Une maturation des technologies émergentes

La baisse des revenus liés aux ventes de PC, de Tablettes et de Smartphones pourrait être compensée par une maturation de technologies hier encore considérées comme émergentes et qui ont été largement représentées lors de cette édition 2016 du CES. Certes le chiffre d’affaire généré par ces technologies reste ridicule par rapport a celui du triumvirat PC – Tablettes – Smartphones (estimé à 551 milliards de dollars en 2016), mais ce sont néanmoins des secteurs à forte croissance.

La réalité virtuelle

CES 5Nous avons pu constater que de nombreux stands proposaient des solutions CES 6concurrentes à la plate-forme Oculus Rift, mais surtout que cette dernière était utilisée par un très grand nombre de sociétés proposant des solutions logicielles exploitant la réalité virtuelle.

Ce marché a connu en 2015 une croissance de 440% pour un chiffre d’affaire de 540 millions.

 

 

 

 

 

Les télévisions 4K Ultra HD

CES 7

Les stands les plus spectaculaires du CES sont sans contestes ceux des grands acteurs de l’électronique grand public, CES 8tels que Samsung, LG, Panasonic, Toshiba, Philips, ou Sony. Et la vedette est le téléviseur, qui est fin, incurvé ou plat, 8K et immense (98 pouces). C’est le produit d’appel qui fait rêver, et sert de locomotive au marché du téléviseur 4K UHD qui connaît une croissance d’environ 65% par an avec un potentiel important puisqu’il ne représente en 2015 que 13,9% du marché pour un chiffre d’affaire de 11 milliards de dollars et 13 millions d’unités.

Les « Wearables »

CES 9Dans la droite ligne de l’édition 2015, ce sont les montres intelligentes (Smart Watch) et les bracelets dédiés au suivi de l’activité physique qui ont représenté la plus grosse part des dispositifs exploitant des capteurs.

Ce marché est d’ailleurs en forte croissance (22% en 2015) et devient significatif avec :

  • Pour les Smart Watchs 3,7 milliards de chiffre d’affaire avec 13,6 millions d’unités vendues ;
  • Pour les bracelets 1,3 milliards de chiffre d’affaire avec 17,4 millions d’unités vendues.

Une simple règle de trois amène assez naturellement à la conclusion qu’il vaut mieux aussi donner l’heure…

 

Les drones

CES 10Il y a trois ans seul Parrot présentait des drones. Cette année plus de 40 sociétés avaient des offres, CES 11plus ou moins spécialisées adressant tant les besoins professionnels (surveillance, manutention, etc.) que les attentes grand public. Ce marché très dynamique (115% de croissance en 2015) représente un chiffre d’affaire de 953 millions de dollars pour 2,9 millions d’unités vendues.

 

Les imprimantes 3D

CES 12Contrairement aux téléviseurs 3D, qui ont quasiment disparus du salon après un petit tour de piste il y a deux ans, l’engouement pour les imprimantes 3D se confirme, CES 13avec une très forte représentation en 2016, et des innovations intéressantes telles que des dispositifs « tout en un » (scan et impression) ou la possibilité d’imprimer des pièces en fibre de carbone, en métal de météorite, etc.

Ce marché en forte croissance (38%) représente 152 millions de dollars pour 179 000 unités vendues.

 

Les maisons intelligentes

CES 14L’internet des objets semble avoir donné un second souffle à l’historique marché de la domotique, la maison (comme la ville) devenant CES 15« intelligente », avec un nombre impressionnant de produits exposés lors de ce CES 2016 : Des ampoules qui veillent sur notre sommeil ou font haut-parleur, des aspirateurs qui nous libèrent de tâches ingrates, des réfrigérateurs qui notifient la liste des courses à faire, des thermostats qui optimisent le chauffage, des caméras qui identifient les visages sur le pallier, des capteurs capables de dire si une porte ou une fenêtre a été ouverte ou encore si un cycle de lavage est terminé… Face à la multitude de ces objets connectés, les marques cherchent cependant à trouver un hub unique. Et la télévision est envisagée comme une piste sérieuse.

Ce marché de 1,2 milliards de dollars connaît une croissance enviable de 18%.

 

Mais le CES 2016 c’était aussi

Une forte visibilité d’Intel, les limousines de bon goût, un « strip » toujours aussi fascinant, une bonne ambiance, les petits déjeuners gargantuesques au buffet du Bellagio, des galeries commerciales hallucinantes, quelques dollars perdus au casino, l’occasion de rencontrer la Nasa, le décalage horaire, et somme toute une belle parenthèse ensoleillée dans notre quotidien si souvent grisâtre à cette époque de l’année.

CES 16

 

Sur ces quelques considérations fort peu professionnelles, permettez moi de vous souhaiter une heureuse année 2016.

 

Si vous souhaitez réagir à cet article, tout en restant courtois SVP, vous pouvez me contacter à l’adresse ci-dessous.

Pierre BUGNON – Directeur Associé

Pierre.bugnon@calipia.com

[La Lettre Calipia] Mettre en œuvre Azure : combien çà va me coûter ?

Microsoft Azure est la première famille de solutions Microsoft facturée à l’usage. Il est donc normal que le questionnement sur le coût d’une solution mise en œuvre dans Azure se pose. D’autant qu’Azure est une famille de services de natures très différentes (stockage, machine virtuelle, bande passante, développement d’applications mobiles …) dont la notion d’usages est variable selon le service. Par ailleurs, la multitude de services composant la famille Azure induit de la complexité en termes d’assemblage qui renforce le sentiment d’opacité sur le coût.

Nous allons dans cet article revenir sur les possibilités offertes par les contrats Microsoft de consommer des services Azure, sur les principes de construction de solutions sur la base de services Azure, et les outils existants proposés par Microsoft en termes d’estimation des couts.

Lire la suite

[La Lettre Calipia] Les mises à jours en continu : inéluctable ?

(Article issu de La Lettre Calipia N°126. Abonnement gratuit sur demande : calipia.com/lettre.html)

Avec l’arrivée chez Microsoft de Windows 10 et surtout le changement dans le mode   de diffusion des nouvelles versions du système d’exploitation, la question des mises à jour en continu est un des sujets brulants de la rentrée pour bon nombre de directions informatiques.

Se posent alors les questions suivantes :

  • Comment gérer au mieux les mises à jour en continu ?
  • Cette tendance de fond est-elle inéluctable ou peut-on l’éviter ?
  • Comment continuer de valider les mises à jour de systèmes d’exploitation et d’applicatifs avant que l’éditeur ne les imposent directement aux utilisateurs ?
  • Si l’éditeur nous offre une mise à jour en différée par rapport à sa mise à disposition pour le grand public, aura-t-on assez de temps pour valider sa compatibilité applicative avec l’ensemble du socle logiciel présent sur les postes de travail ?
  • Quels seront les changements que nous devront opérer en interne pour qualifier beaucoup plus rapidement une nouvelle version du système de base ?
  • Alors que les entreprises attendent parfois plus de 12 ans pour changer de version de Windows (passage de  Windows XP au déploiement de Windows 7 par exemple) et même si l’éditeur nous promet de moindres difficultés, est-on prêt pour faire évoluer nos systèmes au fil de l’eau ?
  • Les éditeurs et Microsoft en tête, ne seront-ils pas être obligés de faire machine arrière ?

Lire la suite

MPSA : un contrat pour les remplacer tous !

Début 2014, Microsoft introduit un nouveau contrat de licences en volume pour les entreprises, le MPSA (Microsoft Product and Services Agreement). Toute modification de contrat de licences en volume est pour Microsoft un sujet d’importance stratégique. Selon le dernier rapport annuel de Microsoft concernant sa dernière année fiscale (01/07/2014 au 30/06/2015), les licences en volume comptent pour 44% des 93 milliards de dollars de chiffre d’affaires réalisé !MS FY15Source : Microsoft, annonce résultat Q4 FY15 (http://www.microsoft.com/investor/EarningsAndFinancials/Earnings/PressReleaseAndWebcast/FY15/Q4/default.aspx)

Microsoft a donc introduit dans le courant 2014, le nouveau contrat avec un objectif (à moyen terme) très ambitieux d’en faire le seul contrat (au lieu des différents contrats existants : Open, Select Plus, AE…).

Mais avant d’atteindre cet objectif final, Microsoft a adopté une démarche progressive d’évolution.Le 1er septembre 2015 constitue une nouvelle étape dans cette évolution, avec l’introduction de nouvelles possibilités assez intéressantes pour les organisations. Nous allons dans cet article revenir sur le positionnement du MPSA et nous ferons le point sur l’état actuel de la transformation du paysage des contrats de licences en volume Microsoft.

Lire la suite

[La Lettre Calipia] 10 questions sur Windows 10

(Article issu de La Lettre Calipia N°123. Abonnement gratuit sur demande : calipia.com/lettre.html)

Windows 10 devrait être disponible en version finale à la fin du mois de juillet 2015. De quoi donner un peu de temps aux constructeurs pour intégrer le système sur les nouveaux PC vendus dès septembre 2015.

Si cette rentrée est une période clé, avec celle de noël pour les ventes dans le grand public qu’il ne faut rater à aucun prix, reste une inconnue de taille : comment « le marché » va accueillir ce nouveau système ? L’engouement sera-t-il suffisant pour enrayer la chute des ventes de PC ? Cette nouvelle version saura-t-elle faire oublier Windows 8 et Windows 8.1, car c’est là le cœur du problème pour l’éditeur. Saura-t-il redorer les lettres de noblesse de Windows face à une concurrence qui n’a jamais été aussi forte et vraiment multiforme ?

Nous nous proposons dans les lignes qui suivent d’apporter un éclairage sur ces points au travers de 10 questions essentielles, selon nous, pour évaluer sa réussite en entreprise.

 1 – Quelles applications pour Windows 10 ?

On l’oublie parfois, mais c’est vraiment une question déterminante pour le succès ou l’échec d’un système d’exploitation. Peu de personnes achètent un système pour sa « beauté » à part quelques Geeks sans doute (nous en sommes J). La migration simplifiée n’est pas non plus une raison suffisante. Le prix de la licence n’est pas également un critère déterminant, ce dernier n’intervenant que pour moins de 5% du coût global d’une évolution de système.

Au risque d’enfoncer des portes ouvertes, il est toujours bon de rappeler que ce qui fait le succès d’un système est avant tout ce que l’on peut faire avec… Les applications originales qui tournent dessus et qui ne fonctionnaient pas dans la version précédente ou sur un système concurrent déjà en place dans l’organisation.

De ces nouveautés et de ces nouvelles capacités applicatives viendront le succès auprès des utilisateurs. S’il y a engouement, alors viendra s’étoffer le nombre de développeurs, contribuant à leur tour à la richesse applicative permettant de faire grossir le nombre d’applications originales, attirant encore plus d’utilisateurs. La boucle (vertueuse) sera bouclée.

bouclevertuese

C’est le pari que doit faire Microsoft autour de Windows 10 et les plans que l’éditeur met en place pour séduire les développeurs en leur faisant miroiter un succès prévisible du produit d’une part et des nombreuses innovations disponibles (c’est le sens de l’annonce très précoce d’Hololens par exemple alors que les possibilités de test et de développement ne sont à l’heure actuelle réservées qu’à un tout petit nombre d’entreprises qui peut accéder à un programme à plusieurs centaine de milliers de dollars). Cerise sur le gâteau, leur développement sera « universel » : un seul code pour tous les types de matériel : du smartphone au PC géant de 84 pouces type « Surface Hub »…

Alors quelles applications spécifiques à Windows 10 sont-elles d’ores et déjà disponibles sur ce système et sur aucun autre ?  Pas si facile de répondre à cette question, il y aura bien les versions Office tactiles, mais elles existent depuis plus de six mois sur Android et un an sur iPad. Le nouveau et très prometteur navigateur « Edge » de Microsoft fait partie de cette liste, c’est un début. Il reste encore beaucoup de travail à Microsoft pour avancer là-dessus et je ne parle même pas de la déclinaison mobile du système dont le catalogue applicatif -en progression – reste encore en retrait face à Android et iOS.

Lire la suite

Synthèse 2015 : elle est arrivée !

La nouvelle édition de la Synthèse 2015 de l’offre Microsoft pour les entreprises est disponible depuis le 6 mars 2015.

Vous pouvez  la commander en suivant ce lien

Cette nouvelle version de la Synthèse Calipia vous présente pas moins de 37 fiches « thèmes », 52 fiches « produits logiciels et services» et 11 fiches « produits matériels » actualisées ou nouvelles (dont bien sur les informations sur Windows 10, les nouveaux matériels, les différents scénarios d’Azure, etc.

Cet ouvrage offre une lecture à double entrée :

  • Les produits de l’offre Microsoft pour les entreprises.
  • Les thématiques les plus actuelles.

Au travers du premier axe de cheminement, vous trouverez pour chaque produit une fiche descriptive synthétisant l’essentiel des informations :

  • L’essentiel de ses fonctionnalités.
  • Ses concurrents et leurs positionnements.
  • Des données du marché, pour positionner les enjeux.
  • Les modes de licences associés.
  • Les logiciels complémentaires.
  • La feuille de route des évolutions du produit.

Le second axe vous propose un parcours selon les thématiques qui agitent aujourd’hui le monde des Systèmes d’Information (Sécurité, collaboration, interfaces utilisateurs …). Nous vous présenterons, en quelques pages, pour chaque thème, une description des enjeux, du marché et des tendances telles qu’il est possible de les pressentir aujourd’hui.

Passez commande !

[Lettre Calipia] Le hardware est-il réellement stratégique pour le nouveau Microsoft ?

(Article issu de la Lettre Calipia, Abonnement gratuit : calipia.com/lalettre)

Depuis que Satya Nadella a pris la place de Steve Ballmer en tant que PDG de Microsoft, il s’est efforcé de faire entendre sa propre musique et développer sa propre vision pour l’éditeur. Au cœur de cette vision l’accroche « Mobile First and Cloud First ». Si cette vision est très claire d’un point de vue général, c’est bien sûr dans les détails et dans l’exécution qu’elle se révèlera ou non, clé pour Microsoft. Si l’affirmation Cloud est très explicite et ne fait que renforcer le positionnement qu’en avait exposé Steve Ballmer, la stratégie « Mobile First » est parfois plus ambiguë.

Pour être plus clair, Satya Nadella parle-t-il ici des périphériques Windows, de Windows ou plus généralement des services Mobiles sans distinction de plateforme ? S’agit-il des Mobiles « Microsoft » motorisés par les différentes versions de Windows ou les mobiles du marché ? Il va de soi que l’ambiguïté permet plusieurs interprétations.

Ainsi si vous travaillez par exemple à la vente des Lumia ou des Surface, il n’y a pas de débat pour vous, on parle bien entendu des périphériques Microsoft. Même réflexion si vous vous chargez de la promotion de la dernière version de Windows, et puis comment pourrait-il en être autrement ? Quel employé aurait l’outrecuidance d’en affirmer le contraire ?

Et bien je pense que cet employé existe, et qu’il se nomme Satya Nadella 🙂

Lors du diner annuel de la Chambre de Commerce de Seattle auquel il participait, le journaliste Todd Bishop de Geekwire[1] lui a demandé ce qu’il comptait faire pour améliorer les ventes de Windows Phone dont les parts de marché restent très faibles aux Etats Unis et ne montrent pas de signes évident de croissance. Satya Nadella, ne s’est pas lancé comme on pouvait peut-être l’imaginer dans une explication de texte des tactiques mises en œuvre, expliquant comment par exemple il comptait recruter de nouveaux partenaires coté opérateurs et coté constructeurs, il n’a pas mis en avant la nouvelle politique de gratuité de Windows Phone visant à reprendre des parts de marché à Android, il n’a pas non plus parlé des synergies pourtant présentes dans toutes les présentations entre Windows Phone 8 et Windows 8, de l’interface Modern UI, des interfaces de programmations identiques, d’un application store bientôt unique (annoncé hier avec Windows 10) entre ces systèmes.

Non rien de tout cela. Il a préféré formuler une réponse plus surprenante mais qui en dit long je pense sur sa vision :satya « La part de marché de Windows Phone n’a pas d’importance »

Pour enfoncer le clou, il a poursuivi avec ce qui selon lui doit être l’objectif de la société : « Ce n’est pas l’appareil qui est au centre de notre vision mais la personne. C’est de faire que nos plateformes de services offrent la plus grande productivité possible aux utilisateurs (…) Il y aura à l’avenir de nombreux appareils, des grands et des petits, des facteurs de formes qui n’existent pas encore. Vos souvenirs numériques, vos expériences de productivité sur l’ensemble de ces dispositifs seront les points essentiels (…) Notre objectif est de rendre disponible les applications Microsoft sur n’importe quel poste indépendamment du fait qu’il soit sous Windows ou non ».

Au moins c’est clair et les choses sont dites.

stat1 Au-delà des déclinaisons de Windows, évoquées précédemment, je pense que le positionnement de Microsoft en tant que constructeur de matériel n’a pas la même importance pour un Satya Nadella  que pour un Steve Ballmer hurlant « Devices, Devices, Devices… » !

Posons-nous la question : si Satya Nadella avait été à la place de Steve Ballmer il y a un an, aurait-il pris la décision de racheter la division mobile de Nokia ?

Au vu de la récente actualité sur les licenciements massifs chez ce dernier (y compris dans les forces de fabrication et de R&D ne faisant pas de doublons avec des effectifs chez Microsoft), ma conviction est qu’il n’aurait sans doute pas pris la même décision que son prédécesseur… L’alliance à haut niveau MS-Nokia lui aurait peut-être suffit ? Et l’on peut même se poser la question si la division mobile de Nokia est encore réellement viable amputée de la moitié de ses effectifs ? La société de Satya n’est plus la « Devices and Service Company » de Steve …

Le Hardware : stratégique ou purement tactique ?

Disons le tout de suite, Microsoft conçoit depuis très longtemps du Hardware, depuis 2001 avec l’Xbox et depuis plus longtemps encore des claviers, des souris, des webcams… Les plus anciens se souviendrons également que Microsoft avait également créé des cartes son (dont la Microsoft Sound System), des hauts parleurs, et même des cartes mémoire pour imprimante HP (Windows Printing System)…

Si l’activité Xbox est très particulière et s’adresse à un marché bien spécifique avec son propre écosystème (dont le business model ne repose pas sur le hardware mais sur les jeux et l’activité Online), le reste des activités matérielles de Microsoft n’a jamais vraiment été très stratégique mais essentiellement tactique. Il était là  pour réaliser quelques ventes incrémentales, voire pour montrer un peu la voie (on se souvient de la touche « Windows » des claviers faisant ensuite des émules chez les Logitech, ou encore plus récemment de la RoundTable pour Lync reprise maintenant par Polycom). De plus, ce qui peut poser des problèmes à Microsoft autour du Hardware est clairement sa rentabilité intrinsèque.

Microsoft depuis toujours réalise une marge très importante sur le software : de l’ordre de 30%. Sur ses services en ligne, les marges devraient être comparables à terme si l’on juge des derniers résultats publiés par la société sur les ventes d’Office 365 par exemple. Il est clair que de telles marges ne sont pas possibles côté matériel.

Même Apple, pourtant uniquement sur un segment premium et bénéficiant du positionnement du statut de « Référence » sur les tablettes et Smartphones, n’atteint pas de tels niveaux. La firme à la pomme voit au fil des ans sa confortable marge se réduire (un peu) alors que les produits de ses concurrents progressent.

Microsoft n’est pas dans la même situation. L’essentiel des ventes de ses smartphones ne se font pas sur le segment premium, le Lumia « haut de gamme » est à la moitié du prix d’un téléphone Apple. Les Lumia jouent en fait dans la même catégorie que les smartphones Android, catégorie où la marge est extrêmement faible, avec obligation de faire du volume pour garantir une rentabilité.

stat2 Si les ventes sont importantes en volume dans certains pays européens avec près de 10% de parts de marché, ces dernières sont tirées très majoritairement par les Lumia d’entrée de gamme (5XX et 6XX) synonymes de marges encore plus réduites. Au niveau mondial, contrairement à Android, les ventes restent très faibles et sont même en régression sur le dernier semestre … stat3 Elles affichent une baisse de -10% tandis qu’Android progresse de 33% et Apple de 13%. Le cas des Tablettes Surface de Microsoft est différent : si elles se positionnent clairement sur le marché haut de gamme, (positionnement renforcé avec la version 3), le niveau des ventes serait encore très faible. Les pertes de l’activité tablette de Microsoft auraient été estimées à 1,7 Milliard de $ en juillet dernier après la publication des résultats annuels de l’éditeur (sources : document transmis par Microsoft à la SEC[2] et analyse de The Register[3]). Espérons pour l’éditeur que la version 3 (très attrayante au demeurant) l’aide à remonter la pente…

Remarquons au passage qu’il a profité de cette évolution pour revoir sa communication : ce qui était « La tablette sans compromis » des versions 1 et 2 est plus clairement maintenant un ultra portable qui fait aussi tablette et peut donc « remplacer le PC ». Les publicités comparatives ne se font plus vis à vis de l’iPad mais du Macbook Air.  En tout cas la concurrence risque d’être également rude vis à vis des autres constructeurs. Pas sûr également que les différentiateurs de cette Surface Pro 3 soient assez forts pour garantir un haut niveau de marge.

Faire du matériel pour vendre du Software et du Service ?

Lorsque les acteurs du logiciel se sont aventurés à faire du matériel, l’objectif a souvent été pour eux d’accélérer la promotion de leurs logiciels et leurs services. Le moins que l’on puisse dire c’est que cela a rarement été couronné de succès.  Google qui a tenté l’aventure en rachetant Motorola l’a revendu il y a moins d’un an au chinois Lenovo. La cause officielle : un manque de synergie, plus officieusement, Google était sans doute bien plus motivé par l’acquisition de brevets que par la mise en œuvre d’une véritable stratégie de constructeur de mobiles.

A l’inverse IBM à revendu ses activités PC et Serveurs à Lenovo, en cause, là encore la rentabilité, la maitrise du matériel n’étant pas jugé par la société comme un catalyseur suffisant pour la vente de ses services. Reste le cas d’Apple, mais ce dernier à toujours été un constructeur faisant du software avant tout pour vendre son matériel (la gratuité des OS de ce dernier en constituant une belle illustration).

Même si des exemples existent, y a-t-il un seul cas de réussite en la matière ? Avec le rachat de  Sun par Oracle, ce dernier est devenu lui aussi un constructeur, mais la vente de matériel par le spécialiste de la base de donnée est-elle là encore un succès ? Ses véritables motivations, n’étaient-elles pas là ailleurs : comme dans la division logiciel de Sun qui détenait aussi Java, MySQL, OpenOffice ?

Pour conclure sur une question, certes un peu provocante, résumant bien à mon avis le positionnement de Microsoft : selon vous quel est le produit qui accélère le plus les ventes d’un produit au cœur de la stratégie de Microsoft tel qu’Office 365 en entreprise depuis 3 ans ?

  • Réponse A : les tablettes Surfaces et les Smartphones Lumia
  • Réponse B : Les iPads, iPhones, Tablettes et Smartphones Android

Ne cherchez pas la réponse dans le prochain article de la lettre Calipia, mais plutôt dans la publication des résultats de Microsoft et les discours de son nouveau PDG 🙂

Nous reviendrons sur ces sujets et bien d’autres lors du prochain Briefing Calipia (novembre et décembre 2014), n’hésitez-pas nous rejoindre : calipia.com/briefing

[1] http://www.geekwire.com/2014/microsoft-ceo-satya-nadella

[2] http://www.sec.gov/Archives/edgar/data/789019/000119312513310206/d527745d10k.htm

[3] http://www.theregister.co.uk/2013/07/30/microsoft_surface_sales_disaster/

[Lettre Calipia] Le « code à l’école », une chance pour la France ?

lemaire-enfants-apprennent-84730673J’ai la chance, par le biais de cette Lettre Calipia, de pouvoir exprimer parfois quelques réactions épidermiques liées à des annonces relatives à l’actualité informatique. Et ce avec la plus insupportable mauvaise foi, mais en tentant de creuser un peu le sujet, ce qui me permet de repousser un peu le moment ou je serai obligé d’expliquer à un psy l’aspect ontologiquement schizophrénique de mon activité de veille technologique.

Donc après avoir égratigné quelques tendances de l’industrie informatique (les tablettes, le Green Computing, l’obsolescence programmée, etc.), je vous propose de revenir sur un sujet plus sociétal, qui porte globalement sur la compréhension par les politiques des impacts liés au développement des TIC (Technologies de l’Information et de la Communication) sur la vie réelle des gens.

Le prétexte de ce billet, ce sont évidemment les nombreuses déclarations de l’ex-ministre de l’éducation Nationale Benoit Hamon en mai relayées par la toujours secrétaire d’état en charge du numérique Axelle Lemaire (rattachée au ministre de l’Économie et du redressement productif, qui était à l’époque Arnaud Montebourg), sur les deux éléments semble-t-il principaux de la future loi sur le numérique, l’enseignement du « code » à l’école avec comme « corollaire » le haut débit pour toutes les écoles.

Evacuons rapidement le « haut débit », qui est un serpent de mer apparaissant (avec le Logiciel Libre) de façon récurrente dans toutes les communications politiques concernant les TIC depuis plus de 10 ans, en étant par exemple cité comme une priorité dans les programmes de 8 candidats sur 13 à l’élection présidentielle de 2007 (cf. Lettre Calipia n°33, Avril 2007). Avec certes des améliorations, mais qui ne sont dues qu’aux investissements effectués par les opérateurs privés (SFR, Bouygues, Free, Numericable) ou semi-privés (Orange) pour le développement de l’accès Internet haut débit, via la fibre, ADSL ou le réseau hertzien (GSM/EDGE/UMTS/LTE/etc.).

L’intention affichée de connecter en « haut débit » (au moins 8 Mbits/s) 9 000 écoles dès septembre via son plan « Ecoles Connectées » est louable (16 000 sur 54 000 n’ont actuellement pas d’accès Internet haut débit). La technologie choisie repose sur des communications satellites. L’Etat via le Fonds National pour la Société Numérique (FSN) alloue un budget de 5 millions d’euros pour couvrir l’achat du matériel de connexion (parabole, routeur Wifi, etc.) et son installation pour environ 400 euros par établissement. Et c’est bien.

Ce qui serait mieux serait que ce plan « Ecoles Connectées » soit en cohérence avec le plan France THD (Très Haut Débit) qui pour les mêmes objectifs semble donner la priorité à la fibre optique et l’utilisation du réseau électrique voire du réseau ferroviaire. Ce qui ne semble pas être le cas et on peut craindre que même dans le domaine des infrastructures, les soucis d’affichages ne l’emportent sur une cohérence cependant indispensable.

Mais de toute façon, le simple fait de considérer qu’un accès Internet haut débit pourrait être un élément essentiel à l’apprentissage du « Code à l’école » est tout simplement grotesque.

Qui a jamais eu besoin d’un accès Internet haut débit pour afficher « Hello Word » ?

Passons donc tranquillement à la vraie nouvelle trouvaille de nos politiques de gauche comme de droite (un projet de loi identique a été proposé par l’UMP), afin de sauver notre pays qui serait, vous l’aurez compris, l’enseignement du CODE à l’école.

Le « code à l’école » : quelques mots sur le contexte

Partout à travers le monde l’idée d’apprentissage du numérique à l’école semble être devenu le nouveau Graal, et en France une importante activité d’associations, d’organismes, ou syndicats professionnels a pour but assez légitime d’influencer la classe politique afin que l’enseignement du numérique soit considérée comme une grande cause nationale pour l’année 2014[1].

Probablement soumis à cette pression importante et très certainement en mal de communication concernant l’idée géniale sur les orientations futures de l’enseignement qui sera dispensé à nos enfants afin de les préparer à affronter un monde qui devient de plus en plus communiquant, notre classe politique (gouvernement PS mais aussi UMP) a été depuis mi-mai assez active en termes d’annonces.

Voici un court résumé des faits.

La chronologie, et quelques réflexions de fond

Lors de la création du gouvernement Valls, le 9 avril 2014, Axelle Lemaire a succédé à Fleur Pellerin comme secrétaire d’État chargée du Numérique. Cette dernière avait engagé une politique volontariste qui a suscité l’intérêt de la plupart des acteurs du secteur. Dans le domaine de l’éducation populaire et de la formation, elle a porté le projet des Espaces publics numériques et des Cyber-bases[2]. Pour le reste du numérique éducatif, c’était l’affaire de Vincent Peillon qui avait lancé le chantier de l’École numérique. Et même si ce dernier n’avançait pas très vite, tout allait à peu près bien…

Les choses s’emballent dés le 15 mai lors d’un « Tchat » avec les lecteurs de 20minutes lors duquel une question est posée sur le fait que l’apprentissage de la programmation informatique pourrait être (dans le programme en cours de préparation par le ministère de l’éducation nationale) intégré dans les programmes obligatoires à l’école élémentaire.

Et la réponse est assez stupéfiante :

« C’est une des clés pour que les prochaines générations maîtrisent leur environnement numérique. Apprendre la programmation, permet de dépasser la simple sensibilisation au numérique et de se rendre compte qu’on peut modifier les Smartphones qu’on utilise, qu’on peut réaliser des films, qu’on peut créer des jeux. On apprend l’anglais, le chinois, il faut apprendre à coder!

C’est une brique essentielle de la créativité, comme le collage ou le découpage… Faire du code c’est un outil au service d’un projet scientifique, artistique ou pédagogique.

Aujourd’hui ce n’est pas dans les programmes mais j’aimerais par exemple que le temps périscolaire permette ce genre d’ateliers un peu partout en France. Un collectif s’est d’ailleurs créé récemment pour cet objectif: «Code Junior». Il existe déjà des initiatives au niveau local, soutenues par des associations et des entreprises prêtes à investir. J’espère qu’elles se démultiplieront à l’échelle nationale. »

Pourquoi cette réponse est-elle stupéfiante ?

Peut-être parce qu’en quelques lignes la secrétaire d’état démontre :

  • Une incompétence inquiétante dans le domaine de l’informatique en utilisant le terme de coder (pauvre anglicisme qui serait avantageusement remplacé par programmer sauf si le but est d’apprendre l’assembleur à des enfants de moins de 10 ans), mais surtout en associant la « maitrise du code » à un acte créatif alors que l’utilisation d’un langage de programmation n’est que l’ultime, et pas forcément nécessaire (compte tenu des outils de programmation disponibles) étape d’un processus plus profond d’analyse qui requiert plus une structuration de la pensée que la maitrise d’un outil. Le parallèle avec le « collage et le découpage » est de plus assez hallucinant compte tenu des enjeux.
  • Qu’elle ne connaît pas vraiment les programmes scolaires de l’école primaire, puisqu’il ne me semble pas que le chinois soit enseigné de façon obligatoire. Et que l’enseignement de l’anglais reste malgré de nombreuses annonces assez expérimental.
  • Qu’elle n’hésite pas à semer la panique en parlant de périscolaire et des associations:
    • Elle met dans l’embarras le ministre de l’éducation, qui avant d’être remercié devait gérer une réforme, le « plan numérique pour les écoles » qui devait prendre effet en septembre, et dont le calendrier a été légèrement perturbé.
    • Elle déclare se reposer sur un tissu associatif qui est déjà très actif, mais dont l’efficacité repose justement sur le fait de ne pas avoir a se soumettre au carcan des programmes pédagogiques du ministère de l’éducation nationale. Tout parent ayant jeté un coup d’œil sur les « cours de technologie », lesquels « traitent » de l’aspect informatique en expliquant comment se servir d’une souris ou imprimer une présentation PowerPoint, sera probablement d’accord avec l’aspect castrateur de la démarche.

Avant de continuer cette chronologie, je vous re-propose cette citation. C’est clairement ma préférée, et elle m’a fait rire tout l’été (je suis bon public et la météo était maussade).

Code et Chinois

Plus sérieusement, le lendemain Le Figaro[3] saute sur l’occasion pour relayer les propos d ‘Axelle Lemaire qui tombent comme par hasard après un article le 15 mai de ZDNet[4] concernant une proposition de loi visant à rendre obligatoire l’enseignement du codage informatique à l’école, proposée par une vingtaine de députés UMP. Cette proposition portée par Laure de la Raudière (avec le soutien de quelques personnalités telles que Bruno Le Maire ou Christian Estrosi) sera enregistrée à la Présidence de l’Assemblée Nationale le 11 juin[5]. Proposition assez opportuniste et relativement vague qui demande une modification du code de l’éducation très proche des demandes d’Axelle Lemaire (comme par hasard) :

« Les objectifs prioritaires assignés aux écoles sont l’apprentissage de la langue française, la maîtrise de la lecture, de l’écriture, l’utilisation des mathématiques et l’apprentissage du code informatique. Ces savoirs doivent impérativement être acquis lors de l’entrée au collège. »

Entre parenthèses à l’occasion de l’article du Figaro le langage HTML est cité (avec une amusante formule : Parlez-vous HTML ?) ce qui est consternant puisqu’HTML est un langage de description (mettre des balises sur du texte pour gérer l’affichage) et en aucun cas un langage de programmation (qui implique une certaine logique).

Le même jour (donc le 16 mai) Axelle Lemaire donne aussi une interview (elle était à l’Ecole d’informatique « 42 » de Xavier Niels) au Journal du Net[6] dans laquelle après quelques contorsions (mise en évidence de la complexité d’un projet impliquant les ministères de l’éducation nationale, le ministère des finances et le ministère du travail), elle réaffirme sa volonté d’imposer « l’apprentissage du code » à l’école primaire, dans le cadre du temps périscolaire et avec l’aide des associations ou des entreprises.

Pour la bonne bouche j’adore la conclusion de sa réponse : « Pour moi, un tel projet a plus de chance de s’imposer en partant ainsi de la base, en bottom-up, qu’en top-down. ». Parler anglo/américain (même pour une Franco/Canadienne) dans une communication sur l’éducation est assez surprenant. Mais expliquer dans la même interview vouloir partir de la base (le réseau d’associations déjà très actif sur le sujet comme nous allons le voir plus loin) en communiquant activement sur une volonté d’imposer cet enseignement dans le cadre semi-formel du périscolaire (ce qui ressemble furieusement à du « top-down »), ce n’est plus surprenant, c’est juste déroutant.

Reprenons le fil de notre chronologie, avec semble-t-il, dans les jours qui ont suivi, quelques tensions entre les cabinets respectifs d’Axelle Lemaire et de Benoît Hamon, ministre de l’Éducation. Ce dernier se serait étonné des initiatives médiatiques malheureuses de sa consœur venant influer sur son projet d’école numérique, qui devait intégrer globalement cet aspect du numérique dans l’éducation en se basant sur l’avis de l’Académie des Sciences rendu début mai (L’enseignement de l’informatique en France. Il est urgent de ne plus attendre)[7].

Cet avis, très intéressant par ailleurs et formulant des propositions pertinentes concernant l’introduction de l’informatique de façon progressive dans les programmes (primaire, collège, Lycée) est effectivement une base de réflexion sérieuse, malheureusement a été totalement passée sous silence du fait de l’agitation médiatique liée aux incantations ridicules d’Axelle Lemaire (le code, le code, le code, et dès la primaire !!!).

Le 23 juin Axelle Lemaire dans une interview à NextInpact[8] revient sur son initiative avec une certaine mauvaise foi quant à sa position par rapport au projet de loi de l’UMP déposé par Laure de la Raudière en feignant de ne pas en avoir été informée (ce qui est au mieux peu crédible, au pire assez inquiétant), tout en affirmant que « Benoit Hamon est très réceptif à ces sujets ». Et pour cause puisque qu’une initiation aux concepts de l’informatique à l’école primaire fait partie des recommandations de l’Académie des Sciences.

Ce triste théâtre d’ombres sera conclu par Benoit Hamon qui le 12 juillet a cédé à la pression en reprenant à son compte l’idée absurde et vague de « favoriser en primaire une initiation au code informatique » lors d’une interview au Journal du Dimanche[9]. Ce faisant le futur ex ministre de l’éducation a cédé aux manœuvres de communication de sa collègue et de l’UMP, sans tenir compte des suggestions de l’Académie des Sciences, certes compliquées à mettre œuvre, mais qu’il aurait été judicieux défendre.

De là à conclure que le jeu politique n’est pas forcément garant de propositions avisées pour le bien commun, il n’y a qu’un pas à franchir. Surtout lorsqu’ils ne connaissent rien aux sujets sur lesquels ils doivent prendre des décisions. Inculture d’autant plus sournoise et inquiétante qu’elle touche des personnes censées être cultivées, faisant preuve de discernement et soucieuses du bien public.

Enfin je ne résiste pas, toujours pour conclure cette chronologie au plaisir de vous rappeler un extrait d’un billet de Mediapart[10] qui met très précisément le doigt sur le problème :

« Cette proposition montre bien l’incompréhension des politiques par rapport à la vague numérique qui les dépasse. Oui, le numérique associé à Internet va transfigurer tous les domaines de la société, l’école y compris. Les sociétés vont subir le numérique et leurs dirigeants font mine d’anticiper ces fortes transformations en introduisant l’apprentissage du code informatique. »

Quid du réseau associatif et des « groupes d’influence » ?

L’idée de sensibiliser nos enfants aux différents aspects de l’informatique est parfaitement louable puisque ces technologies sont sans contestation possible un élément prégnant de notre vie de tous les jours et une opportunité de développement de l’activité économique.

Et le bon sens étant assez largement partagé, tant en France qu’à l’étranger, nombreux sont ceux qui promeuvent officiellement l’enseignement de l’informatique à l’école : l’Académie des Sciences déjà citée, mais aussi la Société informatique de France avec son rapport de juin 2013 (Rapport de la SIF sur la Formation des Enseignants d’ISN[11]) ainsi que sa lettre ouverte au Président[12], la FING[13] (Fondation Internet Nouvelle Génération), et le syndicat Syntec Numérique avec son rapport remis en janvier 2014 au Président de la République (Propositions pour un plan national de formation[14]).

Ces rapports et communications institutionnels sont inspirés de nombreuses initiatives, tant nationales qu’internationales, telles que Code.org[15], le réseau Hackidemia[16], Code for America[17], mais également son équivalent européen, Code for Europe[18] (et leur équivalent Français[19] qui est manifestement encore en gestation).

Citons aussi de nombreuses réalisations concrètes d’enseignement qui vont de l’école d’immersion au code (« 42 »[20]) lancée par Xavier Niels, à la Web@cadémie[21], au site « Le Wagon[22] », jusqu’à des ateliers organisés généralement autours de FabLabs tels que « les petits débrouillards », les « Coding goûters », « Educadinio » ou « Simplon.co ».

L’offre associative est donc déjà très importante, plutôt innovante, assurée par des personnes volontaires et compétentes, et elle vise principalement les jeunes en situation de décrochage scolaire.

La programmation informatique serait-elle l’ultime solution d’intégration dans la société de jeunes gens auxquels le système éducatif n’a pas réussi à inculquer la nécessité de PENSER, alors que toute réflexion est inutile pour retranscrire dans un langage informatique des spécifications détaillées d’un programme crées dans le cadre d’un processus de réflexion logique ?

Ces questions sont importantes. Enfin il me semble. Mais d’autres questions se posent, malheureusement…

Quelques autres réflexions et questions concernant la mise en œuvre du « code à l’école » ?

Le problème est-il simple (et la solution simpliste) ?

Si le fait de sensibiliser les enfants (de l’école primaire au lycée) est sans aucun doute un point important, et si cette sensibilisation ne doit pas être uniquement portée par le réseau associatif mais prise en charge dans le cadre des programmes de l’Education Nationale, l’approche préconisée par l’Académie des Sciences, avec une progression en trois phases semble assez pertinente. Phases dont voici le résumé :

  1. La sensibilisation, principalement au primaire, qui peut se faire de façon complémentaire en utilisant des ordinateurs ou de façon « débranchée » ; un matériau didactique abondant et de qualité est d’ores et déjà disponible.
  2. L’acquisition de l’autonomie, qui doit commencer au collège et approfondir la structuration de données et l’algorithmique. Une initiation à la programmation est un point de passage obligé d’activités créatrices, et donc d’autonomie.
  3. Le perfectionnement, qui doit se faire principalement au lycée, avec un approfondissement accru des notions de base et des expérimentations les plus variées possibles.

De plus est mis en avant dans ce rapport l’importance de la formation des enseignants, ce qui semble effectivement plus que nécessaire avant l’introduction de mesures qui vont potentiellement concerner plus de 12 millions d’élèves (dont 6,7 million dans le primaire où doit être « enseigné le code »), d’après les chiffres du ministère[23].

Code et educ

On voit donc que ce projet d’apprentissage de l’informatique à l’école, quoique nécessaire n’est pas simple, et il me semble que la communication de nos élites politiques, avec une focalisation sur le « code à l’école primaire » entraine de forts risque de dérapages (habituels dans les politiques gouvernementales depuis plus de 20 ans), dérapages qui consistent à un affichage de façade privilégiant des plans d’investissement couteux de matériels peu ou mal utilisés au détriment d’une réflexion de fond sur la pédagogie et l’humain.

 

Le « plan numérique pour l’école » sera-t-il un nouveau tonneau des danaïdes (rappel historique) ?

La forme risque donc d’être privilégiée, et si vous êtes sceptiques, ce qui serait assez naturel, laissez moi vous rappeler les dernières grandes initiatives concernant le numérique (ou les TICE, TIC, STIC, etc. dans le jargon administratif) qui ont couté des milliards sans résultats probants.

L’informatisation de la société, rapport remis par Alain Minc et Simon Nora à Valéry Giscard d’Estaing, en 1976, qui fut en son temps un vrai succès d’édition, fut le premier exemple de la médiatisation du numérique. Avec une dimension politique importante puisque les auteurs voyaient dans l’informatisation de la société un moyen souhaitable pour augmenter la productivité générale (travailler moins pour vivre mieux) et rendre caduque la grille d’analyse marxiste du conflit de classes.

Vient ensuite le plan informatique pour tous (IPT)[24] . Ce fut le premier grand programme gouvernemental français à bénéficier d’une certaine médiatisation. Il devait permettre d’initier les 11 millions d’élèves du pays à l’outil informatique et de soutenir l’industrie nationale. Il faisait suite à plusieurs programmes d’introduction de l’informatique dans le secondaire depuis 1971. Le plan IPT a été présenté à la presse, le vendredi 25 janvier 1985, par Laurent Fabius, Premier ministre de l’époque. Il visait à mettre en place, dès la rentrée de septembre, plus de 120 000 machines dans
50 000 établissements scolaires tout en assurant la formation, à la même échéance de 110 000 enseignants. Son coût était évalué à 1,8 milliard de francs, dont 1,5 milliard pour le matériel : Donc 300 millions pour la formation des enseignants ce qui est absolument ridicule !

Ce plan a simplement permis à Bull, Thomson, ou Goupil de faire de très bonnes affaires en vendant des PC plus ou moins technologiquement dépassés (particulièrement les Thomson MO5). Et accessoirement à conforter l’état sur le fait que la France avec le Minitel était à la pointe de la technologie (ce qui avais probablement été vrai) et portait une vision qui pourrait influencer le monde (ce qui était faux).

Après quelques années de calme, une seconde grande initiative numérique a été lancée en 2003 par François Fillon, ministre de l’Education nationale, afin que chaque étudiant puisse acheter un ordinateur « pour le prix d’un café par jour ». L’éducation nationale devait consacrer en quatre ans 209 millions d’euros au développement du numérique à usage pédagogique dans l’enseignement supérieur. Concrètement, les étudiants ont pu bénéficier de prêts à « des taux intéressants » de 1 000 à 3 000 euros remboursables en trois ans.

Donc encore une fois la principale (parce qu’étant la plus visible) réponse des politiques concernant l’évolution de notre société liée à la prégnance des technologies numériques à consisté en des effets d’annonce concernant des plans d’équipement, comme si garantir que tout le monde possède un ordinateur (afin de réduire la fameuse « fracture numérique ») pourrait être l’unique facilitateur d’une sensibilisation des élèves aux subtilités des métiers de l’informatique !

Impossible concernant ce point de ne pas évoquer les nombreuses initiatives très médiatisées et moyennement efficaces d’équipement massif des élèves, pilotées par les conseils généraux ou régionaux afin de fournir des clés USB ou des tablettes (programmes qui coûtent très cher et sont rapidement détournés de l’objectif pédagogique premier par les étudiants récipiendaires). En espérant que les présidents de région ou de département ont réussi à se faire réélire par ce biais…

Depuis plus de trente ans toutes ces initiatives coûteuses (et légitimes) d’équipement des écoles, collèges et lycées semble de plus assez inefficaces puisque le nombre d’ordinateur par élève reste très faible dans le secondaire et que dans le primaire le système D est de mise (recyclage d’anciens ordinateurs de parents d’élèves).

Dans les années 60, il y avait moins de médiatisation et plus d’efficacité. Objectivement tous ces « plans », initiatives et annonces n’ont rien a voir en termes de résultats avec le « Plan Calcul » lancé (discrètement) au début des années 60 et qui a placé la France en termes d’enseignement (avec dès 1966 des cursus informatiques dans le supérieur) et de développements technologiques dans une dynamique incroyable pour les infrastructures et la créativité (souvenez-vous que le premier ordinateur personnel est Français, et que Bull ou Thomson furent de sérieux concurrent de la naissante industrie informatique américaine avant de succomber aux sirènes des « contrats d’état »).

 

Est-il donc plus simple de privilégier l’accessoire à l’essentiel ?

Très probablement en ce qui concerne l’éducation et le numérique… (la question était purement rhétorique).

Du fait d’une inquiétante méconnaissance de notre classe politique du concept même de société numérique (les choses évoluent heureusement depuis Jacques Chirac et son « mulot »), il semble qu’il soit plus simple et médiatiquement rentable d’annoncer que l’on va dépenser de l’argent en équipements divers que de réellement investir sur des politiques à long terme permettant de préparer les générations futures avec des programmes éducatifs transversaux : Les cours de mathématiques, de physique, de langues, de Français, etc. pourraient bénéficier de l’outil informatique ce qui les rendraient probablement plus intéressants pour les élèves.

Mais il faudrait avoir le courage de toucher au « Saint des Saints » de l’Education Nationale, les différentes directions en charge de la pédagogie et des programmes, et la tâche n’est pas facile. D’autant que l’espérance de vie d’un ministre de l’éducation est très limitée[25] (moins de deux ans en moyenne, et encore moins si vous essayez de faire évoluer les institutions – ou que vous allez à Frangy-en-Bresse comme dans le cas le cas de Benoit Hamon).

Donc pour durer, ne rien remettre en cause de fondamental dans le fonctionnement de ce ministère est plutôt un bon plan de carrière pour un ministre.

On fait donc des annonces ou des expériences qui seront sans suites avant des années comme le « Code à l’école » qui fait l’objet de ce billet d’humeur, mais aussi « la morale à l’école », l’enseignement des « langues étrangères », l’enseignement du permis voiture, etc.

Le « Numérique » est important pour notre société et donc pour l’éducation de nos enfants, et il est triste qu’il soit trop souvent ramené à des effets d’annonces par des politiques semblant année après année découvrir le phénomène.

 

En guise de conclusion

Cette polémique printanière (et estivale) est une assez belle illustration de l’exercice compliqué de la communication politique. Avec des formules chocs qui masquent un débat de fond, en l’occurrence l’apprentissage des techniques informatiques aux enfants, du primaire au secondaire. Formules lancées sans concertation avec les acteurs associatifs ou professionnels qui œuvrent depuis des années dans ce domaine, et manifestement sans concertation non plus avec le ministère de l’éducation qui devrait dans ce domaine sinon piloter, mais au moins être tenu au courant des autres initiatives gouvernementales.

La proposition du « Code à l’école » est de plus au niveau de son contenu assez représentative de tout ce qu’il ne faut pas faire :

  • Parler de ce que l’on ne connaît pas (c’est à notre classe politique qu’il faudrait imposer un enseignement aux technologies numériques).
  • Ne pas réfléchir aux impacts de fond (Les balises HTML c’est bien, mais n’est-il pas plus important d’apprendre en primaire à lire, écrire, compter … PENSER ?).
  • Négliger la mise en œuvre concrète en se déchargeant du fardeau sur les associations et les communes (bon courage pour trouver les « animateurs » qui enseigneront à nos chers enfants l’informatique dans le cadre du temps périscolaire !).

C’est donc sans surprise que lors d’une visite dans un collège de Seine Saint Denis, le Président François Hollande à totalement passé sous silence le « Code à l’école » dans son discours[26] précisant les contours du « plan numérique à l’école ». En fait l’effort principal devrait porter sur … l’achat de tablettes comme support du contenu pédagogique !

Voilà qui rappelle étrangement le « plan informatique pour tous » d’il y a 20 ans, avec du contenu en plus !!!

[1] Cf. http://www.educnum2014.fr/

[2] Cf. http://fr.wikipedia.org/wiki/Espace_public_num%C3%A9rique

[3] Cf. http://www.lefigaro.fr/politique/le-scan/citations/2014/05/15/25002-20140515ARTFIG00333-axelle-lemaire-veut-que-les-enfants-apprennent-a-coder.php

[4] Cf. http://www.zdnet.fr/actualites/developpement-numerique-le-rapport-erhel-la-raudiere-veut-faire-sauter-les-digues-39801137.htm

[5] Cf. http://www.assemblee-nationale.fr/14/propositions/pion2022.asp

[6] Cf. http://www.journaldunet.com/solutions/emploi-rh/axelle-lemaire-interview-axelle-lemaire.shtml

[7] Cf. http://www.academie-sciences.fr/activite/rapport/rads_0513.pdf

[8] Cf. http://www.nextinpact.com/dossier/735-interview-d%E2%80%99axelle-lemaire-secretaire-d%E2%80%99etat-au-numerique/2.htm

[9] Cf. http://www.lejdd.fr/Societe/Education/Benoit-Hamon-Le-code-informatique-a-l-ecole-des-septembre-675833

[10] Cf. http://blogs.mediapart.fr/blog/sergeescale/180614/apprendre-le-code-informatique-des-l-ecole-primaire-pas-indispensable

[11] Cf. http://www.societe-informatique-de-france.fr/wp-content/uploads/2014/01/rapport_sif_sur_isn.pdf

[12] Cf. http://www.societe-informatique-de-france.fr/lettre-ouverte-a-monsieur-francois-hollande-president-de-la-republique-concernant-lenseignement-de-linformatique/lettre-ouverte-a-monsieur-francois-hollande-president-de-la-republique-concernant-lenseignement-de-linformatique-2/

[13] Cf. http://www.fing.org

[14] Cf. http://syntec-numerique.fr/sites/default/files/related_docs/propositions_planformation_syntec_numerique_2014.pdf

[15] Cf. http://code.org/

[16] http://www.hackidemia.com/

[17] http://www.codeforamerica.org/

[18] Cf. http://codeforeurope.net/

[19] Cf. http://www.codeforfrance.org/

[20] Cf. http://www.42.fr/

[21] Cf. http://webacademie.org/

[22] Cf. http://www.lewagon.org/

[23] Cf. http://www.education.gouv.fr/cid195/les-chiffres-cles.html

[24] Cf. http://fr.wikipedia.org/wiki/Plan_informatique_pour_tous

[25] Cf. http://fr.wikipedia.org/wiki/Liste_des_ministres_fran%C3%A7ais_de_l%27%C3%89ducation_nationale

[26] Cf. http://www.elysee.fr/chronologie/#e7253,2014-09-02,inauguration-du-nouveau-college-louise-michel-de-clichy-sous-bois-rentree-2

[A noter] Les dates du prochain Briefing Calipia (Nov-dec 2014)

Les dates du Briefing Calipia #19 sont fixées

Bloquez-les dans vos agendas en attendant le programme complet qui sera disponible à la fin du mois :

  • à Aix-en-provence le mercredi 19 novembre 2014
  • à Lyon le jeudi 20 novembre 2014
  • à Strasbourg le mardi 25 novembre 2014
  • à Nantes le jeudi 27 novembre 2014
  • à Lille le mardi 9 décembre 2014
  • à Paris le mercredi 10 décembre 2014

A bientôt.

[Lettre Calipia] 8 tendances long terme pour le travail collaboratif

Article issu de la La Lettre Calipia, abonnement gratuit sur demande : calipia.com/lalettre

Pendant la pause estivale, la pression du court terme s’éloigne pour un temps, les neurones se décontractent. Une ambiance propice à la rêverie s’installe…

Pour ce numéro d’été de la Lettre, nous nous mettons au diapason, et osons vous partager notre propre rêverie sur les avenirs possibles du « collaboratif » : en explorant les conséquences de 8 « et si… », des tendances se dessinent, pouvant remodeler notre façon de concevoir le travail collaboratif.

Le point de départ de notre prospective est le constat que la collaboration n’a jamais été définie par des principes et idées figées ; bien au contraire, on assiste depuis sa première acception – le groupware – a une évolution permanente de ses contours, sous la pression de facteurs technologiques, concurrentiels, sociologiques.

Aujourd’hui les réseaux sociaux, la communication unifiée sont mis en avant, hier c’était le knowledge management, les sites d’équipes.

Que nous réserve l’avenir ? Difficile de dessiner un horizon très précis, tant l’exercice de la prospective est délicat, et proche le risque de sombrer dans le ridicule J ; mais bon, comme justement ce dernier ne tue pas, lançons-nous dans l’aventure !

C’est parti !

1-Et si la collaboration n’était plus basée sur la confiance ?

Le scandale Edward Snowden incarne à lui seul le point de départ de notre réflexion : une personne travaillant pour la NSA, accréditée à accéder à des informations sensibles, se met à divulguer ces informations à l’extérieur, avec les conséquences que l’on connait.1

Des exemples comme celui-ci, d’attaques « man in the middle », beaucoup organisations en vivent régulièrement ; le plus souvent il s’agit d’espionnage industriel.

Au quotidien, ces personnes ont été intégrées dans des équipes, ont participés à des échanges avec de collègues de différents horizons, notamment en utilisant des moyens informatiques.

Or aujourd’hui, les solutions collaboratives du marché ne proposent pas de moyens adaptés pour ce type de risques : les scénarios sont basés sur la notion d’identité des participants, et corolaire, de confiance « à priori ».

Certes on peut jouer sur les niveaux d’autorisation pour limiter la surface d’exposition aux risques, mais comme l’a démontré l’affaire Snowden, que faire lorsque la personne incriminée a posteriori toutes les accréditations ?

Si l’absence de confiance devient un postulat de départ, les conséquences sur les modalités collaboratives sont multiples :

  • Les liens informels sont à privilégier, que chaque utilisateur pourra casser à tout moment. Les réseaux sociaux personnels seront ici privilégiés, comparativement aux communautés et sites d’équipes plus formels, pour lesquels le fait de « sortir » du jeu telle personne nécessite l’intervention d’un tiers, l’administrateur / le gestionnaire de communauté.
  • A la place des sites d’équipes rigides, il faudra privilégier des communautés souples, ou la notion de réputation deviendra clé : ce mécanisme peut devenir très efficace dans un monde sans confiance préalable et définitive. Comme dit le proverbe, « la confiance n’exclue pas le contrôle », et rien de ne peut remplacer l’idée, saine, que la réputation de chacun est avalisée et construite progressivement par le niveau et la qualité des participations individuelles, sous le regard des autres (ex : « meilleure réponse »).
  • Le rôle même des gestionnaires de communauté s’en trouve renforcé, avec un focus particulier sur le respect d’une « netiquette » au sein des communautés ; tout manquement ou dérive par rapport à cette charte de comportement sera un indice fort quant au risque énoncé plus haut.

Comme on le voit, les solutions de réseaux telles qu’elles existent aujourd’hui se prêtent déjà bien à appréhender un monde ou la confiance est « relative ».

Dans un monde encore plus paranoïaque, d’autres scénarios pourraient monter en puissance.

  • Reposer exclusivement sur des liens informels individuels, type réseau personnel, et bannir les communautés. Un scénario typique de travail « en groupe » serait alors : un utilisateur pose une question à ses contacts voire à d’autres sources, et corrèle les résultats qui remontent, en jugeant par lui-même de la pertinence des réponses.
  • Reposer sur des communautés éphémères, appelés aussi les « flashes teams ». Le concept est discuté actuellement dans certaines conférences, et des chercheurs de Standford ont conduits récemment des expérimentations concernant leurs applications. Il s’agit essentiellement de rassembler des talents (par exemple depuis son propre réseau, ou via une recherche plus large) pour travailler sur des tâches collaboratives allant du design, à l’animation, à l’éducation, pendant un laps de temps court. Une fois le travail effectué, le flash team est dissous. Donc de belles applications lorsqu’on cherche à réduire la surface d’attaque sur la dimension « durée d’exposition ».

Sur ces derniers aspects, il est clair que les solutions actuellement sur le marché n’ont pas de réponses sur étagère, mais elles pourraient les mettre en place rapidement sans bouleverser leur principes fondateurs.

 

2-Et si la consumérisation influençait les scénarios collaboratifs ?

Le risque de se tromper est faible sur cette hypothèseJ, mais essayons d’être un peu imaginatif.

Dans la sphère personnelle, Internet a su développer toute une gamme de services à la personne, des plus délirantes au plus utile : trouver un cuisinier à domicile, promener son chien, déléguer les démarches administratives, etc.2

De façon similaire, on pourrait transposer ce type de services pour des besoins collaboratifs en entreprise. Différents modèles de services pourraient apparaitre :

  • Le Freelance : le concept est connu, mais imaginez maintenant que pour faire fonctionner une communauté, vous ayez besoin plus ou moins ponctuellement d’une compétence particulière…. Et que votre plate-forme collaborative vous permette – in situ – de rechercher, et souscrire au service d’un freelance pour compléter le travail collectif !
  • Le Crowdsourcing : le concept est peu connu en France, mais commence à prendre aux USA ; il s’agit ni plus ni moins que de confier une tâche parallélisable à un ensemble de personnes, comme par exemple de vérifier la validité d’une base de contacts. Des sociétés comme Crowdflower, MobileWorks se mettent aujourd’hui sur ce créneau.
  • Les Flash teams : encore eux ! mais cette fois ci, nous les imaginons dans un contexte où, pour un besoin ponctuel, vous faites appel à un fournisseur de talents afin qu’il vous constitue une équipe flexible recrutée pour ses compétences spécifiques, travaillant de façon coordonnée sur une plate-forme de ce fournisseur (ou la vôtre).

Les solutions, aussi bien que le marché, ne sont pas encore organisés pour rendre possible ce type de scénarios, en les intégrant comme des modalités standards : imaginez SharePoint ou Office 365 intégrés à LinkedIn et Viadeo 🙂

 

3-Et si les services collaboratifs étaient facturés à l’utilisation réelle ?

Cette hypothèse peut paraitre folle, et pourtant, il ne s’agirait que d’aller un peu plus loin dans la logique du modèle SaaS …

Pour réfléchir sur cette tendance, remarquons qu’une première étape importante s’est déjà produite : l’industrie dans son ensemble (Microsoft, Google, Salesforce, etc) nous – vous – pousse dans le Cloud, et vous encourage à délaisser ainsi les modèles d’implémentation on-premise des solutions collaboratives.

A la clé, c’est une 1ère transformation profonde du modèle économique : une souscription par utilisateur par mois (ou par an), selon un périmètre fonctionnel précis, plutôt qu’une approche d’investissement.

Séduites par ce modèle, les entreprises pourraient demain demander à leur fournisseurs d’aller plus loin, las de payer des souscriptions pour des services qu’elles n’exploiteraient que partiellement.

A l’heure du « pay-to-play » du monde consumer, vous seriez ainsi en droit de demander ce type de principes pour vos futures souscriptions : par exemple, souscrire pour une nouvelle communauté, juste le temps de son existence.

Souscrire « à l’usage » des scénarios fonctionnels pourrait ainsi supplanter une approche de souscription par device ou par utilisateur ! Pas sûr que les éditeurs y trouvent leur compte (financier) ; ce serait l’arroseur arrosé en quelque sorte.

4– Et si le collaboratif était impacté par l’internet des choses ?

Précisons en introduction que l’internet des choses (Internet of Things – IoT), ou internet des objets est une vague de fond qui n’a rien d’une prédiction aléatoire.

Selon une étude IDC / Cisco, l’IoT représentera un marché de 14,4 Milliards $ en 2020, pour 50 milliards d’objets connectés.

…et on ne peut pas s’empêcher d’imaginer que tous les pans de l’informatique d’entreprise seront impactés, à commencer par le collaboratif.3

De quelle manière ? that is the question

Les capteurs, les Wearables, permettront à coup sûr d’en savoir beaucoup plus qu’aujourd’hui sur les contextes de travail réels des individus, au bureau ou en situation de mobilité

Par extension, nous en saurons beaucoup plus sur les possibilités d’interactions entre individus, à n’importe quel moment ; et nous y voilà : les contextes collaboratifs seront donc « context-aware »

Quels pourraient alors être les impacts sur les scénarios collaboratifs ?

  • Très vraisemblablement, les solutions collaboratives devront recourir au Big data, voire à des capacités de machine Learning, pour analyser la masse d’information contextuelle, et la transformer en services à valeur ajouté « évident » pour les utilisateurs. Microsoft, en faisant apparaitre Office Graph dans Office 365, marque ici un point important pour l’avenir.
  • Corolaire : pour éviter la surcharge d’information des utilisateurs, il sera nécessaire de recourir à toujours plus d’automatisation dans les processus collaboratifs.

 

5-Et si la collaboration augmentée n’était plus du domaine de la science-fiction ?

Il est certainement nécessaire de commencer par définir ce qu’est la collaboration augmentée, également appelé collaboration immersive.

4

L’expression est dans le vocabulaire de Cisco, et de Microsoft notamment, et désigne des modalités d’interactions ringardisant celles décrites dans le film « Minority Report » ; combinez ainsi les capacités de la vidéo HD (pour ne pas dire UHD), la réalité augmentée (ex : Google Glass, les casques Oculus VR), le contrôle par la voix (ex : Siri, google Now, Cortana), la traduction vocale en temps-réel (ex : évolution de Skype), et vous pouvez imaginer dans un avenir finalement très proche des scénarios de conférences électroniques réellement « augmentées », comparativement à ce que nous proposent aujourd’hui WebEx ou Lync J

Cette tendance nous semble inéluctable, à l’aune du foisonnement technologique que l’on constate tous les jours sur le Web, ou à l’occasion de rencontres comme le Consumer Electronic Show de Las Vegas.

Les capacités de l’IoT (capteurs) et l’arrivée des Wearables renforcent cette tendance : détection d’émotions, capteurs thermiques, capteurs de mouvement (Kinect), etc.

Il « suffit » donc d’attendre que toutes ces technologies s’alignent les unes avec les autres pour que nous ayons, d’ici 2 à 4 ans, des capacités de meeting face-à-face réellement immersifs !

Des acteurs comme Cisco et Microsoft mettent d’ores et déjà ces objectifs au cœur de leurs stratégies.

 

6- Et si Microsoft perdait la bataille du temps-réel ?

Les conférences audio, vidéo, sont au cœur de beaucoup de scénarios collaboratifs, et sans contexte des acteurs comme Cisco, Adobe, Apple, Google et Microsoft ont beaucoup faits pour que ces services se banalisent dans les entreprises et sur Internet.

Sur le marché Entreprise, Microsoft est en train de se tailler une place prépondérante avec sa solution Lync, qui le place à priori dans une situation très confortable pour envisager l’avenir.

A priori seulement, car le géant pourrait avoir un pied d’argile…. Comme nous allons le voir dans un instant. Ce qui nous amène à cette malheureuse 6ème prédiction pour l’éditeur (nous lui souhaitons de nous détromper à l’avenirJ)

De quel problème s’agit-il ?

Aujourd’hui, les solutions audio/vidéo nécessitent le recours à des plug-ins propriétaires dans les navigateurs, et une grande bataille – essentielle – se livre pour savoir comment streamer nativement ces flux sur le web, et faire en sorte que des navigateurs permettent d’effectuer nativement des conférences entre pairs.

Un premier effort de standardisation s’appelle WebRTC. Il s’agit d’une API JavaScript actuellement à l’état de draft (W3C, IETF), permettant la communication temps-réel dans le navigateur. Cette proposition est soutenue – excusez du peu – par Google, Mozilla, Opera, et Cisco.

Un observateur attentif remarquera que derrière ces acteurs, ce sont les navigateurs Chrome et Firefox qui supportent déjà WebRTC.

Reste Internet Explorer et Safari d’Apple.

Justement, Apple est en train d’intégrer le code WebRTC de Blink dans le WebKit, ce qui tendrait à montrer que d’ici quelques mois le monde WebRTC devrait englober aussi ce navigateur particulièrement répandu dans le monde de la mobilité.

Or donc, comment se positionne Microsoft ?

Justement, le problème de fond – qui nous amène à la sombre prédiction – est que l’éditeur de Redmond a proposé une alternative à WebRTC, appelé CU-RTC-WEB (pour Customizable, Ubiquitous Real-Time Communication over the Web), et ne supporte pas WebRTC 1.0, ni dans son navigateur, ni dans Lync, ni dans Skype.

Glups : si Apple rejoint effectivement WebRTC, ce seront 4,8 milliards de mobiles qui supporteront WebRTC en 2018 (source ABI Research), face à un Microsoft esseulé.

L’éditeur ne prend ainsi-t-il pas un trop grand risque à fragiliser non seulement IE, mais aussi Lync & Skype, et donc potentiellement sa place de leader dans le monde de l’audio/vidéo sur Internet ?

 

7-Et si les offres de synchro & partage de documents révolutionnaient le collaboratif ?

Plantons tout d’abord le paysage du débat.

Vous n’avez pas manqué de constater que des offres telles que Dropbox sont massivement plébiscitées par les utilisateurs, car ceux-ci adorent :

  • La possibilité de sauver leurs documents bureautiques et leurs photos/vidéo sur leur PC/Mac,
  • de retrouver « magiquement » ces mêmes fichiers sur leurs autres –éventuels- PC et Mac, sans souci de mise à jour, même en situation de mobilité
  • pouvoir accéder à leurs bases de documents depuis leurs smartphone et leurs tablettes.

N’en déplaise aux Cassandres qui prédisaient la mort du fichier, celui-ci n’a jamais été aussi vivant qu’en cette ère de la mobilité et du multi-device.5

La consumérisation des usages a effectué une sélection que je qualifierai de darwinienne en faveur des solutions type Dropbox : un référentiel de document dans les nuages (public ou privé), accessible en tout lieu et depuis tout device, une synchronisation avec les clients riches permettant un mode déconnecté, et des possibilités de partage simples par clic-droit, et envoi d’une URL par email.

Le marché ne s’y trompe pas, et de nombreux acteurs se positionnent sur ces scénarios, en venant de différents horizons : pure players, acteurs de la mobilité, vendeur de plate-forme globales.

Une tendance se fait jour à partir de ces principes fondateurs : proposer des fonctions collaboratives dans le contexte du document : je pense notamment à la fonction « document conversation » proposé depuis peu par Microsoft au-dessus de OneDrive Entreprise permettant de discuter autour du document. Box.com propose des scénarios proche, et même IBM se lance dans l’aventure, en utilisant sa plate-forme Connections (cf Connections vNext), alors qu’on aurait pu penser que FileNet aurait été un vecteur naturel : tout un symbole.

Comme le fait remarquer le Gartner Group, ces solutions de partage et synchronisation de fichier deviennent le référentiel sur lesquelles s’agréger des solutions collaboratives.

De là à dire que ces nouveaux services pourraient bouleverser le paysage du collaboratif basés sur des sites d’équipes, des communautés, il n’y a qu’un pas…

Nous ne sommes qu’à l’aube de la transformation, mais il est clair que de profonds bouleversements sont à prévoir à cause – ou grâce – à ces solutions de synchronisation et partage de documents.

8 – Et si le Big Data venait au secours du collaboratif ?

Nous parlions déjà du Big Data dans la thématique des objets connectés.

Dans cette « tendance », nous partons d’un constat bien différent : la surcharge d’information, auquel est confronté l’utilisateur, hier comme aujourd’hui et comme demain.

Certes, face aux dérives de l’email, qui serait la cause essentielle de cette surcharge d’information, on nous « vends » les réseaux sociaux, qui permettraient de s’affranchir de trop nombreux push d’information ; au contraire, ils permettraient à l’utilisateur de choisir quand consulter tel ou tel domaine d’intérêt, telle ou telle communauté.

Un vœu pieu selon notre expérience. Bien au contraire, il nous apparait qu’au sein des entreprises ayant déployé les réseaux sociaux, le plus souvent aux côtés de systèmes de messagerie traditionnels, le problème de la surcharge d’information ne fait que se complexifier.

Face à ce capharnaüm d’information, il nous semble que l’utilisateur devra de plus en plus être assisté par l’infrastructure dans la tâche de pré-sélection, de tri et filtrage de l’information. Les technologies du big data, associées à des capacités d’auto-apprentissage, seront à notre avis essentielles à l’avenir pour que l’utilisateur soit à même de maitriser réellement son écosystème informationnel et collaboratif.

A ce petit jeu, les acteurs du cloud seront les gagnants de demain, car il ne sera pas évident pour une entreprise de mettre en œuvre en interne des capacités big data.

Les évolutions de Microsoft autour d’Office Graph, d’Oslo et des fonctions « Clutter » d’Outlook, s’inscrivent exactement dans la perspective de cette tendance.

Bref, l’avenir nous réserve de belles surprises, et nous n’avons fait qu’effleurer le sujet aujourd’hui. Bonnes vacances, et bonnes rêveries !

POST SCRIPTUM : nous apprenons que Satya Nadella a envoyé un memo aux employés indiquant que Microsoft allait « réinventer la productivité », via des investissements importants non seulement  sur Office, mais aussi sur des services analytiques, les outils de développement, les outils de traduction. Et de citer le traducteur Skype, Cortana (que j’évoque dans l’article), et un service AzureML machine-Learning. … à croire que le CEO de Microsoft a eu accès aux brouillons de mon article, et s’en est inspiré, pfffff….

Eric Mijonnet – Directeur Associé

Eric.mijonnet@calipia.com

 

« Entrées précédentes Derniers articles »