archive | Tribune Flux RSS pour cette section

[Lettre Calipia] Et si la technologie apportait du bien être dans l’entreprise ?

(Article issu de La Lettre Calipia N°130. Abonnement gratuit sur demande : calipia.com/lettre.php)

C’est très « tendance », on assiste à beaucoup de réflexions pas forcément très positives sur la technologie du type « charge mentale », contrainte du mail, contrainte d’être en permanence joignable, on entend souvent que nous sommes esclaves de notre portable, voire d’Outlook tout simplement.  On revendique ainsi un droit à la déconnexion…

Notre propos ici n’est pas de nier ces faits, encore moins de ne pas revendiquer un droit réel à la déconnexion. Comme dans toutes choses il y a des abus, comme dans toutes choses il y a des usages inappropriés, et les technologies n’échappent pas à la règle.

Si elles sont fabuleuses, voire enthousiasmantes pour certains (dont nous sommes, évidemment), elles sont aussi addictives, avec les travers qui vont avec.

Tout est une question d’usages : l’électricité est dangereuse si l’on met ses doigts dans la prise, en revanche pour d’autres usages c’est beaucoup plus intéressant et plus inoffensif…

Vous l’avez compris, nous souhaitons donner ici une autre vue des choses, voir en quoi les technologies permettent de disposer de certain confort, que nous appellerons « bien être technologique ». Nous regarderons ainsi volontairement les aspects les plus positifs. Et comment maximiser ces derniers au sein des organisations.

Tous les soucis, tous les griefs des utilisateurs à propos des technologies en entreprise proviennent le plus souvent de l’usage de la messagerie. Véritable tonneau des Danaïdes, qui nous contraint de vider en permanence cette boîte de réception ! Notre impuissance à la garder dans un état exploitable (moins d’une vingtaine de messages) est souvent révélateur d’une perte de contrôle sur la bête…

Au commencement était l’email…

La messagerie s’est déployée très rapidement dans les entreprises, son usage a cru de façon extrêmement rapide, si l’on compare à d’autres technologies. Les courriers papiers se sont imposés en plusieurs siècles, le téléphone à mis plus de 80 ans pour devenir banal en entreprise, et ceci par étapes.

Lire la suite

Publicités

[La Lettre Calipia] Les mises à jours en continu : inéluctable ?

(Article issu de La Lettre Calipia N°126. Abonnement gratuit sur demande : calipia.com/lettre.html)

Avec l’arrivée chez Microsoft de Windows 10 et surtout le changement dans le mode   de diffusion des nouvelles versions du système d’exploitation, la question des mises à jour en continu est un des sujets brulants de la rentrée pour bon nombre de directions informatiques.

Se posent alors les questions suivantes :

  • Comment gérer au mieux les mises à jour en continu ?
  • Cette tendance de fond est-elle inéluctable ou peut-on l’éviter ?
  • Comment continuer de valider les mises à jour de systèmes d’exploitation et d’applicatifs avant que l’éditeur ne les imposent directement aux utilisateurs ?
  • Si l’éditeur nous offre une mise à jour en différée par rapport à sa mise à disposition pour le grand public, aura-t-on assez de temps pour valider sa compatibilité applicative avec l’ensemble du socle logiciel présent sur les postes de travail ?
  • Quels seront les changements que nous devront opérer en interne pour qualifier beaucoup plus rapidement une nouvelle version du système de base ?
  • Alors que les entreprises attendent parfois plus de 12 ans pour changer de version de Windows (passage de  Windows XP au déploiement de Windows 7 par exemple) et même si l’éditeur nous promet de moindres difficultés, est-on prêt pour faire évoluer nos systèmes au fil de l’eau ?
  • Les éditeurs et Microsoft en tête, ne seront-ils pas être obligés de faire machine arrière ?

Lire la suite

[Lettre Calipia] Le hardware est-il réellement stratégique pour le nouveau Microsoft ?

(Article issu de la Lettre Calipia, Abonnement gratuit : calipia.com/lalettre)

Depuis que Satya Nadella a pris la place de Steve Ballmer en tant que PDG de Microsoft, il s’est efforcé de faire entendre sa propre musique et développer sa propre vision pour l’éditeur. Au cœur de cette vision l’accroche « Mobile First and Cloud First ». Si cette vision est très claire d’un point de vue général, c’est bien sûr dans les détails et dans l’exécution qu’elle se révèlera ou non, clé pour Microsoft. Si l’affirmation Cloud est très explicite et ne fait que renforcer le positionnement qu’en avait exposé Steve Ballmer, la stratégie « Mobile First » est parfois plus ambiguë.

Pour être plus clair, Satya Nadella parle-t-il ici des périphériques Windows, de Windows ou plus généralement des services Mobiles sans distinction de plateforme ? S’agit-il des Mobiles « Microsoft » motorisés par les différentes versions de Windows ou les mobiles du marché ? Il va de soi que l’ambiguïté permet plusieurs interprétations.

Ainsi si vous travaillez par exemple à la vente des Lumia ou des Surface, il n’y a pas de débat pour vous, on parle bien entendu des périphériques Microsoft. Même réflexion si vous vous chargez de la promotion de la dernière version de Windows, et puis comment pourrait-il en être autrement ? Quel employé aurait l’outrecuidance d’en affirmer le contraire ?

Et bien je pense que cet employé existe, et qu’il se nomme Satya Nadella 🙂

Lors du diner annuel de la Chambre de Commerce de Seattle auquel il participait, le journaliste Todd Bishop de Geekwire[1] lui a demandé ce qu’il comptait faire pour améliorer les ventes de Windows Phone dont les parts de marché restent très faibles aux Etats Unis et ne montrent pas de signes évident de croissance. Satya Nadella, ne s’est pas lancé comme on pouvait peut-être l’imaginer dans une explication de texte des tactiques mises en œuvre, expliquant comment par exemple il comptait recruter de nouveaux partenaires coté opérateurs et coté constructeurs, il n’a pas mis en avant la nouvelle politique de gratuité de Windows Phone visant à reprendre des parts de marché à Android, il n’a pas non plus parlé des synergies pourtant présentes dans toutes les présentations entre Windows Phone 8 et Windows 8, de l’interface Modern UI, des interfaces de programmations identiques, d’un application store bientôt unique (annoncé hier avec Windows 10) entre ces systèmes.

Non rien de tout cela. Il a préféré formuler une réponse plus surprenante mais qui en dit long je pense sur sa vision :satya « La part de marché de Windows Phone n’a pas d’importance »

Pour enfoncer le clou, il a poursuivi avec ce qui selon lui doit être l’objectif de la société : « Ce n’est pas l’appareil qui est au centre de notre vision mais la personne. C’est de faire que nos plateformes de services offrent la plus grande productivité possible aux utilisateurs (…) Il y aura à l’avenir de nombreux appareils, des grands et des petits, des facteurs de formes qui n’existent pas encore. Vos souvenirs numériques, vos expériences de productivité sur l’ensemble de ces dispositifs seront les points essentiels (…) Notre objectif est de rendre disponible les applications Microsoft sur n’importe quel poste indépendamment du fait qu’il soit sous Windows ou non ».

Au moins c’est clair et les choses sont dites.

stat1 Au-delà des déclinaisons de Windows, évoquées précédemment, je pense que le positionnement de Microsoft en tant que constructeur de matériel n’a pas la même importance pour un Satya Nadella  que pour un Steve Ballmer hurlant « Devices, Devices, Devices… » !

Posons-nous la question : si Satya Nadella avait été à la place de Steve Ballmer il y a un an, aurait-il pris la décision de racheter la division mobile de Nokia ?

Au vu de la récente actualité sur les licenciements massifs chez ce dernier (y compris dans les forces de fabrication et de R&D ne faisant pas de doublons avec des effectifs chez Microsoft), ma conviction est qu’il n’aurait sans doute pas pris la même décision que son prédécesseur… L’alliance à haut niveau MS-Nokia lui aurait peut-être suffit ? Et l’on peut même se poser la question si la division mobile de Nokia est encore réellement viable amputée de la moitié de ses effectifs ? La société de Satya n’est plus la « Devices and Service Company » de Steve …

Le Hardware : stratégique ou purement tactique ?

Disons le tout de suite, Microsoft conçoit depuis très longtemps du Hardware, depuis 2001 avec l’Xbox et depuis plus longtemps encore des claviers, des souris, des webcams… Les plus anciens se souviendrons également que Microsoft avait également créé des cartes son (dont la Microsoft Sound System), des hauts parleurs, et même des cartes mémoire pour imprimante HP (Windows Printing System)…

Si l’activité Xbox est très particulière et s’adresse à un marché bien spécifique avec son propre écosystème (dont le business model ne repose pas sur le hardware mais sur les jeux et l’activité Online), le reste des activités matérielles de Microsoft n’a jamais vraiment été très stratégique mais essentiellement tactique. Il était là  pour réaliser quelques ventes incrémentales, voire pour montrer un peu la voie (on se souvient de la touche « Windows » des claviers faisant ensuite des émules chez les Logitech, ou encore plus récemment de la RoundTable pour Lync reprise maintenant par Polycom). De plus, ce qui peut poser des problèmes à Microsoft autour du Hardware est clairement sa rentabilité intrinsèque.

Microsoft depuis toujours réalise une marge très importante sur le software : de l’ordre de 30%. Sur ses services en ligne, les marges devraient être comparables à terme si l’on juge des derniers résultats publiés par la société sur les ventes d’Office 365 par exemple. Il est clair que de telles marges ne sont pas possibles côté matériel.

Même Apple, pourtant uniquement sur un segment premium et bénéficiant du positionnement du statut de « Référence » sur les tablettes et Smartphones, n’atteint pas de tels niveaux. La firme à la pomme voit au fil des ans sa confortable marge se réduire (un peu) alors que les produits de ses concurrents progressent.

Microsoft n’est pas dans la même situation. L’essentiel des ventes de ses smartphones ne se font pas sur le segment premium, le Lumia « haut de gamme » est à la moitié du prix d’un téléphone Apple. Les Lumia jouent en fait dans la même catégorie que les smartphones Android, catégorie où la marge est extrêmement faible, avec obligation de faire du volume pour garantir une rentabilité.

stat2 Si les ventes sont importantes en volume dans certains pays européens avec près de 10% de parts de marché, ces dernières sont tirées très majoritairement par les Lumia d’entrée de gamme (5XX et 6XX) synonymes de marges encore plus réduites. Au niveau mondial, contrairement à Android, les ventes restent très faibles et sont même en régression sur le dernier semestre … stat3 Elles affichent une baisse de -10% tandis qu’Android progresse de 33% et Apple de 13%. Le cas des Tablettes Surface de Microsoft est différent : si elles se positionnent clairement sur le marché haut de gamme, (positionnement renforcé avec la version 3), le niveau des ventes serait encore très faible. Les pertes de l’activité tablette de Microsoft auraient été estimées à 1,7 Milliard de $ en juillet dernier après la publication des résultats annuels de l’éditeur (sources : document transmis par Microsoft à la SEC[2] et analyse de The Register[3]). Espérons pour l’éditeur que la version 3 (très attrayante au demeurant) l’aide à remonter la pente…

Remarquons au passage qu’il a profité de cette évolution pour revoir sa communication : ce qui était « La tablette sans compromis » des versions 1 et 2 est plus clairement maintenant un ultra portable qui fait aussi tablette et peut donc « remplacer le PC ». Les publicités comparatives ne se font plus vis à vis de l’iPad mais du Macbook Air.  En tout cas la concurrence risque d’être également rude vis à vis des autres constructeurs. Pas sûr également que les différentiateurs de cette Surface Pro 3 soient assez forts pour garantir un haut niveau de marge.

Faire du matériel pour vendre du Software et du Service ?

Lorsque les acteurs du logiciel se sont aventurés à faire du matériel, l’objectif a souvent été pour eux d’accélérer la promotion de leurs logiciels et leurs services. Le moins que l’on puisse dire c’est que cela a rarement été couronné de succès.  Google qui a tenté l’aventure en rachetant Motorola l’a revendu il y a moins d’un an au chinois Lenovo. La cause officielle : un manque de synergie, plus officieusement, Google était sans doute bien plus motivé par l’acquisition de brevets que par la mise en œuvre d’une véritable stratégie de constructeur de mobiles.

A l’inverse IBM à revendu ses activités PC et Serveurs à Lenovo, en cause, là encore la rentabilité, la maitrise du matériel n’étant pas jugé par la société comme un catalyseur suffisant pour la vente de ses services. Reste le cas d’Apple, mais ce dernier à toujours été un constructeur faisant du software avant tout pour vendre son matériel (la gratuité des OS de ce dernier en constituant une belle illustration).

Même si des exemples existent, y a-t-il un seul cas de réussite en la matière ? Avec le rachat de  Sun par Oracle, ce dernier est devenu lui aussi un constructeur, mais la vente de matériel par le spécialiste de la base de donnée est-elle là encore un succès ? Ses véritables motivations, n’étaient-elles pas là ailleurs : comme dans la division logiciel de Sun qui détenait aussi Java, MySQL, OpenOffice ?

Pour conclure sur une question, certes un peu provocante, résumant bien à mon avis le positionnement de Microsoft : selon vous quel est le produit qui accélère le plus les ventes d’un produit au cœur de la stratégie de Microsoft tel qu’Office 365 en entreprise depuis 3 ans ?

  • Réponse A : les tablettes Surfaces et les Smartphones Lumia
  • Réponse B : Les iPads, iPhones, Tablettes et Smartphones Android

Ne cherchez pas la réponse dans le prochain article de la lettre Calipia, mais plutôt dans la publication des résultats de Microsoft et les discours de son nouveau PDG 🙂

Nous reviendrons sur ces sujets et bien d’autres lors du prochain Briefing Calipia (novembre et décembre 2014), n’hésitez-pas nous rejoindre : calipia.com/briefing

[1] http://www.geekwire.com/2014/microsoft-ceo-satya-nadella

[2] http://www.sec.gov/Archives/edgar/data/789019/000119312513310206/d527745d10k.htm

[3] http://www.theregister.co.uk/2013/07/30/microsoft_surface_sales_disaster/

[Lettre Calipia] Le « code à l’école », une chance pour la France ?

lemaire-enfants-apprennent-84730673J’ai la chance, par le biais de cette Lettre Calipia, de pouvoir exprimer parfois quelques réactions épidermiques liées à des annonces relatives à l’actualité informatique. Et ce avec la plus insupportable mauvaise foi, mais en tentant de creuser un peu le sujet, ce qui me permet de repousser un peu le moment ou je serai obligé d’expliquer à un psy l’aspect ontologiquement schizophrénique de mon activité de veille technologique.

Donc après avoir égratigné quelques tendances de l’industrie informatique (les tablettes, le Green Computing, l’obsolescence programmée, etc.), je vous propose de revenir sur un sujet plus sociétal, qui porte globalement sur la compréhension par les politiques des impacts liés au développement des TIC (Technologies de l’Information et de la Communication) sur la vie réelle des gens.

Le prétexte de ce billet, ce sont évidemment les nombreuses déclarations de l’ex-ministre de l’éducation Nationale Benoit Hamon en mai relayées par la toujours secrétaire d’état en charge du numérique Axelle Lemaire (rattachée au ministre de l’Économie et du redressement productif, qui était à l’époque Arnaud Montebourg), sur les deux éléments semble-t-il principaux de la future loi sur le numérique, l’enseignement du « code » à l’école avec comme « corollaire » le haut débit pour toutes les écoles.

Evacuons rapidement le « haut débit », qui est un serpent de mer apparaissant (avec le Logiciel Libre) de façon récurrente dans toutes les communications politiques concernant les TIC depuis plus de 10 ans, en étant par exemple cité comme une priorité dans les programmes de 8 candidats sur 13 à l’élection présidentielle de 2007 (cf. Lettre Calipia n°33, Avril 2007). Avec certes des améliorations, mais qui ne sont dues qu’aux investissements effectués par les opérateurs privés (SFR, Bouygues, Free, Numericable) ou semi-privés (Orange) pour le développement de l’accès Internet haut débit, via la fibre, ADSL ou le réseau hertzien (GSM/EDGE/UMTS/LTE/etc.).

L’intention affichée de connecter en « haut débit » (au moins 8 Mbits/s) 9 000 écoles dès septembre via son plan « Ecoles Connectées » est louable (16 000 sur 54 000 n’ont actuellement pas d’accès Internet haut débit). La technologie choisie repose sur des communications satellites. L’Etat via le Fonds National pour la Société Numérique (FSN) alloue un budget de 5 millions d’euros pour couvrir l’achat du matériel de connexion (parabole, routeur Wifi, etc.) et son installation pour environ 400 euros par établissement. Et c’est bien.

Ce qui serait mieux serait que ce plan « Ecoles Connectées » soit en cohérence avec le plan France THD (Très Haut Débit) qui pour les mêmes objectifs semble donner la priorité à la fibre optique et l’utilisation du réseau électrique voire du réseau ferroviaire. Ce qui ne semble pas être le cas et on peut craindre que même dans le domaine des infrastructures, les soucis d’affichages ne l’emportent sur une cohérence cependant indispensable.

Mais de toute façon, le simple fait de considérer qu’un accès Internet haut débit pourrait être un élément essentiel à l’apprentissage du « Code à l’école » est tout simplement grotesque.

Qui a jamais eu besoin d’un accès Internet haut débit pour afficher « Hello Word » ?

Passons donc tranquillement à la vraie nouvelle trouvaille de nos politiques de gauche comme de droite (un projet de loi identique a été proposé par l’UMP), afin de sauver notre pays qui serait, vous l’aurez compris, l’enseignement du CODE à l’école.

Le « code à l’école » : quelques mots sur le contexte

Partout à travers le monde l’idée d’apprentissage du numérique à l’école semble être devenu le nouveau Graal, et en France une importante activité d’associations, d’organismes, ou syndicats professionnels a pour but assez légitime d’influencer la classe politique afin que l’enseignement du numérique soit considérée comme une grande cause nationale pour l’année 2014[1].

Probablement soumis à cette pression importante et très certainement en mal de communication concernant l’idée géniale sur les orientations futures de l’enseignement qui sera dispensé à nos enfants afin de les préparer à affronter un monde qui devient de plus en plus communiquant, notre classe politique (gouvernement PS mais aussi UMP) a été depuis mi-mai assez active en termes d’annonces.

Voici un court résumé des faits.

La chronologie, et quelques réflexions de fond

Lors de la création du gouvernement Valls, le 9 avril 2014, Axelle Lemaire a succédé à Fleur Pellerin comme secrétaire d’État chargée du Numérique. Cette dernière avait engagé une politique volontariste qui a suscité l’intérêt de la plupart des acteurs du secteur. Dans le domaine de l’éducation populaire et de la formation, elle a porté le projet des Espaces publics numériques et des Cyber-bases[2]. Pour le reste du numérique éducatif, c’était l’affaire de Vincent Peillon qui avait lancé le chantier de l’École numérique. Et même si ce dernier n’avançait pas très vite, tout allait à peu près bien…

Les choses s’emballent dés le 15 mai lors d’un « Tchat » avec les lecteurs de 20minutes lors duquel une question est posée sur le fait que l’apprentissage de la programmation informatique pourrait être (dans le programme en cours de préparation par le ministère de l’éducation nationale) intégré dans les programmes obligatoires à l’école élémentaire.

Et la réponse est assez stupéfiante :

« C’est une des clés pour que les prochaines générations maîtrisent leur environnement numérique. Apprendre la programmation, permet de dépasser la simple sensibilisation au numérique et de se rendre compte qu’on peut modifier les Smartphones qu’on utilise, qu’on peut réaliser des films, qu’on peut créer des jeux. On apprend l’anglais, le chinois, il faut apprendre à coder!

C’est une brique essentielle de la créativité, comme le collage ou le découpage… Faire du code c’est un outil au service d’un projet scientifique, artistique ou pédagogique.

Aujourd’hui ce n’est pas dans les programmes mais j’aimerais par exemple que le temps périscolaire permette ce genre d’ateliers un peu partout en France. Un collectif s’est d’ailleurs créé récemment pour cet objectif: «Code Junior». Il existe déjà des initiatives au niveau local, soutenues par des associations et des entreprises prêtes à investir. J’espère qu’elles se démultiplieront à l’échelle nationale. »

Pourquoi cette réponse est-elle stupéfiante ?

Peut-être parce qu’en quelques lignes la secrétaire d’état démontre :

  • Une incompétence inquiétante dans le domaine de l’informatique en utilisant le terme de coder (pauvre anglicisme qui serait avantageusement remplacé par programmer sauf si le but est d’apprendre l’assembleur à des enfants de moins de 10 ans), mais surtout en associant la « maitrise du code » à un acte créatif alors que l’utilisation d’un langage de programmation n’est que l’ultime, et pas forcément nécessaire (compte tenu des outils de programmation disponibles) étape d’un processus plus profond d’analyse qui requiert plus une structuration de la pensée que la maitrise d’un outil. Le parallèle avec le « collage et le découpage » est de plus assez hallucinant compte tenu des enjeux.
  • Qu’elle ne connaît pas vraiment les programmes scolaires de l’école primaire, puisqu’il ne me semble pas que le chinois soit enseigné de façon obligatoire. Et que l’enseignement de l’anglais reste malgré de nombreuses annonces assez expérimental.
  • Qu’elle n’hésite pas à semer la panique en parlant de périscolaire et des associations:
    • Elle met dans l’embarras le ministre de l’éducation, qui avant d’être remercié devait gérer une réforme, le « plan numérique pour les écoles » qui devait prendre effet en septembre, et dont le calendrier a été légèrement perturbé.
    • Elle déclare se reposer sur un tissu associatif qui est déjà très actif, mais dont l’efficacité repose justement sur le fait de ne pas avoir a se soumettre au carcan des programmes pédagogiques du ministère de l’éducation nationale. Tout parent ayant jeté un coup d’œil sur les « cours de technologie », lesquels « traitent » de l’aspect informatique en expliquant comment se servir d’une souris ou imprimer une présentation PowerPoint, sera probablement d’accord avec l’aspect castrateur de la démarche.

Avant de continuer cette chronologie, je vous re-propose cette citation. C’est clairement ma préférée, et elle m’a fait rire tout l’été (je suis bon public et la météo était maussade).

Code et Chinois

Plus sérieusement, le lendemain Le Figaro[3] saute sur l’occasion pour relayer les propos d ‘Axelle Lemaire qui tombent comme par hasard après un article le 15 mai de ZDNet[4] concernant une proposition de loi visant à rendre obligatoire l’enseignement du codage informatique à l’école, proposée par une vingtaine de députés UMP. Cette proposition portée par Laure de la Raudière (avec le soutien de quelques personnalités telles que Bruno Le Maire ou Christian Estrosi) sera enregistrée à la Présidence de l’Assemblée Nationale le 11 juin[5]. Proposition assez opportuniste et relativement vague qui demande une modification du code de l’éducation très proche des demandes d’Axelle Lemaire (comme par hasard) :

« Les objectifs prioritaires assignés aux écoles sont l’apprentissage de la langue française, la maîtrise de la lecture, de l’écriture, l’utilisation des mathématiques et l’apprentissage du code informatique. Ces savoirs doivent impérativement être acquis lors de l’entrée au collège. »

Entre parenthèses à l’occasion de l’article du Figaro le langage HTML est cité (avec une amusante formule : Parlez-vous HTML ?) ce qui est consternant puisqu’HTML est un langage de description (mettre des balises sur du texte pour gérer l’affichage) et en aucun cas un langage de programmation (qui implique une certaine logique).

Le même jour (donc le 16 mai) Axelle Lemaire donne aussi une interview (elle était à l’Ecole d’informatique « 42 » de Xavier Niels) au Journal du Net[6] dans laquelle après quelques contorsions (mise en évidence de la complexité d’un projet impliquant les ministères de l’éducation nationale, le ministère des finances et le ministère du travail), elle réaffirme sa volonté d’imposer « l’apprentissage du code » à l’école primaire, dans le cadre du temps périscolaire et avec l’aide des associations ou des entreprises.

Pour la bonne bouche j’adore la conclusion de sa réponse : « Pour moi, un tel projet a plus de chance de s’imposer en partant ainsi de la base, en bottom-up, qu’en top-down. ». Parler anglo/américain (même pour une Franco/Canadienne) dans une communication sur l’éducation est assez surprenant. Mais expliquer dans la même interview vouloir partir de la base (le réseau d’associations déjà très actif sur le sujet comme nous allons le voir plus loin) en communiquant activement sur une volonté d’imposer cet enseignement dans le cadre semi-formel du périscolaire (ce qui ressemble furieusement à du « top-down »), ce n’est plus surprenant, c’est juste déroutant.

Reprenons le fil de notre chronologie, avec semble-t-il, dans les jours qui ont suivi, quelques tensions entre les cabinets respectifs d’Axelle Lemaire et de Benoît Hamon, ministre de l’Éducation. Ce dernier se serait étonné des initiatives médiatiques malheureuses de sa consœur venant influer sur son projet d’école numérique, qui devait intégrer globalement cet aspect du numérique dans l’éducation en se basant sur l’avis de l’Académie des Sciences rendu début mai (L’enseignement de l’informatique en France. Il est urgent de ne plus attendre)[7].

Cet avis, très intéressant par ailleurs et formulant des propositions pertinentes concernant l’introduction de l’informatique de façon progressive dans les programmes (primaire, collège, Lycée) est effectivement une base de réflexion sérieuse, malheureusement a été totalement passée sous silence du fait de l’agitation médiatique liée aux incantations ridicules d’Axelle Lemaire (le code, le code, le code, et dès la primaire !!!).

Le 23 juin Axelle Lemaire dans une interview à NextInpact[8] revient sur son initiative avec une certaine mauvaise foi quant à sa position par rapport au projet de loi de l’UMP déposé par Laure de la Raudière en feignant de ne pas en avoir été informée (ce qui est au mieux peu crédible, au pire assez inquiétant), tout en affirmant que « Benoit Hamon est très réceptif à ces sujets ». Et pour cause puisque qu’une initiation aux concepts de l’informatique à l’école primaire fait partie des recommandations de l’Académie des Sciences.

Ce triste théâtre d’ombres sera conclu par Benoit Hamon qui le 12 juillet a cédé à la pression en reprenant à son compte l’idée absurde et vague de « favoriser en primaire une initiation au code informatique » lors d’une interview au Journal du Dimanche[9]. Ce faisant le futur ex ministre de l’éducation a cédé aux manœuvres de communication de sa collègue et de l’UMP, sans tenir compte des suggestions de l’Académie des Sciences, certes compliquées à mettre œuvre, mais qu’il aurait été judicieux défendre.

De là à conclure que le jeu politique n’est pas forcément garant de propositions avisées pour le bien commun, il n’y a qu’un pas à franchir. Surtout lorsqu’ils ne connaissent rien aux sujets sur lesquels ils doivent prendre des décisions. Inculture d’autant plus sournoise et inquiétante qu’elle touche des personnes censées être cultivées, faisant preuve de discernement et soucieuses du bien public.

Enfin je ne résiste pas, toujours pour conclure cette chronologie au plaisir de vous rappeler un extrait d’un billet de Mediapart[10] qui met très précisément le doigt sur le problème :

« Cette proposition montre bien l’incompréhension des politiques par rapport à la vague numérique qui les dépasse. Oui, le numérique associé à Internet va transfigurer tous les domaines de la société, l’école y compris. Les sociétés vont subir le numérique et leurs dirigeants font mine d’anticiper ces fortes transformations en introduisant l’apprentissage du code informatique. »

Quid du réseau associatif et des « groupes d’influence » ?

L’idée de sensibiliser nos enfants aux différents aspects de l’informatique est parfaitement louable puisque ces technologies sont sans contestation possible un élément prégnant de notre vie de tous les jours et une opportunité de développement de l’activité économique.

Et le bon sens étant assez largement partagé, tant en France qu’à l’étranger, nombreux sont ceux qui promeuvent officiellement l’enseignement de l’informatique à l’école : l’Académie des Sciences déjà citée, mais aussi la Société informatique de France avec son rapport de juin 2013 (Rapport de la SIF sur la Formation des Enseignants d’ISN[11]) ainsi que sa lettre ouverte au Président[12], la FING[13] (Fondation Internet Nouvelle Génération), et le syndicat Syntec Numérique avec son rapport remis en janvier 2014 au Président de la République (Propositions pour un plan national de formation[14]).

Ces rapports et communications institutionnels sont inspirés de nombreuses initiatives, tant nationales qu’internationales, telles que Code.org[15], le réseau Hackidemia[16], Code for America[17], mais également son équivalent européen, Code for Europe[18] (et leur équivalent Français[19] qui est manifestement encore en gestation).

Citons aussi de nombreuses réalisations concrètes d’enseignement qui vont de l’école d’immersion au code (« 42 »[20]) lancée par Xavier Niels, à la Web@cadémie[21], au site « Le Wagon[22] », jusqu’à des ateliers organisés généralement autours de FabLabs tels que « les petits débrouillards », les « Coding goûters », « Educadinio » ou « Simplon.co ».

L’offre associative est donc déjà très importante, plutôt innovante, assurée par des personnes volontaires et compétentes, et elle vise principalement les jeunes en situation de décrochage scolaire.

La programmation informatique serait-elle l’ultime solution d’intégration dans la société de jeunes gens auxquels le système éducatif n’a pas réussi à inculquer la nécessité de PENSER, alors que toute réflexion est inutile pour retranscrire dans un langage informatique des spécifications détaillées d’un programme crées dans le cadre d’un processus de réflexion logique ?

Ces questions sont importantes. Enfin il me semble. Mais d’autres questions se posent, malheureusement…

Quelques autres réflexions et questions concernant la mise en œuvre du « code à l’école » ?

Le problème est-il simple (et la solution simpliste) ?

Si le fait de sensibiliser les enfants (de l’école primaire au lycée) est sans aucun doute un point important, et si cette sensibilisation ne doit pas être uniquement portée par le réseau associatif mais prise en charge dans le cadre des programmes de l’Education Nationale, l’approche préconisée par l’Académie des Sciences, avec une progression en trois phases semble assez pertinente. Phases dont voici le résumé :

  1. La sensibilisation, principalement au primaire, qui peut se faire de façon complémentaire en utilisant des ordinateurs ou de façon « débranchée » ; un matériau didactique abondant et de qualité est d’ores et déjà disponible.
  2. L’acquisition de l’autonomie, qui doit commencer au collège et approfondir la structuration de données et l’algorithmique. Une initiation à la programmation est un point de passage obligé d’activités créatrices, et donc d’autonomie.
  3. Le perfectionnement, qui doit se faire principalement au lycée, avec un approfondissement accru des notions de base et des expérimentations les plus variées possibles.

De plus est mis en avant dans ce rapport l’importance de la formation des enseignants, ce qui semble effectivement plus que nécessaire avant l’introduction de mesures qui vont potentiellement concerner plus de 12 millions d’élèves (dont 6,7 million dans le primaire où doit être « enseigné le code »), d’après les chiffres du ministère[23].

Code et educ

On voit donc que ce projet d’apprentissage de l’informatique à l’école, quoique nécessaire n’est pas simple, et il me semble que la communication de nos élites politiques, avec une focalisation sur le « code à l’école primaire » entraine de forts risque de dérapages (habituels dans les politiques gouvernementales depuis plus de 20 ans), dérapages qui consistent à un affichage de façade privilégiant des plans d’investissement couteux de matériels peu ou mal utilisés au détriment d’une réflexion de fond sur la pédagogie et l’humain.

 

Le « plan numérique pour l’école » sera-t-il un nouveau tonneau des danaïdes (rappel historique) ?

La forme risque donc d’être privilégiée, et si vous êtes sceptiques, ce qui serait assez naturel, laissez moi vous rappeler les dernières grandes initiatives concernant le numérique (ou les TICE, TIC, STIC, etc. dans le jargon administratif) qui ont couté des milliards sans résultats probants.

L’informatisation de la société, rapport remis par Alain Minc et Simon Nora à Valéry Giscard d’Estaing, en 1976, qui fut en son temps un vrai succès d’édition, fut le premier exemple de la médiatisation du numérique. Avec une dimension politique importante puisque les auteurs voyaient dans l’informatisation de la société un moyen souhaitable pour augmenter la productivité générale (travailler moins pour vivre mieux) et rendre caduque la grille d’analyse marxiste du conflit de classes.

Vient ensuite le plan informatique pour tous (IPT)[24] . Ce fut le premier grand programme gouvernemental français à bénéficier d’une certaine médiatisation. Il devait permettre d’initier les 11 millions d’élèves du pays à l’outil informatique et de soutenir l’industrie nationale. Il faisait suite à plusieurs programmes d’introduction de l’informatique dans le secondaire depuis 1971. Le plan IPT a été présenté à la presse, le vendredi 25 janvier 1985, par Laurent Fabius, Premier ministre de l’époque. Il visait à mettre en place, dès la rentrée de septembre, plus de 120 000 machines dans
50 000 établissements scolaires tout en assurant la formation, à la même échéance de 110 000 enseignants. Son coût était évalué à 1,8 milliard de francs, dont 1,5 milliard pour le matériel : Donc 300 millions pour la formation des enseignants ce qui est absolument ridicule !

Ce plan a simplement permis à Bull, Thomson, ou Goupil de faire de très bonnes affaires en vendant des PC plus ou moins technologiquement dépassés (particulièrement les Thomson MO5). Et accessoirement à conforter l’état sur le fait que la France avec le Minitel était à la pointe de la technologie (ce qui avais probablement été vrai) et portait une vision qui pourrait influencer le monde (ce qui était faux).

Après quelques années de calme, une seconde grande initiative numérique a été lancée en 2003 par François Fillon, ministre de l’Education nationale, afin que chaque étudiant puisse acheter un ordinateur « pour le prix d’un café par jour ». L’éducation nationale devait consacrer en quatre ans 209 millions d’euros au développement du numérique à usage pédagogique dans l’enseignement supérieur. Concrètement, les étudiants ont pu bénéficier de prêts à « des taux intéressants » de 1 000 à 3 000 euros remboursables en trois ans.

Donc encore une fois la principale (parce qu’étant la plus visible) réponse des politiques concernant l’évolution de notre société liée à la prégnance des technologies numériques à consisté en des effets d’annonce concernant des plans d’équipement, comme si garantir que tout le monde possède un ordinateur (afin de réduire la fameuse « fracture numérique ») pourrait être l’unique facilitateur d’une sensibilisation des élèves aux subtilités des métiers de l’informatique !

Impossible concernant ce point de ne pas évoquer les nombreuses initiatives très médiatisées et moyennement efficaces d’équipement massif des élèves, pilotées par les conseils généraux ou régionaux afin de fournir des clés USB ou des tablettes (programmes qui coûtent très cher et sont rapidement détournés de l’objectif pédagogique premier par les étudiants récipiendaires). En espérant que les présidents de région ou de département ont réussi à se faire réélire par ce biais…

Depuis plus de trente ans toutes ces initiatives coûteuses (et légitimes) d’équipement des écoles, collèges et lycées semble de plus assez inefficaces puisque le nombre d’ordinateur par élève reste très faible dans le secondaire et que dans le primaire le système D est de mise (recyclage d’anciens ordinateurs de parents d’élèves).

Dans les années 60, il y avait moins de médiatisation et plus d’efficacité. Objectivement tous ces « plans », initiatives et annonces n’ont rien a voir en termes de résultats avec le « Plan Calcul » lancé (discrètement) au début des années 60 et qui a placé la France en termes d’enseignement (avec dès 1966 des cursus informatiques dans le supérieur) et de développements technologiques dans une dynamique incroyable pour les infrastructures et la créativité (souvenez-vous que le premier ordinateur personnel est Français, et que Bull ou Thomson furent de sérieux concurrent de la naissante industrie informatique américaine avant de succomber aux sirènes des « contrats d’état »).

 

Est-il donc plus simple de privilégier l’accessoire à l’essentiel ?

Très probablement en ce qui concerne l’éducation et le numérique… (la question était purement rhétorique).

Du fait d’une inquiétante méconnaissance de notre classe politique du concept même de société numérique (les choses évoluent heureusement depuis Jacques Chirac et son « mulot »), il semble qu’il soit plus simple et médiatiquement rentable d’annoncer que l’on va dépenser de l’argent en équipements divers que de réellement investir sur des politiques à long terme permettant de préparer les générations futures avec des programmes éducatifs transversaux : Les cours de mathématiques, de physique, de langues, de Français, etc. pourraient bénéficier de l’outil informatique ce qui les rendraient probablement plus intéressants pour les élèves.

Mais il faudrait avoir le courage de toucher au « Saint des Saints » de l’Education Nationale, les différentes directions en charge de la pédagogie et des programmes, et la tâche n’est pas facile. D’autant que l’espérance de vie d’un ministre de l’éducation est très limitée[25] (moins de deux ans en moyenne, et encore moins si vous essayez de faire évoluer les institutions – ou que vous allez à Frangy-en-Bresse comme dans le cas le cas de Benoit Hamon).

Donc pour durer, ne rien remettre en cause de fondamental dans le fonctionnement de ce ministère est plutôt un bon plan de carrière pour un ministre.

On fait donc des annonces ou des expériences qui seront sans suites avant des années comme le « Code à l’école » qui fait l’objet de ce billet d’humeur, mais aussi « la morale à l’école », l’enseignement des « langues étrangères », l’enseignement du permis voiture, etc.

Le « Numérique » est important pour notre société et donc pour l’éducation de nos enfants, et il est triste qu’il soit trop souvent ramené à des effets d’annonces par des politiques semblant année après année découvrir le phénomène.

 

En guise de conclusion

Cette polémique printanière (et estivale) est une assez belle illustration de l’exercice compliqué de la communication politique. Avec des formules chocs qui masquent un débat de fond, en l’occurrence l’apprentissage des techniques informatiques aux enfants, du primaire au secondaire. Formules lancées sans concertation avec les acteurs associatifs ou professionnels qui œuvrent depuis des années dans ce domaine, et manifestement sans concertation non plus avec le ministère de l’éducation qui devrait dans ce domaine sinon piloter, mais au moins être tenu au courant des autres initiatives gouvernementales.

La proposition du « Code à l’école » est de plus au niveau de son contenu assez représentative de tout ce qu’il ne faut pas faire :

  • Parler de ce que l’on ne connaît pas (c’est à notre classe politique qu’il faudrait imposer un enseignement aux technologies numériques).
  • Ne pas réfléchir aux impacts de fond (Les balises HTML c’est bien, mais n’est-il pas plus important d’apprendre en primaire à lire, écrire, compter … PENSER ?).
  • Négliger la mise en œuvre concrète en se déchargeant du fardeau sur les associations et les communes (bon courage pour trouver les « animateurs » qui enseigneront à nos chers enfants l’informatique dans le cadre du temps périscolaire !).

C’est donc sans surprise que lors d’une visite dans un collège de Seine Saint Denis, le Président François Hollande à totalement passé sous silence le « Code à l’école » dans son discours[26] précisant les contours du « plan numérique à l’école ». En fait l’effort principal devrait porter sur … l’achat de tablettes comme support du contenu pédagogique !

Voilà qui rappelle étrangement le « plan informatique pour tous » d’il y a 20 ans, avec du contenu en plus !!!

[1] Cf. http://www.educnum2014.fr/

[2] Cf. http://fr.wikipedia.org/wiki/Espace_public_num%C3%A9rique

[3] Cf. http://www.lefigaro.fr/politique/le-scan/citations/2014/05/15/25002-20140515ARTFIG00333-axelle-lemaire-veut-que-les-enfants-apprennent-a-coder.php

[4] Cf. http://www.zdnet.fr/actualites/developpement-numerique-le-rapport-erhel-la-raudiere-veut-faire-sauter-les-digues-39801137.htm

[5] Cf. http://www.assemblee-nationale.fr/14/propositions/pion2022.asp

[6] Cf. http://www.journaldunet.com/solutions/emploi-rh/axelle-lemaire-interview-axelle-lemaire.shtml

[7] Cf. http://www.academie-sciences.fr/activite/rapport/rads_0513.pdf

[8] Cf. http://www.nextinpact.com/dossier/735-interview-d%E2%80%99axelle-lemaire-secretaire-d%E2%80%99etat-au-numerique/2.htm

[9] Cf. http://www.lejdd.fr/Societe/Education/Benoit-Hamon-Le-code-informatique-a-l-ecole-des-septembre-675833

[10] Cf. http://blogs.mediapart.fr/blog/sergeescale/180614/apprendre-le-code-informatique-des-l-ecole-primaire-pas-indispensable

[11] Cf. http://www.societe-informatique-de-france.fr/wp-content/uploads/2014/01/rapport_sif_sur_isn.pdf

[12] Cf. http://www.societe-informatique-de-france.fr/lettre-ouverte-a-monsieur-francois-hollande-president-de-la-republique-concernant-lenseignement-de-linformatique/lettre-ouverte-a-monsieur-francois-hollande-president-de-la-republique-concernant-lenseignement-de-linformatique-2/

[13] Cf. http://www.fing.org

[14] Cf. http://syntec-numerique.fr/sites/default/files/related_docs/propositions_planformation_syntec_numerique_2014.pdf

[15] Cf. http://code.org/

[16] http://www.hackidemia.com/

[17] http://www.codeforamerica.org/

[18] Cf. http://codeforeurope.net/

[19] Cf. http://www.codeforfrance.org/

[20] Cf. http://www.42.fr/

[21] Cf. http://webacademie.org/

[22] Cf. http://www.lewagon.org/

[23] Cf. http://www.education.gouv.fr/cid195/les-chiffres-cles.html

[24] Cf. http://fr.wikipedia.org/wiki/Plan_informatique_pour_tous

[25] Cf. http://fr.wikipedia.org/wiki/Liste_des_ministres_fran%C3%A7ais_de_l%27%C3%89ducation_nationale

[26] Cf. http://www.elysee.fr/chronologie/#e7253,2014-09-02,inauguration-du-nouveau-college-louise-michel-de-clichy-sous-bois-rentree-2

Satya Nadella réinvente Microsoft

Dans un mémo envoyé hier à tous les employés de Microsoft, et publié sur le site de l’éditeur, Satya Nadella leur décrit la transformation que devra vivre l’entreprise sur la nouvelle année fiscale, en terme de stratégie « core ».

Le changement d’orientation est d’importance, puisque l’entreprise n’est désormais plus une « device & services company« , mantra introduit l’année dernière par Steve Ballmer.

Sans renier ce focus, qu’il considère comme une étape utile dans l’évolution de l’entreprise, à dépasser dorénavant, il propose une nouvelle direction qu’il résume par ces mots : « At our core, Microsoft is the productivity and platform company for the mobile-first and cloud-first world. We will reinvent productivity to empower every person and every organization on the planet to do more and achieve more. »

OurCore

Le diagramme que Satya Nadella partage dans son email est clair : les services et logiciels de productivité (« Digital Work & Life Experience ») sont le coeur du nouveau Microsoft.

La notion de plate-forme ne se résume plus à Windows, mais englobe les différents systèmes présents sur le marché pour la mobilité. Côté Cloud OS, Azure et Windows Server sont au centre des attentions.

Pour transformer les usages, Mr Nadella cite ensuite les nouvelles technologies telles que la traduction en temps-réel dans Skype, l’assistant personnal Cortana, les interfaces NUI (No UI) liées à la Kinect, les services de machine learning AzureML, etc.

Bref, une belle feuille de route pour les divisions de Microsoft !

Satya Nadella ne perd décidément pas de temps pour s’affirmer aux commandes de Microsoft : l’ère Steve Ballmer semble définitivement tournée.

[Lettre Calipia] Windows : la fin d’un cycle ?

Article issu de la La Lettre Calipia, abonnement gratuit sur demande : calipia.com/lalettre.

Ce titre est sans doute un peu provocateur, mais force est de constater, après avoir régné en maitre depuis plus de 20 ans sur l’informatique, rien ne va plus du coté de Windows. Il est vrai que les débuts de Windows 8 ont été assez laborieux, mais les raisons de la baisse d’attractivité de Windows sont sans doute un peu plus profondes…

Il faut se rendre à l’évidence, Windows n’est plus le sésame qui fait vendre à lui seul l’ensemble des technologies de la société.

Il était une fois Windows…

Il fut un temps reculé où le simple fait d’accoler Windows à une technologie en garantissait son succès. Windows rimait avec succès grand public. Certains d’entre nous se souviendrons de la séparation Microsoft / IBM autour d’OS/2 1.3 : le pacte signé entre les deux entreprises prévoyait qu’IBM continue le développement de la version 2 tandis que Microsoft continuerait la version 3.0, version disposant d’un nouveau noyau « MicroKernel », véritable rupture technologique. Mais ce qui devait être OS/2 3.0 devint chez Microsoft, Windows NT, en effet, la compagnie s’empressa de renommer ce produit Windows pour surfer sur la vague Windows très populaire dans le grand public avec Windows 3.1, Windows NT (3.1) et OS/2 définitivement abandonné par Microsoft. IBM poursuivra son développement à destination principalement des entreprises, on connaît la suite, au grand dam du cabinet Gartner qui voyait en OS/2 un succès imminent, ce système d’exploitation finit par disparaître, première victime déclarée de la vague Windows. Indéniablement, Mac OS fut la seconde victime de cette déferlante, le système d’Apple, était lié au matériel, en fin de vie (il a fallu attendre encore de nombreuses années avant de voir le renouveau avec OSX, basé sur un noyau Unix FreeBSD).

En entreprise « Windows » a été et est sans doute encore largement aujourd’hui synonyme de meilleure intégration au « Système d’Information ». C’était à l’époque le cœur des arguments pour Windows Server, et même dans une certaine mesure de Windows Mobile (ancêtre des Windows Phone) qui combattait déjà au début des années 2000 Blackberry pour l‘intégration des Smartphones dans l’entreprise.

A cette époque, Microsoft se mit à conjuguer Windows à toutes les sauces : Windows Mobile, Windows NT, Windows Server, Windows CE, Windows for Smartcard, Windows Live, Windows Media, Windows Messenger, Windows Printing System. Sans oublier les Windows XP, Windows 3.x Windows 95, Windows ME, Windows for Workgroups, Windows Small Business Server… Puis virent également plus récemment Windows Intune, Windows Azure, Windows RT, Windows Phone. Et cette liste n’est sans doute pas exhaustive,

logos windows

Seulement voilà, le simple nom « Windows » ne fait plus vendre à l’heure actuelle, ce serait plutôt même parfois un handicap. Selon de récentes études outre atlantique, Windows ne serait plus une marque « glamour » et n’emballerait pas les générations Y, et n’ayons pas peur des mots, elle aurait même un petit côté « ringard » pour certains…

Microsoft n’est pas passé à côté de ces informations, pour preuve le fait que le géant s’évertue même maintenant à gommer cette marque : Windows Azure qui devient Microsoft Azure, et parions sur un changement de nom de Windows Phone demain pour un Microsoft Phone et pourquoi pas demain renommer Windows Intune ? En effet ce produit ne se contente pas, loin de là, d’administrer des machines Windows mais tout aussi bien des iPhones que des iPads par exemple, alors à quoi bon garder ce nom ?

Les langues se délient, la marque Windows (en version ARM) sur les tablettes a même été source de discussions. Selon Australian Financial Review, Jeffrey Clarke, président de la division PC de Dell aurait prévenu à l’époque Steve Ballmer qu’utiliser le terme Windows RT pour la version destinée aux tablettes ARM risquait de créer une confusion chez les consommateurs qui penseraient pouvoir installer leurs applications Windows classiques alors que ce n’était pas le cas. Selon l’article qui rapporte l’affaire, Steve Ballmer aurait répondu au dirigeant de Dell que la marque Windows était trop importante pour être occultée.

Durant des décennies (au moins 2), en interne chez Microsoft, être développeur dans la branche Windows de l’éditeur était la voie royale, on tutoyait les seigneurs…

Cette entité était (encore plus que la division Office) la vache à lait de l’entreprise avec près d’un tiers du chiffre d’affaire de la société et pas moins de la moitié de ses bénéfices !

Il fut donc un temps ou la société Microsoft se confondait avec la marque Windows. Pour un employé, il n’était pas rare qu’il entende dire par ses amis : « tu bosses chez Windows ? ». Tant la notoriété du produit (tout au moins dans le grand public), primait sur celle de la société.

Windows 8 : source de tous les maux ?

A en croire bon nombre d’observateurs, le problème actuel du marché serait la dernière version de Windows. Windows 8 aurait à lui seul tétanisé le marché du PC, plongé les constructeurs dans le doute et fait le lit d’Android sur les tablettes et celui de ChromeOS sur les PC portables…

La réalité est sans doute beaucoup plus nuancée…

Pour certains, Windows 8 aurait travesti l’esprit même de Windows, rien de moins ! C’est la position de plusieurs analystes outre atlantique, dont le célèbre Paul Thurrott.

A la base de cette réflexion, la genèse même de Windows qui depuis le début de son existence s’est positionné face à l’environnement du Mac comme plus ouvert et corolaire, plus permissif.

Les développeurs Windows pouvaient choisir de suivre des directives de l’éditeur et les APIs associées, mais pouvaient aussi ne pas trop en tenir compte et se laisser ainsi plus de liberté pour offrir des éléments plus innovants. Face au Mac, Windows a vu naître de très nombreux logiciels, qui, s’ils ne respectaient pas les tables de la loi du développement Windows recommandé, offraient de nouvelles fonctions, de nouvelles interfaces, de nouveaux outils. Ce bazar ambiant a indéniablement favorisé la diversité et la créativité.

On connaît la suite. Windows a conquis le cœur des développeurs avant de conquérir la planète informatique !

Windows 8 avec son interface en tuiles, proposant un mode d’accès plus restreint et surtout plus contraint pour les développeurs, aurait du coup perdu son âme. Microsoft aurait donc voulu faire de l’Apple, de l’épuré, tournant ainsi le dos à sa communauté habituée à plus de liberté… Voilà pour l’analyse. C’est sans doute aussi, une des raisons qui aurait motivé le limogeage de Steven Sinosfky, patron de Windows et grand architecte de cette nouvelle interface.

Sur les tablettes, ou sur les téléphones, c’est bien sûr Android qui a pris cette place devenue vacante et qui a offert cette liberté de création aux développeurs, liberté la aussi synonyme de plus grand bazar…

La revanche d’Unix : majoritaire sur les devices

Témoin de cette évolution, le Gartner publiait en octobre ses prévisions de parts de marchés des différents OS en combinant pour la première fois tous les facteurs de formes : un coup de tonnerre, Windows était largement distancé par Android !

parts de marché

 

Ces chiffres cachent aussi une formidable revanche d’Unix et ses dérivés sur le poste de travail ! En effet, Android est un fork de Linux, lui-même issu d’Unix (sans doute de la souche la moins structurée de ce dernier mais passons, c’est un autre débat), iOS et Mac OSX sont tous deux des Unix basés à l’origine sur FreeBSD, Les nouvelles versions de RIM sont basées sur QNX, un Unix là encore avec une empreinte mémoire réduite. Et gageons que le « Others » regroupe pas mal de systèmes de souches Unix diverses et variées composant des objets connectés.

Quant aux serveurs, les parts de marché de Windows sont aussi au global en perte de vitesse. Posons-nous la question : combien de fournisseurs de Cloud utilisent Windows etcCombien utilisent des dérivés d’Unix ? A l’autre bout de la chaine, combien de serveurs Windows dans le grand public, combien de dérivés de Linux/Unix ? On peut assimiler à des petits serveurs les box internet (toutes sont des dérivés d’Unix) et les NAS personnel (idem)…

Autre question d’importance pour Microsoft : quel sera l’OS de l’internet des objets ? Coté client et coté backoffice. Sur cette même question Intel, confronté à ARM a trouvé un élément de réponse : faire des processeurs compatibles Android…

Microsoft, avec à sa tête Satya Nadella, a réagi et met actuellement les bouchées doubles pour combler les déficits fonctionnels de Windows 8 avec la 8.1, l’update 1 puis l’Update 2 déjà planifiée pour la rentrée. Pour l’éditeur, les cadencements annuels pour les nouvelles versions ne sont plus suffisants, l’évolution est quasi permanente. Au programme de ces mises à jour, une renaissance de l’interface de Windows qui petit à petit vient empiéter sur le territoire de l’interface en tuile « Modern UI » en tentant le meilleur des deux mondes : un pari difficile mais pas impossible pour l’éditeur dont les capacités de réactions restent très importantes.

Autre débat qui n’en est pas un à mon avis sur les différentes versions et éditions de Windows, qui seraient soi-disant un handicap pour Microsoft. Qui se soucie des multiples versions d’Android, de son incompatibilité totale avec Chrome Os (qui équipe les Chromebooks de Google) ou encore de la convergence iOS OSX qui peine réellement à voir le jour du côté d’Apple et qui finalement ne serait plus une priorité ?

Quel prix pour Windows ?

Problème important s’il en est pour Microsoft, le coût de la licence de Windows. Un vrai casse-tête pour l’éditeur. Un constat : il faut se rendre à l’évidence, le grand public n’est plus prêt à payer plus de 200 € pour une licence de système d’exploitation lorsque la règle chez les puissants concurrents que sont devenus Google et Apple est la gratuité de l’OS (leurs sources de rémunération sont ailleurs : matériel pour Apple et publicité pour Google).

Mais alors comment garantir des bénéfices suffisants et permettre le biseau avec d’autres sources de revenus ?

La réalité est que dans le grand public, le plus grand monde ne recherche pas un Système d’Exploitation … Mais seulement une machine qui doit disposer d’un OS, comme d’un processeur ou d’un disque dur… Le géant de Redmond en est bien conscient et c’est aussi une raison de ses investissements dans le domaine du matériel avec non seulement des tablettes mais aussi des téléphones par le biais du rachat de Nokia.

Seules les entreprises, et les directions informatiques se soucient logiquement encore du problème, mais pour combien de temps encore ? Qu’en sera-t-il dans 5 ou dans 10 ans ? Avec des applications qui dépendent de moins en moins de Windows et de plus en plus des facteurs de formes, des « expériences » et des fonctionnalités d’HTML 5 ! Dans le même temps, à l’instar d’Air France, certaines entreprises se posent de plus en plus ouvertement la question : et si le poste de travail n’était pas avant tout un poste mobile type tablette ? Le PC traditionnel devenant l’exception !

Pour lutter à armes égales, Microsoft a choisi la gratuité de Windows pour les versions s’exécutant sur des machines de moins de 8 pouces de diagonale. Ce sont aussi les segments qui ont les plus fortes croissances (dont les Smartphones), c’est ballot ! Mais comment faire autrement, il suffit de consulter le tableau de la page précédente pour voir l’étendue des dégâts ! Les alternatives n’étaient pas si nombreuses.

Nous aborderons bien entendu ce sujet lors du prochain Briefing Calipia (du 2 au 20 juin prochain) n’hésitez pas à vous joindre à nous : calipia.com/briefing. Sur le même thème, nous aborderons également le positionnement des Chromebooks et leur arrivée dans les entreprises demain, ainsi que le positionnement d’un nouvel acteur clé : Samsung qui, partant des mobiles, petit à petit, envahi le monde des entreprises.

[Lettre Calipia] PRISM, ECHELON, la NSA, qui est encore dupe ?

Il y a quelques mois le monde entier fut plus ou moins secoué par les révélations d’Edward Snowden concernant le programme de surveillance PRISM, découvrant effaré que les États-Unis, par l’intermédiaire de la NSA (National Security Agency) avaient mis en place un assez impressionnant programme de surveillance électronique des communications à l’échelle globale.

Ma première réaction fut : Vous avez aimé ECHELON ? Grand bien vous fasse, vous allez adorer PRISM… Donc aucun intérêt en soi, hormis la précision des informations concernant les dernières initiatives de la NSA pour espionner le monde entier. Donc pas d’article, de coup de gueule ou de billet d’humeur.

Mais après quelques mois de réflexion, j’avoue avoir été interpellé non pas par le fait que les États-Unis interceptaient sans vergogne toutes les communications et données possibles, mais par le manque flagrant de réactions des états et citoyens devant le cynisme affiché par ce pays et surtout par une proposition de loi assez liberticide votée en France fin décembre.

Je vous propose donc de partager avec moi une petite indignation froide et raisonnée avec ce modeste article (qui est clairement un billet d’humeur). Lire la suite

Les acquisitions récentes d’Apple et Google & retour sur le rachat de Nest par Google

L’acquisition ces dernier jours de la Société Nest par Google, pour 3,2 milliards de dollars, soulève beaucoup de questions sur le Web : pourquoi dépenser autant pour un fournisseur de thermostats connectés ?

la technologie de Nest a pour particularité d’apprendre à connaitre le mode de vie des habitants d’un logement pour optimiser la consommation énergétique, via une série de capteurs : quand le logement est-il vide ou habité ? à quelle heure les personnes se couchent-elles ? se lèvent-elles ? etc.

Dans mon article « peut-on encore se passer de Google« , je décrivais la logique imparable qui préside aux différents projets de Google, ou à ses acquisitions : le rachat de Nest est tout à fait cohérent avec la stratégie globale de Google ; Nest lui permet de compléter son puzzle, en lui donnant les moyens de mieux connaitre les individus pendant leur tranche de vie passée à leur domicile. Les défenseurs du concept « suranné » de vie privée apprécieront…

…et au passage, Google fait entrer dans son giron des personnes très compétentes, tel que le père de l’iPod, ou encore un membre de l’équipe projet iWatch chez Apple.

A l’aune de ce rachat important, il est intéressant de comparer les acquisitions récentes des 2 frères ennemis, Google et Apple :

Google-Apple-recent-acquisitions

On y voit que Google s’est récemment pris de passion pour les robots : 5 sociétés rachetées en décembre 2013 sur ce domaine, dont Boston Dynamics (pour le coup, on ne peut que supputer sur la raison de ces acquisitions). D’autres acquisitions sur le domaine de la production d’energie (dont 75 millions de dollars aujourd’hui dans un future ferme éolienne) lui permettent de « verdir’ l’alimentation électrique de ses datacenters.

Apple investit plus sur les technologies de géolocalisation, de cartographie et les semi conducteurs.

Apple n’a jamais fait de grosses acquisitions, contrairement à Google : les 10 plus grosses acquisitions de la firme à la pomme, toutes combinées, sont d’un montant inférieur aux 3,2 milliards de dollars dépensés par Google pour Nest.

Ya bo Google

[Lettre Calipia] Peut-on encore se passer de Google ?

La question, j’en conviens, est un peu provocante.

Ya bo GoogleD’autant plus qu’elle semble sous-entendre un côté sombre à l’entreprise de Mountain View, qui nous conduirait à vouloir prendre de la distance. Hm hm, suspens…

Partons d’un constat : Google nous propose des services d’une très grande pertinence, à l’instar de son moteur de recherche, doublés d’une très grande richesse, à l’instar de YouTube. Ces services sont gratuits, tout comme son navigateur Chrome (pour ne citer que lui) ; Gmail, les Apps, Google +, Android, toute une galaxie de solutions et de produits nous est proposée à coût nul, ou minime (40€ par an par utilisateur pour l’offre entreprise).

Considérant l’adage que lorsque vous ne voyez pas le prix d’un service, c’est que c’est vous le produit vendu, il peut être intéressant de s’intéresser de très près à la stratégie de Google, afin de répondre en conscience : dois-je me passer des services de Google ? …et en trame : puis-je encore m’en passer ?!

Dans cet article, je vous propose de décortiquer cette stratégie globale de Google, qui comme vous allez le voir, est d’une justesse et d’une logique … imparable.

Ne vous êtes-vous jamais posé la question de la logique sous-tendue par des initiatives aussi dissemblables au premier abord que le Search, le projet de ballons atmosphériques Loon, l’investissement dans la compagnie de taxi Uber ?

Toutes ces initiatives participent en fait à un dessein stratégique d’une grande clarté, que nous allons maintenant évoquer.

A l’arrivée, c’est à vous qu’appartiendra la réponse à la question soulevée 🙂

Lire la suite

[Briefing Calipia] Peut-on encore se passer de Google ?

YouTube, Gmail, Hangouts, Chrome, Android, le projet Loon, la rachat de Waze, Google Now, la prise de participation de Google dans la compagnie de taxis Uber, Google +, Google Glass, etc.

Il se passe rarement un mois sans que nous n’apprenions l’apparition de nouveaux projets de la part de Google. Au premier abord, difficile de trouver la logique globale à tout ces efforts de la firme Californienne.

Et pourtant, tout s’éclaire lorsqu’on analyse la stratégie globale de l’entreprise : une logique admirablement maîtrisée, long terme, préside en fait à chacune de ces initiatives.

Comprendre Google commence en fait par l’examen de son business model : en 2012, 94.1% de son chiffre d’affaire provient de la publicité (sur 50 milliard $ de CA). L’année 2013 se présente bien également pour eux, puisque la part de son chiffre d’affaire sur les 3 premiers trimestres, lié à la publicité, représente plus de 92% de son CA.

Or la marge de progression de l’entreprise est encore impressionnante, puisque le marché de la publicité Online, sur laquelle elle est active, ne représente que 18% du marché globale de la publicité.

marché publicité

 

 

Pour accroître ses résultats, tous les efforts actuels de Google se concentrent autours de deux axes stratégiques :

  1. « Servir » plus de publicités en attaquant le marché « Offline », en le faisant muter vers l’Online : un exemple ici est le rôle de YouTube, une arme redoutable pour transformer le marché télévisuel.
  2. Mieux connaitre les individus, pour améliorer la pertinence et l’efficacité des publicités : cela passe par un suivi des individus tout au long de leur journée, dans leur voiture, leur entreprise, leur loisirs, etc. Ici, une des clés de réussite est la corrélation des informations captées par les différents services de Google. On remarquera alors que la nécessité de cette corrélation montre une place très « tactique » de l’offre entreprise dans le dessein global de Google.

Lors du Briefing actuel, nous analysons cette stratégie, les moyens mis en oeuvre, en posant au final une question de fond : peut-on encore se passer de Google ? Il est clair en tout cas que répondre par l’affirmative devient progressivement, et inéluctablement, de plus en plus difficile, alors même que notre identité numérique est directement dans la balance…

Il reste quelques places pour les sessions à venir de Strasbourg, Nantes, Paris et Lille : n’hésitez plus à vous vous inscrire, et venir échanger avec nous et les participants sur ce sujet.