Archives de Catégorie: Matériel

Passage d’Intel à ARM : Apple peut-elle réussir là où Microsoft a échoué ?

Image002Nous sommes nombreux à savoir suivi avec intérêt la keynote d’ouverture de la conférence développeur d’Apple Lundi soir. Beaucoup d’annonces sur iOS14, iPadOS, MacOS, mais l’essentiel était sans doute le passage programmé d’Intel à ARM (sur une puce Apple maison : Apple Silicon). Les rumeurs avaient vu juste, après un passage de Motorola 68000 puis au PowerPC d’IBM et quelques années plus tard à Intel, la pomme entame du prochain virage avec le passage à ses puces maisons, sous architecture ARM.

Mais une question se pose : Apple peut-elle réussir là où Microsoft a échoué il y a 10 ans avec Windows ARM et où il est sans doute encore en train d’échouer, comme nous l’avions anticipé pour ces deux évènements avec Windows RT et aujourd’hui avec la Surface Pro X et le développement de son système avec Qualcomm (voir l’état des ventes de ces matériels pour s’en convaincre) ?

Les éléments qui entraineraient Apple sur le même chemin que Microsoft :

  • La dépendance aux « petites » applications natives qui ne seront pas portées sur la nouvelle puce : tous les développeurs ne porteront pas leur applications sur la nouvelle puce, soit pas manque de ressources, soit parce que leur application n’évolue plus alors même qu’elle reste utilisée. Dans ce cas, comment imaginer le financement d’une nouvelle application et le portage associé ? On le sait dans le cas d’un changement d’architecture (et parfois simplement de version), le diable se cache souvent dans les détails : des petites applications « bloquées » sur ancienne version mais très utilisées, des drivers qui manquent pour du « vieux » matériel, etc.
  • Une couche d’émulation peu performante. C’est un grand classique promis par les constructeurs / éditeurs : « les applications que vous ne pourrez pas trouver en natif fonctionneront en émulation sur le nouveau processeur ». On connait cela chez Microsoft avec Windows ARM, et même chez de nombreux constructeurs de machine Unix à l’époque qui promettaient une émulation de Windows sans faille… On connait la suite ! La réalité est donc souvent tout autre : la couche d’émulation ou de virtualisation consomme des ressources qui à minima ralentisse l’application quand celle ci daigne fonctionner. Les ressources consommées baissent aussi considérablement l’autonomie de la machine, comme c’est le cas par exemple des applications Win32 sur les machines Surface Pro X de Microsoft par exemple…
  • Des performances qui ne seraient finalement pas au rendez-vous pour des problèmes hardware où de conception des puces ou de leur écosystème hardware associé.

 

Mais Apple dispose aussi d’atouts importants face aux écueils qu’a rencontré Microsoft :

  • Les processeurs de l’entreprise ne sont pas nouveaux et elle en maitrise les éléments depuis longtemps pour les avoir elle même conçus. En effet on parle ici des processeurs qu’elle a conçue pour ses iPhones et iPads, elle en maitrise le fonctionnement et en connait les limites. Ce n’est pas le cas de Microsoft qui reposait à chaque fois sur des compétences majoritairement externes. Et sans avoir les liaisons (parfois dangereuses) qu’elle entretenait avec Intel.

Lire la suite

D-Wave s’associe à NEC au Japon

D-WaveD-Wave, qui est un des pionniers de la commercialisation des ordinateurs quantiques, s’est associé au fabricant japonais d’électronique NEC pour « repousser les limites des technologies et services hybrides quantiques/classiques » au Japon. Dans le cadre de ce nouveau partenariat, NEC a réalisé un investissement de 10 millions de dollars dans L’entreprise canadienne. Pour rappel D-Wave (entreprise canadienne fondée en 1999) avait annoncée dès 2007 avoir mis au point un ordinateur quantique de 28 Qubits. Elle fait figure de pionnier sur le secteur, même si depuis. les ordinateurs d’IBM ou encore de Google l’ont surpassé.

Les deux entreprises combineront la puissance de calcul des systèmes de NEC avec les l’informatique quantique . L’objectif final est de développer des applications hybrides commercialisables et commerciales tout en promouvant l’informatique quantique. Trois domaines seront plus particulièrement visés : les technologies et services hybrides, les applications quantiques hybrides et les activités de marketing et de vente.

Les deux sociétés appliqueront la collection de plus de 200 applications de D-Wave à six marchés identifiés par NEC, tels que la finance, la fabrication et la distribution et exploreront également la possibilité de permettre l’utilisation des superordinateurs de NEC sur le service de nuage quantique Leap de D-Wave.

Ce n’est pas la première fois que le Japon investi dans le domaine de l’informatique quantique. L’année dernière, en décembre, l’état japonais avait annoncé le déploiement des ordinateurs quantiques d’IBM Q dans le pays.

Wi-Fi 6E : Qualcomm annonce ses nouvelles puces pour smartphones et routeurs

qualcomm-wifi-6eQualcomm a annoncé sa nouvelle génération de puces sans fil qui prennent en charge la nouvelle norme Wi-Fi 6E. Le « E » de Wi-Fi 6E signifie « extended » et les appareils pris en charge pourront fonctionner sur le nouveau spectre de 6 GHz (en plus du 2,4 et 5GHz donc) qui devrait permettre de réduire l’encombrement du réseau et d’offrir des connexions plus rapides et moins soumises aux interférences.

Il est clair que les appareils compatibles avec la norme Wi-Fi 6 n’en soient encore qu’à leurs débuts : très peu de smartphones et tablettes causent Wifi 6 actuellement. Voici à titre indicatif les smartphones en bénéficiant :

Coté Apple :

  • Les iPhone 11 et 11 Pro
  • Les derniers iPad Pro

Coté Android :

  • Les séries Galaxy S10, Note 10 et S20
  • Xiaomi Mi 10 et Mi 10 Pro
  • Huawei P40 et P40 Pro
  • Xiaomi BlackShark 3 Pro

Les puces pour téléphones font partie de la gamme FastConnect de Qualcomm, qui tend à être intégrée avec les puces Snapdragon. Il existe deux options au lancement : le FastConnect 6700 et le FastConnect 6900, qui ont des vitesses maximales théoriques de 3 Gbps et 3,6 Gbps. Toutes deux prennent en charge la taille maximale des canaux Wi-Fi (160MHz sur 5GHz et 6GHz).

Mais comme le souligne The Verge, puisque Qualcomm a déjà lancé ses puces haut de gamme au début de l’année, il se peut que la prise en charge du Wi-Fi 6E n’arrive dans les smartphones Android qu’à la fin de cette année ou peut-être l’année prochaine.

En ce qui concerne l’iPhone, alors qu’Apple fait un retour à Qualcomm comme fournisseur de puces cellulaires avec la 5G attendue cet automne dans la gamme iPhone 12, elle a signé un accord avec Broadcom qui inclura probablement des puces WiFi pour les trois prochaines années. ce même Broadcom a dévoilé sa puce compatible avec le Wi-Fi 6E en février, il est donc possible qu’Apple inclue la prise en charge de la dernière norme de la série iPhone 12.

Nouveaux processeurs Intel « Lakefield » pour PC double écran pliables… ou pas

surface NeoAlors que les rumeurs sur le possible passage d’Apple aux processeurs ARM pour ses Macs prennent de l’ampleur (on parle d’une annonce le 22 juin lors de l’ouverture de la conférence développeurs), que la concurrence aux processeurs iCore s’organise avec  Qualcomm, choisi par Microsoft pour sa version Windows ARM, Intel est une fois de plus dans la tourmente. Ajoutons à cela que le fondeur ne parvient pas à égaler la finesse de gravure des ses concurrents (source d’économie énergétique sur les processeurs), il se doit de réagir. Avec l’annonce de ses processeurs nouveaux Lakefield, il tente de le faire, mais le succès est loin d’être garanti à mon avis…

Nous connaissons les processeurs Lakefield d’Intel depuis un certain temps en réalité. Plusieurs produits utilisant ces nouvelles puces ont déjà été annoncés, tels que le Surface Neo de Microsoft, le ThinkPad X1 Fold de Lenovo , que nous vous présentions lors d’un test rapide au dernier CES, et une nouvelle variante très récente du Galaxy Book S de Samsung (qui au passage avait délaissé Windows ARM pour l’occasion).

Lakefield est en concurrence directe avec les processeurs Snapdragon de Qualcomm, qui utilisent de petits et de gros cœurs pour gérer la puissance.  Intel affirme que la puissance en veille peut être aussi faible que 2,5mW, soit une réduction de 91% par rapport à ses processeurs actuels de la série Y, ceux dédiés aux ultra portables et donc moins puissant. Il y a cinq cœurs au total, et ils ne sont pas Hyperthreaded. Dont un coeur plus puissant que les 4 autres.

Les puces sont également plus petites, ce qui, selon Intel, les rend idéales pour les PC à double écran et pliables. La surface du boîtier est 56% plus petite et la taille de la carte est 47% plus petite que celle d’un Core i7-8500Y.  Les nouveaux processeurs sont disponibles dans les variantes Core i5 et Core i3, en particulier le Core i5-L16G7 et le Core i3-L13G4. Oui, le « G » indique qu’ils incluent le Gen11 pour des performances graphiques 1,7x supérieures à celles de l’UHD du Core i7-8500Y. Cette augmentation des performances graphiques devrait compenser le fait que ces puces ne sont pas très puissantes, avec un TDP de 7W et des vitesses d’horloge de 0,8GHz et 1,4GHz dans le Core i3 et le Core i5, respectivement.

Mais alors qu’Intel introduit ces processeurs pour les appareils à double écran dont la Surface Neo de Microsoft devrait-être le vaisseau amiral, cette dernière est retardée…De plus, Microsoft est en train de réorienter son système d’exploitation Windows 10X, qui était à l’origine destiné aux PC à double écran, vers les PC à écran unique…

Déploiement Hololens 2, bientôt avec Windows Autopilot ?

Disponible depuis novembre 2019, Hololens 2 poursuit son chemin pour entrer dans les entreprises. Dernière étape en date, Microsoft vient de lancer une preview privée pour gérer le provisioning et le déploiement d’Hololens 2 avec Windows Autopilot. Cettte dernière fonction introduite avec Windows 10 il y a bientôt 3 ans permet de simplifier et automatiser le provisioning et le déploiement de postes Windows 10. Avec la preview lancée, Microsoft raccroche le kit Hololens 2 à la dynamique de Windows Autopilot qui viendra compléter les capacités fournies avec l’appareil  (un mode kiosk pour les démos, des fonctions de MDM pour Hololens, le support de Windows Update pour les mises à jour, de bitlocker, un VPN natif …). Après la disponibilité commerciale d’Autopilot pour Hololens, les kits Hololens 2 seront dotés d’un code-barre sur l’emballage afin de permettre un enrollment automatique à l’acqusition.

Intel et QuTech ont fait la démonstration du contrôle de qubits « chauds »…

Intel QuantumUn des obstacles le important pour l’informatique quantique est la difficulté de refroidir de façon considérable  les qubits au sein des systèmes. En général, ces qubits doivent être refroidis à des températures inférieures à 100 mK (donc très très près du zéro absolu) et ceci afin de garantir l’intégrité des calculs (sans excitation donc des particules). Dans un article publié récemment sur Nature, Intel, en collaboration avec QuTech, a adopté une approche légèrement différente de la question du refroidissement.

Dans l’article intitulé « Universal quantum logic in hot silicon qubits« , les chercheurs ont réussi à rendre possible le contrôle des qubits  dit « chauds ». Bon attention c’est pas la température ambiante et de très très loin ! Ces qubits chauds, comme leur nom l’indique, sont plus tolérants à des températures plus élevées disons légèrement supérieures à 1 K…

L’équipe s’est inspirée d’études récentes sur les spins électroniques qui ont laissé entrevoir une plateforme pouvant fonctionner à des températures plus élevées en démontrant une longue durée de vie des spins, permettant ainsi la lecture de leurs états. En s’appuyant sur ces résultats, l’équipe d’Intel et de QuTech a pu contrôler ces qubits et effectuer des mesures sur ceux-ci également.

Les chercheurs précisent :

« Nous avons démontré un contrôle individuel cohérent de deux qubits et mesuré une cohérence à 99,3 %. Nous démontrons l’accordabilité de l’interaction d’échange entre les deux spins de 0,5 à 18 mégahertz et l’utilisons pour exécuter des rotations cohérentes contrôlées de deux qubits. »

Il y a une limite importante néanmoins à la démonstration réalisée : elle était basée sur un système à deux qubits, qui est considérablement plus petit que la plupart des ordinateurs quantiques existants aujourd’hui. Mais les chercheurs ont déclaré que leur travail s’oriente vers des circuits intégrés quantiques qui abritent des circuits de contrôle, ainsi que du matériel quantique sur une seule puce, offrant ainsi une approche évolutive vers des ordinateurs quantiques. Si le sujet vous intéresse n‘hésitez pas à faire un tour sur cette page pour plus de précision.

Surface Go 2 : les spécifications

Surface Go 2Une fois n’est pas coutume, les spécifications de la nouvelle Surface Go 2 de Microsoft ont été révélées par la demande de certification « Energy Star ». Ce n’est pas la première fois que des rumeurs sur le lancement imminent de la tablette d’entrée de gamme de Microsoft sont lancées, mais cette fois cette demande de certification nous donne beaucoup plus d’indications et c’est pourquoi nous publions ces dernières.

Surface Go 2 FCC

Selon ces informations la Surface Go 2 sera livré avec un processeur Intel Core m3-8100Y et 8 Go de RAM. sans doute 256 Go de SSD ainsi qu’une option d’extension via une carte microSD. Une belle progression par rapport au modèle précédent qui était doté d’un Pentium Gold 4415 (dual core 1,6 Ghz avec 2 M de cache) donc très économe mais dont la puissance de calcul est à peine supérieur à celle d’un Celeron…

Le Surface Go 2 devrait être lancé dans le courant du mois, en même temps que les écouteurs Surface Earbuds 2 et le Surface Book 3.

Pas de Surface Neo, ni de Windows 10X avant l’année prochaine…

surface NeoLorsque Microsoft avait annoncé Surface Neo et Windows 10X en octobre dernier, l’éditeur il a promis de livrer le PC double écran, ainsi que son téléphone double écran, le Surface Duo, lors du second semestre 2020. Cela ne devrait pas être le cas, selon un rapport de Mary Jo Foley.

Il y a plusieurs raisons à cela. La première serait sans surprise l’épidémie qui perturbe la production, mais ce n’est sans doute pas la seule raison, Windows 10X était de toute façon en retard avant l’épidémie, or c’est une composante essentielle du dispositif de Microsoft et pour cause !

L’autre raison,  est que Windows 10X pourrait en fait être livré d’abord pour les appareils à écran unique. S’il n’est pas surprenant que Windows 10X s’adresse à des appareils plus traditionnels, il est plus surprenant qu’il s’adresse d’abord aux PC à écran unique. Le système d’exploitation était conçu en premier lieu pour les PC à double écran. Mais ceci serait sans doute la réponse de Microsoft à la montée en puissance toujours plus importantes des Chromebooks de Google.

Selon le rapport de Mary-Joe, Panos Panay a déclaré en interne à l’équipeque Windows 10X ne sera pas livré cette année. Le seul autre OEM à annoncer un dispositif Windows 10X est Lenovo avec son ThinkPad X1 Fold, et cette société pariait déjà sur un retard de Windows 10X. Le PC pliable devrait être livré cet été avec Windows 10 Pro, et le 10X devrait arriver un peu plus tard…

 

Nvidia lance Deep Learning Super Sampling 2.0 pour améliorer le rendu graphique

NvidiaNvidia a lancé cette semaine sa technologie  Deep Learning Super Sampling (DLSS) 2.0. Cette technologie est basée sur un réseau neuronal artificiel qui utilise les TensorCores RTX de Nvidia pour augmenter les fréquences d’images et générer des images nettes qui approchent ou dépassent selon le constructeur le rendu natif.

Le DLSS 2.0 a été formé sur des dizaines de milliers d’images haute résolution dans un superordinateur à des fréquences d’images très basses. Avec les poids d’entraînement pour le réseau neuronal, DLSS 2.0 prend ensuite des images à plus faible résolution comme entrée et construit des images à haute résolution. Une fois cette opération réalisée Nvidia distribuece modèle d’apprentissage profond formé aux PC basés sur RTX via les pilotes NVIDIA et les mises à jour en continue.

Nividia indique que DLSS 2.0 :

« utilise les TensorCores de Turing fournissant jusqu’à 110 téraflops de puissance de calcul dédiée et fonctionne deux fois plus vite que son prédécesseur. Pour améliorer encore les performances, DLSS 2.0 utilise des techniques de rétroaction temporelle pour ne rendre qu’un quart à la moitié des pixels tout en offrant une qualité d’image comparable aux résolutions natives« .

De plus, contrairement à l’itération précédente, qui exigeait que le réseau neuronal soit entraîné pour chaque nouveau jeu, DLSS 2.0 s’entraîne en utilisant un contenu non spécifique au jeu. Cela génère un réseau généralisé qui fonctionne sur plusieurs jeux et conduit finalement à une intégration plus rapide des jeux et à un plus grand nombre de jeux DLSS.

Il dispose de trois modes de qualité d’image pour la résolution de rendu interne d’un jeu : Qualité, Équilibré et Performance. Parmi ces trois modes, le mode Performance permet d’augmenter la résolution jusqu’à 4X (c’est-à-dire 1080p vers du 4K).

Si vous êtes intéressé par le développement avec ces technologies, vous trouverez de plus amples informations ici.

Autre point (mais non lié aux jeux cette fois :)) : notre prochaine mission d’étude aux USA se déroulera du 4 au 10 octobre prochain (Seattle et San-Francisco) et le thème sera « IA et environnement de travail« . Si vous êtes intéressés contactez-nous par mail (mail direct ou sur contact (at) calipia.com )

[Humeur] Non, Honeywell ne dispose sans doute pas de « l’ordinateur quantique le plus puissant du monde »…

QuantumNous apprenions la semaine dernière que le constructeur Honeywell venait d’annoncer je site :

 « Une percée dans l’informatique quantique qui accélère la capacité des ordinateurs quantiques et permettra à la société de sortir l’ordinateur quantique le plus puissant du monde dans les trois prochains mois« .

Il y a beaucoup à dire sur cette annonce et sans doute aussi sur les attentes qu’elle peut générer. Déjà si vous travaillez dans le monde de l’IT et que le nom de la société vous dit quelque chose, c’est sans doute que vous avez quelques cheveux blancs 🙂 Honeywell c’est pour beaucoup « Honeywell-Bull » qui deviendra Bull qui sera des années plus tard racheté par Atos… Mais pas seulement. C’est une société américaine qui a plus de 100 ans (création en 1906), active à l’origine uniquement en régulation de chauffage, elle intervient aujourd’hui principalement dans le nucléaire (dans la transformation de l’uranium), l’aérospatial, l’automatisation du bâtiment (régulation, supervision technique, contrôle d’accès et sécurité), et la défense (avioniques militaires, etc). Donc à priori pas grand chose en matière d’informatique. Lorsque l’on pense Informatique Quantique on cite souvent IBM, D-Wave, Google, Microsoft mais rarement Honeywell… Mais passons, si la société a gardée une composante informatique importante, de là à pouvoir affirmer qu’ils disposeront de l’ordinateur quantique le plus puissant du monde d’ici 3 mois, il y a de quoi se poser des questions…

L’informatique quantique suscite de nombreux espoirs dans la résolution de nombreux problèmes insoluble pour l’informatique classique, une fois ce type de problèmes résolus on pourra affirmer que l’on a atteint le graal ou « la suprématie quantique », on en est sans doute encore assez loin (tout au moins pour des problèmes connus type cryptographie, science des matériaux).

Pour rappel pour les lecteurs qui ne sont pas familiarisés avec tout cela, alors que les unités de base de l’information dans l’informatique classique sont les chiffres binaires (bits) qui sont toujours dans un état de 0 ou 1, les bits quantiques (qubits), quant à eux, peuvent être dans un état de 0, 1 ou une superposition des deux. L’informatique quantique exploite les qubits pour effectuer des calculs qui seraient beaucoup plus difficiles, ou tout simplement irréalisables, pour un ordinateur classique.

Donc la promesse est claire : demain nous pourrons réaliser des calculs là ou les ordinateurs classiques sont limité par l’explosion combinatoire (comme le célèbre problème de factorisation des nombres premiers). Mais demain est très loin. L’informatique quantique est encore si jeune que les constructeurs n’en sont même pas encore au niveau du transistor de l’informatique classique. Les principaux acteurs se bousculent pour prendre la tête de ce secteur ou, du moins, pour tenter de séduire les futurs développeurs d’algorithmes quantique. Et les convaincre de développer sur leurs émulateurs dans le Cloud. Une fois cette main d’œuvre formée, il ne restera plus que le plus dur… disposer de la véritable machine ! Alors comme aucun leader n’est clairement apparu, pourquoi pas Honeywell 🙂

 

 

« Entrées précédentes Derniers articles »