Pixels, qubits et flocons : quand l’IA rencontre la mécanique quantique…

On le sait, l’IA est gourmande. Très gourmande. Les modèles les plus performants d’aujourd’hui avalent des gigawatts comme d’autres avalent des cookies. Entre entraînement de modèles massifs, inférences permanentes, et demandes croissantes, l’empreinte énergétique de l’IA devient un vrai problème, nous vous en parlions lors du Briefing Calipia de décembre 2024. Et ce, même pour les entreprises qui n’ont rien d’écolo dans l’âme, mais beaucoup de factures à payer.

Face à cela, les réponses habituelles viennent de l’optimisation logicielle ou du matériel spécialisé : GPU, TPU, ASIC… Mais une autre piste, plus futuriste, attire de plus en plus l’attention : le calcul quantique.

Sur le papier, la mécanique quantique offre une affinité mathématique certaine avec le machine learning. Pourquoi ? Parce que nombre d’algorithmes d’IA reposent sur des opérations matricielles, ce que les ordinateurs quantiques peuvent théoriquement exécuter avec une redoutable efficacité, notamment via des circuits quantiques variationnels.

Mais là où le quantique brille vraiment, c’est dans sa architecture sans distinction stricte entre mémoire et traitement : les données résident directement dans les qubits, et les opérations s’y appliquent sans avoir à faire d’allers-retours vers une mémoire externe. Un avantage considérable face aux goulets d’étranglement de l’architecture von Neumann classique.

C’est dans ce cadre que le Honda Research Institute s’est associé à la startup Blue Qubit pour un projet de classification d’image sur matériel quantique réel. Leur objectif : déterminer automatiquement si une scène photographiée contient de la neige, à partir d’images issues du Honda Scenes Dataset (80 heures de conduite en Californie, météo incluse).

Le défi : transférer des pixels du monde classique aux qubits. Trois méthodes d’encodage ont été testées, variant selon la manière de découper les images et le nombre de qubits utilisés. L’apprentissage a d’abord été simulé sur un ordinateur classique, puis les données ont été injectées dans deux types de processeurs quantiques :

  • • IBM (156 qubits) : plus de capacité, mais aussi plus d’erreurs de porte.
  • • Quantinuum (56 qubits) : moins de qubits, mais une précision nettement meilleure.

Les performances ? Supérieures au hasard, inférieures au deep learning classique. Plus les chercheurs utilisaient de qubits ou de portes, meilleure était la précision. Mais la conclusion est claire : les processeurs quantiques actuels ne sont pas encore compétitifs par rapport aux architectures traditionnelles. Trop d’erreurs, trop peu de qubits.

Néanmoins, ce test est loin d’être inutile. Il montre que les bases techniques d’une IA quantique fonctionnelle existent, que l’on peut traduire des données classiques en langage quantique, et surtout que des algorithmes d’IA peuvent tourner sur du matériel quantique réel, même s’ils restent limités.

Il faut garder la tête froide : le quantique ne sauvera pas demain la planète des effets énergivores de l’IA. Mais il commence à montrer qu’il pourrait, à terme, offrir une alternative plus efficiente, à condition de résoudre deux problèmes majeurs : la correction d’erreurs et l’augmentation de la capacité.

En attendant, cette expérimentation pionnière entre Honda et Blue Qubit pose les premiers rails d’une potentielle révolution. Car si l’IA actuelle a besoin de toujours plus de ressources, la solution ne viendra peut-être pas d’un GPU plus gros, mais d’un qubit plus malin.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.