#CES2026 Des supercalculateurs IA ultra‑compacts “taille bagage cabine”

Décidément l’IA Edge se décline sous différentes formes ainsi ODINN présente OMNIA et Infinity Cube, des supercalculateurs IA ultra‑compacts “taille bagage cabine” permettant d’exécuter localement des workloads IA avec des performances de petits data center, sans dépendance au cloud ni construction d’infrastructure lourde.

Cette solution est présenté en marge du CES au Cosmopolitain dans une suite.

Innovation présentée

  • Concept de Concentrated Compute™ : concentrer la puissance d’un data center (GPU haut de gamme, dizaines à centaines de cœurs CPU, plusieurs To de RAM, stockage NVMe au pétaoctet) dans des unités transportables (OMNIA) ou des cubes modulaires (Infinity Cube).
  • Data center “portable” et modulaire : OMNIA fonctionne seul ou comme brique dans Infinity Cube, un “AI data center” vitré constitué exclusivement de modules OMNIA hot‑swappables avec refroidissement liquide intégré.

Objectifs

  • Permettre l’IA souveraine sur site : garder les données sensibles (santé, finance, défense, souveraineté nationale) dans le bâtiment, sous contrôle exclusif du client, sans envoi vers des clouds publics.
  • Réduire la latence et accroître la résilience : fournir une puissance IA locale pour les cas temps réel (défense, diffusion live, trading, robotique, edge) même en cas de panne de cloud ou de réseau.
  • Éviter de construire des salles serveurs : supprimer la nécessité de gros travaux (refroidissement industriel, salles blanches, faux planchers) en intégrant alimentation, refroidissement liquide fermé et densité GPU directement dans la machine.

Solution proposée

  • OMNIA : superordinateur IA au format bagage cabine, avec CPU et GPU de classe data center (par ex. jusqu’à 2 GPU NVIDIA H200, 320 cœurs CPU, 6 To de RAM, 1 Po de stockage NVMe selon une configuration présentée), refroidissement liquide propriétaire, écran/clavier/trackpad intégrés, simple prise secteur et réseau.
  • Infinity Cube : cube vitré réunissant plusieurs OMNIA en cluster GPU haute densité, chaque unité apportant sa propre alimentation et son refroidissement, permettant de faire évoluer la capacité en ajoutant ou retirant des OMNIA sans travaux d’infrastructure.
  • NeuroEdge : couche logicielle d’orchestration qui gère le déploiement, la planification et l’optimisation des workloads IA sur OMNIA et Infinity Cube, avec intégration à l’écosystème IA NVIDIA et aux frameworks courants.

Date de disponibilité

  • La société est fondée en 2023 et communique sur des produits déjà opérationnels (“deployed in minutes”, “available anywhere in the world”), mais ne donne pas de date de lancement précise (uniquement 2026).
  • OMNIA et Infinity Cube seront dans un premier temps proposées à des clients défense, finance, santé et industrie ; la disponibilité se fait a priori sur demande / projets spécifiques plutôt que via une commercialisation grand public datée.
  • Pas de prix public également, mais avec ces composants c’est clair que celui ci devrait piquer un peu 🙂

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.