#CES2026 La perception 360° temps réel basée uniquement sur des radars 4D d’imagerie

Oubliez les LIDAR (c’est Musk qui va être content…) RAPA est une solution logicielle de perception 360° temps réel basée uniquement sur des radars 4D d’imagerie, conçue pour offrir des performances proches du LiDAR pour les véhicules autonomes, robots et drones de surface, mais à un coût bien inférieur. Elle s’appuie sur une architecture de deep learning dite “attention‑based pillar” optimisée pour la nature très parcimonieuse et bruitée des données radar, afin d’améliorer fortement la détection et le suivi d’objets.

Innovation présentée

  • Première solution “radar‑only” de perception 4D temps réel, qui fusionne plusieurs radars d’imagerie pour reconstruire un environnement 3D complet avec information de vitesse (Doppler) sur 360°.
  • Utilisation d’un modèle de deep learning à base d’attention par “piliers” (pillar architecture), conçu spécifiquement pour les nuages de points radar extrêmement clairsemés, inspiré des travaux RadarPillars/PillarAttention.
  • Capacité à atteindre une précision de détection et de suivi supérieure de plus de 40% aux solutions concurrentes sur des benchmarks publics, tout en restant temps réel sur des plateformes embarquées.

Objectifs

  • Remplacer ou compléter les coûteux couples LiDAR + caméras par une solution radar d’imagerie beaucoup plus économique, robuste aux intempéries (pluie, brouillard, nuit) et adaptée aux contraintes automobiles.
  • Offrir une perception fiable pour les véhicules autonomes, robots mobiles et USV (navires de surface sans pilote) même dans des conditions de visibilité très dégradée.
  • Fournir une brique logicielle software‑defined, portable, qui exploite des radars 4D existants et peut évoluer avec les générations de capteurs sans refonte matérielle.

Solution technique

  • Fusion multi‑radars 4D : agrégation en temps réel de plusieurs capteurs d’imagerie radar 4D autour du véhicule pour obtenir une vue omnidirectionnelle (360°) de l’environnement.
  • Attention‑based Pillar Architecture :
    • Les nuages de points radar sont projetés dans une grille de “piliers” (cells 3D) ;
    • Chaque pilier est traité comme un “token” dans un module d’attention globale (PillarAttention), qui connecte efficacement les piliers occupés tout en tirant parti de la grande parcimonie des données radar.
  • Exploitation avancée de la vitesse Doppler : RAPA utilise l’information de vitesse pour distinguer précisément objets statiques (infrastructures) et dynamiques (véhicules, piétons), améliorant la segmentation et le suivi multi‑objets.
  • Optimisation embarquée : le réseau est dimensionné pour tourner en temps réel sur des plateformes edge embarquées (faible nombre de paramètres et GFLOPS) tout en maintenant une haute précision.

Date de disponibilité et statut

  • RAPA est développé par Deep Fusion AI, start‑up spécialisée dans la perception radar pour la mobilité autonome.
  • La solution a reçu le Best of Innovation Award CES 2026 dans la catégorie Intelligence artificielle.
  • Positionnée comme technologie B2B, RAPA est en phase de déploiement pilote avec des constructeurs automobiles, acteurs de la robotique et opérateurs USV ; aucune offre “produit grand public” ni grille tarifaire n’est publiée à ce stade.
  • L’objectif annoncé est une intégration commerciale dans des plateformes de véhicules autonomes et robots à partir de 2026–2027, via licences logicielles et collaborations industrielles.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.