Sécurité et véhicules autonomes

Capture d’écran 2018-10-25 à 17.09.26.pngDe plus en plus de véhicules autonomes (VA) circulent à but de test sur différentes routes du monde, en particulier aux USA. La question de la sécurité (des passagers des véhicules, des autres automobilistes et des usagers des routes au sens large, piétons, cyclistes…) est essentielle et son traitement déterminera directement la confiance des utilisateurs et donc la rapidité d’adoption de ces véhicules autonomes.  D’autant que la législation restera très conservatrice vis à vis de ces véhicules si les différents aspects de la sécurité ne sont pas traités en profondeur.

Deux publications éclairent le débat autour de cette question, sous 2 angles différents, l’une plutôt technologique et la seconde sur les impacts humains des véhicules autonomes :

  • Un rapport publié par nvidia intitulé Nvidia Safe-driving Safety Report 2018, et qui présente notamment les 4 règles que devront respecter les véhicules autonomes.
  • Le rapport publié par l’état de Californie concernant les incidents ayant impliqué Une analyse des accidents qui ont impliqué des véhicules autonomes depuis 2014.

Nvidia Safe-driving Safety Report 2018

Capture d’écran 2018-10-25 à 17.12.54.png

nvidia, capitalisant sur le succès de ses GPUs, est un acteur présent depuis plusieurs années sur le secteur des véhicules autonomes, nous l’avions constaté lors de nos visites au CES à Las Vegas (nous en avons parlé ici). Avec ce nouveau rapport (téléchargeable là), nvidia tente de promouvoir un cadre de sécurité pour le développement des véhicules autonomes, et met ainsi en avant 4 piliers représentant des règles à respecter pour faire des véhicules sûrs :

  • Artificial intelligence design and implementation platform : l’IA doit être au coeur des véhicules autonomes, aussi bien en phase de conception que pour l’utilisation.
  • Development infrastructure that supports deep learning : la plateforme doit permettre de collecter et valoriser l’ensemble des données produites par tous les véhicules d’une flotte, pour permettre d’améliorer l’apprentissage et l’exécution (training et inferencing dans le vocabulaire Deep Learning).
  • Data center solution for robust simulation and testing : il faudra disposer d’une solution pour tester et simuler les solutions à déployer, intégrant l’ensemble des paramètres des véhicules mais aussi de leur environnement (trafic, météo, obstacles …).
  • Best-in-class pervasive safety program : existence d’un cadre sécuritaire en termes légal et réglementaires que devront respecter tous les véhicules.

Au delà de ces points intrinsèques aux véhicules autonomes, une autre question apparait de plus en plus importante pour définir le cadre dans lequel ces véhicules évolueront sur les routes et cohabiteront avec les autres véhicules non-autonomes. Sur ce dernier point beaucoup de choses restent à faire, avec des humains qui vont devoir s’habituer à partager la route avec des véhicules autonomes.

Incidents impliquant des véhicules autonomes en Californie

De nombreux états américains (Arizona, Californie, Michigan, Nevada, et Pennsylvanie)Capture d_écran 2018-10-25 à 17.58.14 testent depuis plusieurs années des véhicules autonomes sur routes, en condition réelle donc.  Mais seule la réglementation californienne oblige les sociétés effectuant ces tests à les documenter ainsi que tous incidents survenus même mineurs. Le site américain Wired publie une intéressante analyse de ces chiffres. Depuis 2014 ce sont ainsi 104 rapports de collision impliquant des VA qui ont été documentés, dont 49 sur la seule année 2018, ce qui marque l’augmentation très importante du nombre de tests en cours.  Si GM arrive en tête devant Waymo (Google) c’est surtout parce que Google a délaissé la Californie pour l’Arizona pendant cette année 2018.

De manière plus détaillée, les types de collision marquent une nette prédominance de chocs arrière (pour les véhicules autonomes) :

  • 57% de choc arrière (et près de 80% de ceux ci alors que l’auto pilote était en marche)
  • 29% de chocs latéraux
  • 14% autres

Ces chiffres interpellent. Classiquement lors d’un choc arrière, c’est le conducteur du véhicule arrière qui est jugé responsable, car n’ayant pas maitrisé son véhicule. Mais le pourcentage anormalement élevé de ces chocs impliquant un véhicule autonome sous auto pilote, en position avant, indique que vraisemblablement les conducteurs du véhicule arrière ont été surpris par le conduite du VA, par exemple un écart ou un coup de frein brutal. Selon Wired, ces chiffres indiquent surtout que les conducteurs humains ne sont pas habitués aux pratiques de conduite des VA, qui peuvent avoir parfois des réactions surprenantes pour un conducteur humain lambda. Ces réactions peuvent relever de bug (par ex, l’auto pilote a « cru voir » un obstacle inexistant et à freiner ou fait un écart en conséquence), ou plus simplement du fait que l’auto pilote a effectivement marqué un stop, alors que la voiture qui le suivait anticipait un passage  » plus fluide », comme le pratique certains conducteurs aujourd’hui, ralentissant aux stops, mais sans les marquer formellement.

En tout état de cause, la cohabitation va demander aussi de l’éducation des humains vis à vis de ces nouveaux venus sur les routes, ce qui ne sera pas une mince affaire, et qui dépasse le cadre strict de la technologie à l’oeuvre. Le facteur humain donc !

 

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.