Rechercher
Toggle location

Cet article est le deuxième d’une série de 3 articles consacrés aux changements induits par l’avènement des véhicules autonomes et connectés au sein des industries automobile et ferroviaire.

Article précédent / Article suivant

On déplorait en mai 2016 le premier accident mortel impliquant une voiture dont le pilotage automatique avait été enclenché. Le véhicule de la marque américaine Tesla n’avait pas fait la distinction entre un ciel lumineux et le flanc blanc d’un camion qu’il a percuté sans même actionner les freins.

Les problématiques de fiabilité des voitures autonomes vont de pair avec l’acceptabilité, pour le conducteur, de laisser son véhicule conduit par un système d’information. Dans une étude menée en juin 2015 auprès de 1000 usagers de la route sur la conduite automatisée des véhicules individuels en Allemagne, BearingPoint a mesuré les bénéfices attendus de ces véhicules par les utilisateurs et les challenges associés pour le gouvernement allemand :


Source enquête BearingPoint 2015

Ou comment programmer sa voiture pour qu’elle nous tue ?

La notion de responsabilité fait également débat. Si un accident se produit, qui sera désigné responsable ? Qui paiera les frais (le « conducteur », le constructeur, l’éditeur du logiciel de conduite, les assureurs, etc.) ? La question sera d’autant plus prégnante lorsque véhicules manuels et autonomes devront cohabiter.

Parmi les dilemmes sociaux déjà identifiés, une étude récemment menée par trois chercheurs a analysé les choix des participants dans un cas extrême : une voiture autonome en marche, surprise par des piétons, n’a pas d’autre choix que de les écraser ou de foncer dans un mur provoquant la mort des occupants.

Résultat, les participants jugent majoritairement plus moral de sacrifier le ou les passagers du véhicule. L’étude démontre également que les participants sont réticents à laisser un algorithme décider à leur place au risque de se détourner des véhicules qui en sont dotés.

Accédez ici à la MoralMachine mise en ligne par le MIT afin de se confronter à la question ‘’What should the self-driving car do ? ‘’.

Au-delà de la problématique opérationnelle, qui nécessite de programmer des choix d’évitement en fonction de paramètres mesurés, il existe un obstacle moral qui transfère la responsabilité d’un « réflexe » à un « choix conscient ». Nous identifions deux niveaux d’analyse :

Au-delà des contraintes réglementaires…

Aujourd’hui, le conducteur conserve l’obligation de rester totalement maître de son véhicule, mais celui-ci peut prendre en charge certaines actions (allure du véhicule, aide au stationnement, etc.) dont il garde l’entière responsabilité. Les constructeurs américains ont déjà obtenu l’autorisation de faire circuler sur route ouverte des véhicules autonomes expérimentaux dans certains états. La législation européenne n’en permet toujours pas la circulation à l’exception de quelques dérogations.

Réglementé par la convention de Vienne depuis 1968, la commission économique pour l’Europe des Nations Unies (Unece) a néanmoins décidé en mars dernier d’élargir les possibilités de conduite autonome des véhicules. Un mois plus tard, les ministres des transports européens signaient la déclaration d’Amsterdam afin d’établir des normes communes d’encadrement de ces véhicules.

… les enjeux sécuritaires des véhicules connectés

La crainte des pouvoirs publics de voir des véhicules autonomes piratés est d’autant plus forte que la menace terroriste est aujourd’hui élevée. En 2015, des chercheurs en cybersécurité parvenaient à prendre le contrôle à distance d’une Jeep Cherokee et plus récemment, d’une Tesla S. Plus ils seront connectés et plus les véhicules deviendront vulnérables, ce qui confèrera un rôle majeur aux  acteurs de la sécurité informatique.

Auteurs:
Martial Soulie, Manager
Edouard Chambalu, Analyst
François Lanquetot, Associé

  • Sources

    [1] J. F. Bonnefon, A. Shariff, I. Rahwan (2016). The Social Dilemma of Autonomous Vehicles (Moral Machine)

Vous pourriez aussi être intéressé par