L’accident n’a pas manqué de relancer le débat autour de la voiture autonome. Un véhicule autonome Uber a percuté une piétonne à Tempe, en Arizona, lundi 19 mars, provoquant sa mort. Si les voitures autonomes avaient déjà été impliquées dans des accidents mortels aux Etats-Unis, c’est la première fois que cette technologie provoque la mort d’un piéton.

Uber a aussitôt suspendu son programme de voitures autonomes dans la foulée. Au-delà de la question de la pertinence d’une telle technologie, censée réduire le nombre d’accidents dus à l’erreur humaine, ce nouvel incident soulève la question de la responsabilité juridique dans les pays où la voiture autonome est autorisée.

  • Les voitures autonomes sans conducteur sont-elles autorisées partout ?

Cette technologie prend un essor particulier aux Etats-Unis, mais est testée dans de nombreux pays, comme l’Allemagne, la Chine, la France ou encore la Suède. Jusqu’en 2018, ces véhicules étaient autorisés avec la présence d’un être humain derrière le volant, même s’il n’intervenait pas. Début 2018, la Californie a autorisé des tests de voitures totalement autonomes, sans les pédales ni le volant, à condition qu’il soit possible d’en reprendre le contrôle à distance.

Mais leur circulation n’est pas possible en France ou dans tout autre pays de l’Union européenne dans ces conditions, et ce pour une raison principale : les pays ont ratifié la convention de Vienne en 1968, qui stipule que « tout véhicule en mouvement (…) doit avoir un conducteur » et que ce conducteur doit avoir « le contrôle du véhicule ».

Si une révision de 2016 a autorisé les systèmes autonomes, elle y a mis comme condition qu’ils puissent être « neutralisés ou désactivés par le conducteur ». En France, ou en Allemagne, les véhicules autonomes ne sont donc pas autorisés à rouler en route ouverte sans une personne derrière le volant qui pourrait reprendre le contrôle du véhicule en cas de problème, et être tenu pour responsable en cas d’accident.

  • Le droit français est-il adapté à cette nouvelle technologie ?

En cas d’accident de la circulation, la loi Badinter de 1985 permet une indemnisation quasi automatique de la victime par l’assureur du conducteur, dès lors que l’accident implique un véhicule motorisé, et ce indépendamment de la question de la responsabilité. L’indemnisation des victimes d’accident n’est donc pas remise en cause par cette technologie, même si elle obligerait certainement à revoir les systèmes d’assurance.

La question de la responsabilité intervient dans un second temps, et c’est là que la voiture autonome révèle un « vide juridique », selon Majda Benkirane, avocate au barreau de Paris en droit du dommage corporel. En droit français, le conducteur d’une voiture est responsable d’un accident causé par son véhicule, sauf s’il peut démontrer la défectuosité de l’appareil et engager la responsabilité du constructeur. Cela est possible pour la voiture autonome si la voiture n’a, par exemple, pas réagi aux manœuvres du conducteur.

Le problème survient lorsque l’algorithme a fonctionné correctement, mais que son fonctionnement « normal » a conduit à blesser ou à tuer un tiers sans que le conducteur n’intervienne. Aucune commission éthique ni aucune loi n’ont pour l’heure tranché la question, en France, de savoir si une machine pouvait être tenue pour responsable.

« C’est là que le législateur doit intervenir pour déterminer qui, dans ce cas, doit porter la responsabilité », explique Me Benkirane.

  • Quelles peuvent être les réponses à ce vide juridique ?

Certains Etats américains ont déjà légiféré en la matière (Floride, Nevada, Columbia) et ont décidé de retenir la responsabilité du concepteur du système autonome (et non celle du constructeur du véhicule).

En France, la loi pourrait, par exemple, « établir un régime qui engagerait systématiquement la responsabilité du constructeur en cas d’accident » (la « responsabilité sans faute », comme c’est le cas pour les hôpitaux, toujours tenus pour responsables en cas d’infection nosocomiale des patients), ou bien « créer un régime de responsabilité partagée », détaille Me Benkirane.

C’est ce dernier choix qu’a fait l’Allemagne, où une commission éthique a été chargée de réfléchir au sujet et de proposer des règles. Le gouvernement a imposé la présence de boîtes noires dans ces voitures afin de pouvoir établir si le conducteur est intervenu ou non, et si le logiciel de la voiture lui a demandé d’intervenir, afin d’établir clairement les responsabilités entre le constructeur et le conducteur.

En l’absence de législation, la réponse peut aussi être contractuelle. C’est ce qu’ont décidé de faire certains constructeurs : Volvo, Google ou Mercedes ont accepté d’endosser la responsabilité en cas d’accident impliquant leurs modèles de voiture autonome.

Mais, selon Me Benkirane, « le législateur doit réellement se saisir de cet enjeu, car la question est avant tout éthique et concerne la sécurité de tous » : peut-on, et doit-on, totalement se fier à un algorithme qui aurait été programmé pour invariablement préférer renverser trois piétons plutôt que de mettre en danger les occupants du véhicule, ou l’inverse ? Selon l’avocate, ce sont « la raison et les sentiments humains [qui] doivent reprendre le dessus en cas d’accident ».