Le 18 mars 2018, à Tempe, en Arizona, un véhicule dont la conduite était assurée par un programme d’essais d’un logiciel de conduite automatisée est entré en collision avec une piétonne, causant sa mort. À la suite de cet accident, le National Transportation Safety Board (« NTSB ») des États-Unis a mené une enquête et, le 19 novembre 2019, publié ses résultats préliminaires et recommandations1.
Les circonstances de l’accident impliquant une voiture autonome d’Uber
Le véhicule autonome (« VA ») de marque Volvo XC90 2017 était muni d’un programme d’essais d’un système de conduite automatisée d’Uber Technologies inc. (« Uber »). Alors que le véhicule circulait à une vitesse d’environ 72 km/h et réalisait la seconde partie d’un trajet prédéterminé dans le cadre d’un essai de conduite, une piétonne a traversé la rue entre les intersections.
Il a été déterminé par l’enquête du NTSB que le système de conduite automatisée du véhicule avait détecté la piétonne, mais n’avait pas été en mesure de la qualifier de piétonne et de prédire son trajet.
De plus, le système de conduite automatisée a empêché l’activation du système de freinage d’urgence du véhicule, se fiant plutôt à l’intervention de la conductrice humaine à bord afin de pouvoir prendre le contrôle du véhicule dans cette situation critique.
Or, des vidéos de l’intérieur du véhicule montrent que la conductrice n’était pas attentive à la route, mais regardait plutôt son téléphone cellulaire déposé sur la console du véhicule.
Alors que la collision entre la piétonne et le véhicule était imminente, la conductrice inattentive n’a pas été en mesure de prendre le contrôle du véhicule à temps pour prévenir l’accident et mitiger les dommages.
Quelles sont les causes de l’accident?
Le NTSB a émis plusieurs constats, dont les suivants :
- L’expérience et la connaissance de la conductrice ne constituaient pas des facteurs dans l’accident, non plus que sa fatigue ou ses facultés, ni même l’état mécanique du véhicule;
- Un examen de la piétonne a révélé la présence dans son organisme de drogues susceptibles d’affaiblir sa perception et son jugement;
- Le système de conduite automatisée d’Uber n’a pas anticipé de manière adéquate ses limites quant à sa sécurité, y compris son incapacité de qualifier la piétonne et de prédire son trajet;
- La conductrice du véhicule était distraite dans les moments qui ont précédé l’accident. Si elle avait été attentive, elle aurait eu le temps de voir la piétonne et de prendre le contrôle du véhicule pour éviter l’accident ou mitiger ses impacts;
- Uber n’a pas adéquatement reconnu les risques liés à la distraction des conducteurs de ses automobiles;
- Uber a retiré de ses essais le second conducteur du véhicule, faisant en sorte de confier l’entièreté de la responsabilité de l’intervention en situation critique sur la seule conductrice et ainsi réduire la sécurité du véhicule.
Il a été déterminé que la cause probable de l’accident a été la distraction de la conductrice et son défaut de prendre le contrôle du VA en situation critique. Des facteurs additionnels ont été déterminés, notamment l’insuffisance des mesures de sécurité du véhicule et de surveillance des conducteurs, démontrant des carences au niveau de la culture de sécurité d’Uber.
Le NTSB émet des recommandations, notamment :
- L’Arizona devrait mettre en place des obligations quant aux développeurs de projets liés aux VA en ce qui a trait aux risques associés à l’inattention des conducteurs des véhicules et qui visent la prévention des accidents et la mitigation des risques;
- Le NTSB devrait exiger des entités qui réalisent des projets liés aux VA qu’elles soumettent une auto-évaluation quant aux mesures de sécurité de leurs véhicules. Le NTSB devrait également établir un processus d’évaluation quant aux mesures de sécurité des VA;
- Uber devrait mettre en place une politique concernant la sécurité de ses logiciels de conduite automatisée.
Un drame identique lié aux véhicules autonomes peut-il se produire au Québec et au Canada?
À la suite de la mise à jour du Code de la sécurité routière en avril 2018, la conduite des VA de niveau 3 dans la province de Québec est permise lorsque leur vente est possible au pays. La conduite des véhicules automatisés de niveaux 4 et 5 est permise lorsqu’elle est expressément encadrée par un projet-pilote2.
Selon la norme J3016 de la SAE International, les VA de niveau 3 sont des véhicules à automatisation dite conditionnelle, dont la conduite active se fait de manière automatisée, mais où le conducteur humain doit demeurer attentif afin de pouvoir prendre le contrôle du véhicule en situation critique.
Ainsi, le véhicule impliqué dans l’accident d’Arizona, bien que toujours à son stade de mise au point, correspond à un VA de niveau 3.
Des VA de niveau 3 circulent maintenant sur les routes du Québec en toute légalité.
Au Canada, la Loi sur la sécurité automobile3 et ses règlements connexes régissent « la fabrication et l’importation des véhicules et équipements automobiles en vue de limiter les risques de mort, de blessures et de dommages matériels et environnementaux ». Or, aucune disposition ne prévoit actuellement l’encadrement spécifique des logiciels de conduite automatisée, ni ne régit les risques associés à l’inattention des conducteurs de VA de niveau 3.
Avec l’arrivée des VA au pays, en marge des recommandations du NTSB et pour assurer la sécurité de tous, l’encadrement actuel serait à parfaire pour répondre spécifiquement aux mesures de sécurité des VA.
- National Transportation Safety Board, Public Meeting of November 19, 2019, “Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian”, Tempe, Arizona, March 18, 2019, HWY18MH010.
- Code de la sécurité routière, RLRQ c C-24.2, art. 492.8 et 633.1; la conduite des véhicules automatisés est encadrée en Ontario par le Pilot Project - Automated Vehicles, O Reg 306/15.
- Loi sur la sécurité automobile, L.C. 1993, ch. 16 ; voir entre autre Règlement sur la sécurité des véhicules automobiles, CRC, c 1038.