La responsabilité des biens intelligents : enjeux et défis

Introduction

En 2023, qu’en est-il des questions de responsabilité en matière de biens intelligents?

Le régime de responsabilité du fait des biens prévu au Code civil du Québec a été instauré au début du 20e siècle en réponse à la révolution industrielle et au nombre croissant d’accidents du travail attribuables à la défaillance d’outils1. Le législateur de l’époque ne pouvait évidemment pas anticiper que les outils auxquels cette réglementation s’appliquerait seraient, un siècle plus tard, dotés de capacités d’autoapprentissage leur permettant d’accomplir des tâches précises de façon autonome!

 Ces « biens intelligents », qu’ils soient immatériels ou intégrés dans des biens matériels, ne semblent pouvoir échapper pour le moment aux impératifs du droit commun.

Aux fins de notre examen, l’expression « biens intelligents » désigne les biens qui présentent les capacités suivantes :

  • effectuer des tâches précises sans être sous le contrôle immédiat d’un être humain (autoapprentissage); et
  • capter et analyser les données de leur environnement (interconnectivité);
  • adapter leur comportement afin d’effectuer une tâche qui lui est confiée de manière plus efficiente (autonomie) (critère facultatif)2.

Ces capacités sont propres à ce que l’on appelle communément l’intelligence artificielle (ci-après « IA »).

Application du régime de responsabilité du droit commun aux biens intelligents

Bien que le Canada se targue d’être un « chef de file mondial dans le domaine de l’IA »3, la première loi canadienne régissant l’IA se fait toujours attendre.

Au Québec, la réglementation des biens intelligents en est à ses premiers balbutiements. À ce jour, outre l’encadrement applicable aux véhicules autonomes, aucune loi en vigueur ne prévoit un régime de responsabilité civile comportant des règles distinctes régissant les litiges relatifs à la commercialisation et l’utilisation de biens intelligents.

Deux éléments ont une incidence importante en matière de responsabilité applicable aux biens intelligents: l’opacité et la répartition de la responsabilité. Ceux-ci devraient nécessairement être pris en compte dans l’élaboration d’un cadre réglementaire applicable à l’IA4.  

Mais encore, qu’en est-il de l’imputabilité de l’humain?

L’opacité de l’IA et la responsabilité du fabricant

Lorsqu’un bien autonome exécute une tâche, il n’est pas toujours possible – ni pour le consommateur ni pour le fabricant – de savoir comment l’algorithme a traité l’information à l’origine de son action. C’est ce que les chercheurs qualifient « d’opacité » ou encore de phénomène de la « boîte noire » lié à l’IA5.

Le cadre législatif entourant la responsabilité du fabricant est prévu au Code civil du Québec6 ainsi qu’à la Loi sur la protection du consommateur7. Il se dégage de ces dispositions une obligation pour le distributeur, pour le vendeur professionnel et pour le fabricant de garantir que le bien vendu est exempt de vices cachés. En vertu du régime de responsabilité du produit, un renversement de la preuve s’opère puisqu’il existe une présomption de connaissance du vice de la part du fabricant8.

Deux moyens d’exonération s’offrent à lui9 :

  • D’une part, le fabricant peut faire valoir que la faute du consommateur, d’un tiers ou la force majeure est la cause du défaut;
  • D’autre part, il peut soutenir qu’au moment de la mise en marché du bien, le défaut n’était pas susceptible d’être découvert compte tenu de l’état des connaissances scientifiques.

Ce dernier moyen vise précisément les risques inhérents à l’innovation technologique10.

Ceci étant dit, bien que certains risques se révèlent uniquement lors de la commercialisation d’un produit, l’obligation d’information du fabricant est continue et son application est fonction de l’avancement des connaissances des risques liés au produit11. De ce fait, l’opacité de l’IA peut nuire à la détermination de la responsabilité.

Difficulté au niveau du partage de responsabilité et imputabilité de l’humain

Il arrive que la composante « intelligente » soit intégrée à un bien par un sous-traitant du fabricant. Dans la décision Venmar Ventilation12,  la Cour d’appel a déterminé que le fabricant d’un échangeur d’air ne pouvait pas être disculpé de sa responsabilité même si le défaut de son produit était directement lié à celui du moteur fabriqué par un sous-traitant.

Dans cette perspective, nous pouvons anticiper que la composante intelligente du bien serait susceptible d’engendrer une multiplication des appels en garantie et, en conséquence, des dossiers litigieux de type pyramidaux. Cela pourrait aussi compliquer l’analyse du partage de responsabilité.

Également, si la détermination de l’identité de la personne qui a la garde physique du bien intelligent semble évidente, déterminer l’identité de celle qui exerce un contrôle réel sur ce bien peut se révéler beaucoup plus ardu puisque la garde et le contrôle ne sont pas nécessairement l’apanage d’une seule et même « personne ».

Deux types de gardiens du bien intelligent peuvent se distinguer :

  • Celui qui détient le pouvoir de contrôle, de direction et de surveillance sur le bien au moment de son utilisation (garde frontale) ;
  • Celui qui déteint ces pouvoirs sur l’algorithme qui confère au bien son autonomie (garde en amont) 3.

L’un ou l’autre de ces gardiens pourraient engager sa responsabilité s’il participe au préjudice par sa faute.

Il pourrait donc être difficile de partager la responsabilité entre l’utilisateur humain et les gardiens de l’algorithme d’IA. Par exemple dans le cas d’un agent conversationnel, il pourrait être complexe de déterminer qui entre l’utilisateur humain et l’algorithme IA est responsable de propos diffamatoires ou discriminatoires.

C-27: Projet de loi canadien en matière d'intelligence artificielle

Le 16 juin 2022, le premier projet de loi canadien en matière d’IA (« Projet de loi C-27 ») a été introduit à la Chambre des Communes14. Au moment d’écrire ces lignes, le Projet de loi C-27 est toujours à l’examen par le Comité permanent de l’industrie et de la technologie. La troisième partie du Projet de loi C-27 édicte la Loi sur l’intelligence artificielle et les données.

Si elle était adoptée dans sa forme actuelle, cette loi s’appliquerait au commerce international et interprovincial des « systèmes d’IA à incidence élevée » (« Systèmes »)15.

Bien que le législateur n’ait pas encore clairement défini les caractéristiques qui distinguent l’IA à incidence élevée des autres formes d’IA, pour le moment, le gouvernement du Canada mentionne notamment des Systèmes pouvant potentiellement « influencer le comportement humain sur une grande échelle » et des Systèmes critiques pour la santé et la sécurité16. Il nous est permis de croire qu’il pourrait s’agir de l’IA qui présente un risque élevé pour les droits fondamentaux des utilisateurs.

Le Projet de loi C-27 permettrait notamment de sanctionner le comportement de celui qui « rend disponible » un Système dont l’utilisation cause un « préjudice sérieux » ou un « dommage considérable »17.

Même si le Projet de loi n’encadre pas précisément la responsabilité civile, les grands principes qui y sont énoncés reflètent les pratiques exemplaires applicables à ces technologies. Ces pratiques exemplaires peuvent donc indiquer aux fabricants de technologie IA comment se comporterait en semblable matière un fabricant prudent et diligent placé dans les mêmes circonstances. Les six (6) grands principes au Projet de loi sont les suivants18 :

  • Transparence : Fournir au public l’information concernant les mesures d’atténuation, l’utilisation visée des Systèmes et le « contenu qu’il est censé générer »;
  • Supervision : Fournir des Systèmes susceptibles de supervision humaine;
  • Justice et équité : Mettre sur le marché des Systèmes pouvant limiter les potentiels résultats discriminatoires;
  • Sécurité : Évaluer proactivement des Systèmes afin de prévenir les préjudices « raisonnablement prévisibles »;
  • Responsabilité : Mettre en place des mesures de gouvernance afin d’assurer le respect des obligations légales applicables aux Systèmes;
  • Robustesse : Assurer que les Systèmes fonctionnent comme prévu.

Nous ajoutons le principe de mitigation des risques, considérant l’obligation de la loi « d’atténuer » les risques liés à l’utilisation des Systèmes19.

Conclusion

Le « Tortoise Global AI Index » classe chaque année les pays en fonction de leurs percées dans le domaine de l’IA20 . Cette année le Canada atteint le 5e rang, se classant devant bon nombre de pays de l’Union européenne.

Force est de le constater que le droit en vigueur ne reflète pas encore l’importance croissante de ce secteur dans notre pays.

Bien que le Projet de loi C-27 puisse offrir des éclaircissements quant aux pratiques exemplaires en matière de développement de biens intelligents, il sera intéressant de voir comment ils seront appliqués lorsque des questions visant la responsabilité civile seront soulevées.


  1. Jean-Louis BAUDOUIN, Patrice DESLAURIERS et Benoît MOORE, La responsabilité civile, Volume 1 – Principes généraux, 9e édition, 2020, 1-931.
  2. Tara Qian SUN, Rony MEDAGLIA, “Mapping the challenges of Artificial Intelligence in the public sector: Evidence from public healthcare”, Government Information Quarterly, 2019, 36(2), pp. 368-383, en ligne ; PARLEMENT EUROPÉEN, Règles de droit civil sur la robotique, Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) disponible en ligne sur TA (europa.eu).
  3. GOUVERNEMENT DU CANADA, La Loi sur l'intelligence artificielle et les données (LIAD) - document complémentaire, en ligne.
  4. COMMISION EUROPÉENNE, Livre blanc « Intelligence artificielle. Une approche européenne axée sur l’excellence et la
  5. Madalina BUSUIOC, “Accountable Artificial Intelligence: Holding Algorithms to Account”, Public Administration Review, 2020, en ligne.
  6. Code civil du Québec, RLRQ c. CCQ-1991, art. 1726 et ss.
  7. Loi sur la protection du consommateur, RLRQ, c. P-40.1, art. 38.
  8. General Motors Products of Canada c. Kravitz, 1979 CanLII 22 (CSC), p. 801. Voir également : Brousseau c. Laboratoires Abbott limitée, 2019 QCCA 801, par. 89. [Brousseau]
  9. Code civil du Québec, RLRQ c. CCQ-1991, art. 1473;  ABB Inc. c. Domtar Inc., 2007 CSC 50, par. 72.
  10. Brousseau, par. 100.
  11. Brousseau, par. 102.
  12. Desjardins Assurances générales inc. c. Venmar Ventilation inc., 2016 QCCA 1911, par. 19 et ss.
  13. Céline MANGEMATIN, Droit de la responsabilité civile et l’intelligence artificielle, https://books.openedition.org/putc/15487?lang=fr#ftn24; Voir également Hélène CHRISTODOULOU, La responsabilité civile extracontractuelle à l’épreuve de l’intelligence artificielle, p. 4 .
  14. Projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, Ministre de l’innovation, des sciences et de l’industrie [PL C-27]
  15. PL C-27, sommaire et art. 5 (1).
  16. La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire, Gouvernement du Canada, en ligne.
  17. PL C-27, art. 39 a).
  18. LIAD, document supplémentaire
  19. PL C-27, art. 8.
  20. TORTOISE MEDIA, The Global AI Index 2023 disponible sur tortoisemedia.com.
Retour à la liste des publications

Écrit par

Restez à l'affût des nouvelles juridiques de l'heure. Abonnez-vous à notre infolettre.

M'abonner aux publications