Intelligence artificielle

Vue d’ensemble

Télécharger le livre blanc des enjeux juridiques de l’intelligence artificielle


Faites le test de connaissances IA!

Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA)

Nous anticipons que d’ici quelques années, toutes les sociétés, entreprises et organisations, dans toutes les sphères d’activités et tous les secteurs, feront appel à certaines formes d’intelligence artificielle dans leurs activités courantes, qu’il s’agisse d’améliorer la productivité ou l’efficacité, d’assurer un meilleur contrôle de la qualité, de conquérir de nouveaux marchés et clients, de mettre en place de nouvelles stratégies marketing, d’améliorer les processus, l’automatisation et la commercialisation ou encore la rentabilité de l’exploitation. C’est d’ailleurs le cas de l’industrie des services professionnels qui connaît une transformation qui mérite d’être approfondie.

Pour cette raison, Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans les entreprises et les industries.

" À partir du moment où une entreprise sait ce qu’elle veut, des outils existent, elle doit les utiliser au mieux, et un laboratoire comme le nôtre est là pour la conseiller en ce sens. "

Éric Lavallée, responsable du L3IA

 

Les développements de l’intelligence artificielle, à travers un large éventail de fonctionnalités et d’applications, auront également un impact certain sur plusieurs secteurs et pratiques du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires.

Découvrez notre lexique qui vulgarise et démystifie les termes les plus utilisés en matière d'intelligence artificielle:

lexique intelligence artificielleCliquez ici pour le consulter en ligne

 


Cliquez sur les images et les liens pour consulter certains de nos articles et entrevues sur l'intelligence artificielle :

Lavery a créé son propre «ChatGPT» juridique

Hyper trucage sur le web : les dangers de l'Intelligence artificielle

 

  1. Quatre conseils aux entreprises pour éviter la dépendance et la vulnérabilité à l’Intelligence Artificielle

    Alors que le monde discute des guerres tarifaires touchant divers produits, on néglige parfois les risques pour les technologies de l’information. Pourtant, plusieurs entreprises s’appuient sur l’intelligence artificielle pour la prestation de leurs services. Plus particulièrement, l’usage des grands modèles de langage est intégré dans une foule de technologies, dont ChatGPT a été le porte-étendard. Mais les entreprises doivent-elles se placer en situation de dépendance face à des fournisseurs de services technologiques s’ils sont basés uniquement aux États-Unis? Des solutions de rechange chinoises telles Deepseek font parler d’elles, mais soulèvent des questions sur la sécurité des données et le contrôle de l’information qui y est associé. La professeure Teresa Scassa écrivait déjà, en 2023, que la souveraineté en matière d’intelligence artificielle prend différentes formes, incluant la souveraineté étatique, mais aussi la souveraineté des communautés sur les données et la souveraineté individuelle1. D’autres invoquent déjà l’intelligence artificielle comme un vecteur du recalibrage des intérêts internationaux2. Dans ce contexte, comment les entreprises peuvent-elles se prémunir contre les fluctuations qui pourraient être décidées par des autorités gouvernementales d’un pays ou d’un autre? À notre avis, c’est justement en exerçant une certaine souveraineté à leur échelle que les entreprises peuvent se préparer à de tels changements. Quelques conseils : Comprendre les enjeux de propriété intellectuelle : Les grands modèles de langage sous-jacents à la majorité des technologies d’intelligence artificielle sont parfois offerts sous des licences ouvertes (open source), mais certaines technologies sont diffusées sous des licences commerciales restrictives. Il est important de comprendre les contraintes des licences sous lesquelles ces technologies sont offertes. Dans certains cas, le propriétaire du modèle de langage se réserve le droit de modifier ou restreindre les fonctionnalités de la technologie sans préavis. À l’inverse, des licences ouvertes permissives permettent d’utiliser un modèle de langage sans limite de temps. Par ailleurs, il est stratégique pour une entreprise de garder la propriété intellectuelle sur ses compilations de données qui peuvent être intégrées dans des solutions d’intelligence artificielle. Considérer d’autres options : Dès lors que la technologie est appelée à manipuler des renseignements personnels, une évaluation des facteurs relatifs à la vie privée est requise par la loi avant l’acquisition, le développement ou la refonte technologique[3]. Même dans les cas où cette évaluation n’est pas requise par la loi, il est prudent d’évaluer les risques liés aux choix technologiques. S’il s’agit d’une solution intégrée par un fournisseur, existe-t-il d’autres options? Serait-on en mesure de migrer rapidement vers une de ces options en cas de difficulté? S’il s’agit d’une solution développée sur mesure, est-elle limitée à un seul grand modèle de langage sous-jacent? Favoriser une approche modulaire : Lorsqu’un fournisseur externe est choisi pour fournir le service d’un grand modèle de langage, c’est souvent parce qu’il offre une solution intégrée dans d’autres applications que l’entreprise utilise déjà ou par l’intermédiaire d’une interface de programmation applicative développée sur mesure pour l’entreprise. Il faut se poser la question : en cas de difficulté, comment pourrait-on remplacer ce modèle de langage ou l’application? S’il s’agit d’une solution complètement intégrée par un fournisseur, celui-ci offre-t-il des garanties suffisantes quant à sa capacité de remplacer un modèle de langage qui ne serait plus disponible? S’il s’agit d’une solution sur mesure, est-il possible, dès sa conception, de prévoir la possibilité de remplacer un modèle de langage par un autre? Faire un choix proportionné : Ce ne sont pas toutes les applications qui nécessitent les modèles de langage les plus puissants. Lorsque l’objectif technologique est modéré, plus de possibilités peuvent être considérées, dont des solutions basées sur des serveurs locaux qui utilisent des modèles de langage sous licences ouvertes. En prime, le choix d’un modèle de langage proportionné aux besoins diminue l’empreinte environnementale négative de ces technologies en termes de consommation d’énergie.  Ces différentes approches s’articulent par différentes interventions où les enjeux juridiques doivent être pris en considération de concert avec les contraintes technologiques. La compréhension des licences et des enjeux de propriété intellectuelle, l’évaluation des facteurs relatifs à la vie privée, les clauses de limitation de responsabilité imposées par certains fournisseurs, autant d'aspects qui doivent être considérés en amont. Il s’agit là non seulement de faire preuve de prudence, mais aussi de profiter des occasions qui s’offrent à nos entreprises de se démarquer dans l’innovation technologique et d’exercer un meilleur contrôle sur leur avenir. Scassa, T. (2023). Sovereignty and the governance of artificial intelligence. UCLA L. Rev. Discourse, 71, 214. Xu, W., Wang, S., & Zuo, X. (2025). Whose victory? A perspective on shifts in US-China cross-border data flow rules in the AI era. The Pacific Review, 1-27. Voir notamment la Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39.1, art. 3.3.

    Lire la suite
  2. L’intelligence artificielle peut-elle être désignée comme inventeur dans une demande de brevet?

    De plus en plus développée, l’intelligence artificielle (l’« IA ») créée par l’humain serait maintenant à son tour capable de création autonome, ouvrant la porte à une reconceptualisation de la notion d’inventeur en droit des brevets. Dans un arrêt récent, la Cour suprême du Royaume-Uni a toutefois conclu qu’un système d’intelligence artificielle ne peut pas être l’auteur d’une invention au sens de la réglementation applicable en matière d’octroi de brevets. Cette prise de position rejoint celle de plusieurs autres tribunaux à travers le monde s’étant déjà prononcés sur la question. Qu’en est-il au Canada, où les tribunaux ne se sont pas encore penchés sur l’enjeu? Dans ce bulletin, nous revenons sur la décision de la Cour suprême du Royaume-Uni et sur les décisions équivalentes rendues dans d’autres pays pour ensuite explorer la perspective canadienne. “an inventor must be a person” : La Cour suprême du Royaume-Uni se prononce dans Thaler (Appellant) v Comptroller-General of Patents, Designs and Trade Mark 1 Résumé de la décision En 2018, Dr Stephen Thaler dépose des demandes de brevet pour deux inventions décrites comme ayant été générées par un système d’IA autonome. La machine en question, DABUS, est donc désignée dans les demandes comme l’inventeur. Le Dr Thaler prétend qu’en tant que propriétaire de DABUS, il est en droit de déposer une demande de brevet pour les inventions générées par sa machine. Dans de telles circonstances, il ne serait pas tenu de nommer une personne physique comme inventeur. Tant la Haute Cour de justice que la Cour d’appel rejettent son appel de la décision de l’Office de la propriété intellectuelle du Royaume-Uni. Ce dernier avait décidé de ne pas donner suite aux demandes de brevet, notamment en raison de la désignation inadéquate de l’inventeur au sens du Patents Act 1977. La Cour suprême du Royaume-Uni, la dernière instance d’appel du pays, rejette également son recours. Dans une décision unanime, elle conclut que la loi est claire : « an inventor within the meaning of the 1977 Act must be a natural person, and DABUS is not a person at all, let alone a natural person: it is a machine ».2 Il n’est pourtant pas remis en question que DABUS a bel et bien créé les inventions en l’espèce. Cela n’implique pas pour autant que la notion d’inventeur au sens de la loi puisse être élargie par les tribunaux pour inclure les machines. Une tendance qui se maintient La Cour suprême du Royaume-Uni n’est pas la première à ne pas se laisser convaincre par les arguments du Dr Thaler. Tant les États-Unis3 que l’Union européenne4 et l’Australie5 ont adopté des positions similaires et concluent que seul un être humain peut se qualifier d’inventeur au sens de la législation applicable dans leur juridiction respective. La décision anglaise s’inscrit en effet dans une tentative à l’échelle mondiale entreprise par le Artificial Inventor Project de faire reconnaître l’inventivité de la machine DABUS, et par le fait même de l’IA de manière générale, comme capable de générer des droits de brevet au bénéfice des propriétaires de systèmes d’IA. À ce jour, seule l’Afrique du Sud a émis un brevet au Dr Thaler mentionnant DABUS comme inventeur.6 Ce pays se présente ainsi comme l’exception qui confirme la règle. Cependant, le Bureau de l’enregistrement pour des sociétés et de la propriété intellectuelle de l’Afrique du Sud n’examine pas les demandes sur le fond. Aucun motif n’a donc été fourni qui indiquerait que la question de l’IA comme inventeur ait été considérée. Plus récemment, en février dernier, le Bureau américain des brevets et des marques de commerce a publié une directive sur les inventions créées avec l’assistance de l’IA. Celle-ci confirme la position judiciaire et indique notamment que "a natural person must have significantly contributed to each claim in a patent application or patent".7 Qu’en est-il au Canada? En 2020, le Dr Thaler a également déposé une demande de brevet canadien pour les inventions générées par DABUS.8 L’Office de la propriété intellectuelle du Canada (l’« OPIC ») a émis un avis de non-conformité en 2021, établissant ainsi sa position à première vue : Because for this application the inventor is a machine and it does not appear possible for a machine to have rights under Canadian law or to transfer those rights to a human, it does not appear this application is compliant with the Patent Act and Rules.9 Cependant, l’OPIC précise être ouvert à recevoir les arguments du demandeur sur la question : Responsive to the compliance notice, the applicant may attempt to comply by submitting a statement on behalf of the Artificial Intelligence (AI) machine and identify, in said statement, himself as the legal representative of the machine.10 À ce jour, aucun avis d’abandon de la demande n’a été émis par l’OPIC et celle-ci demeure active. Son statut au Canada est donc incertain. Il sera intéressant de voir si, après avoir subi de nombreux échecs dans les autres pays du monde et s’être tout juste fait confirmer l’invalidité de sa demande par la Cour suprême du Royaume-Uni, le Dr Thaler tentera maintenant de convaincre les tribunaux canadiens. A priori, la Loi sur les brevets11 (la « Loi ») ne représente pas un frein à une reconnaissance d’un système d’IA comme inventeur d’une invention brevetable. En effet, la Loi ne définit pas le terme « inventeur ». Qui plus est, il n’y a aucune référence à l’exigence d’une « personne » dans la définition d’un demandeur ni indication en ce sens dans les dispositions régissant la délivrance de brevets. Les Règles sur les brevets12 n’offrent pas non plus de précision. L’exigence qui serait sous-entendue par un emploi clair du terme « personne » par le législateur dans le libellé des articles de la loi est importante : il s’agissait d’une considération clé de l’analyse de la Cour suprême du Royaume-Uni dans Thaler. La jurisprudence demeure également équivoque. Selon la Cour suprême du Canada, il faut se demander « [q]ui est l’auteur de l’idée originale » puisque l’inventeur est celui qui a participé à la conception de l’invention.13 Par comparaison, nous notons toutefois qu’il a été conclu qu’une personne morale ne pouvait être envisagée comme inventeur par opposition à une personne physique.14 Force est de constater que les tribunaux canadiens n’ont jamais eu à trancher la question spécifique de l’IA comme inventeur et qu’en attendant une telle décision judiciaire ou prise de position par le législateur, la question demeurera ouverte. Conclusion Au vu de l’incertitude en droit canadien à savoir si l’IA peut être reconnue comme inventeur, il serait opportun pour les autorités canadiennes de clarifier la question. Comme suggéré par la Cour suprême du Royaume-Uni, la place de l’IA en droit des brevets est un enjeu de société actuel, et il reviendra ultimement au législateur de se prononcer.15 En ce sens, un amendement à la Loi ou l’émission d’une directive par l’OPIC se font toujours attendre. Plus encore, outre la qualification juridique de l’IA comme inventeur, il faudra déterminer si une personne peut autrement se voir accorder des droits sur une invention créée dans les faits par l’IA. En effet, la possibilité pour le propriétaire de l’IA d’être titulaire d’un brevet sur l’invention générée par sa machine était aussi une question soulevée dans Thaler. Encore une fois, contrairement à la loi anglaise,16 notre Loi sur les brevets ne ferme pas la porte à cette éventualité. Notamment, la législation canadienne n’établit pas une liste exhaustive des catégories de personnes pouvant obtenir un brevet. S’il fallait vraiment revoir le système, il serait peut-être plus à propos de permettre la titularité des droits de brevet par le propriétaire de l’IA plutôt que de reconnaître l’IA comme inventeur. En effet, le système de propriété intellectuelle trouve sa justification première dans le fait de favoriser l’innovation et la créativité. Une négociation implicite sous-tend l’octroi de droits de brevet : une forte protection est accordée en échange d’une divulgation suffisante pour permettre à une personne versée dans l’art de reproduire l’invention. On s’assure ainsi d’une contribution à la société tout en récompensant l’inventeur. Il est évidemment plus difficile de soutenir qu’une machine nécessite un tel incitatif. Désigner l’IA comme inventeur et lui octroyer des droits en ce sens s’accorde donc mal avec la raison d’être d’une protection par brevet. En revanche, son propriétaire pourrait être justifié de réclamer une telle protection pour les inventions créées par sa machine, ayant investi temps et énergie dans la conception de l’IA. Dans l’état actuel du droit, une intervention du législateur serait vraisemblablement nécessaire. Est-ce qu’une telle proposition permettrait de favoriser l’innovation dans le domaine de l’IA générative? Cela dit, nous investissons collectivement énormément de ressources « humaines » pour le développement de solutions d’IA de plus en plus performantes. Arrivera-t-il un moment où nous ne pourrons plus considérer que des ressources humaines ont été investies pour les technologies créées par l’IA? Dans un tel cas, favoriser les propriétaires de solutions d’IA pourrait devenir contre-productif. Quoi qu’il en soit, une position prudente consiste pour le moment à insister sur l’apport humain à l’invention créée avec l’aide de l’IA, de façon à mettre de l’avant une personne comme inventeur plutôt que l’IA. Quant aux inventions conçues entièrement par un système d’IA, une protection par les secrets d’affaires serait davantage à envisager. Les professionnels de notre équipe de propriété intellectuelle sont à votre disposition pour vous accompagner dans vos démarches d’enregistrement de brevets et démystifier ces enjeux avec vous. [2023] UKSC 49 [Thaler]. Ibid au para 56. Voir la décision de la Cour d’appel des États-Unis pour le circuit fédéral dans Thaler v Vidal, 43 F. 4th 1207 (2022) (requête pour appel à la Cour suprême des États-Unis rejetée). Voir la décision de la Chambre de recours juridique de l’Office européen des brevets dans J 0008/20 (Designation of inventor/DABUS) (2021) (demande de renvoi des questions à la Grande Chambre de recours rejetée). Voir la décision de la Full Court de la Cour fédérale d’Australie dans Commissioner of Patents v Thaler, [2022] FCAFC 62 (requête pour appel à la Haute Cour d’Australie rejetée). ZA 2021/03242. Federal Register: Inventorship Guidance for AI-Assisted Inventions. CA 3,137,161. Lettre du bureau datée du 11 février 2022 dans le cadre de la demande de brevet canadien 3137161. ibid. LRC 1985, c P-4. DORS/2019-251. Apotex Inc. c. Wellcome Foundation Ltd., 2002 CSC 77 aux paras 96-97. Sarnoff Corp. c. Canada (Procureur général), 2008 CF 712 au para 9. Thaler, aux paras 48-49, 79. Ibid au para 79.

    Lire la suite
  3. Les grandes oubliées de l’intelligence artificielle: réflexion sur des lois applicables aux technologies de l’information

    Alors que les législateurs, au Canada1 et ailleurs2, tentent de mieux encadrer le développement et l’usage de technologies d’intelligence artificielle, il est important de se rappeler que ces technologies se qualifient aussi dans la famille plus large des technologies de l’information. Depuis 2001, le Québec s’est doté d’une loi visant à encadrer les technologies de l’information. Trop souvent oubliée, cette loi trouve application directement dans l’utilisation de certaines technologies d’intelligence artificielle. La notion très large de documents technologiques D’une part, les documents technologiques visés par cette loi sont définis pour inclure toute forme d’information délimitée, structurée et intelligible3. La loi donne quelques exemples de documents technologiques visés par divers textes législatifs, y incluant des formulaires en ligne, des rapports, des photographies, des diagrammes et même des électrocardiogrammes! On peut donc comprendre que cette notion s’applique sans difficulté à divers formulaires des interfaces d’utilisation de diverses plateformes technologiques4. Qui plus est, ces documents technologiques ne sont pas limités à des renseignements personnels. Cela peut aussi viser des renseignements relatifs à des entreprises ou à divers organismes, qui sont hébergés sur une plateforme technologique. À titre d’exemple, la Cour supérieure a récemment appliqué cette loi pour reconnaître la valeur probante de lignes directrices de pratique et de normes techniques en matière d’imagerie médicale qui étaient accessibles sur un site web5. Une décision plus ancienne a aussi reconnu l’admissibilité en preuve du contenu d’agendas électroniques6. À cause de leur lourdeur algorithmique, plusieurs technologies d’intelligence artificielle sont offertes sous forme de logiciel en tant que service ou de plateforme en tant que service. Dans la plupart des cas, l’information saisie par une entreprise utilisatrice est transmise sur des serveurs contrôlés par le fournisseur, où elle est traitée par des algorithmes d’intelligence artificielle. C’est souvent le cas des systèmes avancés de gestion de la relation client (souvent désignés sous l’acronyme anglais CRM) et d’analyse de dossiers électroniques. C’est aussi le cas également d’une panoplie d’applications visant la reconnaissance vocale, la traduction de documents et l’aide à la décision pour des employés de l’utilisatrice. Dans le contexte de l’intelligence artificielle, les documents technologiques s’étendent donc vraisemblablement à ce qui est ainsi transmis, hébergé et traité sur des serveurs à distance. Des obligations réciproques La loi prévoit des obligations spécifiques lorsque des prestataires de services, notamment des fournisseurs de plateforme informatique, doivent garder de l’information. Citons l’article 26 de la loi : «26. Quiconque confie un document technologique à un prestataire de services pour qu’il en assure la garde est, au préalable, tenu d’informer le prestataire quant à la protection que requiert le document en ce qui a trait à la confidentialité de l’information et quant aux personnes qui sont habilitées à en prendre connaissance. Le prestataire de services est tenu, durant la période où il a la garde du document, de voir à ce que les moyens technologiques convenus soient mis en place pour en assurer la sécurité, en préserver l’intégrité et, le cas échéant, en protéger la confidentialité et en interdire l’accès à toute personne qui n’est pas habilitée à en prendre connaissance. Il doit de même assurer le respect de toute autre obligation prévue par la loi relativement à la conservation du document.» (note :  nos soulignements) Cet article impose donc un dialogue entre l’entreprise qui désire utiliser une plateforme technologique et le fournisseur de cette plateforme. D’une part, l’entreprise utilisatrice de la plateforme doit informer le fournisseur de la protection requise pour les renseignements qu’elle déposera sur la plateforme technologique. D’autre part, ce fournisseur a l’obligation de mettre en place des moyens technologiques de nature à en assurer la sécurité, l’intégrité et la confidentialité, correspondant à la protection requise qui lui est communiquée par l’utilisatrice. La loi ne spécifie pas quels moyens technologiques doivent être mis en place. Ces mesures doivent toutefois être raisonnables eu égard à la sensibilité des documents technologiques impliqués, du point de vue d’une personne possédant une expertise dans le domaine. Ainsi, un fournisseur qui offrirait une plateforme technologique comportant des modules désuets ou comportant des failles de sécurité connues se déchargerait-il de ses obligations en vertu de la loi? Cette question doit s’analyser dans le contexte de l’information que l’utilisatrice de la plateforme lui a transmise quant à la protection requise pour les documents technologiques. Un fournisseur ne doit toutefois pas cacher les risques liés à la sécurité de sa plateforme informatique à l’utilisatrice, ce qui irait à l’encontre des obligations d’information et de bonne foi des parties. Des individus sont impliqués? À ces obligations, il faut ajouter aussi la Charte des droits et libertés de la personne, qui s’applique également aux entreprises privées. Les entreprises qui traitent l’information pour le compte d’autrui doivent le faire dans le respect des principes de la Charte lorsqu’il s’agit de traiter des renseignements concernant divers individus. À titre d’exemple, si un fournisseur d’une plateforme informatique de gestion de la relation client offre des fonctionnalités permettant de classifier les clients ou d’aider les entreprises à répondre à leurs demandes, ce traitement d’information doit demeurer exempt de biais fondés sur la race, la couleur, le sexe, l’identité ou l’expression de genre, la grossesse, l’orientation sexuelle, l’état civil, l’âge (sauf dans la mesure prévue par la loi), la religion, les convictions politiques, la langue, l’origine ethnique ou nationale, la condition sociale, le handicap ou l’utilisation d’un moyen pour pallier ce handicap7. Un algorithme d’intelligence artificielle ne devrait en aucun cas suggérer à un commerçant de refuser de conclure des contrats avec un individu sur une telle base discriminatoire8. De plus, une personne qui recueille des renseignements personnels à l’aide de technologies permettant le profilage d’individus doit en aviser ces personnes au préalable9. Bref, loin du Far West décrié par certains, l’usage de l’intelligence artificielle doit se faire dans le respect des lois déjà en place, auxquelles s’ajouteront vraisemblablement de nouvelles lois plus spécifiques à l’intelligence artificielle. Si vous avez des questions relativement à l’application de ces lois à vos systèmes d’intelligence artificielle, n’hésitez pas à contacter un de nos professionnels. Projet de loi C-27, Loi de 2022 sur la mise en œuvre de la Charte du numérique. Notamment, aux États-Unis, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence du 30 octobre 2023. Loi concernant le cadre juridique des technologies de l'information, RLRQ c C-1.1, art. 3. Idem, art. 71. Tessier c. Charland, 2023 QCCS 3355. Lefebvre Frères ltée c. Giraldeau, 2009 QCCS 404. Charte des droits et libertés de la personne, art. 10. Idem, art. 12. Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39.1, art. 8.1.

    Lire la suite
  4. La responsabilité des biens intelligents : enjeux et défis

    Introduction En 2023, qu’en est-il des questions de responsabilité en matière de biens intelligents? Le régime de responsabilité du fait des biens prévu au Code civil du Québec a été instauré au début du 20e siècle en réponse à la révolution industrielle et au nombre croissant d’accidents du travail attribuables à la défaillance d’outils1. Le législateur de l’époque ne pouvait évidemment pas anticiper que les outils auxquels cette réglementation s’appliquerait seraient, un siècle plus tard, dotés de capacités d’autoapprentissage leur permettant d’accomplir des tâches précises de façon autonome!  Ces « biens intelligents », qu’ils soient immatériels ou intégrés dans des biens matériels, ne semblent pouvoir échapper pour le moment aux impératifs du droit commun. Aux fins de notre examen, l’expression « biens intelligents » désigne les biens qui présentent les capacités suivantes : effectuer des tâches précises sans être sous le contrôle immédiat d’un être humain (autoapprentissage); et capter et analyser les données de leur environnement (interconnectivité); adapter leur comportement afin d’effectuer une tâche qui lui est confiée de manière plus efficiente (autonomie) (critère facultatif)2. Ces capacités sont propres à ce que l’on appelle communément l’intelligence artificielle (ci-après « IA »). Application du régime de responsabilité du droit commun aux biens intelligents Bien que le Canada se targue d’être un « chef de file mondial dans le domaine de l’IA »3, la première loi canadienne régissant l’IA se fait toujours attendre. Au Québec, la réglementation des biens intelligents en est à ses premiers balbutiements. À ce jour, outre l’encadrement applicable aux véhicules autonomes, aucune loi en vigueur ne prévoit un régime de responsabilité civile comportant des règles distinctes régissant les litiges relatifs à la commercialisation et l’utilisation de biens intelligents. Deux éléments ont une incidence importante en matière de responsabilité applicable aux biens intelligents: l’opacité et la répartition de la responsabilité. Ceux-ci devraient nécessairement être pris en compte dans l’élaboration d’un cadre réglementaire applicable à l’IA4.   Mais encore, qu’en est-il de l’imputabilité de l’humain? L’opacité de l’IA et la responsabilité du fabricant Lorsqu’un bien autonome exécute une tâche, il n’est pas toujours possible – ni pour le consommateur ni pour le fabricant – de savoir comment l’algorithme a traité l’information à l’origine de son action. C’est ce que les chercheurs qualifient « d’opacité » ou encore de phénomène de la « boîte noire » lié à l’IA5. Le cadre législatif entourant la responsabilité du fabricant est prévu au Code civil du Québec6 ainsi qu’à la Loi sur la protection du consommateur7. Il se dégage de ces dispositions une obligation pour le distributeur, pour le vendeur professionnel et pour le fabricant de garantir que le bien vendu est exempt de vices cachés. En vertu du régime de responsabilité du produit, un renversement de la preuve s’opère puisqu’il existe une présomption de connaissance du vice de la part du fabricant8. Deux moyens d’exonération s’offrent à lui9 : D’une part, le fabricant peut faire valoir que la faute du consommateur, d’un tiers ou la force majeure est la cause du défaut; D’autre part, il peut soutenir qu’au moment de la mise en marché du bien, le défaut n’était pas susceptible d’être découvert compte tenu de l’état des connaissances scientifiques. Ce dernier moyen vise précisément les risques inhérents à l’innovation technologique10. Ceci étant dit, bien que certains risques se révèlent uniquement lors de la commercialisation d’un produit, l’obligation d’information du fabricant est continue et son application est fonction de l’avancement des connaissances des risques liés au produit11. De ce fait, l’opacité de l’IA peut nuire à la détermination de la responsabilité. Difficulté au niveau du partage de responsabilité et imputabilité de l’humain Il arrive que la composante « intelligente » soit intégrée à un bien par un sous-traitant du fabricant. Dans la décision Venmar Ventilation12,  la Cour d’appel a déterminé que le fabricant d’un échangeur d’air ne pouvait pas être disculpé de sa responsabilité même si le défaut de son produit était directement lié à celui du moteur fabriqué par un sous-traitant. Dans cette perspective, nous pouvons anticiper que la composante intelligente du bien serait susceptible d’engendrer une multiplication des appels en garantie et, en conséquence, des dossiers litigieux de type pyramidaux. Cela pourrait aussi compliquer l’analyse du partage de responsabilité. Également, si la détermination de l’identité de la personne qui a la garde physique du bien intelligent semble évidente, déterminer l’identité de celle qui exerce un contrôle réel sur ce bien peut se révéler beaucoup plus ardu puisque la garde et le contrôle ne sont pas nécessairement l’apanage d’une seule et même « personne ». Deux types de gardiens du bien intelligent peuvent se distinguer : Celui qui détient le pouvoir de contrôle, de direction et de surveillance sur le bien au moment de son utilisation (garde frontale) ; Celui qui déteint ces pouvoirs sur l’algorithme qui confère au bien son autonomie (garde en amont) 3. L’un ou l’autre de ces gardiens pourraient engager sa responsabilité s’il participe au préjudice par sa faute. Il pourrait donc être difficile de partager la responsabilité entre l’utilisateur humain et les gardiens de l’algorithme d’IA. Par exemple dans le cas d’un agent conversationnel, il pourrait être complexe de déterminer qui entre l’utilisateur humain et l’algorithme IA est responsable de propos diffamatoires ou discriminatoires. C-27: Projet de loi canadien en matière d'intelligence artificielle Le 16 juin 2022, le premier projet de loi canadien en matière d’IA (« Projet de loi C-27 ») a été introduit à la Chambre des Communes14. Au moment d’écrire ces lignes, le Projet de loi C-27 est toujours à l’examen par le Comité permanent de l’industrie et de la technologie. La troisième partie du Projet de loi C-27 édicte la Loi sur l’intelligence artificielle et les données. Si elle était adoptée dans sa forme actuelle, cette loi s’appliquerait au commerce international et interprovincial des « systèmes d’IA à incidence élevée » (« Systèmes »)15. Bien que le législateur n’ait pas encore clairement défini les caractéristiques qui distinguent l’IA à incidence élevée des autres formes d’IA, pour le moment, le gouvernement du Canada mentionne notamment des Systèmes pouvant potentiellement « influencer le comportement humain sur une grande échelle » et des Systèmes critiques pour la santé et la sécurité16. Il nous est permis de croire qu’il pourrait s’agir de l’IA qui présente un risque élevé pour les droits fondamentaux des utilisateurs. Le Projet de loi C-27 permettrait notamment de sanctionner le comportement de celui qui « rend disponible » un Système dont l’utilisation cause un « préjudice sérieux » ou un « dommage considérable »17. Même si le Projet de loi n’encadre pas précisément la responsabilité civile, les grands principes qui y sont énoncés reflètent les pratiques exemplaires applicables à ces technologies. Ces pratiques exemplaires peuvent donc indiquer aux fabricants de technologie IA comment se comporterait en semblable matière un fabricant prudent et diligent placé dans les mêmes circonstances. Les six (6) grands principes au Projet de loi sont les suivants18 : Transparence : Fournir au public l’information concernant les mesures d’atténuation, l’utilisation visée des Systèmes et le « contenu qu’il est censé générer »; Supervision : Fournir des Systèmes susceptibles de supervision humaine; Justice et équité : Mettre sur le marché des Systèmes pouvant limiter les potentiels résultats discriminatoires; Sécurité : Évaluer proactivement des Systèmes afin de prévenir les préjudices « raisonnablement prévisibles »; Responsabilité : Mettre en place des mesures de gouvernance afin d’assurer le respect des obligations légales applicables aux Systèmes; Robustesse : Assurer que les Systèmes fonctionnent comme prévu. Nous ajoutons le principe de mitigation des risques, considérant l’obligation de la loi « d’atténuer » les risques liés à l’utilisation des Systèmes19. Conclusion Le « Tortoise Global AI Index » classe chaque année les pays en fonction de leurs percées dans le domaine de l’IA20 . Cette année le Canada atteint le 5e rang, se classant devant bon nombre de pays de l’Union européenne. Force est de le constater que le droit en vigueur ne reflète pas encore l’importance croissante de ce secteur dans notre pays. Bien que le Projet de loi C-27 puisse offrir des éclaircissements quant aux pratiques exemplaires en matière de développement de biens intelligents, il sera intéressant de voir comment ils seront appliqués lorsque des questions visant la responsabilité civile seront soulevées. Jean-Louis BAUDOUIN, Patrice DESLAURIERS et Benoît MOORE, La responsabilité civile, Volume 1 – Principes généraux, 9e édition, 2020, 1-931. Tara Qian SUN, Rony MEDAGLIA, “Mapping the challenges of Artificial Intelligence in the public sector: Evidence from public healthcare”, Government Information Quarterly, 2019, 36(2), pp. 368-383, en ligne ; PARLEMENT EUROPÉEN, Règles de droit civil sur la robotique, Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)) disponible en ligne sur TA (europa.eu). GOUVERNEMENT DU CANADA, La Loi sur l'intelligence artificielle et les données (LIAD) - document complémentaire, en ligne. COMMISION EUROPÉENNE, Livre blanc « Intelligence artificielle. Une approche européenne axée sur l’excellence et la Madalina BUSUIOC, “Accountable Artificial Intelligence: Holding Algorithms to Account”, Public Administration Review, 2020, en ligne. Code civil du Québec, RLRQ c. CCQ-1991, art. 1726 et ss. Loi sur la protection du consommateur, RLRQ, c. P-40.1, art. 38. General Motors Products of Canada c. Kravitz, 1979 CanLII 22 (CSC), p. 801. Voir également : Brousseau c. Laboratoires Abbott limitée, 2019 QCCA 801, par. 89. [Brousseau] Code civil du Québec, RLRQ c. CCQ-1991, art. 1473;  ABB Inc. c. Domtar Inc., 2007 CSC 50, par. 72. Brousseau, par. 100. Brousseau, par. 102. Desjardins Assurances générales inc. c. Venmar Ventilation inc., 2016 QCCA 1911, par. 19 et ss. Céline MANGEMATIN, Droit de la responsabilité civile et l’intelligence artificielle, https://books.openedition.org/putc/15487?lang=fr#ftn24; Voir également Hélène CHRISTODOULOU, La responsabilité civile extracontractuelle à l’épreuve de l’intelligence artificielle, p. 4 . Projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, Ministre de l’innovation, des sciences et de l’industrie [PL C-27] PL C-27, sommaire et art. 5 (1). La Loi sur l’intelligence artificielle et les données (LIAD) – document complémentaire, Gouvernement du Canada, en ligne. PL C-27, art. 39 a). LIAD, document supplémentaire PL C-27, art. 8. TORTOISE MEDIA, The Global AI Index 2023 disponible sur tortoisemedia.com.

    Lire la suite