Intelligence artificielle

Vue d’ensemble

Télécharger le livre blanc des enjeux juridiques de l’intelligence artificielle


Faites le test de connaissances IA!

Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA)

Nous anticipons que d’ici quelques années, toutes les sociétés, entreprises et organisations, dans toutes les sphères d’activités et tous les secteurs, feront appel à certaines formes d’intelligence artificielle dans leurs activités courantes, qu’il s’agisse d’améliorer la productivité ou l’efficacité, d’assurer un meilleur contrôle de la qualité, de conquérir de nouveaux marchés et clients, de mettre en place de nouvelles stratégies marketing, d’améliorer les processus, l’automatisation et la commercialisation ou encore la rentabilité de l’exploitation. C’est d’ailleurs le cas de l’industrie des services professionnels qui connaît une transformation qui mérite d’être approfondie.

Pour cette raison, Lavery a mis sur pied le Laboratoire juridique Lavery sur l’intelligence artificielle (L3IA) qui analyse et suit les développements récents et anticipés dans le domaine de l’intelligence artificielle d’un point de vue juridique. Notre Laboratoire s’intéresse à tous les projets relatifs à l’intelligence artificielle (IA) et à leurs particularités juridiques, notamment quant aux diverses branches et applications de l’intelligence artificielle qui feront rapidement leur apparition dans les entreprises et les industries.

" À partir du moment où une entreprise sait ce qu’elle veut, des outils existent, elle doit les utiliser au mieux, et un laboratoire comme le nôtre est là pour la conseiller en ce sens. "

Éric Lavallée, responsable du L3IA

 

Les développements de l’intelligence artificielle, à travers un large éventail de fonctionnalités et d’applications, auront également un impact certain sur plusieurs secteurs et pratiques du droit, de la propriété intellectuelle à la protection des renseignements personnels, en passant par la régie d’entreprise et tous les volets du droit des affaires.

Découvrez notre lexique qui vulgarise et démystifie les termes les plus utilisés en matière d'intelligence artificielle:

lexique intelligence artificielleCliquez ici pour le consulter en ligne

 


Cliquez sur les images et les liens pour consulter certains de nos articles et entrevues sur l'intelligence artificielle :

Lavery a créé son propre «ChatGPT» juridique

Hyper trucage sur le web : les dangers de l'Intelligence artificielle

 

  1. Demande d’injonction provisoire : l’urgence artificielle n’est pas une urgence de nature 9-1-1

    Le 3 mars 2025, la juge Nancy Bonsaint, de la Cour supérieure, rejette une demande d’injonction interlocutoire provisoire visant à permettre à Les Entreprises de la Batterie inc. d’utiliser un terrain ne lui appartenant pas afin d’entamer d’importants travaux de construction sur son immeuble. Ce jugement rappelle qu’une partie ne peut contribuer à une situation d’urgence pour ensuite l’invoquer au soutien de sa demande d’injonction provisoire. Le résumé des faits La Demanderesse, Les Entreprises de la Batterie inc., est propriétaire d’un immeuble qui fait l’objet de travaux de construction depuis mars 2021, afin d’être transformé en hôtel et de servir d’agrandissement à l’Auberge qu’elle exploite déjà1. Le Défendeur est propriétaire d’un hôtel et d’un terrain contigu à l’immeuble visé par les travaux, lequel est notamment utilisé comme stationnement pour sa clientèle2. Les travaux de construction de la Demanderesse se déroulent initialement en deux phases distinctes, soit de mars à novembre 20213, puis du 23 août 2022 au mois de juillet 20244. Dans le cadre de ces phases, les Parties ont convenu de diverses ententes afin que la Demanderesse puisse utiliser un (1) espace de stationnement du Défendeur, moyennant compensation5. Le 14 février 2025, la Demanderesse informe le Défendeur qu’elle entend entamer une nouvelle phase de travaux (la phase 3), et ce, dès le 28 février 20256. Elle annonce également au Défendeur que, dans le cadre de ces nouveaux travaux, il lui sera maintenant nécessaire d’utiliser la moitié de son immeuble, ce qui correspond à six (6) espaces de stationnement, ainsi que d’en relocaliser l’entrée pour une période de plus de deux (2) ans7. Elle indique, au surplus, qu’elle aura besoin d’avoir un accès complet à l’immeuble du Défendeur pour quelques jours au printemps 20258. La Demanderesse allègue que les travaux de construction sur son immeuble doivent débuter d’urgence le 28 février 20259. Le Défendeur s’oppose à un empiétement d’une telle ampleur pendant une période de deux (2) ans supplémentaires alors qu’il doit composer avec les inconvénients découlant des travaux de construction de la Demanderesse depuis déjà plus de quatre (4) ans, d’autant plus que cette dernière ne lui offre pas une contrepartie qui soit raisonnable ou juste dans les circonstances. Le 28 février 2025, la Demanderesse présente une Demande introductive d’instance pour l’émission d’ordonnances en injonction interlocutoire provisoire, en injonction interlocutoire et en injonction permanente, en déclaration d’abus et en dommages-intérêts modifiée en date du 28 février 2025 devant la juge Bonsaint10. Au stade de l’injonction interlocutoire provisoire, la Demanderesse demande au Tribunal de rendre une ordonnance temporaire visant à lui permettre d’avoir accès aux six (6) espaces de stationnement du Défendeur afin de poursuivre la mobilisation de son chantier11. Elle réclame également le remboursement des honoraires qu’elle a engagés pour présenter sa demande d’injonction. La Demanderesse allègue que les travaux d’agrandissement de son hôtel « se chiffrent à plusieurs dizaines de millions de dollars et sont d’une grande envergure »12. Elle allègue également qu’il est « urgent que le projet de transformation et de construction d’un hôtel dans son Immeuble se poursuive et qu’il ne soit pas interrompu en raison des agissements du défendeur »13. La Demanderesse affirme qu’une interruption des travaux de construction à son immeuble entraînerait non seulement d’importants retards à l’échéancier des travaux qui s’étalent sur les deux (2) prochaines années, mais également d’importants coûts additionnels en lien avec divers extras des entrepreneurs qu’elle a engagés pour procéder à la transformation et à la construction de son immeuble14. Évidemment, le Défendeur s’oppose à la demande d’injonction interlocutoire provisoire, notamment au motif que les faits allégués par la Demanderesse ne satisfont pas au critère de l’urgence15. C’est donc dans ce contexte que s’inscrit la décision de la juge Bonsaint. Les critères de l’injonction interlocutoire provisoire Tout comme le fait la juge Bonsaint dans son jugement, rappelons d’abord les principes juridiques en lien avec le recours en injonction interlocutoire provisoire : Les critères donnant ouverture à une ordonnance d’injonction interlocutoire provisoire sont : l’urgence ; l’existence d’une question sérieuse, d’une apparence de droit; l’existence d’un préjudice sérieux ou irréparable; la prépondérance des inconvénients16. Il s’agit d’un recours discrétionnaire et exceptionnel qui ne doit être accordé qu’avec parcimonie et dans le respect de conditions strictes17. Le critère de l’urgence En contexte de demande en injonction interlocutoire provisoire, le critère de l’urgence est « d’une importance capitale »18 ; s’il n’y est pas satisfait, la demande ne peut tout simplement pas être accueillie19. Les tribunaux décrivent souvent cette urgence comme « une urgence de nature 9-1-1 »20. Seuls les cas « extrêmement urgents » doivent entraîner l’octroi d’une ordonnance d’injonction interlocutoire provisoire21. Pour que les tribunaux concluent à l’existence d’une telle urgence, celle-ci ne doit pas découler du délai à introduire le recours; elle doit être « immédiate et apparente » et ne pas découler de l’absence de diligence de la Demanderesse22. Autrement dit, « l’urgence alléguée doit être réelle et ne pas être créée artificiellement par la personne qui la soulève »23. La juge Bonsaint retient du dossier que le Défendeur n’a été informé qu’un quelconque empiétement serait nécessaire sur son lot que le 31 janvier 202524. En effet, à aucun moment avant le mois de janvier 2025 la Demanderesse ne l’a informé de ses réelles intentions par rapport à ses travaux25. Ce n’est que le 14 février 2025 que la Demanderesse a officiellement avisé le Défendeur de la nature de l’empiétement qu’elle envisageait pour la troisième phase de ses travaux, soit l’utilisation d’au moins la moitié de son terrain, et ce, du 28 février 2025 au 31 mars 202726. À la suite de la présentation de sa contestation par le Défendeur, la juge Bonsaint retient que la Demanderesse savait que la troisième phase de ses travaux commencerait au début de l’année 2025 depuis déjà plusieurs mois27. Elle détermine que la Demanderesse « n’a pas traité la question de l’accès au stationnement comme étant une matière urgente à régler »28. La Demanderesse tente de justifier ce manque de proactivité par le fait qu’il lui était impossible d’informer le Défendeur de ses besoins en espace avant 2025, puisque l’échéancier des travaux lui était toujours inconnu29. Or, la juge Bonsaint considère que de telles explications ne justifient tout simplement pas le temps qu’a pris la Demanderesse pour intenter sa demande en injonction interlocutoire provisoire contre le Défendeur30. Au contraire, la documentation transmise par la Demanderesse au soutien de sa lettre du 14 février 2025, dont le plan de l’immeuble du Défendeur et l’échéancier préliminaire des travaux, comporte la mention « 2024 »31. Vu ce qui précède, la juge Bonsaint ne peut que conclure que la Demanderesse était au courant depuis plusieurs mois que les travaux de construction sur son immeuble devaient commencer en 202532. À ce sujet, les propos de la juge Bonsaint sont clairs : « Le Tribunal comprend que les dates d’un échéancier préliminaire des travaux puissent faire l’objet d’un changement, mais rien n’indique qu’il est “urgent” de débuter les travaux de construction le 28 février 2025. […] la demanderesse aurait dû agir dès janvier 2025 »33. En effet, les faits relatifs à la problématique de l’accès à l’immeuble du Défendeur lui étaient connus depuis l’automne 2024 et, sinon, certainement depuis janvier 202534. Ils auraient dû susciter les échanges tenus entre les procureurs des Parties en février 2025 bien avant, soit minimalement en janvier 202535. La tenue de discussions ou de tentatives de règlement La Demanderesse a également soutenu que des discussions ou des tentatives de règlement peuvent avoir un impact sur le critère de l’urgence au stade de l’injonction interlocutoire provisoire36. La juge Bonsaint rejette cet argument puisqu’aucune négociation réelle n’a eu lieu, sinon des appels ratés en novembre et décembre 2024, puis en janvier 2025, et que les faits relatifs à la problématique de l’accès à l’immeuble du Défendeur sont connus par la Demanderesse depuis l’automne 2024, sinon certainement depuis janvier 2025. Ainsi, la juge Bonsaint rejette la demande en injonction interlocutoire provisoire, considérant que la Demanderesse demande au Tribunal de conclure à l’urgence d’émettre une telle ordonnance, afin d’accéder à la moitié du stationnement du Défendeur pendant deux (2) ans, alors qu’elle-même n’a pas traité la question de la nécessité d’avoir accès au stationnement comme étant une urgence qui se devait d’être résolue avant de procéder à la réalisation de la troisième phase des travaux de construction37. Ce qu’il faut retenir Le critère de l’urgence est d’une importance capitale en matière d’injonction interlocutoire provisoire. Il doit absolument être respecté pour que le Tribunal accorde une telle demande. Dans son appréciation des faits et des allégations en lien avec une demande d’injonction interlocutoire provisoire, le Tribunal doit veiller à ce que l’urgence soit réelle, de type 9-1-1, et qu’elle ne soit pas créée par la partie qui la demande. Un délai causé par la partie demanderesse ne peut pas entraîner l’émission d’une ordonnance d’injonction interlocutoire provisoire contre la partie défenderesse. Finalement, la tenue de discussions de règlement et/ou de négociations qui ne sont pas sérieuses ne permet pas à une partie de pallier le délai couru entre le moment de sa connaissance des faits qui justifient l’émission d’une injonction interlocutoire provisoire et le dépôt de sa demande. La diligence est donc de mise dans la gestion et la préparation de tels dossiers et favorisera l’obtention de l’ordonnance d’injonction interlocutoire provisoire. Entreprises de la Batterie inc. c. Biron, 2025 QCCS 608, par. 1 et 10 (ci-après, le « Jugement »). Jugement, par. 4. Jugement, par. 10. Jugement, par. 16 à 19. Jugement, par. 10 à 18. Jugement, par. 27. Jugement, par. 3 et 27. Jugement, par. 3. Jugement, par. 2. Jugement, par. 6. Jugement, par. 7. Jugement, par. 46. Jugement, par. 47. Jugement, par. 48. Jugement, par. 8. Jugement, par. 35 et 37 à 39. Jugement, par. 36. Jugement, par. 41. Id. Jugement, par. 41 et 43. Jugement, par. 42. Jugement, par. 42. Jugement, par. 40. Jugement, par. 61 et 62. Jugement, par. 62. Jugement, par. 64 et 65. Jugement, par. 68. Id. Jugement, par. 74. Jugement, par. 75. Jugement, 76 et 77. Jugement, par. 82. Jugement, par. 82. Jugement, par. 84. Jugement, par. 85. Jugement, par. 83. Jugement, par. 90.

    Lire la suite
  2. Quatre conseils aux entreprises pour éviter la dépendance et la vulnérabilité à l’Intelligence Artificielle

    Alors que le monde discute des guerres tarifaires touchant divers produits, on néglige parfois les risques pour les technologies de l’information. Pourtant, plusieurs entreprises s’appuient sur l’intelligence artificielle pour la prestation de leurs services. Plus particulièrement, l’usage des grands modèles de langage est intégré dans une foule de technologies, dont ChatGPT a été le porte-étendard. Mais les entreprises doivent-elles se placer en situation de dépendance face à des fournisseurs de services technologiques s’ils sont basés uniquement aux États-Unis? Des solutions de rechange chinoises telles Deepseek font parler d’elles, mais soulèvent des questions sur la sécurité des données et le contrôle de l’information qui y est associé. La professeure Teresa Scassa écrivait déjà, en 2023, que la souveraineté en matière d’intelligence artificielle prend différentes formes, incluant la souveraineté étatique, mais aussi la souveraineté des communautés sur les données et la souveraineté individuelle1. D’autres invoquent déjà l’intelligence artificielle comme un vecteur du recalibrage des intérêts internationaux2. Dans ce contexte, comment les entreprises peuvent-elles se prémunir contre les fluctuations qui pourraient être décidées par des autorités gouvernementales d’un pays ou d’un autre? À notre avis, c’est justement en exerçant une certaine souveraineté à leur échelle que les entreprises peuvent se préparer à de tels changements. Quelques conseils : Comprendre les enjeux de propriété intellectuelle : Les grands modèles de langage sous-jacents à la majorité des technologies d’intelligence artificielle sont parfois offerts sous des licences ouvertes (open source), mais certaines technologies sont diffusées sous des licences commerciales restrictives. Il est important de comprendre les contraintes des licences sous lesquelles ces technologies sont offertes. Dans certains cas, le propriétaire du modèle de langage se réserve le droit de modifier ou restreindre les fonctionnalités de la technologie sans préavis. À l’inverse, des licences ouvertes permissives permettent d’utiliser un modèle de langage sans limite de temps. Par ailleurs, il est stratégique pour une entreprise de garder la propriété intellectuelle sur ses compilations de données qui peuvent être intégrées dans des solutions d’intelligence artificielle. Considérer d’autres options : Dès lors que la technologie est appelée à manipuler des renseignements personnels, une évaluation des facteurs relatifs à la vie privée est requise par la loi avant l’acquisition, le développement ou la refonte technologique[3]. Même dans les cas où cette évaluation n’est pas requise par la loi, il est prudent d’évaluer les risques liés aux choix technologiques. S’il s’agit d’une solution intégrée par un fournisseur, existe-t-il d’autres options? Serait-on en mesure de migrer rapidement vers une de ces options en cas de difficulté? S’il s’agit d’une solution développée sur mesure, est-elle limitée à un seul grand modèle de langage sous-jacent? Favoriser une approche modulaire : Lorsqu’un fournisseur externe est choisi pour fournir le service d’un grand modèle de langage, c’est souvent parce qu’il offre une solution intégrée dans d’autres applications que l’entreprise utilise déjà ou par l’intermédiaire d’une interface de programmation applicative développée sur mesure pour l’entreprise. Il faut se poser la question : en cas de difficulté, comment pourrait-on remplacer ce modèle de langage ou l’application? S’il s’agit d’une solution complètement intégrée par un fournisseur, celui-ci offre-t-il des garanties suffisantes quant à sa capacité de remplacer un modèle de langage qui ne serait plus disponible? S’il s’agit d’une solution sur mesure, est-il possible, dès sa conception, de prévoir la possibilité de remplacer un modèle de langage par un autre? Faire un choix proportionné : Ce ne sont pas toutes les applications qui nécessitent les modèles de langage les plus puissants. Lorsque l’objectif technologique est modéré, plus de possibilités peuvent être considérées, dont des solutions basées sur des serveurs locaux qui utilisent des modèles de langage sous licences ouvertes. En prime, le choix d’un modèle de langage proportionné aux besoins diminue l’empreinte environnementale négative de ces technologies en termes de consommation d’énergie.  Ces différentes approches s’articulent par différentes interventions où les enjeux juridiques doivent être pris en considération de concert avec les contraintes technologiques. La compréhension des licences et des enjeux de propriété intellectuelle, l’évaluation des facteurs relatifs à la vie privée, les clauses de limitation de responsabilité imposées par certains fournisseurs, autant d'aspects qui doivent être considérés en amont. Il s’agit là non seulement de faire preuve de prudence, mais aussi de profiter des occasions qui s’offrent à nos entreprises de se démarquer dans l’innovation technologique et d’exercer un meilleur contrôle sur leur avenir. Scassa, T. (2023). Sovereignty and the governance of artificial intelligence. UCLA L. Rev. Discourse, 71, 214. Xu, W., Wang, S., & Zuo, X. (2025). Whose victory? A perspective on shifts in US-China cross-border data flow rules in the AI era. The Pacific Review, 1-27. Voir notamment la Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39.1, art. 3.3.

    Lire la suite
  3. L’intelligence artificielle peut-elle être désignée comme inventeur dans une demande de brevet?

    De plus en plus développée, l’intelligence artificielle (l’« IA ») créée par l’humain serait maintenant à son tour capable de création autonome, ouvrant la porte à une reconceptualisation de la notion d’inventeur en droit des brevets. Dans un arrêt récent, la Cour suprême du Royaume-Uni a toutefois conclu qu’un système d’intelligence artificielle ne peut pas être l’auteur d’une invention au sens de la réglementation applicable en matière d’octroi de brevets. Cette prise de position rejoint celle de plusieurs autres tribunaux à travers le monde s’étant déjà prononcés sur la question. Qu’en est-il au Canada, où les tribunaux ne se sont pas encore penchés sur l’enjeu? Dans ce bulletin, nous revenons sur la décision de la Cour suprême du Royaume-Uni et sur les décisions équivalentes rendues dans d’autres pays pour ensuite explorer la perspective canadienne. “an inventor must be a person” : La Cour suprême du Royaume-Uni se prononce dans Thaler (Appellant) v Comptroller-General of Patents, Designs and Trade Mark 1 Résumé de la décision En 2018, Dr Stephen Thaler dépose des demandes de brevet pour deux inventions décrites comme ayant été générées par un système d’IA autonome. La machine en question, DABUS, est donc désignée dans les demandes comme l’inventeur. Le Dr Thaler prétend qu’en tant que propriétaire de DABUS, il est en droit de déposer une demande de brevet pour les inventions générées par sa machine. Dans de telles circonstances, il ne serait pas tenu de nommer une personne physique comme inventeur. Tant la Haute Cour de justice que la Cour d’appel rejettent son appel de la décision de l’Office de la propriété intellectuelle du Royaume-Uni. Ce dernier avait décidé de ne pas donner suite aux demandes de brevet, notamment en raison de la désignation inadéquate de l’inventeur au sens du Patents Act 1977. La Cour suprême du Royaume-Uni, la dernière instance d’appel du pays, rejette également son recours. Dans une décision unanime, elle conclut que la loi est claire : « an inventor within the meaning of the 1977 Act must be a natural person, and DABUS is not a person at all, let alone a natural person: it is a machine ».2 Il n’est pourtant pas remis en question que DABUS a bel et bien créé les inventions en l’espèce. Cela n’implique pas pour autant que la notion d’inventeur au sens de la loi puisse être élargie par les tribunaux pour inclure les machines. Une tendance qui se maintient La Cour suprême du Royaume-Uni n’est pas la première à ne pas se laisser convaincre par les arguments du Dr Thaler. Tant les États-Unis3 que l’Union européenne4 et l’Australie5 ont adopté des positions similaires et concluent que seul un être humain peut se qualifier d’inventeur au sens de la législation applicable dans leur juridiction respective. La décision anglaise s’inscrit en effet dans une tentative à l’échelle mondiale entreprise par le Artificial Inventor Project de faire reconnaître l’inventivité de la machine DABUS, et par le fait même de l’IA de manière générale, comme capable de générer des droits de brevet au bénéfice des propriétaires de systèmes d’IA. À ce jour, seule l’Afrique du Sud a émis un brevet au Dr Thaler mentionnant DABUS comme inventeur.6 Ce pays se présente ainsi comme l’exception qui confirme la règle. Cependant, le Bureau de l’enregistrement pour des sociétés et de la propriété intellectuelle de l’Afrique du Sud n’examine pas les demandes sur le fond. Aucun motif n’a donc été fourni qui indiquerait que la question de l’IA comme inventeur ait été considérée. Plus récemment, en février dernier, le Bureau américain des brevets et des marques de commerce a publié une directive sur les inventions créées avec l’assistance de l’IA. Celle-ci confirme la position judiciaire et indique notamment que "a natural person must have significantly contributed to each claim in a patent application or patent".7 Qu’en est-il au Canada? En 2020, le Dr Thaler a également déposé une demande de brevet canadien pour les inventions générées par DABUS.8 L’Office de la propriété intellectuelle du Canada (l’« OPIC ») a émis un avis de non-conformité en 2021, établissant ainsi sa position à première vue : Because for this application the inventor is a machine and it does not appear possible for a machine to have rights under Canadian law or to transfer those rights to a human, it does not appear this application is compliant with the Patent Act and Rules.9 Cependant, l’OPIC précise être ouvert à recevoir les arguments du demandeur sur la question : Responsive to the compliance notice, the applicant may attempt to comply by submitting a statement on behalf of the Artificial Intelligence (AI) machine and identify, in said statement, himself as the legal representative of the machine.10 À ce jour, aucun avis d’abandon de la demande n’a été émis par l’OPIC et celle-ci demeure active. Son statut au Canada est donc incertain. Il sera intéressant de voir si, après avoir subi de nombreux échecs dans les autres pays du monde et s’être tout juste fait confirmer l’invalidité de sa demande par la Cour suprême du Royaume-Uni, le Dr Thaler tentera maintenant de convaincre les tribunaux canadiens. A priori, la Loi sur les brevets11 (la « Loi ») ne représente pas un frein à une reconnaissance d’un système d’IA comme inventeur d’une invention brevetable. En effet, la Loi ne définit pas le terme « inventeur ». Qui plus est, il n’y a aucune référence à l’exigence d’une « personne » dans la définition d’un demandeur ni indication en ce sens dans les dispositions régissant la délivrance de brevets. Les Règles sur les brevets12 n’offrent pas non plus de précision. L’exigence qui serait sous-entendue par un emploi clair du terme « personne » par le législateur dans le libellé des articles de la loi est importante : il s’agissait d’une considération clé de l’analyse de la Cour suprême du Royaume-Uni dans Thaler. La jurisprudence demeure également équivoque. Selon la Cour suprême du Canada, il faut se demander « [q]ui est l’auteur de l’idée originale » puisque l’inventeur est celui qui a participé à la conception de l’invention.13 Par comparaison, nous notons toutefois qu’il a été conclu qu’une personne morale ne pouvait être envisagée comme inventeur par opposition à une personne physique.14 Force est de constater que les tribunaux canadiens n’ont jamais eu à trancher la question spécifique de l’IA comme inventeur et qu’en attendant une telle décision judiciaire ou prise de position par le législateur, la question demeurera ouverte. Conclusion Au vu de l’incertitude en droit canadien à savoir si l’IA peut être reconnue comme inventeur, il serait opportun pour les autorités canadiennes de clarifier la question. Comme suggéré par la Cour suprême du Royaume-Uni, la place de l’IA en droit des brevets est un enjeu de société actuel, et il reviendra ultimement au législateur de se prononcer.15 En ce sens, un amendement à la Loi ou l’émission d’une directive par l’OPIC se font toujours attendre. Plus encore, outre la qualification juridique de l’IA comme inventeur, il faudra déterminer si une personne peut autrement se voir accorder des droits sur une invention créée dans les faits par l’IA. En effet, la possibilité pour le propriétaire de l’IA d’être titulaire d’un brevet sur l’invention générée par sa machine était aussi une question soulevée dans Thaler. Encore une fois, contrairement à la loi anglaise,16 notre Loi sur les brevets ne ferme pas la porte à cette éventualité. Notamment, la législation canadienne n’établit pas une liste exhaustive des catégories de personnes pouvant obtenir un brevet. S’il fallait vraiment revoir le système, il serait peut-être plus à propos de permettre la titularité des droits de brevet par le propriétaire de l’IA plutôt que de reconnaître l’IA comme inventeur. En effet, le système de propriété intellectuelle trouve sa justification première dans le fait de favoriser l’innovation et la créativité. Une négociation implicite sous-tend l’octroi de droits de brevet : une forte protection est accordée en échange d’une divulgation suffisante pour permettre à une personne versée dans l’art de reproduire l’invention. On s’assure ainsi d’une contribution à la société tout en récompensant l’inventeur. Il est évidemment plus difficile de soutenir qu’une machine nécessite un tel incitatif. Désigner l’IA comme inventeur et lui octroyer des droits en ce sens s’accorde donc mal avec la raison d’être d’une protection par brevet. En revanche, son propriétaire pourrait être justifié de réclamer une telle protection pour les inventions créées par sa machine, ayant investi temps et énergie dans la conception de l’IA. Dans l’état actuel du droit, une intervention du législateur serait vraisemblablement nécessaire. Est-ce qu’une telle proposition permettrait de favoriser l’innovation dans le domaine de l’IA générative? Cela dit, nous investissons collectivement énormément de ressources « humaines » pour le développement de solutions d’IA de plus en plus performantes. Arrivera-t-il un moment où nous ne pourrons plus considérer que des ressources humaines ont été investies pour les technologies créées par l’IA? Dans un tel cas, favoriser les propriétaires de solutions d’IA pourrait devenir contre-productif. Quoi qu’il en soit, une position prudente consiste pour le moment à insister sur l’apport humain à l’invention créée avec l’aide de l’IA, de façon à mettre de l’avant une personne comme inventeur plutôt que l’IA. Quant aux inventions conçues entièrement par un système d’IA, une protection par les secrets d’affaires serait davantage à envisager. Les professionnels de notre équipe de propriété intellectuelle sont à votre disposition pour vous accompagner dans vos démarches d’enregistrement de brevets et démystifier ces enjeux avec vous. [2023] UKSC 49 [Thaler]. Ibid au para 56. Voir la décision de la Cour d’appel des États-Unis pour le circuit fédéral dans Thaler v Vidal, 43 F. 4th 1207 (2022) (requête pour appel à la Cour suprême des États-Unis rejetée). Voir la décision de la Chambre de recours juridique de l’Office européen des brevets dans J 0008/20 (Designation of inventor/DABUS) (2021) (demande de renvoi des questions à la Grande Chambre de recours rejetée). Voir la décision de la Full Court de la Cour fédérale d’Australie dans Commissioner of Patents v Thaler, [2022] FCAFC 62 (requête pour appel à la Haute Cour d’Australie rejetée). ZA 2021/03242. Federal Register: Inventorship Guidance for AI-Assisted Inventions. CA 3,137,161. Lettre du bureau datée du 11 février 2022 dans le cadre de la demande de brevet canadien 3137161. ibid. LRC 1985, c P-4. DORS/2019-251. Apotex Inc. c. Wellcome Foundation Ltd., 2002 CSC 77 aux paras 96-97. Sarnoff Corp. c. Canada (Procureur général), 2008 CF 712 au para 9. Thaler, aux paras 48-49, 79. Ibid au para 79.

    Lire la suite
  4. Les grandes oubliées de l’intelligence artificielle: réflexion sur des lois applicables aux technologies de l’information

    Alors que les législateurs, au Canada1 et ailleurs2, tentent de mieux encadrer le développement et l’usage de technologies d’intelligence artificielle, il est important de se rappeler que ces technologies se qualifient aussi dans la famille plus large des technologies de l’information. Depuis 2001, le Québec s’est doté d’une loi visant à encadrer les technologies de l’information. Trop souvent oubliée, cette loi trouve application directement dans l’utilisation de certaines technologies d’intelligence artificielle. La notion très large de documents technologiques D’une part, les documents technologiques visés par cette loi sont définis pour inclure toute forme d’information délimitée, structurée et intelligible3. La loi donne quelques exemples de documents technologiques visés par divers textes législatifs, y incluant des formulaires en ligne, des rapports, des photographies, des diagrammes et même des électrocardiogrammes! On peut donc comprendre que cette notion s’applique sans difficulté à divers formulaires des interfaces d’utilisation de diverses plateformes technologiques4. Qui plus est, ces documents technologiques ne sont pas limités à des renseignements personnels. Cela peut aussi viser des renseignements relatifs à des entreprises ou à divers organismes, qui sont hébergés sur une plateforme technologique. À titre d’exemple, la Cour supérieure a récemment appliqué cette loi pour reconnaître la valeur probante de lignes directrices de pratique et de normes techniques en matière d’imagerie médicale qui étaient accessibles sur un site web5. Une décision plus ancienne a aussi reconnu l’admissibilité en preuve du contenu d’agendas électroniques6. À cause de leur lourdeur algorithmique, plusieurs technologies d’intelligence artificielle sont offertes sous forme de logiciel en tant que service ou de plateforme en tant que service. Dans la plupart des cas, l’information saisie par une entreprise utilisatrice est transmise sur des serveurs contrôlés par le fournisseur, où elle est traitée par des algorithmes d’intelligence artificielle. C’est souvent le cas des systèmes avancés de gestion de la relation client (souvent désignés sous l’acronyme anglais CRM) et d’analyse de dossiers électroniques. C’est aussi le cas également d’une panoplie d’applications visant la reconnaissance vocale, la traduction de documents et l’aide à la décision pour des employés de l’utilisatrice. Dans le contexte de l’intelligence artificielle, les documents technologiques s’étendent donc vraisemblablement à ce qui est ainsi transmis, hébergé et traité sur des serveurs à distance. Des obligations réciproques La loi prévoit des obligations spécifiques lorsque des prestataires de services, notamment des fournisseurs de plateforme informatique, doivent garder de l’information. Citons l’article 26 de la loi : «26. Quiconque confie un document technologique à un prestataire de services pour qu’il en assure la garde est, au préalable, tenu d’informer le prestataire quant à la protection que requiert le document en ce qui a trait à la confidentialité de l’information et quant aux personnes qui sont habilitées à en prendre connaissance. Le prestataire de services est tenu, durant la période où il a la garde du document, de voir à ce que les moyens technologiques convenus soient mis en place pour en assurer la sécurité, en préserver l’intégrité et, le cas échéant, en protéger la confidentialité et en interdire l’accès à toute personne qui n’est pas habilitée à en prendre connaissance. Il doit de même assurer le respect de toute autre obligation prévue par la loi relativement à la conservation du document.» (note :  nos soulignements) Cet article impose donc un dialogue entre l’entreprise qui désire utiliser une plateforme technologique et le fournisseur de cette plateforme. D’une part, l’entreprise utilisatrice de la plateforme doit informer le fournisseur de la protection requise pour les renseignements qu’elle déposera sur la plateforme technologique. D’autre part, ce fournisseur a l’obligation de mettre en place des moyens technologiques de nature à en assurer la sécurité, l’intégrité et la confidentialité, correspondant à la protection requise qui lui est communiquée par l’utilisatrice. La loi ne spécifie pas quels moyens technologiques doivent être mis en place. Ces mesures doivent toutefois être raisonnables eu égard à la sensibilité des documents technologiques impliqués, du point de vue d’une personne possédant une expertise dans le domaine. Ainsi, un fournisseur qui offrirait une plateforme technologique comportant des modules désuets ou comportant des failles de sécurité connues se déchargerait-il de ses obligations en vertu de la loi? Cette question doit s’analyser dans le contexte de l’information que l’utilisatrice de la plateforme lui a transmise quant à la protection requise pour les documents technologiques. Un fournisseur ne doit toutefois pas cacher les risques liés à la sécurité de sa plateforme informatique à l’utilisatrice, ce qui irait à l’encontre des obligations d’information et de bonne foi des parties. Des individus sont impliqués? À ces obligations, il faut ajouter aussi la Charte des droits et libertés de la personne, qui s’applique également aux entreprises privées. Les entreprises qui traitent l’information pour le compte d’autrui doivent le faire dans le respect des principes de la Charte lorsqu’il s’agit de traiter des renseignements concernant divers individus. À titre d’exemple, si un fournisseur d’une plateforme informatique de gestion de la relation client offre des fonctionnalités permettant de classifier les clients ou d’aider les entreprises à répondre à leurs demandes, ce traitement d’information doit demeurer exempt de biais fondés sur la race, la couleur, le sexe, l’identité ou l’expression de genre, la grossesse, l’orientation sexuelle, l’état civil, l’âge (sauf dans la mesure prévue par la loi), la religion, les convictions politiques, la langue, l’origine ethnique ou nationale, la condition sociale, le handicap ou l’utilisation d’un moyen pour pallier ce handicap7. Un algorithme d’intelligence artificielle ne devrait en aucun cas suggérer à un commerçant de refuser de conclure des contrats avec un individu sur une telle base discriminatoire8. De plus, une personne qui recueille des renseignements personnels à l’aide de technologies permettant le profilage d’individus doit en aviser ces personnes au préalable9. Bref, loin du Far West décrié par certains, l’usage de l’intelligence artificielle doit se faire dans le respect des lois déjà en place, auxquelles s’ajouteront vraisemblablement de nouvelles lois plus spécifiques à l’intelligence artificielle. Si vous avez des questions relativement à l’application de ces lois à vos systèmes d’intelligence artificielle, n’hésitez pas à contacter un de nos professionnels. Projet de loi C-27, Loi de 2022 sur la mise en œuvre de la Charte du numérique. Notamment, aux États-Unis, Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence du 30 octobre 2023. Loi concernant le cadre juridique des technologies de l'information, RLRQ c C-1.1, art. 3. Idem, art. 71. Tessier c. Charland, 2023 QCCS 3355. Lefebvre Frères ltée c. Giraldeau, 2009 QCCS 404. Charte des droits et libertés de la personne, art. 10. Idem, art. 12. Loi sur la protection des renseignements personnels dans le secteur privé, RLRQ c P-39.1, art. 8.1.

    Lire la suite