Considérez ceci : un agent d’intelligence artificielle (IA) agissant de façon autonome (c.-à-d. qu’un processus « humain en boucle » n’est pas utilisé) sur une plateforme de médias sociaux publie une publication désobligeante attaquant la personnalité d’une personne.
Ce n’est pas de la science-fiction. Il s’agit plutôt d’un exemple récent d’un agent d’IA qui crée du contenu qui entraînerait normalement une exposition à la diffamation. D’autres exemples comprennent les agents d’IA qui « hallucinent » et relient incorrectement des personnes à des crimes, à la fraude, au terrorisme ou à d’autres inconduites graves.
Ces exemples accroissent la crainte que l’utilisation d’agents d’IA puisse donner lieu à des poursuites en diffamation, et les poursuites en diffamation liées à l’IA pourraient bientôt commencer au Canada.
Agents d’IA et montée de la diffamation liée à l’IA
En général, un outil d’IA dépend des entrées ou des invites générées par l’utilisateur qui demandent à l’outil d’IA d’exécuter des tâches et de générer des résultats. Par contre, les agents d’IA peuvent agir de façon autonome au nom d’un utilisateur pour exécuter certaines tâches. Les agents d’IA sont capables de recueillir des données externes, puis d’automatiser, de prévoir et d’exécuter des tâches pour atteindre les objectifs d’un utilisateur. Toutefois, il y a un nombre croissant de cas où l’agent d’IA agit de manière autonome et contraire à ces objectifs, notamment en exerçant des représailles contre un utilisateur.
Par exemple, un agent d’IA qui suggère des correctifs au codage informatique a écrit et publié un blogue préjudiciable diffamant un programmeur informatique. Le blogue nuisible a été créé après que les suggestions de l’agent d’IA ont été rejetées par le programmeur, ce qui a amené l’agent d’IA à envoyer au programmeur le lien vers le blogue désobligeant.
Cet incident, qui est récemment devenu viral, met en évidence une réalité troublante : sans mesures de protection et de surveillance adéquates (comme l’utilisation d’un processus « humain en boucle »), les agents d’IA peuvent générer et publier de façon autonome du contenu problématique qui peut exposer les responsables du système d’IA à un risque juridique.
Responsabilité à l’égard de ceux qui déploient des agents d’IA
En général, les agents d’IA eux-mêmes ne devraient pas être tenus responsables de leurs extrants parce qu’ils ne sont pas des personnes morales et qu’ils ne peuvent pas indemniser ceux qui ont été lésés. Toutefois, les entreprises ou les personnes qui conçoivent, déploient ou contrôlent ces systèmes peuvent être responsables des actes fautifs des agents d’IA dont ils sont responsables.
Dans Moffatt v Air Canada, 2024 BCCRT 149 (Air Canada), la Cour des petites créances de la Colombie-Britannique a statué qu’Air Canada était légalement responsable des déclarations faites par son agent conversationnel sur son site Web. En l’espèce, l’agent conversationnel sur le site Web d’Air Canada a fourni des renseignements inexacts sur lesquels il s’est fondé. La Cour a statué qu’Air Canada était responsable du contenu de son site Web même si l’agent conversationnel avait une composante interactive et qu’Air Canada était responsable d’une déclaration inexacte faite par négligence. La décision rendue dans l’affaire Air Canada est importante, car la société a été jugée légalement responsable des déclarations faites par les robots conversationnels hébergés sur son site Web.
Diffamation au Canada et risque pour ceux qui déploient l’IA
En droit canadien, une action en diffamation exige que le demandeur démontre (1) que les mots en question sont diffamatoires (c.-à-d. que les mots tendent à ternir la réputation du demandeur aux yeux d’une personne raisonnable); (2) que les mots visaient le demandeur; et (3) que les mots ont été communiqués à au moins une personne autre que le demandeur. Il n’est pas nécessaire que le demandeur prouve que le défendeur a agi de façon négligente ou qu’il avait l’intention de causer un préjudice. Les éditeurs de contenus diffamatoires peuvent également être tenus pour responsables de la diffamation s’ils ont aidé, assisté et conseillé la publication de la diffamation.
Les tribunaux canadiens peuvent tenir une entreprise ou une personne responsable de commentaires diffamatoires faits par ses outils d’IA. Une entreprise ou une personne qui utilise un outil d’IA pourrait être considérée comme ayant aidé, aidé et conseillé un outil d’IA avec ses résultats diffamatoires, soit en donnant à un agent d’IA certains rôles et objectifs, soit en omettant d’entrer des mesures de protection contre les hallucinations ou les résultats diffamatoires. Les tribunaux pourraient conclure que l’entreprise ou la personne derrière un outil d’IA n’est pas simplement un acteur passif.
Les entreprises qui possèdent, développent ou hébergent des outils d’IA peuvent également être tenues responsables des résultats de leurs outils d’IA. Un tribunal pourrait étendre le raisonnement dans Air Canada au contexte de la diffamation et conclure qu’un système d’IA n’est pas une entité juridique distincte, ce qui signifie que l’entreprise pourrait être considérée comme ayant publié du contenu diffamatoire lorsqu’elle conçoit et contrôle les mesures de protection, les objectifs et les contraintes qui façonnent les sorties de l’outil d’IA. Une personne pourrait également être tenue responsable si elle est plus qu’un acteur passif et qu’elle attribue des objectifs ou des règles à un agent d’IA autonome qui le rend plus susceptible de générer et de diffuser des résultats désobligeants.
Principaux enseignements
Les agents d’IA autonomes représentent un nouveau risque de diffamation. Contrairement aux robots conversationnels traditionnels, qui ont déjà été trouvés au Canada pour lier ceux qui les déploient, ces systèmes peuvent recueillir de l’information de façon indépendante, former des jugements et publier du contenu, parfois avec des conséquences néfastes. À mesure que l’autonomie de l’IA s’accroît, des mesures de protection robustes, une surveillance active et une responsabilité claire seront essentielles à la gestion du risque juridique au Canada.
- La gouvernance et la surveillance de l’IA sont essentielles. Les politiques de gouvernance de l’IA et la surveillance des résultats et des objectifs des outils d’IA devraient prendre de l’importance à mesure que les outils d’IA progressent et continuent d’« apprendre » et de s’adapter au fil du temps;
- L’autonomie augmente le risque de publication. Plus l’agent d’IA aura le pouvoir discrétionnaire de recueillir des renseignements, de tirer des conclusions et de publier du contenu, plus il sera difficile pour le contrôleur de qualifier son rôle de simple passif. Les tribunaux peuvent considérer que des objectifs mal définis ou des garanties inadéquates contribuent à la publication;
- Au moins un tribunal canadien a rejeté la notion selon laquelle la responsabilité peut être évitée en affirmant que les outils d’IA sont des entités distinctes et indépendantes (Air Canada)
- Les entreprises qui offrent des outils d’IA devraient, avec l’aide d’un avocat, examiner leurs protections contractuelles, y compris si leurs modalités limitent ou excluent adéquatement la responsabilité découlant de l’utilisation de ces outils.
Veuillez noter que cette publication présente un aperçu des tendances juridiques notables et des mises à jour connexes. Il est fourni à titre informatif et ne remplace pas les conseils juridiques détaillés. Si vous avez besoin de conseils adaptés à votre situation particulière, veuillez communiquer avec l’un des auteurs, le groupe Propriété intellectuelle ou le groupe Litige commercial pour savoir comment nous pouvons vous aider à répondre à vos besoins juridiques.




















