Billet

L’intelligence artificielle et la pratique du droit : Implications dans le monde réel pour la profession et le système judiciaire

Benjamin Reingold, Makda Yohannes et Stephen Burns
25 mars 2026
Réseaux sociaux
Télécharger
Télécharger
Mode lecture
S'abonner
Résumer

Les outils d’intelligence artificielle sont de plus en plus utilisés par les membres du public pour comprendre leurs droits et intenter et défendre des poursuites. Les tribunaux et les organismes de réglementation sont donc confrontés à une question difficile : à quel moment l’utilisation de l’IA par le public entraîne ‐ t ‐ elle l’exercice non autorisé du droit, et quelles sont les conséquences réelles lorsqu’elle a lieu? Les litiges récents aux États-Unis mettent en lumière ces risques et offrent une voie à suivre potentielle, qui sont tous deux pertinents pour le paysage juridique canadien.

Mise en garde : pratique illégale alléguée d’AI

Les risques d’une « assistance » juridique non réglementée ont été mis en évidence par une récente poursuite déposée devant la Cour de district des États-Unis pour le district nord de l’Illinois, alléguant qu’OpenAI exerçait le droit sans autorisation. Dans cette affaire, un assureur américain allègue qu’une partie non représentée s’est largement fiée aux conseils juridiques et à l’aide à la rédaction fournis par AI pour contester une réclamation réglée et inonder le tribunal de documents non fondés. Selon la plainte, la partie a utilisé des arguments et des documents produits par l’IA pour déposer des dizaines de requêtes qui [traduction] « ne servent aucun objectif juridique ou procédural légitime », ce qui augmente considérablement les coûts et alourdit le processus judiciaire.

Bien que la poursuite demeure non résolue et découle du droit américain, ses allégations factuelles illustrent comment les outils d’IA peuvent amplifier l’inconduite dans le cadre d’un litige.

Les risques de l’exercice du droit par l’IA

Il n’y a pas encore eu de cause type au Canada concernant des allégations de pratique légale non autorisée contre une entreprise d’IA. Toutefois, l’utilisation de l’IA générative pour fournir des conseils juridiques sans surveillance professionnelle appropriée soulève plusieurs risques interreliés.

Premièrement, la pression sur un système de justice déjà surchargé s’accroît. Les tribunaux disposent déjà de ressources limitées et leur charge de travail augmente. Les dépôts assistés par l’IA qui sont mal fondés, déficients sur le plan procédural ou incohérents sur le plan juridique peuvent augmenter considérablement la charge de travail judiciaire. Comme l’illustre l’affaire Illinois décrite ci-dessus, les plaideurs non représentés qui ont recours à l’IA peuvent être en mesure de produire un volume élevé de requêtes et de plaidoiries avec un minimum d’efforts, transférant le coût du tri des demandes fondées de celles qui ne le sont pas aux tribunaux et aux parties adverses.

Deuxièmement, les systèmes d’IA générative sont connus pour produire des résultats sûrs, mais incorrects, communément appelés « hallucinations », y compris de la jurisprudence fabriquée ou des déclarations inexactes de principes juridiques. Des exemples d’hallucinations jurisprudentielles se manifestent dans de nombreux ressorts canadiens, notamment des juristes expérimentés. Les « conseils juridiques » fondés sur l’IA augmentent le risque d’atteinte à l’intégrité du processus juridique.

Troisièmement, l’exercice du droit sans permis peut entraîner des sanctions importantes, y compris des amendes et des condamnations pour outrage, qui peuvent mener à l’emprisonnement.

Les avantages pratiques

Bien que l’affaire Illinois illustre les coûts potentiels d’une assistance juridique non réglementée axée sur l’IA, le déploiement responsable de l’IA avec une surveillance appropriée peut également améliorer l’efficacité des tâches courantes. Par exemple, les outils d’IA peuvent faciliter l’organisation des documents, la rédaction, la synthèse de la correspondance et des preuves et la préparation d’objets utiles.

Utilisées de façon appropriée, ces capacités peuvent réduire les délais et les coûts, ce qui peut à son tour favoriser un meilleur accès à la justice dans un système judiciaire actuellement aux prises avec des contraintes de ressources. Toutefois, pour réaliser ces avantages, l’IA doit être intégrée à une surveillance appropriée, comme des directives claires pour les utilisateurs, des contrôles de confidentialité et de sécurité des données, et un examen humain pour en assurer l’exactitude et le jugement professionnel. La valeur de l’IA dans le travail juridique est la plus élevée lorsqu’elle complète (plutôt que de remplacer) le rôle des avocats et de la Cour.

Modèle américain de gestion des risques liés à l’IA dans la pratique du droit

Au moins un État américain commence à répondre aux préoccupations liées à la pratique non autorisée du droit (UPL) soulevées par les outils juridiques basés sur l’IA en créant des voies d’accès plus claires pour l’innovation. Notamment, le Colorado Office of Attorney Regulation Counsel a adopté une « politique de non-poursuite » unique en son genre qui, à titre discrétionnaire d’application, supprime généralement l’ordre de priorité des actions UPL contre les développeurs de certaines technologies d’assistance juridique. La politique vise à encourager le développement responsable d’outils d’IA qui pourraient élargir l’accès à la justice, en particulier pour les parties qui se représentent elles-mêmes, tout en maintenant les mesures de protection des consommateurs. Entre autres garde-fous, la politique prévoit la surveillance des avocats et exige que le développeur et l’outil divulguent le fait qu’ils ne fournissent pas de conseils juridiques et qu’ils ne remplacent pas un avocat titulaire d’un permis. Le Colorado a conçu cette approche comme un projet pilote limité dans le temps, avec une évaluation prévue pour mesurer son impact et éclairer les choix réglementaires futurs. L’approche stratégique du Colorado fournit un modèle de la façon dont les organismes de réglementation peuvent gérer les risques liés aux NPU tout en favorisant l’innovation en IA.

Conclusion : Procéder avec soin

L’IA a le potentiel d’améliorer l’efficacité et l’accès à la justice lorsqu’elle est utilisée de manière responsable dans un cadre réglementé. Toutefois, des faits récents montrent que l’IA ne saurait se substituer à l’obtention d’un permis d’exercice, au jugement professionnel ou à la responsabilité éthique.

Pour les professionnels du droit comme pour les clients, la leçon est claire : l’IA peut être un outil puissant, mais lorsqu’elle franchit la ligne du conseil juridique non réglementé, les conséquences peuvent aller au-delà de l’utilisateur individuel et affecter les tribunaux, les parties adverses et la confiance du public dans le système judiciaire.

Réseaux sociaux
Télécharger
Télécharger
S'abonner
Demandes de republication

Pour obtenir l’autorisation de republier la présente publication ou toute autre publication, veuillez communiquer avec Bryan Canning at canningb@bennettjones.com.

À titre informatif seulement

La présente publication offre un aperçu des tendances juridiques et des mises à jour connexes à titre informatif seulement. Pour obtenir des conseils personnalisés, veuillez communiquer avec l’un des auteurs.

Note : Cette traduction a été générée par l’intelligence artificielle.