Intelligence artificielle et fausses références juridiques : vigilance accrue des tribunaux

Les hallucinations de l’IAG

L’utilisation de l’intelligence artificielle générative (IAG) dans le milieu juridique soulève depuis quelques années des enjeux concrets, lorsque cette technologie est mal utilisée, notamment pour produire des références juridiques inexistantes. Ce phénomène découle de ce que l’on désigne comme des hallucinations de l’intelligence artificielle. Au Québec, l’Office québécois de la langue française définit une hallucination en intelligence artificielle comme étant « Une réponse produite par un système d’intelligence artificielle qui semble cohérente et plausible, mais qui est factuellement incorrecte, inventée ou non fondée sur des données réelles. »

Dans le contexte judiciaire, ces hallucinations prennent une dimension préoccupante, particulièrement lorsqu’elles mènent à l’utilisation de références législatives ou jurisprudentielles inexistantes ou inexactes.

Les hallucinations de l’IAG génèrent un contenu conforme à la demande de l’utilisateur, et ce contenu peut sembler crédible puisqu’il répond aux principaux critères formulés. Pour y parvenir, l’intelligence artificielle utilise des informations reconnues en s’inspirant de banque de données, de modèles et de structures similaires qu’elle estime alors adéquats et les recompose ou les associe entre elles.

Cet ancrage de l’intelligence artificielle dans des données homogènes et compatibles entre elles, peut toutefois créer des résultats inexacts et trompeurs, bien qu’ils aient une apparence de réalité. La difficulté réside précisément dans le fait que ces références inventées sont difficiles à distinguer de véritables sources juridiques sans une vérification rigoureuse.

Des précédents médiatisés

Plusieurs cas médiatisés aux États-Unis et en Europe ont déjà illustré les conséquences concrètes de l’utilisation non vérifiée de l’IAG en droit. En septembre 2025, en Californie, un avocat était sanctionné et condamné à une amende de 10 000 $ pour avoir soumis au nom de sa cliente un mémoire d’appel truffé de 21 décisions judiciaires sur 23, toutes inexistantes et générées par ChatGPT.

Au Québec, le Barreau du Québec a identifié très tôt les risques associés à l’IAG. Dans son Guide pratique pour une utilisation responsable de l’Intelligence Artificielle Générative, il souligne notamment les risques d’induire en erreur les tribunaux ou les justiciables et l’importance de préserver l’intégrité du processus judiciaire qui peut s’en trouver compromise. Le Barreau rappelle ainsi que l’usage de l’IAG n’atténue en rien les obligations de compétence, de diligence et de vérification qui incombent en tout temps aux avocats.

Dès le 24 octobre 2023, la Cour supérieure du Québec émettait un avis à la communauté juridique et au public. La Cour y soulignait que le risque de fabrication potentielle de sources juridiques par les grands modèles de langage et appelait expressément à la vigilance et au recours à des bases de données juridiques fiables et reconnues.

Les fausses références juridiques

Le risque lié à la soumission de fausses références dans un processus judiciaire dépasse le simple cas d’erreur ponctuelle ou anodine. Il affecte directement la transparence, la fiabilité et la crédibilité des décisions rendues et, ultimement, l’état du droit. Le rôle des tribunaux et des praticiens consiste donc à s’assurer de détecter les décisions et les sources de droit douteuses avant qu’elles ne contaminent le raisonnement juridique.

Jusqu’à présent, les tribunaux québécois se sont montrés alertes sans être excessivement sévères à l’égard de l’utilisation de fausses références générées par hallucination de l’IAG. Cette retenue pourrait toutefois céder la place à un interventionnisme accru de la part des juges et des décideurs, selon plusieurs décisions déjà rendues par les tribunaux :

  • Le 11 août 2025, la Cour supérieure tranchait une demande d’injonction entre des partenaires d’affaires et soupçonnait alors que plusieurs références soumises par le défendeur dans son argumentation semblaient avoir été générées par de l’intelligence artificielle. Ces références étaient alors qualifiées comme n’ayant aucune valeur juridique, sans toutefois sanctionner leur utilisation dans ce dossier.

  • Le 1er octobre 2025, dans une affaire commerciale litigieuse retournant devant le tribunal après plusieurs jugements, la Cour supérieure était amenée à commenter plus en détail cet enjeu. Face à une contestation appuyée sur plusieurs références jurisprudentielles inexistantes générées par l’IAG, la Cour concluait alors à un manquement grave dans le déroulement de l’instance et condamnait le défendeur à payer 5 000 $ à titre de compensation pour abus de procédure. À cette occasion, le juge Luc Morin formulait les commentaires suivants :

[46]    Inutile de stigmatiser l’usage de l’intelligence artificielle. (…) Les avancées technologiques ne permettent pas l’attentisme et l’appareil judiciaire doit s’adapter en amont plutôt qu’en aval. En outre, toute mesure technologique pouvant permettre de favoriser l’accès au système de justice au citoyen devrait être saluée et encadrée plutôt que d’être proscrite et stigmatisée.

[47]    L’intelligence artificielle n’épargnera pas le système juridique et les tribunaux en plus d’y faire face, devront composer avec cette nouvelle technologie se targuant d’être révolutionnaire. Bien que ses promesses enivrantes n’aient d’égal que les craintes associées à son usage inapproprié, l’intelligence artificielle testera sérieusement la vigilance des tribunaux pour les années à venir.

[48]    Nous en sommes manifestement aux balbutiements de l’impact de l’intelligence artificielle sur le déroulement d’une instance judiciaire. Notre Cour ne semble pas avoir eu l’occasion de se prononcer sur cet enjeu qui promet de noircir plusieurs pages de jurisprudence sous peu. »

Dès les semaines suivantes, d’autres décisions confirmaient cette mise en garde :

  • Le 29 octobre 2025, la Cour supérieure du Québec reprenaient les commentaires du juge Morin et condamnait un tiers mis en cause dans une poursuite en dommages-intérêts et se représentant seul. Celui-ci était alors condamné à verser une compensation de 750 $ à la demanderesse, pour l’usage de trois références à des jugements inexistants ou incorrectement cités.

  • Le 13 novembre 2025, la Cour d’appel du Québec rejetait une demande pour permission d’appeler par un étudiant doctorant en biochimie d’un jugement rendu par la Cour supérieure du Québec, notant alors que les références qu’il avait soumises dans sa procédure n’existaient tout simplement pas, ce qui renforçait la conviction du tribunal que son appel ne devait pas être permis.

  • Le 25 novembre 2025, un arbitre en droit du travail rendait sa sentence et annulait le congédiement d’un employé à l’essai d’une compagnie. L’arbitre déplorait alors l’utilisation par la procureure de l’employeur, de quatre références à des décisions et des jugements inexistants, générés par de l’intelligence artificielle.

  • Le 23 décembre 2025, la Cour supérieure du Québec déclarait irrecevable et abusif le recours d’une personne se représentant seule et demandant l’annulation d’une assemblée de membres locataires dans une coopérative d’habitation. Outre une condamnation à rembourser les honoraires professionnels engagés par cette coopérative, le tribunal condamnait alors la demanderesse à 500 $ pour l’usage de références inexactes générées par hallucination de l’IAG. Nous représentions alors la coopérative d’habitation dans ce dossier.

La jurisprudence québécoise sur le sujet est donc en construction, mais l’accélération des cas référant à cette problématique de fausses références démontre une tendance marquante et un recours plus fréquent par les tribunaux à des sanctions sous forme de montants compensatoires.

Vigilance à l’ère du « do it yourself » juridique

La multiplication des usages inappropriés de l’IAG et la nécessité de préserver la crédibilité et la fiabilité des tribunaux imposent une grande vigilance, qui doit être l’affaire de tous. À terme, si ce risque n’est pas contrôlé en amont par la vigilance des tribunaux et des juristes, les effets pourront être pernicieux. Des jugements rendus sur la base d’une jurisprudence inexistante mais créée par hallucination de l’IAG pourraient eux-mêmes devenir de la jurisprudence citée ultérieurement dans d’autres dossiers, entraînant une distorsion cumulative du droit.

Toutefois, et à l’instar du juge Morin, ou du Barreau du Québec et des barreaux d’autres jurisdictions au Canada, nous croyons qu’il ne faut pas stigmatiser ou proscrire pour autant l’usage de l’intelligence artificielle en droit. Les moyens de faciliter l’accès à la justice, si ils sont louables et utilisés de manière appropriée et dans le respect de la procédure, peuvent aider les tribunaux dans leurs fonctions, les professionnels du droit dans leurs rôles, et évidemment les justiciables dans leurs démarches juridiques.

Cette vigilance et un contrôle en amont, tant par les juristes que par les tribunaux, seront déterminants pour préserver l’intégrité du processus judiciaire. Quant aux personnes se représentant seules, il est toujours possible de convenir avec des conseillers juridiques ou des avocats de mandats limités afin de vérifier leur dossier et la validité des sources de droit qu’elles entendent utiliser.

Judilex Avocats - vos droits, notre expertise.

Gilles G. Krief