L’émergence de l’intelligence artificielle (IA) remonte aux années 1950, cependant, elle a acquis une popularité mondiale massive vers 2023. On peut affirmer que le sujet de l’intelligence artificielle a été vivement débattu depuis lors, surtout après la sortie de ChatGPT. La plateforme a immédiatement gagné en popularité en raison de ses capacités et est devenue un sauveur de vie et de temps pour les individus de tous les secteurs. Outre les capacités de l’IA, la question de la qualité des réponses fournies par l’IA devrait être au centre des préoccupations, car il a été remarqué que les réponses fournies sont parfois erronées, trompeuses et incorrectes.
Les capacités et les promesses de l’IA juridique
De nombreuses personnes cherchant des conseils juridiques ou même des avocats eux-mêmes se tournent vers l’IA car elle offre efficacité, précision et éclaircissements sur diverses tâches et questions. Par exemple, dans certains pays où les services juridiques sont moins accessibles, comme les États-Unis, une recherche menée par l’American Bar Association en 2024 a révélé que l’adoption de l’IA dans les cabinets d’avocats a presque triplé, passant de 11 % en 2023 à 30 % en 2024. De plus, l’IA juridique peut éviter les erreurs de type « erreur humaine » et accorder une grande attention à chaque détail, là où l’œil et l’attention humains pourraient faillir. En termes de productivité, les outils d’IA aident les avocats à économiser jusqu’à plusieurs heures par semaine, en les assistant dans des tâches répétitives et en permettant également aux particuliers d’utiliser l’IA juridique pour de petites questions au lieu de contacter un avocat. Cela permet aux gens d’obtenir immédiatement des éclaircissements sur leur question en quelques clics, au lieu de contacter un avocat et de prendre rendez-vous. De plus, l’IA est capable d’analyser plusieurs bases de données, ce qui lui permet de mener des recherches approfondies avec une bonne connaissance du problème. Ces avantages peuvent présenter l’IA comme un remplacement parfait pour les avocats, cependant, ce n’est pas parce que l’IA peut gérer des tâches structurées à faible risque qu’elle peut remplacer la prise de décision nuancée et le jugement éthique d’un avocat humain. Ces deux aspects illustrent à eux seuls pourquoi, malgré des avantages prometteurs, l’IA est un praticien du droit fondamentalement défaillant.
Les limites de l’IA dans la compréhension juridique
Bien qu’il existe de multiples avantages à l’IA pour l’exécution de tâches juridiques, les limites peuvent être encore plus grandes et inclure des problèmes de raisonnement juridique, d’interprétation, de compréhension contextuelle et d’informations fausses et trompeuses. Plutôt que de fournir des réponses basées sur une connaissance et une compréhension juridiques réelles, les systèmes d’IA, en particulier les grands modèles de langage comme ChatGPT, génèrent la réponse en fonction des schémas dans les données d’entraînement et ont souvent un accès limité aux sources en ligne. Cette limitation a conduit à des cas où des outils d’IA ont fabriqué des faits juridiques, des affaires, des citations et ont mal interprété les lois, causant des conséquences pour des individus dans la vie réelle.
Le problème des informations fausses ou fabriquées générées par l’IA est bien connu et a été documenté dans divers contextes juridiques. Par exemple, l’un des premiers cas d’informations fausses utilisées par des avocats au tribunal a fait la une des journaux du monde entier et a attiré beaucoup d’attention. Il a été rapporté qu’un tribunal britannique a traité un cas dans lequel le plaideur a soumis des jugements inexistants, qui ont ensuite été attribués à des outils de génération d’IA. De même, en France, un outil juridique alimenté par l’IA a mal interprété la réglementation RGPD, fabriquant des amendements qui n’avaient jamais été adoptés, ce qui aurait pu induire en erreur les procédures judiciaires si cela n’avait pas été détecté à temps.
Ces cas ne sont que quelques exemples parmi tant d’autres, mais ils montrent que la surveillance humaine est cruciale dans les processus juridiques. Le droit est dynamique et comporte de nombreux petits aspects qu’il est crucial de prendre en considération, ce que l’IA est incapable de faire. Il a été remarqué que l’IA est incapable d’appliquer les précédents juridiques de manière contextuelle ou de tenir compte des circonstances individuelles, et ce sont des compétences cruciales dans la pratique juridique. De plus, une étude de l’Institut de Stanford pour une IA centrée sur l’humain a révélé des taux d’hallucination allant jusqu’à 88 % dans les requêtes juridiques posées à des modèles d’IA comme GPT-4, indiquant un risque significatif lorsqu’on se fie à l’IA pour des tâches juridiques complexes.
Conclusion
Cela signifie que sans une véritable compréhension, une responsabilité juridique, la capacité d’interpréter le droit de manière dynamique et de peser les implications morales et sociétales, les outils d’IA ne peuvent pas gérer la nature complexe, interprétative et parfois subjective du droit. Par conséquent, l’IA peut être utilisée pour assister les avocats ayant des connaissances juridiques existantes sous leur supervision ou par des particuliers cherchant une assistance juridique, mais cette assistance ne doit pas être considérée comme fiable et il est préférable pour les personnes confrontées à des problèmes juridiques de contacter un avocat.