Accueil / News / Les dépôts juridiques générés par l’AI font un gâchis du système judiciaire

Les dépôts juridiques générés par l’AI font un gâchis du système judiciaire

AI-generated legal filings are making a mess of the judicial system

Honnêtement, qui n’a pas vu cela venir? Les experts juridiques disent que ça ne fera qu’empirer

Dans le contexte: Des modèles de grandes langues ont déjà été utilisés pour tricher à l’école et répandre une désinformation dans les reportages. Maintenant, ils se glissent vers les tribunaux, alimentant des faux dépôts auxquels les juges sont confrontés au milieu de lourds cas – augmentant de nouveaux risques pour un système juridique déjà étiré.

Un récent rapport de l’ARS Technica a détaillé une décision de la Cour d’appel de Géorgie mettant en évidence un risque croissant pour le système juridique américain: les hallucinations générées par l’IA se glissaient dans les documents judiciaires et influençant même les décisions judiciaires. Dans le litige de divorce, l’avocat du mari a soumis un projet de commande parsemé de citations à des cas qui n’existent pas – probablement inventés par des outils d’IA génératifs comme Chatgpt. Le tribunal initial de première instance a signé le document et a ensuite statué en faveur du mari.

Ce n’est que lorsque la femme a fait appel que les citations fabriquées ont été révélées. Le comité d’appel, dirigé par le juge Jeff Watkins, a annulé l’ordonnance, notant que les fausses affaires avaient sapé la capacité du tribunal à examiner la décision. Watkins n’a pas haché les mots, appelant les citations d’éventuelles hallucinations d’intelligence générative-artificielle. Le tribunal a infligé une amende à l’avocat du mari 2 500 $.

Cela peut sembler unique, mais un avocat a été condamné à une amende de 15 000 $ en février dans des circonstances similaires. Les experts juridiques avertissent qu’il s’agit probablement d’un signe de choses à venir. Les outils génératifs d’IA sont notoirement sujets à la fabrication d’informations avec une confiance convaincante – un comportement étiqueté «Hallucination». Alors que l’IA devient plus accessible aux avocats dépassés et aux justiciables auto-représentés, les experts disent que les juges seront de plus en plus confrontés à des dépôts remplis de faux cas, de précédents fantômes et d’un raisonnement juridique brouillé déguisé pour avoir l’air légitime.

Le problème est aggravé par un système juridique déjà étiré. Dans de nombreuses juridictions, les juges sont régulièrement des ordonnances de rubberstamp rédigées par des avocats. Cependant, l’utilisation de l’IA augmente les enjeux.

« Je peux envisager un tel scénario dans un certain nombre de situations où un juge de première instance maintient un lourdeur », a déclaré John Browning, un ancien juge d’appel du Texas et érudit juridique qui a largement écrit sur l’éthique de l’IA en droit.

Browning a déclaré à ARS Technica qu’il pensait qu’il est « très probable » que ces types d’erreurs deviendront plus courants. Lui et d’autres experts avertissent que les tribunaux, en particulier aux niveaux inférieurs, sont mal préparés pour gérer cet afflux de non-sens dirigés par l’IA. Seuls deux États – le Michigan et la Virginie-Occidentale – exigent actuellement que les juges maintiennent un niveau de base de «compétence technologique» en ce qui concerne l’IA. Certains juges ont interdit complètement les dépôts générés par l’AI ou la divulgation obligatoire de l’utilisation de l’IA, mais ces politiques sont inégales, incohérentes et difficiles à appliquer en raison du volume des cas.

Pendant ce temps, les dépôts générés par l’AI-AI ne sont pas toujours évidents. Les modèles de grands langues inventent souvent des noms de cas à consonance réaliste, des citations plausibles et du jargon juridique à consonance officielle. Browning note que les juges peuvent surveiller les signes révélateurs: des sténographes judiciaires incorrects, des numéros de cas d’espace réservé comme « 123456 » ou un langage formule. Cependant, à mesure que les outils d’IA deviennent plus sophistiqués, ces cadeaux peuvent s’estomper.

Des chercheurs, comme Peter Henderson au Princeton’s Polaris Lab, développent des outils pour suivre l’influence de l’IA sur les dossiers judiciaires et plaident pour des référentiels ouverts de jugement légitime pour simplifier la vérification. D’autres ont lancé de nouvelles solutions, telles que les «systèmes de primes» pour récompenser ceux qui attrapent des cas fabriqués avant de se glisser.

Pour l’instant, l’affaire de divorce de Géorgie est une histoire édifiante – non seulement des avocats imprudents, mais d’un système judiciaire qui peut être trop dépassé pour suivre l’utilisation de l’IA dans tous les documents juridiques. Comme le juge Watkins l’avait prévenu, si les hallucinations générées par l’AI-AI continuent de glisser dans les archives judiciaires sans contrôle, ils menacent d’éroder la confiance dans le système judiciaire lui-même.

Crédit d’image: Shutterstock

Laisser un commentaire

Votre adresse email ne sera pas publiée. Les champs obligatoires sont marqués *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>