Une étude de Stanford révèle les inexactitudes des systèmes juridiques basés sur l'IA

Une étude de Stanford révèle les inexactitudes des systèmes juridiques basés sur l'IA

Par
Mikhail Petrovich Smirnov
2 min de lecture

Une étude de Stanford révèle des inexactitudes des systèmes juridiques IA

Une récente étude de l'Université de Stanford a mis au jour des inexactitudes préoccupantes dans les systèmes IA utilisés pour la recherche juridique, soulevant des implications pour la communauté juridique et les fournisseurs de technologie comme LexisNexis et Thomson Reuters. Les outils d'IA conçus pour la recherche juridique fournissent des informations incorrectes dans 17% des requêtes, un phénomène connu sous le nom de "hallucination", ce qui pourrait potentiellement entraîner des jugements juridiques erronés. Les chercheurs préconisent l'établissement de normes transparentes et publiques pour l'utilisation de l'IA au sein du système judiciaire.

Principaux points à retenir

  • Environ 75% des professionnels du droit envisagent d'intégrer l'IA dans leurs routines de travail quotidiennes, malgré l'étude de Stanford révélant un taux d'erreur de 17% dans les informations générées par l'IA pour la recherche juridique.
  • Bien que les outils d'IA des leaders du secteur comme LexisNexis et Thomson Reuters aient montré des améliorations dans la réduction des erreurs par rapport aux modèles d'IA généraux, ils produisent encore des résultats inexacts dans plus d'une requête sur six.
  • L'étude met en évidence les limites de la génération augmentée par la recherche (RAG) pour résoudre les inexactitudes des outils d'IA et souligne les défis uniques auxquels sont confrontés les systèmes d'IA dans le domaine juridique, notamment en matière de source d'informations pertinentes et de garantie de l'exactitude des documents.
  • Le manque de transparence et le taux d'erreur élevé des outils d'IA posent des défis dans l'utilisation responsable et éthique de ces systèmes par les professionnels du droit, nécessitant une vérification manuelle pour contrer les pertes potentielles d'efficacité.

Analyse

Les résultats de l'étude ont des implications importantes, d'autant plus qu'un pourcentage important de praticiens du droit prévoient d'intégrer l'IA dans leurs activités quotidiennes. Le taux d'erreur de 17% mis en évidence dans l'étude pourrait potentiellement entraîner des jugements juridiques défectueux et nécessiter des investissements et une allocation de temps supplémentaires de la part des organisations et des professionnels du droit pour vérifier les informations générées par l'IA.

De plus, les nations et les systèmes juridiques s'appuyant sur les outils d'IA pour la recherche juridique pourraient faire face à des conséquences graves, notamment des erreurs judiciaires. Par conséquent, l'étude souligne la nécessité urgente pour la communauté juridique d'établir des références transparentes et publiques, ainsi que des évaluations rigoureuses des outils d'IA, afin d'atténuer les inexactitudes et de favoriser une utilisation responsable.

Saviez-vous que ?

  • Systèmes d'IA pour la recherche juridique : Ces systèmes utilisent l'intelligence artificielle pour aider les praticiens du droit à rechercher et à analyser efficacement les documents juridiques, les affaires et les statuts. Parmi les exemples notables figurent les offres de leaders du secteur comme LexisNexis et Thomson Reuters.
  • Génération augmentée par la recherche (RAG): La RAG est une technique utilisée dans les modèles d'IA pour améliorer la précision et la pertinence de leurs réponses générées. Elle consiste à donner au modèle de langage l'accès à des bases de connaissances externes pour récupérer et intégrer des faits et des données pertinents dans ses résultats.
  • Références publiques et évaluations rigoureuses: Il s'agit de l'évaluation normalisée et transparente des outils d'IA afin de mesurer leurs performances et leur exactitude, permettant des comparaisons croisées et garantissant le respect des normes éthiques et de qualité. Les chercheurs préconisent l'adoption de ces pratiques au sein de la communauté juridique pour remédier aux lacunes des outils d'IA pour la recherche juridique.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres