19 promesses non tenues sur 35
Dans son projet présenté en 2020 devant le CSA (ex-ARCOM), Delphine Ernotte avait présenté 35 promesses qu'elle avait
Selon l'Université de Stanford, les usages du RAG dans l'IA sont loin d'être infaillibles.
Contexte : Cet article repose sur une étude approfondie menée par l'Université de Stanford Hallucination-Free? Assessing the Reliability of Leading AI Legal Research Tools. L'étude publiée en janvier 2024 critique les performances des outils de recherche juridique alimentés par l'IA avec des nombreuses "hallucinations" (réponses incorrectes ou trompeuses générées par ces systèmes).
L'étude vise à évaluer de manière empirique les performances des outils de recherche juridique alimentés par l'IA, notamment ceux offerts par LexisNexis et Thomson Reuters, ainsi que GPT-4 pour comparaison.
L'étude souligne l'importance de la supervision et de la vérification humaine dans l'utilisation des outils juridiques AI. Elle appelle à une intégration responsable de l'IA dans la pratique juridique, en soulignant que les avocats doivent comprendre les outils qu'ils utilisent et être conscients de leurs limites.
L'étude conclut que malgré les avancées des systèmes RAG (Retrieval-Augmented Generation) dans la réduction des hallucinations, les utilisateurs doivent rester vigilants et ne pas se fier aveuglément aux outils AI sans vérification appropriée. Elle met en lumière la nécessité d'une évaluation transparente et rigoureuse des outils AI dans le domaine juridique pour assurer leur intégration responsable et éthique dans la pratique professionnelle.
Limitations
Article rédigé sous supervision éditoriale avec des outils d'Intelligence Artificielle Générative.
Accès backstageRecevez chaque jour La Matinale des Matinales