Passer au contenu

Un avocat utilise ChatGPT pour défendre son client… et fait une grosse erreur

Un avocat a cité plusieurs affaire fictives dans le cadre d’une affaire judiciaire. Toutes avaient été soufflées par ChatGPT.

Si ChatGPT n’a pas eu beaucoup de mal à réussir l’examen du barreau, il est encore loin de pouvoir prétendre au statut d’avocat. Il y a quelques jours, rapporte le New York Times, une affaire opposant des passagers mécontents à la compagnie aérienne Avianca se tenait aux États-Unis. Pour appuyer ses arguments, l’avocat Steven A. Schwartz a soumis plusieurs affaires antérieures, dans l’optique d’utiliser leur verdict comme jurisprudence.

ChatGPT invente des affaires juridiques

Problème, sur les affaires soumises au juge, six d’entre elles étaient totalement fictives. De faux procès, avec de fausses citations et de faux verdicts. Rapidement repérée par le juge de district américain Kevin Castel, une audience a finalement été organisée pour comprendre les erreurs formulées par l’avocat des plaignants, et envisager des sanctions. En guise d’excuse, l’avocat a admis qu’il avait utilisé le chatbot d’Open AI dans ses recherches pour préparer son dossier. ChatGPT lui a alors détaillé plusieurs affaires similaires au cas Avianca.

Pour vérifier les affirmations de l’intelligence artificielle, ce dernier a simplement demandé à ChatGPT de lui confirmer qu’il ne mentait pas. Les choses se sont toutefois corsées quand Steven A. Schwartz a demandé les sources sur lesquelles le chatbot se basait. Au lieu de répondre clairement, le robot a simplement expliqué qu’il s’agissait d’affaires bien réelles, trouvées sur les plateformes juridiques Westlaw et LexisNexis.

Parmi les affaires citées, ChatGPT a notamment inventé le procès Varghese contre China Southern Airlines. Un cas vraisemblablement basé sur une autre plainte — cette fois bien réelle — opposant Zicherman contre Korean Air Lines Co, mais dont plusieurs éléments avaient été modifiés par l’intelligence artificielle pour mieux coller à l’affaire en cours.

Surprise, ChatGPT peut mentir

Une fois pris la main dans le sac, Steven A. Schwartz s’est expliqué en indiquant qu’il “ignorait la possibilité que le contenu de ChatGPT puisse être faux“. L’avocat a aussi promis qu’il “regrettait profondément d’avoir utilisé l’intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et ne le fera jamais à l’avenir sans une vérification absolue de son authenticité“.

Si elle paraît complètement absurde, cette nouvelle illustration des prouesses ChatGPT sonne comme la preuve supplémentaire que le chatbot n’est pas plus fiable qu’une simple recherche sur un navigateur web. Il convient nécessairement de fact-checker les sources et les informations délivrées par le chatbot avant de les utiliser à des fins personnelles ou professionnelles. Ce n’est d’ailleurs pas la première fois qu’un robot boosté à l’IA livre des informations erronées. Dans sa première phase de démo ouverte, Bard, le robot de Google avait notamment inventé des éléments à propos du télescope James Webb.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Mode