Rejoignez-nous
High tech

Un avocat a utilisé ChatGPT pour un dépôt légal. Le chatbot a cité des cas inexistants qu’il vient d’inventer.

Pierre

Date de publication :

le

Un avocat a utilisé ChatGPT pour un dépôt légal.  Le chatbot a cité des cas inexistants qu'il vient d'inventer.

L’avocat peut maintenant faire face à des sanctions pour avoir soumis les faux cas.

L’avocat Steven Schwartz de Levidow, Levidow & Oberman pratique le droit depuis trois décennies. Maintenant, un cas peut complètement faire dérailler toute sa carrière.

Pourquoi? Il s’est appuyé sur ChatGPT dans ses dépôts légaux et le chatbot AI a complètement fabriqué des cas précédents, cités par Schwartz, à partir de rien.

Tout commence avec l’affaire en question, Mata c. Avianca. Selon le New York Timesun Avianca Un client nommé Roberto Mata poursuivait la compagnie aérienne après qu’un chariot de service se soit blessé au genou lors d’un vol. Avianca a tenté d’amener un juge à rejeter l’affaire. En réponse, les avocats de Mata se sont opposés et ont soumis un mémoire rempli d’une multitude de décisions de justice similaires dans le passé. Et c’est là que ChatGPT est entré en jeu.

Schwartz, l’avocat de Mata qui a déposé l’affaire devant un tribunal d’État, puis a fourni des recherches juridiques une fois qu’il a été transféré au tribunal fédéral de Manhattan, a déclaré qu’il avait utilisé le chatbot populaire d’OpenAI afin de « compléter » ses propres conclusions.

ChatGPT a fourni à Schwartz plusieurs noms d’affaires similaires : Varghese contre China Southern Airlines, Shaboon contre Egyptair, Petersen contre Iran Air, Martinez contre Delta Airlines, Estate of Durden contre KLM Royal Dutch Airlines et Miller contre United Airlines. .

Le problème? ChatGPT a complètement inventé tous ces cas. Ils n’existent pas.

L’équipe juridique d’Avianca et le juge chargé de cette affaire se sont vite rendu compte qu’ils ne pouvaient localiser aucune de ces décisions de justice. Cela a conduit Schwartz à expliquer ce qui s’est passé dans un affidavit jeudi. L’avocat avait fait référence à ChatGPT pour obtenir de l’aide dans son dossier.

Selon Schwartz, il « ignorait la possibilité que son contenu puisse être faux ». L’avocat a même fourni au juge des captures d’écran de ses interactions avec ChatGPT, demandant au chatbot AI si l’un des cas était réel. ChatGPT a répondu que c’était le cas. Il a même confirmé que les cas pouvaient être trouvés dans des « bases de données juridiques réputées ». aucun d’entre eux n’a pu être trouvé car les cas ont tous été créés par le chatbot.

Il est important de noter que ChatGPT, comme tous les chatbots IA, est un modèle de langage formé pour suivre les instructions et fournir à un utilisateur une réponse à son invite. Cela signifie que si un utilisateur demande des informations à ChatGPT, cela pourrait lui donner exactement ce qu’il recherche, même si ce n’est pas factuel.

Le juge a ordonné une audience le mois prochain pour « discuter des sanctions potentielles » pour Schwartz en réponse à cette « circonstance sans précédent ». Cette circonstance étant à nouveau un avocat déposant un dossier juridique en utilisant de fausses décisions de justice et des citations qui lui ont été fournies par ChatGPT.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *