Un avocat a utilisé ChatGPT pour un dépôt légal. Le chatbot a cité des cas inexistants qu’il vient d’inventer.
L’avocat peut maintenant faire face à des sanctions pour avoir soumis les faux cas.
L’avocat Steven Schwartz de Levidow, Levidow & Oberman pratique le droit depuis trois décennies. Maintenant, un cas peut complètement faire dérailler toute sa carrière.
Pourquoi? Il s’est appuyé sur ChatGPT dans ses dépôts légaux et le chatbot AI a complètement fabriqué des cas précédents, cités par Schwartz, à partir de rien.
Le tweet a peut-être été supprimé
Tout commence avec l’affaire en question, Mata c. Avianca. Selon le New York Timesun Avianca Un client nommé Roberto Mata poursuivait la compagnie aérienne après qu’un chariot de service se soit blessé au genou lors d’un vol. Avianca a tenté d’amener un juge à rejeter l’affaire. En réponse, les avocats de Mata se sont opposés et ont soumis un mémoire rempli d’une multitude de décisions de justice similaires dans le passé. Et c’est là que ChatGPT est entré en jeu.
Schwartz, l’avocat de Mata qui a déposé l’affaire devant un tribunal d’État, puis a fourni des recherches juridiques une fois qu’il a été transféré au tribunal fédéral de Manhattan, a déclaré qu’il avait utilisé le chatbot populaire d’OpenAI afin de « compléter » ses propres conclusions.
ChatGPT a fourni à Schwartz plusieurs noms d’affaires similaires : Varghese contre China Southern Airlines, Shaboon contre Egyptair, Petersen contre Iran Air, Martinez contre Delta Airlines, Estate of Durden contre KLM Royal Dutch Airlines et Miller contre United Airlines. .
Le problème? ChatGPT a complètement inventé tous ces cas. Ils n’existent pas.
L’équipe juridique d’Avianca et le juge chargé de cette affaire se sont vite rendu compte qu’ils ne pouvaient localiser aucune de ces décisions de justice. Cela a conduit Schwartz à expliquer ce qui s’est passé dans un affidavit jeudi. L’avocat avait fait référence à ChatGPT pour obtenir de l’aide dans son dossier.
Selon Schwartz, il « ignorait la possibilité que son contenu puisse être faux ». L’avocat a même fourni au juge des captures d’écran de ses interactions avec ChatGPT, demandant au chatbot AI si l’un des cas était réel. ChatGPT a répondu que c’était le cas. Il a même confirmé que les cas pouvaient être trouvés dans des « bases de données juridiques réputées ». aucun d’entre eux n’a pu être trouvé car les cas ont tous été créés par le chatbot.
Il est important de noter que ChatGPT, comme tous les chatbots IA, est un modèle de langage formé pour suivre les instructions et fournir à un utilisateur une réponse à son invite. Cela signifie que si un utilisateur demande des informations à ChatGPT, cela pourrait lui donner exactement ce qu’il recherche, même si ce n’est pas factuel.
Le juge a ordonné une audience le mois prochain pour « discuter des sanctions potentielles » pour Schwartz en réponse à cette « circonstance sans précédent ». Cette circonstance étant à nouveau un avocat déposant un dossier juridique en utilisant de fausses décisions de justice et des citations qui lui ont été fournies par ChatGPT.