La Cour suprême des États-Unis met en garde contre les dangers de l’IA dans la profession juridique
L’IA a déjà été utilisée pour négocier des contrats et rédiger des lois.
La Cour suprême des États-Unis s’est penchée sur l’utilisation de l’intelligence artificielle (IA) dans le système judiciaire, reconnaissant son potentiel tout en mettant en garde contre une « déshumanisation de la loi ».
Publié dimanche, le rapport de fin d’année 2023 sur le système judiciaire fédéral propose un aperçu de 13 pages de l’année écoulée dans le système judiciaire américain. Cette année, le juge en chef des États-Unis, John G. Roberts, Jr. a choisi de poursuivre son histoire consistant à traiter « une question majeure pertinente pour l’ensemble du système judiciaire fédéral » en se concentrant sur l’IA, en comparant l’apprentissage automatique aux avancées technologiques passées telles que les ordinateurs personnels.
« Pour ceux qui n’ont pas les moyens de payer les services d’un avocat, AI peut les aider », a déclaré Roberts. « Il génère de nouveaux outils hautement accessibles qui fournissent des réponses à des questions de base, notamment où trouver des modèles et des formulaires judiciaires, comment les remplir et où les apporter pour les présenter au juge, le tout sans quitter la maison. »
Cependant, bien que Roberts ait reconnu les avantages que l’IA peut offrir, il a également noté qu’elle comporte des risques, en particulier lorsqu’elle est appliquée de manière inappropriée. Il a notamment souligné qu’une grande partie de la prise de décision dans le système judiciaire nécessite une évaluation humaine, de la discrétion et une compréhension des nuances. Confier simplement un tel pouvoir à un algorithme est susceptible d’aboutir à des résultats insatisfaisants et injustes, d’autant plus que les modèles d’IA contiennent souvent des biais involontaires.
« Dans les affaires pénales, l’utilisation de l’IA pour évaluer le risque de fuite, la récidive et d’autres décisions largement discrétionnaires impliquant des prédictions a suscité des inquiétudes quant à la procédure régulière, à la fiabilité et aux biais potentiels », a écrit Roberts. « Au moins à l’heure actuelle, des études montrent une perception publique persistante d’un ‘écart d’équité entre l’homme et l’IA’, reflétant l’opinion selon laquelle les jugements humains, malgré tous leurs défauts, sont plus justes que tout ce que la machine crache. »
Roberts a déclaré que de nombreux cas d’utilisation de l’IA aident le système judiciaire à résoudre les affaires de manière « juste, rapide et peu coûteuse ». Il a néanmoins averti que l’IA n’est pas nécessairement adaptée à toutes les situations et que « les tribunaux devront réfléchir à ses utilisations appropriées dans les litiges » à mesure que la technologie évolue.
« Je prédis que les juges humains existeront pendant un certain temps », a déclaré Roberts. « Mais avec la même confiance, je prédis que le travail judiciaire – en particulier au niveau des procès – sera considérablement affecté par l’IA. Ces changements concerneront non seulement la manière dont les juges exercent leur travail, mais également la manière dont ils comprennent le rôle que joue l’IA dans le processus judiciaire. cas qui leur sont soumis. »
L’IA a déjà un impact sur le système juridique américain
Malheureusement, la compréhension de l’IA par les professionnels du droit est déjà en retard par rapport à son application excessive dans au moins quelques cas, la technologie d’apprentissage automatique ayant jusqu’à présent eu un impact douteux sur le système juridique américain.
L’année dernière, deux avocats ont été condamnés à une amende pour avoir cité des cas inexistants dans un dossier juridique après avoir utilisé ChatGPT d’OpenAI. Le chatbot IA avait complètement fabriqué six cas, sur lesquels les avocats avaient ensuite tenté de s’appuyer dans leurs arguments. Selon l’un d’eux, il « ignorait la possibilité que son contenu soit faux ».
Bien que cette affaire ait été largement rapportée, tous les avocats ne semblent pas avoir compris qu’ils s’appuient trop sur l’IA. Un autre avocat américain a récemment été arrêté pour avoir également cité de faux cas, après avoir omis de les vérifier après que son client les ait générés à l’aide de Google Bard. Ce client a été radié du barreau, Michael Cohen, ancien avocat de Trump, qui a déclaré la semaine dernière qu’il pensait que Bard était un « moteur de recherche surpuissant » et ne savait pas qu’il pouvait générer des résultats.
Des tentatives ont également été faites pour utiliser des chatbots IA pour générer des arguments juridiques. Au début de l’année dernière, le service juridique en ligne DoNotPay a annulé son projet de faire représenter un accusé devant le tribunal par son chatbot IA après avoir été averti qu’il pourrait être accusé de pratique non autorisée du droit. Le chatbot de DoNotPay a été développé à l’aide de ChatGPT.
La société d’IA Luminance a également réalisé une démonstration de son modèle juridique à grand langage Autopilot en novembre dernier, automatisant une négociation de contrat « sans intervention humaine ». L’intelligence artificielle est même utilisée par les législateurs pour rédiger des lois, tant aux États-Unis qu’à l’échelle internationale.
Quiconque a rédigé ou lu un document juridique sait qu’il s’agit généralement d’une tâche ardue qui nécessite d’analyser de longues pages ennuyeuses de texte compliqué et obscur. Demander simplement à une IA de vérifier un contrat, d’évaluer une soumission juridique ou de générer un affidavit peut sembler une solution beaucoup plus rapide et moins douloureuse. Pourtant, même l’utilisation de l’IA comme outil d’assistance comporte des dangers, car les humains peuvent inconsciemment absorber ses préjugés.
Il peut y avoir quelques cas d’utilisation soigneusement étudiés des algorithmes d’apprentissage automatique dans le système juridique. Cependant, cette technologie doit être abordée avec prudence. Une dépendance excessive à l’égard de l’IA dans le cadre juridique comporte un risque réel de museler davantage l’humanité dans un système déjà notoirement bureaucratique.