Les dirigeants, acteurs et universitaires de l’IA signent une lettre appelant à une législation anti-deepfake
La lettre déclare que les deepfakes constituent « une menace croissante pour la société ».
Des centaines d’universitaires, de politiciens et de dirigeants de l’IA ont signé une lettre ouverte appelant à une législation anti-deepfake. Les signataires déclarent que les deepfakes constituent « une menace croissante pour la société » et demandent aux gouvernements « d’imposer des obligations » pour empêcher la surveillance des médias nuisibles générés par l’IA.
La lettre appelle à la mise en œuvre de trois lois principales :
-
Criminaliser pleinement la pornographie juvénile deepfake
-
Établir des sanctions pénales pour toute personne sciemment impliquée dans la création ou la diffusion de deepfakes nuisibles
-
Exiger des développeurs et des distributeurs de logiciels qu’ils a) empêchent leurs produits de créer des deepfakes nuisibles et b) soient tenus responsables si leurs mesures sont trop facilement contournées
Parmi les voix éminentes qui ont signé la lettre – qui compte 778 signatures au moment de la rédaction – figurent l’homme d’affaires et homme politique Andrew Yang, le cinéaste Chris Weitz, la chercheuse Nina Jankowicz, l’universitaire et psychologue Steven Pinker, l’acteur Kristi Murdock, le physicien Max Tegmark et le neuroscientifique Ryota Kanai.
Les signataires appartiennent à plusieurs secteurs, principalement liés à l’intelligence artificielle, au monde universitaire, au divertissement et à la politique. Les deepfakes représentent une menace pour chacun, et comme le souligne la lettre, « tous les signataires n’auront pas les mêmes raisons de soutenir la déclaration ».
Les médias générés par l’IA et leurs dangers dans tous les secteurs ont été prononcés au cours de l’année écoulée. Plusieurs membres de la SAG-AFTRA ont signé, des mois après une longue grève ponctuée de discussions autour de l’utilisation de l’IA dans l’industrie. Les politiciens se démènent pour lutter contre la prolifération des deepfakes, la sécurité intérieure ayant récemment commencé à recruter des experts en IA et des pays comme l’Inde aux prises avec la désinformation générée par l’IA à l’approche de la saison électorale.
Les deepfakes ont également fait l’objet de discussions en matière de pornographie non consensuelle. Plus tôt cette année, de fausses images de Taylor Swift se sont répandues sur X, soulignant la nécessité d’un changement juridique et sociétal urgent.
La lettre n’est pas le premier appel à des mesures pour réglementer et empêcher la propagation des deepfakes. Comme le souligne TechCrunch, l’Union européenne travaille sur des plans visant à criminaliser les images générées par l’IA et les deepfakes illustrant la maltraitance des enfants et la pornographie. En Angleterre, le gouvernement a pris des mesures contre ce problème l’année dernière, facilitant ainsi les poursuites contre ceux qui partagent du porno deepfake.
Mais il reste encore du travail à faire à l’échelle mondiale, légalement et, bien sûr, par les entreprises technologiques elles-mêmes.