Une nouvelle loi proposée rendrait illégale la suppression des filigranes d'IA du contenu
La loi COPIED conduirait à des normes fédérales de filigrane et à une voie légale pour les créatifs.
Le Sénat américain a dévoilé un autre projet de loi de protection de l'IA parmi une série d'initiatives similaires, visant cette fois à protéger le travail des artistes et autres créatifs.
Présentée sous le nom de Content Origin Protection and Integrity from Edited and Deepfaked Media Act (COPIED Act), la nouvelle législation exigerait une authentification plus précise du contenu numérique et rendrait illégale la suppression ou la falsification des filigranes, a rapporté The Verge, en vertu de nouvelles normes d'IA développées par le National Institute of Standards and Technology (NIST).
Offres Prime Day que vous pouvez acheter dès maintenant
-
Aspirateur robot et laveur à vidage automatique iRobot Roomba Combo i3+
—
329,99 $
(Prix catalogue 599,99 $) -
Tablette Samsung Galaxy Tab A9+ 10,9″ 64 Go Wi-Fi
—
178,99 $
(Prix catalogue 219,99 $) -
Apple AirPods Pro 2e génération avec boîtier de chargement USB-C MagSafe
—
199,00 $
(Prix catalogue 249,00 $) -
Système Wi-Fi 6 Mesh double bande Eero 6 (routeur + 2 extendeurs)
—
149,99 $
(Prix catalogue 199,99 $) -
Apple Watch Series 9 (GPS, 41 mm, minuit, S/M, bracelet sport)
—
299,00 $
(Prix catalogue 399,00 $)
Le projet de loi exige spécifiquement que les développeurs d’IA générative ajoutent des informations sur la provenance du contenu (données d’identification intégrées au contenu numérique, comme des filigranes) à leurs résultats, ou permettent aux individus d’ajouter eux-mêmes ces informations. Un accès plus standardisé à ces informations pourrait aider à la détection de contenu synthétique généré par l’IA, comme les deepfakes, et à limiter l’utilisation de données et d’autres droits de propriété intellectuelle sans consentement. Il autoriserait également la Federal Trade Commission (FTC) et les procureurs généraux des États à faire appliquer la nouvelle réglementation.
Une telle réglementation pourrait aider les artistes, les musiciens et même les journalistes à garder leurs œuvres originales hors des ensembles de données utilisés pour former les modèles d'IA – un problème croissant d'accessibilité publique qui n'a fait qu'être exacerbé par les récentes collaborations entre des géants de l'IA comme OpenAI et des sociétés de médias. Des organisations comme le syndicat d'artistes SAG-AFTRA, la Recording Industry Association of America, la News/Media Alliance et l'Artist Rights Alliance se sont prononcées en faveur de la législation.
« Nous avons besoin d'une chaîne d'approvisionnement entièrement transparente et responsable pour l'intelligence artificielle générative et le contenu qu'elle crée afin de protéger le droit fondamental de chacun à contrôler l'utilisation de son visage, de sa voix et de sa personnalité », a déclaré Duncan Crabtree-Ireland, directeur exécutif national de SAG-AFTRA.
Si ce projet de loi est adopté, il permettrait aux créateurs et aux propriétaires de médias de définir plus facilement les conditions d'utilisation du contenu et offrirait une voie légale si leur travail était utilisé sans consentement ni attribution.