OpenAI soutient le projet de loi californien sur le tatouage numérique de l'IA
Le créateur de ChatGPT prend en charge la transparence de la provenance de l'IA
OpenAI a exprimé son soutien à un projet de loi californien exigeant que le contenu généré par l'IA soit étiqueté comme tel.
Selon Reuters, OpenAI a envoyé une lettre de soutien à Buffy Wicks, membre de l'Assemblée de l'État de Californie, auteur du projet de loi intitulé California Provenance, Authenticity and Watermarking Standards Act (AB 3211). La législation adoptée par l'Assemblée de l'État obligerait les entreprises d'IA à mettre un filigrane invisible sur tout contenu créé ou « significativement modifié » par leurs modèles d'IA. Le projet de loi sera ensuite soumis au vote du Sénat de l'État et sera examiné par le gouverneur de Californie Gavin Newsom s'il est adopté.
Le projet de loi obligerait également les entreprises d’IA à fournir des « décodeurs de filigrane » afin que les utilisateurs puissent facilement identifier si le contenu est généré par l’IA ou non.
Les modèles de génération d’images disponibles sur le marché varient en termes de photoréalisme, de garde-fous et de protection des droits d’auteur. DALL-E 3 est le dernier modèle de conversion de texte en image d’OpenAI. Depuis février, les images générées par le modèle sur ChatGPT contiennent des métadonnées C2PA, qui fournissent la provenance de l’image. De même, Google dispose de son propre outil SynthID pour filigraner les images créées par son modèle, Gemini. Grok-2, lancé par la société xAI d’Elon Musk, semble avoir le moins de restrictions puisqu’il peut générer des images de personnalités publiques et d’œuvres protégées par le droit d’auteur. Midjourney, l’un des modèles d’images les plus avancés, est actuellement empêtré dans une bataille juridique pour violation du droit d’auteur.
Dans la lettre consultée par Reuters, OpenAI souligne l'importance de la transparence sur la provenance des images et autres contenus générés par l'IA. « Les nouvelles technologies et normes peuvent aider les gens à comprendre l'origine du contenu qu'ils trouvent en ligne et à éviter la confusion entre le contenu généré par l'homme et le contenu photoréaliste généré par l'IA », a déclaré Jason Kwon, directeur de la stratégie d'OpenAI, dans la lettre.
La question des deepfakes et de la désinformation générées par l’IA est particulièrement importante à l’approche de l’élection présidentielle américaine. Des images générées par l’IA de Kamala Harris s’exprimant lors d’un rassemblement communiste et de Taylor Swift soutenant Donald Trump ont déjà circulé sur les réseaux sociaux.