OpenAI ajoute des filigranes aux images ChatGPT créées avec DALL-E 3
C’est un pas dans la bonne direction, mais les filigranes ne sont pas infaillibles.
Les images créées avec DALL-E 3 sur ChatGPT et l’API OpenAI auront désormais des filigranes.
Mardi, la société a partagé l’annonce dans un poste sur X, affirmant que les images « incluent désormais des métadonnées utilisant les spécifications C2PA ».
Le tweet a peut-être été supprimé
C2PA, qui signifie Coalition for Content Provenance and Authenticity, est une norme technique utilisée par Adobe, Microsoft, la BBC et d’autres sociétés et éditeurs pour lutter contre la prévalence des deepfakes et de la désinformation « en certifiant la source et l’historique (ou la provenance) des médias. contenu », comme expliqué sur le site du C2PA.
Les images générées sur ChatGPT et l’API OpenAI contiendront des métadonnées comprenant la source de l’outil d’IA et la date à laquelle il a été généré. Les métadonnées peuvent être visualisées en téléchargeant l’image sur des sites tels que Content Credentials. Les métadonnées C2PA ajoutent une légère augmentation à la taille du fichier, mais OpenAI affirme que cela n’affectera pas la qualité de l’image.
Avec des outils de génération d’images d’IA tels que DALL-E 3, Midjourney, Bard et Copilot, il est plus facile que jamais de créer des deepfakes, de faire proliférer des informations trompeuses et de publier des images qui portent atteinte à des œuvres protégées par le droit d’auteur. Récemment, des deepfakes pornographiques de Taylor Swift sont devenus viraux, soulignant la nécessité de vérifier les images et de mettre en place des garde-fous suffisants pour prévenir de tels préjudices, en particulier impliquant des personnalités publiques. Un décret du président Biden annoncé en octobre 2023 exigeait spécifiquement l’application de l’étiquetage du contenu généré par l’IA en tant que tel. Des directives concernant le tatouage du contenu sont élaborées par le ministère du Commerce, qui a également été chargé d’exiger que les créateurs de modèles de fondations d’IA informent le gouvernement de leur développement.
Bien que le filigrane des images soit un pas dans la bonne direction vers la vérification des images générées par l’IA, il n’est pas infaillible puisque les métadonnées peuvent être facilement supprimées. « Par exemple, la plupart des plateformes de médias sociaux suppriment aujourd’hui les métadonnées des images téléchargées, et des actions telles que prendre une capture d’écran peuvent également les supprimer », indique la page de politique d’OpenAI détaillant la norme C2PA. « Par conséquent, une image dépourvue de ces métadonnées peut ou non avoir été générée avec ChatGPT ou notre API. »
La page de politique OpenAI précise également que les filigranes intégrés C2PA ne sont appliqués qu’à la génération d’images, et non à la génération de voix ou de texte créée via ChatGPT ou l’API OpenAI.