Les YouTubers s’exposent à des sanctions s’ils utilisent l’IA générative, à moins qu’ils ne respectent cette nouvelle règle
De nouvelles exigences en matière d’étiquetage pour lutter contre les deepfakes.
YouTube exigera bientôt des créateurs qu’ils révèlent si une vidéo a été réalisée avec l’IA générative.
Mardi, le géant du streaming vidéo a annoncé cette mise à jour, ainsi que d’autres, pour atténuer les effets trompeurs ou néfastes de l’IA générative.
« Lorsque les créateurs téléchargent du contenu, nous aurons de nouvelles options à leur disposition pour indiquer qu’il contient du matériel réaliste modifié ou synthétique », ont déclaré Jennifer Flannery O’Connor et Emily Moxley, vice-présidentes de la gestion des produits YouTube.
Les créateurs qui ne le font pas systématiquement s’exposent à des sanctions, telles que la suppression de contenu ou la suspension du Programme Partenaire YouTube. L’annonce indique également que les artistes et les créateurs pourront demander la suppression du contenu (y compris la musique) qui utilise leur image sans consentement.
Le tweet a peut-être été supprimé
La disponibilité généralisée de l’IA générative a accru la menace de deepfakes et de désinformation, en particulier à l’approche de l’élection présidentielle. Les secteurs public et privé ont reconnu la nécessité de détecter et de prévenir l’utilisation néfaste de l’IA générative.
Par exemple, le décret du président Biden sur l’IA aborde spécifiquement la nécessité d’étiqueter ou de filigraner le contenu généré par l’IA. OpenAI travaille sur son propre outil, un « classificateur de provenance », qui détecte si une image a été réalisée avec son générateur AI DALL-E 3. La semaine dernière, Meta a annoncé une nouvelle politique qui oblige les annonceurs politiques à divulguer si une publicité utilise l’IA générative.
Sur YouTube, lorsqu’un créateur met en ligne une vidéo, il aura la possibilité d’indiquer si elle « contient du matériel réaliste modifié ou synthétique », indique le blog. « Par exemple, il pourrait s’agir d’une vidéo générée par l’IA qui décrit de manière réaliste un événement qui ne s’est jamais produit, ou d’un contenu montrant quelqu’un disant ou faisant quelque chose qu’il n’a pas réellement fait. »
Des étiquettes informant les spectateurs qu’une vidéo contient du contenu généré ou modifié par l’IA seront ajoutées au panneau de description. Un « label plus visible » sera ajouté aux contenus traitant de sujets sensibles. Même si le contenu généré par l’IA est correctement étiqueté, s’il enfreint les directives de la communauté YouTube, il sera supprimé.
Comment toute cette modération de contenu sera-t-elle appliquée ? Par l’IA bien sûr. En plus de créer de faux contenus qui semblent réalistes de manière convaincante, l’IA générative peut également identifier et détecter avec succès les contenus qui enfreignent les politiques relatives au contenu. YouTube déploiera une technologie d’IA générative pour aider à contextualiser et à comprendre les menaces à grande échelle.