YouTube exige désormais des étiquettes pour certaines vidéos générées par l’IA, mais pas toutes.
Cette nouvelle politique laisse de côté une multitude de contenus centrés sur les enfants.
Certaines vidéos générées par l’IA nécessiteront désormais un label sur YouTube
La politique a été annoncée pour la première fois par la société en novembre dernier, mais selon une nouvelle mise à jour de YouTube publiée lundi, la nouvelle politique et les outils de conformité requis sont en cours de lancement et continueront à être déployés au cours des prochaines semaines.
« Nous introduisons un nouvel outil dans Creator Studio, exigeant que les créateurs divulguent aux téléspectateurs lorsqu’un contenu réaliste (un contenu qu’un spectateur pourrait facilement confondre avec une personne, un lieu ou un événement réel) est créé avec des médias modifiés ou synthétiques, y compris l’IA générative. » dit YouTube.
YouTube exige que les créateurs marquent certains contenus vidéo IA afin que la plateforme puisse y apposer une étiquette « contenu modifié ou synthétique ». Cependant, tous les contenus vidéo IA n’auront pas besoin d’être étiquetés.
Selon YouTube, cette politique ne couvre que les modifications numériques ou les rendus d’une personne réaliste par l’IA, les images d’événements ou de lieux réels, ou la génération complète d’une scène réaliste.
YouTube explique également quel type de contenu généré par l’IA est exempté. Pour la plupart, ces exemptions sont des modifications mineures qui étaient possibles bien avant le boom de l’IA générative de ces dernières années. Il s’agit notamment de vidéos utilisant des filtres de beauté, des effets spéciaux comme un flou ou une superposition vintage, ou une correction des couleurs.
Pièges potentiels de la politique d’étiquetage de l’IA de YouTube
Il existe une exception intéressante et flagrante à la nouvelle politique d’étiquetage de l’IA de YouTube : le contenu animé par l’IA.
Selon YouTube, le contenu animé est « clairement irréaliste » et n’a donc pas besoin d’être étiqueté. La politique vise à lutter contre la désinformation ou les problèmes juridiques potentiels qui pourraient découler des versions générées de personnes réelles. Il ne s’agit pas d’un contrôle de qualité, avertissant les utilisateurs lorsque des fichiers indésirables générés par l’IA à faible effort commencent à jouer sur leur écran.
Cependant, comme le souligne Wired, YouTube lâche sans doute la balle ici parce que la politique laisse de côté la majeure partie du contenu pour enfants, les vidéos d’animation.
Les vidéos dérangeantes pour enfants sur YouTube ont fait la une des journaux au fil des ans et la société a pris des mesures pour résoudre le problème. Souvent, ceux-ci semblent être dispensés le plus rapidement possible, sans aucune intention éducative ni même aucune mesure visant à garantir l’adéquation à l’âge.
Le contenu destiné aux enfants sur YouTube sera affecté par cette politique si les créateurs diffusent de la désinformation, car cela relèverait de la partie « réaliste » de ces nouvelles règles. Cependant, les déchets animés par l’IA générés en masse, généralement destinés aux groupes démographiques les plus jeunes, ne le seront pas. Et il semble que YouTube manque une opportunité de étiqueter ce type de contenu afin que les parents puissent le filtrer facilement.
Dans l’ensemble, la nouvelle politique de YouTube en matière d’IA est un pas dans la bonne direction. L’IA générative qui pourrait être interprétée à tort comme réelle sera étiquetée, et les utilisations de l’IA par les cinéastes et les créateurs pour améliorer un contenu de haute qualité ne seront pas affectées.
Pourtant, il ne semble pas que YouTube soit encore confronté au potentiel de contenu de mauvaise qualité généré par l’IA pour remplir le site et changer fondamentalement la plate-forme. Il se peut cependant qu’il soit contraint d’affronter cette réalité quand et si elle se présente.