Le contenu généré par l'IA de TikTok est filigrané
TikTok se joint aux initiatives d'étiquetage à l'échelle du secteur pour lutter contre les contenus préjudiciables.
TikTok tente une nouvelle fois de freiner la montée de la désinformation générée par l'IA qui envahit les plateformes de médias sociaux, en annonçant une nouvelle façon de filigraner (ou d'étiqueter) l'IA.
La plateforme a annoncé aujourd'hui qu'elle rejoignait la Content Authenticity Initiative dirigée par Adobe et la Coalition for Content Provenance and Authenticity (C2PA), un projet à but non lucratif visant à aligner les entreprises de technologie et de médias sociaux sur les meilleures pratiques pour ce que l'on appelle la « provenance du contenu ». « , ou les « faits de base et fiables sur les origines d'un élément de contenu numérique ».
Alors que TikTok étiquette déjà le contenu généré par l'IA (AIGC) créé à l'aide de ses propres effets d'IA et oblige les utilisateurs à étiqueter leur propre contenu d'IA téléchargé, la nouvelle politique appliquera une surveillance automatique au contenu créé hors site. L'intention déclarée de TikTok avec cette collaboration est qu'un système d'étiquetage automatique lise les informations d'identification du contenu afin d'analyser les métadonnées d'une image ou d'une vidéo et de l'identifier rapidement comme générées par l'IA.
La plateforme a également annoncé qu'elle commencerait à attacher des informations d'identification de contenu au contenu TikTok lui-même, afin que les autres puissent savoir quand, où et comment le contenu a été créé ou modifié. Il s'agit désormais de la première entreprise de médias sociaux et plateforme vidéo à adhérer aux normes Content Credentials d'Adobe, rapporte Fortune.
« Bien que les experts recommandent largement l'étiquetage AIGC comme moyen de soutenir la création de contenu responsable, ils préviennent également que les étiquettes peuvent semer la confusion si les téléspectateurs ne comprennent pas ce qu'elles signifient », a écrit la société dans son communiqué. « C'est pourquoi nous avons travaillé avec des experts pour développer des campagnes d'éducation aux médias qui peuvent aider notre communauté à identifier et à réfléchir de manière critique à l'AIGC et à la désinformation. »
TikTok publiera également 12 nouvelles ressources d'éducation aux médias créées en collaboration avec Mediawise du Poynter Institute, un projet de vérification des faits axé sur les jeunes, et WITNESS, une organisation de défense des droits humains qui enseigne aux civils comment utiliser la technologie pour s'enregistrer et se protéger. WITNESS fournit également des lignes directrices et des conseils pour discerner les deepfakes et autres menaces liées à l’IA.
D’autres plates-formes technologiques, également inondées de produits d’IA générative, ont suivi leur propre voie vers un meilleur étiquetage et un meilleur filigrane. Meta a annoncé de nouvelles étiquettes de contenu IA en avril. Peu de temps après, Snapchat a annoncé qu'il ajoutait un filigrane automatique, mais visible par l'utilisateur, à tout le contenu créé à l'aide de ses outils d'IA internes. Le filigrane transparent du logo Snapchat est ajouté aux images une fois qu'elles sont téléchargées sur un appareil ou exportées hors de la plateforme.
TikTok, quant à lui, lance ces protections prévues contre l'IA dans un regain d'attention axé sur le rôle de la plateforme dans l'organisation mondiale et son impact potentiel sur la prochaine élection présidentielle. Les nouvelles politiques interviennent également au milieu des derniers efforts de l'entreprise pour sauver la place de l'application sur les téléphones américains, y compris un récent procès contre le gouvernement américain pour son interdiction approuvée par Biden.