Rejoignez-nous
Divers

Hugging Face offre aux utilisateurs des outils de détection des deepfakes

Pierre

Date de publication :

le

Hugging Face offre aux utilisateurs des outils de détection des deepfakes

Explorez la collection d’outils pour détecter le contenu généré par l’IA.

Hugging Face veut aider les utilisateurs à lutter contre les deepfakes de l’IA.

L’entreprise qui développe des outils d’apprentissage automatique et héberge des projets d’IA propose également des ressources pour le développement éthique de l’IA. Cela comprend désormais une collection appelée « Provenance, Watermarking and Deepfake Detection », qui comprend des outils pour intégrer des filigranes dans les fichiers audio, les LLM et les images, ainsi que des outils pour détecter les deepfakes.

La disponibilité généralisée de la technologie d’IA générative a conduit à la prolifération des deepfakes audio, vidéo et image. Non seulement le phénomène des deepfakes contribue à la propagation de la désinformation, mais il conduit également au plagiat et à la violation du droit d’auteur des œuvres créatives. Les deepfakes sont devenus une telle menace que le décret du président Biden sur l’IA a spécifiquement rendu obligatoire le filigrane du contenu généré par l’IA. Google et OpenAI ont récemment lancé des outils permettant d’intégrer des filigranes dans les images créées par leurs modèles d’IA générative.

Les ressources étaient annoncé par Margaret Mitchell, chercheuse et scientifique en chef de l’éthique chez Hugging Face et ancienne employée de Google. Mitchell et d’autres se concentrant sur l’impact social ont créé une collection de ce qu’elle a appelé des éléments de « technologie de pointe » pour faire face à « la montée du « faux » contenu humain généré par l’IA.

Certains des outils de la collection sont destinés aux photographes et aux designers qui protègent leur travail contre l’utilisation pour former des modèles d’IA, comme Fumseck, qui « empoisonne » ou limite l’utilisation de logiciels de reconnaissance faciale sur des photos accessibles au public. D’autres outils comme WaveMark, Truepic, Photoguard et Imatag protègent l’utilisation non autorisée d’œuvres audio ou visuelles en intégrant des filigranes détectables par certains logiciels. Un outil Photoguard spécifique de la collection rend une image « immunisée » contre l’édition générative de l’IA.

L’ajout de filigranes aux médias créés par l’IA générative devient essentiel pour la protection des œuvres créatives et l’identification des informations trompeuses, mais ce n’est pas infaillible. Les filigranes intégrés dans les métadonnées sont souvent automatiquement supprimés lorsqu’ils sont téléchargés sur des sites tiers tels que les réseaux sociaux, et les utilisateurs malveillants peuvent trouver des solutions de contournement en prenant une capture d’écran d’une image filigranée.

Néanmoins, les outils gratuits et disponibles comme ceux partagés par Hugging Face valent bien mieux que rien.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *