Rejoignez-nous
Divers

Un nouvel outil pourrait protéger les artistes en sabotant les générateurs d’images de l’IA

Pierre

Date de publication :

le

Un nouvel outil pourrait protéger les artistes en sabotant les générateurs d'images de l'IA

Cela pourrait faire des ravages dans l’IA.

Les artistes pourraient bientôt disposer d’une nouvelle arme pour empêcher que leur travail ne devienne un fourrage pour l’apprentissage automatique. Appelé Nightshade, l’outil apporte de minuscules modifications aux pixels d’une œuvre d’art numérique pour l’« empoisonner » efficacement, rendant l’image inutile aux fins de formation de l’IA.

Le MIT Technology Review rapporte qu’une équipe dirigée par le professeur Ben Zhao de l’Université de Chicago a soumis Nightshade pour examen par les pairs lors de la conférence USENIX sur la sécurité informatique. Le logiciel fonctionne en apportant de petites modifications à une image qui, bien qu’invisibles à l’œil humain, amènent les algorithmes d’IA à les identifier complètement de manière erronée.

Par exemple, un artiste peut peindre l’image d’un chat qui peut être clairement identifié comme félin par tout humain ou IA qui l’examine. Cependant, lors de l’application de Nightshade, les humains verront toujours la même image tandis que l’IA croira à tort qu’il s’agit d’un chien.

Inondez l’IA avec suffisamment de mauvais matériel de formation comme celui-ci, et bientôt une demande d’image d’un chat l’amènera à générer un chien à la place.

Bien entendu, il est peu probable qu’une seule image empoisonnée ait un effet significatif sur l’algorithme d’un générateur d’images IA. Ses données d’entraînement devraient être entachées par des milliers d’images altérées avant qu’un impact réel ne soit visible.

Cependant, les générateurs d’images IA sont connus pour récupérer sans discernement des milliers de nouveaux échantillons sur Internet afin d’affiner leur algorithme. Si suffisamment d’artistes téléchargent leurs images avec Nightshade appliqué, cela pourrait éventuellement rendre ces outils d’IA inutilisables.

Il serait également extrêmement difficile pour les sociétés d’IA de résoudre le problème, car chaque image empoisonnée doit être identifiée individuellement et supprimée de leur pool de formation. Cela pourrait inciter fortement ces entreprises à réfléchir à deux fois avant de lancer un chalut sur Internet et d’utiliser le travail des artistes sans leur consentement explicite.

Ce n’est pas le premier outil perturbant l’IA créé par l’équipe de Zhao. Le groupe a précédemment publié Glaze, un outil qui dissimule le style personnel d’un artiste de la même manière. Nightshade sera finalement intégré à Glaze, ainsi que rendu open source afin de permettre à d’autres de s’appuyer sur leur travail de protection des artistes.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !