Rejoignez-nous
Divers

Que faire si quelqu’un fait un deepfake sur vous

Pierre

Date de publication :

le

Que faire si quelqu'un fait un deepfake sur vous

Ces mesures peuvent aider à limiter les conséquences d’un abus de deepfake.

Lorsque de fausses images explicites de Taylor Swift ont récemment commencé à devenir virales sur X (anciennement Twitter), la plateforme a finalement supprimé le compte de l’affiche originale, puis a rendu le nom de la pop star impossible à rechercher, même si certains termes de recherche faisaient toujours surface sur le contenu pornographique.

En bref, X ne savait pas comment garder les images hors de sa plateforme. Cela n’augure rien de bon pour la personne moyenne qui devient victime d’une image ou d’une vidéo deepfake non consensuelle.

Après tout, si les plateformes de médias sociaux ne peuvent pas protéger l’une des personnes les plus célèbres au monde contre les abus liés aux deepfakes, elles ne garantissent certainement pas la sécurité des utilisateurs inconnus, qui ne peuvent pas s’appuyer sur des avocats, des publicistes et une base de fans fervents pour obtenir de l’aide. .

Adam Dodge, avocat agréé et fondateur de Ending Tech-Enabled Abuse (EndTAB), affirme que le manque de garanties, de réglementation et de protection juridique solide place les victimes, qui sont systématiquement des femmes, dans la position de gérer les retombées de pratiques explicites ou pornographiques non consensuelles. des images et des vidéos deepfakes à leur image.

Dodge soutient que charger une personne déjà traumatisée de ces tâches ne fait qu’amplifier la violation qu’elle a subie. Mais malheureusement, le faire soi-même est actuellement le principal moyen de gérer les abus de deepfake.

Si vous êtes victime d’abus de deepfake, voici six mesures que vous pouvez prendre pour vous protéger :

1. Reconnaître les méfaits des abus deepfake.

Dodge dit que les victimes peuvent entendre que la pornographie deepfake ne leur fait pas vraiment de mal parce que les images ou les vidéos ne sont pas réelles. Il exhorte les victimes à ne pas croire à ce raisonnement.

Au lieu de cela, il considère les abus basés sur l’image de l’IA comme une forme de violence, en particulier contre les femmes. Les fausses images et vidéos peuvent nuire à la réputation d’une femme, à ses perspectives professionnelles et être utilisées par des inconnus pour la harceler et l’intimider en ligne et hors ligne. Faire face à leur renvoi est également épuisant et émouvant. En d’autres termes, considérons ce type d’abus contre les femmes comme faisant partie d’un spectre de violences qui conduisent à de véritables traumatismes.

Avant qu’une victime ne commence le processus ardu de traitement des deepfakes, Dodge lui recommande de prendre un moment pour noter que ce qui s’est passé n’est pas de sa faute et pour valider ce qu’elle vit.

« Reconnaître le préjudice est vraiment important pour la victime, et pour les personnes qui la soutiennent, et pour les personnes qui créent et partagent ces choses, afin qu’elles comprennent qu’il s’agit d’un acte profondément violent et nocif. »

Il existe également des ressources pour aider à soutenir les victimes. La Cyber ​​Civil Rights Initiative, basée aux États-Unis, dispose d’une ligne d’assistance téléphonique pour les abus d’image, ainsi que d’un guide détaillé sur ce qu’il faut faire une fois que vous êtes devenu une victime. Au Royaume-Uni, les victimes peuvent se tourner vers la ligne d’assistance téléphonique Revenge Porn, qui aide les victimes d’abus d’image intime.

2. Rassemblez des preuves en documentant le contenu.

Actuellement, Dodge affirme que la majorité des abus basés sur les images de l’IA se produisent principalement via deux supports.

Un type est perpétré via des applications qui permettent aux utilisateurs de prendre une image existante de quelqu’un et de la transformer en un faux nu à l’aide de l’algorithme alimenté par l’IA de l’application.

Le deuxième type d’abus est généré par les applications d’échange de visage deepfake, qui peuvent superposer le visage d’une personne sur une image ou une vidéo pornographique préexistante. Bien que fausse, l’image ou la vidéo résultante est étonnamment réaliste.

Un type croissant d’abus peut être attribué aux générateurs de texte et d’images, capables de transformer des invites écrites en fausses images nues ou explicites. (Indigo Buzz ne publie pas les noms de ces applications en raison de craintes de les faire connaître davantage aux auteurs.)

Quel que soit le format utilisé, les victimes doivent faire de leur mieux pour documenter chaque cas d’abus basé sur l’image de l’IA via des captures d’écran ou en enregistrant des fichiers image et vidéo. Ces captures d’écran ou fichiers peuvent être utilisés dans le cadre de demandes de retrait et de poursuites judiciaires, lorsque cela est possible. Pour un guide étape par étape sur la documentation des preuves, consultez le guide de la Cyber ​​Civil Rights Initiative.

Pourtant, rassembler ces preuves peut traumatiser davantage les victimes, c’est pourquoi Dodge leur recommande de faire appel à un « cercle de soutien » pour faire ce travail.

« Si (les victimes) doivent le signaler, il est vraiment essentiel d’avoir des preuves », explique Dodge.

3. Envoyez des avis de retrait aux plateformes sur lesquelles le contenu apparaît.

Les plateformes de médias sociaux permettent aux gens de signaler lorsqu’un utilisateur a publié en ligne des images non consensuelles d’eux. Historiquement, ces demandes de retrait ont été utilisées pour aider les victimes dont les véritables images intimes étaient partagées sans autorisation. Mais Dodge affirme que les victimes d’abus basés sur l’image de l’IA peuvent également utiliser cet outil.

Chaque plateforme a son propre processus. Pour une liste complète des politiques de suppression en ligne pour les principales applications, plateformes de médias sociaux et sites de rencontres, consultez le guide de la Cyber ​​Civil Rights Initiative.

Dodge recommande également l’outil gratuit proposé par StopNCII.org, une organisation à but non lucratif qui soutient les victimes d’abus d’images intimes non consensuelles. L’outil de l’organisation permet aux victimes de sélectionner une image ou une vidéo d’elles qui a été partagée sans leur consentement et de générer indépendamment une empreinte numérique, ou hachage, afin de signaler ce contenu. L’utilisateur n’a pas besoin de télécharger l’image ou la vidéo elle-même, elle ne quitte donc jamais la possession de la victime.

L’organisation partage ensuite le hachage avec ses partenaires, parmi lesquels des sociétés comme Facebook, Reddit et TikTok. À leur tour, ses partenaires sont alors prêts à détecter le contenu correspondant à l’empreinte numérique générée. La société supprime toutes les correspondances au sein de sa plateforme, si nécessaire.

4. Faites des demandes de désindexation d’images et de vidéos des moteurs de recherche.

Bing et Google permettent aux utilisateurs de soumettre des demandes de désindexation des images et vidéos pornographiques fausses et non consensuelles de leurs résultats de recherche. Dodge recommande aux victimes d’utiliser cette stratégie pour limiter la possibilité de découvrir les abus basés sur les images de l’IA.

Le processus étape par étape de Google peut être trouvé ici. Les instructions pour le même processus sur Bing sont ici.

Il est important de faire ces demandes spécifiquement à chaque entreprise. Ce mois-ci, NBC News a découvert que les résultats de recherche de Google et de Bing faisaient apparaître du porno deepfake non consensuel en réponse à certaines requêtes, soulevant des questions sur la fréquence à laquelle les entreprises patrouillaient dans leurs index pour détecter ce type de contenu afin de le supprimer.

5. Recherchez vos options juridiques.

En 2021, plus d’une douzaine d’États, dont la Californie, le Texas et New York, avaient des lois relatives aux images deepfake, selon la Cyber ​​Civil Rights Initiative. Si vous vivez dans un État où les lois interdisent la création de deepfake pornographie ou d’abus basés sur des images d’IA, vous pourrez peut-être déposer un rapport de police ou poursuivre l’auteur en justice. À l’échelle internationale, le partage de porno deepfake est devenu un crime en Angleterre et au Pays de Galles.

Même dans les nombreux États américains qui n’interdisent pas ce type d’abus, Dodge affirme qu’il existe d’autres lois connexes qui peuvent s’appliquer au cas d’une victime, notamment le cyberharcèlement, l’extorsion et la pédopornographie.

Pourtant, Dodge affirme que de nombreux services de police ne sont pas préparés et manquent de ressources et de personnel pour enquêter sur ces cas. Il est donc important de gérer les attentes quant à ce qui est possible. En outre, certaines victimes, en particulier celles qui sont déjà marginalisées d’une manière ou d’une autre, peuvent choisir de ne pas signaler les deepfakes non consensuels aux autorités pour diverses raisons, notamment le manque de confiance dans les forces de l’ordre.

6. Désactivez-vous des sites de courtiers de données.

Dodge affirme que les victimes d’images intimes non consensuelles sont parfois ciblées par des inconnus en ligne, si leurs informations personnelles sont liées au contenu.

Même si cela ne s’est pas encore produit, Dodge recommande de se désinscrire des sites de courtage de données qui collectent vos informations personnelles et les vendent à n’importe qui moyennant des frais. Ces courtiers incluent des sociétés comme Spokeo, PeekYou, PeopleSmart et BeenVerified. Les victimes devront s’adresser à chaque courtier pour demander la suppression de leurs informations personnelles, bien qu’un service comme DeleteMe puisse surveiller et supprimer ces données moyennant des frais. DeleteMe facture un minimum de 129 $ pour un abonnement annuel, qui recherche et supprime les informations personnelles tous les trois mois.

Google dispose également d’un outil gratuit permettant de supprimer certaines informations personnelles de ses résultats de recherche.

Compte tenu de la rapidité avec laquelle les outils d’imagerie basés sur l’IA prolifèrent, Dodge ne peut pas imaginer un avenir sans images explicites non consensuelles générées par l’IA.

Il y a encore quelques années, commettre de tels abus nécessitait de la puissance de calcul, du temps et une expertise technique, note-t-il. Désormais, ces outils sont faciles d’accès et d’utilisation.

« Nous ne pourrions pas rendre les choses plus faciles », déclare Dodge.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !