Rejoignez-nous
Divers

Les deepfakes de Taylor Swift sont devenus viraux. Comment cela continue-t-il à se produire ?

Pierre

Date de publication :

le

Les deepfakes de Taylor Swift sont devenus viraux.  Comment cela continue-t-il à se produire ?

Ces incidents mettent en évidence la dangereuse montée en puissance de la pornographie générée par l’IA et la nécessité d’un changement juridique et sociétal.

Être une femme en ligne, ça fait peur. Dans le monde numérique, comme dans le monde réel, le harcèlement et les abus touchent quotidiennement les femmes et les personnes de genre marginalisé.

Ce qui est arrivé à Taylor Swift cette semaine est un excellent exemple – et terrifiant. Les images pornographiques de Swift générées par l’IA sont devenues virales sur X (anciennement Twitter), l’une de ces publications ayant été visionnée plus de 45 millions de fois. Des fans indignés sont rapidement intervenus, inondant la plateforme de messages positifs et d’images du chanteur attachées à des termes de recherche comme « Taylor Swift AI » et « Taylor Swift deepfake ». La base de fans dédiée de Swift a également reçu le hashtag #ProtectTaylorSwift, avec des milliers de messages condamnant les images non consensuelles.

L’incident n’est certainement pas isolé. Swift, l’une des personnalités les plus reconnaissables de la planète, est la dernière en date à avoir utilisé des deepfakes contre elle. Cela est arrivé aux stars de la K-pop, aux créateurs de TikTok, aux journalistes et aux lycéennes.

Qu’est-ce que le deepfake porno ?

Le porno Deepfake est constitué d’images ou de vidéos créées artificiellement et générées par un type spécifique d’apprentissage automatique. Ces visuels synthétiques représentent des portraits de personnes superposés à des actes sexuels sans leur consentement. Le fait de le partager est une forme d’abus sexuel basé sur l’image et a été criminalisé dans certains pays. Tout comme le porno vengeance, le porno deepfake a causé du tort à ceux qu’il représente, que ce soit psychologiquement, personnellement ou professionnellement.

Une étude réalisée en 2023 par Home Security Heroes, une société de recherche axée sur le vol d’identité et les dommages numériques, a révélé que la pornographie deepfake représente 98 % de toutes les vidéos deepfake en ligne. De plus, 99 % des cibles des deepfakes sont des femmes.

Où en est la loi sur le porno deepfake ?

En ce qui concerne le partage non consensuel d’images explicites, certains pays du monde ont ou sont en train de mettre en œuvre des lois pour protéger les survivants.

En Angleterre et au Pays de Galles, le partage de deepfake porn est criminalisé depuis juin 2023, le gouvernement britannique annonçant une répression contre « les agresseurs, les prédateurs et les ex-partenaires amers qui partagent des images intimes en ligne sans le consentement des personnes représentées ».

Aux États-Unis, 48 ​​États et le District de Columbia ont actuellement des lois contre la vengeance pornographique. Certains États se sont efforcés de mettre à jour leur langage pour inclure le deepfake porn sous ce parapluie, notamment l’Illinois, la Virginie, New York et la Californie. Cependant, les réglementations varient selon les États et, comme certains l’ont souligné, certaines lois n’incluent pas la question urgente du rôle de la technologie dans la création et la prolifération de telles images et vidéos.

Cependant, de nombreux gouvernements ne parviennent pas à résoudre le problème. « La plupart des gouvernements n’agissent pas. La plupart n’ont pas de lois, ou leurs lois sont pleines de lacunes », selon #MyImageMyChoice, une campagne dédiée à amplifier la voix de ceux qui ont été victimes d’abus sexuels basés sur l’image. « La plupart des pays ne disposent pas d’un cadre définissant qui est responsable du contrôle des espaces en ligne. »

Comment les Big Tech ont-elles abordé ce problème ?

X, où les photos de Swift ont été largement diffusées, interdit explicitement partager « des médias synthétiques, manipulés ou hors contexte ». Cela inclut les contenus qui visent délibérément à « tromper les gens » ou ceux qui prétendent faussement décrire la réalité. L’entreprise affirme avoir « une politique de tolérance zéro à l’égard de ce type de contenu », selon un article publié sur son compte officiel de sécurité.

D’autres plateformes, comme Reddit, ont également des politiques empêchant le partage de médias intimes ou sexuellement explicites sans le consentement d’une personne.

Les plateformes de médias sociaux et les Big Tech ont été mises à rude épreuve lorsqu’il s’agit de détecter et de prévenir les deepfakes, malgré les politiques. En 2021, Meta a mis en œuvre un nouvel outil pour ce faire, en partenariat avec la plateforme StopNCII.org de la UK Revenge Porn Helpline. Plus récemment, la société mère de Facebook et Instagram a annoncé que toute image modifiée numériquement concernant des questions sociales, électorales et politiques devait être étiquetée – une politique destinée à protéger les élections à venir vers lesquelles se préparent certaines des plus grandes démocraties du monde.

De nombreuses plateformes ont du mal à contenir un tel contenu. Les images de Swift, notamment, ont été créées et diffusées sur une discussion de groupe Telegram, comme l’a découvert 404Media. Telegram n’a pas réussi à empêcher ce type de contenu dans le passé. D’autres l’ont fait aussi : ce mois-ci, NBC News a découvert que du porno deepfake non consensuel représentant des célébrités féminines figurait en tête des moteurs de recherche comme Google et Bing de Microsoft.

Voici la vraie question : comment cela continue-t-il à se produire ? La réalité alarmante est que les images générées par l’IA sont de plus en plus omniprésentes et présentent de nouveaux dangers pour ceux qu’elles représentent. Ce problème est exacerbé par un fondement juridique obscur, les plateformes de médias sociaux qui n’ont pas réussi à promouvoir des garanties efficaces et la montée continue de l’intelligence artificielle. L’organisation internationale de défense des droits des femmes, Equality Now, a détaillé ces facteurs dans un rapport de janvier 2024, appelant à « des réponses urgentes et globales en matière d’innovation technologique, de réforme juridique et de sensibilisation sociétale » pour lutter contre la montée indéniable du deepfake porno.

Les circonstances entourant le cas de Swift mettent en évidence le fait que cela peut arriver à presque tout le monde – et avant que ce type de crise numérique ne s’aggrave, il est temps de changer.

Si vous avez été victime d’abus sexuels, si vous résidez aux États-Unis, appelez la ligne d’assistance gratuite et confidentielle National Sexual Assault au 1-800-656-HOPE (4673), ou accédez à l’aide en ligne 24h/24 et 7j/7 en visitant online.rainn. org. Si des images intimes ont été partagées sans votre consentement, appelez la hotline 24h/24 et 7j/7 de la Cyber ​​Civil Rights Initiative au 844-878-2274 pour une assistance gratuite et confidentielle. Le site Web du CCRI comprend également des informations utiles ainsi qu’une liste de ressources internationales.

Si vous résidez au Royaume-Uni et avez été victime d’abus d’image intime (c’est-à-dire de porno de vengeance), vous pouvez contacter la ligne d’assistance Revenge Porn au 0345 6000 459. Si vous avez été victime de violence sexuelle et que vous résidez au Royaume-Uni, appelez la ligne d’assistance Rape Crisis au 0808. 802 9999.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *