Les deepfakes d’IA ramènent les voix des victimes de violences armées. Ils implorent toujours le Congrès de changer.
« Nos histoires doivent être entendues, et qui de mieux que nous pour les raconter ?
La lutte pour une réforme nationale des armes à feu – une cause qui a galvanisé les jeunes électeurs et est devenue un point de référence pour une nouvelle génération de dirigeants – avance dans des eaux inexplorées.
Le 14 février, les organisations de réforme des armes à feu axées sur les jeunes, March For Our Lives et Change the Ref, ont annoncé leur dernière campagne conjointe visant à perturber la norme du Congrès : un site Web appelé The Shotline qui permet aux partisans de la réforme des armes à feu de contacter directement leurs représentants à l’aide de messages vocaux automatisés. Et même si vous pourriez dire qu’il s’agit d’une stratégie standard, voire basique, utilisée par les défenseurs de toutes les problématiques, celle-ci est un peu différente. Les messages automatisés ne sont pas des invites conversationnelles ou des statistiques discordantes transmises aux messages vocaux des bureaux du Congrès, mais les voix réelles et ravivées de personnes qui ont été tuées par la violence armée.
Le tweet a peut-être été supprimé
Jamais une campagne de ce type n’a pris au pied de la lettre l’expression « donner la parole aux sans-voix ».
Shotline utilise le clonage vocal de l’IA – plus communément appelé deepfakes audio – pour générer des appels à l’action provenant de la bouche des victimes. Bien sûr, cela va également susciter quelques froncements de sourcils, car la surveillance des deepfakes audio et vidéo constitue depuis longtemps un défi pour les entreprises technologiques et les régulateurs fédéraux. La semaine dernière, la FCC a jugé illégaux les appels automatisés générés par l’IA, et les arnaques à l’IA, comme les récentes tentatives de suppression des électeurs utilisant un appel automatisé du président Joe Biden, sont une priorité à l’approche de l’élection présidentielle.
Dans tous les secteurs, les chatbots IA et le clonage vocal ont suscité un débat sur les implications éthiques de la création, puis de la possession, de représentations artificielles d’êtres humains. Beaucoup s’interrogent sur les effets psychologiques, positifs et négatifs, de cette pratique sur leurs proches décédés.
Les voix d’une clarté obsédante des jeunes victimes de violences armées sont peut-être l’exemple le plus choquant.
Dans une déclaration au Guardian, MullenLowe, l’agence de publicité à l’origine de la campagne, a expliqué que les appels de The Shotline devraient être exemptés des récentes interdictions d’appels automatisés de la FCC, car ils ne sont pas composés automatiquement (mais plutôt initiés par des individus via le site Web), et sont envoyés directement à lignes fixes et fournissez un numéro de rappel.
Les messages vocaux de Shotline ont été créés par l’agence de création et spécialiste de l’IA Edisen, en utilisant l’audio fourni par les familles des victimes combiné à un apprentissage automatique approfondi pour créer une version informatisée de la voix de chaque victime.
Dans un exemple de message vocal, Joaquin Oliver, lycéen de Marjory Stoneman Douglas, dont les parents ont lancé Change the Ref après sa mort, dénonce les dirigeants imprudents du Congrès. « Bonjour, je m’appelle Joaquin Oliver. Il y a six ans, j’étais en terminale à Parkland. De nombreux étudiants et enseignants ont été assassinés le jour de la Saint-Valentin cette année-là par une personne utilisant un AR-15, mais vous ne vous en souciez pas. Vous ne l’avez jamais fait. « Cela fait six ans, et vous n’avez rien fait, rien pour arrêter toutes les fusillades qui ont eu lieu depuis », dit sa description par l’IA.
La voix simulée d’Oliver continue :
« Le fait est que je suis mort ce jour-là à Parkland. Mon corps a été détruit par une arme de guerre. Je suis de retour aujourd’hui parce que mes parents ont utilisé l’IA pour recréer ma voix pour vous appeler. D’autres victimes comme moi appelleront aussi. , encore et encore, pour exiger une action. Combien d’appels vous faudra-t-il pour vous en soucier ? Combien de voix mortes entendrez-vous avant de finalement écouter ? Chaque jour, votre inaction crée de plus en plus de voix. Si vous n’agissez pas maintenant, nous Je trouverai quelqu’un qui le fera.
D’autres messages vocaux incluent les voix recréées d’Uziyah Garcia (10 ans), Ethan Song (15 ans), Jaycee Webster (20 ans), Michael Baughan (30 ans) et Akilah Dasilva (23 ans).
« Certains pourraient me juger parce que j’utilise l’intelligence artificielle pour recréer la voix de mon fils assassiné », a déclaré le père de Joaquín, Manuel Oliver, dans une déclaration à la presse. « Jugons les politiciens qui utilisent leur intelligence organique pour ne rien faire pour sauver des vies. »
Au cours des quelques heures qui ont suivi la mise en ligne du site Web, plus de 6 000 appels AI ont été envoyés aux représentants.
Le pivot de l’IA du mouvement pour la réforme des armes à feu s’aligne sur la stratégie continue de March For Our Lives consistant à rencontrer le reste du pays là où il se trouve afin d’adopter une législation de bon sens. Et même si cela remue les eaux les plus troubles en ce qui concerne le rôle de la technologie dans l’activisme social, cela reflète aussi autre chose : le désespoir des défenseurs qui tentent de créer une dynamique et de créer un changement depuis des décennies. Peut-être qu’un tel désespoir est inévitable lorsque les efforts d’une personne se heurtent à des politiciens antagonistes et lents à agir, et à un grand public qui a été plongé dans l’apathie à cause d’atrocités de masse répétées.
« Nous appellerons encore et encore jusqu’à ce que des changements soient apportés », scandent les voix des victimes dans une vidéo annonçant la campagne. « Parce que nos histoires doivent être entendues, et qui de mieux que nous pour les raconter ? »