Le créateur d’un faux appel automatisé Biden suspendu du démarrage de la voix AI
Un deepfake audio du président Biden a dit aux électeurs de ne pas voter aux élections primaires du New Hampshire.
Alors que les outils traditionnels d’intelligence artificielle se multiplient à l’approche de l’élection présidentielle américaine de 2024, la désinformation générée par l’IA n’est pas seulement une peur : c’est déjà une réalité. Le 22 janvier, le ministère de la Justice du New Hampshire a publié une déclaration selon laquelle des personnes avaient reçu un enregistrement audio deepfake de Joe Biden, leur disant de ne pas voter aux élections primaires de l’État. L’appel encourageait les électeurs à « sauvegarder » leur vote, notant à tort que « votre vote fait une différence en novembre, pas ce mardi ».
Quelques jours plus tard, la startup d’IA ElevenLabs a suspendu le créateur du faux audio de Biden, a rapporté Bloomberg.
ElevenLabs est un générateur de voix IA géré par un modèle qui, selon son site Web, peut ajouter une inflexion humaine à une voix en fonction du contexte. Le générateur propose des milliers de voix d’IA prédéfinies parmi lesquelles choisir, ou vous pouvez en créer une personnalisée. Bloomberg a rapporté que la société de détection de fraude vocale Pindrop Security Inc. a découvert que l’appel automatisé AI Biden avait été effectué à l’aide d’ElevenLabs.
« Nous nous engageons à prévenir l’utilisation abusive des outils d’IA audio et prenons très au sérieux tout incident d’utilisation abusive », a déclaré ElevenLabs à Bloomberg. Le site Web d’ElevenLabs indique que les deepfakes d’hommes politiques ne peuvent être utilisés que dans certains cas, notamment pour la caricature, la parodie ou la satire. Une fois que la société a été informée du deepfake de Biden, elle a enquêté et suspendu le compte responsable, a déclaré une source à Bloomberg.
Dans une interview avec The Hill, Kathleen Carley, professeur d’informatique à l’Université Carnegie Mellon, a déclaré que l’appel automatisé de Biden était « la pointe de l’iceberg » en termes de tentatives de répression des électeurs. Carley a ajouté que c’est un signe avant-coureur de ce qui pourrait arriver.
Le développeur de ChatGPT, OpenAI, tente déjà de réprimer la désinformation lui-même, en publiant des plans pour protéger l’intégrité des élections. Peu de temps après, la société a suspendu un développeur qui avait créé un robot pour un candidat démocrate de longue date.
C’est pourquoi nous devons être vigilants quant à ce que nous voyons – et entendons – en cette période électorale. Comme l’a prévenu Cecily Mauran, journaliste technique à Indigo Buzz : « L’idée d’un Internet dominé par le contenu généré par l’IA existe déjà et elle n’a pas l’air bonne. »