Le nouveau générateur vidéo IA de Google est génial, mais qu’en est-il des deepfakes ?
De meilleurs modèles de diffusion de l’IA signifient également un potentiel de meilleurs deepfakes.
Le nouveau générateur vidéo IA de Google est le plus avancé à ce jour – et cela pourrait conduire à une augmentation du nombre de deepfakes plus convaincants.
Google Research vient de dévoiler Lumiere, un générateur vidéo IA capable de créer des vidéos photoréalistes de cinq secondes à partir de simples invites textuelles. Ce qui le rend si avancé, selon le document de recherche, est une « architecture espace-temps U-Net » qui « génère toute la durée temporelle de la vidéo en une seule fois, via un seul passage dans le modèle ».
Les modèles d’IA précédents créaient des vidéos en générant des images individuelles, image par image.
Lumiere permettra en théorie aux utilisateurs de créer et d’éditer plus facilement des vidéos sans expertise technique. Des invites telles que « Panda jouant du ukulélé à la maison » ou « Coucher de soleil accéléré sur la plage » génèrent des vidéos photoréalistes détaillées. Il peut également générer des vidéos basées sur le style d’une seule image, comme une aquarelle de fleurs réalisée par un enfant.
Les capacités d’édition sont là où ça devient fou. Lumiere peut animer des parties ciblées d’une image et remplir les zones vides des invites d’image avec « l’inpainting vidéo ». Il peut même éditer des parties spécifiques de la vidéo à l’aide d’invites de texte de suivi, comme changer la robe d’une femme ou ajouter des accessoires aux vidéos de hiboux et de poussins.
« Notre objectif principal… est de permettre aux utilisateurs novices de générer du contenu visuel », conclut le document. « Cependant, il existe un risque d’utilisation abusive de notre technologie pour créer du contenu faux ou nuisible, et nous pensons qu’il est crucial de développer et d’appliquer des outils pour détecter les biais et les cas d’utilisation malveillants afin de garantir une utilisation sûre et équitable. »
Ce que le document ne mentionne pas, ce sont les outils que Google a déjà développés et soi-disant mis en place.
Lors du Google I/O en mai dernier, l’entreprise a mis ses mesures de sécurité et de responsabilité au premier plan. Google DeepMind a lancé une version bêta d’un outil de filigrane d’IA appelé SynthID en août, et en novembre, YouTube (propriété de Google) a annoncé une politique obligeant les utilisateurs à divulguer si les vidéos ont été générées par l’IA.
Lumiere n’est qu’une recherche à ce stade, et il n’y a aucune mention de comment ou quand il pourrait être utilisé comme outil destiné aux consommateurs. Mais pour une entreprise qui prétend « être audacieux en matière d’IA signifie être responsable dès le départ » – en supposant que le début inclut la recherche – il s’agit d’une omission surprenante de la part de l’équipe Lumière.
Google n’a pas encore répondu à une demande de commentaire.