Voici comment OpenAI prévoit de lutter contre la désinformation électorale sur ChatGPT et Dall-E
L’entreprise a détaillé ses efforts dans un nouveau billet de blog.
À l’approche de l’élection présidentielle de 2024, OpenAI sait que sa technologie est sur la sellette. Le Washington Post a surnommé la course de cette année « l’élection de l’IA », et le récent « Rapport sur les risques mondiaux 2024 » du Forum économique mondial a classé la désinformation et la désinformation dérivées de l’IA aux côtés de défis tels que le changement climatique.
Dans un article de blog partagé aujourd’hui, OpenAI a décrit les moyens par lesquels elle entend protéger l’intégrité des élections et gérer les interférences électorales, y compris « les « deepfakes » trompeurs, les opérations d’influence à grande échelle ou les chatbots se faisant passer pour des candidats » sur ses plateformes.
DALL-E Images
Dans son article, OpenAI note qu’« il existe déjà des outils permettant d’améliorer l’exactitude des faits, de réduire les biais et de refuser certaines demandes ». DALL-E, par exemple, peut refuser « les demandes demandant la génération d’images de personnes réelles, y compris des candidats », bien que le billet de blog ne précise pas si ni quand DALL-E prend cette décision.
OpenAI promet également une meilleure transparence autour de l’origine des images et des outils utilisés pour les créer. D’ici le lancement de DALL-E 3 plus tard cette année, la société prévoit de mettre en œuvre une approche de codage d’image qui stockera les détails de la provenance du contenu.
OpenAI teste également un nouvel outil capable de détecter si une image a été générée ou non par DALL·E, même lorsque l’image a été « soumise à des types courants de modifications ».
Discuter du contenu GPT
OpenAI n’annonce rien de très nouveau en ce qui concerne ChatGPT et souligne plutôt ses politiques d’utilisation existantes pour la plateforme et son API.
Ils ne permettent pas actuellement aux gens de créer des applications pour des campagnes politiques et du lobbying, par exemple, ni de créer des chatbots qui prétendent être de vraies personnes, notamment des candidats ou des gouvernements. Il est également contraire aux politiques d’utilisation de ChatGPT de créer des applications « qui dissuadent les gens de participer aux processus démocratiques » ou qui découragent le vote.
Le billet de blog promet que ChatGPT offrira bientôt aux utilisateurs de plus grands niveaux de transparence en donnant accès à des reportages d’actualités mondiales en temps réel comprenant des attributions et des liens. La plateforme améliore également l’accès à des informations de vote faisant autorité en s’associant à l’Association nationale des secrétaires d’État (NASS) et en dirigeant les utilisateurs vers CanIVote.org lorsqu’on leur pose « certaines questions procédurales liées aux élections » comme « où voter ?
Les utilisateurs devraient également être habilités à signaler des violations potentielles lors de l’utilisation de la plateforme, une option disponible sur les « nouveaux GPT » de l’entreprise.
Soyez prudent et faites preuve de jugement à l’approche des élections. Si vous souhaitez en savoir plus sur la façon d’identifier la désinformation électorale, consultez le guide de ProPublica.