Rejoignez-nous
Divers

Les nouvelles règles électorales d’OpenAI sont déjà mises à l’épreuve

Pierre

Date de publication :

le

Les nouvelles règles électorales d'OpenAI sont déjà mises à l'épreuve

OpenAI a supprimé un chatbot suscitant l’intérêt pour un candidat démocrate de longue date.

À quelques mois des élections de 2024 et moins d’une semaine après que le plus grand nom d’IA se soit engagé à contribuer au maintien d’un processus démocratique équitable, les développeurs testent ces promesses.

Le 20 janvier, selon le Washington Post, OpenAI a interdit l’équipe derrière Dean.Bot, un chatbot alimenté par ChatGPT destiné à susciter l’intérêt pour le candidat démocrate de longue date du représentant du New Hampshire, Dean Phillips. La société a évoqué le non-respect de ses directives d’utilisation, écrivant au Washington Post : « Quiconque construit avec nos outils doit suivre nos politiques d’utilisation. Nous avons récemment supprimé un compte de développeur qui violait sciemment nos politiques d’utilisation de l’API qui interdisent les campagnes politiques. , ou usurper l’identité d’un individu sans son consentement. »

Le bot – qui a été supprimé peu de temps après que la publication ait publié un article sur son lancement, mais pas avant que les développeurs aient essayé de le maintenir avec d’autres API – a été créé par Delphi, une startup d’IA commandée par un Super PAC relativement nouveau connu sous le nom de We Deserve Better. fondée par les entrepreneurs de la Silicon Valley Matt Krisiloff et Jed Somer.

Le robot a permis aux électeurs potentiels de « converser » avec Phillips et d’entendre ses messages de campagne. L’échange initial a été déclenché par un avertissement à l’écran indiquant que le robot n’était pas réel et faisait partie de We Deserve Better. Le site Web alerte désormais les visiteurs avec un message hors service : « Désolé, DeanBot est actuellement en campagne ! »

La suppression du robot est l’un des premiers retraits publics depuis qu’OpenAI a publié de nouveaux engagements pour la saison électorale, faisant allusion à un effort immédiat visant à limiter les informations de campagne en utilisant la technologie d’OpenAI dès qu’elle est rendue publique.

Le 16 janvier, l’entreprise a partagé son plan complet pour répondre à la place de l’IA lors de l’élection présidentielle de cette année – ce que certains qualifient de point d’éclair politique et technologique dans la bataille contre la désinformation sur l’IA. OpenAI a annoncé de nouvelles politiques d’utilisation et de nouveaux engagements visant à favoriser l’intégrité des élections, notamment :

  • Une plus grande transparence sur l’origine des images et les outils utilisés pour les créer, y compris l’utilisation de DALL-E.

  • Mises à jour des sources d’actualités de ChatGPT et inclusion d’attributions et de liens dans les réponses.

  • Un partenariat avec l’Association nationale des secrétaires d’État (NASS) pour intégrer des informations de vote précises dans certaines questions de procédure.

OpenAI a déjà mis en place une politique interdisant aux développeurs de créer des applications à des fins de campagne politique et de lobbying ou de créer des chatbots usurpant l’identité de personnes réelles, y compris des candidats ou des entités gouvernementales. La société interdit également les applications qui « dissuadent les gens de participer aux processus démocratiques », telles que des informations de vote ou d’éligibilité inexactes.

Les élections à venir ont suscité une inquiétude encore plus grande quant au rôle de la technologie dans le partage d’informations et la galvanisation des blocs électoraux, et l’IA s’est imposée comme une zone grise imminente dans les directives de nombreuses sociétés de médias sociaux. De nombreux organismes de surveillance et défenseurs (ainsi que la FCC) s’inquiètent du potentiel du clonage vocal de l’IA, d’autres tirent toujours la sonnette d’alarme sur les deepfakes de plus en plus affectifs.

En décembre, deux organisations à but non lucratif ont publié un rapport démontrant que le chatbot IA de Microsoft, Copilot, n’avait pas réussi à fournir des informations électorales précises et à diffuser des informations erronées.

En réponse, certains choisissent d’élaborer des politiques plus solides pour les campagnes politiques, comme celles annoncées par Google et Meta l’année dernière. Mais la suppression totale du contenu et les répercussions du contenu généré par l’IA sur des consommateurs déjà sensibles dans un contexte de détérioration de l’éducation aux médias restent un point de discorde.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *