Une « opération d'influence iranienne » aurait utilisé ChatGPT. OpenAI les a détectés.
Le groupe s'appelle Storm-2023
OpenAI, la société à l'origine de ChatGPT, a annoncé vendredi avoir découvert et banni « des comptes liés à une opération d'influence iranienne ». Ces comptes auraient utilisé ChatGPT pour « générer du contenu axé sur plusieurs sujets, notamment la campagne présidentielle américaine », a indiqué OpenAI dans un communiqué.
Le groupe est connu sous le nom de Storm-2035 et, selon Axios, a la réputation de tenter d'influencer les élections en créant de faux sites d'information et en les partageant sur les réseaux sociaux. Le communiqué d'OpenAI indique que le groupe a utilisé ChatGPT pour « générer du contenu axé sur un certain nombre de sujets – y compris des commentaires sur les candidats des deux camps à l'élection présidentielle américaine – qu'il a ensuite partagé via des comptes de réseaux sociaux et des sites Web ».
L'application a généré du contenu sur les candidats des deux principaux partis à la présidence (la vice-présidente Kamala Harris et l'ancien président Donald Trump), ainsi que sur l'invasion de Gaza par Israël, des discussions en espagnol et en anglais sur les droits des communautés latinos aux États-Unis, la politique vénézuélienne et l'indépendance de l'Écosse. Storm-2035 a également créé du contenu sur la mode et la beauté qui, selon OpenAI, est une tentative de « paraître plus authentique » et de « se constituer une audience ».
Cependant, OpenAI a signalé que la tentative n'a pas permis d'obtenir « un engagement significatif du public ».
« La majorité des publications sur les réseaux sociaux que nous avons identifiées ont reçu peu ou pas de mentions « j'aime », de partages ou de commentaires », a déclaré OpenAI. « Nous n'avons pas non plus trouvé d'indications selon lesquelles les articles Web étaient partagés sur les réseaux sociaux. »
« Malgré le manque d’engagement significatif du public résultant de cette opération, nous prenons au sérieux tous les efforts visant à utiliser nos services dans des opérations d’influence étrangères », a déclaré OpenAI.