OpenAI a interrompu cinq opérations d'influence politique au cours des trois derniers mois
Les acteurs menaçants de Russie, de Chine et d’Israël utilisaient la technologie OpenAI pour leurs opérations politiques.
OpenAI élimine davantage de mauvais acteurs à l'aide de ses modèles d'IA. Et, pour la première fois pour l'entreprise, ils ont identifié et supprimé les comptes russes, chinois et israéliens utilisés dans des opérations d'influence politique.
Selon un nouveau rapport de l'équipe de détection des menaces de la plateforme, la plateforme a découvert et fermé cinq comptes se livrant à des opérations d'influence secrètes, telles que des robots chargés de propagande, des épurateurs de médias sociaux et des générateurs de faux articles.
« OpenAI s'engage à appliquer des politiques qui préviennent les abus et à améliorer la transparence autour du contenu généré par l'IA », a écrit la société. « Cela est particulièrement vrai en ce qui concerne la détection et l'interruption des opérations d'influence secrètes (OI), qui tentent de manipuler l'opinion publique ou d'influencer les résultats politiques sans révéler la véritable identité ou les intentions des acteurs derrière elles. »
Les comptes supprimés incluent ceux à l'origine d'une opération de Telegram russe surnommée « Bad Grammar » et ceux qui facilitent la société israélienne STOIC. Il a été découvert que STOIC utilisait des modèles OpenAI pour générer des articles et des commentaires faisant l'éloge du siège militaire actuel d'Israël, qui ont ensuite été publiés sur les plateformes Meta, X et bien d'autres.
Selon OpenAI, le groupe d'acteurs secrets utilisait une variété d'outils pour « une série de tâches, telles que générer des commentaires courts et des articles plus longs dans diverses langues, créer des noms et des biographies pour des comptes de réseaux sociaux, mener des recherches open source, déboguer du code simple, traduire et relire des textes. »
En février, OpenAI a annoncé avoir fermé plusieurs comptes de « mauvais acteurs étrangers » qui se livraient à un comportement tout aussi suspect, notamment en utilisant les services de traduction et de codage d'OpenAI pour renforcer d'éventuelles cyberattaques. Cet effort a été réalisé en collaboration avec Microsoft Thrat Intelligence.
Alors que les communautés se préparent à une série d’élections mondiales, nombreuses sont celles qui surveillent de près les campagnes de désinformation alimentées par l’IA. Aux États-Unis, des vidéos et des enregistrements audio falsifiés de célébrités, et même de candidats à la présidentielle, ont conduit le gouvernement fédéral à appeler les leaders de la technologie à mettre un terme à leur propagation. Et un rapport du Center for Countering Digital Hate a révélé que, malgré les engagements en matière d’intégrité électorale de nombreux dirigeants de l’IA, le clonage de la voix de l’IA est toujours facilement manipulé par de mauvais acteurs.
Apprenez-en davantage sur la manière dont l’IA pourrait jouer un rôle lors des élections de cette année et sur la manière dont vous pouvez y répondre.