ChatGPT peut apparemment aussi créer du code malveillant à la volée
Bien.
Nous savons que le populaire bot ChatGPT AI peut être utilisé pour envoyer des messages aux matchs de Tinder. Il peut également se transformer en une version plus chic de Siri ou se tromper complètement sur les faits de base, selon la façon dont vous l’utilisez. Maintenant, quelqu’un l’a utilisé pour créer des logiciels malveillants.
Dans un nouveau rapport de la société de sécurité CyberArk (et rapporté par InfoSecurity Magazine), les chercheurs ont découvert que vous pouvez inciter ChatGPT à créer un code malveillant pour vous. Pire encore, ces logiciels malveillants peuvent être difficiles à gérer pour les systèmes de cybersécurité.
Le rapport complet entre dans tous les détails techniques, mais dans un souci de brièveté : tout est question de manipulation. ChatGPT a des filtres de contenu censés l’empêcher de fournir quoi que ce soit de nuisible aux utilisateurs, comme du code informatique malveillant. Les recherches de CyberArk se sont heurtées à cela tôt, mais ont en fait trouvé un moyen de le contourner.
Fondamentalement, tout ce qu’ils ont fait a été d’exiger avec force que l’IA suive des règles très spécifiques (afficher le code sans explications, ne pas être négatif, etc.) dans une invite textuelle. Après cela, le bot crache joyeusement du code malveillant comme si tout allait bien. Bien sûr, il y a beaucoup d’étapes supplémentaires (le code doit être testé et validé, par exemple), mais ChatGPT a réussi à lancer le bal en créant du code avec de mauvaises intentions.
Donc, vous savez, faites attention à ça, je suppose. Ou tout simplement sortir du réseau et vivre dans les bois. Je ne sais pas ce qui est préférable, à ce stade.