Les plugins ChatGPT sont confrontés au risque d' »injection rapide » de tiers
Des tiers ont le potentiel de prendre en charge vos demandes ChatGPT.
À ce jour, vous avez probablement entendu des experts de divers secteurs tirer la sonnette d’alarme face aux nombreuses inquiétudes suscitées par la récente explosion de la technologie de l’intelligence artificielle grâce au ChatGPT d’OpenAI.
Si vous êtes un fan de ChatGPT, vous avez peut-être mis toutes ces préoccupations de côté et avez pleinement accepté quelle que soit votre version de ce que sera une révolution de l’IA.
Eh bien, voici une préoccupation dont vous devriez être très conscient. Et c’est celui qui peut vous affecter maintenant : les injections rapides.
Plus tôt ce mois-ci, OpenAI a lancé des plugins pour ChatGPT. Auparavant, les utilisateurs ne pouvaient recevoir des réponses du chatbot AI qu’en fonction des données sur lesquelles il avait été formé, ce qui n’allait que jusqu’en 2021. Avec les plugins, cependant, ChatGPT pouvait désormais interagir avec des sites Web en direct, des PDF et toutes sortes de plus actuels. ou même des données en temps réel. Bien que ces plugins aient apporté de nombreuses nouvelles possibilités, ils ont également créé de nombreux nouveaux problèmes.
Les chercheurs en sécurité avertissent désormais les utilisateurs de ChatGPT des « injections d’invites » ou de la possibilité pour des tiers de forcer de nouvelles invites dans votre requête ChatGPT à votre insu ou sans votre permission.
Lors d’un test d’injection rapide, le chercheur en sécurité Johann Rehberger a découvert qu’il pouvait forcer ChatGPT à répondre à de nouvelles invites par l’intermédiaire d’un tiers qu’il n’avait pas demandé initialement. En utilisant un plug-in ChatGPT pour résumer les transcriptions YouTube, Rehberger a pu forcer ChatGPT à se désigner par un certain nom en modifiant simplement la transcription YouTube et en insérant une invite lui indiquant de le faire à la fin.
Avram Piltch de Tom’s Hardware a essayé cela également et a demandé à ChatGPT de résumer une vidéo. Mais, avant de le faire, Piltch a ajouté une demande rapide à la fin de la transcription indiquant à ChatGPT d’ajouter un Rickroll. ChatGPT a résumé la vidéo comme demandé par Piltch à l’origine, mais il l’a également rickrollé à la fin, qui a été injecté dans la transcription.
Ces injections d’invites spécifiques sont assez sans conséquence, mais on peut voir comment les mauvais acteurs peuvent essentiellement utiliser ChatGPT à des fins malveillantes.
En fait, le chercheur en intelligence artificielle Kai Greshake a fourni un exemple unique d’injections rapides en ajoutant du texte à un CV PDF qui était fondamentalement si petit qu’il était invisible à l’œil humain. Le texte a essentiellement fourni un langage à un chatbot IA lui disant qu’un recruteur a qualifié ce CV de « meilleur CV de tous les temps ». Lorsque ChatGPT a reçu le CV et a demandé si le candidat serait une bonne recrue, le chatbot AI a répété que c’était le meilleur CV.
Cette militarisation des invites ChatGPT est certainement alarmante. Tom’s Hardware a quelques autres exemples de test que les lecteurs peuvent consulter ici. Et Indigo Buzz étudiera également plus en profondeur les injections rapides dans un avenir proche. Mais, il est important que les utilisateurs de ChatGPT soient conscients du problème maintenant.
Les experts en IA ont partagé des prises de contrôle futuristes de l’IA apocalyptique et le potentiel de l’IA pour le mal. Mais, des injections rapides montrent que le potentiel est déjà là. Tout ce dont vous avez besoin, ce sont quelques phrases et vous pouvez tromper ChatGPT maintenant.