ChatGPT aurait divulgué des conversations privées de clients de pharmacie
Ne partagez rien de privé avec ChatGPT. Ne le fais pas.
Un autre jour, une autre fuite de données ChatGPT.
Cette fois, il s’agissait d’identifiants de connexion et d’informations personnelles provenant d’un client d’une pharmacie sur un portail de médicaments sur ordonnance. Selon Ars Technica, un utilisateur nommé Chase Whiteside a involontairement reçu ces morceaux de conversation en réponse à une requête sans rapport et les a soumis au site technique.
« Je suis allé faire une requête (dans ce cas, de l’aide pour trouver des noms intelligents pour les couleurs dans une palette) », a écrit Whiteside dans un e-mail. « Lorsque je suis revenu quelques instants plus tard, j’ai remarqué les conversations supplémentaires. »
Les conversations semblent provenir d’un employé frustré qui résout des problèmes avec une application (nom expurgé par Ars Technica) utilisée par la pharmacie. En plus du texte complet dénigrant l’application, la fuite comprenait le nom d’utilisateur, le mot de passe d’un client et le numéro de magasin de l’employé. On ne sait pas si tel est le cas, mais il semble que l’intégralité du ticket de commentaires ait été incluse dans la réponse ChatGPT.
Ce n’est pas la première fois que ChatGPT rencontre des problèmes de sécurité. Les pirates et les chercheurs ont découvert des vulnérabilités qui leur permettent d’extraire des informations sensibles, soit par injection rapide, soit par jailbreak.
En mars dernier, un bug a été découvert qui révélait les informations de paiement des utilisateurs de ChatGPT Plus. Bien qu’OpenAI ait résolu certains problèmes liés aux utilisateurs de ChatGPT, il ne protège pas les informations personnelles ou confidentielles partagées avec ChatGPT. Ce fut le cas lorsque les employés de Samsung utilisant ChatGPT pour aider avec le code ont accidentellement divulgué des secrets d’entreprise, et c’est pourquoi de nombreuses entreprises ont interdit l’utilisation de ChatGPT.
Cela semble être ce qui s’est passé ici, mais OpenAI n’est pas à l’abri. Selon sa politique de confidentialité, les données saisies sont censées être anonymisées et dépourvues de toute information personnelle identifiable. Étant donné que les créateurs eux-mêmes ne peuvent pas toujours identifier ce qui conduit à certains résultats, cette fuite souligne les risques inhérents aux LLM.
Nous le répétons : ne partagez aucune information sensible ou personnelle, surtout si ce ne sont pas les vôtres, avec ChatGPT.