Rejoignez-nous
Divers

ChatGPT aurait divulgué des conversations privées de clients de pharmacie

Pierre

Date de publication :

le

ChatGPT aurait divulgué des conversations privées de clients de pharmacie

Ne partagez rien de privé avec ChatGPT. Ne le fais pas.

Un autre jour, une autre fuite de données ChatGPT.

Cette fois, il s’agissait d’identifiants de connexion et d’informations personnelles provenant d’un client d’une pharmacie sur un portail de médicaments sur ordonnance. Selon Ars Technica, un utilisateur nommé Chase Whiteside a involontairement reçu ces morceaux de conversation en réponse à une requête sans rapport et les a soumis au site technique.

« Je suis allé faire une requête (dans ce cas, de l’aide pour trouver des noms intelligents pour les couleurs dans une palette) », a écrit Whiteside dans un e-mail. « Lorsque je suis revenu quelques instants plus tard, j’ai remarqué les conversations supplémentaires. »

Les conversations semblent provenir d’un employé frustré qui résout des problèmes avec une application (nom expurgé par Ars Technica) utilisée par la pharmacie. En plus du texte complet dénigrant l’application, la fuite comprenait le nom d’utilisateur, le mot de passe d’un client et le numéro de magasin de l’employé. On ne sait pas si tel est le cas, mais il semble que l’intégralité du ticket de commentaires ait été incluse dans la réponse ChatGPT.

Ce n’est pas la première fois que ChatGPT rencontre des problèmes de sécurité. Les pirates et les chercheurs ont découvert des vulnérabilités qui leur permettent d’extraire des informations sensibles, soit par injection rapide, soit par jailbreak.

En mars dernier, un bug a été découvert qui révélait les informations de paiement des utilisateurs de ChatGPT Plus. Bien qu’OpenAI ait résolu certains problèmes liés aux utilisateurs de ChatGPT, il ne protège pas les informations personnelles ou confidentielles partagées avec ChatGPT. Ce fut le cas lorsque les employés de Samsung utilisant ChatGPT pour aider avec le code ont accidentellement divulgué des secrets d’entreprise, et c’est pourquoi de nombreuses entreprises ont interdit l’utilisation de ChatGPT.

Cela semble être ce qui s’est passé ici, mais OpenAI n’est pas à l’abri. Selon sa politique de confidentialité, les données saisies sont censées être anonymisées et dépourvues de toute information personnelle identifiable. Étant donné que les créateurs eux-mêmes ne peuvent pas toujours identifier ce qui conduit à certains résultats, cette fuite souligne les risques inhérents aux LLM.

Nous le répétons : ne partagez aucune information sensible ou personnelle, surtout si ce ne sont pas les vôtres, avec ChatGPT.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !