Rejoignez-nous
High tech

Ce qu’il ne faut pas partager avec ChatGPT si vous l’utilisez pour le travail

Pierre

Date de publication :

le

Ce qu'il ne faut pas partager avec ChatGPT si vous l'utilisez pour le travail

TL;DR : Beaucoup de choses.

La question n’est plus « Que peut faire ChatGPT ? » C’est « Que dois-je partager avec lui ? »

Les internautes sont généralement conscients des risques d’éventuelles violations de données et de la manière dont nos informations personnelles sont utilisées en ligne. Mais les capacités séduisantes de ChatGPT semblent avoir créé un angle mort autour des dangers que nous prenons normalement des précautions pour éviter. OpenAI n’a annoncé que récemment une nouvelle fonctionnalité de confidentialité qui permet aux utilisateurs de ChatGPT de désactiver l’historique des discussions, empêchant ainsi l’utilisation des conversations pour améliorer et affiner le modèle.

« C’est un pas dans la bonne direction », a déclaré Nader Henein, vice-président de la recherche sur la confidentialité chez Gartner, qui possède deux décennies d’expérience dans la cybersécurité d’entreprise et la protection des données. « Mais le problème fondamental avec la confidentialité et l’IA est que vous ne pouvez pas faire grand-chose en termes de gouvernance rétroactive après la construction du modèle. »

Henein dit de penser à ChatGPT comme à un étranger affable assis derrière vous dans le bus qui vous enregistre avec un téléphone avec appareil photo. « Ils ont une voix très gentille, ils ont l’air de gens sympas. Iriez-vous alors avoir la même conversation avec ça ? Parce que c’est ce que c’est. » Il a poursuivi : « C’est bien intentionné, mais si ça te fait mal, c’est comme un sociopathe, ils n’y penseront pas deux fois. »

Même le PDG d’OpenAI, Sam Altman, a reconnu les risques de s’appuyer sur ChatGPT. « C’est une erreur de s’y fier pour quoi que ce soit d’important en ce moment. Nous avons beaucoup de travail à faire sur la robustesse et la véracité », a-t-il déclaré. tweeté en décembre 2022.

Essentiellement, traitez les invites ChatGPT comme vous le feriez pour tout ce que vous publiez en ligne. « La meilleure hypothèse est que n’importe qui dans le monde peut lire tout ce que vous mettez sur Internet – e-mails, médias sociaux, blogs, LLM – ne publiez jamais rien que vous ne vouliez pas que quelqu’un d’autre lise », a déclaré Gary Smith, professeur Fletcher Jones. d’économie au Pomona College et auteur de Distrust: Big Data, Data-Torturing, and the Assault on Science. ChatGPT peut être utilisé comme une alternative à la recherche Google ou à Wikipédia, tant qu’il est vérifié, a-t-il déclaré. Mais il ne faut pas s’y fier pour grand-chose d’autre.

L’essentiel est qu’il existe toujours des risques, rendus encore plus précaires en raison de l’attrait de ChatGPT. Que vous utilisiez ChatGPT dans votre vie personnelle ou pour augmenter la productivité de votre travail, considérez ceci comme un rappel amical pour réfléchir à deux fois à ce que vous partagez avec ChatGPT.

Comprendre les risques liés à l’utilisation de ChatGPT

Voyons d’abord ce qu’OpenAI dit aux utilisateurs sur la façon dont ils utilisent leurs données. Les priorités de confidentialité de tout le monde ne sont pas les mêmes, mais il est important de connaître les petits caractères pour la prochaine fois que vous ouvrirez ChatGPT.

1. Les pirates pourraient infiltrer l’application super populaire

Tout d’abord, il y a la possibilité que quelqu’un en dehors d’OpenAI pirate et vole vos données. Il existe toujours un risque inhérent d’exposition des données à des bogues et à des pirates lors de l’utilisation d’un service tiers, et ChatGPT ne fait pas exception. En mars 2023, un bogue ChatGPT a été découvert pour avoir exposé les titres, le premier message de nouvelles conversations et les informations de paiement des utilisateurs de ChatGPT Plus.

« Toutes ces informations que vous y introduisez sont très problématiques, car il y a de fortes chances qu’elles soient sensibles aux attaques d’apprentissage automatique. C’est le numéro un », a déclaré Henein. « Numéro deux, c’est probablement assis en texte clair quelque part dans le journal. Que quelqu’un va le regarder ou non, je ne sais pas, vous non plus. C’est le problème. »

2. Vos conversations sont stockées quelque part sur un serveur

Bien que cela soit peu probable, certains employés d’OpenAI ont accès au contenu des utilisateurs. Sur la page FAQ de ChatGPT, OpenAI indique que le contenu des utilisateurs est stocké sur ses systèmes et sur d’autres « systèmes de fournisseurs de services de confiance aux États-Unis ». Ainsi, alors qu’OpenAI supprime les informations personnelles identifiables, avant qu’elles ne soient « anonymisées », elles existent sous forme brute sur ses serveurs. Certains membres du personnel autorisés d’OpenAI ont accès au contenu des utilisateurs pour quatre raisons explicites : l’une d’entre elles étant de « peaufiner » leurs modèles, à moins que les utilisateurs ne se désengagent.

3. Vos conversations sont utilisées pour former le modèle (sauf si vous vous désabonnez)

Nous reviendrons sur la désactivation plus tard, mais à moins que vous ne le fassiez, vos conversations sont utilisées pour former ChatGPT. Selon sa politique d’utilisation des données, qui est dispersée dans plusieurs articles différents sur son site, OpenAI dit, « nous pouvons utiliser les données que vous nous fournissez pour améliorer nos modèles. » Sur une autre page, OpenAI indique qu’il peut « agréger ou anonymiser des informations personnelles et utiliser les informations agrégées pour analyser l’efficacité de nos services ». Cela signifie que, théoriquement, le public peut prendre connaissance de quelque chose comme un secret d’affaires via tout ce que le modèle « apprend ».

Auparavant, les utilisateurs ne pouvaient refuser de partager leurs données avec le modèle que via un formulaire Google lié à la page FAQ. Maintenant, OpenAI a introduit un moyen plus explicite de désactiver le partage de données sous la forme d’un paramètre de basculement dans votre compte ChatGPT. Mais même avec ce nouveau « mode incognito », les conversations sont stockées sur le serveur d’OpenAI pendant 30 jours. Cependant, la société a relativement peu de choses à dire sur la manière dont elle protège vos données.

4. Vos données ne seront pas vendues à des tiers, déclare l’entreprise

OpenAI dit qu’il ne partage pas les données des utilisateurs avec des tiers à des fins de marketing ou de publicité, c’est donc une chose de moins dont vous devez vous soucier. Mais il partage les données des utilisateurs avec les vendeurs et les prestataires de services pour la maintenance et l’exploitation du site.

Que peut-il se passer si vous utilisez ChatGPT au travail ?

ChatGPT et les outils d’IA générative ont été présentés comme le hack de productivité ultime. ChatGPT peut rédiger des articles, des e-mails, des publications sur les réseaux sociaux et des résumés de longs morceaux de texte. « Il n’y a pas d’exemple auquel vous pouvez penser qui n’ait pas été fait », a déclaré Henein.

Mais lorsque les employés de Samsung ont utilisé ChatGPT pour vérifier leur code, ils ont révélé par inadvertance des secrets commerciaux. La société d’électronique a depuis interdit l’utilisation de ChatGPT et menacé les employés de mesures disciplinaires s’ils ne respectaient pas les nouvelles restrictions. Des institutions financières comme JPMorganBanque d’Amériqueet Citigroup ont également interdit ou restreint l’utilisation de ChatGPT en raison de réglementations financières strictes concernant la messagerie de tiers. Apple a également interdit aux employés d’utiliser le chatbot.

La tentation de réduire le travail banal en quelques secondes semble éclipser le fait que les utilisateurs publient essentiellement ces informations en ligne. « Vous y pensez de la même manière que vous pensez à une calculatrice, vous y pensez comme Excel », a-t-il déclaré. « Vous ne pensez pas que ces informations vont dans le cloud et qu’elles y resteront à perpétuité, soit dans un journal quelque part, soit dans le modèle lui-même. »

Donc, si vous souhaitez utiliser ChatGPT au travail pour décomposer des concepts que vous ne comprenez pas, rédiger une copie ou analyser des données accessibles au public, et qu’il n’y a aucune règle contre cela, procédez avec prudence. Mais soyez très prudent avant de lui demander, par exemple, d’évaluer le code du système de guidage de missile top secret sur lequel vous travaillez, ou de lui faire écrire un résumé de la rencontre de votre patron avec un espion d’entreprise intégré dans une entreprise concurrente. Cela pourrait vous coûter votre travail, ou pire.

Que se passe-t-il si vous utilisez ChatGPT en tant que thérapeute ?

Un sondage menée par la société de technologie de la santé Tebra a révélé qu’un Américain sur quatre est plus susceptible de parler à un chatbot d’IA que de suivre une thérapie. Des cas ont déjà surgi de personnes utilisant ChatGPT comme forme de thérapieou chercher aide pour toxicomanie. Ces exemples ont été partagés comme des cas d’utilisation passionnants montrant comment ChatGPT peut être un partenaire de conversation utile, sans jugement et anonyme. Mais vos admissions les plus profondes et les plus sombres sont stockées quelque part sur un serveur.

Les gens ont tendance à penser que leurs sessions ChatGPT sont comme un « jardin clos », a déclaré Henein. « À la fin, lorsque je me déconnecte, tout ce qui se trouve à l’intérieur de cette (session) se déverse dans les toilettes, et c’est la fin de la conversation. Mais ce n’est pas le cas. »

Si vous êtes une personne sur Internet, vos données personnelles sont déjà partout. Mais pas le support conversationnel ChatGPT où vous pourriez vous sentir obligé de divulguer des pensées intimes et personnelles. « Les LLM sont une illusion – une illusion puissante, mais toujours une illusion qui rappelle le programme informatique Eliza que Joseph Weizenbaum a créé dans les années 1960 », a déclaré Smith.

Smith fait référence à « l’effet Eliza », ou à la tendance humaine à anthropomorphiser les choses inanimées. « Même si les utilisateurs savaient qu’ils interagissaient avec un programme informatique, beaucoup étaient convaincus que le programme avait une intelligence et des émotions humaines et étaient heureux de partager leurs sentiments les plus profonds et les secrets les plus intimement gardés. »

Donc, compte tenu de la façon dont OpenAI stocke vos conversations, essayez de ne pas vous laisser berner par l’illusion qu’il s’agit d’un assistant de santé mentale et de laisser échapper vos pensées les plus intimes, à moins que vous ne soyez prêt à diffuser vos pensées les plus intimes au monde.

Comment protéger vos données sur ChatGPT

Il existe un moyen de passer incognito lors de l’utilisation de ChatGPT. Cela signifie que vos conversations sont toujours stockées pendant 30 jours, mais elles ne seront pas utilisées pour former le modèle. En accédant au nom de votre compte, vous pouvez ouvrir les paramètres, puis cliquer sur « Contrôles des données ». De là, vous pouvez désactiver « Historique des discussions et formation ». Vous pouvez également effacer les conversations passées en cliquant sur « Général », puis sur « Effacer toutes les discussions ».

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *