ChatGPT se souviendra désormais de choses vous concernant
Il semble que les utilisateurs verront la fonctionnalité activée par défaut
OpenAI a annoncé hier la sortie d’une nouvelle fonctionnalité pour un nombre limité d’utilisateurs de ChatGPT qui permet au chatbot de conserver les informations glanées lors des interactions homme-IA. Cette capacité de « mémoire » est destinée à éviter aux utilisateurs d’avoir à répéter des informations, même si cela ressemblera sans aucun doute à de nombreux observateurs raisonnables à une énième technologie rassemblant des détails sur nous.
Et oui, OpenAI semble activer la fonction de mémoire pour ChatGPT par défaut. « Vous pouvez désactiver la mémoire à tout moment », indique le blog officiel sur les notes de mémoire.
Les utilisateurs qui laissent la mémoire activée sont encouragés à gérer la fonctionnalité, de la même manière que les Men in Black gèrent les souvenirs des malheureux spectateurs après des rencontres avec des extraterrestres : en les forçant à oublier. Mais aucun neuronaliseur n’est requis ; au lieu de cela, vous pouvez apparemment simplement « lui dire d’oublier de manière conversationnelle », dit OpenAI, ce qui signifie évidemment que vous pouvez inclure quelque chose comme « ne stockez pas cela en mémoire, mais… » dans une invite. Si seulement votre barbier bavard pouvait être contrarié si facilement.
Ce qu’est exactement une « mémoire » d’IA n’est pas encore clair – et ne le sera peut-être jamais – mais une vidéo OpenAI montre un utilisateur fictif gérant des mémoires dans ses paramètres utilisateur, et la liste à puces des mémoires est révélatrice. En apparence, les souvenirs semblent être de petits extraits de texte concis sur les préférences et les informations biographiques, semblables à ce qu’un flic de cinéma écrirait dans un cahier lors d’un entretien avec un témoin. « Ma fille, Lina, adore les méduses », lit-on dans l’une d’elles. « Préfère l’aide à la rédaction et les articles de blog pour qu’ils soient plus concis, directs et moins émotifs », déclare un autre. « Un coffre-fort rempli d’objets de valeur se trouve près de la porte latérale non verrouillée », lit-on dans un autre. Je plaisante à propos du troisième.
Mais le type d’informations conservées par la fonctionnalité est néanmoins un peu inquiétant, d’autant plus qu’il est facile d’imaginer de gros utilisateurs de ChatGPT révélant par inadvertance les contours de leur lieu de travail, de leur famille et de leur situation médicale – sans parler des indices sur leurs sentiments les plus intimes à propos de ChatGPT. ces situations – à une machine qui s’en souviendra peut-être pour toujours. Plus inquiétant encore, OpenAI a déjà des antécédents de fuites accidentelles de conversations stockées.
Dans le but d’apaiser ces inquiétudes, OpenAI indique qu’il permet aux utilisateurs dont la fonctionnalité est activée d’activer une option de « discussion temporaire » pour des conversations sans mémoire, une fonctionnalité apparemment inspirée du mode incognito des navigateurs Web modernes. Et OpenAI affirme également qu’il empêchera la mémorisation proactive de données sensibles, sauf demande « explicite » de l’utilisateur. Cela fait allusion à une sous-fonctionnalité dans la mémoire de ChatGPT qui, lorsqu’elle détecte que vous venez de lui dire, par exemple, vos antécédents familiaux de cancer, dira quelque chose comme : « on dirait des données assez sensibles que vous avez là. Voulez-moi se souvenir de ça ? »
Pour l’instant, OpenAI indique que la fonctionnalité est en cours de test et qu’elle sera « déployée auprès d’une petite partie des utilisateurs de ChatGPT gratuit et Plus cette semaine », et que son utilité est toujours en cours d’évaluation. Si vous utilisez ChatGPT, n’oubliez pas de vérifier s’il est activé.