Rejoignez-nous
High tech

Microsoft enregistre peut-être vos conversations Bing Chat

Pierre

Date de publication :

le

Microsoft enregistre peut-être vos conversations Bing Chat

Ouais.

Uh-oh – Microsoft stocke peut-être des informations à partir de vos discussions Bing.

C’est probablement très bien tant que vous n’avez jamais discuté de quoi que ce soit que vous ne voudriez pas que quelqu’un d’autre lise, ou si vous pensiez que vos discussions Bing seraient supprimées, ou si vous pensiez que vous aviez plus d’intimité que vous n’en avez réellement.

Dans ses conditions de service, Microsoft a mis à jour de nouvelles politiques d’IA. Introduite le 30 juillet et entrée en vigueur le 30 septembre, la politique stipulait : « Dans le cadre de la fourniture des services d’intelligence artificielle, Microsoft traitera et stockera vos entrées dans le service ainsi que la sortie du service, à des fins de surveillance et empêchant les utilisations ou les sorties abusives ou nuisibles du service. »

Selon la lecture par le registre d’une nouvelle clause « AI Services » dans les conditions d’utilisation de Microsoft, Microsoft peut stocker vos conversations avec Bing si vous n’êtes pas un utilisateur d’entreprise – et nous ne savons pas pendant combien de temps.

Microsoft n’a pas immédiatement répondu à une demande de commentaire de Indigo Buzz, et un porte-parole de Microsoft a refusé de commenter le registre sur la durée de stockage des entrées des utilisateurs.

« Nous mettons régulièrement à jour nos conditions d’utilisation afin de mieux refléter nos produits et services », a déclaré un représentant dans un communiqué au registre. « Notre mise à jour la plus récente du contrat de services Microsoft inclut l’ajout d’un langage pour refléter l’intelligence artificielle dans nos services et son utilisation appropriée par les clients. »

Au-delà du stockage des données, il y avait quatre politiques supplémentaires dans la nouvelle clause AI Services. Les utilisateurs ne peuvent pas utiliser le service AI pour « découvrir les composants sous-jacents des modèles, algorithmes et systèmes ». Les utilisateurs ne sont pas autorisés à extraire des données des services d’IA. Les utilisateurs ne peuvent pas utiliser les services d’IA pour « créer, former ou améliorer (directement ou indirectement) tout autre service d’IA ». Et enfin, les utilisateurs sont « seuls responsables de répondre à toute réclamation de tiers concernant votre utilisation des services d’IA conformément aux lois applicables (y compris, mais sans s’y limiter, la violation du droit d’auteur ou d’autres réclamations relatives à la sortie de contenu pendant votre utilisation du services d’IA). »

Soyez donc peut-être un peu plus prudent lorsque vous utilisez les chats Microsoft Bing ou passez en mode Bing Enterprise Chat – Microsoft a déclaré en juillet qu’il ne sauvegardait pas ces conversations.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !