Rejoignez-nous
Divers

Les utilisateurs d'Adobe sont indignés des vagues implications de la nouvelle politique en matière d'IA

Pierre

Date de publication :

le

Les utilisateurs d'Adobe sont indignés des vagues implications de la nouvelle politique en matière d'IA

L’IA observe-t-elle vos travaux en cours ?

Les modifications apportées aux conditions d'utilisation d'Adobe ont semé la confusion et l'indignation des utilisateurs à l'idée que leur travail – même des projets non publiés et en cours – puisse être utilisé pour former des modèles d'IA.

Les utilisateurs de diverses applications Adobe, notamment Photoshop et Substance Painter, ont reçu mercredi une notification contextuelle indiquant « nous pouvons accéder à votre contenu via des méthodes manuelles et automatisées, telles que la révision du contenu ».

La section mise à jour (qui est entrée en vigueur le 17 février 2024) dans les conditions d'utilisation d'Adobe dit :

« Nos systèmes automatisés peuvent analyser votre contenu et vos polices client Creative Cloud (définies dans la section 3.10 (Polices client Creative Cloud) ci-dessous) à l'aide de techniques telles que l'apprentissage automatique afin d'améliorer nos services et logiciels ainsi que l'expérience utilisateur. »

Le langage est vague. Mais la mention spécifique des « systèmes automatisés » et de l'utilisation de « l'apprentissage automatique afin d'améliorer nos services et logiciels » a immédiatement fait craindre que le travail créatif des utilisateurs ne soit utilisé comme données de formation pour les outils d'IA d'Adobe.

Outre l'implication selon laquelle tout contenu utilisateur servirait à alimenter des données de formation sans crédit ni compensation, il existe un problème spécifique de confidentialité pour les utilisateurs travaillant avec des informations confidentielles. « Je ne peux pas utiliser Photoshop à moins d'accepter que vous ayez un accès complet à tout ce que je crée avec, Y COMPRIS le travail NDA ? » a posté l'artiste @SamSantala sur X.

Sur une page distincte qui explique comment Adobe utilise l'apprentissage automatique, Adobe indique qu'il n'utilise pas le contenu stocké localement sur votre appareil, mais uniquement le contenu stocké dans Creative Cloud. Sinon, le contenu que les utilisateurs rendent public, tel que les contributions à Adobe Stock, les soumissions à présenter sur Adobe Express et à utiliser comme didacticiels dans Lightroom, sont utilisés pour « former les algorithmes (d'Adobe) et ainsi améliorer (ses) produits et services ».

De telles utilisations du contenu public sont déjà en place depuis qu'Adobe a lancé son modèle d'IA Firefly, qui génère des images et alimente d'autres fonctionnalités d'IA telles que Generative Fill. Adobe présente Firefly comme étant commercialement sûr, mais a également déclaré que Firefly avait été formé sur des données du domaine public, qui incluent des images générées par l'IA de son concurrent Midjourney – un produit qui, selon les artistes, était le résultat d'une violation du droit d'auteur.

Tout cela pour dire que la collecte de données de formation pour les modèles d'IA est un problème obscur qui rend difficile pour les créatifs et les entreprises de retracer le contenu protégé par le droit d'auteur et d'empêcher les œuvres non autorisées de s'infiltrer dans la formation des modèles. Et cela a miné le déploiement par Adobe de fonctionnalités d'IA prétendument éthiques et mis en péril la confiance des clients.

Pour être clair, il n'a pas été démontré de manière concluante que le dernier changement de politique d'Adobe expose les utilisateurs à des atteintes à la vie privée, mais les utilisateurs sont naturellement préoccupés par la simple allusion que leur travail privé pourrait être accessible aux modèles d'IA d'Adobe. Les nouvelles conditions d'utilisation ne font aucune mention explicite des données de formation Firefly ou AI, mais la mise à jour indique qu'il peut être nécessaire d'accéder au contenu de l'utilisateur pour « détecter, prévenir ou résoudre d'une autre manière des problèmes de fraude, de sécurité, juridiques ou techniques ». et appliquer ses conditions qui interdisent les contenus illégaux ou abusifs comme les contenus pédopornographiques. Cela peut signifier qu'Adobe cherche à surveiller l'accès au contenu des utilisateurs pour détecter des violations spécifiques.

Mais le langage utilisé, y compris des allusions générales à l'apprentissage automatique pour « améliorer » les outils Adobe, exploite des concepts dont les défenseurs de la vie privée se méfient à juste titre à un moment très sensible.

Indigo Buzz a contacté Adobe pour obtenir des éclaircissements et mettra à jour cette histoire si nous recevons une réponse.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !