Les utilisateurs d'Adobe sont indignés des vagues implications de la nouvelle politique en matière d'IA
L’IA observe-t-elle vos travaux en cours ?
Les modifications apportées aux conditions d'utilisation d'Adobe ont semé la confusion et l'indignation des utilisateurs à l'idée que leur travail – même des projets non publiés et en cours – puisse être utilisé pour former des modèles d'IA.
Les utilisateurs de diverses applications Adobe, notamment Photoshop et Substance Painter, ont reçu mercredi une notification contextuelle indiquant « nous pouvons accéder à votre contenu via des méthodes manuelles et automatisées, telles que la révision du contenu ».
Le tweet a peut-être été supprimé
La section mise à jour (qui est entrée en vigueur le 17 février 2024) dans les conditions d'utilisation d'Adobe dit :
« Nos systèmes automatisés peuvent analyser votre contenu et vos polices client Creative Cloud (définies dans la section 3.10 (Polices client Creative Cloud) ci-dessous) à l'aide de techniques telles que l'apprentissage automatique afin d'améliorer nos services et logiciels ainsi que l'expérience utilisateur. »
Le langage est vague. Mais la mention spécifique des « systèmes automatisés » et de l'utilisation de « l'apprentissage automatique afin d'améliorer nos services et logiciels » a immédiatement fait craindre que le travail créatif des utilisateurs ne soit utilisé comme données de formation pour les outils d'IA d'Adobe.
Outre l'implication selon laquelle tout contenu utilisateur servirait à alimenter des données de formation sans crédit ni compensation, il existe un problème spécifique de confidentialité pour les utilisateurs travaillant avec des informations confidentielles. « Je ne peux pas utiliser Photoshop à moins d'accepter que vous ayez un accès complet à tout ce que je crée avec, Y COMPRIS le travail NDA ? » a posté l'artiste @SamSantala sur X.
Le tweet a peut-être été supprimé
Sur une page distincte qui explique comment Adobe utilise l'apprentissage automatique, Adobe indique qu'il n'utilise pas le contenu stocké localement sur votre appareil, mais uniquement le contenu stocké dans Creative Cloud. Sinon, le contenu que les utilisateurs rendent public, tel que les contributions à Adobe Stock, les soumissions à présenter sur Adobe Express et à utiliser comme didacticiels dans Lightroom, sont utilisés pour « former les algorithmes (d'Adobe) et ainsi améliorer (ses) produits et services ».
Le tweet a peut-être été supprimé
De telles utilisations du contenu public sont déjà en place depuis qu'Adobe a lancé son modèle d'IA Firefly, qui génère des images et alimente d'autres fonctionnalités d'IA telles que Generative Fill. Adobe présente Firefly comme étant commercialement sûr, mais a également déclaré que Firefly avait été formé sur des données du domaine public, qui incluent des images générées par l'IA de son concurrent Midjourney – un produit qui, selon les artistes, était le résultat d'une violation du droit d'auteur.
Tout cela pour dire que la collecte de données de formation pour les modèles d'IA est un problème obscur qui rend difficile pour les créatifs et les entreprises de retracer le contenu protégé par le droit d'auteur et d'empêcher les œuvres non autorisées de s'infiltrer dans la formation des modèles. Et cela a miné le déploiement par Adobe de fonctionnalités d'IA prétendument éthiques et mis en péril la confiance des clients.
Le tweet a peut-être été supprimé
Pour être clair, il n'a pas été démontré de manière concluante que le dernier changement de politique d'Adobe expose les utilisateurs à des atteintes à la vie privée, mais les utilisateurs sont naturellement préoccupés par la simple allusion que leur travail privé pourrait être accessible aux modèles d'IA d'Adobe. Les nouvelles conditions d'utilisation ne font aucune mention explicite des données de formation Firefly ou AI, mais la mise à jour indique qu'il peut être nécessaire d'accéder au contenu de l'utilisateur pour « détecter, prévenir ou résoudre d'une autre manière des problèmes de fraude, de sécurité, juridiques ou techniques ». et appliquer ses conditions qui interdisent les contenus illégaux ou abusifs comme les contenus pédopornographiques. Cela peut signifier qu'Adobe cherche à surveiller l'accès au contenu des utilisateurs pour détecter des violations spécifiques.
Mais le langage utilisé, y compris des allusions générales à l'apprentissage automatique pour « améliorer » les outils Adobe, exploite des concepts dont les défenseurs de la vie privée se méfient à juste titre à un moment très sensible.
Indigo Buzz a contacté Adobe pour obtenir des éclaircissements et mettra à jour cette histoire si nous recevons une réponse.