Google pourrait utiliser des données publiques pour la formation à l’IA, selon une nouvelle politique
L’information publique n’est toujours pas à l’abri de l’IA.
Google peut désormais utiliser des données publiques pour aider à former et à créer des produits d’IA, conformément aux nouvelles modifications de la politique de confidentialité.
Depuis le 1er juillet, la politique nouvellement ajustée du géant de la technologie se lit comme suit : « Google utilise des informations pour améliorer nos services et développer de nouveaux produits, fonctionnalités et technologies qui profitent à nos utilisateurs et au public. Par exemple, nous utilisons des informations accessibles au public pour aider à former les modèles d’IA de Google et à créer des produits et des fonctionnalités comme Google Traduction, Bard et les capacités de Cloud AI. »
Auparavant, la politique indiquait uniquement que les informations accessibles au public pouvaient être utilisées pour aider à former les « modèles linguistiques » de Google et ne mentionnait qu’une seule fois Google Traduction.
Bien que la mise à jour ne modifie pas l’expérience utilisateur ni n’affecte directement les produits Google pour le moment, l’ajustement linguistique indique que l’entreprise se penche davantage sur son offre d’IA et que le comportement de recherche du grand public pourrait être un facteur important dans son développement continu.
Le tweet a peut-être été supprimé
Google a fait allusion à plusieurs entrées dans l’espace de l’IA, y compris les expériences d’achat d’IA, les fonctionnalités de Google Lens et même un générateur de texte en musique.
Alors que le chatbot IA de Google, Bard, a été lancé avec une réponse moins qu’enthousiaste au début, il a rapidement rattrapé les autres chatbots sur le marché. Google a également annoncé une prochaine recherche basée sur l’IA connue sous le nom de Search Generative Experience (SGE) pour compléter sa gamme d’offres d’IA. Ironiquement, la société mère de Google, Alphabet, a averti ses propres employés des risques de sécurité liés à l’utilisation de chatbots le mois dernier, et Google a publié son propre cadre d’IA sécurisé dans le but d’améliorer la cybersécurité autour des menaces d’IA.
De manière générale, les préoccupations concernant la confidentialité, la propriété intellectuelle et l’impact de ces modèles sur le travail humain et la créativité ont entravé l’introduction de nouveaux produits d’IA. Un recours collectif a été intenté contre OpenAIle fabricant du populaire bot AI ChatGPT, le mois dernier, affirmant que la société avait volé « essentiellement toutes les données échangées sur Internet qu’elle pouvait prendre » sans préavis, consentement ou compensation.
Certains en ligne ont écouté la mise à jour de Google sur la controversée ClearView AI, qui a créé une application de reconnaissance faciale de qualité policière en se procurant des milliards d’images faciales à partir de sites de médias sociaux et d’autres plateformes. En 2022, ClearView AI a réglé un procès avec l’ACLU, interdisant à l’entreprise de vendre ou de donner accès à sa base de données de reconnaissance faciale à des entreprises privées et à des particuliers.
Pour l’instant, Google semble avertir de manière préventive les utilisateurs de ses futurs plans d’IA. Sachez simplement que vos recherches peuvent rendre un robot IA plus intelligent.