Samsung interdit ChatGPT et les chatbots AI après une erreur de fuite de données
Le mode navigation privée n’est pas une option.
Samsung a interdit l’utilisation de ChatGPT après que des employés ont révélé par inadvertance des informations sensibles au chatbot.
Selon Bloomberg, une note aux membres du personnel a annoncé la restriction des systèmes d’IA générative sur les appareils appartenant à l’entreprise et les réseaux internes. Les employés de Samsung avaient partagé le code source avec ChatGPT pour vérifier les erreurs et l’utilisaient pour résumer les notes de réunion. « Alors que cet intérêt se concentre sur l’utilité et l’efficacité de ces plates-formes, il existe également des inquiétudes croissantes concernant les risques de sécurité présentés par l’IA générative », indique le mémo. Les informations partagées avec ChatGPT sont stockées sur les serveurs d’OpenAI et peuvent être utilisées pour améliorer le modèle, sauf si les utilisateurs se désengagent.
La fuite Samsung ChatGPT a souligné les risques liés au partage d’informations personnelles et professionnelles avec des chatbots IA. ChatGPT est présenté comme un outil de productivité permettant d’accomplir des tâches rapidement et efficacement.
Mais cela crée un problème de confidentialité si les travailleurs partagent des informations confidentielles. Des institutions financières comme JPMorganBank of America et Citigroup ont également interdit ou restreint ChatGPT pour cette raison. ChatGPT a été temporairement interdit en Italie jusqu’à la mise en œuvre d’OpenAI un moyen plus clair de refuser le partage de données et les restrictions d’âge pour les utilisateurs de moins de 13 ans ou de moins de 18 ans avec l’autorisation parentale.
Récemment, OpenAI a également lancé un « mode incognito » qui permet aux utilisateurs de désactiver leur historique de chat. OpenAI a également annoncé qu’il travaillait sur une version ChatGPT pour les entreprises qui ne partageraient pas les données de chat par défaut.