Rejoignez-nous
High tech

La voix étonnamment humaine de ChatGPT a un coût humain

Nicolas

Date de publication :

le

La voix étonnamment humaine de ChatGPT a un coût humain

Cela va bien au-delà du plagiat.

Le chatbot OpenAI populaire et étrangement humain ChatGPT a été construit sur le dos d’employés sous-payés et psychologiquement exploités, selon une nouvelle enquête de TIME.

Une équipe d’étiquetage des données basée au Kenya, dirigée par la société de San Francisco Samaaurait non seulement été payé des salaires scandaleusement bas pour travailler pour une entreprise qui pourrait être sur la bonne voie pour recevoir un investissement de 10 milliards de dollars de Microsoft, mais aurait également été soumis à un contenu sexuel graphique dérangeant afin de nettoyer ChatGPT des discours de haine dangereux et de la violence.

À partir de novembre 2021, OpenAI a envoyé des dizaines de milliers d’échantillons de texte aux employés, qui ont été chargés de passer au peigne fin les passages à la recherche d’exemples d’abus sexuels sur des enfants, de bestialité, de meurtre, de suicide, de torture, d’automutilation et d’inceste, a rapporté TIME. Les membres de l’équipe ont dit avoir à lire des centaines de ces types d’entrées par jour ; pour des salaires horaires allant de 1 $ à 2 $ de l’heure, soit un salaire mensuel de 170 $, certains employés estimaient que leur travail était « mentalement cicatrisant » et une certaine forme de « torture ».

Les employés de Sama se seraient vu proposer des séances de bien-être avec des conseillers, ainsi qu’une thérapie individuelle et de groupe, mais plusieurs employés interrogés ont déclaré que la réalité des soins de santé mentale dans l’entreprise était décevante et inaccessible. L’entreprise a répondu qu’elle prenait au sérieux la santé mentale de ses employés.

L’enquête TIME a également découvert que le même groupe d’employés s’était vu confier un travail supplémentaire pour compiler et étiqueter un immense ensemble d’images graphiques – et ce qui semblait de plus en plus illégal – pour un projet OpenAI non divulgué. Sama a mis fin à son contrat avec OpenAI en février 2022. En décembre, ChatGPT balayerait Internet et prendrait le contrôle des salles de chat alors que la prochaine vague d’intelligence artificielle innovante parlerait.

Au moment de son lancement, ChatGPT était connu pour avoir mis en place un système d’évitement étonnamment complet, qui a largement empêché les utilisateurs d’inciter l’IA à dire des phrases racistes, violentes ou inappropriées. Il a également signalé le texte qu’il jugeait sectaire dans le chat lui-même, le rendant rouge et fournissant un avertissement à l’utilisateur.

La complexité éthique de l’IA

Bien que les nouvelles de la main-d’œuvre cachée d’OpenAI soient déconcertantes, ce n’est pas tout à fait surprenant car l’éthique de la modération de contenu basée sur l’homme n’est pas un nouveau débat, en particulier dans les espaces de médias sociaux jouant avec les frontières entre la publication gratuite et la protection de ses bases d’utilisateurs. En 2021, le New York Times a rendu compte de l’externalisation de la modération des publications par Facebook à une société de comptabilité et d’étiquetage connue sous le nom d’Accenture.. Les deux sociétés ont sous-traité la modération à des populations d’employés du monde entier et devaient plus tard faire face à une retombée massive d’une main-d’œuvre psychologiquement non préparée au travail. Facebook a versé un règlement de 52 millions de dollars aux travailleurs traumatisés en 2020.

La modération de contenu est même devenue le sujet d’horreur psychologique et de médias technologiques post-apocalyptiques, comme le thriller de 2022 de l’auteure néerlandaise Hanna Bervoets We Had to Remove This Post, qui relate la dépression mentale et les troubles juridiques d’un agent d’assurance qualité d’une entreprise. Pour ces personnages et les vraies personnes derrière le travail, les perversions d’un avenir basé sur la technologie et Internet sont un traumatisme durable.

La prise de contrôle rapide de ChatGPT, et la vague successive de générateurs d’art IA, posent plusieurs questions à un grand public de plus en plus disposé à confier ses données, ses interactions sociales et amoureuses, voire sa création culturelle à la tech. Pouvons-nous compter sur l’intelligence artificielle pour fournir des informations et des services réels ? Quelles sont les implications académiques de l’IA textuelle qui peut répondre aux commentaires en temps réel ? Est-il contraire à l’éthique d’utiliser le travail d’artistes pour créer un nouvel art dans le monde informatique ?

Les réponses à ces questions sont à la fois évidentes et moralement complexes. Les chats ne sont pas des référentiels de connaissances précises ou d’idées originales, mais ils offrent un exercice socratique intéressant. Ils élargissent rapidement les possibilités de plagiat, mais de nombreux universitaires sont intrigués par leur potentiel en tant qu’outils d’incitation à la création. L’exploitation des artistes et de leur propriété intellectuelle est un problème croissant, mais peut-il être contourné pour l’instant, au nom de la soi-disant innovation ? Comment les créateurs peuvent-ils intégrer la sécurité dans ces avancées technologiques sans risquer la santé de vraies personnes dans les coulisses ?

Une chose est claire : l’essor rapide de l’IA en tant que prochaine frontière technologique continue de poser de nouveaux dilemmes éthiques sur la création et l’application d’outils reproduisant l’interaction humaine à un coût humain réel.

Si vous avez été victime d’abus sexuels, appelez la ligne d’assistance téléphonique nationale gratuite et confidentielle sur les agressions sexuelles au 1-800-656-HOPE (4673), ou accédez à l’aide en ligne 24 heures sur 24 et 7 jours sur 7 en visitant online.rainn.org.

Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *