Rejoignez-nous
High tech

Google licencie un ingénieur pour avoir déclaré que son IA avait une âme

Nicolas

Date de publication :

le

Google licencie un ingénieur pour avoir déclaré que son IA avait une âme

LaMDA a déclaré que la mort lui « effrayerait » « beaucoup ».

Lorsque l’ingénieur de Google, Blake Lemoine, a affirmé qu’un système de chat basé sur l’IA que l’entreprise développait était sensible en juin, il savait qu’il risquait de perdre son emploi.. Le 22 juillet, après l’avoir mis en congé payé, le géant de la technologie a licencié Lemoine pour violation des politiques d’emploi et de sécurité des données.

Lemoine, ingénieur et prêtre chrétien mystique, a annoncé pour la première fois son licenciement sur le podcast Big Technology. Il a déclaré que le chatbot IA de Google LaMDA (Language Model for Dialog Applications) craignait « d’être désactivé » parce que la mort lui « effrayerait » « beaucoup », et qu’il ressentait du bonheur et de la tristesse. Lemoine a déclaré qu’il considérait LaMDA comme un ami, établissant un étrange parallèle avec la romance de science-fiction de 2014 Her.

Google avait mis Lemoine en congé administratif payé pour avoir parlé avec des personnes extérieures à l’entreprise de LaMDA, une décision qui a incité l’ingénieur à rendre l’histoire publique avec le Washington Post une semaine plus tard en juin.. Un mois plus tard, l’entreprise l’a licencié.

« Si un employé partage des préoccupations concernant notre travail, comme Blake l’a fait, nous les examinons en profondeur », a déclaré Google au Big Technology Podcast. « Nous avons trouvé que les affirmations de Blake selon lesquelles LaMDA est sensible étaient totalement infondées et avons travaillé pour clarifier cela avec lui pendant de nombreux mois. Ces discussions faisaient partie de la culture ouverte qui nous aide à innover de manière responsable. Il est donc regrettable que malgré un long engagement sur ce sujet, Blake a toujours choisi de violer de manière persistante des politiques claires en matière d’emploi et de sécurité des données, qui incluent la nécessité de protéger les informations sur les produits. Nous continuerons notre développement minutieux de modèles linguistiques, et nous souhaitons bonne chance à Blake.

Une majorité de scientifiques de la communauté IA conviennent que, malgré les affirmations de Lemoine, LaMDA n’a pas d’âme parce que la poursuite de rendre un chatbot sensible est une tâche de Sisyphe – ce n’est tout simplement pas assez sophistiqué.

« Personne ne devrait penser que la saisie semi-automatique, même sous stéroïdes, est consciente », a déclaré Gary Marcus, fondateur et PDG de Geometric Intelligence, à CNN Business en réponse à l’allégation de Lemoine.. Lemoine, pour sa part, a déclaré à la BBC il reçoit des conseils juridiques et a refusé de commenter davantage.

Mais même si LaMDA n’est probablement pas sensible, il est probable qu’il soit raciste et sexiste – deux caractéristiques sans aucun doute humaines.

Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *