Il n’a fallu qu’un week-end pour que le nouveau chatbot IA de Meta devienne raciste
Au moins, ce n’est pas sensible.
Juste au moment où vous pensez que la vie en ligne ne peut pas être pire qu’elle ne l’est déjà, Meta intervient pour vous prouver le contraire.
Le nouveau chatbot BlenderBot 3 AI de la société – qui a été lancé aux États-Unis il y a quelques jours à peine le vendredi 5 août – fait déjà une foule de fausses déclarations basées sur des interactions qu’il a eues avec de vrais humains en ligne. Certaines des plus flagrantes parmi celles-ci incluent les affirmations selon lesquelles Donald Trump a remporté l’élection présidentielle américaine de 2020 et est actuellement président, les théories du complot antisémite, ainsi que les commentaires appelant Facebook pour toutes ses « fausses nouvelles ».. » Ceci, bien qu’il appartienne à la société anciennement connue sous le nom de Facebook.
Le BlenderBot 3 de Meta peut rechercher sur Internet pour parler avec des humains de presque tout, contrairement aux versions précédentes du chatbot. Il peut le faire tout en s’appuyant sur les capacités fournies par les versions précédentes du BlenderBotcomme la personnalité, l’empathie, les connaissances et la capacité d’avoir une mémoire à long terme concernant les conversations qu’il a eues.
Les chatbots apprennent à interagir en parlant avec le public. Meta encourage donc les adultes à parler avec le bot afin de l’aider à apprendre à avoir des conversations naturelles sur un large éventail de sujets. Mais cela signifie que le chatbot peut également apprendre la désinformation du public. Selon Bloomberg, il a décrit le PDG de Meta, Mark Zuckerberg, comme « trop effrayant et manipulateur » lors d’une conversation avec un journaliste d’Insider. Il a déclaré à un journaliste du Wall Street Journal que Trump « sera toujours » président et vanté la théorie du complot antisémite selon laquelle il n’était « pas invraisemblable » que les Juifs contrôlent l’économie.
Ce n’est pas la première fois qu’un chatbot est dans l’eau chaude. En juillet, Google a licencié un ingénieur pour avoir déclaré que son chatbot LaMDA était sensible. LaMDA n’est probablement pas sensible, mais elle est assez raciste et sexiste – deux caractéristiques sans aucun doute humaines. Et en 2016, un chatbot Microsoft appelé Tay a été mis hors ligne dans les 48 heures après avoir commencé à faire l’éloge d’Adolf Hitler. (Il s’avère que la loi de Godwin – l’idée idéologique qui soutient que si une discussion se poursuit assez longtemps sur Internet, quelqu’un sera comparé à Hitler – s’applique également aux chatbots.)
Il y a peut-être une chose dans tout cela que BlenderBot 3 a bien compris : Mark Zuckerberg n’est pas digne de confiance.