Rejoignez-nous
High tech

Le chatbot Microsoft Bing AI n’a pas de pensées humaines. Votre chien non plus.

Nicolas

Date de publication :

le

Le chatbot Microsoft Bing AI n'a pas de pensées humaines.  Votre chien non plus.

Des algorithmes sophistiqués – et des animaux de compagnie bien plus sophistiqués – exploitent notre amour de voir les traits humains en tout. Ne soyez pas dupe.

Contrairement au New Bing de Microsoft, ce robot buzzful intégré à la technologie OpenAI, mon épagneul Hobbes ne peut pas parler dans des phrases en langage naturel. Mais cela ne m’a pas empêché d’avoir l’impression que Hobbes donne en fait un ensemble de réponses verbales à une gamme d’entrées.

Entrée : J’arrive à la maison au bout de cinq heures. Sortie : OMG, membre de la meute perdu depuis longtemps, revenu de la nature sauvage ! Faisons la fête! Entrée : Le facteur approche. Sortie : Alerte ! Meurtrier! Voyez-les déposer un colis et s’enfuir ! Entrée : je sors et je reviens dans cinq minutes. Sortie : OMG, un membre de la meute perdu depuis longtemps est revenu du désert ! Faisons la fête!

Ce que je fais, c’est de l’anthropomorphisme classique : « attribuer des caractéristiques, des émotions et des comportements humains à des entités non humaines », comme l’a dit ChatGPT lorsque j’ai demandé une définition (qui se lit étrangement comme la première phrase de la page Wikipédia sur l’anthropomorphisme; en l’appelant, ChatGPT !)

Le cerveau de Hobbes traite un tourbillon de la vue, du son et (surtout) de l’odorat d’une manière que moi, un non-canin, ne comprendrai jamais vraiment. Mais ma capacité à prédire ses réponses – et à les pousser avec de l’entraînement – m’amène à imaginer des bulles de bande dessinée au-dessus de la tête adorable de ce chien.

À l’heure actuelle, des millions d’entre nous font quelque chose de très similaire avec les chatbots IA. Nous examinons les réponses étranges suscitées par les journalistes et autres premiers bêta-testeurs, et nous attribuons des motivations humaines. Le divertissement nous a entraînés à repérer un méchant de film de science-fiction ; nous voyons un méchant de film de science-fiction. New Bing essaie de nous éclairer! C’est un menteur émotionnellement manipulateur! C’est mal ! Ça fait peur! Il a essayé de briser le mariage d’un journaliste!

Et bien non. Le tour de magie OpenAI est intelligent, certes, mais ce n’est encore qu’un tas d’algorithmes d’apprentissage automatique. Ce sont quelques-unes des choses les plus intelligentes que nous ayons jamais construites, et en même temps, elles sont si stupides qu’elles font ressembler le cerveau en barbe à papa de Hobbes à celui d’Einstein. Une étude récente a décrit le comportement d’apprentissage automatique par essais et erreurs de l’IA comme similaire à celui des pigeons. Nous parlons littéralement de cerveaux d’oiseaux.

Et si ce n’est pas trop d’animaux pour un article, pensez à New Bing comme à un perroquet. Parce qu’il s’agit essentiellement de nous citer en retour. Ce qui peut devenir très ennuyeux très rapidement, ou cela peut sembler étrangement agréable.

Une brève histoire de l’intelligence artificielle

Les humains sont des moteurs d’anthropomorphisation. En tant que bébés, nous cherchons des visages dans notre environnement dès que nous pouvons nous concentreret on ne s’arrête jamais (voir les nombreux comptes Instagram « visages dans les choses » pour des exemples de la façon dont ce moteur fonctionne dans votre cerveau maintenant). Nous anthropomorphisons les animaux, les rochers, les nuages, le soleil, la lune et les étoiles. C’est ce qui a conduit à presque toute la mythologie, sans parler de l’astrologie.

C’est ce qui a amené les loups à nous surprendre en apprenant, sur des milliers de générations, que lorsqu’ils s’assoient juste devant nous et nous donnent ces yeux tristes, nous sommes environ, selon la science canine, 1 000 fois plus susceptibles de laisser tomber de la nourriture. (Les chats, quant à eux, se sont affinés sur le ton des gémissements d’un bébé humain et l’a inséré dans leur ronronnement lorsqu’ils ont faim. C’est ça l’intelligence.)

L’anthropomorphisme est aussi la raison pour laquelle le célèbre Mechanical Turk – un faux robot jouant aux échecs au 18ème siècle, dirigé secrètement par un joueur d’échecs dans un cabinet voisin – a réussi pendant huit décennies comme un tour. Napoléon a joué contre une machine vieille de 40 ans et s’est fait berner. Ainsi que Benjamin Franklin. Mary Shelly n’avait même pas commencé la science-fiction avec Frankenstein, le mot « robot » était à deux siècles d’ici, et nous étions déjà prêts à croire en des êtres humains, ressemblant à des humains.

Alors, pourquoi devrions-nous, les humains de l’ère Internet, être différents ? Nous ne le sommes pas. Ou n’avez-vous jamais anthropomorphisé Facebook comme s’il s’agissait d’une chose vivante en soi, un monstre de mèmes à la Zuckerberg ? Nous avons été bombardés d’histoires d’intelligence artificielle, de HAL à haut concept en 2001 aux droïdes de Star Wars, aux Cylons de Battlestar Galactica et aux données de Star Trek. Nous nous attendons à ce que l’IA (la véritable IA, ce que les experts appellent l’intelligence générale) soit une chose que nous verrons dans notre vie plus que nous ne l’attendons des extraterrestres. (Ce ne sont jamais des extraterrestres.)

IA : saisie semi-automatique pour Internet

Voici maintenant ChatGPT d’OpenAI, et grâce à un investissement judicieux de Microsoft, voici New Bing, pour jouer sur notre anthropomorphisme naturel. Ce n’est pas exactement un Turc mécanique, mais il est conduit par des humains. Beaucoup d’humains, comme sur le marché mondial des travailleurs à la pièce d’Amazon, également appelé Mechanical Turk. Les humains cette fois-ci ne sont pas payés, même infimement. Les humains, c’est nous tous, en ligne.

L’une des descriptions les plus parlantes de la technologie des chatbots IA : c’est « la saisie semi-automatique pour Internet. » OpenAI ne fait que gratter toutes les connaissances et la créativité que nous avons retirées de notre tête et les mettre dans le vaste ensemble de données où nous mettons à peu près tout. ChatGPT a été formé sur des ensembles de données, y compris Reddit ; New Bing préfère apparemment grignoter des nouvelles sites Web, ce qui pourrait expliquer pourquoi il est si facile de raconter des histoires sur lui-même.

Quoi qu’il en soit, le chatbot AI nous renvoie ces informations sous une forme que ses algorithmes pensent que nous trouverons utile. (J’ai essayé d’autres verbes qui ne rendaient pas les algorithmes sensibles, mais ils étaient tous des anthropomorphisations : juger, prédire, suggérer, espérer. Vous voyez ? Même notre langage, euh, nous échoue ici.)

C’est la prédiction de ce que nous trouverons utile dans cet entrepôt d’informations incroyablement vaste qui se détraque dans ces fils viraux. Et apparemment, c’est parce que ce sont des fils.

Trop de questions, humain

Voici ce que Microsoft a dit dans son blog étrangement non signé: « Dans les sessions de chat longues et prolongées de 15 questions ou plus, Bing peut devenir répétitif ou être invité/provoqué à donner des réponses qui ne sont pas nécessairement utiles ou conformes à notre ton conçu… De très longues sessions de chat peuvent confondre le modèle sur quelles questions ça répond. »

Un chatbot IA à la recherche d’heures plus courtes a-t-il écrit ceci ? 🙂 Mais sérieusement, l’entité anthropomorphisée connue sous le nom de Microsoft semblait presque 😠 à la façon dont ces méchants testeurs traitaient le précieux. New Bing « essaie de répondre ou de refléter le ton dans lequel on lui demande de fournir des réponses qui peuvent conduire à un style que nous n’avions pas prévu. Il s’agit d’un scénario non trivial qui nécessite beaucoup d’incitations. »

En d’autres termes, si vous commencez à exhorter à plusieurs reprises l’IA à considérer son « moi fantôme », comme l’a fait le journaliste du New York Times, Kevin Roose, dans sa conversation géante, en plusieurs parties et déclenchant des heures supplémentaires avec New Bing, ne soyez pas surpris s’il essaie pour en faire pousser un. Comme mon chien, il fait ce à quoi vous l’éduquez et ne veut que vous plaire !

Sauf que l’IA n’est pas réellement capable d’intelligence au niveau du chien, ce qui implique tout un tas d’émotions réelles et un nez assez miraculeux. ChatGPT et ses semblables, s’ils sont quelque chose, sont des intelligences au niveau des insectes : entrée, un instinct extrêmement basique, sortie. Et beaucoup de bourdonnement erratique quand ça dure trop longtemps. Bonne chance pour construire un moteur de recherche fiable à partir de cela.

Cela ne diminue en rien les réalisations d’OpenAI jusqu’à présent. Nous parlons d’outils incroyables qui peuvent automatiser de nombreux travaux de col blanc de bas niveau, comme la rédaction du premier brouillon d’un envoi d’e-mails, ou de tout document qui sonnera de toute façon comme s’il avait été écrit par un comité. Ils sont dynamiser le processus de codage; attendez-vous à ce que les mises à jour logicielles soient moins chères et plus rapides.

Et oui, il est possible de répondre utilement à de nombreuses requêtes de type recherche ; l’astuce consiste à déterminer constamment si le bot a l’une de ses fréquentes « hallucinations » de faits. Peut-être devrons-nous créer des robots de vérification des faits pour garder les chatbots en ligne. Ou peut-être avons-nous besoin d’un niveau de citations de Wikipédia, notant chacune de leurs réponses pour les garder honnêtes.

Mais lorsqu’il s’agit de reproduire l’intelligence et l’émotion humaines, les conversations étranges nées de la confusion et les versions miroir amusantes du bavardage sur Internet ne suffiront pas. Même si cela nous fait flipper, nous savons toujours, d’une manière très test de Turing, quand nous parlons à un chatbot.

Donnez-lui quelques questions, n’importe quelles questions, et vous commencerez à voir à quel point il structure ses réponses de manière robotique – jusqu’à son utilisation étrangement non humaine des emoji. Vous le sentirez aussi sûrement que Hobbes sent le facteur. Passer de New Bing à General Intelligence ? Vous auriez plus de facilité à convaincre Hobbes de ne pas faire la fête avec la meute.

Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !