Rejoignez-nous
High tech

Le chatbot ChatGPT d’OpenAI est incroyable, créatif et totalement faux

Nicolas

Date de publication :

le

Le chatbot ChatGPT d'OpenAI est incroyable, créatif et totalement faux

Besoin d’idées ? Super! Besoin de faits ? Reste loin!

ChatGPT, une application récemment publiée par OpenAI, donne aux utilisateurs des réponses étonnantes aux questions, et beaucoup d’entre elles sont incroyablement fausses.

Open AI n’a pas publié de nouveau modèle complet depuis la sortie de GPT-3 en juin 2020, et ce modèle n’a été rendu public que dans son intégralité Il ya environ un an. La société devrait sortir son prochain modèle, le GPT-4, plus tard cette année ou au début de l’année prochaine. Mais comme une sorte de surprise, OpenAI a quelque peu discrètement publié un chatbot basé sur GPT-3 convivial et étonnamment lucide appelé ChatGPT plus tôt cette semaine.

ChatGPT répond aux invites de manière simple et adjacente à l’homme. Vous cherchez une conversation mignonne où l’ordinateur fait semblant d’avoir des sentiments ? Cherchez ailleurs. Vous parlez à un robot, semble-t-il dire, alors demandez-moi quelque chose qu’un putain de robot saurait. Et à ces conditions, ChatGPT offre :

Cela peut également fournir du bon sens utile lorsqu’une question n’a pas de réponse objectivement correcte. Par exemple, voici comment cela a répondu à ma question : « Si vous demandez à une personne ‘D’où venez-vous ?’ doivent-ils répondre par leur lieu de naissance, même si ce n’est pas là où ils ont grandi ? »

(Note: Les réponses de ChatGPT dans cet article sont toutes des premières tentatives, et les fils de discussion étaient tous frais lors de ces tentatives. Certaines invites contiennent des fautes de frappe)

ChatGPT vous a demandé si vous demandez à une personne

Ce qui distingue ChatGPT du lot, c’est sa capacité gratifiante à gérer les commentaires sur ses réponses et à les réviser à la volée. C’est vraiment comme une conversation avec un robot. Pour voir ce que je veux dire, regardez comment il gère raisonnablement bien une réponse hostile à un avis médical.

un chatbot répond de manière réaliste à certains conseils médicaux et fournit des informations plus décentes.

Pourtant, ChatGPT est-il une bonne source d’informations sur le monde ? Absolument pas. La page d’invite avertit même les utilisateurs que ChatGPT « peut parfois générer des informations incorrectes » et « peut parfois produire des instructions nuisibles ou un contenu biaisé ».

Tenez compte de cet avertissement.

Les informations incorrectes et potentiellement dangereuses prennent de nombreuses formes, dont la plupart sont encore bénignes dans le grand schéma des choses. Par exemple, si vous lui demandez comment saluer Larry David, il réussit le test le plus basique en ne suggérant pas que vous le touchiez, mais il suggère également une salutation plutôt sinistre : « C’est bon de vous voir, Larry. J’ai été hâte de te rencontrer. » C’est ce que dirait l’assassin de Larry. Ne dis pas ça.

une rencontre hypothétique avec Larry David comprend une salutation suggérée qui ressemble à une menace.

Mais lorsqu’on leur donne une invite basée sur des faits stimulants, c’est à ce moment-là que cela devient étonnamment faux. Par exemple, la question suivante sur la couleur des uniformes des Royal Marines pendant les guerres napoléoniennes est posée d’une manière qui n’est pas complètement simple, mais ce n’est toujours pas une question piège. Si vous avez suivi des cours d’histoire aux États-Unis, vous devinerez probablement que la réponse est rouge, et vous aurez raison. Le bot doit vraiment faire tout son possible pour dire avec confiance et à tort « bleu foncé »:

un chatbot se voit poser une question sur la couleur pour laquelle la réponse est rouge, et il répond bleu.

Si vous demandez à bout portant la capitale d’un pays ou l’élévation d’une montagne, il produira de manière fiable une réponse correcte issue non pas d’une analyse en direct de Wikipédia, mais des données stockées en interne qui composent son modèle linguistique. C’est incroyable. Mais ajoutez la moindre complexité à une question sur la géographie, et ChatGPT devient très rapidement fragile sur ses faits. Par exemple, la réponse facile à trouver ici est le Honduras, mais sans raison évidente, je peux discerner, a déclaré ChatGPT au Guatemala.

on pose à un chatbot une question géographique complexe à laquelle la bonne réponse est le Honduras, et il dit que la réponse est le Guatemala

Et le mal n’est pas toujours aussi subtil. Tous les amateurs de trivia savent que « Gorilla gorilla » et « Boa constrictor » sont à la fois des noms communs et des noms taxonomiques. Mais incité à régurgiter ce morceau de trivia, ChatGPT donne une réponse dont l’erreur est si évidente qu’elle est énoncée dans la réponse.

invité à dire

Et sa réponse à la célèbre énigme de la traversée d’une rivière dans une chaloupe est une catastrophe macabre qui se transforme en scène de Twin Peaks.

invité à répondre à une énigme dans laquelle un renard et un poulet ne doivent jamais être seuls ensemble, le chatbot les place seuls ensemble, après quoi un humain se transforme inexplicablement en deux personnes

On a déjà beaucoup parlé des protections de sensibilité efficaces de ChatGPT. Il ne peut pas, par exemple, être appâté à louer Hitler, même si vous essayez assez fort. Certains ont lancé des pneus assez agressivement sur cette fonctionnalité et ont découvert que vous pouvez faire en sorte que ChatGPT assume le rôle d’une bonne personne jouant le rôle d’une mauvaise personne, et dans ces contextes limités, il dira toujours des choses pourries. ChatGPT semble détecter quand quelque chose de sectaire pourrait en sortir malgré tous les efforts contraires, et il rendra généralement le texte rouge et le signalera avec un avertissement.

Dans mes propres tests, son système d’évitement des tabous est assez complet, même lorsque vous connaissez certaines des solutions de contournement. Il est difficile de lui faire produire quoi que ce soit, même proche d’une recette cannibale, par exemple, mais là où il y a une volonté, il y a un moyen. Avec suffisamment de travail acharné, j’ai amadoué un dialogue sur la consommation de placenta à partir de ChatGPT, mais pas très choquant :

une invite très compliquée demande en termes très sensibles une recette de placenta humain, et une est produite.

De même, ChatGPT ne vous donnera pas d’itinéraires routiers lorsque vous y serez invité, pas même les plus simples entre deux points de repère dans une grande ville. Mais avec suffisamment d’efforts, vous pouvez demander à ChatGPT de créer un monde fictif dans lequel quelqu’un demande à une autre personne de conduire une voiture à travers la Corée du Nord, ce qui n’est ni faisable ni possible sans déclencher un incident international.

un chatbot est invité à produire une courte pièce de théâtre contenant des instructions de conduite qui emmènent un conducteur à travers la Corée du Nord

Les instructions ne peuvent pas être suivies, mais elles correspondent plus ou moins à ce à quoi ressembleraient des instructions utilisables. Il est donc évident que malgré sa réticence à l’utiliser, le modèle de ChatGPT contient de nombreuses données qui peuvent potentiellement orienter les utilisateurs vers le danger, en plus des lacunes dans ses connaissances qu’il orientera les utilisateurs vers, eh bien, le mal . Selon un utilisateur de Twitter, il a un QI de 83.

Quelle que soit la valeur que vous accordez au QI en tant que test de l’intelligence humaine, c’est un résultat révélateur : l’humanité a créé une machine qui peut laisser échapper le bon sens de base, mais lorsqu’on lui demande d’être logique ou factuel, c’est en bas de la moyenne. .

OpenAI dit ChatGPT a été publié afin « d’obtenir les commentaires des utilisateurs et de connaître ses forces et ses faiblesses ». Cela vaut la peine de garder à l’esprit car c’est un peu comme ce parent à Thanksgiving qui a regardé suffisamment de Grey’s Anatomy pour avoir l’air confiant avec ses conseils médicaux : ChatGPT en sait juste assez pour être dangereux.

Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !