ChatGPT a paniqué, générant du charabia pour de nombreux utilisateurs
ChatGPT a déclaré qu’il souffrait peut-être de «débuts confus», de «cécité des parties affectées» et de «perplexité plus élevée alimentée dans les modules», quoi que cela signifie.
ChatGPT hallucine. Nous le savons tous déjà. Mais mardi, il semblait que quelqu’un avait glissé sur une peau de banane au siège d’OpenAI et avait activé un nouveau chatbot expérimental amusant appelé Synonym Scrambler.
Le tweet a peut-être été supprimé
En fait, ChatGPT a paniqué à bien des égards hier, mais un thème récurrent était qu’il serait posé par une question normale – généralement quelque chose impliquant le secteur technologique ou le travail de l’utilisateur – et répondrait par quelque chose de fleuri au point d’être inintelligible. Par exemple, selon un post X de l’architecte Sean McGuire, le chatbot lui a conseillé à un moment donné de s’assurer que « les coffres-forts sesquipédaliens sont dotés de clés croisées et que le cri du consul depuis le nid de pie est accueilli par des lièvres béatines et méfiants qui se tournent et à treuil dans le saule.
Le tweet a peut-être été supprimé
Ce sont des mots, mais ChatGPT semble avoir écrit dans une version extrême de ce style où un élève de neuvième abuse de ses privilèges de thésaurus. « Beatine » en est un exemple particulièrement parlant. J’ai vérifié l’intégralité de l’Oxford English Dictionary et il n’y est pas, mais Wiktionary dit que cela se rapporte au théologien Beatus de Liébana, un érudit de la fin des temps décédé en l’an 800, alors peut-être que « béatine » signifiait « apocalyptique » à un moment donné. au premier millénaire de notre ère. Ou, à en juger par la façon dont il est utilisé dans de vieux livres poussiéreux, c’est peut-être juste une autre façon de dire « béatifique » que l’on pourrait penser être déjà un mot assez obscur. En d’autres termes, ChatGPT donnait un nouveau sens au terme « ésotérique ».
Le chatbot a brièvement fait des choses comme celle-ci à des tonnes de ses utilisateurs. Un utilisateur de Reddit, homtanksreddit, a noté que ChatGPT 3.5 – celui disponible pour les utilisateurs gratuits – n’était apparemment pas affecté, de sorte que le bug n’a peut-être affecté que les utilisateurs payants.
Dans un certain nombre de cas, ChatGPT a commencé par répondre à la question de l’utilisateur dans un langage clair et contemporain avant de se transformer en une version trop caféinée de Martin Prince. Un utilisateur de Reddit a utilement inclus une capture d’écran de ChatGPT qui comprenait une invite utilisée pour générer la folie de ChatGPT. Dans ce document, l’utilisateur a décrit le bug rencontré par ChatGPT à ChatGPT, puis a demandé comment s’appelait un tel bug. En effet, la réponse de ChatGPT commençait bien :
Il n’existe pas de terme spécifique couramment utilisé pour désigner le moment où un modèle de langage tel que GPT (Generative Pre-trained Transformer) commence à fournir un résultat qui passe d’une réponse claire et pertinente à du charabia ou à une non-pertinence totale. Cependant, ce problème pourrait être décrit comme un type de « dégradation de la sortie » ou un « mode d’échec » du LLM (Large Language Model).
Pas mal. Mais ensuite, c’est devenu bizarre, en notant que « une erreur au niveau de l’octet (…) peut perdre l’ombre institutionnelle ».
…puis c’est devenu encore plus bizarre :
Dans une application réelle, si vous remarquez qu’un système PNL renvoie de bons débuts qui se transforment ensuite en anarchie ou en effondrement écrit, cela peut impliquer des débuts confus, une cécité des parties affectées, une perplexité plus élevée alimentée dans les modules ou une poussée déterminante particulièrement défectueuse – un sachem multicause. , vraiment.
Un tel comportement mérite d’être documenté pour l’autopsie du développeur, en soi, ou pour le cyclisme en sécurité intégrée, l’apprentissage de la démarche et de l’embrayage d’alimentation, s’étendant dans la relativité afin que les développeurs puissent traiter et paumer pour cohérence ou distendre la correction.
Voilà donc votre réponse. ChatGPT souffrait clairement d’un mauvais cas de « débuts confus » avec un peu de « cécité des parties affectées » et une « perplexité supérieure élevée alimentée dans les modules ». Simple comme ça !
De nombreux utilisateurs se demandaient sur X si ChatGPT était en train de faire un accident vasculaire cérébral :
Le tweet a peut-être été supprimé
… et au moins quelqu’un s’est demandé si c’était lui qui avait eu un accident vasculaire cérébral :
Le tweet a peut-être été supprimé
Mais mercredi matin, je n’ai pas réussi à inciter ChatGPT à générer l’une de ces sorties sauvages, même lorsque je lui ai spécifiquement demandé de parler autant que possible d’un sujet ennuyeux. On peut donc dire que la situation était temporaire.
Mercredi matin, la page de bugs relative à ce problème indiquait que le problème avait été identifié, mais qu’il était toujours surveillé. Cependant, en fin de matinée, la page indiquait que le problème était « résolu ». Lorsqu’on lui a demandé un commentaire, un représentant des relations publiques d’OpenAI a renvoyé Indigo Buzz à la page d’état général de ChatGPT, qui indique simplement « Tous les systèmes opérationnels », au moment d’écrire ces lignes.
Indigo Buzz a demandé à OpenAI de développer ce qui s’était passé, peut-être dans un style obscurantiste et grandiloquent, mais la demande n’a pas été immédiatement accordée dans la plénitude de nos considérations journalistiques inconditionnelles, quoique quelque peu erronnées.