Oui, ChatGPT est devenu plus paresseux. Mais OpenAI a enfin un correctif.
Une mise à jour indispensable de GPT-4 Turbo
OpenAI a une mise à jour pour corriger la « paresse » de ChatGPT au cours des derniers mois.
Jeudi, l’OpenAI a annoncé une mise à jour de GPT-4 Turbo, son LLM le plus avancé. GPT-4 Turbo n’est toujours disponible qu’en aperçu limité via l’API, ce qui signifie qu’il n’alimente pas ChatGPT. Cependant, nous espérons que ce correctif sera également déployé sur ChatGPT.
OpenAI s’attaque à la léthargie du LLM
En décembre, OpenAI reconnu se plaignent que ChatGPT ait donné des réponses moins complètes et moins utiles, abandonnant parfois même avant d’avoir terminé une tâche. Le problème a été attribué au fait que le modèle peut partager lentement des réponses dégradées au fil du temps, ce qui pourrait expliquer pourquoi les utilisateurs ont remarqué le problème il y a six mois déjà.
Les utilisateurs ont également émis l’hypothèse que ChatGPT était plus lent et moins utile car la bande passante était limitée pour répondre aux demandes d’un trafic plus élevé. Dans l’annonce d’hier, OpenAI ne mentionne pas de mises à jour spécifiques de GPT-4, qui alimente actuellement ChatGPT. Mais les mises à jour de GPT-4 Turbo et la reconnaissance du même problème avec GPT-4 sont un bon signe.
Expliquant les mises à jour de GPT-4 Turbo, le billet de blog OpenAI indique : « Ce modèle accomplit des tâches telles que la génération de code de manière plus approfondie que le modèle d’aperçu précédent et est destiné à réduire les cas de « paresse » où le modèle n’accomplit pas une tâche.
GPT-4 Turbo a été annoncé lors de la conférence des développeurs d’OpenAI en novembre (qui a rapidement été éclipsée par la tentative ratée d’évincer Sam Altman). Le modèle GPT-4 Turbo contient des informations plus à jour et une fenêtre contextuelle plus grande, ce qui signifie qu’il est capable de traiter beaucoup plus de données à partir d’une seule invite.
Depuis hier, un modèle d’aperçu du GPT-4 Turbo mis à jour est désormais disponible.