Microsoft peaufine le chatbot Bing AI après une première semaine intense
Cela ne fait-il qu’une semaine ?
Il est difficile de croire que cela ne fait qu’environ une semaine que Microsoft a lancé le Bing amélioré par ChatGPT.
Un groupe restreint de testeurs a obtenu un accès anticipé pour jouer avec le nouveau navigateur Bing et Edge, désormais intégré à la technologie d’IA conversationnelle d’OpenAI. Depuis lors, Internet a été inondé de conversations avec le chatbot qui vont de professer son amour au chroniqueur du New York Times Kevin Roose pour catégoriquement prétendre que l’année est 2022 et ne pas reculer. Pour une liste des effondrements de Bing, nous recommandons la rafle de Tim Marcin.
Le tweet a peut-être été supprimé
Naturellement, lorsque les testeurs ont mis la main sur le nouveau Bing, ils étaient déterminés à percer des trous dans son intelligence et à cartographier ses limites. Et mon garçon, ont-ils accompli cela. Bien que cela puisse ne pas sembler être un bon look pour Microsoft, tout cela fait partie du plan. Un aspect essentiel du développement d’un modèle d’apprentissage des langues est de lui donner autant d’exposition et d’expérience que possible. Cela permet aux développeurs d’intégrer de nouveaux commentaires et données, ce qui améliorera la technologie au fil du temps, comme un être mythique absorbant la force de ses ennemis vaincus.
Microsoft ne l’a pas exactement dit dans ces mots dans son article de blog mercredi. Mais il a réitéré que la semaine chaotique de tests de Bing était totalement censée se dérouler de cette façon. « La seule façon d’améliorer un produit comme celui-ci, où l’expérience utilisateur est tellement différente de tout ce que tout le monde a vu auparavant, est d’avoir des gens comme vous qui utilisent le produit et font exactement ce que vous faites tous », a déclaré le blog Bing.
Mais la majeure partie de l’annonce a été consacrée à la reconnaissance du comportement farfelu de Bing cette semaine et aux solutions pour y remédier. Voici ce qu’ils ont trouvé :
Améliorer les recherches qui nécessitent rapidité et précision
Microsoft a partagé que fournir les citations et références correctes a généralement été une bonne chose. Mais quand il s’agit de vérifier le score en direct dans le sport, de fournir des faits et des chiffres de manière concise, ou euh, la bonne année dans laquelle nous vivons actuellement, cela nécessite du travail. Bing multiplie par quatre les données de base et envisage « d’ajouter une bascule qui vous donne plus de contrôle sur la précision par rapport à la créativité de la réponse pour l’adapter à votre requête ».
Affiner les compétences de conversation de Bing
La fonction de chat est l’endroit où une grande partie du chaos s’est produite cette semaine. Selon Bing, cela est largement dû à deux choses :
1. Longues sessions de chat
Les sessions de chat qui vont au-delà de 15 questions ou plus qui confondent le modèle. On ne sait pas si c’est ce qui pourrait déclencher de sombres réflexions de la part de son vilain alter-ego Sydney, mais Bing dit qu’il « ajoutera un outil pour que vous puissiez plus facilement actualiser le contexte ou repartir de zéro ».
Le tweet a peut-être été supprimé
2. Refléter le ton de l’utilisateur
Cela pourrait expliquer pourquoi le chat Bing a pris un ton agressif lorsqu’on lui a posé des questions provocantes. « Le modèle essaie parfois de répondre ou de refléter le ton dans lequel on lui demande de fournir des réponses qui peuvent conduire à un style que nous n’avions pas l’intention », a déclaré le message. Bing étudie une solution qui donnera à l’utilisateur « un contrôle plus précis ».
Le tweet a peut-être été supprimé
Correction de bogues et ajout de nouvelles fonctionnalités
Bing dit qu’il continue de corriger les bogues et les problèmes techniques et envisage également d’ajouter de nouvelles fonctionnalités en fonction des commentaires des utilisateurs. Cela peut inclure la réservation de vols ou l’envoi d’e-mails. et la possibilité de partager d’excellentes recherches/réponses.