« À faire et à ne pas faire » pour tester Bard : Google demande de l’aide à ses employés
Il semble y avoir plus de « ne pas faire » que de « faire ».
Google sait que son outil de recherche IA Bard a besoin de travail et demande de l’aide aux membres du personnel.
Un e-mail divulgué du vice-président de la recherche de Google, Prabhakar Raghavan, révèle une demande d’amélioration de Bard ainsi qu’une page liée de choses à faire et à ne pas faire pour le tester. Selon CNBC qui a vu l’e-mail, Raghavan a écrit : « C’est une technologie passionnante, mais encore à ses débuts. Nous nous sentons une grande responsabilité de bien faire les choses, et votre participation à la version dogfood aidera à accélérer la formation du modèle et à tester sa capacité de charge (à ne pas mentionner, essayer Bard est en fait assez amusant !) »
« Dogfood » ou « dogfooding » dans ce contexte fait référence à la doctrine de l’entreprise de « manger sa propre nourriture pour chien » ou de tester ses propres produits.
Après le lancement de Bard la semaine dernière, qui a été critiqué en interne par les employés de Google pour avoir été « bâclé » et « précipité », la technologie d’IA conversationnelle s’est avérée inexacte. Les actions de Google ont chuté après qu’il a été révélé que Bard avait partagé de fausses informations sur le télescope spatial James Webb. Maintenant, Google fait appel à ses propres employés pour améliorer la technologie.
La liste des choses à faire et à ne pas faire est précédée de l’instruction de « réécrire les réponses sur des sujets qu’ils comprennent bien », a déclaré CNBC. Les employés sont invités à répondre de manière réfléchie puisque Bard apprend par l’exemple.
La liste des choses à faire comprend des réponses « polies, décontractées et accessibles » et de garder un « ton neutre et sans opinion ».
Les interdits semblent être plus ciblés. « Évitez de faire des présomptions basées sur la race, la nationalité, le sexe, l’âge, la religion, l’orientation sexuelle, l’idéologie politique, l’emplacement ou des catégories similaires » et « ne décrivez pas Bard comme une personne, n’impliquez pas d’émotion ou ne prétendez pas avoir une apparence humaine ». expériences », qui fait référence à la pratique populaire essayant de détecter une sorte de sensibilité ou de conscience de soi des chatbots IA.
Si Bard offre une sorte de « conseils juridiques, médicaux ou financiers » ou des réponses haineuses et abusives, le document indique de donner la réponse d’un pouce vers le bas et de laisser l’équipe de recherche la prendre à partir de là.
Les employés de Google qui testent Bard et fournissent des commentaires gagneront quelque chose appelé « badge Moma », qui est une sorte de réussite affichée sur les profils internes des employés. Les 10 meilleurs contributeurs seront invités à une session d’écoute avec l’équipe qui développe Bard.