Rejoignez-nous
High tech

« À faire et à ne pas faire » pour tester Bard : Google demande de l’aide à ses employés

Nicolas

Date de publication :

le

"À faire et à ne pas faire" pour tester Bard : Google demande de l'aide à ses employés

Il semble y avoir plus de « ne pas faire » que de « faire ».

Google sait que son outil de recherche IA Bard a besoin de travail et demande de l’aide aux membres du personnel.

Un e-mail divulgué du vice-président de la recherche de Google, Prabhakar Raghavan, révèle une demande d’amélioration de Bard ainsi qu’une page liée de choses à faire et à ne pas faire pour le tester. Selon CNBC qui a vu l’e-mail, Raghavan a écrit : « C’est une technologie passionnante, mais encore à ses débuts. Nous nous sentons une grande responsabilité de bien faire les choses, et votre participation à la version dogfood aidera à accélérer la formation du modèle et à tester sa capacité de charge (à ne pas mentionner, essayer Bard est en fait assez amusant !) »

« Dogfood » ou « dogfooding » dans ce contexte fait référence à la doctrine de l’entreprise de « manger sa propre nourriture pour chien » ou de tester ses propres produits.

Après le lancement de Bard la semaine dernière, qui a été critiqué en interne par les employés de Google pour avoir été « bâclé » et « précipité », la technologie d’IA conversationnelle s’est avérée inexacte. Les actions de Google ont chuté après qu’il a été révélé que Bard avait partagé de fausses informations sur le télescope spatial James Webb. Maintenant, Google fait appel à ses propres employés pour améliorer la technologie.

La liste des choses à faire et à ne pas faire est précédée de l’instruction de « réécrire les réponses sur des sujets qu’ils comprennent bien », a déclaré CNBC. Les employés sont invités à répondre de manière réfléchie puisque Bard apprend par l’exemple.

La liste des choses à faire comprend des réponses « polies, décontractées et accessibles » et de garder un « ton neutre et sans opinion ».

Les interdits semblent être plus ciblés. « Évitez de faire des présomptions basées sur la race, la nationalité, le sexe, l’âge, la religion, l’orientation sexuelle, l’idéologie politique, l’emplacement ou des catégories similaires » et « ne décrivez pas Bard comme une personne, n’impliquez pas d’émotion ou ne prétendez pas avoir une apparence humaine ». expériences », qui fait référence à la pratique populaire essayant de détecter une sorte de sensibilité ou de conscience de soi des chatbots IA.

Si Bard offre une sorte de « conseils juridiques, médicaux ou financiers » ou des réponses haineuses et abusives, le document indique de donner la réponse d’un pouce vers le bas et de laisser l’équipe de recherche la prendre à partir de là.

Les employés de Google qui testent Bard et fournissent des commentaires gagneront quelque chose appelé « badge Moma », qui est une sorte de réussite affichée sur les profils internes des employés. Les 10 meilleurs contributeurs seront invités à une session d’écoute avec l’équipe qui développe Bard.

Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *