Google a lancé Bard malgré les grandes préoccupations éthiques de ses employés
Bard aurait été qualifié de « grincheux ».
Google a poussé le lancement de Bard, bien que les employés l’appellent en interne « un menteur pathologique » et « grincheux ».
Selon 18 anciens et actuels employés de Google qui ont parlé à Bloomberg, la volonté de concurrencer le ChatGPT d’OpenAI et le Bing alimenté par l’IA a mis à mal les considérations éthiques. Vous l’avez peut-être remarqué vous-même si vous avez essayé Bard, mais le chatbot AI est sujet à des inexactitudes. Selon le rapport, Bard a donné des conseils dangereux sur la façon d’atterrir un avion. Un autre employé a déclaré que les réponses sur la plongée sous-marine « entraîneraient probablement des blessures graves ou la mort ».
Google, qui a dominé le marché des moteurs de recherche, est dans une position précaire, devant repousser les challengers de l’IA d’une part, et maintenir sa position de chien de pointe de l’autre. Malgré les craintes que le lancement d’un grand modèle de langage (LLM) sous-cuit puisse produire des réponses nuisibles, offensantes ou inexactes, Google s’efforce d’intégrer Bard et l’IA générative dans les outils destinés aux consommateurs. Et tout refus des travailleurs de la sécurité et de l’éthique est considéré comme un élément dissuasif pour la nouvelle priorité de Google. « Les membres du personnel responsables de la sécurité et des implications éthiques des nouveaux produits ont reçu l’ordre de ne pas gêner ou d’essayer de tuer l’un des outils d’IA générative en développement », ont déclaré les employés à Bloomberg. L’équipe d’éthique est désormais « impuissance et démoralisée », selon les anciens et actuels membres du personnel.
Avant qu’OpenAI ne lance ChatGPT en novembre 2022, l’approche de Google en matière d’IA était plus prudente et moins orientée vers les consommateurs, travaillant souvent en arrière-plan d’outils tels que Search et Maps. Mais comme l’énorme popularité de ChatGPT a provoqué un « code rouge » des dirigeants, le seuil de Google pour les versions de produits sûrs a été abaissé dans le but de suivre le rythme de ses concurrents IA.
Jen Gennai, qui dirige l’équipe « innovation responsable » de Google, a annulé une évaluation des risques de son équipe selon laquelle Bard n’était pas encore prêt. Le raisonnement était qu’en amortissant Bard comme une « expérience », il pourrait être lancé et commencer à s’améliorer en fonction des commentaires du public. De même, Google a annoncé des fonctionnalités d’IA pour Docs et Slides. Mais cette approche a eu un effet négatif. Bard est largement considéré comme un produit inférieur à ChatGPT, et un jour après l’annonce de Google Docs and Slides, Microsoft a lancé l’intégration complète de l’IA avec ses outils de travail – pas seulement Microsoft Word et PowerPoint, mais la suite Office complète, y compris Teams et Outlook. Samsung envisage également de remplacer Google par Bing comme moteur de recherche par défaut sur les appareils mobiles.
Depuis que Google a supprimé la célèbre phrase « Don’t be evil » de son code de conduite, il ressemblait de plus en plus à son frenemy Meta, dont l’ancienne devise interne « Move fast and break things » semblait devenir le mantra officieux de toute la Silicon Valley. Et lorsque l’éthique et la sécurité sont compromises au service d’une évolution rapide, c’est la confiance du public qui risque d’être brisée.