Les initiés d'OpenAI et de Google DeepMind ont de sérieux avertissements concernant l'IA
Dans une lettre ouverte, les lanceurs d’alerte affirment que ces « entreprises pionnières de l’IA » doivent soutenir une culture de critique ouverte.
Pour OpenAI, les dernières semaines ont fait la une des journaux – et pas pour les meilleures raisons. L'histoire ne s'arrête pas là : plusieurs employés actuels et anciens d'OpenAI, aux côtés d'employés de Google DeepMind, dénoncent désormais leurs principales sociétés d'IA pour leurs oublis, leur culture de critiques étouffantes et leur manque général de transparence.
Dans une lettre ouverte, les lanceurs d’alerte réclament essentiellement le droit de critiquer ouvertement la technologie de l’IA et les risques qui y sont associés. Ils ont écrit qu'en raison de l'absence d'obligation de partager des informations avec les organismes gouvernementaux et les régulateurs, « les employés actuels et anciens font partie des rares personnes qui peuvent demander des comptes à (ces entreprises) envers le public », et ont déclaré que beaucoup d'entre eux « craignent diverses formes de représailles » pour cela.
Les signataires ont demandé aux entreprises d'IA avancée de s'engager sur certains principes, notamment de faciliter un processus anonyme permettant aux employés de soulever des préoccupations liées aux risques et que les entreprises soutiendront « une culture de critique ouverte », à condition que les secrets commerciaux soient protégés dans le processus. Ils ont également demandé aux entreprises de ne pas exercer de représailles contre ceux qui « partagent publiquement des informations confidentielles liées aux risques après l'échec d'autres processus ».
Dans la lettre, le groupe évoque également les risques de l’IA qu’ils reconnaissent : de l’enracinement des inégalités existantes à l’exacerbation de la désinformation, en passant par la possibilité d’extinction humaine.
Daniel Kokotajlo, ancien chercheur d'OpenAI et l'un des organisateurs du groupe, a déclaré au New York Times qu'OpenAI « fait une course imprudente » pour atteindre le sommet du jeu de l'IA. L'entreprise a fait l'objet d'un examen minutieux de ses processus de sécurité, le lancement récent d'une équipe de sécurité interne faisant également sourciller le fait que le PDG Sam Altman siège à sa tête.