Rejoignez-nous
Divers

D'anciens dirigeants d'OpenAI dénoncent le manque de transparence de l'entreprise

Pierre

Date de publication :

le

D'anciens dirigeants d'OpenAI dénoncent le manque de transparence de l'entreprise

Une vague d’appels de plus en plus énergiques en faveur d’une réglementation a été lancée contre OpenAI.

Les anciens membres du conseil d'administration d'OpenAI appellent à une plus grande réglementation gouvernementale de l'entreprise alors que le leadership du PDG Sam Altman est critiqué.

Helen Toner et Tasha McCauley – deux des anciens employés qui composaient le casting des personnages qui ont évincé Altman en novembre – affirment que leur décision d'évincer le leader et de « sauver » la structure réglementaire d'OpenAI a été stimulée par « des modèles de comportement de longue date manifestés ». par M. Altman », ce qui « a miné la surveillance par le conseil d'administration des décisions clés et des protocoles de sécurité internes ».

Dans un article d'opinion publié par The Economist le 26 mai, Toner et McCauley affirment que le modèle de comportement d'Altman, combiné à une dépendance à l'égard de l'autonomie gouvernementale, est une recette pour le désastre de l'AGI.

Alors que les deux hommes déclarent avoir rejoint l'entreprise avec un « optimisme prudent » quant à l'avenir d'OpenAI, soutenus par les motivations apparemment altruistes de l'entreprise à l'époque exclusivement à but non lucratif, les deux ont depuis remis en question les actions d'Altman et de l'entreprise. « Plusieurs hauts dirigeants ont fait part en privé de leurs graves préoccupations au conseil d'administration », écrivent-ils, « disant qu'ils pensaient que M. Altman cultivait une 'culture toxique du mensonge' et s'engageait dans 'un comportement (qui) peut être qualifié de violence psychologique' ».

« Les développements depuis son retour dans l'entreprise – y compris sa réintégration au conseil d'administration et le départ de hauts talents axés sur la sécurité – sont de mauvais augure pour l'expérience d'auto-gouvernance d'OpenAI », poursuivent-ils. « Même avec les meilleures intentions du monde, sans contrôle externe, ce type d'autorégulation finira par devenir inapplicable, surtout sous la pression d'immenses incitations au profit. Les gouvernements doivent jouer un rôle actif. »

Avec le recul, Toner et McCauley écrivent : « Si une entreprise avait pu se gouverner avec succès tout en développant de manière sûre et éthique des systèmes d'IA avancés, cela aurait été OpenAI. »

Les anciens membres du conseil d’administration s’opposent à la pression actuelle en faveur de l’auto-déclaration et d’une réglementation externe relativement minimale des sociétés d’IA alors que les lois fédérales stagnent. À l’étranger, les groupes de travail sur l’IA trouvent déjà des failles dans le fait de s’appuyer sur les géants de la technologie pour diriger les efforts de sécurité. La semaine dernière, l'UE a émis un avertissement d'un milliard de dollars à Microsoft après avoir omis de divulguer les risques potentiels de son CoPilot et de son créateur d'images basés sur l'IA. Un récent rapport de l'AI Safety Institute du Royaume-Uni a révélé que les protections de plusieurs des plus grands modèles de langage étendus (LLM) publics étaient facilement jailbreakées par des invites malveillantes.

Ces dernières semaines, OpenAI a été au centre des discussions sur la réglementation de l’IA à la suite d’une série de démissions très médiatisées d’employés de haut rang qui ont évoqué des points de vue divergents sur son avenir. Après que le co-fondateur et chef de son équipe de superalignement, Ilya Sutskever, et son co-dirigeant Jan Leike ont quitté l'entreprise, OpenAI a dissous son équipe de sécurité interne.

Leike a déclaré qu'il était préoccupé par l'avenir d'OpenAI, car « la culture et les processus de sécurité ont pris le pas sur les produits brillants ».

Altman a été critiqué pour une politique de retrait de l'entreprise alors révélée qui oblige les employés qui partent à signer des NDA les interdisant de dire quoi que ce soit de négatif à propos d'OpenAI ou de risquer de perdre les capitaux propres qu'ils ont dans l'entreprise.

Peu de temps après, Altman et le président et co-fondateur Greg Brockman ont répondu à la controverse en écrivant sur X : « L'avenir va être plus difficile que le passé. Nous devons continuer à élever notre travail en matière de sécurité pour correspondre aux enjeux de chaque nouveau modèle. ..Nous continuons également à collaborer avec les gouvernements et de nombreuses parties prenantes en matière de sécurité. Il n'existe aucun guide éprouvé sur la manière de naviguer sur la voie de l'AGI.

Aux yeux de nombreux anciens employés d’OpenAI, la philosophie historiquement « légère » de la réglementation de l’Internet ne suffira pas.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.