OpenAI lance une nouvelle équipe de sécurité interne avec Sam Altman aux commandes
Le PDG Sam Altman dirige le groupe.
OpenAI s'enfonce plus profondément dans l'autogouvernance de l'industrie alors que la société annonce une équipe de sûreté et de sécurité remaniée, à la suite de plusieurs démissions publiques et de la dissolution de son ancien organe de surveillance.
Le comité de sûreté et de sécurité, tel qu'il a été renommé, est dirigé par les membres du conseil d'administration et les administrateurs Bret Taylor (Sierra), Adam D'Angelo (Quora), Nicole Seligman et, bien sûr, Sam Altman, PDG d'OpenAI. Les autres membres comprennent des « experts techniques et politiques OpenAI » internes, notamment des responsables de la « Préparation », des « Systèmes de sécurité » et de la « Science de l'alignement ».
« OpenAI a récemment commencé à former son prochain modèle frontière et nous prévoyons que les systèmes qui en résulteront nous amèneront au prochain niveau de capacités sur notre chemin vers l'AGI », a écrit OpenAI. « Bien que nous soyons fiers de construire et de lancer des modèles qui sont à la pointe de l'industrie en termes de capacités et de sécurité, nous nous félicitons d'un débat approfondi à ce moment important. »
La première tâche du comité est « d'évaluer et de développer davantage les processus et les garanties d'OpenAI au cours des 90 prochains jours », a écrit la société dans son communiqué, avec les commentaires d'experts externes qui figurent déjà sur la liste de surveillance externe d'OpenAI, comme l'ancien directeur de la cybersécurité de la NSA, Rob Joyce. .
Cette annonce est une réponse opportune à une controverse tourbillonnante sur la gestion d’OpenAI, même si elle ne fait pas grand-chose pour rassurer les yeux vigilants et les partisans d’une surveillance externe. Cette semaine, d'anciens membres du conseil d'administration d'OpenAI ont appelé à une réglementation gouvernementale plus intense du secteur de l'IA, dénonçant spécifiquement les mauvaises décisions de gestion et la culture toxique favorisée par Altman dans le rôle de leader d'OpenAI.
« Même avec les meilleures intentions du monde, sans contrôle externe, ce type d'autorégulation finira par devenir inapplicable, surtout sous la pression d'immenses incitations au profit », ont-ils soutenu.
Le nouveau comité d'OpenAI est jeté directement dans le feu, avec pour mandat immédiat d'évaluer les garanties de l'entreprise en matière d'IA. Mais même cela pourrait ne pas suffire.