« L'avenir sera plus difficile que le passé » : Altman et Brock d'OpenAI abordent une démission très médiatisée
Sam Altman et Greg Brockman ont partagé des points sur les protocoles de sécurité d'OpenAI sur X.
Cette semaine, Jan Leike, co-responsable de l'équipe « superalignement » d'OpenAI (qui supervise les problèmes de sécurité de l'entreprise), a démissionné. Dans un fil de discussion sur X (anciennement Twitter), le responsable de la sécurité a expliqué pourquoi il avait quitté OpenAI, notamment en disant qu'il était en désaccord avec la direction de l'entreprise sur ses « priorités fondamentales » pendant « un certain temps », si longtemps qu'elle a atteint un « point de rupture ». »
Le lendemain, Sam Altman, PDG d'OpenAI, et Greg Brockman, président et co-fondateur, ont répondu aux affirmations de Leike selon lesquelles l'entreprise ne se concentrait pas sur la sécurité.
Entre autres points, Leike avait déclaré que « la culture et les processus de sécurité d'OpenAI étaient passés au second plan au profit de produits brillants » ces dernières années, et que son équipe avait du mal à obtenir les ressources nécessaires pour accomplir son travail de sécurité.
« Il est grand temps que nous prenions au sérieux les implications de l'AGI (intelligence générale artificielle) », a écrit Leike. « Nous devons donner la priorité à leur préparation du mieux que nous pouvons. »
Altman a d'abord répondu dans une republication de Leike vendredi, déclarant que Leike avait raison de dire qu'OpenAI avait « beaucoup plus à faire » et qu'il était « déterminé à le faire ». Il a promis qu'un article plus long allait arriver.
Samedi, Brockman a publié une réponse partagée par lui-même et Altman sur X :
Le tweet a peut-être été supprimé
Après avoir exprimé leur gratitude pour le travail de Leike, Brockman et Altman ont déclaré avoir reçu des questions suite à la démission. Ils ont partagé trois points, le premier étant qu'OpenAI a sensibilisé à l'AGI « afin que le monde puisse mieux s'y préparer ».
« Nous avons démontré à plusieurs reprises les incroyables possibilités offertes par l'intensification de l'apprentissage profond et analysé leurs implications ; nous avons appelé à une gouvernance internationale de l'AGI avant que de tels appels ne soient populaires ; et avons contribué à faire œuvre de pionnier dans la science de l'évaluation des systèmes d'IA pour détecter les risques catastrophiques », ont-ils écrit.
Le deuxième point est qu'ils jettent les bases d'un déploiement sûr de ces technologies et ont utilisé le travail effectué par les employés pour « apporter (Chat) GPT-4 au monde de manière sûre » à titre d'exemple. Les deux affirment que depuis lors – OpenAI a publié ChatGPT-4 en mars 2023 – la société a « continuellement amélioré le comportement des modèles et la surveillance des abus en réponse aux leçons tirées du déploiement ».
Le troisième point ? « L'avenir sera plus difficile que le passé », ont-ils écrit. OpenAI doit continuer à élever son travail de sécurité à mesure qu'elle publie de nouveaux modèles, ont expliqué Brock et Altman, et ont cité le cadre de préparation de l'entreprise comme un moyen d'y parvenir. Selon sa page sur le site d'OpenAI, ce cadre prédit les « risques catastrophiques » qui pourraient survenir et cherche à les atténuer.
Brockman et Altman discutent ensuite de l'avenir, où les modèles d'OpenAI seront davantage intégrés dans le monde et où davantage de personnes interagiront avec eux. Ils voient cela comme une chose bénéfique et croient qu'il est possible de le faire en toute sécurité – « mais cela va nécessiter un énorme travail de base ». Pour cette raison, la société peut retarder les délais de sortie afin que les modèles « atteignent (sa) barre de sécurité ».
« Nous savons que nous ne pouvons pas imaginer tous les scénarios futurs possibles », ont-ils déclaré. « Nous avons donc besoin d'une boucle de rétroaction très étroite, de tests rigoureux, d'un examen attentif à chaque étape, d'une sécurité de classe mondiale et d'une harmonie entre la sécurité et les capacités. »
Les dirigeants ont déclaré qu'OpenAI continuerait à rechercher et à travailler avec les gouvernements et les parties prenantes sur la sécurité.
« Il n'existe aucun guide éprouvé sur la manière de naviguer vers l'AGI. Nous pensons que la compréhension empirique peut aider à éclairer la voie à suivre », ont-ils conclu. « Nous croyons à la fois qu'il est important de réaliser les énormes avantages et de travailler à atténuer les risques sérieux ; nous prenons notre rôle ici très au sérieux et évaluons soigneusement les commentaires sur nos actions. »
La démission et les propos de Leike sont aggravés par le fait que le scientifique en chef d'OpenAI, Ilya Sutskever, a également démissionné cette semaine. « #WhatDidIlyaSee » est devenu un sujet tendance sur X, signalant les spéculations sur ce dont les principaux dirigeants d'OpenAI sont au courant. À en juger par la réaction négative à la déclaration d'aujourd'hui de Brockman et Altman, cela n'a dissipé aucune de ces spéculations.
Dès à présent, la société avance avec sa prochaine version : ChatGPT-4o, un assistant vocal.