L'ancien scientifique en chef d'OpenAI a une nouvelle startup, et tout tourne autour de la superintelligence
« Un objectif, un objectif, un produit. »
Lorsqu’Ilya Sutskever, ancien scientifique en chef d’OpenAI, a quitté l’entreprise en mai, tout le monde s’est demandé pourquoi.
En fait, les récents troubles internes à OpenAI et un procès de courte durée intenté par le premier partisan d’OpenAI, Elon Musk, étaient suffisamment suspects pour que l’esprit collectif d’Internet surgisse. avec le mème « Qu'est-ce qu'Ilya a vu »faisant référence à la théorie selon laquelle Sutskever aurait vu quelque chose d'alarmant dans la façon dont le PDG Sam Altman dirigeait OpenAI.
Maintenant, Sutskever a une nouvelle entreprise, et cela peut être une indication de la raison exacte pour laquelle il a laissé OpenAI au sommet de sa puissance. Mercredi, Sutskever a tweeté qu'il créait une société appelée Safe Superintelligence.
« Nous rechercherons une superintelligence sûre d'un seul coup, avec un seul objectif, un seul objectif et un seul produit. Nous y parviendrons grâce à des percées révolutionnaires produites par une petite équipe brisée », a écrit Sutskever.
Le tweet a peut-être été supprimé
Le site Web de l'entreprise n'est actuellement qu'un message texte signé par Sutskever ainsi que par les cofondateurs Daniel Gross et Daniel Levy (Gross était co-fondateur du moteur de recherche Cue, acquis par Apple en 2013, tandis que Levy dirigeait l'équipe d'optimisation de OpenAI). Le message réaffirme que la sécurité est l’élément clé de la construction d’une superintelligence artificielle.
« Nous abordons la sécurité et les capacités en tandem, comme des problèmes techniques à résoudre grâce à une ingénierie révolutionnaire et des avancées scientifiques. Nous prévoyons de faire progresser les capacités aussi rapidement que possible tout en veillant à ce que notre sécurité reste toujours en avance », indique le message. « Notre objectif unique signifie qu'il n'y a aucune distraction par les frais généraux de gestion ou les cycles de produits, et notre modèle commercial signifie que la sûreté, la sécurité et le progrès sont tous à l'abri des pressions commerciales à court terme. »
Bien que Sutskever n'ait jamais expliqué publiquement pourquoi il avait quitté OpenAI, louant plutôt la trajectoire « miraculeuse » de l'entreprise, il convient de noter que la sécurité est au centre de son nouveau produit d'IA. Musk et plusieurs autres ont averti qu'OpenAI était imprudent dans la construction de l'AGI (intelligence artificielle générale), et le départ même de Sutskever et d'autres membres de l'équipe axée sur la sécurité d'OpenAI indique que l'entreprise a peut-être fait preuve de laxisme lorsqu'il s'agit de s'assurer que l'AGI est intégrée. un moyen sûr. Musk est également en désaccord avec l'implication de Microsoft dans OpenAI, affirmant que l'entreprise est passée d'une organisation à but non lucratif à une « filiale de facto à source fermée » de Microsoft.
Dans une interview accordée à Bloomberg, publiée mercredi, Sutskever et ses cofondateurs n'ont nommé aucun bailleur de fonds, bien que Gross ait déclaré que lever des capitaux ne serait pas un problème pour la startup. On ne sait pas non plus si les travaux de SSI seront publiés en open source.