Rejoignez-nous
High tech

OpenAI appelant à une réglementation de l’IA est un pas solide dans aucune direction

Pierre

Date de publication :

le

OpenAI appelant à une réglementation de l'IA est un pas solide dans aucune direction

Il est maintenant temps de traiter la superintelligence comme l’énergie atomique, déclare la société ChatGPT. Voici pourquoi cela n’a aucun sens.

En théorie, c’était le jour idéal pour OpenAI pour publier un article de blog intitulé Governance of Superintelligence. En pratique, la publication et son timing viennent de prouver à quel point les personnes à la pointe du monde de l’IA sont loin de réglementer leur technologie ou de comprendre le contexte approprié.

La société à l’origine de l’un des générateurs d’images d’IA les plus connus (Dall-E) et du chatbot d’IA le plus connu (ChatGPT) a publié le message parce qu’elle veut être considérée comme un groupe d’adultes sobres, prenant à la fois la promesse et la menace. de sa technologie au sérieux. Et regardez ce qui vient de se passer : des images générées par l’IA du Pentagone et de la Maison Blanche en feu ont envoyé une brève onde de choc à travers le marché boursier. Quel meilleur moment pour le leader du marché de faire preuve de sobriété ?

Il y a une sorte de concours « confiance et sécurité » parallèlement à la course aux armements de l’IA entre Microsoft, le principal allié de ChatGPT, et Google. Lors du discours d’ouverture de Google IO il y a deux semaines, des annonces passionnantes sur l’intégration de Bard ont été tempérées par un segment sur « l’IA responsable ». La semaine dernière, le PDG d’OpenAI, Sam Altman, a fait un témoignage au Congrès ressemblant à la réponse la plus humble et la plus humaine à Mark Zuckerberg. Prochaine étape : le co-fondateur d’OpenAI, Greg Brockman, fraîchement sorti de ses propres grillades à la conférence TED, emmène son roadshow adulte responsable à Microsoft Build.

Mais qu’est-ce que « Governance of Superintelligence », co-écrit par Altman et Brockman, a réellement à dire pour lui-même ? En moins de mille mots, pas grand-chose – et le manque de précision pourrait nuire à leur cause.

Voici le TL; DR : L’IA comporte des risques. L’énergie nucléaire aussi. Hé, peut-être devrions-nous avoir un organisme mondial de réglementation de l’IA similaire à l’Agence internationale de l’énergie atomique (AIEA) ! Mais il devrait également y avoir beaucoup de contrôle public sur cette agence, et le genre de choses que fait OpenAI en ce moment n’est pas « dans le champ » de la réglementation, car il s’agit davantage d’aider les individus.

De plus, quelqu’un va probablement créer une superintelligence tôt ou tard, et les arrêter serait « intuitivement risqué », donc « nous devons bien faire les choses ». La fin.

Il y a un but intéressé clair à ce qu’OpenAI amplifie la menace de l’IA comme celle-ci. Vous voulez (insérez votre mauvais acteur préféré ici) accéder à la superintelligence – également connue sous le nom d’AGI, pour Artificial General Intelligence – en premier ? Ou préférez-vous soutenir l’entreprise si transparente sur sa technologie, dont le nom contient « ouvert » ?

Ironiquement, cependant, OpenAI n’a pas été totalement ouvert sur les modèles de langage qu’il utilise pour former ses chatbots depuis 2019. La société préparerait un modèle open source., mais il est très probable qu’il s’agisse d’une ombre pâle de GPT. OpenAI était une organisation à but non lucratif, maintenant c’est à but lucratif avec une valorisation de 30 milliards de dollars. Cela peut expliquer pourquoi le billet de blog ressemble plus à un pablum marketing qu’à un livre blanc.

L’IA n’est pas la vraie menace. (Encore.)

Lorsque les images de l’IA « explosion du Pentagone » sont arrivées sur Internet, cela aurait dû être un gimme pour OpenAI. Altman et compagnie. aurait pu passer quelques heures de plus à mettre à jour leur article pré-écrit en mentionnant des outils d’IA qui peuvent nous aider à distinguer les fausses nouvelles des vraies.

Mais cela pourrait attirer l’attention sur un fait gênant pour une entreprise qui cherche à promouvoir l’IA : le problème avec les images n’était pas l’IA. Ils n’étaient pas particulièrement convaincants. De fausses images d’incendies sur des sites célèbres sont quelque chose que vous pouvez créer vous-même dans Photoshop. Les autorités locales ont rapidement confirmé que les explosions ne s’étaient pas produites et le marché boursier s’est corrigé.

Vraiment, le seul problème était que les images sont devenues virales sur une plateforme où toutes les fonctionnalités de confiance et de sécurité ont été supprimées : Twitter. Le compte qui les a initialement diffusés s’appelait « Bloomberg Feed ». Et il payait 8 $ par mois pour une coche bleue, ce qui ne signifie plus qu’un compte est vérifié.

En d’autres termes, la destruction massive par Elon Musk de la vérification Twitter a permis à un compte de se faire passer pour une agence de presse bien connue. Le récit a diffusé une image effrayante qui a été reprise par des services de propagande russes comme RT, à qui Musk a également retiré l’étiquette de « média d’État ».

Il est douteux que nous ayons un jour une agence internationale pour l’IA aussi efficace que l’AIEA. La technologie peut évoluer trop vite et être trop mal comprise pour les régulateurs. Mais aussi la principale menace qu’il représente dans un avenir prévisible – même selon le « parrain de l’IA » Geoffrey Hinton, le plus éminent pessimiste – est qu’un flot de nouvelles et d’images générées par l’IA signifie que la personne moyenne « ne sera plus en mesure de dire ce qui est vrai ».

Mais dans ce test particulier, les fils de déclenchement des fausses nouvelles ont fonctionné – non grâce à Musk. Ce dont nous avons besoin de toute urgence, c’est d’une agence internationale capable de freiner les milliardaires conspirationnistes avec des mégaphones massifs. Peut-être Altman, qui a précédemment qualifié Musk de « crétin » et a dénoncé ses mensonges sur OpenAIpourrait écrire un article de blog adulte sobre à ce sujet.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !