Lettre ouverte demandant une pause sur les expériences d’IA signée par Steve Wozniak, Elon Musk, et plus
La stratégie « avancer vite et casser les choses » est un peu risquée pour l’avenir de l’humanité.
Des experts en IA, des technologues et des chefs d’entreprise font partie des plus de 1 000 pétitionnaires implorant les laboratoires d’IA de suspendre la formation de systèmes « plus puissants que GPT-4 ».
La lettre ouverte a été publié mercredi par le Future of Life Institute, une organisation à but non lucratif pour atténuer les risques de la technologie transformatrice. La liste des signataires comprend le co-fondateur d’Apple Steve Wozniak, SpaceX, Tesla et le PDG de Twitter Elon Musk, le PDG de Stability AI Emad Mostaque, le directeur exécutif du Center for Humane Technology Tristan Harris et Yoshua Bengio, fondateur de l’institut de recherche sur l’IA Mila.
« L’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec un soin et des ressources proportionnés », indique la lettre. « Malheureusement, ce niveau de planification et de gestion ne se produit pas, même si ces derniers mois ont vu les laboratoires d’IA enfermés dans une course incontrôlable pour développer et déployer des esprits numériques toujours plus puissants que personne – pas même leurs créateurs – ne peut comprendre. , prédire ou contrôler de manière fiable. »
Des entreprises comme OpenAI, Microsoft et Google se sont lancées à toute vitesse avec leurs modèles d’IA générative. Alimentées par l’ambition de conquérir le marché de l’IA, de nouvelles avancées et sorties de produits sont annoncées presque quotidiennement. Mais la lettre indique que tout se passe trop vite pour que les préoccupations éthiques, réglementaires et de sécurité soient prises en compte.
« Nous devons nous demander : devrions-nous laisser les machines inonder nos canaux d’information de propagande et de contrevérité ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont épanouissants ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquons-nous de perdre le contrôle de notre civilisation ? »
La lettre ouverte appelle à une pause de six mois sur les expériences d’IA qui « ne devraient être développées qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables ». Il recommande que les laboratoires d’IA utilisent ce temps pour développer collectivement des protocoles de sécurité qui peuvent être audités par des tiers. S’ils ne s’arrêtent pas, les gouvernements devraient intervenir et imposer un moratoire.
Dans le même temps, la pétition appelle les décideurs politiques à s’impliquer auprès des autorités de réglementation dédiées à la surveillance et au suivi des systèmes d’IA, en distinguant le contenu réel du contenu généré, l’audit et les certifications pour les modèles d’IA, la responsabilité légale pour les « dommages causés par l’IA », le financement public pour la recherche sur l’IA et les institutions « pour faire face aux perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA causera ».
La lettre ne dit pas de mettre en pause tous les développements de l’IA, point final. C’est juste dire de pomper les freins. Les sociétés ont besoin d’un temps d’arrêt rapide pour construire l’infrastructure appropriée afin que la révolution de l’IA puisse être sûre et bénéfique pour tous. Profitons d’un long été d’IA », conclut la lettre, « ne nous précipitons pas sans préparation dans une chute ».