6 points à retenir de l’audience du Sénat OpenAI
Il y a en fait un accord bipartite ici.
Apparemment, l’une des capacités extraordinaires de l’IA générative est d’unifier les politiciens, le public et le secteur privé pour la réglementer.
Nous l’avons vu aujourd’hui lors d’une audience du Comité judiciaire du Sénat sur la façon de gouverner l’IA. Le PDG d’OpenAI, Sam Altman, la responsable de la confidentialité et de la confiance d’IBM, Christina Montgomery, et le professeur émérite de la NYU, Gary Marcus, ont témoigné devant le sous-comité de la confidentialité, de la technologie et de la loi sur ce qu’il faut faire maintenant que l’IA générative a été libérée de la boîte de Pandore. Altman était ouvert et coopératif, plaidant même pour la réglementation de ChatGPT et de l’IA générative. Mais cela a semblé avoir un effet désarmant sur le sous-comité, qui a surtout posé des questions sur le softball.
L’audience de trois heures a abordé les nombreux risques que l’IA générative pose à la société et la manière dont notre pays peut naviguer avec succès dans la prochaine révolution industrielle. Malheureusement, traiter autant de problèmes dans un seul cadre signifiait qu’il y avait à peine le temps de se plonger dans les préoccupations dominantes telles que le remplacement d’emploi, la loi sur le droit d’auteur et, oh oui, la sécurité nationale. Voici les faits saillants :
1. Le discours d’ouverture du sénateur Blumenthal comprenait un deepfake
Le tweet a peut-être été supprimé
Le sénateur Richard Blumenthal a lancé l’audience avec une touche dramatique en jouant un enregistrement deepfake de sa voix parlant de ChatGPT. L’enregistrement a été créé à partir de l’audio de ses discours et les remarques ont été générées par ChatGPT à qui on a demandé comment Blumenthal ouvrirait l’audience. Diriger avec deepfake a donné le ton pour le reste de l’audience en soulignant les capacités impressionnantes de l’IA générative et à quel point elle peut être dangereuse si elle n’est pas contrôlée.
2. Toute la question du remplacement des emplois reste non résolue
L’une des principales préoccupations concernant ChatGPT et l’IA générative concerne les emplois qu’il remplacera en automatisant les tâches. Lorsqu’on lui a demandé si c’était une préoccupation, Altman a estimé que l’IA pourrait remplacer les emplois mais en créer de nouveaux : « Je crois qu’il y aura des emplois beaucoup plus importants de l’autre côté et que les emplois d’aujourd’hui s’amélioreront. » Montgomery a ajouté que la chose la plus importante que nous devrions faire est de préparer la main-d’œuvre aux compétences liées à l’IA par la formation et l’éducation.
Mais à qui incombe cette responsabilité, cela n’a pas été dit. « Je pense que cela nécessitera un partenariat entre l’industrie et le gouvernement, mais surtout une action du gouvernement pour déterminer comment nous voulons atténuer cela », a déclaré Altman. En d’autres termes, ce n’est pas le problème d’OpenAI.
3. Tout le monde s’accorde à dire que l’IA doit être réglementée
Le sénateur Dick Durbin a commencé ses remarques en notant la conversation inhabituellement coopérative entre les secteurs public et privé. « Je ne me souviens pas quand des personnes représentant de grandes entreprises ou des entités du secteur privé se sont présentées devant nous et nous ont suppliés de les réglementer. » Plaider pour une réglementation était peut-être une exagération, mais Altman et Montgomery ont montré qu’ils étaient volontairement et parfois avec enthousiasme ouverts à la surveillance du gouvernement.
Cela allait au-delà des platitudes générales. Altman a déclaré qu’il pensait que la section 230 ne s’appliquait pas à l’IA générative, ce qui signifie que les entreprises qui proposent cette technologie devraient être tenues responsables, et qu’il doit y avoir un cadre entièrement nouveau pour le contenu créé par l’IA générative.
Cela pourrait être interprété comme un exemple réussi de freins et contrepoids démocratiques au travail, mais cela a également souligné à quel point la menace de l’IA est grave – et à quel point des entreprises comme OpenAI ressentent le besoin de se protéger de toute responsabilité.
Une réglementation de cette ampleur pourrait même conduire à la création d’une nouvelle agence fédérale comme la Food and Drug Administration, ce que Marcus a proposé. « Mon opinion est que nous avons probablement besoin d’une organisation au niveau du cabinet aux États-Unis pour résoudre ce problème. Et mon raisonnement est que le nombre de risques est important, la quantité d’informations à suivre est tellement importante que je pense que nous besoin de beaucoup d’expertise technique, je pense que nous avons besoin de beaucoup de coordination de ces efforts. »
Une autre idée qui a circulé était l’octroi de licences pour l’IA générative, semblable à l’octroi de licences pour les opérations nucléaires.
4. La désinformation est une préoccupation majeure, en particulier à l’approche d’une élection
L’un des thèmes sous-jacents de l’audience était de savoir comment tirer les leçons des erreurs commises par le Congrès en ne tenant pas les sociétés de médias sociaux responsables de la modération du contenu, ce qui a conduit à une désinformation généralisée lors des élections de 2016 et 2020. Le potentiel de l’IA générative pour créer et diffuser des informations inexactes ou biaisées à grande échelle est réel et imminent à moins qu’il ne soit traité maintenant.
« Étant donné que nous allons faire face à une élection l’année prochaine, et ces modèles s’améliorent. Je pense que c’est un sujet de préoccupation important », a déclaré Altman. Il est ouvert aux « étiquettes nutritionnelles » sur la nature et la source du contenu génératif de l’IA provenant de tiers, mais Marcus pense que la racine du problème est la transparence et l’accès au fonctionnement de l’algorithme. « L’une des choses qui me préoccupent le plus avec GPT. Quatrièmement, nous ne savons pas sur quoi il est formé, je suppose que Sam le sait, mais le reste d’entre nous ne le sait pas. Et ce sur quoi il est formé a des conséquences pour essentiellement les préjugés du système. »
5. La sénatrice Marsha Blackburn aime Garth Brooks et la sénatrice Mazie Hinono aime BTS
Les membres du comité n’ont pas pu résister à l’occasion d’ajouter un peu de légèreté à la nature sérieuse de l’audience. Les sénateurs Cory Booker et Jon Ossoff ont lancé leur bromance en douceur en se qualifiant de beaux et de brillants. Le sénateur Peter Welch a fait une remarque d’autodérision sur son intérêt pour l’audience en disant : « Les sénateurs sont connus pour leur courte durée d’attention, mais j’ai assisté à toute cette audience et j’en ai apprécié chaque minute.
Lorsqu’elle a interrogé Altman sur l’outil de musique automatisé Jukebox d’OpenAI et la loi sur le droit d’auteur, Blackburn a exprimé son inquiétude quant à la propriété d’une chanson créée avec le style et la voix de son artiste préféré Garth Brooks. Hinono était également inquiète des chansons deepfake créées pour sonner comme son groupe préféré BTS. Malgré à quel point il était étrange d’entendre le célèbre chanteur de musique country et sensation K-Pop mentionné dans ce contexte, Blackburn et Hinono ont soulevé des points valables sur la propriété intellectuelle.
6. La sécurité nationale est trop importante pour être couverte aujourd’hui
L’audience de trois heures a couvert tellement de risques de l’IA générative que Blumenthal n’a mentionné sa menace pour la sécurité nationale que dans ses remarques finales, en disant : « les sources de menaces pour cette nation dans cet espace sont très réelles et urgentes. Nous n’allons pas pour les traiter aujourd’hui, mais nous devons nous en occuper. »
L’audience a abordé un large éventail de questions sur lesquelles l’IA générative pourrait avoir un impact : emploi, désinformation, propriété intellectuelle, confidentialité, sécurité, préjugés et discrimination, mais la session de trois heures n’a pas suffi pour aborder la manière dont cela pourrait affecter l’économie ou les menaces. des adversaires mondiaux.