Rejoignez-nous
High tech

ChatGPT pourrait être un outil d’IA utile. Alors, comment le réglemente-t-on ?

Nicolas

Date de publication :

le

ChatGPT pourrait être un outil d'IA utile.  Alors, comment le réglemente-t-on ?

À l’heure actuelle, ChatGPT est très puissant – et un peu stupide. Ce ne sera pas comme ça longtemps.

ChatGPT n’a que deux mois, mais nous avons passé du temps depuis ses débuts à débattre de sa puissance réelle et de la manière dont nous devrions le réglementer.

Le chatbot d’intelligence artificielle est utilisé par un nombre important de personnes pour les aider dans leurs recherches; envoyer des messages aux gens sur les applications de rencontres ; écrire du code; remue-méninges d’idées pour le travailet plus.

Ce n’est pas parce qu’il peut être utile qu’il ne peut pas être nocif : les étudiants peuvent l’utiliser pour rédiger des dissertations à leur place, et les mauvais acteurs peuvent l’utiliser pour créer des logiciels malveillants. Même sans intention malveillante de la part des utilisateurs, il peut générer des informations trompeuses, refléter des préjugés, générer du contenu offensant, stocker des informations sensibles et, certaines personnes le craignent, dégrader les capacités de réflexion critique de chacun en raison d’une dépendance excessive. Ensuite, il y a la peur omniprésente (bien qu’un peu infondée) que les robots prennent le relais.

Et ChatGPT peut faire tout cela sans trop – le cas échéant – de surveillance de la part du gouvernement américain.

Ce n’est pas que ChatGPT, ou les chatbots IA en général, soient intrinsèquement mauvais, a déclaré Nathan E. Sanders, un scientifique des données affilié au Berkman Klein Center de l’Université de Harvard, à Indigo Buzz. « Dans l’espace démocratique, il existe de nombreuses applications intéressantes qui les soutiennent et qui aideraient notre société », a déclaré Sanders. Ce n’est pas que l’IA ou ChatGPT ne doivent pas être utilisés, mais que nous devons nous assurer qu’ils sont utilisés de manière responsable. « Idéalement, nous voulons protéger les communautés vulnérables. Nous voulons protéger les intérêts des groupes minoritaires dans ce processus afin que les intérêts les plus riches et les plus puissants ne soient pas ceux qui dominent. »

Réglementer quelque chose comme ChatGPT est important parce que ce type d’IA peut montrer de l’indifférence envers les droits personnels individuels comme la vie privée, et renforcer les préjugés systématiques en ce qui concerne la race, le sexe, l’origine ethnique, l’âge et autres. Nous ne savons pas non plus, pour le moment, où le risque et la responsabilité peuvent résider lors de l’utilisation de l’outil.

« Nous pouvons exploiter et réglementer l’IA pour créer une société plus utopique ou risquer qu’une IA non contrôlée et non réglementée nous pousse vers un avenir plus dystopique », a écrit le représentant démocrate de Californie, Ted Lieu, dans un éditorial du New York Times la semaine dernière.. Il a également présenté une résolution au Congrès entièrement rédigée par ChatGPT qui ordonne à la Chambre des représentants de soutenir la réglementation de l’IA. Il a utilisé l’invite : « Vous êtes le membre du Congrès Ted Lieu. Rédigez une résolution complète du Congrès exprimant généralement son soutien au Congrès pour qu’il se concentre sur l’IA. »

Tout cela s’ajoute à un avenir assez incertain pour les réglementations sur les chatbots d’IA comme ChatGPT. Certains endroits imposent déjà des réglementations sur l’outil. Le sénateur de l’État du Massachusetts, Barry Finegold, a rédigé un projet de loi qui obligerait les entreprises qui utilisent des chatbots IA, comme ChatGPT, à effectuer des évaluations des risques et à mettre en œuvre des mesures de sécurité pour divulguer au gouvernement le fonctionnement de leurs algorithmes. Le projet de loi obligerait également ces outils à apposer un filigrane sur leur travail afin d’éviter le plagiat.

« C’est un outil tellement puissant qu’il doit y avoir des réglementations », a déclaré Finegold à Axios..

Il existe déjà des réglementations sur l’IA en général. La Maison Blanche a publié une « Déclaration des droits de l’IA » qui montre essentiellement comment les protections qui sont déjà en vigueur – comme les droits civils, les libertés civiles et la vie privée – affectent l’IA. L’EEOC adopte des outils d’embauche basés sur l’IA pour le potentiel qu’ils pourraient discriminer contre les classes protégées. L’Illinois exige que les employeurs qui s’appuient sur l’IA pendant le processus d’embauche autorisent le gouvernement à vérifier si l’outil a un préjugé racial. De nombreux États, dont le VermontAlabamaet l’Illinois, ont des commissions qui veillent à ce que l’IA soit utilisée de manière éthique. Le Colorado a adopté un projet de loi qui interdit aux assureurs d’utiliser l’IA qui collecte des données qui discriminent injustement en fonction des classes protégées. Et, bien sûr, l’UE est déjà en avance sur les États-Unis avec des réglementations sur l’IA : elle a adopté la loi sur la réglementation de l’intelligence artificielle. décembre dernier. Aucune de ces réglementations n’est spécifique à ChatGPT ou à d’autres chatbots IA.

Bien qu’il existe des réglementations sur l’IA à l’échelle de l’État, il n’y a rien de spécifique aux chatbots comme ChatGPT, ni à l’échelle de l’État ni à l’échelle nationale. L’Institut national des normes et de la technologie, qui fait partie du ministère du Commerce, a publié un cadre d’IA c’est censé donner aux entreprises des conseils sur l’utilisation, la conception ou le déploiement de systèmes d’IA, mais ce n’est que cela : un cadre volontaire. Il n’y a pas de punition pour ne pas s’y tenir. Pour l’avenir, la Federal Trade Commission semble créer de nouvelles règles pour les entreprises qui développent et déploient des systèmes d’IA.

« Le gouvernement fédéral va-t-il d’une manière ou d’une autre émettre des réglementations ou adopter des lois pour superviser ce genre de choses ? Je pense que c’est très, très, très peu probable », a déclaré Dan Schwartz, un partenaire en propriété intellectuelle de Nixon Peabody, à Indigo Buzz. « Il est peu probable que vous voyiez une réglementation fédérale arriver bientôt. » En 2023, Schwartz prédit que le gouvernement cherchera à réglementer la propriété de ce que produit ChatGPT. Si vous demandez à l’outil de créer du code pour vous, par exemple, possédez-vous ce code ou OpenAI ?

Ce deuxième type de réglementation – dans l’espace universitaire – est susceptible d’être une réglementation privée. Noam Chompsky compare les contributions de ChatGPT à l’éducation comme « plagiat high-tech », et quand vous plagiez à l’école, vous risquez d’être expulsé. C’est ainsi que la réglementation privée pourrait fonctionner ici aussi.

Nous pouvons rencontrer un assez gros problème en essayant de réglementer ChatGPT au niveau national : les systèmes d’IA peuvent combattre le système de réglementation très législatif qui les mettrait en échec.

Sanders, le scientifique des données, a expliqué dans un article pour le New York Times que l’intelligence artificielle comme ChatGPT « remplace les humains dans les processus démocratiques – non pas par le vote, mais par le lobbying ». En effet, ChatGPT pourrait automatiquement écrire des commentaires et les soumettre dans les processus réglementaires ; écrivez des lettres à soumettre aux journaux locaux et commentez des articles de presse et publiez des millions de publications sur les réseaux sociaux chaque jour.

Sanders explique à Indigo Buzz un concept appelé « la course de la reine rouge » dans lequel quelqu’un – à l’origine Alice de Lewis Caroll – exerce un effort extrême uniquement pour ne faire aucun progrès. Si vous donnez à une IA des capacités défensives et offensives, selon Sanders, vous pourriez vous retrouver enfermé dans un va-et-vient similaire à une course de la reine rouge, et cela pourrait devenir incontrôlable.

Sanders a déclaré à Indigo Buzz que les États-Unis pourraient potentiellement rencontrer un problème : les lobbyistes de l’IA essayant de contrôler la législation même qui tente de les régir. « Il me semble que ce sera probablement une bataille perdue d’avance pour les législateurs humains », a-t-il déclaré.

« Mon observation serait que la législation sérieuse qui a été adoptée avec succès pour réglementer l’apprentissage automatique en général a été douloureusement lente et insuffisante pour suivre les progrès dans le domaine », a déclaré Sanders. « Et je pense qu’il est facile d’imaginer que cela continue dans le futur. »

Nous devons faire attention à la façon dont nous réglementons cela, dit Sanders, car vous ne voulez pas étouffer l’innovation. Ainsi, vous pourriez, par exemple, mettre en place plus de barrages routiers pour que les gens soumettent des commentaires à leurs législateurs, comme plus de captchas. Mais cela risquerait de rendre trop difficile pour les gens ordinaires de s’engager dans un système démocratique.

« Ce que je pense être la réponse la plus utile est d’essayer d’encourager une plus grande participation démocratique, d’essayer d’encourager plus d’humains à participer au processus législatif », a déclaré Sanders. « Comme l’IA présente des défis d’échelle et d’ubiquité, impliquer davantage de personnes dans le processus et créer des structures qui permettent aux législateurs d’entendre et d’être plus réactifs envers de vraies personnes, est une solution valable pour lutter contre ce type de menace d’échelle. »

ChatGPT en est à ses balbutiements, et il y a déjà beaucoup de problèmes éthiques à prendre en compte avec son utilisation. Pourtant, il n’est pas impossible d’imaginer un avenir dans lequel des chatbots IA sophistiqués nous faciliteront la vie et amélioreront notre travail sans risquer la propagation de la désinformation et la chute du système démocratique. Il faudra peut-être un certain temps à notre gouvernement pour mettre en œuvre une réglementation significative. Après tout, nous avons vu cela jouer avant.

Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *