Rejoignez-nous
Divers

« Le temps est venu » de réglementer l’IA, déclare un conseiller de l’ONU

Pierre

Date de publication :

le

« Le temps est venu » de réglementer l’IA, déclare un conseiller de l’ONU

L’organisme international considère l’IA comme une aubaine potentielle… et peut-être aussi dévastatrice que les armes nucléaires.

Alors que les acteurs de l'industrie technologique déploient de nouveaux investissements dans l'IA sur les rives de l'Hudson, les dirigeants internationaux se sont rassemblés à Manhattan, sur l'East River, pour la session annuelle de l'Assemblée générale des Nations Unies de septembre – un forum mondial sur de grandes questions comme le développement durable, la fin des conflits armés et, au milieu de tout cela, l'intelligence artificielle.

Neil Sahota, PDG de la société de recherche en intelligence artificielle ACSILabs, était également présent. Il a été conseiller de longue date de l’ONU en matière d’intelligence artificielle et spécialiste de la première heure de la recherche et du développement en intelligence artificielle. Il y a vingt ans, Sahota s’est retrouvé au milieu d’un boom des investissements dans le domaine de la « veille économique », et a fini par rejoindre l’équipe secrète d’IBM à l’origine de Watson, l’intelligence artificielle qui joue à Jeopardy ! Il est l’un des fondateurs de l’initiative AI for Good de l’ONU, observant en temps réel l’essor des outils d’IA mondiaux et les préoccupations qui en découlent, et les guidant même. Et depuis près d’une décennie, Sahota est de garde auprès de l’organisme international alors qu’il élabore une réponse « tactique » à l’IA.

« C’était un monde nouveau et courageux », a déclaré Sahota. Depuis, l’ONU a investi dans des centaines de projets et de programmes d’IA, et différents organismes ont tenté d’élaborer des directives sur l’IA qui reflètent les besoins de la population mondiale. Mais avec l’accélération des investissements nationaux dans l’IA, une question sans réponse se pose : comment l’IA doit-elle être réglementée ?

Malgré sa complexité, des défenseurs comme Sahota estiment que l’organisation internationale est la meilleure option au monde pour protéger l’impact de l’IA. « L’ONU est l’une, sinon la seule, organisation mondiale de confiance qui a la crédibilité nécessaire pour mener réellement cet effort », a-t-il expliqué. « Elle peut devenir un leader pour aider les pays membres – aider les gens, aider l’industrie – à comprendre et à créer un nouvel état d’esprit autour de l’IA. »

Mais il est peut-être trop tard. « Les gens se rendent compte que nous manquons de temps, ou peut-être que nous n’en avons déjà plus, pour comprendre ces choses », a déclaré Sahota à Indigo Buzz. « Nous vivons une époque de changement extrême, qui va durer 100 ans dans les 10 prochaines années. Nous n’avons plus le temps de réagir. »

L'ONU se lance dans la course aux armements de l'IA

Partout dans le monde, les États-nations investissent de plus en plus dans l’IA, tentant de devancer les autres sur le plan technologique. C’est ce que l’AI Now Institute appelle la « course aux armements de l’IA ». Cette course a favorisé la montée de ce que les experts ont appelé le « nationalisme de l’IA », c’est-à-dire la transformation de l’IA en préoccupation industrielle fondamentale et en ressource industrielle nationale, explique l’institut. La revendication de souveraineté technologique des États-nations qui mènent la charge (principalement les États-Unis et la Chine) a augmenté parallèlement à cette course.

D’autres gouvernements et organismes internationaux ont passé ces dernières années à formuler des réponses à la nature de plus en plus politique du développement de l’IA. L’ONU discute de l’impact de l’IA dans les discussions réglementaires depuis au moins 2017. En mars, l’Assemblée générale a adopté une résolution visant à « orienter l’utilisation de l’IA vers le bien mondial » dans un contexte de préoccupations « existentielles ». Les représentants américains ont présenté cette déclaration d’intention historique, affirmant que la communauté internationale doit « gouverner cette technologie plutôt que de se laisser gouverner par elle ».

Le groupe de travail actuel de l’ONU, le Groupe consultatif de haut niveau sur l’intelligence artificielle, a été formé en 2023, après plusieurs années de suggestions de conseillers comme Sahota.

Le rapport « Gouverner l’IA pour l’humanité » est né de la réunion de cette année. Il se présente tantôt comme une liste de risques qui donne à réfléchir, tantôt comme un guide optimiste pour le co-investissement, dans un contexte de « possibilités » croissantes en matière d’IA. Il recommande la création d’un nouveau groupe scientifique indépendant pour étudier les « capacités, les opportunités, les risques et les incertitudes » de l’IA ; il encourage le « partage des normes de l’IA » et établit des plans pour une sorte de réseau de gouvernance de l’IA ; et il fait pression pour la création d’un fonds mondial pour l’IA afin de favoriser des investissements plus « équitables ».

« Les systèmes d’IA rapides, opaques et autonomes remettent en cause les systèmes de régulation traditionnels, tandis que des systèmes toujours plus puissants pourraient bouleverser le monde du travail. Les armes autonomes et les utilisations de l’IA à des fins de sécurité publique soulèvent de graves questions juridiques, sécuritaires et humanitaires », prévient le rapport. « Il existe aujourd’hui un déficit de gouvernance mondiale en ce qui concerne l’IA. Malgré de nombreux débats sur l’éthique et les principes, la mosaïque de normes et d’institutions est encore naissante et pleine de lacunes. La responsabilité est souvent remarquable par son absence, notamment pour le déploiement de systèmes d’IA inexplicables qui ont un impact sur les autres. La conformité repose souvent sur le volontarisme ; la pratique dément la rhétorique. »

Sahota a contribué à l'élaboration du rapport, mais n'a pas siégé au comité. Il a expliqué que le rapport était en cours d'élaboration depuis des années (il a même pu être à un moment donné le point culminant du sommet AI for Good de l'organisation), mais qu'il nécessitait l'avis unanime des 192 pays membres pour avoir une quelconque crédibilité.

Ayant observé les compromis politiques nécessaires à la formalisation d’un rapport sur l’IA de cette ampleur, Sahota a noté que certaines suggestions réglementaires allaient être « adoucies » et d’autres « renforcées ». Sahota a défendu pendant des années la création d’un organe distinct de l’ONU dédié à l’IA et à la surveillance technologique, et le nouveau rapport recommande la création d’un « groupe scientifique international indépendant » et d’un bureau de l’IA au sein du Secrétariat de l’ONU. Mais il reste encore beaucoup à faire avant que cet organisme n’ait une quelconque influence formelle.

Un bureau de ce type, soutient Sahota, est crucial, car il sert de point focal pour rassembler les groupes de travail, les comités, les projets et pour donner de la visibilité aux efforts de réglementation internationale.

Le rapport relève une surabondance de « documents et dialogues » adoptés par les gouvernements, les entreprises, les consortiums et les organisations internationales qui se concentrent sur la gouvernance de l’IA. Mais, selon l’ONU, « aucun d’entre eux ne peut avoir une portée véritablement mondiale et une couverture exhaustive. Cela conduit à des problèmes de représentation, de coordination et de mise en œuvre ». L’avenir loin d’être idéal de la gouvernance de l’IA implique « des régimes de gouvernance de l’IA déconnectés et incompatibles », selon l’ONU, ce qui rend nécessaire la coordination.

L’appel semble urgent, mais il est attendu depuis longtemps.

« À l’ère du numérique, il n’y a plus de frontières », a déclaré Sahota. « Quelqu’un développe une technologie d’intelligence artificielle, ou n’importe quelle autre technologie, et il n’y a vraiment aucun moyen d’arrêter sa propagation ou son utilisation où que ce soit dans le monde. » L’omniprésence de l’intelligence artificielle inquiète beaucoup de monde, et son impact sur la majorité de la planète, sur les nations autrefois colonisées, est un problème qui nécessitera une collaboration internationale. À bien des égards, il soulève les mêmes questions complexes que l’aggravation de la crise climatique. Et les politiques nationales font déjà des concessions similaires.

L'IA contourne le bras long de la loi

Les pays et les blocs politiques ont déployé de nombreux efforts pour réglementer et élaborer des normes. En mai, l’Union européenne a promulgué une loi sur l’intelligence artificielle, la première du genre, destinée à protéger ses citoyens contre l’IA « à haut risque ». Le Canada dispose également d’une norme réglementaire juridiquement contraignante, connue sous le nom de Loi sur l’intelligence artificielle et les données.

Mais dans l’ensemble, la surveillance réglementaire de l’IA est fragmentaire et s’appuie sur des principes de droit souple. L’UNESCO a mené un vaste effort international pour créer un cadre de droits de l’homme autour de l’IA, notamment ses Recommandations éthiques sur l’IA, un Observatoire mondial de l’éthique et de la gouvernance de l’IA et un « RAM » de l’IA, conçu pour aider les États membres à évaluer leur état de préparation à la mise en œuvre de l’IA. « Dans aucun autre domaine, la boussole éthique n’est plus pertinente que dans l’intelligence artificielle », écrit Gabriela Ramos, sous-directrice générale de l’UNESCO pour les sciences sociales et humaines.

L’Organisation de coopération et de développement économiques (OCDE) joue également un rôle majeur, en établissant des cadres internationaux pour une éventuelle coopération intergouvernementale et en créant des méthodologies d’évaluation éthique. La Recommandation de l’OCDE sur l’intelligence artificielle, le premier ensemble de principes intergouvernementaux pour une IA digne de confiance, a mis l’accent sur l’« interopérabilité » des politiques en matière d’IA. Il convient de noter que les principaux acteurs de l’OCDE – les nations signataires de ses travaux – sont des pays riches et « industrialisés » : le Groupe d’amis du processus d’IA d’Hiroshima au Japon, le Partenariat mondial sur l’intelligence artificielle (GPAI) des États-Unis, la Déclaration de Bletchley du Royaume-Uni et les Mesures intérimaires sur l’IA générative de la Chine, par exemple.

Les États-Unis ont présenté des dizaines de projets de loi sur la réglementation de l’IA, les États se concentrant sur la réglementation des contrefaçons numériques synthétiques, ou deepfakes.

Mais la lenteur des efforts législatifs des États-nations a permis une prolifération de cas d’utilisation inappropriés de l’IA générative, ainsi que la croissance d’intérêts privés dans son développement et sa mise en œuvre.

Le rapport de l’ONU suggère que si le développement de l’IA présentait un risque extrême, cette technologie pourrait être traitée comme une arme biologique ou même comme l’énergie nucléaire – une science qui a été limitée et réglementée par les États membres participants pour le plus grand bien de l’humanité. L’Agence internationale de l’énergie atomique (AIEA), par exemple, a limité la science nucléaire à des fins énergétiques et médicales et interdit toute nouvelle militarisation. (L’ironie du sort selon laquelle l’énergie nucléaire pourrait être la prochaine voie à suivre pour répondre aux besoins de l’IA sur le réseau énergétique n’est pas perdue.)

Mais l’analogie est limitée. « L’énergie nucléaire implique un ensemble bien défini de processus liés à des matériaux spécifiques qui sont inégalement répartis, et une grande partie des matériaux et des infrastructures nécessaires à la création de capacités nucléaires sont contrôlés par les États-nations », souligne le rapport. « L’IA est un terme amorphe ; ses applications sont extrêmement vastes et ses capacités les plus puissantes s’étendent à l’industrie et aux États. »

La stratégie de l'ONU consistant à « montrer l'exemple »

La nature diffuse de l’IA implique que la collaboration et la prévoyance sont essentielles. « L’une de mes préoccupations est que nous travaillons sur des choses que nous ne comprenons pas entièrement. En tant que technologues, nous travaillons en fonction du résultat – nous devons simplement mesurer le résultat que nous recherchons », explique Sahota. « Nous ne pensons pas aux autres utilisations ou aux abus. Nous ne pensons pas à ces autres impacts auxiliaires, à ces impacts indirects, aux effets d’entraînement. »

Malgré l’histoire de cet organisme international et le problème récurrent des États-nations qui évitent la coopération, Sahota ne croit pas qu’il existe un meilleur forum international pour réglementer l’IA. « Nous devons définir ce que signifie une utilisation juste et éthique. Il n’y a aucun moyen de contourner cela. Et qui va diriger cela ? C’est fait sur mesure pour un organisme comme l’ONU. »

Se pourrait-il alors que l’existence de l’IA en tant que technologie vaste et intersectorielle – une technologie que les pays recherchent avec impatience et qui n’est pas, à première vue, liée à des questions historiquement controversées – offre la première opportunité d’un accord unilatéral ?

Selon Sahota, l’ONU peut servir d’organisme international de normalisation sur lequel les États-nations peuvent s’appuyer pour investir dans l’IA et la réglementer. Plutôt que de se contenter de planifier les impacts négatifs potentiels, l’ONU devrait modéliser les cas d’utilisation appropriés de la technologie de l’IA. « Les politiques et la réglementation ne doivent pas se limiter à nettoyer les garde-fous et à limiter les risques négatifs ou la responsabilité juridique, il est également possible de créer de bonnes choses. »

C’est peut-être la seule voie à suivre, car les récentes recommandations de l’ONU sur la gouvernance de l’IA sont moins un cadre réglementaire qu’un plan de co-investissement. Elles nécessitent l’adhésion de l’ensemble des puissances internationales, celles qui accepteront des choses comme un fonds de partage des données, un fonds d’investissement mondial pour l’IA ou un « réseau de développement » pour réunir des experts et des ressources. Bien que le nouveau rapport de l’ONU avance un argument éthique similaire à celui de Sahota, il estime que le manque de soutien des États membres – prouvant qu’ils sont nombreux à adhérer déjà au plan « prêcher par l’exemple » – est une erreur.

« Ce fonds pour l’IA pourrait être un moyen de donner un coup de pouce, d’inciter les gens à réfléchir à l’impact que ces technologies pourraient avoir », a-t-il expliqué. « Mais il aurait été intéressant de voir les prochaines étapes définies, de pouvoir au moins constater une partie de l’adhésion, et que cela serve de motivation ou de crédibilité. Cela montrerait que ce n’est pas seulement une question de têtes parlantes. C’est plus que des morceaux de papier qui prennent la poussière. »

La publication du rapport de l’ONU et le fait que les réunions de haut niveau consacrent du temps aux discussions sur l’éthique de l’IA constituent un exploit monumental dans un contexte de montée du nationalisme autour de l’IA. Mais la technologie évolue plus vite que les gens et les processus, a expliqué Sahota, et les organismes politiques doivent accélérer les choses. « De plus en plus de personnes voient que cette fenêtre se ferme rapidement », a déclaré Sahota. « C’est désormais un défi pour les gens. Pouvez-vous imaginer si tout le monde devenait un penseur proactif ? À quel point ce changement serait profond ? Vous pouvez dire aux gens qu’il y a quelques années pour comprendre cela, et ils pensent que c’est un long délai. Deux semaines peuvent sembler une éternité, mais nous n’avons que le temps que nous pensons avoir. »

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.