Voici comment Google pense que l'IA devrait être réglementée
« L'IA est trop importante pour ne pas être réglementée »
Alors que les gouvernements des États et fédéraux s’efforcent de réglementer l’IA, Google a fait part de ses propres réflexions.
Mercredi, le géant de la technologie a publié un article de blog intitulé « 7 principes pour bien réglementer l'IA ». Sans surprise, le message général est que l’IA doit être réglementée, mais pas au point qu’elle entrave l’innovation. « Nous sommes au milieu d'une course technologique mondiale », a écrit Kent Walker, président des affaires mondiales de Google et de sa société mère Alphabet. « Et comme toutes les courses technologiques, c'est une compétition qui sera gagnée non pas par le pays qui inventera quelque chose en premier, mais par les pays qui le déploieront le mieux, dans tous les secteurs. »
Google et les sociétés d’IA comme OpenAI ont publiquement adopté une attitude coopérative à l’égard de la réglementation de l’IA, invoquant la menace d’un risque existentiel. Le PDG de Google, Sundar Pichai, a participé aux forums AI Insight du Sénat pour expliquer comment le Congrès devrait légiférer sur l'IA. Mais certains partisans d’un écosystème d’IA moins réglementé et plus open source ont critiqué Google et d’autres pour avoir semé la peur afin de parvenir à une capture réglementaire.
« Altman, Hassabis et Amodei sont ceux qui font actuellement un lobbying massif auprès des entreprises », a déclaré Yann LeCun, scientifique en chef de l'IA de Meta, faisant référence respectivement aux PDG d'OpenAI, de Google DeepMind et d'Anthropic. « Si vos campagnes alarmistes réussissent, elles aboutiront inévitablement à ce que vous et moi qualifierions de catastrophe : un petit nombre d'entreprises contrôleront l'IA. »
Le tweet a peut-être été supprimé
Walker a fait référence au décret de la Maison Blanche sur l’IA, à la feuille de route politique sur l’IA proposée par le Sénat américain et aux récents projets de loi sur l’IA en Californie et dans le Connecticut. Bien que Google affirme soutenir ces efforts, la législation sur l’IA devrait se concentrer sur la réglementation des résultats spécifiques du développement de l’IA, et non sur des lois générales qui étouffent le développement. « Pour faire progresser l'innovation américaine, il faut intervenir là où les dommages sont réels, et non pas freiner la recherche », a déclaré Walker, qui a souligné dans une section sur « la recherche d'un alignement » que plus de 600 projets de loi ont été proposés rien qu'aux États-Unis.
La publication de Google a également brièvement abordé la question de la violation du droit d'auteur et comment et quelles données sont utilisées pour former les modèles d'IA. Les entreprises dotées de modèles d'IA affirment que l'utilisation de données accessibles au public sur le Web constitue une utilisation équitable. Elles ont été accusées par des sociétés de médias et, plus récemment, par de grandes maisons de disques de violer le droit d'auteur et d'en tirer profit.
Walker, réaffirme essentiellement l'argument de l'utilisation équitable, mais reconnaît qu'il devrait y avoir plus de transparence et de contrôle sur les données de formation à l'IA, affirmant que « les propriétaires de sites Web devraient pouvoir utiliser des outils lisibles par machine pour refuser que le contenu de leurs sites soit utilisé pour la formation à l'IA ». « .
Le principe de « soutien à l’innovation responsable » couvre les « risques connus » en termes généraux. Mais il n’entre pas dans les détails concernant, par exemple, la surveillance réglementaire visant à prévenir les inexactitudes flagrantes dans les réponses de l’IA générative qui pourraient alimenter la désinformation et causer des dommages.
Pour être honnête, personne n'a réellement pris au sérieux lorsque le résumé de l'IA de Google recommandait de mettre de la colle sur une pizza, mais il s'agit d'un exemple récent qui souligne le débat en cours sur la responsabilité des mensonges générés par l'IA et sur le déploiement responsable.