OpenAI a discrètement fait pression pour une réglementation plus faible de l’IA tout en appelant publiquement à être réglementé
Soit dit en passant, les efforts de lobbying de l’entreprise ont réussi.
Le PDG d’OpenAI, Sam Altman, a été très fort sur la nécessité d’une réglementation de l’IA lors de nombreuses interviews, événements et même lorsqu’il était assis devant le Congrès américain.
Cependant, selon les documents d’OpenAI utilisés pour les efforts de lobbying de l’entreprise dans l’UE, il y a un hic : OpenAI veut des réglementations qui favorisent fortement l’entreprise et ont travaillé pour affaiblir la réglementation proposée sur l’IA.
Les documents, obtenus par Time de la Commission européenne via des demandes d’accès à l’information, donne un aperçu des coulisses de ce que veut dire AItman lorsqu’il appelle à une réglementation de l’IA.
Dans le document, intitulé « Livre blanc d’OpenAI sur la loi sur l’intelligence artificielle de l’Union européenne », la société se concentre exactement sur ce qu’elle dit : la loi sur l’IA de l’UE et tente de modifier diverses désignations dans la loi, ce qui en affaiblirait la portée. Par exemple, les « systèmes d’IA à usage général » comme le GPT-3 ont été classés comme « à haut risque » dans la loi sur l’IA de l’UE.
Selon la Commission européenne, la classification « risque élevé » comprendrait des systèmes qui pourraient entraîner « une atteinte à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement des personnes ». Ils incluent des exemples tels que l’IA qui « influence les électeurs dans les campagnes politiques et dans les systèmes de recommandation utilisés par les plateformes de médias sociaux ». Ces systèmes d’IA « à haut risque » seraient soumis à des exigences légales en matière de surveillance humaine et de transparence.
« En soi, GPT-3 n’est pas un système à haut risque, mais possède des capacités qui peuvent potentiellement être utilisées dans des cas d’utilisation à haut risque », lit-on dans le livre blanc d’OpenAI. OpenAI s’est également opposé à la classification de l’IA générative comme le populaire ChatGPT et le générateur d’art d’IA Dall-E comme « à haut risque ».
Fondamentalement, la position d’OpenAI est que l’accent réglementaire devrait être mis sur les entreprises utilisant des modèles de langage, telles que les applications qui utilisent l’API d’OpenAI, et non sur les entreprises qui forment et fournissent les modèles.
Position d’OpenAI alignée sur Microsoft, Google
Selon le tempsOpenAI a essentiellement soutenu les positions détenues par Microsoft et Google lorsque ces entreprises ont fait pression pour affaiblir les réglementations de la loi sur l’IA de l’UE.
La section contre laquelle OpenAI a fait pression a fini par être supprimée de la version finale de la loi sur l’IA.
Les efforts de lobbying réussis d’OpenAI expliquent probablement le changement d’avis d’Altman en ce qui concerne les opérations d’OpenAI en Europe. Altman précédemment menacé de retirer OpenAI de l’UE à cause de la loi sur l’IA. Le mois dernier, cependant, il a fait marche arrière. Altman a dit à l’époque où le précédent projet de loi sur l’IA « était trop réglementé, mais nous avons entendu dire qu’il allait être retiré ».
Maintenant que certaines parties de la loi sur l’IA de l’UE ont été « retirées », OpenAI n’a pas l’intention de partir.