6 façons dont la Maison Blanche règne sur l’IA
Le programme d’IA de Biden est mis au point.
Cette semaine, la Maison Blanche s’est empressée de faire face aux dangers imminents et aux opportunités considérables de l’IA. En Europe, la technologie a déjà fait face à une importante opposition législative, les législateurs élaborant des paramètres dans une « loi sur l’IA ». ChatGPT a été interdit en Italie en mars, mais le propriétaire OpenAI a mis en œuvre la majorité des demandes des régulateurs, ce qui a entraîné une levée de la restriction. le mois dernier.
Après avoir rencontré les chefs d’une poignée de grandes entreprises technologiques d’IA générative, le président Biden et le vice-président Harris se sont engagés à au moins essayer de limiter la portée excessive potentielle de l’IA, déclarant dans un communiqué: « (Nous sommes) déterminés à faire notre part – y compris en faisant progresser de nouvelles réglementations potentielles et en soutenant de nouvelles législations – afin que chacun puisse bénéficier en toute sécurité des innovations technologiques. »
Voici les mesures liées à l’IA que le gouvernement a annoncées ces dernières semaines :
1. Le Bureau de la politique scientifique et technologique de l’administration a publié le « Plan directeur pour une déclaration des droits de l’IA »
Le plan directeur pour une déclaration des droits de l’IA est un court ensemble de lignes directrices – environ 2 000 mots – qui décrit la position du gouvernement sur les droits et la protection des Américains contre l’intelligence artificielle. Pour l’instant, le Plan directeur sert d’espace réservé à la législation officielle en comblant les lacunes non couvertes par les lois ou politiques existantes. Il dit que chaque Américain devrait avoir droit à :
-
Protection contre les systèmes d’IA défectueux ou dangereux.
-
Protection contre toute IA ou algorithme discriminatoire.
-
Le droit à la confidentialité et à la sécurité des données lorsqu’il s’agit d’IA.
-
Le droit de savoir quand vous interagissez avec un système d’IA.
-
La possibilité de refuser les expériences qui utilisent l’IA.
Pour renforcer la transparence et la confiance dans le gouvernement fédéral, le Bureau de la gestion et du budget (OMB) prévoit de publier un projet d’orientations politiques sur l’utilisation des systèmes d’IA par le gouvernement américain. Cela servira de modèle aux gouvernements des États et locaux et garantira que l’utilisation des systèmes d’IA par le gouvernement protégera les droits et la sécurité des Américains.
2. Le vice-président Harris a rencontré les PDG d’OpenAI, Anthropic, Microsoft et Alphabet
Le 4 mai, le vice-président Kamala Harris et une demi-douzaine de représentants des organisations technologiques, politiques et de sécurité nationale de l’administration ont rencontré quatre PDG de la technologie : Sam Altman d’OpenAI, Dario Amodei d’Anthropic, Satya Nadella de Microsoft et Sundar Pichai. d’Alphabet (Google).
Selon un communiqué de presse de la Maison Blanche, la réunion a porté spécifiquement sur :
-
« la nécessité pour les entreprises d’être plus transparentes avec les décideurs politiques, le public et les autres au sujet de leurs systèmes d’IA »
-
« l’importance de pouvoir évaluer, vérifier et valider la sûreté, la sécurité et l’efficacité des systèmes d’IA », et…
-
« la nécessité de s’assurer que les systèmes d’IA sont protégés contre les acteurs malveillants et les attaques. »
Biden lui-même est passé pour donner un service du bout des lèvres à la cause. « Je suis juste venu dire merci », dit-il dans une vidéo de la visite publiée sur le compte Twitter de POTUS. « Ce que vous faites a un énorme potentiel et d’énormes dangers. Je sais que vous le comprenez. Et j’espère que vous pourrez nous renseigner sur ce qui est nécessaire pour protéger la société, ainsi que pour l’avancement (sic). C’est vraiment, vraiment important. »
Le tweet a peut-être été supprimé
3. Les pirates attaqueront les principaux systèmes d’IA lors de la DEF CON 31, avec la bénédiction de la Maison Blanche
Le gouvernement a annoncé cette semaine qu’il s’associerait à AI Village à la convention de hackers DEF CON 31 d’août pour organiser une évaluation publique des systèmes d’IA d’Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI et Stability AI. Ce sera le plus grand exercice d’équipe rouge jamais mené pour n’importe quel groupe de modèles d’IA (un « événement d’équipe rouge » signifie que des experts attaqueront chaque plate-forme pour tenter de trouver des vulnérabilités de sécurité).
4. Le président Biden a été informé et a essayé ChatGPT
Lors du point de presse du 4 mai, l’attachée de presse de la Maison Blanche, Karine Jean-Pierre, a déclaré aux journalistes que le président Biden a été « largement informé » sur ChatGPT et « sait comment cela fonctionne », mais a déclaré qu’elle n’avait pas demandé son avis à ce sujet. Axios signalé que « Biden lui-même a expérimenté ChatGPT et a été fasciné par l’outil », quoi que cela signifie !
5. Le gouvernement investit 140 millions de dollars supplémentaires dans la recherche sur l’IA
La National Science Foundation investira 140 millions de dollars pour lancer sept nouveaux instituts nationaux de recherche sur l’IA pour « poursuivre des avancées transformatrices en IA qui soient éthiques, dignes de confiance, responsables et servant le bien public » et pour « renforcer l’infrastructure américaine de R&D en IA et soutenir le développement d’une main-d’œuvre diversifiée en IA ». La Fondation compte déjà 18 autres Instituts engagés dans ce travail. L’administration a également déclaré que, pour « façonner l’avenir à long terme d’une IA digne de confiance, avec plus de 700 millions de dollars d’investissements par an, la National Science Foundation continue de soutenir la recherche sur l’IA… sur l’équité, la sécurité, la sûreté et la fiabilité de Systèmes d’IA. »
6. L’administration a partagé les efforts spécifiques à chaque agence pour régir l’IA
L’Administration a précisé des mesures supplémentaires sont prises dans l’ensemble du gouvernement fédéral pour faire progresser le plan directeur de la Charte des droits de l’IA, notamment :
-
La Federal Trade Commission (FTC) envisage de limiter la surveillance commerciale, la discrimination algorithmique et les pratiques de sécurité des données susceptibles de violer l’article 5 de la loi FTC.
-
Le ministère de l’Éducation publiera des recommandations sur l’utilisation de l’IA pour l’enseignement et l’apprentissage d’ici le début de 2023 afin que les écoles comprennent mieux comment l’intégrer dans le programme.
-
Le ministère de la Santé et des Services sociaux a proposé une règle qui interdirait la discrimination par des algorithmes utilisés dans certaines prises de décision cliniques.
-
L’Agence des États-Unis pour le développement international (USAID) s’est engagée dans un plan d’action pour l’IA qui façonnerait un « programme mondial d’IA responsable ».
-
Le Bureau de la gestion et du budget, le Bureau de la politique scientifique et technologique de la Maison Blanche et le Federal Chief Information Officers Council publieront des exemples de « cas d’utilisation de l’IA gouvernementale non classifiés et non sensibles » afin que les Américains puissent comprendre comment l’IA est appliquée (du moins de manière non classifiée) par le gouvernement.