Rejoignez-nous
Divers

OpenAI et Anthropic acceptent de faire tester leurs modèles avant de les rendre publics

Pierre

Date de publication :

le

OpenAI et Anthropic acceptent de faire tester leurs modèles avant de les rendre publics

Pas si vite, dit le gouvernement américain.

OpenAI et sa société rivale Anthropic ont signé des accords avec le gouvernement américain pour que de nouveaux modèles soient testés avant leur publication publique.

Jeudi, le National Institute of Standards and Technology (NIST) a annoncé que son Institut de sécurité de l'IA superviserait « la recherche, les tests et l'évaluation de la sécurité de l'IA » avec les deux entreprises. « Ces accords ne sont qu'un début, mais ils constituent une étape importante dans notre travail visant à contribuer à gérer de manière responsable l'avenir de l'IA », a déclaré Elizabeth Kelly, directrice de l'Institut de sécurité de l'IA, dans l'annonce.

Ce n’est un secret pour personne que l’IA générative présente des risques pour la sécurité. Sa tendance à produire des inexactitudes et des informations erronées, à favoriser des comportements nuisibles ou illégaux et à ancrer la discrimination et les préjugés est bien documentée à ce stade. OpenAI dispose de ses propres tests de sécurité internes, mais reste discret sur le fonctionnement de ses modèles et sur les éléments sur lesquels ils sont entraînés. C’est la première fois qu’OpenAI ouvre l’accès à un contrôle et à une responsabilité de tiers. Altman et OpenAI ont insisté sur la nécessité d’une réglementation et d’une normalisation de l’IA. Mais les critiques affirment que la volonté de travailler avec le gouvernement est une stratégie visant à garantir qu’OpenAI soit réglementée favorablement et à éliminer la concurrence.

« Pour de nombreuses raisons, nous pensons qu'il est important que cela se produise au niveau national. Les États-Unis doivent continuer à montrer la voie ! », a déclaré le PDG d'OpenAI, Sam Altman, sur X.

La collaboration officielle avec le NIST s’appuie sur le décret exécutif sur l’IA signé par l’administration Biden en octobre dernier. Parmi d’autres mandats qui obligent plusieurs agences fédérales à assurer le déploiement sûr et responsable de l’IA, le décret exige que les entreprises d’IA accordent l’accès au NIST pour le red-teaming avant qu’un modèle d’IA ne soit rendu public.

L'annonce indiquait également que les conclusions et les commentaires seraient partagés en partenariat avec l'Institut britannique de sécurité de l'IA.

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Copyright © 2014-2023 - Indigo Buzz, site d'actualité collaboratif abordant les sujets comme l'high-tech, le web, les jeux vidéo, lifestyle ou encore le mobile !