Rejoignez-nous
Divers

Les politiques d’OpenAI ont été mises à jour discrètement, supprimant l’interdiction des applications militaires et de guerre

Pierre

Date de publication :

le

Les politiques d'OpenAI ont été mises à jour discrètement, supprimant l'interdiction des applications militaires et de guerre

La réécriture majeure interdit toujours les utilisations qui « nuisent à vous-même ou à autrui ».

OpenAI pourrait ouvrir la voie à la découverte du potentiel militaire de son IA.

Rapporté pour la première fois par The Intercept le 12 janvier, un nouveau changement de politique de l’entreprise a complètement supprimé le libellé précédent qui interdisait « les activités présentant un risque élevé de dommages physiques », y compris des exemples spécifiques de « développement d’armes » et « militaires et de guerre ».

Depuis le 10 janvier, les directives d’utilisation d’OpenAI n’incluent plus d’interdiction des utilisations « militaires et guerrières » dans le langage existant qui oblige les utilisateurs à prévenir tout préjudice. La politique ne fait désormais état que d’une interdiction d’utiliser la technologie OpenAI, comme ses grands modèles linguistiques (LLM), pour « développer ou utiliser des armes ».

Des rapports ultérieurs sur la modification de la politique ont souligné la possibilité immédiate de partenariats lucratifs entre OpenAI et les ministères de la Défense cherchant à utiliser l’IA générative dans des opérations administratives ou de renseignement.

En novembre 2023, le ministère américain de la Défense a publié une déclaration sur sa mission visant à promouvoir « l’utilisation militaire responsable de l’intelligence artificielle et des systèmes autonomes », citant l’adhésion du pays à la Déclaration politique internationale sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. une « meilleures pratiques » dirigée par les États-Unis, annoncée en février 2023, qui a été élaborée pour surveiller et guider le développement des capacités militaires de l’IA.

« Les capacités militaires de l’IA comprennent non seulement des armes, mais également des systèmes d’aide à la décision qui aident les dirigeants de la défense à tous les niveaux à prendre des décisions meilleures et plus rapides, du champ de bataille à la salle de réunion, ainsi que des systèmes liés à tout, depuis les finances, la paie et la comptabilité jusqu’au recrutement. « , la rétention et la promotion du personnel, jusqu’à la collecte et la fusion des données de renseignement, de surveillance et de reconnaissance », explique le communiqué.

L’IA a déjà été utilisée par l’armée américaine dans la guerre russo-ukrainienne et dans le développement de véhicules militaires autonomes alimentés par l’IA. Ailleurs, l’IA a été intégrée aux systèmes de renseignement et de ciblage militaires, y compris un système d’IA connu sous le nom de « The Gospel », utilisé par les forces israéliennes pour identifier des cibles et qui aurait « réduit les pertes humaines » lors de leurs attaques sur Gaza.

Les organismes de surveillance et les militants de l’IA ont constamment exprimé leur inquiétude quant à l’incorporation croissante des technologies de l’IA dans les cyberconflits et les combats, craignant une escalade du conflit armé en plus des préjugés notoires de longue date du système d’IA.

Dans une déclaration à Intercept, le porte-parole d’OpenAI, Niko Felix, a expliqué que le changement visait à rationaliser les directives de l’entreprise : « Nous visions à créer un ensemble de principes universels qui sont à la fois faciles à retenir et à appliquer, d’autant plus que nos outils sont désormais utilisés à l’échelle mondiale par  » Les utilisateurs quotidiens peuvent désormais également créer des GPT. Un principe tel que « Ne pas nuire aux autres » est vaste mais facile à comprendre et pertinent dans de nombreux contextes. De plus, nous avons spécifiquement cité les armes et les blessures infligées à autrui comme exemples clairs. « 

OpenAI présente ses politiques d’utilisation dans un refrain tout aussi simpliste : « Nous visons à ce que nos outils soient utilisés de manière sûre et responsable, tout en maximisant votre contrôle sur la façon dont vous les utilisez. »

Pierre, plus connu sous son pseudonyme "Pierrot le Fou", est un rédacteur emblématique du site Indigo Buzz. Originaire d'une petite ville du sud-ouest du Gers, cet aventurier des temps modernes est né sous le signe de l'ombre en 1986 au sommet d'une tour esotérique. Élevé dans une famille de magiciens-discount, il a développé un goût prononcé pour l'excentricité et la magie des mots dès son plus jeune âge. Pierre a commencé sa carrière de rédacteur dans un fanzine local dédié aux films d'horreur des années 80, tout en poursuivant des études de communication à l'Université de Toulouse. Passionné par l'univers du web, il a rapidement pris conscience de l'impact du numérique et des réseaux sociaux sur notre société. C'est alors qu'il a décidé de troquer sa collection de cassettes VHS contre un ordinateur flambant neuf... enfin presque.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *