Les politiques d’OpenAI ont été mises à jour discrètement, supprimant l’interdiction des applications militaires et de guerre
La réécriture majeure interdit toujours les utilisations qui « nuisent à vous-même ou à autrui ».
OpenAI pourrait ouvrir la voie à la découverte du potentiel militaire de son IA.
Rapporté pour la première fois par The Intercept le 12 janvier, un nouveau changement de politique de l’entreprise a complètement supprimé le libellé précédent qui interdisait « les activités présentant un risque élevé de dommages physiques », y compris des exemples spécifiques de « développement d’armes » et « militaires et de guerre ».
Depuis le 10 janvier, les directives d’utilisation d’OpenAI n’incluent plus d’interdiction des utilisations « militaires et guerrières » dans le langage existant qui oblige les utilisateurs à prévenir tout préjudice. La politique ne fait désormais état que d’une interdiction d’utiliser la technologie OpenAI, comme ses grands modèles linguistiques (LLM), pour « développer ou utiliser des armes ».
Des rapports ultérieurs sur la modification de la politique ont souligné la possibilité immédiate de partenariats lucratifs entre OpenAI et les ministères de la Défense cherchant à utiliser l’IA générative dans des opérations administratives ou de renseignement.
En novembre 2023, le ministère américain de la Défense a publié une déclaration sur sa mission visant à promouvoir « l’utilisation militaire responsable de l’intelligence artificielle et des systèmes autonomes », citant l’adhésion du pays à la Déclaration politique internationale sur l’utilisation militaire responsable de l’intelligence artificielle et de l’autonomie. une « meilleures pratiques » dirigée par les États-Unis, annoncée en février 2023, qui a été élaborée pour surveiller et guider le développement des capacités militaires de l’IA.
« Les capacités militaires de l’IA comprennent non seulement des armes, mais également des systèmes d’aide à la décision qui aident les dirigeants de la défense à tous les niveaux à prendre des décisions meilleures et plus rapides, du champ de bataille à la salle de réunion, ainsi que des systèmes liés à tout, depuis les finances, la paie et la comptabilité jusqu’au recrutement. « , la rétention et la promotion du personnel, jusqu’à la collecte et la fusion des données de renseignement, de surveillance et de reconnaissance », explique le communiqué.
L’IA a déjà été utilisée par l’armée américaine dans la guerre russo-ukrainienne et dans le développement de véhicules militaires autonomes alimentés par l’IA. Ailleurs, l’IA a été intégrée aux systèmes de renseignement et de ciblage militaires, y compris un système d’IA connu sous le nom de « The Gospel », utilisé par les forces israéliennes pour identifier des cibles et qui aurait « réduit les pertes humaines » lors de leurs attaques sur Gaza.
Les organismes de surveillance et les militants de l’IA ont constamment exprimé leur inquiétude quant à l’incorporation croissante des technologies de l’IA dans les cyberconflits et les combats, craignant une escalade du conflit armé en plus des préjugés notoires de longue date du système d’IA.
Dans une déclaration à Intercept, le porte-parole d’OpenAI, Niko Felix, a expliqué que le changement visait à rationaliser les directives de l’entreprise : « Nous visions à créer un ensemble de principes universels qui sont à la fois faciles à retenir et à appliquer, d’autant plus que nos outils sont désormais utilisés à l’échelle mondiale par » Les utilisateurs quotidiens peuvent désormais également créer des GPT. Un principe tel que « Ne pas nuire aux autres » est vaste mais facile à comprendre et pertinent dans de nombreux contextes. De plus, nous avons spécifiquement cité les armes et les blessures infligées à autrui comme exemples clairs. «
OpenAI présente ses politiques d’utilisation dans un refrain tout aussi simpliste : « Nous visons à ce que nos outils soient utilisés de manière sûre et responsable, tout en maximisant votre contrôle sur la façon dont vous les utilisez. »