Rejoignez-nous
High tech

Au milieu des controverses, OpenAI insiste sur le fait que la sécurité est essentielle à la mission

Nicolas

Date de publication :

le

Au milieu des controverses, OpenAI insiste sur le fait que la sécurité est essentielle à la mission

Comment OpenAI prévoit d’apprivoiser la bête sauvage de l’IA.

OpenAI a résolu les problèmes de sécurité suite aux récentes réactions éthiques et réglementaires.

La déclaration publié jeudi, était un hybride réfutation-excuses qui visait simultanément à assurer au public que ses produits sont sûrs et à admettre qu’il y a place à l’amélioration. L’engagement de sécurité d’OpenAI se lit comme une réponse cinglante aux multiples controverses qui ont surgi. En l’espace d’une semaine, des experts en intelligence artificielle et des leaders de l’industrie, dont Steve Wozniak et Elon Musk, ont publié une lettre ouverte appelant à une pause de six mois dans le développement de modèles tels que GPT-4, ChatGPT a été totalement interdit en Italie et une plainte a été déposée. déposé auprès de la Federal Trade Commission pour avoir posé des risques dangereux de désinformation, en particulier pour les enfants. Oh oui, il y avait aussi ce bogue qui exposait les messages de chat et les informations personnelles des utilisateurs.

OpenAI a affirmé que cela fonctionne « pour garantir que la sécurité est intégrée à notre système à tous les niveaux ». OpenAI a passé plus de six mois de « tests rigoureux » avant de publier GPT-4 et a déclaré qu’il étudiait les options de vérification pour faire respecter son exigence d’âge supérieur à 18 ans (ou 13 avec l’approbation parentale). La société a souligné qu’elle ne vendait pas de données personnelles et ne les utilisait que pour améliorer ses modèles d’IA. Il a également affirmé sa volonté de collaborer avec les décideurs politiques et ses collaborations continues avec les parties prenantes de l’IA « pour créer un écosystème d’IA sûr ».

Vers le milieu de l’engagement de sécurité, OpenAI a reconnu que le développement d’un LLM sûr repose sur des contributions du monde réel. Il soutient que l’apprentissage des commentaires du public rendra les modèles plus sûrs et permettra à OpenAI de surveiller les abus. « L’utilisation dans le monde réel nous a également conduits à développer des politiques de plus en plus nuancées contre les comportements qui représentent un risque réel pour les personnes tout en permettant les nombreuses utilisations bénéfiques de notre technologie. »

OpenAI a promis « des détails sur (son) approche de la sécurité », mais au-delà de son assurance d’explorer la vérification de l’âge, la plupart des annonces se lisaient comme des platitudes passe-partout. Il n’y avait pas beaucoup de détails sur la façon dont il prévoit d’atténuer les risques, d’appliquer ses politiques ou de travailler avec les régulateurs.

OpenAI est fier de développer des produits d’IA avec transparence, mais l’annonce fournit peu de précisions sur ce qu’elle prévoit de faire maintenant que son IA est à l’état sauvage.

Nicolas est journaliste depuis 2014, mais avant tout passionné des jeux vidéo depuis sa naissance, et des nouvelles technologies depuis son adolescence.

Cliquer pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *