Microsoft aux forces de l'ordre : interdiction d'utiliser Azure OpenAI pour la reconnaissance faciale
Les flics ne peuvent pas utiliser ses services pour retrouver des suspects, y compris les caméras corporelles et les images téléphoniques.
Microsoft interdit plus explicitement aux services de police d'utiliser ses modèles d'IA pour identifier les suspects, selon un nouveau langage de conduite pour sa collaboration Azure OpenAI.
Le nouveau langage interdit explicitement l'utilisation de ses services de modèles d'IA « à des fins de reconnaissance faciale par ou pour un service de police aux États-Unis ». Il interdit également les cas d'utilisation dans lesquels des caméras mobiles sont utilisées par des forces de l'ordre à l'échelle mondiale « dans la nature » ou dans lesquels des policiers en patrouille utilisent des caméras portées sur le corps ou montées sur le tableau de bord pour vérifier les identités. Microsoft a également interdit l'identification d'individus dans une base de données de suspects ou d'anciens détenus.
Le système Azure OpenAI de la société, qui fournit un accès API au langage et aux modèles de codage d'OpenAI via le stockage cloud de Microsoft, a récemment ajouté Chat GPT-4 Turbo avec Vision, l'analyseur avancé de texte et d'images d'OpenAI. En février, la société a annoncé qu'elle soumettrait ses services d'IA générative à l'usage des agences fédérales.
Le code de conduite de Microsoft interdisait déjà d'utiliser le système Azure OpenAI pour :
-
identifier ou vérifier les identités individuelles sur la base des visages des personnes ou d'autres caractéristiques physiques, physiologiques ou comportementales ; ou
-
identifier ou vérifier les identités individuelles sur la base de médias contenant des visages de personnes ou d'autres caractéristiques physiques, biologiques ou comportementales.
Le nouveau langage prévoit des interdictions plus spécifiques pour les services de police d'utiliser des systèmes d'IA pour la collecte de données. Un récent rapport de ProPublica a documenté dans quelle mesure les services de police de tout le pays mettent en œuvre un apprentissage automatique similaire, notamment en utilisant des outils basés sur l'IA pour examiner des millions d'heures d'images provenant de contrôles routiers et d'autres interactions civiles. « Une grande partie des données compilées par ces analyses et les leçons qui en sont tirées restent confidentielles, les résultats étant souvent liés à des accords de non-divulgation », écrit la publication. « Cela fait écho au même problème avec la vidéo des caméras corporelles elle-même : les services de police continuent de décider comment utiliser une technologie initialement destinée à rendre leurs activités plus transparentes et à les tenir responsables de leurs actes. »
Alors que certains acteurs ont pris des mesures similaires pour protéger les données des utilisateurs contre les enquêtes des forces de l'ordre, y compris les récentes protections de la confidentialité des données de localisation de Google, d'autres se penchent sur la possibilité d'une collaboration. La semaine dernière, Axon, fournisseur de caméras de police et de stockage cloud, a dévoilé Draft One, un modèle d'IA qui transcrit automatiquement l'audio des caméras corporelles afin « d'améliorer considérablement l'efficacité de la rédaction des rapports de police ».