Meta modifiera son programme élitiste de contre-vérification, en quelque sorte
L’entreprise appliquera ou appliquera partiellement 26 des 32 modifications suggérées par le Conseil de surveillance.
Un comité de surveillance indépendant qui examine les décisions de modération de contenu chez Meta a suggéré que la société révise son programme de vérification croisée, et la société a accepté – en quelque sorte.
Au total, The Oversight Board, «l’organisme indépendant» qui examine les décisions de modération de contenu de Meta, a émis 32 suggestions pour modifier le programme, qui place le contenu des utilisateurs «éminents» dans une file d’attente de modération distincte de celle automatisée que l’entreprise utilise pour normes. Au lieu d’être supprimé, le contenu signalé par certaines personnalités publiques telles que les politiciens, les célébrités et les athlètes est laissé « en attente d’un examen humain plus approfondi ».
L’examen du Conseil a été mené en réponse directe à un article du Wall Street Journal de 2021 qui a examiné les exemptés. Dans leur décision, le conseil d’administration a reconnu les défis inhérents à la modération de contenu à grande échelle, affirmant que même si « un système de révision de contenu doit traiter tous les utilisateurs de manière équitable », le programme est aux prises avec « des défis plus larges dans la modération d’immenses volumes de contenu ».
Par exemple, au moment de la demande, ils disent que Meta effectuait un volume si élevé de tentatives de modération quotidiennes – environ 100 millions – que même « une précision de 99 % entraînerait un million d’erreurs par jour.
Pourtant, le conseil d’administration affirme que le programme de contre-vérification était moins préoccupé par « l’avancement des engagements de Meta en matière de droits de l’homme » et « plus directement structuré pour répondre aux préoccupations des entreprises ».
Sur les 32 suggestions proposées par le Conseil pour modifier le programme de contre-vérification, Meta a accepté d’en mettre en œuvre 11, d’en mettre partiellement en œuvre 15, de continuer à évaluer la faisabilité d’une et de ne pas aller plus loin sur les cinq autres. Dans un article de blog mis à jour publié vendredi, la société a déclaré qu’elle rendrait le programme « plus transparent grâce à des rapports réguliers », ainsi qu’à affiner les critères de participation au programme afin de « mieux tenir compte des intérêts et de l’équité en matière de droits humains ». La société mettra également à jour les systèmes opérationnels pour réduire l’arriéré des demandes d’examen, ce qui signifie que le contenu préjudiciable sera examiné et supprimé plus rapidement.
Les 32 recommandations sont accessibles sur ce lien.
Le tweet a peut-être été supprimé
Le Conseil a noté dans son Fil Twitter que les changements « pourraient rendre l’approche de Meta en matière de prévention des erreurs plus juste, crédible et légitime » mais que « plusieurs aspects de la réponse de Meta ne sont pas allés aussi loin que nous l’avions recommandé pour parvenir à un système plus transparent et équitable ».