Le Meta Oversight Board trouve de nombreuses failles dans la modération de contenu de Facebook
Surprise, surprise : Facebook ne prend pas toujours la bonne décision.
Les systèmes de modération de contenu de Facebook ont clairement besoin d’être réparés.
Jeudi, le conseil de surveillance de Meta a annoncé qu’il avait annulé deux des décisions de Facebook de supprimer du contenu de sa plateforme. Les conclusions du groupe indépendant soulignent des failles majeures dans les protocoles de modération de contenu de Facebook dans deux domaines majeurs : l’utilisation par la plateforme de systèmes automatisés pour supprimer le contenu et la suppression du contenu digne d’intérêt par des modérateurs humains.
Le premier cas du Conseil de surveillance concerne un utilisateur de Facebook en Colombie qui avait publié une image de dessin animé illustrant la brutalité policière de la police nationale de Colombie en septembre 2020. Facebook a supprimé le message de l’utilisateur 16 mois plus tard lorsque les systèmes automatisés de l’entreprise ont fait correspondre l’image de dessin animé avec une image stockée dans une banque Media Matching Service.
Le conseil de surveillance a déterminé que Facebook avait tort de supprimer la publication de l’utilisateur, car l’image représentée ne violait pas les règles de Facebook et n’aurait pas dû être ajoutée à la banque Media Matching Service.
Et, selon l’Oversight Board, cet utilisateur n’était pas le seul concerné. Au total, 215 utilisateurs ont fait appel de la suppression d’un message contenant cette image. Parmi ceux-ci, 98% ont réussi à faire appel à Meta. Cependant, l’image de dessin animé est restée dans la banque et a continué à entraîner des détections automatisées et des suppressions de messages ultérieures. Meta n’a supprimé l’image de la banque Media Matching Service que lorsque le Conseil de surveillance a décidé de se saisir de ce cas particulier.
Dans le deuxième cas, le Conseil de surveillance a déterminé que Meta avait supprimé à tort un article sur les talibans. En janvier 2022, un journal basé en Inde avait publié sur son site Internet un lien vers un article sur l’annonce par les talibans de rouvrir des écoles pour les femmes et les filles. Meta avait déterminé que le message enfreignait sa politique sur les individus et les organisations dangereuses car il interprétait le message comme un « éloge » des talibans.
En conséquence, Meta a supprimé le message et limité l’accès du journal indien à certaines fonctionnalités de Facebook, telles que la diffusion en direct sur Facebook. Le journal a tenté de faire appel de la décision, mais celle-ci n’a pas été examinée en raison du manque d’examinateurs parlant ourdou dans l’entreprise.
Une fois de plus, lorsque le Conseil de surveillance a décidé de prendre cette affaire, Meta a ensuite annulé sa décision, restauré le contenu et supprimé les limitations de la page Facebook. Le simple fait de rendre compte d’événements dignes d’intérêt n’est pas une violation des politiques de Facebook, a déterminé le Conseil de surveillance.
Bien que les utilisateurs concernés dans ces cas spécifiques puissent être assez petits en nombre ou en portée, le Conseil de surveillance a profité de l’occasion pour recommander des changements plus larges aux systèmes de modération de contenu de Facebook, qu’ils soient automatisés ou revus par un humain.
Fondé en 2018, le Conseil de surveillance a été formé pour créer une sorte de Cour suprême pour les décisions de modération de contenu de Meta. L’organisation a publié les décisions sur ses premiers cas en janvier 2021. L’une de ces premières décisions a été fortement critiquée car elle appelait au rétablissement d’un poste supprimé que les groupes d’activistes musulmans considéraient comme un discours de haine. Mais, le cas le plus notable du Conseil de surveillance jusqu’à présent a facilement été sa décision de maintenir la suspension de Donald Trump par Meta sur Facebook. L’ancien président a été suspendu de la plate-forme à la suite des violentes émeutes au Capitole le 6 janvier.
La décision du Conseil de surveillance a cependant forcé Meta à fixer un délai pour la suspension de Trump. Peu de temps après cette décision de 2021 du Conseil de surveillance, Meta a annoncé qu’il envisagerait d’autoriser Trump à revenir sur ses plateformes en janvier 2023. Cela a peut-être semblé lointain dans le futur en juin 2021, mais il ne reste plus que quelques mois. Si et quand Trump reviendra sur Facebook l’année prochaine, ne soyez pas surpris de voir son nom sur un cas ou deux du Conseil de surveillance… ou vingt.