Instagram Reels montrerait du contenu sexuel aux utilisateurs qui ne suivent que des enfants
Il diffuse également à leurs côtés des publicités pour de grandes marques telles que Disney.
Ces derniers jours ont été difficiles pour Meta. Le géant de la technologie a d’abord été accusé de cibler délibérément les enfants de moins de 13 ans pour utiliser ses plateformes. Ensuite, il a semblé rejeter les publicités pour les produits de soins périodiques au motif qu’elles étaient « adultes » et « politiques ». L’entreprise fait désormais face à des allégations selon lesquelles l’algorithme Reels d’Instagram fournirait du contenu ouvertement sexuel à des comptes qui ne suivent que des enfants, ainsi que des publicités pour de grandes marques à leurs côtés. Dans l’ensemble, ce n’est pas un super look.
Dans un nouveau rapport du Wall Street Journal, la publication a testé l’algorithme d’Instagram en créant des comptes qui suivaient uniquement « de jeunes gymnastes, pom-pom girls et autres influenceurs adolescents et préadolescents » – un contenu impliquant des enfants et dépourvu de toute connotation sexuelle. Malgré cela, l’expérience du Journal a révélé que le concurrent TikTok de Meta a ensuite recommandé du contenu sexuel à ses comptes de test, y compris des vidéos provocatrices pour adultes et des « images risquées d’enfants ».
Le Journal a en outre constaté que les utilisateurs enfants tels que ceux suivis par ses comptes tests étaient également souvent suivis par des comptes appartenant à des hommes adultes. Le fait de suivre de tels comptes semble inciter l’algorithme d’Instagram à lui montrer « un contenu plus dérangeant ».
Tout cela est déjà assez grave, mais c’est encore pire pour Meta. Le rapport révèle en outre qu’Instagram Reels affichait des publicités pour des entreprises telles que Disney, Walmart, Pizza Hut, Bumble, Match Group et même le Journal lui-même, aux côtés de contenus sexuels non sollicités et diffusés de manière algorithmique.
En réponse, les sociétés d’applications de rencontres Bumble et Match Group ont toutes deux suspendu la publicité sur Instagram, s’opposant à ce que leurs marques soient placées à côté de contenus inappropriés.
Selon Samantha Stetson de Meta, les résultats des tests du Journal sont « basés sur une expérience fabriquée qui ne représente pas ce que voient des milliards de personnes dans le monde ». Le vice-président du conseil des clients et des relations commerciales avec l’industrie de Meta a déclaré que plus de quatre millions de bobines sont supprimées chaque mois pour violation de ses politiques. Un porte-parole de Meta a en outre noté que les cas de contenu qui enfreignent ses politiques sont relativement rares.
« Nous ne voulons pas de ce type de contenu sur nos plateformes et les marques ne veulent pas que leurs publicités apparaissent à côté. Nous continuons à investir de manière agressive pour l’arrêter – et nous rendons compte chaque trimestre de la prévalence de ce type de contenu, qui reste très répandue ». faible », a déclaré Stetson dans une déclaration à Indigo Buzz. « Nos systèmes sont efficaces pour réduire les contenus préjudiciables, et nous avons investi des milliards dans des solutions de sûreté, de sécurité et d’adéquation de la marque. »
Plus tôt cette année, Meta a déployé un outil d’IA conçu pour déterminer si le contenu respecte ses politiques de monétisation, en le classant dans des catégories d’adéquation et en désactivant les publicités s’il ne relève pas de toutes ces catégories. Cet outil a été étendu à Reels en octobre.
Ces dernières semaines ont été difficiles pour les marques qui tentent de faire de la publicité sur les réseaux sociaux. Plus tôt ce mois-ci, de grands annonceurs tels qu’Apple et IBM ont fui Twitter/X après que son propriétaire, Elon Musk, ait exprimé son soutien à un complot antisémite, et un rapport de Media Matters a révélé qu’il affichait des publicités à côté du contenu nazi.
Twitter/X a avancé le même argument que celui de Meta, à savoir que les tests qui ont abouti à l’affichage de contenus inappropriés aux côtés des annonceurs étaient « fabriqués ». Pourtant, tout comme dans le cas de Twitter/X, le problème n’est pas tant de savoir combien de personnes l’ont vu ou comment cela s’est produit, mais plutôt de savoir si cela peut se produire.
Instagram Reels diffère également du problème de Twitter/X dans la mesure où, même si les tests de Media Matters lui ont permis de suivre des comptes publiant du « contenu marginal extrême », le Journal n’a suivi que de jeunes athlètes et influenceurs. Le contenu sexuel proposé semblait être entièrement dû aux déductions tirées par l’algorithme d’Instagram.
En tant que tel, il semble que cet algorithme pourrait nécessiter des ajustements importants.