Bumble rend l’outil de détection de cyberclignotement disponible sous forme de code open-source
La communauté technologique au sens large peut désormais adapter le « détecteur privé » de Bumble.
Le cyberflashing consiste à envoyer des photos nues non consensuelles via votre téléphone. Il s’agit d’un acte de violence sexuelle numérique qui est souvent minimisé par des termes tels que « photos de bite non sollicitées ». L’application de rencontres Bumble tente de lutter contre la violation de son application, tout en faisant campagne pour que l’acte soit rendu illégal au Royaume-Uni et aux États-Unis.
En 2019, Bumble a lancé son outil d’intelligence artificielle « Private Detector », qui alerte les utilisateurs lorsqu’ils reçoivent une photo obscène et brouille automatiquement l’image.
Maintenant, l’application de rencontres met une version de l’outil à la disposition de la communauté technologique au sens large.
Alors, comment fonctionne l’outil exactement ? Eh bien, l’IA détecte quand une image obscène a été envoyée. La photo est alors automatiquement floutée et l’utilisateur a le choix de visualiser, supprimer ou signaler l’image. Il a été lancé à la fois sur Bumble et Badoo en réponse à la montée du cyberflashing.
Recherche d’un rapport du gouvernement britannique à partir de mars a révélé que 76% des filles âgées de 12 à 18 ans avaient reçu des images nues non sollicitées de garçons ou d’hommes. Les propres recherches de Bumble ont révélé que près de la moitié des personnes âgées de 18 à 24 ans ont reçu une image sexuelle non consensuelle, 95 % des personnes de moins de 44 ans en Angleterre et au Pays de Galles déclarant que davantage devrait être fait pour arrêter le cyberflashing.
D’autres applications ont également pris des mesures pour tenter de lutter contre la montée de cet acte de violence sexuelle basée sur l’image, avec OKCupid annonçant en 2017 qu’il obligerait tous les utilisateurs à prendre un engagement anti-harcèlement déclarant qu’ils n’enverraient pas de photos nues non sollicitées sur le application. Plus récemment, Indigo Buzz a rapporté que Instagram travaille sur une fonctionnalité appelée « Protection de la nudité ».
Bumble a rendu une version de Private Detector largement disponible sur GitHubafin que d’autres entreprises technologiques puissent l’adapter et créer leurs propres fonctionnalités pour améliorer la sécurité et la responsabilité en ligne dans la lutte contre les abus et le harcèlement.
Rachel Haas, vice-présidente de la sécurité des membres de Bumble, a déclaré dans un communiqué : « L’open-sourcing de cette fonctionnalité consiste à rester ferme dans notre conviction que tout le monde mérite des relations saines et équitables, des interactions respectueuses et des relations amicales en ligne. »
Bumble a fait campagne contre le cyberflashing aux États-Unis et au Royaume-Uni ces dernières années. En 2019, la fondatrice et PDG de l’application, Whitney Wolfe Herd, a aidé à faire adopter une loi au Texas. (HB 2789) pour faire des images de nus non consensuelles un délit punissable. Depuis lors, l’application de rencontres a aidé à adopter des projets de loi similaires en Virginie (SB 493) et Californie (SB 53).
En Angleterre et au Pays de Galles, Bumble a fait campagne pour la criminalisation du cyberflashing, et en mars 2022, le gouvernement a annoncé qu’il deviendrait une infraction pénale en vertu de nouvelles lois qui devraient être introduites, les auteurs encourant jusqu’à deux ans de prison.
Il est temps pour la communauté technologique au sens large de prendre cette violation plus au sérieux et de faire plus pour la combattre.