Instagram lance Family Center, un centre de sécurité en ligne pour les parents et les adolescents
Les outils de sécurité sont un début, mais sont-ils suffisants ?
Instagram a lancé mercredi sa dernière tentative pour apaiser les inquiétudes des parents et tuteurs : son tout nouveau Family Center – un guichet unique avec des outils de sécurité pour adolescents, une surveillance parentale et des ressources éducatives pour ceux qui s’inquiètent de la sécurité des adolescents sur l’application.
Le centre familial connecte toutes les ressources de sécurité en ligne d’Instagram en un seul endroit. Le site comprend un centre d’éducationqui fournit des explications de sécurité spécifiques à Instagram; guides de conversations pour les tuteurs pour discuter de la sécurité numérique et du bien-être ; et des ressources externes d’organisations partenaires telles que The Trevor Project et la Fondation américaine pour la prévention du suicide.
Plus intéressant encore, le Family Center permet aux parents de surveiller de près les comptes à l’aide d’un seul tableau de bord. Le tableau de bord donne accès aux informations et à l’utilisation des profils qui vous ont fourni l’accès – vous pouvez consulter l’explication d’Instagram sur les profils supervisés pour en savoir plus sur ces paramètres. Les tuteurs peuvent voir combien de temps les comptes supervisés sont actifs sur l’application, pourront fixer des délais, surveiller qui suit et interagit fréquemment avec le titulaire du compte, et recevoir des alertes des utilisateurs quand (et pourquoi) ils signalent un autre compte ou publient cela apparaît dans leurs flux.
Les nouveaux outils ont été initialement annoncés en décembre et sont hébergés par la société mère d’Instagram, Meta. Pour l’instant, les adolescents doivent approuver la supervision dans les paramètres de leur propre compte. Instagram introduira à l’avenir un moyen pour les parents de configurer la supervision en dehors des paramètres d’un compte. La supervision est automatiquement supprimée d’un compte lorsque le propriétaire atteint l’âge de 18 ans.
Le tweet a peut-être été supprimé
Dans un article de blog sur les nouvelles fonctionnalités ajoutées, le responsable d’Instagram Adam Mosseri a écrit que l’annonce était « la première étape d’un voyage à plus long terme pour développer des outils de supervision intuitifs, informés par des experts, des adolescents et des parents ». L’initiative a été co-créée par un comité consultatif de sécuritéqui comprend des représentants d’organisations de sécurité en ligne du monde entier, ainsi qu’un groupe collaboratif composé d’adolescents, de parents et d’autres conseillers en sécurité des jeunes.
Mosseri a déclaré dans une vidéo publiée sur son compte Twitter que le Family Center d’Instagram continuerait de croître et de changer au fur et à mesure de son utilisation, et que l’entreprise reçoit des commentaires des parents et des adolescents. « Nous savons que les parents sont occupés et qu’il y a beaucoup à faire dans la vie de tous les jours, nous voulons donc nous assurer que ces outils sont aussi faciles à utiliser que possible », a déclaré Mosseri.
L’intention est de créer des relations de collaboration et de soutien entre les parents et les utilisateurs de l’application. « Encourager un engagement parental éclairé dans la présence numérique de leurs enfants est un moyen important de soutenir le bien-être des jeunes en ligne », a écrit le Dr Michael Rich, directeur et fondateur du Digital Wellness Lab du Boston Children’s Hospital, dans un communiqué d’Instagram. « Les parents peuvent soutenir et surveiller l’augmentation progressive de l’autonomie de leurs enfants lorsqu’ils font preuve d’une utilisation responsable et sûre, dans le respect des autres et d’eux-mêmes. »
Bien que ce soit un objectif noble, c’est aussi une limitation pour les nouvelles fonctionnalités. Ils placent beaucoup de pouvoir et de responsabilité entre les mains des parents, qui doivent être suffisamment prudents pour avoir des conversations continues et actives sur la sécurité numérique avec leurs enfants. Les outils sont également intrinsèquement préventifs au lieu de réparer les dommages déjà causés par l’utilisation de l’application. Et qu’en est-il des adolescents et des enfants qui ne sont pas supervisés par un tuteur, mais qui sont toujours exposés à un risque élevé d’abus et de préjudice psychologique en ligne ?
L’année dernière, Instagram et Facebook a été critiqué pour son manque d’action dans la protection des jeunes utilisateurs contre les abus et les contenus inappropriés, même après avoir découvert que l’utilisation de l’application entraînait des résultats négatifs pour la santé mentale des adolescents. Les inquiétudes ont augmenté parallèlement à un calcul similaire avec l’application en constante évolution TikTok, qui continue de susciter des inquiétudes pour la sécurité des utilisateurs. En décembre 2021, des représentants d’Instagram, dont Mosseri, ont dû témoigner au Congrès, s’adressant au sous-comité sénatorial sur la protection des consommateurs, la sécurité des produits et la sécurité des données au sujet de la sécurité des adolescents et des réglementations de l’industrie.
Il y a aussi une question de consentement. Ces outils seront-ils aussi efficaces si les adolescents ne se sentent pas à l’aise de partager leurs expériences sur l’application avec leurs parents, ou si les parents prennent le relais en tant que contrôleurs de compte sans le consentement de leurs enfants ? Où tracez-vous la ligne entre favoriser l’indépendance et la confiance, et éloigner les adolescents du danger sur une application comme Instagram ?
Instagram espère que les outils de sécurité trouvés dans le Family Center, en particulier les ressources éducatives sur la création de limites et d’habitudes numériques saines, pourront lancer les utilisateurs sur cette voie vers une utilisation plus sûre et plus saine. Les plans futurs de la société incluent la possibilité pour les parents et les tuteurs d’appliquer les outils Family Center sur tous les comptes Meta, l’ajout d’encore plus d’outils de surveillance de la sécurité et le déploiement des mêmes fonctionnalités de sécurité sur Quest VR. Dans les mois à venir.
Ce sera tout un test de confiance entre l’application et sa société mère, les tuteurs inquiets et les adolescents eux-mêmes.
Si vous voulez parler à quelqu’un ou avez des pensées suicidaires, Crisis Text Line fournit une assistance gratuite et confidentielle 24h/24 et 7j/7. Textez CRISE au 741741 pour être mis en relation avec un conseiller en situation de crise. Contactez la ligne d’assistance NAMI au 1-800-950-NAMI, du lundi au vendredi de 10h00 à 22h00 HE, ou par e-mail (protégé par e-mail) Vous pouvez également appeler la National Suicide Prevention Lifeline au 1-800-273-8255. Voici une liste de ressources internationales.