Actu

Snapchat va proposer un contrôle parental pour protéger les mineurs sur son application

23 octobre 2021
Par Kesso Diallo
Les réseaux sociaux veulent protéger les mineurs.
Les réseaux sociaux veulent protéger les mineurs. ©MIH83 / Pixabay

Il fonctionnera comme un « centre familial », donnant aux parents une meilleure visibilité sur la façon dont les adolescents utilisent la plateforme.

Snapchat veut offrir une expérience plus sûre à ses jeunes utilisateurs en impliquant leurs parents. Dans le cadre de la conférence WSJ Tech Live cette semaine, le PDG Evan Spiegel a déclaré que l’entreprise préparait un « centre familial pour que les jeunes et leurs parents puissent utiliser Snapchat ensemble ». L’objectif est d’offrir aux adultes une plus grande visibilité sur les activités de leurs enfants sur l’application afin de les protéger, tout en respectant la vie privée des utilisateurs. Le PDG n’a pas donné plus d’informations concernant cette nouvelle fonctionnalité.

Pour lui, ce « centre familial » serait un moyen de démarrer une conversation entre les jeunes et leurs parents par rapport à leurs expériences sur la plateforme. Ces derniers seraient ainsi capables d’aider leurs adolescents à gérer certaines difficultés liées à l’utilisation des réseaux sociaux comme la conduite à adopter lorsqu’ils sont contactés par un étranger ou en cas de cyberharcèlement.

La santé et le bien-être sur les réseaux sociaux

Evan Spiegel a également indiqué qu’une réglementation pourrait être nécessaire en termes de protection des mineurs, mais qu’elle n’est pas la solution à tous les problèmes. Il estime que les firmes devraient faire plus pour aider les régulateurs : « À moins que les entreprises ne fassent de manière proactive la promotion de la santé et du bien-être de leur communauté, les régulateurs vont toujours devoir rattraper leur retard. »

Les réseaux sociaux de manière générale affichent leur volonté de mieux protéger les adolescents et leur santé mentale cette année. En août dernier, TikTok a par exemple annoncé que les utilisateurs âgés de 13 à 15 ans ne recevraient plus de notifications push à partir de 21h, et les 16-17 ans à partir de 22h. Plus récemment, c’est Instagram qui a présenté de nouvelles fonctionnalités afin d’inciter les jeunes à regarder d’autres sujets lorsqu’ils s’attardent sur du contenu nuisible, et à faire une pause dans leur utilisation. Des mesures prises en réponse aux critiques successives à son encontre, notamment le fait qu’il met en danger la santé mentale des adolescents.

Des législateurs souhaitent tout de même réintroduire un KIDS Act, une loi visant à créer de nouvelles protections pour les utilisateurs de moins de 16 ans, comme l’interdiction pour les sites Web destinés aux enfants et adolescents d’amplifier du contenu violent, inapproprié ou dangereux.

Lire aussi

Article rédigé par
Kesso Diallo
Kesso Diallo
Journaliste