Selon une étude de l’Observatoire de l’Internet de Stanford, le réseau social regorge de contenus pédopornographiques.
Les grands réseaux sociaux, comme Twitter et Instagram, ne sont pas les seuls à avoir un problème avec les contenus pédopornographiques. C’est aussi le cas de Mastodon, plateforme décentralisée considérée comme une des alternatives de Twitter. Elle fait partie de ce qu’on appelle le Fediverse, un ensemble de réseau sociaux basés sur des logiciels libres qui peuvent communiquer entre eux. Sur Mastodon, les utilisateurs peuvent rejoindre des serveurs ou « instances » distincts mais interconnectés, leur permettant de voir le contenu d’autres communautés tout en respectant les règles de leur propre réseau.
Si la décentralisation présente de nombreux avantages, elle est aussi problématique concernant la sécurité des utilisateurs, notamment des enfants. Dans une étude publiée mardi, l’Observatoire de l’Internet de Stanford révèle en effet que Mastodon regorge de contenus pédopornographiques.
De nombreux cas de contenus pédopornogaphiques
Dans le cadre de leur étude, les chercheurs de l’Observatoire se sont concentrés sur les 25 instances Mastodon les plus accessibles. Ils ont utilisé l’interface de programmation (API) SafeSearch de Google pour identifier les images explicites, ainsi que PhotoDNA, un outil aidant à trouver les contenus pédopornographiques signalés. En seulement deux jours, ils ont ainsi trouvé 112 cas de contenus pédopornographiques dans environ 325 000 messages publiés sur Mastodon. Les chercheurs précisent d’ailleurs que le premier cas est apparu après seulement cinq minutes de recherche.
Ils ont également découvert 554 cas de contenus identifiés comme sexuellement explicites avec « le plus haut degré de confiance » par SafeSearch dans des messages utilisant des hashtags ou des mots-clés couramment utilisés par des groupes pédopornographiques. Ils ont signalé l’ensemble des cas découverts lors de leurs recherches au Centre national pour les enfants disparus et exploités (NCMEC), organisme de protection de l’enfance.
Un problème de modération
Le problème avec les plateformes décentralisées comme Mastodon est qu’elles n’utilisent pas la même approche que les grands réseaux sociaux en termes de modération. « Chaque instance d’un réseau de médias sociaux fédéré a sa propre politique de contenu, les administrateurs bénévoles modérant généralement le contenu et appliquant les directives », expliquent David Thiel et Renee DiResta, co-auteurs du rapport. « Il existe peu de mesures techniques disponibles ou d’experts dédiés pour établir des règles et gérer la modération de contenu dans le Fediverse pour les images de violence ou d’automutilation, la maltraitance des enfants, les discours de haine, la propagande terroriste ou la désinformation », ajoutent-ils.
Les chercheurs recommandent ainsi aux plateformes décentralisées d’emprunter certains des outils et stratégies utilisés par leurs homologues plus importants. Selon eux, elles devraient utiliser des outils plus robustes pour les modérateurs, mais aussi les rapports CyberTipline du NCMEC et PhotoDNA. « L’investissement dans un ou plusieurs centres d’échange centralisés pour effectuer l’analyse de contenu (ainsi que l’investissement dans les outils de modération) serait bénéfique pour le Fediverse dans son ensemble », affirment-ils. Ils suggèrent aussi que ces réseaux sociaux collaborent avec les nouveaux entrants dans cet univers, comme WordPress, Tumblr et Threads, pour « apporter les avantages de confiance et de sécurité dont bénéficient actuellement les plateformes centralisées à l’écosystème plus large du Fediverse ».