Les algorithmes du réseau social font la promotion de réseaux pédocriminels, aidant ces derniers à vendre des contenus montrant des agressions sexuelles sur des mineurs, révèlent des chercheurs.
Plus tôt cette semaine, des chercheurs de l’Observatoire de l’Internet de Stanford ont révélé que Twitter n’avait pas réussi à empêcher la publication de dizaines d’images pédopornographiques sur sa plateforme au cours des derniers mois. Ils ont découvert cela en menant une vaste enquête sur l’exploitation des enfants en ligne, menée en collaboration avec le Wall Street Journal et des chercheurs de l’université du Massachussetts à Armherst.
Publiée mercredi, elle révèle qu’Instagram est la principale plateforme utilisée par des réseaux pédocriminels pour la promotion et la vente de contenus pédopornographiques. Selon le rapport, les algorithmes du célèbre réseau social font activement la promotion de ces derniers, connectant les pédocriminels et les guidant vers ces vendeurs de contenus montrant des agressions sexuelles sur des mineurs.
Des hashtags explicites
Les pédocriminels et ces réseaux n’ont pas besoin de se montrer ingénieux pour trouver ou faciliter la découverte des contenus pédopornographiques. Il suffit aux premiers d’effectuer leurs recherches avec des hashtags explicites comme #pedowhore ou #preteensex pour déboucher sur des comptes utilisant ces termes pour promouvoir leurs images et vidéos. Prétendant souvent être gérés par des enfants eux-mêmes, ces profils utilisent des pseudonymes ouvertement sexuels et proposent des contenus que les utilisateurs peuvent acheter ou commander.
Ces comptes ne disent pas directement qu’ils vendent ces images et vidéos, mais comprennent des menus avec des options. Il est ainsi possible de demander des actes sexuels spécifiques ou d’acheter des contenus d’automutilation et de « bestialité ». « À un certain prix, les enfants sont disponibles pour des “rencontres” en personne », indique également le Wall Street Journal.
Un “groupe de travail” pour résoudre le problème
L’enquête montre aussi le rôle joué par les algorithmes d’Instagram. Après avoir créé un compte test, les chercheurs ont consulté un seul compte de ces réseaux pédocriminels et ont immédiatement reçu d’autres recommandations de profils similaires à suivre. « Suivre juste une poignée de ces recommandations était suffisant pour inonder un compte test avec des contenus qui sexualisent les enfants », a expliqué le quotidien américain.
En réponse à ce rapport, Meta, la maison-mère d’Instagram, a déclaré avoir créé un « groupe de travail » pour résoudre le problème. Le groupe californien a aussi affirmé avoir bloqué des milliers de hashtags sexualisant les enfants et empêché ses algorithmes de recommander aux utilisateurs de rechercher des termes connus pour être associés à des abus sexuels après avoir été contacté par le Wall Street Journal. Il assure également avoir supprimé 27 réseaux pédocriminels au cours des deux dernières années et 490 000 comptes enfreignant ses politiques de sécurité des enfants en janvier seulement.
À noter que, lors de leur enquête, les chercheurs ont étudié d’autres réseaux sociaux, qui se sont révélés moins propices à la croissance de ces réseaux qu’Instagram. Sur Twitter, ils ont trouvé 128 comptes proposant de vendre de contenus pédopornographiques, soit moins d’un tiers du nombre trouvé sur la plateforme de Meta. Snapchat, quant à lui, n’a pas activement fait la promotion de ces derniers, car il est principalement utilisé pour la messagerie directe. Enfin, TikTok est la plateforme où « ce type de contenu ne semble pas proliférer », selon les chercheurs.