L’algorithme du réseau social pour les Reels a recommandé des vidéos sexuelles entrecoupées de publicités pour de grandes marques américaines à des comptes test suivant uniquement des jeunes créés par le Wall Street Journal.
De nouveaux ennuis pour Meta. Accusé d’avoir laissé des mineurs de moins de 13 ans sur Instagram, le géant américain est de nouveau dans une mauvaise posture à cause de son réseau social. Le Wall Street Journal vient de révéler que l’algorithme de l’application pour les Reels recommande des contenus sexuels aux utilisateurs suivant uniquement des enfants.
Le quotidien américain a fait ce constat après avoir créé des comptes de test suivant des jeunes gymnastes, pom-pom girls et d’autres préadolescents et adolescents influenceurs sur la plateforme à partir de nouveaux appareils. Cela, après avoir remarqué que les milliers d’abonnés de ces jeunes incluent souvent des hommes adultes et que bon nombre de ces comptes ont démontré un intérêt pour les contenus sexuels liés aux enfants et aux adultes.
Des contenus sexuels entrecoupés de publicités
L’algorithme d’Instagram a montré des vidéos ouvertement sexuelles aux comptes de test et les contenus recommandés étaient encore plus dérangeants lorsque ces derniers ont suivi certains des utilisateurs abonnés aux comptes de jeunes, avec un mélange de pornographie adulte et de contenus sexualisant des enfants. Ils sont apparus aux côtés de publicités de grandes marques américaines. Une annonce pour l’application de rencontre Bumble est par exemple apparue entre une vidéo d’une personne caressant le visage d’une poupée en latex grandeur nature et une autre montrant une jeune fille au visage masqué numériquement soulevant sa chemise pour montrer son ventre.
Les autres marques dont les annonces ont été diffusées à côté de ces contenus inappropriés incluent Disney, Walmart ou encore Match Group, la maison mère de Tinder. Contactées par le Wall Street Journal, elles ont déclaré que Meta leur a affirmé qu’elle enquêtait et qu’elle paierait pour que des audits de sécurité soient effectués par une société externe afin de déterminer la fréquence à laquelle les publicités d’une entreprise apparaissent à côté de contenus considérés comme inacceptables. Malgré cela, certaines marques, comme Bumble et Match Group, ont suspendu ou complètement arrêté de diffuser des annonces sur les plateformes de la société.
Même les marques liées à Meta ont été touchées par ce problème, des publicités pour WhatsApp et les Ray-Ban Stories étant apparues aux côtés de contenus pornographiques.
Un problème persistant
Face à ces révélations, Meta s’est défendu en affirmant que l’expérience avec les comptes de test du Wall Street Journal ne représente pas ce que voient des milliards d’utilisateurs. « Nos systèmes sont efficaces pour réduire les contenus préjudiciables, et nous avons investi des milliards dans des solutions de sûreté, de sécurité et d’adéquation de la marque », a assuré Samantha Stetson, vice-présidente de Meta chargée des relations avec l’industrie de la publicité.
Un porte-parole a par ailleurs indiqué que de nouveaux outils de sécurité ont été introduits en octobre pour donner aux annonceurs un plus grand contrôle sur l’endroit où leurs publicités apparaissent. Il a également affirmé que l’entreprise a étendu ses systèmes automatisés de détection des utilisateurs se comportant de manière suspecte, supprimant des dizaines de milliers de comptes de ce type chaque mois, après que le quotidien a révélé en juin qu’Instagram était la principale plateforme utilisée par des réseaux pédocriminels pour la promotion et la vente de contenus pédopornographiques.
Des employés actuels et anciens de Meta ont expliqué qu’il serait nécessaire d’effectuer des changements importants dans les algorithmes de recommandation pour empêcher la diffusion de contenus nuisibles aux utilisateurs qui y sont intéressés. Stimulant l’engagement des utilisateurs d’Instagram, ces systèmes sont en effet entraînés pour leur proposer davantage de contenus liés à ceux qui les intéressent. Les responsables de sécurité de la firme n’ont pourtant généralement pas le droit d’apporter des modifications susceptibles de réduire le nombre d’utilisateurs actifs quotidiens sur la plateforme d’une manière mesurable, d’après des documents de l’entreprise consultés par le Wall Street Journal.
Informé en août sur les résultats de ces tests, Instagram a pourtant continué à diffuser des vidéos mettant en vedette des enfants et du contenu pour adultes au cours des mois suivants. Selon le Canadian Center for Child Protection, une organisation de protection de l’enfance qui a mené des tests similaires, le réseau social recommandait encore des contenus avec « des adultes et des enfants prenant des poses à caractère sexuel » à la mi-novembre.