L’organisation de défense des droits humains à l’origine du rapport donne également des pistes pour lutter contre ce problème.
Incitation à la haine, désinformation, misogynie… les contenus nuisibles sont nombreux à être diffusés sur YouTube. Le NYU Stern Center for Business and Human Rights, une organisation dédiée aux droits humains dans une école de commerce a récemment alerté sur les dangers de cette diffusion dans un rapport. « Malgré son poids et son influence, on en sait moins sur YouTube que sur les autres grands sites de réseaux sociaux. Filiale de Google, YouTube a été moins scrutée par les sociologues, politiciens et groupes de société civile, dont le nôtre. En conséquence, nous en savons moins sur les pratiques commerciales de YouTube et les effets qu’elles ont sur les sociétés dans lesquelles elle opère », indique l’organisation. L’objectif, avec ce rapport, est ainsi de remédier à ce déficit de connaissances sur ce réseau social comptant plus de 2 milliards d’utilisateurs.
Un problème de modération
L’organisation y indique que malgré les règles de YouTube interdisant les contenus nuisibles et la modération de contenu humaine et automatisée, des vidéos de ce type sont toujours diffusées. Elle donne l’exemple de Frank James, l’homme accusé d’avoir blessé dix personnes par balles dans le métro de New York en avril 2022. Il avait posté des centaines de vidéos sur YouTube et Facebook, dont beaucoup le montraient en train de faire des menaces violentes et autres déclarations haineuses. Il y déclarait notamment vouloir « tuer des gens », mais ces contenus n’ont pas été signalés aux autorités. De plus, ce n’est qu’après la fusillade que ses comptes ont été supprimés.
La modération est encore plus inadaptée en dehors des États-Unis alors que plus de 80% du trafic de YouTube vient de l’extérieur du pays. La filiale de Google a affirmé auprès de l’organisation que ses modérateurs humains « prennent en charge de nombreuses langues, dont le russe et l’ukrainien », mais aussi que son système d’examen lui permet d’appliquer ses politiques à grande échelle. Plus de 300 ONG et agences gouvernementales auraient également rejoint son programme Trusted Flagger, qui permet de signaler des contenus que YouTube devrait supprimer. Le NYU Stern Center for Business and Human Rights a pourtant trouvé des preuves que les problèmes persistent et sont répandus. En Corée du Sud par exemple, un groupe « anti-féministe » utilisant autrefois la devise « Jusqu’au jour où toutes les féministes seront exterminées » gère une chaîne YouTube comptant 475 000 abonnés.
L’organisation mentionne aussi le cas de l’Inde, soit le plus grand marché pour YouTube avec plus de 450 millions d’utilisateurs. Des partisans du parti au pouvoir et d’autres groupes nationalistes hindous de droite ciblent des musulmans sur le réseau social. Une théorie du complot affirmant que ces derniers propagent délibérément le coronavirus comme une forme de djihad a par exemple récemment été amplifiée par vidéo. De plus, des thèmes anti-musulmans sont souvent combinés à des attaques menaçantes en ligne contre les femmes. Ces invectives sont devenues populaires sur la plateforme avec une vague de coups de gueule misogynes de la part d’influenceurs nationalistes indiens. Et ces diatribes, qui peuvent inclure des menaces physiques, sont souvent diffusées sous forme de vidéos selfie. YouTube aurait ainsi décerné un prix « Silver Creator » à l’un de ces vidéastes comptant 800 000 abonnés en 2019.
Des recommandations pour lutter contre les contenus nuisibles
Le NYU Stern Center for Business and Human Rights fournit une liste de recommandations adressée à YouTube concernant ce problème de contenus préjudiciables. L’organisation considère que le réseau social doit divulguer davantage d’informations sur le fonctionnement de sa plateforme. Il pourrait commencer par expliquer les critères utilisés par les algorithmes pour classer, recommander et supprimer des contenus. Elle préconise également de faciliter un meilleur accès aux données nécessaires aux chercheurs pour étudier YouTube. La filiale de Google offre en effet moins d’interfaces de programmation que les autres réseaux sociaux, en particulier Twitter. Or, celles-ci peuvent être utilisées par les chercheurs pour obtenir de grandes quantités de données. YouTube limite par ailleurs le volume d’informations disponibles à travers ses interfaces. Ce manque de données est l’une des raisons pour laquelle les experts en savent moins sur la plateforme.
Au sujet de la modération, l’organisation estime nécessaire de développer et d’améliorer l’examen humain des contenus potentiellement dangereux. « La société mère de YouTube, Google, dit qu’elle a plus de 20 000 personnes dans le monde travaillant sur la modération de contenu, mais elle refuse de spécifier combien effectuent un examen pratique des vidéos YouTube. Quel que soit ce nombre, il doit augmenter et les modérateurs externalisés devraient être recrutés en interne », indique-t-elle.