Inquiet de la promotion de contenus « tristes » susceptibles de provoquer l’automutilation, un employé a partagé le document avec le New York Times.
Application la plus téléchargée dans le monde en 2020, cap du milliard d’utilisateurs dans le monde récemment franchi… La popularité de TikTok est évidente. Ce n’est pas le cas du fonctionnement de son algorithme. Le New York Times offre de nouvelles informations à ce sujet, après avoir pu consulter un document interne. Nommé TikTok Algo 101, il indique que le réseau social se base sur une équation pour recommander des vidéos aux utilisateurs. « Le système de recommandation attribue des scores à toutes les vidéos en fonction de cette équation et renvoie aux utilisateurs les vidéos avec les scores les plus élevés. »
Dans cette formule mathématique, une prédiction fondée sur l’apprentissage automatique est associée au comportement réel de l’utilisateur pour les goûts, les commentaires et la durée de lecture. Le document indique aussi que l’entreprise a choisi d’optimiser son système pour le « temps passé » sur l’application et la « fidélisation », soit le fait qu’un utilisateur revienne sur la plateforme, dans son objectif d’ajouter des utilisateurs actifs. Autrement dit, elle souhaite garder les utilisateurs le plus longtemps possible.
La promotion de contenus néfastes
Par le passé, TikTok a déjà donné quelques détails concernant le fonctionnement de son système de recommandation. En janvier 2020, l’entreprise expliquait, dans un communiqué, que les contenus étaient recommandés selon plusieurs facteurs. Parmi eux, figurent les interactions d’un utilisateur (vidéos aimées ou partagées, commentaires…) ou encore les informations d’une vidéo telles que les légendes, les sons et les hashtags.
Certains ont par ailleurs essayé de comprendre l’algorithme du réseau social. Dans cet objectif, le Wall Street Journal a récemment créé plus de 100 comptes automatiques qui ont regardé des centaines de milliers de vidéos sur l’application. Le quotidien américain a ainsi découvert que TikTok prenait en compte le temps passé sur une vidéo pour proposer des contenus que l’utilisateur souhaite regarder. Un processus susceptible de conduire les utilisateurs à voir des contenus dérangeants. Le Wall Street Journal a en effet indiqué que des vidéos incitant des troubles alimentaires ou traitant du suicide ont été recommandées à certains comptes.
Des révélations concordant à la raison pour laquelle un employé de TikTok a décidé de partager le document interne. Le New York Times explique que ce dernier l’a fait car il a été perturbé par la promotion de contenus « tristes » par l’application, qui pourrait provoquer l’automutilation.