Le réseau social a introduit une nouvelle fonctionnalité en mai dernier, permettant aux utilisateurs de réduire ou de ne pas réduire la visibilité des contenus jugés problématiques.
Pour lutter contre les fausses informations sur sa plateforme, Facebook s’est associé à des services de vérification partenaires, dont l’AFP. Une fois signalés par ces derniers, ces contenus étaient jusqu’ici relégués par défaut au bas des fils des utilisateurs par l’algorithme du réseau social. Facebook laisse désormais le choix aux internautes américains de masquer ces fausses informations ou d’y avoir davantage accès.
Introduite en mai, la fonctionnalité leur permettant de faire ce choix n’a fait l’objet d’aucune communication spécifique de la part du réseau social. Les utilisateurs ont ainsi découvert cette option par eux-mêmes dans les paramètres. Concrètement, il est possible de choisir entre « réduire davantage » la visibilité des contenus jugés problématiques, les poussant « encore plus bas sur le fil afin que vous ne puissiez plus du tout les voir », ou de « ne pas réduire » leur visibilité, permettant alors aux internautes d’y avoir davantage accès et augmentant la probabilité de les voir s’afficher.
Une fonctionnalité problématique
Avec cette fonctionnalité, Facebook entend donner la possibilité à ses utilisateurs de « mieux contrôler l’algorithme qui hiérarchise les contenus sur leur fil », comme l’a expliqué un porte-parole de Meta, sa maison mère, à l’AFP. Il s’agit d’un moyen de répondre « aux attentes des utilisateurs qui veulent avoir la possibilité de décider ce qu’ils voient sur nos applications », a-t-il ajouté.
De nombreux chercheurs craignent cependant que ce nouveau paramètre introduit à environ 18 mois de la présidentielle de 2024 provoque une explosion des contenus problématiques sur les réseaux sociaux. « Rendre plus discrets les contenus que les vérificateurs estiment problématiques est au centre de la stratégie de lutte contre la désinformation de Facebook. Permettre aux gens de simplement changer cela me semble mettre en grand péril ce programme », a par exemple déclaré David Rand, professeur au MIT, à l’AFP.
Face à ces craintes, Meta s’est voulu rassurant, rappelant que les contenus seront toujours présents comme ayant été identifiés comme trompeurs ou faux par des vérificateurs indépendants. La maison mère réfléchit en outre à proposer cette option dans d’autres pays. Outre cette fonctionnalité, Facebook permet à ses utilisateurs américains de décider de la fréquence à laquelle l’utilisateur sera confronté à « des contenus de faible qualité », comme les pièges à clic, ou des « contenus sensibles », violents ou choquants. Les spécialistes estiment néanmoins que les conséquences de ces changements ne pourront être mesurés qu’avec du recul, à mesure que les utilisateurs découvriront cette fonction.