Le nouvel outil de modération de Twitch est capable de repérer les comptes qui tentent de contourner les bannissements de chaîne. Basé sur de l’intelligence artificielle, il doit aider la plateforme à lutter plus efficacement contre le cyberharcèlement.
Régulièrement critiqué sur les réseaux sociaux pour son inaction face à la violence de certains utilisateurs, Twitch cherche à renforcer ses outils de modération depuis quelques mois. La plateforme, qui permet de se filmer et se diffuser en direct, vient d’annoncer l’arrivée d’un nouvel outil de modération basé sur de l’intelligence artificielle. Appelé « Détection d’utilisateurs suspects », il doit aider les créateurs et les modérateurs « à identifier et à prendre des mesures contre les utilisateurs qui tentent de contourner des bannissements de chaîne ». Confrontée depuis des mois au problème du harcèlement en ligne, le service est conscient que le fait de bannir un utilisateur d’une chaîne n’est pas toujours efficace.
Les utilisateurs malveillants n’hésitent en effet pas à créer de nouveaux comptes pour revenir dans les fenêtres de chats et continuer d’adopter un comportement abusif. Les « hate raids » (raids de haine) se multiplie depuis plusieurs mois contre certains créateurs, en particulier envers les personnes non-blanches ou de la communauté LGBTQIA+. Ce phénomène est notamment amplifié par le fait que Twitch laisse la possibilité de créer plusieurs comptes avec une seule adresse e-mail.
Comment fonctionne ce nouvel outil ?
Pour tenter d’endiguer ce phénomène problématique, le nouvel outil de Twitch fonctionne à l’aide du machine learning. La plateforme explique qu’il sera capable « d’identifier ces utilisateurs selon certains signaux de compte », avant de les signaler comme personne contournant « probablement » ou « possiblement » un bannissement. Si les signaux qui sont analysés ne sont pas précisés, Twitch détaille les deux scénarios possibles :
- Pour les personnes contournant « probablement » un bannissement, la plateforme précise que les messages ne seront pas du tout envoyés sur le chat. En revanche, il est précisé qu’ils seront affichés pour les créateurs et les modérateurs « afin qu’ils puissent décider de conserver la restriction, de surveiller l’utilisateur ou de le bannir de la chaîne ».
- Pour les personnes contournant « possiblement » un bannissement, les messages apparaîtront normalement dans le chat, mais Twitch signalera le compte au créateur et à ses modérateurs « afin qu’ils puissent surveiller l’utilisateur et l’empêcher d’envoyer des messages sur le chat si nécessaire ».
La plateforme prévoit d’activer automatiquement la détection d’utilisateurs suspects sur toutes les chaînes. Elle offrira également la possibilité de restreindre les messages de ces utilisateurs pour qu’ils n’apparaissent pas sur le chat. Il reste également possible de désactiver l’outil depuis la page de paramètre de modération de la chaîne ou encore d’ajouter manuellement des utilisateurs à surveiller.
Un outil qui n’est pas totalement fiable
Twitch se montre prudent et rappelle « qu’aucun machine learning ne sera précis à 100 % ». Cela est particulièrement vrai au lancement d’un tel outil et la plateforme indique « qu’il existe une possibilité pour que des faux positifs ou des faux négatifs apparaissent ». Avec plus de 30 millions de visiteurs par jour, Twitch espère sans doute calmer la colère des utilisateurs avec ce nouvel outil.
À la rentrée, plusieurs streamers avaient appelé à boycotter la plateforme en lançant l’initiative #ADayOffTwitch (« Un jour sans Twitch »). Si l’impact de cette décision est difficile à estimer, il a conduit Twitch à lancer divers outils et a porté plainte contre deux utilisateurs jugés responsables de « raids haineux ».