Mardi, la plateforme Twitch a annoncé la mise en place d’un nouvel outil autonome destiné à combattre la prolifération de messages malveillants. Particulièrement sujet aux hate raids depuis quelques mois — notamment pour ses streameurs et streameuses issus de minorités — l’entreprise appartenant à Amazon veut désormais faire appel au machine learning et à l’intelligence artificielle pour venir à bout des trolls.
La détection d'utilisateurs suspects, optimisée par le machine learning, vous aide à identifier les comptes suspectés de contourner un bannissement et à les empêcher d’envoyer des messages avant qu'ils ne puissent perturber votre stream.
Plus d'infos : https://t.co/Rrreb8mAWT pic.twitter.com/HfICP3gij2
— Twitch FR (@TwitchFR) December 1, 2021
Dans un message posté sur Twitter, la firme explique ainsi, sans le détailler, le fonctionnement de son nouveau système de détection antitrolls : grâce au machine learning, Twitch sera désormais en mesure de savoir quand un utilisateur crée un nouveau compte anonyme pour retourner commenter les chaînes qui les ont bannis. La plateforme espère ainsi être en mesure d’interdire le retour des haters avant même qu’ils n’agissent.
Il faut dire que le phénomène de cyberharcèlement, et plus particulièrement de hate raids est particulièrement présent sur la plateforme. Au point que Twitch peine à endiguer le problème, et que certains streameurs ont lancé il y a quelques mois un appel au boycott alors baptisé A day off Twitch, pour alerter sur leurs revendications.
Bannir avant qu’ils agissent
Baptisé Suspicious User Detection, ce nouvel outil pensé par Twitch n’empêchera pas les utilisateurs malveillants de suivre le live d’un streameur, mais seulement d’accéder au chat pour interagir en direct avec la communauté. Pensé pour aider les créateurs “à identifier ces utilisateurs en fonction de certains signaux” afin de pouvoir “prendre des mesures” plus facilement explique la plateforme, le programme pourra notamment détecter les fraudeurs “probables” des haters “potentiels”. Dans le premier cas, les messages provenant du compte en question seront automatiquement masqués. Il incombera ensuite aux streameurs ou aux modérateurs de choisir comment agir.
Avec plus de 30 millions de visiteurs par jour, Twitch sait que le chemin est encore long (pour ne pas dire impossible) avant d’arriver à créer un espace entièrement sécurisé pour ses utilisateurs. “Aucun système de machine learning n’est fiable à 100 %” a d’ailleurs reconnu l’entreprise, qui estime que “c’est pour cela que Suspicious User Detection n’interdit pas automatiquement tous les potentiels fraudeurs”.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.