Sur Facebook, la modération est régulièrement pointée du doigt par les défenseurs des droits. Qu’il s’agisse de la régulation des publicités politiques ou faisant l’apologie d’armes à feu, des appels aux discours de haine ou plus récemment, d’une liste VIP dévoilée par le Wall Street Journal, permettant à certaines célébrités d’échapper à la modération automatique, la liste est longue, autant que les scandales qui l’entourent.
Cette fois, c’est un nouveau sujet qui vient mettre le feu aux poudres. Selon une enquête du New York Times qui cite un document interne de formation, les images de maltraitance d’enfants seraient en fait très peu modérées sur la plateforme de Mark Zuckerberg.
Pourquoi l’âge pose problème
Dans le cas d’un signalement pour violences sur mineurs, Facebook aurait beaucoup de mal à déterminer précisément l’âge des enfants. Si un doute subsiste explique le New York Times, “les jeunes sont traités comme des adultes et les images ne sont pas signalées aux autorités”. Une faille qui laisse chaque année, passer de nombreux contenu de violences infantile.
Dans le document porté à la connaissance du journal, les modérateurs sont ainsi invités à considérer comme des adultes tous les contenus pour lesquels il n’est pas possible de déterminer avec certitude l’âge de la personne. Un problème de taille, puisque la vidéo passe alors à travers les mailles de la modération, mais aussi des autorités. Selon la procédure, toutes les images de maltraitance doivent normalement être transmises au National Center for Missing & Exploited Children (NCMEC), tandis que celles concernant “simplement” des adultes se contentent généralement d’être supprimées de la plateforme.
Facebook joue la carte de la vie privée pour se justifier
Facebook n’est pourtant pas un si mauvais élève lorsqu’il s’agit de modérer les contenus problématiques autour des mineurs. Chaque année, plusieurs millions de vidéos d’abus sexuels présumés sur des enfants sont signalées et livrées aux autorités compétentes. Pour autant, l’enquête du New York Times estime que cette faiblesse de modération dans la reconnaissance de l’âge a aussi un impact sur bon nombre d’abus sexuels non signalés.
En utilisant une méthode d’identification vieille de plus de 50 ans pour identifier “les phases progressives de la puberté”, Facebook permettrait ainsi à des milliers — peut-être des millions — de vidéos de maltraitance infantile de passer à travers les mailles du filet. De son côté, l’entreprise défend bec et ongle son système de modération : selon Antigone Davis, la responsable de sécurité chez Facebook, considérer les utilisateurs comme des adultes en cas de doute permet simplement de protéger la vie privée des internautes. D’autant plus que Meta pourrait être légalement responsable en cas de faux rapport.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.