Le métier de modérateur n’est pas chose aisée : il faut visionner des heures de contenus illégaux, parfois abjects, pour préserver les membres d’un forum, d’un réseau social ou de toute autre plateforme en ligne.
Deux anciens modérateurs de Microsoft, Henry Soto et Greg Blauert, ont porté plainte contre Redmond l’accusant de ne pas avoir mis en place des mesures nécessaires à leur détresse psychologique.
Du contenu “inhumain et répugnant”
Chargés, comme tout membre de la « online safety team », de visionner les contenus signalés par les internautes ou détectés par un quelconque algorithme, comme ceux sévissant sur Facebook, les deux hommes disent désormais souffrir de stress post-traumatique après avoir été confrontés à du contenu « inhumain et répugnant », « le pire qu’un humain puisse faire ».
Ainsi, depuis 2008 pour l’un et 2011 pour l’autre, ils ont été soumis à des images et des vidéos de meurtres, d’abus sexuel sur enfants, « d’agressions sexuelles indescriptibles », de viols ou « d’ultra-violence », et devaient, si besoin, les supprimer ou saisir les autorités, comme la loi américaine l’exige.
Négligence de Microsoft
Dans leur plainte, les deux hommes reprochent à Microsoft d’avoir été négligent sur leur prise en charge psychologique. Après plusieurs années à ce régime, Henry Sotto affirme avoir développé un trouble dissociatif, une dépression, des « attaques de panique » et même des « hallucinations visuelles ». Pire, son rapport aux enfants, dont son propre fils, se trouve aujourd’hui totalement bouleversé, il est incapable de les approcher sans voir remonter les images des « violentes agressions d’enfants dont il a été témoin ».
Greg Blauert pour sa part assure souffrir d’un « syndrome de stress post-traumatique », il s’est isolé et se dit incapable de reprendre le travail.
Des employés traumatisés et ignorés
Lorsqu’ils ont remonté ces problèmes à leur hiérarchie, celle-ci leur aurait simplement recommandé « d’aller fumer », de sortir prendre l’air ou de « jouer à des jeux vidéo pour se distraire ».
Pour se défendre, Microsoft assure prendre très au sérieux le bien-être de ses employés travaillant dans cette équipe : « Microsoft prend au sérieux sa responsabilité de supprimer et de signaler les images pédopornographiques partagées sur ses services, tout comme la santé et la résilience des employés qui s’acquittent de cette tâche importante », assure la firme dans un communiqué transmis à plusieurs médias.
Outre un programme de bien-être mis en place par la firme avec soutien psychologique renforcé pour ses employés, Microsoft affirme utiliser des technologies pour « réduire le réalisme des images », notamment en les floutant ou en les passant en noir et blanc dans des formats réduits. Le cas échéant, sur simple demande, les modérateurs peuvent être assignés à d’autres postes.
Cette affaire met en lumière un métier et une pratique gardée secrète par les firmes high-tech. Celles-ci se montrent peu disertes lorsqu’il s’agit d’évoquer le travail de ces modérateurs ou leur politique de modération. Si les algorithme détectent le contenu illicite, celui-ci doit encore être passé en revue par des humains.
Un métier entouré de mystère
En 2012, un ancien modérateur de Facebook dévoilait les dessous peu reluisants de son métier à Gawker (RIP)
Deux ans plus tard, c’est Wired qui enquêtait sur cette tâche que la plupart externalise aux quatre coins du monde et qui laissent traumatisés bon nombre de modérateurs.
Plus récemment, SZ-Magazin, le supplément du quotidien Süddeutsche Zeitung, dressait un portrait sidérant du travail effectué par quelque 600 employés à Berlin : « J’ai vu des choses qui me font remettre sérieusement en cause ma foi en l’Humanité », expliquait l’un d’eux sous couvert d’anonymat.
Facebook également pointé du doigt
Les règles entourant ce métier sont très opaques et les modérateurs n’auraient que 8 secondes par images et vidéos pour prendre une décision : « Les règles sont quasiment impossibles à comprendre », s’indignait un employé. « J’ai dit à mon chef d’équipe: c’est fou, personne ne devrait voir cette image pleine de sang et de violence. Mais il m’a répondu : c’est juste ton opinion. Tu dois essayer de penser à ce que Facebook veut. On s’attend à ce que nous pensions comme des machines. »
Et là aussi, aucun soutien psychologique n’est apporté par Facebook ou l’entreprise sous-traitante : « Je ne supporte plus l’idée d’avoir des relations sexuelles. Je n’ai plus été intime avec mon partenaire depuis plus d’un an. Je commence à trembler dès qu’il me touche », rapporte une employée.
« Je sais que quelqu’un doit faire ce job », estime une autre source. « Mais cela devrait être des personnes qui reçoivent une formation digne de ce nom et du soutien quand elles en ont besoin. Elles ne devraient pas être jetées dans le grand bain comme nous l’avons été. »
Microsoft ne sera peut-être pas la première, ni la dernière entreprise high-tech à se voir assigner devant les tribunaux par d’anciens modérateurs, traumatisés par leur métier.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
J’ai eu mal au coeur rien qu’à lire les exemples retranscrits ici …
Pareil. Et pour ma part j’étais pas du tout informé sur métier. C’est le genre d’article qu’on devrait lire plus souvent
héhéhéhé classique quand on crée quelque chose d’aussi affreux qu’un réseau social
Il n’y a rien d’inhumain là-dedans…
Et oui! l’humanité c’est aussi ça, tous ces trucs dégueulasses qu’on peut voir un peu partout dans le monde…
Par contre, pourquoi ces gens n’ont pas été recalés suites à des tests psychologiques avant de commencer ce boulot?
Faut avoir un mental en béton armé pour faire ce genre de taf.
Je doute qu’ils leur fassent faire des tests psychologiques à l’embauche…
bah c’est là le début du problème alors…
pareil pour la fréquence à laquelle ils regardent les images, à force de gavage d’images choc ça doit avoir le même effet qu’un lavage de cerveau non?
si y’a des pros en psycho j’suis toute ouïe!
Ils s’en contrefoutent je dirais (et je pense pas spécialement à MS là). Là ils te sortent un joli communiqué de presse “nous prenons le bien être de nos employés très au sérieux blablabla” juste pour prendre les devants face à un éventuelle mauvaise image auprès de Mr et Mme Tt le monde (qui au passage s’en contrefoutent aussi très probablement).
Pour les effets, ben je dirais que c’est soit ça soit rendre la personne concernée insensible.
Bah faut des random payés au “SMIC”. Et puis les test ça coûte de l argent. L article allemand (traduit en anglais) précise que dans les team arabes ils emploient des réfugiés syrien pour visionner les diverses décapitations et propagandes. M étonnerait qu ils s inquiètent de leur santé mentale 🙂 Conclusion donc, pourquoi ? Parce qu ils n en ont rien a foutre
Et oui, tout à fait d’accord avec toi!
capitalisme quand tu nous tiens…
Et y’en a encore pour défendre ce système…
D’un autre côté, vous en profitez tous, du capitalisme…
ce n’est pas une raison pour rien dire; faire l’autruche n’est pas mieux…
Je crois qu’ aucune personne “normalement constituée” n’est préparée à visionner des horreurs plusieurs fois par jour (et heureusement…).
Donc je ne suis pas certain qu’un test psychologique ait été d’un quelconque intérêt dans le cas présent.
A part trouver une solution automatique de modération basée sur l’IA et le Machine Learning, je ne vois pas comment cela s’améliorer.
Peut-être. Mais faut bien quelqu’un pour faire le ménage. C’est pas bien méchant d’être derrière un ordi toute la journée… Même si tu tombes sur des trucs gore de temps en temps, à moins que tu sois le fragile de l’année ça doit pas poser trop de problèmes… Tu clique sur le lien, tu te rends compte que c’est du gore, tu fermes la page Ctrl + W et tu ban. PAS COMPLIQUE.
Toi tu es surtout idiot. Tu sais y’a des gens qui on ce que l’on appel l’empathie. D’ailleurs même les animaux en ont, toi non tu es juste une merde sans cœur qui pense que si c’est les autres c’est pas grave. Tu es ce que l’on appel communément un Gros con. Cordialement.
Ca se voit qu’ils n’ont jamais sursauté suite a un jumpscare des plus stupides dissimulé dans un lien. La je peux vous dire que la vie a changé depuis…
C’est clair que ça doit vraiment pas être facile à gérer ce genre de taf, tu dois voir des trucs immondes au quotidien.
L’entreprise devrait avoir clairement à une responsabilité sur la formation et le suivi psychologique des modérateurs (concernant les grands groupes, j’imagine que la modération du JDG doit être assez tranquille à ce niveau^^).
Oui ils en parlaient dans un épisode de Castle aussi je crois…
Mais oui ça doit être horrible… J’ai vu une vidéo de décapitation d’un militaire américain là sur un vieux samsung D500 quand j’était au lycée (les premières vidéos gores qui tournaient tout le monde se demandait si c’était vrai ou pas etc…) y a plus de 10 ans… Bah quand j’y repense je suis encore choqué même 10 ans après… J’ose même pas imaginer en faire mon travail !! Ou tomber sur des trucs avec des enfants… Tu dois avoir des envies de meurtre je pense.
En fait, le problème, l’être humain est le pire animal dans ses bas instinct et de délires, il est capable du pire comme du meilleur, mais a l’échelle de 7 milliard de personnes, au journal a la télé ou ailleurs sur internet, on ne voit qu’un pourcentage infime des atrocités qui se passent tous les jours dans le monde.L’être humain a toujours été très inventif pour fabriquer des comportements les plus horribles depuis qu’ils existent, ce n’est pas nouveau et ce sera toujours le cas dans le futur, même la nature dans son comportement est des plus cruels envers elle même et dans le règne animal aussi.
Certains métiers sont plus touchés pour faire face a ce genre d’atrocité comme les policiers et pompier, et modérateur de contenu comme l’article en parle et bien d’autres métiers.
Ici le modérateur de contenu d’atrocité doit avoir été formé pour pouvoir faire face a ce genre de contenu et suivi tout au long de sa carrière avec je pense des pauses avec des contenus plus soft car ici on perd vite la fois en l’humanité puisqu’on ne voit que des mauvaises choses qui pourraient même créer des déviances alors que d’autres métiers, même si on peut voir beaucoup d’atrocité, on peut voir des bonnes choses de l’humain aussi et c’est toute la différence .
Un modérateur de contenu atroce pourrait un temps de voir relayer par un autre collègue formé, et le premier serait alors affecté a modérer des contenus bien plus soft voir des choses bien(image) un temps pour le soulager psychologiquement.
Pour ce genre de contenu des test doivent être effectué régulièrement pour suivre l’état du modérateur mais avant il doit être formé et passé aussi des test très strict pour être embauché comme tels et ne pas être qu’un simple modérateur de chat par exemple.
Je pense que c’est surtout la dessus que Microsoft pourrait avoir un problème.
Je connaissais un pompier professionnel avec 20 ans de métier environ, a force de voir certaines choses, il était devenu violent, il buvait beaucoup, etc, il n’était plus le même mais il continuait quand même, je ne le fréquente plus donc je ne sais pas si il a continué longtemps ou pas.
Je finirais par la citation:
-Quiconque lutte contre des monstres devrait prendre garde, dans le combat, à ne pas devenir monstre lui-même. Et quant à celui qui scrute le fond de l’abysse, l’abysse le scrute à son tour.
Si déjà on arrive a éviter de traumatisé le modérateur, ce sera pas mal.
y’avait le fameux Rotten aussi à l’époque qui surfait sur le délire gore! 😉
Bestgore a pris le relais 😀
Internet est aussi un moyen d’information, même s’il est particulier, et censurer toutes les images sous le prétexte qu’elles sont violentes est de la dictature bien pensante, c’est même le principe de LA dictature.
Après il y a différentes intentions derrière ces images, et c’est cela même qu’il faut jauger.
Ces même images peuvent servir à informer, prendre conscience, ou dénoncer. Il n’y a pas que le journal qui a le “droit” d’informer – et heureusement.
Il vaut mieux un abus dans ce sens la que l’inverse. A l’extrême, en Corée de nord, ou il n’y a sans doute pas d’image violente dans les “médias”, c’est la réalité et le quotidien qui devient alors violent.
Bref, c’est l’intention derrière l’image plus que l’image elle-même qui compte. Et heureusement loi et morale ne sont pas la même chose.
Et entre nous ces employés de Crosoft sont vraiment des chochottes, ou bien ce procès est pour eux et leur avocat un simple ticket de loto.
Je pense que tu ne te rends pas compte du genre d’images décrites ici et elles n’ont rien à voir avec le droit à l’information.
On n’est pas censé avoir ce genre de “spectacle horrible” sur un réseau social “familial”. Donc merci à ces équipes de nettoyage des poubelles du net.
Si toi tu aimes, c’est ton problème, par celui de 99% des internautes
Si tu penses que ton enfant peut tomber dessus sans que cela te gêne, je pense que tu as un problème.
Ensuite je ne suis pas accros au réseau sociaux et mes enfants n’ont le droit d’aller que sur 5 sites. Tous le monde n’a pas mi, ou ne sais pas mettre en place un bloquage parental.
1 heure d’ordi possible 10h a 18h, 5 sites et spotify.
Merci a ces employés sacrifiés ! Mais comment faire autrement ?
Tu as raison tkt seul, les Débiles comme kakakoko pensent que ce sont des chochottes. Mais tu sais kakakoko ne représente qu’une partie infime des gens.
Attention fragiles… Mon dieu les mecs portent plainte… Mais ça leur est pas venu à l’idée que c’était leur travail de voir ça ? OULOULOU le pauvre petit modo… c’est vrai que c’est bien mieux de bannir les mecs furax qui sont pas contents des services de microsoft défectueux, ou de bannir les gens qui ne sont pas du même avis qu’eux/opinions politiques/pas assez bien pensants… Il leur faut du soutien psychologique… mon dieu. Microsoft aurait dû les virer, car c’est leur PUTAIN de BOULOT s’ils n’arrivent pas à faire ça c’est que ce sont des incapables… C’est une blague ou bien ? C’est banal sur internet tout le monde est déjà tombé sur du gore sans faire exprès, ils sont censés nous éviter ça,c’est leur taf… assumez. faut foutre les mains dans le cambouis (et je pèse mes mots parce que derrière un clavier… tout le monde est propre) incapables
Tu réfléchie des fois ? Tu imagines les horreurs qu’ils peuvent voir à longueur de journée et par la même occasion empêchent que des gens comme toi et moi puissent les voir ? Je suis certain que les modos sont des gens très sain d’esprit mais la vision de telles choses peut facilement provoquer des problèmes psychologiques, et même aux plus “forts d’esprit” ! Ces gens là ne voient pas du gore comme un animal qui se fait écraser sur la route ou quelqu’un qui se coupe un doigt accidentellement ou toute autres choses gores que tu aurais pu voir “sans faire exprès” comme tu dis… On est d’accord sur le fait qu’il leur faut un soutien régulier et une formation adéquate, là ce sont juste des gens lambda lâchés dans un univers cauchemardesque. En tous cas tu as l’air de penser que leur travail est facile, ben voyons, je t’y verrais bien !
Non mais tu sais soit il troll, soit c’est un débiles donc pour la première option c’est pas forcement marrant pour tout le monde, pour la deuxième option je vais faire une citation :
C’est comme essayer de jouer aux échecs avec un pigeon. Tu as beau être
très fort aux échecs, il arrive, renverse les pièces, chie sur
l’échiquier et s’en va avec l’air supérieur comme s’il avait gagné.
Problème chez Microsoft, qui effectivement ne recrute pas ses modos sur test et leur offre peu de soutien… mais d’une certaine manière il y a aussi problème sur ces modos eux-mêmes : est-ce qu’ils ne sont pas censés savoir dans quoi ils s’engagent ? Qu’est-ce qu’ils s’attendent à modérer ? Sauf respect pour les choqués, ça fait légèrement inconscient et bisounours, comme un flic qui s’étonnerait de poursuivre des criminels sanguinaires.
Où postule-t’on ?
Sauvez un Modo, mangez un Pedo.
+1
j’ai pensai a faire une fois par mois un photomontage avec des messages d’amour qu’il faudrait reporter/signaler pour qu’il ait a le voir au travail.