Passer au contenu

Des chercheurs proposent une méthode agressive pour lutter contre les groupes de haine sur Internet

Un groupe de chercheurs a réalisé une étude très intéressante sur la dynamique qui régit les groupes de haine sur Internet. Il en a tiré un ensemble de quatre propositions, qui pourraient trouver des applications dans la vie réelle, sous réserve de prendre les précautions nécessaires.

Les groupes haineux à la rhétorique agressive n’ont jamais autant prospéré qu’à l’ère d’Internet. Les idéologies les plus nauséabondes peuvent trouver refuge à l’abri d’un site web obscur, et déverser des atrocités de façon quasiment anonyme et donc décomplexée, libérée. Ces groupes sont inquiétants car on retrouve souvent leur trace à l’origine de drames comme la tuerie de Christchurch, en Nouvelle-Zélande.  Et comme on l’a vu récemment avec le cas de Cloudflare et 8chan, les retombées sont souvent compliquées à gérer à cause de l’absence d’un cadre juridique global. C’est avec ces problèmes en tête qu’une équipe de chercheurs des universités George Washington et de Miami a mené une étude pour s’attaquer à ce problème. Ils ont scruté plusieurs groupes de haine sur Facebook et VKontakte pour étudier leur architecture. Et d’après leurs conclusions, ils seraient bien plus difficiles à éradiquer que prévu car il ne s’agit pas de poches uniformes, mais de véritables petites galaxies.

Cette étude se base sur un concept un peu différent de la plupart des travaux sur le sujet : elle ne se base pas sur les individus ou sur les réseaux, mais vise encore une marche plus haut et cartographie les “réseaux de réseaux”. D’après eux, de tels groupes pousseraient à la manière de “grappes” interconnectées, et c’est ces connexions qui les rendraient aussi compliqués à éradiquer.

© Johnson et al.

Puisqu’on parle d’Internet, ces clusters ne sont pas forcément géographiquement proches, mais communiquent par des “autoroutes” à travers lesquelles ces messages de haine transitent. Cela en facilite la dissémination indépendamment de la langue ou de la région. C’est donc une structure dynamique, capable de s’auto-réparer et de reformer des liaisons rapidement en cas de dégâts – quand un groupe est banni par un administrateur, par exemple.

Quatre propositions pour faire la guerre aux groupes de haine sur le Net

Ce fascinant papier de recherche a effectué un impressionnant plongeon dans l’aspect mathématique et analytique qui sous-tend la dynamique de ces clusters. Ils ont ainsi pu en déduire quatre mesures qui, si elles étaient appliquées correctement, pourraient toucher les points vitaux de ces groupes de haine. Et le plus intéressant, c’est que leur système est uniquement fonctionnel – pas besoin de connaître la moindre donnée personnelle sur les individus concernés ! Voici ces quatre propositions :

  • Bannir des clusters relativement petits, plutôt que de viser le plus gros.

Le raisonnement est plutôt simple : il faut arrêter de voir ces groupes comme une bête conventionnelle, qui mourra si on lui coupe la tête. A la place, il faut s’empêcher de s’alimenter en assimilant des clusters plus petits. De plus, il existe un véritable phénomène d’appel d’air. Lorsqu’un grand groupe est démantelé, cela a tendance à faire sur-réagir les plus petits, qui s’agglomèrent alors en un seul et même point.

  • Bannir un petit nombre d’utilisateurs désignés et au hasard de ces clusters

Cette mesure peut sembler contre-intuitive, tant elle va à l’encontre du concept même de modération sur Internet. Classiquement, on s’attend à ce qu’un internaute ne respectant pas la charte d’une communauté ou d’un service soit instantanément puni pour éviter que ces messages hors-charte ne se propagent. L’idée est donc clairement de miner ces groupes sur le moyen terme, plutôt que d’organiser des sortes de “raids” de grande envergure plutôt inefficaces. Cela pourrait être lié au fait que de tels groupes, quand ils se complaisent dans une rhétorique subversive et anti-système, peuvent interpréter tout bannissement comme une preuve de leur légitimité. “Si l’oppresseur censure mes amis, c’est qu’il se sent menacé et que mes amis ont raison !” Le bannissement d’un groupe important peut donc sonner comme un cri de ralliement, ce qui est l’inverse de l’effet recherché.

  • Promouvoir l’organisation de clusters anti-haine qui pourraient contrer les clusters haineux, à la manière d’un “système immunitaire” humain.

L’idée de vouloir assainir les gens les plus haineux en les contrant avec des des groupes anti-haine peut sembler tomber sous le sens, mais en pratique, il n’est pas évident de voir comment l’appliquer. L’idée de créer une IA censée déterminer qui est haineux et qui ne l’est pas paraît au mieux discutable. Reste donc à réfléchir quelle forme cela pourrait prendre sur le terrain.

  • Introduire un groupe artificiel d’internautes pour encourager la confrontation d’idées entre les clusters haineux ayant des vues opposées

C’est probablement la proposition la plus intéressante de l’étude. Ici, les auteurs suggèrent clairement de combattre le feu par le feu en redirigeant les forces vives de chaque groupe de haine contre des associations similaires. Le “groupe artificiel d’internautes” est ici un terme assez édulcoré. Il s’agit clairement de sortes de “groupes d’intervention”, chargés de cibler spécifiquement des groupes de haine vulnérables. Avec pour objectif de verrouiller certains points de raisonnement précis, et de souffler sur les braises en direction d’un autre groupe de haine… pour les laisser terminer le travail et se désagréger. Diviser pour mieux régner, en somme.

Une fenêtre sur les mécanismes de la transmission d’idées

Un point important à noter est que ces propositions ne sont pas le fruit du travail de quelques individus qui ont tenté de comprendre la psyché de groupuscules extrémistes. Il s’agit d’une vaste étude scientifique, documentée, basée sur des outils analytiques et mathématiques – et non sur une interprétation des opinions, qui serait de toute façon biaisée dans une certaine mesure. Comme mentionné plus haut, cette technique ne nécessite pas de jauger la position de chaque internaute haineux individuellement et on se retrouve donc avec des déductions qui viennent de comportements constatés à l’échelle du cluster, non pas de l’individu.

Cela explique pourquoi certaines peuvent sonner particulièrement contre-intuitives. Ce modèle se comporte un peu comme un ordinateur qui joue aux échecs : il arrive à repérer des liens de causalité qui nous échappent complètement. Ce qui signifie qu’il peut jouer des coups “bizarres”, qui n’améliorent pas la situation à première vue, mais qui se révéleront plus efficaces sur le long terme. En l’occurence, la méthode semble être de diviser pour mieux régner, avec l’espoir de fragiliser tous ces clusters jusqu’à ce qu’ils s’écroulent sous le poids de leurs propres contradictions.

Evidemment, il ne s’agit que d’un modèle analytique avec ses failles et ses biais. Les auteurs appellent à la prudence, et rappellent que l’implémentation de chacune de ces mesures devrait se faire à la lumière d’une analyse empirique, en surveillant l’évolution des clusters en permanence. De plus, ces propositions restent théoriques et devraient être adaptées à un cadre légal, ce qui s’annonce d’ores et déjà comme un calvaire sans nom… Et on ne parle même pas du casse-tête au moment de déterminer qui cibler, et qui prendra cette décision.

Mais cette étude a le mérite d’offrir une perspective très intéressante, avec une observation méthodique, fine et très bien pensée des mécanismes de transmission des idéologies à l’ère d’Internet. Il est plus que probable que d’autres études de ce type, peut-être à plus grande échelle, soient un jour la base de futures législations visant à encadrer l’influence des groupes de haine.

Mais en lisant cette étude, on peut également imaginer des tas d’autres applications à de tels systèmes. Et si, à la place de traquer les groupes malfaisants, on s’assurait de garder en bonne santé les clusters sains et productifs? Il pourrait s’agir d’une piste à explorer pour favoriser la liberté d’expression et l’esprit critique – étouffant ainsi d’autant plus les poches de “fake news”, qui partagent de nombreux points communs avec ces groupes de haine. On peut aussi s’imaginer que des clusters de militants pour les droits de l’Homme et la démocratie pourraient aussi gagner à être choyés, pour couper les vivres autant que possible aux idéologies autoritaires.

Quoi qu’il en soit, nous nous dirigeons tout doucement vers un âge d’or de l’analyse de ces phénomènes sociaux à très grande échelle, qui englobent un champ infini de phénomènes humains et sociaux. On espère en tout cas qu’un bon usage sera fait de ces outils “méta-analytiques”, car pour chaque utilisation positive citée, la réciproque existe aussi…

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

10 commentaires
  1. Une solution très geek et technique à une question beaucoup plus large et complexe: qui défini ce qu’est un propos haineux ? Il est fait mention de “rhétorique subversive et anti-système” ce qui voudrait dire que ceux que l’on veut éradiquer serait des dissidents et qu’on tente de mettre au point une censure automatique.

  2. pour éradiquer la haine il faut éradiquer les élites ,dirigeants, et riches qui la provoque et quand on sera touts égaux la c’est sure i en aura plus….

  3. C’est super comme idée . Comme ça  ils ne communiqueront plus  sur internet  et  on ne pourra plus prévoir à l’avance  leurs attentats kamikaze ( tuerie de masse par arme à feux comme aux usa par ex.) .
    Ils auront  donc l’avantage de commettre leur méfaits plus facilement .
    Le président des usa actuels  est plein de haine (  affaire groenland /danemark , guerre avec le fmi , rageux  envers les juifs qui votent démocrate , etc… )

  4. Bah justement je pense que c’est ce genre de commentaire qui est désigné par “rhétorique agressive”… Là, incitation à la haine envers les gens aisés, cultivés et au pouvoir…

  5. Selon Wikipedia :

    “Discours haineux : type de discours ou de système qui (au delà de la violence ou de l’injure ponctuelle en termes de force et de nature) attaque une personne ou un groupe de personnes sur la base de caractéristiques diverses (couleur de peau, ethnie, âge, sexe, orientation sexuelle, religion, etc.)”

    On peut chipoter sur l’ensemble exact de caractéristiques. Il y aura certes toujours quelques nuances en fonction des cultures. Mais en gros, voilà une définition communément acceptée.

    Attention : ça n’enlève toutefois rien au fait que, comme vous le soulignez, cette méthode peut être utilisée contre des groupes qui ne diffusent pas nécessairement de propos haineux.

  6. De toute façons cette expression et surtout sont utilisation sont nuisibles et dangereux pour la liberté d’expression : si je dis «j’aime les africains» je suis légitime mais «je n’aime pas les africains» est condamnable alors qu’en bonne logique c’est strictement équivalent.

  7. moui…
    Quand on sait que le terme “hater” est employé à toutes les sauces, notamment par le commerce, qui y fourre ses clients mécontents victimes de piètres services, voire de services inexistants, cela donne une bonne idée de comment les choses se passeront vraiment, si d’aventure un système de ce type servait à l’éradication de groupes haineux.
    Pour être plus précis dans mon exemple, mais il y en a beaucoup d’autres, des magasins, font tourner “leur” définition du terme “hater” , sur des bandeaux lumineux, au vu des files de clients attendant leur du, précisément quand ils ont quelque chose à se reprocher, comme par exemple, ne pas servir les clients dans l’ordre de leur arrivée, mais dans une logique semblant arbitraire, qui en fait repose sur la quantité d’achat du chaland : s’il vient pour acheter un objet cher, il passe en premier, s’il vient pour une réparation, en dernier. C’est du vécu personnel et entendu plusieurs fois aussi de la bouche d’amis et famille.
    C’est un exemple, mais je ne doute pas une seconde qu’un procédé comme celui que vous décrivez, puisse être automatiquement détourné de son utilisation première pour faire la soupe qui lui plaira.

  8. Détruire des groupes de partages et d’échanges, qu’ils soient “haineux”, “agressifs” ou dans un positivisme bienveillant, c’est une atteinte à la liberté d’expression et non un progrès pour celle ci, certe ils ne sont peut-être pas constructifs dans leur débat mais ils ont des choses à dire et au lieu de leur couper le sifflet il serait mieux de les écouter et de les comprendre ( ce qui ne veut pas dire forcément adhérer à leurs propos ). C’est en essayant de les faire taire, et en arrêtant d’échanger ( je dis bien échanger et pas convaincre ) que l’on arrive à des situations extrêmes, le dernier stade d’expression, la violence.

  9. Impressionnant. Une étude scientifique tombe bien près de ce que mon intuition me souffle depuis longtemps: les idées se combattent avec des idées et pas autre choses. Que ce soit en action directe envers les groupes ou en “redirection” vers des groupes antagonistes.

    Les questions de la fin de l’article sont également très pertinentes parce que l’idée du bien des uns est souvent l’idée du mal des autres. Alors comme ces structures existent mathématiquement, comment définir lesquelles sont respectables ou inoffensives ?

    J’ai une idée: gardons du coté du bien et du respectable ce qui est factuel et scientifique et considérons que le mal s’incarne dans le mensonge (fake-news pour ceux qui sont “in”) et les faux raisonnements. Entre les deux se situent le domaine des opinions qui dépendent plus du bon vouloir de chacun que de la nécessité commune.

Les commentaires sont fermés.

Mode