L’algorithme de Facebook influence-t-il les résultats des élections ? Ou, à tout le moins, le réseau social de Meta participe-t-il de la polarisation politique grandissante qui favorise les extrêmes ? Un sujet vaste et complexe auquel se sont attaquées deux études dont les conclusions nuancées ont été publiées ces derniers jours.
La réalité des bulles de filtre
La première étude a cherché à comprendre si nous sommes réellement enfermés dans des « chambres d’écho informationnelles », et si oui, pourquoi. L’algorithme du fil d’actualité de Facebook amplifie les inclinations idéologiques de nos réseaux sociaux, rendant ce que nous voyons plus homogène politiquement que ce qui est posté par ceux que nous suivons. De plus grandes différences partisanes existent dans ce que les utilisateurs s’engagent à suivre, et la plateforme tente de leur donner davantage de ce qu’ils cliquent, aiment, commentent ou partagent — pour une bonne raison du point de vue de Facebook : favoriser l’engagement et donc, les vues publicitaires…
Ce constat pose la question suivante : à quel point les nouvelles consultées par les utilisateurs gens devraient être idéologiquement similaires ? L’étude note qu’il est difficile de déterminer ce que devrait être le chiffre à viser, elle se concentre strictement sur le contenu relatif à la « nouvelle et au civisme ».
La deuxième étude a testé directement si l’augmentation de la diversité politique dans le fil d’actualité avait un effet sur la polarisation. Pour environ 20.000 participants consentants, la quantité de contenu provenant de sources partisanes similaires a été réduite d’environ un tiers, sans changement significatif dans huit variables de polarisation mesurées.
Cela fournit une preuve solide contre la version la plus simple de la thèse selon laquelle les bulles de filtre algorithmiques provoqueraient la polarisation. Cependant, les bulles de filtre ne sont pas la seule manière de penser à la relation entre les médias, les algorithmes et la démocratie. Il existe des preuves que les algorithmes basés sur l’engagement amplifient le contenu clivant.
Les résultats de ces études sont plus vastes que Facebook et constituent les premiers résultats dans un nouveau domaine. La question de la prévention des dommages et du rôle des plateformes dans la gestion des conflits sociétaux est profonde. Il est également possible d’identifier de manière algorithmique le contenu politique à travers les divisions sociétales — prioriser un tel contenu peut réduire la polarisation. Des expériences ont même montré qu’un chatbot IA bien conçu peut aider à modérer les conversations clivantes.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.