Depuis l’avènement de l’intelligence artificielle, les contenus générés de toutes pièces pullulent sur le web. Ces sites, articles ou fausses vidéos sont partout, et surtout là où personne ne les attend. Selon le New York Times, lorsque “Google suggère que vous ajoutiez de la colle non toxique pour que le fromage colle à une pizza“, ou que vous tombez sur des publications qui semblent surgir de nulle part depuis votre fil d’actualité, il s’agit probablement de contenus générés de toutes pièces par une intelligence artificielle.
C’est quoi le slop ?
Apparu sur les forums en ligne, le slop désigne “des contenus de mauvaise qualité, des fausses nouvelles ou des fausses vidéos et images générées par l’intelligence artificielle (IA), que l’on retrouve sur les réseaux sociaux, dans l’art ou la littérature et, de plus en plus, dans les résultats de recherche“, résume le magazine NSS. Théorisé notamment par le programmeur britannique Simon Willison, le phénomène inquiète de plus en plus.
Contrairement à un bot conversationnel comme ChatGPT, ces contenus créés par l’IA donnent l’apparence d’un contenu créé par l’humain, et joue sur le “clickbait” (pousser un internaute à cliquer sur un contenu médiocre, mais au titre accrocheur, et souvent mensonger) pour générer des revenus publicitaires et duper l’algorithme des moteurs de recherche.
Le successeur du spam est là
Comme les spams avant eux, les slops promettent de devenir omniprésents dans nos habitudes de navigation. En réalité, le phénomène est déjà bien installé, mais les internautes peinent encore à l’identifier en tant que tel. Le problème, c’est que depuis mai 2024 et le déploiement de Gemini, le bot conversationnel de Google qui puise dans les ressources web pour construire ses réponses, s’est largement inspiré des contenus slop, en affirmant par exemple que les astronautes avaient trouvé des chats sur la Lune. Et c’est bien là tout le danger du phénomène : entre un article sourcé et un contenu généré artificiellement, sans aucune supervision ni vérification humaine, impossible pour le bot de faire la différence.
Le 30 mai dernier, Google avait annoncé qu’il entendait réduire certaines fonctionnalités de Gemini, afin d’améliorer certaines erreurs et imprécisions, et de mettre en évidence les manquements de son chatbot en matière de vérification des données.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
En l’occurrence, pour la colle sur la pizza, la source a été retrouvée et il s’agissait d’une réponse sarcastique dans une conversation Reddit.
Je reçois de tels courriels depuis déjà un certain temps. Le tout a commencé d’une coup. Soudainement, je me retrouvais avec des centaines de courriels de ce type PAR JOUR. À créer des filtres, j’ai pu les réduire à un montant plus raisonnable, mais je songe clairement à créer une autre adresse courrielle sur mon domaine. Et le contenu, pour les pourriels que j’ai lus, semble tout à fait légitime, mais ne m’intéresse pas du tout. Le meilleur remède est de créer des filtres dans le logiciel de courriel, assez génériques pour attraper une majorité des pourriels, tout en laissant les courriels légitimes en place. Dans mon cas, j’ai trouvé qu’une majorité de ces pourriels nouveau type ont une adressse de provenance “@email.” Le début du nom de domaine semble toujours être “email.”.
Le journal du geek qui parle de clickbait, la bonne blague
@Bob : 😂
C’est l’hôpital qui se fout de la charité.
Vous ne faites pratiquement QUE des articles générés par chatGPT (il suffit de voir la syntaxe et les fautes) ou traduits par google d’articles piqués sur des sites étrangers ou encore venant de sponsorats (hein les jouets qui vibrent !).