L’intelligence artificielle conversationnelle est devenue une composante de plus utilisée dans notre quotidien. Des géants comme OpenAI avec ChatGPT, Google avec Gemini, sans oublier DeepSeek, Perplexity et Mistral AI avec Le Chat, rivalisent d’ingéniosité pour séduire toujours plus d’utilisateurs. Encensées pour leur aptitude à produire des textes, des images, à apporter des réponses et même à imiter des échanges humains, ces IA génératives pourraient cependant dissimuler un piège insidieux : une dépendance chez certains utilisateurs intensifs. C’est la mise en garde sérieuse qui émane d’une récente étude collaborative menée par des chercheurs d’OpenAI, l’entreprise à l’origine de ChatGPT, et du prestigieux MIT Media Lab.
Les résultats de cette recherche, basés sur une analyse automatisée de près de 40 millions d’interactions avec ChatGPT, mettent en lumière un phénomène préoccupant. Certains utilisateurs intensifs, c’est-à-dire ceux qui interagissent le plus fréquemment et le plus longtemps avec ChatGPT, développeraient une forme de dépendance, voire d’addiction. Pour confirmer cette théorie, les chercheurs ont réalisé une deuxième étude auprès de 1 000 participants utilisant ChatGPT pendant quatre semaines.
Fort de ces deux études, ils ont identifié chez ces « power users » de l’IA conversationnelle des « indicateurs d’addiction ». Ces signes sont la préoccupation constante, des symptômes de sevrage en cas de non-utilisation, une perte de contrôle quant à la durée d’utilisation, ou encore une modification de l’humeur en fonction des interactions avec l’IA.
C’est désormais prouvé, on peut être accro à ChatGPT
Les chercheurs soulignent que cette dépendance semble se développer particulièrement chez les personnes souffrant de solitude ou traversant des périodes difficiles. Ce type de profil, dont la vie personnelle est moins épanouie, a plus tendance à considérer ChatGPT comme un « ami ». En d’autres termes, ceux qui ont le plus besoin d’interactions humaine seraient les plus susceptibles de développer une relation parasociale profonde avec l’IA.
Alors que les conséquences d’une telle dépendance ont de quoi susciter de l’inquiétude, l’étude met en évidence aux résultats surprenants. Contrairement à ce que l’on pourrait imaginer, les personnes qui utilisent ChatGPT pour des raisons « personnelles », comme discuter de leurs émotions ou de leurs souvenirs, sont moins dépendantes émotionnellement que ceux qui l’utilisent pour des raisons « non personnelles », comme la recherche de conseils ou le brainstorming. Par ailleurs, on apprend que les utilisateurs ont tendance à employer un langage plus émotionnel avec la version textuelle de ChatGPT que le mode vocal. Dans un ancien rapport repris par Radio France, OpenAI avait mentionné certains risqués posés par la version vocale de son IA. Les fonctions audio de la dernière version de ChatGPT sont, elles aussi, capables de rendre des utilisateurs « émotionnellement dépendants ».
Comme avec les réseaux sociaux, les jeux vidéo, le porno ou simplement les écrans, cette étude rappelle les dangers d’une utilisation prolongée. Elle souligne aussi l’urgence d’une réflexion approfondie sur notre relation avec l’IA générative.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.