Passer au contenu

ChatGPT est-il devenu plus “éthique” grâce à l’exploitation de travailleurs kényans ?

Pour proposer une IA plus éthique, ChatGPT aurait contribué à l’exploitation de milliers de salariés kényans.

Dans une récente enquête publiée sur le site du Time, le journaliste Billy Perrigo vient écorner violemment la réputation d’OpenAI, et de son chatbot ChatGPT. Alors que l’outil ambitionne de révolutionner notre usage d’Internet, de plus en plus de questionnements éthiques émergent. Les étudiants utilisent la plateforme pour tricher, et certains hackers malintentionnés n’hésitent pas à l’exploiter pour arnaquer des victimes un peu trop crédules.

Pour offrir au monde une utilisation toujours plus éthique de son outil, OpenAI planche déjà sur un moyen d’authentifier les textes écrits à partir de ChatGPT. Dans un tout autre registre, le chatbot interdit également les propos à caractère sexuel, injurieux ou illégaux, ce qui n’est pas le cas de toutes les intelligences artificielles du marché. Et c’est justement là que le Time soulève un problème de taille : pour entraîner son robot à détecter — et donc éviter de reproduire — des contenus jugés inappropriés, OpenAI aurait fait appel à des travailleurs kényans sous-payés, en les confrontant pendant des mois à des publications insoutenables.

Payés moins de deux dollars de l’heure, ces travailleurs auraient permis à ChatGPT de s’entraîner sur des centaines de milliards de références extraites du web. Une banque de données immense, qu’il a fallu trier à la main pour permettre au robot de ne pas reproduire les dérives sexistes, racistes et homophobes héritées du premier chatbot conversationnel que Microsoft avait mis en ligne sur Twitter en 2016.

Pour confronter ChatGPT au pire d’Internet, OpenAI aurait ainsi fait appel à plusieurs milliers de salariés, via la sous-traitance de l’entreprise américaine Sama, basée au Kenya, en Ouganda et en Inde. Interrogés par le Time, certains travailleurs décrivent des conditions de travail “précaires”. Un employé de Sama anonyme qualifie même la situation de “torture”, et indique avoir “des visions récurrentes après avoir lu une description graphique d’un homme ayant des relations sexuelles avec un chien en présence d’un jeune enfant”.

Face à une situation jugée insoutenable, Sama a finalement choisi de mettre fin à son contrat avec OpenAI huit mois plus tôt que prévu. De son côté, l’entreprise américaine reste floue, et préfère communiquer autour des progrès nécessaires au bien commun que l’IA s’apprête à apporter au monde. “La classification et le filtrage de contenus nuisibles sont une étape nécessaire pour minimiser la quantité de contenu violent et sexuel inclus dans les données de formation et créer des outils capables de détecter le contenu nuisible” a indiqué un porte-parole de ChatGPT.

Pour mieux comprendre les dessous du phénomène OpenAI, vous pouvez aussi retrouver l’enquête complète du Time (en anglais) ici. L’affaire n’est malheureusement pas inédite, puisqu’elle fait écho à celle de Meta il y a quelques années. Reste que l’exploitation psychologique de travailleurs et travailleuses pauvres dans le but de rendre une IA plus éthique continue de poser question.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Time

3 commentaires
  1. 1. Il faut bien que quelqu’un s’échine à “entrainer” les IA afin d’éviter qu’elles ne se transforment en troll raciste/sexiste/…/autres mots en “iste”.
    2. Arrêtez de crier à “l’exploitation des pauvres” à tout bout de champ. Pour beaucoup de gens dans les pays les moins riches, avoir un revenu est un privilège pour lequel les gens se bousculent. Même quand ce “privilège” consiste à trier manuellement les déchets que vous répugnez a trier vous même, des gens seront content de pouvoir mettre quelque chose à manger sur la table, le soir, à leurs enfants, grâce à cette “exploitation”.

  2. Il y a peu de temps, j’ai eu un accident de la route : je suis content de m’en être bien sorti.. néanmoins, il aurait été préférable de ne pas être passé par cette détresse. Il en est de même pour votre commentaire (@jaipasrésisté) : il est évident de certains seront “content” de trouver un travail/rémunération.. mais dans ce contexte de détresse, je ne crois pas qu’ils soient réellement “content” de leur sort !?
    A méditer…

Les commentaires sont fermés.

Mode