Passer au contenu

Comment une IA peut devenir raciste ou sexiste

Parfois les intelligences artificielles se comportent exactement comme le proverbial oncle raciste ou sexiste de nos repas de famille. Comment expliquer cela ? Chercheur au sein de Normale-Sup et du pôle FAIR de Facebook, Stéphane d’Ascoli répond à cette question (et à bien d’autres) dans un ouvrage très bien fait paru aux Editions First, “Comprendre la révolution de l’intelligence artificielle”. Décryptage de l’expert.

Lorsqu’on parle d’IA raciste ou sexiste, de quoi parle-t-on exactement ? Que font ces intelligences artificielles ?

Stéphane d’Ascoli : On commence à avoir beaucoup d’exemples. Il y a eu des cas dans le recrutement, notamment une IA d’Amazon qui défavorisait les CV de femmes à compétences égales. On a aussi les outils de reconnaissance faciale type Face ID qui fonctionnent moins bien sur les personnes noires. C’est problématique et ça peut l’être encore plus si ce problème d’efficacité se retrouve sur des IA censées, par exemple, poser un diagnostic médical. La manière dont certaines IA traitent et traduisent des phrases peut aussi refléter une conception très biaisée. Par exemple, on demande le féminin de “docteur” et on obtient “infirmière”. Le fait que certaines IA discriminent certaines populations est d’autant plus problématique qu’elles influencent désormais des décisions potentiellement sensibles : obtention d’un prêt, d’un poste, décision de justice, etc.

Pourquoi une IA peut devenir raciste ou sexiste ?

SdA : On a tendance à s’imaginer que les IA sont froides, objectives et parfaitement rationnelles mais ce n’est pas le cas. Elles apprennent de nos données et nos données sont biaisées. Si, pendant dix ans, les femmes ont été défavorisées lors du processus de recrutement d’une entreprise et que celle-ci utilise ces données pour entraîner une IA, il y a des chances que l’IA déduise que les CV de femmes sont moins pertinents pour cette entreprise et qu’elle continue de les défavoriser. Les intelligences artificielles n’ont pas notre esprit critique. C’est pour cela que lorsque des internautes se sont amusés à tester les limites du robot conversationnel Tay en essayant de lui faire dire des horreurs, ils y sont rapidement parvenus. L’IA qui apprenait de ses interactions avec les autres utilisateurs de Twitter a rapidement déduit que le meilleur moyen de faire réagir la communauté c’était de toucher au point Godwin. Il faut bien garder en tête que les IA ne remettent pas en question ce qu’on leur apprend. C’est pour cela qu’elles sont très conservatrices d’ailleurs : elles reflètent le monde tel qu’il est, pas le monde tel qu’on voudrait qu’il soit. Il n’y a pas de notion de justice ou de progrès social avec elles. Un autre facteur qui peut amener une intelligence artificielle à traiter différemment les utilisateurs, c’est le manque de données. Si on entraîne une IA de reconnaissance faciale sur des bases photo où l’on trouve majoritairement des personnes blanches, elle risque de moins bien fonctionner sur des personnes noires. Et n’oublions pas enfin que les algorithmes peuvent refléter les biais de leurs concepteurs.

Comment éviter qu’une IA devienne raciste ou sexiste ?

SdA : Ce n’est pas facile. Déjà, il faut identifier le biais et le traiter. Et cela peut s’avérer très compliqué. Avant, on avait des algos parfaitement déterminés, on savait précisément ce qu’ils faisaient. Mais, de plus en plus, les IA vont sélectionner elles-même les caractéristiques importantes. C’est tout l’intérêt du deep learning mais cela les rend beaucoup plus difficiles à contrôler. Un exemple assez drôle sur le sujet, c’est celui de deux hôpitaux qui fournissaient des images de rayons X de patients. Une IA devait déterminer si l’image révélait ou non une fracture. Le problème c’est que les hôpitaux avaient des taux très différents de cas (90% de patients avaient une fracture pour l’hôpital A et 10% seulement pour l’hôpital B). On s’est aperçu que pour déterminer si l’image montrait ou non une fracture, l’IA ne l’analysait pas du tout : elle se contentait de contrôler le logo de l’hôpital. Car l’hôpital A avait effectivement beaucoup plus de cas de fractures ! Ce type de biais est difficile à repérer et il est aussi très dur à corriger : même si on enlève le logo, les images de chaque hôpital ont certainement des spécificités (résolutions différentes etc.). Donc l’intelligence artificielle pourra continuer d’identifier l’hôpital par d’autre moyens. C’est le même problème qui se pose avec les biais sexistes ou racistes : on peut se dire qu’on retire la donnée de genre ou d’ethnicité. Mais l’IA pourra souvent déduire ce paramètre d’autres données. Il faut cependant essayer au maximum d’identifier les biais discriminants et trouver un moyen de les retirer. Pour empêcher les IA de devenir racistes ou sexistes, il est également important de s’assurer que les jeux de données sur lesquels on va entraîner l’IA sont équilibrés et diversifiés. En l’occurrence, ça, c’est faisable. Et une fois que l’IA est opérationnelle, il faut impérativement la tester pour vérifier qu’elle traite de façon identique les utilisateurs.

“Comprendre la révolution de l’intelligence artificielle” de Stéphane d’Ascoli (Editions First)

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

8 commentaires
  1. « Il faut s’assurer que les jeux de données sont diversifiés, c’est pas compliqué »

    Tous les chercheurs ont clairement pas les mêmes moyens ! Mais c’est un excellent résumé en tous cas, ça donne envie d’aller lire le bouquin.

    EDIT: je suis allé regarder qui était l’auteur pour avoir un peu de contexte. Non seulement il publie un livre durant sa première année de thèse, mais en plus il a déjà une carrière de dingue et a traîné dans toutes les institutions les plus prestigieuses de la recherche. C’est dingue. Et l’ENS ça ouvre décidément des portes.

  2. Tout a fait daccord, me suis fait la même reflexion en lisant cette phrase sur les datasets !

    Sinon vous m’avez intrigue avec son CV et suis allé voir aussi… et wow. autant le fait de sortir un bouquin en 1ere année de thèse ça me fait ni chaud ni froid, autant j’ai vu des gens qualifiés de “grands chercheurs” qui ont meme pas la moitie de son pedigree institutionnel. Balaise le bou gre !

  3. Ouais donc en gros une IA qui va à l’encontre de l’idéologie gaucho-progressite c’est plus une intelligence.
    – Posez vous la question de savoir pourquoi la première femme championne du monde au échec n’arrive qu’en centieme position dans le classement des hommes ?
    – Posez vous aussi la question de savoir pourquoi certaines races remplissent les prisons françaises et d’autres non ? Une question de pauvreté peut-être et pas de race ? Dans ce cas pourquoi il n’y a quasi aucun immigré chinois en prison ?

  4. Ouais donc en gros une IA qui va à l’encontre de l’idéologie gaucho-progressite ce n’est plus une intelligence.
    – Posez vous la question de savoir pourquoi la première femme championne du monde au échec n’arrive qu’en centieme position dans le classement des hommes ?
    – Posez vous aussi la question de savoir pourquoi certaines races remplissent les prisons françaises et d’autres non ? Une question de pauvreté peut-être et pas de race ? Dans ce cas pourquoi il n’y a quasi aucun immigré chinois en prison ?

  5. L’article avait raison ! Planquez vous ! Les IA racistes sont déjà la et elles postent même des com !

  6. Je me suis procuré le bouquin par curiosité, et… disons que c’est probablement un bien meilleur chercheur que vulgarisateur. C’était ridicule comme lecture.

  7. Visiblement poster des commentaires racistes et sexistes demande moins de QI que ne pas poster en double, ça montre le niveau.

  8. Ridicule, à ce point ? Bon bah dommage, c’est la tuile mais au moins vous m’avez fait économiser quelques euros … comme quoi on peut pas être bon partout !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode