Passer au contenu

Google : l’IA d’analyse de photo délaisse les genres « homme » et « femme »

Pour éviter de transmettre les biais humains à l’intelligence artificielle, Google annonce qu’il ne fera plus de distinction de genre sur ses analyses de photo.

Difficile exercice pour un algorithme que d’identifier le genre d’un être humain à partir d’une simple photo. Puisqu’elles sont dépourvues de conscience, les intelligences artificielles sont cantonnées à établir des corrélations en fonction de l’algorithme qui les dirige, lui-même bâti autour de biais humains. Ainsi, il n’est pas rare que l’algorithme se trompe et s’emmêle les pinceaux en qualifiant une personne d’homme ou de femme à partir d’un cliché, prenant exemple sur des caractéristiques culturelles humaines.

Afin d’éviter ce problème de neutralité, Google a annoncé qu’il compte se délaisser du genre dans l’analyse des photos. En d’autres termes : l’algorithme de IA Cloud Vision ne qualifiera plus une personne présente sur une photo comme « homme » ou « femme ». À l’avenir, l’IA mise au point par la firme de Mountain View détectera seulement des personnes non-genrées, sans aucune distinction de sexe. Cette avancée majeure contribue à rendre l’intelligence artificielle plus neutre, et à limiter la transmission des biais humains aux machines, afin d’éviter de continuer à alimenter les inégalités. « Classer une personne comme homme ou femme s’appuie sur le postulat qu’il n’y aurait que deux genres. Toute personne qui ne correspond pas à l’une de ces deux catégories sera donc mal classée » note ainsi Frederike Kaltheuner à Forbes, responsable des politiques technologiques chez Mozilla, pointant le problème principal de la distinction des genres par l’IA.

Cette décision intervient après la mise en place de règles éthiques sur l’intelligence artificielle par Google. L’une d’entre elles supposent que l’IA se débarrasse de la notion de genre pour désigner les humains, de façon à ne pas aggraver certains biais. « les algorithmes d’intelligence artificielle et les bases de données peuvent refléter, renforcer, ou réduire des biais d’inégalité. (…) Nous chercherons à éviter toute injustice, notamment sur des caractéristiques sensibles comme l’ethnie, le genre, la nationalité, le revenu, l’orientation sexuelle et les convictions politiques ou religieuses. »

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Forbes

4 commentaires
  1. C’est une manière radicale de se débarrasser du biais entre homme et femme dans nos algorithmes qu’ils font passer pour une politique inclusive mais ça n’a l’air que d’une coïncidence

Les commentaires sont fermés.

Mode