Les Nations unies ne sont décidément pas à l’aise avec les intelligences artificielles. Elles viennent d’appeler à un moratoire sur les usages de l’IA qui pourraient présenter des risques pour l’humain, qu’ils soient physiques ou liés aux libertés individuelles.
Dans un communiqué repéré par Interesting Engineering et disponible ici, l’institution estime qu’il y a désormais urgence à agir. Faute de quoi ces outils pourraient très vite basculer hors de tout contrôle et devenir plus néfastes que bénéfiques.
Technologies like facial recognition are increasingly used to identify people in real time and from a distance.
We call for a moratorium on their use in public spaces, at least until robust international #HumanRights safeguards are in place.
Learn more: https://t.co/VmmR75slYd pic.twitter.com/mslH79ccFK
— UN Human Rights (@UNHumanRights) September 15, 2021
Les Nations Unies constatent en effet un “niveau sans précédent de surveillance globale, par les États aussi bien que les acteurs privés”. Une situation “incompatible” avec les droits et libertés individuelles selon Michelle Bachelet, Haut-Commissaire aux droits de l’Homme.
“L’intelligence artificielle peut être un moteur du bien, et aider des sociétés à surmonter les grands défis de notre temps”, renchérit-elle. “ Mais elle peut aussi avoir des effets négatifs, même catastrophiques si elle est utilisée sans prendre en compte les droits humains.”
Pas de confiance sans transparence
Dans le viseur de l’ONU, on retrouve évidemment la biométrie, et notamment la reconnaissance faciale. Bien que prometteuse, elles laisse la porte ouverte à un “traçage potentiellement illimité des individus.” Pour protéger ces derniers, l’institution souhaite susciter un débat sur l’utilisation de la biométrie dans les espaces publics.
Les Nations unies souhaitent par-dessus tout que ces systèmes puissent montrer patte blanche. Ils devraient ainsi pouvoir démontrer leur capacité à suivre les politiques de protection des données. Cela signifie être en mesure de “prouver qu’il n’y a pas de problèmes significatifs de précision ou d’impact discriminatoire” . Dans le cas contraire, les systèmes non conformes devraient être tout simplement bannis selon la vision de l’ONU.
“On ne peut pas continuer à jouer au chat et à la souris avec l’IA. ”
-Michelle Bachelet
L’institution s’inquiète aussi de la prolifération des technologies de “reconnaissance émotionnelle”. Apparemment, celles-ci commencent à être utilisées comme “sérums de vérité” dans le cadre de certains interrogatoires, ce qui pose naturellement de gros problèmes en termes de droits de l’Homme.
On ne peut s’empêcher de remarquer que l’organisation s’est bien garder de sermonner quelques nations en particulier. À la place, elle adresse son message à l’ensemble des décideurs politiques; une approche qu’elle espère plus constructive, et plus à même d’être entendue. “On ne peut pas continuer à jouer au chat et à la souris avec l’IA”, conclut Bachelet. “Sans supervision ou limites, nous nous exposons à des conséquences presque inévitables sur le plan des droits de l’Homme.”
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.