Passer au contenu

A Londres, la reconnaissance faciale commettrait 81% d’erreurs

D’après une étude indépendante relayée par SkyNews, 81% des correspondances identifiées par des caméras à reconnaissance faciale lors de tests seraient invalides…

Ce système de reconnaissance faciale a vocation à repérer les suspects dans la foule, facilitant ainsi largement le travail des autorités. Mais ce taux d’erreur impressionnant soulève de “vraies inquiétudes” par rapport à l’utilisation que Scotland Yard fait de cette technologie. Les auteurs de l’étude demandent donc la suspension du programme : à la lumière de leurs résultats, ils estiment qu’en l’état, il y aurait de “fortes chances” que le système puisse être jugé illégal s’il était soumis au jugement d’un tribunal. Ils citent pour cela un vaste éventail de problèmes “techniques, opérationnels et légaux”.

Il s’agit de la première étude indépendante du système, commandée par Scotland Yard et réalisée par l’Université d’Essex. L’équipe du professeur Pete Fussey et du Dr Daragh Murray a donc passé au crible six des dix essais pratiqués par la ville. Sur 42 correspondances, seules 8 ont été identifiées comme étant correctes – soit 19% de réussite pour 81% d’erreur !

La Met (Metropolitan Police Service, la police londonienne) utilise de son côté une mesure différente, qui se base sur le nombre de correspondances selon le nombre total de visages analysés. Cette méthode de calcul donne un taux d’erreur d’environ 0,1%, soit très loin derrière le 81% d’erreur annoncé par l’étude. Cette énorme différence a donné lieu à une passe d’armes par médias interposés entre les autorités qui défendent leur système, et les chercheurs qui défendent leurs conclusions.

Les responsables de la police remettent en cause la partialité de l’étude, parlant de “ton déséquilibré et négatif du rapport” et assurent que le le public attend d’eux qu’ils mettent en place des moyens “innovants” de combattre le crime. De son côté, l’équipe affirme avoir conduit une “analyse légale et académique détaillée de la documentation sur laquelle s’est basée la Met pour leurs essais”.

La reconnaissance faciale et le spectre du Big Brother

Les réactions à ce rapport ne se sont pas fait attendre. La première est venue de Big Brother Watch, un groupe d’activistes anti reconnaissance faciale, qui considère désormais que ce rapport devrait sonner le glas du programme de reconnaissance faciale.

Si les réactions sont aussi vives, c’est surtout parce que beaucoup considèrent qu’il existe une vraie disproportion entre les moyens mis en place et le bénéfice. Même si le programme n’est encore qu’en phase de test, beaucoup considèrent qu’effectuer ces essais en condition réelle place de fait des citoyens innocents sous une surveillance active, contrairement à de simples enregistrements de caméras de surveillance.Cela pose le problème du consentement. En Chine, on justifie ces moyens par un crédo désormais bien connu : “ceux qui n’ont rien à cacher n’ont rien à craidre”. En Occident, la question reste tendue. La BBC a par exemple capturé une vidéo d’un hom^me ayant reçu une amende pour son refus de participer à un essai de reconnaissance faciale. D’après les auteurs de l’étude, “traiter l’évitement de ces caméras comme un comportement suspect “remet en cause les fondements du consentement éclairé”.

C’est l’un des arguments qui ont fait que la ville de San Francisco a décidé d’abandonner purement et simplement l’utilisation de la reconnaissance faciale, qui annonçait ne “pas vouloir d’un état policier”.

Il existe également un certain flou au sujet des listes d’individus à surveiller : plus tôt dans l’année, une ingénieure de la Met estimait qu’il faudrait un gros investissement pour s’assurer que tous les individus présents sur ces listes le soient légalement.

Il ne s’agit pas de la première fois que les limites actuelles de la reconnaissance faciale sont exposées; on se souvient qu’en 2017, ce système avait été utilisé lors de la finale de la Ligue des Champions à Cardiff. Et les résultats furent pour le moins décevant : sur les 2470 correspondances relevées, 92% étaient de faux positifs, c’est-à-dire de simples passants que l’algorithme a reconnus comme individus placés sur la liste de fauteurs de trouble potentiels …

La reconnaissance faciale a encore beaucoup de chemin à faire avant de se démocratiser en Occident, contrairement à la Chine où elle est déjà très implantée par exemple. Au regard de ces résultats, on peut d’ailleurs se demander si les autorités chinoises possèdent simplement un système bien plus efficace, ou si le leur est sujet aux mêmes problèmes, ce qui soulèverait de nombreuses autres questions.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
Les commentaires sont fermés.

Mode