Les applications faisant usage de l’intelligence artificielle dans le milieu de la surveillance sont aujourd’hui l’objet de très nombreux débats, dans un contexte où les données personnelles apparaissent de plus en plus comme une ressource stratégique. Si l’on entend régulièrement parler des problématiques liées à l’acquisition d’image, on pense cependant moins à l’audio, un terrain pourtant tout aussi essentiel dont certaines entreprises ont fait leur spécialité. C’est le cas de Nuance, une entreprise de biométrie qui développe entre autres des technologies de reconnaissance vocale pour des entreprises. Ses ingénieurs ont mis au point une intelligence artificielle capable de détecter l’âge de la personne enregistrée, dans le but de détecter les seniors pour leur assurer un service prioritaire. Ce système pourrait également permettre de détecter des fraudes en cherchant des incohérences entre la voix au bout du fil et l’âge répertorié dans le fichier informatique de l’entreprise.
Nuance s’est fait connaître en proposant ses services au géant des télécoms espagnol Telefónica. L’Espagne ayant été très touchée par la pandémie de Covid-19, les hotlines se sont retrouvées complètement saturées par les appels liés à l’urgence sanitaire et de nombreuses personnes âgées se sont donc retrouvées incapables de trouver l’aide dont elles avaient besoin. Les deux entreprises ont donc collaboré pour mettre au point une forme de filtrage, qui redirigeait préférentiellement les citoyens plus âgés vers l’avant de la file d’attente. Et l’opération semble avoir plutôt bien fonctionné puisque Nuance revendique “une technologie informatique capable d’être bien plus sophistiquée et précise que ne le pourrait l’oreille humaine”. Un bel argument pour la marque qui souhaite désormais vendre sa solution à d’autres institutions telles que des banques, des compagnies d’assurance et même des instances gouvernementales.
Une corrélation tout sauf triviale
Une étude publiée en 2010 dans le Journal of Social, Evolutionary, and Cultural Psychology a démontré que des humains se trompaient en général de plus de dix ans lorsqu’ils essayaient d’estimer l’âge d’un interlocuteur à l’oreille. D’après Brett Beranek , vice-président et responsable de la sécurité et de la biométrie, leur système est cependant loin d’être parfait : il admet sans broncher qu’il peut atteindre une incertitude “à deux chiffres” pour des patients âgés de 60 à 65 ans, un chiffre pas très éloigné de l’erreur humaine calculée dans l’étude ci-dessus. Pour lui, il ne s’agit cependant pas d’une faiblesse rédhibitoire mais d’une donnée qui devra être prise en compte au cas par cas, selon le niveau d’imprécision que l’entreprise peut se permettre de tolérer dans le cadre de son activité. Et surtout, les services de Nuance ne sont pas utilisables directement, mais nécessitent un travail avec l’entreprise en amont pour calibrer le système pour une tâche précise. En particulier, cela pourrait avoir un véritable intérêt pour lutter contre la fraude : Beranek rappelle en effet que “les seniors sont des cibles privilégiées pour les fraudeurs, qui sont eux-mêmes rarement des seniors.”
Au-delà du service client, toujours les mêmes questions récurrentes
Mais comme à chaque fois que l’on mélange l’IA et les données personnelles (dont la voix fait bien évidemment partie en tant que donnée biométrique), il est possible d’envisager tout un tas de dérives. On peut par exemple imaginer qu’une entreprise peu scrupuleuse trie les appels des seniors pour adapter son approche commerciale, ou même que certains appels soient purement et simplement filtrés et exclus d’un service. Des cas de figure hypothétiques, certes, mais dont l’entreprise semble bien consciente : son vice-président précise ainsi que la firme ne travaillera pas avec des gouvernements considérés comme répressifs ou avec des entreprises qui supportent la surveillance publique à grande échelle.
Sur le papier, il s’agit donc d’une entreprise qui a réussi à améliorer une offre de service public grâce à l’IA, en proposant un service destiné à des personnes vulnérables et ce en tout juste quelques semaines. Certes, cette technologie semble encore assez loin d’être mature mais c’est en tout cas une piste qui sera très certainement réutilisée à l’avenir. S’il faut bien évidemment garder son sens critique en éveil lorsqu’une technologie basée sur l’IA est mise en relation avec des données personnelles, c’est aussi une preuve concrète qu’elles peuvent tout à fait être utilisées à des fins vertueuses.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Allez y, donnez leur votre voix maintenant !
Ils ont vos photos, les photos de vos proches, ils ont vos opinions politiques , votre profil psychologique, vos goûts en matière de sexualité, peut être même votre ADN (23andMe et compagnie ) et maintenant ils auront votre voix!
Que leur restera t’il a obtenir ? Rien, c’est bon ! On ne peut pas encore accéder aux rêves.