Parler à l’assistant vocal de son smartphone ou de sa montre connectée sans faire aucun bruit, cela peut sembler étrange à première vue ! Et pourtant les cas d’usage sont nombreux, que ce soit pour rédiger un message en plein concert ou encore pour ne déranger personne dans un lieu très calme. C’est l’objectif de chercheurs de l’université Cornwell, qui ont mis au point un prototype de lunettes équipées basiquement d’un sonar qui « lit » les mouvements des lèvres. Pas besoin de parler, il suffit d’énoncer les requêtes vocales dans le silence…
Une technologie aux multiples possibilités
Selon Ruidong Zhang qui a développé le système, utiliser des lunettes élimine la nécessité d’intégrer des caméras. « La plupart des technologies de reconnaissance vocale silencieuses se limitent à un ensemble sélectionné de commandes prédéterminées qui obligent l’utilisateur à faire face ou à porter une caméra, ce qui n’est ni pratique, ni faisable », explique-t-il.
Les lunettes en question ne demande que quelques minutes d’entraînement (lire une série de chiffres, par exemple), afin de permettre au logiciel d’apprendre la manière dont parle l’utilisateur. Des ondes sonores sont ensuite envoyées et reçues par l’appareil, ce qui lui permet de détecter les mouvements de la bouche. Un algorithme analyse les profils d’écho en temps réel avec une précision « d’environ 95 % ».
L’interprétation de ces données est laissée à une application mobile, qui reçoit ces informations sans fil. Toutes les données sont traitées en local par le smartphone, elles ne sont pas partagées. Le prototype actuel intègre 10 heures d’autonomie. « Notre appareil est petit, il consomme peu d’énergie et il respecte la confidentialité, qui sont des caractéristiques importantes pour le déploiement de nouvelles technologies portables dans le monde réel », se réjouit l’étudiant.
En plus des usages déjà décrits ci-dessus, cette technologie a aussi un intérêt dans le domaine de l’accessibilité. Une personne ayant des problèmes d’élocution pourrait ainsi s’en servir pour « parler » : les lunettes analyseraient les mouvements de ses lèvres, puis un haut parleur serait à même de diffuser les paroles avec un synthétiseur vocal.
Ce dispositif pourrait devenir un produit commercial un jour. Le labo Smart Computer Interfaces for Future Interactions (SciFi) de Cornwell étudie en effet la possibilité de commercialiser cette technologie à l’avenir. L’équipe cherche aussi à savoir si ce système peut être vendu à des industriels et à des entreprises pour le suivi du visage, des yeux et du haut du corps, ce qui pourrait intéresser les constructeurs de casques de réalité virtuelle.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
C’est l’université de Cornell et pas Cornwell