Il s’agit d’une puce radar miniature de seulement 9 mm de large, qui fonctionne dans le spectre radio à 60 GHz et qui envoie donc des ondes radio. Lorsque celles-ci rebondissent sur la main et les doigts, Google peut en déduire leur position dans l’espace à l’échelle du millimètre, avec une fréquence équivalente à 10 000 images par seconde ! Dans la démo faite lors de l’événement, on s’aperçoit que cette puce permet de capter les mouvements des doigts d’une façon très précise et ensuite de traduire ces gestes en différentes commandes.
Rappelant le principe du Leap Motion, le Projet Soli n’est pas encore disponible, mais un premier kit pour développeurs devrait être lancé d’ici la fin de l’année, et la technologie pourrait alors rapidement être adoptée par les constructeurs.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
En plus ça marche sur Ubuntu d’après la vidéo !
Moi, l’utilité que j’en vois, c’est un traducteur de langue des signes.
Tu signes devant, et il traduit automatiquement avec une voix préenregistré!
Je me vois déja intéragir avec mes modèles 3D avec ça *o*