William Powell est parvenu à l’aide de composants facilement trouvables dans le commerce ainsi que de ses compétences en développement d’applications Air à reproduire le mode de fonctionnement des lunettes de Google conformément à la vidéo de présentation accompagnant la communication autour du produit.
Il a donc équipé des lunettes Vuzix à des webcams HD et un micro-casque, la partie logicielle étant confié à son application maison et au logiciel de reconnaissance vocale Dragon naturally speaking.
Comme vous pouvez le voir dans la vidéo, le concept est capable de reconnaître le langage naturel moyennant des temps de latence que l’on ne retrouve pas dans la vidéo de présentation officielle de Google.
et la version originale
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Assez déçu et étonné de la naïveté du JDG sur cette news.
C’est juste un bon gros fake bien réalisé,les googlers bossent comme des chiens sur leurs projet et ce mec le réalise en système D en une semaine.
Mais imaginons l’exploit possible(lol), il partage quelque chose sur google + (comme dans la vidéo officiel) sauf que le SDK de google+ est juste inconnu donc il s’est grillé en voulant en faire trop.
mais LOL , jdg, vous regardez les video avant de les publier !?
on voit très bien qu’il ne mets pas les lunette sur la camera . . .
Je pense qu’il a simplement plagié la video originale en y ajoutant du lag, ca donne un côté authentique “home-made”
@lainiwaku : et t’as réfléchit? Il a envoyé la sortie vidéo sur un enregistreur plutôt que sur les lunettes, la sortie est identique, elle est juste redirigée (j’ai lu la news ailleurs et ça y est précisé ^^)
C’est vraiment relou cette manie de systématiquement chier sur les rédacteurs deu JDG et/ou sur les articles.
Si ça plait pas on va voir ailleurs. POINT.
@eagleofdeath13 mais LOl l’excuse a 2 balle pour faire passer le fake . . .
C’est vraiment relou cette manie de systématiquement chier sur les rédacteurs des JDG et/ou sur les articles.
Si ça plait pas on va voir ailleurs. POINT.
@lainiwaku : alors tu te calme, et tu te renseigne, à moins que ce ne soit trop complexe pour ton cerveau primitif ne connaissant que le mot “FAKE” ?
@tom : les gars de chez Google travaillent à la mise en place d’une paire de lunettes intégrant la reconnaissance de plusieurs langues, lui non… travaillent sur un projet où le micro est intégré dans les lunettes, de même pour les écouteurs, lui non… donc ce n’est pas le même level et c’est donc normal que sa création soit plus rapide… une simple paire de lunettes vidéo comme ça existe sur le net auquel il a adjoint des tas d’accessoires et ça se voit… Google conçoit tout de base et met tout dans un boitier fin, pas lui…
@eagleofdeath13 : Hum, si les lunettes étaient branchées en entrée direct pour l’enregistrement, comment se fait-il que nous voyons le mec prendre ces lunettes justement au début de la vidéo ?
C’est juste impossible ^^
et quand il lance de la musique . . . elle a était enregistré par les écouteurs à votre avis . . .
réféchicher un peu . . .
Je ne sais pas si ce gars l’effectivement fait, s’il était seul, et s’il l’a fait un 1j.
Mais ça ne me paraît pas irréaliste (dans ce temps imparti) de connecter un Dragon sur un logiciel maison qui ne sera capable de reconnaitre que quelques mots clés (et non toutes les subtilités liées à l’interprétation du language naturel comme le laisse entendre l’article), et d’agir en conséquence sur un affichage. Et j’imagine que le gars n’a aucune raison de faire en sorte que la météo, le rendrez-vous, et la publication sur G+ d’une image soit réels; c’est un proof of concept, il faut bien qu’il s’arrête quelque part.
Quant à la vidéo, hé bien elle ne me paraît pas plus bidon que celle de Google, je dirais même au contraire. Il aura juste mis une webcam sur son front et enregistré la surimpression de la sortie de son logiciel avec le flux live de la webcam…
Je trouve que hurler “FAAAAAKE” au moindre truc un peu complexe est… enfin, comment dire… Bref, développons:
@ tom et lainiwaku: il SE PEUT que ça soit un fake. ça ne veut pas dire que c’en est un.
– La technologie hardware requise pour fabriquer ces lunettes (en plus encombrant que les photogéniques google glasses) existe. Et depuis un moment.
– La reconnaissance vocale, surtout via un logiciel spécialisé comme Dragon Naturally Speaking existe déjà. Et la reconnaissance du langage naturel… Siri, ça vous dit quelque chose?
– Google ne l’a pas encore fait, donc ça n’existe pas. Combien de personnes chez Google sont affectées au projet? A temps plein ou partiel? A quel budget?
Les équipes ont des contraintes de développement qu’un individu seul n’a pas. Donc un DIY moche peut être produit plus rapidement qu’un produit commercialisable design. Donc ça peut être un fake. Ou pas. Mais s’assoir sur son cul en braillant “FAAAAAAKE” sans arguments techniques sérieux ne mène à rien.
La grosse différence aussi avec les lunettes de Google, c’est que si j’ai bien suivi ici il filme la scène puis la remet sur l’écran avec le HUD en plus.
Celles de Google, la Hud est rajouté sur des lunettes à fond transparent.
Donc (et je pars du principe que la vidéo est vraie) autant dire qu’il ne risque pas de se déplacer avec ce type de lunettes, car le point de vue adopté n’est pas celui de l’utilisateur mais celui de la webcam (plus la latence sur la vidéo…)… Autant dire inutilisable.
Et puis ceux qui doutent de la possibilité et de ses capacités, regardez simplement ses autres vidéos, c’est un “pro” (pas dans son métier mais dans ses compétences) de la réalité augmentée, s’il avait déjà son framewwork prêt y’avait plus qu’à intégrer les services Google et c’était facile …
(et il mets les lunettes pour illustrer, pour faire comme dans la démo) mais la sortie audio et vidéo est ressortie sur un enregistreur (éventuellement dédoublée, vous savez, les câbles en Y, c’est assez récent comme technologie, je comprends que vous ne connaissiez pas …)
@poppu : une caméra sur chaque verre et le point de vue est identique, quant à la latence, il peut ne pas y en avoir avec une caméra récente 😉
@poppu “Et puis ceux qui doutent de la possibilité et de ses capacités, regardez simplement ses autres vidéos, ”
Oui on peut le voir aces video au nombre de . . .1 posté il y a 7 mois . . .
Et je n’ai jamais dit que ce n’etait pas réalisable, mais ça se voit trop que c’est un fake
Je parlais plutôt de ça : http://www.youtube.com/user/KEYTREEUK/videos
@eagleofdeath13 : Pas besoin d’être médisant dans tes propos … -_-‘
@gazpumped : désolé, ça m’a échapé, mais un peu marre des gens qui crient au Fake sans réfléchir et sans chercher.
@laiin : ce n’était pas moi, c’était eagleofdeath13. Mais je suis d’accord avec lui, ce qu’il a obtenu il peut l’avoir rapidement sans que ça soit un fake. Simplement à l’arrivée ça reste assez différent du produit fini que Google cherche à faire. Et dans le cas de Google, j’attends de voir la vraie résolution finale.
@eagleofdeath13 : par contre je maintiens mes doutes, ça ne suit pas le mouvement des yeux ni la mise au point… Mieux vaut rester assis !
à mon taff j’ai pas le son donc mon avis reste limité.
Ce que je peu dire c’est qu’une sortie de saisie video n’est pas impossible ne serait-ce que pour un test. Quand bien même l’une des deux video serait un Fake, toutes les technologies pour réaliser ce qu’on y voit existent certainement déjà sous cette forme et sont en dev.
– Le eye tracking pour le positionnement de la rétine ou la cornée (J’ai envie de nommer ça de “L’optile” (Optique + Tactile) ^^; )
– La projection des éléments dans la surface interne de l’oeil (ou ailleurs) qui peu d’ailleurs être très simplement intégré dans la capture vidéo de démonstration.
…. en fait je m’en tiens aux principales techno qui rendent ça possible (et sexy… en tout cas + sexy que le contrôle vocal hein)
Le eye tracking pourrait même atteindre une telle précision ou résolution que taper sur un clavier virtuel par ce biais me semble déjà envisageable (En se servant du principe du clavier swipe par exemple)
Mais bien sûr… aller, on y croit fort !
Très probable que ce soit un fake.
Ce qui me fait bien rire, c’est que les actions se réalisent avant qu’il termine sa phrase…
Il n’y a absolument rien d’irréalisable dans cette vidéo avec des technos actuelles… Sans qu’il soit possible pour autant de crier au fake ou d’attester de la véracité de la démo. En fait, c’est même assez surprenant qu’on ne voie pas plus de bricolos dans ce genre vu le niveau technologique… C’est presque aussi facile de de faire un fake de cette qualité que de réaliser un tel bricolage.
– matos: les lunettes Vuzix en HD, check. les webcam HD à faible latence, check. Dragon avec un Petit tweak pour gérer des events: check. superposer des icones animées sur une vidéo à la volée: check. un bout de code pour mettre tout ça ensemble: très accessible.
– Ne perdez pas de vue qu’il s’agit d’un bricolage: il n’a pas besoin de reconnaître tout un langage naturel. seules trois commandes sont utilisées dans la vidéo. Il s’agit donc juste de les détecter et de renvoyer les événements correspondants.
– S’il a fait “apprendre” Dragon avec ces trois ou quatre phrases, le logiciel n’a pas besoin d’entendre toute la phrase pour la détecter. On parle bien ici de DETECTION de mots clés/phrases clés seule, pas de RECONNAISSANCE d’un langage naturel -> on peut déclencher l’action avant que la phrase ne soit achevée. D’ailleurs, il se garde bien de ‘parler’ naturellement sur la vidéo.
– Dans la vidéo, on ne voit jamais les caméras HD, mais on perçoit leur ombre sur le magazine à un moment vers 0:30). ça pourrait être un fake, mais alors assez pervers.
en bref, à tout ceux qui crient au fake: oui c’est un fake s’il prétendait avoir fait des Google Glass complètes dans son garage en une semaine, non s’il prétend que son système fait ce qui est montré dans la vidéo en temps réel et sans ‘doctorer’ la vidéo.
La critique n’exonère pas de la réflexion… et le scepticisme n’interdit pas d’être intelligent.