Le concept est simple. Prenez un lieu sous plusieurs angles et l’algorithme transformera la photo en 3D. Un procédé qui s’avère coûteux, puisque des lasers sont utilisés pour repérer les masses, mais que les chercheurs de Dinsey cherchent à simplifier.
Le procédé se dévoile dans la vidéo ci-dessous. Pour l’instant, le projet n’est encore qu’en phase expérimentale, mais Disney assure qu’il travaille d’arrache-pied pour rendre cette façon de prendre des photos accessible à tous.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
On ne veux déjà pas de la 3D issue de 2 capteurs, c pas pour vouloir de la 3D au rabait…
@Sowyer, complètement d’accord, rien à ajouter.
@Sowyer : ça n’a rien à voir, ce n’est pas une technique pour les films…
Il faut y voir d’autres applications que de la 3D pour des films enfin !
Typiquement, le truc utile serait dans la reconaissance biométrique. Tu n’as qu’a prendre une photo de n’importe quel angle et tu compare avec tes modeles 3D de visages dans ta base de données, tu “fit” et paf tu sais si tu as reconnaissance de la personne ou non. C’est beaucoup plus robuste de comparer une image 2D-3D que 2D-2D ! Et ca n’est qu’un seul exemple d’application parmis tant d’autres 😉
Street View est un bon exemple d’utilisation de cette techno aussi, mais c’est loin d’être le seul. L’idée est simplement de modéliser en 3D à partir d’une vidéo, ça fait du scan, tout simplement. Ce n’est qu’un début, mais c’est un papier de recherche, rien de plus.
Exactement ! Ca me rappelle mes projets d’école ca… Rah nostalgie ^^
En fait, ils ont juste utilisé ce package sourceforge:
http://insight3d.sourceforge.net/
Ca s’appelle de la Photogrammétrie et ça existe depuis très longtemps:
http://fr.wikipedia.org/wiki/Photogramm%C3%A9trie
Et pour essayer: http://en.wikipedia.org/wiki/Photogrammetry#Current_suite_of_software
Bref rien de nouveau si l’on ne fait que lire la traduction.
Mais si on lit correctement l’article source; ce qui est nouveau c’est la façon de faire pour que le calcul prenne moins de temps (j’utilise agisoft photoscan, on grosse reconstruction peux prendre plusieurs heures) ce qui est la très intéressant car il est actuellement pas envisageable de faire de la Photogrammétrie de manière étendus (sur streetview par exemple)
Mais… c’est vieux comme le monde non?
J’avais vu la même chose sortant d’une université et qui marchait mieux il me semble. Et ça se fait aussi sans le capteur de profondeur, simplement avec plusieurs images (ce qui est bien plus impressionnant à mes yeux)