Omnidirectional texturing of human actors from multiple view video sequences

Alexandrina Orzan 1
1 ARTIS - Acquisition, representation and transformations for image synthesis
GRAVIR - IMAG - Graphisme, Vision et Robotique, Inria Grenoble - Rhône-Alpes, CNRS - Centre National de la Recherche Scientifique : FR71
Résumé : Ces dernières années, de plus en plus d'activités de recherche sont consacrées à l'étude de la vidéo tridimensionnelle, créée à partir de plusieurs flux vidéo. Le but est d'obtenir une vidéo free-viewpoint, où l'utilisateur peut observer d'un point de vue arbitraire, choisi de manière interactive, une scène filmée par plusieurs caméras. Les applications possibles sont diverses. Un système free-viewpoint peut augmenter le réalisme visuel de la technologie de téléprésence. De ce fait des utilisateurs situés physiquement en différents endroits peuvent collaborer à travers un même environnement virtuel. En outre, les effets spéciaux employés par l'industrie du film, comme ceux introduits dans le film Matrix (freeze-and-rotate), seraient rendus accessibles à tous les utilisateurs. Dans la plupart des applications de réalité virtuelle, nous cherchons à représenter des acteurs sous la forme d'avatar. C'est pourquoi la recherche est importante dans ce domaine. Pour les vidéos de type free-viewpoint, la scène est filmée simultanément par différentes caméras depuis plusieurs points de vue. Les flux vidéo obtenus par les caméras sont utilisés pour créer un modèle 3D de la scène. Cette reconstruction tridimensionnelle est indispensable pour que l'utilisateur puisse regarder la scène depuis n'importe quel point de vue. Dans le cadre de la réalité virtuelle, il est possible d'ajouter de nouveaux objets dans cette scène (objets virtuels) et de traiter les problèmes d'éclairage (ombres au sol, . . .), ainsi que les problèmes d'occultation [7, 8]. Le modèle 3D peut être décrit en utilisant différentes méthodes, telles que des maillages, des échantillons de points ou des voxels. Pour rendre le modèle plus réaliste, les flux vidéo provenant des caméras sont plaqués sur le modèle 3D. Finalement, en combinant le modèle 3D reconstruit et les différents flux vidéo, nous sommes capables de reconstruire un monde virtuel réaliste. Le but du stage effectué a été de réaliser le 'texturage' en temps réel d'un modèle 3D d'un animateur. L'étude a été effectuée dans le cadre du projet CYBER-II 2 . Ce projet vise à simuler, en temps réel (au minimum 25 images par secondes), la présence d'une personne (par exemple un présentateur de télévision ou un professeur) dans un environnement virtuel.
Document type :
Master thesis
Complete list of metadatas

Cited literature [36 references]  Display  Hide  Download


https://hal.inria.fr/inria-00598504
Contributor : Team Artis <>
Submitted on : Monday, June 6, 2011 - 4:02:50 PM
Last modification on : Wednesday, April 11, 2018 - 1:53:37 AM

Files

orzan_mpri_report.pdf
Files produced by the author(s)

Identifiers

  • HAL Id : inria-00598504, version 1

Collections

INRIA | UGA | IMAG

Citation

Alexandrina Orzan. Omnidirectional texturing of human actors from multiple view video sequences. Graphics [cs.GR]. 2005. ⟨inria-00598504⟩

Share

Metrics

Record views

214

Files downloads

324