Centre Image
Plateau Technique

Soute­nance de Thèse « Repré­sen­ta­tion dyna­mique de modèles d’ac­teurs issu de recons­truc­tions multi-vues »

Posté par hdeleau le 20 avril 2016.

Aujourd’­hui a eu lieu la soute­nance de thèse de Ludo­vic BLACHE qui a ainsi obtenu le grade de docteur. Nous lui adres­sons toutes nos féli­ci­ta­tions.

 

Compo­si­tion du jury :

  • M. Pierre Alliez, Direc­teur de recherche, INRIA Sophia-Anti­po­lis – Médi­ter­ra­née, Rappor­teur
  • M. Loïc Barthe, Profes­seur des Univer­si­tés, univer­sité Toulouse 3 – Paul Saba­tier, Rappor­teur
  • M. Edmond Boyer, Direc­teur de recherche, INIRIA Grenoble Rhône-Alpes, Exami­na­teur
  • M. Mathieu Desbrun, Profes­seur des Univer­si­tés, Cali­for­nia Insti­tute of Tech­no­logy, Exami­na­teur
  • Mme Céline Loscos, Profes­seur des Univer­si­tés, Univer­sité de Reims Cham­pagne-Ardenne, Co-direc­trice de thèse
  • M. Laurent Lucas, Profes­seur des Univer­si­tés, Univer­sité de Reims Cham­pagne-Ardenne, Co-direc­teur de thèse
  • M. Philippe Souchet, Ingé­nieur R&D, XD Produc­tions, Invité

Résumé:
Les tech­no­lo­gies de recons­truc­tion multi-vues permettent de réali­ser un clone virtuel d’un acteur à partir d’une simple acqui­si­tion vidéo réali­sée par un ensemble de camé­ras à partir de multiples points de vue. Cette approche offre de nouvelles oppor­tu­ni­tés dans le domaine de la compo­si­tion de scènes hybrides mélan­geant les images réelles et virtuelles. Cette thèse a été réali­sée dans le cadre du projet RECOVER 3D dont l’objec­tif est de déve­lop­per une chaîne de produc­tion TV complète, de l’ac­qui­si­tion jusqu’à la diffu­sion, autour de la recons­truc­tion multi-vues. Cepen­dant la tech­no­lo­gie utili­sée dans ce contexte est mal adap­tée à la recons­truc­tion de scènes dyna­miques. En effet, la perfor­mance d’un acteur est repro­duite sous la forme d’une séquence d’objets 3D statiques qui corres­pondent aux poses succes­sives du person­nage au cours de la capture vidéo. L’objec­tif de cette thèse est de déve­lop­per une méthode pour trans­for­mer ces séquences de poses en un modèle animé unique. Les travaux de recherches menés dans ce cadre sont répar­tis en deux étapes prin­ci­pales. La première a pour but de calcu­ler un champ de dépla­ce­ments qui décrit les mouve­ments de l’ac­teur entre deux poses consé­cu­tives. La seconde étape consiste à animer un maillage suivant les trajec­toires décrites par le champ de mouve­ments, de manière à le dépla­cer vers la pose suivante. En répé­tant ce proces­sus tout au long la séquence, nous parve­nons ainsi à repro­duire un maillage animé qui adopte les poses succes­sives de l’ac­teur. Les résul­tats obte­nus montrent que notre méthode peut géné­rer un modèle tempo­rel­le­ment cohé­rent à partir d’une séquence d’en­ve­loppes visuelles.

Abstract:
4D multi-view recons­truc­tion tech­no­lo­gies are more and more used in media produc­tion due to their abili­ties to produce a virtual clone of an actor from a simple video acqui­si­tion perfor­med by a set of multi-view­point came­ras. This approach is a major advance for the compo­si­tion of anima­tions which mix virtual and real images, and also offers new possi­bi­li­ties for the rende­ring of such complex hybrid scenes. The work descri­bed in this thesis takes parts in the RECOVER 3D project which aims at deve­lo­ping an inno­va­tive indus­trial frame­work for TV produc­tion, based on multi-view recons­truc­tion, from studio acqui­si­tion to broad­cas­ting. The major draw­back of the methods used in this context is that they are not adap­ted to the recons­truc­tion of dyna­mic scenes. The output are time series which describe the succes­sive poses of the actor, figu­red as a sequence of static objects. The goal of this thesis is to trans­form these initial results into a dyna­mic 3D object where the actor is figu­red as an anima­ted charac­ter. The research detai­led in this manus­cript presents two main contri­bu­tions. The first one is cente­red on the compu­ta­tion of a motion flow which repre­sents the displa­ce­ments occur­ring in the recons­truc­ted scene between two conse­cu­tive poses. The second one presents a mesh anima­tion process that leads to the anima­tion of a 3D model from one pose to another, follo­wing the motion flow. This two-step opera­tion is repea­ted throu­ghout the entire pose sequence to finally obtain a single anima­ted mesh that matches the evol­ving shape of the recons­truc­ted actor. Results show that our method is able to produce a tempo­rally consistent mesh anima­tion from various sequences of visual hulls.

Mots-clés :
Flux RSS | Flux Atom | Contact | HTML5 | Fièrement propulsé par WordPress