Reverse-Engineering Fashion Products : From a single-view Sketch to a 3D Model - IMAGINE Accéder directement au contenu
Thèse Année : 2019

Reverse-Engineering Fashion Products : From a single-view Sketch to a 3D Model

Modélisation 3D d'objets cousus à partir d'un unique croquis

Résumé

The efficient creation of virtual 3D content is a major issue in Computer Graphics industry and research. This thesis addresses the modeling of sewed 3D objects such as clothes, shoes or accessories from 2D sketched inputs. While existing related approaches are either based on multi-view inputs or on character dependent interfaces, we propose in this thesis to start from an annotated single-view input in order to create 3D content satisfying geometric constraints that are specific to fabric, such as developability, or fold appearance and distribution. Our goal is to exploit the expressiveness user-drawn sketches to guide the modeling of plausible objects, using a priori geometric knowledge.We first present a single-view reconstruction approach for symmetric piece-wise developable objects from an annotated photo. Using the assumption of mirror-symmetry along with properties of smooth developable surfaces, we propose a system able to lift in 3 the silhouette, borders and seams drawn on the picture and reconstruct the surface of the object. Our method also provides topology information on the object, allowing the computation of 2D patterns for each piece of developable surface, which is necessary for manufacturing.While most of existing sketch-based modeling methods for garments aim at reconstructing border lines drawn on top of a view of the 3D virtual mannequin to be dressed, our approach uses a single 2D sketch as input. Our method first extracts generic features relative to the style of the sketched garment expressed as garment proportions, tight areas, silhouette shapes and folds. In particular, we propose a dedicated approach to extract robustly folds characteristics, even in the case of garment with deep folds leading to partially occluded garment borders. In a second step, we synthesize on a target virtual character a 3D garment surface exhibiting similar style, while adapting to the target pose and morphology that may be drastically different from the one depicted the sketch.
Créer efficacement du contenu virtuel 3D est une problématique importante dans le domaine de l'Informatique Graphique. Cette thèse traite le sujet de la modélisation 3D d'objets cousus, tels que des vêtements, chaussures, ou accessoires à partir de croquis 2D. Des approches existantes parviennent à modéliser ces objets en utilisant plusieurs vues en entrée ou une interface de modélisation directement liée au personnage à habiller. Nous proposons ici d'utiliser un croquis unique annoté pour créer du contenu 3D satisfaisant des contraintes géométriques spécifiques aux tissus, comme la développabilité, ou l'apparition et la distribution de plis. Notre but est d'exploiter l'expressivité du dessin pour guider la modélisation d'objets plausibles, en utilisant des connaissances géométriques a priori.Dans un premier temps, nous présentons une méthode de reconstruction 3D d'objets symétriques et développables par morceaux, à partir d'une unique photo annotée. Nous exploitons l'hypothèse de symétrie et les propriétés géométriques liées aux surfaces développables lisses, afin de proposer un système capable de donner de la profondeur aux courbes représentant silhouettes, bords et coutures dessinées sur la photo. Notre approche retrouve aussi des informations topologiques sur l'objet, permettant de calculer la forme 2D des patrons de tissus associés à chaque morceau de surface développable, information nécessaire pour la fabrication réelle de l'objet.Dans un second temps, nous nous intéressons à la modélisation de vêtements virtuels, qui sont des objets cousus pouvant contenir des plis. La majorité des approches de modélisation de vêtement basées croquis reconstruisent en 3D des courbes de bord, silhouette et plis annotées dans une vue 2D du personnage à habiller. Notre approche, en revanche, utilise un unique croquis, et en extrait des caractéristiques liées aux style du vêtement : proportions, zones moulantes, silhouettes et plis. En particulier, nous proposons une méthode pour extraire une représentation générique de plis à partir du croquis, même dans le cas où de plis profonds qui entrainerait une représentation partielle de la courbe de bord sur le dessin.Nous synthétisons ensuite un vêtement 3D habillant un personnage virtuel cible et possédant les mêmes caractéristiques de style que celles extraites du dessin. Cette synthèse s'adapte aux cas où le personnage cible est dans une pose et/ou a une morphologie différente de celui représenté sur le dessin.
Fichier principal
Vignette du fichier
FONDEVILLA_2019_archivage.pdf (107.35 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)
Loading...

Dates et versions

tel-02908437 , version 1 (29-07-2020)

Identifiants

  • HAL Id : tel-02908437 , version 1

Citer

Amélie Fondevilla. Reverse-Engineering Fashion Products : From a single-view Sketch to a 3D Model. Artificial Intelligence [cs.AI]. Université Grenoble Alpes, 2019. English. ⟨NNT : 2019GREAM070⟩. ⟨tel-02908437⟩
360 Consultations
14 Téléchargements

Partager

Gmail Facebook X LinkedIn More