Reconstruction 3D d'environnements intérieurs à partir d'acquisitions LiDAR - Thèses de l'INSA Lyon Accéder directement au contenu
Thèse Année : 2020

3D Reconstruction of indoor environments from LiDAR acquisitions

Reconstruction 3D d'environnements intérieurs à partir d'acquisitions LiDAR

Résumé

This PHD thesis deals with 3D modelisation in the context of indoor reconstruction of structured environments using LiDAR data. The study aims at automating and improving the pipeline going from the point cloud acquisitions to the 3D reconstruction of building indoors. Indeed, currently, these processes remain mostly manual. The LiDAR data has some specific properties which make the reconstruction challenging (anisotropy, noise, clutters, etc.) and existing methods have a lack of accuracy and their performances depend on the scanned scenes geometry, on the sensor quality and on the acquisition process. First, the study is oriented towards the point clouds modelisation, one scan at a time. The automatic methods of the state of the art rely on numerous construction hypothesis which yields 3D models relatively far from initial data. The choice has been done to propose a new modelisation method closest to point clouds data, reconstructing only measured areas of each scene and excluding occluded regions. In this objective, we look into the local modelisation process and propose a new normal estimator adapted to structured environments. This tool is integrated to a global modelisation of a scene scanned by a LiDAR device using polygones. This modelisation rely on a joint processing of the range image and the point cloud associated to one scan. Second, we discuss the registration topic, in order to replace the scans in a global frame. The main objective is to make this process automatic regardless of the scenes geometry, of their initial pose and to obtain good performances for low overlaps. The approaches of the state of the art based on point cloud processing are mostly local and do not seem adapted to structured environments in which local neighborhoods do not carry much information for identification. A new approach adapted to building indoor scenes is proposed to address these issues. Finally, the error resulting from a registration is difficult to measure. Nevertheless, this information is necessary to correct globally a succession of registrations or to fusion the pose information extracted from the registration to other location data provided by external sensors. Some research leads have been explored to estimate the error of a registration and a recent method, based on machine learning, is particularly developped. An adaptation of this method is proposed and evaluated on a synthetic data base. The results emphasize the advantages of the method but also show some critical limitations
Ce travail de thèse porte sur la reconstruction 3D d’environnements structurés à partir d’acquisitions LiDAR. L’étude a pour but d’automatiser et d’améliorer la chaîne de traitements allant de l’acquisition de nuages de points à la modélisation 3D d’intérieurs de bâtiments. Actuellement, ces traitements sont majoritairement manuels, l’acquisition LiDAR dresse de nombreux obstacles à la reconstruction automatique (anisotropie, bruit, occultations, etc.) et les méthodes actuelles manquent de précision et ne résolvent pas tous les cas de figure. Dans un premier temps, l’étude est orientée sur la modélisation de nuages de points scan par scan.Les méthodes automatiques existantes reposent sur de nombreuses hypothèses de construction qui mènent à des résultats relativement éloignés des données initiales. Le choix a été fait de proposer une nouvelle méthode de modélisation au plus proche des données, en ne reconstruisant que les zones mesurées de chaque scène et en excluant les zones occultées. Pour cela, nous nous intéressons ici au processus de modélisation locale de nuages de points et nous proposons un nouvel estimateur de normales adapté aux environnements structurés. L’utilisation de ce nouvel outil permet de réaliser une modélisation globale d’une scène scannée par un dispositif LiDAR à partir de polygones. Cette modélisation repose sur un traitement conjoint de l’image de profondeur et du nuage de points. Dans un second temps, nous abordons le sujet du recalage afin de replacer les scans dans un repère global. L’objectif principal est de rendre ce procédé automatique quels que soient la géométrie des scènes, leur pose initiale et d’obtenir de bonnes performances pour de faibles chevauchements. Les approches existantes fondées sur le traitement de nuages de points sont majoritairement locales et ne semblent pas adaptées à des environnements structurés dans lesquels les voisinages locaux apportent peu d’information d’identification. Une nouvelle approche adaptée aux scènes d’intérieur est proposée afin de pallier ces problèmes. L’erreur commise lors d’un recalage est difficilement mesurable, pourtant, cette information est nécessaire en vue de corriger une suite de recalages ou pour fusionner la pose issue du recalage avec d’autres données de localisation provenant de capteurs extérieurs. De nombreuses pistes de recherches ont été explorées pour estimer cette erreur et une méthode récente, utilisant un apprentissage automatique, est particulièrement développée dans ce travail. Une adaptation de cette méthode est également proposée et une évaluation sur une base de données synthétique permet de mettre en évidence les points forts de la méthode et certaines de ses limitations cruciales
Fichier principal
Vignette du fichier
TH2020SANCHEZJULIA.pdf (24.64 Mo) Télécharger le fichier
Origine : Version validée par le jury (STAR)

Dates et versions

tel-03296954 , version 1 (06-08-2020)
tel-03296954 , version 2 (23-07-2021)

Identifiants

  • HAL Id : tel-03296954 , version 2

Citer

Julia Sanchez. Reconstruction 3D d'environnements intérieurs à partir d'acquisitions LiDAR. Synthèse d'image et réalité virtuelle [cs.GR]. Université de Lyon, 2020. Français. ⟨NNT : 2020LYSE1049⟩. ⟨tel-03296954v2⟩
650 Consultations
213 Téléchargements

Partager

Gmail Facebook X LinkedIn More