GENTEL : GENerating Training data Efficiently for Learning to segment medical images - Archive ouverte HAL Access content directly
Conference Papers Year :

GENTEL : GENerating Training data Efficiently for Learning to segment medical images

(1) , (2) , (3) , (4) , (5) , (1)
1
2
3
4
5

Abstract

Accurately segmenting MRI images is crucial for many clinical applications. However, manually segmenting images with accurate pixel precision is a tedious and time consuming task. In this paper we present a simple, yet effective method to improve the efficiency of the image segmentation process. We propose to transform the image annotation task into a binary choice task. We start by using classical image processing algorithms with different parameter values to generate multiple, different segmentation masks for each input MRI image. Then, the user, instead of segmenting the pixels of the images, she/he only needs to decide if a segmentation is acceptable or not. This method allows us to efficiently obtain high quality segmentations with minor human intervention. With the selected segmentations we train a state-of-the-art neural network model. For the evaluation, we use a second MRI dataset (1.5T Dataset), acquired with a different protocol and containing annotations. We show that the trained network i) is capable to automatically segment cases where none of the classical methods obtained a high quality result ii) generalizes to the second MRI dataset, which was acquired with a different protocol and never seen at training time ; and iii) allows to detect miss-annotations in this second dataset. Quantitatively, the trained network obtains very good results : DICE score - mean 0.98, median 0.99- and Hausdorff distance (in pixels) - mean 4.7, median 2.0-.
La segmentation précise d'images à résonnance magnétiques (IRM) est cruciale pour de nombreuses applications cliniques. Cependant, une segmentation manuelle visant une précision au niveau du pixel est une tâche longue et fastidieuse. Dans cet article, nous proposons une méthode simple pour améliorer l'efficacité de la segmentation d'images. Nous proposons de transformer la tâche d'annotation d'une image en une tâche de choix binaire. D'abord, nous utilisons plusieurs algorithmes classiques de traitement d'image pour générer plusieurs candidats de masques de segmentation. Ensuite, l'utilisat.eur.rice, au lieu de segmenter les pixels des images, décide si une segmentation est acceptable ou non. Cette méthode nous permet d'obtenir efficacement un grand nombre de segmentations de haute qualité avec une intervention humaine li-mitée. Avec les images et leurs segmentations sélectionnées, nous entrainons un réseau de neurones de l'état de l'art qui prédit les segmentations à partir des images d'entrée. Nous le validons sur un autre jeu de données IRM, acquis avec un protocole différent, et qui contient des segmentations. Nous montrons que le réseau entrainé 1) est capable de segmenter automatiquement des cas où aucune des méthodes classiques n'a obtenu un résultat de haute qualité, 2) est capable de segmenter un autre jeu de don-nées IRM, acquis avec un protocole différent et jamais vu lors de l'entrainement, et 3) permet de détecter des annotations erronées dans ce jeu de données. Quantitativement, le réseau entrainé obtient de très bons résultats : Score DICE-moyenne 0,98 et médiane 0,99-et distance de Hausdorff (en pixels)-moyenne 4,7, médiane 2,0.
Fichier principal
Vignette du fichier
MRI_Segmentation_RFIAP_CameraReady.pdf (2.4 Mo) Télécharger le fichier
Vignette du fichier
thumb_lg_GENTEL.png (37.8 Ko) Télécharger le fichier
Origin : Files produced by the author(s)
Format : Figure, Image
Loading...

Dates and versions

hal-02988367 , version 1 (04-11-2020)

Identifiers

  • HAL Id : hal-02988367 , version 1

Cite

Rajat Prince Thankur, Sergi Pujades, Lavika Goel, Rolf Pohmann, Jürgen Machann, et al.. GENTEL : GENerating Training data Efficiently for Learning to segment medical images. RFIAP 2020 - Congrés Reconnaissance des Formes, Image, Apprentissage et Perception, Jun 2020, Vannes, France. pp.1-7. ⟨hal-02988367⟩
132 View
173 Download

Share

Gmail Facebook Twitter LinkedIn More