Easily Interpretable, Non-parametric Sample Transformation for Classification - Inria - Institut national de recherche en sciences et technologies du numérique Accéder directement au contenu
Communication Dans Un Congrès Année : 2022

Easily Interpretable, Non-parametric Sample Transformation for Classification

Cédric Dubois
Eric Debreuve

Résumé

CNNs (Convolutional Neural Networks) are widely used for supervised classification. Although the networks themselves are designated as classifiers, they are in fact regressors trained to approximate the relationship between raw data and p predefined vectors of Rp playing the role of class representatives, where p is the number of classes. The actual classification decisions are taken by a nearest-neighbor classifier applied to the network outputs. Despite their usually impressive classification accuracies, ANNs (Artificial Neural Networks) are not always as straightforward to use as classical classifiers since they typically require large amounts of data, a high computational effort, and sometimes a solid experience to be trained. Yet, the principle of ANNs (input transformation into Rp, then basic nearest-neighbor classification) is interesting. In this work, we propose a simple, easily interpretable, and low on computational requirements alternative following the same principle. It relies on a weighted combination of ideal translations from the learning samples to some predefined targets. Because of its simplicity, it cannot directly deal with raw data as the ANNs do. Instead, it works with extracted features. Our experimental results, including on a realworld database of Plankton images, show classification accuracies on par with some classical classifiers.
Les CNNs (Réseaux de Neurones Convolutionnels) sont largement utilisés pour la classification supervisée. Bien que les réseaux eux-mêmes soient généralement vus comme des classifieurs, ce sont en fait des régresseurs optimisés pour approximer la relation entre les données brutes et p vecteurs prédéfinis de Rp jouant le rôle de représentants de classe, où p est le nombre de classes. La véritable classification est faite par un classifieur par plus proche voisin appliqué aux sorties du réseau. Malgré des performances de classification généralement très bonnes, les ANNs (Réseaux de Neurones Artificiels) ne sont pas toujours aussi simples à utiliser que les classifieurs classiques car ils nécessitent souvent de grandes quantités de données, une charge de calcul importante, et parfois une solide expérience pour être entraînés. Pourtant, le principe des ANNs (transformation des données d’entrée vers Rp, puis classification par plus proche voisin) est intéressant. Dans ce travail, nous proposons une alternative simple, facilement interprétable et nécessitant une charge de calcul modérée, et qui suit ce même principe. Elle repose sur une combinaison pondérée de translations idéales des échantillons d’apprentissage vers des vecteurs cibles prédéfinis. En raison de sa simplicité, elle ne peut pas traiter directement les données brutes comme le font les ANNs. Elle s’applique plutôt à des caractéristiques extraites. Expérimentalement, nous avons obtenu des performances de classification comparables à celles de classifieurs classiques, y compris sur une base de données réelle d’images de plancto
Fichier principal
Vignette du fichier
main.pdf (1.6 Mo) Télécharger le fichier
Origine : Fichiers produits par l'(les) auteur(s)

Dates et versions

hal-03866959 , version 1 (23-11-2022)

Identifiants

  • HAL Id : hal-03866959 , version 1

Citer

Cédric Dubois, Jean-Olivier Irisson, Eric Debreuve. Easily Interpretable, Non-parametric Sample Transformation for Classification. Colloque GRETSI (Groupe de Recherche et d'Etudes de Traitement du Signal et des Images), Sep 2022, Nancy, France. ⟨hal-03866959⟩
53 Consultations
25 Téléchargements

Partager

Gmail Facebook X LinkedIn More