, Chapitre, vol.6

E. Boulahia, F. Anquetil, R. Multon, and . Kulpa, CuDi3D: Curvilinear displacement based approach for online 3D action detection, Computer Vision and Image Understanding, 2018.
DOI : 10.1016/j.cviu.2018.07.003

URL : https://hal.archives-ouvertes.fr/hal-01856894

C. Internationales-said-yacine-boulahia, E. Anquetil, F. Multon, R. K. , E. Anquetil et al., Dynamic hand gesture recognition based on 3D pattern assembled trajectories 3D Multistroke Mapping (3DMM) : Transfer of hand-drawn pattern representation for skeletonbased gesture recognition HIF3D : Handwriting-inspired features for 3D skeleton-based action recognition, 7th IEEE International Conference on Image Processing Theory, Tools and Applications 12th IEEE International Conference on Automatic Face and Gesture Recognition 23rd IEEE International Conference on Pattern Recognition, pp.1-6, 2016.

C. Nationales-said-yacine-boulahia, E. Anquetil, F. Multon, and R. Kulpa, Détection précoce d'actions squelettiques 3D dans un flot non segmenté à base de modèles curvilignes, Congrés Reconnaissance des Formes, p.170, 2018.

, Chapitre, vol.6

[. Bibliographie, E. Almaksour, and . Anquetil, Improving premise structure in evolving takagi?sugeno neuro-fuzzy classifiers, Evolving Systems, vol.2, issue.1, pp.25-33, 2011.

E. Anquetil and G. Lorette, Perceptual model of handwriting drawing. Application to the handwriting segmentation problem, Proceedings of the Fourth International Conference on Document Analysis and Recognition, pp.112-117, 1997.
DOI : 10.1109/ICDAR.1997.619824

[. Bloom, V. Argyriou, and D. Makris, Dynamic Feature Selection for Online Action Recognition, Proceedings of the 4th International Workshop on Human Behavior Understanding, pp.64-76, 2013.
DOI : 10.1007/978-3-319-02714-2_6

[. Bloom, V. Argyriou, and D. Makris, Hierarchical transfer learning for online recognition of compound actions, Computer Vision and Image Understanding, vol.144, pp.62-72, 2016.
DOI : 10.1016/j.cviu.2015.12.001

[. Bloom, V. Argyriou, and D. Makris, Linear latent low dimensional space for online early action recognition and prediction, Pattern Recognition, vol.72, pp.532-547, 2017.
DOI : 10.1016/j.patcog.2017.07.003

C. Bradford-barber, P. David, H. Dobkin, and . Huhdanpaa, The quickhull algorithm for convex hulls, ACM Transactions on Mathematical Software, vol.22, issue.4, pp.469-483, 1996.
DOI : 10.1145/235815.235821

R. Bellman and R. Kalaba, On adaptive control processes, IRE Transactions on Automatic Control, vol.4, issue.2, pp.1-9, 1959.
DOI : 10.1109/TAC.1959.1104847

K. I. Baek, T. Kim, and . Kim, Real-Time Online Action Detection Forests Using Spatio-Temporal Contexts, 2017 IEEE Winter Conference on Applications of Computer Vision (WACV)
DOI : 10.1109/WACV.2017.25

, Chapitre, vol.6

, the IEEE Winter Conference on Applications of Computer Vision, pp.158-167, 2017.

[. Brdiczka, M. Langet, J. Maisonnasse, L. James, and . Crowley, Detecting Human Behavior Models From Multimodal Observation in a Smart Home, IEEE Transactions on Automation Science and Engineering, vol.6, issue.4, pp.588-597, 2009.
DOI : 10.1109/TASE.2008.2004965

[. Bloom, D. Makris, and V. Argyriou, G3D: A gaming action dataset and real time action recognition evaluation framework, 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, pp.7-12, 2012.
DOI : 10.1109/CVPRW.2012.6239175

[. Bloom, D. Makris, and V. Argyriou, Clustered Spatio-temporal Manifolds for Online Action Recognition, 2014 22nd International Conference on Pattern Recognition, pp.3963-3968, 2014.
DOI : 10.1109/ICPR.2014.679

E. Leonard, T. Baum, G. Petrie, N. Soules, and . Weiss, A maximization technique occurring in the statistical analysis of probabilistic functions of markov chains. The annals of mathematical statistics, pp.164-171, 1970.

L. Breiman, Random forests, Machine Learning, vol.45, issue.1, pp.5-32, 2001.
DOI : 10.1023/A:1010933404324

, Available at http://brekel. com/kinect-2-details-specifications-observations, Brekel Affordable Motion Capture Tools, 2018.

S. Boubou and E. Suzuki, Classifying actions based on histogram of oriented velocity vectors, Journal of Intelligent Information Systems, vol.110, issue.2, pp.49-65, 2015.
DOI : 10.1016/j.cviu.2007.06.001

W. Lee, . Campbell, F. Aaron, and . Bobick, Recognition of human body motion using phase space constraints, Computer Vision Proceedings., Fifth International Conference on, pp.624-630, 1995.

Y. Cao, D. Barrett, A. Barbu, S. Narayanaswamy, H. Yu et al., Recognize Human Activities from Partially Observed Videos, 2013 IEEE Conference on Computer Vision and Pattern Recognition, pp.2658-2665, 2013.
DOI : 10.1109/CVPR.2013.343

K. Cho and X. Chen, Classifying and visualizing motion capture sequences using deep neural networks, 2014 International Conference on, pp.122-130, 2014.

J. Charles and M. Everingham, Learning shape models for monocular human pose estimation from the Microsoft Xbox Kinect, 2011 IEEE International Conference on Computer Vision Workshops (ICCV Workshops), pp.1202-1208, 2011.
DOI : 10.1109/ICCVW.2011.6130387

C. Chen, R. Jafari, and N. Kehtarnavaz, A Real-Time Human Action Recognition System Using Depth and Inertial Sensor Fusion, IEEE Sensors Journal, vol.16, issue.3, pp.773-781, 2016.
DOI : 10.1109/JSEN.2015.2487358

X. Chen and M. Koskela, Online RGB-D gesture recognition with extreme learning machines, Proceedings of the 15th ACM on International conference on multimodal interaction, ICMI '13, pp.467-474, 2013.
DOI : 10.1145/2522848.2532591

C. Chang and C. Lin, LIBSVM, ACM Transactions on Intelligent Systems and Technology, vol.2, issue.3, pp.27-28, 2011.
DOI : 10.1145/1961189.1961199

C. Chang and C. Lin, LIBSVM, ACM Transactions on Intelligent Systems and Technology, vol.2, issue.3, p.27, 2011.
DOI : 10.1145/1961189.1961199

. Cok-+-13-]-rizwan, F. Chaudhry, G. Ofli, R. Kurillo, R. Bajcsy et al., Bio-inspired dynamic 3d discriminative skeletal features for human action recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp.471-478, 2013.

C. Cortes and V. Vapnik, Support-vector networks, Machine Learning, vol.1, issue.3, pp.273-297, 1995.
DOI : 10.1007/BF00994018

C. Cadoz, M. Marcelo, and . Wanderley, Gesture-music, 2000.
URL : https://hal.archives-ouvertes.fr/hal-01105543

A. Delaye and E. Anquetil, HBF49 feature set: A first unified baseline for online symbol recognition, Pattern Recognition, vol.46, issue.1, pp.117-130, 2013.
DOI : 10.1016/j.patcog.2012.07.015

URL : https://hal.archives-ouvertes.fr/hal-00933509

S. Dbp-+-17-]-maxime-devanne, P. Berretti, H. Pala, M. Wannous, A. D. Daoudi et al., Motion segment decomposition of RGB-D sequences for human behavior understanding, Pattern Recognition, vol.61, pp.222-233, 2017.
DOI : 10.1016/j.patcog.2016.07.041

E. Demircan, D. Kulic, D. Oetomo, and M. Hayashibe, Human Movement Understanding [TC Spotlight], IEEE Robotics & Automation Magazine, vol.22, issue.3, pp.22-24, 2015.
DOI : 10.1109/MRA.2015.2452171

[. Ding, K. Liu, F. Cheng, and J. Zhang, Learning hierarchical spatio-temporal pattern for human activity prediction, Journal of Visual Communication and Image Representation, vol.35, pp.103-111, 2016.
DOI : 10.1016/j.jvcir.2015.12.006

W. Ding, K. Liu, F. Cheng, and J. Zhang, STFC: Spatio-temporal feature chain for skeleton-based human action recognition, Journal of Visual Communication and Image Representation, vol.26, pp.329-337, 2015.
DOI : 10.1016/j.jvcir.2014.10.009

M. Dupont and P. Marteau, Coarse-DTW for Sparse Time Series Alignment, International Workshop on Advanced Analytics and Learning on Temporal Data, pp.157-172, 2015.
DOI : 10.1016/S0020-7373(70)80008-6

[. Smedt, H. Wannous, and J. Vandeborre, Skeleton-Based Dynamic Hand Gesture Recognition, 2016 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), pp.1-9, 2016.
DOI : 10.1109/CVPRW.2016.153

URL : https://hal.archives-ouvertes.fr/hal-01535152

H. Dswv-+-17-]-quentin-de-smedt, J. Wannous, J. Vandeborre, B. L. Guerry, D. Saux et al., Shrec'17 track : 3d hand gesture recognition using a depth and skeletal dataset, 10th Eurographics Workshop on 3D Object Retrieval, 2017.

W. James, A. Davis, and . Tyagi, Minimal-latency human action recognition using reliable-inference, Image and Vision Computing, vol.24, issue.5, pp.455-472, 2006.

M. Dupont, Glove-based gesture recognition for real-time outdoors robot control, 2017.
URL : https://hal.archives-ouvertes.fr/tel-01593612

H. Dwb-+-15-]-maxime-devanne, S. Wannous, P. Berretti, M. Pala, A. D. Daoudi et al., 3-D Human Action Recognition by Shape Analysis of Motion Trajectories on Riemannian Manifold, IEEE Transactions on Cybernetics, vol.45, issue.7, pp.1340-1352, 2015.
DOI : 10.1109/TCYB.2014.2350774

H. Dwp-+-15-]-maxime-devanne, P. Wannous, S. Pala, M. Berretti, A. D. Daoudi et al., Combined shape analysis of human poses and motion units for action segmentation and recognition, Proceedings of the 11th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition, pp.1-6, 2015.

Y. Du, W. Wang, and L. Wang, Hierarchical recurrent neural network for skeleton based action recognition, Proceedings of the IEEE conference on computer vision and pattern recognition, pp.1110-1118, 2015.

A. Efrat, Q. Fan, and S. Venkatasubramanian, Curve Matching, Time Warping, and Light Fields: New Algorithms for Computing Similarity between Curves, Journal of Mathematical Imaging and Vision, vol.25, issue.2, pp.203-216, 2007.
DOI : 10.1109/TPAMI.2003.1177152

. Hugo-jair-escalante, F. Eduardo, E. Morales, and . Sucar, A na??ve Bayes baseline for early gesture recognition, Pattern Recognition Letters, vol.73, pp.91-99, 2016.
DOI : 10.1016/j.patrec.2016.01.013

C. Ellis, . Syed-zain-masood, F. Marshall, . Tappen, J. Joseph et al., Exploring the Trade-off Between Accuracy and Observational Latency in Action Recognition, International Journal of Computer Vision, vol.57, issue.2, pp.420-436, 2013.
DOI : 10.1023/B:VISI.0000013087.49260.fb

G. Evangelidis, G. Singh, and R. Horaud, Skeletal Quads: Human Action Recognition Using Joint Quadruples, 2014 22nd International Conference on Pattern Recognition, pp.4513-4518, 2014.
DOI : 10.1109/ICPR.2014.772

URL : https://hal.archives-ouvertes.fr/hal-00989725

T. Fujii, J. H. Lee, and S. Okamoto, Gesture recognition system for human-robot interaction and its application to robotic service task, Proc. of the International Multi-Conference of Engineers and Computer Scientists (IMECS), 2014.

S. Fothergill, H. Mentis, P. Kohli, and S. Nowozin, Instructing people for training gestural interactive systems, Proceedings of the 2012 ACM annual conference on Human Factors in Computing Systems, CHI '12, pp.1737-1746, 2012.
DOI : 10.1145/2207676.2208303

M. Fujita, Digital creatures for future entertainment robotics, Proceedings 2000 ICRA. Millennium Conference. IEEE International Conference on Robotics and Automation. Symposia Proceedings (Cat. No.00CH37065), pp.801-806, 2000.
DOI : 10.1109/ROBOT.2000.844149

A. Scott, M. Green, X. Billinghurst, . Chen, and . Chase, Human-robot collaboration : A literature review and augmented reality approach in design, International Journal of Advanced Robotic Systems, vol.5, issue.11, 2008.

W. Ge, T. Robert, . Collins, and . Barry-ruback, Vision-based analysis of small groups in pedestrian crowds, IEEE transactions on pattern analysis and machine intelligence, vol.34, issue.5, pp.1003-1016, 2012.

Y. Gu, H. Do, Y. Ou, and W. Sheng, Human gesture recognition through a Kinect sensor, 2012 IEEE International Conference on Robotics and Biomimetics (ROBIO), pp.1379-1384, 2012.
DOI : 10.1109/ROBIO.2012.6491161

G. Guerra-filho and Y. Aloimonos, Understanding visuo-motor primitives for motion synthesis and analysis, Computer Animation and Virtual Worlds, vol.12, issue.3-4, pp.207-217, 2006.
DOI : 10.3758/BF03196313

A. Gupta, J. Martinez, J. James, R. J. Little, and . Woodham, 3D Pose from Motion for Cross-View Action Recognition via Non-linear Circulant Temporal Encoding, 2014 IEEE Conference on Computer Vision and Pattern Recognition, pp.2601-2608, 2014.
DOI : 10.1109/CVPR.2014.333

[. Ghojogh, H. Mohammadzade, and M. Mokari, Fisherposes for Human Action Recognition Using Kinect Sensor Data, IEEE Sensors Journal, vol.18, issue.4, 2017.
DOI : 10.1109/JSEN.2017.2784425

R. Girshick, J. Shotton, P. Kohli, A. Criminisi, and A. Fitzgibbon, Efficient regression of general-activity human poses from depth images, 2011 International Conference on Computer Vision, pp.415-422, 2011.
DOI : 10.1109/ICCV.2011.6126270

[. Gowayyed and M. Torki, Mohamed Elsayed Hussein , and Motaz El-Saban. Histogram of oriented displacements (hod) : Describing trajectories of human joints for action recognition, IJCAI, pp.1351-1357, 2013.

B. Holt, E. Ong, H. Cooper, and R. Bowden, Putting the pieces together: Connected Poselets for human pose estimation, 2011 IEEE International Conference on Computer Vision Workshops (ICCV Workshops), pp.1196-1201, 2011.
DOI : 10.1109/ICCVW.2011.6130386

C. Robert and . Holte, Very simple classification rules perform well on most commonly used datasets, Machine learning, vol.11, issue.1, pp.63-90, 1993.

B. Hecker, . Raabe, W. Ryan, J. Enslow, J. Deweese et al., Real-time motion retargeting to highly varied user-created morphologies, ACM Transactions on Graphics (TOG), issue.3, p.2727, 2008.

F. Han, B. Reily, W. Hoff, and H. Zhang, Space-time representation of people based on 3D skeletal data: A review, Computer Vision and Image Understanding, vol.158, pp.85-105, 2017.
DOI : 10.1016/j.cviu.2017.01.011

E. Mohamed, M. Hussein, and . Torki, Mohammad Abdelaziz Gowayyed, and Motaz El-Saban. Human action recognition using a temporal hierarchy of covariance descriptors on 3d joint locations, IJCAI, pp.2466-2472, 2013.

[. Huang, S. Yao, Y. Wang, and F. Torre, Sequential Max-Margin Event Detectors, European conference on computer vision, pp.410-424, 2014.
DOI : 10.1007/978-3-319-10578-9_27

[. Ibbt, Does human action recognition benefit from pose estimation ?

G. Donato-impedovo, . Pirlo, E. Sarcinella, C. A. Stasolla, and . Trullo, Analysis of Stability in Static Signatures Using Cosine Similarity, 2012 International Conference on Frontiers in Handwriting Recognition, pp.231-235, 2012.
DOI : 10.1109/ICFHR.2012.180

I. Bongjin-jun, D. Choi, and . Kim, Local transform features and hybridization for accurate face and human detection, IEEE transactions on pattern analysis and machine intelligence, vol.35, issue.6, pp.1423-1436, 2013.

, Chapitre, vol.6

G. Johansson, Visual perception of biological motion and a model for its analysis, Perception & Psychophysics, vol.4, issue.2, pp.201-211, 1973.
DOI : 10.1007/BF00410640

M. George, J. , and J. P. Wachs, Context-based hand gesture recognition for the operating room, Pattern Recognition Letters, vol.36, pp.196-203, 2014.

X. Jiang and F. Zhong, Qunsheng Peng, and Xueying Qin Online robust action recognition based on a hierarchical model. The Visual Computer, pp.1021-1033, 2014.

R. Kulpa and G. James, Adaptation interactive et performante des mouvements d'humanoïdes synthétiques : aspects cinématique, cinétique et dynamique, 2005.

A. Kuzmanic and V. Zanchi, Hand shape classification using DTW and LCSS as similarity measures for vision-based gesture recognition system, EUROCON 2007, The International Conference on "Computer as a Tool", pp.264-269, 2007.
DOI : 10.1109/EURCON.2007.4400350

T. Lan, T. Chen, and S. Savarese, A Hierarchical Representation for Future Action Prediction, European Conference on Computer Vision, pp.689-704, 2014.
DOI : 10.1007/978-3-319-10578-9_45

K. Li and Y. Fu, Arma-hmm : A new approach for early recognition of human activity, Pattern Recognition (ICPR), 2012 21st International Conference on, pp.1779-1782, 2012.

J. Feng-shun-lin, M. Karg, and D. Kuli?, Movement primitive segmentation for human motion modeling : A framework for analysis, IEEE Transactions on Human-Machine Systems, vol.46, issue.3, pp.325-339, 2016.

C. Li, J. Lan, W. Xing, C. Zeng, J. Yuan et al., Online human action detection using joint classificationregression recurrent neural networks, Proceedings of the European Conference on Computer Vision, pp.203-220, 2016.

A. Liu, D. Shahroudy, A. K. Xu, G. Chichung, and . Wang, Skeleton-Based Action Recognition Using Spatio-Temporal LSTM Network with Trust Gates, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17, 2017.
DOI : 10.1109/TPAMI.2017.2771306

J. Luo, W. Wang, and H. Qi, Group Sparsity and Geometry Constrained Dictionary Learning for Action Recognition from Depth Maps, 2013 IEEE International Conference on Computer Vision, pp.1809-1816, 2013.
DOI : 10.1109/ICCV.2013.227

C. Li, Q. Zhong, D. Xie, and S. Pu, Skeleton-based action recognition with convolutional neural networks, Multimedia & Expo Workshops (ICMEW), 2017 IEEE International Conference on, pp.597-600, 2017.

M. Morel, C. Achard, R. Kulpa, and S. Dubuisson, Automatic evaluation of sports motion: A generic computation of spatial and temporal errors, Image and Vision Computing, vol.64, pp.67-78, 2017.
DOI : 10.1016/j.imavis.2017.05.008

URL : https://hal.archives-ouvertes.fr/hal-01586401

M. Morel, C. Achard, R. Kulpa, and S. Dubuisson, Time-series averaging using constrained dynamic time warping with tolerance, Pattern Recognition, vol.74, pp.77-89, 2018.
DOI : 10.1016/j.patcog.2017.08.015

URL : https://hal.archives-ouvertes.fr/hal-01630288

F. Mondada, M. Bonani, X. Raemy, J. Pugh, C. Cianci et al., The e-puck, a robot designed for education in engineering, Proceedings of the 9th conference on autonomous robot systems and competitions, pp.59-65

, IPCB : Instituto Politécnico de Castelo Branco, 2009.

M. Meshry, E. Mohamed, M. Hussein, and . Torki, Linear-time online action detection from 3D skeletal data using bags of gesturelets, 2016 IEEE Winter Conference on Applications of Computer Vision (WACV), 2015.
DOI : 10.1109/WACV.2016.7477587

M. Meshry, E. Mohamed, M. Hussein, and . Torki, Linear-time online action detection from 3D skeletal data using bags of gesturelets, 2016 IEEE Winter Conference on Applications of Computer Vision (WACV), pp.1-9, 2016.
DOI : 10.1109/WACV.2016.7477587

M. Morel, Modélisation de séries temporelles multidimensionnelles Application à l'évaluation générique et automatique du geste sportif, 2017.

M. Müller and T. Röder, Motion templates for automatic classification and retrieval of motion capture data, Proceedings of the Chapitre 6

, 2006 ACM SIGGRAPH/Eurographics symposium on Computer animation, pp.137-146, 2006.

M. Müller, T. Röder, and M. Clausen, Efficient content-based retrieval of motion capture data, ACM Transactions on Graphics, vol.24, issue.3, pp.677-685, 2005.
DOI : 10.1145/1073204.1073247

T. Müller, M. Röder, B. Clausen, B. Eberhardt, A. Krüger et al., Mocap database hdm05. Institut für Informatik II, p.7, 2007.

C. Myers, L. Rabiner, and A. Rosenberg, Performance tradeoffs in dynamic time warping algorithms for isolated word recognition, IEEE Transactions on Acoustics, Speech, and Signal Processing, vol.28, issue.6, pp.623-635, 1980.
DOI : 10.1109/TASSP.1980.1163491

I. Scott, M. , and K. Tanaka-ishii, Text entry systems : Mobility , accessibility, universality, 2010.

S. Nowozin and J. Shotton, Action points : A representation for low-latency online human action recognition. Microsoft Research Cambridge, 2012.

[. Nielsen, M. Störring, B. Thomas, E. Moeslund, and . Granum, A Procedure for Developing Intuitive and Ergonomic Gesture Interfaces for HCI, International gesture workshop, pp.409-420, 2003.
DOI : 10.1007/978-3-540-24598-8_38

E. Ohn-bar and M. Trivedi, Joint Angles Similarities and HOG2 for Action Recognition, 2013 IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp.465-470, 2013.
DOI : 10.1109/CVPRW.2013.76

R. Ofli, G. Chaudhry, R. Kurillo, R. Vidal, and . Bajcsy, Sequence of the most informative joints (SMIJ): A new representation for human skeletal action recognition, Journal of Visual Communication and Image Representation, vol.25, issue.1, pp.24-38, 2014.
DOI : 10.1016/j.jvcir.2013.04.007

O. Oreifej and Z. Liu, HON4D: Histogram of Oriented 4D Normals for Activity Recognition from Depth Sequences, 2013 IEEE Conference on Computer Vision and Pattern Recognition, pp.716-723, 2013.
DOI : 10.1109/CVPR.2013.98

T. Okada, A. Ogura, J. Haneda, F. Fujimoto, M. Gravot et al., Humanoid motion generation system on HRP2-JSK for daily life environment, IEEE International Conference Mechatronics and Automation, 2005, pp.1772-1777, 2005.
DOI : 10.1109/ICMA.2005.1626828

. Opt18 and . Optitrack, Available at http://www.optitrack.com/products/ natnet-sdk, 2018.

C. Pdlm15-]-hossein-pazhoumand-dar, M. Lam, and . Masek, Joint movement similarities for robust 3D action recognition using skeletal data, Journal of Visual Communication and Image Representation, vol.30, pp.10-21, 2015.
DOI : 10.1016/j.jvcir.2015.03.002

V. Pgkt10-]-christian-plagemann, D. Ganapathi, S. Koller, and . Thrun, Real-time identification and localization of body parts from depth images, Robotics and Automation (ICRA), 2010 IEEE International Conference on, pp.3108-3113, 2010.

C. Park and S. Lee, Real-time 3D pointing gesture recognition for mobile robots with cascade HMM and particle filter, Image and Vision Computing, vol.29, issue.1, pp.51-63, 2011.
DOI : 10.1016/j.imavis.2010.08.006

L. Lo, P. , and M. L. Cascia, 3d skeleton-based human action classification : A survey, Pattern Recognition, vol.53, pp.130-147, 2016.

[. Presti, M. L. Cascia, S. Sclaroff, and O. Camps, Gesture modeling by hanklet-based hidden markov model, Proceedings of the Asian Conference on Computer Vision, pp.529-546, 2014.

O. Patsadu, C. Nukoolkit, and B. Watanapa, Human gesture recognition using Kinect camera, 2012 Ninth International Conference on Computer Science and Software Engineering (JCSSE), pp.28-32, 2012.
DOI : 10.1109/JCSSE.2012.6261920

C. Ramstein, Analyse, représentation et traitement du geste instrumental : application aux instruments à clavier, 1991.

[. Rahmani, A. Mahmood, Q. Du, A. Huynh, and . Mian, Real time action recognition using histograms of depth gradients and random decision forests, IEEE Winter Conference on Applications of Computer Vision, pp.626-633, 2014.
DOI : 10.1109/WACV.2014.6836044

, Chapitre, vol.6

S. Michael and . Ryoo, Human activity prediction : Early recognition of ongoing activities from streaming videos, Computer Vision (ICCV), 2011 IEEE International Conference on, pp.1036-1043, 2011.

H. Sakoe and S. Chiba, Dynamic programming algorithm optimization for spoken word recognition, IEEE Transactions on Acoustics, Speech, and Signal Processing, vol.26, issue.1, pp.43-49, 1978.
DOI : 10.1109/TASSP.1978.1163055

Y. Song, D. Demirdjian, and R. Davis, Continuous body and hand gesture recognition for natural human-computer interaction, ACM Transactions on Interactive Intelligent Systems, vol.2, issue.1, p.5, 2012.
DOI : 10.1145/2133366.2133371

Y. Song, Y. Gu, P. Wang, Y. Liu, and A. Li, A Kinect based gesture recognition algorithm using GMM and HMM, 2013 6th International Conference on Biomedical Engineering and Informatics, pp.750-754, 2013.
DOI : 10.1109/BMEI.2013.6747040

A. Firooz, . Sadjadi, L. Ernest, and . Hall, Three-dimensional moment invariants . Pattern Analysis and Machine Intelligence, IEEE Transactions on, issue.2, pp.127-136, 1980.

A. Sorel, R. Kulpa, E. Badier, and F. Multon, DEALING WITH VARIABILITY WHEN RECOGNIZING USER'S PERFORMANCE IN NATURAL 3D GESTURE INTERFACES, International Journal of Pattern Recognition and Artificial Intelligence, vol.26, issue.08, p.1350023, 2013.
DOI : 10.1002/cav.89

M. Sun, P. Kohli, and J. Shotton, Conditional regression forests for human pose estimation, Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pp.3394-3401, 2012.

L. A. Schwarz, A. Mkhitaryan, D. Mateus, and N. Navab, Human skeleton tracking from depth data using geodesic distances and optical flow, Image and Vision Computing, vol.30, issue.3, pp.217-226, 2012.
DOI : 10.1016/j.imavis.2011.12.001

URL : https://hal.archives-ouvertes.fr/hal-01692292

A. Sorel, Gestion de la variabilité morphologique pour la reconnaissance de gestes naturels à partir de données 3D

[. Sung, C. Ponce, B. Selman, and A. Saxena, Human activity detection from rgbd images. plan, activity, and intent recognition, 2011.

[. Sung, C. Ponce, B. Selman, and A. Saxena, Unstructured human activity detection from rgbd images, Robotics and Automation (ICRA), 2012 IEEE International Conference on, pp.842-849, 2012.

H. Sak, A. Senior, and F. Beaufays, Long short-term memory recurrent neural network architectures for large scale acoustic modeling, Fifteenth Annual Conference of the International Speech Communication Association, 2014.

J. Shotton, T. Sharp, A. Kipman, A. Fitzgibbon, M. Finocchio et al., Real-time human pose recognition in parts from single depth images, Communications of the ACM, vol.56, issue.1, pp.116-124, 2013.
DOI : 10.1145/2398356.2398381

Y. Sheikh, M. Sheikh, and M. Shah, Exploring the space of a human action, Tenth IEEE International Conference on Computer Vision (ICCV'05) Volume 1, pp.144-149, 2005.
DOI : 10.1109/ICCV.2005.90

[. Sharaf, M. Torki, E. Mohamed, M. Hussein, and . El-saban, Real-Time Multi-scale Action Detection from 3D Skeleton Data, 2015 IEEE Winter Conference on Applications of Computer Vision, pp.998-1005, 2015.
DOI : 10.1109/WACV.2015.138

[. Slama, H. Wannous, M. Daoudi, and A. Srivastava, Accurate 3D action recognition using learning on the Grassmann manifold, Pattern Recognition, vol.48, issue.2, pp.556-567, 2015.
DOI : 10.1016/j.patcog.2014.08.011

URL : https://hal.archives-ouvertes.fr/hal-01056399

I. Theodorakopoulos, D. Kastaniotis, G. Economou, and S. Fotopoulos, Pose-based human action recognition via sparse representation in dissimilarity space, Journal of Visual Communication and Image Representation, vol.25, issue.1, pp.12-23, 2014.
DOI : 10.1016/j.jvcir.2013.03.008

[. Vemulapalli, F. Arrate, and R. Chellappa, Human Action Recognition by Representing 3D Skeletons as Points in a Lie Group, 2014 IEEE Conference on Computer Vision and Pattern Recognition, pp.588-595, 2014.
DOI : 10.1109/CVPR.2014.82

[. Vieira, R. Faugeroux, D. Martínez, and T. Lewiner, Online human moves recognition through discriminative key poses Chapitre 6

, and speed-aware action graphs. Machine Vision and Applications, pp.185-200, 2017.

. Vicon, Available at http://www.vicon.com/products/software/nexus, 2018.

A. Viterbi, Error bounds for convolutional codes and an asymptotically optimum decoding algorithm, IEEE Transactions on Information Theory, vol.13, issue.2, pp.260-269, 1967.
DOI : 10.1109/TIT.1967.1054010

. Wikipedia, Réseau de neurones récurrents Available at https://fr. wikipedia.org/wiki/R%C3%A9seau_de_neurones_r%C3%A9currents, 2018.

J. Wang, Z. Liu, and Y. Wu, Learning actionlet ensemble for 3d human action recognition, Human Action Recognition with Depth Cameras, pp.11-40, 2014.

J. Wang, Z. Liu, Y. Wu, and J. Yuan, Mining actionlet ensemble for action recognition with depth cameras, 2012 IEEE Conference on Computer Vision and Pattern Recognition, pp.1290-1297, 2012.
DOI : 10.1109/CVPR.2012.6247813

[. Wu, H. Wang, L. Chang, and K. Li, Using HMMs and Depth Information for Signer-Independent Sign Language Recognition, International Workshop on Multi-disciplinary Trends in Artificial Intelligence, pp.79-86, 2013.
DOI : 10.1007/978-3-642-44949-9_8

O. Jacob, . Wobbrock, D. Andrew, Y. Wilson, and . Li, Gestures without libraries, toolkits or training : a one-dollar recognizer for user interface prototypes, Proceedings of the 20th annual ACM symposium on User interface software and technology, pp.159-168, 2007.

[. Wang, Y. Wang, and A. L. Yuille, An approach to posebased action recognition, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.915-922, 2013.

C. Wang, X. Yang, S. Wu, H. Xu, and . Li, Kinect Based Dynamic Hand Gesture Recognition Algorithm Research, 2012 4th International Conference on Intelligent Human-Machine Systems and Cybernetics, pp.274-279, 2012.
DOI : 10.1109/IHMSC.2012.76

C. Wu, Y. Yang, H. Wang, S. Li, and . Xu, An Intelligent Interactive System Based on Hand Gesture Recognition Algorithm and Kinect, 2012 Fifth International Symposium on Computational Intelligence and Design, pp.294-298, 2012.
DOI : 10.1109/ISCID.2012.225

[. Wei, Y. Zhao, N. Zheng, and S. Zhu, Modeling 4D Human-Object Interactions for Event and Object Recognition, 2013 IEEE International Conference on Computer Vision, pp.3272-3279, 2013.
DOI : 10.1109/ICCV.2013.406

[. Wei, N. Zheng, Y. Zhao, and S. Zhu, Concurrent Action Detection with Structural Prediction, 2013 IEEE International Conference on Computer Vision, pp.3136-3143, 2013.
DOI : 10.1109/ICCV.2013.389

L. Xia, C. Chen, and J. Aggarwal, View invariant human action recognition using histograms of 3D joints, 2012 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, pp.20-27, 2012.
DOI : 10.1109/CVPRW.2012.6239233

D. Xu, Y. Chen, C. Lin, X. Kong, and X. Wu, Realtime dynamic gesture recognition system based on depth perception for robot navigation, Robotics and Biomimetics (ROBIO), 2012 IEEE International Conference on, pp.689-694, 2012.

[. Jung, S. Lee, Y. S. Heo, and D. Yun, Random tree walk toward instantaneous 3d human pose estimation, Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp.2467-2474, 2015.

G. Yu, Z. Liu, and J. Yuan, Discriminative Orderlet Mining for Real-Time Recognition of Human-Object Interaction, Asian Conference on Computer Vision, pp.50-65, 2014.
DOI : 10.1007/978-3-319-16814-2_4

X. Yang and Y. L. Tian, Eigenjoints-based action recognition using naive-bayes-nearest-neighbor, Computer vision and pattern recognition workshops (CVPRW), 2012 IEEE computer society conference on, pp.14-19, 2012.

X. Yang and Y. Tian, Effective 3D action recognition using EigenJoints, Journal of Visual Communication and Image Representation, vol.25, issue.1, pp.2-11, 2014.
DOI : 10.1016/j.jvcir.2013.03.001

Y. Zhu, W. Chen, and G. Guo, Fusing Spatiotemporal Features and Joints for 3D Action Recognition, 2013 IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp.486-491, 2013.
DOI : 10.1109/CVPRW.2013.78

Z. Zhang, Microsoft Kinect Sensor and Its Effect, IEEE Multimedia, vol.19, issue.2, pp.4-10, 2012.
DOI : 10.1109/MMUL.2012.24

. Zlp-+-13-]-xin, X. Zhao, C. Li, X. Pang, . Zhu et al., Online human gesture recognition from motion data streams, Proceedings of the 21st ACM international conference on Multimedia, pp.23-32, 2013.

X. Zhao, X. Li, C. Pang, Z. Quan, S. Sheng et al., Structured Streaming Skeleton -- A New Feature for Online Human Gesture Recognition, ACM Transactions on Multimedia Computing, Communications, and Applications, vol.11, issue.1s, p.1122, 2014.
DOI : 10.1109/TPAMI.2011.157

M. Zanfir, M. Leordeanu, and C. Sminchisescu, The Moving Pose: An Efficient 3D Kinematics Descriptor for Low-Latency Action Recognition and Detection, 2013 IEEE International Conference on Computer Vision, pp.2752-2759, 2013.
DOI : 10.1109/ICCV.2013.342

C. Zhu, J. Lan, W. Xing, Y. Zeng, L. Li et al., Co-occurrence feature learning for skeleton based action recognition using regularized deep lstm networks, AAAI, 2016.

S. Zhang, X. Liu, and J. Xiao, On Geometric Features for Skeleton-Based Action Recognition Using Multilayer LSTM Networks, 2017 IEEE Winter Conference on Applications of Computer Vision (WACV), pp.148-157, 2017.
DOI : 10.1109/WACV.2017.24

H. Zhu and C. Pun, Real-time Hand Gesture Recognition from Depth Image Sequences, 2012 Ninth International Conference on Computer Graphics, Imaging and Visualization, pp.49-52, 2012.
DOI : 10.1109/CGIV.2012.13

H. Zhang and L. E. Parker, Bio-inspired predictive orientation decomposition of skeleton trajectories for real-time human activity predic- Table of figures 187

, Robotics and Automation (ICRA), 2015 IEEE International Conference on, pp.3053-3060, 2015.

C. Zhang and Y. Tian, Rgb-d camera-based daily living activity recognition, Journal of Computer Vision and Image Processing, vol.2, issue.4, p.12, 2012.

W. Zou, B. Wang, and R. Zhang, Human Action Recognition by Mining Discriminative Segment with Novel Skeleton Joint Feature, Pacific-Rim Conference on Multimedia, pp.517-527, 2013.
DOI : 10.1007/978-3-319-03731-8_48

Y. Y. Zhang, X. Xiao, Y. Liu, D. Yang, Y. Xie et al., Fusing Geometric Features for Skeleton-Based Action Recognition Using Multilayer LSTM Networks, IEEE Transactions on Multimedia, vol.20, issue.9, 2018.
DOI : 10.1109/TMM.2018.2802648

, Chapitre, vol.6

.. , 1 Diagramme de flux de données pour un système générique de reconnaissance d'actions, comprenant des étapes interdépendantes de modélisation, d'entraînement, de segmentation et de classification, Table des figures 2, p.13

, Exemples de coordonnées cartésiennes (points rouges) et angulaires des articulations (flèches rouges) fournies par les systèmes de capture, p.14

, Distinction entre une approche séquentielle et une approche statistique, p.15

, Illustration des performances d'une approche transparente utilisant un SVM et une approche à base d'un apprentissage profond utilisant des LSTM, p.16

]. , Système de capture de mouvement optique basé sur des marqueurs rétroréfléchissants attachés au corps de l'acteur. Les marqueurs sont suivis par un ensemble de six à douze caméras haute résolution disposées en cercle [MRC + 07

, Illustration de capture de données squelettiques à base de Kinect, 2019.

W. , Représentation composée de descripteurs d'ondelettes extraits à partir des trajectoires 3D

. Un-exemple-de-codage-d-'un, . Cou, . Epaule, . Coude, and ]. Main, Les articulations du cou et de la main correspondent aux points

, Illustration des trajectoires 3D représentées comme une courbe dans le groupe de Lie suite au changement de l'espace de représentation, p.22

, Schématisation du procédé d'extraction des Eigen-Joints. Les auteurs se basent sur trois types de données relatives pour chaque trame dont la position relative dans une même trame f cc , la position relative entre deux trames f cp et la position relative par rapport à la trame initiale f ci, p.23

W. , ) des n-uplets temporels et (c)-(3) des n-uplets spatiaux composant les cinq dictionaires utilisés pour former la représentation de Wang et al, Illustration (a) des poses simples, p.49

L. , Illustration de la construction temporelle pour la représentation à base de dictionnaire proposée dans, p.50

, Schéma d'un réseau de neurones récurrents à une unité reliant l'entrée et la sortie du réseau. A droite la version dépliée de la structure, p.51

D. , , p.51

, Illustration de l'architecture proposée par [ZLX + 16] permettant la recherche automatique des relations de co-occurence entre les articulations, p.52

L. , Représentation CNN des séquences du squelette pour la classification des actions comme proposée dans [, p.53

H. , Multi-Modal Action Detection) illustrant un enchaînement typique (Action-Repos-Action) dans les séquences de cette base, p.56

H. , séquence d'un sujet jouant du violon en haut de la figure), SMMED rejette automatiquement une classe quand elle est sûre que l'action en cours ne peut pas appartenir à cette classe, Étant donnée une instance de test, p.58

, Illustration des scores de confiance obtenus par trois classifieurs SVM à différentes échelles temporelles, à savoir 24, 32 et 40 trames, p.58

, Trois trames statiques extraites d'une séquence de marche d'un humain, p.64

, Illustration du problème de morphologies différentes lors de la reconstruction , pour des besoins d'animation, de personnages virtuels à partir des données réelles [KJ05]. Les illustrations (a) et (b) mettent en avant ces problèmes lorsque des angles sont appliqués sur deux personnages dont la taille des bras ne correspond pas. L'illustration (c) montre la posture qui respecte le contact initial des mains lors de cette reconstruction, p.66

.. , Illustration de certaines trajectoires articulaires lors de la performance d'une action, p.67

.. , Principales étapes constituant l'approche 3DMM, proposée pour la reconnaissance des actions à base de données squelettiques, p.69

.. , coude et poignets pour le haut du corps et les hanches, genoux et chevilles pour le bas du corps) et des vecteurs amorphologiques associés, illustration des articulations sélectionnées (épaules, p.70

, Chapitre, vol.6

, E" (de un à quatre strokes) La direction de la stroke est indiquée par un point au début d'un trait, et l'ordre du trait par le nombre à la fin d'un trait, p.71

D. , Illustration d'un symbole formé par deux strokes pour lesquels (a) le volume de la boite englobante et (b) l'histogramme comptabilisant la répartition des points sont calculés, p.72

. .. , chacune des trajectoires amorphologiques est projetée sur les trois plans. (a) Dans la version monostroke , chaque trajectoire est considérée indépendamment des autres et est assimilée à un tracé 2D composé d'un seul trait, d'où la couleur différente pour chacune de ces trajectoires. (b) Dans la version multistrokes, un tracé est composé de toutes les trajectoires projetées appartenant au même plan, Pour permettre l'utilisation de descripteurs 2D, p.73

.. , Illustration du partitionnement temporel adopté dans notre représentation. L'extraction des descripteurs au i ` eme niveau couvre les T 3 i trames de la séquence, où T est la longueur de la séquence entière, p.75

). , Illustration des trajectoires formant les pseudo-symboles multistrokes global (niveau 1), de début, du milieu et de fin, p.76

.. , Illustration avec K=4 vecteurs formés à partir des douze articulations sélectionnées. (b) Illustration de la progression des quatre vecteurs amorphologiques . (c) Assemblage temporel des quatre trajectoires amorpholgiques pour former un pattern multistrokes 3D, p.77

, Illustration des vecteurs de départ et de fin pour un pattern à quatre strokes, p.79

.. , Illustration du vecteur reliant les premier et dernier points, p.80

.. , Illustration du vecteur reliant les premier et dernier points, p.81

.. , Illustration de la boite englobante du pattern 3D, avec une hauteur h, p.82

, Illustration de la construction d'un histogramme de zoning 3D flou, p.86

M. , Illustration des trois classes d'actionsPrendre basPrendre milieu" et "Prendre haut" qui présentent des propriétés spatiales très similaires, p.90

M. , Illustration des deux classes d'actions "Claque paume" et "Claque revers" qui produisent le même pattern mais sont temporellement symétriques, p.91

, HDM05 : Illustration de quatre classes d'actions de la base HDM05 qui présentent de fortes similitudes dont d'une part "courir sur place" et "courir en demi-cercle" et d'autre part "déposer par terre" et "s'allonger, p.97

.. , une action pré-segmentée qui correspond au pattern reçu en entrée par une approche de reconnaissance d'actions pré-segmentées et (b) d'un flot d'actions non segmenté utilisé pour une approche OAD. Dans cet exemple, il est constitué de trois performances, Illustration, p.102

.. , Illustration via la trajectoire d'une seule articulation (a) de la variabilité spatiale inter-classes entre deux classes Ci et Cj et (b) de la variabilité spatiale intra-classe, p.104

. Vue-d-'ensemble, Cette approche est composée de trois étapes, de sorte qu'à chaque étape une des difficultés OAD est abordée. La variabilité temporelle est considérée à la première étape. La variabilité spatiale inter-classes est abordée à la deuxième étape, La variabilité spatiale intra-classe est abordée à la dernière étape. . . . . . . . 105

.. , Nous considérons le mouvement extrait avec ces deux fenêtres à la trame 9 pour deux instances de la même classe. Ces deux instances sont effectuées à des vitesses différentes. Le rectangle gris représente une fenêtre temporelle et le rectangle jaune représente la fenêtre curviligne, p.106

G. Aperçu-du-fonctionnement-global-du-système-proposé, Ce système est composé de classifieurs curvilignes, un pour chaque taille curviligne. Différents classifieurs curvilignes extraient des descripteurs sur différentes fenêtres curvilignes. En outre, les blocs 'B' et 'C' ont en charge de traiter les classes prédites brutes et de combiner les décisions des différents classifieurs , respectivement. Le symbole ' ?' signifie qu'aucune classe n'est prédite, Gn sont des classes et C1, ..., Cn sont des classifieurs. P redicted_i et Output_i sont respectivement le flot brut et le flot traité

L. Flot-output_i-est-le-flot, P. Redicted_i-plus-les-scores-cumulés-À-chaque-trame, and .. , , p.110

.. , histogramme local avec trois classes aux trames 4, 5, 6 et 7. ? et ? symbolisent respectivement une augmentation et une diminution du score, p.112

G. , G. , and G. , histogramme global à la trame 7 avec trois classifieurs C1, C2 et C3 qui peuvent prédire la classe G1, G2 ou G3. Chaque classifieur Ci possède trois seuils ? i,1 , ? i,2 et ? i,3 relatifs à la prédiction des trois classes, p.114

, Processus de décision adapté pour la reconnaissance d'actions pré-segmentées, p.116

, Chapitre, vol.6

.. , Illustration du traitement d'un flot d'entrée par les trois modèles curvilignes à court, moyen et long terme, p.118

O. and M. , Courbe cumulée des scores de détection en fonction de la distance au point d'action. 0 correspond au fait que le point d'action utilisé est celui initialement fourni avec la base, p.123

O. and M. , Illustration de deux cas d'erreur de détection. La première ligne contient des trames d'une classe G9. Les deuxième et troisième rangées contiennent des trames de la même classe G1, p.125

O. and M. , 12 : Variation de la performance globale obtenue avec l'approche CuDi3D en fonction du pourcentage des tailles curvilignes, p.128

G. Oad, Illustration de classes d'actions "coup de poing à droite, p.129

O. , M. La-base, and M. , Illustration des classes d'actions "s'accroupir", "coups de pieds de côté" et "dribbler, p.132

O. , M. , and .. , Résultats de la détection d'actions (séquence-1 de sujet-1) pour la méthode SMMED [HYWDLT14] (deuxième rangée), la méthode MS (troisième rangée) et notre méthode CuDi3D (quatrième rangée) par rapport aux annotations de la vérité terrain (première rangée) Chaque classe a une couleur spécifique, p.133

. Détection-précoce-simplifiée and . Msrc-, Résultats obtenus pour 20 trames avant les points d'actions sur la base MSRC-12 en détection précoce simplifiée . L'évaluation est menée sur six classes d'actions suivant le protocole leave-subjects-out. E-CuDi3D = notre approche ; CuDi3D-10 et CuDi3D- 100 sont les modèles à 10% et 100% de tailles curvilignes, CSTM = Clustered Spatio-Temporal Manifolds [BAM17] ; RF = Random Forests

=. Adab and . Adaboost, DFS = Dynamic Feature Selection, p.138

M. Détection-précoce, 12 : Résultats obtenus pour 20 trames avant les points d'action sur la base MSRC-12 en détection précoce, p.139

.. , Articulations sélectionnées pour notre représentation du geste dynamique de la main. (b) Illustration d'un pattern 3D multistrokes résultant de l'ensemble des trajectoires des doigts, p.145

.. , Illustration des séquences considérées pour extraire notre représentation sur deux niveaux temporels, p.146

, Illustration avec trois trajectoires (strokes) des patterns 3D issus du découpage temporel à deux niveaux d'une séquence de geste de la main, p.146

.. , Illustration du tracé d'une ligne effectué avec une main. (b) Geste de zoom effectué avec deux mains, p.148

D. , Deux images d'une main illustrant le geste de "saisir" effectué (a) avec un doigt et (b) avec la main entière, p.149

, Notre matrice de confusion sur la base DHG en utilisant 14 gestes, p.151

L. .. , Notre matrice de confusion sur l'ensemble de données, p.152

.. De-jeu, , p.153

.. Schématisation-du-processus-global, , p.156

.. , Résultats d'animation d'un avatar (à gauche) pour l'action "s'incliner" au moyen de la méthode CuDi3D en détection non-précoce, p.157

.. , Résultats d'animation d'un avatar (à gauche) pour l'action "s'incliner" au moyen du mélange des décisions précoces, p.158

, Illustration de trames de la première expérimentation pour trois classes d'actions : un coup de pied (G12), mettre des lunettes (G4) et translater le bras horizontalement (G3), de haut en bas et de gauche à droite. Chaque action est représentée en huit trames réparties sur deux lignes, p.160

, Illustration de trames de la seconde expérimentation pour trois classes d'actions : jeter un objet (G8), soulever les bras en haut (G5) et translater le bras horizontalement (G3), de haut en bas et de gauche à droite. Chaque action est représentée en huit trames réparties sur deux lignes, p.161

, Chapitre, vol.6

.. , Tableau récapitulatif des propriétés de la base M2S-dataset en termes de nature des actions, nombre de classes d'actions, nombre de séquences et nombre total des sujets, Liste des tableaux 3.1, p.88

M. Reconnaissance, Comparaison entre les approches 3DMM et HIF3D avec l'approche de [Sor12] sur la base d'actions M2S-dataset en utilisant un classifieur, p.89

.. , Tableau récapitulatif des propriétés de la base UTKinect-Action en termes de nature des actions, nombre de classes d'actions, nombre de séquences et nombre total des sujets, p.91

U. Reconnaissance, Résultats des deux représentations 3DMM et HIF3D et ceux approches précédentes sur la base de données UTKinect- Action selon le protocole de LOSeqO. Les taux de reconnaissance pour chaque classe ainsi que le taux global (%) sont donnés, p.92

U. Reconnaissance, Comparaison des résultats des représentations 3DMM et HIF3D avec ceux obtenus par deux approches de l'état de l'art sur la base de données UTKinect-Action, selon le protocole de combinaison de sujets proposé dans, p.93

, Tableau récapitulatif des propriétés de la base HDM05 en termes de nature des actions, nombre de classes d'actions, nombre de trames par classe, nombre de séquences par classe et par sujet et nombre total des sujets, p.94

H. Reconnaissance, Résultats expérimentaux des deux représentations 3DMM et HIF3D suivant le protocole proposé par [OCK + 14] sur la base HDM05. Nos deux représentations ont été évaluées avec le classifieur SVM en opérant ou non un découpage temporel, p.95

, Chapitre, vol.6

O. and M. , Résultats de l'approche CuDi3D et ceux obtenus par les approches de l'état de l'art sur la base de données MSRC-12. L'évaluation est menée dans le contexte OAD, suivant le protocole leave-subjectsout avec une latence de ? = 333ms. La moyenne F score et son écart-type sont indiqués pour chaque modalité d'instruction. ELS = Efficient Linear Search ; RF = Random Forests ; RTMS = Real-Time Multi-Scale, SSS = Structured Streaming Skeleton, issue.12, p.122

O. and M. , 12 : Résultats d'une variante temporelle de CuDi3D sur la base de données MSRC-12. L'évaluation est menée dans le contexte OAD, suivant le protocole leave-subjects-out avec une latence de ? = 333ms, p.126

O. and M. , Résultats expérimentaux de trois variantes de CuDi3D à savoir CuDi3D-Avg, CuDi3D-Min et CuDi3D-Three obtenus sur l'ensemble de données MSRC-12 selon le protocole leave-subjects-out à une latence de ? = 333ms, p.126

O. and M. , Comparaison des temps de calcul moyens par trame en millisecondes pour différentes approches OAD squelettiques, p.128

O. and G. , Résultats de la détection d'actions en-ligne sur la catégorie Combat de la base G3D selon le protocole leave-subjects-out. DFS = Dynamic Feature Selection ; RTMS = Real-Time Multi-Scale ; RF + ST = Random Forests using Spatio-Temporal Contexts ; CAM = Clustered Action Manifolds, p.130

O. and G. , Résultats de la détection d'actions en-ligne sur la catégorie Combat de la base G3D selon le protocole de partage fixe proposé dans [BMA12]. S-SW = Support Vector Machine with Sliding Window ; R-SW = Recurrent Neural Network with Sliding Window ; CA-RNN = Classification Alone Recurrent Neural Network ; JCR-RNN = Joint Classification- Regression Recurrent Neural Network, p.130

M. Oad, Comparaison de l'approche CuDi3D avec de précédentes méthodes sur la base de données MAD suivant le protocole à cinq folds. MSO-SVM = Multiclass Structured Output SVM ; SMMED = Sequential Max-Margin Event Detectors ; NB = Naive Bayes ; MS = Motion Segments, p.133

H. Reconnaissance, Comparaison des résultats de l'approche CuDi3D avec ceux obtenus par les approches de l'état de l'art sur la base de données HDM05-Mocap, selon le protocole proposé dans, p.135