. De-plus, Avec n v = n m = 128, le RSDN est de 3 dB supérieursupérieurà celui du filtrage de Wiener (n v = n m = 1) (Fig, et de 4 dB supérieur au meilleur résultat avec les deux modèles généraux (Fig. 8 (A)). Un modèle de musique adapté est représenté sur la figure 10 (D)

. Finalement, (´ egalement irréalistes en pratique) montrent qu'il reste encore une marge de 3 dB pour l'adaptation du modèle de voix Cette adaptation estétudiéeestétudiée dans l'article [23]. Contrairement aux travaux présentés dans [1] et [22], nous n'avons testé des modèles qu'avec au plus 128 gaussiennes parce que nousétionsnousétions limités par les ressources calculatoires disponibles. Notons que, vu le comportement de la courbe sur la figure 8 (A), l'utilisation de 512 ou même 8192 gaussiennes par modèle n'est probablement pas de naturè a améliorer significativement les performances de séparation, En revanche, nous visons et parvenonsà parvenonsà améliorer ces performances en adaptant le modèle de musique

. Dans-le-cadre-de-notré-etude, nous avons montré que cette adaptation permet d'améliorer de 4 dB la performance de séparation par

]. S. Références1 and . Roweis, One microphone source separation, Advances in Neural Information Processing Systems, pp.793-799, 2001.

L. Benaroya, Séparation de plusieurs sources sonores avec un seul microphone, 2003.

Y. Ephraim and D. Malah, Speech enhancement using a minimum mean-square error log-spectral amplitude estimator, IEEE Transactions on Acoustics, Speech, and Signal Processing, vol.33, issue.2, pp.33-443, 1985.
DOI : 10.1109/TASSP.1985.1164550

D. Burshtein and S. Gannot, Speech enhancement using a mixture-maximum model, European Conf. on Speech Communication and Technology (EuroSpeech'99), pp.2591-2594, 1999.
DOI : 10.1109/TSA.2002.803420

S. M. Kay, Fundamentals of Statistical Signal Processing, Estimation Theory, 1993.

G. Peeters and X. Rodet, SINOLA : A new analysis/synthesis method using spectrum peak shape distortion, phase and reassigned spectrum, International Computer Music Conference (ICMC'99), pp.153-156, 1999.

A. P. Dempster, N. M. Laird, and D. B. Rubin, Maximum likelihood from incomplete data via the EM algorithm, Journal of the Royal Statistical Society, vol.39, pp.1-38, 1977.

L. Benaroya and F. Bimbot, Wiener based source separation with HMM/GMM using a single sensor, Intl. Conf. on Indep. Component Analysis and Blind Source Separation (ICA'03), pp.957-961, 2003.

J. Mcqueen, Some methods for classification and analysis of multivariate observations, 5th Berkeley Symposium on mathematics, Statistics and Probability, pp.281-298, 1967.

L. Benaroya, F. Bimbot, and R. Gribonval, Audio source separation with a single sensor, IEEE Transactions on Audio, Speech and Language Processing, vol.14, issue.1, pp.191-199, 2006.
DOI : 10.1109/TSA.2005.854110

URL : https://hal.archives-ouvertes.fr/inria-00544949

F. D. Neeser and J. L. Massey, Proper complex random processes with applications to information theory, IEEE Transactions on Information Theory, vol.39, issue.4, pp.1293-1302, 1993.
DOI : 10.1109/18.243446

B. Picinbono, Second-order complex random vectors and normal distributions, IEEE Transactions on Signal Processing, vol.44, issue.10, pp.2637-2640, 1996.
DOI : 10.1109/78.539051

W. H. Press, B. P. Flannery, S. A. Teukolsky, and W. T. Vetterling, Numerical Recipes in C : The Art of Scientific Computing, 1992.

Y. Ephraim, A Bayesian estimation approach for speech enhancement using hidden Markov models, SP-40, pp.725-735, 1992.
DOI : 10.1109/78.127947

L. R. Rabiner, A tutorial on hidden Markov models and selected applications in speech recognition, Proceedings of the IEEE, pp.257-286, 1989.

A. Nádas, D. Nahamoo, and M. A. Picheny, Speech recognition using noise-adaptive prototype, IEEE Trans. on Speech and Audio Proc, pp.1495-1505, 1989.

P. J. Moreno, B. Raj, and R. M. Stern, A vector Taylor series approach for environment-independent speech recognition, 1996 IEEE International Conference on Acoustics, Speech, and Signal Processing Conference Proceedings, 1996.
DOI : 10.1109/ICASSP.1996.543225

R. Gribonval, L. Benaroya, E. Vincent, and C. Févotte, Proposals for performance measurement in source separation, Intl. Conf. on Indep. Component Analysis and Blind Source Separation (ICA'03), pp.763-768, 2003.
URL : https://hal.archives-ouvertes.fr/inria-00570123

J. Valin, J. Rouat, and F. Michaud, Microphone array post-filter for separation of simultaneous non-stationary sources, 2004 IEEE International Conference on Acoustics, Speech, and Signal Processing, 2004.
DOI : 10.1109/ICASSP.2004.1325962

L. Rabiner and B. Juang, Fundamentals of speech recognition, 1993.

R. Vergin, D. Shaughnessy, and A. Farhat, Generalized mel frequency cepstral coefficients for large-vocabulary speaker-independent continuous-speech recognition, IEEE Transactions on Speech and Audio Processing, vol.7, issue.5, pp.525-532, 1999.
DOI : 10.1109/89.784104

T. Kristjansson, H. Attias, and J. Hershey, Single microphone source separation using high resolution signal reconstruction, 2004 IEEE International Conference on Acoustics, Speech, and Signal Processing, pp.817-820, 2004.
DOI : 10.1109/ICASSP.2004.1326383

URL : http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.127.8100

A. Ozerov, P. Philippe, R. Gribonval, and F. Bimbot, One microphone singing voice separation using source-adapted models, IEEE Workshop on Applications of Signal Processing to Audio and Acoustics, 2005., pp.90-93, 2005.
DOI : 10.1109/ASPAA.2005.1540176

URL : https://hal.archives-ouvertes.fr/inria-00564491

E. Vincent and R. Gribonval, Construction d'estimateurs oracles pour la séparation de sources, GRETSI'05 Symposium on Signal and Image Processing, 2005.

A. Ozerov, R. Gribonval, P. Philippe, and F. Bimbot, Séparation voix / musiquèmusiquè a partir d'enregistrements mono quelques remarques sur le choix et l'adaptation des modèles, GRETSI'05 Symposium on Signal and Image Processing, 2005.

W. Tsai, D. Rogers, and H. Wang, Blind Clustering of Popular Music Recordings Based on Singer Voice Characteristics, Computer Music Journal, vol.39, issue.3, pp.68-78, 2004.
DOI : 10.1109/TSA.2002.800560

A. Ozerov-a-obtenu-en, issue des travaux qu'il a menémenéà Orange Labs etàetà l'IRISA. Il estégalementestégalement titulaire d'un master en mathématiques de l'Université d'Etat de Saint-Pétersbourg (1999) et d'un master en mathématiques appliquées de l Entre 1999 et 2002, il a travaillétravailléà Terayon Communicational Systems comme ingénieur logiciel R&D, d'abordàabordà Saint-Pétersbourg, puisàpuisà Prague, Maintenant, il est en post-doc au laboratoire du Traitement du Signal et d'Image (SIP) au KTH, Stockholm. Ses intérêts scientifiques contiennent la reconnaissance de la parole, la séparation de sources audio et le codage de source, 2003.