Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Emiya 2008 These

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 231

Transcription automatique de la musique de piano

Valentin Emiya

To cite this version:


Valentin Emiya. Transcription automatique de la musique de piano. domain_other. Télécom Paris-
Tech, 2008. English. �NNT : �. �pastel-00004867�

HAL Id: pastel-00004867


https://pastel.archives-ouvertes.fr/pastel-00004867
Submitted on 10 Apr 2009

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
École Doctorale
d’Informatique,
Télécommunications
et Électronique de Paris

Thèse
présentée pour obtenir le grade de docteur

de l’École Nationale Supérieure des Télécommunications


Spécialité : Signal et Images

Valentin EMIYA
Transcription automatique de la musique
de piano

Soutenue le 8 octobre 2008 devant le jury composé de

Christophe d’Alessandro Président


Alain de Cheveigné Rapporteurs
Laurent Daudet
Anssi Klapuri Examinateurs
Gaël Richard
Emmanuel Vincent Invité
Bertrand David Directeurs de thèse
Roland Badeau
3

Remerciements

Ce doctorat a été l’occasion de nombreuses collaborations et rencontres. Je souhaite


saluer et remercier l’ensemble des personnes qui m’ont aidé de près ou de loin à mener ce
projet de recherche à terme.
Mes premiers remerciements vont bien évidemment à Bertrand David et à Roland
Badeau qui ont supervisé cette thèse et avec qui j’ai pu étroitement travailler. Merci à eux
deux pour tout ce j’ai pu découvrir et apprendre, pour les conseils qu’ils m’ont donnés,
pour leur attention et leur soutien aux moments cruciaux, pour la complémentarité de leur
supervision et pour la qualité de la relation qui s’est instaurée entre nous.
Merci à l’ensemble des membres du jury pour l’attention et l’intérêt portés à ces travaux,
aussi bien dans la phase de lecture du mémoire que lors de la soutenance. En particulier,
merci à Laurent Daudet et à Alain de Cheveigné pour la qualité de leurs rapports. Merci
également à Anssi Klapuri pour avoir examiné le mémoire écrit en français et à Emmanuel
Vincent pour ses commentaires et suggestions détaillés.
Merci à Nancy Bertin pour les travaux que nous avons menés ensemble et pour la
relecture de ce mémoire, à Cédric Févotte pour les directions de recherche déterminantes
qu’il m’a suggérées, à Adrien Daniel pour notre étude sur l’évaluation des transcriptions.
Merci également à Jean-Louis Durrieu, Pierre Leveau, Laurent Oudre, Slim Essid, Sylvain
Streiff, ainsi qu’à Laurent Daudet de l’équipe LAM de l’Institut Jean Le Rond D’Alembert,
à Sylvain Marchand du LaBRI, Olivier Derrien du laboratoire STICS et à Antony Schutz
d’Eurécom pour les collaborations que nous avons pu avoir et dont je garde un excellent
souvenir.
Merci à Gaël Richard, à Yves Grenier et à toute l’équipe AudioSig du département de
Traitement du Signal et des Images de TELECOM ParisTech pour m’avoir accueilli et pour
faire de la recherche un travail d’équipe si captivant. Merci à ceux qui ont contribué à ce
que le cadre de travail à TELECOM ParisTech soit le meilleur possible. Merci notamment
à Bernard Robinet, à Marc Peyrade et à Henri Maître pour les échanges que nous avons
eus. Merci également à Fabrice Planche, à Laurence Zelmar, à Patricia Friedrich, à Rahma
Lamech et à Sophie-Charlotte Barrière pour leur assistance administrative et technique, à
Peter Weyer-Brown et à James Benenson pour leurs conseils et leur aide en anglais, ainsi
qu’à Clara, à Maryse, à François Auguste et à toute son équipe.
Merci aux chercheurs du LIMSI, et particulièrement à Christophe d’Alessandro, à Fran-
çois Signol, à Nicolas Sturmel, à François Rigaud et à Albert Rilliard de m’avoir accueilli
et permis de profiter au maximum du peu de temps que j’ai pu consacrer au traitement de
la parole et à mon séjour dans ce laboratoire.
Merci à tous les enseignants-chercheurs avec qui j’ai travaillé dans le cadre de mon mo-
nitorat à l’Université Denis Diderot - Paris 7 et pendant mon année d’ATER à l’Université
Paris Sud-11, en particulier à Dominique Poulalhon et Anne Micheli (LIAFA), à Véronique
Vèque, à Lionel Lacassagne, à Christian Clapier, à Hervé Mathias, à Hugues Mounier, à
4 Remerciements

Pavel Kalouguine, à Michèle Gouiffès (IEF) et à Abdelaziz Kallel.


Merci à Daniel Pressnitzer et Alain de Cheveigné de l’Équipe Audition de l’ENS, à
Michèle Castellengo de l’équipe LAM de l’Institut Jean Le Rond D’Alembert, à Daniel
Verba de Calypsociation, à Philippe Gal de Tropique du Cancer pour leur aide ponctuelle
et précieuse.
Merci à Emmanuel Vincent de l’IRISA, à Nancy Bertin et à Miguel Alonso, à Matija
Marolt de l’Université de Ljubljana, à Anssi Klapuri de l’Université de Tampere, à Alain de
Cheveigné pour les codes informatiques, issus de leurs travaux, qu’ils ont mis à disposition.
Merci aux actifs du Bureau des Doctorants de TELECOM ParisTech, de la Confédéra-
tion des Jeunes Chercheurs et du Pôle Île-de-France que j’ai pu côtoyer, merci en particulier
à Loïs Rigouste, à Mathieu Guillaume, à Nancy Bertin, à Reda Kaced, à Zahir Larabi,
à Charlotte Hucher, à Florent Olivier, à Jasmin Buco, à Maïwenn Corrignan, à Sylvain
Collonge, à Olivier Béaslas, à Philippe Gauron, à Alexandra Naba et à Gwenaël Edeline.
Merci à tous les « copains dans la même galère », ceux que j’ai déjà cités, et également
Antoine, Aurélia, Brahim, Caroline, Chloé, Cléo, Cyril C., Cyril J., Dora, Eduardo, Fabrice,
Félicien, Grégoire, Ismaël, Jean, Julien, Lionel, Mathieu R., Maria, Nataliya, Nicolas, Rémi,
Sarah, Simoné, Slim, Tabea, Thomas F., Thomas M., Viet-Son, Zaid, et ceux que j’oublie.
Merci enfin à toutes les personnes de mon entourage qui m’ont soutenu quotidienne-
ment, remonté le moral et supporté dans mes nombreux moments de surmenage, sans qui
je n’aurais pu achever cette thèse. Un immense merci à Nathalie et à ma famille qui ont
été les plus exposés...
5

Table des matières

Remerciements 3

Liste des figures 10

Liste des tableaux 11

Liste des algorithmes 13

Notations 15

Introduction 17

1 État de l’art 23
1.1 Motivations et questions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.1.1 La transcription : information, variables et organisation . . . . . . . 23
1.1.2 Quelles méthodes pour la transcription ? . . . . . . . . . . . . . . . . 24
1.1.3 Pourquoi se restreindre au piano ? . . . . . . . . . . . . . . . . . . . 24
1.2 Estimation de hauteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.1 Perception de la hauteur . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2.2 Méthodes d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3 Estimation de fréquences fondamentales multiples . . . . . . . . . . . . . . . 29
1.3.1 Estimation itérative des fréquences fondamentales . . . . . . . . . . . 30
1.3.2 Estimation jointe des fréquences fondamentales . . . . . . . . . . . . 31
1.3.3 Estimation de la polyphonie . . . . . . . . . . . . . . . . . . . . . . . 32
1.4 Systèmes de transcription automatique . . . . . . . . . . . . . . . . . . . . . 32
1.4.1 Approches à base de paramétrisation et d’heuristiques . . . . . . . . 33
1.4.2 Approches avec apprentissage préalable . . . . . . . . . . . . . . . . 34
1.4.3 Approches avec apprentissage en ligne . . . . . . . . . . . . . . . . . 35
1.4.4 Approches bayésiennes . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.4.5 Traitement de l’information de haut-niveau . . . . . . . . . . . . . . 39
1.5 Transcription automatique de piano . . . . . . . . . . . . . . . . . . . . . . 39
1.5.1 Éléments de physique du piano, caractérisation des sons . . . . . . . 39
1.5.2 Systèmes de transcription de piano . . . . . . . . . . . . . . . . . . . 45
1.6 Problématiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2 Paramétrisation spectrale des sons de piano 49


2.1 Modélisation du contenu tonal des sons de piano . . . . . . . . . . . . . . . 49
2.2 Inharmonicité des sons de piano . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.2.1 Fréquences des partiels d’une note . . . . . . . . . . . . . . . . . . . 54
6 TABLE DES MATIÈRES

2.2.2 Estimation du coefficient d’inharmonicité . . . . . . . . . . . . . . . 55


2.2.3 Impact de la prise en compte de l’inharmonicité . . . . . . . . . . . . 59
2.3 Modélisation des enveloppes spectrales de sons de piano . . . . . . . . . . . 61
2.3.1 Le processus harmonique . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3.2 Modèle autorégressif d’enveloppe spectrale . . . . . . . . . . . . . . . 63
2.4 Modélisation de l’enveloppe du bruit . . . . . . . . . . . . . . . . . . . . . . 66
2.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3 Estimation à court terme de hauteur simple sur un registre étendu 71


3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.2 Estimation de hauteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.2.1 Méthode temporelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.2.2 Méthode spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.2.3 Estimation de la hauteur . . . . . . . . . . . . . . . . . . . . . . . . 76
3.3 Évaluation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4 Estimation de fréquences fondamentales multiples 81


4.1 Problématique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Cadre statistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.1 Modèle génératif de son . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.2.2 Description inférentielle : méthode de résolution . . . . . . . . . . . . 87
4.3 Sélection des notes candidates . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.4 Estimation itérative des modèles d’enveloppe spectrale et des amplitudes
des partiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.2 Estimation des modèles d’enveloppe spectrale . . . . . . . . . . . . . 92
4.4.3 Estimation des amplitudes des partiels . . . . . . . . . . . . . . . . . 93
4.4.4 Algorithme itératif d’estimation des paramètres des notes . . . . . . 97
4.5 Estimation des paramètres du modèle de bruit . . . . . . . . . . . . . . . . . 100
4.6 Lois a priori sur les modèles AR et MA . . . . . . . . . . . . . . . . . . . . 103
4.7 Fonction de détection de fréquences fondamentales . . . . . . . . . . . . . . 104
4.8 Résumé de l’algorithme d’estimation de fréquences fondamentales multiples 108
4.9 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

5 Système de transcription 113


5.1 Principe et stratégies de transcription . . . . . . . . . . . . . . . . . . . . . 113
5.2 Description du système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2.1 Segmentation de l’extrait analysé . . . . . . . . . . . . . . . . . . . . 115
5.2.2 Modélisation du suivi des mélanges de notes par HMM . . . . . . . . 116
5.2.3 Initialisation et transitions de la chaîne de Markov . . . . . . . . . . 118
5.2.4 Apprentissage des paramètres du HMM . . . . . . . . . . . . . . . . 119
5.2.5 Estimation du mélange de notes le plus vraisemblable . . . . . . . . 120
5.2.6 Détection des notes répétées et génération de la transcription . . . . 120
5.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
7

6 Évaluation 125
6.1 Méthodes d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
6.1.2 Évaluation subjective des erreurs typiques de transcription . . . . . . 129
6.1.2.1 Principe du test et protocole . . . . . . . . . . . . . . . . . 129
6.1.2.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.1.3 Critères perceptifs d’évaluation . . . . . . . . . . . . . . . . . . . . . 132
6.1.3.1 Extraction des coefficients de pondération . . . . . . . . . . 133
6.1.3.2 F-mesure perceptive . . . . . . . . . . . . . . . . . . . . . . 134
6.1.3.3 PTD perceptive . . . . . . . . . . . . . . . . . . . . . . . . 135
6.1.3.4 Application à l’évaluation subjective de transcriptions mu-
sicales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.2 Base d’évaluation MAPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.2.1 Vue d’ensemble de la base . . . . . . . . . . . . . . . . . . . . . . . . 138
6.2.2 Contenu détaillé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2.2.1 ISOL : base de notes isolées et autres extraits monophoniques140
6.2.2.2 RAND : base d’accords tirés aléatoirement . . . . . . . . . 140
6.2.2.3 UCHO : base d’accords usuels . . . . . . . . . . . . . . . . 141
6.2.2.4 MUS : base de morceaux de musique . . . . . . . . . . . . . 141
6.2.3 Dispositif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.3 Évaluation des algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.3.1 Estimation de fréquences fondamentales multiples . . . . . . . . . . . 145
6.3.2 Système de transcription . . . . . . . . . . . . . . . . . . . . . . . . . 150
6.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

Conclusion et perspectives 157

ANNEXES 161

A Méthodes de traitement du signal numérique 163


A.1 Notes de probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
A.1.1 Variables et vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . 163
A.1.2 Changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . 164
A.1.3 Autres lois de probabilité . . . . . . . . . . . . . . . . . . . . . . . . 164
A.1.3.1 Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
A.1.3.2 Loi Gamma Inverse . . . . . . . . . . . . . . . . . . . . . . 164
A.2 Modélisation AR et MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
A.2.1 Processus AR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
A.2.2 Processus MA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
A.3 Approximation de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172

B Preuves mathématiques 173


B.1 État de l’art . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
B.2 Estimation de fréquences fondamentales multiples . . . . . . . . . . . . . . . 174

C Correspondance entre notes, F0 et échelle MIDI 177

Bibliographie 179
8 TABLE DES MATIÈRES

Overview (in English) 193

Liste de publications 197

Sélection de publications 199


9

Liste des figures

1.1 Modèle de Meddis et Hewitt . . . . . . . . . . . . . . . . . . . . . . . . . . . 26


1.2 Exemple d’histogramme des fréquences . . . . . . . . . . . . . . . . . . . . . 27
1.3 Spectral smoothness . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4 HMM pour la reconnaissance de notes . . . . . . . . . . . . . . . . . . . . . 34
1.5 Profil temps-fréquence du modèle de source HTC . . . . . . . . . . . . . . . 37
1.6 Exemple de son de piano (Mi 2, 165 Hz) . . . . . . . . . . . . . . . . . . . . 40
1.7 Exemple de distribution inharmonique . . . . . . . . . . . . . . . . . . . . . 41
1.8 Amplitudes des partiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.9 Domaine de validité des modèles d’excitation des cordes . . . . . . . . . . . 43

2.1 Détail d’un spectre autour d’une sinusoïde . . . . . . . . . . . . . . . . . . . 51


2.2 Blanchiment du bruit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.3 Inharmonicité moyenne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.4 Optimisation de la loi d’inharmonicité par rapport à f0 et β . . . . . . . . . 57
2.5 Optimisation du produit spectral par rapport à f0 et β . . . . . . . . . . . . 59
2.6 RSB obtenu pour la séparation du contenu pseudo-harmonique et du bruit . 60
2.7 Périodogrammes de réalisations de processus harmoniques . . . . . . . . . . 64
2.8 Exemple d’estimation d’enveloppe spectrale AR (signal synthétique) . . . . 67
2.9 Exemple d’estimation d’enveloppe spectrale AR (son de piano) . . . . . . . 67
2.10 Exemple d’estimation MA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3.1 Puissance d’une sinusoïde exponentiellement amortie . . . . . . . . . . . . . 74


3.2 Correction de l’inharmonicité . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.3 Exemple d’analyse d’un Ré 2 de piano sur 60 ms . . . . . . . . . . . . . . . 76
3.4 Taux d’erreurs par note, moyennés sur une octave . . . . . . . . . . . . . . . 78

4.1 Spectre de deux notes à la quinte . . . . . . . . . . . . . . . . . . . . . . . . 82


4.2 Principe de l’estimation de fréquences fondamentales multiples. . . . . . . . 83
4.3 Réseau bayésien représentant le modèle de son . . . . . . . . . . . . . . . . . 84
4.4 Estimation de fréquences fondamentales multiples : diagramme en blocs . . 86
4.5 Sélection de notes candidates . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.6 Estimation des amplitudes avec recouvrement spectral sur un signal synthé-
tique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.7 Estimation des amplitudes et des enveloppes spectrales . . . . . . . . . . . . 98
4.8 Estimation des amplitudes et des enveloppes spectrales . . . . . . . . . . . . 99
4.9 Exemple d’estimation des paramètres du modèle de bruit . . . . . . . . . . . 102
4.10 Normalisation et corrections d’ordre . . . . . . . . . . . . . . . . . . . . . . 107
4.11 Log-vraisemblance pondérée . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
10 LISTE DES FIGURES

5.1 Niveau de polyphonie de pièces du répertoire classique . . . . . . . . . . . . 114


5.2 Débit moyen de notes en fonction de plusieurs formations classiques . . . . . 115
5.3 Exemple de détection des attaques. . . . . . . . . . . . . . . . . . . . . . . . 116
5.4 Processus de génération des observations par HMM . . . . . . . . . . . . . . 117
5.5 Résultat de l’apprentissage des paramètres des HMM . . . . . . . . . . . . . 119
5.6 Exemple de transcription d’un segment par HMM . . . . . . . . . . . . . . . 121
5.7 Exemple de transcriptions (Haydn). . . . . . . . . . . . . . . . . . . . . . . . 122
5.8 Exemple de transcriptions (Chopin). . . . . . . . . . . . . . . . . . . . . . . 123

6.1 Test perceptif 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130


6.2 Échelle subjective de gêne en fonction des erreurs typiques. . . . . . . . . . 131
6.3 Exemples de différences entre évaluations objective et subjective . . . . . . . 132
6.4 Test perceptif 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.5 Résultat de l’évaluation perceptive de transcriptions . . . . . . . . . . . . . 136
6.6 Résultats d’évaluation, métriques objectives et subjectives . . . . . . . . . . 137
6.7 Dispositif d’enregistrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.8 Estimation de fréquences fondamentales multiples, polyphonie inconnue . . 147
6.9 Estimation de la polyphonie . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.10 Estimation de fréquences fondamentales multiples, polyphonie connue . . . 148
6.11 Performances en fonction de la consonance des accords. . . . . . . . . . . . . 149
6.12 Détection des octaves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
6.13 Performances en fonction des enregistrements. . . . . . . . . . . . . . . . . . 151
6.14 Performances de la sélection de notes candidates. . . . . . . . . . . . . . . . 152
6.15 Évaluation objective des transcriptions. . . . . . . . . . . . . . . . . . . . . 152
6.16 Évaluation des transcriptions par la F-mesure perceptive. . . . . . . . . . . 154
6.17 Distribution des résultats selon le morceau. . . . . . . . . . . . . . . . . . . 154

A.1 Densités des lois Gamma et Gamma Inverse . . . . . . . . . . . . . . . . . . 165


A.2 Estimation des paramètres AR . . . . . . . . . . . . . . . . . . . . . . . . . 168

C.1 overview (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194


C.2 overview (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196

NB : Dans la version électronique de ce document, il est possible de cliquer sur certaines


figures (2.4(a), 5.7 et 5.8) pour voir une vidéo et éventuellement écouter l’extrait sonore
associé aux morceaux originaux et transcrits. L’encodage a été réalisé par le codec xvid
1.1.3 (http://www.xvid.org/), qui doit être installé pour voir ces vidéos.
11

Liste des tableaux

6.1 classement qualitatif des méthodes d’évaluation . . . . . . . . . . . . . . . . 128


6.2 Coefficients perceptifs associés à des erreurs typiques . . . . . . . . . . . . . 133
6.3 Qualité des métriques d’évaluation . . . . . . . . . . . . . . . . . . . . . . . 138
6.4 MAPS : instruments et conditions d’enregistrement. . . . . . . . . . . . . . 139
6.5 Accords usuels de 2 et 3 sons et nomenclature . . . . . . . . . . . . . . . . . 142
6.6 Accords usuels de 4 et 5 sons et nomenclature . . . . . . . . . . . . . . . . . 143

C.1 Correspondance notes, F0 et échelle MIDI . . . . . . . . . . . . . . . . . . . 178


12 LISTE DES TABLEAUX
13

Liste des algorithmes

1.1 Méthodes itératives d’estimation de fréquences fondamentales multiples-


principe général. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1 Régression sur la loi d’inharmonicité . . . . . . . . . . . . . . . . . . . . . . 58
2.2 Estimation itérative des paramètres du bruit . . . . . . . . . . . . . . . . . . 68
4.1 Estimation itérative des paramètres et des sources . . . . . . . . . . . . . . 97
4.2 Estimation de fréquences fondamentales multiples. . . . . . . . . . . . . . . 110
6.1 Extraction des erreurs typiques. . . . . . . . . . . . . . . . . . . . . . . . . . 135
14 LISTE DES ALGORITHMES
15

Notations

Symboles, fonctions et opérateurs mathématiques

, Définition

[.] Arrondi à l’entier le plus proche


⌊⌋ Partie entière
⌈⌉ Partie supérieure
Ja; bK Intervalle entier {a; a + 1; . . . ; b − 1; b}

x∗ Conjugué du nombre complexe x


Mt Transposée de la matrice M
M† Conjuguée hermitienne de la matrice M
M+ Pseudo-inverse de la matrice M

#E Cardinal de l’ensemble E

⊗ Convolution circulaire

F [x] Transformée de Fourier (éventuellement discrète) de x


F −1 [X] Transformée de Fourier (éventuellement discrète) inverse de X

pX (X = x), Densité de probabilité de la variable aléatoire X pour une


pX (x), px (x) réalisation x. Dans un souci de clarté, la notation varie selon le
ou p (x) contexte et la même variable désigne parfois la variable aléatoire et
sa réalisation.

∇f Gradient d’une fonction f multivariée 


∇2 f Hessien de la fonction f : ∇2 f , ∇ (∇f )t

Acronymes

F0 fréquence fondamentale

AR Auto-regressive, [filtre/processus] autorégressif


HMM Hidden Markov model, modèle de Markov caché
i.i.d. Indépendant identiquement distribué
MA Moving average, [filtre/processus à] moyenne ajustée
16 Notations

MAP Maximum a posteriori


ML Maximum likelihood, maximum de vraisemblance
SSL Stationnaire au sens large

TP True positive, détection correcte


FP False positive, fausse alarme
FN False negative, omission
EI Error Intensity, intensité de l’erreur
MOR Mean Overlap Ratio, taux de recouvrement moyen
MNR Modified Note Rate, taux de notes modifiées

PCM Pulse Code Modulation


MIDI Musical Instrument Digital Interface
SMF Standard MIDI File
17

Introduction

Pour l’être humain, le son n’a essentiellement d’intérêt qu’en tant que porteur de sens,
et non comme vibration physique. La voix parlée porte le langage, la musique une intention
artistique et les sons ambiants une image du milieu environnant. Le fonctionnement physio-
logique sous-jacent est hautement élaboré et notre compréhension du processus partielle. Il
en est de même des capacités actuelles à reproduire cette analyse via l’outil informatique :
sur bien des points, ses capacités n’égalent pas celles de l’être humain lorsqu’il s’agit de
reconnaissance de la parole ou des instruments de musique à partir du son, pour ne citer
que ces exemples. Dans cette thèse, nous nous intéressons au cas de la musique, et plus
particulièrement de la musique de piano, pour lequel nous chercherons à extraire les notes
jouées présentes dans un son en utilisant les outils informatiques et de traitement du signal.

La transcription de la musique
Nous appellerons transcription musicale une description symbolique de l’exécution d’un
morceau de musique. Dans cette acception, transcrire consiste à analyser le son enregistré
ou entendu pour en extraire des informations, c’est-à-dire le contenu faisant sens. Alors que
dans le domaine voisin du traitement de la parole, la transcription d’une conversation ou
d’un discours a pour but d’extraire les mots et phrases énoncés, la transcription musicale
aura avant tout pour objectif d’estimer les notes jouées et leur paramètres : leurs hauteurs,
instants d’attaque, durées, et éventuellement des informations de plus haut niveau telles
que les figures rythmiques, la mesure ou l’armure.
Avant de rentrer dans le détail des travaux de cette thèse, il faut par ailleurs noter que
dans un contexte musical, le terme de transcription peut également désigner une forme
d’arrangement consistant en la ré-écriture d’une partition pour une instrumentation autre
que l’originale : la réduction pour piano d’une pièce symphonique (comme celles de Liszt
des symphonies de Beethoven) ou une orchestration (telle que celle réalisée par Ravel des
Tableaux d’une exposition pour piano de Moussorgski) sont des exemples de transcriptions
au sens d’arrangement. Dans cette thèse, nous écarterons ce sens du mot transcription
pour ne garder que celui faisant référence au passage d’un enregistrement à une description
symbolique.

La transcription humaine et la transcription automatique


La transcription d’un enregistrement constitue pour l’être humain une tâche difficile
nécessitant généralement un apprentissage. La formation de musicien classique consacre
un exercice spécifique au développement des facultés de transcription à travers les dictées
musicales, première forme de transcription rencontrée par le musicien. L’exercice apparaît
dès le début de la formation sous la forme simple de trancriptions de séquences tonales de
notes, conjointes dans un premier temps, sans polyphonie, et dont le rythme est simple voire
18 Introduction

inexistant. La difficulté croît ensuite sur plusieurs plans : augmentation de la complexité des
mélodies, des rythmes et du contenu tonal/atonal, dictées à plusieurs voix, dictées d’accord,
etc. Si cet apprentissage constitue une forme d’éducation de l’oreille du musicien qui lui
est ensuite utile en situation de jeu, celui-ci rencontre d’autres occasions spécifiques de
transcrire la musique qu’il entend. Le musicien de jazz est ainsi souvent amené à transcrire
des solos, séquences improvisées pour lesquelles il n’existe pas de partition préalable, et en
situation de jeu, doit avoir une oreille suffisamment entraînée pour reconnaître et suivre
sur le vif les tonalités jouées par les musiciens qui l’entourent.
La transcription devient automatique lorsqu’elle est réalisée non plus par un être hu-
main mais par un programme informatique. Dans ce cadre, la pièce à transcrire se présente
comme un fichier son – de type .wav ou .mp3 par exemple – et la transcription générée
prend la forme d’un fichier MIDI ou équivalent, approprié pour la représentation et le
stockage de l’information extraite.

Quelles informations rechercher ?


La transcription automatique s’inscrit dans le cadre plus vaste de la recherche d’informa-
tions musicales, domaine de recherche à part entière, consacré en anglais sous l’appellation
Music Information Retrieval (MIR).
Le support de la recherche d’informations musicales est le son produit par l’exécution
d’un morceau. Ce son, émis à un instant donné, est enregistré ou directement traité. Il
provient d’une ou plusieurs sources sonores et s’est propagé dans un milieu physique, le
plus souvent l’air, et dans un environnement, salle de concert ou autre. La source sonore,
un instrument de musique par exemple, est contrôlée – jouée – par un être humain, lui-
même interprétant une œuvre, composée au préalable ou improvisée. Cette description,
probablement restrictive, propose une approche sous la forme d’une chaîne de production
dont chaque élément apporte sa propre contribution au résultat sonore et recèle des infor-
mations spécifiques pouvant faire l’objet de recherches en MIR. De la reconnaissance des
instruments à la localisation des sources, en passant par la classification par genre musical
pour la génération de listes de progammation (les fameuses playlists), chaque application
s’attache à isoler les informations qui lui sont spécifiques, enfouies dans le support commun
qu’est le son enregistré.
Les informations recherchées dans le cadre de la transcription automatique forment
un champ qui se situe au niveau des sources sonores et qui comprend les notes jouées,
avec leurs rythmes, leurs hauteurs, leurs nuances, leur articulation, l’instrument dont elles
proviennent, les accords ou encore le suivi du tempo.

Les enjeux de la transcription automatique


Quelles applications pour la transcription ?
Si la transcription automatique présente un certain intérêt lié à la transcription humaine
(pédagogie musicale, relevé automatique de solos de jazz, interaction musicien-ordinateur)
et permet de réaliser des programmes de conversion audio/partition ou audio/MIDI, son
utilité dépasse largement le cercle des musiciens. Son développement est en effet au cœur
de celui du traitement du signal audio et des travaux en MIR. Le volume toujours croissant
des fichiers audio a depuis quelques années établi le besoin de recourir à une indexation au-
tomatique plutôt que manuelle, la transcription automatique constituant alors un élément
de base parmi les tâches développées. Elle intervient notamment dans des applications
19

comme l’extraction de mélodie ou du contenu tonal, l’identification des instruments, de la


pièce, du style ou du compositeur, la détection des structures des morceaux (introduction,
refrain, couplets, grilles, etc.) et la génération de résumés sonores, le suivi d’une partition
en temps réel et son alignement sur un flux audio.
Alors que certaines d’entre elles font déjà partie de notre quotidien, la plupart de ces
applications constituent des domaines de recherche très actifs, du fait de performances
actuelles largement perfectibles et surtout de vastes perspectives d’innovations encore non
exploitées, la plus convoitée (et générale) étant probablement la recherche et la navigation
par le contenu dans de grandes bases de sons.

Quelle(s) représentation(s) pour la transcription ?


En fonction de l’objectif de la transcription, la nature des informations recherchées
change ainsi que leur représentation. Les systèmes de notation musicale permettent de
dresser une partition. Ils ont évolué au cours de l’histoire, depuis les premières traces de
notations mélodiques et rythmiques antiques et les neumes du Moyen-Âge jusqu’à la nota-
tion classique, relativement récente et qui fait toujours l’objet d’innovations. L’avènement
de l’informatique musicale a fait naître à la fois des formats spécifiques à l’édition de parti-
tion et des formats comme MIDI et SMF (Standard MIDI File) qui constituent également
une représentation possible, avec comme avantage la communication avec d’autres instru-
ments électroniques, à l’origine même de la norme. De son côté, l’indexation des signaux
représente l’information sous forme codée, bien souvent à l’aide de tags ou d’annotations
établis selon un language ou une norme donnés. On voit ainsi se développer des systèmes
dédiés à la représentation du contenu sonore s’appuyant sur MPEG7 ou sur XML.

Problématique et structure du document


Nos travaux de thèse ont pour thème la transcription automatique de la musique pour
piano solo. Le piano a la double particularité d’occuper une place majeure d’instrument
solo dans le répertoire de musique occidentale, qu’elle soit classique ou de jazz, et d’être un
instrument particulièrement difficile à transcrire par les systèmes actuels. La question de la
transcription automatique en général étant elle-même une problématique vaste et difficile
à traiter, nous essaierons de voir quels aspects spécifiques de l’instrument peuvent être mo-
délisés et dans quelle mesure il peut être avantageux de spécialiser la tâche de transcription
à un instrument comme le piano. Par ailleurs, nous aurons également l’occasion d’aborder
des thématiques qui dépassent le cas du piano et sont liées à la transcription automatique
en général, comme l’estimation de fréquences fondamentales multiples ou l’évaluation des
résultats.
Ce mémoire de thèse est divisé en six chapitres inter-dépendants, accompagnés de
quelques annexes. Nous y développerons ces motivations et aborderons plusieurs aspects
liés à la transcription : nous proposerons en particulier une paramétrisation des diverses
caractéristiques spectrales des sons de piano ; une méthode d’estimation de fréquences fon-
damentales simples performante lorsque les conditions d’analyse sont difficiles ; un modèle
et une méthode d’estimation de fréquences fondamentales multiples ; un système de trans-
cription effectif pour des enregistrements réels ; et enfin une réflexion et des travaux sur
l’évaluation des transcriptions.
Le chapitre 1 dressera un état de l’art des travaux liés à la transcription automatique.
Nous y proposerons en prélude une discussion et une présentation des motivations de nos
20 Introduction

travaux, établissant ainsi les spécificités de notre approche. L’état de l’art à proprement
parler comportera ensuite quatre parties principales : la présentation de la problématique
de l’estimation de hauteur, avec son ancrage dans la perception et les principes d’estimation
les plus répandus ; la description des approches d’estimation de fréquences fondamentales
multiples, module souvent central dans la transcription automatique ; un panorama des
nombreux systèmes de transcription automatique proposés depuis une trentaine d’années ;
enfin, dans le cadre de la transcription automatique de piano, un aperçu de la physique
de l’instrument et des systèmes de transcriptions déjà proposés. Le chapitre se terminera
par une série de questions qui posent notre problématique et auxquelles nous souhaiterions
répondre.
Le chapitre 2 abordera la question de la caractérisation spectrale de sons de
piano pour la transcription. Après avoir présenté quelques modèles sinusoïdaux utiles par
la suite pour décrire le contenu des sons, nous nous intéresserons à deux aspects spécifiques
du piano – la distribution inharmonique des fréquences de ses partiels et la modélisation
de l’enveloppe spectrale des notes – et à la modélisation du bruit. Nous proposerons alors
des modèles et des algorithmes adaptés à l’instrument et à la tâche de transcription.
Dans le chapitre 3, nous nous intéresserons à l’estimation de fréquences fonda-
mentales dans un contexte particulier rencontré avec le piano : la double contrainte d’une
fenêtre d’analyse courte et d’un registre étendu. De manière générale, l’utilisation d’une
petite fenêtre d’analyse est un défi lorsque l’on analyse des signaux audio, qu’ils soient
de musique ou de parole, en raison de leur pseudo-stationnarité et du compromis temps-
fréquence auquel on est rapidement confronté. Ces conditions d’analyse difficiles sont
largement réunies dans le cas du piano où la musique peut être véloce, et les notes alors
très courtes, alors que les fréquences fondamentales s’étendent, du grave à l’aigu, sur une
des plus grandes tessitures que l’on puisse rencontrer. Dans ce cadre, nous proposerons
une méthode d’estimation de notes isolées qui offre des performances satisfaisantes sur
l’ensemble de la tessiture (fréquences fondamentales comprises entre 27, 5 et 4200 Hz, soit
71 /4 octaves) en utilisant une fenêtre d’analyse de 60 ms (contre 93 ms en général).
Dans le chapitre 4, nous développerons une méthode d’estimation de fréquences
fondamentales multiples reposant sur des modèles paramétriques d’enveloppe spectrale
des notes (modèle autorégressif) et du bruit (modèle à moyenne ajustée). Ces modèles
s’intègrent dans un cadre statistique à partir duquel nous proposons une résolution à base
de maximum de vraisemblance. La technique proposée repose sur une estimation jointe des
fréquences fondamentales multiples dans le domaine spectral et comporte l’estimation du
degré de polyphonie (nombre de notes).
Dans le chapitre 5, nous proposerons un système complet de transcription automa-
tique de la musique de piano. Nous y adopterons une stratégie de transcription liée aux
spécificités du piano et de son répertoire. Il en résultera un cadre dans lequel le signal est
segmenté en fonction des attaques détectées. Chaque segment sera ensuite analysé grâce à
un modèle de Markov caché dans lequel la méthode d’estimation de fréquences fondamen-
tales multiples du chapitre 4 est utilisée. Le système de transcription permettra d’analyser
tout morceau de piano enregistré dans des conditions usuelles, tous styles confondus, avec
des limites raisonnables, que nous détaillerons, en termes de polyphonie, de vélocité, et de
tessiture.
Le chapitre 6 sera consacré à l’évaluation des transcriptions automatiques. La ques-
tion a été approfondie selon deux axes. Nous nous intéresserons tout d’abord aux méthodes
d’évaluation, et proposons en particulier un raffinement des métriques usuelles. L’étude par-
tira du constat des limites des systèmes d’évaluation courants et s’appuiera sur les résultats
21

d’un test perceptif pour proposer une pondération des erreurs typiques. Nous verrons éga-
lement comment déterminer dans quelle mesure une métrique d’évaluation donnée remplit
effectivement sa fonction. Dans la deuxième partie du chapitre, nous détaillerons le contenu
d’une base de données que nous avons constituée spécifiquement pour l’estimation de fré-
quences fondamentales multiples et la transcription automatique de la musique de piano.
Elle regroupera des séries de notes isolées, d’accords aléatoires et d’accords typiques, et de
morceaux de musique, en faisant varier plusieurs paramètres tels que les nuances, les durées,
ou l’utilisation de la pédale forte. Les enregistrements proviennent d’un piano ayant un
dispositif d’entrée et sortie MIDI et de logiciels de synthèse de qualité, permettant dans les
deux cas de disposer de références très précises sur le contenu des fichiers. Dans la dernière
partie de ce chapitre, nous évaluerons notre algorithme d’estimation de fréquences fonda-
mentales multiples et notre système de transcription et proposerons une analyse détaillée
et comparative des résultats.
Pour terminer ce mémoire de thèse, notre conclusion établira un bilan de nos contribu-
tions avant de proposer quelques perspectives.
22 Introduction
23

Chapitre 1

État de l’art

1.1 Motivations et questions


La transcription automatique constitue un domaine de recherche actif et compétitif,
comme le montre le nombre de thèses [Moorer, 1975; Maher, 1989; Mellinger, 1991; Rossi,
1998; Godsmark, 1998; Sterian, 1999; Marolt, 2002; Ortiz-Berenguer, 2002; Bello, 2003;
Klapuri, 2004; Vincent, 2004; Cemgil, 2004; Virtanen, 2006; Camacho, 2007; Kameoka,
2007] et d’ouvrages [Klapuri et Davy, 2006; Wang et Brown, 2006] qui s’y consacrent sous
une forme ou une autre, et dont les points de vue pourront compléter celui exposé ici. Cet
état de l’art a la double vocation de décrire les travaux liés à la transcription automatique
de la musique et d’introduire les problématiques que nous développerons dans ce mémoire
de thèse. Nous proposons en prélude à l’état de l’art quelques questions et discussions ayant
pour objectif l’établissement d’une grille de lecture d’une bibliographie prolifique.

1.1.1 La transcription : information, variables et organisation


Considérons la transcription comme une tâche de recherche d’information, passage
des données brutes, la suite d’échantillons d’un enregistrement audio numérique, à leur
description symbolique par un fichier MIDI ou une partition. Les entités porteuses de sens
musical – notes, instruments, tempo, tonalité, métrique – se caractérisent soit par une
fonction du temps (pour le tempo par exemple), soit par l’ensemble des paramètres d’une
note considérée comme un objet (fréquence fondamentale, instant d’attaque et d’extinction,
nuance). Cette couche d’information peut être qualifiée de principale dans la mesure où
son extraction constitue la finalité de la transcription. S’ajoute un ensemble de notions
permettant de la caractériser : les fréquences des partiels, l’enveloppe spectrale d’une note,
la réponse de la salle, le bruit de fond. Ces notions constituent une couche d’information
auxiliaire, données latentes utiles à la transcription, voire nécessaires, mais n’apparaissant
pas dans le résultat.
La question de la hiérarchie des informations pour l’analyse de sons est également abor-
dée à travers la notion voisine des représentations mi-niveau (ou intermédiaires). La pro-
blématique consiste alors à introduire un niveau intermédiaire de représentation entre une
représentation bas-niveau (forme d’onde, représentations temps-fréquence, temps-échelle,
cepstre, etc.) et l’information recherchée afin de diviser le problème en tâches plus simples.
Le choix de cette représentation est alors au centre de la problématique : certaines trans-
formées élaborées [Ellis et Rosenthal, 1995], les chromagrammes [Shepard, 1964; Lee, 2008]
ou encore les atomes et molécules associés à des instruments [Leveau et al., 2008] sont
24 1. État de l’art

autant de représentations possibles pour sonder cette hiérarchie d’informations.

1.1.2 Quelles méthodes pour la transcription ?


Le choix d’une stratégie d’analyse des signaux dépend à la fois de l’application visée
et de la facilité et de la robustesse de l’estimation de chaque type d’information. Comme
nous le verrons dans ce chapitre, les techniques de transcription sont influencées par deux
pôles :
– l’estimation de hauteur : les hauteurs peuvent être estimées à chaque instant ou
trame de signal, et les notes sont ensuite extraites en fonction des résultats obtenus
dans les trames successives. L’idée sous-jacente à cette approche est que l’on peut se
fier essentiellement à l’information instantanée (de l’ordre d’une trame) pour estimer
la hauteur des notes présentes, en prenant ensuite une décision sur l’ensemble de
ces estimations. Comme argument en faveur de ce postulat, on peut évoquer les
processus de perception qui permettent souvent de reconnaître des notes lorsqu’elles
sont tronquées ou, de manière causale, avant qu’elles soient achevées.
– les modèles de notes : on ne se contente plus d’un simple modèle de hauteur mais
d’un modèle de note, souvent associé à une technique de décomposition (approches
bayésiennes, dictionnaires de formes d’ondes). Les dimensions temporelle et fréquen-
tielle sont alors conjointement considérées afin de rendre l’approche plus robuste.
Celle-ci est par ailleurs non causale, puisque l’on a besoin de considérer tout le signal
pour identifier une note.
Nous verrons donc quelles stratégies peuvent être adoptées en nous intéressant en par-
ticulier au rôle de l’estimation de hauteur, aux modèles de notes ainsi qu’aux connaissances
a priori et à leur apprentissage éventuel.

1.1.3 Pourquoi se restreindre au piano ?


Pourquoi élaborer un système de transcription spécifique au piano plutôt qu’un système
de transcription générique ?
Plusieurs raisons justifient cette démarche :
1. en rendant plus spécifique la tâche à accomplir, on peut espérer obtenir des solutions
plus spécialisées et donc potentiellement plus efficaces ;
2. la tâche n’est cependant pas plus aisée : le piano est un des instruments les plus
difficiles à transcrire, notamment en raison de la forte polyphonie, de la complexité
des sons de piano, de la taille du registre (71 /4 octaves), de la technicité des pièces et
de la virtuosité des interprètes. Nous verrons comment les multiples difficultés liées
au piano constituent un enjeu scientifique de taille ;
3. l’enjeu est également musical, étant données la place de cet instrument dans la mu-
sique occidentale et la taille du répertoire pour piano solo (enrichi des réductions de
pièces orchestrales et autres adaptations).
Par ailleurs, on peut considérer la transcription automatique comme un regroupement
de problématiques d’extraction d’information musicale. La transcrition du piano trouve
alors sa place parmi d’autres tâches de transcription partielle :
– transcription de batterie ou des percussions [Goto et Muraoka, 1994b; Gillet, 2007] ;
– transcription de la mélodie [Goto, 2004; Ellis et Poliner, 2006; Ryynänen et Klapuri,
2008] ;
– transcription de la ligne de basse [Goto, 2004; Ryynänen et Klapuri, 2008] ;
25

– transcription d’accords [Lee, 2008; Ryynänen et Klapuri, 2008] ;


– transcription d’ornements [Gainza et Coyle, 2007] ;
– estimation de la tonalité [Lee, 2008] ;
– estimation de la pulsation, du tempo et de la mesure [Goto et Muraoka, 1994a;
Klapuri et al., 2006; Alonso et al., 2007] ;
– reconnaissance des instruments [Eronen et Klapuri, 2000; Essid et al., 2006].

1.2 Estimation de hauteur


Afin d’aborder la question de l’estimation de hauteurs multiples – problématique cen-
trale pour la transcription –, nous nous intéressons ici à la perception et à l’estimation de
hauteur dans le cas d’une hauteur unique. Deux motivations expliquent cette démarche.
Premièrement, la perception de la hauteur des sons fait intervenir suffisamment de phé-
nomènes pour être bien souvent étudiée dans le cas d’une seule hauteur. Le processus de
discrimination de hauteurs simultanées s’appuie ensuite sur ces résultats. Deuxièmement,
l’estimation de hauteurs simples a fait l’objet de nombreux travaux, dont nous verrons
quelques aspects.

1.2.1 Perception de la hauteur


La hauteur est généralement définie comme l’une des quatre caractéristiques d’un son
avec son intensité, sa durée et son timbre, la hauteur étant la grandeur relative à l’échelle
grave-aigu. On distingue deux types de sensations de hauteur : la hauteur tonale et la hau-
teur spectrale. La hauteur tonale est associée aux sons périodiques ou quasi-périodiques,
et est caractérisée par sa période ou sa fréquence fondamentale (F0 ), inverse de la pé-
riode. L’oreille a la capacité de quantifier très précisément cette grandeur, dont la valeur
numérique est exprimée sur une échelle physique, en hertz (c’est précisément la fréquence
fondamentale), ou sur l’échelle subjective de tonie, c’est-à-dire de sensation de hauteur,
dont l’unité est le mel. La hauteur spectrale désigne une sensation de hauteur cor-
respondant au centre de gravité spectral, et ne se restreignant pas à la classe des sons
quasi-périodiques. La sensation grave/aigu peut par exemple être attribuée à des bruits
tels qu’un souffle, un choc sur divers matériaux, un frottement. Dans certaines conditions,
il peut arriver que les deux sensations de hauteur entrent en concurrence au point de faire
apparaître des ambiguïtés ou des illusions auditives [Shepard, 1964; Houtsma et al., 1988].
Dans le cadre de la transcription automatique, nous ne nous intéresserons qu’à la hauteur
tonale, que nous appellerons simplement hauteur dans la suite du document, et qui est le
phénomène de hauteur le plus répandu dans la musique, en particulier pour le piano.
La perception de la hauteur tonale s’explique en s’appuyant sur la physiologie de
l’oreille. L’onde sonore se propage dans l’air au niveau de l’oreille externe et fait vibrer
le tympan. Celui-ci agit comme un transducteur en transformant l’onde de pression en
vibration mécanique. Elle est ensuite transmise dans l’oreille moyenne par la chaîne ossi-
culaire, composée des trois osselets – marteau, enclume, étrier –, à l’extrémité de laquelle
se trouve la fenêtre ovale. Un « pattern d’excitation » dépendant du contenu spectral du
signal se forme alors le long de la membrane basilaire à l’intérieur de la cochlée, organe
de forme hélicoïdale rempli d’un liquide appelé endolymphe. Les cellules ciliées, portées
par la membrane basilaire, transforment l’excitation mécanique en impulsions électriques
transmises aux fibres nerveuses. On considère généralement que la perception de la hauteur
tonale résulte de la contribution de deux phénomènes : le codage tonotopique et le codage
26 1. État de l’art

temporel. Le codage tonotopique consiste en la génération du pattern d’excitation dans la


cochlée, véritable analyse spectrale sous forme spatiale, qui permet de sélectionner les fibres
nerveuses à solliciter en fonction du contenu fréquentiel. Le codage temporel correspond
au signal nerveux transmis par ces fibres, dont la cadence et la forme varient en fonction
du contenu fréquentiel. Le cerveau exploite alors l’information sur les fibres excitées et sur
la nature de l’excitation transmise pour générer la sensation de hauteur tonale.
Le modèle de Meddis et Hewitt [1991a,b]
établit un lien entre les connaissances sur la per-
ception de la hauteur et les méthodes de trai-
tement du signal sur l’estimation de hauteur.
Pour concilier les deux approches, les auteurs
proposent une modélisation de la chaîne per-
ceptive par une suite de blocs fonctionnels qui
possèdent à la fois un sens physiologique et une
réalisation possible par des techniques de trai-
tement de signal (cf. figure 1.1). Les deux pre-
miers étages du système modélisent l’oreille ex-
terne et l’oreille moyenne par plusieurs filtrages
élémentaires correspondant à la réponse au ni-
veau du tympan (filtrage passe-bande entre 2 et
5 kHz) et à celle de l’oreille moyenne (filtrage
passe-bande asymétrique autour de 1 kHz).
L’étage suivant est un banc de filtres auditifs
modélisant le phénomène de décomposition to-
notopique au niveau de la membrane basilaire.
Un modèle de cellule ciliée simule ensuite la
transduction neuronale du signal mécanique en
Figure 1.1 – Modèle de Meddis et He- décharge électrique ainsi que l’effet d’inhibition
witt (Source : Meddis et Hewitt [1991a]) des neurones. Les écarts entre décharges sont
alors quantifiés par une fonction d’autocorrélation (ACF) du signal, qui est finalement
sommée sur tous les canaux pour obtenir une unique fonction de détection, dont le maxi-
mum correspond à la hauteur perçue. Le modèle est finalement appliqué à plusieurs situa-
tions particulières dans lesquels il s’avère robuste : phénomène de fondamentale absente,
ambiguïtés de hauteur, modulations, hauteur créée à partir de bruit, etc.
Ces résultats expliquent la place importante que peuvent prendre un pré-filtrage, un
banc de filtres et une autocorrélation dans les sous-bandes, que nous retrouvons dans la
littérature sur l’estimation de hauteur. Le modèle de Meddis et Hewitt a par la suite été
souvent repris dans les travaux sur l’estimation de hauteur, soit en s’en inspirant [Tolonen
et Karjalainen, 2000; de Cheveigné et Kawahara, 2002], soit en le reprenant dans sa quasi-
totalité [Klapuri, 2008]. On remarque cependant que la théorie expliquant la perception
de la hauteur par l’autocorrélation ne fait pas forcément consensus, des travaux ayant été
menés dans d’autres directions [de Cheveigné, 1998].

1.2.2 Méthodes d’estimation


L’estimation de hauteur simple (monopitch) consiste à estimer la fréquence fondamen-
tale d’un son périodique ou quasi-périodique. Le problème a été maintes fois étudié pour
les signaux de musique, mais surtout pour ceux de parole [Rabiner et al., 1976; Hess, 1983;
27

de Cheveigné et Kawahara, 2002]. Dans ce cas, l’estimation de la fréquence fondamen-


tale est étroitement liée à la détection de voisement, c’est-à-dire la présence de fréquence
fondamentale, conséquence de la vibration de cordes vocales, dans les divers segments de
paroles [Atal et Rabiner, 1976; McAulay et Quatieri, 1990; Rouat et al., 1997; Thomson et
Chengalvarayan, 2002], voire à la localisation des instants de fermeture glottique [Strube,
1974; Cheng et O’Shaughnessy, 1989; Tuan et d’Alessandro, 1999; Kawahara et al., 2000].
La grande majorité des techniques d’estimation de hauteur se répartissent en deux
classes : les approches dans le domaine spectral et les approches dans le domaine temporel.
Dans le domaine spectral, le son présente des pics répartis suivant une distribution quasi-
harmonique : il s’agit alors d’estimer ce peigne pour obtenir la fréquence fondamentale.
Dans le domaine temporel, c’est plutôt la période fondamentale, grandeur équivalente, qui
est estimée, en cherchant le plus petit décalage temporel non nul pour lequel la forme
d’onde et sa version décalée coïncident.
Les travaux de Schroeder [1968] font histo-
riquement référence. L’auteur propose deux ap-
proches, temporelle et spectrale, chacune dans
une version simple, l’histogramme, et dans une
version plus élaborée, l’histogramme pondéré.
L’approche spectrale commence par une étape
de détection des pics spectraux. La fréquence
fondamentale étant un sous-multiple de la fré-
quence de chaque pic, on l’estime comme étant
la fréquence rassemblant le plus grand nombre
de sous-multiples de fréquences détectées. Pour Figure 1.2 – Exemple d’histogramme
ce faire, on construit un histogramme en fonc- des fréquences (Source : Schroeder
tion de la fréquence, en dénombrant le nombre [1968]).
de sous-multiples des fréquences de chaque pic. Le maximum de l’histogramme correspond
alors à la fréquence fondamentale (cf. figure 1.2). Dans le domaine temporel, l’histogramme
des périodes est construit de manière analogue, en estimant le plus petit multiple commun
des périodes des pics détectés. Pour aller plus loin, l’auteur propose de remplacer le simple
dénombrement par une pondération des contributions des partiels en fonction de leurs am-
plitudes, et de généraliser la notion d’histogramme en supprimant la détection de pics pour
obtenir une fonction « continue ». Il en résulte en particulier deux fonctions de détection
de hauteur dans le domaine spectral :
– la somme spectrale S (f ), dans le cas d’une pondération par les amplitudes des H
premiers partiels à la fréquence fondamentale f :
H
X
S (f ) , 20 log |X (hf )| (1.1)
h=1

– le produit spectral P (f ), dans le cas d’une pondération par le logarithme des


amplitudes :
H
X
P (f ) , 20 log |X (hf )| (1.2)
h=1
H
Y
= 20 log |X (hf )| (1.3)
h=1
28 1. État de l’art

où X est la transformée de Fourier discrète du signal. Ces méthodes sont particulièrement


efficaces lorsque l’on peut fixer le nombre H de partiels, c’est-à-dire lorsque la plage de
variation de f est relativement restreinte.
Il est intéressant de remarquer que bon nombre de méthodes développées depuis abou-
tissent à des variantes de la somme spectrale ou du produit spectral et que ces méthodes
s’appuient parfois sur des concepts très différents de celui d’histogramme pour aboutir à
un résultat similaire. On peut ainsi considérer les estimateurs de fréquence fondamentale à
base de reconnaissance de motifs spectraux (« pattern matching ») comme dans les travaux
de Brown [1992] ou de Doval et Rodet [1991] : la somme pondérée prend la forme d’un
produit scalaire, les poids correspondant à un spectre de référence. De même, l’estimateur
de Klapuri [2005] conçu à partir du modèle perceptif de Meddis et Hewitt [1991a] est une
fonction dite de saillance qui s’écrit
fs X
λ (τ ) = max (HLP (k) U (k)) (1.4)
τ k∈κj,τ
j=1

où τ est la période fondamentale, fs la fréquence d’échantillonnage et où les différents


coefficients d’indice k du spectre prétraité U (k) sont sélectionnés sur un ensemble κj,τ ,
voisinage du partiel d’ordre j, et ajoutés avec une pondération HLP (k). Cet exemple montre
le cas d’une fonction temporelle de type autocorrélation qui peut-être facilement interprétée
comme une variante de la somme spectrale.
La somme spectrale, calculée cette fois sur le module au carré du spectre, est également
obtenue comme l’estimateur du maximum de vraisemblance en considérant un modèle de
signal composé de la somme d’un signal périodique sf0 ,a,ϕ (t) et d’un bruit blanc gaussien
centré w(t) :

x (t) = sf0 ,a,ϕ (t) + w (t) (1.5)

avec
H
X
sf0 ,a,ϕ (t) = 2ah cos (2πhf0 t + ϕh ) (1.6)
h=1

Les paramètres du modèle sont les amplitudes réelles positives a , (a1 , . . . , aH ) et les
phases initiales ϕ , (ϕ1 , . . . , ϕH ) sur [0; 2π[ des composantes, la fréquence fondamentale
f0 , et la variance σw2 du bruit. Si l’on observe le signal sur un nombre entier de périodes

T = fm0 , la log-vraisemblance du vecteur x , (x (0) , . . . , x (T − 1)) d’observations est alors

T −1
 T  1 X
L 2
x|a, ϕ, f0 , σw 2
= − log 2πσw − 2 (x (t) − sf0 ,a,ϕ (t))2 (1.7)
2 2σw
t=0

On montre alors (cf. annexe B.1 (p. 173)) que la solution au sens du maximum de
vraisemblance revient à maximiser la fonction
H
X
f0 7→ |X (hf0 )|2 (1.8)
h=1

Dans le domaine temporel, l’autocorrélation du signal, dont une étude de référence a été
établie par Rabiner [1977], est la méthode temporelle élémentaire pour l’estimation de la
29

hauteur, étant donnée sa place dans l’explication de la perception de la hauteur. Wise et al.
[1976] justifient par ailleurs son utilisation via le principe de maximum de vraisemblance
d’une façon très similaire à celle présentée précédemment dans le cas spectral.
Comme dans le cas précédent avec la somme spectrale et le produit spectral, de nom-
breuses méthodes temporelles peuvent être interprétées comme des variantes de l’autocor-
rélation. C’est en particulier le cas de plusieurs approches qui partent de l’autocovariance
comme transformée de Fourier inverse du périodogramme, et qui proposent de substituer
d’autres fonctions au périodogramme. En prenant le logarithme du module de la transfor-
mée de Fourier, on obtient ainsi le cepstre [Noll, 1967], alors qu’en modifiant son exposant,
quadratique à l’origine, Indefrey et al. [1985] et Tolonen et Karjalainen [2000] étudient
les conséquences d’une telle compression. Ross et al. [1974] comparent l’autocorrelation
et l’AMDF (Average Magnitude Difference Function), de Cheveigné et Kawahara [2002]
montrent ensuite la relation qui les unit et développent l’estimateur de hauteur YIN, et
Klapuri [2005, 2008] s’appuie sur le principe d’autocorrélation en modifiant complètement
l’étape d’inversion de la transformée de Fourier.
Pour conclure cette partie, nous pouvons nous pencher sur les limites d’une classifica-
tion des méthodes d’estimation de hauteur en deux classes, les méthodes temporelles et
spectrales. Considérons une fonction temporelle g(t) comme l’autocorrélation ou le cepstre,
s’exprimant comme la tranformée de Fourier inverse d’une quantité spectrale S(f ), qui est
l’estimée du périodogramme pour l’autocorrélation ou le logarithme de l’amplitude du
spectre pour le cepstre : on a g(t) = F −1 [S(f )]. On peut alors dire que g(t) mesure
donc la présence de pics régulièrement espacés dans S(f ), ou encore que, selon une vision
« pattern matching », g(t) mesure la similarité de S(f ) avec le motif e2iπf t périodique
de période 1t . On peut ainsi avoir des interprétations fréquentielles de méthodes tempo-
relles. Cette vision unificatrice de l’approche temporelle et fréquentielle reste discutable,
car s’il y a des cas où elle s’applique très bien, comme celui de Klapuri [2005] dont nous
avons que la méthode temporelle s’interprète aussi sous forme spectrale, il existe aussi des
moyens de tirer parti d’une méthode temporelle et d’une méthode fréquentielle de façon
complémentaire [Peeters, 2006].

1.3 Estimation de fréquences fondamentales multiples


Lorsque plusieurs notes sont jouées simultanément, l’oreille est capable d’appréhender
le son dans sa globalité ou d’isoler les notes qui le composent. L’écoute synthétique dans le
premier cas et l’écoute analytique dans le second sont utilisées dans divers contextes de la
vie courante : lors d’un concert (focalisation sur un instrument ou appréciation du tout),
lors de l’effet « cocktail party » (séparation de la voix d’un interlocuteur parmi plusieurs),
etc. L’objet de l’estimation de hauteurs (ou fréquences fondamentales) multiples est de
réaliser cette séparation/identification des fréquences fondamentales simultanées. Si l’esti-
mation de hauteurs simples a plutôt été étudiée pour la parole, le problème de l’estimation
de hauteurs multiples a fait l’objet de moins de travaux dans ce domaine [Wu et al., 2003;
Le Roux et al., 2007]. La problématique concerne davantage les signaux musicaux étant
donné le caractère polyphonique de la musique.
Un son comportant plusieurs hauteurs est un mélange additif de sons à hauteur simple.
Étant donnée la simplicité de cette relation entre sons à hauteur unique et sons à hauteurs
multiples, la problématique de l’estimation de fréquences fondamentales multiples peut au
premier abord sembler très proche de celle de l’estimation de hauteurs uniques. Cette sim-
plicité apparente est démentie dès que l’on essaie de poser le problème. Ainsi, si détecter
30 1. État de l’art

une hauteur unique revient à détecter la plus petite périodicité d’un signal, on ne peut
transposer la méthode dans le cas de hauteurs multiples, détecter « plusieurs périodicités »
n’ayant pas de sens. De même, d’un point de vue spectral, estimer la fréquence fondamen-
tale d’un peigne harmonique ne présente pas d’ambiguïté, alors qu’une somme de peignes
harmoniques peut être associée à plusieurs ensembles de fréquences fondamentales (on a
par exemple la liberté d’ajouter les octaves) et donne lieu au mieux à un problème arith-
métique non trivial [Klapuri, 1998], et au pire, dans le cas de l’octave par exemple, à un
problème mal posé. Ainsi, deux difficultés liées aux rapports harmoniques entre fréquences
fondamentales se conjuguent dans le cas de l’estimation de fréquences fondamentales mul-
tiples. La première, héritée du cas monophonique, est la tendance à confondre la véritable
fréquence fondamentale avec les fréquences fondamentales en rapport harmonique. La se-
conde s’ajoute à la première dans le cas polyphonique : il s’agit non seulement de pouvoir
choisir entre deux notes (ou davantage) en rapport harmonique, mais également d’être
capable de déterminer si les deux notes sont présentes simultanément.
Il apparaît donc que poser le problème de l’estimation de fréquences fondamentales
multiples est une tâche délicate qui consiste à caractériser le mélange obtenu à partir de
plusieurs notes avec toutes les ambiguïtés que l’opération de mélange peut introduire, et
avec une nouvelle dimension à traiter, le degré de polyphonie. Nous allons maintenant voir
comment les nombreux travaux qui s’y sont consacrés abordent la question, en continuant
de s’appuyer sur le caractère harmonique des notes, et en exploitant plus en profondeur
d’autres informations, en particulier la notion d’enveloppe spectrale.

1.3.1 Estimation itérative des fréquences fondamentales


Dans le cas d’un mélange polyphonique, il est parfois aisé de trouver une note prédo-
minante parmi toutes celles présentes, en utilisant par exemple un critère énergétique. Si
l’on parvient à soustraire cette note du mélange, le résiduel contient théoriquement une
note de moins que l’original, et l’on peut à nouveau chercher la nouvelle note prédomi-
nante. D’où le principe des méthodes itératives [Klapuri, 2003; Karjalainen et Tolonen,
1999; Ortiz-Berenguer et Casajús-Quirós, 2002; Yeh et al., 2005; Klapuri, 2008] décrit par
l’algorithme 1.1.

Entrées: signal audio polyphonique x


r ← x {Initialisation}
Tant que r contient une note
Sélectionner la fréquence fondamentale prédominante f0 dans r
Estimer le signal s correspondant à f0
r ←r−s
Fin Tant que
Sorties: liste des f0 successivement estimées
Algorithme 1.1: Méthodes itératives d’estimation de fréquences fondamentales multiples-
principe général.

Une telle approche nécessite la réalisation de quatre tâches : la sélection d’une note
prédominante dans le signal, l’estimation de sa contribution, sa soustraction au signal et
l’évaluation de la condition d’arrêt. La sélection d’une note prédominante repose souvent
sur un critère énergétique, qui correspond parfois à une méthode d’estimation conçue pour
le cas monophonique. Par exemple, le maximum du produit spectral (cf. équation (1.3))
31

Figure 1.3 – Spectral smoothness : le lissage de l’enveloppe spectrale (trait épais) permet
d’estimer la contribution d’une note (trait fin) (Source : Klapuri [2003]).

est un bon candidat. Une fois la fréquence fondamentale prédominante estimée, les autres
tâches constituent le véritable défi introduit lors du passage de la monophonie à la poly-
phonie. L’estimation du signal correspondant à la fréquence fondamentale sélectionnée et
sa soustraction se font en général approximativement, car le recouvrement spectral entre
les notes ne permet pas de séparer complètement la contribution de la note à extraire du
reste du mélange. Une solution consiste à exploiter l’information portée par l’enveloppe
spectrale, courbe qui relie, dans le domaine fréquentiel, les amplitudes ou les énergies
des partiels d’une note. Le principe de spectral smoothness (régularité de l’enveloppe spec-
trale) introduit par Klapuri [2003] fait référence. Il permet d’estimer cette contribution en
s’appuyant sur le caractère régulier de l’enveloppe spectrale des notes de la majorité des
instruments. Une hauteur n’est plus caractérisée uniquement en fonction de l’énergie des
partiels pris individuellement, mais également selon une contrainte d’énergie relative entre
partiels. De cette façon, en cas de recouvrement spectral, l’amplitude ou l’énergie d’un
partiel est déterminée comme une valeur moyenne ou médiane des amplitudes des par-
tiels d’ordres voisins. Les amplitudes ainsi estimées (cf. figure 1.3) sont alors soustraites.
Yeh et al. [2005] reprennent ce principe et y ajoute une contrainte d’enveloppe tempo-
relle régulière. Par ailleurs, la qualité du résiduel est améliorée par Klapuri [2008] qui le
calcule à chaque itération en utilisant le signal original, plutôt que le résiduel obtenu à
travers les itérations précédentes, et en lui soustrayant les contributions réestimées de l’en-
semble des notes extraites successivement. Une soustraction partielle permet également de
ne pas soustraire totalement la contribution estimée, afin d’éviter que le résiduel soit trop
« creusé ».
Enfin, la condition d’arrêt est en général difficile à élaborer et fait intervenir un seuil
sur l’énergie ou le rapport signal à bruit dans le résiduel (cf. partie 1.3.3).

1.3.2 Estimation jointe des fréquences fondamentales


L’approche jointe est abordée par de Cheveigné [1993], par de Cheveigné et Kawahara
[1999] et par Tolonen et Karjalainen [2000]. La méthode consiste à utiliser des filtres en
peigne qui suppriment les partiels distribués suivant la distribution harmonique correspon-
dant aux fréquences fondamentales supposées, puis à calculer l’énergie du résiduel. Elle est
minimale lorsque les fréquences fondamentales ont été correctement choisies. C’est une fa-
çon de généraliser une méthode comme l’AMDF [Ross et al., 1974] qui a été conçue pour le
cas monophonique et ne peut pas être utilisée pour sélectionner un candidat prédominant
dans le cas polyphonique.
Lors d’une estimation de type itératif, l’extraction du candidat prédominant est ap-
32 1. État de l’art

proximative, comme le montrent les taux de soustraction introduits [Klapuri, 2003, 2008].
Le résiduel obtenu à chaque itération est donc imparfait : il peut comporter des compo-
santes parasites provenant de candidats mal soustraits ou au contraire avoir été privé de
composantes lors d’une soustraction trop importante. Cela est sans doute inévitable lorsque
l’on veut estimer un candidat prédominant en l’absence d’informations sur le résiduel. Es-
timer les hauteurs de façon conjointe peut alors sembler plus efficace.
Cependant, au premier abord, l’approche jointe ne peut être appliquée avec une poly-
phonie élevée : sa complexité est importante en raison du grand nombre de combinaisons de
fréquences fondamentales à examiner. En effet, s’il y a N notes potentielles et une polypho-
nie maximale Pmax , l’estimation itérative consistera à chercher une note parmi N à chaque
itération, impliquant au maximum N Pmax évaluations, alors que l’estimation
P max Njointe
 devra
tester toutes les combinaisons de 1, 2, . . . , Pmax notes parmi N , soit Pp=0 p . Une telle
complexité (2 dans le cas Pmax = N ) reste abordable pour des polyphonies faibles [de Che-
N

veigné et Kawahara, 1999] mais n’est pas envisageable dans le cas de la musique en général.
Le cadre des approches bayésiennes (cf. partie 1.4.4 (p. 36)) offre des stratégies plus effi-
caces pour converger vers la solution. Une autre possibilité est d’estimer conjointement la
contribution des N notes par moindres carrés [Bello et al., 2006].

1.3.3 Estimation de la polyphonie


Seuls quelques travaux s’intéressent à l’estimation de la polyphonie, c’est-à-dire du
nombre de notes présentes, comme tâche faisant partie intégrante de l’estimation de fré-
quences fondamentales multiples. Les auteurs préfèrent souvent s’intéresser aux perfor-
mances en termes de reconnaissance de hauteur, en supposant le nombre de notes ou
de sources connues. Il s’avère que l’estimation de la polyphonie est une tâche difficile,
y compris pour un humain entraîné qui a tendance à sous-estimer le nombre de notes
présentes [Klapuri, 2003].
Parmi les travaux qui présentent explicitement des techniques, citons ceux de Klapuri
[2003, 2008] et de Yeh [2008] qui, dans le cadre d’une estimation itérative des fréquences
fondamentales multiples, proposent un critère d’estimation ou une condition d’arrêt de
nature énergétique sur le résiduel. D’autres méthodes présentent l’avantage de calculer
implicitement la polyphonie comme une conséquence de la reconnaissance des notes, avec
un seuil ou un nombre total de notes à fixer éventuellement [Smaragdis et Brown, 2003;
Kameoka et al., 2005].

1.4 Systèmes de transcription automatique


La transcription automatique de la musique a été introduite par les travaux de Moorer
[1975], dans lesquels l’auteur définit en détail cette nouvelle problématique et propose
le premier système de transcription. L’objectif théorique est de générer une partition,
par un ordinateur, à partir d’un enregistrement musical. Un certain nombre d’hypothèses
simplificatrices permettent alors de restreindre ce vaste cadre et de concevoir un système
de transcription, les deux principales étant la limitation de la polyphonie à deux voix et
l’absence de notes simultanées en rapport harmonique.
Ces travaux posent explicitement la problématique de la transcription et proposent
différentes questions essentielles pour traiter la transcription automatique :
– la séparation du problème en deux étapes : dans un premier temps, le choix des
techniques d’analyse dites de bas-niveau, menant à ce que l’on appelle aujourd’hui
33

les représentations de mi-niveau (cf. partie 1.1.1 (p. 23)). À travers cette première
étape, la forme d’onde du signal est analysée pour obtenir une représentation mettant
en valeur des informations caractéristiques du signal telles que son contenu fréquen-
tiel. Dans un second temps, les techniques de niveau intermédiaire qui, à partir de
l’analyse précédente, traitent le problème, c’est-à-dire l’estimation des notes dans le
cas présent ;
– le problème des fréquences fondamentales en rapport harmonique et du recouvrement
spectral entre notes ;
– la question de l’estimation des notes à partir de l’intégration temporelle du contenu
fréquentiel du son ;
– la définition de la transcription automatique et des éléments à transcrire : de la note à
l’instrument, en passant par la tonalité, la mélodie, le tempérament, les instruments
percussifs, etc.
Les nombreux systèmes proposés après celui de Moorer ont traité le problème de la
transcription automatique en essayant de supprimer progressivement les hypothèses res-
trictives de Moorer. Nous décrivons ici les idées principales de ces systèmes, dont la diver-
sité des approches et des techniques nous a conduit à un classement en quatre catégories :
les approches reposant sur une paramétrisation et des heuristiques pour la détection de
fréquences fondamentales, les approches avec un apprentissage hors-ligne de modèles, les
approches avec un apprentissage en ligne de modèles, et les approches bayésiennes.

1.4.1 Approches à base de paramétrisation et d’heuristiques


Ce type d’approche repose sur l’utilisation d’une technique d’estimation de fréquences
fondamentales à partir d’une trame de signal. Cette première étape d’analyse s’apparente
à une paramétrisation du signal, dans la mesure où l’on extrait une information partielle
– par exemple une mesure de la saillance des notes dans la trame – sur laquelle les étapes
suivantes s’appuieront, laissant de côté le signal proprement dit. La transcription est en-
suite obtenue par une étape d’intégration temporelle de cette paramétrisation, qui est une
analyse verticale, c’est-à-dire fréquentielle, du signal. Il s’agit de faire correspondre des
notes à une suite de fréquences fondamentales à l’aide de critères tels que la variation de
ces fréquences fondamentales dans les trames successives.
Ryynänen et Klapuri [2005] proposent un système qui illustre très bien ce type d’ap-
proche. Il utilise l’estimateur de fréquences fondamentales multiples de Klapuri [2005], qui
fournit une saillance des fréquences fondamentales multiples estimées dans une trame. La
paramétrisation d’une trame consiste alors à prendre les cinq fréquences fondamentales
les plus saillantes, avec les valeurs de saillance associées, ainsi que les cinq fréquences
fondamentales prédominantes pour les attaques (au sens de la dérivée temporelle de la
saillance), avec les intensités d’attaques associées. Pour chaque note n et chaque trame
t, un vecteur d’observations on,t est construit à partir des paramètres de la trame pour
être utilisé dans un HMM (Hidden Markov Model, modèle de Markov caché). Le vecteur
on,t , (∆xn,t , sjt , dn,t ) est composé de trois paramètres : l’écart ∆xn,t entre la fréquence
fondamentale trouvée et celle théorique, la saillance sjt associée et l’intensité éventuelle
dn,t d’une attaque dont la fréquence fondamentale est proche de n.
Le HMM d’une note est représenté sur la figure 1.4. Les trois états utilisés sont associés
à l’attaque, au sustain et au bruit, avec des contraintes sur les transitions possibles entre
états. La vraisemblance des observations est modélisée par un GMM (Gaussian Mixture
Model, modèle de mélange de gaussiennes). L’avantage de cette approche réside dans la
34 1. État de l’art

Figure 1.4 – HMM pour la reconnaissance de notes : chaîne de Markov (en haut) et
densité de probabilité des observations par états (en bas). (Source : Ryynänen et Klapuri
[2005])

simplification qu’elle propose. Grâce à cette division en deux tâches distinctes, la décision
s’appuie sur un nombre restreint de paramètres, et sur un modèle de note à trois états :
l’attaque caractérisée par une forte variation de saillance, le sustain pour lequel la saillance
est élevée, stable et l’écart de fréquence fondamentale faible, et le silence dans les autres
cas (cf. figure 1.4).
D’autres approches à base de paramétrisation et d’estimation de hauteur ont été éla-
borées. L’idée est déjà présente dans les travaux de Moorer [1975]. Martin [1996] pro-
pose un système de décision à plusieurs couches hiérarchisant l’information sur une échelle
bas-niveau/haut-niveau, avec une influence mutuelle des diverses couches. Raphael [2002]
propose une structure de HMM que l’on retrouve chez Ryynänen et Klapuri [2005]. La
décomposition en deux couches – analyse fréquentielle et suivi temporel – est également
adoptée dans le système de Poliner et Ellis [2007], dont la paramétrisation se fait cette fois
par des SVM (Support Vector Machine, machines à vecteurs supports), et qui repose donc
sur un apprentissage préalable.

1.4.2 Approches avec apprentissage préalable


Nous abordons maintenant les méthodes dites avec apprentissage, pour lesquelles la
transcription est obtenue à l’aide d’informations issues d’une base de référence pour recon-
naître les notes, et éventuellement les instruments. Les questions liées à cette problématique
sont alors :
– quelle information apprendre : notes, timbres, dans le domaine temporel ou spectral ?
– quelle technique de reconnaissance utiliser ?
– comment concevoir la base d’apprentissage pour obtenir une reconnaissance robuste
lors du passage à des données inconnues ?
35

Un premier principe d’apprentissage consiste à construire un dictionnaire dont les


éléments correspondent en général à des notes, et à chercher à minimiser une distance
donnée entre une combinaison d’éléments du dictionnaire et le morceau à transcrire. C’est
la démarche adoptée par exemple par Rossi [1998], Ortiz-Berenguer et Casajús-Quirós
[2002], Plumbley et al. [2006] et Cont et al. [2007] qui s’appuient sur un dictionnaire de
spectres de notes. L’emploi d’un dictionnaire présente l’avantage, par rapport à l’utilisation
de modèles, d’avoir pour références des données réelles, dont le niveau de détail et de
complexité n’est pas toujours atteignable par un modèle. En revanche, il faut pouvoir
tolérer une certaine variation autour des éléments du dictionnaire. Ainsi, l’utilisation d’un
dictionnaire de spectres de notes atteint vite sa limite lorsque l’on considère que l’apparition
d’une note correspond à une simple multiplication de son spectre de référence par un
coefficient d’amplitude : en pratique, les variations d’amplitude d’un spectre en fonction
de la nuance sont non-linéaires, tout comme l’évolution temporelle des partiels.
L’utilisation de techniques de classification automatique ajoute à l’apprentissage
des données un apprentissage de leurs variations et une capacité de généralisation, c’est-à-
dire la construction d’une classe à partir de plusieurs échantillons. Les réseaux de neurones
ont ainsi été utilisés par Marolt [2004] à plusieurs niveaux : pour la détection d’attaques
(« Integrate-and-Fire Neural Network »), la reconnaissance de notes à partir de partiels
(« Time Delay Neural Network ») et la détection de notes répétées (« Multilayer Percep-
tron Neural Network »). En utilisant les machines à vecteurs supports, Poliner et Ellis
[2007] effectuent un apprentissage non plus sur des notes isolées mais sur des mélanges
de notes, avec pour effet d’apprendre à la fois les caractéristiques des notes et les consé-
quences d’un mélange telles que le recouvrement spectral. Le système aura par exemple
appris à reconnaître une note lorsqu’elle est isolée et lorsqu’elle se trouve en présence de
son octave. La capacité de généralisation du système dépend ensuite du choix de la base
d’apprentissage et de la paramétrisation du système, étapes délicates qui peuvent mener
à une dégradation des performances dans le cas d’un sous-apprentissage (base trop petite,
manquant de diversité) ou, à l’opposé, dans le cas d’un sur-apprentissage.

1.4.3 Approches avec apprentissage en ligne


En général, les méthodes avec apprentissage préalable ont une capacité de générali-
sation limitée : les résultats se dégradent lorsque le signal à traiter présente des diffé-
rences importantes avec les données apprises. La variabilité des timbres, la réverbération
ou les effets de mixage peuvent par exemple être à l’origine de cette dégradation puisque
la base d’apprentissage ne peut refléter tous les cas de signaux rencontrés ensuite. Plu-
sieurs approches récentes proposent d’effectuer un apprentissage directement sur le signal
à analyser. La NMF (Non-negative Matrix Factorization, factorisation en matrices non-
négatives, c’est-à-dire à coefficients positifs, introduite par Lee et Seung [1999]) est une
technique très appropriée de ce point de vue. Smaragdis et Brown [2003] ont été les pre-
miers à l’appliquer à la transcription : une représentation temps-fréquence positive telle
que le spectrogramme est modélisée et décomposée comme un produit de deux matrices
non-négatives, l’une contenant un dictionnaire de spectres de notes, et l’autre des instants
d’activation de ces notes. Les deux matrices sont estimées à partir du signal, le dictionnaire
de notes constituant une sorte de base pour décrire l’observation. Ces approches furent en-
suite perfectionnées en ajoutant des contraintes [Virtanen, 2007; Bertin et al., 2007] ou
en assouplissant le modèle de spectre qui était jusque-là figé pour chaque note [Vincent
et al., 2008]. Ces derniers travaux montrent la proximité que l’on peut trouver entre la
36 1. État de l’art

séparation de sources et la transcription automatique. Dans le même esprit, Duan et al.


[2008] proposent une autre méthode dans laquelle les enveloppes spectrales des sources sont
apprises de manière adaptative sur le signal à analyser, dans une approche s’appuyant sur
une distance entre peignes harmoniques et des modèles gaussiens associés.
Dans un tout autre registre, l’approche de Bello et al. [2006] propose également un
apprentissage en ligne. Il s’agit cette fois de constituer un dictionnaire de formes d’onde de
notes de piano. Dans une première analyse du signal, les notes isolées sont repérées à l’aide
d’une méthode spectrale d’estimation. Les formes d’onde des notes sélectionnées servent
alors à construire un dictionnaire de formes d’onde, dont les signaux des notes manquantes
sont obtenues par interpolation de ceux des notes existantes. La transcription est finalement
obtenue en appliquant la méthode des moindres carrés afin d’identifier l’apparition des
formes d’onde du dictionnaire dans le signal.

1.4.4 Approches bayésiennes


Récemment, l’introduction des approches bayésiennes pour la transcription automa-
tique a permis de donner au problème un cadre statistique théorique et d’élargir les ca-
pacités de modélisation. Le signal est décrit de manière unifiée et systématique par des
variables aléatoires représentant chaque élément à modéliser : distribution des fréquences,
amplitudes, bruit, mais aussi polyphonie, évolution des partiels, notes, instruments, to-
nalité, etc. Ces variables aléatoires interdépendantes forment ainsi un réseau caractérisé
par le choix de leurs distributions probabilistes. Le problème est alors résolu via la théo-
rie de l’inférence bayésienne, en estimant les modèles et paramètres optimaux à partir du
signal observé. Schématiquement, lorsque l’on modélise le signal observé x par un modèle
statistique θ, résoudre le problème consiste à trouver les paramètres les plus probables,
c’est-à-dire à maximiser la loi a posteriori p (θ|x) par rapport à θ. En appliquant la règle
de Bayes, cette loi est proportionnelle à p (x|θ) p (θ), produit de la vraisemblance p (x|θ)
des données et de la loi a priori p (θ). Ces deux fonctions sont précisément celles qui ont
été choisies pour modéliser le signal : la loi a priori traduit la connaissance que l’on a
sur les paramètres – comme la distribution des amplitudes, des phases ou du nombre de
composantes – tandis que la vraisemblance établit le rapport entre paramètres et signal –
le signal est par exemple une somme de sinusoïdes et de bruit.
Comme nous l’avons vu jusque-là, la transcription automatique fait intervenir un grand
nombre de paramètres et de variables interdépendantes. L’approche bayésienne offre l’avan-
tage de proposer un cadre statistique rigoureux pour modéliser l’ensemble de ce système.
Les techniques de résolution telles que les méthodes de Monte-Carlo sont alors particulière-
ment efficaces pour estimer les paramètres recherchés en prenant en compte conjointement
toutes les interdépendances. Nous analysons ici les modèles utilisés dans quelques approches
bayésiennes pour la transcription afin de les confronter au reste de l’état de l’art. Le lecteur
intéressé par les techniques de modélisation bayésienne et de résolution pourra par exemple
se reporter aux travaux de Cemgil [2004] et de Doucet et Wang [2005].
À notre connaissance, le premier modèle bayésien de signal pour la transcription a été
proposé par Walmsley et al. [1999]. Le signal est considéré par trames comme la somme de
signaux de notes et d’un bruit blanc. Chaque signal de note est lui-même une somme de
sinusoïdes dont les fréquences suivent une distribution harmonique. La fréquence fondamen-
tale, les amplitudes, le nombre de composantes d’une note sont des variables aléatoires. Il
est intéressant de noter que les amplitudes sont i.i.d. (indépendantes identiquement distri-
buées) suivant une loi uniforme. Il n’y a donc pas de contrainte sur l’enveloppe spectrale, à
37

l’exception de la coupure passe-bas imposée par le nombre de composantes. Une contrainte


de continuité des fréquences d’une trame à l’autre est en revanche introduite dans la loi
suivie par la fréquence fondamentale.
La modélisation de Davy et Godsill [2002] enrichit la précédente sur plusieurs points.
Le bruit est un modèle autorégressif (AR) d’ordre p fixe. Pour une note donnée, le vecteur
des amplitudes des partiels est gaussien centré, de covariance diagonale. Une contrainte
d’enveloppe spectrale est ici imposée en rendant le terme m de cette diagonale proportionnel
à m12 . Autrement dit, le partiel d’ordre m est contraint d’avoir une amplitude de l’ordre de
1
m , le coefficient de proportionnalité étant égal pour toutes les notes (et, accessoirement,
proportionnel à la puissance du bruit). Une autre amélioration du modèle précédent consiste
à autoriser une variation de fréquence (gaussienne centrée) autour de la fréquence théorique
multiple de la fondamentale. Enfin, l’utilisation d’une fenêtre temporelle de pondération
des trames permet d’obtenir de faibles variations des amplitudes en fonction du temps.
La modélisation de Davy et Godsill [2002] est reprise par Davy et al. [2006] avec
quelques changements sur les points détaillés précédemment. D’une part, le modèle AR
de bruit est abandonné au profit d’un bruit blanc gaussien car les pôles du processus AR
peuvent modéliser certains partiels. D’autre part, la covariance diagonale des amplitudes
des partiels ne décroît plus en fonction de l’ordre du partiel, elle ne porte que l’information
d’un « rapport signal à bruit » entre les notes et le bruit blanc. Ainsi, sur ces deux points,
le modèle utilisé tend à se rapprocher de celui de Walmsley et al. [1999].
La modélisation bayésienne introduite par Cemgil et al. [2006] pour la transcription
automatique de la musique présente davantage la tâche comme un suivi d’oscillateurs. La
note est modélisée de façon parfaitement harmonique, avec un facteur d’amortissement
multiplicatif ρ ∈ [0; 1]. Cette décroissance est une contrainte plus forte que la fenêtre de
pondération utilisée dans le modèle précédent et s’explique par l’allure générale d’enve-
loppes spectrales d’instruments à cordes vibrant librement. Le facteur d’amortissement
(temporel) est également utilisé pour modéliser une décroissance exponentielle de l’enve-
loppe spectrale, le terme d’ordre h étant proportionnel à ρh . Ce modèle impose donc une
contrainte très forte d’enveloppe spectrale et temporelle. Le bruit est quant à lui gaussien
centré, et sa covariance est apprise sur les données.

Figure 1.5 – Profil temps-fréquence du modèle de source HTC (Source : Kameoka et al.
[2007])

Alors que les modélisations bayésiennes présentées jusqu’ici analysent des trames suc-
cessives de signal sans transformation temps-fréquence, et peuvent donc être qualifiées à
ce titre de méthodes temporelles, la modélisation de Kameoka et al. [2007] utilise comme
observation une représentation temps-fréquence quadratique, obtenue à partir d’une trans-
formée en ondelettes de Gabor. Il ne s’agit pas à proprement parler d’une modélisation
bayésienne, mais elle s’en rapproche par son formalisme statistique et l’introduction de lois
a priori sur certains paramètres. Dans cette modélisation, on considère que la transfor-
38 1. État de l’art

mée temps-fréquence observée est la somme de contributions de sources correspondant à


des notes. La décomposition, baptisée HTC (Harmonic Temporal Structured Clustering),
consiste à minimiser une distance (celle de Kullback-Leibler, mesurant l’information mu-
tuelle, dans un cadre probabiliste) entre le modèle de source et sa contribution estimée.
Le modèle de source, représenté sur la figure 1.5, consiste en le produit de l’énergie de la
note et d’un profil temps-fréquence, quasi-harmonique, normalisé. La définition de ce profil
à l’aide de contraintes temps-fréquence permet une grande souplesse dans la modélisation
des partiels. La loi de la fréquence des partiels est une gaussienne centrée autour d’une
distribution harmonique, dont la fréquence fondamentale peut varier de manière polyno-
miale au cours du temps. L’énergie des partiels est le produit d’une énergie relative, par
rapport au premier partiel, et d’un profil normalisé d’évolution temporelle. L’énergie re-
lative est centrée autour d’une valeur proportionelle à n12 , où n est l’ordre du partiel. Le
profil d’évolution temporelle du partiel se compose quant à lui d’une somme pondérée de
gaussiennes centrées aux instants d’analyse. Leurs poids sont des variables aléatoires de
moyenne décroissant exponentiellement selon eαy , où y est l’indice de la trame et α un
coefficient arbitrairement fixé.

Nous voyons qu’un autre intérêt des approches bayésiennes décrites ci-dessus réside dans
le modèle additif de notes qu’elles proposent pour les mélanges polyphoniques. Nous
avons constaté dans la partie 1.3 qu’il n’est pas évident de séparer des sources qui se
recouvrent à la fois temporellement et fréquentiellement, et que cela donne lieu à des
approximations, en particulier dans les méthodes d’estimation itératives ou lorsque l’on
travaille sur des représentations temps-fréquence quadratiques (NMF, etc.) ne prenant
donc pas en compte l’information de phase. De ce point de vue, l’approche bayésienne
temporelle permet une décomposition et une estimation des amplitudes et des phases des
composantes sans approximation. Quant à la méthode de Kameoka et al. [2007], elle repose
sur une représentation temps-fréquence énergétique, et ne peut donc être qu’approximative,
mais elle explicite cette approximation. Les contributions de chaque source k sont calculées
comme une proportion mk (t, x) de l’énergie W (t,P x) du signal à l’instant t et à la fréquence
x, avec la contrainte de conservation de l’énergie k mk (t, x) = 1. mk (t, x) est alors estimé
comme le rapport P q′kq(t,x) entre l’énergie du modèle de la source k en ce point temps-
k k′ (t,x)
fréquence et la somme des énergies de tous les modèles de sources. Il est intéressant de
noter que ce rapport est analogue à la réponse du filtre de Wiener construit en considérant
qk (t, x) comme la densité spectrale de puissance de la source k, à une différence près :
la réponse fréquentielle du filtre de Wiener serait P q′kq(t,x) , entraînant une proportion
k k′ (t,x)
 2
d’énergie mk (t, x) égale à P q′kq(t,x) , soit le carré de la proportion utilisée dans la
k k′ (t,x)
modélisation HTC. Cette différence provient de la contrainte de conservation de l’énergie
dans le cas HTC alors que le filtrage de Wiener assure l’égalité entre le signal original et
la somme des signaux des sources estimées.
Cette description des méthodes bayésiennes nous amène à revenir sur le problème de la
modélisation de l’enveloppe spectrale. Les contraintes utilisées, telles que la décroissance
exponentielle des amplitudes des partiels, fixent un modèle très approximatif, loin de la
réalité des sons d’instruments de musique en général et de piano en particulier (cf. la des-
cription de ces sons dans la partie 1.5.1). On peut ainsi opposer ces modèles paramétriques
d’enveloppe spectrale aux méthodes adaptatives comme le principe de spectral smooth-
ness de Klapuri [2003] et aux modèles figés contenus dans les dictionnaires, et souligner la
difficulté de la modélisation de l’enveloppe spectrale.
39

1.4.5 Traitement de l’information de haut-niveau


Nous n’avons pour l’instant considéré que l’information de bas-niveau que sont les hau-
teurs, les attaques et les extinctions de notes. L’information de haut-niveau est parfois prise
en compte, soit pour être transcrite en tant que telle (extraction du tempo, reconnaissance
des instruments, etc.), soit pour améliorer les performances globales du système (en s’ai-
dant par exemple du contexte tonal pour estimer les hauteurs présentes). La transcription
de l’information de haut-niveau est une tâche qui se trouve à la limite des travaux présentés
ici. Citons tout de même Gómez [2006] et Lee [2008] qui s’intéressent à la transcription
spécifique de la tonalité et des accords. Pour ce qui est de l’utilisation de l’information
de haut-niveau, Kashino et al. [1998] introduisent ainsi de la connaissance a priori sur
les accords et les transitions entre accords. Pour améliorer la transcription, Ryynänen et
Klapuri [2005] reprennent le modèle musicologique proposé par Viitaniemi et al. [2003]
et Ryynänen et Klapuri [2004]. Il comprend une estimation de la tonalité, puis l’utilisation
des probabilités de transition entre notes sachant cette tonalité.

1.5 Transcription automatique de piano


Nous abordons maintenant les spécificités de la transcription automatique de la musique
de piano. Dans un premier temps, nous dégagerons les caractéristiques des sons de piano
à travers un tour d’horizon des études acoustiques du piano qui permettent d’expliquer les
signaux à transcrire et de modéliser leurs spectres. Nous verrons ensuite dans quelle mesure
les systèmes de transcription automatique de piano proposent des solutions adaptées à cet
instrument.

1.5.1 Éléments de physique du piano, caractérisation des sons


Le piano est un instrument à cordes libres. À ce titre, la production d’un son de piano
repose sur les mécanismes suivants :
– les cordes subissent une excitation initiale sous l’effet de la frappe du marteau ; pour
chaque note de piano, entre une et trois cordes, légèrement désaccordées, sont exci-
tées ;
– elles entrent en vibration libre ;
– la vibration est transmise, via le chevalet, à la table d’harmonie qui rayonne, c’est-
à-dire transforme sa vibration mécanique en onde acoustique ;
– l’onde rayonnée se propage dans l’air jusqu’aux auditeurs ou microphones éventuels.
La figure 1.6 représente un exemple de forme d’onde et de spectrogramme de son de
piano. La forme d’onde montre une décroissance caractéristique des sons produits par les
instruments à vibrations libres, pour lesquels l’énergie apportée au moment de l’excitation
se dissipe progressivement, contrairement aux sons des instruments à son entretenu tels que
les vents ou les cordes frottées. Sur le détail de la forme d’onde (figure 1.6(b)) apparaît la
pseudo-périodicité du son, de fréquence fondamentale voisine de 165 Hz. La représentation
temps-fréquence apporte davantage de détails sur le contenu du son. Un bruit large bande
est visible au niveau de l’attaque et se dissipe rapidement. La pseudo-périodicité du son se
traduit par la prédominance de partiels dont les fréquences suivent une distribution pseudo-
harmonique, sans modulation fréquentielle apparente. Entre 2300 et 4000 Hz, quelques
partiels ont des fréquences qui ne suivent pas cette distribution. Le spectrogramme, et
plus particulièrement sa vue en trois dimensions, montre que l’évolution de l’amplitude
40 1. État de l’art

des partiels est relativement complexe. Elle présente des battements qui ne semblent pas
corrélés entre partiels.

1
0.5
0.5
x(t)

x(t)
0 0

−0.5
−0.5
−1
0 1 2 3 4 0.16 0.18 0.2 0.22 0.24
t (s) t (s)

(a) Forme d’onde entière (b) Zoom sur une partie de la forme d’onde

(c) Spectrogramme (d) Vue 3D du spectrogramme

Figure 1.6 – Exemple de son de piano (Mi 2, 165 Hz)

Fréquence des partiels


La fréquence des partiels n’est pas influencée, en première approximation, par toute la
chaîne de production (transmission à la table d’harmonie et rayonnement) et ne dépend
que de la vibration des cordes [Fletcher et Rossing, 1998]. L’équation d’une corde simple
(sans raideur) est

∂2y ∂2y
ρ = T (1.9)
∂t2 ∂x2
où y est le déplacement selon la direction transverse, ρ la densité linéique, T la tension, x
la position le long de la corde et t le temps, pour laquelle les solutions ont pour fréquences
les multiples de la fréquence fondamentale (en supposant que les extrémités de la corde
sont en appui). La fréquence fondamentale f0 s’exprime en fonction de la longueur L
de la corde, de ρ et de T :
s
1 T
f0 , (1.10)
2L ρ

Les cordes de piano étant caractérisées par une tension et une raideur importantes, on
ne peut leur appliquer les résultats précédents. Pour une corde avec raideur, l’équation de
41

la corde devient

∂2y ∂2y ∂4y


ρ = T − EI (1.11)
∂t2 ∂x2 ∂x4
πd4
où E est le module de Young, I , 64 et d est le diamètre de la corde. Les solutions ont
alors pour fréquences
p
fh = hf0 1 + βh2 (1.12)

3 4
où h ∈ N∗ , β , π64T
Ed
L est le coefficient d’inharmonicité et f0 est la fréquence fonda-
mentale définie par l’équation (1.10) pour la corde sans raideur.

Distrib. harmonique Distrib. inharmonique

0 5 10 15 20
fh/f0

Figure 1.7 – Exemple de distribution inharmonique avec β = 10−3 : le 13e partiel se


retrouve à la fréquence du 14e partiel d’une distribution harmonique de même fréquence
fondamentale.

Le coefficient d’inharmonicité est propre à chaque piano [Young, 1952] et à chaque note,
avec des coefficients de l’ordre de 10−4 dans le grave à 10−2 dans l’aigu. L’inharmonicité
est suffisamment faible pour ne pas perturber la perception d’une hauteur à l’écoute d’un
son de piano. Elle a en revanche un certain nombre de conséquences non négligeables.
Ainsi, accorder un piano repose notamment sur les battements créés entre une note et son
octave. Le tempérament du piano [Schuck et Young, 1943; Martin et Ward, 1954; Lattard,
1993; Conklin Jr., 1996b] intègre donc les écarts entre partiels dus à l’inharmonicité. Il
en résulte un étirement de la répartition des fréquences fondamentales : celles des notes
graves sont en-deçà du tempérament égal, tandis que celles de notes aiguës sont au-delà.
L’écart des fréquences de partiels par rapport à une distribution harmonique est également
loin d’être négligeable si l’on veut localiser ces partiels. Par exemple, avec un coefficient
d’inharmonicité égal à 10−3 , le 13e partiel se retrouve à la fréquence du 14e partiel d’une
répartition harmonique de même fréquence fondamentale (cf. figure 1.7). Estimer le co-
efficient d’inharmonicité [Rauhala et al., 2007] se révèle donc utile voire nécessaire pour
caractériser la hauteur d’une note de piano. Aussi, comme nous le verrons en détail dans la
partie 1.5.2 (p. 45), la plupart des systèmes de transcription automatique de piano prennent
en compte l’inharmonicité.

Amplitude des partiels


Lors de la frappe des cordes par le marteau, les modes propres ou partiels sont excités
différemment les uns des autres, la localisation du point de frappe sur la corde étant
un paramètre déterminant. Pour comprendre le phénomène, un modèle simple [Fletcher
et Rossing, 1998] consiste à considérer une corde de longueur L vibrant librement sans
42 1. État de l’art

amortissement et sans raideur. Le mouvement de la corde peut se décomposer suivant ses


modes propres Yn :
+∞
X
y(x, t) = Yn (x) (An cos ωn t + Bn sin ωn t) (1.13)
n=1

avec x ∈ [0, L] et ωn = 2πnf0 .


L’expression des modes propres est
r
2 nπx
Yn (x) = sin (1.14)
L L
Dans le cas d’une corde frappée ponctuellement au point x = αL (α ∈ [0; 1]) à l’instant
t = 0, on peut choisir comme conditions initiales

y(x, t = 0) = 0 (1.15)
∂y
(x, t = 0) = V0 δ(x − αL) (1.16)
∂t
Par projection de y(x, t = 0) sur la base des modes propres, la condition (1.15) donne

∀n, An = 0 (1.17)

et
V0 sin nπα
∀n, Bn = √ (1.18)
2Lf0 nπ
Ces amplitudes de partiels sont représentées sur la figure 1.8, après normalisation par
√ V0 .
2Lf0

α = 0.12195
0

−10

−20
Amplitude (db)

−30

−40

−50

−60

−70
0 5 10 15 20 25
Ordre des partiels

Figure 1.8 – Amplitudes normalisées, des partiels, en db, au niveau du chevalet et à


l’instant initial, pour α = 0, 12195.

La position du marteau est donnée habituellement par le coefficient α après normali-


sation par la longueur de la corde. Sa principale conséquence est que les modes qui ont
un nœud de vibration au voisinage du point de frappe sont peu excités. Cette position est
particulièrement étudiée et discutée par Hall et Clark [1987] et Conklin Jr. [1996a]. Il en
43

Figure 1.9 – Domaine de validité des modèles d’excitation des cordes, avec les notes en
abscisse et les fréquences des partiels en ordonnée (Source : Hall et Askenfelt [1988]).

ressort qu’elle varie selon l’instrument et l’époque. En pratique, on considère couramment


que la valeur de α est comprise entre 1/9 ≈ 0, 11 et 1/7 ≈ 0, 14. Cette règle assez répandue
est très approximative, les valeurs pouvant par exemple descendre à 0, 08 dans l’aigu sur
un piano moderne.
Le modèle présenté précédemment se révèle assez simpliste en pratique. Cela est regret-
table car une modélisation de type MA (filtre à moyenne ajustée, cf. annexe A.2.2 (p. 170))
conviendrait naturellement si l’enveloppe spectrale des sons suivait ce modèle. L’absence
d’excitation au niveau d’un nœud n’est en général pas vérifiée pour deux raisons princi-
pales. D’une part, la corde n’est pas excitée sur une zone ponctuelle compte tenu de la
largeur du marteau. D’autre part, étant données les pertes au niveau du chevalet dues à
l’admittance finie de la table d’harmonie, les ondes réfléchies sont atténuées par rapport
aux ondes incidentes, mettant en défaut l’hypothèse d’ondes stationnaires et donc l’exis-
tence des nœuds. Aussi, le modèle précédent a été nettement enrichi par l’étude physique
de l’excitation des cordes par un marteau dans le cas du piano, réalisée dans une série
d’articles [Hall, 1986, 1987a,b; Hall et Clark, 1987; Hall et Askenfelt, 1988; Hall, 1992].
Une synthèse proposée dans Hall et Askenfelt [1988] dégage des zones de validité de divers
régimes, représentées sur la figure 1.9, en fonction de la note et des fréquences des partiels :
– le modèle d’excitation ponctuelle par une impulsion de dirac est valable pour les
premiers modes propres des notes les plus graves ;
– pour ces mêmes notes, au-delà de la ligne « Pulse Decay », une pente de −6dB/oct
est à introduire pour prendre en compte la durée du contact marteau-corde, qui n’est
plus négligeable devant la période du partiel ;
44 1. État de l’art

– au-delà de la ligne « Pulse Rise », une autre pente de −6dB/oct s’ajoute (soit
−12dB/oct) car l’élasticité du marteau devient importante devant une élasticité cri-
tique ;
– pour les notes aiguës, un modèle où la masse du marteau est supérieure à celle de la
corde donne une pente de −12dB/oct dès les premiers modes.
Il convient de préciser que les amplitudes des partiels ainsi modélisées ne sont valables
que pour la vibration du chevalet et qu’à l’instant de frappe. En effet, avant d’être perçu, le
son subit des transformations successives, modélisables sous forme de filtrages et produites
lors de la transmission à la table d’harmonie, du rayonnement et de la propagation dans le
milieu ambiant. Quant aux phénomènes qui suivent l’instant de frappe, ils sont maintenant
examinés à travers l’étude de l’évolution des partiels.

Évolution des partiels


L’allure des partiels, observable sur la figure 1.6(d), fait intervenir deux phénomènes
principaux : d’une part, une décroissance globale qualifiée de double décroissance en raison
d’une pente forte au début suivie d’une pente plus faible, et d’autre part, des battements.
Ces phénomènes sont des conséquences des couplages entre les modes des cordes, qui ont
notamment été étudiés par Weinreich [1977]. Dans la configuration d’une note avec deux
ou trois cordes, celles-ci ne vibrent pas indépendamment mais sont couplées au niveau du
chevalet. De plus, chaque corde a deux polarisations, horizontale et verticale. On obtient
ainsi six modes propres couplés. En étudiant le cas plus simple de deux cordes dont la po-
larisation horizontale est négligée, et dont les pulsations propres sont voisines en raison du
désaccord entre les cordes qu’introduit l’accordeur de piano, les phénomènes de battement
sont mis en évidence. Plusieurs cas sont étudiés, suivant la nature du couplage – purement
résistif ou pas – et le désaccord entre les cordes. Le phénomène de double décroissance est
ensuite expliqué en considérant cette fois une seule corde et ses deux polarisations, puis
deux cordes. L’excitation lors de la frappe du marteau impose une vibration initiale en
phase des cordes. La force appliquée au chevalet est donc importante, donnant lieu à une
forte dissipation. Les oscillateurs se mettent ensuite rapidement en opposition de phase
pour atteindre un régime moins dissipatif : les déplacements se compensent et la force
appliquée au chevalet est alors minimisée, d’où un changement de pente.
Dans le cas général, l’évolution des partiels est donc relativement complexe, dépendant
notamment de paramètres tels que le désaccord entre cordes, l’impédance caractéristique
des cordes et l’admittance du chevalet. Ces valeurs varient en fonction de la note et de
l’instrument et sont donc difficilement accessibles dans les conditions de la transcription
automatique, c’est-à-dire en l’absence d’accès direct au piano. Ceci explique sûrement la
rareté des méthodes d’analyse de l’évolution des partiels de piano [Rauhala, 2007], alors
que ces phénomènes ont été largement utilisés pour la synthèse [Smith et Van Duyne, 1995;
Bank, 2000; Bank et Sujbert, 2002; Bensa, 2003; Rauhala et Valimaki, 2006].

Autres partiels
Seuls les modes transverses, c’est-à-dire dont le déplacement est dans un plan orthogonal
à l’axe de la corde, ont été considérés jusqu’à présent. Ils sont responsables du caractère
pseudo-harmonique du son. Les modes longitudinaux (ou de compression) des cordes sont
également excités et audibles [Conklin Jr., 1996a,b; Fletcher et Rossing, 1998; Galembo
et Askenfelt, 1999; Bank et Sujbert, 2005], ainsi que des modes dits « fantômes » [Conk-
lin Jr., 1997]. Ces partiels ont des fréquences qui ne font a priori pas partie de la distribu-
tion pseudo-harmonique relative à la note. Ils agissent donc plutôt comme des fréquences
45

parasites dans un contexte d’estimation de fréquences fondamentales.

Pédales
Le pédalier du piano à queue comporte traditionnellement trois pédales. Celle de droite,
la pédale forte, relève les étouffoirs, laissant l’ensemble des cordes libres. Il en résulte une
légère modification du son et la possibilité pour l’instrumentiste de laisser sonner une note
après avoir relâché la touche. Le son produit lorsque cette pédale est enfoncée a été étudié,
sur un plan perceptif [Martin et Ward, 1954] et physique [Fletcher et al., 1962; Lehtonen
et al., 2007], plusieurs phénomènes ayant été mis en avant. Le principal est un rehaussement
du bruit de fond dû à la vibration de l’ensemble des cordes. Celles-ci ne sont pas excitées
directement par les marteaux mais elles vibrent néanmoins, soit par sympathie avec les
notes jouées, soit en fonction des bruits impulsionnels transmis par le piano (relèvement
des étouffoirs, chocs des marteaux, etc.). Les autres effets observés par Lehtonen et al.
[2007] concernent une modification de l’évolution des partiels. Leur amplitude a tendance
à décroître moins rapidement lorsque la pédale est enfoncée. L’explication proviendrait du
couplage entre une corde jouée et l’ensemble des cordes, ces dernières dissipant davantage
l’énergie transmise lorsqu’elles sont étouffées. La part plus importante de couplages non
dissipatifs expliquerait également l’augmentation des battements observés avec la pédale
enfoncée, tout comme un affaiblissement du phénomène de double décroissance.
La pédale du milieu, dite tonale ou de soutien, permet de tenir les notes jouées au
moment où elle est enfoncée, en gardant les autres étouffées. Il n’y a à notre connaissance
aucune étude à son sujet susceptible de nous intéresser, probablement du fait de sa simili-
tude avec la pédale forte et d’une utilisation plus réservée à un contexte d’étude qu’à une
interprétation musicale. La pédale de gauche, dite una corda, déplace latéralement le bloc
constitué du clavier et des marteaux afin que toutes les cordes ne soient pas frappées. Le son
obtenu en est ainsi modifié et sa production est évoquée dans plusieurs travaux [Weinreich,
1977; Fletcher et Rossing, 1998; Bank, 2000].

1.5.2 Systèmes de transcription de piano


Nous allons maintenant voir dans quelle mesure les systèmes de transcription automa-
tique de piano allient les spécificités du piano aux techniques de transcription évoquées
dans les parties 1.3 et 1.4.
La variété des techniques utilisées pour transcrire la musique de piano est aussi grande
que pour la transcription automatique générique. On retrouve ainsi des méthodes reposant
sur une paramétrisation [Dixon, 2000; Monti et Sandler, 2002; Raphael, 2002; Kobzantsev
et al., 2005; Wen et Sandler, 2005b], des méthodes avec apprentissage préalable [Rossi,
1998; Ortiz-Berenguer et Casajús-Quirós, 2002; Marolt, 2004; Poliner et Ellis, 2007] ou en
ligne [Bello et al., 2006; Vincent et al., 2008] et des méthodes statistiques [Godsill et Davy,
2005].
L’inharmonicité des sons de piano est en général prise en compte dans les sys-
tèmes de transcription. L’utilisation explicite de la loi d’inharmonicité donnée par l’équa-
tion (1.12) (p. 41) permet de saisir au mieux les partiels dans une représentation fré-
quentielle [Ortiz-Berenguer et Casajús-Quirós, 2002; Vincent et al., 2008]. L’inharmonicité
peut également être implicite lorsque l’apprentissage l’englobe [Rossi, 1998; Poliner et El-
lis, 2007; Bello et al., 2006]. Enfin certains systèmes proposent une approximation ou une
généralisation de l’inharmonicité en permettant que l’écart entre les partiels varie, sans
s’appuyer sur la loi d’inharmonicité du piano [Klapuri, 2003; Godsill et Davy, 2005; Wen
46 1. État de l’art

et Sandler, 2005a].
La détection d’attaques semble être également un critère largement répandu. Il peut
faire l’objet d’un module dédié [Barbancho et al., 2004; Marolt, 2004; Monti et Sandler,
2002] ou d’un état de HMM [Raphael, 2002].
Comme dans la majorité des systèmes de transcription polyphonique, l’enveloppe spec-
trale constitue une source d’information importante. Il est assez rare de trouver des sys-
tèmes qui n’utilisent pas cette information [Raphael, 2002; Monti et Sandler, 2002]. L’ap-
prentissage préalable de l’enveloppe des notes se retrouve dans les systèmes performants
de Marolt [2004] et Poliner et Ellis [2007]. Les systèmes d’apprentissage en ligne [Bello
et al., 2006; Vincent et al., 2008] ont en plus l’avantage de disposer de dictionnaires adap-
tés au morceau à transcrire. Ces systèmes avec apprentissage souffrent néanmoins de deux
défauts : les variations de l’enveloppe spectrale au cours du temps, notamment en raison
des battements, et, pour les systèmes avec apprentissage préalable, les différences entre les
enveloppes spectrales apprises et celles rencontrées par la suite.
Enfin, signalons qu’à notre connaissance, seul le système de Barbancho et al. [2004]
prend en compte la pédale forte pour réaliser une transcription.

1.6 Problématiques
À la lumière de cet état de l’art, voici maintenant les différentes questions que nous
traiterons dans cette thèse.

Quel modèle de note utiliser pour l’estimation de fréquences fondamentales


multiples ?
La question de l’enveloppe spectrale nous apparaît comme centrale pour aborder l’ana-
lyse de sons polyphoniques. Alors qu’une grande variété de solutions originales ont déjà
été proposées, cet élément-clé reste souvent un point faible des systèmes de transcription.

Comment modéliser la superposition des notes ?


En particulier, comment traiter le problème du recouvrement spectral entre notes en rap-
port harmonique ? Il nous semble important d’utiliser l’information sur l’enveloppe spec-
trale pour lever l’ambiguïté de ces cas fréquents.

Quelle stratégie adopter pour transcrire la musique de piano ?


Parmi toutes les approches possibles, certaines sont-elles plus adaptées aux spécifités du
piano ?

Quelles sont les conséquences de l’inharmonicité des sons de piano sur la tâche
de transcription ?
Ce paramètre entraîne une augmentation de la complexité des modèles et des systèmes
puisque les fréquences des partiels sont déterminées par deux paramètres, le coefficient
d’inharmonicité et la fréquence fondamentale. Dans quelle mesure ce paramètre supplé-
mentaire est-il une contrainte et introduit-il une incertitude sur la fréquence des partiels ?
L’inharmonicité peut-elle être au contraire utilisée à profit pour identifier des notes jouées
simultanément ?
47

Comment estimer le degré de polyphonie ?


Nous avons vu que bien peu de systèmes estiment le nombre de notes simultanées à un
instant donné. Sur quels critères peut-on s’appuyer pour le déterminer ?

Qu’est-ce qu’une bonne transcription ?


Comment quantifier la qualité d’une transcription ? Peut-on comparer et ordonner des
transcriptions suivant leur qualité ? Quels sont les critères à évaluer ? Quelles sont les
erreurs de transcription typiques ?
48 1. État de l’art
49

Chapitre 2

Paramétrisation spectrale des sons


de piano

Ce chapitre est consacré à la caractérisation des spectres de sons de piano, dans la pers-
pective de l’estimation de la hauteur des notes. À ce titre, quatre aspects seront étudiés
distinctement. Nous aurons tout d’abord besoin d’identifier les composantes sinusoïdales
des sons. La modélisation du contenu tonal fera donc l’objet de la première partie. Pour
faire le lien entre les composantes estimées et les notes présentes, nous devrons étudier la
distribution des fréquences des partiels d’une note. Cette question est d’un intérêt par-
ticulier dans le cas du piano du fait de l’inharmonicité caractéristique des sons. Nous y
consacrerons la deuxième partie, où nous présenterons nos travaux sur l’estimation de
l’inharmonicité et sur l’impact d’une telle caractérisation. La troisième partie aura pour
thème la modélisation de l’enveloppe spectrale des sons de piano pour la transcription.
Nous avons vu l’intérêt, voire la nécessité de prendre en compte l’enveloppe spectrale pour
l’estimation de fréquences fondamentales multiples. Dans cette optique, nous proposerons
une modélisation de type autorégressif de cette enveloppe spectrale et un cadre statistique
approprié. Enfin, nous nous pencherons sur la question de la modélisation du bruit dans
la dernière partie.

2.1 Modélisation du contenu tonal des sons de piano


Si l’on entend souvent dire que l’on peut modéliser à l’aide de sinusoïdes les sons
présentant une hauteur – les sons de piano par exemple –, on se rend rapidement compte
qu’il existe un nombre important de façons de procéder. L’origine de cette multiplicité est
double – dépendant à la fois de la variété des modèles et, pour chaque modèle, des méthodes
d’estimation – et fait écho aux questions sous-jacentes relatives à la caractérisation des
sons : doit-on modéliser des sinusoïdes modulées en fréquence et/ou en amplitude ? Si
c’est le cas, comment modéliser les modulations, ou les fameux « chirps » : une sinusoïde
modulée peut-elle être modélisée par plusieurs sinusoïdes non modulées (sur de courtes
trames successives ou, de façon simultanée, par projection sur une base) ? Un modèle
donné garantit-il l’unicité de la représentation ? Que peut-on considérer comme aléatoire :
les phases initiales, le bruit, les amplitudes ? Quels modèles permettent d’optimiser un
rapport qualité/nombre de paramètres ?
À défaut d’essayer de répondre à ces questions et d’approfondir la problématique de la
modélisation sinusoïdale, nous présentons ici quelques approches que nous utiliserons par
50 2. Paramétrisation spectrale des sons de piano

la suite.
Le modèle de McAulay et Quatieri [1986] est fondateur dans le champ de la
modélisation sinusoïdale à court terme des signaux audio. Proposé à l’origine pour des
signaux de parole, il est également très utilisé pour les signaux de musique. Il consiste à
considérer qu’une trame de longueur N d’un signal x (t), avec t ∈ J0; N −1K, est modélisable
par une somme de K sinusoïdes, les trois paramètres de la k e sinusoïde étant son amplitude
ak > 0, sa fréquence fk > 0 et sa phase initiale ϕk ∈ [0; 2π] :
K
X
x (t) , 2ak cos (2πfk t + ϕk ) (2.1)
k=1

La variante complexe s’écrit


K
X
xc (t) , αk ei2πfk t (2.2)
k=1

où les αk ∈ C∗ sont les amplitudes complexes (de module l’amplitude réelle et d’argument
la phase initiale).
Dans ce modèle, les amplitudes et les fréquences sont constantes sur la durée de la
trame. Le modèle permet néanmoins de modéliser des signaux présentant des modulations
en amplitude et en fréquence, à condition que ces variations soient suffisamment lentes
pour pouvoir être négligées sur la durée d’une trame. Dans ce cas, les auteurs proposent
un algorithme pour relier les composantes détectées d’une trame à la suivante, sur la base
d’une distance entre leurs fréquences et de la possibilité qu’une sinusoïde puisse apparaître
ou disparaître.
L’apport du modèle de Serra et Smith [1990] sur le modèle précédent réside dans
l’introduction explicite d’un bruit additif. La partie bruit ne peut être ignorée qu’en pre-
mière approximation et l’estimation de la partie non sinusoïdale a par la suite donné lieu
à des études approfondies [d’Alessandro et al., 1998a; David et al., 2006]. En reprenant les
notations précédentes, le signal est cette fois défini par
K
X
x (t) , 2ak cos (2πfk t + ϕk ) + b (t) (2.3)
k=1

ou, sous forme complexe,


K
X
xc (t) , αk ei2πfk t + b (t) (2.4)
k=1

où b (t) désigne la partie bruit. Le bruit est alors défini comme un processus stochastique,
en l’occurrence le résultat du filtrage d’un bruit blanc par un filtre, variant temporellement,
permettant de contrôler la forme de la densité spectrale de puissance du bruit. Nous aurons
l’occasion de reprendre ce modèle de bruit pour l’estimation de fréquences fondamentales.
Pour ces modèles, l’estimation des paramètres se fait en général dans le domaine spec-
tral. Considérons par exemple une trame de signal [x (0) , . . . , x (N − 1)] de longueur N et
sa transformée de Fourier discrète X (νk ) définie par
N
X −1
X (νk ) , x (n) w (n) e−i2πνk n (2.5)
n=0
51

k
où νk = K est la k ème des K fréquences considérées (avec K ≥ N ) et w est une fenêtre
de pondération au choix de l’utilisateur. Le choix de w permet d’ajuster l’étalement spec-
tral, et en particulier le compromis entre la largeur du lobe principal des composantes
sinusoïdales et le niveau des lobes secondaires. Le nombre K de fréquences correspond à
l’échantillonnage désiré de la transformée de Fourier continue à temps discret. On parle
de zero-padding lorsque K > N , c’est-à-dire lorsque l’échantillonnage fréquentiel est ainsi
augmenté. Pour aller plus loin en se rapprochant du cas continu et trouver la valeur du
spectre à une fréquence f , Serra et Smith [1990] et Abe et Smith [2005] tirent parti d’une
interpolation quadratique du spectre en considérant les trois fréquences discrètes les plus
proches de f et les valeurs du spectre associées. Plus précisément, l’interpolation donne des
résultats optimaux si elle est effectuée sur le logarithme de l’amplitude du spectre, et en
utilisant une fenêtre de pondération gaussienne. Cette technique est particulièrement utile
lorsqu’il s’agit de localiser les sinusoïdes comme des maxima du spectre (cf. figure 2.1) et
nous l’utiliserons par la suite, en particulier pour estimer finement le coefficient d’inhar-
monicité d’une note.

50

45

40
X(f) dB

35

K=N (sans zero−padding)


30 K=2N (avec zero−padding)
Points interpolés
Interpolation
Maximum estimé
25
0.028 0.029 0.03 0.031 0.032
f

Figure 2.1 – Détail d’un spectre autour d’une sinusoïde de fréquence 0, 03 : le maximum
est estimé par interpolation des trois points les plus proches.

Suivant les modèles considérés, d’autres techniques d’estimation de paramètres existent,


telle que la réallocation de la transformée de Fourier à court terme [Flandrin, 1993], les re-
présentations parcimonieuses [Daudet et Torrésani, 2006], ou les techniques dites à Haute-
Résolution [Badeau, 2005]. Parmi ces dernières, l’algorithme ESPRIT (Estimation of
Signal Parameters via Rotational Invariance Techniques [Roy et al., 1986]) est particuliè-
rement performant. Nous le décrivons maintenant et aurons l’occasion de l’utiliser dans le
chapitre 3 sur l’estimation de hauteurs simples. Le modèle considéré est composé d’une
somme K de sinusoïdes exponentiellement amorties et de bruit. La sinusoïde k est notée
αk zk , où αk ∈ C∗ est l’amplitude complexe et zk = edk +2iπfk ∈ C∗ est le pôle, de fré-
quence fk ∈ R et de facteur d’amortissement dk ∈ R. Ce dernier constitue un paramètre
supplémentaire par rapport aux modèles présentés précédemment. Le bruit b (t) est quant
à lui supposé blanc additif gaussien, de variance σb2 . Le signal observé s’écrit donc comme
la somme d’une partie sinusoïdale s (t) et de la partie bruit sous la forme

x (t) = s (t) + b (t) (2.6)


52 2. Paramétrisation spectrale des sons de piano

avec
K
X
s (t) = αk zkt (2.7)
k=1

L’algorithme ESPRIT permet d’estimer les pôles zk . On suppose pour cela que le signal
est défini pour t ∈ J0; N − 1K, en choisissant une longueur de trame N impaire, avec
n = N 2+1 . On définit alors la matrice de données
 
x(1) . . . x(n − 1)
x(0)
 . .. 
 x(1)
 x(2) . . . 

X, .. .  (2.8)
 . . . . . 
. . . .
x(n − 1) . . . . . . x(N − 1)
 
La matrice de covariance C , n1 E XX † , où X † désigne le conjugué hermitien de X,
a K valeurs propres supérieures à σb2 et N − K valeurs propres égales σb2 . On estime C par
la matrice d’autocorrélation empirique Ĉ = n1 X̂ X̂ H , où X̂ est la réalisation de X que l’on
observe. Les K vecteurs propres associés aux K plus grandes valeurs propres sont calculés
puis regroupés dans une matrice W , de dimensions n × K. On en extrait les matrices W↑
et W↓ en ne gardant respectivement que les (n − 1) dernières et les (n − 1) premières lignes.
On prouve que W↑ et W↓ satisfont la propriété dite d’invariance rotationnelle W↑ = W↓ Φ,
où Φ est une matrice K × K dont les valeurs propres sont égales aux pôles {z1 , . . . , zK }.
La matrice Φ est estimée par moindres carrés : Φ = W↓+ W↑ , où W↓+ est la pseudo-inverse
de W↓ . Les pôles sont ensuite estimés en diagonalisant Φ.
L’intérêt de cet algorithme est qu’il n’est pas limité par le compromis temps-fréquence
que l’on rencontre avec la transformée de Fourier discrète. On peut donc en particulier
estimer des fréquences très proches l’une de l’autre. Une fois les pôles obtenus, l’estimation
des amplitudes complexes s’effectue par moindres carrés :
 +
  1 ... 1  
α̂1   x(0)
 ..   ẑ11 ... ẑK1
  .. 
 . = .. .. ..   .  (2.9)
 . . . 
α̂K x(N − 1)
ẑ1N −1 . . . ẑK
N −1

où α̂k et ẑk sont les estimées de αk et zk pour k ∈ J1; KK.


Cette méthode d’estimation des paramètres est performante à condition de prendre
quelques précautions. Il faut tout d’abord s’assurer que l’hypothèse de bruit blanc est vé-
rifiée avant d’appliquer ESPRIT. Le bruit large bande des signaux audio étant en pratique
souvent coloré, une étape de blanchiment du bruit est souvent nécessaire comme prétraite-
ment. Pour ce faire, nous estimerons approximativement le spectre du bruit en appliquant
un filtre médian sur le périodogramme du signal afin d’éliminer les pics des composantes
sinusoïdales, puis en estimant les paramètres d’un filtre autorégressif (AR) qui modélise ce
niveau de bruit. L’inverse de ce filtre est ensuite appliqué sur le signal, comme l’illustre la
figure 2.2, pour obtenir un niveau de bruit plat, c’est-à-dire blanc [Badeau, 2005].
L’algorithme ESPRIT a également besoin de connaître le nombre de pôles à estimer.
La méthode ESTER [Badeau et al., 2006] fournit un critère J(p) permettant d’estimer ce
nombre par
53

0 60
Périodogramme
Filtrage médian 40
−50 Modèle AR de bruit
20

dB
dB

−100 0

−20
−150
−40

−200 −60
0 2000 4000 6000 8000 10000 0 2000 4000 6000 8000 10000
f (Hz) f (Hz)

(a) Spectre du signal avant blanchiment et estima- (b) Spectre du signal après blanchiment.
tion du niveau de bruit.

Figure 2.2 – Blanchiment du bruit (Sol 2 (196 Hz) de piano analysé sur 93 ms, niveau de
bruit estimé avec un filtrage médian de longueur 500 Hz environ et un filtre AR d’ordre
20).

arg max (J(p) > δJ ) (2.10)


p∈P

P étant l’ensemble des nombres de pôles possibles et δJ un seuil arbitrairement ajusté à


δJ = 10 dans notre cas. Cette méthode a tendance à fournir un résultat juste ou légèrement
sur-estimé. Dans ce dernier cas, Badeau et al. [2006] ont montré que cela ne perturbait pas
l’analyse par ESPRIT et que les pôles parasites se voyaient attribuer de faibles amplitudes.
L’utilisation d’un banc de filtres en prétraitement fournit par ailleurs un mécanisme
pour diminuer le coût global de l’estimation. Pour cela, le signal est réparti dans D =
32 sous-bandes de largeur 500 Hz à l’aide de filtres en cosinus modulés [Vaidyanathan,
 1993].
L’ordre de grandeur du coût cubique lié à ESPRIT passe alors de O N 3 à O N 3 /D 2

(O N 3 /D3 pour chaque bande).
En résumé, l’estimation des paramètres suit les étapes suivantes :
– filtrage en sous-bandes ;
– blanchiment du signal dans chaque sous-bande ;
– estimation du nombre de pôles dans chaque sous-bande ;
– estimation des pôles par ESPRIT dans chaque sous-bande ;
– estimation des amplitudes dans chaque sous-bande ;
– correction des effets des filtres de prétraitement sur les amplitudes (les pôles ne sont
pas modifiés par les prétraitements).
Nous aurons l’occasion d’utiliser l’algorithme ESPRIT et les traitements qui l’accom-
pagnent dans la méthode d’estimation de fréquences fondamentales du chapitre 3, où nous
verrons comment tirer parti de cette estimation paramétrique.

2.2 Inharmonicité des sons de piano


Après avoir décrit quelques modèles sinusoïdaux, intéressons-nous maintenant à la lo-
calisation des composantes sinusoïdales, c’est-à-dire à la distribution des fréquences des
partiels des sons. Nous allons étudier dans cette partie la distribution particulière qui ca-
ractérise les sons de piano (et également d’autres instruments à cordes oscillant librement
tels que la guitare ou le clavecin).
54 2. Paramétrisation spectrale des sons de piano

2.2.1 Fréquences des partiels d’une note


Comme nous l’avons vu dans le chapitre 1 (équation (1.12) (p. 41)), la résolution de
l’équation du mouvement pour une corde avec raideur donne l’expression de la fréquence
fh du partiel d’ordre h d’une note de piano :
p
fh = hf0 1 + h2 β (2.11)

où β est le coefficient d’inharmonicité et f0 la fréquence fondamentale d’une corde sans


raideur (i.e. β = 0). Le coefficient β dépend en particulier de la note considérée et la
fréquence fh s’éloigne d’autant plus de l’harmonique exact hf0 que h est élevé.
Dans la littérature, deux expressions légèrement différentes sont utilisées pour exprimer
la fréquence fh du partiel d’ordre h d’une note de piano : certains (Galembo et Askenfelt
[1999]; Ortiz-Berenguer et Casajús-Quirós [2002]) utilisent l’expression (2.11) alors que
d’autres (Klapuri [1999b,a]; Bello et al. [2006]) optent pour
p
fh = hf1 1 + (h2 − 1)β (2.12)

où f1 est la fréquence du premier partiel de la corde avec raideur. Il convient d’éclaircir ce


point, les deux expressions n’étant pas strictement équivalentes et les raisons du choix de
l’une ou l’autre n’étant en général pas explicitées. Il est vraisemblable que cette ambiguïté
provienne de la référence souvent citée [Fletcher et Rossing, 1998], dans laquelle l’expres-
sion (2.11) est établie p. 62 alors que l’expression (2.12) est mentionnée p. 363. En réalité,
cette dernière est obtenue à partir de la première en considérant une approximation sur
β≪1:
p
fh = hf0 1 + h2 β (2.13)
s
1 + h2 β
= hf1 (2.14)
1+β
p
≈ hf1 (1 + h2 β) (1 − β) (2.15)
p
2
≈ hf1 (1 + (h − 1) β) (2.16)

L’expression (2.12) est donc bien une approximation de (2.11), présentant l’avantage de
s’exprimer en fonction de la fréquence du premier partiel, observée sur le spectre, plutôt que
de la fréquence fondamentale, légèrement différente et non observée. Pour plus d’exactitude,
cet avantage étant en outre minime, nous ne considérerons que l’expression (2.11) dans la
suite de ce document. Ce choix n’est pas déterminant : par exemple, pour f0 = 196 Hz
(sol 2) et β = 2.10−4 , la différence de fréquence est de l’ordre de 0, 6 Hz pour les partiels
autour de 7000 Hz.
Par ailleurs, en inversant l’équation (2.11), nous établissons l’expression du nombre
maximal H de partiels dont les fréquences sont comprises entre 0 et la fréquence de Nyquist
fs
2 :
 
 
f v u 2 
 s u 
H= t q  (2.17)
2f0 fs2
1 + β f2 + 1
0

où ⌊.⌋ désigne la fonction partie entière.


55

2.2.2 Estimation du coefficient d’inharmonicité

Nous nous intéressons maintenant à l’estimation du coefficient d’inharmonicité d’une


note présente dans une trame de signal x. Nous supposons que la note est donnée, c’est-
à-dire que sa fréquence fondamentale est approximativement connue, avec une précision
d’un quart de ton, et nous cherchons à estimer précisément la valeur de la fréquence
fondamentale et du coefficient d’inharmonicité, en utilisant la loi d’inharmonicité (2.11).
Nous verrons que cette estimation n’est pas triviale [Galembo et Askenfelt, 1994, 1999;
Rauhala et al., 2007] et proposerons deux méthodes d’estimation : la première consiste à
extraire les fréquences présentes puis à réaliser l’estimation en utilisant directement la loi
d’inharmonicité alors que la seconde est une optimisation, par rapport aux deux paramètres
à estimer, d’une fonction de type produit spectral inharmonique.
Auparavant, nous introduisons une courbe d’inharmonicité moyenne f0 7→ β̃ (f0 ), repré-
sentée sur la figure 2.3(a). Elle provient de l’interpolation d’une courbe extraite de [Fletcher
et Rossing, 1998, p. 365], représentant un ordre de grandeur de l’inharmonicité en fonction
des notes du piano. À part dans l’extrême grave, l’inharmonicité augmente avec la fréquence
fondamentale. L’augmentation a une allure linéaire si l’on considère le logarithme des deux
quantités, comme le montre la figure 2.3(a), en raison de la relation entre la longueur et le
diamètre des cordes et la fréquence fondamentale [Young, 1952]. L’inharmonicité des notes
les plus graves ne suit pas cette évolution en raison de différences dans la facture de leurs
cordes (longueur, filage, tension).
La figure 2.3(b) montre un exemple de spectre de note de piano pour lequel nous
avons fait coïncider un peigne inharmonique en utilisant les valeurs de la courbe moyenne
β̃ (f0 ). L’optimisation a été faite en prenant le maximum du produit spectral inharmonique
 q  2
QH

f0 7→ h=1 X hf0 1 + β̃ (f0 ) h , où X(f ) est le spectre à la fréquence f et H est
2

le nombre
Q de partiels. Un peigne harmonique optimal, obtenu en maximisant la fonction
2
f0 7→ H h=1 |X(hf0 )| a également été représenté. Le peigne inharmonique optimal parvient
à sélectionner correctement les 17 premiers partiels sur un total de 37 partiels. À partir
du 18e ou 19e (env. 3600 Hz), ses branches ne s’apparient plus aux lobes principaux. En
comparaison, et alors que l’inharmonicité est relativement faible (environ 2.10−4 ), le peigne
harmonique optimal ne parvient pas à se superposer aux partiels au-delà du 12e (2500 Hz),
malgré une compensation sur la fréquence fondamentale (197, 9 Hz, soit 3 Hz de plus
qu’avec le peigne inharmonique).
Cet exemple montre que même si l’introduction d’une inharmonicité moyenne améliore
l’adéquation entre modèle de spectre et données, le gain est limité en raison des écarts,
dus à des différences de facture, entre les valeurs moyennes β̃ (f0 ) et l’inharmonicité réelle.
Il convient alors de mesurer les coefficients d’inharmonicité au cas par cas et de quantifier
ces erreurs.

Méthode 1 : régression sur la loi d’inharmonicité


La solution la plus directe consiste à évaluer conjointement f0 et β dans la relation (2.11)
à partir de la donnée des fréquences présentes et de l’ordre associé des partiels. Plus précisé-
ment, en supposant que l’on a extrait les fréquences {fj }j∈J1;jmax K des sinusoïdes présentes,
considérées
q comme des partiels, et qu’on leur a associé un ordre de partiel hj , la relation
fj = hj f0 1 + βh2j (équation (2.11)) se réécrit, après élévation au carré,
56 2. Paramétrisation spectrale des sons de piano

−1.5

−2

´
log β̃(f0 )
³ −2.5

−3

−3.5

−4
20 40 60 80 100 120
f0 (échelle MIDI)

(a) Courbe d’inharmonicité moyenne de référence β̃ (f0 ) en fonc-


tion de la fréquence fondamentale.

200 Spectre
Peigne harmonique: fb0 = 198Hz
150
Peigne inharmonique: fb0 = 195Hz, β̃(fb0 ) = 2.4e − 004
100
X(f) (dB)

50

−50

−100

−150
0 1000 2000 3000 4000 5000 6000 7000 8000
f (Hz)

(b) Estimation d’un peigne harmonique et d’un peigne inharmo-


nique d’inharmonicité β̃ (f0 ) sur une note de piano (sol 2) analysée
sur 93 ms.

Figure 2.3 – Inharmonicité moyenne.

∀j ∈ J1; jmax K, yj = axj + b (2.18)

avec
fj2
xj , h2j , yj , , a , f02 β, b , f02 (2.19)
h2j
En d’autres termes, il existe une relation linéaire entre les données yj et xj . La pente b
a
et l’ordonnée à l’origine bb obtenues par régression linéaire conduisent alors à une estimation
p
fb0 = bb et βb = ab .
b
b
Cependant, nous avons supposé qu’à chaque fréquence fj était associé un ordre de
partiel hj connu. Le calcul de hj pose en pratique une difficulté : d’après (2.11), son
expression étant
 
f v u 2 
 j 
hj ,  u ur  (2.20)
 f0 t fj2 
1 + 4β f 2 + 1
0
57

où [.] désigne l’arrondi à l’entier le plus proche, il présuppose la connaissance de (f0 , β). Des
valeurs approximatives de (f0 , β) induisent des erreurs pour les ordres hj élevés, comme
illustré sur la figure
 2.4(a),
  où l’on voit le placement initial des points (xj , yj ) en choi-

sissant le couple fb0 , β̃ fb0 = 195, 2, 4.10−4 obtenu précédemment avec une courbe
d’inharmonicité moyenne, et la droite associée. Les points sont alignés jusqu’au 25e partiel
(h2j = 625), avant que l’estimation de l’ordre des partiels soit erronée : globalement, la ré-
gression linéaire mène alors à un résultat faussé. Afin d’éviter ce phénomène, une solution
consisterait à choisir plusieurs valeurs a priori de (f0 , β) et à effectuer plusieurs régres-
sions à partir de cette grille pour ne garder que l’optimale (au sens de l’erreur quadratique
moyenne par exemple). Nous proposons une autre solution moins coûteuse qui s’appuie
sur le fait que plus la connaissance des paramètres f0 et β est précise, plus le premier
ordre erroné intervient pour un ordre élevé. Il suffit de ne considérer d’abord que les pre-
mières fréquences, dont le calcul des ordres est fiable, pour estimer des valeurs plausibles
de (f0 , β), puis d’itérer le processus en incluant davantage de fréquences et en recalculant
les ordres. C’est ce qui est réalisé par l’algorithme 2.1, illustré sur la figure 2.4(a) où l’on
constate un alignement des points et une régression corrects.

4
x 10
6 Points initiaux
Loi initiale
Points estimés
Points sélectionnés
Loi estimée
5.5 Changement d’ordre des points
200 Spectre
Maxima détectés
5 150 Peigne inharmonique: fb0 = 196Hz, βb = 1.6e − 004
fj2 /h2j

100
X(f) (dB)

50
4.5
0

−50
4
−100

−150
0 500 1000 1500 0 1000 2000 3000 4000 5000 6000 7000 8000
h2j f (Hz)
 
fj2
(a) Régression linéaire dans le plan h2j , h2
. (b) Représentation du peigne inharmonique.
j

Figure 2.4 – Optimisation de la loi d’inharmonicité par rapport à f0 et β (même signal


que sur la figure 2.3(b)). Dans la version électronique de ce document, il est possible de
cliquer sur la figure 2.4(a) pour visualiser le déroulement de l’algorithme.

Le peigne résultant (figure 2.4(b)) s’ajuste parfaitement sur le spectre et la totalité des
37 partiels a été correctement identifiée. L’optimisation a pu se faire malgré la présence de
quelques pics spectraux parasites qui apparaissent sur les figures 2.4(a) et 2.4(b).

Méthode 2 : optimisation d’une fonction de détection


La première méthode d’estimation de l’inharmonicité se révèle efficace mais nécessite
une extraction fiable des fréquences et souffre d’une complexité un peu élevée en raison du
nombre de régressions à effectuer
 (environ H régressions avec un coût cubique, soit une
complexité totale en O H 4 ). Nous proposons donc une seconde approche pour l’estima-
tion conjointe de β et de f0 , en laissant de côté l’aspect paramétrique lié à l’estimation des
fréquences présentes dans le signal. Elle consiste à maximiser le produit spectral inharmo-
58 2. Paramétrisation spectrale des sons de piano

Entrées: Fréquences des partiels potentiels {fj }j=1,...,jmax , valeurs initiales de fréquence
fondamentale f0i et d’inharmonicité β i , nombre minimal de partiels Hmin pour réaliser
une régression
{Initialisation}
f0 ← f0i
β ← βi
H ← Hmin
Pour j ∈ J1; jmax K
hj ← h (fj , f0 , β) {via équation (2.20)}
Fin Pour
{Itérations}
Tant que H ≤ # {hj }j=1,...,jmax
{Sélection
n des fréquences} o
J ← j0 ∈ J1; jmax K / # {hj / hj ≤ hj0 }j=1,...,jmax ≤ H {Sélection des H premiers
ordresdistincts présents} 

 q 

J ← j0 ∈ J / j0 = arg min fj − hj f0 1 + βh2j {En cas d’occurrences multiples

 j∈J 

hj =hj0
d’un ordre, sélection de la fréquence la plus proche de la fréquence théorique}
{Estimation des paramètres}
Pour j ∈ J
fj2
xj ← n2j , yj ← n2j
Fin Pour
  +
a
← [xj , 1]j∈J [yj ]j∈J
b

f0 ← b, β ← ab
Pour j ∈ J1; jmax K {Mise à jour des ordres}
hj ← h (fj , f0 , β) {via équation (2.20)}
Fin Pour
H ←H +1
Fin Tant que
Sorties: f0 , β
Algorithme 2.1: Régression sur la loi d’inharmonicité
59

nique (ou toute autre fonction équivalente) défini par


H 
Y p  2

ΠX : (f0 , β) 7→ X hf0 1 + β (f0 ) h2 (2.21)
h=1

Cette fonction est particulièrement bien appropriée ici car elle présente des maxima très
marqués. Les techniques d’optimisation numérique classiques 1 peuvent être appliquées en
raison de la régularité de cette fonction, localement, sur les domaines de variations de f0 et
β. Cette régularité est due aux lobes principaux de X autour de chaque partiel, et dont la
multiplication dans (2.21) crée un maximum local au niveau de la fréquence fondamentale
et de l’inharmonicité optimales. La figure 2.5 montre l’allure de ce produit spectral en deux
dimensions autour de son maximum. Alors que la fonction est un peu plus régulière dans le
cas d’un signal synthétique composé uniquement de sinusoïdes aux fréquences théoriques
des partiels (figure 2.5(a)) que dans le cas d’un son réel contenant des sinusoïdes parasites
et du bruit (figure 2.5(b)), l’estimation donne des résultats satisfaisants dans les deux cas.
ΠX (f0 , β) (dB) ΠX (f0 , β) (dB)

−7.5 Estimation −7.5 Estimation 500


500
−8 −8 0
ln (β)

ln (β)

−8.5 0 −8.5
−500
−9 −500 −9
−1000
192 194 196 198 200 192 194 196 198 200
f0 f0

250 Spectre 200 Spectre


200 150
Estimation: fb0 = 196Hz, βb = 1.6e − 004 Estimation: fb0 = 196Hz, βb = 1.6e − 004
150 100
X(f) (dB)

X(f) (dB)

100 50
50 0
0 −50
−50 −100
−100 −150
0 1000 2000 3000 4000 5000 6000 7000 8000 0 1000 2000 3000 4000 5000 6000 7000 8000
f (Hz) f (Hz)

(a) Signal synthétique (b) Son réel

Figure 2.5 – Optimisation du produit spectral par rapport à f0 et β sur un signal synthé-
tique (à gauche) et sur un son réel (à droite, même signal que sur la figure 2.3(b)). Dans
chaque cas, le produit spectral est calculé et maximisé localement (en haut) pour aligner
le peigne avec le spectre (en bas).

À la différence de la première méthode, cette approche n’utilise pas la loi d’inharmo-


nicité comme un critère à optimiser explicitement mais l’intègre dans la fonction ΠX . Le
calcul de ΠX étant peu coûteux, l’estimation se fait ici à moindre coût. Par ailleurs, notons
que l’emploi du produit spectral semble être particulièrement approprié pour l’estimation
de β : il a déjà été utilisé à cet effet par Galembo et Askenfelt [1994], qui calculent un
produit spectral harmonique et étudient l’élargissement de ses pics en fonction de l’inhar-
monicité.

2.2.3 Impact de la prise en compte de l’inharmonicité


Nous souhaitons mesurer l’apport de la prise en compte de l’inharmonicité lors de la
modélisation du spectre d’une note de piano, dans la perspective de toute application im-
pliquant une indexation de sons pseudo-harmoniques (la transcription mais également le
1. Nous utilisons ici la fonction fminsearch sous Matlab.
60 2. Paramétrisation spectrale des sons de piano

codage par exemple). Pour ce faire, nous appliquons les méthodes d’estimation précédem-
ment étudiées sur des enregistrements de notes isolées de piano, sur toute la tessiture.
Chacune permet d’estimer un peigne correspondant aux partiels présents, et nous cher-
chons à quantifier l’adéquation du peigne avec le signal, c’est-à-dire la validité du modèle
et la performance de la méthode d’estimation utilisée. Les résultats sont établis pour les
modèles et méthodes suivants :
– estimation d’un peigne harmonique (inharmonicité nulle) ;
– estimation d’un peigne d’inharmonicité moyenne β̃ (f0 ) ;
– estimation d’un peigne inharmonique par régression sur la loi d’inharmonicité (mé-
thode 1) ;
– estimation d’un peigne inharmonique par optimisation du produit spectral en deux
dimensions (méthode 2).
Une fois les paramètres de fréquence fondamentale et d’inharmonicité estimés par une
méthode donnée, les fréquences des partiels sont obtenues par l’équation (2.11) (p. 54) puis
utilisées pour calculer les amplitudes associées par moindres carrés sur le signal original. Le
résiduel est alors déduit en soustrayant le signal estimé au signal original. Le signal estimé
contient donc les partiels qui ont été correctement identifiés, alors que le résiduel contient
à la fois les partiels mal estimés et le reste du signal (bruit ambiant, bruits impulsionnels,
modes longitudinaux). Un rapport signal à bruit (RSB), ratio entre l’énergie du signal
estimé et du bruit résiduel, est ensuite calculé pour déterminer l’efficacité de la méthode.
La figure 2.6 représente les résultats obtenus. Ils proviennent de l’analyse de sons de
7 pianos (extraits de la base présentée dans la partie 6.2 (p. 138)), avec trois nuances
différentes, soit 21 sons par note, et 1848 sons au total. Chaque analyse est réalisée sur une
trame de 93 ms, échantillonnée à 16 kHz et prise 50 ms après l’attaque. L’optimisation du
produit spectral a été effectuée sur une grille 25 × 25 pour des valeurs logarithmiquement
réparties de la fréquence fondamentale sur un demi-ton et du coefficient d’inharmonicité
sur un intervalle allant d’un tiers à trois fois l’inharmonicité moyenne β̃ (f0 ) de la note.
Un algorithme d’optimisation numérique (fonction fminsearch sous Matlab) est ensuite
appliqué pour affiner la valeur maximale obtenue sur la grille.

6 4

4 3
RSB (dB)
RSB (dB)

2 2

0 1
Modélisation harmonique
Inharmonicité moyenne βe (f0 )
−2 0
Méthode 1: régression
Méthode 2: max. produit spectral
−4 −1
30 40 50 60 70 80 90 100 30 40 50 60 70 80 90 100
f0 (MIDI) f0 (MIDI)

(a) Résultats par note. (b) Résultats moyennés sur une octave glissante.

Figure 2.6 – Rapport signal à bruit obtenu pour la séparation du contenu pseudo-
harmonique et du bruit résiduel de notes de piano avec plusieurs méthodes d’estimation
de la fréquence fondamentale et de l’inharmonicité. Pour plus de clarté, les résultats lissés
sur une octave sont également représentés.

Alors qu’il n’était pas évident d’évaluer a priori le gain d’une prise en compte de
l’inharmonicité dans nos modèles, nous voyons maintenant que l’amélioration du RSB en
utilisant les méthodes 1 et 2 est significative. Dans le milieu du registre, ces méthodes
61

permettent de bien identifier l’ensemble des partiels, contrairement à celles utilisant un


spectre purement harmonique ou une inharmonicité moyenne qui, comme dans l’exemple
vu plus haut, laissent échapper les partiels au-delà d’un certain ordre. Il est intéressant de
noter que ces méthodes sont efficaces dans le registre grave du piano, alors que la taille de la
trame utilisée pourrait provoquer des problèmes de résolution temps-fréquence. Dans l’aigu
du registre, les méthodes restent efficaces jusqu’à la dernière octave où le faible nombre
de partiels met toutes les méthodes à égalité. L’emploi d’une inharmonicité moyenne n’a
qu’une efficacité limitée à une partie du registre, entre les notes 60 et 90, où l’on voit une
amélioration par rapport au cas harmonique, amélioration qui reste cependant en dessous
des performances des méthodes 1 et 2.

2.3 Modélisation des enveloppes spectrales de sons de piano


La modélisation sinusoïdale que nous avons abordée dans la première partie de ce
chapitre considère les composantes comme des entités individuelles sans rapport entre
elles. Dans le cas d’une note, nous avons vu dans la deuxième partie qu’elles pouvaient être
liées par la distribution de leurs fréquences. La question de l’enveloppe spectrale introduit
un autre rapport entre les composantes, celui qu’entretiennent leurs amplitudes.
Nous abordons cette question dans la perspective de l’estimation de fréquences fonda-
mentales multiples que nous verrons au chapitre 4. En effet, comme nous l’avons vu dans le
chapitre 1, si la seule information sur la (quasi-)harmonicité des composantes suffit à poser
le problème de l’estimation de fréquences fondamentales simples, le problème est mal posé
dans le cas de fréquences fondamentales multiples en raison de l’indétermination d’octave.
L’information d’enveloppe spectrale permet alors de mieux l’aborder.
Nous présenterons dans un premier temps (partie 2.3.1) le modèle du processus har-
monique, ou comment considérer les amplitudes comme des variables aléatoires dont les
paramètres statistiques peuvent porter l’information sur les enveloppes spectrales. Dans un
second temps (partie 2.3.2), nous proposerons un modèle autorégressif d’enveloppe spec-
trale, expliciterons la méthode d’estimation associée et l’appliquerons aux sons de piano.

2.3.1 Le processus harmonique

Contrairement à ce que son nom peut faire croire, le processus harmonique ne désigne
pas forcément une entité périodique, présentant une distribution harmonique de fréquences.
Pour éviter toute confusion, il est utile de préciser que dans cette appellation consacrée,
le terme harmonique fait référence aux sinusoïdes qui composent le signal, sans hypothèse
sur leurs fréquences.

Définition et propriétés
Le processus harmonique désigne un modèle dans lequel le processus observé s(n) est
une somme de H sinusoïdes, dont les amplitudes complexes sont des variables aléatoires :

H
X
s(n) = αh e2iπfh n (2.22)
h=1
62 2. Paramétrisation spectrale des sons de piano

où les amplitudes complexes 2 αh sont des variables aléatoires décorrélées, centrées et de


variance σh2 . La version réelle du processus consiste à considérer le signal 2Re (s(n)).
s(n) est centré, stationnaire au sens large de covariance
γs (k) , E [s (n) s∗ (n + k)] (2.23)
H
X
= σh2 e−2iπfh k (2.24)
h=1

En particulier, dans le cas où les fréquences des composantes sont les multiples d’une
même fréquence fondamentale f0 (par exemple si fh = hf0 ), les maxima de la partie
réelle de la covariance sont situés aux multiples de la période fondamentale f10 . On peut
ainsi déduire les estimateurs de fréquence fondamentale à base d’autocorrélation tels que
YIN [de Cheveigné et Kawahara, 2002].
Par ailleurs, soulignons que γs (k) n’étant pas sommable, le processus n’a pas de densité
spectrale de puissance.

Périodogramme, estimation des variances des amplitudes


Soit S(f ) la transformée de Fourier discrète de N échantillons successifs s(0), . . . , s(N −1)
pondérés par une fenêtre w(n) :
N
X −1
S(f ) = s(n)w(n)e−2iπf n (2.25)
n=0
XH
= αh W (f − fh ) (2.26)
h=1
2
Le périodogramme |S(f )| a alors comme propriété
h i X
H
2
E |S(f )| = σh2 |W (f − fh )|2 (2.27)
h=1

Ainsi, pour h ∈ J1; HK, si pour tout h′ ∈ J1; HK les fréquences fh est fh′ sont suffi-
samment espacées (ou de manière équivalente si N est assez élevé) pour que l’on puisse

h ) 2
négliger W (fh − fh′ ) devant W (0), alors S(f 2
W (0) est un estimateur sans biais de σh .

Prédictibilité, loi du processus harmonique et de sa transformée de Fourier


discrète
Plaçons-nous dans le cas, généralement utilisé, où le nombre N d’échantillons observés
est strictement supérieur au nombre 2H de variables aléatoires réelles définissant le pro-
cessus (deux variables aléatoires réelles par amplitude complexe). Nous avons, sous forme
matricielle,


s , (s(0), . . . , s(N − 1))t
s = Eα avec [E]n,h , e2iπfh n (2.28)

 t
α , (α1 , . . . , αH )
2. Une autre définition équivalente consiste à prendre des amplitudes réelles, étant toujours décorrélées,
centrées et de variance σh2 , et des phases initiales ϕh i.i.d. selon une loi uniforme sur [0; 2π[, indépendantes
des amplitudes.
63

et
( t
S , S(0), . . . , S NN−1
S = W α avec (2.29)
[W ]f,h , W (f − fh )
 2 
σ1 0 0
 
α étant un vecteur gaussien de loi N (0, Σ) avec Σ ,  0 . . . 0 , s et S sont des
0 0 σH 2

vecteurs gaussiens centrés de covariances respectives EΣE et W ΣW † . Leur rang étant


borné par rg (Σ) = H < N , leur déterminant est nul. Ces deux vecteurs n’ont donc pas de
densité de probabilité.

Exemple de réalisation d’un processus harmonique


Un exemple de réalisation est représenté sur la figure 2.7. Nous avons généré une réa-
lisation pour deux processus harmoniques en distribuant les fréquences des composantes
selon les multiples d’une fréquence fondamentale f0 . La modélisation d’une enveloppe spec-
trale se fait par le choix sur les variances des amplitudes : la variance peut par exemple
être constante,
 ou suivre une enveloppe autorégressive choisie au préalable, de paramètres
2
σ , A(z) (tel que définis dans l’annexe A.2.1 (p. 165)), afin d’obtenir une enveloppe spec-
trale variable et régulière. Dans ce cas, pour chaque composante h, l’amplitude est alors
σ2
tirée selon une loi normale centrée, de variance fixée à σh2 , 2 . Cet exemple
|A(e2iπfh )|
illustre la raison pour laquelle nous utiliserons le processus harmonique : il permet d’in-
troduire une connaissance sur l’enveloppe spectrale tout en laissant un degré de liberté
quant aux réalisations de ce modèle. Les amplitudes obtenues forment ainsi une enveloppe
spectrale dont l’allure suit le modèle d’enveloppe avec quelques écarts. La conjonction de
cette contrainte et de ce degré de liberté nous sera utile dans le cadre de l’estimation de
fréquences fondamentales multiples (chapitre 4), pour les cas de recouvrement entre les
spectres de note.

2.3.2 Modèle autorégressif d’enveloppe spectrale


Dans la partie 1.5.1 (p. 39), nous avons vu l’état de l’art sur la modélisation physique
de l’enveloppe spectrale pour le piano : d’une part, l’excitation d’un partiel dépend de plu-
sieurs régimes de fonctionnement en fonction de son ordre et de la fréquence fondamentale ;
d’autre part, l’évolution temporelle de son amplitude fait intervenir simultanément deux
phénomènes principaux, conséquences du couplage entre les modes : les battements et la
double décroissance. Pour ces deux raisons, il n’est pas envisageable de modéliser l’enve-
loppe spectrale de façon simple, par exemple par un filtre à moyenne ajustée (MA) comme
le suggère, en première approximation, l’allure de l’amplitude des partiels au niveau du
chevalet à l’instant de la frappe (équation (1.18) (p. 42)). L’utilisation d’un modèle phy-
sique général (et donc plus complexe) de l’amplitude d’un partiel en fonction de son ordre,
de sa fréquence fondamentale et du temps, pose alors plusieurs difficultés dans le cadre de
l’analyse et de l’indexation de morceaux de piano :
– les modèles physiques impliqués sont régis par un nombre important de paramètres
physiques variables, en fonction de l’instrument ou des conditions d’enregistrement
par exemple, et dont l’estimation n’est pas triviale ;
– la polyphonie introduit une dimension supplémentaire qui rend le problème haute-
ment plus complexe ;
64 2. Paramétrisation spectrale des sons de piano

f0=0.02, N=2048 f0=0.02, N=2048


0 0

−50 −50
dB

dB
−100 −100

σ2
σ2 |A(e2iπf )|2
|αh |2 |αh |2
−150 −150
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
f (fréquence réduite) f (fréquence réduite)

(a) (b)

Figure 2.7 – Périodogrammes de réalisations de deux processus harmoniques observés sur


N échantillons. L’information sur l’enveloppe spectrale est introduite via les variances des
amplitudes. À gauche, les amplitudes du processus sont i.i.d. normales centrées de variance
σ 2 , le modèle d’enveloppe spectrale est une constante. À droite, pour obtenir une enveloppe
spectrale variable avec un aspect régulier, des pôles d’un filtre autorégressif A(z) ont été
choisis aléatoirement dans le disque de rayon 1/2, et l’enveloppe autorégressive paramétrée
par σ 2 et A(z) a été utilisée pour définir les variances des composantes : pour h ∈ J1; HK, on
σ2

a σh2 = 2
2 . Les amplitudes αh sont des réalisations de lois gaussiennes N 0, σh .
|A(e h )|
2iπf

– des données peuvent être amenées à manquer. Par exemple, un morceau ne présente
a priori pas l’ensemble des notes du piano de manière exhaustive.
Une telle modélisation ne garantit donc pas que l’on puisse déterminer la solution du
problème inverse ainsi posé. Aussi, il semble plus réaliste d’utiliser un modèle plus simple.
Plusieurs solutions sont envisageables. Apprendre un dictionnaire d’enveloppes spectrales
ou temporelles de partiels est une méthode qui présente l’inconvénient d’être insensible,
et donc peu robuste, à la variabilité que nous venons de décrire. Pour la même raison,
nous évitons l’utilisation d’une loi a priori sur les amplitudes comme ceux décrits dans la
partie 1.4.4.
La modélisation d’une enveloppe spectrale par un filtre autorégressif (AR) est largement
répandue dans le cas de la voix [Atal et Hanauer, 1971]. On peut alors interpréter ce filtre
et ses pôles comme un modèle physique du conduit vocal et de ses résonances. Dans le
cas du piano, une modélisation AR ne traduit pas un tel caractère physique. Elle présente
cependant l’intérêt de bien modéliser une enveloppe lisse avec un ordre faible, et d’être
assez générique. Elle définit ainsi un cadre pour modéliser une notion équivalente à la
spectral smoothness [Klapuri, 2003].
La méthode par prédiction linéaire [Makhoul, 1975] permet d’estimer les paramètres
2
σ , a1 , . . . , aP d’un processus AR d’ordre P tel que défini dans l’annexe A.2.1 (p. 165) en
résolvant les équations de Yule-Walker pour minimiser l’erreur de prédiction. En notant R
la matrice de Toeplitz dont l’élément (m, n) est la valeur R (m − n) d’une autocorrélation
t
empirique R et a , σ12 , − σa12 , . . . , − aσP2 , les équations de Yule-Walker s’écrivent

Ra = (1, 0, . . . , 0)t (2.30)


65

Dans cette expression, l’autocorrélation empirique a été substituée à l’autocorrélation


et la résolution de l’équation obtenue donne une bonne estimation des paramètres AR
lorsque l’on observe effectivement un processus AR.
Considérons maintenant un signal x, et son spectre de puissance |X(f )|2 , composé de
H partiels aux fréquences {f1 , . . . , fH }. Leur enveloppe spectrale est modélisée par un
modèle AR d’ordre  P . Comme précédemment, celui-ci est paramétré par les coefficients
σ 2 , a1 , . . . , aP , la réponse fréquentielle du filtre AR étant PP σ −i2πf k . Dans la mesure
1− k=1 ak e
où l’on n’observe de la réalisation de ce processus AR qu’un échantillonnage de son pério-
dogramme aux fréquences des partiels, on peut exprimer une autocorrélation empirique du
signal par

H
1 X
R (k) , 2 |X (fh )|2 cos (2πfh k) (2.31)
H
h=1

L’estimation AR par la méthode précédente souffre alors d’un défaut : dans le domaine
spectral, le spectre observé est un échantillonnage de la réponse fréquentielle du modèle
AR au niveau des fréquences des partiels ; il en résulte un repliement dans le domaine
temporel, affectant en particulier la fonction d’autocorrélation utilisée lors de la résolution.
Ce phénomène a été étudié par El-Jaroudi et Makhoul [1991] qui ont montré comment
intégrer ce repliement pour modifier les équations de Yule-Walker. La relation (2.30) devient
alors

b aa
Ra = R (2.32)

b a étant la matrice de Toeplitz dont l’élément (m, n) est l’autocorrélation R


R ba (m − n)
estimée à partir de la version échantillonnée de la réponse en fréquence du modèle AR et
définie par
H
b 1 X σ2
Ra (k) , 2 PP 2 cos (2πfh k) (2.33)
H −i2πfh k
h=1 1 − a
k=1 k e

La résolution de l’équation (2.32) s’effectue en général via un algorithme itératif repo-


sant sur le fait que la solution a∗ est un point fixe de la fonction b a a. Il
ϕ : a 7→ R−1 R
(n)

consiste alors à construire et à estimer la limite de la suite a définie par

a(0) , (1, 0, . . . , 0) (2.34)


∀n > 0, a(n) , R−1 R b (n−1) a(n−1) (2.35)
a

R étant une matrice de Toeplitz, la résolution


 du système par l’algorithme de Levinson
est rapide. La convergence de la suite a (n) peut être accélérée de plusieurs façons. Dans
une approche à base de gradient, El-Jaroudi et Makhoul [1991] introduisent un  coefficient
α ∈ [0; 1] de mise à jour (typiquement, α = 0, 5) et redéfinissent la suite a (n) par

a(0) , (1, 0, . . . , 0) (2.36)


b (n−1) a(n−1)
∀n > 0, a(n) , (1 − α) a(n−1) + αR−1 R (2.37)
a
66 2. Paramétrisation spectrale des sons de piano

Badeau et David [2008] proposent une convergence encore plus rapide en redéfinissant
la suite a(n) par

a(0) , (1, 0, . . . , 0) (2.38)


 
∀n > 0, a(n) , P R−1 R b (n−1) a(n−1) (2.39)
a

l’opérateur P (a), facultatif si l’on ne cherche pas une solution causale stable, faisant cor-
respondre à tout modèle de paramètre a un modèle causal stable également solution (en
inversant les modules des pôles situés à l’extérieur du cercle unité). Dans l’absolu, cette
technique est plus rapide à condition que le coût lié à l’application de P soit faible, c’est-
à-dire lorsque l’ordre du modèle AR est faible (le coût est a priori cubique en l’ordre du
modèle AR).
La figure 2.8 illustre cette méthode sur deux exemples, pour lesquels le ratio entre le
nombre de composantes sinusoïdales et le nombre de pôles est égal à 8 et à 2 respective-
ment. Dans les deux cas, l’estimation obtenue en prenant en compte le repliement temporel
est meilleure que l’estimation traditionnelle. Lorsque le nombre de partiels diminue, l’esti-
mation se dégrade relativement peu.
La méthode s’applique naturellement à un son de piano en considérant que les ampli-
tudes des partiels coïncident avec un échantillonnage très clairsemé de la densité spectrale
de puissance empirique du processus AR. Le caractère régulier de l’enveloppe spectrale est
alors relativement bien modélisé par un processus AR, comme illustré sur la figure 2.9.
Nous disposons ainsi d’un modèle d’enveloppe spectrale, voisin de celui couramment uti-
lisé pour la parole, qui présente l’avantage de bien modéliser la variabilité des spectres
rencontrés tout en introduisant une contrainte de régularité.

2.4 Modélisation de l’enveloppe du bruit


Nous avons vu au début de ce chapitre (partie 2.1 p. 49) que certains modèles sinusoï-
daux se composent non seulement de sinusoïdes mais également de bruit additif. Il est en
effet utile d’introduire un tel modèle afin de caractériser la partie non sinusoïdale, que l’on
appelle selon le contexte bruit, résiduel, partie stochastique, etc. Elle contient en général le
bruit de fond, le bruit de mesure – enregistrement, échantillonnage et traitements –, mais
également les composantes large bande produites par les sources – un cas emblématique
étant celui de la parole [Richard et d’Alessandro, 1996], dont la composante apériodique
porte une grande quantité d’information. On modélise couramment le tout par un bruit
coloré, c’est-à-dire résultant du filtrage d’un bruit blanc par un filtre donné.
Dans le cadre de l’estimation de fréquences fondamentales et plus généralement de la
modélisation sinus plus bruit, le modèle de bruit doit présenter une qualité de discrimination
vis-à-vis des sinusoïdes. Par exemple, un modèle AR de bruit n’est pas un choix judicieux
car il est capable de bien modéliser une sinusoïde avec un pôle de module proche de 1.
Dans ces conditions, il paraît difficile de garantir que les sinusoïdes seront identifiées en
tant que telles et non comme du bruit. Ainsi, parmi les trois grandes familles de filtres –
AR, MA et ARMA –, seuls les filtres MA sont discriminants à l’égard des sinusoïdes. C’est
la raison pour laquelle nous proposons de modéliser la partie bruit par un processus MA,
dont l’ordre sera suffisamment faible pour ne pas lui permettre de modéliser les sinusoïdes.
Nous définissons donc le bruit xb (t) comme résultant du filtrage d’un bruit blanc gaus-
sien centré de puissance σb2 par un filtre MA unitaire d’ordre Qb dont la transformée en z
67

90 1 90 1
1 120 60 0.5 120 60
150 0.5 30 150 0.5 30
0.5
Signal x(t)

Signal x(t)
0 180 0 0 180 0
−0.5 210 330 210 330
−1 240 300 −0.5 240 300
270 270
0 500 1000 0 500 1000
t (échantillons) Pôles t (échantillons) Pôles
20 20

0 0
Signal Signal
DSP (dB)

DSP (dB)
Modèle Modèle
−20 −20
Estim. préd. lin. Estim. préd. lin.
−40 Estim. Badeau’08 −40 Estim. Badeau’08

−60 −60
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
Fréquence réduite Fréquence réduite

(a) Estimation avec 80 composantes complexes (b) Estimation avec 20 composantes complexes

Figure 2.8 – Exemple d’estimation d’enveloppe spectrale AR sur un signal synthétique :


signal observé sur 1024 points, enveloppe
p spectrale AR d’ordre 10. Les fréquences des
composantes suivent la loi fh = hf0 1 + 0, 01h2 , f0 = 0, 003 (à gauche) et f0 = 0, 03 (à
droite). L’estimation par la méthode de Badeau et David [2008] se confond avec le modèle
original alors que l’estimation par prédiction linéaire s’en écarte.

60
Spectre
50 Enveloppe spectrale
Amplitudes
40

30

20
dB

10

−10

−20

−30

−40
0 2000 4000 6000 8000 10000
f (Hz)

Figure 2.9 – Exemple d’estimation d’enveloppe spectrale AR sur un son de piano : les
fréquences des partiels ont été présélectionnées pour extraire leurs amplitudes (croix) et
estimer le modèle AR.
68 2. Paramétrisation spectrale des sons de piano

est
Qb
X
B (z) , bk z −k (2.40)
k=0

avec b0 = 1.
Nous réalisons l’estimation des paramètres du modèle par la méthode suivante, qui a
le mérite d’être particulièrement rapide. Écrivons l’autocorrélation du processus MA (cf.
équation (A.42) p. 170) sous la forme

rb = B b (2.41)

avec
 t
E [xb (t) xb (t)] E [xb (t) xb (t + Qb )] 
rb ,  h i ,..., h i (2.42)
2
E xb (t) E xb (t)2
 
b0 b1 . . . bQb
 0 b0 . . . bQb −1 
 
B,. . ..  (2.43)
 .. .. ... . 
0 ... 0 b0
b , (b0 , . . . , bQb )t (2.44)

En remplaçant rb par l’autocorrélation empirique rbb calculée à partir des observations,


l’algorithme 2.2 permet d’estimer b de manière itérative : il consiste à inverser dans la
relation (2.41) l’estimation de la matrice B obtenue à l’itération précédente pour trouver
une nouvelle estimation de b.

Entrées: autocorrélation empirique rbb .


bb ← (1, 0, . . . , 0)t {initialisation}
Pour chaque itération n
Pour
h i1 ≤ i h< ij ≤ Qhb +i 1,
b
B ← bb , B b ← 0.
i,j j−i j,i
Fin Pour
Résoudre bb b
h iB b = rbb en b {résolution rapide du système triangulaire}
bb ← bb/ bb
0
Fin Pour
Sorties: estimation bb de b.
Algorithme 2.2: Estimation itérative des paramètres du bruit

La résolution rapide bb b
 de B b = rbb en b par élimination récursive dans
 le système trian-
gulaire (coût en O Qb ) permet d’éviter l’inversion classique (en O Q3b ) de la matrice B
2

et rend chaque itération peu coûteuse. La convergence a été observée pour une vingtaine
d’itérations. L’estimation σc2 de σ 2 est ensuite obtenue en fonction de l’autocovariance
b b
empirique γ̂ (m) prise en 0 :
69

c2 , γ̂ (0)
σ (2.45)
b PQb 2
k=0 bk

Un exemple d’estimation est représenté sur la figure 2.10. Un modèle MA réel d’ordre
20 a été généré de façon aléatoire puis estimé à partir d’une réalisation du processus sur
N = 1024 points.

20

10

0
dB

−10

−20
Modèle
−30 Périodogramme
Estimation
−40
0 0.2 0.4 0.6 0.8 1
Fréquences réduites

Figure 2.10 – Exemple d’estimation MA.

2.5 Conclusion
Au terme de ce chapitre, nous sommes en mesure de caractériser les sons de piano pour
l’estimation de hauteur. Cette caractérisation intervient sur quatre axes : la modélisation
du signal comme une somme de sinusoïdes et de bruit ; l’identification et la localisation
fréquentielle précise des partiels de sons de piano ; la modélisation de l’enveloppe spectrale ;
et enfin la modélisation du bruit. Nous disposons ainsi d’une palette d’outils que nous allons
utiliser dans les deux prochains chapitres pour l’estimation de fréquences fondamentales.
70 2. Paramétrisation spectrale des sons de piano
71

Chapitre 3

Estimation à court terme de hauteur


simple sur un registre étendu

L’estimation de hauteur constitue un sujet de recherche auquel de nombreux travaux


ont été consacrés, mais qui continue à susciter des efforts et à donner lieu à de nouvelles
méthodes. Pour aborder ce vaste problème, nous choisirons ici d’adopter un angle d’attaque
particulier reposant sur le constat que l’efficacité de la plupart des méthodes d’estimation
de hauteur chute lorsque l’on diminue la taille de la fenêtre d’analyse ou que l’on élargit
l’intervalle des fréquences fondamentales possibles. Nous nous intéresserons donc à la ro-
bustesse des méthodes d’estimation de hauteur dans le contexte difficile que constituent
ces deux conditions prises conjointement. Dans ce cadre, nous proposerons une méthode
dont l’efficacité reste satisfaisante pour une fenêtre d’analyse plus courte qu’habituellement
(60 ms contre 93 ms en général pour des signaux de musique) et sur les 71 /4 octaves que
constitue la tessiture du piano. Pour ce faire, nous utiliserons une approche paramétrique
qui tire parti de considérations temporelles et spectrales, ainsi que de la nature inharmo-
nique des sons de piano.
Ces travaux ont fait l’objet d’une publication [Emiya et al., 2007b].

3.1 Introduction
Nous avons vu dans le chapitre 1 (partie 1.2.2 (p. 26)) que les méthodes élémentaires
pour l’estimation de hauteur s’appuient sur des considérations temporelles ou spectrales.
Dans le premier cas, il s’agit d’analyser les périodicités de la forme d’onde – par exemple via
l’ACF [Rabiner, 1977], l’AMDF [Ross et al., 1974] ou le cepstre [Noll, 1967]) – alors que dans
le second, le principe sous-jacent est la détection d’un peigne harmonique [Schroeder, 1968].
Appliquées à des sons réels, ces méthodes s’avèrent limitées par divers facteurs : présence de
bruit, stationnaire ou non, écart par rapport à l’harmonicité supposée, non-stationnarité
des composantes, large tessiture, variabilité des timbres et des enveloppes spectrales, et
bien sûr, présence de plusieurs hauteurs simultanées dans les mélanges polyphoniques. Les
erreurs typiques offrent un bon aperçu des difficultés rencontrées et des défauts de chaque
approche. Les méthodes temporelles ont tendance à commettre des erreurs de sous-octave –
un signal T -périodique étant également 2T -périodique – alors que les approches spectrales
sont sujettes à des erreurs d’octave – l’énergie d’un peigne de fréquence fondamentale f0
donnant lieu à la détection d’un peigne de fréquence fondamentale 2f0 . Par ailleurs, les
deux types d’approches sont sensibles à la taille de la tessiture, aux variations des timbres
72 3. Estimation à court terme de hauteur simple sur un registre étendu

et à l’inharmonicité éventuelle. Enfin, une fenêtre d’analyse courte constitue un facteur


limitant dans le cas spectral pour la discrimination des partiels des notes graves tandis
que l’échantillonnage uniforme des méthodes temporelles les rend inefficaces dans l’aigu
au-delà d’une certaine fréquence fondamentale.
Pour faire face à ces difficultés et proposer des solutions robustes, les travaux sur
l’estimation de hauteur reposent souvent sur la réutilisation des principes de base cités
précédemment couplée à l’introduction de mécanismes spécifiques : un traitement en sous-
bandes, en particulier pour étendre les méthodes temporelles au cas polyphonique ou pour
se rapprocher du fonctionnement de l’oreille [Meddis et Hewitt, 1991a; Klapuri, 2005], l’éla-
boration de fonctions de détection plus robustes [de Cheveigné et Kawahara, 2002; Klapuri,
2003, 2005] ou encore l’utilisation conjointe de méthodes temporelles et spectrales [Peeters,
2006].
L’algorithme que nous introduisons vise à améliorer les résultats d’estimation de fré-
quences fondamentales dans le cas d’une fenêtre d’analyse courte et d’une grande tessi-
ture. Ces difficultés se rencontrent dans le cas des sons du piano étant données sa tessiture
– 88 notes, soit 71 /4 octaves, avec des fréquences fondamentales comprises entre 27 et
4200 Hz – et la vélocité avec laquelle ces notes peuvent être jouées, contraignant la pseudo-
stationnarité des signaux, et donc l’analyse, à des durées restreintes. De plus, nous pouvons
souligner que le piano est de manière générale l’un des instruments donnant lieu au taux
d’erreur les plus élevés pour l’estimation de hauteur (voir par exemple Peeters [2006]).
La hauteur d’un son périodique ou quasi-périodique ne dépend que des composantes
sinusoïdales de ce son. L’estimation de fréquences fondamentales ne requiert donc que
les paramètres de ces composantes : fréquences, amplitudes, et éventuellement facteurs
d’amortissement et phases initiales. Par conséquent, pour autant que nous le sachions, les
méthodes d’estimation n’utilisent pas l’autre partie du son constituée du bruit de fond,
des transitoires et autres composantes non sinusoïdales. C’est pourquoi la première étape
de notre méthode d’estimation consiste à extraire les paramètres des composantes sinu-
soïdales. Nous élaborerons ensuite des versions paramétriques de méthodes temporelles et
spectrales d’estimation de fréquences fondamentales, que nous combinons à la manière des
travaux de Peeters [2006]. L’aspect paramétrique permettra non seulement de s’affranchir
du bruit pour ne garder que l’information relative aux composantes sinusoïdales, mais
également de corriger l’effet de l’inharmonicité des sons.

3.2 Estimation de hauteur


Notre approche s’appuie sur l’estimation des paramètres des composantes sinusoïdales
du son, réalisée à partir de l’algorithme ESPRIT [Roy et al., 1986] présenté dans la par-
tie 2.1 (p. 51). Pour t ∈ J0; Na − 1K, la forme d’onde s(t), analysée sur une trame de
longueur Na , est modélisée par
K
X
s(t) = αk zkt + b(t) (3.1)
k=1

comme une somme de K sinusoïdes complexes exponentiellement modulées αk zkt , k ∈


J1; KK et de bruit additif coloré b(t). Les αk = Ak eiΦk ∈ C∗ sont les amplitudes complexes,
composées d’une amplitude réelle positive Ak et d’une phase initiale Φk . Les zk = edk +i2πfk
sont les pôles, deux-à-deux distincts, les fk étant les fréquences et les dk les facteurs d’amor-
tissement. Ce modèle de signal est adapté aux sons de piano, qui ne présentent pas de mo-
73

dulations de fréquence remarquables et peuvent en revanche être modulés en amplitude.


L’estimation des paramètres {αk } et {zk } se fait par l’algorithme ESPRIT tel que nous
l’avons décrit dans la partie 2.1 (p. 51).
L’estimation de fréquences fondamentales s’appuie sur une méthode temporelle et une
méthode spectrale. Elles sont successivement présentées dans les parties 3.2.1 et 3.2.2. Si
chacune d’elles peut être considérée comme un estimateur de fréquences fondamentales, leur
combinaison permet de tirer parti de leurs avantages respectifs pour obtenir un estimateur
plus efficace, que nous décrirons ensuite (partie 3.2.3).

3.2.1 Méthode temporelle


Comme nous l’avons vu dans la partie 1.2.2 (p. 26) de l’état de l’art, une façon très
répandue d’analyser la périodicité consiste à considérer un signal comme l’observation d’un
processus y réel stationnaire au sens large (SSL) et à estimer sa fonction d’autocorrélation
Ry (τ ) = E [y(t)y(t + τ )]. Lorsque le signal est périodique, les maxima de Ry (τ ) se situent
à τ = 0 et à tous les multiples de la période fondamentale. Considérons donc un processus
SSL y composé de K sinusoïdes non amorties de fréquences νk , d’amplitudes réelles 2ak ,
de phases initiales ϕk supposées indépendantes et uniformément distribuées sur [0; 2π[ et
d’un bruit blanc de variance σb2y . L’expression de la fonction d’autocorrélation de y est
alors

K
X
Ry (τ ) = 2a2k cos (2πνk τ ) + δ(τ )σb2y (3.2)
k=1

Le modèle de son que l’on considère n’est pas stationnaire en raison notamment de
la présence de facteurs d’amortissement (équation (3.1)), qui font varier l’amplitude des
sinusoïdes entre le début et la fin de la trame (dans l’équation (3.1), les amplitudes en
début et en fin de trame étant respectivement |αk | et |αk | edk (Na −1) ). Pour construire une
fonction temporelle d’estimation de hauteur en nous inspirant du cas SSL ci-dessus et en
intégrant les modulations d’amplitude, nous proposons de calculer la puissance de chaque
composante sur une trame (cf. figure 3.1) et de considérer, à puissances égales, l’autocorré-
lation d’un processus SSL équivalent. Nous définissons ainsi une fonction temporelle R(τ )
pour l’estimation de fréquence fondamentale à partir des paramètres estimés par l’analyse
HR :

K
X
R(τ ) , pk cos (2πfk τ ) (3.3)
k=1
(
|αk |2 si |zk | = 1
pk , |αk |2 1−|zk |2Na (3.4)
Na 1−|zk |2 sinon

k)
avec τ > 0, fk = arg(z
2π étant la fréquence normalisée de la composante k, et pk sa
puissance. Pour simplifier cette expression, le dirac en 0 correspondant au bruit a été
supprimé car nous ne considérons que la partie signal.
Pour un son légèrement inharmonique, l’écart fréquentiel par rapport au cas parfai-
tement harmonique a pour conséquence d’atténuer les pics de R(τ ) aux multiples de la
74 3. Estimation à court terme de hauteur simple sur un registre étendu

Amplitude

Sinusoı̈de amortie
Envelope temporelle

pk
0 200 400 600 800 1000
Échantillons

Figure 3.1 – Sinusoïde exponentiellement amortie et puissance pk associée.

période fondamentale. Pour prendre en compte l’inharmonicité des sons de piano (cf. par-
tie 2.2 (p. 53)), nous considérons le phénomène comme le résultat de l’étirement d’un
spectre harmonique, comme illustré sur la figure 3.2, et appliquons l’opération inverse.
Pour ce faire, l’ensemble des fréquences estimées {fk , k ∈ J1; KK} est transformé en un
ensemble de fréquences {gf0 ,k , k ∈ J1; KK}, avec

fk
gf0 ,k , p (3.5)
1 + β (f0 ) h2 (f0 , fk )
où β (f0 ) est le coefficient d’inharmonicité moyenne représenté en fonction de la fréquence
fondamentale sur la figure 2.3(a) (p. 56). L’utilisation d’une valeur moyenne d’inharmoni-
cité est suffisante dans notre cas pour obtenir des résultats satisfaisants, comme nous le
verrons lors de l’évaluation de notre algorithme.
L’estimation de l’ordre du partiel h (f0 , fk ) relatif à la fréquence fk a pour expression
(cf. équation (2.20) p. 56)
v
fk u 2
h (f0 , fk ) = u ur (3.6)
f0 t fk2
1 + 4β (f0 ) f 2 + 1
0

Par cette opération, les fréquences gf0 ,k des partiels sont des multiples de la fréquence
fondamentale f0 . En remplaçant les fréquences fk par leurs corrections g 1 ,k dans l’équa-
τ
1
tion (3.3), nous en déduisons une fonction temporelle Rinh (τ ) qui est maximale pour τ = f0
dans le cas de sons de piano :
K
X  
Rinh (τ ) , pk cos 2πg 1 ,k τ (3.7)
τ
k=1

3.2.2 Méthode spectrale


Nous définissons maintenant de façon paramétrique un spectre d’amplitude à partir de
l’estimation des fréquences fk et des énergies Ek = Na pk des composantes, pour k ∈ J1; KK.
75

2500

2000

1500

f ,k
0
g
1000

500

0
0 1000 2000 3000 4000
fk

Figure 3.2 – Correction de l’inharmonicité : pour chaque fréquence fondamentale, les


fréquences fk sont transformées en gf0 ,k , afin de corriger les effets de l’inharmonicité. La
figure représente un partiel sur cinq, avec f0 = 27, 5 Hz et β = 2, 54.10−4 .

Il est constitué d’une somme de K gaussiennes centrées en fk , d’écart-type constant σ,


pondérées par une amplitude moyenne, racine carrée de l’énergie des composantes

XK √ (f −fk )2
E
S(f ) , √ k e− 2σ2 (3.8)
k=1
2πσ

σ étant en pratique arbitrairement fixé à f0min /4 où f0min est la fréquence fondamentale


la plus basse, afin d’éviter tout recouvrement entre les partiels.
Nous définissons ensuite une méthode spectrale d’estimation de hauteur qui repose
sur la maximisation d’un produit scalaire U (f ) entre le spectre paramétrique S(f ) et des
motifs spectraux harmoniques normalisés pour chaque note candidate :
Hf
X
U (f ) , wf,h S (hf ) (3.9)
h=1

où Hf est le nombre maximal de partiels à la fréquence fondamentale f et


{wf,h , h ∈ J1, Hf K} est le motif harmonique relatif à f . Le choix de ce motif s’appuie sur
une approximation exponentielle de la décroissance de l’enveloppe spectrale des√compo-
santes. Pour ce faire, nous estimons la pente p d’une régression linéaire entre log( Ek ) et
fk et définissons les poids wf,h par

wf,h , w0 ephf (3.10)


P − 1 PHf 2
Hf 2phf 2
où w0 = h=1 e est un terme de normalisation tel que h=1 wf,h = 1.
La fonction U (f ) est ensuite adaptée au cas inharmonique des sons de piano en redéfi-
nissant le produit scalaire sur des valeurs du spectre prises selon une échelle inharmonique
au lieu de l’échelle harmonique précédente. La nouvelle fonction est alors définie par
Hf  p 
X
Uinh (f ) , wf,h S hf 1 + β(f )h2 (3.11)
h=1

Par ailleurs, nous avons remarqué que les résultats étaient améliorés en supprimant
toutes les fréquences en-deçà d’une fréquence de coupure passe-haut fixée à 100 Hz en
raison de l’impédance au niveau du chevalet [Fletcher et Rossing, 1998] qui crée des écarts
significatifs de fréquence avec la loi d’inharmonicité dans le grave, là où les poids wf,h des
motifs spectraux sont précisément les plus importants.
76 3. Estimation à court terme de hauteur simple sur un registre étendu

−3
x 10
3

S(f)
1

0 2 3
10 10
−3
x 10
4
U (f)
inh

0 2 3
10 10
−3
x 10
10
R (1/f)

5
inh

−5 2 3
10 10
−5
x 10
2
R (1/f) U (f)
inh

0
inh

−1 2 3
10 10
f (Hz)

Figure 3.3 – Exemple d’analyse d’un Ré 2 (147 Hz) de piano sur 60 ms : de haut en
bas, sur une échelle fréquentielle logarithmique, spectre paramétrique,
  fonction d’estima-
1
tion spectrale Uinh (f ), fonction d’estimation temporelle Rinh f , fonction combinée pour
l’estimation de la hauteur.

3.2.3 Estimation de la hauteur


Comme nous l’avons souligné dans la partie 3.1, les méthodes temporelles et spectrales
s’opposent dans leurs tendances à commettre des erreurs harmoniques et sous-harmoniques.
Ce phénomène est relevé par Peeters [2006] qui propose un moyen simple d’en tirer parti.
Il consiste à multiplier une fonction temporelle avec une fonction spectrale sur une échelle
commune de fréquences fondamentales afin de préserver les pics communs aux deux fonc-
tions (en particulier celui correspondant à la hauteur à estimer) et d’atténuer, voire de
supprimer les autres (les pics pouvant induire en erreur) comme illustré sur la figure 3.3.
En suivant ce principe,
 nous estimons la hauteur présente en maximisant le produit des
1
fonctions Rinh f et Uinh (f ) :
   
1
fˆ0 , argmaxf Rinh Uinh (f ) (3.12)
f
 
Grâce au caractère analytique des expressions (3.7) et (3.11), les valeurs Rinh f1 et
Uinh (f ) peuvent être directement et précisément évaluées pour f quelconque. La distribu-
77

tion des fréquences fondamentales étant logarithmique dans le cas du tempérament égal,
nous choisissons d’échantillonner le support fréquentiel de recherche des fréquences fon-
damentales suivant Nf points logarithmiquement espacés sur l’intervalle de recherche. La
liberté de choisir cet échantillonnage constitue un avantage de taille car nombre de mé-
thodes ne permettent pas naturellement ce découpage logarithmique (cf. de Cheveigné et
Kawahara [2002]; Peeters [2006]). En effet, les méthodes temporelles sont contraintes par
un échantillonnage linéaire de l’axe des temps, qui a pour effet un manque de précision
dans les hautes fréquences fondamentales et une résolution inutilement fine dans les basses
fréquences fondamentales. À l’inverse, les méthodes reposant sur une analyse de Fourier
présentent un découpage linéaire de l’axe des fréquences, avec les inconvénients opposés.
Dans les deux cas, l’approche doit souvent faire intervenir une interpolation de la fonction
d’estimation pour atteindre, de façon limitée, la précision nécessaire.
Avec une mise en œuvre sous Matlab et un processeur cadencé à 2, 4GHz, le traitement
d’une trame de 60 ms nécessite environ 6, 5 s. La phase d’estimation des paramètres dure
environ 1 s. Environ 95% du temps restant sert au calcul de l’estimateur spectral et pourrait
être optimisé en C pour obtenir une mise en œuvre efficace.

3.3 Évaluation des résultats


L’algorithme a été évalué sur des sons isolés de piano provenant de plusieurs sources :
3168 notes (trois pianos) de la base RWC [Goto et al., 2003], 270 notes (cinq pianos) d’une
base PROSONUS et 264 notes d’une base de sons privées (piano droit Yamaha). Chaque
base contient plusieurs versions de chacune des 88 notes de la tessiture du piano (à l’excep-
tion de la base PROSONUS pour laquelle les notes sont échelonnées par quartes) avec des
nuances variables. La base RWC offre par ailleurs des enregistrements avec plusieurs modes
de jeu (normal, staccato, avec la pédale forte). La recherche des fréquences fondamentales
s’étale sur Nf = 8192 valeurs logarithmiquement distribuées entre f0min = 26, 73 Hz et
f0max = 4310 Hz. L’estimation est réalisée à partir de l’analyse d’une unique trame de
60 ms ou 93 ms : 60 ms correspond à une durée très courte, inférieure à deux périodes
pour les notes les plus graves, alors que 93 ms est une durée d’analyse standard pour l’es-
timation de hauteur de signaux musicaux. Chaque fréquence fondamentale est arrondie
au demi-ton le plus proche sur une échelle bien tempérée, le La 3 accordé à 440 Hz (cf.
annexe C (p. 177)). Une erreur est alors définie comme l’estimation d’une mauvaise note.
Les résultats sont comparés avec ceux de deux autres estimateurs. Le premier a été
construit de la manière la plus similaire possible au nôtre, mais en remplaçant l’analyse
par ESPRIT par des procédés plus communs : l’autocorrélation est estimée à partir du
signal par l’expression

Na h i
r(τ ) = DFT−1 |DFT [s]|2 (3.13)
Na − τ

le facteur NN a
a −τ
étant la correction du biais ; l’estimateur spectral Uinh (f0 ) est obtenu en
remplaçant le spectre paramétrique par le module de la transformée de Fourier discrète du
signal, avec un zero-padding de 8Nf points ; le support temporel de r(τ ) est transformé
en support fréquentiel par interpolation tel que le décrit Peeters [2006] ; la hauteur est
finalement estimée en maximisant le produit des deux fonctions sur le support fréquentiel
commun. La seconde méthode utilisée est l’algorithme YIN [de Cheveigné et Kawahara,
78 3. Estimation à court terme de hauteur simple sur un registre étendu

Taux d’erreurs lissés sur une octave (analyse sur 60 ms)

70 Estimation paramétrique (moy.: 4,4%)


Estimation non paramétrique (moy.: 15,5%)

Taux d’erreurs (%)


60
YIN (moy.: 11,0%)
50

40

30

20

10

0
30 40 50 60 70 80 90 100
MIDI

Taux d’erreurs lissés sur une octave (analyse sur 93 ms)

70 Estimation paramétrique (moy.: 2,4%)


Estimation non paramétrique (moy.: 3,0%)
Taux d’erreurs (%)

60
YIN (moy.: 11,0%)
50

40

30

20

10

0
30 40 50 60 70 80 90 100
MIDI

Figure 3.4 – Taux d’erreurs par note, moyennés sur une octave, pour deux durées d’analyse
différentes. Résultats pour la méthode présentée et, à titre comparatif, pour deux autres
méthodes : un algorithme similaire mais non paramétrique et non HR, et l’algorithme YIN.
Le taux d’erreur moyen sur tout le registre figure entre parenthèses dans la légende.

2002], généralement considéré comme un estimateur de hauteur très performant. Nous


avons utilisé le code que les auteurs fournissent sur leur site Internet.
Les résultats de l’évaluation comparative sont représentés sur la figure 3.4. Pour une
fenêtre d’analyse de 60 ms, le taux d’erreur global de notre estimateur est d’environ 4, 4%,
soit au moins deux fois moindre que ceux obtenus avec les autres estimateurs. Cela s’ex-
plique par un taux d’erreur faible sur un grand intervalle de fréquences fondamentales
(1, 1% sur l’intervalle 65 − 2000 Hz) et une faible augmentation aux extrêmes grave et aigu
du registre. En comparaison, l’estimateur non paramétrique n’atteint un taux d’erreur de
1, 1% que sur l’intervalle 240 − 2000 Hz. Sa baisse d’efficacité en dehors de cet intervalle
montre que les bons résultats obtenus par notre approche sont à la fois dus à l’analyse
haute-résolution et à l’avantage d’avoir des méthodes paramétriques et des formules ana-
lytiques. Quant à l’algorithme YIN, il est un peu moins efficace dans le registre médium
et offre des résultats comparables aux nôtres dans les basses (au niveau de la première
octave, les deux courbes devraient être au même niveau, mais celle relative à notre esti-
mateur se situe plus haut car elle intègre les résultats des quatres notes les plus graves,
que l’algorithme YIN ne peut pas estimer sur 60 ms). Dans le registre aigu, YIN s’avère
moins efficace et présente à ce titre le comportement typique des méthodes temporelles
d’estimation de hauteur. De façon générale, les résultats s’améliorent lorsque l’on passe à
une analyse sur 93 ms. Néanmoins, l’analyse HR n’améliore pas significativement l’estima-
tion de fréquences fondamentales, même si l’algorithme reste celui qui commet le moins
d’erreurs.
79

Il est intéressant de se pencher sur les erreurs typiques commises, que nous traitons
dans le cas de l’analyse sur 60 ms. Lorsqu’ils se trompent, les algorithmes ont logiquement
tendance à surestimer les fréquences fondamentales basses et à sous-estimer les aiguës.
Environ 18% des erreurs commises par chaque méthode sont des erreurs d’octave ou de
sous-octave. Dans le cas de la nôtre, les autres erreurs correspondent à des intervalles
de tous types, avec seulement 5% d’erreurs de demi-ton, alors que ce taux atteint 10%
avec les deux autres méthodes. Les erreurs de YIN sont plutôt sous-harmoniques (13% à
l’octave inférieure, 8% à la 19e inférieure). Ainsi, bien que le nombre d’erreurs harmoniques
et sous-harmoniques de notre algorithme soit réduit, il reste visiblement difficile d’éviter
ce genre d’erreurs. En revanche, le faible taux d’erreurs de demi-ton montre l’efficacité
de la méthode, alors que les autres algorithmes souffrent d’un manque de précision, dans
l’aigu, dû à leur approche temporelle. Enfin, nous avons constaté que la prise en compte de
l’inharmonicité contribuait à faire baisser le taux d’erreurs global de 4, 9 à 4, 4% (soit 10%
d’erreurs en moins). L’amélioration se situe plutôt dans le registre grave : le taux d’erreur
sur l’intervalle MIDI J21, 37K passe ainsi de 16, 6 à 14, 1%.

3.4 Conclusion
La méthode présentée pour l’estimation de fréquences fondamentales parvient à des
taux d’erreurs significativement meilleurs que l’état de l’art dans le contexte d’une fenêtre
d’analyse courte et d’une tessiture étendue. L’analyse à Haute-Résolution, l’utilisation
conjointe d’une méthode temporelle et d’une méthode spectrale, ainsi que l’approche pa-
ramétrique contribuent à réduire le nombre d’erreurs, en particulier les erreurs typiques
d’octave, de sous-octave et de demi-ton, et à rendre la méthode robuste à ces conditions
d’analyse peu favorables.
80 3. Estimation à court terme de hauteur simple sur un registre étendu
81

Chapitre 4

Estimation de fréquences
fondamentales multiples

Nous abordons à présent la question de l’estimation de fréquences fondamentales mul-


tiples. Nous avons vu dans l’état de l’art (partie 1.3 (p. 29)) que cette problématique posait
des difficultés supplémentaires importantes par rapport à celle de l’estimation de hauteurs
simples, en particulier en raison du recouvrement des spectres et du nombre inconnu de
notes présentes. Nous avons également vu que la notion d’enveloppe spectrale pouvait être
la source d’informations utiles pour faire face à ces difficultés. Nous proposons ici une ap-
proche qui tire parti de ce constat et explorons le cadre théorique statistique pour utiliser
le modèle d’enveloppe présenté dans la partie 2.3 (p. 61).
Le chapitre développera en premier lieu la problématique de l’estimation de fréquences
fondamentales multiples (partie 4.1). Le modèle utilisé et son cadre statistique seront en-
suite introduits (partie 4.2). Puis l’estimation de fréquences fondamentales multiples sera
décrite dans les parties 4.3 à 4.8.
Une version antérieure de ces travaux a fait l’objet d’une publication [Emiya et al.,
2007a].

4.1 Problématique
Observons la transformée de Fourier discrète d’un mélange de deux notes dont les
fréquences fondamentales sont en rapport harmonique. À titre d’illustration, un exemple
de deux notes à la quinte est présenté sur la figure 4.1. Plusieurs types de coefficients
spectraux sont visibles :
1. les coefficients correspondant à un pic isolé, comme ceux relatifs aux trois premiers
partiels sur la figure 4.1 ; l’amplitude du partiel associé est alors mesurable directe-
ment et de façon fiable ;
2. les coefficients issus d’un recouvrement de plusieurs partiels, dont les fréquences coïn-
cident exactement (pic autour de 800 Hz sur la figure 4.1) ou approximativement (pic
autour de 2400 Hz) ; il est alors plus difficile d’estimer les amplitudes de chaque com-
posante compte tenu des interférences dues à la phase de leurs spectres ;
3. les coefficients situés dans le lobe principal autour d’un pic ;
4. les coefficients à des fréquences éloignées de tout pic, résultant du bruit de fond et
des lobes secondaires.
82 4. Estimation de fréquences fondamentales multiples

f (Hz)
0 1000 2000 3000 4000 5000
0

−50
dB

−100
Spectre
MIDI 60
MIDI 67
−150

Figure 4.1 – Spectre de deux notes à la quinte. Recouvrement des partiels du Do 3 (note
MIDI 60) dont l’ordre est un multiple de 3 avec les partiels du Sol 3 (note MIDI 67) dont
l’ordre est un multiple de 2 (son enregistré sur un piano Bechstein D 280).

Nous proposons alors une approche statistique pour l’estimation de fréquences fonda-
mentales multiples qui s’appuie sur les principes suivants :
– l’information relative aux notes et au bruit est concentrée dans des ensembles dis-
tincts de coefficients spectraux (les pics relatifs à une note, les coefficients résiduels
pour le bruit) ;
– en cas de recouvrement spectral, certains coefficients portent l’information provenant
de plusieurs composantes, dont il s’agit d’estimer les contributions ;
– les notes de piano ont une enveloppe spectrale relativement lisse, que nous modé-
liserons par un modèle autorégressif (AR), tel que nous l’avons décrit dans la par-
tie 2.3.2 (p. 63) ; l’utilisation d’un modèle paramétrique permet ainsi un certain
nombre de développements analytiques ;
– le bruit sera modélisé par un processus à moyenne ajustée (MA), tel que nous l’avons
décrit dans la partie 2.4 (p. 66). N’ayant pas de pôles, ce modèle présente l’avantage
de ne pas être adapté aux sinusoïdes contenues dans un bruit résiduel mal estimé et
d’être à ce titre discriminant lorsqu’il s’agit, comme dans le cas présent, de distinguer
les partiels du bruit.
La démarche, illustrée sur la figure 4.2, consiste alors à estimer les paramètres des
différents modèles et à maximiser une fonction de détection par rapport aux mélanges de
notes possibles.

4.2 Cadre statistique

Nous définissons dans un premier temps le modèle de son utilisé pour l’estimation de
fréquences fondamentales multiples puis expliquons le principe de l’estimation. Dans un
souci de lisibilité, les variables aléatoires introduites sont en général notées de la même
manière que leurs réalisations. Les densités de probabilité sont également notées de façon
simplifiée (py (y) ou p (y)) lorsque le contexte ne laisse pas d’ambiguïté.
83

Trame de signal

Prétraitement

Estimation des paramètres d’amplitude,


d’enveloppe spectrale des notes
et d’enveloppe du bruit.

Calcul et maximisation de la fonction de détection

Figure 4.2 – Principe de l’estimation de fréquences fondamentales multiples.

4.2.1 Modèle génératif de son


Considérons un mélange additif de P ∈ N notes et de bruit, dont on observe une trame
de N échantillons. Nous modélisons ce signal en utilisant un modèle statistique, représenté
sur la figure 4.3 et décrit ci-dessous.
Pour p ∈ J1; . . . , P K, la note p se caractérise avant tout par sa fréquence fondamen-
tale f0,p et son inharmonicité βp qui forment le couple
Cp , (f0,p , βp ) (4.1)
On associe à ces paramètres le nombre Hp de partiels observables, dont l’expression est
donnée par l’équation (2.17) (p. 54), et l’ensemble Fp des fréquences des partiels défini par
n o
(p)
Fp , fh /h ∈ J1; Hp K (4.2)

avec
q
(p)
fh , hf0,p 1 + βp h2 (4.3)

En utilisant le modèle de la partie 2.3 (p. 61), nous introduisons ensuite un modèle
autorégressif d’enveloppe spectrale de paramètre

θp , σp2 , Ap (z) , (4.4)
composé d’une puissance σp2 et d’un filtre unitaire d’ordre Qp et de réponse Ap (z), tel que
défini dans l’annexe A.2.1 (p. 165). La valeur de Qp est choisie suffisamment faible par
rapport au nombre de partiels pour que l’enveloppe spectrale soit lisse, et suffisamment
élevée pour bien modéliser les enveloppes rencontrées en pratique : Qp = Hp /2 constitue
un bon compromis, que nous utiliserons (la moitié des Qp pôles ont des fréquences po-
sitives, l’autre moitié étant leurs conjugués). Il est important de remarquer que nous ne
définissons pas une enveloppe spectrale mais un modèle d’enveloppe spectrale. L’enveloppe
spectrale, c’est-à-dire les amplitudes des partiels, est alors une réalisation de ce modèle.
Nous définissons les amplitudes complexes des partiels en tant que variables aléatoires
complexes gaussiennes indépendantes telles que pour h ∈ J1; Hp K,
 
σp 2
(p)  
αh ∼ N 0,   2  (4.5)
(p)
Ap e2iπfh
84 4. Estimation de fréquences fondamentales multiples

Signaux temporels
x(t) mélange observé
xb (t) bruit
xp (t) note p
eh,p (t) partiel h (note p)

Variables de trame
Cp = (f0,p , βp) F0 et inharmonicité (note p)
θp = σp2 , Ap paramètres AR d’enveloppe spectrale (note p)
αh,p  amplitude du partiel h (note p)
θb = σb2 , B paramètres MA de bruit

Cp

θp

αh,p

e1,p (t) eh,p (t) eHp ,p (t)

x1 (t) xp (t) xP (t)

θb xb (t) x(t)
t ∈ J0; N − 1K

Figure 4.3 – Réseau bayésien représentant le modèle de son


85

Ainsi, le signal de la note p est le processus harmonique (cf. partie 2.3.1 (p. 61)) résultant
de la somme de Hp partiels e1,p , . . . , eHp ,p
 
Hp
X
xp (t) , 2Re  eh,p (t) (4.6)
h=1
 
Hp
X (p) (p)
= 2Re  αh e2iπfh t  (4.7)
h=1

La transformée de Fourier discrète fenêtrée de xp est

Hp     
X (p) (p) (p)∗ (p)
Xp (f ) = αh W f − fh + αh W ∗ f + fh (4.8)
h=1

où W est la transformée de Fourier discrète de la fenêtre de pondération w utilisée.


Pour plus de clarté dans la suite, nous introduisons les notations synthétiques suivantes :

C , (C1 , . . . , CP ) (4.9)
θ , (θ1 , . . . , θP ) (4.10)
 
(p) (p)
Pour p ∈ J1; P K, α(p) , α1 , . . . , αHp (4.11)
 
α , α(1) , . . . , α(P ) (4.12)

C est donc l’ensemble des fréquences fondamentales et inharmonicités des notes du


mélange considéré, θ est l’ensemble des paramètres des modèles d’enveloppe spectrale des
notes de ce mélange, α est l’ensemble des amplitudes des partiels des notes et α(p) les
amplitudes des partiels de la note p.
Enfin, le bruit est modélisé par un processus xb à moyenne ajustée (MA) d’ordre Qb
décorrélé des amplitudes, de paramètre

θb , σb2 , B(z) (4.13)

composé de la puissance σb2 et du filtre MA B(z) avec B(0) = 1.


Le signal observé est donc une réalisation du processus

P
X
x (t) , xp (t) + xb (t) (4.14)
p=1

(4.15)

De manière équivalente, on peut prendre comme observation sa transformée de Fourier


discrète
P
X
X (f ) , Xp (f ) + Xb (f ) (4.16)
p=1
86 4. Estimation de fréquences fondamentales multiples

Trame : (x (0) , . . . , x (N − 1))t


Prétraitement de la trame

Prétraitement (blanchiment)

Périodogramme |X (f )|2

Sélection de Nc notes candidates

Pour chaque accord C possible

Estimation itérative des modèles de notes


Estimation des paramètres

Estimation
Estimation
Estimation des paramètres MA
des paramètres AR
des amplitudes σbb2 , B
b du modèle de bruit
σbp2 , A
cp des modèles
c1 , . . . , α
α cP
d’enveloppes spectrales
p ∈ J1; P K

Log-vraisemblance Prior Log-vraisemblance Prior


Expression des densités

       
Lp σbp2 , A
cp L σb2 p Lb σb2 , B
b
b Lb σb2b

p ∈ J1; P K p ∈ J1; P K

Calcul de la log-vraisemblance pondérée L̃x (C)

C ∈ Ce

Maximisation de la log-vraisemblance pondérée arg maxC∈Ce L̃x (C)


Décision

Accord estimé : Cb

Figure 4.4 – Diagramme en blocs de l’algorithme d’estimation de fréquences fondamen-


tales multiples.
87

4.2.2 Description inférentielle : méthode de résolution


Après une description de type génératif du modèle de son dans la partie précédente, nous
abordons maintenant l’estimation de fréquences fondamentales multiples. La démarche est
donc inférentielle : elle part des observations et de la problématique, et mène à l’estimation
des paramètres du modèle. Nous décrivons ici ce cheminement qui conduit à isoler plusieurs
blocs pour l’estimation des différentes quantités (amplitudes, enveloppes spectrales, bruit,
etc.). Ces blocs s’agencent alors pour obtenir le diagramme représenté sur la figure 4.4.

Mélange le plus probable


L’observation est une trame x de longueur N du processus x (t) prétraité. Le prétraite-
ment consiste à estimer grossièrement – par filtrage médian sur le spectre – le niveau de
bruit et à le blanchir afin de réduire la dynamique spectrale. x désigne ici le résultat de
ce blanchiment, opération qui ne change pas les hypothèses sur le modèle introduit dans
la partie précédente. En termes statistiques, x a été généré par le modèle C ◦ du mélange
original. L’ensemble des modèles de mélanges possibles est noté C. Idéalement, l’estimation
de fréquences fondamentales multiples consiste à déterminer le mélange le plus probable
d’après x, c’est-à-dire le maximum a posteriori (MAP)

Cˆ = arg max p (C|x) (4.17)


C∈C

En considérant tous les mélanges comme étant équiprobables, c’est-à-dire que la fonc-
tion C 7→ p (C) est constante 1 , on a

p (x|C) p (C)
Cˆ = arg max
C∈C p (x)
= arg max p (x|C) (4.18)
C∈C

Autrement dit, l’estimé du MAP Cˆ correspond à l’estimé du maximum de vraisemblance


(ML). L’estimation des fréquences fondamentales présentes consiste donc à calculer la
valeur de la vraisemblance p (x|C) pour tout C ∈ C et à sélectionner celui pour lequel la
vraisemblance est maximale. Étant donnée la taille de C, cette démarche est inconcevable
en termes de complexité. La procédure que nous décrirons dans la partie 4.3 opère une
réduction de l’espace de recherche C par sélection d’un nombre restreint de notes candidates
et estimation des paramètres de fréquence fondamentale et de coefficient d’inharmonicité.
Le sous-ensemble obtenu est noté C e et l’équation (4.18) devient donc

Cˆ = arg max p (x|C) (4.19)


C∈Ce

L’espace de recherche Ce contient alors un nombre suffisamment faible d’éléments pour


pouvoir être entièrement exploré en un temps raisonnable.

1. Dans un contexte musical, il est possible de traiter le cas où C n’est pas distribué selon une loi
uniforme et de généraliser l’approche présentée.
88 4. Estimation de fréquences fondamentales multiples

Expression intégrale de la vraisemblance des données


Nous nous intéressons donc, pour un mélange C quelconque, à l’expression et au calcul
de p (x|C). La densité p (x|C) est une marginale que l’on peut écrire comme une intégrale
en utilisant les variables latentes de notre modèle et leurs interdépendances (cf. figure 4.3) :
ZZ
p (x|C) = p (x, α, θb |C) dαdθb (4.20)
ZZ
= p (x|α, θb , C) p (α|C) p (θb ) dαdθb (4.21)
ZZ Z 
= p (x|α, θb , C) p (α, θ|C) dθ p (θb ) dαdθb (4.22)
ZZZ
= p (x|α, θb , C) p (α|θ, C) p (θ) p (θb ) dθdαdθb (4.23)

Dans cette expression, p (x|α, θb , C) = px (x|α, θb , C) se réécrit à l’aide de la densité de


probabilité du bruit pxb en soustrayant au signal observé
Px saP partie sinusoïdale,c’est-à-dire
P Hp (p) 2iπf (p) t
en utilisant le changement de variable x 7→ x − 2Re p=1 h=1 αh e
h , t étant le
vecteur d’instants relatifs à la trame
  
P X Hp
X (p) (p)
px (x|α, θb , C) = pxb x − 2Re  αh e2iπfh t |θb  (4.24)
p=1 h=1

L’équation (4.23) devient donc


   
ZZZ X Hp
P X
(p)
(p)
p (x|C) = pxb x − 2Re  αh e2iπfh t  |θb  p (α|θ, C) p (θ) p (θb ) dθdαdθb
p=1 h=1
(4.25)

L’intégrande est composée des termes suivants :


– p (α|θ, C) : la vraisemblance des amplitudes α des partiels, associée aux modèles
d’enveloppes
 spectrales θ ;
 PP PHp (p) 2iπf (p) t  
– pxb x − 2Re p=1 h=1 αh e
h |θb : la vraisemblance associée au modèle
de bruit θb ;
– p (θ) , p (θb ) : les densités a priori des paramètres des enveloppes spectrales et du
bruit.

Estimation des paramètres optimaux et de la vraisemblance maximale


Le calcul de l’intégrale (4.25) est délicat et nécessite une approximation. Une solution
efficace consisterait à faire appel aux méthodes de type Monte-Carlo [Doucet et Wang,
2005], pour lesquelles l’intégrande est calculée pour un certain nombre de valeurs. Une
autre méthode couramment utilisée, en particulier en statistiques, est l’approximation de
Laplace (cf. annexe A.3 (p. 172)), qui permet de ne prendre en compte que le maximum
de l’intégrande. Nous adoptons cette approche dans la mesure où nous nous intéressons
à l’estimation des paramètres des modèles de note et de bruit plutôt qu’au parcours de
l’espace des paramètres. Dans le cas présent, elle consiste, sous certaines conditions, à
considérer l’intégration sur les paramètres Θ du modèle et l’ordre n (C) associé (c’est-à-
dire le nombre de paramètres contenus dans le vecteur Θ, dépendant du modèle C considéré)
89

pour exprimer p (x|C) sous la forme


Z
p (x|C) = p (x, Θ|C) dΘ (4.26)

≈ p (x, Θ∗ |C) g (x, Θ∗ , n (C)) (4.27)

avec

Θ∗ , arg max p (x, Θ|C) (4.28)


Θ

Dans l’expression obtenue (équation (4.27)), la fonction g s’exprime notamment à partir


du hessien de l’intégrande de la ligne précédente. Dans le cadre statistique des méthodes
de sélection de modèles telles que BIC, AIC ou GIC [Stoica et Selen, 2004], nous verrons
qu’elle peut se simplifier pour ne dépendre que de l’ordre n (C) du modèle et du nombre
d’observations #x.
La démarche nécessite donc deux étapes :
1. la maximisation de l’intégrande (résolution de l’équation (4.28)) ;
2. l’estimation de l’intégrale en fonction de l’optimum Θ∗ et de l’équation (4.27).
Dans notre cas, nous appliquerons ce principe à l’intégrale (4.25). La première étape
– l’estimation des paramètres du modèle – fera l’objet des parties 4.4 et 4.5 tandis que la
seconde sera détaillée dans les parties 4.6 et 4.7. Auparavant, nous décrivons les grandes
lignes de cette résolution.

L’étape de maximisation de l’intégrande se formule ainsi : étant donné un ensemble de


notes C dont les fréquences fondamentales et les coefficients d’inharmonicité sont connus (et,
par extension, les fréquences des partiels), quels sont les paramètres optimaux d’amplitudes
des partiels, d’enveloppes spectrales de note, et de bruit ?
Nous nous intéressons tout d’abord à l’optimisation par rapport aux amplitudes α des
partiels. Pour ce faire, nous reprenons les considérations évoquées dans la partie 4.1 (p. 81)
sur le spectre observé. Nous supposons qu’au niveau de la fréquence d’un partiel, la valeur
du spectre du bruit est négligeable devant celle du partiel, hypothèse sur le rapport signal
à bruit au niveau des partiels qui est en pratique largement vérifiée. En l’absence de re-
couvrement spectral entre partiels (par exemple dans le cas monophonique), nous pouvons
(p)
alors
 estimer
 l’amplitude αh d’un partiel comme étant égale à la valeur du spectre observé
(p)
X fh .
Il est ensuite possible d’opérer la maximisation de l’intégrande par rapport aux para-
mètres d’enveloppe spectrale des notes, c’est-à-dire de maximiser p (α|θ, C) p (θ) par rap-
port à θ. Nous introduisons à ce niveau une approximation consistant à prendre comme
solution l’estimée de θ au sens du maximum de vraisemblance, c’est-à-dire à maximiser
p (α|θ, C), sans prendre en compte l’influence de la loi a priori p (θ). Nous verrons dans la
partie 4.4.2 que cette maximisation consiste en une estimation des paramètres des modèles
AR d’enveloppes spectrales de notes à partir d’observations partielles. Nous justifions l’ap-
proximation utilisée 2 en considérant que l’information sur les puissances σp2 ne sera utilisée
que comme une pénalisation dans l’expression de p (x|C) (cf. sections 4.6 et 4.7).
2. Par ailleurs, dans la littérature, l’argument asymptotique est couramment utilisé pour ce genre d’ap-
proximation : lorsque la taille de l’observation tend vers l’infini, l’estimation du maximum de vraisemblance
est « équivalente ».
90 4. Estimation de fréquences fondamentales multiples

Le raisonnement s’applique parfaitement en l’absence de recouvrement spectral. Dans


le cas contraire, les coefficients spectraux observés résultent de la contribution de plusieurs
partiels, la contribution du bruit étant toujours négligeable. Les amplitudes des partiels
concernés ne sont alors pas directement identifiables sur le spectre observé. En utilisant ce
dernier et à l’aide de l’information sur l’enveloppe spectrale, nous chercherons à estimer
les amplitudes manquantes. Nous détaillerons dans la partie 4.4 une méthode pour estimer
itérativement les amplitudes des partiels et les modèles d’enveloppes spectrales des notes
afin de converger vers une solution.
L’hypothèse d’un rapport signal à bruit élevé au niveau des composantes sinusoïdales
présente l’avantage de ne pas faire intervenir le modèle de bruit et la densité pxb associée
dans l’estimation des modèles de notes (amplitudes et enveloppes spectrales). Une fois ceux-
ci estimés, l’optimisation par rapport aux paramètres du modèle de bruit peut être réalisée,
au sens du maximum de vraisemblance, comme nous l’expliquerons dans la partie 4.5.
Dans la partie 4.6, nous introduirons les lois a priori sur les paramètres d’enveloppes
spectrales et de bruit. Ces lois n’entrent pas en compte dans l’estimation des paramètres
(par maximum de vraisemblance) mais interviennent en revanche dans l’expression de la
vraisemblance p (x|C).
La maximisation par rapport à tous les paramètres terminée, nous aborderons finale-
ment dans la partie 4.7 l’estimation de l’intégrale (4.25), c’est-à-dire de la vraisemblance
p (x|C), pour laquelle nous proposerons une version équivalente qui sera alors détaillée.

4.3 Sélection des notes candidates


Nous détaillons ici la réduction du nombre de mélanges candidats, c’est-à-dire le passage
de l’équation (4.18) à l’équation (4.19). D’après l’équation (4.18), lors de l’analyse d’une
trame x de signal, la vraisemblance p (x|C) doit normalement
 être évaluée sur l’ensemble
C des mélanges C possibles. Leur nombre étant Q P P pour une polyphonie P donnée et une
Q Q

tessiture comprenant Q notes, il s’élève au total à P =0 P = 2 , avec Q = 88 dans le
Q

cas du piano. Dans l’hypothèse où l’on limite par exemple la P tessiture à Q = 60 notes et
la polyphonie à Pmax = 6, le nombre de combinaisons atteint PPmax Q 6
=0 P ≈ 56.10 et reste
une taille d’espace à explorer trop élevée. De plus, les fréquences fondamentales des notes
composant un mélange peuvent également varier, en raison de l’incertitude sur l’accordage
du piano, augmentant ainsi la taille de l’espace estimée précédemment. Cette complexité
algorithmique inhérente aux méthodes d’estimation conjointe de fréquences fondamentales
est bien connue et a déjà été évoquée dans la partie 1.3.2 (p. 31). Pour l’amener à un
niveau convenable, nous proposons de réduire le nombre de notes possibles à travers une
étape préliminaire de sélection de notes candidates. En outre, nous verrons que cette étape
permet d’estimer précisément les valeurs de fréquence fondamentale et d’inharmonicité
des notes sélectionnées. Il faudra ensuite s’assurer que le coût de chaque évaluation de la
vraisemblance p (x|C) est suffisamment faible pour permettre ces évaluations sur l’ensemble
restreint Ce des mélanges formés de notes candidates.
Pour sélectionner les candidats, nous utilisons le produit spectral normalisé (par le
nombre de partiels) dont l’expression en décibels est

H(f0 ,β)   2
1 Y p
ΠX : (f0 , β) 7→ 10 log X hf 1 + β (f ) h2 (4.29)
0 0
H (f0 , β)ν
h=1
91

où H (f0 , β) est le nombre de composantes de la note de fréquence fondamentale f0 et


d’inharmonicité β, ν est un paramètre fixé à 0, 38 et X est le spectre observé. Le facteur
de normalisation permet de comparer le produit spectral des différentes notes, c’est-à-
dire lorsque le nombre de partiels varie. Cette fonction présente des maxima locaux au
niveau des notes présentes dans le signal, en raison du caractère énergétique sur lequel elle
repose. Les autres maxima locaux correspondent à des fréquences fondamentales en rapport
harmonique avec les notes présentes. Pour chaque note de la tessiture, nous appliquons
la méthode d’optimisation utilisée dans la partie 2.2.2 (p. 55) pour maximiser le produit
spectral à partir d’une grille dans la région du plan (f0 , β) concernée. La sélection des notes
candidates consiste ensuite à retenir celles correspondant aux Nc plus grandes valeurs. Les
deux étapes sont illustrées sur la figure 4.5.

(a) Optimisation locale du produit spectral normalisé pour chaque


note de la tessiture.

Produit spectral normalisé


150
Candidats

100 100
dB

50 50

0 0

−50 −50
40 50 60 70 80 90
f0 (MIDI)

(b) Sélection de candidats à partir des valeurs optimales obtenues


pour chaque note.

Figure 4.5 – Sélection de notes candidates par le produit spectral normalisé ΠX (f0 ).
Exemple sur un La♭ 3 (MIDI 68).

Comme nous l’avons vu dans la partie 2.2.2 (p. 55), la méthode est particulièrement effi-
cace et rapide pour estimer précisément la fréquence fondamentale et l’inharmonicité. L’es-
timation reste bonne dans le cas d’un mélange de notes. Nous fixons en pratique
P lenombre
de candidats à Nc = 9. Le nombre de mélanges passe alors de 56.106 à PPmax Nc
=0 P = 466,
pour Q = 60 et Pmax = 6 (nous verrons dans la partie 6.3.1 (p. 145) les performances de
cette sélection de candidats).
92 4. Estimation de fréquences fondamentales multiples

4.4 Estimation itérative des modèles d’enveloppe spectrale


et des amplitudes des partiels

4.4.1 Principe

Nous disposons à ce stade de notes candidates, dont les fréquences fondamentales et


les coefficients d’inharmonicité ont été estimés. Nous sélectionnons alors un mélange C =
(C1 , . . . , CP ) possible, qui est composé de P notes (cf. partie 4.2.1 (p. 83)), la note p
ayant une fréquence fondamentale et une inharmonicité Cp = (f0,p , βp ). Nous souhaitons
alors trouver les paramètres optimaux du modèle associé à ce mélange, comme l’explique
la partie 4.2.2. Nous décrivons ici l’estimation des paramètres des modèles d’enveloppe
spectrale θ et des amplitudes des partiels α. Nous allons voir qu’il est possible d’estimer θ
en connaissant α, et α en connaissant θ, puis proposerons un algorithme itératif qui alterne
ces deux étapes et affine progressivement les estimations.

4.4.2 Estimation des modèles d’enveloppe spectrale

Supposons l’ensemble des amplitudes α connu et intéressons-nous à l’estimation des


paramètres des modèles d’enveloppe spectrale θ.
Nous avons vu que l’optimisation par rapport au paramètre d’enveloppe spectrale θ
consistait à maximiser la vraisemblance des amplitudes qui, compte tenu de l’indépendance
entre les modèles, s’écrit

P
Y  
p (α|θ, C) = p α(p) |θp , Cp (4.30)
p=1

L’optimisation par rapport


 à θ consiste donc à maximiser indépendamment la vrai- 
semblance p α |θp , Cp des amplitudes de chaque note p par rapport à θp = σp2 , Ap (z) .
(p)

D’après le modèle donné par l’équation (4.5) (p.83), la log-vraisemblance à maximiser est

  
(p) (p)
Lp σp2 , Ap , ln p α1 , . . . , αHp |σp2 , Ap (4.31)

1 X  2iπf (p)  2 1 X (p) 2  2iπf (p)  2


Hp Hp
Hp
=− ln 2πσp2 + ln Ap e h − 2 αh Ap e h
2 2 2σ(p)
h=1 h=1
(4.32)

La maximisation par rapport à σp2 s’obtient en annulant la dérivée de cette expression


par rapport à σp2 , et donne

Hp  
X (p) 2
c2 = 1
σ
(p) 2
α Ap e2iπfh
(4.33)
p h
Hp
h=1
93

En injectant cette valeur dans l’expression (4.32), nous obtenons

  1 X (p) 2  2iπf (p)  2


Hp
c2
Hp Hp
Lp σp , Ap = − ln 2πe − ln αh Ap e h
2 2 Hp
h=1

1 X  2iπf (p)  2
Hp
+ ln Ap e h (4.34)
2
h=1
Hp
=c+ ln ρ (Ap ) (4.35)
2
avec

1 X (p) 2
Hp
Hp
c,− ln 2πe − ln αh (4.36)
2 2
h=1
  1
QHp (p) 2  2iπf (p)  2 Hp
h=1 αh Ap e
h

ρ (Ap ) , 2   (4.37)
1 PHp (p) (p) 2
2iπfh
Hp h=1 αh Ap e

L’optimisation consiste donc à maximiser le terme ρ (Ap ), c étant constant par rapport
à Ap . ρ (Ap ) est le rapport de la moyenne géométrique et de la moyenne arithmétique
d’une quantité spectrale. Ce rapport est couramment appelé platitude spectrale, et mesure
la blancheur de la quantité concernée. C’est un réel compris entre 0 et 1 qui atteint sa valeur
maximale lorsque les données sont égales à une constante, et des valeurs plus
faibles si elles
 
(p) 2
(p) 2 2iπf
ne sont pas « plates ». La platitude spectrale mesurée ici est celle de αh Ap e h ,

(p) 2
c’est-à-dire des amplitudes αh après filtrage par Ap (z), soit l’inverse du filtre du modèle
d’enveloppe. ρ (Ap ) mesurant ainsi la capacité de Ap (z) à blanchir les amplitudes, le filtre
cp (z) optimal est celui qui modélise au mieux les amplitudes. Badeau et David [2008] ont
A
montré que la solution optimale était justement fournie par l’algorithme présenté dans la
partie 2.3 (p. 61). Il suffit donc d’appliquer cette méthode d’estimation afin d’obtenir une
estimation optimale des paramètres du modèle autorégressif d’enveloppe
spectrale de la
(p) 2 (p) 2
note à partir de l’observation des carrés des amplitudes α1 , . . . , αHp de ses partiels.

4.4.3 Estimation des amplitudes des partiels


 
Nous supposons ici que les paramètres (θ1 , . . . , θP ) = σ12 , A1 , . . . , σP2 , AP des
modèles d’enveloppe spectrale sont connus. Nous allons voir qu’en cas de recouvrement
spectral, l’estimation des amplitudes des partiels est un problème d’estimation de variables
aléatoires latentes à partir de l’observation du spectre et des caractéristiques statistiques de
ces variables aléatoires, fournies par les paramètres d’enveloppe spectrale. Nous établissons
alors l’expression d’un estimateur linéaire optimal des amplitudes.
En l’absence de recouvrement spectral et sous l’hypothèse que la puissance du bruit
est négligeable devant celle des composantes sinusoïdales,
  l’estimation de l’amplitude du
(p)
partiel h de la note p est simplement la valeur X fh du spectre observé à la fréquence
 
(p) (p)
du partiel. En présence de recouvrement spectral, identifier αh à X fh conduit à une
94 4. Estimation de fréquences fondamentales multiples

mauvaise estimation, le spectre observé résultant de la contribution de plusieurs partiels


aux fréquences proches. Ces contributions sont difficiles à déterminer en raison des phases
inconnues des composantes et la tâche relève de la séparation de sources, dont nous nous
inspirons ici en reprenant la technique du filtrage de Wiener et en l’adaptant. L’approche
consiste à utiliser l’information statistique disponible sur les amplitudes pour concevoir des
estimateurs.
(p)
D’après l’équation (4.5) (p. 83), l’amplitude αh est une variable aléatoire telle que

(p)
αh ∼ N (0, vp,h ) (4.38)

avec

σp2
vp,h ,  
(p) 2
(4.39)
2iπfh
A
p e

C’est cette information que nous allons utiliser pour estimer les amplitudes. Nous com-
mençons par analyser le cas le plus général, pour lequel nous construisons l’estimateur
d’une amplitude en prenant en compte l’influence de toutes les composantes présentes,
puis expliquons comment simplifier les calculs en ne considérant que les composantes dont
le recouvrement spectral est significatif.
Dans le cas général, nous pouvons réécrire le modèle de son x comme une somme de
K sinusoïdes et de bruit :

K
X
x(t) = αk e2iπfk t + b(t) (4.40)
k=1

avec

αk ∼ N (0, vk ) (4.41)
P
X
K=2 Hp (4.42)
p=1

Cette réécriture permet de passer des couples d’indices (p, h) relatifs aux notes et aux
partiels à un seul indice k. L’hypothèse déjà évoquée sur le rapport signal à bruit per-
met par ailleurs de négliger les coefficients spectraux du bruit aux fréquences considérées.
Cette hypothèse permet de simplifier les calculs et est en pratique vérifiée puisque nous ne
considérerons que les fréquences fk relatives à des pics spectraux.
Nous observons la transformée de Fourier discrète X de x sur une trame de longueur
N , avec une fenêtre de pondération w(n) :

K
X
X (f ) = αk W (f − fk ) (4.43)
k=1

où W est la transformée de Fourier discrète de w.


95

Estimation des αk
Dans le cas de notre modèle, pour 1 ≤ k0 ≤ K, l’estimateur linéaire α̂k0 de αk0 en
fonction de X (fk0 ), optimal au sens de la minimisation de l’erreur quadratique moyenne
est
W ∗ (0) vk0
α̂k0 = PK X (fk0 ) (4.44)
k=1 |W (fk0 − fk )|2 vk

et l’erreur d’estimation est


h i
ǫk0 = E |αk0 − α̂k0 |2
!
|W (0)|2 vk0
= 1 − PK vk 0 (4.45)
k=1 |W (fk0 − fk )|2 vk

La démonstration des équations (4.44) et (4.45) figure en annexe B.2 (p. 174).

Analogie avec le filtrage de Wiener


La démarche pour déterminer l’estimateur des amplitudes (équation (4.44)) s’inspire du
filtrage de Wiener [Wiener, 1964]. Rappelons son principe afin de comprendre l’analogie
avec notre démarche.
Soit un signal s (t) composé d’une somme de P sources s1 (t) , . . . , sP (t). Pour 1 ≤ p ≤
P , la source p est une réalisation d’un processus réel stationnaire au sens large. On suppose
que ce processus est paramétrique. On cherche à estimer sp (t) à partir de l’observation de
s (t) et de la connaissance des propriétés statistiques du second ordreh des sources. i
L’estimateur optimal, au sens de l’erreur quadratique moyenne E (s (t) − sp (t))2 , est
l’espérance conditionnelle sopt (t) = E [sp (t) |s(τ ), τ ∈ N]. Cet estimateur n’est pas toujours
aisément calculable, on se contente alors d’un estimateur linéaire. L’estimateur linéaire
optimal au sens de l’erreur quadratique moyenne résulte du filtrage du signal s (t) par le
filtre de Wiener dont la réponse en fréquence est
Ss,sp (f )
Hp (f ) = (4.46)
Ss (f )

où Ss (f ) est la densité spectrale de puissance de s et Ss,sp l’interspectre de s et sp . Dans


le cas où les sources sont décorrélées, on a
Sp (f )
Hp (f ) = PP (4.47)
q=1 Sq (f )

Sq (f ) étant la densité spectrale de puissance de sq (t).


Le filtrage de Wiener permet donc d’estimer (de « séparer ») une source à partir de
l’observation du mélange s (t) et de la connaissance des propriétés statistiques des sources
présentes, en particulier de leur densité spectrale de puissance. À une fréquence f donnée,
le coefficient de Fourier de l’estimée correspond ainsi au coefficient de Fourier du mélange
atténué par un gain correspondant au rapport des densités spectrales de puissance de la
source et du mélange.
Notre approche est similaire à celle du filtrage de Wiener à plusieurs égards. Les deux
cas présentent un problème d’estimation de variables aléatoires dont on observe une sta-
tistique – c’est-à-dire une combinaison – et dont on connaît les propriétés statistiques du
96 4. Estimation de fréquences fondamentales multiples

second ordre. Il en résulte une démarche similaire pour trouver l’estimateur linéaire opti-
mal. Les résultats sont également comparables, dans la mesure où le « gain » trouvé dans
les expressions (4.44) et (4.47) est un rapport de deux quantités quadratiques relatives à
la source que l’on estime et au signal observé. Ces quantités correspondent aux propriétés
statistiques du second ordre des modèles : densité spectrale de puissance dans le cas du
filtrage de Wiener, et variances dans celui du processus harmonique.
La différence entre les deux approches réside dans le fait que le filtrage de Wiener
s’applique dans le cas stationnaire et en présence de densités spectrales de puissance alors
que dans notre cas, nous cherchons à modéliser le phénomène de recouvrement, dû à une
analyse à court terme et à l’étalement spectral qui en résulte, absent du cas précédent.
Ainsi, notre approche répond à un problème d’estimation des amplitudes, différent d’une
problématique de filtrage (lors de l’utilisation d’un filtre de Wiener pour la séparation de
sources par exemple).

Application à la séparation de deux notes avec recouvrement spectral


À titre d’illustration, l’estimateur est utilisé sur un mélange synthétique de deux proces-
sus harmoniques, chacun ayant des composantes à des fréquences multiples d’une fréquence
fondamentale. Un recouvrement partiel entre les spectres des deux sources est obtenu en
choisissant des fréquences fondamentales en rapport harmonique. La figure 4.6 donne un
aperçu du résultat. L’estimation et l’enveloppe spectrale originale se superposent lorsqu’il
n’y a pas de recouvrement spectral (pics d’ordres impairs de la source 1). En cas de re-
couvrement, l’estimation est bonne pour le pic prédominant éventuel (cf. pic de la source
1 à f = 0, 04 ou de la source 2 à f = 0, 04), ainsi que lorsque les deux amplitudes sont
du même ordre (cf. pics de la source 1 à f ≈ 0, 04 et de la source 2 à f > 0, 3). Lorsque
l’amplitude d’une source est petite devant celle de l’autre, l’estimation peut se dégrader
(cf. pic de la source 1 f = 0, 36).
f(1)
0
=0.02 f(2)
0
=0.04
0 0

−50 −50
dB

dB

−100 −100
Périodogramme du mélange Périodogramme du mélange
σ12 σ22
|A1 (e2iπf )|2
(modèle) |A2 (e2iπf )|2
(modèle)
−150 (1) 2 −150 (2) 2
|αh | |αh |
(1) (2)
|α̂h |2 (estimation) |α̂h |2 (estimation)
−200 −200
0 0.1 0.2 0.3 0.4 0.5 0 0.1 0.2 0.3 0.4 0.5
Fréquences réduites Fréquences réduites

(a) Note 1. (b) Note 2.

Figure 4.6 – Estimation des amplitudes avec recouvrement spectral sur un signal synthé-
(1) (2)
tique représentant deux notes. Les fréquences fondamentales f0 et f0 des deux notes sont
en rapport d’octave et l’estimation est faite sur une observation de N = 2048 échantillons.
Pour chaque note, les amplitudes (cercles) sont générées à partir du modèle d’enveloppe
spectrale (traits noirs) via les équations (4.38) et (4.39). Les croix représentent l’estimation
de ces amplitudes (équation (4.44)).

Estimation des amplitudes des partiels


D’après l’équation (4.45), l’erreur d’estimation est grande lorsqu’il existe au moins une
valeur k 6= k0 telle que |W (fk0 − fk )|2 vk n’est pas négligeable devant |W (0)|2 vk0 . C’est
97

le cas lorsque la distance |fk0 − fk | est petite devant la largeur du lobe principal de w et
que la variance vk de l’amplitude de la composante parasite est de l’ordre de grandeur de
vk0 : il y a alors recouvrement spectral. À l’inverse, il est possible de négliger l’influence des
composantes dont la fréquence est éloignée. En revenant au problème initial de l’estimation
(p)
des amplitudes des partiels, nous définissons l’estimateur de αh par

d W ∗ (0) vp,h  
(p) (p)
αh , P  ′  X fh (4.48)
(p ) (p) 2
(p′ ) (p)
fh′ −fh <∆w
W fh′ − fh vp′ ,h′

où ∆w est la largeur du lobe principal de w.

4.4.4 Algorithme itératif d’estimation des paramètres des notes


Nous proposons alors l’algorithme itératif suivant, qui alterne les phases d’estimation
des amplitudes et des modèles d’enveloppe spectrale, en ajoutant un seuillage des ampli-
tudes trop faibles :

Entrées: spectre X, notes C1 , . . . , CP .  


(p)(0) (p)
Initialiser les amplitudes des partiels αh aux valeurs du spectre X fh pour p ∈
J1; P K et h ∈ J1; Hp K.
Pour chaque itération i
Pour chaque note p
(i)
Estimer θp à partir de α(p)(i−1) . {estimation AR}
Fin Pour  
(p)(i) (p) (i)
Estimer conjointement tous les αh à partir des X fh et des θp . {éq. (4.48)}
 
(p)(i) (p)(i)
αh ← max αh , min (|X|) . {seuillage des amplitudes trop faibles}
Fin Pour
(p)
Sorties: estimation des αh et θp pour p ∈ J1; P K et h ∈ J1; Hp K.
Algorithme 4.1: Estimation itérative des paramètres et des sources

d (p) (p) b
Pour p ∈ J1; P K et h ∈ J1; Hp K, les estimations αh de αh et θp de θp sont alors
(p)(i) (i)
définies comme les valeurs respectives des suites αh et θp après un certain nombre
d’itérations. La convergence de l’algorithme n’est pas prouvée mais a été constatée et l’on
peut voir que la technique s’apparente à l’algorithme EM [Dempster et al., 1977] dans sa
manière de considérer des variables latentes – les amplitudes et les enveloppes – et des
observations – les coefficients spectraux.
Le fonctionnement de l’algorithme est illustré sur les figures 4.7 et 4.8. Lorsque l’on
analyse un signal à partir d’un modèle de note seule, les amplitudes des partiels sont
directement accessibles à partir du spectre. Il n’y pas lieu de réaliser plusieurs itérations :
une seule estimation AR suffit. C’est le cas sur les figures 4.7(a), 4.7(b), 4.7(d), 4.8(a)
et 4.8(b). Dans les trois premiers cas, le modèle considéré correspond à la note contenue
dans le signal ; l’enveloppe spectrale et les amplitudes des partiels sont alors correctement
estimés. Lorsque l’on cherche les paramètres d’un modèle de mélange de plusieurs notes
(figures 4.7(c) et 4.7(e)), l’algorithme itératif permet de prendre en compte le recouvrement
spectral. Dans le cas d’une quinte (figure 4.7(c)), les partiels isolés de chaque note assurent
une bonne estimation des deux enveloppes spectrales, permettant à leur tour d’estimer les
98 4. Estimation de fréquences fondamentales multiples

60
Spectre
50 θ̂1
(1)
40 α̂h

30
20

10
dB
0

−10
−20

−30
−40

−50
0 2000 4000 6000 8000 10000
f (Hz)

(a) La♭ 3 (415 Hz) analysé par un modèle de La♭ 3.

60 60
Spectre Spectre
50 θ̂1 50 θ̂1
(1) (1)
40 α̂h 40 α̂h
θ̂2
30 30 (2)
α̂h
20 20

10 10
dB

dB

0 0

−10 −10
−20 −20

−30 −30
−40 −40

−50 −50
0 2000 4000 6000 8000 10000 0 2000 4000 6000 8000 10000
f (Hz) f (Hz)

(b) Mi♭ 4 (622 Hz) analysé par un modèle de Mi♭ 4. (c) Mélange La♭ 3 (415 Hz) + Mi♭ 4 (622 Hz) analysé
par un modèle de La♭ 3 + Mi♭ 4.

60 60
Spectre Spectre
50 θ̂1 50 θ̂1
(1) (1)
40 α̂h 40 α̂h
θ̂2
30 30 (2)
α̂h
20 20

10 10
dB

dB

0 0

−10 −10
−20 −20

−30 −30
−40 −40

−50 −50
0 2000 4000 6000 8000 10000 0 2000 4000 6000 8000 10000
f (Hz) f (Hz)

(d) La♭ 4 (831 Hz) analysé par un modèle de La♭ 3. (e) Mélange La♭ 3 (415 Hz) + La♭ 4 (831 Hz) analysé
par un modèle de La♭ 3 + La♭ 4.

cp et des enveloppes spectrales θbp lorsque le


Figure 4.7 – Estimation des amplitudes α
modèle de mélange correspond au contenu du son. Illustration sur des notes isolées, un
intervalle de quinte et une octave.
99

60 60
Spectre Spectre
50 θ̂1 50 θ̂1
(1) (1)
40 α̂h 40 α̂h

30 30
20 20

10 10
dB

0 dB 0

−10 −10
−20 −20

−30 −30
−40 −40

−50 −50
0 2000 4000 6000 8000 10000 0 2000 4000 6000 8000 10000
f (Hz) f (Hz)

(a) La♭ 3 (415 Hz) analysé par un modèle de La♭ 2 (b) La♭ 3 (415 Hz) analysé par un modèle de La♭ 4
(208 Hz). (831 Hz).

60
Spectre
θ̂1
(1)
40 α̂h
θ̂2
(2)
α̂h
20
dB

−20

−40

−60
0 2000 4000 6000 8000 10000
f (Hz)

(c) La♭ 3 (415 Hz) analysé par un modèle de La♭ 3


(415 Hz) + La♭ 4 (831 Hz).

Figure 4.8 – Estimation des amplitudes α cp et des enveloppes spectrales θbp lorsque le
modèle de mélange ne correspond pas au contenu du son.
100 4. Estimation de fréquences fondamentales multiples

amplitudes des partiels qui se recouvrent. L’estimation est plus difficile mais donne des
résultats intéressants lorsqu’il s’agit d’une octave, cas pour lequel seule la note la plus
grave possède des partiels isolés.
Avec les exemples de la figure 4.8, nous nous penchons sur le comportement de l’algo-
rithme lorsque le modèle considéré ne correspond pas aux notes contenues dans le signal.
La figure 4.8(a) représente le cas d’un modèle à l’octave inférieure de la véritable note : les
amplitudes estimées sont alternativement dans le bruit et sur une composante sinusoïdale.
Le modèle d’enveloppe estimé est alors sous-optimal, une enveloppe AR d’ordre faible ne
permettant pas de modéliser une alternance de coefficients spectraux faibles et forts. En
particulier, la platitude spectrale ρ (Ap ) obtenue (équation 4.37) est faible : le modèle a
alors peu de chance d’être sélectionné, au profit du modèle associé à la véritable note. Dans
le cas d’une erreur d’octave (figure 4.8(b)), l’enveloppe spectrale est certes bien estimée,
mais un partiel sur deux reste dans le résiduel. Dans le dernier exemple (figure 4.8(c)), le
signal contient une note unique alors que l’on essaie de le modéliser par cette note et son
octave. L’algorithme itératif parvient à détecter des amplitudes négligeables pour la note
absente, les amplitudes des partiels d’ordre pair de la note grave ne laissant pas présager
l’octave.

4.5 Estimation des paramètres du modèle de bruit


En établissant notre modèle dans la partie 4.2.1, nous avons introduit le bruit xb (n)
comme un processus MA paramétré par une puissance σb2 et un filtre B (z). Plus précisé-
ment, on suppose que la trame xb , (xb (0) , . . . , xb (N − 1)) résulte du filtrage circulaire
d’un bruit blanc gaussien xbb de puissance σb2 par B (z), dont l’ordre Qb est supposé infé-
rieur à N et que l’on écrit sous la forme
Qb
X
B (z) = bk z −k (4.49)
k=0

avec b0 = 1. Cette hypothèse sur le processus MA est valable asymptotiquement. Elle


permet de simplifier certains calculs comme expliqué en annexe (cf. partie A.2.2 (p. 170)).
D’après la proposition A.2.14 (p. 171), l’expression de la log-vraisemblance est alors
 2
N
X −1   N
X −1 k
 N 1 2 1 X
Lb σb2 , B = − ln 2πσb2 −
k
ln B e2iπ N − 2 b N  (4.50)
2 2 2σb N k
k=0 k=0 B e2iπ N

La log-vraisemblance peut donc se calculer à partir de l’observation du spectre du


bruit. Dans notre cas, nous avons supposé que les coefficients spectraux du bruit étaient
négligeables devant ceux des notes au niveau des fréquences des partiels. Ils ne sont donc pas
facilement observables et nous nous contentons de l’information portée par les coefficients
dont les fréquences se situent en dehors des lobes principaux des partiels, c’est-à-dire sur
le support fréquentiel défini par
 , 
k
∆w 
[P
k
Fb , ′
∀f ∈ ′
Fp , − f > (4.51)
N N 2 
p=1

où ∆w désigne la largeur d’un lobe principal de la fenêtre w (∆w = N4 pour une fenêtre de
Hann). Cette approximation est asymptotiquement valable, lorsque N → +∞, c’est-à-dire
101

lorsque le nombre d’éléments supprimés du vecteur d’observation est petit devant la taille
de ce vecteur. L’expression de la log-vraisemblance (4.50) devient 3

2
 #Fb 2 1 X  2iπf  2 1 X 1 Xb (f ) 2
Lb σb , B ≈ − ln 2πσb − ln B e − 2 (4.52)
2 2 2σb N B (e2iπf )
f ∈Fb f ∈Fb

En raison du caractère gaussien des coefficients spectraux du bruit, l’expression (4.52)


est relativement similaire à l’expression (4.32) (p. 92) de la log-vraisemblance des ampli-
tudes. Aussi, la maximisation de (4.52) par rapport à σb2 puis à B s’obtient de manière
analogue. L’estimée de la puissance du bruit est

c 1 X 1 Xb (f ) 2
2
σb = (4.53)
#Fb N B (e2iπf )
f ∈Fb

En injectant cette valeur dans l’expression (4.52), nous obtenons


 
Lb σc2 , B = c + #Fb ln ρ (B) (4.54)
b b b
2
avec

#Fb 1 X |Xb (f )|2


cb , − ln 2πe − ln (4.55)
2 2 N
f ∈Fb
! 1
Q Xb (f ) 2 #Fb

f ∈Fb B (e2iπf )
ρb (B) , (4.56)
1 P
Xb (f ) 2

#Fb f ∈Fb B (e2iπf )

Nous retrouvons la maximisation d’une platitude spectrale, ρb (B). La solution est


cette fois-ci obtenue en effectuant une estimation des paramètres du filtre MA à partir
des observations partielles du spectre X aux fréquences Fb . De même que dans le cas des
AR, l’estimation par l’algorithme de Badeau et David [2008] est optimale au sens de la
maximisation de (4.56). Cependant, les coefficients spectraux omis étant peu nombreux par
rapport aux coefficients observés, nous optons pour la technique d’estimation à partir du
spectre entier, un peu moins efficace mais plus rapide, présentée dans la partie 2.4 (p. 66).
Nous appliquons donc l’algorithme 2.2 (p. 68) en considérant l’autocorrélation empirique
obtenue à partir des observations du spectre sur le support Fb . Une bonne modélisation
du bruit est obtenue en fixant l’ordre du modèle MA à Qb = 20.
La figure 4.9 illustre cette étape d’estimation des paramètres du modèle de bruit. Le
même spectre est successivement analysé avec le modèle de la véritable note, puis ceux
de la sous-octave et de l’octave. Lorsque l’on a sélectionné le modèle de la note originale
(figure 4.9(a)) ou celui de la sous-octave (figure 4.9(b)), les fréquences des partiels ont
été enlevées du support fréquentiel Fb du modèle de bruit : les coefficients observés sont
alors bien modélisés par un modèle MA. Lorsqu’il reste des sinusoïdes dans le support
fréquentiel Fb du modèle de bruit, dans le cas de l’octave (figure 4.9(c)) mais également de
3. Dans cette expression, la taille de l’observation est #Fb , contre N dans l’expression (4.50). Nous
notons donc que ces deux log-densités ne sont pas homogènes entre elles (ce qui n’est pas gênant pour la
suite).
102 4. Estimation de fréquences fondamentales multiples

60

40

20
dB

−20

−40

X(Fb ) X(Fb ) Estimation MA θˆb


−60
0 2000 4000 6000 8000 10000
f (Hz)

(a) Estimation avec le modèle Mi♭ 3 (311 Hz, note


originale).

60 60

40 40

20 20
dB

dB

0 0

−20 −20

−40 −40

X(Fb ) X(Fb ) Estimation MA θˆb X(Fb ) X(Fb ) Estimation MA θˆb


−60 −60
0 2000 4000 6000 8000 10000 0 2000 4000 6000 8000 10000
f (Hz) f (Hz)

(b) Estimation avec le modèle Mi♭ 2 (156 Hz, sous- (c) Estimation avec le modèle Mi♭ 4 (622 Hz, oc-
octave). tave).

Figure 4.9 – Exemple d’estimation des paramètres du modèle de bruit sur un Mi♭ 3
(311 Hz).
103

toute note qui n’est pas un sous-harmonique, la modélisation MA n’est pas adaptée : les
paramètres estimés modélisent mal les données et la vraisemblance associée, faible, permet
de rejeter ce modèle qui ne correpond pas à la véritable note. On remarque par ailleurs
que les coefficients spectraux attribués à du bruit sont parfois des lobes secondaires de
partiels. Le phénomène n’est cependant pas gênant en pratique car l’enveloppe spectrale
du « bruit » résultant, qui inclut les lobes secondaires, conserve les qualités de régularité
déterminantes pour notre modèlisation.
Nous voyons ainsi à travers la modélisation des spectres de notes et du bruit résiduel
que les données sont bien modélisées lorsque l’on sélectionne le modèle de mélange original
(figures 4.7(a) (p. 98) et 4.9(a) par exemple), tandis qu’un des modèles au moins – celui de
spectre de note ou celui de bruit – permet de rejeter le mélange testé (figures 4.8(a) (p. 99)
et 4.9(b) pour la sous-octave, 4.8(b) (p. 99) et 4.9(c) pour l’octave).

4.6 Lois a priori sur les modèles AR et MA


Nous n’avons pour l’instant pas spécifié les lois a priori p (θ) et p (θb ), l’estimation des
paramètres θ et θb ayant été réalisées par maximum de vraisemblance. L’introduction de
ces lois permet néanmoins de fournir une information supplémentaire qui, même si elle est
négligée dans l’étape d’estimation des paramètres, est utile dans l’expression de la vrai-
semblance p (x|C). En l’absence de telles informations, le modèle proposé est très général
puisque la seule contrainte sur les enveloppes des notes et du bruit est leur caractère lisse
lié aux modélisations AR et MA d’ordres faibles. En particulier, les coefficients spectraux
du bruit peuvent tout à fait être bien modélisés par un modèle de note, donnant lieu à la
détection de fausses alarmes. Nous avons ici la possibilité de pénaliser les modèles pour
lesquels la puissance du bruit est élevée ou la puissance des notes faible. Les lois a priori
s’écrivent
P
Y 
p (θ) = p σp2 p (Ap ) (4.57)
p=1

p (θb ) = p σb2 p (B) (4.58)
Le choix des lois a priori sur les puissances (variances) ne dépend que de la contrainte
d’une puissance faible pour le bruit et forte pour les enveloppes spectrales. Dans ces condi-
tions, on choisit habituellement des lois a priori telles que les lois Gamma ou Gamma
Inverse, dont les définitions et propriétés sont données en annexe A.1.3 (p. 164). La famille
de lois Gamma favorise les valeurs faibles de variable aléatoire, comme l’illutrent leurs
densités représentées sur la figure A.1 (p. 165). Nous choisirons donc une loi Gamma pour
la distribution de la puissance σb2 du bruit. Si une variable aléatoire suit une loi Gamma,
son inverse suit une loi Gamma Inverse. Pour favoriser des valeurs élevées, nous choisirons
donc une loi Gamma Inverse pour la distribution des puissances des modèles d’enveloppes
spectrales.
Les puissances suivent donc les lois suivantes :
 
∀p ∈ J1; P K, σp2 ∼ IG kσp2 , Eσp2 (4.59)
 
σb2 ∼ Γ kσ2 , Eσ2 (4.60)
b b

où les paramètres de forme kσp2 et kσ2 et d’échelle Eσp2 et θE 2 ont été fixés empiriquement
    b
 b

à kσp2 , Eσp2 , 1, 10−4 et kσ2 , Eσ2 , 2, 10−3 .


b b
104 4. Estimation de fréquences fondamentales multiples

Nous ne souhaitons pas introduire d’information supplémentaire via une loi a priori
sur les filtres normalisés Ap et B. Une solution consisterait à considérer une loi non infor-
mative [Gelman et al., 2004], par exemple de densité constante, associée à une distribution
uniforme des pôles du filtre AR et zéros du filtre MA dans le disque ouvert de rayon unité.
Nous allons voir dans la section 4.7 que nous pouvons tout simplement nous passer de ces
lois a priori non informatives dans l’estimation de la vraisemblance p (x|C).

4.7 Fonction de détection de fréquences fondamentales


Nous avons vu dans la partie 4.2.2 (p. 87) que si l’on note Θ l’ensemble des paramètres
d’un modèle C de mélange, l’estimation optimale des fréquences fondamentales consistait
à maximiser la log-vraisemblance

Lx (C) , ln p (x|C) (4.61)


Z
= ln p (x, Θ|C) dΘ (4.62)

par rapport à tous les mélanges possibles C ∈ C, e mais que le calcul de cette intégrale n’était
 
b, α
pas réalisable en pratique. Par ailleurs, si l’on note Θ b, θb1 , . . . , θc b
P , θb l’estimation des
paramètres pour un mélange C, on ne peut se contenter de remplacer la maximisation
de (4.62) par celle – toujours par rapport à C – de la fonction

  XP     X P    
b
ln p x, Θ|C = b b
Lp θp + Lb θb + ln p σ c2
c2 + ln p σ
p b
p=1 p=1
P
X    
+ ln p A b
cp + ln p B (4.63)
p=1

En effet, lorsque C varie, le nombre de notes P , de partiels observés Hp pour chaque


note p, l’ordre du modèle d’enveloppe spectrale et le nombre
 d’observations
 #Fb varient
également ; les termes de la somme (4.63) ainsi que ln p x|Θ, b C ne sont donc pas compa-
rables d’un mélange C ∈ Ce à l’autre. Nous allons voir qu’il est possible de corriger ces termes
en s’appuyant sur la problématique de l’estimation d’ordre de modèles. Nous proposerons
alors une vraisemblance pondérée dont l’expression est

P
X     P
X    
L̃x (C) , w1 L̃p θbp /P + w2 L̃b θbb + w3 ln p σ c2 − µ P
c2 /P + w4 ln p σ
p b pol
p=1 p=1
(4.64)
 
où L̃p et L̃b θbb sont des versions « corrigées » de Lp et Lb , w1 , w2 , w3 , w4 sont les coef-
ficients de pondération et µpol est une pénalité sur la polyphonie P . Les corrections et la
pondération introduites visent à rendre les valeurs de L̃x (C) comparables lorsque C varie :
l’estimation de fréquences fondamentales est alors obtenue en maximisant la fonction de
détection C 7→ L̃x (C).
105

Problématique de la sélection de modèle


Comme nous l’avons évoqué dans la partie 4.2.2 (p. 87), il est possible d’approcher
p (x|C) par l’approximation de Laplace (cf. annexe A.3 (p. 172)), qui se réécrit sous forme
logarithmique
Z
ln p (x|C) = ln p (x, Θ|C) dΘ (4.65)

≈ ln p (x, Θ∗ |C) + ln g (x, Θ∗ , n (C)) (4.66)

avec

Θ∗ , arg max p (x, Θ|C) (4.67)


Θ
n(C) − 1
g (x, Θ∗ , n (C)) = (2π) 2 det −∇2 {log p (x, Θ|C)}Θ=Θ∗ 2
(4.68)

n (C) étant l’ordre du modèle, c’est-à-dire le nombre de paramètres d’enveloppes spectrales,


d’amplitudes et de bruit dans le cas présent.
Cette approximation est à la base des méthodes dites d’estimation (d’ordre) de mo-
dèles [Stoica et Selen, 2004] telles que BIC, AIC ou GIC. Plus précisément, ces critères
consistent à développer l’approximation précédente – sur la base de principes propres à
chaque critère – résultant en la simplification de la fonction g, de sorte que l’on obtient
une expression de la forme

ln p (x|C) ≈ ln p (x|Θ∗ , C) + ln g (n (C) , #x) (4.69)

La fonction g ne dépend plus que de deux nombres, l’ordre du modèle n (C) et la taille de
l’observation #x. De plus, le logarithme de g est linéaire en n (C), avec une pente différente
d’un critère à l’autre. C’est alors cette expression (équation (4.69)) qui est maximisée par
rapport à C pour estimer le modèle le plus vraisemblable.
En pratique, les critères sont en général exprimés, de manière équivalente, comme la
minimisation d’une expression de la forme

− 2 ln p (x|Θ∗ , C) + G (n (C) , #x) (4.70)

avec

G , −2 ln g (4.71)

Par exemple, les critères définis précédemment donnent




2n (C) pour AIC ;
G (n (C) , #x) = ln (#x) n (C) pour BIC ; (4.72)


ηn (C) pour GIC, où η est un paramètre.

Ainsi, on peut interpréter l’approximation de l’intégrale (4.65) comme l’ajout d’une


pénalité G à −2 ln p (x|Θ∗ , C) pour compenser les effets de la variation de l’ordre du modèle.
Le choix du critère utilisé – et donc de la pénalité – dépend en général du contexte, et
permet de choisir la pente de la fonction G. Nous pourrons ainsi fixer cette pente de manière
empirique.
106 4. Estimation de fréquences fondamentales multiples

Approximation de la log-vraisemblance Lx (C) = ln p (x|C)


Dans notre cas, le type de méthode décrit précédemment ne peut être appliqué directe-
ment pour plusieurs raisons :
– en ne considérant que la vraisemblance p (x|Θ∗ , C), elles ignorent toute informa-
tion portée par une densité a priori p (Θ). En particulier, elles reviendraient à
ne considérer ici que p (x|α, θb , C) en négligeant p (α|θ, C), p (θ) et p (θb ) (cf. équa-
tion (4.23) (p. 88)) ;
– la structure des dépendances de notre modèle est composée de deux couches, la
première étant les paramètres du modèle d’enveloppe spectrale et la seconde les
amplitudes des partiels ;
– dans les vraisemblances pxb et pα que nous considérons, le nombre effectif d’observa-
tions varie d’un mélange C à l’autre, alors que les méthodes de sélection de modèle
reposent sur l’hypothèse que le nombre d’observations ne dépend pas du modèle ;
Nous proposons une approche pour intégrer des pénalisations sur l’ordre des modèles
à la manière des critères de sélection
 de modèles afin  d’estimer approximativement p (x|C)
à partir du modèle optimal Θ b, α b, θb1 , . . . , θc b
P , θb estimé précédemment, tout en prenant
en compte les contraintes ci-dessus.
L’expression à pénaliser est celle de la log-densité des données et des paramètres es-
timés, donnée par l’équation (4.63), où Lp s’obtient par l’équation (4.35) (p. 93) et Lb
par l’équation (4.54) (p. 101). Cette expression contient plusieurs vraisemblances dont le
nombre d’observations est variable en fonction du modèle C : la vraisemblance des ampli-
tudes Lp de chaque note p, le nombre d’observations étant le nombre Hp de partiels, et la
vraisemblance Lb du bruit résiduel, la taille de l’observation étant #Fb . Par conséquent,
la log-densité (4.63) ne peut être comparée d’un modèle C à l’autre. Pour nous affranchir
de cette variabilité, nous proposons le principe de normalisation suivant. Si deux variables
aléatoires multivariées Xm et Xm′ sont de tailles respectives m et m′ , leurs densités p (Xm )
et p (Xm′ ) (si elles existent) ne sont pas de même dimension. En revanche, les versions nor-
1 1
malisées p (Xm ) m et p (Xm′ ) m′ le sont : elles sont homogènes à la densité d’une variable
aléatoire univariée. Sous forme logarithmique, ceci revient à diviser chaque log-densité par
la taille de la variable aléatoire. L’application de ce principe aux vraisemblances de l’équa-
tion (4.63) consiste donc à diviser la log-vraisemblance des amplitudes Lp de la note p par
le nombre de partiels Hp et la log-vraisemblance du bruit Lb par le nombre d’observations
#Fb .
L Lb
Les log-vraisemblances normalisées Hpp et #F b
étant homogènes à des lois univariées,
nous appliquons alors un critère de sélection d’ordre. Comme nous l’avons vu précédem-
ment, cela consiste à leur ajouter un terme correctif linéaire. Les corrections respectives
L Lb
apportées à Hpp et #F b
sont linéaires de la forme µenv Hp et µb #Fb . Les quantités résul-
tantes de ces opérations sont

Lp
L̃p , − µenv Hp (4.73)
Hp
Lb
L̃b , − µb #Fb (4.74)
#Fb

La fonction Hp 7→ µenv Hp (resp. #Fb 7→ µb #Fb ) peut être vue comme une correction
L Lb
de la pente de Hpp (resp. #F b
) en fonction de Hp (resp. #Fb ). Les paramètres µenv et µb
107

sont alors fixés empiriquement à

µenv , −8, 9.10−3 (4.75)


µb , −2, 2.10−4 (4.76)

Les normalisations des vraisemblances et la correction d’ordre sont illustrées sur la


figure 4.10.

200 6000
Lp

Lb
0 4000

−200 2000
50 100 150 1000 1500 2000
5 2.6
#Fb
Hp
Lp

Lb

0 2.4

−5 2.2
50 100 150 1000 1500 2000
4 3
− µb #Fb
− µenv Hp

2
2.8
0
−2 2.6
#Fb
Lb
Hp
Lp

−4
50 100 150 1000 1500 2000
Hp #Fb

Figure 4.10 – Normalisation et corrections des vraisemblances des amplitudes (à gauche)


et du bruit (à droite) : fonctions originales en haut ; versions normalisées au milieu ; versions
normalisées et corrigées (pénalisées) L̃p et L̃b en bas. La note analysée est un La♭ 4,
les ordres correspondant à cette note étant Hp = 22 et #Fb = 1873. Dans un proche
voisinage de Hp = 22, les courbes de gauche prennent successivement des valeurs élevées
(lorsque les partiels ont été sélectionnés) et faibles (lorsqu’une partie des partiels n’a pas
été sélectionnée). De même, on distingue un pic à #Fb = 1873 sur les courbes de droite,
correspondant à l’élimination des sinusoïdes du résiduel.
     
Du fait de la normalisation, les quantités obtenues L̃p , L̃b , ln p σ c2 , ln p A
c2 , p σ cp
p b
 
b sont chacune individuellement homogènes lorsque le modèle C varie, c’est-à-dire
et ln p B
lorsque les Hp et #Fb changent. Cependant, elles ne sont plus homogènes entre elles et
l’on ne peut les ajouter dans une expression analogue à (4.63). Nous corrigeons l’effet en
pondérant ces quantités pour les rendre homogènes. Nous définissons donc la vraisemblance
pondérée suivante :
108 4. Estimation de fréquences fondamentales multiples

P
X     P
X    
L̃x (C) , w1 L̃p θbp /P + w2 L̃b θbb + w3 ln p σ c2 − µ P
c2 /P + w4 ln p σ
p b pol
p=1 p=1
(4.77)
où w1 , w2 , w3 , w4 sont les poids des vraisemblances normalisées et des densités a priori sur
σp2 et σb2 , et µpol est une correction d’ordre relative à la polyphonie P . Les sommes des
 
log-densités L̃p et ln p σ c2 sont normalisées par P selon le même principe que pour la
p
normalisation de Lp et Lb par Hp et #Fb . Par ailleurs, les log-densités a priori sur les
filtres Ap et B ont été supprimés, en leur imposant un poids nul, car elles ne portent pas
d’information utile (ou, de manière équivalente, en considérant p (Ap ) et p (B) constantes).
Dans l’expression (4.77), les coeffcients sont fixés de manière empirique à
w1 , 8, 1.10−1 (4.78)
w2 , 1, 4.104 (4.79)
2
w3 , 6, 2.10 (4.80)
w4 , 5, 8 (4.81)
µpol , 25 (4.82)
La fonction L̃x (C) obtenue peut alors être utilisée comme fonction de détection pour
l’estimation des fréquences fondamentales multiples. Le principal mérite de la normalisation
est de proposer une solution homogène, en terme de dimensions. Ce problème se pose dès
lors que le nombre d’observations varie, comme c’est le cas ici. Quant à l’efficacité – au
sens commun du terme – de ces approximations, nous verrons qu’elle est en pratique bonne
lors de l’évaluation de l’algorithme (partie 6.3).

Estimation des fréquences fondamentales multiples


L’estimation des fréquences fondamentales multiples consiste finalement à déterminer
Cb , arg max L̃x (C) (4.83)
C∈Ce

La figure 4.11 illustre la maximisation (4.83) de la vraisemblance pondérée L̃x (C) en


montrant les modèles de mélanges conduisant aux vraisemblances les plus élevées dans le
cas de l’analyse d’un La♭ 3. Le modèle correspondant à cette note (MIDI 68) apparaît en
première position : il est bien estimé comme celui qui maximise la vraisemblance pondérée
L̃x (C). Suivent ensuite des mélanges d’une ou plusieurs notes, souvent composés de la note
originale, de l’octave ou de la sous-octave. Dans la partie supérieure de la figure, nous
pouvons remarquer que les diverses contributions composant la vraisemblance pondérée ne
varient pas de la même façon d’un modèle de mélange à l’autre, certains étant davantage
pénalisés par la vraisemblance du bruit et d’autres par le paramètre de puissance des
enveloppes spectrales par exemple.

4.8 Résumé de l’algorithme d’estimation de fréquences fon-


damentales multiples
L’algorithme 4.2 détaille le déroulement de l’estimation de fréquences fondamentales
multiples, dont nous avons déjà vu un diagramme sur la figure 4.4 (p. 86). L’estimation est
109

200
w1 (L̃1 + . . . + L̃P )/P
0 w2 L̃b
w3 (L(σ12 ) + . . . + L(σP2 ))/P
w4 L(σb2 )
−200 −µpol P

−400
0 20 40 60 80 100
−1500

−2000
0 20 40 60 80 100

80
MIDI

60

40
0 20 40 60 80 100

Figure 4.11 – Log-vraisemblance pondérée pour un La♭ 3 (note MIDI 68) : en haut, les
cinq composantes pondérées (un décalage vertical a été introduit dans un souci de confort
visuel) ; au milieu, la log-vraisemblance pondérée, somme des composantes pondérées ; en
bas, les notes correspondantes. Sur les trois graphiques, les abscisses représentent l’indice
des mélanges testés, triés par ordre décroissant selon leur log-vraisemblance pondérée. Seuls
les 100 premiers mélanges sur les 466 testés sont représentés. Le mélange estimé est surligné
sur la figure du bas (premier mélange, à gauche, composé de la note 68).

réalisée sur une trame de 93 ms (soit 2048 points échantillonnés à 22050 Hz). Le temps de
calcul sur un ordinateur du commerce est de l’ordre de 150 fois le temps réel. L’algorithme
est donc plus coûteux que certains tels que celui de Klapuri [2006] mais ce coût reste
raisonnable (en particulier si l’on considère le coût de l’approche naïve de l’estimation
jointe, sans sélection de candidats, discutée plus haut). La partie la plus coûteuse est
l’estimation des paramètres du modèle qu’il faut réaliser pour les 466 mélanges à tester.
Elle a été mise en oeuvre en C alors que le reste du programme est mis en œuvre en Matlab.
110 4. Estimation de fréquences fondamentales multiples

Entrées: trame x de signal audio


Estimation du niveau de bruit et blanchiment {pré-traitement}
Calcul du périodogramme |X|2
Sélection de Nc candidats
Estimation de µ et µb
Pour chaque mélange candidat C
Estimation itérative des amplitudes de partiels et des enveloppes spectrales de notes
{algorithme 4.1 (p. 97)}
Pour chaque note p, calcul de Lp {équation
  (4.35) (p. 93)}
c
Pour chaque note p, calcul de ln p σ {équation (4.59) (p. 103)}
2
p
Estimation des paramètres du bruit {algorithme 2.2 (p. 68)}
Calcul de Lb {équation
  (4.54) (p. 101)}
c
Calcul de ln p σb {équation (4.59) (p. 103)}
2

Calcul de la vraisemblance pondérée associée au mélange {équation (4.77) (p. 108)}


Fin Pour
Extraction du mélange le plus vraisemblable {équation (4.83) (p. 108)}
Sorties: notes présentes dans la trame
Algorithme 4.2: Estimation de fréquences fondamentales multiples.
111

4.9 Conclusion
Nous avons décrit un algorithme d’estimation de fréquences fondamentales multiples
adapté aux sons de piano en construisant un modèle de son, en détaillant des méthodes
pour estimer les paramètres du modèle et en proposant une fonction d’estimation du mé-
lange de notes le plus vraisemblable. L’approche, de nature spectrale, prend en compte
l’inharmonicité des sons, considère conjointement les notes en supposant que leurs enve-
loppes spectrales sont régulières et propose une modélisation du recouvrement entre les
spectres. L’ensemble s’intègre dans un cadre statistique, la décision sur l’estimation des
fréquences fondamentales multiples présentes étant prise à partir d’une approximation de
la vraisemblance des observations étant donné un mélange de notes. Les performances
de cet algorithme sont mesurées dans la partie 6.3.1 (p. 145) et des perspectives sur ces
travaux sont dressées dans la partie 6.4 (p. 159).
112 4. Estimation de fréquences fondamentales multiples
113

Chapitre 5

Système de transcription

Nous avons vu dans le chapitre 4 comment estimer les hauteurs des notes présentes
dans une trame de signal donnée. Un mode de transcription élémentaire consiste à appliquer
l’algorithme sur des trames successives pour obtenir les hauteurs présentes dans un morceau
entier en fonction du temps. Il s’agit alors d’une transcription de « bas-niveau » dans la
mesure où elle ne considère pas les notes comme des entités : le résultat obtenu n’est qu’une
fragmentation des notes selon le tramage d’analyse. Dans ce chapitre, nous utiliserons la
méthode d’estimation de fréquences fondamentales multiples présentée précédemment et
introduirons les mécanismes nécessaires pour élaborer des notes à partir d’une analyse
par trames. Après avoir détaillé notre problématique dans la partie 5.1, nous montrerons
comment les modèles de Markov cachés offrent un cadre approprié pour suivre les mélanges
de hauteurs et en déduire des notes. Le système de transcription complet sera finalement
capable d’analyser l’enregistrement d’une pièce pour piano solo et d’en estimer les notes,
c’est-à-dire leur hauteur, leur instant d’attaque et leur durée.
Une version antérieure des travaux présentés ici a fait l’objet d’une publication [Emiya
et al., 2008].

5.1 Principe et stratégies de transcription


Nos travaux sur la transcription automatique de la musique de piano reposent sur
l’idée que la prise en compte des spécificités du piano doivent pouvoir simplifier la tâche de
transcription et/ou mener à de meilleures performances par rapport à un système générique.
La démarche consiste d’une part à déterminer comment simplifier le problème du fait de la
restriction au piano que l’on s’impose, et d’autre part à enrichir le modèle en introduisant
les éléments propres à l’instrument.
Dans cet esprit, la stratégie adoptée s’appuie sur le recensement de quelques principes
relatifs au piano :
– le caractère fortement polyphonique de la musique de piano ;
– la grande virtuosité des pièces du répertoire classique de piano solo ;
– l’évolution complexe des amplitudes des partiels ;
– la grande variabilité inter- et intra-instrument des enveloppes spectrales ;
– les modulations de fréquence négligeables ;
– la nature percussive de l’attaque des notes ;
– la distribution inharmonique des fréquences des partiels.
Pour donner une idée du niveau relativement élevé de polyphonie que l’on rencontre
114 5. Système de transcription

dans le répertoire pour piano solo, un ensemble de morceaux [Krueger, 2008] a été analysé
en extrayant le nombre de notes présentes simultanément. Chaque niveau de polyphonie
trouvé est représenté sur la figure 5.1, en proportion de la durée totale des 232 pièces de la
base utilisée. La polyphonie varie généralement entre 0 (silence) et 10, avec une moyenne
à 4, 5. Grâce à la pédale forte, un pianiste peut produire plus de dix notes simultanément,
le maximum relevé dans la base de morceaux, lors d’une montée chromatique rapide, étant
de 60 notes.

Moy.: 4.5 − Ecart type: 3.1


20
Histogramme
15 Moyenne
Ecart type
%

10

0
0 10 20 30 40 50 60
Polyphonie

Figure 5.1 – Niveau de polyphonie de pièces du répertoire classique, en proportion de la


durée totale.

La figure 5.2 permet de donner un ordre de grandeur de la complexité engendrée par


la virtuosité dans le cas du répertoire de piano solo, par rapport aux répertoires d’autres
formations classiques. En analysant des fichiers MIDI disponibles sur Internet, nous avons
calculé le débit moyen de notes de chaque fichier (rapport du nombre de notes par la
durée totale). Les pièces analysées appartiennent aux répertoires classique et romantique
et ont été choisies au hasard. Chaque fichier correspond à un mouvement d’une œuvre,
tous les mouvements étant analysés. La base de fichiers comporte ainsi une alternance de
mouvements lents et rapides, et d’œuvres de virtuosités variables. Nous distinguons trois
sortes de formations : musique de chambre sans piano – du trio au quatuor, à cordes en
général –, piano solo, et musique symphonique. Pour chaque formation, les statistiques sont
établies tous compositeurs confondus ainsi que dans quelques cas particuliers – celui de la
musique de Beethoven, choisie car elle présente dans un même style toutes les formations
comparées, et celui de la musique de Chopin, musique pianistique virtuose de référence. De
manière générale, le débit de notes de la musique pour piano solo est plus élevé que celui
de la musique de chambre sans piano, et moins élevé que celui de la musique symphonique.
Plus précisément, le débit médian de la musique pour piano solo coïncide avec le troisième
quartile du débit de musique de chambre, alors que la première moitié des morceaux de
musique symphonique a un débit correspondant à l’ensemble de la musique pour piano solo.
Ces tendances fortes nous permettent d’affirmer qu’en raison de la vituosité des œuvres, la
transcription de la musique de piano est d’une difficulté comparable à la transcription de
musique d’ensembles conséquents pouvant aller jusqu’à l’orchestre. Nos affirmations s’en
tiendront à ce constat, la comparaison effectuée étant très limitée : elle fait abstraction de
phénomènes comme l’unisson de plusieurs instruments ou la diversité des timbres dans la
musique d’ensemble (qui rendent la musique de piano plus facile à transcrire), la tessiture
ou la concentration spatiale du piano (qui la rend plus difficile).
Si polyphonie élevée et virtuosité constituent deux défis pour la transcription auto-
matique de la musique de piano, nous allons maintenant voir comment d’autres aspects
spécifiques évoqués plus haut se rangent plutôt dans la catégorie des éléments qui peuvent
115

Symphonies Beethoven
Symphonies
Piano Chopin
Piano
Piano Beethoven
Mus. Chambre Beethoven
Mus. Chambre

0 10 20 30 40 50 60
Débit moyen (notes/s)

Figure 5.2 – Débit moyen de notes en fonction de plusieurs formations classiques (musique
de chambre sans piano, piano solo, musique symphonique), tous compositeurs confondus
et pour quelques compositeurs emblématiques. Les limites trouvées sont représentées par
les zones pleines, les quartiles par les traits. Les statistiques ont été calculées par rapport
au débit moyen des mouvements de chaque morceau.

faciliter la transcription. Dans un contexte musical le plus large possible, le début d’une note
(voire d’un événement musical si l’on considère les musiques qui n’utilisent pas seulement
des notes comme matériau, mais par exemple des bruits) survient soit de manière disconti-
nue dans le cas d’une note détachée, soit de manière davantage continue, par exemple lors
de passages liés ou de glissandi joués par des vents, des cordes frottées ou chantés [d’Ales-
sandro et al., 1998b]. Les notes de piano contrastent avec cette diversité puisqu’elles ne
peuvent commencer que par une attaque, plus ou moins franche. Nous pouvons ainsi sim-
plifier la tâche de caractérisation du début des notes en nous concentrant sur ce genre
d’attaques et en excluant toute forme de continuité entre deux notes successives. La nature
percussive des sons et l’absence de modulation fréquentielle significative nous permettent
même d’aller plus loin : le contenu sonore dans un segment compris entre deux attaques
consécutives se compose d’une ou plusieurs notes, toutes présentes au début du segment,
de fréquences fondamentales constantes le long du segment et pouvant éventuellement se
terminer, de manière indépendante les unes des autres, au cours de ce laps de temps. Cette
évolution relativement simple exclut en particulier l’apparition d’une note à l’intérieur du
segment, ainsi que tout phénomène de type vibrato ou glissando.

5.2 Description du système


5.2.1 Segmentation de l’extrait analysé
Dans notre système de transcription, l’estimation des notes repose sur une analyse
synchrone avec les attaques. La première étape de la transcription consiste donc à estimer
ces attaques. Pour ce faire, nous utilisons la méthode proposée par Alonso et al. [2005]
s’appuyant sur le principe du flux d’énergie spectrale (SEF, Spectral Energy Flux ). Le SEF
consiste à calculer les variations temporelles d’une représentation énergétique du signal,
telle que le spectrogramme représenté sur la figure 5.3. Dans ce genre de représentations,
le bruit s’étale sur une partie du spectre alors que les composantes sinusoïdales sont très
localisées : ce pouvoir de séparation rend l’apparition d’une note plus facile à détecter que
dans le domaine temporel où l’on ne peut détecter qu’une variation globale d’énergie. La
méthode de Alonso et al. [2005] propose en outre d’appliquer des traitements spécifiques à la
transformée de Fourier à court terme (compression, pondération psycho-acoustique) avant
116 5. Système de transcription

de calculer le SEF. Les attaques sont ensuite détectées comme les maxima de la fonction
de détection, extraits en utilisant un seuil adaptatif, comme illustré sur la figure 5.3.

8000

6000
f (Hz)

4000

2000

0
0 1 2 3 4 5 6 7 8
t(s)

0.5

0
Forme d’onde
−0.5 Fonction de détection
Seuil de détection
Attaques détectées
−1
0 1 2 3 4 5 6 7 8
t (s)

Figure 5.3 – Exemple de détection des attaques sur un extrait d’España-Tango, Op. 165
d’I. Albéniz : en haut, spectrogramme de l’extrait, et, en bas, forme d’onde avec fonction
de détection.

Dans toute la suite, nous appellerons segment l’intervalle de taille variable compris
entre deux attaques consécutives, et qui sera décomposé en trames de durée fixe.

5.2.2 Modélisation du suivi des mélanges de notes par HMM


Dans la partie 4.2.2 (p. 87), nous avons vu que le principe de l’estimation de fréquences
fondamentales multiples à partir d’une trame de signal x donnée s’exprime sous forme sta-
tistique comme la maximisation de la probabilité a posteriori p (C|x) (équation (4.17) p. 87)
par rapport à tous les mélanges de notes C possibles ou, de manière équivalente et sous
certaines conditions, comme la maximisation de la vraisemblance p (x|C) (équation (4.18)
p. 87). Nous avons également vu comment réaliser la maximisation sur un ensemble res-
treint Ce de mélanges (équation (4.19) p. 87) plutôt que sur l’ensemble de tous les mélanges
possibles C, dont la taille est trop grande.
Nous étendons maintenant ce principe à plusieurs trames consécutives afin d’estimer et
de suivre un mélange de notes, au fil des trames, sur un segment arbitrairement long entre
deux attaques. Nous décrivons ici comment ce suivi s’intègre naturellement dans le cadre
des modèles de Markov cachés (HMM) [Rabiner, 1989].
Lorsqu’une ou plusieurs notes sont jouées, elles s’étalent sur un certain nombre de
trames consécutives au cours desquelles chaque note peut à tout moment se terminer.
Ainsi, sur un horizon relativement court comme celui constitué par la durée d’une note,
le contenu polyphonique d’une trame donnée dépend fortement du passé à court terme.
Nous allons voir comment ce processus peut être décrit par un HMM, comme illustré sur la
figure 5.4. Nous considérons pour cela que l’étape de détection d’attaques permet de diviser
le signal en ce que nous appellerons segments, et qui sont les portions, de longueur variable,
117

x1 x2 xu xU

C1 C2 Cu CU

Figure 5.4 – Processus de génération des observations par HMM : entre deux attaques, la
suite des mélanges de notes forme une chaîne de Markov, dont les états (cachés) permettent
de générer les trames de signal observées.

délimitées par deux attaques consécutives. Un segment donné se compose de U trames de


longueur constante numérotées de 1 à U , U dépendant de la longueur du segment. Le signal
xu d’une trame u ∈ J1; U K est un vecteur aléatoire qui dépend du mélange de notes sous-
jacent, noté Cu . Cu est lui-même considéré comme une variable aléatoire : étant données nos
considérations sur la dépendance entre les contenus polyphoniques des trames successives,
nous supposerons qu’un processus de Markov du premier ordre sous-tend la génération de
la suite C1 . . . CU , mélanges de notes successifs dans le segment. Formellement, pour u ≥ 2,
le mélange Cu ne dépend que de Cu−1 et ne dépend pas de u, de sorte que

p (Cu |u, C1 . . . Cu−1 ) = p (Cu |u, Cu−1 )


= p (Cu |Cu−1 ) (5.1)

La transcription du segment consiste donc à trouver la séquence optimale d’états cachés


Cˆ1 Cˆ2 . . . CˆU étant données les observations successives x1 x2 . . . xU . Le critère d’optimalité
n’est plus le maximum de vraisemblance dans chaque trame comme dans le cas de l’estima-
tion de fréquences fondamentales multiples (équation (4.83) p. 108), mais prend en compte
l’enchaînement des trames grâce au processus markovien énoncé ci-dessus. En termes sta-
tistiques, Cˆ1 Cˆ2 . . . CˆU est défini par

Cˆ1 . . . CˆU = arg max p (C1 . . . CU |x1 . . . xU ) (5.2)


C1 ...CU

qui devient, en appliquant la règle de Bayes :

p (C1 . . . CU ) p (x1 . . . xU |C1 . . . CU )


Cˆ1 . . . CˆU = arg max (5.3)
C1 ...CU p (x1 . . . xU )

Le dénominateur pouvant être supprimé sans changer le résultat de la fonction arg max, il
vient :

Cˆ1 . . . CˆU = arg max p (C1 . . . CU ) p (x1 . . . xU |C1 . . . CU ) (5.4)


C1 ...CU

La trame observée xu ne dépendant que du mélange sous-jacent Cu , on a :


U
Y
Cˆ1 . . . CˆU = arg max p (C1 . . . CU ) p (xu |Cu ) (5.5)
C1 ...CU u=1
118 5. Système de transcription

En utilisant l’hypothèse markovienne (équation (5.1)), l’expression se simplifie alors en :

U
Y U
Y
Cˆ1 . . . CˆU = arg max p (C1 ) p (Cu |Cu−1 ) p (xu |Cu ) (5.6)
C1 ...CU u=2 u=1

Cette équation représente précisément l’optimisation qui est réalisée dans le cadre de
l’utilisation de HMM. À condition de définir et de pouvoir calculer chacun des termes de
l’expression à maximiser, nous pouvons alors trouver la suite Cˆ1 . . . CˆU grâce à l’algorithme
de Viterbi [1967]. La vraisemblance d’une observation étant donné un état, p (xu |Cu ), cor-
respond à la vraisemblance pondérée définie, sous forme logarithmique, pour l’estimation de
fréquences fondamentales multiples par l’équation (4.77) (p. 108). Les deux autres termes
restent maintenant à définir : il s’agit des probabilités initiales notée p (C1 ) (probabilité de
se trouver dans l’état C1 dans la première trame) et des probabilités de transition notées
p (Cu |Cu−1 ) (probabilité de passer de l’état Cu−1 à l’état Cu ).

5.2.3 Initialisation et transitions de la chaîne de Markov


Nous avons vu dans la partie 4.3 (p. 90) le moyen de réduire l’espace de recherche des
mélanges de notes en sélectionnant des notes candidates dans chaque trame analysée. Le
principe est ici mis en œuvre en n’extrayant les notes candidates qu’au début du segment
et non dans chaque trame, puisque toutes les notes présentes dans le segment le sont
forcément au début de celui-ci. Nous procédons donc comme auparavant, en extrayant les
Nc premiers pics du produit spectral inharmonique normalisé défini par l’équation (4.29)
(p. 90). Pour plus de robustesse vis-à-vis de l’étalement temporel de l’amorce des partiels et
du bruit percussif des attaques, nous moyennons ce produit spectral sur les trois premières
trames du segment pour extraire ses maxima.
En composant des mélanges à partir des Nc notes candidates et en limitant la polypho-
nie à un nombre maximal Pmax , nous constituons l’ensemble Ce des mélanges possibles
P max  dans
chaque trame du segment considéré. Ces mélanges, au nombre de #Ce = Pp=0 Nc
p = 466
dans notre cas, constituent les états cachés possibles. Nous définissons la probabilité initiale
d’un mélange comme ne dépendant que du nombre de notes du mélange :
(
πi (#C) si C ∈ Ce
p (C) , (5.7)
0 sinon

où les valeurs de la fonction p 7→ πi (p) seront fixées par une phase d’apprentissage, comme
l’explique la prochaine partie.
La probabilité de transition d’un mélange C à un mélange C ′ est ensuite définie comme
suit :
– pour 2 ≤ u ≤ U , l’apparition d’une note dans la trame u est interdite du fait de la
définition même d’un segment comme étant délimité par deux attaques consécutives ;
nous en déduisons que p (C ′ |C) , 0 si C ′ n’est pas un sous-ensemble de C ;
– en conséquence, la seule transition possible depuis l’état « silence » (C = ∅) est vers
lui-même : p (∅|∅) , 1 ;
– dans les autres cas (C ′ ⊂ C), les transitions depuis C sont possibles vers C lui-même
(C ′ = C) ou vers un sous-ensemble strict C ′ (il y a alors extinction des notes qui ont
disparu de C). Nous choisissons de ne faire dépendre la probabilité de transition que
du nombre de notes dans les accords C et C ′ . Cette probabilité, notée λ (#C, #C ′ ),
est fixée par la phase d’apprentissage détaillée dans la prochaine partie.
119

−3
x 10 Probabilités initiales
11
log (λ (p, p′ ))
10
0
9 0
8 −0.5
1
7
2 −1
πi (p)

6
3

p
5
−1.5

4 4
−2
3 5
−2.5
2
6
1
0 1 2 3 4 5 6 0 2 4 6
Polyphonie p p′
(a) Apprentissage des probabilités initales (b) Apprentissage des probabilités de transition

Figure 5.5 – Résultat de l’apprentissage des paramètres des HMM pour Nc = 9 notes
candidates et un polyphonie maximale Pmax = 6.

5.2.4 Apprentissage des paramètres du HMM


L’apprentissage des paramètres du système se réduit à celui des probabilités initiales et
des probabilités de transition. Le processus d’apprentissage est réalisé sur des fichiers MIDI
issus de la base de Krueger [2008]. En utilisant une telle base qui contient directement
l’information que l’on souhaite apprendre, l’apprentissage est relativement simple et ne
nécessite pas de recourir à l’algorithme EM [Dempster et al., 1977].
Pour apprendre la probabilité initiale πi (p) associée à une polyphonie p ∈ J0; Pmax K,
il suffit de dénombrer le nombre de cas d’attaques où la polyphonie est égale à p et de
rapporter le résultat au nombre total d’attaques où la polyphonie est comprise entre 0 et
Pmax , multiplié par le nombre total d’états de polyphonie p. En toute logique, il n’existe
pas de cas d’attaque pour lequel la polyphonie est nulle, cet apprentissage mène donc à
πi (0) = 0, mais en pratique, la phase de détection d’attaques peut commettre quelques
fausses alarmes. Pour essayer de corriger ces erreurs, nous permettons à notre algorithme
de détecter un silence dès la première trame d’un segment en attribuant une valeur non
nulle à πi (0). Cette valeur est arbitrairement fixée à la moyenne des probabilités initiales
apprises pour les autres polyphonies. Le résultat est représenté sur la figure 5.5(a). Il faut
P max
noter que Pp=0 πi (p) 6= 1 car c’est la probabilité de l’ensemble des états initiaux, et non
de l’ensemble des polyphonies possibles, qui doit valoir 1. On a alors

max 
PX 
Nc
πi (p) = 1 (5.8)
p
p=0

En conséquence, contrairement à ce que la figure 5.5(a) peut laisser croire à première


vue, la polyphonie 1 n’est pas la plus probable car il n’existe que Nc mélanges d’une seule
note. L’allure de la distribution statistique initiale des polyphonies, non représentée ici, se
rapproche donc de celle de la figure 5.1 (p. 114).
En suivant le même principe de dénombrement, les probabilités de transition d’un
mélange de polyphonie p ∈ J0; Pmax K à un mélange de polyphonie p′ ∈ J0; pK sont calculées
en découpant en trames l’axe temporel des fichiers MIDI et en calculant la proportion
120 5. Système de transcription

de passage d’une polyphonie p à une polyphonie p′ à partir de toutes les trames dont la
polyphonie est p. Les résultats de cet apprentissage sont représentés sur la figure 5.5(b).
Pour chaque mélange de polyphonie p, la probabilité de l’ensemble des transitions possibles
doit valoir 1. Les transitions étant possibles vers tout sous-ensemble de cet accord, nous
obtenons

p  
X p
∀p ∈ J0; Pmax K, λ(p, p′ ) = 1 (5.9)
p′
p′ =0

Contrairement aux probabilités initiales, les probabilités de transitions dépendent non


seulement du nombre de notes candidates sélectionnées et de la polyphonie maximale, mais
également de la durée des trames d’analyse. Ce paramètre, fixé à 93 ms dans notre cas, a
une influence particulière sur la probabilité de rester dans le même état.

5.2.5 Estimation du mélange de notes le plus vraisemblable


En pratique, une fois la vraisemblance des observations calculées pour chaque état
possible et pour chaque trame, la mise en œuvre de l’algorithme de Viterbi [1967] donne
lieu à une estimation très rapide. En particulier, elle s’affranchit de tout calcul relatif
aux états ainsi qu’aux transitions dont la probabilité est nulle du fait de la sélection de
candidats et des
règles de transition.
 L’ordre de grandeur de la complexité de l’estimation
2
est alors en O #Ce #U . Le temps d’exécution propre de l’algorithme de Viterbi est
en pratique petit devant le temps de calcul de la vraisemblance du signal dans chaque état.
La figure 5.6 représente un exemple d’estimation du mélange de notes et de son suivi
sur un segment, dans un cas simplifié. Cette estimation est réalisée en pratique pour chaque
segment, en utilisant un HMM avec #Ce états, et donne lieu à la transcription du segment :
une même note estimée dans des trames successives sera alors transcrite comme une unique
note présente dont la durée correspond à celle des trames.

5.2.6 Détection des notes répétées et génération de la transcription


Les transcriptions de chaque segment une fois réalisées, il reste une étape avant de
générer la transcription du morceau complet. Lorsqu’une note a été détectée dans la totalité
d’un segment et au début du suivant, il convient de déterminer si la même note s’étale sur
les deux segments (auquel cas l’attaque au début du second segment correspond au début
d’une autre note), ou bien si la note dans le second segment est une répétition de celle du
premier. Pour distinguer les deux cas, nous estimons une variation d’intensité en utilisant
la fonction définie par l’équation (4.29) (p.90) pour la sélection de candidats, et calculée
ici sur une version non blanchie du signal. Nous considérons alors qu’une note est répétée
si cette variation dépasse un seuil arbitrairement fixé à 3 dB.
La transcription du morceau complet peut être alors générée. Elle se présente sous la
forme d’un fichier MIDI contenant les notes estimées avec leur hauteur et leurs instants
d’attaque et de fin. L’information de nuance (velocity en MIDI) n’ayant pas été estimée,
elle est fixée à une valeur moyenne (64 sur une échelle variant de 1 à 127). L’estimation de
cette intensité n’a pas fait l’objet d’une étude car il nous a semblé que le caractère non-
linéaire de la perception de l’intensité et l’absence d’une normalisation précise en MIDI
121

silence silence silence silence silence

Do4 Do4 C4 Do4 Do4

HH C′ Do4
Mi4 Mi4 Mi4 Mi4 Mi4 HH ∅ Do4 Mi4
C H
H Mi4
∅ 1 0 0 0
Do4 Mi4 Do4 Mi4 Do4 Mi4 Do4 Mi4 Do4 Mi4
Do4 .17 .83 0 0
Mi4 .17 0 .83 0
1ère trame 2ème trame 3ème trame Dernière frame Do4 Mi4 .07 .06 .06 .80
(a) Estimation de la séquence d’états : la matrice de transi- (b) Matrice de transition : probabilité de
tion étant creuse, les transitions depuis un état ne sont pas transition d’un accord C à un accord C ′ .
possibles vers tous les autres états mais uniquement vers les
états relatifs à des sous-ensembles du mélange de départ.

Figure 5.6 – Exemple de transcription d’un segment par HMM : dans un souci de lisibilité,
seules deux notes (Do 4 et Mi 4) ont été sélectionnées. La ligne en gras et en pointillés
représente le chemin estimé : le mélange {Do 4, Mi 4} est détecté, le Do 4 se termine à la
trame 3 alors que le Mi 4 dure jusqu’à l’avant-dernière trame du segment.

rendait cette étude trop complexe dans le cadre de cette thèse 1 .


Des exemples de transcriptions sont représentés sur les figures 5.7 et 5.8. Ils ont été
obtenus dans les conditions suivantes. Le morceau à analyser se présente sous la forme d’un
enregistrement monaural échantillonné à 22 kHz. Une fois le signal segmenté en fonction
des attaques détectées, l’analyse se déroule sur des trames de 93 ms se recouvrant de
moitié. Le système détecte les notes comprises entre le Do 1 (note MIDI 36) et le Si 5
(note MIDI 95). Nc = 9 notes sont sélectionnées comme candidates pour chaque segment
et la polyphonie maximale est fixée à Pmax = 6. La précision temporelle pour des notes est
de 11, 6 ms (pas utilisé pour la détection des attaques). La détection de la fin des notes,
bien moins déterminante pour la qualité de la transcription, dépend de l’estimation par
HMM réalisée par pas de 46 ms. Le programme a été mis en œuvre en Matlab et en C, et
son temps d’exécution est inférieur à 200 fois le temps réel sur un PC récent.
La transcription représentée sur la figure 5.7(b) est issue d’un morceau assez lent, avec
des notes tenues. Le morceau transcrit sur la figure 5.8(b) est plus technique dans la mesure
où il est plus rapide et qu’il présente des accords plus fournis en notes. Sur l’ensemble de
ces exemples, qui sont de « bonnes » transcriptions, les hauteurs et durées des notes sont
bien estimées, avec quelques erreurs. Nous verrons dans le chapitre 6 une évaluation plus
détaillée du comportement de notre algorithme.

1. Si la perception de l’intensité a été largement étudiée dans le champs de la perception des sons en
général, peu de travaux s’y sont intéressés dans le cas de la transcription automatique. Citons tout de
même Marolt [2004] qui évalue l’intensité d’une note en fonction de l’énergie de son premier partiel et
[Klapuri et Davy, 2006, p. 8 et 172] qui mentionnent l’utilisation d’une échelle logarithmique appliquée au
niveau RMS (Root Mean Square) estimé.
122 5. Système de transcription

90

80
Notes (MIDI)

70

60

50

40

0 5 10 15 20 25 30
t (s)
(a) Original.

90

80
Notes (MIDI)

70

60

50

40

0 5 10 15 20 25 30
t (s)
(b) Transcription (et original, en noir).

Figure 5.7 – Exemple de transcriptions : début de la Sonate no 54 pour piano en Sol


Majeur Hob. XVI :40 de J. Haydn. Sous la forme d’un piano roll (hauteurs des notes en
fonction du temps), les figures représentent la référence (traits noirs) et la transcription
(traits clairs et plus fins). Dans la version électronique de ce document, il est possible de
cliquer sur ces figures pour voir une vidéo et écouter l’extrait sonore associé aux morceaux
originaux et transcrits.
123

90

80
Notes (MIDI)

70

60

50

40

0 5 10 15 20 25 30
t (s)
(a) Original.

90

80
Notes (MIDI)

70

60

50

40

0 5 10 15 20 25 30
t (s)
(b) Transcription (et original, en noir).

Figure 5.8 – Exemple de transcriptions : début de l’Étude no 2 (Presto) Op. 25 de F.


Chopin. Dans la version électronique de ce document, il est possible de cliquer sur ces
figures pour voir une vidéo et écouter l’extrait sonore associé aux morceaux originaux et
transcrits.
124 5. Système de transcription

5.3 Conclusion
Dans ce chapitre, nous avons décrit la conception d’un système de transcription opéra-
tionnel pour l’extraction des notes contenues dans un enregistrement de piano. Le système
est capable d’estimer conjointement le niveau de polyphonie, dans la limite de 6 notes
simultanées, et d’identifier les notes présentes. Il utilise l’algorithme d’estimation de fré-
quences fondamentales multiples présenté précédemment et assure le suivi des mélanges
de notes par modèles de Markov cachés. Les performances et résultats du système seront
analysés au chapitre 6.
125

Chapitre 6

Évaluation

Nous nous intéressons maintenant aux résultats pratiques obtenus avec notre système.
Si l’évaluation d’un système de transcription constitue une démarche nécessaire, la tâche
n’en est pas moins complexe, comme nous le montrerons ici. L’évaluation met en jeu deux
composantes : les critères d’évaluation et la base d’évaluation. Toutes deux doivent
être fixées pour pouvoir établir et comparer les performances de plusieurs systèmes.
En pratique, par manque de consensus sur les méthodes d’évaluation et parce que les
bases de données appropriées sont rares, la plupart des auteurs préfèrent utiliser une base
et des critères qui leur sont propres, avec lesquels ils réalisent une évaluation compara-
tive de plusieurs systèmes. En espérant contribuer à faciliter et enrichir cette étape, nous
aborderons ici l’évaluation en développant la question des critères d’évaluation, puis propo-
serons une base de données adaptée à l’évaluation des tâches de transcription automatique
et d’estimation de fréquences fondamentales multiples, dans le cas du piano.
Nous terminerons ce chapitre par une évaluation détaillée et comparative de nos algo-
rithmes d’estimation de fréquences fondamentales multiples et de transcription, en utilisant
les outils et sons élaborés.
Ces travaux ont partiellement fait l’objet d’une publication [Daniel et al., 2008]. Par
ailleurs, une première comparaison détaillée de résultats sur l’estimation de fréquences
fondamentales multiples de sons de piano a été présentée par David et al. [2007].

6.1 Méthodes d’évaluation


6.1.1 Introduction
La problématique de l’évaluation des systèmes de transcription soulève deux questions :
– quelles sont les méthodes utilisées habituellement pour évaluer les systèmes de trans-
cription ?
– dans quelle mesure l’évaluation par ces méthodes est-elle valide ?
Nous allons donc dans un premier temps nous intéresser aux méthodes d’évaluation
habituellement utilisées. Nous verrons qu’elles se concentrent essentiellement sur un dé-
nombrement des notes détectées ou manquantes et discuterons ensuite de la validité de ces
méthodes et de leurs limites.

Évaluation qualitative
Certains auteurs se contentent d’illustrer la présentation de leur système à l’aide de
quelques exemples de transcription [Moorer, 1975; Martin, 1996; Rossi, 1998; Walmsley
126 6. Évaluation

et al., 1999; Smaragdis et Brown, 2003; Cemgil et al., 2006; Davy et al., 2006]. Ils montrent
ainsi le type de résultats auquel on peut s’attendre. L’avantage de ce type d’évaluations
réside dans la possibilité de mettre en avant quelques erreurs typiques, comme les erreurs
d’octave ou les notes répétées, et de les relier à la technique utilisée. En revanche, elles ne
donnent pas de résultats sur un nombre significatif de transcriptions, et ne proposent pas
d’évaluation quantitative ou comparative.

Critères quantitatifs
Les critères quantitatifs constituent le type d’évaluation le plus largement répandu. Ils
consistent à compter le nombre de détections correctes et d’erreurs, en fonction desquels
plusieurs taux sont calculés. Ce système d’évaluation n’est toutefois pas unifié. Certains
effectuent le décompte dans chaque trame analysée [Plumbley et al., 2006; Poliner et Ellis,
2007] alors que d’autres s’appuient sur les notes [Dixon, 2000; Marolt, 2004; Bello et al.,
2006; Ryynänen et Klapuri, 2005; Bertin et al., 2007; Vincent et al., 2008]. Dans ce dernier
cas, la définition d’une note correctement estimée dépend d’un seuil de tolérance sur la
fréquence fondamentale (le demi-ton en général, cf. correspondance entre fréquence fonda-
mentale et notes dans l’annexe C (p. 177)), sur l’instant d’attaque (50 ms pour Bello et al.
[2006]; Vincent et al. [2008], 70 ms pour Dixon [2000], 128 ms pour Bertin et al. [2007],
150 ms pour Ryynänen et Klapuri [2005]) et éventuellement sur l’instant d’extinction de
la note. Enfin, plusieurs systèmes concurrents sont proposés, avec des critères légèrement
différents.
Un premier système d’évaluation quantitative est utilisé sur la base d’un décompte par
note [Bello et al., 2006; Ryynänen et Klapuri, 2005; Bertin et al., 2007; Vincent et al.,
2008], par trame Plumbley et al. [2006]; Poliner et Ellis [2007], ou des deux [International
Music Information Retrieval Systems Evaluation Laboratory, 2007]. On détermine d’abord
l’ensemble TP des notes correctement estimées (true positive), l’ensemble FP des notes
ajoutées (false positive, ou fausses alarmes), et l’ensemble FN des notes oubliées (false
negative). En fonction des cardinaux de ces ensembles, on définit alors deux critères com-
plémentaires, le rappel (recall ) r et la précision (precision) p [Van Rijsbergen, 1979] :
#TP
r, (6.1)
#TP + #FN
#TP
p, (6.2)
#TP + #FP
Le rappel donne la proportion de notes correctes parmi les notes originales alors que
la précision donne la proportion de notes correctes parmi les notes transcrites. Les deux
critères peuvent être synthétisés en un seul pour obtenir une note globale, par exemple via
la F-mesure f [Van Rijsbergen, 1979] définie par
rp
f ,2 (6.3)
r+p
De manière relativement équivalente, on peut également définir une note globale a,
appelée score [Dixon, 2000] ou accuracy [Poliner et Ellis, 2007; Bertin et al., 2007], par
#TP
a, (6.4)
#TP + #FN + #FP
1
= 2 (6.5)
f −1
127

Un autre système d’évaluation quantitative, utilisé par Raphael [2002]; Poliner et Ellis
[2007] et de façon plus simplifiée par Kameoka et al. [2007], repose non plus sur deux mais
sur trois critères complémentaires : les taux de notes manquantes, de notes substituées, et
de fausses alarmes (dont la définition diffère du cas précédent). Le décompte s’effectue par
trame et les trois critères sont définis par
PT
max (0, #FNt − #FPt )
Emiss , t=1 PT (6.6)
t=1 (#TPt + #FNt )
PT
min (#FPt , #FNt )
Esubs , Pt=1 T
(6.7)
t=1 (#TPt + #FNt )
PT
max (0, #FPt − #FNt )
Efa , t=1 PT (6.8)
t=1 (#TPt + #FNt )
(6.9)

où T est le nombre de trames et TPt , FNt et FPt désignent respectivement l’ensemble des
notes correctes, des notes oubliées et des notes ajoutées dans la trame t. Un taux d’erreur
global est alors
PT
t=1 max (#FPt , #FNt )
Etot , P T
(6.10)
t=1 (#TP t + #FN t )
(6.11)

Évaluation de la transcription de la durée


Ryynänen et Klapuri [2005] proposent un critère d’évaluation de la durée transcrite. Pour
chaque note n correctement transcrite, on définit le taux de recouvrement (overlap ratio)
on entre la note originale et la note transcrite comme étant le rapport entre la longueur de
l’intersection des supports temporels des deux notes et celle de leur union :
min toff
n − max tn
on
on , (6.12)
max toff on
n − min tn

où ton
n et tn sont les couples d’instants, respectivement d’attaque et d’extinction, pour
off

les notes originale et transcrite d’indice n. Le taux de recouvrement moyen (MOR, mean
overlap ratio) o est ensuite obtenu en prenant la moyenne des taux de recouvrement de
toutes les notes transcrites :

N
1 X
o, on (6.13)
N
n=1

où N est le nombre total de notes transcrites.

Vers des critères subjectifs


Les méthodes d’évaluation habituellement répandues offrent un réel aperçu des per-
formances d’un système, sous un angle permettant un jugement objectif. On retrouve ce
type d’évaluations pour les algorithmes d’estimation de fréquences fondamentales multiples
pour lesquels les erreurs sont dénombrées, soit en fonction de la polyphonie, soit de ma-
nière globale. Une évaluation objective est alors adaptée dans la mesure où la tâche n’est
128 6. Évaluation

pas associée à une application musicale particulière, et où elle permet d’examiner plusieurs
taux d’erreurs de base, tels que la précision et le rappel. En revanche, lorsqu’il s’agit de la
transcription de morceaux de musique, l’évaluation objective semble insuffisante, puisque la
qualité musicale d’une transcription n’est pas en rapport direct avec ce type de décompte.
Par exemple, la qualité d’une transcription est en général jugée meilleure lorsque les er-
reurs sont des oublis plutôt que des ajouts. Par ailleurs, l’aspect rythmique et le contexte
harmonique sont déterminants pour évaluer la gravité d’une erreur, comme le montrent les
études sur l’influence de la tonalité [Bigand et al., 1999].
En considérant la problématique de l’évaluation des résultats en général, un parallèle
peut être dressé entre le problème posé pour la transcription et les pratiques répandues dans
les domaines du codage audio ou vidéo et de la séparation de sources. Comme illustré dans
le tableau 6.1, on peut considérer que les métriques utilisés actuellement pour l’évaluation
des transcriptions correspondent à un niveau 0 d’évaluation, au même titre que des critères
de rapport signal à bruit (SNR) en codage, des métriques légèrement plus détaillées comme
le rapport signal à interférences (SIR), le rapport signal à artéfacts (SAR) et le rapport
signal à distortion (SDR) utilisés en séparation de sources [Vincent et al., 2006]. De ce point
de vue, les travaux dans le domaine du codage ont menés à des systèmes d’évaluation plus
évolués. Le test d’écoute est ainsi considéré comme la méthode d’évaluation optimale et est
utilisée comme ultime critère. Le protocole étant difficile à mettre en oeuvre matériellement
et financièrement, des travaux sont menés pour proposer des métriques dites « objectives »
qui permettent de remplacer les jugements subjectifs [Winkler, 2005; Huber et Kollmeier,
2006; Creusere et al., 2008]. Elles permettent ainsi une évaluation de qualité intermédiaire,
entre l’évaluation que nous qualifions de niveau 0 et l’évaluation de qualité optimale par
des sujets.

niveau transcription codage audio/video


F-mesure SNR/PSNR
0 #TP
f, #TP+ 21 #FN+ 21 #FP
rappel r, precision p, SNR, SIR, SAR, SDR
0+ rp
f = 2 r+p (séparation de sources)
métriques
intermédaire ?
plus élaborées
optimal ? tests d’écoute

Table 6.1 – classement qualitatif des méthodes d’évaluation

S’il peut sembler inconcevable de créer un système d’évaluation pouvant se substituer


au jugement et à la sensibilité humains, on peut néanmoins espérer pouvoir en intégrer
quelques aspects élémentaires dans des critères d’évaluation. Les travaux sur la similarité
entre deux extraits musicaux ont abordé cette problématique, plutôt dans le cadre de la
comparaison de mélodies que dans celui de la transcription. La distance d’édition, ou dis-
tance de Levenshtein [Levenshtein, 1965], qui minimise la distance entre deux séquences
quelconques de symboles en utilisant trois opérations élémentaires (insertion, suppression
et remplacement d’un symbole), a ainsi été adaptée par Mongeau et Sankoff [1990] à la
comparaison de deux séquences monodiques, c’est-à-dire sans polyphonie. Les symboles
considérés sont alors les notes, prises dans leur ordre chronologique d’apparition. L’adap-
tation au contexte musical consiste en l’ajout de deux opérations élémentaires – la fusion
de plusieurs notes consécutives de même hauteur et son opération inverse, la fragmenta-
129

tion d’une note – et en l’assignation de poids à chaque opération en fonction du contexte


tonal des notes modifiées. La distance d’édition a ensuite été étendue au cas polyphonique
par Hanna et Ferraro [2007]. Elle s’applique à la classe restreinte des pièces musicales dans
lesquelles les notes simultanées commencent au même instant, à la manière d’accords. Un
morceau adopte alors une structure de séquence quotientée à laquelle on peut appliquer la
distance d’édition.
L’aspect séquentiel imposé par la distance d’édition constitue un obstacle à son utilisa-
tion dans le cas général de morceaux polyphoniques quelconques du fait des chevauchements
possibles entre les supports temporels des notes. Typke et al. [2003, 2007] proposent une
autre approche en considérant les notes comme des points dans un espace métrique multi-
dimensionnel, comme le plan temps-hauteur muni d’une distance euclidienne. Un poids est
également attribué à chaque note, en l’occurrence sa durée. La similarité entre deux mor-
ceaux est alors définie comme l’effort minimum à fournir pour transformer, via la distance
choisie, l’ensemble de points pondérés représentant l’un des morceaux en l’ensemble de
points représentant l’autre. Pour ce faire, deux algorithmes sont proposés, l’EMD (Earth
Movers Distance), et sa variante la PTD (Proportional Transportation Distance) pour la-
quelle il y a conservation de la masse totale des deux morceaux. Dans ces algorithmes,
les déplacements de poids peuvent s’opérer partiellement, d’une note source vers plusieurs
notes cibles et vice-versa, et aucune contrainte sur les morceaux n’est requise, en particulier
sur l’aspect polyphonique.
Ces méthodes ont en commun d’intégrer, sous forme d’opérations spécifiques, des dif-
férences typiques que l’on peut rencontrer entre deux morceaux. Le choix des coûts relatifs
de ces opérations est une étape incontournable dans l’élaboration de telles méthodes et
repose sur la perception de la musique. Nous nous y intéressons maintenant à travers un
test perceptif.

6.1.2 Évaluation subjective des erreurs typiques de transcription


6.1.2.1 Principe du test et protocole
L’objectif du test est d’obtenir un classement des erreurs typiques de transcription sur
une échelle numérique de gêne. Nous l’avons réalisé au printemps 2007, via Internet, dans
le cadre du stage de Master 2 ATIAM d’Adrien Daniel. Il repose sur l’écoute d’extraits
musicaux et de leurs transcriptions et sur leur comparaison par les sujets. Ces morceaux
sont générés à partir de fichiers MIDI que l’on peut modifier précisément. En particulier,
les transcriptions sont artificiellement obtenues en insérant un et un seul type d’erreur
typique parmi l’ensemble suivant :
– suppression d’une note ;
– insertion d’une note à l’octave d’une note originale ;
– insertion d’une note à la quinte d’une note originale ;
– insertion d’une note de hauteur quelconque (distante d’entre 1 et 11 demi-tons d’une
note originale) ;
– remplacement d’une note à l’octave d’une note originale ;
– remplacement d’une note à la quinte d’une note originale ;
– remplacement d’une note de hauteur quelconque (distante d’entre 1 et 11 demi-tons
d’une note originale) ;
– fragmentation d’une note en deux notes de même hauteur ;
– déplacement de l’instant d’attaque d’une note ;
– changement de la durée d’une note (déplacement de l’instant de fin) ;
130 6. Évaluation

Figure 6.1 – Test 1 : pour chaque paire de sons, le sujet désigne celui provoquant la plus
grande gêne.

– modification de la nuance d’une note (paramètre MIDI velocity).


L’épreuve est réalisée sur trois séries correspondant à des extraits de l’Étude, op. 10,
No. 1 en Do Majeur de F. Chopin (extrait de 8 s), du Clair de Lune de la Suite berga-
masque de C. Debussy (extrait de 20 s), et de l’Allegro con spirito de la Sonate en Ré
Majeur KV. 311 de W.A. Mozart (extrait de 13 s). Pour chaque type d’erreur, plusieurs
transcriptions sont générées en faisant varier le taux d’erreur. Le nombre de notes modifiées
en pratique est déterminé par un taux de notes modifiées fixé à l’avance (MNR, Modified
Note Rate), qui peut prendre les valeurs 10% et 33%. Les notes modifiées sont tirées au
hasard. L’intensité de l’erreur (EI, Error Intensity) de durée, d’attaque et de nuance est
contrôlée par un autre paramètre pouvant prendre les valeurs 25% et 75%. L’intensité des
erreurs est aléatoire, uniformément répartie sur l’intervalle borné par le paramètre EI. Les
durées et instants d’attaques sont modifiés en termes de proportion de la durée originale,
et la nuance en proportion de la nuance originale.
Pour obtenir une quantification de la gêne occasionnée par chaque morceau, c’est-à-
dire par chaque erreur typique à un taux donné, il n’est pas envisageable de demander aux
sujets d’établir un tel classement en raison du nombre trop élevé de fichiers. La solution
adoptée est le protocole BTL (Bradley-Terry-Luce) proposé par Bradley [1953], méthode
statistique qui n’exige du sujet que des jugements binaires consistant à choisir la transcrip-
tion occasionnant le plus de gêne dans chaque paire présentée (cf. figure 6.1). Les résultats
sont ensuite traités pour obtenir l’échelle globale souhaitée.
Cette méthode repose sur l’hypothèse qu’il existe de véritables valeurs de gêne associées
aux transcriptions et qu’elles constituent des variables latentes du problème. La réponse
du sujet pour une paire donnée est le résultat d’une comparaison d’une version bruitée des
valeurs vraies, le bruit modélisant l’incertitude introduite par le sujet. Ce modèle statistique
permet ensuite de reconstruire l’échelle des valeurs vraies à partir des réponses binaires.
Pour chacun des trois extraits musicaux, 20 paires de transcriptions ont ici été présentées à
chaque sujet. On peut estimer l’incertitude sur les résultats en utilisant une méthode dite
de bootstrap [Efron et Tibshirani, 1993], qui construit une distribution empirique à partir
des données de l’expérience, en réalisant plusieurs rééchantillonnages (100 dans notre cas)
de la distribution des observations.
131

Insert. aléat. MNR=33%


Rempl. aléat. MNR=33%
Insert. quinte MNR=33%
Rempl. quinte MNR=33%
Suppression MNR=33%
Rempl. aléat. MNR=10%
Rempl. quinte MNR=10%
Attaque EI=75% MNR=33%
Rempl. octave MNR=33%
Insert. aléat. MNR=10%
Insert. quinte MNR=10%
Fragmentation MNR=33%
Nuance EI=75% MNR=33%
Attaque EI=75% MNR=10%
Attaque EI=25% MNR=33%
Insert. octave MNR=33%
Insert. octave MNR=10%
Fragmentation MNR=10%
Rempl. octave MNR=10%
Suppression MNR=10%
Nuance EI=75% MNR=10%
Attaque EI=25% MNR=10%
Nuance EI=25% MNR=33% Valeurs BTL
Durée EI=25% MNR=33% Référence
Nuance EI=25% MNR=10%
Durée EI=75% MNR=10% Modifications temporelles
Durée EI=75% MNR=33% Modifications de nuances
Référence
Durée EI=25% MNR=10% Modifications de hauteurs

−200 −150 −100 −50 0 50 100 150 200


Échelle subjective de gêne (BTL)

Figure 6.2 – Échelle subjective de gêne en fonction des erreurs typiques : les croix re-
présentent les valeurs trouvées, les barres l’intervalle de confiance à 90% obtenu par une
méthode de bootstrap [Efron et Tibshirani, 1993] (les intervalles ne sont pas centrés sur
les valeurs BTL car la distribution des données n’est pas forcément gaussienne).

6.1.2.2 Résultats

Trente-sept sujets, dont 24 musiciens et 13 non-musiciens ont participé à ce test. Les


commentaires des sujets à la fin du test montrent que les instructions ont bien été comprises.
Lorsqu’on leur demande de verbaliser les types d’erreurs entendues, les sujets évoquent
majoritairement les erreurs de hauteur. Rares sont ceux qui parviennent à nommer des
types d’erreur comme les erreurs d’intensité ou de durée.
Les résultats du test sont représentés sur la figure 6.2, sous forme d’une échelle numé-
rique de gêne que la méthode BTL permet de construire en fonction des jugements binaires
des sujets.
Plusieurs éléments permettent de vérifier la consistance des résultats. Premièrement,
pour un type d’erreur donné, la gêne croît avec les taux d’erreur – MNR ou EI – et
décroît avec la consonance (intervalle d’octave, de quinte, quelconque). Deuxièmement, les
intervalles de confiance sont suffisamment étroits pour permettre de distinguer les types
d’erreur les uns des autres. Troisièmement, du fait de leur épaisseur tout de même non
négligeable, la plupart des types d’erreur doivent être considérés comme subjectivement
équivalent à leurs plus proches voisins. Quatrièmement, une gêne minimale a été attribuée
à la référence (à l’incertitude des résultats près).
Comme on peut s’y attendre d’après les commentaires des sujets, les erreurs de hauteurs
sont les plus gênantes. Les modifications temporelles et d’intensité causent quant à elles
une gêne faible à moyenne. Parmi les erreurs de hauteur, celles d’octave sont les moins
gênantes, suivies de celles de quinte puis de celles de hauteur quelconque. À taux égal,
remplacements et insertions obtiennent le même score, ce qui indiquerait que la gêne d’un
132 6. Évaluation

remplacement est plutôt causée par la note ajoutée que par la note omise. Les faibles
valeurs obtenues pour les suppressions confirment cette hypothèse, qui est couramment
remarquée lors des travaux sur la transcription automatique : il vaut mieux oublier une
note qu’en ajouter une, le résultat étant en général subjectivement meilleur.
Les résultats relatifs aux erreurs temporelles montrent que celles sur l’attaque sont
plus gênantes que celles sur la durée. Les sujets semblent même insensibles à la majorité
de ces dernières. La nature de l’instrument utilisé est une explication probable : les sons de
piano, caractérisés par leurs oscillations libres ont une fin moins perceptible que des sons
d’instruments à oscillations entretenues. De ce point de vue, les résultats de ce test ne sont
pas généralisables à tous les instruments.
Enfin, une analyse complémentaire des résultats montre deux tendances qui ne sont pas
visibles sur la figure 6.2. La première est que les résultats obtenus avec les musiciens et les
non-musiciens sont similaires. La seconde est que les échelles séparées pour chaque mor-
ceau donnent également des résultats comparables, à l’exception de l’extrait de Debussy,
pour lequel les erreurs de suppression sont plus faibles et celles de durée plus élevées,
probablement en raison du tempo relativement faible.

6.1.3 Critères perceptifs d’évaluation

0.4 Rempl. octave


Rempl. quinte
1 - F-mesure

Rempl. aléat.
0.3 Insert. octave
Insert. quinte
0.2 Insert. aléat.

0.1
−50 0 50 100 150
Échelle perceptive

Attaque
Durée
0.2
1 - MOR

0.1

0
−150 −100 −50 0 50
Échelle perceptive

Figure 6.3 – Exemples de différences entre évaluations objective et subjective : les résultats
perceptifs sont confrontés à la la quantité 1−F-mesure (en haut, pour des insertions et des
remplacements à MNR= 33%) et au taux de recouvrement moyen (MOR, en bas, pour les
modifications de durée et d’instants d’attaque). Chaque type d’erreur est représenté avec
un tracé et une couleur propres, quel que soit le taux d’erreur (la tendance de celui-ci est
d’augmenter de gauche à droite et de bas en haut), d’où la présence de plusieurs ellipses
de même tracé. L’incertitude selon chaque dimension est représentée par les dimensions
des ellipses. Les ellipses n’étant pas disposées selon une courbe croissante, la F-mesure et
le MOR ne sont pas représentatifs de l’échelle perceptive.

Lorsque l’on compare les résultats perceptifs du test et ceux obtenus avec des méthodes
d’évaluation objective introduites dans la partie 6.1.1, les deux types d’évaluation diffèrent
sur certains points. La figure 6.3 en explicite quelques-uns. Ainsi, les modifications d’octave,
de quinte et de hauteur aléatoire ont la même F-mesure alors que la gêne générée est
133

croissante. Au contraire, remplacements et insertions sont perceptivement équivalents alors


que la F-mesure pénalise plus les remplacements (comptés comme une omission et une
insertion). Quant à la différence perceptive déjà évoquée entre modifications d’instants
d’attaque et de durée, elle n’est pas prise en compte par le taux de recouvrement moyen.
On peut donc espérer prendre en compte ces résultats perceptifs pour pondérer les types
d’erreur afin d’obtenir des mesures d’évaluation subjective. Les résultats du test présentent
en outre l’avantage de donner des poids relatifs entre tous les types d’erreurs, y compris
quand elles sont de dimensions différentes comme les erreurs temporelles et de hauteur, alors
que la pondération entre temps et hauteur fait souvent l’objet d’un réglage de paramètre
laissé à la discrétion de l’utilisateur dans les méthodes de type distance d’édition ou PTD.
Dans cette partie, nous estimons les coefficients de pondération des erreurs typiques à
partir des résultats du test, puis nous adaptons deux méthodes d’évaluations – la F-mesure
et la PTD – pour en donner des versions destinées à refléter une évaluation subjective.
L’application de ces méthodes à des transcriptions réelles d’extraits musicaux permet de
valider les résultats.

6.1.3.1 Extraction des coefficients de pondération

L’extraction des coefficients commence par une étape de normalisation entre 0 et 1 des
résultats du test. Nous sélectionnons ensuite ceux dont le MNR vaut 33%, et les moyennons
dans le cas des insertions et remplacements. Nous obtenons ainsi une réduction des erreurs
typiques à 6 critères représentatifs 1 à intégrer dans les métriques, et dont les coefficients
de pondérations associés figurent dans le tableau 6.2. Ces coefficients ont été normalisés
de telle sorte que

3 6
1X X
αi + αi = 1 (6.14)
3
i=1 i=4

car les erreurs d’octave, de quinte et d’autres hauteurs sont des fausses alarmes complé-
mentaires.

Critères Poids
Octave α1 = 0, 1794
Quinte α2 = 0, 2712
Autres intervalles α3 = 0, 2941
Suppression α4 = 0, 2475
Durée α5 = 0, 0355
Instants d’attaque α6 = 0, 4687

Table 6.2 – Coefficients perceptifs associés à des erreurs typiques

1. Le critère sur la nuance a été éliminé car les résultats obtenus ne sont pas satisfaisants, probablement
en raison de la difficulté de modéliser une échelle de perception des nuances. La fragmentation n’est pas
utilisée non plus car elle était difficilement intégrable dans les métriques.
134 6. Évaluation

6.1.3.2 F-mesure perceptive

La F-mesure définie par l’équation (6.3) s’exprime en fonction du nombre de TP, de


FN et de FP :

 
1 1 1 1 −1
f= × + × (6.15)
2 p 2 r
#TP
= (6.16)
#TP + 2 #FP + 21 #FN
1

Les erreurs, de deux types – FP et FN –, y sont comptabilisées avec des poids identiques
égaux à 12 . En introduisant cette mesure, Van Rijsbergen [1979] a étudié l’hypothèse de
pondérer différemment ces deux types d’erreurs grâce à un coefficient α ∈ [0; 1] tel que

 −1
α 1−α
f= + (6.17)
p r
#TP
= (6.18)
#TP + α#FP + (1 − α) #FN

En nous inspirant de cette expression, nous définissons la F-mesure perceptive par

#TP
fpercept , P6 (6.19)
#TP + i=1 αi wi #Ei

où #Ei est le nombre d’erreurs de type i (cf. algorithme 6.1), w1 = w2 = w3 = w4 = 1, w5


est l’erreur moyenne de durée dans la transcription à évaluer, et w6 est l’erreur moyenne
d’instants d’attaque (ces erreurs moyennes sont en pratique calculées comme la racine de
l’erreur quadratique moyenne). On peut remarquer que l’expression (6.19) est égale à la
F-mesure lorsque l’on prend α1 = α2 = α3 = α4 = 21 et α5 = α6 = 0. La classe d’erreurs
FP contenant les sous-catégories octave/quinte/autres (erreurs de type i ∈ {1; 2; 3}, nous
voyons que la normalisation introduite par l’équation (6.14) permet de retrouver la F-
mesure originale en affectant des poids identiques à chaque type d’erreur, en considérant
le poids global correspondant à l’ensemble de ces trois sous-catégories pour effectuer la
sommation à 1.
Par ailleurs, on peut définir de manière équivalente une accuracy perceptive, qui est
égale à l’accuracy (équation (6.5)) dans le même cas particulier :

#TP
apercept , P6 (6.20)
#TP + 2 i=1 αi wi #Ei
1
= 2 (6.21)
fpercept − 1

L’extraction des erreurs à partir des fichiers MIDI du morceau original et de la trans-
cription s’effectue selon l’algorithme 6.1.
135

Entrées: Fichiers MIDI du morceau original et de la transcription.


Les TP sont estimés comme des notes ayant une hauteur correcte (au demi-ton près,
suivant la correspondance donnée en annexe C (p. 177)) et un instant d’attaque juste à
150 ms près. Pour chaque TP, on estime en outre l’erreur sur la durée et sur l’attaque
(en proportion de la durée de la note originale). On fixe alors #E5 = #E6 = #TP.
Les FP sont les notes transcrites qui ne sont pas des TP.
Pour chaque FP,
Si il existe une note originale à l’octave supérieure ou inférieure au même moment
(c’est-à-dire avec un recouvrement partiel des supports temporels), alors
le FP est ajouté à l’ensemble E1 des FP d’octave.
Sinon si il existe une note originale à la quinte supérieure ou inférieure au même
moment, alors
le FP est ajouté à l’ensemble E2 des FP de quinte.
Sinon
le FP est ajouté à l’ensemble E3 des autres FP.
Fin Si
Fin Pour
Les FN sont l’ensemble E4 des notes originales qui ne sont pas des TP.
Sorties: Ensembles E1 , E2 , E3 , E4 , E5 , E6 d’erreurs typiques.
Algorithme 6.1: Extraction des erreurs typiques.

6.1.3.3 PTD perceptive


La PTD introduite dans la partie 6.1.1 est à l’origine appliquée à l’évaluation de la simi-
larité de mélodies. Dans ce contexte, prendre les durées des notes comme poids à transférer
et utiliser la distance euclidienne dans le plan temps/hauteur semblent être des choix ap-
propriés. Cependant, dans le cas générique de la comparaison de morceaux quelconques,
ces deux choix doivent être revus. Idéalement, il conviendrait d’attribuer des poids de PTD
en fonction de l’importance musicale des notes, comme le suggèrent Typke et al. [2007].
Cela reste en dehors du cadre que nous nous sommes fixé, et nous nous contentons ici d’un
poids unitaire pour chaque note. En utilisant les coefficients du tableau 6.2, nous définis-
sons une distance perceptive entre deux notes dans l’espace multidimensionnel composé
de la hauteur (octave, quinte ou autre), la durée et l’instant d’attaque. L’algorithme est
ensuite appliqué en utilisant les poids unitaires et la distance perceptive.

6.1.3.4 Application à l’évaluation subjective de transcriptions musicales


Nous souhaitons maintenant déterminer dans quelle mesure les deux métriques percep-
tives que nous avons définies permettent de s’approcher de l’évaluation subjective d’une
transcription. Nous élaborons un test perceptif afin de disposer de notes fournies par des
sujets, pour des transcriptions réelles de plusieurs pièces pour piano. Nous utilisons pour
cela trois extraits provenant du Prélude en do mineur BWV 847 de J.S. Bach (13 se-
condes), du Clair de Lune de la Suite bergamasque de C. Debussy (20 secondes), et de
Allegro con spirito de la Sonate en Ré Majeur KV 311 de W.A. Mozart (13 secondes).
Cinq transcriptions de chaque extrait sont présentées au sujet. Il peut les écouter autant
de fois qu’il le souhaite et doit donner à chacune un score représentant la gêne ressentie,
en comparaison avec le morceau original (cf. figure 6.4).
Les mêmes morceaux sont présentés à tous les sujets, dans un ordre aléatoire pour
136 6. Évaluation

Figure 6.4 – Test 2 : le sujet attribue aux transcriptions un score (nombre positif).

2 4 1 2
1 1 2 4 4
Gêne

1
0.5 3
3 3
R R R
0
Bach Debussy Mozart

Figure 6.5 – Résultat de l’évaluation de transcriptions. Les traits noirs indiquent les
valeurs moyennes, les barres grises l’étalement des réponses selon les sujets. Les chiffres
font référence aux différents systèmes de transcription (rendus anonymes pour éviter de
présenter les résultats comme ceux d’une comparaison de systèmes), et ’R’ désigne la
référence.

chacun. Pour chaque extrait, l’une des cinq transcriptions est en réalité l’original, afin de
contrôler la cohérence des résultats. Les quatre autres ont été obtenues par des systèmes
de transcription automatique : SONIC [Marolt, 2004], disponible sur le site Internet de
l’auteur, le système de Bertin et al. [2007], un système de P. Leveau selon [Leveau et al.,
2008] et une version préliminaire de [Emiya et al., 2008]. Les erreurs commises dépendent
donc du comportement spécifique de chaque système.
Les résultats sont représentés sur la figure 6.5. Ils ont été normalisés par la note maxi-
male donnée par chaque sujet, et ceux qui avaient donné une gêne supérieure à 20% à la
référence ont été éliminés (6 sujets sur 37). La moyenne et l’écart-type par morceau, par
rapport à tous les sujets restants, sont alors calculés. Ces résultats ont été validés par un
test ANOVA factoriel 3 × 5 (nombre de compositeurs × nombre de systèmes de transcrip-
tion). Le test est passé avec succès, avec un niveau p = 0, 01 (c’est-à-dire un risque de
5%), le long de chaque dimension et suivant les interactions entre les dimensions. Les notes
obtenues varient significativement en fonction de l’extrait, ce qui confirme que les perfor-
mances dépendent du contenu musical des morceaux et de la base de données d’évaluation
choisie. La largeur des écarts-type montre l’importance de critères subjectifs personnels
dans l’évaluation d’une transcription, et le recouvrement qu’il en résulte entre les scores
reflète la difficulté d’une entreprise d’évaluation de systèmes de transcription, même si l’on
peut attribuer la première et la dernière places respectivement aux systèmes 3 et 2.
Nous pouvons à présent appliquer les métriques perceptives définies précédemment
et comparer les notes de l’évaluation subjective ainsi qu’avec les résultats obtenus avec
leurs versions originales. La figure 6.6 représente ces résultats. La F-mesure et la F-mesure
perceptive ont subi l’opération x 7→ 1 − x afin de représenter des taux d’erreur, et non une
137

1.5
2 4 1 2

F−mesure
1 1 2 4 4
3 1
0.5 3 3
R R R
0
Bach Debussy Mozart
F−mes. percep.

1.5
2 4 1 2
1 1 2 4 4
3 1
0.5 3 3
R R R
0
Bach Debussy Mozart

1.5
2 4 1 2
1 1 2 4 4
PTD

3 1
0.5 3 3
R R R
0
Bach Debussy Mozart

1.5
PTD percep.

2 4 1 2
1 1 2 4 4
3 1
0.5 3 3
R R R
0
Bach Debussy Mozart

Figure 6.6 – Résultats d’évaluation de transcriptions (croix) avec plusieurs métriques


objectives et subjectives : dans chaque cas, la gêne ressentie est représentée par les barres
grises à titre de comparaison.

similarité, et d’être comparées à la gêne. La correspondance entre les échelles de chaque


métrique et la gêne est par ailleurs obtenue par multiplication par un coefficient d’échelle
obtenu en minimisant l’erreur quadratique moyenne.
Pour quantifier la qualité des métriques proposées par rapport aux métriques usuelles,
nous proposons d’utiliser les critères établis pour un contexte similaire dans le domaine du
codage vidéo [Winkler, 2005]. Pour comparer les résultats y = (y1 , . . . , yN ) d’une métrique
avec les jugements subjectifs x = (x1 , . . . , xN ), trois critères sont ainsi introduits :
– la précision de la prédiction, donnée par le coefficient de corrélation linéaire de
Pearson
P
(xn − x) (yn − y)
rP , qP n q (6.22)
2 P 2
n (x n − x) (y
n n − y)
où . désigne la moyenne empirique des valeurs.
– la monotonie de la prédiction, donnée par le coefficient de corrélation de Spear-
man à partir du rang rg () des scores
P   
n rg (xn ) − rg (x) rg (y n ) − rg (y)
rS , r  2 rP  2 (6.23)
P
n rg (xn ) − rg (x) n rg (yn ) − rg (y)

– la consistence de la prédiction
NO
RO , (6.24)
N
où NO , #{n/ |xn − yn | > 2σx } est le nombre d’outliers (données aberrantes) calculé
en fonction d’un seuil σx .
138 6. Évaluation

Les résultats, donnés dans le tableau 6.3, montrent une amélioration globale de la qua-
lité lorsque l’on passe d’une métrique usuelle à sa version perceptive. On constate cette
amélioration pour les critères de précision et de monotonie de la prédiction, la consistence
étant ici non-significative (aucun outlier à l’exception d’un seul dans le cas de la PTD
perceptive). L’amélioration est légère dans le cas de la F-mesure perceptive. Elle est plus
significative pour la monotonie de la prédiction de la PTD perceptive, passant de 61, 6%
à 89, 6%. On remarque par ailleurs une valeur isolée très élevée obtenue pour la trans-
cription dont la gêne est maximale (Mozart, Système 2), qui perturbe la mise à l’échelle
des résultats, expliquant la présence d’un outliers, et surtout la faible précision de la PTD
perceptive par rapport à la F-mesure perceptive. Ainsi, la relation entre valeurs subjectives
et PTD perceptive semble non-linéaire, tout en conservant de très bonnes propriétés de
monotonie.
Précision Monotonie Consistence
F-mesure 83, 4% 83, 5% 0%
F-mesure perceptive 84, 1% 84, 9% 0%
PTD 60, 3% 61, 6% 0%
PTD perceptive 64, 8% 89, 6% 6, 7%

Table 6.3 – Qualité des métriques d’évaluation.

6.2 Base d’évaluation MAPS


Après avoir abordé la question des méthodes d’évaluation, nous nous intéressons main-
tenant à la deuxième composante nécessaire pour évaluer un système qu’est la base de
données. Pour ce genre d’évaluation, une base de sons doit remplir deux conditions : four-
nir des sons de qualité en assurant leur diversité et les accompagner d’une référence précise,
résultat optimal à atteindre par les systèmes testés. C’est dans cette optique que nous avons
élaboré la base MAPS (MIDI Aligned Piano Sounds) présentée ci-après.

6.2.1 Vue d’ensemble de la base


La base MAPS a été spécifiquement conçue pour l’évaluation des algorithmes d’esti-
mation de fréquences fondamentales multiples et des systèmes de transcription. Elle a été
imaginée suite à une première tentative d’enregistrement avec un piano de type Yamaha
Disklavier jouée par la pianiste Mélanie Desportes. À la suite de cet enregistrement, nous
avons réalisé que dans l’optique de la transcription automatique, il était nécessaire d’au-
tomatiser la tâche de génération pour pouvoir disposer de grands volumes de données. La
base que nous proposons se compose donc de plusieurs types de sons, des notes isolées les
plus simples aux morceaux de musique du répertoire et de plusieurs conditions d’enregis-
trement. L’automatisation de la tâche est possible de deux manières. La première consiste
à utiliser un piano Yamaha Disklavier, vérible instrument auquel a été ajouté un dispositif
de moteurs permettant d’actionner les touches et les pédales. De cette façon, le piano est
joué automatiquement, sans pianiste, le pilotage se faisant via une liaison MIDI. L’autre
manière employée pour automatiser la production de sons de piano repose sur l’utilisation
de logiciels de synthèse de qualité à base de banques de sons pré-enregistrés.
L’utilisation d’une dizaine de pianos et de conditions d’enregistrement différents confère
à la base une diversité qualitative relativement importante. Le deux procédés de production
139

décrits précédemment permettent d’offrir cette diversité. En rendant possible la comparai-


son des transcriptions en fonction du mode de génération des sons, nous souhaitons aborder
la question récurrente de la validité des bases synthétiques, souvent utilisées car plus faciles
à créer. L’utilisation de plusieurs pianos droits et pianos à queue contribue également à la
variété qualitative des sons. Enfin, la diversité des conditions d’enregistrement se traduit
d’une part par l’utilisation de réverbérations différentes (dans le cas des synthétiseurs logi-
ciels) et d’autre part, par une double prise de son, la première à proximité de l’instrument,
la deuxième à plus grande distance, pour certains pianos. L’ensemble de ces combinaisons
d’instruments et de conditions d’enregistrement sont représentées dans le tableau 6.4.

Abréviation Piano réel / Logiciel Instrument Conditions


d’enregistrement
StbgTGd2 The Grand 2 Hybride Par défaut
(Steinberg)
AkPnBsdf Akoustik Piano Boesendorfer 290 Preset
(Native Instruments) Imperial « Gregorian »
AkPnBcht Akoustik Piano Bechstein D 280 Preset
(Native Instruments) « Bechstein Bach »
AkPnCGdD Akoustik Piano Concert Grand D Preset
(Native Instruments) « Production »
AkPnStgb Akoustik Piano Steingraeber 130 Preset
(Native Instruments) (piano droit) « Modern Play Time »
SptkBGAm The Black Grand Steinway D, ”Ambient”
(Sampletekk) (prise distante)
SptkBGCl The Black Grand Steinway D, « Close »
(Sampletekk) (à proximité)
ENSTDkAm Piano réel Yamaha Mark III « Ambient »
(Disklavier) (piano droit) (prise distante)
ENSTDkCl Piano réel Yamaha Mark III « Close »
(Disklavier) (piano droit) (à proximité)

Table 6.4 – MAPS : instruments et conditions d’enregistrement.

La diversité du contenu de la base a été la deuxième préoccupation lors de sa compo-


sition. Pour chaque instrument, quatre classes de sons ont été distinguées, le contenu de
chacune étant détaillé dans la partie 6.2.2 :
– classe ISOL : notes isolées et autres extraits monophoniques ;
– classe RAND : accords tirés aléatoirement ;
– classe UCHO : accords usuels ;
– classe MUS : morceaux de musique.
Les références associées à chaque son ou morceau sont créées au format SMF (Stan-
dard MIDI File), le format de fichier associé au protocole MIDI. Elles sont d’une grande
précision grâce au dispositif d’enregistrement employé, dans lequel l’intervention humaine
est minimisée au profit de processus automatisés (cf. partie 6.2.3).
La nomenclature de chaque fichier comprend sous forme abrégée le nom de la base, de
la classe de sons, de l’instrument et des conditions d’enregistrement, ainsi qu’un descriptif
du contenu du fichier. Chaque fichier audio, au format PCM (.wav) stéréo échantillonné à
44, 1 kHz, porte le même nom que sa référence, extension exceptée (.mid pour la référence).
140 6. Évaluation

Le dimensionnement de la base a été ajusté pour faciliter sa diffusion : les sons et réfé-
rences de chaque couple instrument/conditions d’enregistrement tiennent sur un DVD. Le
nombre de paramètres que nous souhaitons faire varier conduisant à un volume inutilement
grand de sons, nous avons réduit la taille à un DVD par instrument en utilisant des tirages
aléatoires, comme cela sera expliqué dans la partie 6.2.2.

6.2.2 Contenu détaillé


Pour chacune des quatre classes contenues dans la base, plusieurs types de sons ont été
produits. Nous détaillons ici le contenu de ces classes. Chaque son est enregistré en laissant
un laps de temps de silence avant et après afin d’inclure une portion de silence et de ne
pas couper l’amorce d’un son ou la résonnance après la fin d’une note.

6.2.2.1 ISOL : base de notes isolées et autres extraits monophoniques


Cette classe contient exclusivement des sons monophoniques. Elle est donc particuliè-
rement appropriée pour tester les algorithmes d’estimation de fréquences fondamentales
simples. Chaque son se caractérise par un mode de jeu mo, une nuance i0, l’utilisation ou
non de la pédale forte, et une hauteur de note. Le fichier correspondant à un tel son porte
un nom du type

MAPS_ISOL_mo_i0_Ss_Mm_nomInstrument.wav

Les différents modes de jeux mo sont les suivants :


– NO : jeu normal, notes durant 2 secondes ;
– LG : notes longues, entre 3 secondes pour les notes aiguës et 20 secondes pour les
notes graves ;
– ST : staccato ;
– RE : une même note répétée, en accélérant ;
– CHd : montée et descente chromatiques, avec différentes durées d de notes ;
– TRi : trilles, en accélérant, au demi-ton (i = 1) ou au ton (i = 2) supérieur.
La nuance i0 peut prendre trois valeurs possibles : P (piano), M (mezzo-forte), F (forte).
L’utilisation (s= 1) ou non (s= 0) de la pédale forte est décidée par tirage aléatoire. Dans
le cas où elle est utilisée (50% des cas), la pédale est enfoncée 300 ms avant le début de la
séquence et relâchée 300 ms après la fin 2 . Le champ nomInstrument est une abréviation
définie dans le tableau 6.4 (p. 139).
À l’exception des montées et descentes chromatiques, la hauteur du son est codée par
son code MIDI m ∈ J21; 108K (registre du piano), et toutes les notes sont enregistrées.

6.2.2.2 RAND : base d’accords tirés aléatoirement


Cette classe contient des accords dont les notes sont tirées aléatoirement. Elle a été
conçue dans la perspective d’évaluer les algorithmes de manière objective, sans a priori
musical sur le contenu de la base, procédé répandu dans la littérature. Chaque accord est
stocké dans un fichier dont le nom est du type

MAPS_RAND_Px_Mm1-m2_Ii1-i2_Ss_nn_nomInstrument.wav,
2. Enfoncer la pédale avant de jouer la note n’est pas une pratique musicale courante. Nous procédons
ainsi pour que l’effet d’enfoncement de la pédale n’interfère pas avec l’attaque des notes dans le son.
141

où x désigne la polyphonie, m1-m2 la tessiture, i1-i2 l’intervalle de nuances, s l’utilisation


de la pédale et n le numéro de l’accord.
La polyphonie x est comprise entre 2 et 7. La tessiture m1-m2 est une fourchette
de hauteurs MIDI prenant la valeur 21 − 108 ou 36 − 95, dans laquelle les notes sont
tirées de façon aléatoire, uniformément sur l’intervalle. Le premier intervalle correspond
à la tessiture complète du piano alors que le second, plus restreint, est souvent utilisé
dans l’évaluation des algorithmes d’estimation de fréquences fondamentales multiples. Les
nuances sont tirées au hasard, indépendamment pour chaque note, dans l’intervalle i1-
i2 codé en MIDI (paramètre velocity), pouvant prendre les valeurs 60 − 68 (mezzo-forte)
ou 32 − 96 (de piano à forte). La durée de l’accord est également tirée aléatoirement, de
façon uniforme entre 300 ms et 700 ms. L’utilisation de la pédale forte se fait de manière
identique à la classe ISOL.
Tous paramètres fixés par ailleurs, 50 réalisations sont tirées aléatoirement et générées,
le paramètre n ∈ J1; 50K permettant de les distinguer. La base contient par exemple 50
accords de 3 notes de hauteurs comprises entre 36 (Do 2) et 95 (Si 6), de nuance mezzo-
forte, la moitié environ jouée avec la pédale forte.

6.2.2.3 UCHO : base d’accords usuels


Cette classe contient des accords typiques rencontrés dans la musique occidentale, la
musique classique et le jazz notamment. Son intérêt est double : mesurer les performances
avec un a priori musical et proposer des sons dont les notes sont beaucoup plus souvent
en rapport harmonique. Chaque accord est stocké dans un fichier dont le nom est du type
MAPS_UCHO_Cc1 -. . .-cp _Ii1-i2_Ss_nn_nomInstrument.wav,
où c1 -. . .-cp désigne la composition de l’accord considéré, i1-i2 l’intervalle de nuances, s
l’utilisation de la pédale et n le numéro de l’accord. La composition c1 -. . .-cp d’un accord
à p notes est codée par des entiers ck , k ∈ J1; nK correspondant à la distance de la note k
à la fondamentale, en demi-tons. De cette façon, un accord parfait majeur sera codé 0-4-7.
La durée de l’accord est par ailleurs fixée à une seconde. Les paramètres de nuance i1-i2
et de pédale forte s sont régis à l’identique à la classe RAND.
En polyphonie 2, la base contient tous les intervalles de 1 à 12 demi-tons, ainsi que la 19e
(quinte à l’octave) et la 24e (double-octave). En polyphonie 3, la base contient les accords
parfaits majeur et mineur, les accords de quinte augmentée et de quinte diminuée. En
polyphonie 4, elle contient les sept espèces d’accords usuels en harmonie, et en polyphonie 5,
les dix espèces d’accords usuels. Pour les polyphonies 3 à 5, la forme fondamentale des
accords et tous les renversements sont générés. L’ensemble des accords enregistrés figure
dans les tableaux 6.5 et 6.6 avec le codage utilisé.
Tous paramètres fixés par ailleurs, 10 réalisations sont tirées aléatoirement et générées,
le paramètre n∈ J1; 10K permettant de les distinguer. Pour les accords de polyphonie ≥ 4,
le nombre de tirages est réduit de 10 à 5. Lors de chaque tirage, la note fondamentale de
l’accord est choisie aléatoirement sur toute la tessiture du piano permettant la génération
de l’accord (entre 21 et 101 (i.e. 108 − 7) pour l’exemple de l’accord parfait majeur).

6.2.2.4 MUS : base de morceaux de musique


Pour générer la base de morceaux musicaux, nous avons utilisé les fichiers SMF
que Krueger [2008] a mis à disposition, sous license Creative Commons, sur son site Inter-
net. Ces fichiers de grande qualité ont été produits, ou plutôt écrits à la main pour réaliser
142 6. Évaluation

Nom Fondamental Renvers. 1 Renvers. 2


Seconde mineure 0-1
Seconde majeure 0-2
Tierce mineure 0-3
Tierce majeure 0-4
Quarte juste 0-5
Quinte mineure 0-6
Quinte juste 0-7
Sixte mineure 0-8
Sixte majeure 0-9
Septième mineure 0-10
Septième majeure 0-11
Octave juste 0-12
Dix-neuvième 0-19
Double octave 0-24
Parfait majeur 0-4-7 0-3-8 0-5-9
Parfait mineur 0-3-7 0-4-9 0-5-8
Quinte diminuée 0-3-6 0-3-9 0-6-9
Quinte augmentée 0-4-8 0-4-8 0-4-8

Table 6.5 – Accords usuels de 2 et 3 sons et nomenclature (écarts à la note fondamentale


en demi-tons).

en quelque sorte une interprétation sous forme MIDI. La place, la durée et l’intensité de
chaque note ont ainsi fait l’objet d’un ajustement par l’auteur (interprète). Lors de la fi-
nalisation de la base, 238 morceaux du répertoire classique et traditionnel de piano étaient
proposés.
Pour chaque instrument et condition d’enregistrement (entrées du tableau 6.4 (p. 139)),
30 morceaux sont choisis au hasard et enregistrés. Nous disposons ainsi d’un choix varié
de morceaux, dont certains sont enregistrés plusieurs fois dans des conditions différentes.
La nomenclature des fichiers suit ici le modèle

MAPS_MUS_nomMorceau_nomInstrument.wav

6.2.3 Dispositif
La génération de la base de données a fait l’objet de deux dispositifs différents, l’un pour
l’utilisation du piano Disklavier, l’autre pour la synthèse logicielle. Dans les deux cas, nous
avons dû procéder de manière non triviale et prendre des précautions qu’il nous a semblé
utile de rapporter ici. Auparavant, tous les fichiers MIDI ont été créés, en prenant soin
de garantir qu’ils pouvaient réellement être générés (les morceaux de musique contenaient
par exemple quelques notes à supprimer car injouables, et le Disklavier était limité dans
la rapidité avec laquelle il peut jouer automatiquement).
La génération à partir de logiciels a été automatisée en concaténant les nombreux
fichiers MIDI à générer en un petit nombre de longs fichiers, et en lançant l’enregistrement
à partir d’un séquenceur (Cubase SX 3 de Steinberg). Les fichiers son ainsi générés sont
ensuite segmentés. Ce procédé a été utilisé faute de pouvoir contrôler le séquenceur par un
script et enregistrer ainsi les fichiers un par un.
Nom Fondamental Renvers. 1 Renvers. 2 Renvers. 3 Renvers. 4
Septième majeure 0-4-7-11 0-3-7-8 0-4-5-9 0-1-5-8
Septième mineure 0-3-7-10 0-4-7-9 0-3-5-8 0-2-5-9
Septième de dominante 0-4-7-10 0-3-6-8 0-3-5-9 0-2-6-9
Septième mineure et quinte diminuée 0-3-6-10 0-3-7-9 0-4-6-9 0-2-5-8
Septième diminuée 0-3-6-9 0-3-6-9 0-3-6-9 0-3-6-9
Septième majeure et parfait mineur 0-3-7-11 0-4-8-9 0-4-5-8 0-1-4-8
Septième majeure et quinte augmentée 0-4-8-11 0-4-7-8 0-3-4-8 0-1-5-9
Neuvième majeure de dominante 0-4-7-10-14 0-3-6-8-10 0-3-5-7-9 0-2-4-6-9 0-2-5-8-10
Neuvième mineure de dominante 0-4-7-10-13 0-3-6-8-9 0-3-5-6-9 0-2-3-6-9 0-3-6-9-11
Neuvième majeure et septième mineure 0-3-7-10-14 0-4-7-9-11 0-3-5-7-8 0-2-4-5-9 0-1-5-8-10
Neuvième mineure et septième mineure 0-3-7-10-13 0-4-7-9-10 0-3-5-6-8 0-2-3-5-9 0-2-6-9-11
Neuvième mineure et quinte diminuée 0-3-6-10-13 0-3-7-9-10 0-4-6-7-9 0-2-3-5-8 0-2-5-9-11
Neuvième majeure et septième majeure 0-4-7-11-14 0-3-7-8-10 0-4-5-7-9 0-1-3-5-8 0-2-5-9-10
Neuvième augmentée 0-4-7-11-15 0-3-7-8-11 0-4-5-8-9 0-1-4-5-8 0-1-4-8-9
Neuvième mineure et septième diminuée 0-3-6-9-13 0-3-6-9-10 0-3-6-7-9 0-3-4-6-9 0-2-5-8-11
Neuvième majeure, septième majeure et parfait mineur 0-3-7-11-14 0-4-8-9-11 0-4-5-7-8 0-1-3-4-8 0-1-5-9-10
Neuvième majeure et quinte augmentée 0-4-8-11-14 0-4-7-8-10 0-3-4-6-8 0-1-3-5-9 0-2-6-9-10

Table 6.6 – Accords usuels de 4 et 5 sons et nomenclature (écarts à la note fondamentale en demi-tons).
143
144 6. Évaluation

env. 50cm

MIDI

MIDI

Enregistrement

Enregistrement

MIDI

Enregistrement

Figure 6.7 – Dispositif d’enregistrement : la carte son (en bas à droite) envoie les fichiers
MIDI vers le boîtier du piano (en haut à droite), reçoit les notes jouées via une liaison
MIDI inverse et enregistre le son produit (les micros sont ici placés près du piano).
145

Les précautions à prendre avec le Disklavier concernent essentiellement la synchro-


nisation entre les signaux MIDI et les sons enregistrés. D’une part, il faut être capable
d’assurer la synchronisation du début de l’enregistrement en contrôlant précisément l’in-
tervalle entre l’envoi d’une instruction MIDI et la production du son. D’autre part, il faut
également prendre en compte les éventuels décalages qui peuvent ensuite s’insérer du fait
de la différence des horloges de référence pour le MIDI et le son. Par ailleurs, pour des
raisons mécaniques, le fonctionnement optimal du Disklavier est obtenu en réglant le dispo-
sitif de sorte qu’un délai d’environ 500 ms soit inséré entre l’envoi d’une instruction MIDI
et la réponse du piano. Cette contrainte vient s’ajouter à celle de la synchronisation du
début de l’enregistrement déjà évoquée. La solution finalement adoptée est illustrée sur la
figure 6.7 et consiste à :
1. utiliser trois types de liaisons : une liaison MIDI de commande du Disklavier à travers
laquelle chaque fichier MIDI est envoyé ; une liaison MIDI en sens inverse permettant
d’enregistrer ce que le Disklavier joue avec le retard évoqué précédemment ; enfin, la
liaison audio d’enregistrement, censée être synchronisée avec la liaison MIDI d’enre-
gistrement ; ce sont les enregistrements synchronisés provenant de ces deux dernières
liaisons (MIDI et audio) qui constituent la base de données ;
2. centraliser l’ensemble des trois canaux sur un même ordinateur, pour bénéficier de la
même horloge ; il convient même de n’utiliser qu’une seule carte son avec une entrée
MIDI, une sortie MIDI et des entrées audio ;
3. vérifier les décalages possibles, malgré les deux premières précautions, soit sur les
morceaux générés eux-mêmes, soit en utilisant les possibilités de suivi des différents
événements, offerts par les langages de programmation, lors de l’enregistrement.

6.3 Évaluation des algorithmes


Les algorithmes développés pendant la thèse sont ici évalués de manière comparative.
La base d’évaluation MAPS est utilisée pour l’estimation de fréquences fondamentales mul-
tiples et pour le système de transcription. Dans le premier cas, nous dresserons une évalua-
tion objective détaillée. Dans le second, nous utiliserons à la fois une évaluation objective
et subjective, en utilisant la F-mesure perceptive que nous avons décrite précédemment.

6.3.1 Estimation de fréquences fondamentales multiples


L’algorithme d’estimation de fréquences fondamentales multiples a été évalué sur les
notes isolées, les accords aléatoires et les accords usuels de la base MAPS, c’est-à-dire sur
les classes de son ISOL, RAND et UCHO. Chaque son est analysé sur une trame unique,
de longueur 93 ms (4096 échantillons à 44, 1 kHz ou 2048 à 22, 1 kHz) extraite environ
10 ms après l’attaque. Deux autres algorithmes d’estimation de fréquences fondamentales
multiples ont été testés à titre comparatif : celui de Tolonen et Karjalainen [2000], dans la
version de la MIR Toolbox [Lartillot et Toiviainen, 2007], et celui de Klapuri [2006], dont
le code a été fourni par l’auteur. Ce dernier système nous a été présenté par son auteur
comme le plus performant parmi ceux qu’il a développés. La base de sons contient des notes
comprises entre le Do 0 (33 Hz) et le Si 5 (1865 Hz), réparties de façon uniforme. Elle se
compose de 9344 sons, de polyphonie comprise entre 1 et 6. Les performances de l’algo-
rithme de Tolonen et Karjalainen [2000] se dégradant lorsque les fréquences fondamentales
sont supérieures à 500 Hz (Do 4), nous avons testé l’algorithme dans une configuration
146 6. Évaluation

supplémentaire – notée Tolonen-500 –, sur les notes comprises entre le Do 0 (33 Hz) et le
Si 3 (494 Hz) seulement.

Résultats généraux
La figure 6.8 représente les résultats de l’évaluation objective lorsque la polyphonie est
inconnue par les systèmes. La F-mesure donne une évaluation globale des résultats. De ce
point de vue, notre système se démarque des autres en polyphonie 1 et 2, avec un score
de 94% contre 89% (polyphonie 1) et 92% (polyphonie 2) pour le système de Klapuri. La
tendance s’inverse ensuite entre les deux systèmes, les F-mesures obtenues pour le système
de Klapuri et le nôtre valant respectivement 92% et 89% en polyphonie 3, et 73% et 65%
en polyphonie 6. Pour l’ensemble des résultats, nous constatons que le système de Tolonen,
même limité en tessiture, est moins performant.
Quelle que soit la polyphonie, le score de précision est élevé pour chaque système – entre
85 et 97% – et particulièrement pour le nôtre, alors que le rappel a tendance à diminuer
quand la polyphonie augmente. Il faut par ailleurs noter qu’il est courant qu’un système
d’estimation de fréquences fondamentales multiples soit moins performant en polyphonie
1 qu’en polyphonie 2 ou 3 lorsqu’il doit estimer le nombre de notes car le risque d’ajouter
des notes lorsqu’il n’y en a qu’une présente est grand.

Estimation de la polyphonie
Les capacités de la méthode de Klapuri et de notre algorithme à détecter le bon nombre
de notes sont représentées sur la figure 6.9. Jusqu’à la polyphonie 5 incluse, les systèmes
parviennent à déterminer le bon nombre de notes présentes plus souvent que tout autre
nombre. Notre système a en outre été testé dans des conditions plus défavorables que
les autres étant donné que la polyphonie 0, c’est-à-dire le silence, peut être détectée. On
constate qu’il est détecté dans un minimum de cas.

Estimation à polyphonie connue


La figure 6.10 représente le taux de notes correctes lorsque la polyphonie est connue par
les systèmes. Dans ce cas, le rappel, la précision et la F-mesure se valent et l’on parle de
taux de notes correctes. On observe ici une petite dégradation des performances de notre
système, qui arrive systématiquement en deuxième position après celui de Klapuri.

Accords aléatoires et accords usuels


Les résultats obtenus sur les accords composés aléatoirement (classe RAND de la base
MAPS) et sur les accords usuels (classe UCHO) sont représentés séparément sur la fi-
gure 6.11. Les résultats sont globalement meilleurs dans le cas d’accords usuels. Ils pré-
sentent certes un recouvrement spectral plus important que les accords aléatoires, mais
ces derniers sont composés de notes qui peuvent être très éloignées sur le clavier, cause
probable de la tendance observée.

Détection d’octave
La figure 6.12 donne les résultats obtenus sur les sons de la base composés exclusivement
d’une octave. Ce cas de figure fait partie des plus difficiles et nous voyons que les résultats
sont moins élevés que ceux obtenus de manière générale en polyphonie 2. Notre système
est ici le plus performant avec une F-mesure égale à 85%, contre 76% pour le système de
Klapuri, et 77%/66% pour celui de Tolonen. Il semble donc que le modèle d’enveloppe
spectrale et de recouvrement de spectre de notre algorithme soit particulièrement efficace.
147

Tolonen Tolonen-500 Klapuri Emiya


Rappel
100

80

60
%

40

20

0
1 2 3 4 5 6
Polyphonie

(a)

Tolonen Tolonen-500 Klapuri Emiya


Précision
100

80

60
%

40

20

0
1 2 3 4 5 6
Polyphonie

(b)

Tolonen Tolonen-500 Klapuri Emiya


F−mesure
100

80

60
%

40

20

0
1 2 3 4 5 6
Polyphonie

(c)

Figure 6.8 – Résultats de l’estimation de fréquences fondamentales multiples, la polypho-


nie étant inconnue. Le rappel (figure 6.8(a)), la précision (figure 6.8(b)) et la F-mesure
(figure 6.8(c)) sont représentés pour chaque algorithme, en fonction de la polyphonie ori-
ginale.
148 6. Évaluation

100
Pest = 0
Pest = 1

Taux de détection (%)


80
Pest = 2
Pest = 3
60 Pest = 4
Pest = 5
40 Pest = 6

20

0
0 1 2 3 4 5 6 7
Polyphonie originale

(a) Système de Klapuri.

100
Pest = 0
Pest = 1
Taux de détection (%)

80
Pest = 2
Pest = 3
60 Pest = 4
Pest = 5
40 Pest = 6

20

0
0 1 2 3 4 5 6 7
Polyphonie originale

(b) Système d’Emiya.

Figure 6.9 – Estimation de la polyphonie : la polyphonie estimée Pest est représentée en


fonction de la polyphonie originale P , en proportion du nombre de sons de polyphonie
P . Une astérisque (*) rappelle la polyphonie originale. Les résultats sont donnés pour le
système de Klapuri (à gauche) et pour le nôtre (à droite).

Tolonen Tolonen-500 Klapuri Emiya


Taux de notes correctes
100

80

60
%

40

20

0
1 2 3 4 5 6
Polyphonie

Figure 6.10 – Résultats de l’estimation de fréquences fondamentales multiples, la poly-


phonie étant connue. Le taux de notes correctes est représenté pour chaque algorithme, en
fonction de la polyphonie originale.
149

Tolonen Tolonen-500 Klapuri Emiya Tolonen Tolonen-500 Klapuri Emiya


F−mesure (RAND) F−mesure (UCHO)
100 100

80 80

60 60
%

%
40 40

20 20

0 0
1 2 3 4 5 6 1 2 3 4 5
Polyphonie Polyphonie

(a) Accords aléatoires. (b) Accords usuels.

Figure 6.11 – Performances en fonction de la consonance des accords : résultats pour des
accords aléatoires (à gauche) et des accords usuels (à droite).

Tolonen Tolonen-500 Klapuri Emiya


100

80

60
%

40

20

0
Rappel Précision F−mesure
Détection d’octave

Figure 6.12 – Détection des octaves : détails des résultats pour les 90 sons d’octaves
contenus dans la base de test (45 sons pour le système Tolonen-500).
150 6. Évaluation

Résultats en fonction des instruments et des conditions d’enregistrement


La figure 6.13 présente les résultats généraux par instrument, selon la nomenclature
du tableau 6.4 (p. 139). Ces résultats sont intéressants sur plusieurs points. Tout d’abord,
notre système a des performances relativement constantes en fonction de l’instrument et des
conditions d’enregistrements utilisés, ce qui laisse penser que notre algorithme est robuste
sur ces points. Par ailleurs, nous soulignons ici que les paramètres de notre algorithme ont
été réglés sur une partie des sons provenant des pianos notés AkPnBsdf et AkPnCGdD.
Les performances obtenues sur ces pianos et sur les autres étant similaires, nous avons
pris le parti de les présenter ensemble, plutôt que de séparer la base de test et la base
d’évaluation (démarche que nous aurions adoptée si les performances sur la base de test
avaient été supérieures).
Par ailleurs, la principale variation visible sur ces figures est celle des performances du
système de Klapuri en polyphonie 1. Nous avons constaté que la dégradation des résultats
pour certains pianos était due à une baisse de la précision, le rappel étant stable. Cela
voudrait indiquer que cet algorithme a parfois tendance à ajouter des notes.
Enfin, la différence de comportement des algorithmes face aux sons du piano réel
(ENSTDk) par opposition aux sons synthétisés par des logiciels ne peut être vraiment
établie. Certes, l’algorithme de Klapuri est un peu moins performant sur le piano réel,
mais nous venons de voir que son comportement varie aussi parmi les différents pianos de
synthèse. Par ailleurs, la qualité des sons de synthèse que nous avons utilisés nous laissent
penser qu’ils sont très proches de sons réels, en particulier pour une application comme la
transcription automatique.

Performance de la sélection de notes candidates


Dans le cas spécifique de notre approche, il est important que la sélection de notes
candidates soit performante puisque les notes qui sont éliminées à cette étape ne sont
plus en mesure d’être choisies lors de l’estimation de fréquences fondamentales proprement
dite. La figure 6.14 représente ces performances en fonction de la polyphonie et de la note
originale. Seul le rappel y figure car l’objectif de la sélection de candidats est de ne pas
oublier les bonnes notes, quitte à en ajouter des mauvaises.
Pour une polyphonie allant jusqu’à 3 ou 4, les performances sont très satisfaisantes :
99% des bonnes notes sont sélectionnées en polyphonie 1 et 2, 95% en polyphonie 3 et
87% en polyphonie 4. Les performances se dégradent un peu en polyphonie 5 et 6, avec
un rappel valant respectivement 79% et 71%. Par ailleurs, les erreurs sont essentiellement
commises dans le registre grave, en-deçà du La 1 (MIDI 45), et dans l’aigu au-delà du La 5
(MIDI 93). On peut ainsi supposer qu’une partie non négligeable des erreurs d’estimation
en polyphonie élevée observée sur la figure 6.8(c) (p. 147) est due à l’étape de sélection de
candidats, qu’il serait intéressant d’améliorer.

6.3.2 Système de transcription


Le système de transcription a été évalué sur les morceaux musicaux de la base MAPS
(classe de sons MUS). Seules les trente premières secondes ont été extraites sur 215 mor-
ceaux. Plusieurs transcriptions de ces morceaux ont été obtenues, en utilisant, outre notre
système, ceux de Bertin et al. [2007], les deux systèmes de Vincent et al. [2008] – une
version B de base utilisant la décomposition en matrices non-négatives et une version H
plus élaborée prenant en compte une contrainte d’harmonicité – et de Marolt [2004], les
programmes ayant été fournis par leurs auteurs.
151

Tolonen Tolonen-500 Klapuri Emiya Tolonen Tolonen-500 Klapuri Emiya


F−mesure F−mesure
100 100

80 80

60 60
%

%
40 40

20 20

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Polyphonie Polyphonie

(a) AkPnBcht. (b) AkPnBsdf.

Tolonen Tolonen-500 Klapuri Emiya Tolonen Tolonen-500 Klapuri Emiya


F−mesure F−mesure
100 100

80 80

60 60
%

40 40

20 20

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Polyphonie Polyphonie

(c) AkPnCGdD. (d) AkPnStgb.

Tolonen Tolonen-500 Klapuri Emiya Tolonen Tolonen-500 Klapuri Emiya


F−mesure F−mesure
100 100

80 80

60 60
%

40 40

20 20

0 0
1 2 3 4 5 6 1 2 3 4 5 6
Polyphonie Polyphonie

(e) SptkBG. (f) StbgTGd2.

Tolonen Tolonen-500 Klapuri Emiya


F−mesure
100

80

60
%

40

20

0
1 2 3 4 5 6
Polyphonie

(g) ENSTDk.

Figure 6.13 – Performances en fonction des enregistrements : le détail de la nomenclature


est donné dans le tableau 6.4 (p. 139).
152 6. Évaluation

Rappel Rappel
100 100

80 80

60 60
%

%
40 40

20 20

0 0
1 2 3 4 5 6 20 30 40 50 60 70 80 90 100
Polyphonie Note (MIDI)

(a) Rappel en fonction de la polyphonie. (b) Rappel par note.

Figure 6.14 – Performances de la sélection de notes candidates : le rappel est tracé en


fonction de la polyphonie (à gauche) et pour chaque note originale (à droite).

Les résultats sont représentés sur les figures 6.15 et 6.16(a). Pour chaque mesure utilisée,
le score obtenu pour chaque morceau a été calculé, puis la moyenne des scores sur tous les
morceaux est présentée.

100
Bertin’07
Vincent B ’07
Vincent H ’07
80
Marolt’04
Thèse Emiya

60
%

40

20

0
F−mesure Précision Rappel Mean Overlap Ratio

Figure 6.15 – Évaluation objective des transcriptions.

La F-mesure moyenne obtenue par notre système (figure 6.15) est égale à 63%. Elle
arrive en deuxième position après celle de Marolt (75%), suivie de près par les systèmes
de Vincent (56% et 63% respectivement pour les versions B et H), puis par celui de Ber-
tin (46%). Notre système est plus perfomant en terme de précision (76%) que de rappel
(56%), et suit de ce point de vue les tendances de la méthode d’estimation de fréquences
fondamentales multiples. Il se distingue par ailleurs en arrivant en tête pour l’estimation
de la durée des notes, le taux de recouvrement moyen (MOR) entre notes originales et
transcrites atteignant 62%, contre 57%, 56%, 52% et 47% pour les autres systèmes. Cette
performance illustre les qualités du système quant au suivi des mélanges de notes. L’archi-
tecture choisie, composée d’une segmentation selon les attaques et de HMM dans chaque
segment, semble ici particulièrement efficace.
La F-mesure perceptive (figure 6.16(a)) donne des scores différents de la F-mesure, les
valeurs ayant tendance à se rapprocher entre elles. Le système de Marolt reste en tête avec
un score de 80%, suivi de la version H du système de Vincent et de notre système (75%),
puis de la version B (71%) et du système de Bertin (58%). La figure 6.16(b) montre que
153

pour certains morceaux, la F-mesure perceptive et la F-mesure ne donnent pas du tout les
mêmes résultats. On peut par exemple trouver un point de coordonnées (41; 68) et un autre
de coordonnées (77; 70), qui sont relativement écartés de la courbe croissante moyenne.
La figure 6.17 représente par ailleurs, pour chaque algorithme, la distribution des scores
(F-mesure et F-mesure perceptive) selon les transcriptions. Ce sont ces valeurs qui ont été
moyennées précédemment et l’on voit ici que les performances de chaque système dépend
des morceaux originaux. Les différences obtenues pour un même système résultent le plus
souvent des variations dans le niveau technique des morceaux, en particulier dans le niveau
de polyphonie et suivant le tempo. Nous constatons par ailleurs de nouveau que la F-mesure
perceptive (figure 6.17(b)) a davantage tendance à regrouper les scores que la F-mesure
(figure 6.17(a)).
154 6. Évaluation

100

90

F−mesure Perceptive (%)


100 80

80 70

60 60
%

50
40
Bertin’07
Vincent B ’07 40
20 Vincent H ’07
Marolt’04 30
Thèse Emiya 0 50 100
0
F−mesure perceptive F−mesure (%)
(a) F-mesure perceptive moyenne, par sys- (b) Correspondance entre F-mesure et F-mesure
tème. perceptive, pour chaque transcription obtenue
(croix) par notre système. Le segment de droite est
une régression linéaire entre les points, d’équation :
F-mesure perceptive = 0, 65 × F-mesure + 33.

Figure 6.16 – Évaluation des transcriptions par la F-mesure perceptive.

50 80
Bertin’07 Bertin’07
Vincent B ’07 Vincent B ’07
Nombre de morceaux

Nombre de morceaux

40
Vincent H ’07 60 Vincent H ’07
Marolt’04 Marolt’04
30 Thèse Emiya Thèse Emiya
40
20

20
10

0 0
0 20 40 60 80 100 0 20 40 60 80 100
F−mesure F−mesure perceptive

(a) F-mesure. (b) F-mesure perceptive.

Figure 6.17 – Distribution des résultats selon le morceau : en fonction de l’algorithme,


le nombre de transcriptions est représentée en fonction de la F-mesure (à gauche) et la
F-mesure perceptive (à droite), par pas de 5%.
155

6.4 Conclusion
Ce chapitre a été l’occasion d’aborder en détail plusieurs aspects liés à l’évaluation des
transcriptions. Dans la première partie sur les méthodes d’évaluation, nous nous sommes
intéressé aux critères d’évaluation, en introduisant une dimension perceptive qui n’a, à
notre connaissance, jamais été utilisée dans le domaine de la transcription. Nous avons
ainsi mis en évidence que d’un point de vue perceptif, les erreurs de transcription n’étaient
pas toutes perçues avec la même sensibilité. Nous avons alors défini des mesures perceptives
d’évaluation, qui généralisent les mesures utilisées habituellement. Enfin, nous avons intro-
duit le cadre d’évaluation de la qualité utilisé en codage vidéo pour quantifier la qualité de
ces métriques.
Dans la deuxième partie, nous avons décrit la base de données MAPS, construite de
manière spécifique pendant cette thèse pour l’évaluation des systèmes de transcription
automatique et d’estimation de fréquences fondamentales. Elle se compose de plusieurs
classes de sons de piano entièrement et précisément annotés, que nous nous sommes efforcé
de rendre les plus variés possible.
Dans la troisième et dernière partie, nous avons évalué notre algorithme d’estimation de
fréquences fondamentales multiples et notre système de transcription en utilisant les outils
précédents. Nous avons ainsi pu analyser sous plusieurs angles le comportement de ces
méthodes, ainsi que d’approches de la littérature. Les résultats obtenus sont à la hauteur des
systèmes les plus récents. Nous avons pu établir les qualités propres à chaque système. Ainsi,
notre méthode d’estimation de fréquences fondamentales multiples est particulièrement
efficace lorsque la polyphonie est inconnue, il est robuste aux changement de conditions
d’enregistrement et présente des résultats très satisfaisant quant à la détection des octaves.
Notre système de transcription offre des résultats satisfaisants d’une manière générale, avec
une bonne estimation des durées des notes.
156 6. Évaluation
157

Conclusion et perspectives

Bilan de la thèse
Les travaux menés au cours de cette thèse ont apporté des éléments de réponse à des
questions relatives à la transcription automatique de la musique de piano. Nous avons tout
d’abord dégagé les enjeux liés à cette problématique en la situant par rapport aux domaines
de recherche connexes – perception et estimation de la hauteur en général, estimation de
fréquences fondamentales multiples, transcription automatique – et en soulignant les spé-
cificités du piano. Il en est ressorti d’une part un besoin de caractérisation des sons de
piano, et d’autre part des défis en matière de transcription automatique en général tels
que la recherche de fréquences fondamentales sur une grande tessiture, la modélisation du
recouvrement spectral, l’estimation du degré de polyphonie ou encore la question de l’éva-
luation de la qualité de la transcription. Suivant ces enjeux, la transcription automatique
du piano a été abordée à plusieurs niveaux tels que la modélisation des sons, l’estimation
des notes ou la manipulation des ensembles de notes obtenues.
Nous avons tout d’abord étudié la structure tonale des sons de piano et la paramétri-
sation associée (cf. chapitre 2). Après avoir décrit les outils appropriés d’analyse spectrale,
nous avons mené une étude sur l’inharmonicité des sons et la localisation des fréquences des
partiels d’une note grâce au couple de paramètres composé de la fréquence fondamentale et
du coefficient d’inharmonicité. Nous avons en particulier proposé deux algorithmes d’esti-
mation de ces paramètres et montré qu’ils parvenaient à localiser précisément les fréquences
des partiels alors qu’une modélisation plus grossière – avec une inharmonicité moyenne ou
nulle – ne le permettait pas au-delà d’un certain ordre de partiel. La quantification du
gain d’une telle prise en compte de l’inharmonicité constitue le second résultat de cette
étude. Nous avons ainsi montré que cette caractérisation fine de l’inharmonicité améliorait
significativement la modélisation, sur la base d’un critère général tel que le rapport signal
à bruit entre les sinusoïdes identifiées et le résiduel.
Autre aspect de la paramétrisation spectrale des sons de piano, la question des enve-
loppes spectrales et de leur modélisation pour la transcription a ensuite été abordée. Cette
problématique nous a semblé particulièrement importante dans le cadre de l’estimation de
fréquences fondamentales multiples en particulier pour lever les indéterminations telles que
celle d’octave. Nous avons proposé un modèle autorégressif (AR) d’enveloppe spectrale qui
reprend l’idée de spectral smoothness et lui confère un cadre plus formel que celui présenté
dans la littérature. Nous avons utilisé le modèle de processus harmonique pour intégrer
cette enveloppe spectrale dans un modèle de son. Par ailleurs, nous avons montré l’intérêt
de modéliser le bruit résiduel par un processus à moyenne ajustée (MA).
Nous nous sommes ensuite intéressé (cf. chapitre 3) aux conditions difficiles d’estimation
de fréquences fondamentales que constituent l’analyse de trames courtes et la contrainte
d’une tessiture étendue. Nous avons montré que ces conditions faisaient chuter les perfor-
158 Conclusion et perspectives

mances lorsqu’on utilise des techniques classiques pour l’estimation de hauteur telles que
l’analyse de Fourier et les fonctions de détection élémentaires (autocorrélation, produit
spectral). Nous avons proposé une solution paramétrique qui s’appuie sur une estimation
sinusoïdale à haute résolution. La fonction de détection est ensuite construite de façon pa-
ramétrique. Elle offre des résultats très satisfaisants, en surpassant ceux de la littérature,
en particulier aux extrêmités grave et aiguë de la tessiture.
Nous avons ensuite proposé une approche pour l’estimation de fréquences fondamen-
tales multiples de sons de piano dans le chapitre 4. Elle intègre dans un cadre statistique
le modèle de son et d’enveloppe spectrale présenté auparavant. L’étape d’estimation des
paramètres aborde en particulier la question du recouvrement entre spectres de notes. Nous
avons proposé un estimateur des amplitudes des partiels qui utilise l’information portée par
les observations et les enveloppes spectrales pour estimer la contribution liée à chaque note.
Les paramètres du modèle ayant été estimés, nous avons étudié leur intégration dans une
fonction de détection de fréquences fondamentales multiples, et en particulier les difficultés
liées à l’utilisation de la fonction de vraisemblance pour un modèle d’ordre variable. Nous
avons alors proposé une solution approximative comme fonction d’estimation conjointe de
fréquences fondamentales multiples et du degré de polyphonie. Les performances globales
obtenues sont au niveau de l’état de l’art. Notre algorithme est particulièrement efficace
lorsque la polyphonie est inconnue et il surpasse ses concurrents sur la question délicate
de l’estimation d’octaves.
Ces résultats d’estimation de fréquences fondamentales multiples ont été intégrés dans
un système de transcription automatique pour le piano (cf. chapitre 5). Nous avons consi-
déré les spécificités de la problématique dans le cas du piano et avons proposé une solution
adaptée, consistant à segmenter le signal selon les attaques et à suivre les mélanges de
notes possibles dans les segments obtenus. Ce suivi prend la forme d’une estimation par
modèles de Markov cachés (HMM) dont les états sont les mélanges potentiels. Le système
est alors capable d’analyser un enregistrement monaural de piano et d’en estimer les notes
jouées, avec des résultats à la hauteur de ceux de l’état de l’art. Le système s’est par ailleurs
distingué par sa robustesse face aux variations de conditions d’enregistrement observées.
Le travail sur l’évaluation (chapitre 6) a été motivé par le besoin de grands volumes de
sons correctement annotés, par la recherche de consensus sur les modalités d’évaluation, par
les limites des critères habituellement utilisés et par la complexité de la question dans le cas
de la transcription. Nous avons donc porté une attention particulière à la problématique de
l’évaluation et avons proposé deux contributions distinctes. D’une part, nous avons montré
que les erreurs de transcription pouvaient être classées dans plusieurs catégories d’erreurs
typiques plus ou moins gênantes perceptivement. Par conséquent, l’évaluation des systèmes
de transcription ne peut se limiter qu’en première approximation à un dénombrement des
erreurs. Dans une démarche nouvelle au sein du champ de la transcription automatique,
nous avons proposé des moyens de faire évoluer les métriques en incluant ces critères
qualitatifs sur les erreurs et les poids perceptifs associés. Nous avons en outre importé
le cadre d’évaluation de la qualité des métriques utilisé en particulier dans le domaine du
codage vidéo pour l’appliquer à la question de l’évaluation des transcriptions. D’autre part,
nous avons créé une base de données de sons de piano adaptée à l’évaluation des systèmes
de transcription et d’estimation de fréquences fondamentales. Elle est entièrement annotée
et son contenu est varié, à la fois vis à vis du type de sons enregistrés et des conditions
d’enregistrement. Enfin, en exploitant cette base de sons et les outils d’évaluation présentés,
nous avons fourni les résultats d’une évaluation comparative de plusieurs algorithmes, dont
les nôtres, dans laquelle nous avons mis en évidence les qualités et faiblesses propres à
159

chaque système.

Perspectives
Les perspectives que nous envisageons au terme de ces travaux de thèse concernent à
la fois l’exploitation des résultats proposés et la poursuite de nouvelles thématiques à la
lumière des travaux effectués.
La modélisation des enveloppes spectrales en général et du piano en particulier reste
une problématique déterminante pour la transcription automatique. Nous espérons que
notre discussion à ce sujet, ainsi que le modèle proposé, contribueront à mieux la cerner.
Les nombreuses approches déjà proposées – lois a priori sur les amplitudes, modèles de
mélange de gaussiennes, pattern matching avec apprentissage des enveloppes, enveloppes
moyennées par spectral smoothness ou modèles autorégressifs d’enveloppes – montrent à
la fois l’enjeu et la difficulté sous-jacente. Nous sommes convaincus que la thématique
demeurera essentielle dans les préoccupations à venir.
La modélisation statistique des signaux audio pour la transcription est actuellement
une direction de recherche majeure. Elle offre un cadre théorique solide, laissant entrevoir
des résultats prometteurs liés à une grande capacité de modélisation. Cependant, elle pose
également des difficultés théoriques importantes, en particulier quant à la phase d’inférence.
Nous pensons que ce genre d’approche ne fournit pour le moment pas forcément les résultats
escomptés et qu’elles donnent souvent lieu à une mise en œuvre assez lourde, mais que
ces difficultés – qui ne nous ont pas épargné – sont à la hauteur des enjeux. C’est pour
cette raison que nous avons choisi cette direction, et nous pensons que si notre méthode
d’estimation de fréquences fondamentales multiples présente des points forts quant au
modèle et à l’estimation des paramètres proposés, la fonction d’estimation proprement dite
souffre néanmoins de quelques faiblesses et que les enjeux théoriques à ce sujet demeurent
importants.
Après les nombreux travaux sur l’estimation de fréquences fondamentales simples pro-
posés au cours des dernières décennies, il nous semble particulièrement important de nous
intéresser aujourd’hui à la robustesse des méthodes. La robustesse est souvent assimilée à
la sensibilité vis à vis du rapport signal à bruit et a été étudiée en ces termes dans la litté-
rature, mais elle fait également référence aux facteurs que nous avons étudiés – taille de la
fenêtre d’analyse, tessiture et compromis temps-fréquence –, ainsi qu’à d’autres paramètres
tels que la qualité vocale et sa grande variabilité. Les performances de notre estimateur
de fréquences fondamentales simples nous encouragent à poursuivre ces travaux dans cette
direction et à essayer de les généraliser aux autres instruments, et surtout à la parole.
La question de l’évaluation suscite de nombreux efforts dans la communauté, notam-
ment dans le cadre d’évaluations indépendantes telles que MIREX. Nos travaux sur les
mesures d’évaluation nous ont montré qu’il n’était pas trivial de concevoir un système
d’évaluation fidèle qui puisse donner des résultats proches d’un jugement humain. Seules
quelques erreurs typiques ont pu être prises en compte, alors qu’une évaluation subjective
fait appel à des notions de plus haut niveau telles que la tonalité. Aussi, nous pensons
qu’il serait tout à fait profitable de développer les nombreuses pistes et travaux que nous
avons pu aborder avec A. Daniel à ce sujet. Il conviendrait en particulier de mener de nou-
veaux travaux sur les critères de perception de la qualité d’une transcription, en prenant
en compte des notions telles que la tonalité, le rythme ou la mélodie.
Notre système de transcription présente des qualités qu’il nous paraît important de
souligner et laisse par ailleurs d’autres directions à approfondir. L’utilisation d’une étape
160 Conclusion et perspectives

de détection d’attaque nous semble une bonne approche, que ce soit pour le piano ou pour
d’autres instruments. D’une part, les algorithmes de détection d’attaques sont aujourd’hui
relativement performants, alors qu’il n’est pas évident de détecter le début des notes à
partir d’une seule analyse de fréquences fondamentales multiples sur des trames successives.
D’autre part, la dimension rythmique nous semble sous-exploitée dans les systèmes de
transcription – peut-être en raison de l’obsession d’une bonne estimation de fréquences
fondamentales – alors qu’elle occupe une place de premier plan dans notre perception
de la musique. L’intégration de modèles rythmiques élaborés laisse alors entrevoir des
perspectives d’amélioration des systèmes de transcription. Nous avons également proposé
un cadre de modèles de Markov cachés pour l’utilisation d’une méthode d’estimation jointe
de fréquences fondamentales. Ce cadre nous a permis de modéliser l’évolution locale du
mélange de notes présentes. Il pourrait être enrichi avec un modèle « musicologique » tel
que ceux déjà proposés dans la littérature (cf. partie 1.4.5 (p. 39)). Nous suggérons alors que
cette information sur le contenu tonal soit introduite au niveau des probabilités initiales des
HMM, à la différence des approches déjà proposées dans lesquelles l’information se situe
au niveau de la matrice de transition. De cette façon, l’aspect tonal est exploité au niveau
des notes, c’est-à-dire sur une échelle de temps plus grande indépendante de la longueur
de la trame d’analyse, alors que les transitions à l’intérieur des HMM continuent à prendre
en charge l’enchaînement entre trames.
161

ANNEXES
162 Conclusion et perspectives
163

Annexe A

Méthodes de traitement du signal


numérique

A.1 Notes de probabilités


A.1.1 Variables et vecteurs gaussiens
Définition A.1.1 (Variable aléatoire gaussienne centrée réduite). Une variable aléatoire
réelle X est dite gaussienne centrée réduite si elle admet pour densité de probabilité par
rapport à la mesure de Lebesgue la fonction

1 x2
pX (x) = √ e− 2 (A.1)

Définition A.1.2 (Variable aléatoire gaussienne). Une variable aléatoire réelle X est dite
gaussienne s’il existe µ et σ tels
 que X = σXc + µ, où Xc est gaussienne centrée réduite.
On le note alors X ∼ N µ, σ 2 et l’on a

E [X] = µ (A.2)
2
Var [X] = σ (A.3)

Propriété A.1.3. Si σ 6= 0, la densité de probabilité de X est

1 (x−µ)2
pX (x) = √ e− 2σ 2 (A.4)
2πσ 2
Définition A.1.4 (vecteur aléatoire gaussien). Le vecteur aléatoire X = (X1 , . . . , Xn ) est
dit gaussien si toute combinaison linéaire at X de ses composantes, où a ∈ Rn , est une
variable aléatoire gaussienne. On le note X ∼ N (µ, Γ), avec

E [X] = µ (A.5)
 
E XX t = Γ (A.6)

Propriété A.1.5. Si det Γ 6= 0, X admet pour densité la fonction


1 1 t −1
pX (x) = p n
e− 2 (x−µ) Γ (x−µ) (A.7)
(2π) det Γ
164 A. Méthodes de traitement du signal numérique

Propriété A.1.6. Soit X ∼ N (µ, Γ) un vecteur gaussien de taille n, A une matrice m×n
et b ∈ Rm . Y , AX + b est un vecteur gaussien et l’on a

Y ∼ N Aµ + b, AΓAt (A.8)

Définition A.1.7 (Variable aléatoire gaussienne complexe). Une variable aléatoire com-
plexe Z est dite gaussienne complexe si ses parties réelle X et imaginaire Y sont des
2
variables aléatoires réelles gaussiennes indépendantes de même variance σ2 . On le note

alors Z ∼ N µ, σ 2 avec µ , E [X] + iE [Y ].

A.1.2 Changement de variable


Propriété A.1.8. Soit X une variable aléatoire multivariée admettant une densité pX et
Y = f (X), où f est une fonction bijective. Alors Y admet pour densité de probabilité la
fonction

  −1
pY (y) = pX f −1 (y) Jac [f ] f −1 (y) (A.9)

A.1.3 Autres lois de probabilité


A.1.3.1 Loi Gamma
Définition A.1.9 (Loi Gamma). Une variable aléatoire X réelle positive suit une loi
Gamma de paramètre de forme k ∈ R+ et de paramètre d’échelle E ∈ R+ si elle
admet une densité de probabilité de la forme

1 x
pX (x) = xk−1 e− E (A.10)
E α Γ (k)

où z 7→ Γ (z) désigne la fonction Gamma d’Euler. On le note alors : X ∼ Γ (k, E). Les
densités associées à plusieurs valeurs de paramètres sont représentées sur la figure A.1(a).

Propriété A.1.10 (Moyenne et variance). Si X ∼ Γ (k, E), alors

E [X] = kE (A.11)
2
Var [X] = kE (A.12)

A.1.3.2 Loi Gamma Inverse


Définition A.1.11 (Loi Gamma Inverse). Une variable aléatoire X réelle positive suit une
loi Gamma Inverse de paramètre de forme k ∈ R+ et de paramètre d’échelle
E ∈ R+ si elle admet une densité de probabilité de la forme

E k −k−1 − E
pX (x) = x e x (A.13)
Γ (k)

On le note alors : X ∼ IG (k, E). Les densités associées à plusieurs valeurs de para-
mètres sont représentées sur la figure A.1.
165

2 6
k=1, E=0.5 k=1, E=0.1
k=1, E=1 5 k=1, E=0.5
1.5 k=1, E=2 k=1, E=1
k=2, E=0.5 4 k=2, E=0.5
k=3, E=0.5 k=3, E=0.5

p(X)
p(X)

1 3

2
0.5
1

0 0
0 0.5 1 1.5 2 2.5 3 0 0.5 1 1.5 2 2.5 3
X X

(a) Famille de lois Gamma. (b) Famille de lois Gamma Inverse.

Figure A.1 – Densités des lois Gamma (gauche) et Gamma Inverse (droite) pour quelques
valeurs de paramètres de forme k et d’échelle e.

Propriété A.1.12 (Moyenne et variance). Soit X ∼ IG (k, e). On a


E
E [X] = si k > 1 (A.14)
k−1
E2
Var [X] = si k > 2 (A.15)
(k − 1)2 (k − 2)
1

Propriété A.1.13 (Inverse). Si X ∼ IG (k, E), alors X ∼ Γ k, E1

A.2 Modélisation AR et MA
Nous rappelons ici quelques résultats sur les processus autorégressifs (AR) et à moyenne
ajustée (MA). Le cas général du processus autorégressif à moyenne ajustée (ARMA) n’est
pas traité car il n’intervient pas dans ces travaux de thèse.

A.2.1 Processus AR
Définition A.2.1 (processus AR). {Xn }n∈Z est un processus AR d’ordre p s’il est
stationnaire au second ordre et s’il est solution de l’équation
p
X
Xn = ak Xn−k + Wn (A.16)
k=1

où Wn est un bruit blanc de variance σ 2 . Même si ce n’est pas le cas le plus général,
on supposera de plus que Wn est gaussien, en particulier pour considérer la densité de
probabilité.
On notera A (z) la quantité 1
p
X
A (z) , 1 − ak z −k (A.17)
k=1

1. Dans la littérature consacrée à la modélisation AR et MA, différentes notations sont utilisées : ainsi
A(z) (équation (A.17)) a la forme d’une transformée en z, mais peut prendre celle d’un polynôme, auquel
cas l’exposant de la variable z est k au lieu de −k ; de même, l’équation (A.16) est présentée comme une
formule de filtrage récursif, alors que l’on trouve également des présentations dans lesquelles les ak ont des
signes opposés, pour k ≥ 1.
166 A. Méthodes de traitement du signal numérique

Propriété A.2.2 (Existence). Nous admettons le résultat suivant : l’équation (A.16) ad-
met une solution stationnaire au second ordre si et seulement si A (z) n’a pas de racine sur
le cercle unité. La solution est alors unique et s’exprime en fonction des coefficients hk du
1
développement en série de Laurent de A(z) au voisinage du cercle unité :

+∞
X
Xn = hk Wn−k (A.18)
k=−∞

On notera H (z) la fonction


+∞
X
H (z) , hk z −k (A.19)
k=−∞

Propriété A.2.3 (Densité spectrale de puissance). Le processus Xn possède une densité


spectrale de puissance dont l’expression est

σ2 σ2
Γ (f ) = = (A.20)
1 − Pp −i2πf k 2 |A (e2iπf )|
2
k=1 ak e

Pour étudier la causalité d’un processus AR, nous introduisons le minimum et le maxi-
mum des modules des racines de A (z) :

ρm , min {|z| /A (z) = 0} (A.21)


ρM , max {|z| /A (z) = 0} (A.22)

Propriété A.2.4 (Causalité). Si ρM < 1, les pôles sont à l’intérieur du cercle unité et
H (z) est
 analytique sur la couronne ouverte {z/ |z| > ρM }. En considérant la limite de
H z −1 en 0, on obtient alors ∀k < 0, hk = 0 : le processus est causal.
De même, si ρm > 1, les racines sont à l’extérieur du cercle unité et H (z) est analytique
sur le disque ouvert {z/ |z| < ρm }, on a alors ∀k > 0, hk = 0, et le processus est anticausal.
Dans les autres cas, les racines sont de part et d’autre du cercle unité et le processus
n’est ni causal, ni anticausal.

Propriété A.2.5 (Équations de Yule-Walker). On suppose que Xn est causal. Les équa-
tions de Yule-Walker relient la fonction d’autocovariance γ (k) , E [Xn Xn−k ] de Xn et les
paramètres a1 , . . . , aP , σ 2 du modèle AR sous la forme matricielle suivante :
    2
γ (0) γ (1) ... γ (p) 1 σ
 . 
γ (1) γ (0) . . γ (p − 1)  
−a1   0 
  = . 

(A.23)
 . . . .   .. 

  .
 .. .. .. ..  . .
γ (p) γ (p − 1) . . . γ (0) −aP 0

Nombre de méthodes permettent d’estimer les paramètres d’un modèle AR à partir de


l’observation d’une réalisation du processus. La plus connue consiste à substituer l’autoco-
variance empirique à la fonction d’autocovariance dans l’équation (A.23), puis à inverser le
système linéaire obtenu. La matrice à inverser étant de Toeplitz, l’algorithme
 de Levinson-

Durbin offre une résolution récursive avec une complexité en O p2 (contre O p3 pour
l’inversion d’une matrice dans le cas général).
167

Densité de probabilité
D’après la définition A.2.1, le processus AR Xn s’exprime linéairement en fonction du
processus gaussien Wn . C’est donc un processus gaussien et la log-densité du vecteur gaus-
sien X = (X1 , . . . , Xn )t est de la forme

n  1 1 X t Γ−1 X
ln p (X) = − ln 2πσ 2 − ln det Γ − (A.24)
2 2 2 σ2

où Γσ 2 est la matrice de covariance de X. Il est cependant difficile de déterminer Γ car


Xn s’exprime en fonction d’un nombre infini de termes Wm (cf. équation (A.18)), il n’est
donc pas possible d’utiliser un simple changement de variable (cf. propriété A.1.6). Une
première solution (proposition A.2.6) consiste à s’intéresser à la densité de probabilité
conditionnelle de (Xp+1 , . . . , Xn |X1 , . . . , Xp ). La deuxième (proposition A.2.8) consiste à
modifier les hypothèses en supposant une relation de filtrage circulaire entre Xn et Wn .
D’autres considérations sur le calcul de cette densité peuvent être trouvées dans les travaux
d’ Ansley [1979] par exemple.

Proposition A.2.6 (Densité conditionnelle). La log-densité de probabilité conditionnelle


de (Xp+1 , . . . , Xn |X1 , . . . , Xp ) est

n−p  1
ln p (X|X0 ) = − ln 2πσ 2 − 2 kAX + A0 X0 k2 (A.25)
2 2σ
avec
   
Xn Xp
   
X ,  ...  , X0 ,  ...  ,
Xp+1 X1

 
1 −a1 . . . −aP 0 ... 0  
 .. .. .. ..  0 ... 0
0 1 . . . . 
   .. .. 
. .   . . 
 .. .. ... ... ..
.
..
. 0   
   ..
. .. .. .. ..   0 .
A,
 .. . . . . 
−aP  , A0 , 
 ..


. ..
. .. .. .. .. 
−aP
 . . 

. . . . .   . .. 
   .. . 0 
 .. .. .. 
. . . −a1  −a1 . . . −aP
0 ... ... ... ... 0 1

De plus, l’équation (A.25) se réécrit sous la forme

n−p  1


→ 2
ln p (X|X0 ) = − ln 2πσ 2 − 2 X − X a (A.26)
2 2σ
avec
   
Xn−1 . . . Xn−p a1
 ..  ,  
X ,  ... a ,  ... 

.  (A.27)
Xp X1 aP
168 A. Méthodes de traitement du signal numérique

Démonstration. D’après (A.16) et en reprenant les notations précédentes, on a


 
Wn
 
W = AX + A0 X0 avec W ,  ...  , (A.28)
Wp+1

On a alors X = A−1 W − A−1 A0 X0 . D’après A.1.6, W ∼ N 0, Iσ 2 donc
 t 
X|X0 ∼ N −A−1 A0 X0 , A−1 A−1 σ 2 (A.29)

Et
n−p  1
ln p (X|X0 ) = − ln 2πσ 2 − 2 kAX + A0 X0 k2 (A.30)
2 2σ

Corollaire A.2.7 (Estimation des paramètres du processus AR par maximum de vrai-



semblance). Au sens du maximum de vraisemblance, l’estimation des coefficients a a pour
→ −1 t
solution l’estimateur des moindres carrés b
a = X tX X X et la variance estimée est

→ 2
c2 = 1 X − X b a
σ n−p .

90 1
10 120 60
150 0.5 30
5
x(t)

0 180 0
−5 210 330
−10 240 300
270
0 100 200
t Pôles
40

20
Processus
DSP (dB)

Modèle
0
Estim. autocov
−20 Estim. ML

−40
0 0.5 1
f

Figure A.2 – Estimation des paramètres AR : les paramètres (en bleu) sont estimés à
partir du processus généré (en gris), par la fonction d’autocovariance (en rouge) et par
maximum de vraisemblance (en vert). L’écart entre le modèle et la réalisation en bas à
droite est dû au fenêtrage du signal et aux lobes secondaires que celui-ci provoque.
169

L’estimation par maximum de vraisemblance donne de meilleurs résultats que la mé-


thode par la fonction d’autocovariance (cf. figure A.2). À noter qu’elle ne garantit pas
que le modèle estimé est causal, et qu’il faut donc inverser le module des pôles situés à
l’extérieur du cercle unité pour rendre la solution causale.

Proposition A.2.8 (Processus AR circulaire). On redéfinit ici le processus AR en suppo-


sant une relation de filtrage circulaire entre le vecteur W = (W1 , . . . , Wn )t gaussien centré
de covariance In σ 2 et le vecteur X = (X1 , . . . , Xn )t :

W = (1, −a1 , . . . , −aP ) ⊗ X (A.31)

L’expression de la log-densité de X est alors :

1 X  2iπ k  2 k(1, −a1 , . . . , −aP ) ⊗ Xk2


n−1
n
ln p (X) = − ln 2πσ 2 + ln A e n − (A.32)
2 2 2σ 2
k=0

ou de manière équivalente,
 2
n−1
X   X
n−1
k
n
ln p (X) = − ln 2πσ 2 +
1 k 2
ln A e2iπ n −
1 FX  n 
(A.33)
2 2 2nσ 2 k
2iπ n
k=0 k=0 1/A e

où FX (f ) est la transformée de Fourier discrète de X en f et A (z) est la transformée en


Z du filtre de réponse impulsionnelle (1, −a1 , . . . , −aP ).

Démonstration. La relation de filtrage s’écrit sous forme matricielle :

W = Acirc X (A.34)

où Acirc est la matrice circulante


 
1 0 ... 0 −aP ... −a1
 .. .. .. .. .. 
 −a 1 . . . . . 
 1 
 . .. .. .. .. .. 
 .. . . . . . −aP 
 
 .. .. .. .. .. 
Acirc , −aP . . . . . 0 
 (A.35)
 .. 
 .. .. .. .. .. 
 0 . . . . . . 
 
 .. .. .. .. .. 
 . . . . . 1 0 
0 ... 0 −aP ... −a1 1

W étant un vecteur
 gaussien de loi N 0, Iσ 2 , X est gaussien de loi

−1 † 2
N 0, A−1
circ Acirc σ . Acirc étant circulante, on a

 Y 
 n−1 
k 2
det Acirc A†circ = A e2iπ n (A.36)
k=0
 † −1
puis, en utilisant le fait que X † A−1
circ A−1
circ X = kAcirc Xk2 , la densité de X s’écrit
170 A. Méthodes de traitement du signal numérique

 −1
1 − 21 X † A−1 −1 † 2
circ (Acirc ) σ X
p (X) = r  e (A.37)
n −1

−1 † 2
(2π) det Acirc Acirc σ
! 21
 n Y
n−1

  2
1 2
2 − k
= 2πσ 2
A e 2iπ n
e− 2σ2 kAcirc Xk (A.38)
k=0

L’équation (A.33) s’obtient ensuite en utilisant l’identité de Parseval.

Cette dernière méthode n’est pas standard. Nous l’avons employée dans [Emiya et al.,
2007a] et l’introduisons ici pour simplifier l’estimation par maximum de vraisemblance.
Qualitativement, les deux densités (A.26) et (A.32) sont proches. Leur premier terme est
identique à taille d’échantillon égale, ainsi que leur dernier terme si l’on considère qu’il
2
correspond à kW1 ,...,W
2σ 2
nk
. La seule différence qualitative est le deuxième terme de (A.32),
absent dans (A.26).

A.2.2 Processus MA
Définition A.2.9 (processus MA). {Xn }n∈Z est un processus MA d’ordre q s’il s’écrit
q
X
Xn = bk Wn−k (A.39)
k=0

où Wn est un bruit blanc de variance σ 2 et b0 = 1. Comme dans le cas AR, on supposera


de plus que Wn est gaussien.

On notera B (z) la transformée en z du filtre unitaire associé


q
X
B (z) , bk z −k (A.40)
k=0

Propriété A.2.10 (Propriétés du second ordre). Le processus MA Xn est du second ordre,


centré, et d’autocovariance

γ(m) = E [Xn Xn−m ] (A.41)


n−|m|
X
2
=σ bk bk+|m| (A.42)
k=0

avec, en particulier, γ(m) = 0 pour |m| > q.

Propriété A.2.11 (Densité spectrale de puissance). Le processus Xn possède une densité


spectrale de puissance dont l’expression est
q 2
X

Γ (f ) = σ 2 bk e−i2πf k (A.43)

k=0
171

Propriété A.2.12 (Densité de probabilité). D’après la définition A.2.9, le processus MA


Xn s’exprime linéairement en fonction du processus gaussien Wn . La log-densité du vecteur
gaussien X = (X1 , . . . , Xn )t est de la forme

n  1 1
ln p (X) = − ln 2πσ 2 − ln det Γ − 2 X t Γ−1 X (A.44)
2 2 2σ

où Γσ 2 est la matrice de covariance de X, dont l’élément (i, j) est égal à γ (|i − j|) (cf.
propriété A.1.6).

Le calcul du déterminant et de l’inverse de Γ est cependant coûteux et l’on peut vouloir


simplifier l’expression de ces calculs en introduisant une approximation. Deux solutions
sont proposées : le calcul d’une vraisemblance approchée et, comme dans le cas AR, la
redéfinition du processus MA par filtrage circulaire.

Proposition A.2.13 (Vraisemblance approchée). Le vecteur X = (X1 , . . . , Xn )t s’écrit


  
W1 W0
   
X = B+  ...  + B−  ...  (A.45)
Wn W−q+1

avec
 
1 0 ... ... ... ... 0  
 .. .. .. . . ..  b1 . . . bq
b . . . . .
 1 1   .. . 
. . .. .. .. . . ..   . .. 0
 .. .. . . . . .  
   .
 . .. .. .. . . ..  bq . . . .. 
B+ , 
bq . . . . . . . et B− , 


 (A.46)
 .   0 . . . ... 
 .. .. .. .. .. .  
0 . . . . . . . 

.
  .. . . . ... 
 . .. .. .. .. 
. . . . . 1 0 0 ... 0
0 ... 0 bq ... b1 1

En négligeant le second terme qui fait intervenir les Wn pour n ≤ 0 dans le membre de
droite de (A.45), la densité de probabilité de X devient :

n 1
ln p (X) ≈ − ln 2πσ 2 − 2 X t ΘX (A.47)
2 2σ
avec

−1 t −1
Θ , B+ B+ (A.48)

Proposition A.2.14 (Processus MA circulaire). On redéfinit ici le processus MA en sup-


posant une relation de filtrage circulaire entre le vecteur W = (W1 , . . . , Wn )t gaussien
centrée de covariance In σ 2 et le vecteur X = (X1 , . . . , Xn )t :

X = (1, b1 , . . . , bq ) ⊗ W (A.49)
172 A. Méthodes de traitement du signal numérique

L’expression de la log-densité de X est alors :


 2
n 1
n−1
X 


k 2 1 X
n−1 k
FX n
ln p (X) = − ln 2πσ 2 − ln B e2iπ n −   (A.50)
2 2 2nσ 2 k
2iπ n
k=0
k=0 B e

où FX (f ) est la transformée de Fourier discrète de X en f et B est la transformée en z


du filtre de réponse impulsionnelle (1, b1 , . . . , bq ).
Démonstration. La démonstration est similaire à celle de la proposition A.2.8.
Comme dans le cas AR, cette méthode n’est pas standard et a été utilisée dans [Emiya
et al., 2007a]. Alors que les approximations introduites sont asymptotiquement peu gê-
nantes (lorsque n >> q), le gain de complexité est significatif. Dans le cas de la propo-
sition A.2.13, l’inversion de matrice est moins coûteuse car la matrice est triangulaire,
et pour le cas A.2.14, il n’y a plus de matrice à inverser mais uniquement une transfor-
mée de Fourier discrète à calculer. Par ailleurs, ces simplifications peuvent également être
utiles pour estimer les paramètres MA au sens du maximum de vraisemblance, avec une
vraisemblance approximative.

A.3 Approximation de Laplace


L’approximation de Laplace [Chickering et Heckerman, 1997] permet de calculer ap-
proximativement une intégrale en fonction des propriétés du second ordre de l’intégrande
au niveau de son maximum, en approximant la fonction à intégrer par une gaussienne.
Soit une fonction f définie sur Rn à valeurs dans R∗+ , admettant un maximum en
x0 ∈ Rn et dont le logarithme est deux fois différentiable en x0 . Le développement de
Taylor de log f à l’ordre 2 en x0 est
1  
log f (x) = log f (x0 ) − (x − x0 )t H (x − x0 ) + o (x − x0 )2 (A.51)
2
avec

H , −∇2 {log f } (x0 ) (A.52)


où ∇2 f désigne la matrice hessienne de la fonction f .
On peut alors approximer f sous la forme f ≈ αg où α est une constante multiplicative
et g une gaussienne centrée en x0 et de matrice de covariance H −1 . On a
Z Z
f (x) dx ≈ α g (x) dx (A.53)

≈α (A.54)
f (x0 )
≈ (A.55)
g (x0 )
n 1
≈ f (x0 ) (2π) 2 (det H)− 2 (A.56)
La validité de l’approximation de Laplace dépend bien évidemment de la fonction à in-
tégrer et de la précision que l’on souhaite obtenir. Dans bien des situations, l’approximation
obtenue est grossière, mais peut s’avérer néanmoins utile (c’est le cas en particulier dans
nos travaux). Pour plus de détails sur la validité de cette approximation et son usage, on
pourra se référer aux nombreux travaux publiés sur le sujet, par exemple ceux de MacKay
[1998].
173

Annexe B

Preuves mathématiques

B.1 État de l’art


Démonstration de l’équation (1.8) p. 28. La maximisation de la log-vraisemblance par rap-
2 implique
port à σw

d 2

2
L x|a, ϕ, f0 , σw =0 (B.1)
dσw
et donne la valeur optimale pour ce paramètre :
T −1
1 X
σc
w
2 = (x (t) − sf0 ,a,ϕ (t))2 (B.2)
T
t=0

qui est insérée dans (1.7) :


 
L (x|a, ϕ, f0 ) , L x|a, ϕ, f0 , σc
w
2 (B.3)
P −1
T 2πe Tt=0 (x (t) − sf0 ,a,ϕ (t))2
= − log (B.4)
2 T
Maximiser L (x|a, ϕ, f0 ) par rapport à (a, ϕ, f0 ) revient alors à minimiser
T
X −1
ǫX (a, ϕ, f0 ) , (x (t) − sf0 ,a,ϕ (t))2 (B.5)
t=0

qui devient, en utilisant l’identité de Parseval,


T −1     2
1 X k k
ǫX (a, ϕ, f0 ) = X − Sf0 ,a,ϕ (B.6)
T T T
k=0

où X et Sf0 ,a,ϕ sont les transformées de Fourier discrètes de x et sf0 ,a,ϕ . La minimisation
par rapport à (a, ϕ) s’obtient en constatant que

 2iπhf0 +iϕh si f = hf0 , h ∈ h ∈ J1; HK
ah e
Sf0 ,a,ϕ (f ) = ah e−2iπhf0 −iϕh si f = −hf0 , h ∈ J1; HK (B.7)


0 sinon
174 B. Preuves mathématiques

car sf0 ,a,ϕ est un signal de fréquence fondamentale f0 et f0 T ∈ N. Les valeurs optimales
a H ) et ϕ
b , (ab1 , . . . , ac b , (c ch ) de (a, ϕ) sont donc
ϕh , . . . , ϕ

ch = |X (hf0 )|
a (B.8)
ch = ∠X (hf0 )
ϕ (B.9)

pour h ∈ J1; HK. L’expression à minimiser, par rapport à f0 , devient alors

T
X −1 −1   2
  2 TX H
X

ǫX (b b , f0 ) =
a, ϕ X k = X k − 2 |X (hf0 )|2 (B.10)
T T
k=0 k=0 h=1
k
T
6=hf0

Le premier terme de cette somme étant constant par rapport à f0 , la solution est donnée
en maximisant la somme spectrale présente dans le second terme. Il convient de noter que
l’on a affaire à des modèles emboîtés, dans la mesure où toute fréquence sous-multiple de
la vraie fréquence fondamentale est solution du problème, et qu’il faut donc choisir la plus
grande.

B.2 Estimation de fréquences fondamentales multiples


Démonstration des équations (4.44) et (4.45) p. 95. On cherche un estimateur de la forme

α̂k0 , ηX (fk0 ) (B.11)

avec η ∈ C. L’erreur quadratique moyenne est alors


h i
ǫk0 (η) = E |αk0 − ηX (fk0 )|2 (B.12)


La valeur optimale η̂ vérifie la condition d’optimalité dηk0 (η̂) = 0, qui est équivalente
à la décorrélation entre l’erreur (αk0 − η̂X (fk0 )) et la donnée X (fk0 ), d’où
  
0=E αk∗0 − η̂ ∗ X ∗ (fk0 ) X (fk0 )
  h i
= E αk∗0 X (fk0 ) − η̂ ∗ E |X (fk0 )|2 (B.13)

On a donc un résultat qui présente des analogies avec celui obtenu dans le cas du filtrage
de Wiener :
E [αk0 X ∗ (fk0 )]
η̂ = h i (B.14)
E |X (fk0 )|2

Dans le cas présent, on a


K
X

E [αk0 X (fk0 )] = W ∗ (fk0 − fk ) E [αk0 αk∗ ]
k=1
= W (0) σk20

(B.15)
175

et

h i X K
K X
E |X (fk0 )|2 = W (fk0 − fk ) W ∗ (fk0 − fl ) E [αk αl∗ ]
k=1 l=1
K
X
= |W (fk0 − fk )|2 σk2 (B.16)
k=1

On a donc prouvé (4.44). L’erreur associée est


h i h i  
ǫk0 (η̂) = E |αk0 |2 + |η̂|2 E |X (fk0 )|2 − η̂E αk∗0 X (fk0 ) − η̂ ∗ E [αk0 X ∗ (fk0 )]
h i |E [α X ∗ (f )]|2
= E |αk0 |2 − hk0 k0
i
E |X (fk0 )|2
|W (0)|2 σk40
= σk20 − PK (B.17)
k=1 |W (fk0 − fk )|2 σk2
176 B. Preuves mathématiques
177

Annexe C

Correspondance entre notes,


fréquences fondamentales et échelle
MIDI

Le tableau C.1 donne la correspondance entre les notes (nom et numéro d’octave
conventionnels), fréquences fondamentales selon un tempérament égal avec un La 3 à
440 Hz et codes MIDI associés (entre 0 et 127). Seules les notes de la tessiture standard
du piano sont représentées. Les formules de conversion sont les suivantes :
 
F0
Code MIDI = 12 log2 + 69 (C.1)
440
Code MIDI−69
F0 = 2 12 × 440 (C.2)
 
Code MIDI − 60
N octave =
o
+3 (C.3)
12

Remarque : ce tableau est donné à titre général. Dans le cas particulier du piano,
il ne s’applique pas exactement, l’instrument n’étant habituellement pas accordé selon
un tempérament égal. En raison de l’inharmonicité des cordes, l’accordeur doit en effet
« étirer les octaves » pour qu’il n’y ait pas de battements entre les partiels de deux notes à
l’octave. Il en résulte des fréquences fondamentales plus élevées (resp. plus basses) qu’avec
le tempérament égal pour les notes aigues (resp. graves).
C. Correspondance entre notes, F0 et échelle MIDI

Do Do# Ré Mi♭ Mi Fa Fa# Sol Sol# La Si♭ Si


No octave
(C) (C#) (D) (E♭) (E) (F) (F#) (G) (G#) (A) (B♭) (B)
20,6 21,8 23,1 24,5 26,0 27,5 29,1 30,9 F0 (Hz)
−1 (0)
16 17 18 19 20 21 22 23 Code MIDI
32,7 34,6 36,7 38,9 41,2 43,7 46,2 49,0 51,9 55,0 58,3 61,7 F0 (Hz)
0 (1)
24 25 26 27 28 29 30 31 32 33 34 35 Code MIDI
65,4 69,3 73,4 77,8 82,4 87,3 92,5 98,0 104 110 117 123 F0 (Hz)
1 (2)
36 37 38 39 40 41 42 43 44 45 46 47 Code MIDI
131 139 147 156 165 175 185 196 208 220 233 247 F0 (Hz)
2 (3)
48 49 50 51 52 53 54 55 56 57 58 59 Code MIDI
262 277 294 311 330 349 370 392 415 440 466 494 F0 (Hz)
3 (4)
60 61 62 63 64 65 66 67 68 69 70 71 Code MIDI
523 554 587 622 659 698 740 784 831 880 932 988 F0 (Hz)
4 (5)
72 73 74 75 76 77 78 79 80 81 82 83 Code MIDI
1047 1109 1175 1245 1319 1397 1480 1568 1661 1760 1865 1976 F0 (Hz)
5 (6)
84 85 86 87 88 89 90 91 92 93 94 95 Code MIDI
2093 2217 2349 2489 2637 2794 2960 3136 3322 3520 3729 3951 F0 (Hz)
6 (7)
96 97 98 99 100 101 102 103 104 105 106 107 Code MIDI
4186 F0 (Hz)
7 (8)
108 Code MIDI
Table C.1 – Correspondance entre notes, fréquences fondamentales (F0 ) et échelle MIDI, sur la tessiture standard du piano. Les noms de
notes et la numérotation des octaves entre parenthèses correspondent à la notation anglo-saxone.
178
179

Bibliographie

M. Abe et J. Smith : AM/FM rate estimation for time-varying sinusoidal modeling. Proc.
of the International Conference on Audio, Speech and Signal Processing (ICASSP), p.
201–204, Philadelphia, PA, USA, Mars 2005.

M. Alonso, G. Richard et B. David : Extracting note onsets from musical recordings.


Proc. of the ICME, Amsterdam, The Netherlands, Juil. 2005.

M. Alonso, G. Richard et B. David : Accurate tempo estimation based on harmonic


plus noise decomposition. EURASIP Journal on Advances in Signal Processing, 2007
(1), p. 161–174, 2007.

C. Ansley : An algorithm for the exact likelihood of a mixed autoregressive-moving


average process. Biometrika, 66 (1), p. 59–65, 1979.

B. Atal et L. Rabiner : A pattern recognition approach to voiced-unvoiced-silence classifi-


cation with applications to speech recognition. IEEE Transactions on Acoustics, Speech,
and Signal Processing, 24 (3), p. 201–212, 1976.

B. Atal et S. Hanauer : Speech Analysis and Synthesis by Linear Prediction of the


Speech Wave. The Journal of the Acoustical Society of America, 50 (2B), p. 637–655,
1971.

R. Badeau : Méthodes à haute résolution pour l’estimation et le suivi de sinusoïdes


modulées. Application aux signaux de musique. Thèse de doctorat, École Nationale
Supérieure des Télécommunications, France, 2005.

R. Badeau et B. David : Weighted maximum likelihood autoregressive and moving


average spectrum modeling. Proc. of the International Conference on Audio, Speech and
Signal Processing (ICASSP), p. 3761–3764, Las Vegas, NV, USA, Mars-Avr. 2008.

R. Badeau, B. David et G. Richard : A new perturbation analysis for signal enumeration


in rotational invariance techniques. IEEE Transactions on Signal Processing, 54 (2), p.
450–458, Fév. 2006.

B. Bank : Physics-based Sound Synthesis of the Piano. Master’s thesis, Helsinki Univ. of
Technology, 2000.

B. Bank et L. Sujbert : On the nonlinear commuted synthesis of the piano. Proc. of the
International Conference on Digital Audio Effects (DAFx), Hamburg, Germany, Sept.
2002.
180 BIBLIOGRAPHIE

B. Bank et L. Sujbert : Generation of longitudinal vibrations in piano strings : From


physics to sound synthesis. The Journal of the Acoustical Society of America, 117 (4),
p. 2268–2278, 2005.

I. Barbancho, A. Barbancho, A. Jurado et L. Tardón : Transcription of piano


recordings. Applied Acoustics, 65 (12), p. 1261–1287, Déc. 2004.

J. Bello : Towards the automated analysis of simple polyphonic music : A knowledge-


based approach. Thèse de doctorat, Univ. of London, England, 2003.

J. Bello, L. Daudet et M. Sandler : Automatic piano transcription using frequency


and time-domain information. IEEE Transactions on Audio, Speech and Language Pro-
cessing, 14 (6), p. 2242–2251, Nov. 2006.

J. Bensa : Analysis and Synthesis of Piano Sounds using Physical and Signal Models.
Thèse de doctorat, Univ. de la Mediterranée, France, 2003.

N. Bertin, R. Badeau et G. Richard : Blind signal decompositions for automatic


transcription of polyphonic music : NMF and K-SVD on the benchmark. Proc. of the
International Conference on Audio, Speech and Signal Processing (ICASSP), p. 65–68,
Honolulu, HI, USA, Avr. 2007.

E. Bigand, F. Madurell, B. Tillmann et M. Pineau : Effect of global structure and


temporal organization on chord processing. Journal of experimental psychology : Human
perception and performance, 25 (1), p. 184–197, 1999.

R. Bradley : Some Statistical Methods in Taste Testing and Quality Evaluation. Bio-
metrics, 9 (1), p. 22–38, 1953.

J. C. Brown : Musical fundamental frequency tracking using a pattern recognition me-


thod. The Journal of the Acoustical Society of America, 92 (3), p. 1394–1402, 1992.

A. Camacho : SWIPE : a sawtooth waveform inspired pitch estimator for speech and
music. Thèse de doctorat, Univ. of Florida, USA, 2007.

A. Cemgil : Bayesian Music Transcription. Thèse de doctorat, SNN, Radboud Univ.


Nijmegen, The Netherlands, 2004.

A. Cemgil, H. Kappen et D. Barber : A generative model for music transcription. IEEE


Transactions on Audio, Speech and Language Processing, 14 (2), p. 679–694, 2006.

Y. Cheng et D. O’Shaughnessy : Automatic and reliable estimation of glottal closure


instant and period. IEEE Transactions on Acoustics, Speech, and Signal Processing, 37
(12), p. 1805–1815, 1989.

D. M. Chickering et D. Heckerman : Efficient Approximations for the Marginal Li-


kelihood of Bayesian Networks with Hidden Variables. Machine Learning, 29 (2), p.
181–212, 1997.

H. A. Conklin Jr. : Design and tone in the mechanoacoustic piano. Part I. Piano hammers
and tonal effects. The Journal of the Acoustical Society of America, 99 (6), p. 3286–3296,
1996a.
181

H. A. Conklin Jr. : Design and tone in the mechanoacoustic piano. Part III. Piano
strings and scale design. The Journal of the Acoustical Society of America, 100 (3), p.
1286–1298, 1996b.

H. A. Conklin Jr. : Piano strings and “phantom” partials. The Journal of the Acoustical
Society of America, 102 (1), p. 659, 1997.

A. Cont, S. Dubnov et D. Wessel : Realtime multiple-pitch and multiple-instrument


recognition for music signals using sparse non-negative constraints. Proc. of the Inter-
national Conference on Digital Audio Effects (DAFx), Bordeaux, France, Sept. 2007.

C. Creusere, K. Kallakuri et R. Vanam : An objective metric of human subjective


audio quality optimized for a wide range of audio fidelities. IEEE Transactions on Audio,
Speech and Language Processing, 16 (1), p. 129–136, Janv. 2008.

C. d’Alessandro, V. Darsinos et B. Yegnanarayana : Effectiveness of a periodic


and aperiodic decomposition method for analysis of voice sources. IEEE Transactions
on Speech and Audio Processing, 6 (1), p. 12–23, Janv. 1998a.

C. d’Alessandro, S. Rosset et J. Rossi : The pitch of short-duration fundamental


frequency glissandos. The Journal of the Acoustical Society of America, 104 (4), p.
2339–2348, 1998b.

A. Daniel, V. Emiya et B. David : Perceptually-based evaluation of the errors usually


made when automatically transcribing music. Proc. of the International Conference on
Music Information Retrieval (ISMIR), Philadelphia, PA, USA, Sept. 2008.

L. Daudet et B. Torrésani : Sparse adaptive representations for musical signals. A. Kla-


puri et M. Davy, éds : Signal Processing Methods for Music Transcription. Springer,
2006.

B. David, R. Badeau, N. Bertin, V. Emiya et G. Richard : Multipitch detection for


piano music : Benchmarking a few approaches. The Journal of the Acoustical Society of
America, 122 (5), p. 2962–2962, 2007.

B. David, V. Emiya, R. Badeau et Y. Grenier : Harmonic plus noise decomposition :


Time-frequency reassignment versus a subspace-based method. 120th Convention of the
Audio Engineering Society, Paris, France, Mai 2006.

M. Davy, S. Godsill et J. Idier : Bayesian analysis of polyphonic western tonal music.


The Journal of the Acoustical Society of America, 119 (4), p. 2498–2517, 2006.

M. Davy et S. Godsill : Bayesian harmonic models for musical signal analysis. Proc. of
Bayesian Statistics 7, Valencia, Spain, Juin 2002. Oxford University Press.

A. de Cheveigné : Separation of concurrent harmonic sounds : Fundamental frequency


estimation and a time-domain cancellation model of auditory processing. The Journal
of the Acoustical Society of America, 93 (6), p. 3271–3290, 1993.

A. de Cheveigné : Cancellation model of pitch perception. The Journal of the Acoustical


Society of America, 103 (3), p. 1261–1271, 1998.
182 BIBLIOGRAPHIE

A. de Cheveigné et H. Kawahara : Multiple period estimation and pitch perception


model. Speech Communication, 27 (3-4), p. 175–185, 1999.
A. de Cheveigné et H. Kawahara : YIN, a fundamental frequency estimator for speech
and music. The Journal of the Acoustical Society of America, 111 (4), p. 1917–1930,
2002.
A. Dempster, N. Laird et D. Rubin : Maximum Likelihood from Incomplete Data via
the EM Algorithm. Journal of the Royal Statistical Society. Series B (Methodological),
39 (1), p. 1–38, 1977.
S. Dixon : On the computer recognition of solo piano music. Australasian Computer
Music Conference, Brisbane, Australia, 2000.
A. Doucet et X. Wang : Monte carlo methods for signal processing : a review in the
statistical signal processing context. IEEE Signal Processing Magazine, 22 (6), p. 152–
170, 2005.
B. Doval et X. Rodet : Estimation of fundamental frequency of musical sound signals.
Proc. of the International Conference on Audio, Speech and Signal Processing (ICASSP),
p. 3657–3660, Toronto, Ontario, Canada, Avr. 1991.
Z. Duan, Y. Zhang, C. Zhang et Z. Shi : Unsupervised single-channel music source se-
paration by average harmonic structure modeling. IEEE Transactions on Audio, Speech
and Language Processing, 16 (4), p. 766–778, 2008.
B. Efron et R. J. Tibshirani : An Introduction to the Bootstrap. Chapman & Hall,
London, 1993.
A. El-Jaroudi et J. Makhoul : Discrete all-pole modeling. IEEE Transactions on Signal
Processing, 39 (2), p. 411–423, 1991.
D. Ellis et D. Rosenthal : Mid-level representations for computational auditory scene
analysis. International Joint Conference on Artificial Intelligence - Workshop on Com-
putational Auditory Scene Analysis, Montreal, Quebec, Août 1995.
D. Ellis et G. Poliner : Classification-based melody transcription. Machine Learning,
65 (2), p. 439–456, 2006.
V. Emiya, R. Badeau et B. David : Multipitch estimation of inharmonic sounds in
colored noise. Proc. of the International Conference on Digital Audio Effects (DAFx),
p. 93–98, Bordeaux, France, Sept. 2007a.
V. Emiya, R. Badeau et B. David : Automatic transcription of piano music based on
HMM tracking of jointly-estimated pitches. Proc. of the European Conference on Signal
Processing (EUSIPCO), Lausanne, Switzerland, Août 2008.
V. Emiya, B. David et R. Badeau : A parametric method for pitch estimation of piano
tones. Proc. of the International Conference on Audio, Speech and Signal Processing
(ICASSP), p. 249–252, Honolulu, HI, USA, Avr. 2007b.
A. Eronen et A. Klapuri : Musical instrument recognition using cepstral coefficients and
temporal features. Proc. of the International Conference on Audio, Speech and Signal
Processing (ICASSP), p. 753–756, Istanbul, Turkey, Juin 2000.
183

S. Essid, G. Richard et B. David : Instrument recognition in polyphonic music based on


automatic taxonomies. IEEE Transactions on Audio, Speech and Language Processing,
14 (1), p. 68–80, 2006.

P. Flandrin : Temps-Fréquence. Hermès, 1993.

H. Fletcher, E. D. Blackham et R. Stratton : Quality of piano tones. The Journal


of the Acoustical Society of America, 34 (6), p. 749–761, 1962.

N. H. Fletcher et T. D. Rossing : The Physics of Musical Instruments. Springer, 1998.

M. Gainza et E. Coyle : Automating ornamentation transcription. Proc. of the In-


ternational Conference on Audio, Speech and Signal Processing (ICASSP), p. 69–72,
Honolulu, HI, USA, Avr. 2007.

A. Galembo et A. Askenfelt : Measuring inharmonicity through pitch. Speech Trans-


mission Lab. Quart. Rep., Dept. Speech Commun. Music Acoust., Royal Inst. Technol.,
Stockholm, Sweden,, STL-QPSR 1/1994, p. 135–144, 1994.

A. Galembo et A. Askenfelt : Signal representation and estimation of spectral para-


meters by inharmonic comb filters with application to the piano. IEEE Transactions on
Speech and Audio Processing, 7 (2), p. 197–203, 1999.

A. Gelman, H. Stern et D. Rubin : Bayesian data analysis. Chapman and Hall/CRC,


2004.

O. Gillet : Transcription des signaux percussifs. Application à l’analyse de scènes mu-


sicales audiovisuelles. Thèse de doctorat, École Nationale Supérieure des Télécommuni-
cations, France, 2007.

S. Godsill et M. Davy : Bayesian computational models for inharmonicity in musical


instruments. Proc. of the IEEE Workshop on Applications of Signal Processing to Audio
and Acoustics (WASPAA), New Paltz, NY, USA, Oct. 2005.

D. Godsmark : A computational model of the perceptual organisation of polyphonic


music. Thèse de doctorat, Univ. of Sheffield, England, 1998.

E. Gómez : Tonal description of polyphonic audio for music content processing. INFORMS
J. on Computing, 18 (3), p. 294–304, 2006.

M. Goto : A real-time music-scene-description system : predominant-F0 estimation for


detecting melody and bass lines in real-world audio signals. Speech Communication, 43
(4), p. 311–329, 2004.

M. Goto, H. Hashiguchi, T. Nishimura et R. Oka : RWC music database : Music genre


database and musical instrument sound database. Proc. of the International Conference
on Music Information Retrieval (ISMIR), Baltimore, MD, USA, Oct. 2003.

M. Goto et Y. Muraoka : A beat tracking system for acoustic signals of music. Proc. of
the ACM Int. Conf. on Multimedia, San Francisco, CA, USA, Oct. 1994a. ACM Press
New York, NY, USA.

M. Goto et Y. Muraoka : A Sound Source Separation System for Percussion Instru-


ments. IEICE Transactions, 77, p. 901–911, 1994b.
184 BIBLIOGRAPHIE

D. E. Hall : Piano string excitation in the case of small hammer mass. The Journal of
the Acoustical Society of America, 79 (1), p. 141–147, 1986.

D. E. Hall : Piano string excitation II : General solution for a hard narrow hammer. The
Journal of the Acoustical Society of America, 81 (2), p. 535–546, 1987a.

D. E. Hall : Piano string excitation III : General solution for a soft narrow hammer. The
Journal of the Acoustical Society of America, 81 (2), p. 547–555, 1987b.

D. E. Hall : Piano string excitation. VI : Nonlinear modeling. The Journal of the


Acoustical Society of America, 92 (1), p. 95–105, 1992.

D. E. Hall et A. Askenfelt : Piano string excitation V : Spectra for real hammers and
strings. The Journal of the Acoustical Society of America, 83 (4), p. 1627–1638, 1988.

D. E. Hall et P. Clark : Piano string excitation IV : The question of missing modes.


The Journal of the Acoustical Society of America, 82 (6), p. 1913–1918, 1987.

P. Hanna et P. Ferraro : Polyphonic music retrieval by local edition of quotiented


sequences. Proc. Int. Work. on Content-Based Multimedia Indexing (CBMI), Bordeaux,
France, Juin 2007.

W. Hess : Pitch determination of speech signals. Springer-Verlag New York, 1983.

A. J. M. Houtsma, T. D. Rossing et W. M. Wagenaars : Auditory demonstrations on


compact disc. The Journal of the Acoustical Society of America, 83 (S1), p. 58, 1988.

R. Huber et B. Kollmeier : PEMO-Q – A New Method for Objective Audio Quality


Assessment Using a Model of Auditory Perception. IEEE Transactions on Audio, Speech
and Language Processing, 14 (6), p. 1902–1911, Nov. 2006.

H. Indefrey, W. Hess et G. Seeser : Design and evaluation of double-transform pitch


determination algorithms with nonlinear distortion in the frequency domain-preliminary
results. Proc. of the International Conference on Audio, Speech and Signal Processing
(ICASSP), p. 415–418, Tampa, FL, USA, Mars 1985.

International Music Information Retrieval Systems Evaluation Labora-


tory : Multiple fundamental frequency estimation & tracking. Music Information
Retrieval Evaluation eXchange (MIREX), Vienna, Austria, Sept. 2007.

H. Kameoka : Statistical Approach to Multipitch Analysis. Thèse de doctorat, Univ. of


Tokyo, Japan, 2007.

H. Kameoka, T. Nishimoto et S. Sagayama : Harmonic temporal-structured clustering


via deterministic annealing EM algorithm for audio feature extraction. Proc. of the
International Conference on Music Information Retrieval (ISMIR), London, UK, Sept.
2005.

H. Kameoka, T. Nishimoto et S. Sagayama : A Multipitch Analyzer Based on Harmonic


Temporal Structured Clustering. IEEE Transactions on Audio, Speech and Language
Processing, 15 (3), p. 982–994, 2007.
185

M. Karjalainen et T. Tolonen : Separation of Speech Signals Using Iterative Multi-


Pitch Analysis and Prediction. Proc. Eur. Conf. on Speech Communication and Tech-
nology (Eurospeech), p. 2187–2190, Budapest, Hungary, Sept. 1999. ISCA.

K. Kashino, K. Nakadai, T. Kinoshita et H. Tanaka : Application of the Bayesian


probability network to music scene analysis. D. F. Rosenthal and H. S. Okuno eds.,
éd. : Computational Auditory Scene Analysis, p. 115–137. Lawrence Erlbaum Associates,
Inc. Mahwah, NJ, USA, 1998.

H. Kawahara, Y. Atake et P. Zolfaghari : Accurate Vocal Event Detection Method


Based on a Fixed-Point Analysis of Mapping from Time to Weighted Average Group
Delay. Proc. Int. Conf. on Spoken Language Processing (ICSLP), p. 664–667, Beijing,
China, Oct. 2000. ISCA.

A. Klapuri : Number theoretical means of resolving a mixture of several harmonic sounds.


Proc. of the European Conference on Signal Processing (EUSIPCO), Island of Rhodes,
Greece, Sept. 1998.

A. Klapuri : Pitch estimation using multiple independent time-frequency windows. Proc.


of the IEEE Workshop on Applications of Signal Processing to Audio and Acoustics
(WASPAA), New Paltz, NY, USA, Oct. 1999a.

A. Klapuri : Wide-band pitch estimation for natural sound sources with inharmonicities.
Proc. of the 106th AES Convention, Munich, Germany, Mai 1999b.

A. Klapuri : Signal processing methods for the automatic transcription of music. Thèse
de doctorat, Tampere Univ. of Technology, Finland, 2004.

A. Klapuri : Multiple fundamental frequency estimation by summing harmonic ampli-


tudes. Proc. of the International Conference on Music Information Retrieval (ISMIR),
p. 216–221, Victoria, Canada, Oct. 2006.

A. Klapuri : Multipitch analysis of polyphonic music and speech signals using an auditory
model. IEEE Transactions on Audio, Speech and Language Processing, 16 (2), p. 255–
266, Fév. 2008.

A. Klapuri et M. Davy : Signal Processing Methods for Music Transcription. Springer,


2006.

A. Klapuri : Multiple fundamental frequency estimation based on harmonicity and spec-


tral smoothness. IEEE Transactions on Speech and Audio Processing, 11 (6), p. 804–816,
2003.

A. Klapuri : A perceptually motivated multiple-f0 estimation method. Proc. of the IEEE


Workshop on Applications of Signal Processing to Audio and Acoustics (WASPAA), New
Paltz, NY, USA, Oct. 2005.

A. Klapuri, A. Eronen et J. Astola : Analysis of the meter of acoustic musical signals.


IEEE Transactions on Audio, Speech and Language Processing, 14 (1), p. 342–355, 2006.

A. Kobzantsev, D. Chazan et Y. Zeevi : Automatic transcription of piano polyphonic


music. Proc. Int. Symp. Image and Sig. Process. and Analysis (ISPA), p. 414–418,
Zagreb, Croatia, Sept. 2005.
186 BIBLIOGRAPHIE

B. Krueger : Classical Piano MIDI files. http ://www.piano-midi.de, 2008.

O. Lartillot et P. Toiviainen : A Matlab toolbox for musical feature extraction from


audio. Proc. of the International Conference on Digital Audio Effects (DAFx), p. 237–
244, Bordeaux, France, Sept. 2007.

J. Lattard : Influence of inharmonicity on the tuning of a piano—measurements and


mathematical simulation. The Journal of the Acoustical Society of America, 94 (1), p.
46–53, 1993.

J. Le Roux, H. Kameoka, N. Ono, A. de Cheveigné et S. Sagayama : Single and


multiple F0 contour estimation through parametric spectrogram modeling of speech in
noisy environments. IEEE Transactions on Audio, Speech and Language Processing, 15
(4), p. 1135–1145, Mai 2007.

D. Lee et H. Seung : Learning the parts of objects by non-negative matrix factorization.


Nature, 401 (6755), p. 788–791, 1999.

M. Lee, K. ; Slaney : Acoustic chord transcription and key extraction from audio using
key-dependent hmms trained on synthesized audio. IEEE Transactions on Audio, Speech
and Language Processing, 16 (2), p. 291–301, Fév. 2008.

H. Lehtonen, H. Penttinen, J. Rauhala et V. Välimäki : Analysis and modeling of


piano sustain-pedal effects. The Journal of the Acoustical Society of America, 122 (3),
p. 1787–1797, 2007.

P. Leveau, E. Vincent, G. Richard et L. Daudet : Instrument-specific harmonic atoms


for mid-level music representation. IEEE Transactions on Audio, Speech and Language
Processing, 16 (1), p. 116–128, Janv. 2008.

V. I. Levenshtein : Binary codes capable of correcting spurious insertions and deletions


of ones. Problems of Information Transmission, 1 (1), p. 8–17, 1965.

D. MacKay : Choice of Basis for Laplace Approximation. Machine Learning, 33 (1), p.


77–86, 1998.

R. Maher : A Approach for the Separation of Voices in Composite Musical Signals. Thèse
de doctorat, Univ. of Illinois at Urbana-Champaign, USA, 1989.

J. Makhoul : Linear prediction : A tutorial review. Proceedings of the IEEE, 63 (4), p.


561–580, 1975.

M. Marolt : Transcription of polyphonic solo piano music. Thèse de doctorat, Univ. of


Ljubljana, Slovenia, 2002.

M. Marolt : A connectionist approach to automatic transcription of polyphonic piano


music. IEEE Transactions on Multimedia, 6 (3), p. 439–449, 2004.

D. W. Martin et W. D. Ward : Subjective evaluation of musical scale temperament in


pianos. The Journal of the Acoustical Society of America, 26 (5), p. 932–932, 1954.

K. D. Martin : A blackboard system for automatic transcription of simple polyphonic


music. Rap. tech. 385, M.I.T. Media Lab Perceptual Computing Technical Report, 1996.
187

R. McAulay et T. Quatieri : Speech analysis/Synthesis based on a sinusoidal repre-


sentation. IEEE Transactions on Acoustics, Speech, and Signal Processing, 34 (4), p.
744–754, 1986.

R. McAulay et T. Quatieri : Pitch estimation and voicing detection based on a sinu-


soidal speech model. Proc. of the International Conference on Audio, Speech and Signal
Processing (ICASSP), p. 249–252, Albuquerque, NM, USA, Avr. 1990.

R. Meddis et M. J. Hewitt : Virtual pitch and phase sensitivity of a computer model of


the auditory periphery. I : Pitch identification. The Journal of the Acoustical Society of
America, 89 (6), p. 2866–2882, 1991a.

R. Meddis et M. J. Hewitt : Virtual pitch and phase sensitivity of a computer model of


the auditory periphery. II : Phase sensitivity. The Journal of the Acoustical Society of
America, 89 (6), p. 2883–2894, 1991b.

D. Mellinger : Event formation and separation in musical sound. Thèse de doctorat,


Stanford Univ., USA, 1991.

M. Mongeau et D. Sankoff : Comparison of musical sequences. Computers and the


Humanities, 24 (3), p. 161–175, 1990.

G. Monti et M. Sandler : Automatic polyphonic piano note extraction using fuzzy logic
in a blackboard system. Proc. of the International Conference on Digital Audio Effects
(DAFx), Hamburg, Germany, 2002.

J. Moorer : On the Segmentation and Analysis of Continuous Musical Sound by Digital


Computer. Dept. of Music, Stanford Univ., 1975.

A. M. Noll : Cepstrum pitch determination. The Journal of the Acoustical Society of


America, 41 (2), p. 293–309, 1967.

L. I. Ortiz-Berenguer : Identificatión automática de acordes musicales. Thèse de


doctorat, Univ. Politécnica de Madrid, Spain, 2002.

L. I. Ortiz-Berenguer et F. J. Casajús-Quirós : Polyphonic transcription using piano


modeling for spectral pattern recognition. Proc. of the International Conference on
Digital Audio Effects (DAFx), Hamburg, Germany, 2002.

G. Peeters : Music pitch representation by periodicity measures based on combined


temporal and spectral representations. Proc. of the International Conference on Audio,
Speech and Signal Processing (ICASSP), p. 53–56, Toulouse, France, Mai 2006.

M. Plumbley, S. Abdallah, T. Blumensath et M. Davies : Sparse representations of


polyphonic music. Signal Processing, 86 (3), p. 417–431, 2006.

G. Poliner et D. Ellis : A discriminative model for polyphonic piano transcription.


EURASIP Journal on Advances in Signal Processing, 8, p. 1–9, 2007.

L. Rabiner : On the use of autocorrelation analysis for pitch detection. IEEE Transactions
on Acoustics, Speech, and Signal Processing, 25 (1), p. 24–33, 1977.
188 BIBLIOGRAPHIE

L. Rabiner, M. Cheng, A. Rosenberg et C. McGonegal : A comparative performance


study of several pitch detection algorithms. IEEE Transactions on Acoustics, Speech,
and Signal Processing, 24 (5), p. 399–418, 1976.

L. Rabiner : A tutorial on hidden Markov models and selected applications in speech


recognition. Proceedings of the IEEE, 77 (2), p. 257–286, 1989.

C. Raphael : Automatic transcription of piano music. Proc. of the International Confe-


rence on Music Information Retrieval (ISMIR), p. 15–19, Paris, France, Oct. 2002.

J. Rauhala : The beating equalizer and its application to the synthesis and modification
of piano tones. Proc. of the International Conference on Digital Audio Effects (DAFx),
Bordeaux, France, Sept. 2007.

J. Rauhala, H.-M. Lehtonen et V. Välimäki : Fast automatic inharmonicity estimation


algorithm. The Journal of the Acoustical Society of America, 121 (5), p. 184–189, 2007.

J. Rauhala et V. Valimaki : Tunable dispersion filter design for piano synthesis. IEEE
Signal Processing Letters, 13 (5), p. 253–256, Mai 2006.

G. Richard et C. d’Alessandro : Analysis/synthesis and modification of the speech


aperiodic component. Speech Communication, 19 (3), p. 221–244, 1996.

M. Ross, H. Shaffer, A. Cohen, R. Freudberg et H. Manley : Average magnitude


difference function pitch extractor. IEEE Transactions on Acoustics, Speech, and Signal
Processing, 22 (5), p. 353–362, 1974.

L. Rossi : Identification de sons polyphoniques de piano. Thèse de doctorat, Univ. de


Corse, France, 1998.

J. Rouat, Y. Liu et D. Morissette : A pitch determination and voiced/unvoiced decision


algorithm for noisy speech. Speech Communication, 21 (3), p. 191–207, 1997.

R. Roy, A. Paulraj et T. Kailath : ESPRIT–a subspace rotation approach to estimation


of parameters of cisoids in noise. IEEE Transactions on Acoustics, Speech, and Signal
Processing, 34 (5), p. 1340–1342, 1986.

M. Ryynänen et A. Klapuri : Polyphonic music transcription using note event modeling.


Proc. of the IEEE Workshop on Applications of Signal Processing to Audio and Acoustics
(WASPAA), New Paltz, NY, USA, Oct. 2005.

M. P. Ryynänen et A. P. Klapuri : Modelling of note events for singing transcription.


Proc. Tutorial and Research Workshop on Statistical and Perceptual Audio Processing
(SAPA), Jeju, Korea, Oct. 2004. ISCA.

M. P. Ryynänen et A. P. Klapuri : Automatic transcription of melody, bass line, and


chords in polyphonic music. Computer Music Journal, 32 (3), p. 72–86, 2008.

M. R. Schroeder : Period histogram and product spectrum : New methods for


fundamental-frequency measurement. The Journal of the Acoustical Society of Ame-
rica, 43 (4), p. 829–834, 1968.

O. H. Schuck et R. W. Young : Observations on the vibrations of piano strings. The


Journal of the Acoustical Society of America, 15 (1), p. 1–11, 1943.
189

X. Serra et J. Smith : Spectral Modeling Synthesis : A Sound Analysis/Synthesis System


Based on a Deterministic Plus Stochastic Decomposition. Computer Music Journal, 14
(4), p. 12–24, 1990.

R. N. Shepard : Circularity in judgments of relative pitch. The Journal of the Acoustical


Society of America, 36 (12), p. 2346–2353, 1964.

P. Smaragdis et J. Brown : Non-negative matrix factorization for polyphonic music


transcription. Proc. of the IEEE Workshop on Applications of Signal Processing to
Audio and Acoustics (WASPAA), p. 177–180, New Paltz, NY, USA, Oct. 2003.

J. Smith et S. Van Duyne : Commuted piano synthesis. Proc. Int. Computer Music
Conf. (ICMC), Banff, Canada, Sept. 1995.

A. Sterian : Model-based Segmentation of Time-frequency Images for Musical Transcrip-


tion. Thèse de doctorat, Univ. of Michigan, USA, 1999.

P. Stoica et Y. Selen : Model-order selection : a review of information criterion rules.


IEEE Signal Processing Magazine, 21 (4), p. 36–47, 2004.

H. W. Strube : Determination of the instant of glottal closure from the speech wave. The
Journal of the Acoustical Society of America, 56 (5), p. 1625–1629, 1974.

D. Thomson et R. Chengalvarayan : Use of voicing features in HMM-based speech


recognition. Speech Communication, 37 (3-4), p. 197–211, 2002.

T. Tolonen et M. Karjalainen : A computationally efficient multipitch analysis model.


IEEE Transactions on Speech and Audio Processing, 8 (6), p. 708–716, 2000.

V. Tuan et C. d’Alessandro : Robust Glottal Closure Detection Using the Wavelet


Transform. Proc. Eur. Conf. on Speech Communication and Technology (Eurospeech),
p. 2805–2808, Budapest, Hungary, Sept. 1999. ISCA.

R. Typke, P. Giannopoulos, R. C. Veltkamp, F. Wiering et R. van Oostrum : Using


transportation distances for measuring melodic similarity. Proc. of the International
Conference on Music Information Retrieval (ISMIR), Baltimore, MD, USA, Oct. 2003.

R. Typke, F. Wiering et R. Veltkamp : Transportation Distances and Human Percep-


tion of Melodic Similarity. Musicae Scientiae, 4A, p. 153–181, 2007.

P. P. Vaidyanathan : Multirate systems and filter banks. Englewoods Cliffs, NJ, USA :
Prentice Hall, 1993.

C. J. Van Rijsbergen : Information Retrieval. Butterworth-Heinemann, Newton, MA,


USA, 1979. ISBN 0408709294.

T. Viitaniemi, A. Klapuri et A. Eronen : A probabilistic model for the transcription of


single-voice melodies. Proc. of Finnish Signal Processing Symposium, Tampere, Finland,
Mai 2003.

E. Vincent : Modèles d’instruments pour la séparation de sources et la transcription


d’enregistrements musicaux. Thèse de doctorat, Univ. Paris 6 - UPMC, France, 2004.
190 BIBLIOGRAPHIE

E. Vincent, N. Bertin et R. Badeau : Harmonic and inharmonic nonnegative matrix


factorization for polyphonic pitch transcription. Proc. of the International Conference
on Audio, Speech and Signal Processing (ICASSP), p. 109–112, Las Vegas, NV, USA,
Mars - Avr. 2008.

E. Vincent, R. Gribonval et C. Fevotte : Performance measurement in blind audio


source separation. IEEE Transactions on Audio, Speech and Language Processing, 14
(4), p. 1462–1469, Juil. 2006.

T. Virtanen : Sound Source Separation in Monaural Music Signals. Thèse de doctorat,


Tampere Univ. of Technology, Finland, 2006.

T. Virtanen : Monaural sound source separation by nonnegative matrix factorization


with temporal continuity and sparseness criteria. IEEE Transactions on Audio, Speech
and Language Processing, 15 (3), p. 1066–1074, Mars 2007.

A. Viterbi : Error bounds for convolutional codes and an asymptotically optimum deco-
ding algorithm. IEEE Transactions on Information Theory, 13 (2), p. 260–269, 1967.

P. Walmsley, S. Godsill et P. Rayner : Polyphonic pitch tracking using joint bayesian


estimation of multiple frame parameters. Proc. of the IEEE Workshop on Applications
of Signal Processing to Audio and Acoustics (WASPAA), p. 119–122, New Paltz, NY,
USA, Oct. 1999.

D. Wang et G. Brown : Computational auditory scene analysis : principles, algorithms,


and applications. IEEE Press/Wiley-Interscience, 2006.

G. Weinreich : Coupled piano strings. The Journal of the Acoustical Society of America,
62 (6), p. 1474–1484, 1977.

X. Wen et M. Sandler : A partial searching algorithm and its application for polypho-
nic music transcription. Proc. of the International Conference on Music Information
Retrieval (ISMIR), London, UK, Sept. 2005a.

X. Wen et M. Sandler : Transcribing piano recordings using signal novelty. Proceedings


of the 118th AES Convention, Barcelona, Spain, Mai 2005b.

N. Wiener : Extrapolation, Interpolation, and Smoothing of Stationary Time Series. The


MIT Press, 1964.

S. Winkler : Digital Video Quality : Vision Models and Metrics. Wiley, 2005.

J. Wise, J. Caprio et T. Parks : Maximum likelihood pitch estimation. IEEE Transac-


tions on Acoustics, Speech, and Signal Processing, 24 (5), p. 418–423, Oct. 1976.

M. Wu, D. Wang et G. Brown : A multipitch tracking algorithm for noisy speech. IEEE
Transactions on Speech and Audio Processing, 11 (3), p. 229–241, 2003.

C. Yeh : Multiple fundamental frequency estimation of polyphonic recordings. Thèse de


doctorat, Univ. Paris 6 - UPMC, France, 2008.

C. Yeh, A. Robel et X. Rodet : Multiple fundamental frequency estimation of poly-


phonic music signals. Proc. of the International Conference on Audio, Speech and Signal
Processing (ICASSP), p. 225–228, Philadelphia, PA, USA, Mars 2005.
191

R. W. Young : Inharmonicity of plain wire piano strings. The Journal of the Acoustical
Society of America, 24 (3), p. 267–273, 1952.
192 BIBLIOGRAPHIE
193

Overview

In this thesis, automatic transcription of music will refer to the process of analyzing
a music recording for extracting information related to notes. Primarily, pitches, onset
times, durations, loudnesses are targeted but sometimes higher-level features like rhythm
patterns, key and time signatures. Shortly, it consists in converting a stream of raw audio
data into a symbolic representation, as in audio-to-score or audio-to-MIDI applications.
Automatic transcription of music is one of the major topics in the field of Music In-
formation Retrieval (MIR), and is strongly related to several MIREX 1 tasks as Onset
Detection and Multiple Fundamental Frequency Estimation and Tracking. In the MIR
context, automatic transcription can also serve as a basis for further applications such as
indexing tasks, query by humming (QbH) and more generally symbolic audio similarity
analysis, or score alignment and following.
This PhD dissertation focuses on automatic transcription of piano music and its related
tasks. Our choice to limit the study to this single instrument is motivated by both the
large ratio of piano solo recordings and the scientific challenge specific to the instrument.
Some papers point out that the piano automatic transcription remains one of the most
difficult compared to the case of other musical instruments. The main issues that we have
to cope with include:
– the large fundamental frequency (F0 ) range;
– the fast and compact groups of notes caused by the virtuosity of pieces for piano;
– the high polyphony levels;
– the typical characteristics like the deviation from exact harmonicity or the beats
occurring in its sounds.
In addition, this is the opportunity to wonder whether a general topic like auto-
matic transcription should be investigated through generic approaches, as it has been
done for several decades, or by dividing the overall problem into more specific tasks, such
as melody/bass line extraction, source separation and instrument-specific transcription,
which has been the object of more recent studies.

The above motivations are developed in Chapter 1, where we review the state-of-the-
art advances in four chosen directions: an introduction to the main principles of pitch
estimation, including its relation to perception; a description of the approaches for multi-
pitch estimation, which is often a key point in transcription systems; an overview of the
numerous automatic transcription systems proposed for about thirty years; finally, in the
specific context of the transcription of piano music, some insights into the physics of this
instrument and a review of the existing transcription systems. The chapter ends with a
set of questions in order to describe the thesis issues: which strategy could be adopted to

1. Music Information Retrieval Evaluation eXchange


194 Overview

transcribe piano music with reasonable chances of success? How to take into account the
spectral overlap between simultaneous, harmonically-related notes for multipitch estima-
tion? How does the inharmonicity of piano tones impact the transcription results? How to
estimate the number of simultaneous notes? And what makes a good transcription from a
perceptual point of view?
Chapter 2 addresses the sound models for automatic transcription. First, we present
the general framework of the harmonic process, which will be used further. Two specific
aspects of piano sounds are then investigated: the inharmonic distribution of the frequen-
cies of the partials (cf. figure C.1(a)) and the modeling of the spectral envelope. In both
cases, we propose some models and algorithms adapted to the piano and to the transcrip-
tion task. Finally, we focus on the noise modeling for which we choose a Moving-Average
model.
ΠX (f0 , β) (dB)

−7.5 Estimation 500


−8 0
ln (β)

Octave−averaged error rates (analysis on 60 ms)


−8.5
−500
70 Parametric f0 estimator (mean: 4.4%)
−9
−1000 Non−parametric f0 estimator (mean: 15.5%)
60
192 194 196 198 200 YIN estimator (mean: 11.0%)
f0
error rate (%)

50

200 Spectre 40
150
Estimation: fb0 = 196Hz, βb = 1.6e − 004 30
100
X(f) (dB)

50
0 20
−50
−100 10
−150
0
0 1000 2000 3000 4000 5000 6000 7000 8000 30 40 50 60 70 80 90 100
f (Hz) MIDI

(a) Inharmonicity/F0 fine estimation. (b) Pitch estimation results.

Figure C.1: overview (1)

Chapter 3 is dedicated to an approach of pitch estimation in the case of a short


analysis window and a large F0 search range. From a general point of view, these adverse
conditions are a challenge when analyzing audio – either speech or music –, because of the
constraints related to the pseudo-stationarity of signals and to the time-frequency trade-off
to cope with. In the case of piano tones, pitch estimation algorithms must often deal with
such conditions, since the virtuosity of piano pieces may be high, the notes being very
short, while the F0 search range spreads over one of the largest existing tessituras. Within
this framework, we propose a pitch estimation method for piano tones with satisfying
results on the whole piano range – i.e. 71 /4 octaves, the fundamental frequencies being
distributed from 27, 5 to 4200 Hz – using a 60ms analysis window – while 93ms windows are
commonly used (cf. figure C.1(b)). The method is based on a parametric approach using
a high-resolution analysis to extract the parameters of the sinusoidal components. The
F0 estimator then includes a spectral function and a temporal function, jointly combined
as described by Peeters [2006]. Thanks to the parametric approach, the inharmonicity
of sounds is taken into account both in the time and in the frequency domains and the
precision of the F0 numeric estimation is enhanced. For more details, one may refer to the
related article [Emiya et al., 2007b].
In Chapter 4, we propose another approach to address the multipitch estimation task.
It is based on a statistical framework and a maximum likelihood resolution. The main idea
195

consists in finding parametric models for the spectral envelopes of notes and for the noise.
By using a low-order autoregressive (AR) model, we propose a formalization of the idea
of the spectral smoothness [Klapuri, 2003], allowing to deal with the variability of piano
spectra. Besides, the parametric aspect makes it possible to derive an estimator for the
amplitudes of partials in the case of overlapping spectra. The noise is modeled by a moving-
average (MA) process, which is a model more suitable for audio signals than the commonly-
chosen white noise. In the case of a sinusoids+noise mixture, using a MA noise model is an
advantage with respect to an AR noise model: the latter may consider a residual sinusoid as
a pole, whereas the former cannot model it well, thus enhancing the discrimination between
the sinusoidal part and the noise part. The resulting multipitch estimation technique is a
joint estimation approach, including the estimation of the polyphony level (i.e. the number
of simultaneous notes) and an F0 -candidate selection stage aiming at reducing the intrinsic
complexity of joint approaches. An early version of these works was published [Emiya et al.,
2007a].
In chapter 5, the whole transcription system is described. The transcription strategy
is based on some features of the piano and of piano pieces. It results in a framework in
which the signal is segmented according to an onset detection stage. Each segment is then
analyzed by means of a hidden Markov model (HMM, cf. figure C.2(a)) embedding the
multipitch estimation method detailed in Chapter 4. The transcription system is able to
analyze any piece of piano solo music from any style, recorded in ordinary conditions, with
fair limits in terms of maximum polyphony, of speed of the played notes, and of F0 range.
An early version of these works was published [Emiya et al., 2008].
Chapter 6 deals with the evaluation of automatic transcriptions. The topic has been
studied in two directions. In the first part, the choice and design of the evaluation method
is questioned, leading to an enhancement of the usual metrics. The limit of common evalu-
ation systems are pointed out, showing the need for identifying the nature of errors and for
taking it into account in the evaluation. Some perceptually-based versions of the original
metrics are then designed, using the results of a perception test in which typical transcrip-
tion errors are sorted and scored (cf. figure C.2(b)). In the second part of the chapter,
we introduce a database specifically developed for multipitch estimation and automatic
transcription of piano music. It is composed of recordings of isolated notes, random and
usual chords and pieces of music. A large number of parameters are varying from one
file to the other, such as loudness, durations or sustain pedal activation. Recordings are
obtained either using a ”midified“ piano (Disklavier) or from high quality piano synthesis,
associating an accurate ground truth to the audio files. The third section of the chapter is
a detailed evalution of our multipitch algorithm and of our transcription system. Part of
the works on evaluation was published [Daniel et al., 2008].
Finally, conclusions are drawn, including a summary of our contributions and some
perspectives.
196 Overview

silence silence silence silence silence

C4 C4 C4 C4 C4

E4 E4 E4 E4 E4

C4E4 C4E4 C4E4 C4E4 C4E4

1st frame 2nd frame 3rd frame Last frame

(a) HMM for automatic transcription.

Rand. insert. MNR=33%


Rand. replac. MNR=33%
Fifth insert. MNR=33%
Fifth replac. MNR=33%
Deletion MNR=33%
Rand. replac. MNR=10%
Fifth replac. MNR=10%
Onset EI=75% MNR=33%
Octave replac. MNR=33%
Rand. insert. MNR=10%
Fifth insert. MNR=10%
Doubling MNR=33%
Loudness EI=75% MNR=33%
Onset EI=75% MNR=10%
Onset EI=25% MNR=33%
Octave insert. MNR=33%
Octave insert. MNR=10%
Doubling MNR=10%
Octave replac. MNR=10%
Deletion MNR=10%
Loudness EI=75% MNR=10%
Onset EI=25% MNR=10%
Loudness EI=25% MNR=33% BTL values
Duration EI=25% MNR=33% Reference
Loudness EI=25% MNR=10%
Duration EI=75% MNR=10% Time modifications
Duration EI=75% MNR=33% Loudness Modifications
Reference
Duration EI=25% MNR=10% Pitch modifications

−200 −150 −100 −50 0 50 100 150 200


BTL perception values of discomfort

(b) Perception of typical errors.

Figure C.2: overview (2)


197

Liste de publications

Les publications dont la référence figure en gras sont jointes au manuscript de thèse.

Articles de conférences
[EUSIPCO’08]
Automatic transcription of piano music based on HMM tracking of jointly-estimated
pitches, V. Emiya, R. Badeau et B. David, European Conference on Signal Processing,
Lausanne, Suisse, août 2008 (accepté).

[ISMIR’08]
Perceptually-based evaluation of the errors usually made when automatically transcribing
music, A. Daniel, V. Emiya et B. David, International Conference on Music Information
Retrieval, Philadelphie, États-Unis, septembre 2008 (accepté).

[DAFx’07]
Multipitch estimation of inharmonic sounds in colored noise, V. Emiya, R. Badeau, et
B. David, 10th International Conference on Digital Audio Effects, Bordeaux, France, 10-
15 septembre 2007.

[ICASSP’07]
A parametric method for pitch estimation of piano tones, V. Emiya, B. David et R. Ba-
deau, 32nd IEEE International Conference on Acoustics, Speech, and Signal Processing,
Honolulu, Hawaii, Etats-Unis, 15-20 Avril 2007.

[120th AES]
Harmonic plus noise decomposition : time-frequency reassignment versus a subspace based
method, B. David, V. Emiya, R. Badeau et Y. Grenier, 120th Audio Engineering Society
Convention, Paris, 20-23 mai 2006.

[Forum Acusticum 2005]


Two representation tools to analyse non-stationary sounds in a perceptual context,
V. Emiya, B. David et V. Gibiat, Forum Acusticum 2005, Budapest, Hongrie, 29 août
- 2 septembre 2005.
198 Liste de publications

Conférences invitées
[ASA 2007]
Multipitch detection for piano music : Benchmarking a few approaches, B. David, R. Ba-
deau, N. Bertin, V. Emiya et G. Richard, The Journal of the Acoustical Society of America,
122 (5) p. 2962, novembre 2007.

[ASA 2005]
Phase characterization of soundscapes,V. Gibiat, A. Padilla, V. Emiya et L. Cros, The
Journal of the Acoustical Society of America, 117 (4) p. 2550, avril 2005.

Posters
[JJCAAS 2005]
Utilisation de la phase pour l’amélioration de la localisation temporelle et fréquentielle de
l’analyse spectrographique, V. Emiya, Deuxièmes Journées Jeunes Chercheurs en Audition,
Acoustique musicale et Signal audio (JJCAAS), Laboratoire de Mécanique et d’Acoustique,
Marseille, 9-11 mars 2005.

Brevets
[PATENT 2002]
Tone detector and method therefor, L.F.C. Pessoa, V. Emiya, D. Melles, and D. Val-
lot, Freescale Semiconductor Inc., United States Patent 20040047370, European Patent
EP1395065, 2002.

Séminaires internes
[SEMINAIRE 2006]
L’estimation de pitch : présentation de quelques systèmes de référence, V. Emiya, Séminaire
audio ENST, juillet 2006.

[SEMINAIRE 2005]
La phase de la TFCT - Utilisation pour l’amélioration de la localisation temporelle et
fréquentielle de l’énergie & Application à l’analyse spectrographique, V. Emiya, Séminaire
audio ENST, janvier 2005.

Divers
[ATIAM 2004]
Spectrogramme d’Amplitude et de Fréquence Instantanées (SAFI), V. Emiya, Rapport de
DEA ATIAM, juillet 2004.

[ENST 2003]
Amélioration et mise à jour des GRM Tools sur le système Digidesign HD, V. Emiya,
rapport de stage de fin d’études, janvier 2003.
199

Sélection de publications

Note regarding IEEE publications : This material is presented to ensure timely disse-
mination of scholarly and technical work. Copyright and all rights therein are retained by
authors or by other copyright holders. All persons copying this information are expected
to adhere to the terms and constraints invoked by each author’s copyright. In most cases,
these works may not be reposted without the explicit permission of the copyright holder
(see IEEE copyright policies).
AUTOMATIC TRANSCRIPTION OF PIANO MUSIC
BASED ON HMM TRACKING OF JOINTLY-ESTIMATED PITCHES

Valentin Emiya, Roland Badeau, Bertrand David


TELECOM ParisTech (ENST), CNRS LTCI
46, rue Barrault, 75634 Paris cedex 13, France
valentin.emiya@enst.fr

ABSTRACT This paper is structured as follows. Section 2 gives an


This work deals with the automatic transcription of piano overview of the system and details each of its stages. Sec-
recordings into a MIDI symbolic file. The system consists tion 3 then reports test results and compares them with some
of subsequent stages of onset detection and multipitch es- state-of-the-art systems. Finally, conclusions are presented
timation and tracking. The latter is based on a Hidden in section 4.
Markov Model framework, embedding a spectral maximum
likelihood method for joint pitch estimation. The complexity 2. TRANSCRIPTION SYSTEM
issue of joint estimation techniques is solved by selecting sub- The whole processing system is represented by Algorithm 1.
sets of simultaneously played notes within a pre-estimated The input is the recording of a piece of piano music, denoted
set of candidates. Tests on a large database and compar- by x(t), the corresponding discrete sequence being sampled
isons to state-of-the-art methods show promising results. at Fs = 22050 Hz. Firstly, an onset detection is applied. The
signal portion between two successive onsets will be herein
1. INTRODUCTION referred to as a segment. For each of these variable-length
In this work, we consider the music transcription task of an- segments, we select a presumably oversized set of F0 candi-
alyzing a recorded piece and estimating a symbolic version dates. The segment is then split into overlapping frames
from it, as a MIDI file for instance. Accomplishing this task of constant length N , which are processed using a HMM. In
either humanly or with an automatic system often proves to this framework, the likelihood related to each possible set of
be a complex issue that requires a multilevel analysis. Im- simultaneous notes (or local chord) is derived using a recent
portant subtasks include the estimation of pitch, loudness, spectral Maximum Likelihood (ML) estimation technique [9].
onset and offset of notes, which can be completed by higher A MIDI file is generated at the end.
level analysis, such as extracting rhythm information, rec-
ognizing the played instruments or looking into the tonal Algorithm 1 (System overview)
context. Input: Waveform
Many transcription systems have been developed in the Detect onsets
recent decade, using different approaches and often mixing for each segment between subsequent onsets do
theoretical framework, empirical considerations and fine tun- Select note candidates
ing. For instance, Davy et al. [2] and Kameoka et al. [3] Track the most likely combination of notes within the
use two different Bayesian approaches while the technique HMM framework
proposed by Marolt [4] relies on oscillators and neural net- end for
works. Blind decomposition techniques are utilized by Bertin Detect repetitions of notes from one segment to the next
et al. [5] and Vincent et al. [6]. The task is also accomplished one
by detecting temporal [1] or spectral [7] patterns with on- Output: MIDI file
line or offline learning techniques. The system proposed by
Ryynänen and Klapuri [8] takes into account the psychoa-
coustic knowledge of the human peripheric auditory percep- 2.1 Onset detection
tion and involves some musicological considerations in the
postprocessing for enhancing the results. Onset detection is performed by an existing algorithm [11]
This paper, while presenting a system whose output is based on the so-called spectral energy flux. An adaptive
a MIDI-transcribed file, focuses more on a Hidden Markov threshold is used to extract the local maxima of a detection
Model (HMM) framework in which a joint multiple funda- function that measures phenomenal accents. The temporal
mental frequency (F0 ) estimation method [9] is embedded. accuracy of the onset detection is about 12 ms.
As with most joint estimation approaches, a high number of 2.2 Selection of F0 candidates
chord combinations must be tested. Consequently, strategies
are required in order to prune this search space [10]. Here, In order to select the set of note candidates, a normalized
the use of an onset detector and a selector of F0 candidates product spectrum is derived as a function of the fundamental
solves this computational issue by picking a reduced set of frequency. The function is defined by:
likely combinations to test.
H(f0 )
1 Y
The research leading to this paper was supported by the Eu- S (f0 ) = ν ln |X (fh )|2 (1)
ropean Commission under contract FP6-027026-K-SPACE and H (f0 )
h=1
by the French GIP ANR under contract ANR-06-JCJC-0027-01,
Décomposition en Éléments Sonores et Applications Musicales - where H(f0 ) is the number of overtones below a prede-
DESAM. The authors would also like to thank M. Marolt, N. fined cut-off frequency for fundamental frequency f0 , X (f )
Bertin, E. Vincent and M. Alonso for sharing their programs, and is a whitened version of the Discrete Fourier Transform
L. Daudet for its piano database. [1] (DFT) of the current frame, ν is a parameter empirically
set to .38 to adjust the normalization term H (f0 )ν and fh Thus the transcription of the segment consists in find-
is the frequency
p of the overtone with order h defined by ing the best sequence of hidden chords ĉ1 ĉ2 . . . ĉU given the
fh = hf0 1 + βh2 , β being the so-called inharmonicity co- sequence of observations X1 X2 . . . XU .
efficient of the piano tone [12]. The whitening process re- In statistical terms, ĉ1 . . . ĉU is obtained by solving:
duces the spectral dynamics. It is performed by modeling
the background noise with an autoregressive process and by ĉ1 . . . ĉU = argmax p (c1 . . . cU |X1 . . . XU ) (3)
c1 ...cU
applying the inverse filter to the original signal frame. The
normalization by H (f0 )ν aims at correcting the slope due
to the variation of the number of overtones with respect to which is rewritten using the Bayes rule as:
f0 . In the special case ν = 0, the function in (1) equals
the product spectrum [13], which has been designed for a p (c1 . . . cU ) p (X1 . . . XU |c1 . . . cU )
constant number of overtones. For each note in the search ĉ1 . . . ĉU = argmax (4)
range, the function is maximized in a 2-dimensional plane in c1 ...cU p (X1 . . . XU )
the neighborhood of (f0 , β(f0 )) where f0 is the well-tempered
scale value of the fundamental frequency and β(f0 ) is a typ- The denominator is removed without changing the argmax
ical value of the inharmonicity coefficient for this note [12, result:
pp. 365]. The Nc notes with the highest values are then
selected as candidates. In practice, the function is computed ĉ1 . . . ĉU = argmax p (c1 . . . cU ) p (X1 . . . XU |c1 . . . cU ) (5)
and averaged over the first three frames of each segment in c1 ...cU
order to be robust to the temporal spreading of onsets be-
fore the steady state of notes is reached. Nc is set to 9,
Given that the observed spectrum Xu only depends on the
the frame length is 93 ms, with a 50%-overlap. The cut-off
underlying chord cu , we obtain:
frequency related to H(f0 ) varies from 1200 Hz in the bass
range (f0 = 65 Hz) to Fs /2 in the treble range (f0 = 1000 Hz
U
Y
and above).
The candidate selection stage has two purposes. Firstly, ĉ1 . . . ĉU = argmax p (c1 . . . cU ) p (Xu |cu ) (6)
c1 ...cU
as with all joint estimation techniques, the approach de- u=1
scribed in this paper faces a high combinatory issue. Se-
lecting a reduced set of candidates is a way to reduce the Using eq. (2), this finally reduces to:
number of combinations to be tested, and to reach a re-
alistic computational cost. For instance, if the maximum U U
polyphony is 5 and the note search range spreads over 5 oc- Y Y
ĉ1 . . . ĉU = argmax p (c1 ) p (cu |cu−1 ) p (Xu |cu ) (7)
taves (i.e. 60 notes), around 5 · 106 combinations have to c1 ...cU
u=2 u=1
be tested, whereas after selecting Nc = 9 candidates among
the 60 notes, the size of the set of possible chords decreases
In a HMM context, cu is the so-called hidden state in
to only 382 elements. Secondly, the efficiency of the tran-
frame u, Xu is the observation, p (c1 ) is the initial-state
scription system depends on the selection of optimized val-
ues for fundamental frequencies and inharmonicity. These probability, λcu−1 ,cu , p (cu |cu−1 ) is the state-transition
values can be obtained by either maximizing the candidate probability from cu−1 to cu and p (Xu |cu ) is the observa-
selection function defined above, which is a criterion on the tion probability in state cu . Thanks to the selection of Nc
energy of overtones, or maximizing the likelihood described note candidates in the current segment and to the polyphony
in the next section. The advantage of the first solution is limit set to Pmax , possible values for cu are restricted to the
that it reduces the overall computational cost: the optimiza- sets composed of 0 to Pmax notes P among the candidates.
tion task is performed on a lower number of candidates (e.g. Thus, the number of states equals P max Nc
P =0 P
. Transition
with the figures mentioned above, 60 note candidates instead probabilities are defined as follows:
of 382 chords) and a call to the candidate selection function • for 2 ≤ u ≤ U , the birth of a note is not allowed in frame
does not require as much computation time as a call to the u since a segment is defined as being delimited by two
likelihood function. consecutive onsets. Thus λc,c′ , 0 if c′ is not a subset of
2.3 HMM tracking of most likely notes notes from c.
• as a result, the only transition from the ”silence” state is
This section describes how to track the possible combinations toward itself: λ∅,∅ , 1.
of note candidates, along frames, by means of one HMM [14]
per segment. From now on, each possible combination of • transitions from c are allowed toward c itself or toward a
notes in a frame is referred to as a chord. subset c′ of c. It only depends on the number of notes in
Let us consider a segment obtained by the onset detec- chord c and in chord c′ . Probability transitions are learnt
tion stage, i.e. delimited by two consecutive onsets. It is from musical pieces, as described below.
composed of U frames, numbered from 1 to U . In frame u, The initial-state probabilities are also learnt as a function of
1 ≤ u ≤ U , the observed spectrum Xu is a random vari- the number of notes in the state. The learning process is per-
able that depends on the underlying chord, denoted by cu . formed on MIDI music files. The initial-state probabilities
cu is also a random variable. When one or several notes are learnt from the polyphony observed at each onset time
are played, they spread over a number of consecutive frames and the transition probabilities from the polyphony evolu-
and may be extinguished at any moment. Thus, in a short- tion between consecutive onset times. Finally, p (Xu |cu ) is
term context like the duration of a segment, the polyphonic the likelihood detailed in the next section and given in a
content cu of frame u strongly depends on the short-term logarithmic version in eq. (13): ln p (Xu |cu ) = L̃Xu (cu ).
past. Consequently, a first-order Markovian process is as- The Viterbi algorithm [15] is applied to extract the best
sumed for the chord sequence c1 . . . cU : for u ≥ 2, chord sequence of states that explains the observations, as illus-
cu only depends on chord cu−1 and does not depend on u, trated in Table 1 and Figure 1. The obtained chord sequence
resulting in corresponds to the set of notes present at the beginning of
the segment and to the possible terminations within the seg-
p (cu+1 |c1 . . . cu ) = p (cu+1 |cu ) (2) ment.
silence silence silence silence silence

C4 C4 C4 C4 C4

E4 E4 E4 E4 E4

C4E4 C4E4 C4E4 C4E4 C4E4

1st frame 2nd frame 3rd frame Last frame

Figure 1: Chord network corresponding to the transition matrix of Table 1. Due to the sparsity of the transition matrix,
transitions are allowed toward the same chord or toward a ”subchord”, when note endings occur. The thick, dashed line
shows a possible Viberbi path: chord {C4 , E4 } is detected, C4 dies at frame 3 while E4 lasts until next to last frame of the
segment.

HH c′ C4 (m)
where f0 is the fundamental frequency of note m and β (m)
∅ C4 E4
c HH E4 is its inharmonicity coefficient.
∅ 1 0 0 0 We then assume that the noise spectrum is observed
C4 .17 .83 0 0 in any frequency bin that is not located within the pri-
E4 .17 0 .83 0 mary spectral lobe of a note component. The set N of
C4 E4 .07 .06 .06 .80 frequency bins related to noise observations is inferred by
H(1) , . . . , H(M ) and is thus defined by:
Table 1: Example of transition matrix, i.e. the probability
of going from chord c at time t to chord c′ at time t + 1. For ( )
M
[
graphical convenience, only Nc = 2 candidates are selected ′ (m) ′
N = f ∈ F ∀f ∈ H , f − f > ∆f /2 (9)
(notes C4 and E4 ). The transition probability is learnt as a
function of the number of notes in c and c′ . m=1

where F is the whole set of frequency bins and ∆f is the


width of the primary spectral lobe (∆f = 4/N for a Hann
Note that this HMM-based approach shares some sim- window).
ilarities with another transcription system [10] in which n o
chords are also modeled by HMM states. However, major We now consider a set S ∈ H(1) , . . . , H(M ) , N , i.e. the
differences exists between the two systems, especially in the set of frequency bins related to any of the elements (either
choice of the observations, of their likelihood estimation, and a note or the noise) in the mixture. We model the set of
in the way the HMM networks are significantly simplified, selected spectral observations X (S) by a transfer function
thanks to the onset-based segmentation, the selection of note
in a family of parametric functions (e.g. all-pole functions)1 .
candidates and the use of one state per chord in the current
We showed in [9] that the normalized log-likelihood of X (S)
paper.
can be analytically written as:
2.4 Maximum likelihood estimation of simultaneous
pitches LS (R) = c − 1 + ln (ρS (R)) (10)
The core of the pitch estimation stage is performed at the where P
R is the considered parametric transfer function, c =
frame level by estimating the likelihood of the observed DFT 1
− #S ln(π|X(k)|2 ) is a constant w.r.t. R (#S denotes
X given a possible chord. In 2.4.1 and 2.4.2, we present a k∈S
summary of this method that has been developed in a recent the number of elements in S) and
work [9]. A normalization stage is then introduced, with
a number of purposes: obtaining a homogeneous detection   1
function with respect to low/high pitched notes, making it Q X(k) 2 #S
R(k)
robust to polyphony variations, and adjusting dynamics be- k∈S
tween the note and the noise likelihoods. A silence detection ρS (R) = P X(k) 2 (11)
1
mechanism is finally described. #S R(k)
k∈S

2.4.1 Maximum likelihood principle


is equal to the ratio between the
 geometrical mean and the
Let us consider a mixture of M notes and of an additive 2 

colored noise. We observe one frame from this mixture. For arithmetical mean of the set X(k)
R(k)
. Such a ratio
1 ≤ m ≤ M , note m is modeled by a set of sinusoidal compo- k∈S
nents. The set of related frequency bins is denoted by H(m) . is maximal and equal to 1 when |X(k)/R(k)| is constant,
independent of k, which means that ρS (R) measures the
In the case of a piano note, H(m) is defined by:
 p  1 Note that in the case of frequency overlap between two notes,
(m) Fs
H(m) = fh fh = hf0 1 + β (m) h2 < (8) this modelisation does not hold for the overlapped frequency bins.
2 This phenomenon is ignored here.
 
X(k) 2 in order to obtain L̃X (C) ≫ L̃0 = L̃X (C0 ) when chord C
whiteness, or the flatness of R(k) . Thus the ap-
k∈S is played, and to guarantee L̃X (C0 ) ≥ L̃X (C) for possible
plication of the Maximum Likelihood principle, i.e. the esti- C =6 C0 when no chord is played, since L̃X (C) ≤ 1 in this
mation of the parameterized function that maximizes ρS (R)
case. In our implementation, L̃0 is empirically set to 2.
results in whitening the spectral envelope |X(S)|. In our
system, the note m ∈ J1, M K is modeled by an autoregres- 2.5 Detection of repeated notes and MIDI file gen-
sive (AR) filter whereas noise is modeled as a finite impulse eration
response (FIR) filter of length p ≪ N . A discussion on the
choice of these models is presented in [9]. Approximate so- The sets of notes estimated in frames of successive segments
lutions Rb H1 , . . . , R
bH , R
bN to the optimization problem are are assembled to obtain an overall discrete-time piano roll
M
obtained by means of estimation techniques in the case of of the piece. When a note is detected both at the end of a
partially observed spectra [16]. segment and at the beginning of the following one, it may
be either a repeated note, or a single one overlapping both
2.4.2 Joint estimation function segments. The variation of the note loudness is estimated
by using the function introduced in eq. (1) for candidate se-
The M simultaneous notes are parameterized by 2M lection, derived on the non-whitened version of the DFT. A
coefficients, which are the M fundamental frequencies note is then considered as repeated when its loudness vari-
(1) (M )
f0 , . . . , f0 and M related inharmonicity coefficients ation is greater than a threshold empirically set to 3 dB. A
β (1) , . . . , β (M ) . Using equations
n (8) and (9), a chord
o is thus
MIDI file is finally generated with a constant loudness for
each note.
characterized by the set C = H(1) , . . . , H(M ) , N , i.e. by
the way how the frequency sets of the various elements of 3. EXPERIMENTAL RESULTS
the chord are built.
Our pitch estimator relies on a weighted maximum like- Our transcription system is evaluated on a set of 30s-
lihood (WML) method: for a chord C, we calculate the truncated versions of 90 piano pieces randomly chosen from
weighted log-likelihood of the observed spectrum B. Krueger’s MIDI file database2 . Tests are carried out us-
ing a 93-ms frame length with a note search range composed
  of 60 notes between C2 (MIDI note 36) and B6 (MIDI note
LX (C) = LX H(1) , . . . , H(M ) , N (12) 95). Nc = 9 notes are used for F0 candidate selection, max-
M     imum polyphony is set to P = 5 and λ0 is empirically set
1 X b (m) + 1 ln ρN RbN to 0.9. In order to compare the transcription with a reliable
= ln ρH(m) R H
2M m=1 2 ground truth, audio files are first generated from the original
MIDI files and the synthesized audio files then constitute the
2.4.3 Log-likelihood normalization input of the transcription system. The audio generation is
performed by virtual pianos (Steinberg The Grand 2, Native
For any given set of bins S and transfer function R, the Instrument Akoustik Piano and Sampletekk Black Grand)
statistical properties of the flatness ρS (R) depend both on that use a large amount of sampled sounds and provide a high
the statistical properties of the whitened data X/R and on quality piano synthesis. A note-based evaluation is drawn:
the number of observations #S. The latter influence tends a MIDI file comparison is performed between the original
to lower ρS (R) when #S increases, which raises a double file and the transcription by classifying notes into True Pos-
issue when using expression (12): itives (TP), False Positives (FP) and False Negatives (FN).
• since #N ≫ #H(m) , the various terms of the sum have TP are defined as notes with a correct pitch (with a quarter-
values and variations that cannot be compared tone tolerance) and an onset time error lower than 50 ms
• the lack of homogeneity also appears when comparing the (commonly used threshold), FP are the other transcribed
log-likelihoods LX (C1 ) and LX (C2 ) of two chords C1 and notes and FN are the non-transcribed notes. Performance is
#TP
C2 since bins are not grouped in comparable subsets. then evaluated through four rates: recall #TP+#FN , preci-
#TP 2 precision×recall
Thus expression (12) is normalized as: sion #TP+#FP , F-measure precision+recall and mean overlap
1
P min(offsetsi )−max(onsetsi )
  ratio #TP i∈TP max(offsetsi )−min(onsetsi ) , where onsetsi (or
b
1 X ln ρH(m) RH(m) − µ#H(m)
M
offsetsi ) denote the pair of onset (or offset) times for TP
L̃X (C) = note i in the reference and in the transcription. The mean
2M m=1 σH
  overlap ratio is an averaged ratio between the length of the
b intersection of the temporal supports of an original note and
1 ln ρN RN − µ#N its transcription, and of the length of their union. Note that
+ (13)
2 σN offset times are not taken into account when classifying notes
between TP, FP and FN sets. This choice is due to two main
where µ#S is the empirical median, depending on the ob- reasons. First, since piano notes are damped sounds, endings
servation vector size #S and σS is the (constant) empirical are difficult to determine and depend on the instrument and
standard deviation of ln ρS , both being adaptively estimated on the recording conditions, even for a given original MIDI
from the frame. L̃X (C) thus represents a normalized log- file. Secondly, the evaluation system used here enables to
likelihood, with mean and variance around 0 and 1 respec- take offset times into account by means of the mean overlap
tively. ratio. Hence F-measure, precision and recall rates focus on
the evaluation of pitches and onset times.
2.4.4 Silence model The results3 of our system are reported in Figure 2,
When a given chord C is played, a peak appears such that together with the performance of state-of-the-art meth-
ods [4, 5, 6]. All transcription systems are tested on the
L̃X (C) ≫ 1, whereas for C ′ 6= C, C ′ 7→ L̃X (C ′ ) is a cen-
same database as our system, using their authors’ original
tered process with variance 1. However, when no chord is
played, no peak is generated in function L̃X (C) at the ex- 2 http://www.piano-midi.de/
pected ”empty chord” C0 = silence. A simple solution to 3 See also the audio examples available on the authors’ web site

detect silences is to set a constant value L̃X (C0 ) = L̃0 ≥ 1 at: http://perso.enst.fr/~emiya/EUSIPCO08/
100
Emiya EUSIPCO’08
REFERENCES
90 Vincent B ’07
Vincent H ’07 [1] J.P. Bello, L. Daudet, and M.B. Sandler, “Automatic
80 Bertin’07 piano transcription using frequency and time-domain
Marolt’04
information,” IEEE Trans. Audio, Speech and Language
70
Processing, vol. 14, no. 6, pp. 2242 – 2251, Nov. 2006.
%

60 [2] M. Davy, S. Godsill, and J. Idier, “Bayesian analysis of


50 polyphonic western tonal music,” J. Acous. Soc. Amer.,
vol. 119, no. 4, pp. 2498–2517, 2006.
40
[3] H. Kameoka, T. Nishimoto, and S. Sagayama, “A Mul-
30 tipitch Analyzer Based on Harmonic Temporal Struc-
20
tured Clustering,” IEEE Trans. Audio, Speech and Lan-
F−measure Precision Recall Mean Overlap Ratio guage Processing, vol. 15, no. 3, pp. 982–994, 2007.
[4] M. Marolt, “A connectionist approach to automatic
Figure 2: Evaluation results: F-measure, recall, precision transcription of polyphonic piano music,” IEEE Trans.
and mean overlap ratio for several transcription systems, av- on Multimedia, vol. 6, no. 3, pp. 439–449, 2004.
eraged on transcriptions of several pieces. Vincent B ’07 [5] N. Bertin, R. Badeau, and G. Richard, “Blind signal de-
and Vincent H ’07 stand for the ”Baseline” and ”Harmonic” compositions for automatic transcription of polyphonic
methods presented in [6]. Vertical lines show standard de- music: NMF and K-SVD on the benchmark,” in Proc.
viations of indicators w.r.t. all pieces, showing how results of ICASSP 2007, Honolulu, Hawaii, USA, Apr.15–20
depend on music excerpts. 2007, vol. I, pp. 65–68.
[6] E. Vincent, N. Bertin, and R. Badeau, “Harmonic and
inharmonic nonnegative matrix factorization for poly-
code. Performance rates have been averaged with respect to phonic pitch transcription,” in Proc. Int. Conf. Audio
all test pieces, and the related standard deviation is also rep- Speech and Sig. Proces. (ICASSP), Las Vegas, Nevada,
resented. Results dramatically depend on musical excerpts, USA, Mar. 30 – Apr. 4 2008.
with a number of consequences. Thus, high performance
(e.g. F-measure greater than 90%) is reached for pieces with [7] G. Poliner and D. Ellis, “A discriminative model for
slow tempo or low polyphony while fast pieces are generally polyphonic piano transcription,” EURASIP Journal on
difficult to transcribe. This explains the large standard de- Advances in Signal Processing, vol. 8, pp. 1–9, 2007.
viations, and means that such absolute figures should not [8] M. Ryynänen and A.P. Klapuri, “Polyphonic music
be compared to results from other publications since they transcription using note event modeling,” in Proc. IEEE
drastically depend on the database. Besides, the confidence Work. Appli. Sig. Proces. Audio and Acous. (WAS-
in the results is not directly related to these standard devia- PAA), New Paltz, NY, USA, Oct. 2005, pp. 319–322.
tions: it has been assessed by an ANOVA test on F-measure [9] V. Emiya, R. Badeau, and B. David, “Multipitch es-
data, passed using a 0.01 test level. timation of inharmonic sounds in colored noise,” in
Our approach is comparable to state-of-the-art systems Proc. Int. Conf. Digital Audio Effects (DAFx), Bor-
in terms of global performance. The obtained F-measure deaux, France, Sept.10–15 2007, pp. 93–98.
(65%) is satisfying. We obtain a better mean overlap ratio [10] C. Raphael, “Automatic transcription of piano mu-
than the competing methods, which suggests that the pro- sic,” in Proc. Int. Conf. Music Information Retrieval
posed HMM framework for note tracking is efficient both for (ISMIR), Paris, France, 2002.
selecting pitches among candidates, and for detecting their
possible endings. It results in an efficient transcription of du- [11] M. Alonso, G. Richard, and B. David, “Extracting note
rations, enhancing the phrasing similarity with the original onsets from musical recordings,” in Proc. of the ICME,
piece and thus participating in the subjective quality when Amsterdam, The Netherlands, July6–8 2005, pp. 1–4.
hearing the correct transcribed notes. Similar results were [12] N. H. Fletcher and T. D. Rossing, The Physics of Mu-
obtained when the system was tested with real piano record- sical Instruments, Springer, 1998.
ings, using 30s-excerpts of pieces used in [1]. In this case, the [13] M. R. Schroeder, “Period histogram and product spec-
average F-measure reaches 79%, the musical content of the trum: New methods for fundamental-frequency mea-
excerpts appearing quite easy to transcribe (low polyphony, surement,” J. Acous. Soc. Amer., vol. 43, no. 4, pp.
medium tempi). 829–834, 1968.
Generally, the main errors of our system are: polyphony [14] L.R. Rabiner, “A tutorial on hidden Markov models and
limitation, missed notes in the onset detection and candidate selected applications in speech recognition,” Proceedings
selection stages, errors at the bass and treble bounds and of the IEEE, vol. 77, no. 2, pp. 257–286, 1989.
harmonically related confusions (octave and others). Our
system is implemented in Matlab and C, and its running [15] A. Viterbi, “Error bounds for convolutional codes and
time is less than 200 times realtime on a recent PC. an asymptotically optimum decoding algorithm,” IEEE
Trans. on Information Theory, vol. 13, no. 2, pp. 260–
269, 1967.
4. CONCLUSIONS
[16] R. Badeau and B. David, “Weighted maximum likeli-
In this paper, we have put forward a new approach to the hood autoregressive and moving average spectrum mod-
automatic transcription of piano music, applying some re- eling,” in Proc. Int. Conf. Audio Speech and Sig. Proces.
cent advances in pitch estimation and including an original (ICASSP), Las Vegas, Nevada, USA, Mar.30 – Apr.4
structure to deal with joint estimation. The system has been 2008.
tested on a database of musical pieces, compared with com-
peting systems and has reached a satisfying performance.
Future work will deal with the estimation of loudness
of notes, the question of overlap between overtones and the
development of a more accurate silence model.
PERCEPTUALLY-BASED EVALUATION OF THE ERRORS USUALLY MADE
WHEN AUTOMATICALLY TRANSCRIBING MUSIC

Adrien DANIEL, Valentin EMIYA, Bertrand DAVID


TELECOM ParisTech (ENST), CNRS LTCI
46, rue Barrault, 75634 Paris cedex 13, France

ABSTRACT Music Information Retrieval (MIR) task and its related sub-
tasks (onset detection, multipitch estimation and tracking)
This paper investigates the perceptual importance of typi- have received a lot of attention [9] from the MIR commu-
cal errors occurring when transcribing polyphonic music ex- nity since the early works of Moorer [14] in the mid 70s.
cerpts into a symbolic form. The case of the automatic tran- The approaches used to accomplish the goal are very di-
scription of piano music is taken as the target application verse [4, 5, 14, 15, 16] and the evaluation of the performance
and two subjective tests are designed. The main test aims at for such systems is almost as varied. Some papers [4, 14] fo-
understanding how human subjects rank typical transcrip- cus on a couple of sound examples, to probe typical errors
tion errors such as note insertion, deletion or replacement, such as octave errors, or deviations from ground truth such
note doubling, incorrect note onset or duration, and so forth. as duration differences, and so forth. However, the most
The Bradley-Terry-Luce (BTL) analysis framework is used widely used criteria for assessing automatic transcription are
and the results show that pitch errors are more clearly per- quantitative, even if the evaluation framework is not always
ceived than incorrect loudness estimations or temporal devi- similar (frame-based [15], note-based [16] or both [1]).
ations from the original recording. A second test presents a In the practical context of piano music for instance, the
first attempt to include this information in more perceptually evaluation task is often handled by generating the PCM for-
motivated measures for evaluating transcription systems. mat piece from an original MIDI file which makes it pos-
sible to compare the input (ground truth) and output MIDI
1 INTRODUCTION files. For that particular case, in this study, a perception
test has been designed for subjectively rating a list of typi-
In the benchmarking of Information Retrieval systems, per- cal transcription errors (note insertions, deletions, incorrect
formance is often evaluated by counting and classifying er- onsets or duration...). The test is based on pairwise compar-
rors. Classically the ratio of relevant items that are re- isons of sounds holding such targeted errors. The results are
turned out of the full set of original ones, referred to as re- then analyzed by means of the Bradley-Terry-Luce (BTL)
call, measures the completeness of the system performance method [3].
whereas the proportion of relevant items that are retrieved, In a second step, the question emerged of finding a way
or precision, indicates the correctness of the answer. The to take into account the perceptual ranking of the discomfort
F-measure, combining precision and recall, offers a single levels we obtained. Another test was designed to subjec-
score to assess the performance. When music processing tively compare transcriptions resulting from different sys-
systems are involved, the question arises as to how to com- tems. It aimed at deriving more perceptually relevant met-
plement such a quantitative assessment by incorporating a rics from the preceding BTL results by synthetically com-
certain amount of perceptually motivated criteria or weights. bining their main findings, and at checking their compliance
This paper investigates the perceptual importance of typi- with the test results. We worked in two directions: percep-
cal errors occurring when transcribing polyphonic music ex- tually weighting typical errors, countable by comparing the
cerpts into a symbolic form, e.g. converting a piece recorded input and output MIDI files, and adaptating similarity met-
in a PCM (.wav) format into a MIDI file. This particular rics [17].

The authors thank all the subjects involved in the perceptive test for
their participation. They also thank M. Castellengo, A. de Cheveigné, D. 2 THE EVALUATION MEASURES
Pressnitzer and J. Benenson for their useful remarks, and M. Marolt, N.
Bertin and P. Leveau for sharing their programs. The research leading to
this paper was supported by Institut TELECOM under the Automatic Tran- The commonly-used F-measure is defined by:
scription of Music: Advanced Processing and Implementation - TAMTAM
project and by the French GIP ANR under contract ANR-06-JCJC-0027- rp #TP
01, Décomposition en Éléments Sonores et Applications Musicales - DE- f ,2 = (1)
SAM. r+p #TP + 12 #FN + 21 #FP
where r denotes the recall, p the precision, #TP the number a crucial point. Indeed, the weighting between the time and
of true positives (TP), #FN the number of false negatives the pitch dimensions, for instance, depends on music per-
(FN) and #FP the number of false positives (FP). f is equiv- ception. The tests presented in this paper aim at assessing
alent to the quantity a, that is referred to as either accuracy the trends of the perceptive impact of typical errors and the
or score [5], since f = 1 2+1 . The F-measure is useful to ob- distribution of their related weights.
a
tain the error rate for individually counted errors, but does
not consider aspects like sequentiality, chords, harmonic or 3 EXPERIMENTAL SETUP
tonal relationships, etc.
Another evaluation approach comes from the problem of 3.1 Overview
finding the similarity between two (musical) sequences. At
the moment, these methods are commonly used to search for The perception test consists of two tasks, which are detailed
similar melodies in large databases, rather than in the field below. It was available on the Internet in the spring of 2007
of the evaluation of transcriptions. for two weeks and was announced by e-mail. Before ac-
Let us assume that one must compare two sequences of cessing the tasks, the subject is given instructions and in-
symbols, A and B. The Levenshtein’s distance, or edit dis- formation on the recommended audio device (high-quality
tance [11], is a metric that counts the minimal number of headphones or loudspeakers, and a quiet environment) and
operations necessary to transform A to B. The possible op- on the estimated duration of the test. He or she is then in-
erations on symbols are: deletion from A, insertion into B, vited to complete the tasks. Both of them consist in hearing
or replacement of a symbol in A by another one in B. a musical excerpt and several transcriptions of it, and in fo-
Mongeau and Sankoff [13] proposed adapting this dis- cusing on the discomfort caused by the transcriptions, with
tance to the case of monophonic musical sequences, in or- respect to the original. Task 1 uses artificial transcriptions,
der to define a similarity metric between two melodies. The i.e. some copies of the original piece into which errors were
two sequences of notes are ordered according to the onset inserted whereas task 2 uses transcriptions obtained by au-
of each note. Each note is characterized by its pitch and du- tomatic transcription systems. In both cases, the transcrip-
ration, which are used to compute the cost of the following tions are resynthesized in the same recording conditions as
possible operations: insertion, deletion, replacement, with the original piece in order to be heard and compared by the
costs depending on tonal criteria, fragmentation and consol- subject. At the end, the subject was asked to describe the
idation of several notes with the same pitch. These oper- criteria he used to compare files and to add any comments.
ations reflect typical mistakes in transcriptions. The min- Due to the total duration of the test a subject can possibly
imum distance between the sets of notes is then estimated endure (about 40’ here), we limited the scope of the study to
using the edit distance framework. pieces of classical piano music, from different periods, with
different tempi and harmonic/melodic content.
This melodic edit distance being applicable only to mo-
nophonic sequences, an extension to the polyphonic case
has been recently proposed [8]. In order to represent the 3.2 Test 1: Subjective Evaluation of Typical Transcrip-
polyphonic nature of musical pieces, quotiented sequences tion Errors
are used. So far, this representation has only been applied
3.2.1 Principle
to chord sequences, which constitute a restricted class of
musical pieces: the notes within a chord must have the same Test 1 aims at obtaining a specific score for typical tran-
onset and duration. scription errors. In order to achieve this, the transcriptions
Another way to compute the similarity between two mu- to be evaluated are made by inserting one and only one
sical sequences [17] consists in considering each set of notes kind of error into an original excerpt. The error is chosen
as points in a multidimensional space, e.g. the pitch/time among the following list of typical errors: note deletion,
domain. The algorithm is based on two choices. First, each random-pitched note insertion (1 to 11 half-tones), random-
point must be assigned a weight, e.g. the note duration. Sec- pitched note replacement (1 to 11 half-tones), octave inser-
ond, a distance between a point in the first set and a point tion, octave replacement, fifth insertion, fifth replacement,
in the second one is defined, e.g. the euclidian distance note doubling, onset displacement, duration change (offset
in the time/pitch space. Then, the overall distance can be modification) and loudness modification (MIDI velocity).
computed with the Earth Movers Distance (EMD) or the These errors are inserted into three excerpts from Stud-
Proportional Transportation Distance (PTD). It is related to ies, op 10 / Study 1 in C Major by Chopin (8 seconds), Suite
the minimum amount of work necessary to transform one Bergamasque / III. Clair de Lune by C. Debussy (20 sec-
set of weighted points to the other using the previously- onds), and Sonata in D Major KV 311 / I. Allegro con Spirito
defined distance, making it possible to transfer the weight by W.A. Mozart (13 seconds).
of a source note towards several targets. Ideally, we would like to obtain a ranking of the typical
In all of these methods, the setting of the parameters is errors. Due to the large number of files, asking the subjects
Figure 2. Test 2: the subject scores transcriptions with non-
negative values.
Figure 1. Test 1: for each pair of audio files, the subject
selects the one causing more discomfort. sen. For each excerpt, five transcriptions are presented, as
shown in Figure 2. The subject has to assign a non-negative
value to each transcription. These values express the dis-
to give a score to each of them is not feasible. We preferred
comfort caused by transcription errors in comparison with
to set up a pairwise comparison task, as shown in Figure 1
its reference. The subject can listen as many times as needed
and derived the full scale as described in the next section.
to each transcription and reference.
In this test, all subjects are presented exactly the same
3.2.2 Protocol and Settings audio files, in random order for each subject. One of the five
transcriptions is the original piece in order to check whether
For each kind of error, several test files are created with var-
the answers are consistent. The other four were obtained by
ious error rates. The number of modified notes is param-
automatic transcription systems, namely SONIC [12], avail-
etered by the Modified Note Rate (MNR), which is set to
able on the author’s website, Bertin’s system [2], a home-
either 10%, or 33%. For some kinds of error, the error in-
made system by P. Leveau based on [10] and an early ver-
tensity (EI) is also parametrized. This is quantified as a ratio
sion of [7]. The error rates and kinds of error thus depend
of the note duration for duration changes and onset changes,
on the specific behaviors of the transcription systems.
and as a ratio of the MIDI velocity for loudness modifica-
tions. The EI is set to either 25%, or 75%. Modified notes
are randomly chosen using the MNR. Intensity changes are 4 RESULTS
made randomly, uniformly in the range centered on the true
value and with the EI as radius. Thirty-seven subjects (24 musicians and 13 non-musicians)
To derive a ranking scale from pairwise comparisons, we took part in this test. The results of Tests 1 and 2 are detailed
choose the BTL method which uses hidden, “true” values here. The subjects’ comments show that the instructions
associated to the transcriptions, along a given dimension were understood correctly. They pointed out tone errors as
(here, the discomfort). For a given pair of transcriptions, the a major cause of discomfort, while they seldom mentioned
subject’s answer is a comparison of a noisy version of the loudness and duration errors in an explicit way.
two true values, the noise modeling the subjectivity and the
variable skill of subjects. Thanks to this statistical frame- 4.1 Test 1
work, the full subjective scale is then obtained by processing
all the pairwise comparisons. For this test, 20 pairs out of Results of Test 1 are given in Figure 3. The BTL method
812 are randomly chosen and presented to each subject for makes it possible to obtain, from the pairwise comparisons
each musical excerpt. This number has been chosen in order of all the subjects, a subjective scale of discomfort for typi-
to adjust the test duration and is not critical for the results, cal errors. A BTL perception value is thus assigned to each
as long as the number of subjects is high enough. modification, which can be ordered according to this scale.
Different forms of evidence show the consistency of the
3.3 Test 2: Subjective Evaluation of Transcriptions of obtained scale. First, increasing scores are obtained with in-
Musical Pieces creasing error rates, either MNR or EI, and decreasing har-
monicity (octave, fifth, random pitches). Second, a mini-
Test 2 aims at obtaining a perceptive score for a series of mum discomfort is obtained for the reference (taking into
transcriptions from several pieces of music. Three original account its confidence interval). Third, as described in [6],
excerpts from Prelude in C minor BWV 847 by J.S. Bach the above 90% confidence intervals are related to a 5% risk.
(13 seconds), Suite Bergamasque / III. Clair de Lune by C. Thus, they are narrow enough to distinguish error types and
Debussy (20 seconds), and Sonata in D Major KV 311 / I. to assert that the answers make sense, although adjacent er-
Allegro con Spirito by W.A. Mozart (13 seconds) were cho- ror types should be considered perceptually equivalent.
Rand. insert. MNR=33%
Rand. replac. MNR=33%
Fifth insert. MNR=33%
Fifth replac. MNR=33%
Deletion MNR=33%
Rand. replac. MNR=10%
Fifth replac. MNR=10%
Onset EI=75% MNR=33%
Octave replac. MNR=33%
Rand. insert. MNR=10%
Fifth insert. MNR=10%
Doubling MNR=33%
Loudness EI=75% MNR=33%
Onset EI=75% MNR=10%
Onset EI=25% MNR=33%
Octave insert. MNR=33%
Octave insert. MNR=10%
Doubling MNR=10%
Octave replac. MNR=10%
Deletion MNR=10%
Loudness EI=75% MNR=10%
Onset EI=25% MNR=10%
Loudness EI=25% MNR=33% BTL values
Duration EI=25% MNR=33% Reference
Loudness EI=25% MNR=10%
Duration EI=75% MNR=10% Time modifications
Duration EI=75% MNR=33% Loudness Modifications
Reference
Duration EI=25% MNR=10% Pitch modifications

−200 −150 −100 −50 0 50 100 150 200


BTL perception values of discomfort

Figure 3. Test 1 : perceptive scale for typical errors. Crosses account for the related BTL value. Horizontal bars depict
the 90% confidence intervals, obtained by a bootstrap method [6] using 100 resamplings of the data (because the data is not
gaussian, confidence intervals may not be centered on BTL values).

Globally, as expected from the subjects’ comments, the 4.2 Test 2


highest discomfort values are obtained with pitch modifica-
tions; loudness and time modifications cause low to medium For each subject, scores of Test 2 are normalized by the
discomfort. Regarding pitch changes, octave errors are jud- maximum score he/she gave. Six subjects were removed
ged much less serious than fifth changes, which cause a since they scored a discomfort greater than 20% for the ref-
slightly lower discomfort than random changes. In each erence. Average scores and variances were then computed,
case, replacements and insertions are judged as equivalent, with respect to the results from all the remaining subjects.
which would indicate that the discomfort is more induced Results are represented in Figure 4. As the test is not a
by the added note than by the deleted note of a replace- contest between existing algorithms, the systems were made
ment. The lower values obtained for deletions confirm this anonymous, numbered from 1 to 4. The confidence in the re-
hypothesis, which is commonly observed when working on sults is assessed thanks to a 3 (composers) × 5 (algorithms)
transcription systems: a false negative usually sounds better factorial ANOVA test, passed for each dimension and for in-
than a false positive. teractions using a p = 0.01 test level. Thereby, the scores
Results with time errors show that the modified onsets and the ranking of the algorithms are very dependent on the
cause much more discomfort than duration changes. While piece of music. This confirms that the performance of a tran-
one can expect that moving the beginning of an event causes scription system is related to the musical content of pieces
a significant subjective change, it seems that subjects just and thus depends on the test database. Large standard devi-
did not perceive most of the modifications of duration. This ations indicate that the evaluation of a musical transcription
can be explained by a specific feature of the piano: the ends depends greatly on proper subjective criteria. An important
of sounds generated from its freely-vibrating strings are less overlap between the answers makes it impossible to obtain a
perceptible than for a musical instrument with forced vibra- definitive ranking among the different algorithms even if for
tions. Thus current results for perception of note duration each excerpt, systems 2 and 3 are judged as the worst and
cannot be generalized to all instruments. the best one respectively.
Finally, additional analysis of the results should be re-
ported, which are not represented in Figure 3. First, similar 5 EVALUATING THE TRANSCRIPTIONS
results were obtained from subjects that were musicians and
from non-musicians. Second, the three scales obtained for When comparing the results given by one of the objective
the three excerpts are also similar, with a little difference evaluation methods proposed in Section 2 to the perceptive
for the excerpt by Debussy in which deletions have a lower results of Test 1, several aspects are differentiated in the for-
score and duration changes cause higher discomfort, proba- mer case while they are not in the latter case, and vice versa.
bly because of the long durations in this slow piece of music. For instance, octave, fifth and random pitch changes have
2 4 1 2 where #Ei is the number of errors of type i (see below),
1 1 2 4 4 w1 = w2 = w3 = w4 = 1, w5 is the average duration error
Discomfort

1 in the transcription, and w6 is the average onset error. (The


0.5 3
3 3 average errors are computed as the square root of the mean
R R R square error.) Note that a similar perceptive accuracy could
0
Bach Debussy Mozart
be defined by using the equivalence mentioned in Section 2
and that the expression (2) equals the F-measure in the case
α1 = α2 = α3 = α4 = 21 and α5 = α6 = 0.
Figure 4. Results of Test 2: perceptive evaluation of the Errors from MIDI files are extracted as follows:
reference (R) and of transcriptions from four systems (1-4),
with standard deviations (gray bars). 1. TP are estimated as notes with correct pitch (rounded
to the nearest semitone) and onset deviation lower
than 150 ms. For each TP, the relative onset deviation
similar F-measures but cause an increasing discomfort. On and the relative duration deviation (both with respect
the contrary, perceptive results are equivalent for replace- to the original note parameters) are extracted. Then,
ments and insertions, whereas the F-measure is higher for let #E5 = #E6 = #TP.
insertions. Besides, perceptive results provide a balance be-
tween time and pitch influences, which is not taken into ac- 2. FP are transcribed notes which are not TP. The set of
count in objective evaluation methods. FP is split as follows: for each FP, (a) if there is an
In this part, we estimate weighting coefficients of typical original note at the octave or sub-octave, at the same
errors from Test 1 results, and we then apply them to adapt time (i.e. with any overlap of both time supports), the
two existing metrics: the F-measure and the PTD. These FP is added to the set E1 of octave FP; (b) otherwise,
modified methods are validated by applying them to the ex- if there is an original note at the upper or lower fifth
cerpts used in Test 2 and by comparing the results with the at the same time, the FP is added to the set E2 of fifth
discomfort expressed by the subjects. FP; (c) otherwise, the FP is added to the set E3 of
other pitch FP.
5.1 Extraction of the Weighting Coefficients
3. FN are the set E4 of original notes that are not asso-
To extract the weighting coefficients, the results of Test 1 ciated with one TP.
are normalized between 0 and 1. We only used results with
MNR 33%, and the results were averaged for pitch modifi-
cations, insertions and replacements. Six criteria 1 are ob- 5.3 Perceptive PTD
tained, to be integrated into metrics. Their related weighting The PTD is originally used to evaluate melodic similarities
coefficients are given in the following table: (see Section 2). In this context, note duration as weights to
transfer and the euclidian distance in the time/pitch space
Other
Octave Fifth Deletion Duration Onset seem to be appropriate choices. Nevertheless, when com-
intervals
α1 = α2 = α3 = α4 = α5 = α6 = paring generic musical pieces, both of these choices should
0.1794 0.2712 0.2941 0.2475 0.0355 0.4687 be changed. PTD weights should be defined in a musical
sense but this is beyond the scope of the current work and
P3 we thus chose to assign an equal and unitary PTD weight to
The coefficients are normalized so that 31 i=1 αi +
P6 each note. Using the perceptual coefficients introduced in
i=4 αi = 1, since octave, fifth and random pitch repre- Section 5.1, the distance between two notes is then defined
sents alternative false positive errors.
in the multidimensionnal space of criteria composed of pitch
(octave, fifth or others), duration and onset modifications.
5.2 Perceptive F-measure
In eq.(1), errors are the number of FP and FN, with an equal 5.4 Results
weight ( 12 ). We thus define the perceptive F-measure by:
Figure 5 shows the results of the application of the origi-
#TP nal two objective measures and of their perceptive versions
fpercept , P6 (2)
#TP + i=1 αi wi #Ei to the musical excerpts from Test 2. In order to compare
1 Loudness was not considered since the results were not satisfying,
them to the discomfort results, F-measures were changed by
probably due to the difficulty of having a trustworthy loudness scale. Dou-
applying the function x 7→ 1 − x. In order to best fit the
bled notes were not used either because they could not be integrated into discomfort scale, all results were scaled by a multiplicative
metrics. coefficient obtained by minimizing the mean square error.
1.5
4 2 phonic music: NMF and K-SVD on the benchmark. In
F−measure

2 1
1 1 4 4
0.5
R
3
R
1 2
3
R
3 Proc. of ICASSP, Honolulu, Hawaii, USA, April 2007.
0
Bach Debussy Mozart
[3] R.A. Bradley. Some statistical methods in taste testing
Percep. F−meas.

1.5

and quality evaluation. Biometrics, 9(1):22–38, 1953.


2 4 1
1 1 4 4
1 2 2
0.5 3 3
R R R 3
0
Bach Debussy Mozart
[4] A.T. Cemgil, H.J. Kappen, and D. Barber. A genera-
1.5
2 4 1 2
tive model for music transcription. IEEE Trans. Audio,
Speech and Lang. Proces., 14(2):679–694, 2006.
1 2 4 4
PTD

1 3
0.5
R 1 R
R 3 3
0
Bach Debussy Mozart
[5] S. Dixon. On the computer recognition of solo piano
music. Australasian Computer Music Conf., 2000.
1.5
Percep. PTD

2 4 1 2
1 1 2 4 4
3 1
0.5 3 3
0
R R R
[6] B. Efron and R. J. Tibshirani. An introduction to the
Bach Debussy Mozart
bootstrap. In London: Chapman & Hall, 1993.
[7] V. Emiya, R. Badeau, and B. David. Automatic tran-
Figure 5. Transcription evaluation results with several ob- scription of piano music based on HMM tracking of
jective and perceptive measures: in each case, crosses show jointly-estimated pitches. In Proc. of EUSIPCO, Lau-
the normalized error related to a measure, and the gray bars sanne, Switzerland, August 2008.
indicate the discomfort obtained in Test 2.
[8] P. Hanna and P. Ferraro. Polyphonic music retrieval
by local edition of quotiented sequences. In Proc. of
Results with the perceptive F-measure are slightly closer CBMI, Bordeaux, France, June 2007.
to the discomfort values than the original F-measure. More-
over, the ranking of the 15 excerpts is also closer to the [9] A. Klapuri and M. Davy. Signal Processing Methods
discomfort-based ranking. Results of the perceptive PTD for Music Transcription. Springer, 2006.
do not look better than the original, due to a high isolated
[10] P. Leveau, E. Vincent, G. Richard, and L. Daudet.
value for the excerpt with highest discomfort (Mozart, Sys-
Instrument-specific harmonic atoms for mid-level mu-
tem 2), that makes it difficult to scale the results adequately.
sic representation. IEEE Trans. Audio, Speech and
However, the achieved ranking is dramatically better than
Lang. Proces., 16(1):116–128, January 2008.
the ranking by the original PTD, and also slightly better
than the ranking by the perceptive F-measure. Thus, even if [11] V. I. Levenshtein. Binary codes capable of correcting
the relation between the discomfort and the perceptive PTD spurious insertions and deletions of ones. Problems of
may be non-linear, the latter is appropriate in a ranking task. Information Transmission, 1(1):8–17, 1965.
[12] M. Marolt. A connectionist approach to automatic
6 CONCLUSIONS transcription of polyphonic piano music. IEEE Trans.
on Multimedia, 6(3):439–449, 2004.
The main idea of these tests was to get a ranking of the
typical automatic transcription errors, to extract perception [13] M. Mongeau and D. Sankoff. Comparison of mu-
weights, and to integrate them into several musical sequence sical sequences. Computers and the Humanities,
distance metrics. These primary results are consistent and 24(3):161–175, 1990.
the proposed perceptive metrics give satisfying results.
[14] J.A. Moorer. On the Segmentation and Analysis
However further investigations should focus on a number
of Continuous Musical Sound by Digital Computer.
of aspects, such as non-linear relations between specific er-
Dept. of Music, Stanford University, 1975.
ror rates and discomfort, musical-based typical errors (tak-
ing into account tonality, melody, chords, etc.), and more [15] G. Poliner and D. Ellis. A discriminative model for
specific algorithms to identify them. polyphonic piano transcription. EURASIP Journal on
Advances in Signal Processing, 8:1–9, 2007.

References [16] M. Ryynänen and A.P. Klapuri. Polyphonic music


transcription using note event modeling. In Proc. of
[1] Multiple fundamental frequency estimation & track- WASPAA, pages 319–322, New Paltz, NY, USA, 2005.
ing. In Music Information Retrieval Evaluation eX-
[17] R. Typke, P. Giannopoulos, R. C. Veltkamp, F. Wier-
change (MIREX), 2007.
ing, and R. van Oostrum. Using transportation dis-
[2] N. Bertin, R. Badeau, and G. Richard. Blind signal tances for measuring melodic similarity. In Proc. of
decompositions for automatic transcription of poly- ISMIR, Baltimore, Maryland, USA, 2003.
Proc. of the 10th Int. Conference on Digital Audio Effects (DAFx-07), Bordeaux, France, September 10-15, 2007

MULTIPITCH ESTIMATION OF QUASI-HARMONIC SOUNDS IN COLORED NOISE

Valentin Emiya, Roland Badeau, Bertrand David


GET - Télécom Paris (ENST), CNRS LTCI
46, rue Barrault, 75634 Paris cedex 13, France
valentin.emiya@enst.fr

ABSTRACT 2. WEIGHTED MAXIMUM LIKELIHOOD PITCH


ESTIMATOR
This paper proposes a new multipitch estimator based on a
likelihood maximization principle. For each tone, a sinu-
soidal model is assumed with a colored, Moving-Average,
background noise and an autoregressive spectral envelope
for the overtones. A monopitch estimator is derived follow-
ing a Weighted Maximum Likelihood principle and leads 2.1. Main idea
to find the fundamental frequency (F0 ) which jointly max-
imally flattens the noise spectrum and the sinusoidal spec- This work focuses on signals which can be decomposed
trum. The multipitch estimator is obtained by extending the into a sum of sinusoidal components and a colored noise.
method for jointly estimating multiple F0 ’s. An application In the following, a moving average process is assumed for
to piano tones is presented, which takes into account the the latter, with a corresponding FIR filter of transfer func-
inharmonicity of the overtone series for this instrument. tion B(z). The spectral envelope of the partials is modeled
1
by an autoregressive filter of transfer function A(z) . The
technique presented herein is based on the decomposition
1. INTRODUCTION
of the set of DFT frequencies into two subsets: the subset
Multipitch estimation is a critical topic for many applica- N owing to the background noise properties and the other,
tions, both in the field of speech processing (e.g. prosody H, associated with the sinusoidal part. Once both 1/A(z)
analysis) [1] and in the context of musical signal analysis and B(z) have been estimated, the constructed likelihood
(e.g. automatic transcription) [2, 3]. The challenge offered is maximized for the true value of F0 since it simultane-
by the spectral interference of the overtones of simultaneous ously whitens the noise sub-spectrum and the sinusoidal
notes has been taken up by various methods, some aiming at sub-spectrum. In the case where a bad F0 candidate is se-
detecting a periodicity in the signal [4] or in its spectrum [5] lected, the choice of a FIR N -support sub-spectrum and an
while others use a combination of both spectral and tempo- AR H-support sub-spectrum ensures that such a flatness of
ral cues [6, 7]. Recent trends in the task include estimation both sub-spectra is not achieved.
in a bayesian framework [8] or in a perceptually compliant
context [7]. The technique proposed in this paper is based
on a Weighted Maximum Likelihood (WML) principle and 2.2. Statistical framework
belongs to the spectral estimators category.
This paper is organized as follows. Section 2 introduces Let x denote the N -dimensional vector containing N suc-
the Maximum Likelihood principle applied to the proposed cessive samples of data, X the N -dimensional vector of its
signal model. Section 3 then details the adaptation of the Digital Fourier Transform (DFT) and F the N × N ortho-
pq
theoretical method to the multipitch estimation task in the normal DFT matrix (F(p,q) = √1N e−2iπ N ). We assume
case of piano sounds. Experimental results are given in sec- that x results from the circular filtering of a centered white
tion 4. Finally, conclusions are presented in section 5. complex Gaussian random vector w of variance σ 2 . Let h
be the corresponding impulse response vector, and H its
N -dimensional DFT vector. Since X = diag{H}F w, X
is a centered Gaussian random vector of covariance matrix
The research leading to this paper was supported by the French GIP σ 2 diag{|H|2 }.
ANR under contract ANR-06-JCJC-0027-01, Décomposition en Éléments
Sonores et Applications Musicales - DESAM, and by the French Ministry
Below, we consider that the observed data consist of a
of Education and Research under the Music Discover project of the ACI- subset S of the DFT coefficients in vector X. Then the
Masse de données previous discussion shows that the probability law of the

DAFX-1
Proc. of the 10th Int. Conference on Digital Audio Effects (DAFx-07), Bordeaux, France, September 10-15, 2007

observed data is F0 ’s, we calculate the weighted likelihood


Y 1 |X(k)|2
− σ2 |H(k)|2 LH = α ln ρˆH + (1 − α) ln ρˆN (5)
p(XS ) = e .   
πσ 2 |H(k)|2  ρˆH = max ρH 1
k∈S
A(z)
with A
Thus the normalized log-likelihood LS (σ, h) =  ρˆN = max ρN (B(z))
B
1
#S ln p(XS ) can be written in the form
where N = H is the complement set of H and 0 < α < 1
   
1 X |X(k)|2 |X(k)|2 (in practice we choose α = 1/2). The pitch estimate is
LS (σ, h) = C+ ln − 2 given by the set Ĥ which maximizes LH . This maximum
#S σ 2 |H(k)|2 σ |H(k)|2
k∈S
(1) depends on the sum of the two H-dependent terms in (5):
1
P ln ρˆH and ln ρˆN . The flatness ρˆH of the whitened compo-
where C = − #S ln(π|X(k)|2 ) is a constant with re-
k∈S nents has a local maximum for a smooth spectral envelope,
spect to σ and h, and #S denotes the number of elements in obtained when analyzing the true F0 (see figure 1) or one
S. Normalizing the likelihood by factor 1/#S aims at ob- of its multiples (i.e. H is a subset of the right set of over-
taining comparable, homogeneous values when #S varies. tones, see figure 2), or when H only contains noisy compo-
Maximizing LS with respect to σ yields the estimate nents. Low values of ρˆH are obtained when amplitudes at
2 the frequencies of Ĥ are alternately low and high since AR
2 1 X X(k) filters have no zero, which means that they cannot fit a spec-
σ
b = H(k) . (2)
#S trum where some sinusoidal components in H are missing.
k∈S
This particularly happens for a sub-harmonic of the true F0
Then substituting equation (2) into equation (1) yields (see figure 3). In other respects, when considering the spec-
tral envelope of the noisy part of the sound, FIR filters have
σ 2 , h) = C − 1 + ln (ρS (h))
LS (h) , LS (b (3) no pole, which means that they cannot fit any sinusoidal
component: the spectral flatness ρˆN of the whitened resid-
where ual part reaches high values when the frequencies of over-
tones have been selected in H, i.e. when analyzing any sub-
  1
Q X(k) 2 #S harmonic frequency of the true F0 (see figure 3). As illus-
H(k) trated in figure 4, by combining both spectral flatnesses ρˆH
k∈S
ρS (h) = (4) and ρˆN , a global maximum is found for the true F0 while
1
P X(k) 2
#S H(k) any other local maximum in ρˆH (or ρˆN ) is attenuated by ρˆN
k∈S (or ρˆH ), particularly harmonics and sub-harmonics.
is equal to the ratio between 
the geometrical mean and the
 3. APPLICATION TO MULTI-PITCH ESTIMATION
X(k) 2
arithmetical mean of the set H(k) . Such a ratio OF PIANO TONES
k∈S
is maximal and equal to 1 when |X(k)/H(k)| is constant,
independant of k, which means 3.1. Inharmonicity in piano tones
n o ρS (h) measures the
that
X(k)
whiteness, or the flatness of H(k) . The next step con- In a piano note, the stiffness of strings causes the frequen-
k∈S
sists in choosing a parametric model for h, and maximizing cies of overtones to slightly differ from a perfect harmonic
LS with respect to the filter parameters. This optimization distribution. We are focussing one these quasi-harmonic
results in maximizing ρS (h). For instance, if h is modeled sounds and exclude from this study other inharmonic tones
b like bell tones. The frequency of the overtone of order n is
as an autoregressive (AR) filter, an approximate solution h
thus given by the inharmonicity law [10]:
to the optimization problem can be obtained by means of
linear prediction techniques [9]. If h is modeled as a finite p
fn(f0 ,β) = nf0 1 + β (n2 − 1) (6)
impulse response (FIR) filter of length p ≪ N , an approx-
imate solution hb can be obtained by windowing a biased
where f0 is the fundamental frequency and β is the inhar-
estimate of the autocovariance function. monicity coefficient. Note that β varies along the range of
the piano keyboard and from one instrument to the other.
2.3. Application to pitch estimation Thus, the set H, characterized by these two parameters, is
defined as:
Our pitch estimator relies on a weighted maximum likeli- n o
hood (WML) method: for all subsets H, i.e. for all possible H(f0 ,β) = fn(f0 ,β) /n ∈ N, fn(f0 ,β) < Fs /2 (7)

DAFX-2
Proc. of the 10th Int. Conference on Digital Audio Effects (DAFx-07), Bordeaux, France, September 10-15, 2007

Analysis of a synthetic signal with fundamental frequency 1076.6602 Hz.

H for f0 = 1076.6602 Hz
−20

H for f0 = 2153.3203 Hz
−40 −20
dB

−60 −40
H-set spectrum
H set

dB
−80 −60
AR model
Residual H-set spectrum
MA model
−100 −80 H set
0 2000 4000 6000 8000 10000 AR model
f (Hz) Residual
MA model
N set (residual) −100
H set 0 2000 4000 6000 8000 10000
50 f (Hz)
50
H set N set (residual)
0 50
0 50
dB

dB

−50 0
−50 0

dB

dB
−100 Before whiten. −100 Before whiten. −50
−50
Post whiten. Post whiten.
AR model MA model
−150 −150 −100 −100
0 5000 10000 0 5000 10000 Before whiten. Before whiten.
f (Hz) f (Hz) Post whiten. Post whiten.
AR model MA model
−150 −150
0 5000 10000 0 5000 10000
f (Hz) f (Hz)
Figure 1: LH estimation for H = Ĥ (true F0 ). Overtones
are selected in the spectrum (top), amplitudes of compo-
Figure 2: LH estimation at twice the true F0 . Amplitudes
nents fit the AR model (bottom left) and the residual spec-
of components fit the AR model whereas the residual spec-
trum is well whitened by the MA model (bottom right). In
trum is not perfectly whitened by the MA model, due to
order to avoid overlapping between curves in the graph-
remaining components.
ical representation, an constant offset is added to post-
whitening dB-curves.

H for f0 = 538.3301 Hz
−20 0
ln ρˆH

−40 −1
−2
dB

−60
H-set spectrum −3
−80 H set
AR model
0 1000 2000 3000 4000
Residual
MA model 0
−100
0 2000 4000 6000 8000 10000
f (Hz)
ln ρˆN

−1
H set N set (residual)
50
50 −2
0
0 0 1000 2000 3000 4000
dB

dB

−50
−50 0
−100 −100
Before whiten. Before whiten. −1
LH

Post whiten. Post whiten.


AR model MA model
−150 −150
0 5000
f (Hz)
10000 0 5000
f (Hz)
10000 −2
0 1000 2000 3000 4000
Figure 3: LH estimation at half the true F0 . While residual f (Hz)
0
spectrum is well whitened by the MA model, amplitudes
of components do not fit the AR model, resulting in a low Figure 4: H-dependent terms ln ρˆH (top) and ln ρˆN (mid-
flatness of whitened amplitudes (bottom left, circles). dle), and weighted likelihood LH (bottom), computed for
all possible F0 ’s (i.e. all possible H’s).

DAFX-3
Proc. of the 10th Int. Conference on Digital Audio Effects (DAFx-07), Bordeaux, France, September 10-15, 2007

where Fs is the sampling


 frequency. Optimizing the log- in ρˆN (see equation (4)), primary lobes of the frequencies
likelihood L H(f0 ,β) with respect to H(f0 ,β) then consists selected in H are removed from N , which is redefined as:
in maximizing it with respect to f0 and β.
N = {k ′ /∀f ∈ H, |k ′ /N − f | > ∆f /2} (8)
3.2. From the theoretical model to real sounds
where ∆f is the width of the primary lobe (∆f = N4 for
a Hann window). Note that the question of removing a
H for f0 = 465.467 Hz
0 set of components is a key step in the implementation of
our algorithm. As shown in figure 5, the proposed method
−50
performs an approximate removal that offers a satisfying
dB

−100 trade-off between efficiency and computational cost. Other


H-set spectrum
−150 H set techniques based on amplitude estimation and adapted filter
AR model
Residual
MA model
design have been tested without bringing major improve-
−200
0 2000 4000 6000 8000 10000 ments. The non-stationary nature of signals seems to be re-
f (Hz)
N set (residual)
sponsible for this limitation. It should be taken into account
H set
100 100 for enhancing the separation between a set of components
and the residual signal.
0
0
dB

dB

−100
−100 3.3. Extension to polyphonic sounds
Before whiten. Before whiten.
Post whiten.
AR model
−200 Post whiten.
MA model
We now consider that the deterministic signal s(n) is a
−200 M
0 5000 10000 0 5000 10000 P
f (Hz) f (Hz) sum of M inharmonic sounds: s(n) = s(m) (n) and
m=1
(m) (m)
p
Figure 5: Real piano tone: separation between note compo- ∀m ∈ {1 . . . M }, fn = nf0 1 + β (m) (n2 − 1),
(m)
nents and residual part, and related MA and AR models where f0 is the pitch and β (m) > 0 is the inharmonic-
ity coefficient of the mth tone. Each note is associated with
How do real piano tones fit the signal model described one individual AR model, and weights in the likelihood are
above? The AR model for the sinusoidal component, the uniformly distributed among notes. Thus the WML princi-
MA noise model and the inharmonicity distribution of fre- ple consists in maximizing the log-likelihood:
quencies seem to be robust hypotheses. Conversely, the
M  
practical application of the method has to cope with two 1 X 1
deviations from the theoretical point of view: L(H(1) , . . . , H(M ) ) = ln ρH(m)
2M m=1 A(m) (z)
1. the assumption that fn lies in the exact center of a 1
+ ln ρˆN (9)
frequency bin (multiple of 1/N ) is usually false, and 2
spectral leakage thus influences the N -support sub- (m)
!
f ,β (m)
spectrum. where H(m) = H 0 and N is the set of bins out-
side primary lobes of frequencies of any H(m) . The opti-
2. the amplitude of the overtone may vary within the
mization is performed with respect to each of the sets
analysis frame, reflecting various effects as the en-
H(1) , . . . , H(M ) . Each set H(m) is defined by the parame-
ergy loss of the sound and the beating between close (m)
adjacent components. This can affect the spectral en- ters {(f0 , β (m) )}m∈{1...M } and 1/A(m) (z) is the AR fil-
velope of the H-support sub-spectrum. ter related to note m. Two distinct sets H(m1 ) and H(m2 )
may intersect, allowing overlap between spectra of notes
The windowing of the analyzed waveform by a Hann m1 and m2 . The algorithm presented in section 2.3 can
window has proved to be a robust trade-off to overcome be applied straightforwardly.
these issues. It prevents the spectral leakage associated with
high energy components from masking weak overtones. 3.4. Multi-pitch estimator implementation
Amplitudes of every overtone k are estimated by perform-
ing a parabolic interpolation of the spectrum (in decibels) Multi-pitch estimation is often performed either in an iter-
based on the values in the nearest Fourier bins. The result- ative or in a joint process. The proposed method belongs
ing (linear) value is used when computing the sinusoidal- to the joint estimation category. While iterative methods
part spectral flatness ρˆH , i.e. in place of X (k) in equa- consist in successively estimating and removing a predom-
tion (4). In order to minimize the effects described above inant F0 , joint estimation simultaneously extracts the set of

DAFX-4
Proc. of the 10th Int. Conference on Digital Audio Effects (DAFx-07), Bordeaux, France, September 10-15, 2007

F0 ’s. Thus, a direct implementation of the algorithm de-


FN Polyphony 1 FP
scribed above would require to compute the ML of all pos- 95 95 95
sible combinations of notes, leading to a high-order combi- 90 90 90
natory task. For instance, more than 2.106 different chords 85 85 85
exist for a 4-note polyphony in the full piano range, each
80 80 80
of these candidates requiring several calls to the likelihood
75 75 75
function since the exact F0 and β values are unknown.

MIDI number
70 70 70
In order to reduce the cost of the ML estimation, a
65 65 65
two-step algorithm is proposed. First, each possible chord
60 60 60
is evaluated on a reduced number of points Np in the
(m) 55 55 55
(f0 , β (m) ) region around F0 values from the well-
50 50 50
tempered scale and approximate β values. Ncand chord can-
45 45 45
didates are extracted among all combinations by selecting
the Ncand greatest likelihood values. Then, the likelihood of 40 40 40

each selected candidate is locally maximized with respect 0 0.2 0.4 250 300 350 0 0.5 1
(m) % Sample number (zoom) %
to coefficients f0 and β (m) . A simplex method is used
FN Polyphony 2 FP
to perform this optimization, which is initialized with the 95 95 95
(m)
f0 and β (m) values selected during the first step. Finally, 90 90 90
the chord with maximum accurately-computed likelihood is 85 85 85
selected as the chord estimate. 80 80 80
75 75 75
MIDI number

70 70 70
4. EXPERIMENTAL RESULTS
65 65 65
60 60 60
The algorithm has been tested on a database composed of
55 55 55
about 540 isolated piano tones of the RWC database [11]
50 50 50
and random chords generated by several virtual piano soft-
45 45 45
wares based on sampled sounds. About 600 two-note
40 40 40
chords and 600 three-note chords were evaluated. In each
case, the polyphony is known a priori by the algorithm and 0 0.5 1 130 140 150 160 170 0 0.5
% Sample number (zoom) %
the estimation results from the analysis of one 93 ms frame,
FN Polyphony 3 FP
beginning 10 ms after the onset. F0 estimates are rounded 95 95 95
to the nearest half-tone in the well-tempered scale in order 90 90 90
to determine if an estimated note is correct. This approx- 85 85 85
imation on F0 is carried out in order to evaluate the pitch 80 80 80
estimation at a note level rather than at a frequency level. 75 75 75
The note search range spreads over 5 octaves, from MIDI
MIDI number

70 70 70
note 36 (f0 = 65 Hz) to MIDI note 95 (f0 = 1976 Hz). 65 65 65
These test conditions are similar to the ones used in com-
60 60 60
petitor systems [4, 5, 7] in terms of frame length, F0 search
55 55 55
range and error rate definition.
50 50 50
The parameters of the system have been adjusted as fol-
45 45 45
lows. Sounds are sampled at 22050 Hz. DFT are computed
40 40 40
on 4096 points after zero-padding the 2048-point frame.
The AR model order is set to 8, the MA model order to 0 1
%
2 130 140 150 160 170
Sample number (zoom)
0 1
%
2

20. In the first step of the implementation described in sec-


tion 3.4, all chord combinations are evaluated, each one
Figure 6: Estimation results: for a given polyphony (1 to 3
with Np = 10 (polyphony ≤ 2) or Np = 5 (polyphony
(m) from top to bottom), random chords are generated (circles)
three) different (f0 , β (m) ) values. Then Ncand = 75 and estimated (crosses). For visual representation clarity,
(monophony) or Ncand = 150 (polyphony ≥ 2) chord can- only 50 samples of them are shown (center). Distribution of
didates are selected for the second step. false negatives is displayed on the left. Distribution of false
Error rates are 2.0% in monophony, 7.5% in polyphony positives is displayed on the right.
two and 23.9% in polyphony three. They are reported in

DAFX-5
Proc. of the 10th Int. Conference on Digital Audio Effects (DAFx-07), Bordeaux, France, September 10-15, 2007

Polyphony 1 2 3 tween notes spectra, with improving the model for the spec-
Error rate 2.0% 7.5% 23.9% tral envelope of notes and with making the computational
±0.6% ±1.1% ±2.2% cost decrease in order to both benefit from the efficiency
Octave error rate 0% 1.6% 5.2% of the estimator and avoid the inherent complexity of joint
State of the art 2 ∼ 11% 7 ∼ 25% ≈ 10 ∼ 35% estimation of multiple F0 ’s.

Table 1: Error rates with respect to polyphony. Lower and 6. REFERENCES


upper bounds of state-of-the-art performances are also re-
ported. Confidence interval is derived as the standard devi- [1] A. de Cheveigne and H. Kawahara, “YIN, a fun-
ation of the error rate estimator. damental frequency estimator for speech and music,”
JASA, vol. 111, no. 4, pp. 1917–1930, 2002.
table 1 and can be compared to the three competitor sys- [2] M. Ryynänen and A.P. Klapuri, “Polyphonic music
tems previously mentionned. Their performances have been transcription using note event modeling,” in Proc. of
established in [7] for polyphony one, two, four and six: WASPAA, New Paltz, NY, USA, October 2005, IEEE,
error rates vary from 2 to 11% in monophony, from 7 to pp. 319–322.
25% in polyphony two and from 14 to 41% in polyphony
four. Error rates in polyphony three are not given, but could [3] M. Marolt, “A connectionist approach to automatic
be figured out as intermediate values between results in transcription of polyphonic piano music,” IEEE Trans.
polyphony two and four, which would lead to approximate on Multimedia, vol. 6, no. 3, pp. 439–449, 2004.
error rates between 10 and 35%. The proposed pitch esti-
mator is comparable to competitor systems in terms of per- [4] T. Tolonen and M. Karjalainen, “A computationally
formance. Error rates are particularly competitive in poly- efficient multipitch analysis model,” IEEE Trans. on
phonies one and two. Speech and Audio Processing, vol. 8, no. 6, pp. 708–
The evaluation task has been performed using randomly 716, 2000.
uniformly-distributed notes in order to provide experimental [5] A.P. Klapuri, “Multiple fundamental frequency es-
results from an objective point of view rather than from mu- timation based on harmonicity and spectral smooth-
sical considerations. The distribution of errors is reported in ness,” IEEE Trans. on Speech and Audio Processing,
figure 6. The few errors in polyphony one occur in the low- vol. 11, no. 6, pp. 804–816, November 2003.
est and highest pitch regions. In polyphony two and three,
most of missed notes (or false negatives, FN) are located [6] G. Peeters, “Music pitch representation by periodic-
in the treble part of the piano range whereas the false-alarm ity measures based on combined temporal and spectral
notes (or false positives, FP) estimated in place of them tend representations,” in Proc. of ICASSP 2006, Toulouse,
to be distributed in a more uniform manner along the piano France, May 14-29 2006, IEEE, vol. 5, pp. 53–56.
range. Closely-spaced chords in the medium range seem
easier to detect than widely-spaced chords. Octave error are [7] A.P. Klapuri, “A perceptually motivated multiple-f0
scarce – around one fifth of all errors for each polyphony estimation method,” in Proc. of WASPAA, New Paltz,
number –, which can be explained by the complementary NY, USA, October 2005, IEEE, pp. 291– 294.
contributions of note and noise likelihoods. On the con- [8] Manuel Davy, Simon Godsill, and Jerome Idier,
trary, high-pitched FN and large-interval errors often occur, “Bayesian analysis of polyphonic western tonal mu-
in spite of the likelihood normalization stage, due to the sic,” JASA, vol. 119, no. 4, pp. 2498–2517, 2006.
sensitivity of the ML approach to the variable number of
frequency parameters that depends on F0 candidates. [9] S. M. Kay, Fundamentals of Statistical Signal
Processing: Estimation Theory, Prentice-Hall, Engle-
5. CONCLUSIONS wood Cliffs, NJ, USA, 1993.

[10] N. H. Fletcher and T. D. Rossing, The Physics of Mu-


The multipitch estimation task has been performed here
sical Instruments, Springer, 1998.
through a Maximum Likelihood approach. It consists in
modeling notes and residual noise by AR and MA mod- [11] T. Nishimura M. Goto, H. Hashiguchi and R. Oka,
els, and results in a criterion on their spectral flatness af- “RWC music database: Music genre database and mu-
ter a whitening process based on the models. The method sical instrument sound database,” in Proc. of ISMIR,
has been validated by satisfying experimental results for Baltimore, Maryland, USA, 2003, pp. 229–230.
polyphony one to three.
Future works will deal with managing the overlap be-

DAFX-6
A PARAMETRIC METHOD FOR PITCH ESTIMATION OF PIANO TONES

Valentin EMIYA, Bertrand DAVID, Roland BADEAU

Ecole Nationale Supérieure des Télécommunications - Département TSI


46 rue Barrault, 75634 PARIS cedex 13 - France

ABSTRACT damping factor and initial phase. So far, the other part of the sound,
The ef ciency of most pitch estimation methods declines when the including the ambient noise, transients, etc. has not been used in
analyzed frame is shortened and/or when a wide fundamental fre- the F0 estimation task, as far as the authors know. Therefore, the
quency (F0 ) range is targeted. The technique proposed herein jointly preliminary task in the F0 estimation method we present consists
uses a periodicity analysis and a spectral matching process to im- in extracting the parameters of components. The F0 estimator then
prove the F0 estimation performance in such an adverse context: includes a spectral function and a temporal function. The parametric
a 60ms-long data frame together with the whole, 71 /4 -octaves, pi- approach enables to take into account the inharmonicity of sounds
ano tessitura. The enhancements are obtained thanks to a parametric both in time and frequency domains and to optimize the precision of
approach which, among other things, models the inharmonicity of the F0 numeric estimation.
piano tones. The performance of the algorithm is assessed, is com- The F0 estimation system is described in section 2. Evaluation
pared to the results obtained from other estimators and is discussed results and comparisons with other algorithms are then detailed in
in order to characterize their behavior and typical misestimations. section 3 and conclusions are nally presented in section 4.

Index Terms— audio processing, pitch estimation


2. PITCH ESTIMATION SYSTEM

1. INTRODUCTION 2.1. High Resolution analysis

Numerous methods dedicated to fundamental frequency (F0 ) esti- The Na -length analyzed waveform is modeled by:
mation of periodic signals try to extract the signal self-similarities K
X
by maximizing a function of time or frequency. In this manner, s(t) = αk zkt + w(t) (1)
they measure a degree of internal resemblance in the waveform k=1
(ACF [1, 2], AMDF [3, 4], cepstrum [5]) or in the spectrum [6].
When processing real world musical sounds, these techniques are de ned for t ∈ J0, Na − 1K and composed of a sum of K
confronted to deviations from the theoretical model, such as the pres- exponentially-modulated sinusoids αk zkt , k ∈ J1, KK with complex
ence of noise, which can be both stationary and non stationary, or the amplitudes αk = Ak eiΦk ∈ C∗ , (Ak being the real, positive am-
possibly non-uniform distribution of the harmonics. plitude and Φk the initial phase), and distinct poles zk = edk +i2πfk
The development and applications of the quoted methods often (fk being the frequency and dk the damping factor), plus an addi-
deal with an extension to subband processing [2, 7], to an optimiza- tive colored noise w(t). This section details how the signal is pre-
tion of the main function [4, 7] or to the joint use of both time and processed, how poles zk are then estimated via the ESPRIT (Esti-
frequency domains [8]. Typical errors that usually occur give a gen- mation of Signal Parameters via Rotational Invariance Techniques)
eral idea of the dif culties the F0 estimation task must cope with. algorithm [10], and how amplitudes αk are nally extracted.
Temporal or spectral methods tend to make sub-octave or octave er- Preprocessing. A two-step preprocessing stage is applied to the
rors respectively. Both of them come up against dif culties like a signal sampled at 32 kHz:
large F0 search range (e.g. 27-4200 Hz for the piano), non-regular 1. The cubic computational cost of the ESPRIT algorithm is
spectral envelopes and inharmonic deviations of the frequency com- reduced when the number of poles to be estimated is low.
ponents [6, 9]. In addition, a short analysis frame prevents spectral This is achieved by using a lter bank. The signal is splitted
methods from resolving components for low F0 values whereas the into D = 32 subbands with width 500-Hz by using cosine-
uniformely-distributed discrete time scale used by temporal methods modulated lters [11]. The order of magnitude of the com-
makes the estimation fail above some F0 limit. putational cost drops from Na3 to Na3 /D2 (Na3 /D3 per band)
The new F0 estimation algorithm we describe aims at enhancing leading to a satisfactory processing time for the analysis bloc.
F0 estimation results in the case of a short analysis window and a 2. Components of piano sounds are particularly well represented
large F0 search range. We will focus on piano sounds since they by the exponential sinusoidal plus noise model introduced
present all the listed dif culties and usually cause one of the worst in (1). However, the ESPRIT algorithm only applies to the re-
estimation error rates per instrument (e.g. see [8]). The pitch of a strictive case of white noise. Thus, the second preprocessing
harmonic or quasi-harmonic sound is an attribute that only depends step consists in whitening the noise in each subband thanks
on the sinusoidal components of the signal. Thus a F0 estimator only to an AR lter estimated on the smoothed spectrum of the
requires the parameters of components such as frequency, amplitude, signal.
The research leading to this paper was supported by the French GIP ANR ESPRIT algorithm. The signal in each preprocessed subband
under contract ANR-06-JCJC-0027-01, Décomposition en Éléments Sonores is a sum of exponentially-modulated sinusoids plus white noise. As-
et Applications Musicales - DESAM suming the number of poles is known, the ESPRIT algorithm [10]

&"$#$$"'(#)"&*'(*+#',''!-#''(! ... !"!#$% /0112!#''(


gives an estimation of those poles. The method is based on a sub-
space projection on the so-called signal subspace and bene ts from 2500
the rotational invariance property of this signal subspace. 2000
Estimation of the number of poles. In the current application,
the number of poles in each subband is not known a priori and thus 1500

,k
0
gf
must be estimated. The ESTER [12] algorithm establishes a cri- 1000
terion J(p) that provides an estimation of the number of poles as
argmaxp∈P (J(p) > δJ ), P being the set of candidates for the num- 500
ber of poles and δJ a threshold tuned to δJ = 10 in the current study.
0
The result obtained by this method is either correctly estimated, or 0 1000 2000 3000 4000
slightly over-estimated. As shown in [12], the latter case is not dis- f
k
turbing for the ESPRIT analysis, and weak amplitudes are estimated
for the spurious poles. Fig. 1. At any given F0 , the frequencies fk are remapped to gf0 ,k ,
Estimation of amplitudes. Once the poles extracted, ampli- leading to a harmonic distribution for the actual F0 . One theoretical
tudes are estimated by a least squares algorithm applied to the sub- partial over 5 is represented with f0 = 27.5Hz and β = 2.54e − 4.
band signal. The effects of the preprocessing stage on the ampli-
tudes in each subband are corrected by applying the inverse lters
of the various preprocessing steps – whitening, lter bank and pre-
where β (f0 ) is an approximative inharmonicity coef cient for fun-
emphasis lter series –, leading to the estimation of the amplitudes
damental frequency f0 averaged from the results presented in [13,
αk , k ∈ J1, KK.
pp. 365]. The assumed partial order h (f0 , fk ) associated to fre-
quency fk is extracted from the inharmonicity law:
2.2. Pitch estimation
r
A temporal method and a spectral method are rst introduced. Al- f2
(1 − β (f0 ))2 + 4β (f0 ) k
f02
− 1 + β (f0 )
though each one could account for a F0 estimator, they are jointly 2
used in the same manner as in [8] to obtain the whole, more ef cient h (f0 , fk ) = (5)
2β (f0 )
estimator detailed in the last part.
As the remapping process causes the remapped frequencies
2.2.1. Temporal method gf0 ,k of the partials to be perfect multiples of the actual fundamental
frequency f0 , we replace fk with g 1 ,k in (2) to obtain a temporal
Periodicity is often analyzed by assuming the signal is an observa- τ
1
tion of a real, wide-sense stationary (WSS) process y and by estimat- function Rinh (τ ) for piano tones which is maximum for τ = f0
:
ing its autocovariance function Ry (τ ) = E [y(t)y(t + τ )]. When
K
the signal is periodic, the maxima of Ry (τ ) are located at τ = 0 and X  
at every multiple of the period. Let us consider a real, WSS process Rinh (τ ) = pk cos 2πg 1 ,k τ (6)
τ
y composed of K undamped sinusoids with frequencies νk , real am- k=1
plitudes 2ak , initial phases ϕk , which are assumed to be independant
and uniformely distributed along [0, 2π[. The autocovariance func- 2.2.2. Spectral method
PK
tion of y is Ry (τ ) = k=1 2a2k cos (2πνk τ )+δ(τ )σw 2
y
. Therefore
we can de ne a temporal function R(τ ) for F0 estimation from the A parametric amplitude spectrum is designed from the estimates of
parameters estimated by the high resolution analysis: frequencies fk and energies Ek of components k ∈ J1, KK. It is
composed of a sum of K gaussian curves centered in fk with con-
K
X stant standard deviation σ, weighted by the square root of the com-
R(τ ) = pk cos (2πfk τ ) (2) ponent energies as average amplitudes:
k=1
( K √
|αk |2 if |zk | = 1 X Ek −
(f −fk )2
pk = |αk |2 1−|zk |2Na (3) S(f ) = √ e 2σ 2 (7)
Na 1−|zk |2
otherwise k=1
2πσ

k)
where τ > 0, fk = arg(z 2π
is the normalized frequency of compo- σ is set to f0min /4 where f0min is the lower bound of the F0 search
nent k, and the instantaneous power pk is an estimate of coef cient range in order to prevent overlap between successive partials.
2a2k over the analysis frame. Our spectral estimator U (f ) relies on maximizing a scalar prod-
In the case of a slightly inharmonic sound, the frequency devi- uct between the parametric amplitude spectrum and theoretical har-
ation weakens or even removes the maxima of R(τ ) at the multi- monic unitary patterns of F0 candidates:
ples of the period. The inharmonicity law [13] for a piano tone of
fundamental frequencyp f0 causes partial h not to be located at fre- Hf
X
quency hf0 but at hf0 1 + β(h2 − 1), β being the inharmonicity U (f ) = wf,h S (hf ) (8)
coef cient of the note. As illustrated in g. 1, this frequency stretch- h=1
ing may be inversed by remapping the set of estimated frequencies
{fk , k ∈ J1, KK} to a set of frequencies {gf0 ,k , k ∈ J1, KK}: where Hf is the maximum number of partials possible for funda-
mental frequency f and {wf,h , h ∈ J1, Hf K} is the pattern associ-
fk ated to f . The choice of the pattern is based on an approximative
gf0 ,k = p (4)
1 + β (f0 ) (h2 (f0 , fk ) − 1) logarithmic spectral decrease of components. The slope p of a linear

!"!#$%
bene t from this phenomenon is described in [8]. It consists in mul-
3 tiplying a temporal and a spectral function on a common F0 scale in
x 10
3 order to preserve common peaks from both functions and to remove
or attenuate other peaks (see g. 2). Thus, the pitch
 is estimated by
2
maximizing the product of the methods Rinh f1 and Uinh (f ):
S(f)

1    
1
0 fˆ0 = argmaxf Rinh Uinh (f ) (11)
10
2
10
3
f
3
x 10 
4 Thanks to the analytic expressions (6) and (10), Rinh f1 and
Uinh (f ) can be directly evaluated for any f value. As the F0 distrib-
Uinh(f)

2 ution of an equal-tempered musical scale is logarithmic, the F0 -scale


support is set to Nf points logarithmically spaced in the F0 -search
0 range. This unconstrained choice is a key advantage of the method
2 3
10 10 since the logarithmic F0 distribution is not offered by many methods
3
x 10 (see [4, 8]). Actually, temporal methods have a linearly distributed
10
time scale, which results in a lack of precision in high frequency and
Rinh(1/f)

5 too much resolution in low frequency, whereas Fourier-based spec-


tral methods have a linear F0 distribution. In those cases, the esti-
0
mation function must often be interpolated to achieve the required
5 2 3
precision and may still suffer from this.
10 10 In a Matlab implementation on a 2.4GHz-CPU, the overall
5
x 10 processing of a 60ms frame averages 6.5s. About 1s is necessary
2
Rinh(1/f) Uinh(f)

for the analysis. About 95% of the remaining time is required by the
1 spectral F0 estimator and may be optimized and written in C for a
0 computationally-ef cient implementation.
1 2 3
10 10 3. EVALUATION
f (Hz)
The algorithm has been evaluated on isolated piano tones from var-
ious sources: 3168 notes from three pianos of RWC database [14],
270 notes from ve pianos of a PROSONUS database and 264 notes
Fig. 2. From top to bottom, on a logarithmic frequency scale: para-
from a Yamaha upright piano of a private database. All record-
metric spectrum, spectral estimation function Uinh (f ), remapped
ings include several takes of all the 88 notes of piano range (except
temporal estimation function Rinh f1 , joint F0 estimation function. PROSONUS in which notes are spaced by fourth) with a varying
Functions result from the 60 ms analysis of a D3 piano note. loudness. RWC samples also offer various play modes (normal, stac-
cato, with pedal). The F0 search scale is composed of Nf = 8192
√ values logarithmically distributed between f0min = 26.73 Hz and
regression between log( Ek ) and fk is extracted and weights wf,h f0max = 4310 Hz. The estimation is performed after the analysis of
are then de ned as: a single 60 ms or 93 ms frame: 60 ms is quite a challenging frame
wf,h = w0 ephf (9) length since it is below twice the period of lowest notes while 93 ms
is a well spread duration for this kind of evaluation. Each estimated
P − 12 F0 is associated to the closest note in the equal tempered scale with
Hf
where w0 = h=1 e2phf is a normalizing term such that A4 tuned to 440 Hz. Errors are then de ned as incorrect note esti-
PHf 2 mations. The method is compared to two estimators. The rst one is
h=1 wf,h = 1.
The spectral estimator is then adapted to piano tones by selecting as similar to our estimator as possible, replacing the ESPRIT analy-
the values of the spectrum on an inharmonic stretched scale instead sis stage with a classical analysis: the ACF is estimated  from the
−1 2
of a harmonic scale: signal by the formula r(τ ) = NN a
a −τ
DFT |DFT [s]| , the factor
Na
Hf Na −τ
being a correction of the bias; the spectral estimator Uinh (f0 )
X  p  is computed by replacing the parametric spectrum with the modulus
Uinh (f ) = wf,h S hf 1 + β(f ) (h2 − 1) (10) of the DFT of the signal, using a zero-padding on 8Nf points; r(τ )
h=1 is mapped to the frequency scale by interpolation as described in [8];
Finally, the estimator ef ciency can be improved by ignoring all the pitch is nally estimated by maximizing the product between the
frequencies and weights below a cut-off frequency of 100 Hz since spectral function and the remapped r(τ ). The second method is the
the impedance at the piano bridge [13] causes a signi cant devia- YIN algorithm [4] which is considered as a very ef cient monopitch
tion of low frequencies from the inharmonicity law and the highest estimator. We used the code available on the authors’ website.
weigths wf,h of patterns are allocated to those frequencies. Evaluation results are reported in g. 3. At the target window
length of 60 ms, the global error rate of our estimator is around
2.2.3. Pitch estimator 4.4% which is at least twice better than the other estimators. This
is due to a low error rate on a large F0 range (1.1% in the F0 range
As mentioned in the introduction, sub-harmonic and harmonic er- 65 − 2000 Hz) and slowly increasing values at the very bass and tre-
ror trends are opposed in temporal and spectral methods. A way to ble limits. In comparison, the non-ESPRIT based estimator achieves

!"!#$%
Octave averaged error rates (analysis on 60 ms) to 14.1%.
70 Parametric f0 estimator (mean: 4.4%)
60
Non parametric f0 estimator (mean: 15.5%) 4. CONCLUSIONS
YIN estimator (mean: 11.0%)
error rate (%)

50 The F0 estimator designed in this paper enables to address typical


40 error trends in a short frame analysis and a wide F0 -range context.
It is based on a preliminary extraction of the parameters of compo-
30
nents and on the design of temporal and spectral parametric function.
20 Satisfying performances have been obtained and a large part was al-
10 located to the discussion on typical errors and the way to avoid them.
0
30 40 50 60 70 80 90 100 5. REFERENCES
MIDI

Octave averaged error rates (analysis on 93 ms) [1] L. Rabiner, “On the use of autocorrelation analysis for pitch
detection,” IEEE Trans. on Acoustics, Speech, and Signal
70 Parametric f0 estimator (mean: 2.4%)
Processing, vol. 25, no. 1, pp. 24–33, 1977.
Non parametric f0 estimator (mean: 3.0%)
60 [2] Ray Meddis and Michael J. Hewitt, “Virtual pitch and phase
YIN estimator (mean: 11.0%)
sensitivity of a computer model of the auditory periphery. I:
error rate (%)

50

40
Pitch identi cation,” JASA, vol. 89, no. 6, pp. 2866–2882,
1991.
30
[3] M. Ross, H. Shaffer, A. Cohen, R. Freudberg, and H. Manley,
20 “Average magnitude difference function pitch extractor,” IEEE
10 Trans. on Acoustics, Speech, and Signal Processing, vol. 22,
no. 5, pp. 353–362, 1974.
0
30 40 50 60 70 80 90 100 [4] A. de Cheveigne and H. Kawahara, “YIN, a fundamental fre-
MIDI
quency estimator for speech and music,” JASA, vol. 111, no. 4,
pp. 1917–1930, 2002.
Fig. 3. Octave-averaged error rates per note with two different frame [5] A. Michael Noll, “Cepstrum pitch determination,” JASA, vol.
lengths, for the parametric F0 estimator and two other methods: a 41, no. 2, pp. 293–309, 1967.
similar but non-parametric algorithm and the YIN estimator
[6] A.P. Klapuri, “Multiple fundamental frequency estimation
based on harmonicity and spectral smoothness,” IEEE Trans.
on Speech and Audio Processing, vol. 11, no. 6, pp. 804–816,
a 1.1% error rate in the range 240 − 2000 Hz. Its low ef ciency November 2003.
outside this range shows how the F0 estimation is improved by both [7] A.P. Klapuri, “A perceptually motivated multiple-f0 estimation
the high resolution analysis and the handling of parametric, analytic method,” in Proc. of WASPAA, New Paltz, NY, USA, October
formulas. The YIN algorithm is slightly less ef cient in the medium 2005, IEEE, pp. 291– 294.
range than our estimator and has similar results in the bass range (for
[8] G. Peeters, “Music pitch representation by periodicity mea-
the rst octave both curves should be at the same level, but our es-
sures based on combined temporal and spectral representa-
timator results seem to be worse since they include the lowest four
tions,” in Proc. of ICASSP 2006, Paris, France, May 14-29
note error rates that cannot be estimated by the YIN algorithm with a
2006, IEEE, vol. 5, pp. 53–56.
60 ms window length). In the high range, it shows a quite high error
rate, which is a typical behavior of temporal methods. Global results [9] S. Godsill and M. Davy, “Bayesian computational models for
are improved with a 93 ms frame length. Nevertheless, the high res- inharmonicity in musical instruments,” in Proc. of WASPAA,
olution analysis does not enhance signi catively the F0 estimation New Paltz, NY, USA, October 2005, IEEE, pp. 283– 286.
even if its error rate remains the lowest. [10] R. Roy, A. Paulraj, and T. Kailath, “ESPRIT–a subspace rota-
Typical errors are now discussed, in the 60 ms analysis case. As tion approach to estimation of parameters of cisoids in noise,”
expected, usual errors are under-estimations of high f0s and over- IEEE Trans. on Acoustics, Speech, and Signal Processing, vol.
estimations of low f0s. Around 18% of errors made by each al- 34, no. 5, pp. 1340–1342, 1986.
gorithm are octave and suboctave errors. In the case of our al- [11] P. P. Vaidyanathan, Multirate systems and lter banks, Engle-
gorithm, the remaining error intervals are of all kinds, with only woods Cliffs, NJ, USA: Prentice Hall, 1993.
5% that are half-tone errors, whereas this rate reaches 10% for [12] R. Badeau, B. David, and G. Richard, “A new perturbation
the other two algorithms. The YIN algorithm makes a high pro- analysis for signal enumeration in rotational invariance tech-
portion of sub-harmonic errors (13% are sub-octaves, 8% are sub- niques,” IEEE Trans. on Signal Processing, vol. 54, no. 2, pp.
nineteenth). Thus, even if our algorithm makes a reduced number of 450–458, February 2006.
harmonic/subharmonic errors, those errors remain dif cult to avoid. [13] N. H. Fletcher and T. D. Rossing, The Physics of Musical In-
Half-tone error rates show the ef ciency of our method while the struments, Springer, 1998.
other algorithms suffer from a lack of precision of temporal estima-
[14] T. Nishimura M. Goto, H. Hashiguchi and R. Oka, “RWC
tors for high F0 . Finally, the inharmonicity management contributes
music database: Music genre database and musical instrument
to lower the global error rate, from 4.9 to 4.4% in the 60-ms frame
sound database,” in Proc. of ISMIR, Baltimore, Maryland,
case. As expected, the improvement is localized in the lowest F0
USA, 2003, pp. 229–230.
range: the error rate in the MIDI range J21, 37K decreases from 16.6

!"!#$#
Audio Engineering Society

Convention Paper
Presented at the 120th Convention
2006 May 20–23 Paris, France

This convention paper has been reproduced from the author’s advance manuscript, without editing, corrections, or
consideration by the Review Board. The AES takes no responsibility for the contents. Additional papers may be
obtained by sending request and remittance to Audio Engineering Society, 60 East 42nd Street, New York, New York
10165-2520, USA; also see www.aes.org. All rights reserved. Reproduction of this paper, or any portion thereof, is
not permitted without direct permission from the Journal of the Audio Engineering Society.

Harmonic plus noise decomposition:


time-frequency reassignment versus a
subspace based method
Bertrand David1 , Valentin Emiya1 , Roland Badeau1 and Yves Grenier1
1
ENST, dept TSI, 46 rue Barrault, 75634 Paris Cedex 13, France
Correspondence should be addressed to Bertrand David (bertrand.david@enst.fr)

ABSTRACT
This work deals with the Harmonic+Noise decomposition and, as targeted application, to extract transient
background noise surrounded by a signal having a strong harmonic content (speech for instance). In that
perspective, a method based on the reassigned spectrum and a High Resolution subspace tracker are com-
pared, both on simulations and in a more realistic manner. The reassignment re-localizes the time-frequency
energy around a given pair (analysis time index, analysis frequency bin) while the High Resolution method
benefits from a characterization of the signal in terms of a space spanned by the harmonic content and a
space spanned by the stochastic content. Both methods are adaptive and the estimations are updated from
a sample to the next.

1. INTRODUCTION More precisely, the model is that of M slowly varying


complex exponentials, hence encompasses the case
In the context of musical signal processing [1], or au- of real data, summed with a stochastic process [3],
dio coding (cf. MPEG4-HILN coder), or in the case written down as:
of some specific forensic application where extract- M
ing weak audio transients buried in a sinusoidal fore-
X
s(t) = bk (t) exp(jΦk (t)) + w(t), (1)
ground [2] is intended, one may need to efficiently k=1
decompose the signal into a sinusoidal part (also de-
nominated as the harmonic part, or the determinis- where t ∈ Z denotes the discrete time index, M the
tic part) and a noisy part (also denominated as the order of the model —e.g. the number of complex
stochastic part or the residual). exponentials, being even, M = 2P , when data is
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

composed of P real sinusoids —, bk (t) ≥ 0 the mod- 2. HARMONIC+NOISE DECOMPOSITION


ulation law relative to the kth component magni- WITH REASSIGNED SPECTRUM
tude (real). Φk (t) is the instantaneous phase of the
2.1. Principles
component and is bound up to its instantaneous fre-
quency fk (t) by differentiation: Reassignment operators [5] . The derivation of
the so-called reassignment operators in time and fre-
Φk (t)′ = 2πfk (t). (2) quency relies on the continuous time definition of
the Short Time Fourier Transform (STFT). Let be
Note that the frequencies are not assumed to be sa (t), t ∈ R, the analyzed signal, the associated
multiples of some fundamental. The stochastic pro- STFT is formulated as:
Z
cess w(t) may describe several kinds of physical sig- ˜
Sa (τ, f ) = sa (t)h(t − τ )e−j2πf t dt (3)
nals : background measurement noise, turbulence t∈R
noise imputable to air friction when dealing with
wind instruments or voice, impulse-shaped, tran- When facing the problem of localizing amplitude and
sient noise when processing for instance the onset frequency-modulated sinusoids, the performance
of a piano or a percussion sound. limitation is mainly due to the window length and its
spectral width (of referred to as the time-frequency
Estimation of the model. Since the instanta- box). The reassignment tries to overcome this
neous amplitudes and frequencies bk ’s and fk ’s are Fourier-related constraint using the STFT phase in-
expected to be varying, both the parameters of formation. The STFT is now rewritten in terms of
the sinusoidal part and the statistical properties of magnitude and phase:
the stochastic process may be considered as non- S˜a (τ, f ) = M (τ, f )ejϕ(τ,f ) . (4)
stationary. To overcome this difficulty, most meth-
ods (cf. [3, 4]) tend to use a sequential estimation The reassignment operators are derived from the
technique applied on overlapping segments of finite partial derivatives of ϕ(t, f ) with respect to each
length along which a definite sinusoidal model is es- of its variables, leading respectively to the instan-
timated. For instance, the phase is often taken as a taneous frequency
polynomial of low degree (typ. 1 or 2) in the variable
t. The process w(t) is obtained as a residual, by sub- 1 ∂ϕ(τ, f )
Fi (τ, f ) = , (5)
tracting the estimated deterministic part. A broad 2π ∂τ
bulk of existing algorithms relies on a time-frequency and to the group delay
analysis of the signal, facing the challenging trade-
off of shortening the segments for more adequation 1 ∂ϕ(τ, f )
Tg (τ, f ) = − . (6)
to the assumption of stationarity while loosing fre- 2π ∂f
quency resolution and hence, leading to poor esti- These equations are often interpreted as follows.
mates. When considering the energy M (τ0 , f0 )2 spread
around a given point (τ0 , f0 ) of the time-frequency
In this paper, both answers to this issue con-
plane, its centroid is the point of normalized fre-
cerning harmonic plus noise decomposition are com-
quency Fi (τ0 , f0 ) and discrete time τ0 + Tg (τ0 , f0 ).
pared: one is based on the reassigned spectrum [5]
Each energy coefficient is said to be reassigned to
and the second one is an adaptive subspace based
this centroid. The time-frequency content of the sig-
analysis. The methods are described separately in
nal is then re-mapped on the plane.
the following sections while the results are demon-
strated afterward. More specifically, this work fo- 2.2. Discrete-time implementation
cuses on the ability of each method to extract The Short Time Fourier Transform (STFT) of the
the noise part while preserving its spectro-temporal sampled data sequence s(t), t ∈ Z is defined as
shape. Clues on frequency estimation performance τ +N
X−1
can be found in [6, 7, 8] and are not in the scope of S̃(τ, νk ) = s(t)h(t − τ )e−j2πνk t , (7)
this work. t=τ

AES 120th Convention, Paris, France, 2006 May 20–23


Page 2 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

where τ ∈ Z is the analysis time lag, νk = k/K the the STFT respectively windowed by WNt uN (t) and
frequency bin and h(t) the window applied, assumed WN−t uN (t).
to be of finite length N . The order K of the trans-
form has to be greater or equal to N , and is chosen Defining the simple increment
as K = 2N in our practical implementations. The
STFT is then rewritten in its polar form as ∆s(τ, k) = e−j2πνk τ ( (−1)k s(τ + N ) − x(τ ) ), (11)

S̃(τ, νk ) = M (τ, νk )ejϕ(τ,νk ) . (8) an update of each STFT is readily obtained as



 S̃0 (τ + 1, νk ) = S̃0 (τ, νk ) + ∆s(τ, k)
To approximate the continuous variable derivatives S̃ (τ + 1, νk ) = S̃1 (τ, νk ) + WN−1 ∆s(τ, k) (12)
needed in equations (5) and (6) in the context of  1
S̃2 (τ + 1, νk ) = S̃2 (τ, νk ) + WN ∆s(τ, k)
numerical processing, a numerical filter is used. This
filter can be for instance designed with the help of The update of the whole STFT then results from the
a Remez-Parks-McLellan algorithm for linear phase equation (10).
Finite Impulse Response (FIR) filter. In this work,
a different technique is employed, the starting point Harmonic+noise decomposition
of which is a polynomial fitting of the sequence [9].
The reassignment principles have been applied for
ϕ(τ, νk ) is then extracted and unwrapped for each enhancing the time-frequency representation, for fre-
channel k and derivated to obtain the instantaneous quency estimation [5, 12] and also for source/filter
frequency Fi (τ, k). The same procedure is applied modeling in speech processing [13]. As the formu-
along the frequency axis, yielding the group delay lae 5 and 6 cited above result in the precise local-
Tg (τ, k). ization of the frequency estimates, a reconstruction
technique is to be determined to extract the har-
Adaptive computation. The algorithm is in-
monic part on one side and the noise on the other.
tended to work with a hop size of only one sample
As in many other works, the former is obtained at
((N −1)−samples overlap). To lower the complexity
first and subtracted afterward from the original to
from the well-known O(N log(N )) cost per sample
get the latter.
to a linear one (O(N )) the STFT derivation is made
adaptive [10, 11]. This gain benefits from the fact For a given segment of analyzed data located in the
that a number of common windows are built with interval [τ, τ + N − 1], the Harmonic part of the
sines and thus, can be written as a sum of geometric signal is computed following the steps:
sequences of the complex exponential form.
Let for instance the window h(t) be the Hann win- 1. STFT computation and peak-picking of its
dow: magnitude,
1 2π
h(t) = ( 1 − cos( t) ). (9)
2 N 2. derivation of Fi (τ, k) and Tg (τ, k) for each peak
This is rewritten as k,
1 1 3. selection among this collection of peaks of the
h(t) = (1 − (WNt + WN−t )), t ∈ [0, N − 1],
2 2 bins l where the instantaneous frequency and
the bin frequency match, i.e Fi must lie in the
where WN = ej2π/N , which leads to a decomposition
vicinity of the frequency center of the channel,
of the STFT:
for instance:
S̃(τ, νk ) = 0.5S̃0 (τ, νk ) − 0.25( S̃1 (τ, νk ) + S̃2 (τ, νk ) ), 3
(10) |Fi (τ, l) − l/K| < (1/2K). (13)
2
where S̃0 (τ, νk ) is the STFT using the rectangular
window uN (t) = 1, t ∈ [0, N − 1] and uN (t) = This stage can be post-processed by a median
0 otherwise, and where S̃1 (τ, νk ) and S̃2 (τ, νk ) are filtering to remove isolated points,

AES 120th Convention, Paris, France, 2006 May 20–23


Page 3 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

4. for each selected bin l, a complex exponential where the zk ’s, k = 0, 1, . . . , M − 1, are the com-
at the frequency Fi (τ, l) is computed with an plex poles of the signal and bk ’s the associated com-
amplitude taking into account the phase and plex amplitudes. More precisely, zk = exp(δk +
amplitude distorsion due to windowing at the j2πνk ) where δk ∈ R is the damping or grow-
frequency Fi (τ, l), ing factor and νk ∈ [−0.5 0.5] is the normalized
frequency. Expanding this definition to the vec-
5. the synthetized component is added to the out-
tor of the n (n ≥ M ) subsequent samples x =
put segment, windowed by a Hann window cen-  T
tered on the time-instant τ + N/2 + Tg (τ, l). x(0) x(1) . . . x(n − 1) leads to the matrix
expression :
It is worth making mention here that the Hann x = Vb, (17)
window utilized for the synthesis is not of constant  T
where b = b0 b1 . . . bM −1 and V is the Van-
length, since it depends on the reallocation time in
dermonde matrix defined as:
the analyzed interval. Let Lh (τ, l) be this length,  
this is expressed as: 1 1 ... 1
 z0 z1 . . . zM −1 
Lh (τ, l) = N − 2|Tg (τ, l)|. (14)  2
 z0 z 2 2
. . . zM

V= 1 (18)

−1 
In addition, for approaching perfect reconstruction,  .. .. .. .. 
 . . . . 
the synthesis window hs (t) is weighted by the factor n−1 n−1 n−1
PLh −1 z0 z1 . . . zM −1
( t=0 hs (t) )−1 to be made unitary.
Once the steps 1-5 have been repeated all along the For M distinct poles, the M vectors
analyzed signal, the harmonic part sh (t) is derived. {v(zk )}k=0,1,...,M −1 , defined as the column vectors
T
of the matrix V, v(zk ) = 1 zk . . . zkn−1 , are

The noise part is then deducted as:
linearly independant. Thus the range space of V is
sn (t) = s(t) − sh (t) (15) of dimension M . In short, a vector of n subsequent
samples of a signal combining linearly M complex
3. ADAPTIVE HIGH RESOLUTION HNM DE- exponential belongs to a M dimensional subspace,
COMPOSITION the so-called signal subspace. When dealing with
Since the end of the 18th century [14, 15], Fourier a noisy signal model : s(t) = x(t) + w(t), the
 T
analysis and High Resolution (HR) methods have vector s = s(0) s(1) . . . s(n − 1) belongs to
been both complementary and competitors. While a n-dimensional subspace. Under the hypothesis
the former developed into the prominent tool in the of a Wide Sense Stationary (WSS) white noise,
field of the spectral analysis, the latter has revealed this subspace can be decomposed as the direct
himself in the two last decades to be one of the most sum of the M -dimensional signal subspace and its
valuable estimation technique in the so-called Di- orthogonal complementary, of dimension n − M ,
rection Of Arrival problem [16]. Notwithstanding referred to as the noise subspace.
its remarkable resolution properties, its use remains Harmonic+noise decomposition. Let W be a
marginal in audio processing tasks, even though the n × M matrix, conveniently chosen as orthonor-
underlying model is well adapted for tracking slow mal, whose range space is the signal subspace. The
varying line spectra [17]. projection matrices onto the signal subspace and
3.1. Theoretical background onto the noise subspace are thus respectively Ps =
Subspace analysis. Subspace decomposition is WWH and Pn = I − Ps , where the subscript H
the theoretical foundation of a number of methods denotes the hermitian transpose. For a given vector
(Pisarenko [18], MUSIC [19], Matrix Pencil [7], ES- of data s, the harmonic part is then obtained by:
PRIT [20]). The subspace analysis relies on the fol- sh = Ps s (19)
lowing remark. Let x(t), t ∈ Z be a complex signal,
linear combination of M complex exponentials: while the noise part is the reminder:
x(t) = b0 z0t + b1 z1t + . . . + bM −1 zM
t
−1 , (16) sn = Pn s (20)

AES 120th Convention, Paris, France, 2006 May 20–23


Page 4 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

These expressions need two remarks: 1. pre-emphasis of the entire signal,

• even in the ideal case of stable signal compo- 2. subband decomposition,


nents (neither amplitude nor frequency modu-
3. whitening in each subband.
lation) and WSS white noise, this decomposi-
tion does not lead to sh (t) = x(t), simply be-
cause considering a noise vector of n subsequent Pre-emphasis and whitening. The first and
samples w, this vector usually belongs to a n- third preprocessing steps are based on the same prin-
dimensional space in which the noise subspace ciple. The Power Spectral Density (PSD) of the con-
as defined above is included; sidered sequence is estimated (for instance by means
of a Welch-averaged periodogram) and an estimator
• neither estimation of the parameters (frequen- of the noise PSD is derived as the non-linear median
cies, damping factors, amplitudes) has to be filtering of it. The corresponding AR coefficients are
made explicitly. computed for a pre-defined model order K. As the
aim of the pre-emphasis is a spectrum detrending, a
Tracking of W. In a number of methods, a matrix low order K is chosen for the first step. In each sub-
W, the columns of which form a basis of the signal band, on the contrary, K will be of order 10 to 20,
subspace, is derived by means of a Singular Value for the noise coloration must be drastically reduced.
Decomposition of the covariance matrix Css of the An exemple of the pre-emphasis of voice segment is
data. Conversely, the subspace method used in this given in figure 1. The original signal has then been
work is adaptive, referred to as the Fast Approxi- filtered by a Finite Impulse Response (FIR) filter of
mated Power Iteration in the literature [21]. Start- length 5 to obtain the pre-emphasized signal.
ing from a rank one update of the covariance matrix,
Power Spectral Density
Css (t) = βCss (t − 1) + s(t)s(t)T , (21) 0
original
AR−model
filtered
where β < 1 is a real positive forgetting factor and −10
 T
s(t) = s(t) s(t + 1) . . . s(t + n − 1) , it con-
duces in 3nM + O(M 2 ) operations1 to a rank one −20

update of the form:


magnitude (dB)

−30
H
W(t) = W(t − 1) + e(t)g(t) (22)
−40

where e(t) and g(t) are column vectors. The whole


description of the algorithm is beyond the scope of −50

this paper and can be found in [21].


−60
3.2. Preprocessing
As the method relies on a model comprehending −70
0 1000 2000 3000 4000 5000 6000
an additive white stationary noise process, its per- frequency (Hz)

formances lower when dealing with real signals the


stochastic part of which is usually not white. In ad- Fig. 1: Pre-emphasis of a voice segment of one sec-
dition of the coloration of the noise, it is not rare ond length. The model order is K = 12.
in the audio field to encounter large dynamics. The
estimation of the weak harmonic components, of-
ten settled in the upper part of the spectrum as low Filter bank. The subband decomposition is com-
as 40 or 60 dB under the maximum, is then made pleted using a quasi-perfect reconstruction cosine-
dubious. The preprocessing designed for applying modulated filter bank [22]. Each subband signal is
successfully the subspace tracker described above in- maximally decimated. The adjustment of the sub-
cludes 3 steps: band number depends on the sampling frequency
1 an operation being defined as a Multiply and ACcumulate and on the density of harmonic components in the
operation, MAC. resulting subband. Usual values vary from 4 to 16.

AES 120th Convention, Paris, France, 2006 May 20–23


Page 5 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

It can be noticed that even if in this work, only uni- 2. a low fl and a high fh spectral limits are set,
form filter banks are considered, an extension to non- and a damping factor α(fl ) is defined for the
uniform ones is readily obtained by dyadic iteration. low limit, owing to which the decreasing of the
An exemple of uniform 4-subbands decomposition is process around the frequency fl is of the form
displayed on the figure 2. d(t) ∝ exp(−α(fl )t),

20
3. a damping law is given, as a power function of
frequency, i.e. α(f ) = α(fl )( ffl )p
0

−20
The whole operation is implemented by FFT-
filtering of a white stationary noise. An example
magnitude (dB)

−40
is drawn on figure 3, obtained at a sampling fre-
−60 quency of 8kHz with the following parameters: a
solely pole of 0.99 magnitude at the frequency of
−80 500 Hz, fl = 150 Hz and fh = 3500 Hz, α(fl ) = 4 s−1
and p = 1
−100

spectrogram of the noise


−120 4000
0 0.05 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5
normalized frequency
3500

Fig. 2: Cosine modulated analysis filter bank, with 3000


4 subbands.
2500
frequency (Hz)

2000

4. EXPERIMENTS 1500

The aim of this section is to demonstrate the abili-


ties of both algorithms (Reassigned Spectrum-based 1000

or Subspace-based) in the task of extracting a back- 500


ground stochastic process and especially a transient
(highly non-stationary process) from a signal includ- 0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8

ing a strong harmonic content, speech being the tar- time (s)

get example of such a kind of signal. To be able to


assess the results, a procedure for bringing into ex- Fig. 3: Time-frequency (256 pts-FFT, Hann win-
istence a non-stationary, impulsive-like process with dowed) representation of the non-stationary noise.
known characteristics has been defined. The algo-
rithms are then applied to various simulations to
give some clues on the parameters tuning according
4.2. Illustrative simulations
to the context.
All the simulations of this section include a transient
4.1. Creating a synthetic non stationary noise noise generated as described above in the section 4.1,
and a white background stationary noise around
50 dB below the maximal signal power (this cor-
The time-frequency profile of the process is defined responds to an overall Signal To Noise Ratio around
as follows. -25dB for the whole observation window). In the
following, the Fourier-based method is referred to
1. the spectrum at t = 0, the initial time instant is as RF-HND (Reassigned Fourier-Harmonic+Noise
defined with the help of a set of poles, leading Decomposition), while the Subspace analysis-based
to an AutoRegressive (AR) spectrum, method is abbreviated as HR-HND.

AES 120th Convention, Paris, France, 2006 May 20–23


Page 6 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

For each case, the time-frequency representation of 4000


noise part

the results are given, derived with a Hann windowed


256-points-FFT and jointly scaled to be comparable. 3500 −10

3000 −20
original signal
4000 0
2500 −30

frequency (Hz)
3500 −10
2000 −40

3000 −20
1500 −50

2500 −30
frequency (Hz)

1000 −60

2000 −40
500 −70

1500 −50
0
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
1000 −60
time (s)

500 −70
Fig. 5: Time-frequency representation of the noise
0 −80
part obtained by the RF-HND method.
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
time (s)

Fig. 4: Time-frequency representation of the original 4000


noise part
0

signal.
3500 −10

3000 −20
Pure Sine + noise. In this example, a 300 Hz-
sinusoid is added to the noise, leading to a signal 2500 −30
frequency (Hz)

whose time-frequency representation is given in the


2000 −40
figure 4.
1500 −50
Analysis parameters.
1000 −60

The HF-HND is applied with a window length N =


256 samples (32ms) and an order (number of fre- 500 −70

quency bins) K = 512. 0 −80


0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
time (s)
The HR-HND is applied with the parameters
preprocessing filter analysis
AR-order bank (length P , order M ) Fig. 6: Time-frequency representation of the noise
part obtained by the HR-HND decomposition.
order 12 no P = 256 (32ms)
M =1
Results and interpretation. The representation of
the noise part respectively extracted by the RF- ing the resolution capability of the RF-HND estima-
HND and the HR-HND methods is displayed in the tor. Both influences imply a notching effect on the
figures 5 and 6. whole extracted stochastic part, around the sinusoid
frequency. A manner of this effect can be observed
In both cases, a satisfying extraction of the transient on the RF-noise as a ”hole” in the transform around
noise is performed. This results from the steadiness 300 Hz.
of the sinusoidal component which matches exactly
the estimated model in both cases. Nevertheless the FM-modulated sine + noise. The sinusoid of
window length cannot be shortened without increas- this example is now modulated, leading to a 4 Hz
ing the variance of the HR-HND estimator or lessen- vibrato of a semi-tone frequency deviation. Its rep-

AES 120th Convention, Paris, France, 2006 May 20–23


Page 7 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

resentation is given in figure 7. 4000


noise part

original signal 3500 −10


4000 0

3000 −20
3500 −10

2500 −30

frequency (Hz)
3000 −20

2000 −40
2500 −30
frequency (Hz)

1500 −50
2000 −40

1000 −60
1500 −50

500 −70
1000 −60

0
500 −70 0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
time (s)

0 −80
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
time (s) Fig. 8: Time-frequency representation of the noise
part obtained by the RF-HND method.
Fig. 7: Time-frequency representation of the original
signal.
noise part
4000 0

3500 −10
Analysis parameters.
3000 −20
The HF-HND is applied with a window length N =
256 samples and an order (number of frequency bins) 2500 −30
frequency (Hz)

K = 512. 2000 −40

The HR-HND is applied with the parameters


preprocessing filter analysis 1500 −50

AR-order bank (length P , order M ) 1000 −60

order 12 no P = 512 (64ms)


M =6 500 −70

0 −80
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
Results and interpretation. The representation of time (s)

the noise part respectively extracted by the RF-


HND and the HR-HND methods is displayed in fig- Fig. 9: Time-frequency representation of the noise
ures 8 and 9. This example illustrates the different part obtained by the HR-HND decomposition.
tuning sensibility of both methods. For the RF-HND
estimator, the window length must satisfy the trade-
off between the intended resolution and the ability ulation is generated by mixing a real male speech
to track the frequency modulation. The HR-HND, utterance of the vowel ’a’ (french) with the preced-
in the contrary, uses a longer window and represents ing transient noise.
the modulation with the help of a higher model or-
Analysis parameters.
der. Similarly to the previous case, the spectral
shape of the transient noise is roughly preserved and The HF-HND is applied with a window length N =
the RF-method causes a more pronounced notching 512 samples and an order (number of frequency bins)
effect. K = 1024.
4.3. Toward a real world application The HR-HND is applied with different pa-
To approach our targeted application, this last sim- rameters of the analysis for each subband.

AES 120th Convention, Paris, France, 2006 May 20–23


Page 8 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

Original signal noise part


0

5000 5000
−10 −10

−20 −20
4000 4000

−30 −30

frequency (Hz)
frequency (Hz)

3000 3000
−40 −40

2000 −50 2000 −50

−60 −60

1000 1000

−70 −70

0 −80 0
0 0.5 1 1.5 0 0.5 1 1.5
time (s) time (s)

Fig. 10: Time-frequency representation of the origi- Fig. 11: Time-frequency representation of the noise
nal signal. part obtained by the RF-HND method.

noise part
preprocessing filter analysis 0

AR-order bank (length P , order M ) 5000


−10
order 12 4 bands P = 200, 150, 50, 40
AR12 whit. M = 40, 20, 25, 10 4000
−20

−30
Results and interpretation. The noise part extracted
frequency (Hz)

3000
by the RF-HND estimator (figure 11), has a lower −40

spectral density than that extracted by the HR-


−50
HND estimator(figure 12), especially in the upper 2000

part of the spectrum. Indeed, the subband decom- −60

position used as preprocessing of the latter allows 1000

−70
to process apart each subband: the window length
can be adjusted differently in the lower range and in 0 −80
0 0.5 1 1.5
the upper range of the spectrum, leading to a kind time (s)

of multiresolution processing. This might explain


a more prominent notching effect for the RF-HND Fig. 12: Time-frequency representation of the noise
method while the overall formantic structure of part obtained by the HR-HND method.
the voice friction noise is better preserved by the
HR-HND method. Conversely, the latter is more
sensitive to the parameter set fine tuning,
known time-frequency trade-off. Both are capable
5. CONCLUSIONS of extracting transient noise when it is reasonably
This preliminary work on the extraction of a tran- strong and when the modulations of the harmonic
sient background noise surrounded by a signal with content remain of low extent.
a strong harmonic content enlights the main dif-
ferences and abilities of both methods: one being Future work may include the tracking of the line
based on the reassigned STFT and the other being spectra as a preliminary of the resynthesis of the har-
an adaptive subspace-based estimator. Both are try- monic part and the test of non-uniform filter banks
ing to cope with the limitations related to the well- or multiresolution representations.

AES 120th Convention, Paris, France, 2006 May 20–23


Page 9 of 10
Bertrand David et al. HNM : TF-reassignment vs subspace analysis

6. REFERENCES [17] B. David, R. Badeau, and G. Richard, “HRHATRAC Al-


gorithm for Spectral Line Tracking of Musical Signals,” in
[1] G. Peeters and X. Rodet, “SINOLA: A New Analy- Proc. of ICASSP’06. Toulouse, France: IEEE, May 2006,
sis/Synthesis Method using Spectrum Peak Shape Distor- (to be published).
tion, Phase and Reassigned Spectrum,” in Proc. of ICMCs,
Beijing, China, 1999. [18] V. F. Pisarenko, “The retrieval of harmonics from a covari-
ance function,” Geophysical J. Royal Astron. Soc., vol. 33,
[2] Y. Grenier and B. David, “Extraction of weak background pp. 347–366, 1973.
transients from audio signals,” in Proc. of 114th Conven-
tion of the Audio Engineering Society (AES), Amsterdam, [19] R. O. Schmidt, “Multiple emitter location and signal param-
Netherlands, Mar. 2003. eter estimation,” IEEE Trans. Antennas Propagat., vol. 34,
no. 3, pp. 276–280, Mar. 1986.
[3] X. Serra and J. Smith, “Spectral modeling synthesis
: a sound analysis/synthesis based on a deterministic [20] R. Roy, A. Paulraj, and T. Kailath, “ESPRIT–A subspace
plus stochastic decomposition,” Computer Music Journal, rotation approach to estimation of parameters of cisoids in
vol. 14, no. 4, 1990. noise,” IEEE Trans. Acoust., Speech, Signal Processing,
vol. 34, no. 5, pp. 1340–1342, Oct. 1986.
[4] L. S. Marques and L. B. Almeida, “Frequency-varying sinu-
soidal modeling of speech,” IEEE Trans. Acoust., Speech, [21] R. Badeau, B. David, and G. Richard, “Fast Approximated
Signal Processing, vol. 37, no. 5, pp. 763–765, May 1989. Power Iteration Subspace Tracking,” IEEE Trans. Signal
Processing, vol. 53, no. 8, Aug. 2005.
[5] F. Auger and P. Flandrin, “Improving the readability of
time-frequency and time-scale representations by the reas- [22] P. P. Vaidyanathan, Multirate systems and filter banks.
signment method,” IEEE Trans. Signal Processing, vol. 43, Englewoods Cliffs, NJ, USA: Prentice Hall, 1993.
no. 5, pp. 1068–1089, 1995.

[6] C. R. Rao and L. C. Zhao, “Asymptotic behavior of maxi-


mum likelihood estimates of superimposed exponential sig-
nals,” IEEE Trans. Signal Processing, vol. 41, no. 3, pp.
1461–1464, Mar. 1993.

[7] Y. Hua and T. K. Sarkar, “Matrix pencil method for esti-


mating parameters of exponentially damped/undamped si-
nusoids in noise,” IEEE Trans. Acoust., Speech, Signal
Processing, vol. 38, no. 5, pp. 814–824, May 1990.

[8] B. G. Quinn and E. J. Hannan, The Estimation and Track-


ing of Frequency. Cambridge, UK: Cambridge University
Press, 2001.

[9] M. Dvornikov, “Formulae of numerical differentiation,” in


arXiv.org e-Print archive. arXiv.org, 2003, pp. 1–14.

[10] C. Richard and R. Lengellé, “Joint recursive implementation


of time–frequency representations and their modified version
by the reassignment method,” Signal Processing, vol. 60,
no. 2, pp. 163–179, 1997.

[11] V. Gibiat, P. Jardin, and F. Wu, “Analyse spectrale


différentielle - Application aux signaux de Myotis Mystac-
inus,” Acustica, vol. 63, pp. 90–99, 1987, in French.

[12] V. Emiya, B. David, and V. Gibiat, “Two representation


tools to analyse non-stationary sounds in a perceptual con-
text,” in Proceedings of Forum Acusticum 2005, Budapest,
Hungary, Aug. 2005.

[13] D. J. Nelson, “Cross-spectral methods for processing


speech,” The Journal of the Acoustical Society of Amer-
ica, vol. 110, no. 5, pp. 2575–2592, 2001.

[14] J. Fourier, “Mémoire sur la propagation de la Chaleur dans


les corps solides,” Nouveau Bulletin des sciences par la
Société philomathique de Paris, vol. 6, pp. 112–116, 1808,
in French.

[15] G. M. Riche de Prony, “Essai expérimental et analytique:


sur les lois de la dilatabilité de fluides élastiques et sur celles
de la force expansive de la vapeur de l’eau et de la vapeur de
l’alcool différentes températures,” Journal de l’école poly-
technique, vol. 1, no. 22, pp. 24–76, 1795, in French.

[16] S. Chandran, Advances in Direction-Of-Arrival Estima-


tion. Cambridge, UK: Artech House Publishers, Jan. 2006.

AES 120th Convention, Paris, France, 2006 May 20–23


Page 10 of 10

Vous aimerez peut-être aussi