Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Compression Du Signal ECG

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 73

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique

Ecole Nationale Polytechnique


Département d’électronique

PROJET DE FIN D’ETUDES

EN VUE DE L’OBTENTION DU DIPLOME


D’INGENIEUR D’ETAT EN ELECTRONIQUE

Thème
²

Compression du Signal
Electrocardiographique

Dirigé par : Etudié par :


Mr. R.ZERGUI OULMANE Ali
KHERRAB Belkacem

Soutenu le 24-Juin-2007 devant le jury composé de :

Mme. L.HAMAMI MC ENP Présidente


Mr. R.ZERGUI CC ENP Rapporteur
Mme. M.GUERTI MC ENP Examinatrice
Mr. M.SADAOUI DR ENP Invité

Promotion : Juin 2007


.
.
" "
. .

. , , , :

Résumé

Notre travail est une étude comparative entre deux techniques irréversibles de compression.
La méthode des splines comme technique directe et la méthode des ondelettes comme
technique par transformé.
Obtenu de la célèbre base de données MIT .BIM ARRYTMIA, l’électrocardiogramme sera
notre sujet d’étude ; la comparaison sera basé sur des critères objectifs (le rapport de
compression -CR-, Le pourcentage de la puissance d’erreur -PRD-) et le critère subjectif de
vision.
Les résultats des tests montrent que la méthode des splines donne de bons résultats. Par contre,
la méthode des ondelettes est la mieux adaptée pour un signal bruité.

Mots clés : compression du signal, électrocardiogramme (ECG), méthode des splines, la


méthode des ondelettes.

ABSTRACT

The subject of this paper is the comparative study between two irreversible compression
methods; i.e: spline method as a direct technique and wavelet method as by transformed
technique.
Resulting from the well-known data base MIT .BIM ARRYTMIA; the electrocardiogram will
be the subject of our study.
The comparison will be based on objective criteria (compression ratio –CR- ; Percentage of
Root mean squared Difference –PRD-) and the visual subjective criteria.
From the trial results it appears that spline method give good results .As for the wavelet method
it is the best appropriated for noisy signal.

Keys words: signal compression, electrocardiogram (ECG), spline method, wavelet method.

1
Dédicaces
Je dédie ce projet de fin d étude aux personnes qui me sont les plus chères:

Ø A mes adorables parents Boualem et Fadila qui m ont énormément


soutenu dans les moments les plus difficiles, partagés mes joies et mes
peines, qui se sont toujours sacrifiés a mes dépends.

Ø A ma chère grand-mère maternelle, je lui souhaite une longue vie


pleine de bonheur.

Ø A la mémoire de mon grand père maternel TIFENDJAR Kouider


tombé au champ d honneur pour que vive l Algérie libre et indépendante.

Ø A mon frère Kadi et mes s urs Asma et Hanane.

Ø A la mémoire de mes chers grands parents paternels.

Ø Aux familles KHERRAB, TIFENDJAR et ABDELHAMID Alger.

Ø A mes oncles, tantes, cousins, cousines.

Ø A ma très chère voisine MAMA TOUNES.

Ø A mes très chères amis : Moussa, Bilel, Amine, Ahcen, Adel, Hocine,
Mustapha, Chukri, Sidali, Nacer, Kamel, Mabrouk, wahid, Réda, Moumen,
Mehdi, Raouf, Walid et toute la promotion d électronique 2006/2007.

Ø A mon binôme ALI et toute sa famille.

Enfin, mes dédicaces sont destinés à tous ceux et celles que j aime et qui m ont
soutenu durant le P.F.E

K .BELKACEM

2
Dédicaces
Je dédie ce projet de fin d étude aux personnes qui me sont les plus chères:

Ø A mes adorables parents Mohammed et Ourida qui m ont énormément


soutenu dans les moments les plus difficiles, partagés mes joies et mes
peines, qui se sont toujours sacrifiés a mes dépends.

Ø A mon frère Abdelhak et ma s ur khadidja.

Ø A la mémoire de mes grands parents.

Ø A mes tentes Nadia et Tati.

Ø A mes cousins Bachir, karim et Moh.

Ø Aux deux familles OULMANE et ZAZOUA de Jijel.

Ø A mes très chères amis d Alger: Raouf, Moumen, Mehdi, Reda, Bilel
et Hilel.

Ø A mes très chères amis de Jijel : Djalil, Mohemed, hamza, hakim,


Chnactou, Hocine, Abdennour, Abdou, Ali, Ryad, karim, mohemed,
youcef et Reda sans oublier Mimo.

Ø Toute la promotion d électronique 2006/2007.

Ø A mon binôme Belkacem et toute sa famille.

Enfin, mes dédicaces sont destinés à tous ceux et celles que j aime et qui m ont
soutenus durant le P.F.E.

O.ALI

3
Remerciements

Notre grand remerciement à DIEU qui nous a rempli de foi et de force et


à nos parents qui nous ont beaucoup encouragé le long de ce projet.

A l issu de nos études faites au sein de l Ecole Nationale Polytechnique nous


voudrions rendre un hommage tout particulier à :

Ø Notre promoteur Mr. R.ZERGUI qui nous a honoré en acceptant de


nous encadrer.

Ø Mme. L.HAMAMI d avoir honoré la présidence de jury.

Ø Mme. M.GUERTI qui a aimablement accepté d examiner le présent


travail.

Ø Tous les enseignants de département d électronique de l école nationale


polytechnique.

Ø Tous les enseignants de département des sciences fondamentales de


école nationale polytechnique.

Nous remercions tous qui nous ont aidé et soutenu de prés ou de loin.

4
Sommaire

Liste des abréviations……………………………………………………………… 07

Glossaire………………………………………………………………………………. 08

Table des figures......................................................................................................... 09

Introduction………………………………………………………………………….. 11

Chapitre 1 : Electrocardiographie …………………………………………….. 13


1.1 Historique de l’électrocardiographie …………………………………………… 14
1.2 Rappels anatomiques et fonctionnels…………………………………………… 15
1.3 Bases théoriques, physiologiques et techniques de l’électrocardiographie ……. 15
1.3.1 Electrophysiologie cellulaire …………………………………………………… 16
1.3.2 Séquence d'activation cardiaque………………………………………………… 18
1.3.3 Vecteurs, Dérivations et Genèse de l'Electrocardiogramme ……………………. 19
1.4 Electrocardiogramme normal …………………………………………………… 22
1.5 Simulation de l’ECG sous MATLAB…………………………………………… 23
1.5.1 Principe………………………………………………………………………….. 23
1.5.2 Implémentation sous MATLAB………………………………………………… 25

Chapitre 2 : Codage des données……………………………………………….. 26


2.1 Théorie de l’information ………………………………………………………… 27
2.1.1 Présentation……………………………………………………………………… 27
2.1.2 Historique………………………………………………………………………... 28
2.1.3 L’information …………………………………………………………………… 28
2.1.4 Entropie, formule de Shannon…………………………………………………… 29
2.1.5 Le quantificateur ………………………………………………………………… 30
2.1.6 Notions sur la Distorsion…………………………………………………………. 30
2.2 Compression de donnée ………………………………………………………….. 31
2.2.1 Jeu de Shannon ………………………………………………………………….. 32
2.2.2 Algorithme de compression……………………………………………………... 32
2.2.3 Les types de compression……………………………………………………….. 33
2.2.4 Critères de performances d’une méthode de compression………………………. 39

5
Chapitre 3 : Les techniques de compression...................................................... 40
3.1 Méthode des splines ……………………………………………………………... 41
3.1.1 Définition …………………………………………………………………………41
3.1.2 Les splines cubiques……………………………………………………………… 42
3.1.3 La fonction spline en MATLAB ………………………………………………… 45
3.1.4 Compression par algorithme des splines ………………………………………… 45
3.2 Méthode des ondelettes……………………………………………………………47
3.2.1 Introduction………………………………………………………………………. 47
3.2.2 Caractérisation des ondelettes……………………………………………………. 47
3.2.3 Analyse multirésolution………………………………………………………….. 49
3.2.4 Algorithme de MALLAT………………………………………………………… 50
3.2.5 Architecture pyramidale………………………………………………………….. 52
3.2.6 Paquet d’ondelettes ………………………………………………………………. 52
3.2.7 Comment agissent les ondelettes ?………………………………………………. 53
3.2.8 La Quantification…………………………………………………………………. 53
3.2.9 Le codage de source……………………………………………………………… 53
3.2.10 Ondelette de Haar ………………………………………………………………... 54
3.2.11 Compression de l’ECG…………………………………………………………… 54

Chapitre 4 : Résultats et discussions……………………………………………. 56


4.1 Résultats …………………………………………………………………………. 57
4.1.1 Signal ECG sans bruit …………………………………………………………… 57
4.1.2 Signal ECG bruité………………………………………………………………… 61
4.2 Discussions……………………………………………………………………… 69
4.2.1 Fonction CR / PRD……………………………………………………………….. 69
4.2.2 Effet du bruit……………………………………………………………………… 69
4.2.3 Qualité du signal reconstruit……………………………………………………… 69

Conclusion ……………………………………………………………………………. 70

Références Bibliographiques …………………………………………………….. 72

6
Liste des abréviations

CR Compression Ratio

CWT Continuous Wavelets Transform

DSP Digital Signal Processor

ECG Electrocardiogramme

JPEG Joint Photographic Experts Group

LZW Lempel-Ziv-Welch

PRD Percentage of Root mean squared Difference

RLE Run Length Encoding

TFCT Transformée de Fourier à Court Terme

TIFF Tag(ged) Image File Format

TOC Transformée en Ondelette Continue

TOD Transformée en Ondelettes Discrète

TODD Transformée en Ondelettes Discrète Dyadique

7
Glossaire
Artère coronaire : artère qui irrigue le muscle cardiaque.

Diaphragme : Muscle transversal qui sépare le thorax de l’abdomen, et qui joue un rôle très
important dans la respiration.

Dystrophie : Anomalie du développement d’un organe, due a un trouble de la nutrition.

Endocarde : Tunique interne du c ur, qui tapisse les cavités et les valvules.

Épicarde : Feuillet viscéral du péricarde.

Genèse : Ensemble de processus donnant naissance à quelque chose.

Hémodynamiques : Etude de l’écoulement du sang dans les vaisseaux en fonction du débit


cardiaque.

Interpolation : une opération mathématique permettant de construire une courbe à partir de la


donnée d'un nombre fini de points

Ischémie : Insuffisance de la circulation artérielle dans un organe, un tissu.

Lipothymie : Premier degré de la syncope, dans lequel la circulation et la respiration


persistent.

Médiastin : région médiane du thorax située ente les poumons.

Myocarde : Tunique du c ur, constituée de fibres musculaires striées

Myocardiopathie : maladie du myocarde.

ud sinusal, n ud Sino-auriculaire : formations spécialisée du myocarde, qui commandent


les contractions du c ur.

Précordialgie : Douleur située dans le thorax en avant du c ur, qui a son siège dans cette
région.

Septum : une cloison entre deux cavités d’un organisme animal ou végétal.

Sinus : Cavité irrégulière a l’intérieur de certains os.

Sternum : Os plat de la face antérieure du thorax, sur laquelle s’articulent les cotes et les
clavicules.

Syncope: Suspension subite ou ralentissement des battements du c ur, avec perte de


connaissance et interruption de la respiration.[15]

8
Table des figures
Chapitre 1

Fig.1.1 : Représentation du c ur et de l’origine des gros vaisseaux………………....... 15


Fig.1.2 : Aspect du potentiel d'action cardiaque enregistré par une microélectrode
intracellulaire…………………………………………………………………. 16
Fig.1.3 : Dépolarisation-repolarisation au niveau d'une fibre myocardique isolée…….. 16
Fig .1.4 : Séquence d’activation cardiaque ………………………………………….….. 18
Fig. 1.5 : Schéma d'activation ventriculaire …………………………………………..... 19
Fig. 1.6 : Dérivations bipolaires des membres ………………………………………..... 19
Fig. 1.7 : Dérivations unipolaires des membres ……………………………………….. 21
Fig. 1.8 : Dérivations unipolaires thoraciques (précordiales) ……………………......... 21
Fig. 1.9 : Emplacement des électrodes pour les dérivations précordiales…..…….......... 21
Fig. 1.10 : Electrocardiogramme normal…………………………………………………. 22
Fig. 1.11 : Génération de l’onde QRS ………………………………………………….... 24
Fig. 1.12 : Génération de l’onde P……………………………………………………….. 25
Fig. 1.12 : Le signal ECG simulé sous Matlab…………………………………………… 25

Chapitre 2

Fig. 2.1: Schéma de communication……………………………………………………... 27


Fig. 2.2: Quantificateur type ; x est la grandeur d’entrée à Quantifier et y est la valeur
de sortie ……………………………………………………………………….. 30
Fig. 2.3: La fonction R (D)………………………………………………………………. 31
Fig. 2.3: Les 26 lettres de Braille ………………………………………………………... 31
Fig. 2.4: Le code morse international …………………………………………………..... 32
Fig. 2.5: Les méthodes de compression………………………………………………….. 33
Fig. 2.6: Méthode RLE ………………………………………………………………….. 34
Fig. 2.7: Le codage de Huffman…………………………………………………………. 35
Fig. 2.8: Schéma block de la compression par transformée ……………………………... 38

Chapitre 3

Fig. 3.1 : Interpolation par splines……………………………………………………… 41


Fig. 3.2 : Interpolation par les splines cubiques ……………………………………….. 42
Fig. 3.3 : Extrapolation linéaire ………………………………………………………… 44
Fig. 3.4 : Interpolation par les spline cubique en utilisant MATLAB ………………….. 45
Fig. 3.5 : Organigramme de l’algorithme des splines ………………………………….. 46
Fig. 3.6 : Illustration de la variation du facteur d’échelle ……………………………… 48
Fig. 3.7 : Algorithme de MALLAT uni-dimension …………………………………….. 50
Fig. 3.8 : Algorithme de MALLAT bi-dimensionnel ………………………………….. 51
Fig. 3.9 : Décomposition pyramidale de profondeur 2………………………………… 52
Fig. 3.10 : Décomposition en paquets d’ondelettes de profondeurs 3…………………….53

9
Chapitre 4

Fig. 4.1 Signal ECG normale…….. …………………………………………………….. 57


Fig. 4.2 Signal reconstruit par la méthode de splines(ECG normale)…………………. 58
Fig. 4.3 Signal reconstruit par la méthode des ondelettes (ECG normale)-niveau=1-….. 59
Fig. 4.4 Signal reconstruit par la méthode des ondelettes (ECG normale)-niveau=2-….. 60
Fig. 4.5 Courbe représentent la fonction CR(PRD)…………………………………...... 61
Fig. 4.6 Signal ECG bruité …………………………………………………................... 62
Fig. 4.7 Signal ECG fortement bruité …………………………………………………. 62
Fig. 4.8 Signal reconstruit par la méthode des splines.(ECG bruité)………………….. 63
Fig. 4.9 Signal reconstruit par la méthode des ondelettes (ECG bruité) -niveau=1-……. 64
Fig. 4.10 Signal reconstruit par la méthode des ondelettes (ECG bruité) -niveau=2-…….65
Fig. 4.11 Signal reconstruit par la méthode de spline (ECG fortement bruité)………...... 66
Fig. 4.12 Signal reconstruit par la méthode des ondelettes (ECG fortement bruité)
-niveau=1-…....................................................................................................... 67
Fig. 4.13 Signal reconstruit par la méthode des ondelettes (ECG fortement bruité)
-niveau=2-…....................................................................................................... 68

10
Introduction

11
La dernière décennie a vu l’extension des techniques numériques à de nombreux
domaines de traitements de l’information, de la saisie, du stockage et du transport de cette
information. Pour économiser les ressources de stockage ou de canaux de communication, on
cherche à comprimer le signal numérisé. Cette double opération de numérisation et de
compression est aussi appelée codage de source.

Le but d’une technique de compression est d’achever une réduction maximale du signal
avec la préservation des caractéristiques significatives de ce dernier après reconstruction. En
pratique un processus de compression consiste à éliminer la redondance, Shannon a défini la
redondance comme étant la portion du signal qui ; si elle manque, le signal reste
essentiellement complet ou peut être reconstruit.

Les techniques de compression peuvent être classées en trois groupes : Les méthodes
directes, les méthodes par transformées et les méthodes par extraction de paramètres. Avec les
méthodes directes on agit directement sur les échantillons du signal, ce qui est le cas pour la
plupart des méthodes classiques telles que les méthodes prédictives et interpolatives. Les
méthodes par transformées consistent à appliquer une transformée orthogonale sur un bloc
d’échantillons du signal, le traitement dans ce cas, est effectué sur la nouvelle séquence
résultant de la transformée. Dans le cas des méthodes par extraction de paramètres un
processeur est utilisé pour extraire certaines caractéristiques du signal qui vont être utilisées
ultérieurement pour la reconstitution du signal.

Dans ce travail, on présente deux techniques de compression, à savoir : La méthode des


splines comme méthode directe interpolative, et la méthode des ondelettes comme méthode par
transformée. A l’origine, ces deux méthodes ont été développées et appliquées sur l’image et la
parole et ont trouvé un succès considérable. Pour donner un sens à notre travail, une étude
comparative des performances de ces deux techniques sur l’électrocardiogramme (ECG) a été
établie.

En effet, le recueil de l’électrocardiogramme sur une très longue durée permet au


cardiologue d’isoler des événements rares, et la détection d’une pathologie peut être plus
pertinente lorsque l’analyse de l’électrocardiogramme est effectuée sur une longue durée issue
d’enregistrement par système Holter. Or, le stockage de cet enregistrement nécessite une
importante place mémoire ; d’ou l’utilité de la compression pour la réduire.

Dans le premier chapitre, nous présenterons des notions fondamentales sur


l’électrocardiographie pour arriver à extraire le signal ECG, et définir la terminologie liée ce
dernier. A la fin de ce chapitre une simulation de l’ECG sous Matlab est donnée.

Le deuxième chapitre est consacré à la théorie de l’information, où des notions


fondamentales sur le codage et la quantification sont présentées, ainsi que les critères de
performance objectifs et subjectifs d’une méthode de compression.

Le troisième chapitre est une présentation des deux techniques choisies pour être
développées dans notre travail, avec plus de détails relevant de l’aspect pratique et les
problèmes d’implémentation, les algorithmes de ces deux méthodes sont également expliqués.

Enfin, le quatrième chapitre est réservé à la présentation des résultats d’application des
deux techniques sur le signal ECG. Pour finir, une étude comparative des performances de ces
deux techniques sur notre signal d’application est établie.

12
Chapitre 1
Electrocardiographie

13
Chapitre 1 Electrocardiographie

L'électrocardiologie est une discipline qui a pour objectif de décrire les anomalies de
fonctionnement du c ur en étudiant la forme, la fréquence et l'évolution des signaux électriques
cardiaques.

1.1 Historique de l’électrocardiographie

L'électrocardiographie est une vieille dame qui, passé le cap du centenaire, garde toujours bon
pied et bon il ... Née en 1887 avec les travaux de Waller, révélée à la communauté médicale par
l'invention en 1901 du galvanomètre à cordes qui valut à son auteur, le Dr. Wilhem Einthoven, le
prix Nobel de Médecine en 1924 , l'électrocardiographie est devenue une technique incontournable
en pratique cardiologique.

L'électrocardiogramme est la représentation graphique des forces électromotrices générées par


l'activité cardiaque, enregistrées par des électrodes placées à la surface du corps. Il y a plus d'un
demi-siècle, une convention internationale a décidé de fournir cette représentation sous la forme
immuable de l'ECG à 12 dérivations. Ce fut un des tout premiers efforts de standardisation à
l'échelle mondiale d'un examen médico-technique.

Aujourd'hui, en ce début du XXIe siècle, l'ECG est un examen irremplaçable : de réalisation


aisée au moyen d'un appareillage simple, il a grandement bénéficié des progrès récents de
l'électronique et de l'informatique. Il est actuellement possible d'enregistrer un ECG avec un
électrocardiographe portable ultraléger et même de transformer un micro-ordinateur personnel en
électrocardiographe avec, dans les deux situations, possibilité d'une aide au diagnostic par
interprétation automatisée. Procédure peu coûteuse et d'une innocuité totale, l'électrocardiographie
fournit une foule de renseignements précieux concernant l'état structurel et fonctionnel de l'appareil
cardiocirculatoire. Comment peut-on définir à l'heure actuelle l'utilité de l'électrocardiographie ?

Voici la réponse donnée en 1995 par la ´Task Force on Clinical Privileges in Cardiologyª
réunissant l'American College of Physicians, l'American Collège of Cardiology et l'American Heart
Association : ´L'ECG peut constituer un marqueur indépendant d'affection myocardique; il peut
refléter des atteintes anatomiques, électrophysiologiques, métaboliques et hémodynamiques; il
procure une information qui souvent s'avère essentielle pour le diagnostic et le traitement de
diverses anomalies cardiaques; et il est sans égal pour le diagnostic des arythmies.
L'électrocardiographie est une procédure de premier choix chez des patients se plaignant de
précordialgies, lipothymies ou syncopes, symptômes qui peuvent être annonciateurs d'infarctus
myocardique ou de mort subite. Des anomalies électriques peuvent être les premiers signes
indiquant l'existence d'effets secondaires potentiellement désastreux de certains médicaments, ou de
sévères déséquilibres métaboliques ou électrolytiques, et parfois le seul signe d'atteinte
myocardique, telle que l'infarctus "silencieux" chez le sujet âgéª. Les auteurs de ce texte mettent
bien en évidence le rôle spécifique de l'électrocardiographie par rapport aux autres techniques
d'imagerie cardiaque. L'échocardiographie et la résonance magnétique nucléaire, par exemple,
montrent directement la morphologie et la dynamique des structures anatomiques, domaines où
l'électrocardiogramme est moins performant. Par contre, l'électrocardiogramme est le premier et
parfois le seul témoin de modifications se produisant à l'étage moléculaire et cellulaire. Il peut de la
sorte constituer un outil diagnostique essentiel, par exemple pour la détection de l'ischémie
myocardique (pathologie fréquente), pour la reconnaissance des atteintes myocardiques précoces
comme dans certaines myocardiopathies et certaines dystrophies musculaires (pathologies rares) où
les tracés électrocardiographiques peuvent être perturbés avant que n'apparaissent les anomalies
échocardiographiques. Enfin l'électrocardiogramme est le seul examen couramment utilisé dans
l'étude des troubles de conduction et des troubles du rythme.

14
Chapitre 1 Electrocardiographie

Tout ceci fait de l'électrocardiogramme, un "art du diagnostic" qui est difficile et qui nécessite
une longue période de familiarisation et de pratique. Ne devient expert en électrocardiographie que
celui qui a consacré d'inombrables heures à la lecture de milliers de tracés, et qui prend toujours
soin de confronter son diagnostic avec la "vérité clinique". Mais une fois maîtrisée, la méthode
apporte beaucoup de satisfactions intellectuelles à celui qui la pratique tout en procurant - osons
l'espérer - des informations très utiles dans la prise en charge de nos malades.

1.2 Rappels anatomique et fonctionnel

Le c ur est situé au milieu du médiastin où il est partiellement recouvert par les poumons et
antérieurement par le sternum et les cartilages des troisièmes, quatrièmes et cinquièmes côtes. Les
deux tiers du c ur sont situés à gauche de la ligne passant par le milieu du corps. Il repose sur le
diaphragme et est incliné en avant et à gauche de telle sorte que l'apex soit antérieur par rapport au
reste du c ur. Le c ur est constitué de quatre cavités contractiles: les oreillettes reçoivent le sang
veineux et les ventricules droit et gauche le propulsent respectivement dans la circulation
pulmonaire et dans la circulation systémique (cf. figure 1-1). Chaque battement cardiaque est un
processus mécanique engendré par des phénomènes bioélectriques, notamment ioniques.[1]

Fig.1.1 : représentation du c ur et de l’origine des gros vaisseaux.

1.3 Bases théoriques, physiologiques et techniques de l’électrocardiographie

Pour bien comprendre la genèse de l'électrocardiogramme et les mécanismes sous-jacents


aux modifications observées à l'état normal et pathologique, il est essentiel de rappeler brièvement
des notions d'électrophysiologie cellulaire et de séquence de l'activation cardiaque, ainsi que les
bases théoriques des dérivations et des projections vectorielles.

15
Chapitre 1 Electrocardiographie

1.3.1 Electrophysiologie cellulaire

Le processus d'activation électrique cardiaque prend naissance au niveau de la fibre


myocardique. A l'état basal, une fibre myocardique est dite "polarisée" : la face interne de la
membrane cellulaire est tapissée de charges électriques négatives, sa face externe de charges
électriques positives, de sorte qu'une microélectrode transperçant cette membrane recueille un
potentiel négatif de l'ordre de -90 mV. Lorsque cette fibre myocardique est stimulée, des
mouvements ioniques se produisent de part et d'autre de la membrane cellulaire.

Les charges négatives internes sont remplacées par des charges positives : le potentiel
intracellulaire passe brusquement de -90mV à +20 mV, la cellule est dite "dépolarisée" et notre
microélectrode enregistre cette montée rapide du voltage. Ensuite des mouvements ioniques en sens
inverse vont progressivement restaurer l'état de départ : c'est le processus de "repolarisation" qui va
ramener le potentiel intracellulaire à sa valeur initiale. Au terme du processus, l'électrode
exploratrice aura enregistré un "potentiel d'action", constitué de 4 phases successives : état de base,
montée rapide, plateau et descente progressive.

La phase d'ascension rapide correspond à l'accident de déflexion de grande vélocité de


l'ECG (complexe QRS) tandis que le plateau et la descente correspondent au segment ST et à l'onde
T.

Fig.1.2 : Aspect du potentiel d'action cardiaque enregistré par une microélectrode


intracellulaire.

Le processus d'activation initié à l'endroit précis où la fibre myocardique est stimulée va se


propager d'une extrémité à l'autre de la fibre. Si la fibre est placée dans un volume conducteur
homogène, une électrode placée dans ce liquide conducteur va enregistrer des variations de
potentiels induites par le processus d'activation cellulaire. Supposons, comme le montre la figure
suivante :

1 10
98

2 9

3 8

4 7

5 6
Dépolarisation Repolarisation

Fig.1.3 : dépolarisation-repolarisation au niveau d'une fibre myocardique isolée.

16
Chapitre 1 Electrocardiographie

que nous ayons disposé 3 électrodes : l'électrode A située à l'extrémité gauche de la cellule, là où
débute l'excitation, l'électrode B située à l'autre bout, du côté droit, et l'électrode C située à mi-
distance. Voyons comment se déroulent les phénomènes associés à la dépolarisation cellulaire
(partie gauche de la figure1.3). Au repos (stade 1), toute la surface externe de la fibre est tapissée de
charges positives et aucune différence de potentiel n'est détectée : les électrodes A, B et C
enregistrent chacune une ligne plate isoélectrique. Lorsque la fibre est stimulée, des charges
négatives remplacent les charges positives à la surface de la cellule : à partir de ce moment se
développe un front d'activation qui peut être représenté sous forme d'un dipôle de 2 charges
négative_positive qui se propage d'une extrémité à l'autre de la cellule.

L'électrode A se trouve constamment située dans la partie négative du champ électrique


tandis que l'électrode B se trouve en permanence dans la partie positive du champ. Au stade 2,
immédiatement après la stimulation, l'électrode A qui fait face à l'extrémité négative du dipôle et
qui, de ce fait, se trouve dans le champ négatif le plus intense, enregistre une déflexion importante
dirigée vers le bas, c'est à dire une déflexion maximale négative. En même temps, les électrodes B
et C, qui voient s'ébranler le front de charges positives, enregistrent une petite déflexion positive
dirigée vers le haut. Puis, au fur et à mesure que le dipôle se déplace de la gauche vers la droite
(stades 3 et 4), l'électrode A inscrit une déflexion de moins en moins négative tandis que l'électrode
B inscrit une déflexion de plus en plus positive. Le maximum positif en B est atteint lorsque le
dipôle positif est sous-jacent à l'électrode B à la fin du processus de dépolarisation (stade 4). Au
point C, le déflexion positive initiale est suivie d'un brusque renversement vers une déflexion
négative lorsque le dipôle passe exactement sous l'électrode C (stade 4).

Lorsque la dépolarisation est complète (stade 5), des charges négatives couvrent toute la
surface externe de la cellule, aucun mouvement n'est enregistré et les 3 électrodes inscrivent de
nouveau un potentiel isoélectrique. Au total, l'électrode A, qui a vu s'éloigner le front des charges
positives, aura enregistré une déflexion négative (onde Q), l'électrode B qui a vu s'approcher le front
d'activation, une déflexion positive (onde R) et l'électrode C, située perpendiculairement au front
d'activation, un complexe biphasique (complexe RS).

La partie droite de la figure (1.3) montre le déroulement des phénomènes pendant la


repolarisation cellulaire : il s'agit du processus inverse, l'extrémité gauche de la cellule se couvre
de charges positives et un front de charges négatives en avant se dirige de la gauche vers la droite
(stades 6-7) : l'électrode A qui se trouve dans la partie la plus positive du champ électrique
enregistre une déflexion positive maximale tandis que l'électrode B inscrit un début de déflexion
négative (stade 7). Au fur et à mesure que le dipôle se dirige vers la droite, extrémité négative en
avant, l'électrode A inscrit une déflexion moins positive, l'électrode B une déflexion plus négative
(stades 8 et 9) pour, à la fin, revenir à la ligne isoélectrique. L'électrode C qui voit s'approcher,
ensuite s'éloigner, le dipôle positif/négatif inscrit une déflexion d'abord négative, ensuite positive.
En résumé, la totalité du processus de dépolarisation-repolarisation aura produit au point A un
complexe onde Q-onde T positive, au point B un complexe onde R-onde T négative, en C un
complexe RS suivi d'une onde T biphasique négative-positive.

Ces phénomènes sont observés au niveau d'une fibre myocardique isolée. Au niveau du
myocarde constitué d'un grand nombre de fibres myocardiques, la repolarisation se propage en sens
inverse de la dépolarisation, de sorte que la polarité de l'onde T est le contraire de ce qui est
représenté à la figure : l'onde T est négative quand l'onde de dépolarisation est négative et positive
quand l'onde de dépolarisation est positive. Dans le myocarde in vivo, la dépolarisation se propage
donc de l'endocarde vers l'épicarde tandis que la repolarisation commence au niveau de l'épicarde là
où la dépolarisation s'est achevée.

17
Chapitre 1 Electrocardiographie

1.3.2 Séquence d'activation cardiaque

Le stimulus physiologique de l'activation cardiaque est fourni rythmiquement (de 60 à


100/min) par le noeud sino-auriculaire ou noeud sinusal de Keith-Flack qui est situé dans la partie
supérieure de l'oreillette droite à proximité de l'abouchement de la veine cave supérieure. De là,
l'excitation se propage de proche en proche pour dépolariser toute l'oreillette droite, ensuite le
septum interauriculaire et l'oreillette gauche, par l'intermédiaire de trois faisceaux intra-auriculaires
antérieur, moyen et postérieur. C'est le faisceau antérieur qui donne une branche rejoignant
l'oreillette gauche (faisceau de Bachman) et assurant ainsi la conduction inter-auriculaire. Les 3
faisceaux auriculaires se rejoignent à la partie postéro-basale du septum interauriculaire, en avant de
l'abouchement du sinus coronaire, y formant le noeud auriculo-ventriculaire d'Aschoff-Tawara dont
plusieurs régions ont été décrites. A son extrémité inférieure, les fibres conductrices se réunissent en
faisceaux parallèles pour former le faisceau de His. Le tronc commun du faisceau de His court le
long de la partie postéro-inférieure du septum interventriculaire membraneux et, après un court
trajet de 1 cm, au sommet du septum interventriculaire musculaire, il se divise en deux branches
principales. La branche droite, grêle, chemine sous l'endocarde septal du ventricule droit, en
direction du muscle papillaire antérieur. La branche gauche, courte et épaisse, se divise très tôt en
deux rameaux, un rameau antéro-supérieur et un rameau postéro-inférieur . Kulbertus et Dumoulin
ont également décrit un faisceau de fibres centro-septales issu de ces deux rameaux principaux. Les
deux branches du faisceau de His envoient d'innombrables ramifications à l'intérieur de la
musculature septale et sous l'endocarde ventriculaire gauche et droit. Ces fines ramifications
forment le réseau de Purkinje dont la trame s'étend pratiquement à toutes les couches sous-
endocardiques des ventricules, un peu moins au niveau de leur partie postéro-supérieure. A partir
des fibres de Purkinje, l'activation s'étend de proche en proche à travers le myocarde non
différencié.

P-R

Fig.1.4 : Séquence d’activation cardiaque.

La vitesse de propagation de l'onde d'activation à partir du n ud sinusal varie très fort :


1000 mm/s à travers les faisceaux internodaux et les oreillettes, 50 mm/s seulement à la jonction
entre l'oreillette et le n ud auriculoventriculaire où l'influx est nettement ralenti, 20 mm/s dans le
ud AV lui-même, où la vitesse est lente et inhomogène, 1500 mm/s ou davantage dans le
faisceau de His, 4000 mm/s dans les fibres de Purkinje.

18
Chapitre 1 Electrocardiographie

Le trajet de l'activation au sein des ventricules, plus précisément la progression du front


d'onde d'activation à partir du septum, est bien connu depuis les célèbres travaux de Durrer, Van
Dam et Arzbaecher qui ont établi la carte de l'activation du c ur humain au moyen d'électrodes
intramurales. La première zone activée est située sur la face gauche du septum interventriculaire.
L'onde d'activation progresse au sein du myocarde en envahissant des zones à l'état de repos, donc
électropositives, laissant derrière elle des zones électronégatives. Donc les forces électriques issues
de la dépolarisation sont orientées positivement vers l'avant de la progression, dans le même sens, et
leur trajet transmural va de l'endocarde vers l'épicarde. C'est ainsi que durant l'activation de la paroi
antérieure des ventricules, les forces résultantes sont orientées dans le sens endocarde-épicarde,
c'est-à-dire vers la paroi antérieure du thorax. Au contraire, quand surviendra un peu plus tard
l'activation de la paroi postérieure, les forces électriques iront vers la paroi postérieure du thorax. Ce
schéma est à la base de l'électrogenèse : il est fidèlement reproduit dans le déroulement de la courbe
spatiale du vectocardiogramme et dans la morphologie des tracés électrovectocardiographiques.

1.3.3 Vecteurs, Dérivations et Genèse de l'Electrocardiogramme

1.3.3.1 Notions vectorielles

Une fibre myocardique aussi bien qu'une portion du myocarde en cours de dépolarisation
peuvent être représentées comme une zone encore au repos et donc électropositive, séparée d'une
zone déjà activée, devenue électronégative. Le front d'onde d'activation est cette surface qui sépare
zones activées et zones au repos : des charges négatives et positives y sont disposées face à face.
L'ensemble de ces charges électriques constitue un "doublet" -+, encore appelé "dipôle" : il
représente le générateur électrique élémentaire. Chacun de ces dipôles peut être représenté
graphiquement sous forme d'un "vecteur", c'est-à-dire une force électrique qui a une grandeur
(amplitude) et une orientation spatiale. A chaque instant de la dépolarisation il existe une multitude
de dipôles, donc de vecteurs, issus des diverses régions qui sont en cours d'activation. La somme de
tous ces vecteurs peut se résumer sous forme d'un vecteur unique qui est le vecteur résultant
instantané. L'amplitude et l'orientation de ce vecteur résultant dépendent de la localisation et de
l'importance respective des zones successivement activées dans le myocarde. Ainsi, pour les
ventricules, l'activation commençant sur la face gauche du septum et se dirigeant vers le ventricule
droit, on observe au temps 10 ms un vecteur orienté à droite et en avant.

Fig.1.5 : Schéma d'activation ventriculaire.

Ensuite, les régions sous-endocardiques des parois antéroseptale, apicale et latérale du


ventricule gauche sont rapidement envahies, de sorte qu'à 20 ms le vecteur résultant est orienté en
avant et en bas, très légèrement à gauche. A 30 ms toute la paroi libre du ventricule gauche et une
partie du ventricule droit sont atteintes. Le ventricule gauche étant plus épais que le ventricule droit,
l'orientation dominante du vecteur résultant est antérieure gauche. L'activation poursuit son trajet
concentrique au milieu des couches sous-épicardiques et commence à atteindre la région postéro-
latérale du ventricule gauche, donnant un vecteur résultant qui, vers 36 ou 38 ms, s'oriente
19
Chapitre 1 Electrocardiographie

franchement à gauche et devient légèrement postérieur. Le vecteur d'amplitude maximale s'observe


vers 42 ms. Ensuite, l'activation s'achève dans les zones postéro-inférieures, d'abord du ventricule
gauche et du septum, ensuite du ventricule droit. Ceci correspond à l'orientation des derniers
vecteurs qui sont franchement postérieurs, d'abord à gauche, puis à droite.

1.3.3.2 Dérivations électrocardiographiques

Une dérivation correspond à la ligne de tension réunissant deux électrodes placées en deux
points déterminés de la surface du corps et entre lesquelles sont enregistrées les différences de
potentiel. En électrocardiographie conventionnelle, l'activité électrique du coeur est étudiée par
l'enregistrement d'une série de 12 dérivations : 6 dérivations périphériques (I, II, III, aVR, aVL,
aVF) l'explorent dans le plan frontal et 6 dérivations précordiales (V1, V2, V3, V4, V5, V6)
l'explorent dans le plan horizontal.

1.3.3.2.1 Dérivations périphériques

Ces dérivations sont dites "périphériques" ou "éloignées" parce que les électrodes sont
placées à distance de la surface épicardique. Elles sont obtenues au moyen de 4 électrodes
appliquées au bras droit, au bras gauche et à la jambe gauche, l'électrode de la jambe droite étant
une électrode neutre destinée à éliminer les parasites électriques. Ces 4 électrodes permettent
d'enregistrer dans le plan frontal 3 dérivations standard ou bipolaires (I, II, III) et 3 dérivations
unipolaires des membres (aVR, aVL, aVF).Les dérivations bipolaires de Einthoven I, II, III

Fig.1.6 : Dérivations bipolaires des membres.

sont constituées d'électrodes actives qui enregistrent la différence de potentiel entre les 2 points où
elles sont appliquées :

• I = connexion bras gauche-bras droit


• II = connexion bras droit-jambe gauche
• III = connexion bras gauche-jambe gauche

Selon l'hypothèse de Einthoven, on admet arbitrairement que les lignes des dérivations I, II et III
délimitent un triangle équilatéral frontal dont le centre correspond au centre de la masse cardiaque.

Les dérivations unipolaires des membres, aVR, aVL, aVF sont obtenues par l'enregistrement des
différences de potentiel entre une électrode active ou exploratrice (bras gauche, bras droit, jambe
gauche) et une électrode neutre qui reste à un potentiel pratiquement constant. Cette électrode
neutre est obtenue par l'artifice du "Central terminal" de Wilson, c'est-à-dire en joignant les
électrodes du bras droit, du bras gauche et de la jambe gauche et en connectant cet ensemble, à
travers une résistance de 50.000 ohms, au pôle négatif du galvanomètre. L'électrode positive,
exploratrice, enregistre des variations de potentiel à l'endroit où elle est placée. Placée sur le bras
droit, le bras gauche ou la jambe gauche, l'électrode active enregistre le potentiel de chacun de ces
membres. La lettre V identifie une dérivation unipolaire et les lettres r, l et f les membres respectifs
(right, left, foot). En déconnectant le central terminal du membre où le potentiel est enregistré,

20
Chapitre 1 Electrocardiographie

l'amplitude qui est mesurée au niveau de ce membre est augmentée, d'où l'appellation "augmented
unipolar leads" : aVR, aVL, Avf.

Fig.1.7 : Dérivations unipolaires des membres.

1.3.3.2.2 Dérivations précordiales

Les dérivations précordiales sont des dérivations unipolaires thoraciques qui enregistrent
l'activité électrique cardiaque dans le plan horizontal. Comme il s'agit de dérivations unipolaires,
l'électrode exploratrice recueille d'importantes variations de potentiel alors que l'autre électrode est
connectée au Central terminal selon Wilson.

Fig.1.8 : Dérivations unipolaires thoraciques (précordiales)

Ce sont des dérivations "rapprochées" car l'électrode exploratrice est placée en divers points
de l'aire précordiale, à faible distance de l'épicarde, face aux parois du ventricule droit et gauche.
Les électrodes exploratrices sont placées de façon immuable comme suit :

Fig.1.9 : Emplacement des électrodes pour les dérivations précordiales.

21
Chapitre 1 Electrocardiographie

V1 est placée sur le 4ème espace intercostal droit, au bord droit du sternum.

V2 est placée sur le 4ème espace intercostal gauche, au bord gauche du sternum.

V4 est placée sur le 5ème espace intercostal gauche, sur la ligne médioclaviculaire.

V3 est placée entre V2 et V4.

V5 est placée sur le 5ème espace intercostal gauche, sur la ligne axillaire antérieure.

V6 est placée sur le 5ème espace intercostal gauche, sur la ligne axillaire moyenne.[2]

1.4 Electrocardiogramme normal


Un ECG normal n'élimine en aucun cas une maladie du c ur. Un ECG anormal peut être
également tout à fait anodin. Le médecin ne se sert de cet examen que comme un outil parmi
d'autres, permettant d'apporter des arguments pour étayer son diagnostic.

Le tracé électrique comporte plusieurs accidents répétitifs appelés « ondes »,comme le


montre la figure suivante :

Fig.1.10 : Electrocardiogramme normal

• L'onde P correspond à la dépolarisation (et la contraction) des oreillettes.


• L'onde QRS (appelé aussi complexe QRS) qui correspond à la dépolarisation (et la
contraction) des ventricules. L'onde Q est la première onde négative du complexe. L'onde R
est la première composante positive du complexe. L'onde S est la deuxième composante
négative. Suivant la dérivation et sa forme, on parle ainsi d'aspect « QS », « RS », voire
« RSR' » (pour une forme en M avec deux positivités). La forme et la taille du QRS
dépendent de la maladie du muscle cardiaque sous jacent mais avec une variabilité très
importante.
• L'onde T correspond à la repolarisation (la relaxation) des ventricules.
• L'onde T atriale est masquée par l'onde QRS et correspond à la repolarisation (la
relaxation) des oreillettes. Celle-ci est négative.

22
Chapitre 1 Electrocardiographie

L'intervalle PR est le temps entre le début de P et le début du QRS. Il est le témoin du temps
nécessaire à la transmission de l'influx électrique des oreillettes aux ventricules.

On peut également calculer la fréquence cardiaque (nombre de QRS par unité de temps) et voir si le
rythme est régulier ou non. Si la fréquence cardiaque est régulière, la fréquence cardiaque est égale
à : 60/durée en secondes de l'intervalle R-R. [3]

1.5 Simulation de l’ECG sous MATLAB

Le simulateur d'ECG nous permet d'analyser et étudier des formes d'onde normales et
anormales d'ECG sans l'aide d’une machine réelle d’ECG. On peut simuler n'importe quelle forme
d'onde donnée d'ECG à l'aide du ce simulateur.

1.5.1 Principe

1.5.1.1 Série de Fourier


Toutes les fonctions périodiques qui satisfont les conditions des Dirichlet peuvent être
exprimées comme série de Fourier :

f (x) = (ao/2) + an cos (n x / l) + bn sin (n x / l),


n=1 n=1

ao = (1/ l ) f (x) dx , T = 2l
T
(1.1)
an = (1/ l ) f (x) cos (n x / l) dx , n = 1,2,3….
T

bn = (1/ l ) f (x) sin (n x / l) dx , n = 1,2,3….


T

Le signal d'ECG est périodique avec une fréquence fondamentale déterminée par le battement du
ur. Il satisfait également les conditions de Dirichlet :
• Évalué simple et fini dans un intervalle donné.
• Absolument intégrable.
• Nombre fini de maximums et de minimums entre les intervalles finis
Par conséquent la série de Fourier peut être employée pour représenter le signal d'ECG.

1.5.1.2 Calculs

Si nous observons la figure1.10, nous pouvons noter qu'une seule période d'un signal ECG
est un mélange de formes triangulaires et sinusoïdales en vague.

• Le QRS, les parties de Q et S du signal d'ECG peuvent être représentées par des formes d'onde
triangulaires
• Les parties de P, de T et U peuvent être représentées par des formes d'onde sinusoïdales.

23
Chapitre 1 Electrocardiographie

Une fois chacune de ces parties est produite, elles peuvent être ajoutées les unes aux autres
pour obtenir le signal ECG.[4]

1.5.1.3 Génération de la partie QRS

Fig.1.11 : Génération de l’onde QRS

De l'équation (1.1), nous avons :


f(x) = (–bax/l) + a 0 < x < ( l/b )
= ( bax/l) + a (– l/b)< x < 0

ao = (1/ l ) f (x) dx
T
= (a/b)

an = (1/ l ) f (x) cos (n x / l) dx


T
= ( 2ba / (n2 2 )) * ( 1 – cos (n /b))

bn = (1/ l ) f (x) sin (n x / l) dx


T
= 0 ( car c’est une fonction paire)

f (x) = (ao/2) + an cos (n x / l) (1.2)


n=1

24
Chapitre 1 Electrocardiographie

1.5.1.4 Génération de l’onde P

Fig.1.12 : Génération de l’onde P

f(x) = cos (( bx) /(2l)) (–l/b)< x < (l/b)

ao = (1/ l ) cos (( bx) / (2l)) dx


T
= (a/(2b))(2-b)

an = (((2ba)/(i2 2)) (1-cos((n )/b))) cos((n x)/l)

bn = 0 (car c’est une fonction paire)

f (x) = (ao/2) + an cos (n x / l) (1.3)


n=1

1.5.2 Implémentation sous MATLAB

Le résultat obtenu est le suivant :


2.6

2.4

2.2

1.8

1.6

1.4

1.2

0.8

0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

Fig.1.13 : Le signal ECG simulé sous Matlab

Conclusion

Le signal ECG porte des informations sur le fonctionnement du c ur (dépolarisation et


repolarisation), il informe le médecin sur l’état de santé du patient. C’est un signal aléatoire,
nonstationnaire, mais présente une pseudo-périodicité.

25
Chapitre 2 :
Codage des données

26
Chapitre 2 Codage des données

La dernière décennie a vu l’extension des techniques numériques à de nombreux domaine de


traitements de l’information, de la saisie, du stockage et du transport de cette information.
Pour économiser les ressources de stockage ou des canaux de communication , on cherche à
comprimer le signal numérisé .Cette double opération de numérisation et de compression de signal
est aussi appelée codage de source .La théorie de l’information formalise la notion de codage de
l’information et définit des limites théoriques minimales , ou bornes asymptotiques , quant au
nombre de bits nécessaires à la représentation d’une information .Ces ornes sont données par
l’entropie de la source dans le cas d’un codage sans perte ou par une fonction débit distorsion dans
le cas du codage avec perte .
On cherche alors à approcher au mieux ces limites de performance ou encore à optimiser la qualité
subjective du signal reconstruit pour un débit de transmission ou un volume d’information donné.

De façon générale un codage permet de passer d'une représentation des données vers une
autre.

Le codage fait appel à des codec (CODeur/DECodeur) s'appuyant sur des algorithmes afin
de compresser une source pleine en une forme plus légère, mais toujours exploitable lors du
décodage, par ces mêmes codecs

2.1 Théorie de l’information

2.1.1 Présentation

La théorie de l’information est issue des travaux de Weaver et Shannon publiés en 1964.Ils
s’intéressent en particulier à l’aspect quantitatif de l’information (notion d’entropie).Le schéma de
communication proposé par Shannon est décrit par la figure 1.1 ou la source d’information produit
un message sous la forme d’une suite de bits qui transformée en un signal acceptable pour le canal ,
medium utilisé pour la transmission comme , par exemple , un réseau hertzien , un câble Ethernet
ou un bus d’ordinateur .
Le signal est alors reçu par le récepteur qui effectue en général l’opération inverse de l’émetteur ,
reconstruisant ainsi le message et délivrant au destinataire .

Signal
Source Destinataire
Émetteur Récepteur
d’info

Source
de bruit

Fig. 2.1 Schéma de communication

Dans le problème du canal bruité, le signal peut être bruité entre l’émetteur et le récepteur ( c’est-à-
dire perturbé par un signal aléatoire).Dans ce cas , pour recouvrer le message émis à partir du signal
reçu , l’émetteur va ajouter des bits de redondance .Ceux-ci vont permettre eu récepteur soit de
détecter soit de corriger une ou plusieurs erreurs .Dans le premier cas, il s’agit de codes détecteur
d’erreurs et dans le second cas, il s’agit de codes correcteurs d’erreur.[5]

27
Chapitre 2 Codage des données

2.1.2 Historique

La théorie de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-
ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la
dérivée du logarithme de la loi de probabilité étudiée. La valeur d'une telle information est
proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une
observation est probable, plus son observation apporte d'information. Par exemple, lorsque le
journaliste commence le journal télévisé par la phrase "Bonsoir", ce mot, qui présente une forte
probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple "la
France a peur", sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et,
partant, sera plus à l'écoute.
Claude Shannon et Waren Weaver renforcent le paradigme. Ils sont ingénieurs en
télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de
la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la
Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit,
entropie et chaos. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John Von
Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des
« Sciences de l'Information ».
Pour source X comportant n symboles, un symbole i ayant une probabilité pi d'apparaitre,
l'entropie H de la source X est définie comme :

(2.1)

C'est au départ le logarithme népérien qui est utilisé. On le remplacera pour commodité par
le logarithme à base 2, correspondant à une information qui est le bit.[6]

2.1.3 L’information

Une information désigne, parmi un ensemble d'évènements, un ou plusieurs évènements


possibles.

En théorie, l’information diminue l'incertitude. En théorie de la décision, on considère même qu'il


ne faut appeler information que ce qui est susceptible d'avoir un effet sur nos décisions (peu de
choses dans un journal sont à ce compte des informations...).

En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie
électronique, peut aboutir à une saturation, et empêcher la prise de décision.[6]

2.1.3.1 Exemple d’information

Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va
mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée
de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et réceptionné,
l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur
possède une incertitude de 10 états.[6]

28
Chapitre 2 Codage des données

2.1.3.2 Quantité d’information

Il faut moins de bits pour écrire chien que mammifère. Pourtant l'indication Médor est un
chien contient bien plus d'information que l'indication Médor est un mammifère : le contenu
d'information sémantique d'un message dépend du contexte. En fait, c'est le couple message +
contexte qui constitue le véritable porteur d'information, et jamais le message seul .

De la ; on peut définir la quantité d’information comme suit :

I = − log 2 ( Pi ) (2 .2)

Afin de mesurer cette quantité d'information, on pose :


I est exprimé en bit (ou logon, unité introduite par Shannon, de laquelle, dans les faits, bit est
devenu un synonyme).

Cette définition se justifie, car l'on veut les propriétés suivantes :

Ø l'information est comprise entre 0 et ;

Ø un évènement avec peu de probabilité représente beaucoup d'information .

Par exemple ; on a une boite qui contient 8 boules (6 vert et 2 rouge) la quantité
d’information de sortir une boule rouge est :
I=-log2(2/8)=2 .[6]

2.1.4 Entropie, formule de Shannon

L'entropie permet de mesurer la quantité d'information moyenne d'un ensemble


d'évènements (en particulier de messages). On la note H .

L'entropie de Shannon d'une variable aléatoire discrète X, avec n états possibles 1..n, est définie
comme :

(2.3)

Où désigne l'espérance mathématique.

Cette définition est utilisée en électronique numérique pour numériser une source en utilisant le
minimum possible de bits sans perte d'information.

Enfin, elle sert à connaître sur combien de bits au minimum on peut coder un fichier, ce qui est très
utile pour savoir quelle limite peuvent espérer atteindre les algorithmes de compression qui ne
perdent pas d'information (types Zip, LZW ou encore RLE, et non pas JPEG ou MP3). Il existe de
tels algorithmes dits optimaux, c'est-à-dire qui compressent le fichier en un fichier d'entropie
minimale.

29
Chapitre 2 Codage des données

On peut remarquer certaines caractéristiques de cette formule:

Ø La valeur de H est maximale pour une distribution uniforme, c'est à dire quand tous les
états ont la même probabilité.

Ø Toutes choses égales par ailleurs, H augmente avec le nombre d'états possibles (ce qui
traduit l'intuition que plus il y a de choix possibles, plus l'incertitude est grande).[6]

2.1.4.1 Exemple
On s’intéresse au nombre de bits nécessaires au codage des données homme et femme dans
une base de données lorsqu’il y a équiprobabilité des données. L’entropie vaut :
1 1
H = log 2 (2) + log 2 (2) = 1
2 2
Dans ce cas le champ « sexe » de la base de données ne requiert qu’un seul bit d’information pour
déterminer le sexe d’un individu.

2.1.5 Le quantificateur

Un quantificateur compare les valeurs d’entrée avec les niveaux de son dictionnaire (DECO
ou code book). Par la suite, il va affecter à chaque entrée le niveau du dictionnaire donnant la plus
petite distance euclidienne : (min d(xi , yi ) ).

DECO
N niveau

X[n] Y[n]
Q
Fig. 2.2 : Quantificateur type ; x est la grandeur d’entrée à
Quantifier et y est la valeur de sortie

2.1.6 Notions sur la Distorsion

Considérons le schéma d’un quantificateur Q de la figure 2.2.

On appelle la distorsion la distance euclidienne entre x [n] et y [n] :

Distorsion = d(x,y) ≥ 0 (2.4)

30
Chapitre 2 Codage des données

Pour un vecteur X de k échantillons ; on définit le débit par échantillon

log 2 ( N )
R= Bits (2.5)
k
Tel que : N : lettre (niveaux) de quantification ;
L’objet de la théorie de l’information est de représenter le signal avec un minimum de bits
et une distorsion minimale possible.
La théorie de codage nous apprend que R(D) est une limite théorique des performances des
systèmes de codage, et qu’il est possible d’atteindre une performance assez proche de cette limite.

Ce qui est dicté par l’équation ci-dessous [8] :


1
R ( D) = lim log 2 ( N ) (2.6)
k →∞ k

R(D) R(D)

Région Région
H(x) possible possible

Dmax D Dmax D

Source discrète Source continue


Fig. 2.3 : la fonction R (D)

2.2 Compression de donnée

La compression de données est réalisée en réduisant la redondance, cette dernière existait


même avant l'arrivée des ordinateurs. Elle date du 19e siècle avec l’invention du braille en 1820
(fig. 2.4) et du code Morse en 1838 (fig. 2.5) avec le fameux code SOS( …---…) .Elle a été
formalisée grâce à la théorie de l’information. [7]

Fig. 2.4 Les 26 lettres de Braille

Avec l’arriver des ordinateurs et le développement de la communication, la compression est


devenue plus nécessaire que jamais, surtout avec l’évènement de réseau : celle d’augmenter la
bande passante en diminuant le nombre de bits émis. Elle apporte une réponse algorithmique à ces
problèmes ; on cherche une représentation alternative des données qui est plus efficace en espace.

31
Chapitre 2 Codage des données

Fig. 2.5 Le code morse international

2.2.1 Jeu de Shannon

Lors de ses réceptions, Claude Shannon prenait un livre de littérateur qu’il ouvrait au hasard.
Ensuite, il commençait à lire un paragraphe puis s’arrêtait. À ce moment précis commençait le jeu
qu’il avait imaginé : il épelait lettre après lettre les mots du paragraphe dans l’ordre ou ils étaient
écrit. Mais, à chaque lettre nommée, il demandait à l’assistance de bien vouloir lui donner la lettre
suivante. Il notait alors les réponses, bonnes ou mauvaise .Si les invités ne trouvais pas la lettre
suivante, il la fournissait .En opérant un certain nombre de fois, Shannon a calculé
expérimentalement la proportion de bonnes réponse qui avoisinait 75%.Il en déduisit que la
redondance de la langue anglaise est de 3/4 ; c’est-à-dire que trois lettres sur quatre en moyenne
sont inutiles, puisque ses invités parvenaient à reconstruire le texte avec seulement une lettre sur
quatre. [5]

2.2.2 Algorithme de compression

L’algorithme de compression est le programme qui comprime la donnée Brute B fournie en


entrée et crée une sortie comprimé C. L’algorithme de décompression effectue l’opération inverse ;
souvent appelée reconstruction.

Bien qu’il y ait un grand nombre d’algorithmes de compression, on peut les classer en
plusieurs catégories [5]:

- Les algorithmes statistiques, tel que le code de Huffman ; ils construisent un


dictionnaire en effectuant une analyse statistique et globale du document.
- Les algorithmes dynamiques, comme ceux de Lempel et ZIV ; ceux-ci construisent
dynamiquement un dictionnaire et remplacent les données répétées par des liens vers
une entrées du dictionnaire.
- les méthodes heuristiques, quand à elles, essayent de « deviner » les éléments du
bloc de données .Ces dernières sont les plus récentes.

32
Chapitre 2 Codage des données

2.2.3 Les types de compression

On distingue deux méthodes de compression ; une compression sans distorsion(les méthodes


réversibles) et une compression avec distorsion (les méthodes irréversibles).

R(D)

R1 à R0 : R1
Compression sans
distorsion .
R0=H(x)
R0 à R2 :
Compression avec
R2
distorsion

Dmax D

Fig. 2.6 : les méthodes de compression

2.2.3.1 Les méthodes réversibles


La compression est dite sans perte lorsqu’il n’y a aucune perte de données sur l’information
d’origine.
Il y a autant d’information après la compression qu’avant ; elle est seulement réécrite de manière à
prendre moins de place.
L’information à compresser est une suite de symboles qui produit des textes uniques. Le but est de
réduire la taille moyenne des textes obtenus après la compression tout en ayant la possibilité de
retrouver exactement le message d’origine. Les formats de fichiers de compression sans pertes les
plus courants sont : gzip, gz, bz, bz2, rar, zoo, zip, zh, arj et arc.[9]

2.2.3.1.1 RLE

La méthode de compression RLE (Run Length Encoding) est utilisée par de nombreux
formats d’images (BMP, PCX, TIFF). Elle est basée sur la répétition d’éléments consécutifs. Le
principe de base consiste à coder un premier élément donnant le nombre de répétitions d’une valeur
puis à le compléter par la valeur à répéter.

Ainsi selon ce principe, la chaîne "AAAAAHHHHHHHHHHHHHH" compressée donne


"5A14H".
Le taux de compression est ainsi de 19/5 soit 3.8 .

En contrepartie pour la chaîne "REELLEMENT", dans lequel la redondance des caractères


est faible, le résultat donne "1R2E2L1E1M1E1N1T", la compression s’avère ici très coûteuse, avec
un taux de compression valant 10/16 soit 0 .625.

33
Chapitre 2 Codage des données

En réalité, la compression RLE est régie par des règles particulières (Lorsque trois éléments
ou plus se répètent consécutivement alors la méthode de compression RLE est utilisée) permettant
de compresser lorsque cela est nécessaire et de laisser la chaîne telle quelle lorsque la compression
induit un gaspillage.

Ainsi la compression RLE n’a de sens que pour les données possédant de nombreux
éléments consécutifs redondants, notamment les images possédant de larges parties uniformes.
Cette méthode présente toute fois l’avantage d’être peu difficile à mettre en oeuvre. Il existe des
variantes dans lesquelles l’image est encodée par pavés de points, selon des lignes, ou bien même
en zigzag.[9]

Fig. 2.7 : Méthode RLE.[9]

2.2.3.1.2 Codage de Huffman

Le codage de Huffman (1952) est une méthode de compression statistique de données qui
permet de réduire la longueur du codage d'un alphabet. On observe ainsi des réductions de taille de
l'ordre de 20 à 90%.

L'algorithme opère sur une forêt. Une forêt est ici un ensemble d'arbres étiquetés complets:
tout noeud interne (c'est-à-dire qui n'est pas une feuille) a deux fils non-vides.
La forêt initiale est formée d'un arbre à un noeud pour chaque lettre du langage-source, dont
l'étiquette est la probabilité de cette lettre. La forêt finale est formée d'un unique arbre, qui est
l'arbre de décodage du code.

L'algorithme est de type glouton: il choisit à chaque étape les deux arbres d'étiquettes
minimales, soit x et y, et les remplace par l'arbre formé de x et y et ayant comme étiquette la somme
de l'étiquette de x et de l'étiquette de y.

La figure (Fig. 2.7) représente les étapes de la construction d'un code de Huffman pour
l'alphabet source {A, B, C, D, E, F}, avec les probabilités P (A)=0.10, P (B)=0.10, P(C)=0.25,
P (D)=0.15, P(E)=0.35 et P (F)=0.05.

Le code d'une lettre est alors déterminé en suivant le chemin depuis la racine de l'arbre
jusqu'à la feuille associée à cette lettre en concaténant successivement un 0 ou un 1 selon que la
branche suivie est à gauche ou à droite. Ainsi, sur la figure ci-contre, A=0111, B=010, C=10, D=00,
E=11 et F=0110.

34
Chapitre 2 Codage des données

Par exemple le mot FADE serait codé 011001110011. Pour décoder, on lit simplement la
chaîne de bits de gauche à droite. Le seul "découpage" possible, grâce à la propriété du préfixe, est
0110-0111-00-11.[11]

Fig. 2.8 : le codage de Huffman

35
Chapitre 2 Codage des données

2.2.3.2 Les méthodes irréversibles

Le principe est clair : nous acceptons une dégradation de l’image décompressée


indiscernable à l’ il ou suffisamment faible pour être acceptable en contrepartie d’un taux de
compression beaucoup plus intéressant.
Il existe différentes approches de la compression avec perte. L’une d’entre elle, représentée
par l’algorithme JPEG, a occupé le devant de la scène depuis quelques années en raison de ses
performances et de la facilité de son implémentation sur micro. Cette situation est trompeuse et
d’autres méthodes déjà connues (ondelettes en particulier) vont s’imposer dans les années qui
viennent.

2.2.3.2.1 Exemple

On peut réduire une image qui fait 48 ko d’un format 400 x 400 pixels a 100 x 100 pixels.

La nouvelle image ne fait plus que 4 ko, elle contient 1 pixel pour chacun des 16 pixels de l’image
originale.

On remarque que la qualité de l’image est nettement dégradée si on l’agrandit à son ancienne taille
mais elle fait tout de même 20 ko.

36
Chapitre 2 Codage des données

Il est, d’habitude, impossible de déterminer les 16 pixels originaux du nouveau pixel obtenu. Bien
entendu, dans les fichiers de données, la compression irréversible n’est pas très utile. Par contre,
elle sert beaucoup dans le traitement des images et de la parole [9].

2.2.3.2.2 Les Méthodes des techniques irréversibles

Elles peuvent être classées en deux classes : les technique directes : opèrent directement
dans le domaine temporel, les technique indirectes : opèrent sur les coefficients d’une transformée
linéaire du signal.

2.2.3.2.2.1 Méthode directe


On utilise la prédiction et l’interpolation .L’idée est d’éliminer certain échantillons qui
peuvent être réduits en examinant les échantillons précédent et futur dans la séquence d données
.L’implémentation de tels algorithmes de compression est achevée en considérant à priori un seuil
d’erreur tolérée. On commence par accorder un modèle à notre signal, le modèle est défini par ses
paramètres .Ensuite pour chaque échantillon on calcule l’erreur entre l’échantillon original et
l’échantillon déduit par le modèle. Si l’erreur est supérieure au seuil d’erreur tolérée l’échantillon
doit être sauvegardé. Dans le cas contraire, on dit que l’échantillon est redondant. Il existe plusieurs
modèles qui peuvent être considérés. Les modèles prédictifs utilisent les échantillons précédents et
les modèles interpolatifs utilisent les échantillons précédents et futurs.

2.2.3.2.2.2 Méthode indirecte

Se sont des techniques de compression basée sur la quantification des coefficients résultants
d’une transformée linéaire de la séquence original (Fig. 2.8)

37
Chapitre 2 Codage des données

X T U Y

Q1

Q2

A A-1

QN

Fig. 2.9: Schéma block de la compression par transformée

La transformée N*N d’une séquence x[n] ;n=1,2,…,N est la séquence t(k) ; k=1 ,2,…,N
donnée par :
N
t[k ] = ∑ a[k , n] ⋅ x[n] (2.7)
n =1
Ou : l’ensemble a[k,n] est dit « noyau de la transformée » .et les éléments t[k] sont dits ‘ les
coefficient de transformée’ .
En notation matricielle on a :
T=A*X
(2.8)
X=B*T

Et on a : B=A-1 ; B={bk} ; k=1,…,N ; {bk} : un ensemble de vecteur de base ,on peut écrire :
N
x[n] = ∑ t [k ] ⋅ bk (2.9)
n=1
La séquence de sortie Y est donnée par :
N
Y = ∑ u[k ] ⋅ bk (2.10)
n=1
Ou : u[k]=Q(t[k]) ; Q : étant l’opérateur de quantification. [10]

38
Chapitre 2 Codage des données

2.2.4 Critères de performances d’une méthode de compression

Tout critère de performance pour évaluer un système de compression de données doit


prendre en considération deux facteurs importants, à savoir :

- Le Taux de compression (CR) : est défini comme étant le rapport de débit du signal
compressé (en terme de bits/seconde) au débit du signal original ou bien il est basé sur la
comparaison du nombre d’échantillons du signal original au nombre d’échantillons résultants du
processus de compression :

nombre d' échantillo ns du signal original


CR = (2.11)
nombre d' échantillo ns résultants du processus de compressio n.

- Le pourcentage de la puissance d’erreur (PRD) :c’est une mesure de la distorsion (ou


bien la distance relative entre le signal original et le signal reconstruit après le processus de
compression), est donné par l’expression :

∑ ( x(i) − y(i)) 2

PRD = i =1
n
(2.12)
∑ x(i)
i =1
2

X : étant le signal original.


Y : étant le signal reconstruit après le processus de compression.

En plus dans notre cas ; il y’a un troisième facteur important :

- Le critère subjectif de la vision : c’est un critère très important dans ce stade ; il nous
informe sur l’influence du processus de compression sur la morphologie du signal.

Il existe certain facteurs liés au signal utilisé pour tester les algorithmes de compression, qui
influent sur les résultats du processus de compression :

- La fréquence d’échantillonnage du signal original : le signal original est considéré


suréchantillonné, et plus la fréquence d’échantillonnage augmente plus le taux de compression
augmente.
- La nature de signal E.C.G (la dérivation considérée, l’âge de patient, et la présence des
arythmies …). tous influent sur le taux de compression de la technique considérée.
- Le degré auquel le signal est contaminé par le bruit : plus le signal est bruité, le rapport
de compression diminue pour certain techniques de compression. [10]

Conclusion
Les techniques de compression sans distorsion, sont utilisées surtout avec des données
délicates, comme les fichiers informatiques, les données des banques…etc. Les techniques de
compression avec distorsion permettent d’atteindre un taux de compression très élevé par rapport à
celui généré par les techniques de compression sans distorsion.

39
Chapitre 3
Les techniques de compression

40
Chapitre3 Les techniques de compression

Les techniques de compression du signal ECG sont multiples. Les méthodes directes se
résument à accorder un modèle aux échantillons du signal et de ce fait, certains de ces échantillons
peuvent être reproduits connaissant un nombre minimum d’échantillons et /ou les paramètres du
modèle. Les techniques par transformée utilisent les transformées orthogonales pour décorréler les
échantillons du signal et approximer ce signal par les coefficients prépondérants dans l’espace
transformé.
Dans ce chapitre nous présentons deux méthodes de compression : La méthode des splines
qui est une méthode directe et la méthode des ondelettes qui est une méthode par transformée.

3.3 Méthode des splines

3.1.1 Définition

Dans le domaine mathématique de l'analyse numérique, une fonction spline est une fonction
définie par morceaux S(x) par des polynômes.

Dans les problèmes d'interpolation, la méthode des splines est souvent préférée car on
obtient des résultats similaires en se servant de polynômes ayant des degrés inférieurs (en général,
de degré 3-la spline cubique).[12]

m
Qi ( x ) = ∑ ak ⋅ ( x − x i )k
(i)
(3.1)
k =0

Fig. 3.1 : Interpolation par splines

41
Chapitre3 Les techniques de compression
Le nombre des intervalles est déterminé par une échelle H, hi=xi+1-xi -le pas- (pas
nécessairement constant mais positif: x0<x1<...<xn). Les points xi sont appelés n uds.

Les conditions de continuité de spline sont [10] :


dj dj
Q i−1 ( x i ) = Qi ( x i ) (3.2)
dx j dx j

Tel que : j = 0 ,1 ,2 ,..., m [10]

3.1.2 Les splines cubiques

Fig. 3.2 : Interpolation par les splines cubiques [13]

Les splines cubiques, sont généralement les plus utilisées.

On a :
Q1 ( x ) = a1 ( x − x1 )3 + b1 ( x − x1 )2 + c1 ( x − x1 ) + d 1
Q2 ( x ) = a2 ( x − x2 )3 + b2 ( x − x 2 ) 2 + c 2 ( x − x 2 ) + d 2
.
(3.3)
.
Qi ( x ) = ai ( x − xi ) + bi ( x − xi )2 + ci ( x − xi ) + d i
3

.
.
Qn −1 ( x ) = a n−1 ( x − xn −1 ) + bn −1 ( x − x n−1 )2 + cn −1 ( x − x n−1 ) + d n −1
3

42
Chapitre3 Les techniques de compression

A - Condition 1 : Continuité des fonctions :

y1 = Q1 ( x1 )
y2 = Q1 ( x 2 ) = Q2 ( x 2 )
...
yi = Qi −1 ( xi ) = Qi ( x i ) (3.4)
...
yn −1 = Qn− 2 ( xn−1 ) = Qn−1 ( xn−1 )
y n = Q n− 1 ( x n )

B - Condition 2 : Continuité des dérivées premières :

Q '1 ( x1 )
Q '1 ( x 2 ) = Q ' 2 ( x2 )
...
Q i −1 ( x i ) = Q ' i ( x i )
'
(3.5)
...
Q n− 2 ( x n −1 ) = Q ' n −1 ( xn −1 )
'

Q ' n− 1 ( x n )

C -Condition 3 : Continuité des dérivées secondes :

Q ''1 ( x1 ) = S1
Q ''1 ( x 2 ) = Q ''2 ( x 2 ) = S 2
...
Q i −1 ( x i ) = Q '' i ( x i ) = S i
''
(3.6)
...
Q n − 2 ( x n−1 ) = Q '' n −1 ( x n −1 ) = S n−1
''

Q '' n −1 ( xn ) = S n

En utilisant les conditions, et après des calculs ; on aura :

( S i +1 − S i )
ai =
6hi
Si
bi =
2 (3.7)
y − yi ( 2 S i + S i +1 )hi
ci = i +1 −
hi 6
d i = yi

43
Chapitre3 Les techniques de compression

Tel que :
hi = x i +1 − xi

Et les S i sont les solutions des équations :


yi +1 − yi yi − yi −1
hi −1 S i −1 + ( 2hi −1 + 2hi ) S i + hi S i + 1 = 6[
− ] (3.8)
hi hi −1
Pour i = 2,..., n − 1 , donc (n-2) équations à n inconnues S1 ,..., S n
Donc il faut ajouter une nouvelle condition (Conditions frontières) ; on a plusieurs types :

- Extrémités libres (free boundary conditions) : S1 = S n = 0 ; On appelle ce type les


splines naturelles (natural spline).

- On ajoute deux conditions : S1 = S 2 ; S n = S n −1 .

- On ajoute deux conditions :


S1 = Extrapolation linéaire de S2 et S3
Sn = Extrapolation linéaire de Sn-2 et Sn-1 [13] .

Fig. 3.3 : Extrapolation linéaire.[13]

44
Chapitre3 Les techniques de compression
3.1.3 La fonction spline en MATLAB

La fonction spline existe en MATLAB :

YY = SPLINE(X,Y,XX) ; elle donne les valeurs de la spline cubique pour les points xx(i) .et elle
calcule les splines cubiques entre les points (x(i),y(i)) et (x(i+1),y(i+1)) ;

3.1.3.1 Exemple

Pour le programme suivant :

>> x = 0:10; y = sin(x);


xx = 0:.25:10;
yy = spline(x,y,xx);
plot(x,y,'o',xx,yy)

On aura le résultat suivant :

y=f(x)
0.8
yy=f(xx)

0.6

0.4

0.2
amplitude

-0.2

-0.4

-0.6

-0.8

-1
0 1 2 3 4 5 6 7 8 9 10
temps

Fig. 3.4 : interpolation par les spline cubique en utilisant MATLAB

3.1.4 Compression par algorithme des splines

L’algorithme de spline peut être utilisé à la réduction de la redondance statique. Le


problème de la compression se pose de la manière suivante : Comment peut-on trouver la quantité
minimale d’échantillons à garder dans la mémoire d’un calculateur de sorte que cette quantité soit
suffisante pour interpoler l’ensemble de donnée par l’algorithme des splines, et garantir une
distance limite fixé entre le signal original et le signal reconstruit.
En utilisant l’algorithme des splines, il est facile de crée l’algorithme de choix des échantillons de
contrôle du signal d’entrée, soit f(xi) l’échantillon disposé à droite de l’intervalle ‘’i-1’’ qui vient
d’être choisi comme échantillon de contrôle .On choisi le point ‘’i+2’’ comme extrémité droite de
l’intervalle ‘’i’’ ; on calcule alors les coefficients { ai ; bi ; ci ; d i } et on compare la valeur de

45
Chapitre3 Les techniques de compression
l’échantillon au point ‘’xi+1’’ calculée par la spline à la valeur originale , si la différence entre ces
deux ne dépasse pas la tolérance (seuil) cela signifie que l’échantillon f[xi+1] est redondant , on
franchit alors xi+2 et on va au point xi+3 ; on calcule les coefficients { ai ; bi ; ci ; d i } , on compare les
valeurs calculées aux points xi+1 et xi+2 au valeurs originales ; si les différences ne dépassent pas la
tolérance (seuil) on va au point xi+4 … etc. ; jusqu’à la valeur de l’argument xi+k ou au moins une
différence dépasse 1 le seuil , il est alors nécessaire de reculer d’un pas et de fixer
f [ x i + k −1 ] comme échantillon de contrôle suivant. On répète la procédure pour les points
suivants : on construit la nouvelle spline au point x i + k − 1 …etc.
Finalement le nouvel ensemble d’échantillons possède une quantité de points initiaux d’autant
faible que la tolérance est grande.

La reconstruction de signal est faite à partir des échantillons de contrôle en calculant pour chaque
spline ses coefficients. Les échantillons manquant sont pris identiques à ceux de la spline. [10]

Initialisation de la spline

Calcul des
coefficients
{ ai ; bi ; ci ; d i }

Mémorisation de Calcul des Incrémenter


l’échantillon et différences dj l’intervalle de la
nouvelle spline J=1,…,k-1 spline

OUI NON
dj>eps
j=1,…,k-1

Seuil
Fig. 3.5 : Organigramme de l’algorithme des splines

46
Chapitre3 Les techniques de compression
3.2 Méthode des ondelettes

3.2.1 Introduction

Il est bien connu que la transformée de Fourier donnée comme étant une généralisation de
la série de Fourier –caractérisant les signaux périodiques- a l’inconvénient majeur d’ignorer
complètement la contribution temporelle exacte d’une fréquence dans un signal.

En pensant à résoudre ce problème, GABOR en 1946 a introduit la transformée de Fourier


à court terme. Cette dernière se base sur le fenêtrage (windowing). Il s’agit de segmenter en
tranches de temps fixes le signal à analyser pour appliquer par la suite la TF à chaque tranche.
Cette manière d’analyser a mené à un compromis difficile à satisfaire. Ce critère à mener aux
constatations suivantes :
• Fenêtre de temps longue : une bonne résolution fréquentielle contre une résolution
temporelle pauvre.
• Dans le cas inverse, une fenêtre de temps courte : une résolution fréquentielle
pauvre contre une résolution temporelle plus au moins précise.

La suite logique qui devrait résoudre ce problème a été l’élaboration de l’outil puissant
dénommé par la transformée en ondelettes (wavelets).

Les domaines d’applications qui ne cessent de s’accroître, depuis la télécommunication à la


médecine en passant par l’analyse sismique, l’océanographie, la prospection géologique, …
démontrent d’une manière concluante la puissance de cet outil [7], [14].

3.2.2 Caractérisation des ondelettes

Les ondelettes (wavelets) sont issues de ce qu’on appelle onde mère (mother wave).On
aboutira à représenter n’importe quel signal L2, par une base d’ondelettes qui ne sont que des
versions dilatées et translatées de l’onde mère. La représentation d’un signal continu x(t) par une
base d’ondelettes est donnée par :

x( t ) = ∑ W (a , b) ⋅ Ψa ,b (t ) (3.9)

où W(a,b) est la pondération (le poids) de la contribution de l’ondelette a,b liée à l’onde mère
par :

1 t−b
Ψa ,b (t ) = Ψ( ) (3.10)
a a

a : est l’échelle et b : est la translation. La pondération de chaque ondelette est décrite par :

+∞

∫ x(t ) ⋅ Ψ

W (a , b ) = a ,b (t ) dt (3.11)
−∞

47
Chapitre3 Les techniques de compression
3.2.2.1 Condition d’admissibilité

Les ondelettes doivent être L2, c'est-à-dire carré intégrable et vérifier la condition
d’admissibilité suivante :

+∞

∫ Ψ( t ) ⋅ e
− jωt
W (ω ) ω = 0 = dt (3.12)
−∞ ω =0

Cette condition est nécessaire pour s’assurer d’avoir le signal d’origine x(t) à partir de la
transformée inverse d’ondelettes.

3.2.2.2 Illustration du changement d’échelle et de la translation

Le changement d’échelle sert à compresser ou dilater l’onde mère, ce qui mène à analyser
les hautes fréquences ou les basses respectivement contenues dans un signal.

(a) L’onde mère ; (b) L’ondelette pour 0<a< 1 ; (c) L’ondelette pour a>1
Fig. 3.6 : illustration de la variation du facteur d’échelle

Le facteur d’échelle est lié à la fenêtre analysante de l’ondelette. Une longue fenêtre veut
dire une vue globale tandis qu’une courte veut dire une vue de détails.
La translation est l’opération de glissement de l’ondelette tout au long du signal. C’est la technique
similaire à celle de TFCT de GABOR.

48
Chapitre3 Les techniques de compression
3.2.2.3 L’algorithme d’implémentation de la transformée d’ondelettes continue CWT

L’implémentation de la transformée d’ondelettes continue peut se résumer en [14] :

ETAPE 1 : Prendre l’ondelette et la comparer au segment du signal en cours.


(Ceci en débutant par le premier segment du signal).

ETAPE 2 : Calculer le coefficient W(a,b).

ETAPE 3 : Translater l’ondelette ; répéter ETAPE 1 à ETAPE2 jusqu’à


balayer tout le signal.

ETAPE 4 : Dilater ou compresser l’ondelette et répéter ETAPE 3.

ETAPE 5 : Répéter ETAPE 4 pour toutes les échelles choisies.

La transformée discrète en ondelettes est issue de la version continue, à la différence de cette


dernière, la TOD utilise un facteur d’échelle et une translation discrétisés. On appelle transformée
en ondelettes discrète dyadique toute base d’ondelettes travaillant avec un facteur d’échelle a=2i. Il
est clair que la TODD est pratique en implémentation sur tout système numérique (PC, DSP,
CARTE à µP…).
Il est à noter que la transformée en ondelette continue TOC est aussi implémentable sur les
systèmes digitaux avec un lourd calcul provenant de la nature continue du facteur d’échelle et de la
dilatation (Toutes les valeurs sont possibles).

3.2.3 Analyse multirésolution

L’analyse en multi-résolution permet d’analyser un signal en différentes bandes de


fréquences, ce qui permet une vue de la plus fine è la plus grossière.

Soit la fonction échelle. Elle doit être L2 et ayant une moyenne non nulle.

On forme une base de fonctions d’échelle pour tout i Z comme suit :


ϕ i , j ( t ) = 2− i / 2 ϕ ( 2 − i t − j ) (3.13)

Et de la meme manière la base d’ondelette :


Ψi , j ( t ) = 2− i / 2 Ψ (2 − i t − j ) (3.14)

Le facteur d’échelle dyadique mène à :


ϕ ( t ) = ∑ 2 ⋅ h( j ) ⋅ ϕ ( 2t − j )
j

(3.15)
ψ ( t ) = ∑ 2 ⋅ g( j ) ⋅ ϕ ( 2t − j )
j

49
Chapitre3 Les techniques de compression

(3.15) représente la décomposition de la fonction échelle et de l’ondelette en combinaisons linéaires


de la fonction échelle à la résolution haute suivante directement.
On note que h(j) et g(j) sont les filtres passe bas et passe haut respectivement lors d’une
décomposition par ondelettes.

3.2.4 Algorithme de MALLAT


Cet algorithme est schématisé par la structure suivante :

LA 2
CA 2 LR

X(n) X(n)

CD
HA 2 2 HR

Fig. 3.7 : Algorithme de MALLAT uni-dimensionn

Le signal x (n) est décomposé par les deux filtres d’analyse LA (filtre basses fréquences) et
HA (filtres hautes fréquences) pour donner deux vecteurs respectivement CA (coefficients ondelette
d’approximation) et CD (coefficients ondelette de détails). Tous les deux sont de taille
approximativement égale à la moitié du vecteur d’origine. Ceci résulte de l’opération de décimation
par 2 (downsampling).

La reconstruction parfaite est théoriquement possible. Tout d’abord, on fait passer les deux
vecteurs CA et CD par un suréchantillonnage (upsampling) puis un filtrage par le filtre LR (filtre
passe bas de reconstruction) pour le vecteur CA et le filtre LH (filtre passe haut de reconstruction)
pour le vecteur CD. Ensuite, on somme ces deux vecteurs. Les vecteur résultant n’est que le vecteur
d’origine x (n).

Cette décomposition/reconstruction est appelée décomposition/reconstruction en banc de


filtres. Elle est caractéristique aux signaux unidimensionnels. Le quadruple (LA, HA, LR et HR)
forme un banc de filtres miroirs en quadrature.

Le schéma montrant la décomposition de signaux bidimensionnels tels que l’image est


représenté par la figure 3.8. Cette architecture est adaptée à l’analyse des signaux bidimensionnels
et spécialement à l’image. Après une décomposition d’une image (par exemple) de taille NxM et
après la décimation, quatre sous-images (sub-images) résultent dénotant C (les coefficients
d’approximations), CH (les coefficients de détails horizontaux), CV (les coefficients de détails
verticaux) et CD (les coefficients de détails diagonaux). La reconstruction est l’opération similaire
mais inversement.

50
Chapitre3 Les techniques de compression

Colonnes

Lignes LA 2 CL

LA 2

HA 2 CH

X(n,m)

LA 2 CV

HA 2

HA 2 CD

(a): Décomposition

Lignes

CL 2 HA
Lignes Colonnes

2 LA
CH
2 HA
X(n,m)
CV
2 LA

HA
2

HA
CD 2

(b): Reconstruction

Fig. 3.8 : Algorithme de MALLAT bi-dimensionnel.

51
Chapitre3 Les techniques de compression
Récemment, les images médicales volumétriques ainsi que la vidéo ont fait l’objet d’une
analyse par ondelette selon l’algorithme de MALLAT extensible au cas du 3D. Dans le cas des
images volumétriques le troisième axe et Z, tandis que pour la vidéo ce n’est que le temps.

3.2.5 Architecture pyramidale


L’architecture pyramidale se base sur la décomposition de signal en deux signaux :
approximations et détails. Le signal « approximations » est à son tour décomposé et ainsi de suite.

La figure 3.9 illustre cette stratégie.

S(n)

Niveau 1
CA1 CD1

Niveau 2
-------------------------------------------------
CA2 CD2

Fig. 3.9 : Décomposition pyramidale de profondeur 2.

Ce schéma illustre la décomposition d’une profondeur (depth) de 2 niveaux. S (n) est le


signal original de taille N. CA1 est le signal basses fréquences de taille N/2 résultant de la première
décomposition tandis que CD1 est le signal « détails » (hautes fréquences) issu de la même
décomposition.

3.2.6 Paquet d’ondelettes

Cette architecture est similaire à la pyramidale, mais à chaque niveau de profondeur i on


associe après la décomposition, deux fils (children) au niveau i+1.

La figure 3.10 montre une décomposition jusqu’au niveau 3 en paquets.

52
Chapitre3 Les techniques de compression

S(n)

CA1 CD1

CA1A2 CA1D2 CD1A2 CA2D2

CA1A2A3 CA1D2A3 CD1A2A3 CD1D2A3

CA1A2D3 CA1D2A3 CD1A2D3 CD1D2D3

Fig. 3.10 : Décomposition en paquets d’ondelettes de profondeurs 3.

3.2.7 Comment agissent les ondelettes ?

La compression basée sur les transformées (Transformed Based Compression), comme


l’ondelette, le cosinus discret, Hadamard…est caractérisée par la grande capacité de concentrer
l’énergie du signal autour de peu de coefficients. La transformée d’ondelettes concentre
l’information pertinemment dans les basses fréquences.

3.2.8 La Quantification

Les coefficients résultants sont en réalité de type réel. La première approximation des
coefficients est le « rounding off », c'est-à-dire, approximer chaque coefficient réel par un autre type
entier le plus proche possible. Ceci n’est guère suffisant, des travaux font appel a la quantification
scalaire uniforme ou non uniforme, d’autres font appel à la quantification vectorielle.

3.2.9 Le codage de source


Cette étape est facultative mais elle améliore le taux de compression « compression ratio :
CR » d’une manière confirmée. On peut citer le codage de Huffman, RLE…etc.

53
Chapitre3 Les techniques de compression
3.2.10 Ondelette de Haar

L’ondelette de Haar est la plus simple à implémenter. Elle est définie par ses filtres passe
bas et passe haut comme suit [10]:

 1
 , k = o ,1;
g[k ] =  2 (3.16)
o , ailleurs .

 1
 2 , k = o,

 1
h[ k ] =  − , k = 1, (3.17)
 2
o , ailleurs .

3.2.11 Compression de l’ECG

Dans ce travail, on s’est basé sur l’ondelette de HAAR et sur le phénomène du seuillage
(thresholding). L’algorithme utilisé est le suivant [14]:

ETAPE 1 : Décomposition du signal ECG –à valeur moyenne nulle- par


l’ondelette de Haar.

ETAPE 2 : Seuillage des coefficients de la transformée.

ETAPE 3 : Génération des coefficients dominants (Non-zéro) dans un seul


vecteur.

ETAPE 4 : Génération d’un vecteur localisant chronologiquement les Non-zéro.

ETAPE 5 : Quantification scalaire linéaire des Non-zéro.

La première étape consiste à décomposer le signal en utilisant l’architecture d’ondelette de


Haar pyramidale jusqu’à un niveau voulu [7].

Pour le seuillage des coefficients, il s’agit de trouver un pourcentage de coefficients


négligeables (Pcoz) en fonction du seuil TH et ceci en utilisant la dichotomie.

54
Chapitre3 Les techniques de compression
La dichotomie est détaillée par la suite :

ETAPE 0 : Initialisation
• Fixer en avance une valeur désirée dite Pcozf à atteindre par Pcoz.
• Sélectionner l’intervalle de recherche [THmin , THmax ].
• Donner la précision de convergence .

TH min + TH max
• Calculer TH : TH = (3.18)
2

ETAPE 1 : Seuillage
• Mettre à zéro tous les coefficients inférieurs ou égaux à TH.

ETAPE 2 : Calcul du Pcoz (TH)


• Calculer le Pcoz du signal seuillé pour la valeur courante de TH.

ETAPE 3 : Mise à jour du TH


• Si (Pcoz <Pcozf) alors THmin = TH, sinon THmax = TH.

TH min + TH max
• TH =
2
ETAPE 4: Condition de terminaison
• Si Pcoz-Pcozf aller à ETAPE1, sinon STOP.

La fonction Pcoz (TH) est donnée par :

coz
Pcoz( TH ) = × 100 (3.19)
dim co

Où Coz est le nombre de coefficients d’ondelette inférieurs ou égaux à TH.


Co est tout l’ensemble de coefficients d’ondelettes.

Après l’étape du seuillage, deux vecteurs sont générés :


- Le vecteur des coefficients dominants (>TH).
- Le vecteur référant chronologiquement ces coefficients Non-zéro.

Le vecteur des coefficients dominants est ensuite quantifié par un quantificateur linéaire.

Conclusion
La compression par les méthodes directes est traduite par une modélisation du signal. Le
modèle nous permet de reproduire les échantillons du signal connaissant quelques échantillons,
c’est le cas de la méthode des splines. La méthode des ondelettes consiste à éliminer les détails qui
n’influent pas sur le signal vis-à-vis du critère subjective de la vision.

55
Chapitre 4
Résultats et discussions

56
Chapitre 4 Résultats et discussions
Dans ce chapitre, on présente les résultats d’application de nos propres programmes sur le
signal ECG, pour faire par la suite, une comparaison entre les deux méthodes en se basant sur les
critères indiqués dans le chapitre 2. Les programmes on été développés en utilisant le compilateur
MATLAB 7.0. Comme indiqué ci-dessus, on a utilisé des signaux ECG réels issus de la base de
données célèbre et de référence MIT-BIH ARRYTHMIA.

Les deux méthodes (Splines, et ondelettes) sont appelées « méthodes avec tolérance| ». Le
seuil de tolérance dans ces méthodes peut être variable et pour chaque valeur on a un rapport de
compression et une erreur de compression. En ce qui concerne la méthode des ondelettes, après
plusieurs essais on s’est arrêté au niveau 2.

Dans ce qui suit, on va présenter les résultats obtenus pour trois signaux différents: un signal
ECG normal sans bruit, un signal bruitée et un autre fortement bruité. Tous ces signaux sont
échantillonnés avec une fréquence de 360 Hz et prélevés sur une durée de 30 minutes ce qui fait
648000 échantillons pour chaque signal. Seulement 1024 échantillons ont été pris en considération.

4.1 Résultats

4.1.1 Signal ECG sans bruit

Dans ce cas, les algorithmes de compression sont testés en utilisant un signal ECG normal. Les
résultats se présentent sous forme de courbes du signal reconstruit ; deux courbes pour chaque
algorithme afin de présenter les deux cas : cas d’un rapport de compression relativement faible et le
cas d’un rapport de compression relativement élevé et sous forme de tableau pour comparer ces
méthodes par des critères objectifs (le rapport CR et la distance relative PRD). Pour une
comparaison plus significative, nous avons dressé la courbe représentant la variation du rapport de
compression avec la variation de la distorsion pour les deux méthodes.

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Fig. 4.1 signal ECG normal.

57
Chapitre 4 Résultats et discussions

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Seuil =0.02 ; CR=9.0619 ; PRD= 5.5817 %

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Seuil =0.05 ; CR= 17.6552 ; PRD= 36.1939 %

Fig. 4.2 Signal reconstruit par la méthode des splines.

58
Chapitre 4 Résultats et discussions

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =1 ; pcoz = 40 % ; CR= 1.7095 ; PRD= 1.3721 %

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =1 ; pcoz = 50 % ; CR= 2.0157 ; PRD= 3.5071 %

Fig. 4.3 Signal reconstruit par la méthode des ondelettes (niveau 1).

59
Chapitre 4 Résultats et discussions

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =2 ; pcoz = 40 % ; CR= 1.6151 ; PRD= 20.3686 %

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =2 ; pcoz = 50 % ; CR= 2.023 ; PRD= 20.3998 %

Fig. 4.4 Signal reconstruit par la méthode des ondelettes (niveau 2).

60
Chapitre 4 Résultats et discussions
4.1.1.1 Fonction CR(PRD)

Le tableau suivant résume les résultats obtenus pour les deux méthodes.

CR PRD
Ondelettes 1.7095 1.3721 %
2.0157 3.5071 %
Splines 9.0619 5.5817 %
17.6552 36.1939 %

Tab 4.1 Evaluation de techniques de compressions par critères objectifs

16

ONDELETTE

14

SPLINE

12

10
CR

0
0 10 20 30 40 50 60
PRD

Fig. 4.5. Courbe représentant la fonction CR(PRD)

4.1.2 Signal ECG bruité

En pratique, les signaux collectés sont souvent contaminés par des bruits tel que le bruit de
fond au niveau des capteurs; c'est pourquoi, le test de la réponse des algorithmes de traitement aux
signaux bruités est très important. Dans cette section, on excite nos algorithmes par un signal ECG
bruité, et un autre fortement bruité (Fig.4.6 et Fig.4.7) et on présente les résultats sous forme de
courbes (signal reconstruit), ainsi que les critères objectifs (rapport de compression: CR, et la
distance relative: PRD).

61
Chapitre 4 Résultats et discussions

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Fig. 4.6 Signal ECG bruité.

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Fig. 4.7 Signal ECG fortement bruité.

62
Chapitre 4 Résultats et discussions
4.1.2.1 ECG bruité

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Seuil =0.02 ; CR= 5.2513 ; PRD= 7.1781 %

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Seuil = 0.04 ; CR= 16 ; PRD= 35.6455 %

Fig. 4.8 Signal reconstruit par la méthode des splines.

63
Chapitre 4 Résultats et discussions

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =1 ; pcoz = 40 % ; CR= 1.6254 ; PRD= 1.6092 %

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =1 ; pcoz = 50 % ; CR= 2.0687 ; PRD= 3.0244 %

Fig. 4.9 Signal reconstruit par la méthode des ondelettes (niveau 1).

64
Chapitre 4 Résultats et discussions

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =2 ; pcoz = 40 % ; CR= 1.6177 ; PRD= 20.5907 %

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =2 ; pcoz = 60 % ; CR= 2.4208 ; PRD= 20.7812 %

Fig. 4.10 Signal reconstruit par la méthode des ondelettes (niveau 2).

65
Chapitre 4 Résultats et discussions
4.1.2.2 ECG fortement bruité

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Seuil = 0.02 ; CR= 3.8352 ; PRD= 7.6198 %

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Seuil = 0.04 ; CR= 5.5652 ; PRD= 11.4340 %

Fig. 4.11 Signal reconstruit par la méthode des splines.

66
Chapitre 4 Résultats et discussions

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =1 ; pcoz = 40 % ; CR= 1.6705 ; PRD= 2.3776 %

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =1 ; pcoz = 50 % ; CR= 2.0729 ; PRD= 5.0616 %

Fig. 4.12 Signal reconstruit par la méthode des ondelettes (niveau 1).

67
Chapitre 4 Résultats et discussions

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =2 ; pcoz = 40 % ; CR= 1.6870 ; PRD= 20.8731 %

1.2

0.8

0.6
amplitude

0.4

0.2

-0.2

-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon

Niveau =2 ; pcoz = 60 % ; CR= 2.5664 ; PRD= 21.0209 %

Fig. 4.13 Signal reconstruit par la méthode des ondelettes (niveau 2).

68
Chapitre 4 Résultats et discussions
4.2 Discussions

Les méthodes directes de compression se résument à accorder un "modèle " aux échantillons
du signal, et de ce fait, certains de ces échantillons peuvent être reproduits connaissant un nombre
minimum d'échantillons et/ou les paramètres du modèle. Les techniques par transformées utilisent
les transformées orthogonales pour décorréler les échantillons du signal et approximer, ensuite, ce
signal par les coefficients prépondérants dans l'espace transformé. Pour notre application (signal
ECG) on a sélectionné deux techniques suivantes:
- La méthode des splines qui est une méthode directe interpolative, dans laquelle on modélise le
signal par une succession de segments de polynômes d'ordre trois. On note que les paramètres du
modèle dans ce cas ne sont pas mémorisés et peuvent être reproduits à partir échantillons de
contrôles.
- La représentation en ondelette de Haar est un algorithme récursif qui consiste à décomposer le
signal en chaque étape en une composante représentant les détails perdus en passant de la résolution
précédente à la résolution actuelle. Dans notre cas on s'est contenté de représenter les résultats des
deux premiers niveaux. La compression par ondelettes est basée sur la quantification des
coefficients de la représentation en ondelettes, l'algorithme implémenté dans notre cas consiste à
éliminer les coefficients (détails) dont l'amplitude est au dessus d'un certain seuil.
Les résultats des tests effectués montrent la différence qui existe au niveau des performances
de ces techniques de compression appliquées au signal ECG. Ces performances peuvent être
analysées selon quatre axes principaux à tenir compte lors des implémentations pratiques:
- La fonction Rapport de compression / Distorsion (CR/PRD).
- L'effet du bruit.
- La qualité du signal reconstruit.
- Puissance de calcul nécessaire.

4.2.1 Fonction CR / PRD

La figure (4.5) présente cette fonction pour les deux techniques de compression développées
(splines et ondelettes avec ses deux niveaux). On remarque que la méthode des splines présentes les
meilleurs résultats avec des rapports de compression les plus élevés pour de faibles distorsions. La
méthode des ondelettes niveau 1 présente des résultats intéressants, comparée à la méthode des
ondelettes niveau 2.

4.2.2 Effet du bruit

Lorsqu'on applique un signal bruité à un algorithme de compression, il est clair que le apport
de compression est dégradé autant que la puissance du bruit est élevée. Pour avoir un rapport de
compression (CR) acceptable il est recommandé d'augmenter la tolérance (seuil). Les résultats des
tests montrent que la sensibilité de ces algorithmes aux bruits diffère d'un algorithme à un autre et
que l'algorithme des ondelettes niveau 1 est meilleur vis-à-vis les signaux bruités.

4.2.3 Qualité du signal reconstruit

Les deux algorithmes de compression provoquent un lissage au niveau du signal, les détails
fins sont perdus autant que la tolérance (seuil) et/ou le rapport de compression est élevé. C'est
pourquoi, on doit tenir compte lors du choix du seuil de ne pas perdre l'onde "P" du signal ECG. La
méthode des ondelettes provoque des discontinuités dans le signal reconstruit pour les rapports de
compression assez élevés. Cette discontinuité est plus claire avec le niveau 2.

69
Conclusion

70
Cette étude nous a permis de voire de plus prés les problèmes principaux liés au traitement
d'un signal particulier : le signal électrocardiographique qui est un signal aléatoire stationnaire avec
un caractère périodique.

La compression du signal ECG est étudiée dans le cadre de la théorie de compression de la forme
d'onde d'une manière générale. En effet, la compression est l'élimination de redondance. Cette
dernière peut être due à la non-uniformité de distribution des échantillons comme elle peut être due
à la dépendance statistique entre les échantillons. Dans ce travail on s'est intéressé uniquement au
deuxième type de redondance et on l'élimine par des méthodes dites "irréversibles" car le signal est
toujours reconstruit avec une erreur dite "distorsion". Un processus de compression est caractérisé
essentiellement par sa complexité de calcul et par ses performances exprimées à l’aide du rapport de
compression et de la qualité du signal reconstruit.

Les méthodes de compression sont multiples. Il est intéressant d'appliquer ces différentes
techniques sur un signal particulier et voir laquelle des méthodes donne les meilleurs résultats.
Dans ce travail, on a développé deux techniques à savoir: la méthode des splines, et la méthode des
ondelettes. Ces algorithmes sont développés et testés sur le signal ECG, mais peuvent être appliqués
sur un signal quelconque. Ce travail consiste en une étude comparative de ces deux techniques
appliquées sur le signal ECG.

Les résultats montrent que la méthode des splines donne les meilleurs résultats du point de vue de la
fonction CR/PRD (Rapport de compression/Distorsion), même la qualité du signal reconstruit est
impressionnante. La méthode des ondelettes donne des résultats intéressants et lorsque le rapport de
compression augmente la forme du signal reconstruit est dégradée par discontinuité (il prend la
forme d'une échelle). Aussi la distorsion augmente en allant d'un niveau de la transformée en
ondelettes à un niveau supérieur.

Pour un signal ECG bruité, le rapport de compression est dégradé pour la méthode avec tolérance
(seuil), et pour maintenir un rapport de compression acceptable on doit augmenter le seuil de
tolérance.

Enfin, pour une implémentation pratique, le choix d'une technique de compression dépend de
plusieurs facteurs, tel que:
- L'objectif visé de la compression est principalement la qualité clinique du signal
reconstruit exigée par le spécialiste.
- La puissance de calcul des moyens disponibles.
- La présence du bruit dans le signal original.

71
Références Bibliographiques

[1] J.P COUDERC,’’ analyse quantitative des composantes temps-échelle de l ECG a haut-
résolution moyenne pour l évaluation du risque de tachycardies ventriculaires et de la mort subite
après un infarctus du myocarde’ .Thèse de doctorat, l'institut national des sciences appliquées ;
LYON ; juin 1997.

[2] http://foulon.chez-alice.fr/Alie%202.000/DATAS/MODULE1/LangECG.htm

[3] Dr. C. Brohet , L'électrocardiogramme à 12 dérivations, Masson, Paris, 1998

[4] R. KARTHIK, ECG SIMULATION USING MATLAB; College of Engineering, Guindy, Anna
University, May 2003.

[5] Bruno Martin. Codage, cryptologie et applications. Presses Polytechniques et Universitaires


Romandes, 2004.

[6] http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l'information

[7]David Salomon. Data Compression. Springer 2004.

[8] MERAZKA.F. Quantification des paramètres LSF. Thèse de magistère .ENP97.

[9] Fabien Gargne .Codage, compression et cryptologie. Université de Nice-Sophia Antipolis 2005.

[10] B. Necereddine. Compression du Signal Electrocardiographique, thèse de magister ENP99.

[11] http://www.apprendre-en-ligne.net/graphes/arborescence/huffman.html

[12] http://fr.wikipedia.org/wiki/Spline

[13] Max Mignote. chapitre4 : Interpolation polynomiale : Collocation. 2000. université de


Montréal

[14] BENZID Redha. Ondelettes et statistiques d ordre supérieur appliquées aux signaux uni et
bidimensionnels. Thèse de doctorat, Faculté des sciences de l’ingénieur, Batna, Septembre 2005.

[15] Dictionnaire HACHETTE. Édition 2004.

72

Vous aimerez peut-être aussi