Compression Du Signal ECG
Compression Du Signal ECG
Compression Du Signal ECG
Thème
²
Compression du Signal
Electrocardiographique
. , , , :
Résumé
Notre travail est une étude comparative entre deux techniques irréversibles de compression.
La méthode des splines comme technique directe et la méthode des ondelettes comme
technique par transformé.
Obtenu de la célèbre base de données MIT .BIM ARRYTMIA, l’électrocardiogramme sera
notre sujet d’étude ; la comparaison sera basé sur des critères objectifs (le rapport de
compression -CR-, Le pourcentage de la puissance d’erreur -PRD-) et le critère subjectif de
vision.
Les résultats des tests montrent que la méthode des splines donne de bons résultats. Par contre,
la méthode des ondelettes est la mieux adaptée pour un signal bruité.
ABSTRACT
The subject of this paper is the comparative study between two irreversible compression
methods; i.e: spline method as a direct technique and wavelet method as by transformed
technique.
Resulting from the well-known data base MIT .BIM ARRYTMIA; the electrocardiogram will
be the subject of our study.
The comparison will be based on objective criteria (compression ratio –CR- ; Percentage of
Root mean squared Difference –PRD-) and the visual subjective criteria.
From the trial results it appears that spline method give good results .As for the wavelet method
it is the best appropriated for noisy signal.
Keys words: signal compression, electrocardiogram (ECG), spline method, wavelet method.
1
Dédicaces
Je dédie ce projet de fin d étude aux personnes qui me sont les plus chères:
Ø A mes très chères amis : Moussa, Bilel, Amine, Ahcen, Adel, Hocine,
Mustapha, Chukri, Sidali, Nacer, Kamel, Mabrouk, wahid, Réda, Moumen,
Mehdi, Raouf, Walid et toute la promotion d électronique 2006/2007.
Enfin, mes dédicaces sont destinés à tous ceux et celles que j aime et qui m ont
soutenu durant le P.F.E
K .BELKACEM
2
Dédicaces
Je dédie ce projet de fin d étude aux personnes qui me sont les plus chères:
Ø A mes très chères amis d Alger: Raouf, Moumen, Mehdi, Reda, Bilel
et Hilel.
Enfin, mes dédicaces sont destinés à tous ceux et celles que j aime et qui m ont
soutenus durant le P.F.E.
O.ALI
3
Remerciements
Nous remercions tous qui nous ont aidé et soutenu de prés ou de loin.
4
Sommaire
Glossaire………………………………………………………………………………. 08
Introduction………………………………………………………………………….. 11
5
Chapitre 3 : Les techniques de compression...................................................... 40
3.1 Méthode des splines ……………………………………………………………... 41
3.1.1 Définition …………………………………………………………………………41
3.1.2 Les splines cubiques……………………………………………………………… 42
3.1.3 La fonction spline en MATLAB ………………………………………………… 45
3.1.4 Compression par algorithme des splines ………………………………………… 45
3.2 Méthode des ondelettes……………………………………………………………47
3.2.1 Introduction………………………………………………………………………. 47
3.2.2 Caractérisation des ondelettes……………………………………………………. 47
3.2.3 Analyse multirésolution………………………………………………………….. 49
3.2.4 Algorithme de MALLAT………………………………………………………… 50
3.2.5 Architecture pyramidale………………………………………………………….. 52
3.2.6 Paquet d’ondelettes ………………………………………………………………. 52
3.2.7 Comment agissent les ondelettes ?………………………………………………. 53
3.2.8 La Quantification…………………………………………………………………. 53
3.2.9 Le codage de source……………………………………………………………… 53
3.2.10 Ondelette de Haar ………………………………………………………………... 54
3.2.11 Compression de l’ECG…………………………………………………………… 54
Conclusion ……………………………………………………………………………. 70
6
Liste des abréviations
CR Compression Ratio
ECG Electrocardiogramme
LZW Lempel-Ziv-Welch
7
Glossaire
Artère coronaire : artère qui irrigue le muscle cardiaque.
Diaphragme : Muscle transversal qui sépare le thorax de l’abdomen, et qui joue un rôle très
important dans la respiration.
Endocarde : Tunique interne du c ur, qui tapisse les cavités et les valvules.
Précordialgie : Douleur située dans le thorax en avant du c ur, qui a son siège dans cette
région.
Septum : une cloison entre deux cavités d’un organisme animal ou végétal.
Sternum : Os plat de la face antérieure du thorax, sur laquelle s’articulent les cotes et les
clavicules.
8
Table des figures
Chapitre 1
Chapitre 2
Chapitre 3
9
Chapitre 4
10
Introduction
11
La dernière décennie a vu l’extension des techniques numériques à de nombreux
domaines de traitements de l’information, de la saisie, du stockage et du transport de cette
information. Pour économiser les ressources de stockage ou de canaux de communication, on
cherche à comprimer le signal numérisé. Cette double opération de numérisation et de
compression est aussi appelée codage de source.
Le but d’une technique de compression est d’achever une réduction maximale du signal
avec la préservation des caractéristiques significatives de ce dernier après reconstruction. En
pratique un processus de compression consiste à éliminer la redondance, Shannon a défini la
redondance comme étant la portion du signal qui ; si elle manque, le signal reste
essentiellement complet ou peut être reconstruit.
Les techniques de compression peuvent être classées en trois groupes : Les méthodes
directes, les méthodes par transformées et les méthodes par extraction de paramètres. Avec les
méthodes directes on agit directement sur les échantillons du signal, ce qui est le cas pour la
plupart des méthodes classiques telles que les méthodes prédictives et interpolatives. Les
méthodes par transformées consistent à appliquer une transformée orthogonale sur un bloc
d’échantillons du signal, le traitement dans ce cas, est effectué sur la nouvelle séquence
résultant de la transformée. Dans le cas des méthodes par extraction de paramètres un
processeur est utilisé pour extraire certaines caractéristiques du signal qui vont être utilisées
ultérieurement pour la reconstitution du signal.
Le troisième chapitre est une présentation des deux techniques choisies pour être
développées dans notre travail, avec plus de détails relevant de l’aspect pratique et les
problèmes d’implémentation, les algorithmes de ces deux méthodes sont également expliqués.
Enfin, le quatrième chapitre est réservé à la présentation des résultats d’application des
deux techniques sur le signal ECG. Pour finir, une étude comparative des performances de ces
deux techniques sur notre signal d’application est établie.
12
Chapitre 1
Electrocardiographie
13
Chapitre 1 Electrocardiographie
L'électrocardiologie est une discipline qui a pour objectif de décrire les anomalies de
fonctionnement du c ur en étudiant la forme, la fréquence et l'évolution des signaux électriques
cardiaques.
L'électrocardiographie est une vieille dame qui, passé le cap du centenaire, garde toujours bon
pied et bon il ... Née en 1887 avec les travaux de Waller, révélée à la communauté médicale par
l'invention en 1901 du galvanomètre à cordes qui valut à son auteur, le Dr. Wilhem Einthoven, le
prix Nobel de Médecine en 1924 , l'électrocardiographie est devenue une technique incontournable
en pratique cardiologique.
Voici la réponse donnée en 1995 par la ´Task Force on Clinical Privileges in Cardiologyª
réunissant l'American College of Physicians, l'American Collège of Cardiology et l'American Heart
Association : ´L'ECG peut constituer un marqueur indépendant d'affection myocardique; il peut
refléter des atteintes anatomiques, électrophysiologiques, métaboliques et hémodynamiques; il
procure une information qui souvent s'avère essentielle pour le diagnostic et le traitement de
diverses anomalies cardiaques; et il est sans égal pour le diagnostic des arythmies.
L'électrocardiographie est une procédure de premier choix chez des patients se plaignant de
précordialgies, lipothymies ou syncopes, symptômes qui peuvent être annonciateurs d'infarctus
myocardique ou de mort subite. Des anomalies électriques peuvent être les premiers signes
indiquant l'existence d'effets secondaires potentiellement désastreux de certains médicaments, ou de
sévères déséquilibres métaboliques ou électrolytiques, et parfois le seul signe d'atteinte
myocardique, telle que l'infarctus "silencieux" chez le sujet âgéª. Les auteurs de ce texte mettent
bien en évidence le rôle spécifique de l'électrocardiographie par rapport aux autres techniques
d'imagerie cardiaque. L'échocardiographie et la résonance magnétique nucléaire, par exemple,
montrent directement la morphologie et la dynamique des structures anatomiques, domaines où
l'électrocardiogramme est moins performant. Par contre, l'électrocardiogramme est le premier et
parfois le seul témoin de modifications se produisant à l'étage moléculaire et cellulaire. Il peut de la
sorte constituer un outil diagnostique essentiel, par exemple pour la détection de l'ischémie
myocardique (pathologie fréquente), pour la reconnaissance des atteintes myocardiques précoces
comme dans certaines myocardiopathies et certaines dystrophies musculaires (pathologies rares) où
les tracés électrocardiographiques peuvent être perturbés avant que n'apparaissent les anomalies
échocardiographiques. Enfin l'électrocardiogramme est le seul examen couramment utilisé dans
l'étude des troubles de conduction et des troubles du rythme.
14
Chapitre 1 Electrocardiographie
Tout ceci fait de l'électrocardiogramme, un "art du diagnostic" qui est difficile et qui nécessite
une longue période de familiarisation et de pratique. Ne devient expert en électrocardiographie que
celui qui a consacré d'inombrables heures à la lecture de milliers de tracés, et qui prend toujours
soin de confronter son diagnostic avec la "vérité clinique". Mais une fois maîtrisée, la méthode
apporte beaucoup de satisfactions intellectuelles à celui qui la pratique tout en procurant - osons
l'espérer - des informations très utiles dans la prise en charge de nos malades.
Le c ur est situé au milieu du médiastin où il est partiellement recouvert par les poumons et
antérieurement par le sternum et les cartilages des troisièmes, quatrièmes et cinquièmes côtes. Les
deux tiers du c ur sont situés à gauche de la ligne passant par le milieu du corps. Il repose sur le
diaphragme et est incliné en avant et à gauche de telle sorte que l'apex soit antérieur par rapport au
reste du c ur. Le c ur est constitué de quatre cavités contractiles: les oreillettes reçoivent le sang
veineux et les ventricules droit et gauche le propulsent respectivement dans la circulation
pulmonaire et dans la circulation systémique (cf. figure 1-1). Chaque battement cardiaque est un
processus mécanique engendré par des phénomènes bioélectriques, notamment ioniques.[1]
15
Chapitre 1 Electrocardiographie
Les charges négatives internes sont remplacées par des charges positives : le potentiel
intracellulaire passe brusquement de -90mV à +20 mV, la cellule est dite "dépolarisée" et notre
microélectrode enregistre cette montée rapide du voltage. Ensuite des mouvements ioniques en sens
inverse vont progressivement restaurer l'état de départ : c'est le processus de "repolarisation" qui va
ramener le potentiel intracellulaire à sa valeur initiale. Au terme du processus, l'électrode
exploratrice aura enregistré un "potentiel d'action", constitué de 4 phases successives : état de base,
montée rapide, plateau et descente progressive.
1 10
98
2 9
3 8
4 7
5 6
Dépolarisation Repolarisation
16
Chapitre 1 Electrocardiographie
que nous ayons disposé 3 électrodes : l'électrode A située à l'extrémité gauche de la cellule, là où
débute l'excitation, l'électrode B située à l'autre bout, du côté droit, et l'électrode C située à mi-
distance. Voyons comment se déroulent les phénomènes associés à la dépolarisation cellulaire
(partie gauche de la figure1.3). Au repos (stade 1), toute la surface externe de la fibre est tapissée de
charges positives et aucune différence de potentiel n'est détectée : les électrodes A, B et C
enregistrent chacune une ligne plate isoélectrique. Lorsque la fibre est stimulée, des charges
négatives remplacent les charges positives à la surface de la cellule : à partir de ce moment se
développe un front d'activation qui peut être représenté sous forme d'un dipôle de 2 charges
négative_positive qui se propage d'une extrémité à l'autre de la cellule.
Lorsque la dépolarisation est complète (stade 5), des charges négatives couvrent toute la
surface externe de la cellule, aucun mouvement n'est enregistré et les 3 électrodes inscrivent de
nouveau un potentiel isoélectrique. Au total, l'électrode A, qui a vu s'éloigner le front des charges
positives, aura enregistré une déflexion négative (onde Q), l'électrode B qui a vu s'approcher le front
d'activation, une déflexion positive (onde R) et l'électrode C, située perpendiculairement au front
d'activation, un complexe biphasique (complexe RS).
Ces phénomènes sont observés au niveau d'une fibre myocardique isolée. Au niveau du
myocarde constitué d'un grand nombre de fibres myocardiques, la repolarisation se propage en sens
inverse de la dépolarisation, de sorte que la polarité de l'onde T est le contraire de ce qui est
représenté à la figure : l'onde T est négative quand l'onde de dépolarisation est négative et positive
quand l'onde de dépolarisation est positive. Dans le myocarde in vivo, la dépolarisation se propage
donc de l'endocarde vers l'épicarde tandis que la repolarisation commence au niveau de l'épicarde là
où la dépolarisation s'est achevée.
17
Chapitre 1 Electrocardiographie
P-R
18
Chapitre 1 Electrocardiographie
Une fibre myocardique aussi bien qu'une portion du myocarde en cours de dépolarisation
peuvent être représentées comme une zone encore au repos et donc électropositive, séparée d'une
zone déjà activée, devenue électronégative. Le front d'onde d'activation est cette surface qui sépare
zones activées et zones au repos : des charges négatives et positives y sont disposées face à face.
L'ensemble de ces charges électriques constitue un "doublet" -+, encore appelé "dipôle" : il
représente le générateur électrique élémentaire. Chacun de ces dipôles peut être représenté
graphiquement sous forme d'un "vecteur", c'est-à-dire une force électrique qui a une grandeur
(amplitude) et une orientation spatiale. A chaque instant de la dépolarisation il existe une multitude
de dipôles, donc de vecteurs, issus des diverses régions qui sont en cours d'activation. La somme de
tous ces vecteurs peut se résumer sous forme d'un vecteur unique qui est le vecteur résultant
instantané. L'amplitude et l'orientation de ce vecteur résultant dépendent de la localisation et de
l'importance respective des zones successivement activées dans le myocarde. Ainsi, pour les
ventricules, l'activation commençant sur la face gauche du septum et se dirigeant vers le ventricule
droit, on observe au temps 10 ms un vecteur orienté à droite et en avant.
Une dérivation correspond à la ligne de tension réunissant deux électrodes placées en deux
points déterminés de la surface du corps et entre lesquelles sont enregistrées les différences de
potentiel. En électrocardiographie conventionnelle, l'activité électrique du coeur est étudiée par
l'enregistrement d'une série de 12 dérivations : 6 dérivations périphériques (I, II, III, aVR, aVL,
aVF) l'explorent dans le plan frontal et 6 dérivations précordiales (V1, V2, V3, V4, V5, V6)
l'explorent dans le plan horizontal.
Ces dérivations sont dites "périphériques" ou "éloignées" parce que les électrodes sont
placées à distance de la surface épicardique. Elles sont obtenues au moyen de 4 électrodes
appliquées au bras droit, au bras gauche et à la jambe gauche, l'électrode de la jambe droite étant
une électrode neutre destinée à éliminer les parasites électriques. Ces 4 électrodes permettent
d'enregistrer dans le plan frontal 3 dérivations standard ou bipolaires (I, II, III) et 3 dérivations
unipolaires des membres (aVR, aVL, aVF).Les dérivations bipolaires de Einthoven I, II, III
sont constituées d'électrodes actives qui enregistrent la différence de potentiel entre les 2 points où
elles sont appliquées :
Selon l'hypothèse de Einthoven, on admet arbitrairement que les lignes des dérivations I, II et III
délimitent un triangle équilatéral frontal dont le centre correspond au centre de la masse cardiaque.
Les dérivations unipolaires des membres, aVR, aVL, aVF sont obtenues par l'enregistrement des
différences de potentiel entre une électrode active ou exploratrice (bras gauche, bras droit, jambe
gauche) et une électrode neutre qui reste à un potentiel pratiquement constant. Cette électrode
neutre est obtenue par l'artifice du "Central terminal" de Wilson, c'est-à-dire en joignant les
électrodes du bras droit, du bras gauche et de la jambe gauche et en connectant cet ensemble, à
travers une résistance de 50.000 ohms, au pôle négatif du galvanomètre. L'électrode positive,
exploratrice, enregistre des variations de potentiel à l'endroit où elle est placée. Placée sur le bras
droit, le bras gauche ou la jambe gauche, l'électrode active enregistre le potentiel de chacun de ces
membres. La lettre V identifie une dérivation unipolaire et les lettres r, l et f les membres respectifs
(right, left, foot). En déconnectant le central terminal du membre où le potentiel est enregistré,
20
Chapitre 1 Electrocardiographie
l'amplitude qui est mesurée au niveau de ce membre est augmentée, d'où l'appellation "augmented
unipolar leads" : aVR, aVL, Avf.
Les dérivations précordiales sont des dérivations unipolaires thoraciques qui enregistrent
l'activité électrique cardiaque dans le plan horizontal. Comme il s'agit de dérivations unipolaires,
l'électrode exploratrice recueille d'importantes variations de potentiel alors que l'autre électrode est
connectée au Central terminal selon Wilson.
Ce sont des dérivations "rapprochées" car l'électrode exploratrice est placée en divers points
de l'aire précordiale, à faible distance de l'épicarde, face aux parois du ventricule droit et gauche.
Les électrodes exploratrices sont placées de façon immuable comme suit :
21
Chapitre 1 Electrocardiographie
V1 est placée sur le 4ème espace intercostal droit, au bord droit du sternum.
V2 est placée sur le 4ème espace intercostal gauche, au bord gauche du sternum.
V4 est placée sur le 5ème espace intercostal gauche, sur la ligne médioclaviculaire.
V5 est placée sur le 5ème espace intercostal gauche, sur la ligne axillaire antérieure.
V6 est placée sur le 5ème espace intercostal gauche, sur la ligne axillaire moyenne.[2]
22
Chapitre 1 Electrocardiographie
L'intervalle PR est le temps entre le début de P et le début du QRS. Il est le témoin du temps
nécessaire à la transmission de l'influx électrique des oreillettes aux ventricules.
On peut également calculer la fréquence cardiaque (nombre de QRS par unité de temps) et voir si le
rythme est régulier ou non. Si la fréquence cardiaque est régulière, la fréquence cardiaque est égale
à : 60/durée en secondes de l'intervalle R-R. [3]
Le simulateur d'ECG nous permet d'analyser et étudier des formes d'onde normales et
anormales d'ECG sans l'aide d’une machine réelle d’ECG. On peut simuler n'importe quelle forme
d'onde donnée d'ECG à l'aide du ce simulateur.
1.5.1 Principe
ao = (1/ l ) f (x) dx , T = 2l
T
(1.1)
an = (1/ l ) f (x) cos (n x / l) dx , n = 1,2,3….
T
Le signal d'ECG est périodique avec une fréquence fondamentale déterminée par le battement du
ur. Il satisfait également les conditions de Dirichlet :
• Évalué simple et fini dans un intervalle donné.
• Absolument intégrable.
• Nombre fini de maximums et de minimums entre les intervalles finis
Par conséquent la série de Fourier peut être employée pour représenter le signal d'ECG.
1.5.1.2 Calculs
Si nous observons la figure1.10, nous pouvons noter qu'une seule période d'un signal ECG
est un mélange de formes triangulaires et sinusoïdales en vague.
• Le QRS, les parties de Q et S du signal d'ECG peuvent être représentées par des formes d'onde
triangulaires
• Les parties de P, de T et U peuvent être représentées par des formes d'onde sinusoïdales.
23
Chapitre 1 Electrocardiographie
Une fois chacune de ces parties est produite, elles peuvent être ajoutées les unes aux autres
pour obtenir le signal ECG.[4]
ao = (1/ l ) f (x) dx
T
= (a/b)
24
Chapitre 1 Electrocardiographie
2.4
2.2
1.8
1.6
1.4
1.2
0.8
Conclusion
25
Chapitre 2 :
Codage des données
26
Chapitre 2 Codage des données
De façon générale un codage permet de passer d'une représentation des données vers une
autre.
Le codage fait appel à des codec (CODeur/DECodeur) s'appuyant sur des algorithmes afin
de compresser une source pleine en une forme plus légère, mais toujours exploitable lors du
décodage, par ces mêmes codecs
2.1.1 Présentation
La théorie de l’information est issue des travaux de Weaver et Shannon publiés en 1964.Ils
s’intéressent en particulier à l’aspect quantitatif de l’information (notion d’entropie).Le schéma de
communication proposé par Shannon est décrit par la figure 1.1 ou la source d’information produit
un message sous la forme d’une suite de bits qui transformée en un signal acceptable pour le canal ,
medium utilisé pour la transmission comme , par exemple , un réseau hertzien , un câble Ethernet
ou un bus d’ordinateur .
Le signal est alors reçu par le récepteur qui effectue en général l’opération inverse de l’émetteur ,
reconstruisant ainsi le message et délivrant au destinataire .
Signal
Source Destinataire
Émetteur Récepteur
d’info
Source
de bruit
Dans le problème du canal bruité, le signal peut être bruité entre l’émetteur et le récepteur ( c’est-à-
dire perturbé par un signal aléatoire).Dans ce cas , pour recouvrer le message émis à partir du signal
reçu , l’émetteur va ajouter des bits de redondance .Ceux-ci vont permettre eu récepteur soit de
détecter soit de corriger une ou plusieurs erreurs .Dans le premier cas, il s’agit de codes détecteur
d’erreurs et dans le second cas, il s’agit de codes correcteurs d’erreur.[5]
27
Chapitre 2 Codage des données
2.1.2 Historique
La théorie de l'Information résulte initialement des travaux de Ronald Aylmer Fisher. Celui-
ci, statisticien, définit formellement l'information comme égale à la valeur moyenne du carré de la
dérivée du logarithme de la loi de probabilité étudiée. La valeur d'une telle information est
proportionnelle à la faible variabilité des conclusions résultantes. En termes simples, moins une
observation est probable, plus son observation apporte d'information. Par exemple, lorsque le
journaliste commence le journal télévisé par la phrase "Bonsoir", ce mot, qui présente une forte
probabilité, n'apporte que peu d'information. En revanche, si la première phrase est, par exemple "la
France a peur", sa faible probabilité fera que l'auditeur apprendra qu'il s'est passé quelque chose, et,
partant, sera plus à l'écoute.
Claude Shannon et Waren Weaver renforcent le paradigme. Ils sont ingénieurs en
télécommunication et se préoccupent de mesurer l'information pour en déduire les fondamentaux de
la Communication (et non une théorie de l'information). Dans Théorie Mathématique de la
Communication en 1948, ils modélisent l'information pour étudier les lois correspondantes : bruit,
entropie et chaos. Leurs travaux complétant ceux d'Alan Turing, de Norbert Wiener et de John Von
Neumann (pour ne citer que les principaux) constituent le socle initial de la théorie du signal et des
« Sciences de l'Information ».
Pour source X comportant n symboles, un symbole i ayant une probabilité pi d'apparaitre,
l'entropie H de la source X est définie comme :
(2.1)
C'est au départ le logarithme népérien qui est utilisé. On le remplacera pour commodité par
le logarithme à base 2, correspondant à une information qui est le bit.[6]
2.1.3 L’information
En pratique, l'excès d'information, tel qu'il se présente dans les systèmes de messagerie
électronique, peut aboutir à une saturation, et empêcher la prise de décision.[6]
Soit une source pouvant produire des tensions entières de 1 à 10 volts et un récepteur qui va
mesurer cette tension. Avant l'envoi du courant électrique par la source, le récepteur n'a aucune idée
de la tension qui sera délivrée par la source. En revanche, une fois le courant émis et réceptionné,
l'incertitude sur le courant émis diminue. La théorie de l'information considère que le récepteur
possède une incertitude de 10 états.[6]
28
Chapitre 2 Codage des données
Il faut moins de bits pour écrire chien que mammifère. Pourtant l'indication Médor est un
chien contient bien plus d'information que l'indication Médor est un mammifère : le contenu
d'information sémantique d'un message dépend du contexte. En fait, c'est le couple message +
contexte qui constitue le véritable porteur d'information, et jamais le message seul .
I = − log 2 ( Pi ) (2 .2)
Par exemple ; on a une boite qui contient 8 boules (6 vert et 2 rouge) la quantité
d’information de sortir une boule rouge est :
I=-log2(2/8)=2 .[6]
L'entropie de Shannon d'une variable aléatoire discrète X, avec n états possibles 1..n, est définie
comme :
(2.3)
Cette définition est utilisée en électronique numérique pour numériser une source en utilisant le
minimum possible de bits sans perte d'information.
Enfin, elle sert à connaître sur combien de bits au minimum on peut coder un fichier, ce qui est très
utile pour savoir quelle limite peuvent espérer atteindre les algorithmes de compression qui ne
perdent pas d'information (types Zip, LZW ou encore RLE, et non pas JPEG ou MP3). Il existe de
tels algorithmes dits optimaux, c'est-à-dire qui compressent le fichier en un fichier d'entropie
minimale.
29
Chapitre 2 Codage des données
Ø La valeur de H est maximale pour une distribution uniforme, c'est à dire quand tous les
états ont la même probabilité.
Ø Toutes choses égales par ailleurs, H augmente avec le nombre d'états possibles (ce qui
traduit l'intuition que plus il y a de choix possibles, plus l'incertitude est grande).[6]
2.1.4.1 Exemple
On s’intéresse au nombre de bits nécessaires au codage des données homme et femme dans
une base de données lorsqu’il y a équiprobabilité des données. L’entropie vaut :
1 1
H = log 2 (2) + log 2 (2) = 1
2 2
Dans ce cas le champ « sexe » de la base de données ne requiert qu’un seul bit d’information pour
déterminer le sexe d’un individu.
2.1.5 Le quantificateur
Un quantificateur compare les valeurs d’entrée avec les niveaux de son dictionnaire (DECO
ou code book). Par la suite, il va affecter à chaque entrée le niveau du dictionnaire donnant la plus
petite distance euclidienne : (min d(xi , yi ) ).
DECO
N niveau
X[n] Y[n]
Q
Fig. 2.2 : Quantificateur type ; x est la grandeur d’entrée à
Quantifier et y est la valeur de sortie
30
Chapitre 2 Codage des données
log 2 ( N )
R= Bits (2.5)
k
Tel que : N : lettre (niveaux) de quantification ;
L’objet de la théorie de l’information est de représenter le signal avec un minimum de bits
et une distorsion minimale possible.
La théorie de codage nous apprend que R(D) est une limite théorique des performances des
systèmes de codage, et qu’il est possible d’atteindre une performance assez proche de cette limite.
R(D) R(D)
Région Région
H(x) possible possible
Dmax D Dmax D
31
Chapitre 2 Codage des données
Lors de ses réceptions, Claude Shannon prenait un livre de littérateur qu’il ouvrait au hasard.
Ensuite, il commençait à lire un paragraphe puis s’arrêtait. À ce moment précis commençait le jeu
qu’il avait imaginé : il épelait lettre après lettre les mots du paragraphe dans l’ordre ou ils étaient
écrit. Mais, à chaque lettre nommée, il demandait à l’assistance de bien vouloir lui donner la lettre
suivante. Il notait alors les réponses, bonnes ou mauvaise .Si les invités ne trouvais pas la lettre
suivante, il la fournissait .En opérant un certain nombre de fois, Shannon a calculé
expérimentalement la proportion de bonnes réponse qui avoisinait 75%.Il en déduisit que la
redondance de la langue anglaise est de 3/4 ; c’est-à-dire que trois lettres sur quatre en moyenne
sont inutiles, puisque ses invités parvenaient à reconstruire le texte avec seulement une lettre sur
quatre. [5]
Bien qu’il y ait un grand nombre d’algorithmes de compression, on peut les classer en
plusieurs catégories [5]:
32
Chapitre 2 Codage des données
R(D)
R1 à R0 : R1
Compression sans
distorsion .
R0=H(x)
R0 à R2 :
Compression avec
R2
distorsion
Dmax D
2.2.3.1.1 RLE
La méthode de compression RLE (Run Length Encoding) est utilisée par de nombreux
formats d’images (BMP, PCX, TIFF). Elle est basée sur la répétition d’éléments consécutifs. Le
principe de base consiste à coder un premier élément donnant le nombre de répétitions d’une valeur
puis à le compléter par la valeur à répéter.
33
Chapitre 2 Codage des données
En réalité, la compression RLE est régie par des règles particulières (Lorsque trois éléments
ou plus se répètent consécutivement alors la méthode de compression RLE est utilisée) permettant
de compresser lorsque cela est nécessaire et de laisser la chaîne telle quelle lorsque la compression
induit un gaspillage.
Ainsi la compression RLE n’a de sens que pour les données possédant de nombreux
éléments consécutifs redondants, notamment les images possédant de larges parties uniformes.
Cette méthode présente toute fois l’avantage d’être peu difficile à mettre en oeuvre. Il existe des
variantes dans lesquelles l’image est encodée par pavés de points, selon des lignes, ou bien même
en zigzag.[9]
Le codage de Huffman (1952) est une méthode de compression statistique de données qui
permet de réduire la longueur du codage d'un alphabet. On observe ainsi des réductions de taille de
l'ordre de 20 à 90%.
L'algorithme opère sur une forêt. Une forêt est ici un ensemble d'arbres étiquetés complets:
tout noeud interne (c'est-à-dire qui n'est pas une feuille) a deux fils non-vides.
La forêt initiale est formée d'un arbre à un noeud pour chaque lettre du langage-source, dont
l'étiquette est la probabilité de cette lettre. La forêt finale est formée d'un unique arbre, qui est
l'arbre de décodage du code.
L'algorithme est de type glouton: il choisit à chaque étape les deux arbres d'étiquettes
minimales, soit x et y, et les remplace par l'arbre formé de x et y et ayant comme étiquette la somme
de l'étiquette de x et de l'étiquette de y.
La figure (Fig. 2.7) représente les étapes de la construction d'un code de Huffman pour
l'alphabet source {A, B, C, D, E, F}, avec les probabilités P (A)=0.10, P (B)=0.10, P(C)=0.25,
P (D)=0.15, P(E)=0.35 et P (F)=0.05.
Le code d'une lettre est alors déterminé en suivant le chemin depuis la racine de l'arbre
jusqu'à la feuille associée à cette lettre en concaténant successivement un 0 ou un 1 selon que la
branche suivie est à gauche ou à droite. Ainsi, sur la figure ci-contre, A=0111, B=010, C=10, D=00,
E=11 et F=0110.
34
Chapitre 2 Codage des données
Par exemple le mot FADE serait codé 011001110011. Pour décoder, on lit simplement la
chaîne de bits de gauche à droite. Le seul "découpage" possible, grâce à la propriété du préfixe, est
0110-0111-00-11.[11]
35
Chapitre 2 Codage des données
2.2.3.2.1 Exemple
On peut réduire une image qui fait 48 ko d’un format 400 x 400 pixels a 100 x 100 pixels.
La nouvelle image ne fait plus que 4 ko, elle contient 1 pixel pour chacun des 16 pixels de l’image
originale.
On remarque que la qualité de l’image est nettement dégradée si on l’agrandit à son ancienne taille
mais elle fait tout de même 20 ko.
36
Chapitre 2 Codage des données
Il est, d’habitude, impossible de déterminer les 16 pixels originaux du nouveau pixel obtenu. Bien
entendu, dans les fichiers de données, la compression irréversible n’est pas très utile. Par contre,
elle sert beaucoup dans le traitement des images et de la parole [9].
Elles peuvent être classées en deux classes : les technique directes : opèrent directement
dans le domaine temporel, les technique indirectes : opèrent sur les coefficients d’une transformée
linéaire du signal.
Se sont des techniques de compression basée sur la quantification des coefficients résultants
d’une transformée linéaire de la séquence original (Fig. 2.8)
37
Chapitre 2 Codage des données
X T U Y
Q1
Q2
A A-1
QN
La transformée N*N d’une séquence x[n] ;n=1,2,…,N est la séquence t(k) ; k=1 ,2,…,N
donnée par :
N
t[k ] = ∑ a[k , n] ⋅ x[n] (2.7)
n =1
Ou : l’ensemble a[k,n] est dit « noyau de la transformée » .et les éléments t[k] sont dits ‘ les
coefficient de transformée’ .
En notation matricielle on a :
T=A*X
(2.8)
X=B*T
Et on a : B=A-1 ; B={bk} ; k=1,…,N ; {bk} : un ensemble de vecteur de base ,on peut écrire :
N
x[n] = ∑ t [k ] ⋅ bk (2.9)
n=1
La séquence de sortie Y est donnée par :
N
Y = ∑ u[k ] ⋅ bk (2.10)
n=1
Ou : u[k]=Q(t[k]) ; Q : étant l’opérateur de quantification. [10]
38
Chapitre 2 Codage des données
- Le Taux de compression (CR) : est défini comme étant le rapport de débit du signal
compressé (en terme de bits/seconde) au débit du signal original ou bien il est basé sur la
comparaison du nombre d’échantillons du signal original au nombre d’échantillons résultants du
processus de compression :
∑ ( x(i) − y(i)) 2
PRD = i =1
n
(2.12)
∑ x(i)
i =1
2
- Le critère subjectif de la vision : c’est un critère très important dans ce stade ; il nous
informe sur l’influence du processus de compression sur la morphologie du signal.
Il existe certain facteurs liés au signal utilisé pour tester les algorithmes de compression, qui
influent sur les résultats du processus de compression :
Conclusion
Les techniques de compression sans distorsion, sont utilisées surtout avec des données
délicates, comme les fichiers informatiques, les données des banques…etc. Les techniques de
compression avec distorsion permettent d’atteindre un taux de compression très élevé par rapport à
celui généré par les techniques de compression sans distorsion.
39
Chapitre 3
Les techniques de compression
40
Chapitre3 Les techniques de compression
Les techniques de compression du signal ECG sont multiples. Les méthodes directes se
résument à accorder un modèle aux échantillons du signal et de ce fait, certains de ces échantillons
peuvent être reproduits connaissant un nombre minimum d’échantillons et /ou les paramètres du
modèle. Les techniques par transformée utilisent les transformées orthogonales pour décorréler les
échantillons du signal et approximer ce signal par les coefficients prépondérants dans l’espace
transformé.
Dans ce chapitre nous présentons deux méthodes de compression : La méthode des splines
qui est une méthode directe et la méthode des ondelettes qui est une méthode par transformée.
3.1.1 Définition
Dans le domaine mathématique de l'analyse numérique, une fonction spline est une fonction
définie par morceaux S(x) par des polynômes.
Dans les problèmes d'interpolation, la méthode des splines est souvent préférée car on
obtient des résultats similaires en se servant de polynômes ayant des degrés inférieurs (en général,
de degré 3-la spline cubique).[12]
m
Qi ( x ) = ∑ ak ⋅ ( x − x i )k
(i)
(3.1)
k =0
41
Chapitre3 Les techniques de compression
Le nombre des intervalles est déterminé par une échelle H, hi=xi+1-xi -le pas- (pas
nécessairement constant mais positif: x0<x1<...<xn). Les points xi sont appelés n uds.
On a :
Q1 ( x ) = a1 ( x − x1 )3 + b1 ( x − x1 )2 + c1 ( x − x1 ) + d 1
Q2 ( x ) = a2 ( x − x2 )3 + b2 ( x − x 2 ) 2 + c 2 ( x − x 2 ) + d 2
.
(3.3)
.
Qi ( x ) = ai ( x − xi ) + bi ( x − xi )2 + ci ( x − xi ) + d i
3
.
.
Qn −1 ( x ) = a n−1 ( x − xn −1 ) + bn −1 ( x − x n−1 )2 + cn −1 ( x − x n−1 ) + d n −1
3
42
Chapitre3 Les techniques de compression
y1 = Q1 ( x1 )
y2 = Q1 ( x 2 ) = Q2 ( x 2 )
...
yi = Qi −1 ( xi ) = Qi ( x i ) (3.4)
...
yn −1 = Qn− 2 ( xn−1 ) = Qn−1 ( xn−1 )
y n = Q n− 1 ( x n )
Q '1 ( x1 )
Q '1 ( x 2 ) = Q ' 2 ( x2 )
...
Q i −1 ( x i ) = Q ' i ( x i )
'
(3.5)
...
Q n− 2 ( x n −1 ) = Q ' n −1 ( xn −1 )
'
Q ' n− 1 ( x n )
Q ''1 ( x1 ) = S1
Q ''1 ( x 2 ) = Q ''2 ( x 2 ) = S 2
...
Q i −1 ( x i ) = Q '' i ( x i ) = S i
''
(3.6)
...
Q n − 2 ( x n−1 ) = Q '' n −1 ( x n −1 ) = S n−1
''
Q '' n −1 ( xn ) = S n
( S i +1 − S i )
ai =
6hi
Si
bi =
2 (3.7)
y − yi ( 2 S i + S i +1 )hi
ci = i +1 −
hi 6
d i = yi
43
Chapitre3 Les techniques de compression
Tel que :
hi = x i +1 − xi
44
Chapitre3 Les techniques de compression
3.1.3 La fonction spline en MATLAB
YY = SPLINE(X,Y,XX) ; elle donne les valeurs de la spline cubique pour les points xx(i) .et elle
calcule les splines cubiques entre les points (x(i),y(i)) et (x(i+1),y(i+1)) ;
3.1.3.1 Exemple
y=f(x)
0.8
yy=f(xx)
0.6
0.4
0.2
amplitude
-0.2
-0.4
-0.6
-0.8
-1
0 1 2 3 4 5 6 7 8 9 10
temps
45
Chapitre3 Les techniques de compression
l’échantillon au point ‘’xi+1’’ calculée par la spline à la valeur originale , si la différence entre ces
deux ne dépasse pas la tolérance (seuil) cela signifie que l’échantillon f[xi+1] est redondant , on
franchit alors xi+2 et on va au point xi+3 ; on calcule les coefficients { ai ; bi ; ci ; d i } , on compare les
valeurs calculées aux points xi+1 et xi+2 au valeurs originales ; si les différences ne dépassent pas la
tolérance (seuil) on va au point xi+4 … etc. ; jusqu’à la valeur de l’argument xi+k ou au moins une
différence dépasse 1 le seuil , il est alors nécessaire de reculer d’un pas et de fixer
f [ x i + k −1 ] comme échantillon de contrôle suivant. On répète la procédure pour les points
suivants : on construit la nouvelle spline au point x i + k − 1 …etc.
Finalement le nouvel ensemble d’échantillons possède une quantité de points initiaux d’autant
faible que la tolérance est grande.
La reconstruction de signal est faite à partir des échantillons de contrôle en calculant pour chaque
spline ses coefficients. Les échantillons manquant sont pris identiques à ceux de la spline. [10]
Initialisation de la spline
Calcul des
coefficients
{ ai ; bi ; ci ; d i }
OUI NON
dj>eps
j=1,…,k-1
Seuil
Fig. 3.5 : Organigramme de l’algorithme des splines
46
Chapitre3 Les techniques de compression
3.2 Méthode des ondelettes
3.2.1 Introduction
Il est bien connu que la transformée de Fourier donnée comme étant une généralisation de
la série de Fourier –caractérisant les signaux périodiques- a l’inconvénient majeur d’ignorer
complètement la contribution temporelle exacte d’une fréquence dans un signal.
La suite logique qui devrait résoudre ce problème a été l’élaboration de l’outil puissant
dénommé par la transformée en ondelettes (wavelets).
Les ondelettes (wavelets) sont issues de ce qu’on appelle onde mère (mother wave).On
aboutira à représenter n’importe quel signal L2, par une base d’ondelettes qui ne sont que des
versions dilatées et translatées de l’onde mère. La représentation d’un signal continu x(t) par une
base d’ondelettes est donnée par :
x( t ) = ∑ W (a , b) ⋅ Ψa ,b (t ) (3.9)
où W(a,b) est la pondération (le poids) de la contribution de l’ondelette a,b liée à l’onde mère
par :
1 t−b
Ψa ,b (t ) = Ψ( ) (3.10)
a a
a : est l’échelle et b : est la translation. La pondération de chaque ondelette est décrite par :
+∞
∫ x(t ) ⋅ Ψ
∗
W (a , b ) = a ,b (t ) dt (3.11)
−∞
47
Chapitre3 Les techniques de compression
3.2.2.1 Condition d’admissibilité
Les ondelettes doivent être L2, c'est-à-dire carré intégrable et vérifier la condition
d’admissibilité suivante :
+∞
∫ Ψ( t ) ⋅ e
− jωt
W (ω ) ω = 0 = dt (3.12)
−∞ ω =0
Cette condition est nécessaire pour s’assurer d’avoir le signal d’origine x(t) à partir de la
transformée inverse d’ondelettes.
Le changement d’échelle sert à compresser ou dilater l’onde mère, ce qui mène à analyser
les hautes fréquences ou les basses respectivement contenues dans un signal.
(a) L’onde mère ; (b) L’ondelette pour 0<a< 1 ; (c) L’ondelette pour a>1
Fig. 3.6 : illustration de la variation du facteur d’échelle
Le facteur d’échelle est lié à la fenêtre analysante de l’ondelette. Une longue fenêtre veut
dire une vue globale tandis qu’une courte veut dire une vue de détails.
La translation est l’opération de glissement de l’ondelette tout au long du signal. C’est la technique
similaire à celle de TFCT de GABOR.
48
Chapitre3 Les techniques de compression
3.2.2.3 L’algorithme d’implémentation de la transformée d’ondelettes continue CWT
Soit la fonction échelle. Elle doit être L2 et ayant une moyenne non nulle.
(3.15)
ψ ( t ) = ∑ 2 ⋅ g( j ) ⋅ ϕ ( 2t − j )
j
49
Chapitre3 Les techniques de compression
LA 2
CA 2 LR
X(n) X(n)
CD
HA 2 2 HR
Le signal x (n) est décomposé par les deux filtres d’analyse LA (filtre basses fréquences) et
HA (filtres hautes fréquences) pour donner deux vecteurs respectivement CA (coefficients ondelette
d’approximation) et CD (coefficients ondelette de détails). Tous les deux sont de taille
approximativement égale à la moitié du vecteur d’origine. Ceci résulte de l’opération de décimation
par 2 (downsampling).
La reconstruction parfaite est théoriquement possible. Tout d’abord, on fait passer les deux
vecteurs CA et CD par un suréchantillonnage (upsampling) puis un filtrage par le filtre LR (filtre
passe bas de reconstruction) pour le vecteur CA et le filtre LH (filtre passe haut de reconstruction)
pour le vecteur CD. Ensuite, on somme ces deux vecteurs. Les vecteur résultant n’est que le vecteur
d’origine x (n).
50
Chapitre3 Les techniques de compression
Colonnes
Lignes LA 2 CL
LA 2
HA 2 CH
X(n,m)
LA 2 CV
HA 2
HA 2 CD
(a): Décomposition
Lignes
CL 2 HA
Lignes Colonnes
2 LA
CH
2 HA
X(n,m)
CV
2 LA
HA
2
HA
CD 2
(b): Reconstruction
51
Chapitre3 Les techniques de compression
Récemment, les images médicales volumétriques ainsi que la vidéo ont fait l’objet d’une
analyse par ondelette selon l’algorithme de MALLAT extensible au cas du 3D. Dans le cas des
images volumétriques le troisième axe et Z, tandis que pour la vidéo ce n’est que le temps.
S(n)
Niveau 1
CA1 CD1
Niveau 2
-------------------------------------------------
CA2 CD2
52
Chapitre3 Les techniques de compression
S(n)
CA1 CD1
3.2.8 La Quantification
Les coefficients résultants sont en réalité de type réel. La première approximation des
coefficients est le « rounding off », c'est-à-dire, approximer chaque coefficient réel par un autre type
entier le plus proche possible. Ceci n’est guère suffisant, des travaux font appel a la quantification
scalaire uniforme ou non uniforme, d’autres font appel à la quantification vectorielle.
53
Chapitre3 Les techniques de compression
3.2.10 Ondelette de Haar
L’ondelette de Haar est la plus simple à implémenter. Elle est définie par ses filtres passe
bas et passe haut comme suit [10]:
1
, k = o ,1;
g[k ] = 2 (3.16)
o , ailleurs .
1
2 , k = o,
1
h[ k ] = − , k = 1, (3.17)
2
o , ailleurs .
Dans ce travail, on s’est basé sur l’ondelette de HAAR et sur le phénomène du seuillage
(thresholding). L’algorithme utilisé est le suivant [14]:
54
Chapitre3 Les techniques de compression
La dichotomie est détaillée par la suite :
ETAPE 0 : Initialisation
• Fixer en avance une valeur désirée dite Pcozf à atteindre par Pcoz.
• Sélectionner l’intervalle de recherche [THmin , THmax ].
• Donner la précision de convergence .
TH min + TH max
• Calculer TH : TH = (3.18)
2
ETAPE 1 : Seuillage
• Mettre à zéro tous les coefficients inférieurs ou égaux à TH.
TH min + TH max
• TH =
2
ETAPE 4: Condition de terminaison
• Si Pcoz-Pcozf aller à ETAPE1, sinon STOP.
coz
Pcoz( TH ) = × 100 (3.19)
dim co
Le vecteur des coefficients dominants est ensuite quantifié par un quantificateur linéaire.
Conclusion
La compression par les méthodes directes est traduite par une modélisation du signal. Le
modèle nous permet de reproduire les échantillons du signal connaissant quelques échantillons,
c’est le cas de la méthode des splines. La méthode des ondelettes consiste à éliminer les détails qui
n’influent pas sur le signal vis-à-vis du critère subjective de la vision.
55
Chapitre 4
Résultats et discussions
56
Chapitre 4 Résultats et discussions
Dans ce chapitre, on présente les résultats d’application de nos propres programmes sur le
signal ECG, pour faire par la suite, une comparaison entre les deux méthodes en se basant sur les
critères indiqués dans le chapitre 2. Les programmes on été développés en utilisant le compilateur
MATLAB 7.0. Comme indiqué ci-dessus, on a utilisé des signaux ECG réels issus de la base de
données célèbre et de référence MIT-BIH ARRYTHMIA.
Les deux méthodes (Splines, et ondelettes) sont appelées « méthodes avec tolérance| ». Le
seuil de tolérance dans ces méthodes peut être variable et pour chaque valeur on a un rapport de
compression et une erreur de compression. En ce qui concerne la méthode des ondelettes, après
plusieurs essais on s’est arrêté au niveau 2.
Dans ce qui suit, on va présenter les résultats obtenus pour trois signaux différents: un signal
ECG normal sans bruit, un signal bruitée et un autre fortement bruité. Tous ces signaux sont
échantillonnés avec une fréquence de 360 Hz et prélevés sur une durée de 30 minutes ce qui fait
648000 échantillons pour chaque signal. Seulement 1024 échantillons ont été pris en considération.
4.1 Résultats
Dans ce cas, les algorithmes de compression sont testés en utilisant un signal ECG normal. Les
résultats se présentent sous forme de courbes du signal reconstruit ; deux courbes pour chaque
algorithme afin de présenter les deux cas : cas d’un rapport de compression relativement faible et le
cas d’un rapport de compression relativement élevé et sous forme de tableau pour comparer ces
méthodes par des critères objectifs (le rapport CR et la distance relative PRD). Pour une
comparaison plus significative, nous avons dressé la courbe représentant la variation du rapport de
compression avec la variation de la distorsion pour les deux méthodes.
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
57
Chapitre 4 Résultats et discussions
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
58
Chapitre 4 Résultats et discussions
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
Fig. 4.3 Signal reconstruit par la méthode des ondelettes (niveau 1).
59
Chapitre 4 Résultats et discussions
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
Fig. 4.4 Signal reconstruit par la méthode des ondelettes (niveau 2).
60
Chapitre 4 Résultats et discussions
4.1.1.1 Fonction CR(PRD)
Le tableau suivant résume les résultats obtenus pour les deux méthodes.
CR PRD
Ondelettes 1.7095 1.3721 %
2.0157 3.5071 %
Splines 9.0619 5.5817 %
17.6552 36.1939 %
16
ONDELETTE
14
SPLINE
12
10
CR
0
0 10 20 30 40 50 60
PRD
En pratique, les signaux collectés sont souvent contaminés par des bruits tel que le bruit de
fond au niveau des capteurs; c'est pourquoi, le test de la réponse des algorithmes de traitement aux
signaux bruités est très important. Dans cette section, on excite nos algorithmes par un signal ECG
bruité, et un autre fortement bruité (Fig.4.6 et Fig.4.7) et on présente les résultats sous forme de
courbes (signal reconstruit), ainsi que les critères objectifs (rapport de compression: CR, et la
distance relative: PRD).
61
Chapitre 4 Résultats et discussions
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
62
Chapitre 4 Résultats et discussions
4.1.2.1 ECG bruité
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
63
Chapitre 4 Résultats et discussions
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
Fig. 4.9 Signal reconstruit par la méthode des ondelettes (niveau 1).
64
Chapitre 4 Résultats et discussions
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
Fig. 4.10 Signal reconstruit par la méthode des ondelettes (niveau 2).
65
Chapitre 4 Résultats et discussions
4.1.2.2 ECG fortement bruité
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
66
Chapitre 4 Résultats et discussions
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
Fig. 4.12 Signal reconstruit par la méthode des ondelettes (niveau 1).
67
Chapitre 4 Résultats et discussions
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
1.2
0.8
0.6
amplitude
0.4
0.2
-0.2
-0.4
0 100 200 300 400 500 600 700 800 900 1000
échantillon
Fig. 4.13 Signal reconstruit par la méthode des ondelettes (niveau 2).
68
Chapitre 4 Résultats et discussions
4.2 Discussions
Les méthodes directes de compression se résument à accorder un "modèle " aux échantillons
du signal, et de ce fait, certains de ces échantillons peuvent être reproduits connaissant un nombre
minimum d'échantillons et/ou les paramètres du modèle. Les techniques par transformées utilisent
les transformées orthogonales pour décorréler les échantillons du signal et approximer, ensuite, ce
signal par les coefficients prépondérants dans l'espace transformé. Pour notre application (signal
ECG) on a sélectionné deux techniques suivantes:
- La méthode des splines qui est une méthode directe interpolative, dans laquelle on modélise le
signal par une succession de segments de polynômes d'ordre trois. On note que les paramètres du
modèle dans ce cas ne sont pas mémorisés et peuvent être reproduits à partir échantillons de
contrôles.
- La représentation en ondelette de Haar est un algorithme récursif qui consiste à décomposer le
signal en chaque étape en une composante représentant les détails perdus en passant de la résolution
précédente à la résolution actuelle. Dans notre cas on s'est contenté de représenter les résultats des
deux premiers niveaux. La compression par ondelettes est basée sur la quantification des
coefficients de la représentation en ondelettes, l'algorithme implémenté dans notre cas consiste à
éliminer les coefficients (détails) dont l'amplitude est au dessus d'un certain seuil.
Les résultats des tests effectués montrent la différence qui existe au niveau des performances
de ces techniques de compression appliquées au signal ECG. Ces performances peuvent être
analysées selon quatre axes principaux à tenir compte lors des implémentations pratiques:
- La fonction Rapport de compression / Distorsion (CR/PRD).
- L'effet du bruit.
- La qualité du signal reconstruit.
- Puissance de calcul nécessaire.
La figure (4.5) présente cette fonction pour les deux techniques de compression développées
(splines et ondelettes avec ses deux niveaux). On remarque que la méthode des splines présentes les
meilleurs résultats avec des rapports de compression les plus élevés pour de faibles distorsions. La
méthode des ondelettes niveau 1 présente des résultats intéressants, comparée à la méthode des
ondelettes niveau 2.
Lorsqu'on applique un signal bruité à un algorithme de compression, il est clair que le apport
de compression est dégradé autant que la puissance du bruit est élevée. Pour avoir un rapport de
compression (CR) acceptable il est recommandé d'augmenter la tolérance (seuil). Les résultats des
tests montrent que la sensibilité de ces algorithmes aux bruits diffère d'un algorithme à un autre et
que l'algorithme des ondelettes niveau 1 est meilleur vis-à-vis les signaux bruités.
Les deux algorithmes de compression provoquent un lissage au niveau du signal, les détails
fins sont perdus autant que la tolérance (seuil) et/ou le rapport de compression est élevé. C'est
pourquoi, on doit tenir compte lors du choix du seuil de ne pas perdre l'onde "P" du signal ECG. La
méthode des ondelettes provoque des discontinuités dans le signal reconstruit pour les rapports de
compression assez élevés. Cette discontinuité est plus claire avec le niveau 2.
69
Conclusion
70
Cette étude nous a permis de voire de plus prés les problèmes principaux liés au traitement
d'un signal particulier : le signal électrocardiographique qui est un signal aléatoire stationnaire avec
un caractère périodique.
La compression du signal ECG est étudiée dans le cadre de la théorie de compression de la forme
d'onde d'une manière générale. En effet, la compression est l'élimination de redondance. Cette
dernière peut être due à la non-uniformité de distribution des échantillons comme elle peut être due
à la dépendance statistique entre les échantillons. Dans ce travail on s'est intéressé uniquement au
deuxième type de redondance et on l'élimine par des méthodes dites "irréversibles" car le signal est
toujours reconstruit avec une erreur dite "distorsion". Un processus de compression est caractérisé
essentiellement par sa complexité de calcul et par ses performances exprimées à l’aide du rapport de
compression et de la qualité du signal reconstruit.
Les méthodes de compression sont multiples. Il est intéressant d'appliquer ces différentes
techniques sur un signal particulier et voir laquelle des méthodes donne les meilleurs résultats.
Dans ce travail, on a développé deux techniques à savoir: la méthode des splines, et la méthode des
ondelettes. Ces algorithmes sont développés et testés sur le signal ECG, mais peuvent être appliqués
sur un signal quelconque. Ce travail consiste en une étude comparative de ces deux techniques
appliquées sur le signal ECG.
Les résultats montrent que la méthode des splines donne les meilleurs résultats du point de vue de la
fonction CR/PRD (Rapport de compression/Distorsion), même la qualité du signal reconstruit est
impressionnante. La méthode des ondelettes donne des résultats intéressants et lorsque le rapport de
compression augmente la forme du signal reconstruit est dégradée par discontinuité (il prend la
forme d'une échelle). Aussi la distorsion augmente en allant d'un niveau de la transformée en
ondelettes à un niveau supérieur.
Pour un signal ECG bruité, le rapport de compression est dégradé pour la méthode avec tolérance
(seuil), et pour maintenir un rapport de compression acceptable on doit augmenter le seuil de
tolérance.
Enfin, pour une implémentation pratique, le choix d'une technique de compression dépend de
plusieurs facteurs, tel que:
- L'objectif visé de la compression est principalement la qualité clinique du signal
reconstruit exigée par le spécialiste.
- La puissance de calcul des moyens disponibles.
- La présence du bruit dans le signal original.
71
Références Bibliographiques
[1] J.P COUDERC,’’ analyse quantitative des composantes temps-échelle de l ECG a haut-
résolution moyenne pour l évaluation du risque de tachycardies ventriculaires et de la mort subite
après un infarctus du myocarde’ .Thèse de doctorat, l'institut national des sciences appliquées ;
LYON ; juin 1997.
[2] http://foulon.chez-alice.fr/Alie%202.000/DATAS/MODULE1/LangECG.htm
[4] R. KARTHIK, ECG SIMULATION USING MATLAB; College of Engineering, Guindy, Anna
University, May 2003.
[6] http://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l'information
[9] Fabien Gargne .Codage, compression et cryptologie. Université de Nice-Sophia Antipolis 2005.
[11] http://www.apprendre-en-ligne.net/graphes/arborescence/huffman.html
[12] http://fr.wikipedia.org/wiki/Spline
[14] BENZID Redha. Ondelettes et statistiques d ordre supérieur appliquées aux signaux uni et
bidimensionnels. Thèse de doctorat, Faculté des sciences de l’ingénieur, Batna, Septembre 2005.
72