Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

TD 2: Information Selon Shannon Et Codage Optimal: 1 Inégalité de Kraft (Suite)

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 2

Année 2017 - 2018

Théorie de l’Information
L1 Semestre 2

TD 2 : Information selon Shannon et codage optimal


1 Inégalité de Kraft (suite)
Exercice 1
1. Utilisez l’inégalité de Kraft pour montrer qu’il est possible de construire un code préfixe binaire
caractère a b c d e f
pour les caractères a . . . f avec les longueurs de code suivants :
longueur 2 3 4 2 4 3
2. Construisez effectivement un arbre de codage pour cet exemple.
3. Vous constatez qu’un code n’est pas utilisé. Lequel ?
4. Évidemment, une telle situation est embêtante surtout pour le décodage de messages (certains
messages ne peuvent pas être décodés). Montrez que tout alphabet fini avec au moins deux ca-
ractères A1 peut être codé par un code préfixe binaire, donc par une fonction c : A1 → {0, 1}+ ,
de telle manière qu’il n’y ait pas de codes non utilisés. (Bien sûr, ceci n’est pas possible pour
n’importe quelles contraintes sur les longueurs des codes.) Donnez un tel code pour les caractères
a . . . f.
5. Montrez que ceci n’est pas toujours possible si on utilise un code ternaire (donc un arbre de
décodage ou chaque noeud est une feuille ou a exactement trois successeurs).

2 Entropie et longueur de codes


Exercice 2 Dans cet exercice, nous nous intéressons à un codage des caractères a, b, c, d par des séquences
de nombres binaires, et du temps de transmission d’un texte T de 100 caractères sur le canal C qui peut
transmettre 20 bit/sec, donc 20 chiffres binaires par seconde.
1. Supposons que l’occurrence des caractères est équiprobable, et que les caractères a, . . . d sont codés
par 00, . . . 11 respectivement. Combien de temps faut-il pour communiquer le texte sur le canal C ?
2. Supposons maintenant une source d’information S dont la probabilité des caractères est indiquée
dans ce tableau :
caractère a b c d
probabilité 0.5 0.2 0.2 0.1
et que nous continuons à coder les caractères comme dans (1). Quelle est l’espérance de la taille
du code du texte T , et, en moyenne, son temps de transmission sur C ?
3. Nous essayons d’optimiser et nous proposons le code suivant :
caractère a b c d
code 0 10 110 1110
Vérifiez bien qu’il s’agit d’un code préfixe ! Pour la distribution de probabilité de (2), nous posons
de nouveau la question de la taille moyenne de T et du temps de transmission sur C.
4. Calculez l’entropie de la source S de (2) pour obtenir une borne inférieure du temps de transmission
de T sur C.
5. Il s’avère que le code de (3) n’est pas encore optimal. Utilisez l’algorithme de Huffman pour calculer
un code optimal. Comparez avec l’entropie.

Théorie de l’Information 2017 - 2018 1 TD 2


Exercice 3 Une source d’information émet les caractères a,b,c,d selon la distribution de probabilité
suivante :
a b c d
0.4 0.2 0.3 0.1
1. Quelle est l’entropie de cette source d’information ?
2. Construisez l’arbre de Huffman et attribuez un code binaire optimal à chacun des caractères
a,b,c,d. Calculez la taille moyenne du code, et comparez-la à l’entropie.
3. Un collègue vous dit qu’il arrive à coder un texte de 24 caractères avec 18 bits. Vous lui dites qu’il
se trompe. Quelle est votre justification ?
4. Votre collègue vous présente un exemple : aaaaaaaaccccccccbbbbdddd codé par
00111.10111.0111.1111. Son idée : Coder les caractères a . . . d par 00 . . . 11, suivi du nombre
n − 1 codé en binaire, pour n occurrences consécutives du caractère. Par exemple, ceci donne 0111
pour la séquence de 4 b. Où est le malentendu ?

Exercice 4 Les deux parties du théorème de Shannon donnent des bornes (inférieure et supérieure) pour
un code optimal, en fonction de l’entropie de la source d’information que le code est censé coder. Cet
exercice a pour but d’explorer ce rapport plus en détail.
1. Une source émet les caractères a,b,c,d,e selon la distribution de probabilité suivante :
a b c d e
1 1 1 1 1
2 4 8 16 16
Construisez l’arbre de Huffman, calculez la taille moyenne du code et comparez avec l’entropie.
Constat ?
2. Vous observez que toutes les probabilités de l’exemple précédant ont la forme 2−k . A quelle pro-
fondeur de l’arbre de codage se trouve un caractère dont la probabilité est 2−k ?
3. Faites de même pour la distribution suivante :
a b c d e
1 1 1 2 1
3 4 5 15 12
4. Nous généralisons l’observation du point (1) : Supposons qu’une source d’information émet les
caractères c1 . . . cn avec des probabilités associées pP
1 . . . pn qui sont toutes des puissances négatives
n
de 2, donc de la forme pi = 2−ki et telles que i=i pi = 1. Alors, la taille moyenne du code
construit par l’algorithme de Huffman est égale à l’entropie de la source.
Pour cela, nous montrons les invariants suivants de l’algorithme de Huffman pour l’ensemble
A = {a1 . . . at } des arbres qu’il manipule :
(a) A tout instant, tout arbre de l’ensemble A a une racine avec une valeur qui est de la forme
2−k .
(b) Tant qu’il existent encore deux arbres dans l’ensemble A, il existent au moins deux arbres dans
A dont la probabilité est minimale.
(c) A tout instant, l’entropie de la source est égale à lc(a1 ) + . . . lc(at ), où, pour un arbre a avec
racine 2−k , nous définissons +k
Plc(a) = lnm (cpf (a)), et cpf est défini comme sur les transparents
du cours et lnm+k (E) = (m,p)∈E p ∗ (|m| + k).
Assurez-vous que ces propriétés tiennent pour l’exemple du point (1). Démontrez ensuite qu’il
s’agit d’un invariant, à savoir, que les propriétés sont satisfaites au début de l’algorithme ; qu’elles
sont préservées par chaque itération ; et qu’à la fin, l’invariant implique la proposition (égalité de
la taille moyenne et de l’entropie).
5. En applicant un raisonnement similaire au point (4), vous pouvez généraliser (3) et montrer que si
deux caractères ont des probabilités qui ne sont pas des puissances négatives de 2, alors l’algorithme
de Huffman construit un arbre dont la longueur moyenne est strictement supérieure à l’entropie.

Théorie de l’Information 2017 - 2018 2 TD 2

Vous aimerez peut-être aussi