TD 2: Information Selon Shannon Et Codage Optimal: 1 Inégalité de Kraft (Suite)
TD 2: Information Selon Shannon Et Codage Optimal: 1 Inégalité de Kraft (Suite)
TD 2: Information Selon Shannon Et Codage Optimal: 1 Inégalité de Kraft (Suite)
Théorie de l’Information
L1 Semestre 2
Exercice 4 Les deux parties du théorème de Shannon donnent des bornes (inférieure et supérieure) pour
un code optimal, en fonction de l’entropie de la source d’information que le code est censé coder. Cet
exercice a pour but d’explorer ce rapport plus en détail.
1. Une source émet les caractères a,b,c,d,e selon la distribution de probabilité suivante :
a b c d e
1 1 1 1 1
2 4 8 16 16
Construisez l’arbre de Huffman, calculez la taille moyenne du code et comparez avec l’entropie.
Constat ?
2. Vous observez que toutes les probabilités de l’exemple précédant ont la forme 2−k . A quelle pro-
fondeur de l’arbre de codage se trouve un caractère dont la probabilité est 2−k ?
3. Faites de même pour la distribution suivante :
a b c d e
1 1 1 2 1
3 4 5 15 12
4. Nous généralisons l’observation du point (1) : Supposons qu’une source d’information émet les
caractères c1 . . . cn avec des probabilités associées pP
1 . . . pn qui sont toutes des puissances négatives
n
de 2, donc de la forme pi = 2−ki et telles que i=i pi = 1. Alors, la taille moyenne du code
construit par l’algorithme de Huffman est égale à l’entropie de la source.
Pour cela, nous montrons les invariants suivants de l’algorithme de Huffman pour l’ensemble
A = {a1 . . . at } des arbres qu’il manipule :
(a) A tout instant, tout arbre de l’ensemble A a une racine avec une valeur qui est de la forme
2−k .
(b) Tant qu’il existent encore deux arbres dans l’ensemble A, il existent au moins deux arbres dans
A dont la probabilité est minimale.
(c) A tout instant, l’entropie de la source est égale à lc(a1 ) + . . . lc(at ), où, pour un arbre a avec
racine 2−k , nous définissons +k
Plc(a) = lnm (cpf (a)), et cpf est défini comme sur les transparents
du cours et lnm+k (E) = (m,p)∈E p ∗ (|m| + k).
Assurez-vous que ces propriétés tiennent pour l’exemple du point (1). Démontrez ensuite qu’il
s’agit d’un invariant, à savoir, que les propriétés sont satisfaites au début de l’algorithme ; qu’elles
sont préservées par chaque itération ; et qu’à la fin, l’invariant implique la proposition (égalité de
la taille moyenne et de l’entropie).
5. En applicant un raisonnement similaire au point (4), vous pouvez généraliser (3) et montrer que si
deux caractères ont des probabilités qui ne sont pas des puissances négatives de 2, alors l’algorithme
de Huffman construit un arbre dont la longueur moyenne est strictement supérieure à l’entropie.