L5 Medida de La Información
L5 Medida de La Información
L5 Medida de La Información
de la
Información
Comunicaciones
1
Medida de la Información
La teoría de la información trata las siguientes ideas básicas:
1. Medida de la información.
Historia
El primer teorema que puede incluirse dentro de este tema de teoría de la
información fue establecido en 1924 por Nyquist, donde establece la
relación que existe entre el ancho de banda del canal y el número de pulsos
por segundo que se puedan-transmitir por él.
2
En 1928 Hartley encuentra una relación fundamental entre las constantes
del canal y la “información” por unidad de tiempo que puede pasar por él.
Hartley planteó la idea de “capacidad de canal” que se expresa
C B * Log (1 S / N )
Hartley obtiene esta importante expresión en forma intuitiva sin llegar al fondo de
la cuestión, posiblemente en 1930 esto no era necesario.
Información.
Aquí se está usando la información como un término técnico, que no debe
ser confundido con su interpretación en Ciencias de la Comunicación, donde
la importancia es su significado. Nos interesa la ‘forma” eléctrica de las
señales, momentáneamente nos separamos de su ‘contenido” y
analizaremos la información o señalización partiendo de la constitución
electromagnética de la señal.
Ejemplo 1
Un hombre debe realizar un viaje. Telefonea al servicio meteorológico y
recibe uno de los siguientes pronósticos.
P1 Saldrá el sol I1
P2 Lloverá I2
P3 Habrá un ciclón I3
3
El contenido de información de estos mensajes es muy diferente:
• El primero I1contiene poca información (el sol sale todos los días), existe
poca incertidumbre.
I(E) =1/P(E)
4
con A y B independiente, se cumple que las informaciones asociadas a estos
sucesos son: I(E) = I(A) ÷ I(B)
(1)
Resumen
5
S
si S(s1, s2, … sq; p1, p2, …pq)
Los símbolos que son transmitidos secuencialmente, tienen una ley fija de
probabilidad. Si admitimos que los símbolos son estadísticamente
independientes, la fuente se denomina fuente de memoria nula.
6
donde ∑ indica la suma extendida a todos los q símbolos de la fuente S.
Como la fuente posee una determinada entropía H(S) se define como el flujo
de información por unidad de tiempo, tasa en bits o tasa de información a:
R = m H(S) [bits/seg]
frecuencia de muestreo, (se suele denominar tasa de Nyquist a este muestreo justo”) y
la tasa de información sería: R=H.fs
7
Referencia Bibliográfica:
Sauchelli, V. (2002). Teoría de la Información y Codificación. 2da Edición-2002.
Universitas.