Principi Di Comunicazioni Elettriche
Principi Di Comunicazioni Elettriche
Principi Di Comunicazioni Elettriche
Fiandrino Claudio
25 novembre 2009
II
Indice
1 Trasmissione dell’informazione 3
2 Rumore 7
2.1 Introduzione generale . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Rumore nei doppi bipoli . . . . . . . . . . . . . . . . . . . . . 11
2.3 Rumore in cascate di doppi bipoli . . . . . . . . . . . . . . . . 12
2.4 Rumore nei sistemi wireless . . . . . . . . . . . . . . . . . . . 14
2.5 Banda equivalente di rumore . . . . . . . . . . . . . . . . . . 14
2.6 Rapporto segnale-rumore . . . . . . . . . . . . . . . . . . . . 16
2.7 Attenuatore dissipativo . . . . . . . . . . . . . . . . . . . . . 17
3 Teoria dell’informazione 19
3.1 Introduzione generale . . . . . . . . . . . . . . . . . . . . . . 19
3.2 Codifica di sorgente . . . . . . . . . . . . . . . . . . . . . . . 22
3.3 Codifica di canale . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.4 Canale discreto . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4 Modulazioni 31
4.1 Modulazioni analogiche . . . . . . . . . . . . . . . . . . . . . 31
4.1.1 Modulazioni di ampiezza . . . . . . . . . . . . . . . . 31
4.1.2 Segnale analitico e inviluppo complesso . . . . . . . . 36
4.2 Modulazioni numeriche . . . . . . . . . . . . . . . . . . . . . . 40
4.2.1 Introduzione generale . . . . . . . . . . . . . . . . . . 40
4.2.2 Costellazioni e regioni di decisione . . . . . . . . . . . 60
4.2.3 Modulazioni in banda base . . . . . . . . . . . . . . . 62
4.2.4 Modulazioni in banda traslata . . . . . . . . . . . . . 69
III
IV INDICE
6 Esempi conclusivi 95
6.1 Esempio modulazione PAM . . . . . . . . . . . . . . . . . . . 95
6.2 Diagramma ad occhio . . . . . . . . . . . . . . . . . . . . . . 104
6.2.1 Esempio per la modulazione 2-PAM . . . . . . . . . . 104
6.2.2 Esempio per la modulazione QPSK . . . . . . . . . . . 106
Prefazione
Gli appunti sono stati redatti seguendo le lezioni del corso ed approfondendo
alcuni argomenti sul libro di testo consigliato (Giorgio Taricco, Comunica-
zioni elettriche con elementi di teoria dell’informazione, edito CLUT).
Se fossero presenti errori potete segnalarli al il mio recapito mail:
claudio fiandrino@hotmail.it.
Il sito in cui è possibile trovare questi appunti è:
http://claudiofiandrino.altervista.org.
1
2 INDICE
Capitolo 1
Trasmissione
dell’informazione
Sistemi di trasmissione
Esistono due tipi di sistemi di trasmissione: analogici e digitali.
Sistemi analogici
x(t)
3
4 CAPITOLO 1. Trasmissione dell’informazione
Sistemi digitali
x(t)
S MOD DEMOD R
Sistemi digitali:
Rumore
In questo capitolo verrà analizzato il rumore termico nei suoi aspetti fonda-
mentali.
. è bianco;
GN (f )
N0
2
7
8 CAPITOLO 2. Rumore
RN (τ )
N0
2
In formule:
GN (f ) = F {RN (τ )} RN (τ ) = F −1 {GN (f )}
fn
Dimostrazione
Collegando un resistore ad un oscilloscopio si osserva che anche senza ali-
mentazione scorre una microcorrente spuria; questo fenomeno è dovuto all’a-
gitazione termica degli elettroni semplicemente perchè la resistenza si trova
ad una certa temperatura.
Lo spettro della corrente misurata i(t) è il seguente:
Gi (f )
dove:
J
. κ è la costante di Boltzman che vale 1.38 · 10−23 K ;
Esempio
X(f )
−B B f
2.2. Rumore nei doppi bipoli 11
B B
N0 N0
Z Z
Pn = Gn (f ) df = df = · 2B = N0 · B = κ · T · B
−B −B 2 2
Sostituendo i valori numerici:
D.B
n(t)
x(t) ⊕ y(t)
κ·T
Gin =
2
Ipotizzando che gli elementi siano adattati in impedenza, quindi sia la
potenza del segnale che quella del rumore sono massime, si ha in uscita:
Ricapitolando:
Si introduce:
Gout Te
γT = ′ =1+
Gout T
Tale rapporto viene definito cifra di rumore (figure noise), quando T è
uguale a T o, temperatura operativa (290◦ K, 17◦ C):
Gout Te
F = ′ =1+
Gout To
Questa quantità misura quanto peggiora l’uscita del doppio bipolo rumoroso
rispetto al suo ingresso.
T e = T o · (F − 1)
. cardinalità N ;
. temperatura Ti ;
. cifra di rumore Fi ;
. guadagno gi ;
Ti , Fi , gi Ti , Fi , gi Ti , Fi , gi
gtot = g1 · g2 · g3 · ... · gN
κ · (T o + T1 )
Gout (1) = · gtot + Gdb (1)
2
È come considerare il primo doppio bipolo reale e tutti gli altri ideali.
Ripetendo l’operazione sull’intera catena si ottiene:
T1 T2 TN
Ftot = 1 + + + ··· +
T o T o · g1 T o · (g1 · g2 · ... · gN −1 )
RX
Ta
Top = T a + T e
Ricapitolando:
x(t) ⊕ y(t)
n(t)
2.5. Banda equivalente di rumore 15
Gy (f ) = |H(f )|2 · Gx (f )
Si osserva che l’integrale non dipende dalla geometria del filtro, ma solo dalla
sua area.
Si definisce banda equivalente di rumore:
Z +∞
1 1
Beq = · · |H(f )|2 df
2 |H(f )|2 −∞
f −Beq Beq f
PNout = κ · T o · Beq
16 CAPITOLO 2. Rumore
. guadagno disponibile gd ;
. cifra di rumore F ;
Se la temperatura di lavoro è T o:
PSin 1 1
SN Rout = · T e
= SN Rin +
κ · T · Beq 1 + T o F
. Gout = κ·T o
2 , potenza di rumore in uscita considerando rumoroso
l’attenuatore.
Teoria dell’informazione
S −→ {xi }M
i=1
Proprietà
19
20 CAPITOLO 3. Teoria dell’informazione
I bit dunque non sono ′′ 0′′ e ′′ 1′′ che viaggiano nei segnali, ma misura di
quantità di informazione scambiata.
Solo in casi particolari vi è una correlazione fra cifre binarie e bit di infor-
mazione, come si vedrà in seguito.
Esempio 1
Data una sorgente S che può emettere 4 simboli diversi (x0 , x1 , x2 , x3 ) con
probabilità uguale per ogni simbolo; si calcoli l’entropia della sorgente.
Esempio 2
Esempio 3
X = {x0 , x1 }
H(x)
1
0 1 1 p0
2
22 CAPITOLO 3. Teoria dell’informazione
Solo in questo caso vi è una corrispondenza fra cifra binaria ed bit; si noti,
ad esempio, che se si tramette per il 60% delle volte il simbolo x0 e per il
40% x1 allora l’entropia sarà un numero compreso fra 0 e 1.
S −→ X = {xi }M
i=1
SBIN −→ Y = {y0 , y1 }
Lunghezza media
dove:
Teorema di Shannon:
H(x) ≤ n ≤ H(x) + 1
La condizione importante è:
n ≥ H(x)
3.2. Codifica di sorgente 23
Significa che nel caso migliore, simboli equiprobabili, servono tante cifre bi-
narie quanto è l’entropia della sorgente; in caso contrario ne servono di più,
quindi ci sarà uno spreco di cifre che non sono informazione, ma ridondanza.
4. associare le cifre binarie ′′ 0′′ e ′′ 1′′ alle transizioni dei rami dell’albero
ottenuto;
S −→ X = {xi }4i=1
P = 1/8
x3 1
P = 1/4
1
P = 1/8
x2 0
P = 1/2
1
P = 1/4
x1 0 P=1
P = 1/2
x0 0
Simbolo Codifica
x3 111
x2 110
x1 10
x0 1
Calcoliamo n:
1 1 1 7
n= · 1 + · 2 + 2 · · 3 = = 1.75
2 4 8 4
Il risultato è uguale all’entropia di questa sorgente; infatti con la codifica
Huffman si ha n = H(x) nel caso in cui le probabilità siano distribuite come:
1
P(x) = i
α i=2,4,8,16,...
dove α ∈ N.
In questi casi una cifra binaria corrisponde ad un bit di informazione; se però
n 6= H(x) si introduce un parametro η che misura l’efficienza di codifica,
definito come:
H(x)
η=
n
3.3. Codifica di canale 25
X = {xi }M
i=1 Y = {y0 , y1 }
S C.S
S C.S C.C
n>m
Esempio
Input Output
0 000
1 111
Ma tale criterio funziona solo per errori singoli: se infatti durante la tra-
smissione vengono fatti due errori, ciò che accade è un errore di decodifica
(0 anzichè 1 e viceversa).
Aumentando la complessità del codice, ad esempio utilizzando un codice
(5,1), si riuscirebbero a rilevare due errori e a correggere quando le stringhe
presentano meno di 3 errori di tramssione; ovviamente questo comporta una
diminuzione del rate di codifica che diventerebbe pari ad 51 .
3.4. Canale discreto 27
S −→ X = {xi }M
i=1
se in ricezione si ha:
R −→ Y = {yj }N
j=1
un modello che descrive ciò che accade prende il nome di canale discreto.
In generale non è detto che avendo M simboli alla sorgente si debbano avere
N = M simboli in ricezione.
Ad esempio, la sorgente trasmette stato alto (1) e stato basso (0) in cui
M = 2; sul canale è presente sicuramente il rumore che potrebbe portare
ad avere, oltre ai corrispettivi stati alto e basso, anche un terzo stato di
transizione: in questo caso N = 3.
Per questo esempio costruiamo il modello del canale discreto:
b y0
x1 b
b y1
x0 b
b y2
Se ogni simbolo ha una certa probabilità di essere emesso e ricevuto:
Simbolo Probabilità
x0 P(x0 )
x1 P(x1 )
y0 P(y0 )
y1 P(y1 )
y2 P(y2 )
x1 b b y1
x0 b b y0
dove con i tratti rossi tratteggiati si sono rappresentate le transizioni dei
canali, mentre con il tratto nero continuo i casi di corretta trasmissione.
Nel caso in cui le probabilità di errore siano uguali:
. H(y) = N 1
P
j=1 P(yj ) · log2 P(yj ) =⇒ entropia della sorgente in rice-
zione.
Sempre per il BSC, con il teorema della probabilità totale, calcoliamo:
. P(y0 ) = P(x0 ) · P(y0 |x0 ) + P(x1 ) · P(y0 |x1 );
1. H(y|x) = M
P PN 1
i=1 j=1 P(xi , yj ) · log2 P(yj |xi ) ;
PM PN
2. H(x|y) = i=1 j=1 P(xi , yj ) · log2 P(x1i |yj ) .
Corollario
0 ≤ H(y|x) ≤ H(x)
3.4. Canale discreto 29
I simboli della sorgente vengono emessi con una frequenza regolare; si defi-
nisce:
H(x)
Rs =
Ts
dove:
Rs viene anche chiamato Bit Rate, sottointendendo per bit rate il rate di
emissione di una quantità unitaria di informazione e non il rate di emissione
di cifre binarie.
Quest’ultimo viene indicato con rb e si può facimente capire che:
rb ≥ Rs
Si definisce:
C
Cs =
Ts
come capacità per tempo di simbolo, misurata anch’essa in bit/s.
Modulazioni
x(t) y(t)
MOD
Modulatore
31
32 CAPITOLO 4. Modulazioni
X(f ) Y (f )
1
1
2
f −f0 f0 f
Lo spettro Y (f ) viene spostato dalla banda base attorno alla frequenza della
portante: si parla di segnali in banda traslata.
In fase di ricezione il segnale deve essere demodulato; questa fase può avve-
nire in due modi:
. demodulazione coerente;
. demodulazione non coerente.
La demodulazione coerente avviene, partendo dal segnale ricevuto r(t) che
comprende il rumore, moltiplicando per un coseno:
cos(2πf t)
y c
r(t) −→ ⊗ −→ w(t)
Nel caso di demodulazione coerente occorre conoscere le informazioni della
portante: frequenza e fase.
Anche la fase è un parametro importante perchè, ad esempio, se si moltipli-
casse per cos(2πfc t + ϕ), con ϕ = 90◦ accadrebbe che il coseno diventerebbe
un seno ed un’eventuale operazione di filtraggio successiva avrebbe risultato
nullo perchè seno e coseno sono ortogonali fra loro.
Poichè la fase dipende dalla distanza a cui sono posti trasmettitore e ricevi-
tore è possibile ricostruire la portante, in ricezione, solo con un sincroniz-
zatore; il sincronizzatore opera con un filtro molto stretto sulla frequenza
fc della portante.
4.1. Modulazioni analogiche 33
1/2
−fc fc f
−2fc 2fc f
1/2
−fc fc f
Modulazione AM
. Ka è l’indice di modulazione.
Ka
Ac
−Ka
Sm (f ) = F {Sm (t)}
⇓
Ac Ac Ac · Ka Ac · Ka
Sm (f ) = ·δ(f −fc )+ ·δ(f +fc )+ ·M (f −fc )+ ·M (f +fc )
2 2 2 2
4.1. Modulazioni analogiche 35
Parte della potenza del segnale viene quindi usata per trasportare due por-
tanti proprio sulla frequenza di carrier; il sincronizzatore dunque, nel caso
di segnali a componente continua nulla, filtrando recupera le informazioni
utili perchè il risultato dell’operazione non è più nullo:
Sm (f )
1/2
−fc fc f
S(f )
1
Sm (f )
1/2 1/2
−fc fc f
Rm (f )
1/2 1/2
−fc fc f
Rd (f )
−2fc 2fc f
Segnale analitico
Dato un segnale in ingresso si definisce segnale analitico:
x(t) ẋ(t)
2u(f )
X(f ) |H(f )|
2
1
f f
X(f ) · H(f )
⇓
F {ẋ(t)}
2
X(f ) F {ẋ(t)}
2
1
f f
38 CAPITOLO 4. Modulazioni
Per differenza dunque x̂(t), per poter tagliare la parte negativa, deve essere:
F {x̂(t)}
2
⇓
ż(t) = F −1 {δ(f − fc )} = ej2πfc t
Quindi:
ẋ(t) = m(t) · ej2πfc t
Inviluppo complesso
Dato un segnale analitico ẋ(t):
F {ẋ(t)}
f0 f
ẋ(t) = x̃ · ej2πf0 t
xs (t)
⊗
sin(2πf0 t)
{xi }M
i=1 {si }M
i=1
MOD
Modulatore
numerico
Dove:
. {xi }M
i=1 sono bit in ingresso;
4.2. Modulazioni numeriche 41
. {si }M
i=1 sono segnali in uscita.
Demodulatore
numerico
Dove:
. {ri }M
i=1 sono i segnali ricevuti in ingresso;
. {x̂i }M
i=1 sono i simboli stimati in uscita.
{si }M
i=1 {ri }M
i=1
⊕
n(t)
Trasmissione Ricezione
Simbolo xi x̂j
Codifica 000 001
Esempio
X −→ {0, 1}
1◦ tipologia
s1 (t) s2 (t)
A
T
T t t
-A
2◦ tipologia
s1 (t) s2 (t)
A
T
T t t
-A
3◦ tipologia
s1 (t) s2 (t)
A
A
T1 t T2 t
. Tb è il tempo di bit;
Anche in questo caso l’inverso del tempo di bit prende il nome di bit rate:
1
Rb =
Tb
Si deve prestare attenzione perchè Ts e Rs sono parametri fisici, mentre Tb
ed Rb si introducono per comodità.
44 CAPITOLO 4. Modulazioni
R Ts λ2
⊗ 0 ⊕
s2 (t) − 21 ε2
R Ts λM
⊗ 0 ⊕
sM (t) − 21 εM
Esempio
Ts t Ts t
s3 (t) s4 (t)
Ts Ts
t t
A
2A
4.2. Modulazioni numeriche 45
Ipotizziamo:
sk (t) = α · ψ1 (t) + β · ψ2 (t)
Come si è visto:
Z +∞
α = s(t) · ψ1 (t) dt = sk,1
−∞
Z +∞
β = s(t) · ψ2 (t) dt = sk,2
−∞
ψ2 (t)
sk (t)
β
α ψ1 (t)
α ψ1 (t)
[α + n(t)]
Gli rk,n sono i parametri calcolati dal demodulatore; grazie alla rappresen-
tazione mediante segnali di base la demodulazione è ideale.
R Ts r2
⊗ 0
ψ2 (t)
R Ts rM
⊗ 0
ψM (t)
Z M
Ts X
sk,n (t) · ψn (t) · ψl (t) dt
0 n=1
M
X Z Ts
sk,n(t) ψn (t) · ψl (t) dt
n=1 0
n(t) R Ts nl
⊗ 0
ψl (t)
48 CAPITOLO 4. Modulazioni
Analizziamo ora:
Z Ts Z Ts
E(nl · nk ) = E n(t1 ) · ψl (t1 ) dt1 · n(t2 ) · ψk (t2 ) dt2 =
0 0
Z Ts Z Ts
=E n(t1 ) · n(t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2 =
0 0
Z Ts Z Ts
= E[n(t1 ) · n(t2 )] · ψl (t1 ) · ψk (t2 ) dt1 dt2 = (‡)
0 0
Poichè:
N0
E[n(t1 ) · n(t2 )] =
· δ(t1 − t2 )
2
rappresenta l’autocorrelazione del rumore si ha:
Z Ts Z Ts
N0
(‡) = · δ(t1 − t2 ) · ψl (t1 ) · ψk (t2 ) dt1 dt2
2 0 0
. 1 se k = l;
. 0 se k 6= l.
rn = sk,n + nn
dove:
Esempio
√A
Ts
Ts
Ts t t
√B
Ts
√1
Ts
Ts t
Il segnale ψ(t) deve soddisfare i soliti vincoli per poter essere un segnale di
base, quindi deve possedere energia unitaria; per questo la sua ampiezza non
è causale.
A questo punto i due segnali s1 (t) ed s2 (t) si possono scrivere nella seguente
forma:
s1 (t) = A · ψ(t)
s2 (t) = B · ψ(t)
50 CAPITOLO 4. Modulazioni
visualizzando graficamente:
B A ψ(t)
√A
Ts
Ts 4Ts t
√B
Ts
2Ts 3Ts
Per questo caso semplice, lo schema del demodulatore ha un solo ramo:
r(t) R Ts r
⊗ 0
ψ(t)
Sapendo che:
r(t) = s(t) + n(t)
⇓
Z Ts
r= [s(t) + n(t)] · ψ(t) dt
0
Questa è la formula generale; ipotizziamo sia stato trasmesso il segnale s1 (t)
e sviluppiamo i calcoli per questo caso:
Z Ts Z Ts Z Ts
r= [s1 (t) + n(t)] · ψ(t) dt = s1 (t) · ψ(t) dt + n(t) · ψ(t) dt
0 0 0
4.2. Modulazioni numeriche 51
ma:
R Ts
. 0s1 (t) · ψ(t) dt rappresenta la proiezione di s1 (t) su ψ quindi è pro-
prio A;
RT
. 0 s n(t) · ψ(t) dt è la proiezione del rumore su ψ quindi è la variabile
casuale n.
In definitiva, trasmesso s1 (t) si esprime la variabile casuale r come:
r =A+n
f(r|A)
A ψ(t)
f(r|B)
B ψ(t)
B A ψ(t)
Regole di decisione
1
· |rl − sk,l |2 + lnP(−
→
N
= ln(πN0 )− 2 − s k)
N0
4.2. Modulazioni numeriche 53
. lnP(−
→
s k ) è legato alla probabilità di emissione di un segnale.
Λk = |rl − sk,l |2
Questa regola viene anche detta regola a distanza minima, perchè stimare il
segnale che più probabilmente è stato emesso vuol dire cercare, tra l’alfabeto
a disposizione, quello più vicino al segnale ricevuto.
Nell’esempio precedente:
Regola MAP
Regola ML
Visualizziamo graficamente:
B A ψ(t)
B A ψ(t)
B A ψ(t)
Si noti che le regole di decisione fin qui viste non dipendono dalla forma del
segnale: questo implica che è possibile sceglierle a piacimento rispettando
solo i vincoli di ortogonalità ed energia unitaria e la demodulazione sarà
sempre ottima.
4.2. Modulazioni numeriche 55
1 1
− · |r − A|2 + lnP(s1 ) = − · |r − B|2 + lnP(s2 )
N0 N0
|r − B|2 − |r − A|2
= lnP(s2 ) − lnP(s1 )
N0
⇓
r 2 − 2rB + B 2 − r 2 + 2rA − A2
P(s2 )
= ln
N0 P(s1 )
A2 − B 2
2r(A − B) P(s2 )
= · ln
N0 N0 P(s1 )
Per cui si ricava:
(A2 − B 2 ) · N0
N0 P(s2 )
r= + · ln
2 · N0 2 · (A − B) P(s1 )
(A2 − B 2 )
N0 P(s2 )
r= + · ln
2 2 · (A − B) P(s1 )
Si noti che se i segnali sono equiprobabili:
N0
P(s2 ) = P(s1 ) =⇒ · ln (1) = 0
2 · (A − B)
A ψ(t)
√A
Ts
Ts
Ts t t
√B
Ts
4.2. Modulazioni numeriche 57
−A A ψ(t)
r(t) R Ts r
⊗ 0
ψ(t)
58 CAPITOLO 4. Modulazioni
r = r(t) ∗ ψ(−t)|τ =0
h(t) = ψ(Ts − t)
√A
Ts
Ts
Ts t t
−A
√
Ts
4.2. Modulazioni numeriche 59
−A A ψ(t)
r(t) y(t) Ts
Filtro r
h(t) = ψ(Ts − t)
R +∞
. −∞ Ψ(f ) e−j2πf Ts df risulta essere uguale ad 1 in quanto Ψ(f ) è un
segnale di base;
1
. normalmente è uguale ad 1 perchè il filtro non deve nè
max{|H(f )|2 }
attenuare nè dissipare (funzione di trasferimento con modulo pari ad
1).
Con questo risultato sostituiamo in (4.7) ottenendo:
N0 2 1 N0
σnf
·2· == [ W]
2 2 2
In questo caso l’unità di misura è una potenza perchè il rumore è stato fil-
trato, quindi dimensionalmente moltiplicato per una banda [Hz].
s1 s2 ψ(t)
Regione 1 Regione 2
Questo è il caso più semplice, ma in generale la costellazione comprende
sempre più di due punti perchè a due segnali è associato un solo bit di in-
formazione, quantità irrisoria per comunicazioni normali.
Osserviamo cosa succede per una costellazione a 4 punti, quindi a 4 segnali
in uno spazio a due dimensioni:
ψ2 (t) ψ2 (t)
s2 s1 s1
ψ1 (t) s2 s4 ψ1 (t)
s3
s3 s4
1◦ Tipologia 2◦ Tipologia
4.2. Modulazioni numeriche 61
M
X
Em = P(si ) · |si |2
i=1
ossia una media pesata per la probabilità di emissione della distanza dall’o-
rigine di tutti i punti della costellazione.
Ciò che differenzia una costellazione da un’altra è proprio la sua energia
media; osserviamo nel disegno seguente le due costellazioni semplici:
ψ2 (t) ψ2 (t)
s2 d s1 d
s2 s1
0 ψ1 (t) 0 ψ1 (t)
M
X
b= P(si ) · si
i=1
Si può pensare quindi alla costellazione simplex come alla costellazione che
ha il suo baricentro nell’origine; di conseguenza una costellazione non sim-
plex qualsiasi si può vedere come una costellazione il cui baricentro è stato
traslato rispetto all’origine.
62 CAPITOLO 4. Modulazioni
d
bc bc b bc bc
− 3d − d2 0 d 3d ψ(t)
2 2 2
dove: Z
P(c|si ) = f (r|si )
Reg
Osserviamo che per un segnale che non sta ai bordi la probabilità di corretta
ricezione è l’area colorata in grigio:
bc bc bc bc
−d d 3d 5d ψ(t)
2 2 2 2
0 d
4.2. Modulazioni numeriche 63
P(c) = 1 − P(e)
1 − P(c) = P(e)
nel grafico sarebbe la probabilità che il segnale ricevuto sia interno alle regio-
ni delle due code della gaussiana, le quali, siccome i punti sono equidistanti,
hanno area uguale.
Analiticamente la densità di probabilità di errore si definisce per questo caso:
Z 0 [ Z +∞
f (r|si ) f (r|si )
−∞ d
Si = ai · ψ(t)
dove:
d
ai = (2i − 1 − M ) ·
2
Se si considere l’energia media, essa può venire descritta come:
M
1 X
Em = · |ai |2
M
i=1
2
Nell’ordine:
(M-2) è l’insieme dei segnali esclusi i due ai bordi
(2) è il numero delle code della gaussiana
(2) è il numero di segnali ai bordi
64 CAPITOLO 4. Modulazioni
Si ricava il parametro d2 :
r
d 3
= · Em
2 M2−1
Determiniamo la probabilità di errore in funzione dell’energia media:
r !
M −1 3 Em
P(e) = · erfc · (4.9)
M M 2 − 1 N0
3
Si noti che M 2 −1 è il parametro di perdita γ mostrato nel grafico sotto.
Osservazione
Per M = 4 si ha:
r ! r !
4−1 3 Em 3 3 Em
P(e) = · erfc 2
· = · erfc
4 4 − 1 N0 4 15 N0
Em
γ N0
Come si può notare, per mantenere la stessa probabilità di errore (si segua
sul grafico la linea tratteggiata), che vuol dire mantenere la stessa distanza
d tra i punti passando da una costellazione con M = 2 ad una con M = 4,
è necessario trasmettere con più energia i segnali perchè è maggiore il rap-
porto ENm0 .
4.2. Modulazioni numeriche 65
L’espressione (4.9) è una probabilità di errore sul simbolo; già altre volte
abbiamo descritto come la probabilità di sbagliare un simbolo non comporti
necessariamente errori su tutti i bit di informazione.
Indicando con n il numero di bit associati ad una costellazione (n = log2 M )si
definisce l’energia per bit:
Em
Eb =
n
Osserviamo le differenza tra la modulazione 2-PAM e 4-PAM:
M =2 n=1 Eb = Em
M =4 n=2 Eb = E2m
Nel primo caso tutta l’energia serve per trasportare un bit di informazione
mentre nel secondo ogni bit costa metà di Em .
Ricavando l’espressione dell’energia media in funzione dell’energia per bit si
può determinare probabilità di errore sul bit:
r !
M −1 3 log2 M · Eb
Pb (e) = · erfc ·
M M2 − 1 N0
I confronti tra modulazioni dello stesso tipo vengono fatte analizzando que-
sta probabilità di errore e non quella sul simbolo, dove si ha un’aumento
delle prestazioni soltanto aumentando M .
Codifica di Gray
Prendiamo ora in esame la modulazione 4-PAM ed ipotiziamo di associare
ad ogni segnale una stringa di bit come in tabella:
Segnale Codifica
s1 00
s2 01
s3 10
s4 11
66 CAPITOLO 4. Modulazioni
Graficamente:
s1 s2 s3 s4
00 01 10 11 ψ(t)
Si osservi che in base a come viene effettuato il labelling (la codifica tra
simboli e bit) si avranno Pb (e) diverse; per questo esempio trasmettendo s1
si ha probabilità di sbagliare un bit se si finisce nelle regioni di decisione di
s2 ed s3 e probabilità di sbagliare due bit se la regione è s4 .
Sembra una scelta ragionevole perchè nella regione di s4 la coda della gaus-
siana sarà piccola, e dunque anche la probabilità che tramettendo s1 si riceva
r in tale regione è bassa.
Se invece si prende in considerazione l’ipotesi di trasmettere s3 notiamo im-
mediatamente che la regione di decisione di s2 presenta entrambi i due bit
diversi; la probabilità di errore su due bit sarà grande in una regione dove
la coda della gaussiana non è poi cosı̀ bassa.
s1 s2 s3 s4
00 01 11 10 ψ(t)
Segnale Codifica
s1 00
s2 01
s3 11
s4 10
P(e)
< Pb (e) < P(e)
log2 M
dove:
P(e)
. log2 M è la probabilità di sbagliare un solo bit;
il compito del mapper è quello di decidere quale segnale associare alla strin-
ga binaria in uscita dal codificatore di canale. Questa decisione viene presa
ogni tempo di simbolo Ts .
Union Bound
Nelle modulazioni M-PAM il tempo di trasmissione totale è proporzionale
alla dimensione del file da trasmettere; un modo per aumentare la velocità
è aumentare il numero di bit, ma il costo è l’energia necessaria per inviare
i segnali; se invece si riduce il parametro Ts aumenta la frequenza e questa
velocità necessaria si traduce con un’aumento di banda.
ψ1 (t) ψ2 (t)
Ts
Ts t t
68 CAPITOLO 4. Modulazioni
s2 s4 ψ1 (t)
s3
2Ts 4Ts
Ts t
3Ts
dove dmin rappresenta il minimo tra tutte le distanze dei segnali presenti
sulla costellazione.
L’approssimazione di questa formula consiste nell’ipotizzare di avere M − 1
segnali a distanza minima, ma è una stima quasi sicuramente peggiorativa
nella maggioranza dei casi; considerando invece di avere Ndmin segnali a
distanza minima si può concludere che:
1 dmin
P(e) ∼
= Ndmin · · erfc √
2 2 · N0
4.2. Modulazioni numeriche 69
. s1 (t) = 0;
q
2·Em
. s2 (t) = Ts · cos(2π f0 t) · pTs (t − Ts )
q
2·Em
La parte Ts serve per garantire ad s2 (t) di avere energia unitaria, di
conseguenza s2 (t) è un versore.
Questa modulazione ha una sola dimensione ψ; le proiezioni dei segnali su
ψ sono:
s1 s2
b b
0 1 ψ
ż(t) = ṽ(t) · e j 2π f0 t
dove ṽ(t) è l’inviluppo complesso del segnale modulato [ṽ(t) = vc (t)+jvs (t)].
In banda traslata non si opera con il segnale, ma con il suo inviluppo com-
plesso che è appunto la rappresentazione di v(t) centrato ad una frequenza
f0 .
vc
Re{ · } rc
⊕ Canale
vs
⊗ Im{ · } rs
j
4.2. Modulazioni numeriche 71
dove:
s = [αn + βn ] + j[γn + ςn ]
Modulazione PSK
La modulazione PSK è una modulazione di banda traslata (phaze shift
keying) dove si definiscono:
+∞
X
ṽ(t) = an · g(t − nTs )
n=−∞
in cui:
. φi ∈ 2π 2π
M · (i − 1) + φ0 [φ0 = M]
Ad esempio, con M = 2:
2π
. φ1 : 2 · (1 − 1) + φ0 con φ0 = π;
2π
. φ2 : 2 · (2 − 1) + φ0 = φ0 + π = 2π.
+∞ +∞
( ) ( )
X X
jφn j 2π f0 t j 2π f0 t+φn
= Re e · g(t − nTs ) · e = Re g(t − nTs ) · e =
n=−∞ n=−∞
72 CAPITOLO 4. Modulazioni
+∞
X
= g(t − nTs ) · cos(2π f0 t + φn )
n=−∞
Sviluppando il coseno secondo la regola [cos(α±β) = cos α cos β ∓ sin α sin β]:
Indicando:
Graficamente:
ψ2 (t)
√
E
sin(φi ) b
φi
cos(φi ) ψ1 (t)
2-PSK
Con due soli punti la costellazione è:
ψ2 (t)
b
φ0
ψ1 (t)
φ0 + π b
4-PSK
Per la modulazione 4-PSK i punti sulla costellazione si possono disporre:
ψ2 (t)
π
φ0 + 2
b b
φ0
ψ1 (t)
3π
φ0 + π b b
φ0 + 2
In questo caso: r
E
d=2·
2
Si osserva che la probabilità di errore aumenta perchè è diminuita la distanza
tra i due segnali; rimane invariata invece l’energia utilizzata in trasmissione.
8-PSK
La costellazione diventa:
ψ2 (t)
π π
φ0 + 2 b b φ0 + 4
φ0 3π
4
b
φ0 b
ψ1 (t)
7π
φ0 + π b b
φ0 + 4
b b
5π 6π
φ0 + 4 φ0 + 4
74 CAPITOLO 4. Modulazioni
zt
t
4.2. Modulazioni numeriche 75
ψ2 (t)
s3 b b s2
s4 b b s1
ψ1 (t)
s5 b b s8
b b
s6 s7
76 CAPITOLO 4. Modulazioni
φ2 = ϕ2 + φ1
Il ricevitore stima:
φr = φ2 + φt
Tecniche di sincronizzazione
Per costruire un demodulatore coerente, che recuperi fase e frequenza della
portante, si utilizza lo schema:
4.2. Modulazioni numeriche 77
r(t) Ts
⊗ δ(Ts − t)
cos(2πf0 t)
SYNC SYNC
portante simbolo
π/2
Ts
⊗
sin(2πf0 t)
ψ1 (t)
In rosso sono evidenziate le zone in cui, per il rumore, il segnale può essere
ricevuto.
Ad esempio:
ψ2 (t)
s
ψ1 (t)
r
r = r1 + jr2
78 CAPITOLO 4. Modulazioni
dove:
. r1 è la componente in fase;
. r2 è la componente in quadratura;
Codifica PSK
Segnale Codifica
s1 000
s2 010
s3 011
s4 111
s5 110
s6 100
s7 101
s8 001
ψ2 (t)
s3 s2
s4 s1
ψ1 (t)
s5 s8
s6 s7
ψ2 (t)
s2 s1
ψ1 (t)
s3 s4
4.2. Modulazioni numeriche 79
Codifica PSK
Segnale Codifica
s1 00
s2 10
s3 11
s4 01
≁ 1◦ bit
⊗ ≁ r1 >
<0
∼
cos(2πf0 t)
sin(2πf0 t)
≁ 2◦ bit
⊗ ≁ r2 >
<0
∼
Sul grafico:
ψ2 (t)
01 = s2 1 s1 = 11
ψ1 (t)
0 1
00 = s3 0 s4 = 10
d ψ2 (t)
s2 s1
d d ψ1 (t)
s3 s4
d
Come avevamo già visto per il 2-PAM la probabilità di errore può essere
calcolata come 1 − P(c):
. P(c) = (1 − p) dove p = 21 erfc 2·√dN sul ramo x;
0
. P(c) = (1 − p) con p = 12 erfc √d
2· N0
sul ramo y.
In generale quindi:
P(c) = (1 − p) · (1 − p) = (1 − p)2
Modulazione QAM
Estendendo il ragionamento di comporre su due dimensioni ortogonali mo-
dulazioni semplici di banda base si ottengono le modulazioni QAM (Qua-
drature AM).
Sono modulazioni di banda traslata perchè è comodo utilizzare, come di-
mensioni ortogonali, seno e coseno, i segnali che servono per spostare la
banda del segnale ad una frequenza f0 e raddoppiano automaticamente le
dimensioni disponibili.
ψ2 (t)
ψ1 (t)
I punti rossi sono i segnali della modulazione 4-PAM utilizzati come base; i
punti neri sono i segnali effettivi della modulazione 16-QAM mentre le rette
tratteggiate in blu rappresentano le soglie di decisione.
Si osservi che per questa modulazione si hanno almeno tre tipi di regioni di
decisione:
. un quadrato, per i 4 segnali interni;
bc bc bc bc bc
bc bc bc bc
ψ1 (t)
bc bc bc bc bc
bc bc bc bc bc
Esistono poi modulazioni miste, che combinano per esempio ampiezza e fase
che non hanno costellazioni con geometrie simili al QAM.
Capitolo 5
dove gli an sono coefficienti casuali; questo implica che il segnale v(t) è un
processo casuale anche senza considerare il rumore.
A seconda del valore assunto dagli an il processo assume forma diversa quin-
di, nel dominio spettrale non è facile calcolare la trasformata di Fourier.
Comunque, qualsisasi sia la modulazione utilizzata, v(t) è ciclostazionario
dunque è possibile renderlo stazionario.
In questo modo si ottiene che:
|R(f )|2
Gv (f ) = Sa (f ) ·
Ts
dove:
e −2π m f Ts
P
1. Sa (f ) = m Ra (mTs ) ·
83
84 CAPITOLO 5. Isi e Criteri di Nyquist
t0 + i Ts
v(t) r(t)
S HT (f ) C(f ) ⊕ HR (f )
y(t)
P P n(t)
n an δ(t − nTs ) n an hT (t − nTs )
dove:
. HR (f ) è il filtro di ricezione;
Indicando con:
h(t) = hT (t) ∗ hR (t)
Si ottiene l’espressione finale per y(t):
X
y(t) = an h(t − nTs )
n
L’espressione: X
an h(t0 − iTs + iTs − nTs )
n6=i
Esempio
hT (t) hR (t)
√1 √1
Ts Ts
Ts t t
hT (t) ∗ hR (t)
⇓
h(t)
1
3Ts
t
Ts 2Ts 4Ts
Si ha assenza di ISI quando la forma del segnale h(t) = hT (t)∗hR (t) presenta
degli zeri periodici di Ts tranne nel punto i-esimo in cui si vuole effettuare
il campionamento.
La condizione di avere un segnale con zeri periodici è meno restrittiva ri-
spetto a quella di avere segnali di durata finita; non è importante il compor-
tamento del segnale fra un tempo di simbolo e l’altro, ma la forma d’onda
deve valere 0 in corrispodenza di:
X
an h(t − κ Ts ) = 0 ∀κ 6= 0
n
dove κ = i − n.
Infatti per κ = 0 la sommatoria risulta essere il termine ai h(t0 ) che è il
termine utile di campionamento yi .
. filtro adattato.
Sono le due condizioni alla base del primo criterio di Nyquist.
Sono indipendenti perchè l’assenza di ISI è una condizione riguardante la
forma del segnale mentre il filtro adattato serve solo per eliminare il rumore.
In pratica le due condizioni richiedono:
88 CAPITOLO 5. Isi e Criteri di Nyquist
Esempio
Il segnale:
hT (t)
Se ak = 1:
X
h(t − nTs ) =1
n t=κ Ts
⇓
X
RhT (t) · δ(t − nTs ) = δ(t)
n
Trasformando con Fourier si ha:
1 X
2 n
|HT (f )| ∗ δ f− =1
Ts n Ts
5.2. 1◦ criterio di Nyquist 89
⇓
2
H f − n = cost
X
n
Ts
n
Ciò significa che la somma di tutte le repliche traslate di Ts è costante.
Ad esempio:
|HT (f )|2
−1 1 f
2Ts 2Ts
Replicandolo ogni Ts :
|HT (f )|2
A
−3 −1 −1 1 1 3 f
2Ts Ts 2Ts 2Ts Ts 2Ts
− 2T1 s 1
2Ts
f
Le repliche della parte eccedente ± 2T1 s si elidono fra loro perchè hanno area
simmetrica e quindi la somma è di nuovo costante come nel grafico prece-
dente.
non si può soddisfare il primo criterio di Nyquist in quanto l’ISI sarà sicu-
ramente presente.
Si definisce banda di Nyquist la quantità:
1
2Ts
Si può pensare a T1s come alla frequenza di campionamento di un segnale fc ;
allora l’interpretazione è quella di avere:
fc > 2B
Per non perdere informazione si deve campionare un segnale ad almeno due
volte la banda; in caso contrario l’informazione si perde perchè si vuole ef-
fettuare una trasmissione che richiede una banda B usando una banda più
piccola B1 . Questo equivale a voler trasmettere su un canale di capacità C
ad un rate troppo elevato il che, come abbiamo visto nel capitolo 3, significa
perdere informazione.
|HT (f )|2
− 2T1 s 1
2Ts
f
|HT (f )|2
A
− 2T1 s 1
2Ts
f
− 1−α 1+α
2Ts − 2Ts
1−α
2Ts
1+α
2Ts
−BC BC f
Nei sistemi reali si sceglie il filtro di trasmissione in modo tale che la sua
banda sia all’interno della zona in cui C(f ) è costante; in questo modo il
segnale inviato non viene distorto.
Ipotizziamo di utilizzare il filtro a coseno rialzato in banda base; la condizio-
ne per non avere perdita di informazione è utilizzare per la banda del filtro
BRC una banda minore di BC :
1+α
< BC (5.1)
2Ts
Gli unici parametri che si possono scegliere sono:
. α che è l’eccesso di banda;
. Ts il tempo di simbolo.
Si osservi che, poichè la sorgente trasmette i simboli con un bit rate Rb , la
scelta di Ts non può essere casuale ma è legata al mapping.
Se si utilizza un 2-PAM abbiamo visto nel capitolo 4 che Eb = Em e si tra-
smette un bit per simbolo quindi anche Rb = Rs : ad esempio, trasmettendo
a 100 Mbit/s si hanno 100 Msym/s.
Scegliendo invece un 4-PAM allora 2 Eb = Em perchè si tramsmettono due
bit per simbolo: per l’esempio precedente, trasmettendo 100 Mbit/s si han-
no 50 Msym/s.
La modulazione va quindi scelta in accordo con la banda disponibile e il bit
rate a cui si vuole effettuare la trasmissione.
Esempio
Data una banda BC = 25 MHz ed un bit rate Rb = 100 Mbit/s quale modu-
lazione si può usare?
Con un 4-PAM, M = 4 si trasmettono 2 bit per simbolo quindi Rs = R2b =
50 Msym/s.
Dato Rs = T1s si può provare a verificare se l’equaglianza (5.1) è soddifatta:
1
(1 + α) · Rs < BC =⇒ (1 + α) · 50 < 25 =⇒ α< −1
2
92 CAPITOLO 5. Isi e Criteri di Nyquist
Rb
Con un 8-PAM, M = 8 si trasmettono 3 bit per simbolo e Rs = 3 =
33 Msym/s.
Verificando come prima:
25
(1 + α) · Rs < BC =⇒ (1 + α) · 33 < 25 =⇒ α< −1=
33
= α < 0.76 − 1 =⇒ α < −0.24
Per le stesse considerazioni di prima il risultato non è valido.
Un trasmissione più veloce comporta l’utilizzo di una banda più grande; se,
per varie ragioni, non è possibile una soluzione è quella di cambiare modula-
zione, utilizzando una modulazione in banda traslata, perchè raddoppiando
il numero delle dimensioni si creano due flussi separati per la trasmissione
dei dati e si utilizza in maniera più efficiente la banda a disposizione.
Se, in presenza di una codifica di canale, si utilizza una modulazione PAM,
trasmettere ad un bit rate maggiore significa utilizzare più punti sulla di-
mensione ψ e quindi aumentare l’energia oppure posizionare tutti i punti a
distanza minore aumentando la P(e).
Con una costellazione di tipo PSK l’aumento del numero di punti sulla co-
stellazione non comporta aumento dell’energia, ma un peggioramento delle
prestazioni del sistema; una modulazione PSK ha rese migliori con pochi
punti e quindi con un bit rate non elevato.
94 CAPITOLO 5. Isi e Criteri di Nyquist
Capitolo 6
Esempi conclusivi
t0 + i Ts
v(t)
S HT (f ) C(f ) ⊕ HR (f ) yi
n(t)
hT (t) = r(t) hR (t) = hT (Ts − t)
r(t)
√1
Ts
Ts t
95
96 CAPITOLO 6. Esempi conclusivi
b b
-A A ψ(t)
Th
La sorgente emette un treno di delta che passando nel filtro sagomatore
hT (t) prendono la forma del segnale di base scelto r(t); ipotizzando di tra-
smettere la sequenza { A, A, -A, A } il segnale trasmesso v(t) ha la forma:
v(t)
√A
Ts
t
− √AT
s
Ts 2Ts 3Ts 4Ts
Indicando con:
Si ha:
y(t) = z(t) + nf
Si può operare questa separazione per la proprietà di linearità del sistema.
Sapendo che hR (t) è il filtro adattato, quindi con la stessa forma di r(t),
osserviamo come risulta essere z(t):
z(t)
A
t
-A
Ts 2Ts 3Ts 4Ts 5Ts
6.1. Esempio modulazione PAM 97
A 1 A
√ · √ · Ts = · Ts = A
Ts Ts Ts
z(t)
b b b
A
b b
t
b
-A
Ts 2Ts 3Ts 4Ts 5Ts
b b
rs
rs
rs
rs
rs
rs
-A A ψ(t)
Th
Sul grafico:
rs
z(t)
rs
rs
b b b
A
rs
rs
rs
rs
b b
t
rs
rs
b
-A
Ts 2Ts 3Ts 4Ts 5Ts
rs
hR (t)
√1
Ts
In questo caso, come abbiamo già visto nel capitolo 5, il segnale z(t) è dato
da:
z(t)
A 3Ts
t
-A Ts 2Ts 4Ts
E complessivamente:
z(t)
A 3Ts
t
-A Ts 2Ts 4Ts
b b
rs
rs
rs
rs
rs
rs
rs
rs
-A A ψ(t)
Th
b
rs
-A ψ(t)
Th
b
rs
-A ψ(t)
Th
h(t)
1
bc
Ts
bc
bc
t
Ts 2Ts 3Ts
Distorsione media
2
P
n6=1 h (nTs )
Dm =
h2 (Ts )
Distorsione di picco
P
n6=1 |h(nTs )|
Dp =
h(Ts )
h(t)
1
bc
Ts
bc
t
Ts 2Ts 3Ts
102 CAPITOLO 6. Esempi conclusivi
b b
rs
rs
rs
rs
-A A ψ(t)
Th
. Ah(Ts );
. −Ah(Ts ).
La loro ampiezza dipende dal segno del simbolo precedente, positivo o ne-
gativo.
perchè:
Dp
b b
rs
rs
rs
rs
-A A ψ(t)
Th
6.1. Esempio modulazione PAM 103
β4 β3 β2 β1
b b
rs
rs
rs
rs
-A A ψ(t)
Th
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
0 10 20 30 40 50 60 70
Time
0.8
0.6
0.4
0.2
Im
−0.2
−0.4
−0.6
−0.8
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
Re
√1 √1
Ts Ts
Ts t t
h(t)
1
t
106 CAPITOLO 6. Esempi conclusivi
0.8
0.6
0.4
0.2
Im
−0.2
−0.4
−0.6
−0.8
−1
−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1
Re
Come abbiamo visto nel capitolo 5 la risposta all’impulso h(t) non soddisfa
il criterio di Nyquist e quindi è presente l’interferenza intersimbolica.
Osserviamo che, in questo caso, il diagramma ad occhio del segnale ricevuto
cambia e non si riesce a trovare un istante ottimo di campionamento tale
per cui le code dei segnali precedenti non sporchino il segnale attuale: è per
questo motivo che l’ISI non può essere evitata.
Si noti che, anche in caso di filtro adattato può verificarsi ISI, ma il disturbo
può essere eliminato perchè esiste un istante ottimo di campionamento.
1.5
0.5
−0.5
−1
−1.5
−2
0 10 20 30 40 50 60 70
Time
0.8
0.6
0.4
0.2
Im
−0.2
−0.4
−0.6
−0.8
−1
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
Re
Figura 6.6: scattering diagram per modulazione 2-PAM senza filtro adattato
6.2. Diagramma ad occhio 109
0
Im
−2
−4
−6
−8
−10
−1.86 −1.84 −1.82 −1.8 −1.78 −1.76 −1.74 −1.72 −1.7 −1.68 −1.66
Re
0.5
−0.5
−1
−1.5
0 10 20 30 40 50 60 70
Time
0.2
0.1
−0.1
−0.2
−0.3
−0.4
0 10 20 30 40 50 60 70
Time
0.5
Im
−0.5
−1
−1.5
−1.5 −1 −0.5 0 0.5 1 1.5
Re
0.5
Im
−0.5
−1
−1.5
−1.5 −1 −0.5 0 0.5 1 1.5
Re
1.5
0.5
−0.5
−1
−1.5
−2
−2.5
0 10 20 30 40 50 60 70
Time
Figura 6.12: diagramma ad occhio per modulazione QPSK con roll-off pari
a 0.1
112 CAPITOLO 6. Esempi conclusivi
1.5
0.5
Im
−0.5
−1
−1.5
−2
−2.5
−2.5 −2 −1.5 −1 −0.5 0 0.5 1 1.5 2 2.5
Re
Figura 6.13: scattering diagram per modulazione QPSK con roll-off pari a
0.1
1.06
1.04
1.02
1
Im
0.98
0.96
0.94
Figura 6.14: scattering diagram ingrandito per modulazione QPSK con roll-
off pari a 0.1