Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Metodi Matematici Della Fisica (Cap 4) - Bernardini, Ragnisco, Santini

Scarica in formato pdf o txt
Scarica in formato pdf o txt
Sei sulla pagina 1di 95

Carlo Bernardini / Orlando Ragnisco

Paolo Maria Santini

,r~IETODI MATEMATICI
DELLA FISICA
I.ri.:!. I'oli (' singolarita essenziali 69
l.r;.:\' Classificazione delle funzioni analitiche monodrome 71
. I. I'o]idrolllia 72
I. 7.1. Rami di funzioni polidrome 72
1.7.2. Superfici di Riemann 74
1. 7.3. Considerazioni topologiche sulle superfici di Riemann 77

2. Integrazione delle funzioni di una variabile complessa 81


2.1. Integrali di linea 81
2.2. Il teorema integrale di Cauchy 84
2.2.1. Il caso dei domini semplicemente connessi 84
2.2.2. Primitive di una funzione analitica 89
2.2.3. II caso dei domini a connessione multipla 91
2.3. La formula integrale di Cauchy e i suoi corollari 95
2.3.1. La formula integrale di Cauchy 95
2.3.2. Il teorema del massimo modulo 97
2.3.3. Corollari 99
2.3.4. Valore principale di un integrale 101
2.3.5. Formule di Plemelij-Sokhotski 104
2.4. IntegraIi su archi infiniti e infinitesimi. Lemma di Jordan 108
2.5. La causalita e Ie relazioni di dispersione 114

3. Rappresentazioni integrali e per serie 119


3.1. Considerazioni il1troduttive 119
3.2. Domini di convergenza 121
3.2.1. Convergenza ul1iforme e criteri di cOIlvergenza 121
3.2.2. Famiglie di funzioni 123
3.3. Teoremi di Liouville e di Morera 124
3.3.1. Teorerni di Liouville 124
3.3.2. Teorema di Morera 125
:3.4. Serie di Taylor e di Laurent e prodotti infiniti 127
3.4.1. Serie di Taylor 127
3.4.2. Serie di Laurent 132
3.4.3. Sviluppo di Mittag-Leffler e prodotti infiniti 137
3.5. Integrali con i residui 149
3.5.1. Il teorerna dei residui 149
3.5.2. Applicazioni del teorema dei residui 152
3.6. II prolungamento analitico 154
3.6.1. Introduzione 154
3.6.2. Unicita del prolungamento analitico 155
3.6.3. Proillngarnento di soluzioni di equazioni 157
3.6.4. Il prolungamento analitico; punti regolari e singolari 159
3.6.5. Esistenza del prolungamento analitico 163
3.6.6. Il principio di Schwarz e la funzione di Jacobi 169
3.6.7. II prolungamento analitico di rappresentazioni integrali 173
3.6.8. Calcolo di integrali con i residui 176
3.7. Sviluppi asintotici 194
3.7.1. La nozione di sviluppo asintotico 194
3.7.2. Operazioni su sviluppi a.sintotici 197
3.7.3. Rappresentazioni integrali e sviluppi asintotici 199
3.7.4. Metodo di Laplace 204
3.7.5. II metodo dell a fase stazionaria (0 di Kelvin 0 di Stokes) 207
3.7.6. II metodo del punta di sella 208
3.7.7. Equazioni differenziali e sviluppi asintotici 212

4. Spazi lineari e operatori lineari 223


4.1. Linearita. e non-linearita. in fisica 223
4.2. Spazi vettoriali di dimensione finita 229
4.2.1. Spazi vettoriali e vettori colonna 229
4.2.2. Operatori lineari e matrici 237
4.2.3. Spazi duali e vettori riga 245
4.2.4. Basi; trasformazioni e proprieta invarianti 247
4.2.5. Proprieta. spettrali di operatori lineari 252
4.2.6. Spazi euclidei 264
4.2.7. Matrici hermitiane, unitarie e normali 270
4.2.8. Le matrici di Pauli 280
4.2.9. Rappresentazione polare di una matrice 281
4.2.10 Funzioni di matrici 282
4.3. Spazi lineari astratti 286
4.3.1. Considerazioni introduttive 286
4.3.2. Spazi lineari: definizione e proprieta 287
4.3.3. Spazi metric! 290
4.3.4. Spazi normati 302
4.3.5. Spazi con prodotto scalare (0 euclidei) 303
4.4. Funzionali lineari e distribuzioni 311
4.4.1. Nozioni preliminari sugli operatori lineari 311
4.4.2. Funzionali lineari su spazi normati qualsiasi 312
4.4.3. Distribuzioni 323
4.5. Operatori lineari 353
4.5.1. Esempi di operatori lineari 354
4.5.2. Algebra degli operatori lineari 356
4.5.3. Successioni di operatori e loro proprieta. di convergel1za 357
4
Spazi lineari e operatori lineari

I problemi fisici determinati dallo studio dei fenomeni pili comuni sono
spesso rappresentati nella forma di equazioni di evoluzione nel tempo di
una 0 pili variabili caratterizzanti il sistema in esame. A prima vista,
questi problemi sembrano appartenere a due distinte categorie. La
prima e quella della evoluzione di un sistema "preparato" in una confi-
gurazione non d'equilibrio stabile mediante l'imposizione di "condizioni
iniziali": a partire da quelle condizioni, il sistema evolve "spontanea-
mente" senza bisogno di sollecitazioni esterne e, generalmente, nei casi
realistici finisce con il riportarsi a qualche configurazione d'equilibrio
a causa della dissipazione di energia. La seconda categoria di problemi
corrisponde invece al caso in cui un sistema in equilibrio stabile viene
sollecitato con continuita da un agente esterno (input), generando se-
gnali di risposta (output) che vengono osservati dallo sperimentatore
mediante l'analisi del comportamento nel tempo delle variabili carat-
terizzanti. Esempi del primo tipo sono: un pendola che e lasciato
and are da una posizione pill alta di quella corrispondente alla quota
minima, oppure un gas inizialmente reso non spazialmente uniforme
in densita 0 temperatura. Esempi del secondo tipo sono: un circuito
elettrico sollecitato da un generatore 0 un solido irradiato con onde
sonore 0 elettromagnetiche (input), che rispondono rispettivamente
con la corrente misurata in qualche elemento del circuito 0 generando
nuove onde (output).
Per comodita di illustrazione, ci riferiremo per cominciare a problemi
della seconda categoria. Supponiamo che il sistema 5' sia sollecitato
da un input h(t) e che risponda con un output RI(t). Se invece esso
e sollecitato da un diverso input 12(t) rispondera con l'output R2(t).
Immaginiamo ora di sollecitare 5' con la sovrapposizione dei due in-
put precedenti, cioe con l'input h(t) + h(t). Quando accade che,
p~r qualunque coppia di input, la risposta sia la somma delle risposte
(output) R1(t) + R2(t), il sistema si dice lineare: questa descrizione
e semplice e immediatamente comprensibile, e ha grande importanza
pratica. Si dice allora che per i sistemi lineari vale il cosiddetto "prin-
cipio di sovrapposizione", benche sia improprio chiamare "principio"
una regola di classificazione. Quando invece il principio di sovrappo-
sizione non vale, allora il sistema e classificato come non-lineare.
Della struttura generale delle relazioni input-output per i sistemi
lineari abbiamo gEt parlato nei parr. 1.2.3 e 2.4. Vogliamo ora os-
servare che anche per i problemi della prima categoria, corrispondenti
cioe a sistemi preparati mediante opportune condizioni iniziali, e pos-
sibile adottare una formulazione analoga introducendo, mediante op-
portune funzioni "generalizzate" che tratteremo al successivo par. 4.4,
sollecitazioni impulsive che simulano l'effetto "istantaneo" dell'atto di
preparazione del sistema (talvolta questo atto di preparazione va sotto
il nome di "regime balistico"). Accenniamo poi a un'altra caratte-
rizzazione dei sistemi in studio che, talvolta, e di qualche importanza
pratica: se un sistema S e sollecitato da un input sinusoidale di fre-
quenza qualsiasi e risponde sempre con un output che ha la stessa
frequenza dell'input, allora esso e lineare. Se invece nell'output sono
presenti (anche) frequenze diverse da quell a della sollecitazione, allora
si tratta di un sistema non-lineare. E un utile esercizio di riflessione
rendersi conto di questa proprieta dei sistemi non-lineari; per quanta
riguarda il caso dei sistemi lineari sollecitati, la proprieta e abbastanza
elementare ma di portata non trascurabile, in quanto legata alla tec-
nica di soluzione mediante scomposizione dell'input in componenti si-
nusoidali e successiva ricomposizione dell'output (analisi di Fourier)
di cui parleremo diffusamente nel seguito (e a cui abbiamo gia fatto
cenno ai parr. 2.5 e 3.6.8): si tratta di uno degli strumenti pili po-
tenti nell'analisi dei problemi lineari, purtroppo non immediatamente
efficace nel caso dei problemi non-lineari.
La rilevante attenzione dedicata ai sistemi fisici lineari ha almeno
una buona motivazione pratica. L'ambiente terrestre e, nell'universo,
abbastanza eccezionale: esso e a bassissima temperatura, prossima
allo zero assoluto, a differenza dei molto pili comuni ambienti stellari.
Sulla Terra coesistono sistemi solidi, liquidi e gassosi (elettricamente
neutri), a riprova del fatto che il contenuto energetico dei vari gradi di
liberta che costituiscono la materia e molto basso rispetto alle energie
di legame dei costituenti. Al confronto, la materia stellare e costituita
quasi esclusivamente da materia ionizzata allo stato detto di "plasma"
in cui almeno i gradi di liberta dei costi~uenti atomici sono energeti~
camente molto eccitati. La materia terrestre e percio quasi sempre
prossima a condizioni di equilibrio stabile, e Ie sollecitazioni che su
di essa esercitiamo con mezzi ordinari sono generalmente di piccola
entita, come e ben noto dai problemi pili comuni della dinamica ele-
mentare. Lo scostamento dall'equilibrio, generalmente "piccolo", de-
termina percio forze (generalizzate) di richiamo verso la configurazione
stabile, che sono di tipo elastico, cioe lineari.
Vi sono poi alcune teorie fondamentali della fisica, come la teoria
di Maxwell dei campi elettromagnetici 0 la meccanica ondulatoria di
Schroedinger, che si presentano nei loro fondamenti come intrinseca-
mente lineari, indipendentemente dalle circostanze in cui esse vengono
applicate, cioe dallo stato dell'ambiente. Pertanto, 10 studio dei pro-
blemi lineari ha un ruolo centrale in buona parte dello sviluppo delle
conoscenze fisiche contemporanee, sia per motivi pratici che per motivi
fondamentali.
Ma vi sono anche - e da qualche decennio ricevono attenzione cre-
scente - molti sistemi non-lineari di grande interesse. Per i risultati
rilevanti dell'idrodinamica e dell'aerodinamica, per esempio, Ie tec-
niche lineari appaiono insufficienti: un problema tipico e quello delIa
turbolenza; una classe pili generale di problemi non-lineari e quell a
che va sotto il nome di meteorologia. Un altro esempio e quello della
relativita generale e dello studio dei problemi dei campi gravitazionali
molto intensi e della cosmologia. Non ci occuperemo, se non occasio-
nalmente e per cenni, di problemi non-lineari, perche riteniamo che la
comprensione delle caratteristiche di quelli lineari sia un prelim inare
indispensabile; ma vogliamo qui avvertire dell'importanza conoscitiva
della non-linearita, che present a situazioni profondamente differenti da
quelle di cui qui prevalentemente ci occupiamo.
II prototipo dei modelli di sistemi lineari e l'oscillatore armonico,
eventualmente smorzato. Con Ie notazioni che abbiamo usato sopra
per Ie relazioni input-output, l'equazione differenziale per un oscillatore
sollecitato da un input I(t) e della forma

L'apice indica la derivata rispetto alIa variabile t (tempo); ,(> 0) e il


coefficiente di smorzamento, positivo se rappresenta un trasferimento
di energia (dissipazione) ai gradi di liberta del mezzo in cui l'oscillatore
e immerso (ambiente) che, in questa schematizzazione fenomenolo-
gica, e rappresentato corne un bagno termico infinito: il carattere irre-
versibile delIa dissipazione, in accordo con il secondo principio delIa ter-
modinamica, si puo riconoscere nella proporzionalita della forza dissi-
pativa (attrito) alla derivata prima di R( t), che non e invariante per in-
v(~rsi()lw t<~lIlporale, a differenza degli altri due termini a primo membro
ddla [4.1]. Dunque, r e un parametro caratteristico delia interazione
sisterna-arnbiente. Invece, we qui il solo pararnetro caratterizzante
strettarnente il sistema e determinato dalla sua natura fisica. Infine, il
coefficiente k (detto t"alvolta "cost ante di accoppiamento" per ovvii rno-
tivi) e usato per sole ragioni dimensionali, cioe per rendere omogenee Ie
unita a primo e secondo membro (anche se, ovviamente, pua dipendere
- a seconda di cia che definiamo input e cia che definiamo output - dai
parametri interni del sistema simulato mediante I'oscillatore). La re-
lazione input-output associata a un'equazione come la [4.1] - sebbenc
con notazioni un po' diverse - estata gia costruita al par. 2.4. Sug-
geriamo di prendere la massima familiar ita con questo problema, che
fornisce la chiave interpretativa element are di un grandissimo numero
di problemi lineari.

Vogliamo qui accennare ora a una semplice tecnica di approssimazione,


dovuta a Krylov e Bogoliubov, che permette di affrontare il problema degli
oscillatori perturbati da piccoli termini non lineari. Problemi di questo
tipo sono abbastanza frequenti e la tecnica di Krylov e Bogoliubov ne de-
scrive Ie caratteristiche di massima quando la non-linearita non e dominante,
come nel caso di un pendola di ampiezza angolare non "piccola"nel senso
galileiano, ma nemmeno troppo pili grande di un radiante. Considereremo
per semplicita il caso senza dissipazione, doe con r = 0; inoltre, studie-
remo Ie oscillazioni libere, prodotte da condizioni iniziali e non da una sol-
lecitazione esterna kI(t). Al posta dell'equazione [4.1]' quella dell'osdlJatore
perturbato sara

La non-linearita e rappresentata dalla funzione F(R, R'), delIa Quale sup-


porremo soltanto che tenda a zero, per R e R' che tendono a zero, pili
rapidamente che con legge lineare. L'idea di Krylov e Bogoliubov e quell a di
scrivere la soluzione in una forma analoga a quella dell'oscillatore armonico
non perturbato dalla non linearita, cioe distinguendo un'ampiezza e una fase

Ora, pero, a differenza dal caso dell'oscillatore, l'ampiezza A e una funzione


del tempo tela fase B non e necessariamente lineare in t. Se si deriva una
volta l'equazione [4.3] si ottiene

Se nella derivata delIa fase si distinguono due parti, una dominante de-
terminata dal termine lineare nella [4.2], che sopravvive anche quando la
non-linearita e assente, e l'altra "piccola" (come "piccola" sara, in qualche
La proposta di Krylov e Bogoliubov consiste nell'imporre che l'espressione
[4.4] delia derivata prima di R(t) sia ancora esattamente come quella cor-
rispondente all'oscillatore lineare, doe

Questo implica che tra A(t) e B(t) sussista una relazione differenziale che
cancella i termini "piccoli"; la relazione, arbitraria ma lecita perche con la
[4.3] e stato raddoppiato il numero delle incognite che, percio, non possono
essere indipendenti, e, tenendo conto delia [4.5],

Derivando un'altra volta la [4.6] e utilizzando la [4.7], si ottiene, con un po'


di semplice algebra, la seguente equazione differenziale

A'(t) = (~)F(AcoSB,~wAsinB)sinB

Questa equazione mostra intanto che, in assenza delia non-linearita, A'(t) si


annulla, come deve nel caso dell'oscillatore armonico. Ora, se la non-linearita
e debole, si puo supporre che Ie variazioni dell'ampiezza siano piccole su un
"periodo", misurato qui da una variazione di 27r delia fase B, indipenden-
temente dalla corrispondente variazione delia variabile t. La proposta di
Krylov e Bogoliubov e quell a di sostituire al secondo membro delia [4.8] il
suo valor medio sulla fase, immaginando che con buona approssimazione i
valori di B siano distribuiti uniformemente su tutto l'intervallo (0, 27r) come
nel caso dell'oscillatore armonico (per il Quale la fase e lineare nel tempo e
tutti gli istanti sono equiprobabili). Una analoga procedura si puo seguin~
per la [4.7], sostituendo per A'(t) dalla [4.8] e ottenendo l'equazione

¢'(t) = (~A)F(AcoSB,~wAsinB)cosB

Indicando con < g( B) > il valor medio di una funzione g delia fase (cal-
colato ovviamente, per A costante, sull'intervallo di fase (0,27r) e per una
distribuzione uniforme dei valori di B), la [4.8] e la [4.9] diventano:

A'(t) = (~)Fl(A) = (~) < F(AcosB,-wAsinB)sinB >


Queste due equazioni rappresentano il risultato centrale dell'approssimazione
di Krylov e Bogoliubov, che puo essere molto utile nell'analisi qualitativa di
molti problemi non-lineari.

Naturalmente, il caso dell'oscillatore armonico e solo il pili frequente


tra quelli che si incontrano in fisica element are. Nella forma in cui
10 abbiamo descritto, sia nella versione lineare che in quella pertur-
bata che abbiamo analizzato nella semplice approssimazione di Krylov
e Bogoliubov, esso rappresenta un tipico problema dinamico in una
dimensione.
Tuttavia, come vedremo nei paragrafi successivi, i problemi lineari
possono essere assai diversi, per almeno tre distinti motivi: il primo
e che la variabile caratterizzante R puo essere in realta un "oggetto"
matematico a pili componenti, come per esempio un vettore in uno
spazio ad n dimensioni (problema n-dimensionale); il secondo e che
l'equazione a cui R soddisfa non e hecessariamente una equazione dif-
ferenziale ordinaria, rna puo essere una equazione algebrica, 0 una
equazione integrale, 0 una equazione alle differenze finite; il terzo, in-
fine, e che anche la variabile indipendente puo essere pili di una - e
non necessariamente con il significato di tempo, t, come negli esempi
trattati - nel qual caso ci si imbatte, per esernpio, in equazioni lineari
a derivate parziali, 0 nelle corrispondenti equazioni integrali.
I problemi lineari sono spesso riassunti in un'unica forma generale
come la seguente:

In questa semplice formula, 0 e un operatore, che trasforma l'incognita


£. nel "termine noto" 1£. Sia £. che 1£sono in generale oggetti a pill
componenti (vettori); 0 e un operatore lineare quando accade che
0(£ + y) = O£. + Oy : questo e un modo sintetico di prescrivere il
principiO di sovrapposizione quando, naturalmente, Ie operazioni in-
dicate (+, =, eccetera) siano state opportunamente specificate con
regole di composizione e di confronto fra gli oggetti usati. Il problema
generale e quello di "risolvere" - quando e possibile - la [4.12] sotto
opportune condizioni. Se la soluzione della [4.12] non esiste, a causa di
qualche proprieta che rende il problema contraddittorio, si dice che il
problema e malposto; inoltre, la soluzione puo non essere unica: come
vedremo al par. 4.5.6, la ricerca delle soluzioni dell a [4.12] da luogo
agli importantissimi teoremi di esistenza e unicitii che, per i problemi
lineari, sono noti in una forma molto generale; non cosi per quanto
riguarda i problemi non-lineari, che richiedono spesso uno studio caso
4.2
Spazi vettoriali di dimensione finita

Definizioni
Dato un punta di riferimento 0 (origine) del nostro spazio ambiente
tridimensionale, ogni punto P di tale spazio e in corrispondenza biu-
nivoca con un segmento orientato 0 vettore 1!. che va dall'origine al
punto P. Un vettore dello spazio puo essere moltiplicato per uno
scalare a E R dando luogo a un nuovo vettore, diretto come il prece-
dente, la cui lunghezza e la[ volte quell a del precedente e il cui verso
e concorde 0 discorde a second a che asia positivo 0 negativo. Due
vettori 1!.1 e 1!.2 che emanano dall'origine 0 possono essere sommati at-
traverso la regola del parallelogramma, dando luogo a un terzo vettore
1!.3 che emana anch'esso dall'origine.

Queste ben note operazioni elementari, opportunamente generalizzate,


sono alla base della definizione astratta di spazio vettoriale V, di
quell'insieme cioe di elementi, detti vettori, sui quali sono definite Ie
seguenti operazioni di somma e di moltiplicazione per uno scalare.
a) La somma di due qualunque vettori £., y EVe un terzo vettore di V,
indicato col simbolo £. + y, che gode delle proprieta commutativa: £. +
Y = Y + £. e associativa: £+ (y +,r) = (£. + y) +,r. Inoltre, rispetto a tale
somma, esiste (unico) l'elemento neutro Q tale che £. + Q = £., V£. E V,
detto vettore nullo 0 origine. Esiste (unico) anche l' elemento opposto
di £., V:z;.E V, indicato col simbolo -£., tale che £. + (-£.) = Q.
b) Il prodotto di un vettore ;r. EVe di un elemento a (detto scalare
) di un dato campo Fe un vettore di V, indicato col simbolo a;r., che
gode della proprieta associativa: a(/3;r.) = (a/3);r., a, /3 E F,;r. E V, e di
quella distributiva rispetto alla somma degli scalari: (a+/3);r. = a;r.+/3;r.
e rispetto aHa somma dei vettori: a(;r. + J!) = a;r. + a'lL. Inoltre, dati
gli elementi 0 e 1 del campo F, aHora O;r. = Q,l;r. = ;r.,'V;r.EVe
aQ= Q,'Va E F.
Mentre l'operazione di somma e interna allo spazio, queHa di prodot-
to per uno scalare e esterna, facendo intervenire gli elementi di un cam-
po F assegnato; V e quindi detto, pili propriamente, spazio vettoriale
V sul campo F. In questa testo avremo quasi sempre a che fare con
spazi vettoriali V suI campo dei reali n 0 dei complessi C, e V sara
detto aHora reale 0 complesso; in alcuni esercizi considereremo anche
spazi vettoriali suI campo Q dei razionali.
I principali esempi di spazi vettoriali che prenderemo in conside-
razione in questo capitolo sono:
1. L'insieme R (C) dei numeri reali (complessi), dove ;r. + 'lL e a;r.
sono, rispettivamente, l'addizione e la moltiplicazione ordinaria tra
reali (complessi).
2. L'insieme Rn (cn) delle n-ple di numeri reali (complessi) ;r.
(X1,X2, ... ,Xn), con;r. + y e a;r.definite da;r. + 'lL = (Xl + Y1, X2 +
Y2,···, Xn + Yn) e a;r. = (aX1, aX2,·· ., axn).
3. L'insieme Mat(n, n) (Mat(n,C)) delle matrici nxn di elementi reali
(complessi), dove ;r. + Y e a;r. sono, rispettivamente, l'operazione di
somma ordinaria tra due matrici e quella di moltiplicazione per un
numero complesso a.
4. L'insieme Pn dei polinomi a coefficienti reali (complessi) di grado
:::;n-1, con;r. + Ye a;r.definite, rispettivamente, dalla somma ordinaria
di polinomi e daiIa moltiplicazione di un polinomio per un numero reale
(complesso) a.
Quando si parlera di spazio vettoriale C si intendera 10 spazio dei
numeri complessi suI campo dei complessi, cosl come R sara 10 spazio
dei reali sui reali. Situazioni miste, come 10 spazio dei complessi suI
campo dei reali 0 10 spazio dei reali sui razionali, saranno sempre in-
dicate esplicitamente.

La definizione di spazio vettoriale (e delle operazioni su di esso defi-


nite) induce una relazione di dipendenza e di indipendenza tra vettori.
Ritornando allo spazio ordinario, notiamo infatti che i vettori 1L1 e 1L2
.';1 ~::
,~v,'.2
o v2 ~

di fig. 4.2 sono legati dalla relazione algebrica lineare 11.2 - a1L1 = Q; essi
sono quindi ottenibili l'uno dall'altro attraverso l'operazione b e sono
pertanto detti dipendenti. I vettori non paralleli 1L1 e 1L2 di fig. 4.3,
per i quali non esiste invece una relazione del tipo a11L1 + a21L2 = 0 (ad
eccezione del caso banale in cui a1 = a2 = 0), sono detti indipendenti.
Se pero si aggiunge ad essi il vettore 1L3 = a11L1+a21L2 ad essi coplanare,
allora ciascuno dei tre vettori eottenibile dagli altri due attraverso
un'opportuna combinazione delle operazioni a e b e i tre vettori sono
dipendenti. In astratto, dato un insieme di vettori {;r.(j)} di uno spazio
vettoriale V, si possono verificare Ie seguenti due situazioni:
a) esistono m scalari a1, ... , am non tutti nulli tali che
m
Lajx(j) =0
j=l

in questo caso gli m vettori sono detti linearmente dipendenti;


b) l'equazione [4.13] e soddisfatta solo per aj = 0, j = 1, ... , m; in
questa caso i vettori sono linearmente indipendenti.
Questa nozione, la cui natura algebrica e descritta dalle equazioni
algebriche lineari [4.13]' e una naturale generalizzazione dei concetti
geometrici di collinearita e di coplanarita.

Tre vettori non coplanari 1L1,1L2 e 1L3 dello spazio ordinario sono in-
dipendenti e ogni altro vettore 1L dello spazio e esprimibile come com-
binazione line are del tipo: 1L = 2::=1
CilLi. E naturale quindi scegliere
q Ilesti vettori come base rispetto aHa quale descrivere ogni vettore 11
(lello spazio; gli scalari Ci sono Ie coordinate di Q rispetto alla base, che
(Idinisce quindi un vero e proprio sistema di coordinate. In astratto
diremo che un insieme di vettori {;J;(j)} di V, linearmente indipendenti,
(\ una base (un sistema di coordinate) di V, se ogni vettore ;r;.E V ()
Ilua combinazione lineare del tipo

x
- = '"
L. cx(j)
J-
j

~-:(,la base di V e costituita da un numero finito n di vettori, allora


\' () uno spazio vettoriale di dimensione finita n: dim V = n; questa
(Idillizione di dimensione ha senso poiche ogni base di V e costituita
,1;;.\10 stesso numero di vettori.
C:li esempi 1-4 sono tutti spazi vettoriali finito-dimensionali. 'Ira
(JIi( ,sti spazi, Rn (en) gioca un ruolo particolare; e infatti possibile
Illostrare che ogni spazio vettoriale V di dimensione finita n suI campo
d(·j JUlii (dei complessi) e isomorfo allo spazio Rn (en). Se infatti
( }j'=1 e una base di V, a ogni vettore ;r;.EVe possibile associare
Ia n-pla di numeri reali (complessi) 6,·· ., ~n attraverso l'equazione
n
;r;. = L ~k;r;.(k)

k=l

Vi,'cv()[sa, ad ogni n-pla di numeri reali (complessi) 6,···, ~n e associa-


I,ilc IIllivocamente un vettore ;r;.E V di un qualunque spazio vettoriale
\ .Ii base {;r;.(j)}j=1' attraverso la [4.14].
1,1' componenti ~j di;r;. nella base {;r;.(j)}j=l vengono spesso rappre··
::'·lll.ate come vettore colonna:

"0 1)('1' collvenienza tipografica, col simbolo (6, ... , ~n)T; ~k e la com-
1)( >II('IItc k-esima (0 coordinata k-esima) del vettore { E en, ma anche
,1,,1 vdlo['(, :f E V nella base {;r;.(j)}j=1· Le operazioni di somma;r;. + JL
"i "II" vdtori :f, y EVe di moltiplicazione c;r;.per uno scalare c E C in-
,III<" >Ij( " al.traver~o l'isomorfismo [4.14], Ie seguenti ben note operazioni
11:1 v,'!.Lori <Ii en:
Alla base {;r;.(j)}j=l di V e inoltre associata la base canonica {~(j)}j=l
di en, dove la componente k-esima e~) del vettore ~(j) vale Okj, k,j =
1, ... ,no
Questo isomorfismo tra il generico spazio vettoriale V reale (com-
pies so) e Rn (en), spiega perche la maggior parte delle nozioni algebri-
co-geometriche astratte associate a spazi vettoriali hanno un significato
familiare nel nostro spazio ambiente; il lettore e incoraggiato a questo
esercizio di confronto.

Per comprendere Ie proprieta strutturali e costitutive di spazi vetto-


riali astratti useremo un punto di vista costruttivo, most ran do come,
da ogni insieme 2: di vettori, sia possibile costruire il pill piccolo spazio
vettoriale che Ii contiene; come sia possibile poi sommare in modo
opportuno spazi vettoriali per otten erne altri pili complessi. II proce-
dimento inverso di decomposizione risultera poi altrettanto chiaro.
I sottoinsiemi delIa spazio ordinario costituiti da rette e piani pas-
santi per I'origine giocano un rualo speciale, essendo essi stessi spazi
vettoriali; ad esempio, ogni combinazione lineare di vettori del pia-
no emananti dall'origine e ancora un vet tore del piano che emana
dall'origine. Siamo quindi portati ad introdurre la nozione di sot-
tospazio uettoriale 0 uarieta lineare M deHo spazio vettoriale V come
quell'insieme non vuoto di elementi di V tali che ogni loro combi-
nazione lineare appartiene ancora aM.
L'invil71ppO lineare (span) di un insieme di vet tori e l'insieme di tutte
Ie combinazioni lineari di tali vettori. Nella spazio ordinario I'inviluppo
lineare di un vettore 11 che emana dall'origine e la retta che 10 con-
tiene, l'insieme cioe dei vettori paralleli a Q e ottenuti moltiplicando
Q per un numero reale arbitrario; tale varieta ha quindi dimensione
1. L'inviluppo lineare associato a una coppia di vettori Q1 e Q2 u-
scenti dall'origine e non paralleli e invece il piano che contiene quei
vettori; esso e ottenuto considerando tutte Ie combinazioni lineari del
tipo 0:11,'1+ 0:2Q2e ha quindi dimensione 2. L'inviluppo lineare di tre
vettori non coplanari e iufine tutto 10 spazio.
So l'insieme =.: dei vettori di V e una varieta lineare, il suo inviluppo
e se stesso; se =.: e costituito da due 0 pili varieta lineari L1, L2, ... , Lm
definite sullo stesso campo, allora il loro inviluppo L e l'insieme dei
Diremo allora che la varieta L e la somma delle varieta lineari Lj, j
1,2, ... ,m:
m
L = L1 + L2 + ... + Lm = L Lj
j=l

Ad esempio 10 spazio ordinario R3 e la somma di due piani Jr1 e Jr~!


passanti per l'origine: R3 = Jr1 + Jr2, e inoltre la somma di un piano
Jr e di una retta R non coplanare: R3 = Jr + Red e anche la somma
di tre rette non coplanari: R3 = R1 + R2 + R3. Se Ie varieta MeN
tali che L = M + N hanno come unico vettore in comune l'origin(!:
M n N = {Q}, aHora si dice che MeN sono varieta complemento:ri
l'una all'altra, rispetto alla varieta somma L. II piano Jr e la retta ](
dell'esempio precedente sono complementari rispetto a R3; non 10 sono
invece i piani Jr1 e Jr2!
Si noti che ogni vettore ;;£.di R3 e esprimibile in infiniti modi corrw
somma;;£. = ;;£.1+;;£'2 di due vettori :£1 e ;;£.2appartenenti a due piani
diversi; bastera infatti aggiungere a;;£'l un qualunque vettore che giace
sulla retta di intersezione dei due piani e togliere 10 stesso vettore a
:£2. In generale, quindi, la rappresentazione di un vettore nella forma
[4.18] non e unica; se, pero, Ie varieta lineari Lj che concorrono alIa
formazione della somma L sono tali che ogni vettore ;;£.E L e decom-
posta in modo univoco nella somma [4.18], allora si ha a che fare con
la cosiddetta somma diretta

delle varieta Lj,j = 1, ... , m.


Riferendoci agli esempi precedenti di somma ordinaria, si ha che R:l
e anche la somma diretta di un piano e di una retta non coplanare,
e la somma diretta di tre rette non coplanari, mentre, come si e giil
osservato, non e la somma diretta di due piani diversi, di cui e invece
la somma ordinaria.
Le seguenti affermazioni: 1. Ie varieta L1, ... , Lm tali che la de-
com posizione del generico vettore ;;£.= ~;= 1;;£'k,;;£'kELk e unica; e
2. Ie varieta L1, ... , Lm tali che la decomposizione del vettore nullo
E Lk e unica sono equivalenti (come e facile mostrare)
Q = ~;=1 ;;£'k';;£'k
e, in analogia con la nozione di indipendenza di vettori, ci portano a
definire tali varieta linearmente indipendenti. Varieta lineari indipen-
denti hanno anche una caratterizzazione geometric a ben precis a; esse
sono tali che l'intersezione di una qualunque di loro con la somma di
tutte Ie altre e 10 spazio banale:

m
Lj n ( L Lk) = {Q}, j = 1, ... , m
k=l,k#j

Infatti, se, per assurdo, ammettiamo che Lj n (~;=l,k#j Lk) =I {Q} per
qualche j, allora deve esistere un JLE Lj tale che JL= ~;=1,#j JLk' JLk E
Lk· Quindi;;£.j + JLj+ ~k#j (;;£.k- JLk) sarebbe un'altra rappresentazione
di;;£.E V. Si puo mostrare che vale anche l'opposto: se vale la proprieta
[4.21], aHora Ie varieta Lj, j = 1, ... , m sono linearmente indipendenti.
La decomposizione di uno spazio nella somma diretta di sottospazi
indipendenti e una "buona" decomposizione, grazie aHa proprieta di
unicita discuss a sopra, e sara uno dei fili conduttori di questo capitolo.
E utile raccogliere questi e altri risultati suHa somma e decompo-
sizione di spazi vettoriali astratti nel seguente teorema.
Teorema 4.1. Teorema sulla somma di spazi vettoriali:
1. Dati i sottospazi Lj, j = 1, ... , m dello spazio vettoriale L, le
seguenti tre affermazioni sono equivalenti:
a) L e la somma diretta di L1, ... , Lm: L = ffiLj, cioe ogni elemento
;;£. E L pub essere messo nella forma;;£. = ~;=
1 ;;£'j,;;£'j
E Lj in uno ed
un solo modo;
b) L e la somma ordinaria di L1, ... , Lm : L = ~';1 Lj (cioe ogni
elemento ;;£. EVe decomposto nella somma;;£. = ~';1 :£(j), ;;£.(j) E
Lj, j = 1, ... , m) e inoltre le varieta Lj, j = 1, ... ,m sono linearmente
indipendenti;
c) L e la somma ordinaria di L1, ... , Lm : L = ~';=1
Lj e inoltre
l'intersezione di ogni varieta Lj con la somma delle altre e il vettore
nullo: Li n (~#i Lj) = {Q}.
2. Se L e la somma diretta di m spazi vettoriali L1, ... , Lm, allora
m

dimL = LdimLj
j=l

3. Dati lo spazio vettoriale V ed un suo sottospazio M, esiste un


sottospazio N tale che V = M ffi N.
Dati 10 spazio vettoriale L ed un suo sottospazio M, la parte 3 del
teorema 4.1 assicura l'esistenza di un complemento N di M rispetto a
L, tale che L = M tEN. Questo complemento non e unico; ad esempio,
se sono dati il piano R2 ed una retta X in esso contenuta e passante per
l'origine, il complemento Y di X e una qualunque retta del piano, nOli
parallela a X e passante per l'origine. E possibile tuttavia costruire UII
complemento diverse e unico, costituito dall'insieme di tutte Ie rett(~
del piano parallele a X. Questo insieme e uno spazio vettoriale ed (\
inoltre isomorfo ad ogni complemento Y di X. Infatti ogni punta I'
dell a retta Y e in corrispondenza biunivoca con un elemento di tal<~
insieme (con la retta parallela a X che interseca Y in P).

Motivati da queste considerazioni definiamo, dati 10 spazio vettoriale


L e un suo sottospazio M, 10 spazio quoziente L 1M di L modulo M
come l'insieme delle classi di equivalenza definite dalla relazione di
equivalenza ;£ rv y ~ ;£ - Y E M,;£, Y E L. Tale spazio e uno spazio
vettoriale, isomorfo a tuttii complementi N di M (e gioca quindi un
ruolo unico tra di essi), l'isomorfismo essendo definito dalla corrispon-
denza yEN ~ Y + M = {y +;f, ;£ E AI}. Questo risultato, insieme
alIa parte 2 del teorema 4.C implica che, se L e uno spazio vettoriale
a dimensione finita, allora

dimL/M = dimL - dimM


dimL/M e anche detta codimensione di L.
Per chiarire questo concetto, facciamo un semplice esempio. Sia L 10 spazio
R3, e M la retta (bisettrice del piano xy) di equazione:

Due elementi di L sono equivalenti (modulo A1), cioe appartengono ana


stessa classe di equivalenza, se la loro differenza appartiene aM, cioe se Zl =
Zz, Xl - Xz = YI - Y2. Una classe di equivalenza sara quindi parametrizzata
nel modo seguente:

Si vede facilmente che ]'insieme delle classi di equivalenza costituisce una


varietd lineare di dimensione 2. Un vettore generico dello spazio R3 di
componenti X, y, Z si decompone nella somma di un elemento E M e di un
elemento ELI M. Si ha infatti:

(x, y, z) = (x, X, 0) + (0, y - X, z)


dove (x,x,O) EM e (O,y - x,z) E LIM.

Sappiamo operare sui vettori dello spazio ordinario in vario modo: sap-
piamo ad esempio proiettare un vettore 1!.su un piano perpendicolar-
mente ad esso 0 parallelamente ad una direzione assegnata; sappiamo
ruotarlo di un certo angola 0 invertirlo. Queste operazioni a noi fa-
miliari sono esempi di trasformazioni (0 operatoTi, 0 applicazioni, 0
operazioni) lineaTi; un operatore lineare A su uno spazio lineare V
e una trasformazione che assegna ad ogni vettore ;£ E V un vettore
A;£ E V che gode delle proprieta di linear ita

Un operatore lineare e omogeneo, nel senso che AQ = Q; operatori


lineari speciali sono l'identita I e 10 zero 0, definiti dalle equazioni
I;f = ;£, 0;£ = Q, \/;f E V. L'insieme degli operatori lineari su V e
esso stesso uno spazio vettoriale in cui la somma A + B di due ope-
ratori A e Bela moltiplicazione aA per uno scalare sono definite,
I 1::1 ",lIivallwlI!.c, da.llc equazioni (A + B);f = A;r + B;r, (aA):r
'I ( 1\.1), VI: ( V (mostrarlo). Il risultato di due trasformazioni succcs
::J v.· di 1'<'lIdcdall'ordine in cui sono effettuate (si pensi all'applica~iolll'
,II dill' ro!.a~ioui), e il prodotto AB di due trasformazioni A c II I'.
,Jdilli!." at.traverso l'equazione (AB);r = A (B;r) , 'V;rE V. In geIwral<'
1\ It / It A c l'ordine di applicazione e allora importante. In <Iues!."
,';\;:" si di<:l~che gli operatori A e B non commutano 0 che il comIlIl1
1:\.I"n~I i\, 13] = AB - BA e diverso da zero.

( )1',lIioperatore line are A su un spazio vettoriale V (il dominio dell'op('


r;d,,,n~) seleziona in modo naturale alcune varieta lineari di V. Il m'/Uj('
,Jj A, iudicato col simbolo R(A), e l'insieme dei vettori di V delia
1"l'Il1aA;r, con;r E V : R(A) = {A;r,;r E V}; esso e anche chiama!."
llllllw,tjine, secondo A, del dominio V 0 codominio di A. Il nucleo 0 null
,',pUI'/' di A, indicato col simbolo N(A), e l'insieme dei vettori ;r E V
!.ali che A;r = Q : {;r E V, A;r = O}. Range e nucleo di un operaton'
Ijll<~aresu V sono varieta lineari di V. La dimensione di R(A) e det!.a
!II'/UjO dell'operatore A; quella di N(A) e qualche volta detta nullitd, 0
dijdl,o di A.
I';siste la seguente relazione tra it rango di A, la dimensione del SilO
1I11<:!cO e la dimensione finita n di V:

Ihm,ostmzione. Se M (A) e un qual un que complemento del nuclco


ddl'operatore A: V = N(A) EEl M(A), ogni ;r EVe decomposto uni·
vocamente nella somma ;r = ;rN + ;rM, ;rN E N (A), ;rM E M (A).
PCI' ogni JL E R(A) esiste un ;r E V tale che y = A;r = A;rM e
qucsta corrispondenza e unica. Infatti, se esistesse un altro ;r~ tak
cite JL = A;rM = A;r~, allora A(;rM -;r~) = Q e il vettore;rM -;r~ ap-
parterrebbe sia a M(A) che a N(A). Abbiamo quindi dimostrato che
A stabilisce una corrispondenza biunivoca tra R(A) ed un qualunque
cornplemento di N(A). Tale corrispondenza e un isomorfismo, in virtl'l
della linearita di A; quindi dim R(A) = dim M(A) e l'equazione [4.24]
segue dal teorema 4.1, punto 2.
Pili in generale, l'operatore lineare A puo operare tra spazi vetto-
riali diversi X e Y definiti sullo stesso campo: A : X -t Y e quanto
ddto sinora trova un' ovvia generalizzazione. In particolare N (A) c
X, R(A) eYe l'operatore A determina un isomorfismo tra R(A) C Y
e un qualunque complemento M(A) C X del nucleo di A; inoltre it
risultato [4.24] ha la seguente generalizzazione: se X e uno spazio
vettoriale finito-dimensionale, allora dim R(A) + dim N(A) = dim X.

Come si e detto nei paragrafi introduttivi, uno dei problemi fonda-


mentali dell'algebra lineare consiste nel risolvere, per l'incognita ;r,
l'equazione

dove A e un operatore lineare tra gli spazi vettoriali X e Y; tale pro-


blema e strettamente legato alIa possibilita di invertire A. L'operatore
A : X -t Y e inveTtibile se, 'Vy E Y, esiste un unico ;r E X che risolve
l'equazione [4.25] 0, equivalentemente, se Ie seguenti due condizioni
sono entrambe soddisfatte:
i) 'Vy E Y esiste almeno un ;r E X che risolve la [4.25] (cioe Y coincide
col range dell'operatore A: Y = R(A));
ii) se;rl i' ;r2' ;rl,;r2 EX=} A;rl i' A;r2 (cioe it nucleo di A contiene
solo l'elemento nullo: N(A) = {Q}).
L'operatore che associa a y l'unico ;r che risolve la [4.25] e un 0-
peratore line are e viene chiamato inverso di A, indicato col simbolo
A-I

Daile [4.25] e [4.26] segue che AA -1 = I in Y e che A-I A = I in X;


ma l'equazione

vale solo se i due spazi X e Y coincidono! Si noti inoltre che, una volta
caratterizzato it range R(A) dell'operatore A, aHora'Vy E R(A) esiste
una soluzione;r EX dell'equazione [4.25]; essa e unica se la condizione
ii e soddisfatta. L'operatore A : X -t R(A) e quindi invertibile se e
solo se N(A) = {Q}.
Se X e Y sono finito-dimensionali e se A e invertibite, allora A-I
e, al pari di A, continuo e limitato (cfr. par. 4.5). Limitandoci ora a
considerare operatori lineari su V (A : V -t Il), mostreremo che Ie con-
dizioni i e ii, entrambe necessarie nel caso generale per caratterizzare
operatori invertibili, sono ridondanti se V e finito-dimensionale.
Teorema 4.2. Teorema sull'invertibilita di operatori lineari su spazi
finito-dimensionali: CNES affinche un operatore lineare A su uno
spazio finito-dimensionale V sia invertibile 10 che, Ify E V, esista un
;r E V tale che A;r = y (cioe che R( A) = V); oppure che I' equazionc
A;r = Q implichi che £= Q (cioe che N(A) = {Q}).
Dimostrazione. Se A e invertibile, Ie condizioni i e ii sono entramb(~
soddisfatte; quindi R(A) = V e N(A) = {Q}. Viceversa, l'equazione
[4.24J d~duogo alle due serie di implicazioni: N(A) = {Q} =? dim R(A)
= dim V =? R(A) = V =? :JA -\ R(A) = V =? dimN(A) = 0 =>
N(A) = {Q} =? :JA -1.

Se A e un operatore lineare su Ve {;r(j)}j'=1 e una base di V, l'azione


di A su un generico elemento dell a base e esprimibile mediante una
combinazione degli elementi della base:
n
Ax(j)
- = """'
L-t ax(i)
1.J-
i=l

e l'insieme degli n2 numeri complessi aij, i, j = 1, ... , n costituisc(~


la rappresentazione matriciale dell'operatore A nella base {;r(j)}j'=l ('
viene "assemblato" nel seguente modo:

a12
a,n)
C'
a21 a22 a2n
(A) = :
an1 an2 ann
(il simbolo (A) verra usato, quando necessario, per distinguere 130rap
presentazione matriciale dell'operatore A in una certa base dall'opera-
tore stesso). Gli scalari (ail, ai2, ... , ain) e (a1j, a2j, ... , anj)T costitui
scono rispettivamente 130i-esima rig a e 130 j-esima colonna dell a matric('
A. L'elemento aij di (A) e 130i-esima componente del vettore A;rCiJ
e quindi 130j-esima colonna di (A) e costituita dalle coordinate del
vet tore A;r(j). Lo spazio delle matrici nxn e isomorfo allo spazio degli
operatori lineari su spazi vettoriali di dimensione n. Infatti 130[4.2KJ
associa, attraverso 130base {;r(j)}j=1, ad ogni operatore A la matrie('
(A); viceversa l'assegnazione dell a matrice (A) e di una base di V
permette di determinare univocamente l'operatore A, nel senso che (\
nota 130sua azione su un qualunque vettore ;r = l.:~=l ~k;r(k) E V:
A;r = l.:~=l ~kA;r(k) = l.:~=l (l.:~=l aik~k);r(i).
Questo isomorfismo permette di stabilire immediatamente Ie ben
note regole di addizione e di moltiplicazione tra matrici quadrate e 130
loro applicazione su vettori colonna.
Proposizione 4.1. Se aij e bij sono Ie rappresentazioni matriciali degli
operatori A e B rispetto aHa base {;r(j)}j'=l1 allora Ie matrici che
realizzano gli operatori: i) exA + f3B, ex, f3 E C; ii) AB; iii) 0; iv)
I sono, rispettivamente: i) exaij + f3bij; ii) l.:~=l aikbkj; iii) (O)ij;
iv) (I)ij = Dij' Inoltre, se ;r, JL E V sono legati dall'operatore A
tramite l'equazione A;r = y, allora i vettori colonna (6, ... , ~n)T e
(7]1,... , TJn)T, che realizzano-rispettivamente;re JLnella base {;r(j) }j=1'
sono legati dall'equazione

n
TJi = I>ik~k' i = 1,... , n =? !l = (A)~
k=l

dove aij e la rappresentazione dell'operatore A nella base {;rCiJ}. L'e-


quazione [4.29] fornisce la regola d'applicazione "da sinistra" di una
matrice su vettori colonila. Le equazioni [4.25] e [4.29] esplicitano il
legame profondo tra operatori lineari e sistemi di equazioni algebriche
lineari.
Se, pili in generaIe, l'operatore lineare A porta 10 spazio vettoriale
Vn di dimensione n nello spazio Vrn di dimensione m, e se {;r(J)}j'=l e
{y(j)}~l sono rispettivamente basi di Vn e 17m, allora l'azione di A su
un ge~erico elemento dell a base di Vn e esprimibile con 130combinazione
line are
m

A;r(j) = I: aijJL(i), j = 1, ... , n


i=l

e l'insieme degli mxn numeri complessi aij, i = 1, ... , m,j = 1, ... , n


rappresenta l'operatore A rispetto aIle basi h(j)}j'=l e {JL(j)}j=l' Tale
insieme e assemblato nella "matrice rettangolare mxn"

a12
a'n )

:I~,.
a21 a22
(A) =
C" :
am1 an2

E lasciata al let tore 1a dimostrazione delia seguente generalizzazione


dell a Proposizione 4.1.
Proposizione 4.2
1. Lo spazio delle matrici mxn e isomorfo allo spazio degli operatori
lineari che portano spazi vettoriali di dimensione 71 in spazi vettoriali
di dimensione m.
2. Siano dati gli operatori lineari A e B tali che A : Vn1 ----+ Vn2 e B :
Vn2 ----+ Vn3; se aij, i = 1, ... ,712, j = 1, ... ,711 e bij, i = 1, ... ,713, j "
1, ... , 712 sono Ie rappresentazioni matriciali di A e B rispetto aIle basi
(j)}nl
{ .:Ii. j=l'
{(j)}n2
JL {(j)}n3
j=l e ~
.
j=l nspe
tt' 1vament e d'I TTVnll TTV e TTV , p
n2 n3
se.:Ii.E Vn1 eyE Vn2 sono legati dall'operatore A tramite l'equaziorw
[4.25], allora:-

i) l'operatore lineare BA Vn1 ----+ Vn3 e rappresentato dalla matricp


n3xn1:

n2

(BA)ij=Lbikakj, i=1, ... ,n3, j=1, ... ,n1


k=l

che fornisce 130 regola di moltiplicazione tra matrici rettangolari n3xn~


e n2xn1.
ii) Ie coordinate T/1, ... ,T/n2 e 6, ... ,~nl rispettivamente dei vettori y
e.:Ii.sono legate dall'equazione

nl

T/i = L aik~k, i = 1, ... ,712


k=l

che fornisce 130 regola di applicazione da sinistra di matrici n2xn1 Sll


vettori colonna n1-dimensionali. L'equazione [4.32] puo essere vista
come caso particolare della [4.31], interpretando vettori colonna 71-
dimensionali come matrici nx1.

Introdotta 130 nozione di operatore lineare A dallo spazio vettoriale V ill


se stesso, e naturale associarvi 130 nozione di sottospazio M invariant('
rispetto ad A, cioe tale che, se.:Ii.E M, anche A.:Ii.E M. Ad esempio,
in Pn, 10 spazio Pk, k <:.: 71 e un sottospazio invariante rispetto agli ope-
ratori di derivazione e di traslazione, ma non di integrazione. V e {Q}
sono esempi banali di sottospazi invarianti (10 sono per ogni trasfor-
mazione line are su V!). Esempi meno banali di sottospazi invarianti
rispetto ad A sono N(A) e R(A).
Se il sottospazio M e invariante rispetto ad A, allora possiamo
restringere l'azione di A 301 solo sottospazio M (ignorando che A (~
definito su tutto V), ottenendo 130 cosiddetta restrizione AIM di A a
M (AIM: M ----+ M):

[4.33] AIM.:Ii.= A.:Ii., .:Ii.E M

AlIa nozione di sottospazio invariante aggiungiamo ora quell a di pro-


iettore che ha un forte significato geometrico ed e intimamente legata
a quell~ di decomposizione di uno spazio vettoriale nella somma diretta
di due sottospazi. Abbiamo gia visto come il piano R2 sia 130 somma
diretta di due rette X eYnon parallele, quindi ogni vettore z di
R2 e decomposto in modo univoco, attraverso la regola del paralle-
logramma, nella somma di due vettori ~ =.:Ii.+ JL' con.:Ii.E X e JL E Y.
II vettore .:Ii.e quindi ottenibile "proiettando" z sulla retta X "lungo"
130 retta Y (cioe parallelamente ad essa) e l'operatore che svolge questa
azione viene detto proiettore.

z
~
/ \
/ \
/ \
/

In generale, se il generico vet tore ~ EVe decomposto in modo univoco


nella SOIIlma ~ = .:Ii.+ y, con .:Ii.E M e JL E N, allora l'operatore di
proiezione (il proiettore) P su M lungo N e quell'operatore tale che

[4.34] P~ =.:Ii., ~ E V

Dalla definizione segue che gli operatori di proiezione sono lineari; che
se P e un proiettore su M lungo N, allora I - P e un proiettore su
N lungo M: (I - P)~ = y; che il rango di P e la dimensione diM c
quello di 1- P e la dimensione di N. Gli operatori di proiezione HOIIII
inoltre caratterizzati dalla seguente proposizione.

Proposizione 4.3. Una trasformazione lineare P su V e un proiett,ol"l'


se e solo se P e idempotente, cioe se e solo se p2 = P.

Dimostrazione. Assumiamo che P sia un proiettore su M; aHora, ]lC'1


ogni ~ E V, si ha la decomposizione ~ =;r + y con;r = P~ EM; d'alt.r;1
parte la decomposizione di ;r e ;r = ;r + Q., qui;di p2 ~ = P (P~) = P:r
;r = P~ =} p2 = P.
Assumiamo ora che p2 = P e mostriamo che i seguenti sottospazi
di V: L1 = {P;r; ;r E V} e L2 = {(I - P);r; ;r Ell} sono t.ali
che V = L1 EB L2. Infatti, V~ E V, ~ = P~ + (I - P)~; inoltre (~~;~;i
sono indipendenti, poiche dall'equazione P;r1 + (I - P);r2 = Q e dalla
proprieta p2 = P segue che p2;r1 = P;rl = Q e quindi (I -. Pk2 = ll,
AlIora P e un proiettore su L1 e 1-P su L2; inoltre;r E L1 =} P;r = :1'
e ;r E L2 =} P;r = Q.
Nella seconda parte delIa proposizione 4.3 abbiamo mostrato e1\('
un operatore idempotente P su V decompone V nella somma direLta
di due sottospazi L1 e L2 tali che, se ;r E L1, allara P,;I:, = ;r e HI'
;r E L2 allora P;r = O. Questo risultato ha la seguente important!·
generalizzazione.
Proposizione 4.4. Se gli operatari lineari p(l), ... , p(m) soddisfano II'
equazioni

LP(i) = 1
i=l

aHora decompongono V nella somma diretta: V = L1 EB L2 EB ... EB L,,,


di m sottospazi indipendenti Lk, k = 1, ... , m tali che, se ;r E Lj,
allora p(i);r = 8i.i;r.

Dimostrazione. La dimostrazione che i sottospazi L.i = {pW;r; ;r (


V}, j = 1, ... , m decompongono V in somma diretta e un'ovvia geIH~-
ralizzazione del risultato precedente ed e lasciata al lettore. Qui no
tiamo soltanta che, se;r E L.i, aHara 3y E V tale che;r = pU)y; quindi
p(i)X_ = p(i)pU)y _ = 8·pW
tJ y _ = 8x.
ZJ-
- -
Un operatore lineare dallo spazio vettoriale V a e (0 R) e dett~
funzionale linear-e su V. Ad esempio, dat.i gli n ~umeri complessl
h, ... ,f n, la funzione scalare f (;r) che aSSOCIaad ogm ;r = (6, ... ,~n)
E en la quantita scalare

f(;r) = L fi~i
i=l

El un funzionale lineare su en. ,


L'insieme di tutti i funzionali lineari su V e chiamato spazio duale dz
V cd e indicato col simbolo V*. E facile convincersi che V* e esso stesso
uno spazio vettoriale, avendo definito il funzionale 0 (zero), la somma
h + h di due funzionali lineari ed il prodotto o:f di un funzionale per
10 scalare 0: attraverso Ie equazioni C(;r) = 0, (J + g)(;r) = f(;r) +
g(;r), (0:J)(;r) = o:f(;[;,), V;r E V. n . , .
Se {;r(j)}l e una base di V e;r = 2:::.1=1~.i;r(J) e un genenco vettore
di V allora oO'nielemento di V* e rappresentabile nella forma [4.37]
f'
per una scelta opportuna degli scalari h,· .. f n' In attl, se
, b f E V* ,
allara f(;r) = 2:::;'=1~.if(;rW) coincide con [4.37], per f.i = f(;r(J))· In
particolare, i vettori {;rW*}l di V*, definiti dalle equazioni

[4.38] ;r(i)*(;rW)=8i.1' i,j=l, ... ,n

corrispondono alIa seguente scelta per ;rW * : f.i = 1, h = 0, ~ i- j. .


Ad agni elemento f E V· e possibile associare la n-pla dl numen
complessi h, ... ,fn attraverso l'equazione
n
[4.39] f = L h;r(k)'
k=l

V' e quindi uno spazio vettoriale di dimensione n, isomorfo a en, e


l'insieme dei vettori {;rW'}l e una base di tale spazio, la cosiddetta
base duale delIa base {;rW}l. .
Le formule [4.38], [4.14] e [4.30] implicana inoltre che Ie componentl
~i, i = 1, ... , n del vettore colonna rappresent~tivo di ;r E V rispe~to
alIa base {xW}n e Ie componenti Ai.i delIa matnce (A) rappresentatlva
dell'operat<;re liner are A su V nella stessa base sono esprimibili nel
seguente modo:
Se ;r = 2:~=1!;k;r(k) e un elemento di V, f = 2:~-1 fkX(k)* C 1111
elemento di V* e vale la [4.38], il funzionale lineare: - -

esprime 10 scalare f(;r) attraverso Ie componenti dei vettori x E V (.


f. E V*. La [4.41] su~gerisce di rappresentare Ie componenti f~ ... ,III
dl f nella base {;r()) }r come vettore riga:

e di interpretare l'applicazione f(;r) come il prodotto delIa matric('


rettangolare 1xn rappresentata dal vettore riga [4.42] per la matric('
nx1 rappresentata dal vettore colonna [4.15].
La corrispondenza tra V e V* permette infine di associare ad 1111
generico operatore A su V l' operatore A * "aggiunto" 0 "duale" di .A,
attraverso l'equazione

E possibile most rare che, se (A) e la rappresentazione matriciale dd


l'operatore A in una certa base {;.!;(j)}r di V, allora la rappresentazioJl(,
matriciale di A * nella base duale e fornita dalla matrice AT traspos/'({
di (A):

",n
Rispetto alIa base {;r(j)*}r l'equazione
(.)*
j = A* f, con j = 2:n_
)-1
jxUl*,
)-
f = 6j=1 fj;r) E V*, ammette quindi la realizzazione

n n

h = L(A *)jdi = L fi(A)ij


i=1 i=1

che ~ornisce la ~egola di "~ol~iplicazione da destra" delIa mat rice (A)


?er 11 vettore nga f E en .
E lasciata al lettore la dimostrazione ell<'
11 rango di A * e uguale al rango di A.
Poiche ogni spazio vettoriale complesso V e isomorfo a en, illettore si
sara sicuramente chiesto percM si continui a studiare spazi V astratti,
invece di concentrare la nostra attenzione solo su en, spazio a noi
familiare, nel quale possiamo utilizzare ben noti risultati di algebra
lineare e di teoria delle matrici.
La ragione di questa ostinazione e che, a prescindere dall'indubbia
eleganza di una trattazione astratta e generale, l'isomorfismo tra V e
en si realizza attraverso la scelta di una base di V; quindi i risultati
dimostrati in en sono validi in generale solo se non dipendono dalla
base scelta, cioe solo se sono invarianti per isomorfismi.
Se, ad esempio, si vuole studiare la risolubilita dell'equazione [4.25]
in V, siamo senz'altro portati a consider are il sistema algebrico

n
L aik!;k = 1/i, i = 1, ... , n,
k=1

di n equazioni nelle n incognite !;i,i = 1, ... , n, al quale l'equazione


[4.25] si riduce in una certa base. Allora la regola di Cramer ci assicura
che esiste unica la soluzione delIa [4.45] in en
se e solo se la matrice
(A) e invertibile (cioe se e solo se det A -I 0) e la soluzione vale

dove (CA) e la matrice dei cofattori di (A). Per poter trasferire questo
risultato in V dovremo pero assicurarci che l'invertibilita delIa matrice
(A) sia una proprieta condivisa da tutte Ie matrici che rappresentano
l'operatore A, non dip end a cioe dalla base prescelta. Nel nostro e-
sempio ci piacerebbe quindi associare ad ogni operatore su uno spazio
finito-dimensionale una nozione intrinseca di determinante, indipen-
dente dalla base.
In generale, nella formulazione matematica delle leggi delIa fisica gio-
cano un molo import ante Ie proprieta di invarianza rispetto a sistemi
di riferimento diversi 0, come si dice, per trasformazioni di coordinate
o per cambiamenti di base. E quindi importante:
i) stabilire come si trasformano gli enti matematici (gli scalari, i vettori,
Ie matrici e, pili in generale, i tensori) che descrivono Ie quantita fisiche,
in seguito a tali trasformazioni;
ii) individuare quelle quantita che restano invarianti rispetto a lall
trasformazioni e che quindi rappresentano delle proprieta "intrillsI'dll'
dell'oggetto fisico".
Consideriamo un cambiamento di base {z(j)H ---* {;r.(j)'}!', .1,-
scritto dall'operatore lineare T mediante la trasformazione
n n
[4.46] ;r.(j)' = T;r.(j) = 2: Tkj;r.(k) = 2: (TT)jk;r.(k) , j = 1, ... , n
k=1 k=1

dove Tij e la rappresentazione matriciale dell'operatore T nella ha~;,'


{;r.(j) H (si puo mostrare che, affinche l'insieme dei vettori ;r.(j)', ddill iII
dalla [4.46], costituisca una base di V, e necessario e sufficiente ell(' Iii
mat rice (T) sia invertibile).
II vettore ;r. EVe equivalentemente rappresentato mediante Ie ~'11"
componenti rispetto alIe due basi {±(j)H e {±(j)'H':
n n

-X = "\"' tx(j)
~ ':,1,_ = L-t
"\"' t'x(j)
':,1,- I

i=1 i=l

In seguito al cambiamento di base [4.46]' queste componenti SOil"


trasformate nel seguente modo:

~i = 2:.1ik~k' =} ~/ = L:)T- 1
)ik~k
k=l k=1

da cui segue la [4.48]' in virtl1 dell'indipendenza dei vettori ±(j) _l~1

mostri che anche il risultato opposto e vero: se i vettori di en (6, ... ,


~n)T e (~/, ... ,~n')T sono legati dall'equazione [4.41]' allora essi SOil"
Ie componenti di uno stesso vettore di V, nelle basi {±(j)} e {:rCIi'l
rispettivamente.
Invece di prendere in esame il cambiamento di base [4.46], COli Iii
conseguente determinazione delle coordinate di ± nella base {±CJ)/ I,
si puo usare un punta di vista alternativo in cui, mantenendo fissa 1:1
base {;r.(j)} , si realizza una trasformazione del vettore ± in un !lIIOV"
vet tore {k:
in modo tale che Ie coordinate di {k nella base {;r.(j)} siano uguali alle
coordinate di ;r. nella base {;r.(j)/}. Poiche, rispetto alIa base {;r.(j)},
l'equazione [4.49] prende la forma {i = L~=1aik~k, la richiesta che
ti = ~~e l'equazione [4.48] portano al risultato, peraltro intuitivo, che
tra il cambiamento di base [4.46] e la trasformazione dei vettori [4.49]
c'e una relazione inversa:

Una semplice applicazione di questo risultato ai vettori del piano cor-


risponde alIa matrice (cfr. par. 1.1, [1.23])

(T) = Rre)
\
= (co~e
~ sm e
sine)
cos e
che ruota gli assi cartesiani di un angolo e. Considerando il punta di
vista alternativo, al generico vettore ;r. e applicato l'operatore (R( e))-1
= R( -e), che 10 ruota di -e.
Possiamo quindi affermare che:
i) i vettori (6, ... ,~nf e (6""',~n'f di en sono Ie coordinate di
uno stesso vettore di V nelle basi h(j) H e {±(j)' H rispettivamente,
se e solo se vale la [4.48];
ii) i vettori ± e {k di V hanno Ie stesse coordinate nelle basi h(j)'}]' e
{;r.(j)}]' rispettivamente, se e solo se valgono Ie [4.49] [4.50].
In seguito a1 cambiamento di base [4.46] valgono risultati analoghi
per i vettori delIo spazio duale e per Ie trasformazioni lineari su V;
essi sono raccolti nella seguente proposizione, la cui dimostrazione e
lasciata al let tore.

Proposizione 4.5
i) In seguito alla trasformazione [4.46] Ie basi {±(j)*H e {;r.cn*'}]',
duali di {;r.(j)}]' e di {;r.(j)'}]', si trasformano secondo l'equazione
n
[4.51] ±(j)*' = B±(j)* = LBkj±(k)*, (Bf = (T)-l
k=l

dove (B)ij = Bij e la matrice dell'operatore B : V* ---* V* nella base


h(j)}]'·
ii) I vettori rig a (iI, ... , In) e Uf, ... , In) di en sono Ie coordinate di
uno stesso vettore di V* nelle basi {±(j)*}]' e {;r.(j)*/}]' rispettivamente,
se e solo se
n
Ij = L!k1kj
k=l
iii) I v~ttori f e j E V* hanno la stesse coordinate nelle basi {~(j)*' H
e {~(J) }r rispettivamente, se e solo se

j = (Tf f, f = Bj, (B)T = (T)-l

iv) Le matrici (A) e (AI) sono Ie rappresentazioni matriciali di uno


stesso operatore lineare rispetto alle basi {~(j)}r e {~(j)/}! rispetti-
vamente, se e solo se la relazione tra Ie matrici (A) e (AI) e fornita.
dall' equazione

LTikA~j =
k=l

= L AikTb => (T)(A/) = (A)(T), (AI) = (T)-l(A)(T)


k=l

v) Gli operatori A e A hanno la stessa rappresentazione matriciak


nelle basi {xU)}! e {~U)/}r rispettivamente, se e solo se

I vettori colonna che, in seguito al cambiamento di base [4.46f, si


trasformano secondo la [4.48], sono detti controvarianti, poiche la
trasformazione delle loro coordinate e l'inversa delIa trasposta delIa
trasformazione delIa base.
I vettori riga che, invece, si trasformano secondo la [4.52], sono detti
covarianti, poiche si trasformano come la base.
. DU~ ~atrici (A) e (AI) s~no ~ette ~imili se esiste una matrice (T)
lllvertlbIle che Ie lega tramlte 1 equazlOne [4.54]. La trasformazione
[4.54] e detta di similitudine 0 canonica. Allora due matrici sono simili
se e solo se sono Ie rappresentazioni matriciali di uno stesso operatore.
Ad ogni operatore su V e quindi associata una classe di matrici simili
(mostrare che e una classe di equivalenza).
Avendo ottenuto Ie leggi di trasformazione di vettori e matrici ci
occupiamo ora di invarianti. Notiamo innanzitutto che equazioni' al-
gebriche tra matrici sono invarianti per trasformazioni di similitudine'
basta infatti osservare che, se AI = T-1 AT e BI = T-l BT, allora '

CAI = T-1(cA)T
A' +B =
I
T-1(A + B)T, A/B =
I
T-1(AB)T
E inoltre possibile most rare che anche tr A e det A sono invarianti per
trasformazioni di similitudine:

tr AI = tr(T-1 AT) = tr(ATT-1) = tr A


det AI = det(T-1 AT) = det(T-1) det(A) det(T) =
= (detT)-l detAdetT = detA
e quindi sono grandezze intrinseche dell'operatore rappresentato dalle
matrici A e AI.
Un'altra grandezza intrinseca associata all'operatore A e il suo "poli-
nomio caratteristico" P A (A):

[4.57] PA(A) = det(A - AI) = L Cn_jAj = II(Ak - A), AEC


j=O k=l

Ne segue in particolare che i coefficienti Cj, j = 1, ... , n del polinomio


caratteristico (e quindi i suoi zeri AI, ... , An) sono invarianti per tra-
sformazioni di similitudine e quindi sono grandezze intrinseche dell'ope-
ratore A; gli zeri di peA) sono detti autovalori di A (cfr. par. 4.2.5).
Osserviamo che tr A e det A sono due fra i coefficienti del polinomio
caratteristico: precisamente si ha che Co = (-1) n, Cl = (-1) n-1tr A
e Cn = det A. Osserviamo inoltre che i coefficienti Cj del polinomio
caratteristico e gli autovalori di A sono legati dalle relazioni:
n
Cl = (_l)n-l L Ai, C2 = (_1)n-2 L Ai1Ai2

i=l il <i2

n
c3 = (_1)n-3 L AilAi2Ai3"'" cn = II Ai
il<i2<i3 i=l

da cui deduciamo la ben nota rappresentazione di tr A e det A at-


traverso gli autovalori di A: tr A = L~=l Ai, det A = I1~=1Ai'
Per il polinomio caratteristico [4.50] vale l'identita di Cayley-Hamil-
ton:
n
PA(A) = LCn-kAk =0
k=O
la cui dimostrazione si basa suI fatto che e possibile "dividere" l'opcra
tore PA(A)I per l'operatore (AI - A) nel seguente modo

dove gli operatori "quoziente" Q(A) e "resto" R, univocamente dekr


minati dalla [4.59] e dalla richiesta che R non dipenda da A, valgoJlo

n-l n-j-l

Q(A) = 2::
j=O
j
QjA , Qj = 2::
8=0
Cn_j_s_l
AS

n-l
R = 2::
j=O
cn-jAj = PA(A)

Se A e tale che PA(A) =J 0, allora la rnatrice A - AI e invertibile ('


come nella [4.45'], (A - AI)-1 = l/p(A) CA-AI (in seguito, CA-A/'
e abbreviato C). L'identita I = (A - AI) -1 (A - AI) viene quind i
riscritta nella forma p(A)I = -C(AI - A) che, tramite la [4.59]' per
mette l'identificazione di Q con -C e di R = PA(A) con la matric('
nulla.
Una dimostrazione pHl diretta dell'identita di Cayley-Hamilton, va-
lida per operatori che arnmettono una decomposizione spettrale, e ri
portata nel par. 4.2.5.

II polinomio caratteristico PA (A) e associato in modo naturale al cosid-


detto problema agli autovalori per l'operatore A:

che consiste nel determinare per quali va10ri del parametro comples8o
A I' equazione agli autovalori [4.62] ammette soluzioni Jl. E V non nullc.
Lo seal are A ed il vettore Jl. non nullo di V che verificano la [4.62]
sono detti, rispettivamente, autovalore (0 valore caratteristico 0 va-
lore proprio) ed autovettore (0 vettore caratteristico 0 vettore proprio)
deH'operatore A. L'insieme degli autovalori di A costituisce il cosid-
detto spettro (discreto) di A. Si ha che A appartiene all'insieme degli
autovalori di A se e solo se l'operatore AI - A non e invertibile.
Rispetto a una certa base, l'equazione [4.62] si riduce al sistema
algebrico omogeneo

(aii-A)Vi+2::aikVk=O, i=l, ... ,n


ki-i

che ammette una soluzione VI, ... , Vn non nulla se e solo se A e una
delle radici del polinomio caratteristico PA(A) = O.
Essendo invariante per cambiamenti di base, il polinomio caratte-
ristico e una quantita intrinseca dell'operatore A; cosl come 10 sono
Ie sue radici Aj, j = 1, ... , n, che quindi costituiscono l'insieme degli
autovalori di A.

Se, in una certa base, un operatore acquista una forma matriciale sem-
plice, ad esempio diagonale, triangolare, diagonale a blocchi, e possibile
dedurre molte proprieta spettrali e di struttura dell'operatore col mi-
nima sforzo. Dato un operatore su V nasce quindi il duplice problema
di cap ire se esso puo assumere una certa forma matriciale semplice e
come ottenerla, cioe come individuare la base ad essa associata.
Ci chiediarno, ad esempio, se un operatore e diagonalizzabile, se cioe
esista una base rispetto alla quale esso e diagonale, e quale sia questa
base; giungiamo allora al risultato seguente: un operatore lineare A
sullo spazio vettoriale n-dimensionale V e
diagonalizzabile se e solo se
esso possiede n autovettori indipendenti.
Infatti, se {J,Jj) r?e la base associata aHa forma diagonale Aij =
ajOij di A, allora

Tn
Ax(j)
_ =~
~ Ak.]_x(k) = n,.·x(j)
'--']_' J. = 1, ... , n
k=1

e quindi A possiede gli n autovettori indipendenti y(j) = :];(j), j =


1, ... , n in corrispondenza agli autovalori Aj = aj' Viceversa, se
'Jl(j) . j = 1, ... , n sono autovettori indipendenti di A, aHora, rispetto
aHa base di questi autovettori, l'operatore A viene rappresentato da
una matrice diagonale i cui elementi sono proprio gli autovalori di A:
AD = diag(Al,' .. ,An)' Infatti:

AJl.(j) = 2::
n

i=1
AijJl.(i) = AjJl.(j) '* Ai] = OJ)Aj
Se (A) e la rappresentazione matriciale dell'operatore A diagonaliz--
zabile in una data base {~(j) n,
e logico chiedersi Quale sia la trasfor-
mazione (di similitudine) che trasforma la matrice (A) in AD, I"
trasformazione cioe che "diagonalizza" (A). Essa e fornita dall'equa-
zione

dove vij
) e la i-esima componente del j-esimo autovettore di A nella
base h(j) n. Infatti, nella base data,

n n n
j j
LAikvi ) = Ajvi ) =} LAikTkj = AjTij = LTikDkjAj
k=l k=l k=l

e quindi (A)(T) = (T)AD (si noti che l'indipendenza degli autovettori


implica che det T # 0, e quindi l'esistenza della matrice T-1).
E conveniente decomporre AD nel seguente modo
n
AD = L AkP~), (P~))ij = DijDik
k=l

ed e immediato verificare che Ie matrici diagonali p£), i = 1, ... , n


soddisfano Ie equazioni [4.35] e [4.36] e quindi decompongono 10 spazio
en in n sottospazi indipendenti e unidimensionali, ciascuno contc-
ncnte un elemento della base canonica di en.
L'equazione [4.65] for-
nisce la cosiddetta "decomposizione spettrale" 0 "forma spettrale"
dell'operatore A nella base dei suoi autovettori. Applicando la trasfor-
mazione di similitudine all'equazione [4.65] si ottiene la decomposizione
spettrale

dell'operatore A rispetto ad una qualsiasi base di V; gli operatori


p(k), k = 1, ... , n sono definiti dalla trasformazione di similitudine
p(k) = TP~)T-l; quindi godono anch'essi delle proprieta [4.35] e
[4.36]. Vogliamo riassumere questi risultati nel seguente importante
teorema.

Teorema 4.3. Teorema spettrale per operatori diagonalizzabili. Sia A


un operatore lineare sullo spazio vettoriale V di dimensione n e siano
AI, ... ,An gli autovalori di A (eventualmente degeneri); se A e diago-
nalizzabile (se cioe possiede n autovettori indipendenti :!l(1), ... , :!l(n)),
allora:
i) L 'operatore A ammette la "decomposizione spettrale" 0 "forma spet-
trale"
n
A = LAkP(k)
k=l

mediante gli operatori di proiezione p(k), k = 1, ... , n che soddisfano


le eq11azioni

LP(i) =I
i=l

e che quindi decompongono lo spazio V nella somma diretta di n sot-


tospazi L1, ... ,Ln indipendenti. Il sottospazio Lj e la varieta lineare
associata all 'autovettore :!l(j),. e quindi unidimensionale ed invariante
rispetto ad A, con A~ = Aj~ se ;r: EO Lj.
ii) In una generica base {;r:(j)} il proiettore p(k) e rappresentato dalla
matrice

j
dove vi ) e la componente i-esima delj-esimo autovettore di A rispetto
alla base {;r:(j)}.
iii) La matrice AD = diag(Al,"" An) rappresenta l'operatore A nella
base dei suoi autovettori. La matrice (A) che lo rappresenta nella base
h(j)} e trasformata nella matrice diagonale AD (e cioe diagonaliz-
zata) attraverso la trasformazione di similitudine
m
A = Ll1kP(k)
k=l

nl nl+n2
p(l) = L p(S), P (2) =
A '"
L pS',( ) ...
8=1

m
\p(i)
L..-i
= I
i=l

e quindi deeompongono 10 spazio V nella somma diretta di m sottospazi


Ml, ... , Mm indipendenti. Il sottospazio Mj e 1a varieta lineare asso-
eiata ag1i nj autovettori ehe eorrispondono all'autovalore I1j" esso ha
quindi dimensione nj ed e invariante rispetto ad A, con A;z:. = ILj;z:.se
;z:.E Mj.
v) Un qua1unque polinomio 7f(A) del1'operatore A ammette 1a decom-
posizione
m
. 7f(A) = L 7f(l1k)P(k)
k=l

vi) Gli operatori di proiezione delia decomposizione spettrale [4.72]


sono esp'rimibi1i come po1inomi dell 'operatoTe A ne1 seguente modo:

Dimostrazione. Restano da dimostrare Ie equazioni [4.74], [4.76] e


[4.77], tutte conseguenze dirette delle equazioni [4.72]; la dimostrazione
e lasciata al lettore. Usando la [4.75] e anche immediato dimostrare
che operatori che ammettono una decomposizione spettrale soddisfano
l'identita di Cayley-Hamilton.
Il teorema 4.3 si basa sull'unica ipotesi che l'operatore A possegga
n autovettori indipendenti. Questa proprieta non e sempre vera, ad
esempio l'operatore di derivazione su Pn (10 spazio dei polinomi di
grado < n) ha n autovalori coincidenti ed uguali a 0 ed il solo autovet-
tore costante. Una condizione sufficiente per l'esistenza di autovettori
indipendenti e contenuta nella seguente proposizione.

Proposizione 4.6. Condizione sufficiente affinche un operatore A pos-


segga almeno m :s; n autovettori indipendenti e che possegga m auto-
valori distinti.

Dimostrazione. Per induzione. Mostriamo innanzitutto che, se Al l'


A2, aHora i corrispondenti autovettori Q(l), Q(2) sono indipendenti.
Assumiamo per assurdo che Q(2) = (};IQ(l), (};l l' 0 ed applichiamo
l'operatore A ad ambo i membri dell'uguaglianza ottenendo (};l (A2 -
Al)Q(l) = 0, che porta alla contraddizione Al = A2. Mostriamo infine
che, se i primi I autovettori Q(k), k = 1, ... , I sono indipendenti, 10sono
anche i primi 1+1. Se, per assurdo, Q(lH) = ~i=l
(};kQk), con (};k l' 0
per qualche k = i, applicando A otteniamo ~~=l (};k(Ak - Al+I)Q(k) =
0, che porta all'assurdo Ai = AlH'
Da questa proposizione segue che condizione sufficiente per l'esistenza
di n autovettori indipendenti dell'operatore A e, quindi, per l'applicabi-
!ita del teorema 4.3, e che tutti gli autovalori di A siano distinti. Tale
condizione non e necessaria (ad esempio l'operatore identita possiede
n autovalori uguali ad 1 ed n autovettori arbitrari, che quindi pos-
sono essere scelti indi pendenti); e chiaro pero che eventuali ostacoli
alla costruzione di n autovettori indipendenti potranno solo venire da
situazioni di degenerazione degli autovalori.
Se l'autovalore 11k, k = 1, ... , m, ha molteplicita nk, intesa come
molteplicita delIa radice del polinomio caratteristico di A (1a cosid-
detta "molteplicita algebrica" di 11k), con ~:=l
nk = n:

PA(A) = II(11k- A)nk


k=l

sara quindi importante stabilire il numero mk di autovettori indipen-


denti ad esso associati (1a cosiddetta "molteplicita geometrica" di 11k),
che coincide ovviamente con la dimensione del nucleo dell'operatore
A - ILkI : mk = dim N(A - ILkI). E facile rendersi conto che:

Proposizione 4.7. La molteplicita geometric a di un autovalore non e


maggiore dell a sua rnoltep!icita algebrica.
Dimostrazione. Ilnucleo Nk dell'operatore A - IlkI gode delle seguenti
proprieta:
i) e un sottospazio di V non nullo (contiene almeno un autovettore);
ii) la sua dimensione e pari alla molteplicita geometric a mk di Ilk;
iii) e invariante sotto l'azione di A e la restrizione AINk di A a Nk
possiede il solo autovalore Ilk; quindi det(AINk - AI) = (Ilk - A)mk•
D'altra parte, essendo AINk la restrizione di A su Nk, il det(AINk -AI)
e un fattore del det(A - AI) da cui segue mk ::; nk.
Soltanto se mk = nk, k = 1, ... , m, il numero di autovettori di A in-
dipendenti e pari a n e quindi l'operatore e diagonalizzabile. Possiamo
anzi affermare, pili precisamente, che l'operatore lineare A sullo spazio
vettoriale V di dimensione n possiede n autovettori indipendenti (ed
e quindi diagonalizzabile) se e solo se la molteplicita algebrica nk di
ogni autovalore Ilk, k = 1, ... ,m e pari alla sua molteplicita geometrica
mk (cioe se e solo se nk = dimN(A - IlkI) = n - dimR(A - IlkI)).
Il controllo di questa proprieta e possibile, ad esempio, attraverso il
calcolo del rango delle matrici (A) - IlkI, k = 1, ... , m che rappresen-
tano gli operatori A - IlkI in una certa base, ed usando le proprieta
di invarianza del range di una matrice.
Un operatore con autovalori degeneri e riducibile alla forma diago-
nale dovra quindi avere proprieta assai speciali. Nel paragrafo seguente
prenderemo in considerazione esempi di operatori di grande rilevanza
in fisica, come gli operatori hermitiani e unitari, che godono di tali pro-
prieta e che quindi sono sempre diagonalizzabili. Nel resto di questo
paragrafo ci occuperemo di operatori che non hanno un sistema com-
pleto di autovettori e, quindi, non sono riducibili alla forma diago-
nale; mostreremo tuttavia che esiste sempre un'opportuna base nella
quale essi assumono una forma relativamente semplice, la cosiddetta
"forma canonica di Jordan". Per fare questo e richiesto un ulteriore
approfondimento delle proprieta di un operatore lineare su V e, in
particolare, delle possibili decomposizioni di V da esso indotte.

Forma triangolare e quasi diagonale a blocchi


di un generico operatore

Se Ilk e un autovalore di A, la varieta R(A - IlkI) e invariante rispetto


ad A ed ha dimensione ::; n - 1. Sia Ln-1 un qualunque sottospazio
di V di dimensione n - 1 che contiene R(A - IlkI), allora Ln-1 e una
varieta invariante rispetto ad A; infatti,\I,z;. E Ln-1 (anzi, \I,z;. E V), si
ha che (A - IlkIh E R(A - IlkI) C Ln-1. Abbiamo quindi dimostrato
chc, per ogni operatore lineare A su V, esiste un sottospazio Ln-1 C V,
invariante rispetto ad A e di dimensione n - 1. Allora esistera anche
un sottospazio Ln-2 C Ln-1 di dimensione n - 2 e invariante rispetto
ad AILn_1 (e quindi rispetto ad A). Questo procedimento puo essere
iterato fino alla costruzione del sottospazio L1 C L2 C ... C Ln-1 di
dimensione 1 e invariante rispetto ad A. Si e quindi dimostrato che,
per ogni operatore lineare A sullo spazio n-dimensionale V, e possibile
individuare n sottospazi L1, ... , Ln di V, invarianti rispetto ad A e
tali che

Questa decomposizione dello spazio permette di selezionare la seguente


base di V rispetto alla quale la matrice che rappresenta A e triangolare:
{xU)}n_
- xU)
)-1' - E L ), A
"F
Lk(k < ]").

La forma triangolare di un operatore permette di identificare a vista


i suoi autovalori, che coincidono con gli elementi della diagonale prin-
cipale. Poiche la decomposizione [4.79], [4.80] e la scelta dell a base
non sono uniche, ogni operatore lineare ammette pili di una forma
triangolare.
Esiste un altro procedimento di riduzione, pili strutturato di quello
triangolare, che porta alla cosiddetta forma quasi diagonale a blocchi
di un generico operatore e, se questo e diagonalizzabile, alla sua forma
diagonale. Sia l/PA(A) = LZ~l rk(A)/(llk - A)nk l'espansione in fratti
parziali dell'inverso del polinomio caratteristico [4.78] dell'operatore A
(allora rk(A) e un polinomio in A di grade ::; nk - 1, invariante e tale
che rdllk) oj 0). L'identita che ne deriva:

~ rk(A) II (Ila - A)ns =1


k=l s=l.s#k

F(kl(A) = rk(A) II (llsI - A)n s


, k = 1,... , m
s=l,#k
Dall'identita di Cayley-Hamilton [4.58]segue che gli operatori F(j) sod-
disfano anche Ie equazioni F(i)FCi) = bijF(i), i,j = 1, ... , me quindi,
grazie alIa proposizione 4.4, essi decompongono 10 spazio V nella som-
ma diretta V = ffiLk di m sottospazi L1, ... , Lm invarianti rispetto
ad A, che coincidono col range di ciascun operatore di proiezione:
Lk = {F(k)J:.;J:. E V}, k = 1, ... ,m.
Per calcolare la dimensione di Lk conviene not are che Lk non e
solo il range del proiettore F(k), ma e anche il nucleo dell'operatore
(A ~ fLkI)nk:

Lk = N((A -- fLkI)nk)
Infatti, se J:. E V==? 3y E V tale che J:. = F(j)(A)U ==? (A ~ fLkI)nkJ:. =
T (A)p A (A)y = 0, per l'identit8. di Cayley-Hamilton. Viceversa, se
; e tale chelA - fLkI)nkJ:. = 0, aHora dall'equazione [4.81] segue che
J:. = 2:~n=lF(k) (A)J:. = F(j)(Ah E Lj.
Si ha che (AILk - J1kI)nkJ:. = 0, \h E Lj, e quindi (A - fLkI)nk e
l'operatore nullo su Lj e possiede, al pari dell'operatore (A - fLkI), il
°
solo autovalore con molteplicita algebrica pari a dim Lk ==? PAl Lj (A) =
(fLk - A)dim Lk. D'altra parte per una tale decomposizione di V e possi-
bile scegliere un'opportuna base di V rispetto alIa Quale A e rappresen-
tato da una mat rice quasi diagonale am blocchi: (A) = [AI, ... , Am]
e che Ak e la matrice che rappresenta l'operatore AILk su Lk. Quindi
PA (..\) =n:=l PAl Lk (A) = n:=l
(Jik - /\)dim Lk; dal confronto con [4.78]
si deduce infine che dimLk = dimN((A - JikI)nk) = nk.
Raccogliamo questi risultati nel seguente teorema.

Teorema 4.4. Sia A un opemtore lineare sullo spaz1:o V di dimensione


n e sia

PA(A) = rr(fLk~A)nk,
k=l

F(k)(A) = rk(A) IT (fLs1 - A)ns


8=1,7"ok
invarianti rispetto ad A e di dimensione nk. Ciaseun operatore AILk
su. Lk possiede il solo autovalore fLk con molteplieitd algebriea nk.
Rispetto ad una base {J:.(j)} di V ripartita nel seguente modo: {J:.(j)}~"
L- L 1, {(j) 1 n2
.J:. Jnl+1 C L 2, .. ·, { J:. (j) }nnm _l+1 eLl' m,
m opera t ore A' e rap-
presentato da una matriee quasi diagonale am blocchi (A) = [AI, A2,
. .. , Am] ed il bloeeo Ak e la matrice nk X nk che rappresenta l' operatore
AILk rispetto alla base di Lk.
Nel caso in cui N(A - fLkI) = N( (A - fLkI)nk), k = 1, ... , m (in
generale vale il simbolo di inclusione c) allora la base di Lk e costituita
da nk autovettori indipendenti di A, corrispondenti all 'autovalore fLk
e quindi i bloeehi Ak sono matrici diagonali Ak = fLkI, k = 1, ... , m
e la matrice diagonale a bloechi si riduce alla matrice diagonale.

E possibile semplificare ulteriormente la forma dell'operatore A at-


traverso un'opportuna decomposizione di ciascun sottospazio Lk di V.
Tale decomposizione permette di individuare un'opportuna base di Lk
rispetto alIa Quale l'operatore AlLk viene a essere rappresentato esso
stesso da una matrice quasi diagonale i cui sottoblocchi sono matrici
triangolari inferiori di dimensione a del tipo

o 0
o 0

detti blocchi di Jordan.


Poiche la situazione degli m sottospazi Lk e concettualmente la
stessa, concentreremo la nostra attenzione su un solo sottospazio, libe-
randoci dell'indice che 10 caratterizza. Abbiamo a che fare quindi con
uno spazio vettoriale L di dimensione d e, su di esso, con un operatore
lineare B che possiede il solo autovalore Ji di molteplicita algebrica d;
il nostro scopo e di individuare una base di L in cui l'operatore B e
quasi diagonale a blocchi di Jordan. Conviene lavorare can l'operatore
C = B ~ JLI, che possiede il solo autovalore 0 con molteplicita d; esso
e quindi nilpotente: Cd = O. Sia v l'intero positivo tale che
con 1 < 1/ :::: d (se 1/ = 1, allora B = p,l e non e necessaria alcuna
riduzione) e si considerino i nuclei delle potenze di C: N(Ck), k =
L, ... , 1/ per i quali si ha, ovviamente, che

l'oicM CV = 0 e cv-1 =J 0, allora esiste un sottospazio di N(CV) = L


non banale e non contenuto in N(cv-1); 10 ohiamiamo Gv e gv e la
sua dimensione (gv 2': 1). Seguendo questa strategia e possibile indi-
viduare 1/ sottospazi di L : G1, Gz, ... , Gv tal~ che Gk e il sottospazio
.Ii N(Ck) non contenuto in N(Ck-1), con gk"= dim Gk, k = 1, ... ,1/.
I)(~rcostruzione si ha che Gi n Gj = {O},i =J j = 1, ... ,1/. Questi
~;ottospazi godono delle seguenti proprieta:
i) se:£ E Gk, aHora C:£ E Gk-1;
i"i) un insieme di vettori indipendenti di Gk viene mappato, tramite C,
ill un insieme di vettori indipendenti di Gk-1;
iii) .IJk-1 2': .Ilk, 1:::: k :::: 1/ (questo, tra l'altro, implica che, essendo Gv
11011 banale, saranno non banali anche tutti gli altri: Gk =J {O}, k =
I, ... ,1/ e, quindi, i segni di inclusione nella formula [4.87] vanno intesi
ill senso stretto);
1/1) L = EEl Gs =? L:~=1 .lis = d.

Ihuwstrazione
i) Se:£ E Gk (:£ E N(Ck),:£ 'f. N(Ck-1)), allora Ck-1(C:£) = .0. =?
k 1
(;;1: E N(C - ). k Z
Inoltre C:£ 'f. N(C - ), percM altrimenti Ck-Z(C:£)
Ck-1:£ = 0, contraddicendo l'ipotesi.
ii) Se :£1" .. ':£s E G k e sono indipendenti, si consideri l'equazione
)~, (~s(C:£s) = 0 (con:£s E Gs e CXs E Gk-d. Ne segue che C (L:c as
.rJ = 0 =? L:s as:£s E N(C), e quindi L:s as:£s appartiene sia a Gk
dl(~ a N(C) = G1. AHora L:s as:£s =.0. =? as = O\ls.
hi) Segue direttamente da i e ii.
ill) Se :£ E N(CV) = L, allora:£ = :£v + ]Lv' con :£v E Gv e ]Lv E
N(C//-1). Quindi]Lv = :£v-1 + ]Lv-I' con :£//-1 E GV-1 e ]Lv-1 E
N(CI/-Z); e cosl via, fino a concludere che:£ = L:~=l:£S' :£s E Gs> S =
I, ,1/ =? L = L:~=1 Gs. Per mostrare infine che gli !nsiemi Gs> S =
I, ,1/ sono indipendenti, si parte dall'equazione L:s=l Xs = .o.,:£sE
(:". Applicando ad essa l'operatore C//-1 si giunge all'equazione C//-1
:r// = .0., cioe:£// E N(C//-1), e quindi:£v =.0.. ~pplicando poi C//-2
si trlostra in modo analogo che :£//-1 = .0. e cosi a catena, sino alla
condusione che :£s = .0., S = 1, ... ,1/.
q\l(~sta decomposizione suggerisce la seguente scelta della base di
vdtori di L. Siano :£(1),... , :£(9v) gv vettori indipendenti di G//. Per
ogni :£(j), j = 1, ... , gv costruiamo il seguente insieme di vettori in-
dipendenti:

By) = {:£(j), C:£(j), ... , CV~l:£(j)}

II suo inviluppo lineare ~(v) e un sottospazio di L, invariante rispetto


aCed indipendente dagli altri al variare di j. Rispetto a ciascuna
base Bjv) l'operatore C1y(v) e rappresentato dal blocco di Jordan
J

Jv(O); abbiamo quindi ottenuto gv blocchi di Jordan di dimensione


1/. Avendo esaurito 10 spazio Gv, passiamo ora a Gv-1' Siano j) ,j = Jl
1, ... , gv-1 - gl/, (gv-1 - gv) vettori indipendenti di Gv-1, ed indipen-
denti dai vettori C:£(j), j = 1, ... , gv. Come sopra gli inviluppi lineari
y(v-1) degli insiemi di vettori indipendenti
J

sono sottospazi indipendenti di L e invarianti rispetto a C. Gli ope-


ratori C1y(v-1), j = 1, ... , g//-l - .111/ sono rappresentati da J //-1 (0);
J

abbiamo ottenuto quindi altri gv~l - .111/blocchi di Jordan Jv-1(0).


Procedendo in questo modo si esauriscono tutti gli spazi intermedi
Gk, fino ad arrivare a G1, nel quale possiamo scegliere .Ill - g2 vet-
tori linearmente indipendenti non ancora usati: ~(1), ... , ~(91-92). Sui
sottospazi unidimensionali ~(1), j = 1, ... , .Ill - .112 l'operatore lineare
q yO) e rappresentato dal blocco J 1(0); completiamo quindi la nostra
rap~resentazione a blocchi di C con .Ill - .112blocchi J 1(0). L'insieme dei
vettori U n B.~v-k) consiste quindi di L:~:~(g//-k - gv-k+1)(1/ - k) = d
vettori indipendenti (una base di L). Rispetto a tale base l'operatore
B = C + 11,1 assume la seguente forma:

(B) = [Jv(Ji),'" ,JI/(/t),J//-1(Ji), ,Jv-1(Ji), ... ,


J 1 (p,), ... , J 1 (Ji)] = [J", (p,), J"2 (Ji), , J a'll (It)]

che viene chiamata forma canonica di Jordan dell'operatore B, e con-


siste nella "somma diretta" di blocchi di Jordan di dimensione non
crescente da 1/ a 1. Il numero di blocchi di dimensione k e pari a
.Ilk - .Ilk-I, quindi il numero totale di blocchi di Jordan della rnatrice
(B) : gv + L:~:i (.Ilk - gk+1) = .Ill e pari alla molteplicita geometrica .Ill
deH'autovalore Ji. Questo procedimento, applicato a tutti i sottospazi
Lk, k = 1, ... , m associati aHa decomposizione a blocchi [4.88] per-
mette aHora di associare aH'operatore A 130 seguente forma canonica
di Jordan:
(A) = [J~l(/ll),'"
.....•.
1 t-'" ,J",l Tn! (fLd, J",21 (fL2), ... ,J",2rn'2 (fL2),

... ,J",=(fLm),'"
1
,J",=rnm
(fLm)]

Il numero di blocchi di Jordan corrispondenti a ciascun autovalore e


pari alIa molteplicita geometric a di tale autovalore. Se quest'ultima
e pari alIa molteplicita algebrica dell'autovalore, allora ciascun blocco
risulta unidimensionale e 1a forma di Jordan si riduce a quella diago-
nale.
Si noti infine che, se vk e il pili piccolo intero tale che (A-fLkI)Vk =0
ma (A - JLkI)Vk-1 -:F 0, Vk :s; nk, allora il polinomio

[4.91] JrA(A) = II(JLk - Atk


k=l

e il polinomio (annichilatore) minim ale dell'operatore A, cioe e il poli-


nomio di grado minimo tale che, sostituendo a A l'operatore A si ot-
tiene l'operatore nullo: JrA(A) = 0 (mostrarlo). Anche Vk e quindi una
molteplicita algebrica dell'autovalore ILk, intesa pero come radice del
polinomio minimale.

Nei paragrafi precedenti abbiamo generalizzato Ie proprieta di linearita


di Rn a spazi vettoriali astratti; la generalizzazione delle proprieta
metriche di Rn, associate alle nozioni di distanza, lunghezza ed angolo,
a spazi vettoriali astratti a n dimensioni si effettua dotando tali spazi
di una funzione scalare, detta "prodotto scalare" (;r.,JL) di due vettori
;r.,y E V che gode delle seguenti proprieta:

1. (;r., JL) = (JL, ;r.)


2. (.:r., AJL) = A(x, y) \:fA E C

3. (.:r.,JL + ~) = (;r.,JL) + (;r.,~)


4. (;r.,;r.) 2': 0; (;r.,.:r.)= 0 {==} ;r. = Q.
(efr. anche avanti, par. 4.3.5). Allora:
i) la distanza tra due vettori ;r.,JL EVe data dalla

ii) la lunghezza (0 norma) di un vettore ;r. E V (cioe la sua distanza


dal vettore nullo Q.) e data da

2.-1- I(x, y)12


COS 'I' = IIxl1211yl12

Notiamo che, in molti testi, e in particolare in tutti i testi di fisica,


la norma di un vettore e indicata col simbolo del valore assoluto, e
chiamata "modulo": Ilxll = 1;r.1·
AlIa nozione di prodotto scalare e associata in modo naturale la
nozione di ortogonalita tra vettori: due vettori;r., y E V sono ortogonali
se (;r.,y) = O. Un insieme di vettori {;r.(j)}~~-n e ortonormale se i
vettoriche 10 costituiscono sono mutuamente ortogonali e hanno norma
(mo du 10 ) 1.· cwe ., se (.(i)
;r. ,;r.(j)) -- U"..t], Z,. J. -- 1, ... , rn.
E facile most rare che vettori ortonormali sono indipendenti; ne segue
che n vettori ortonormali costituiscono una "base ortonormale" di V.
Valgono Ie seguenti proprieta abbastanza evidenti.
Se {;r.(j)}l e una base ortonormale di V, allora:
i) _x E V =? _.. x = LJ2=1
",n ~t_ c. = (X(i)
c·x(i) , ~'l. _,_
x), ,
ii)(.:r.(i),.:r.)=O, i=l, ... ,n =? .:r.=O;
f
...) (.:r.,y.) =LJi=lC,i7]i,
nz ",n c
C,i=.:r.(( i)),.:r., rh=;r.( (i) ,JL;)
2
ivy 1!;r.1i"2 = (;r.,.:r.)= 2:~=1 It,il (uguaglianza di Parseval);
v) 11;r.112': 2 2:'t" It,iI2, m:S; n (diseguaglianza di Bessel);
vi) per m = 1, la proprieta v diventa 11;r.112':2 !(.:r.(1),;r.)12e ponendo
;r.(1) = JL/llyll segue

1 IIJLII2': 1(.:r.,JL) 1
11.:r.1

(diseguaglianza di Cauchy-Schwartz) che implica cos2 ¢ < 1 (nella


[4.94]) nonche la disegllaglianza triangolare
n
A;r(j) = L Akj;r(k),
k=l
Sottolineiamo ancora che, in uno spazio euclideo finito-dimensionalc,
Ie componenti ~i, i = 1, ... , n del vettore colonna rappresentativo di
;r E V rispetto alIa base ortonormale {;r(j)}r e Ie componenti Aij
della matrice (A) rappresentativa dell'operatore A nella stessa base
sono esprimibili attraverso i prodotti scalari

Se i vettori {.:J;(j) }j'=1 della base non sono ortogonali, dobbiamo invece fer-
marci alla scrittura:

(;r,y) = LLO:iiJj(;rCi),;rU))
i=1 j=1

dove (Xi (rispettivamente iJi) e l'i-esima componente di ;r (rispettivamente


y) nella base assegnata.
- Quindi, il prodotto scalare e definito per ogni coppia di vettori (;r, JI) se
2
sono assegnati gli n numeri gij = (;rCi),xU)). La matrice g, di elementi gij,

e detta "tens ore met rico" e soddisfa le proprieta:


i) gij = 9ji;

ii) (9:., gQJ = 2..:~=12..:~'=1


O:i(Xjgij :2: 0 (= 0 se e solo se (Xi = O\7'i).
Vedremo nel prosieguo di questo paragrafo che una matrice che gode delle
proprieta i-ii si dice hermitiana e positiva.
Nel caso di uno spazio pseudo-euclideo per cui non vale la 4. di pag.
264, si riconosce immediatamente che il corrispondente tensore met rico g e
ancora rappresentato da una mat rice hermitiana, in generale non positiva.

Data una base {;rUl H di V, c'e un metodo costruttivo, il pro cedi-


mento di ortogonalizzazione di Gram-Schmidt, che permette di costru-
ire una base ortonormale {f:(j)H attraverso Ie formule (cfr. par. 4.3.5)

(1) _ ;r(1)
f: - 11;r( 1) II'
j-l
;r(j) - 2..: (f:(s),;r(j»)f:(s)
s=l
j-l
11;r(j) - 2..: (.f:(s),;r(j»)f:(s)11
8=1
Gli esempi di spazi vettoriali finito-dimensionali dei paragrafi prece-
denti sono altrettanti esempi di spazi euclidei.

1. Per 10 spazio Cn delle n-ple di numeri complessi il prodotto scalare


di due vettori;r = (Xl, ... , Xn), J!.. = (Yl, ... , Yn) E Cn e definito dalla

(;r, J!..) = L XiYi


i=l

in questo spazio i vettori f:( i) , i = 1, ... , n (tali che e; i) = bij) formano


una base ortonormale.

2. Per 10 spazio Mat( C, n) delIa matrici nxn il prodotto scalare di due


matrici X eYe dato da

dove X+ e la matrice "aggiunta" 0 "hermitiana coniugata" della ma-


trice X, i cui elementi sono definiti dalI'equazione

Tale prodotto scalare induce Ie seguenti definizioni di norma di una


matrice:

L IX l2 ij
i,j=l

L IX ij - Y;j12
i,j=l

Una base naturale per tale spazio, ortonormale rispetto alIa [4.95]' e
fornita dalle n2 matrici elementari X(i,j), i, j = 1, ... , n i cui elementi
sono definiti dalle equazioni
(A, B) = (t
i,j=1
AijX(i,j), t
k,I=1
BkIX(k,I)) L
n

i,j=1
AijBij

3. Per 10 spazio Pn dei polinomi di grado .:; n - 1 il prodotto scalare


e definito dalla

(;r,y) = 11
x(t)y(t)dt

E tuttavia possibile costruire da essa una base ortonormale attraverso


Ie formule [4.98].

L'introduzione delIa nozione di angolo tra due vettori e di ortogonalita


ci perrnette di aggiungere, alIa nozione di proiezione suI sottospazio
M di V lungo la direzione definita da un complemento di M, quell a
di proiezione ortogonale S11 M, che ha un ovvio significato geometrico.
Si pensi, ad esempio, alIa proiezione ortogonale di un punto su una
retta (0 su un piano); sappiamo che tale proiezione e unica e permette
di definire la minima distanza del punto dalla retta (0 dal piano).
In astratto definiremo quindi la proiezione ortogonale di un generico
vet tore ~ dello spazio euclideo V su un sottospazio M di V come il
vet tore ;r E M tale che ~ - ;r e ortogonale a M (a tutti i vettori di .M).
Dimostreremo ora que lIe proprieta delIa proiezione ortogonale che, in
geometria elementare, risultano pili 0 menD intuitive.
PTOposizione 4.8. La proiezione ortogonale di un vettore ~ di V suI
sottospazio M esiste ed e unica; e inoltre rappresenta il vettore di M
che ha minima distanza da ~.
Dirnostmzione. Per dimostrare l'esistenza si consideri un sistema orto-
normale e completo {'Q(j)}l' del sottospazio M; aHora il vettore;r E lvI,
definito dall'equazione
m

;r = L(:I"Ck), ~)'Q(k)

k=l
e tale che ~ - ;r e perpendicolare ad ogni 'Q(j), j = 1, ... , m, e quindi
al sottospazio M. L'unicita delIa proiezione ortogonale si dimostra
facilmente per assurdo.
La nozione di proiezione ortogonale su un sottospazio ]I,{ di V per-
mette di decomporre in modo naturale 10 spazio V nella somma diretta

dei due sottospazi lvi e M.-L, dove M.-L e il cosiddetto "complemento


ortogonale" di ll/l rispetto a V, l'insieme cioe dei vettori di V ortogonali
a JI/!. Infatti, se ;r e la proiezione ortogonale di ~ su M, aHora ~ = ;r + y
con y E M.-L; inoltre M n M.-L = {O}, poicM se;r E M e;r E M.-L ;;
(;r,;r) = 0 =?;r = O.
L'operatore che, applicato al generico vet tore ~ E V, da luogo alIa
sua proiezione ortogonale su M, e chiamato proiettore ortogonale 8U
M ed indicato col simbolo PM. Dalla proposizione 4.8 segue che PM
e definito dall'equazione [4.107]' in cui {'Q(j)}l' e una base ortonor-
male del sottospazio M di dimensione m. La matrice che 10 rap-
presenta rispetto ad una base ortonormale {e(j)}l di V e data quindi
dall'equazione

dove v;k) e la componente i-esima del vettore 'Q(k) E M nella base


{f.(j) }l' Se, in particolare, M e la varieta lineare unidimensionale
associata al vettore 'Q E V, II'QII = 1, allora il proiettore ortogonale Sll 'Q
e definito dalla

e la sua rappresentazione matriciale rispetto alIa base ortonormale


{f.(j)}l e data dalla

Prima di introdurre la nozione di coniugazione hermitiana di un 0-


peratore, vogliamo rimarcare che le nozioni di pTOdotto scalare e di
funzionale lineare sono equivalenti. Se, infatti, e assegnato il vettore
y E V, il prodotto scalare (y,;r), pensato come applicazione da ;r E V a
C, e senz'altro un funzionale lineare su V. Anche il contrario e vero, e
quindi Ie due nozioni sono equivalenti; vale infatti il seguente risultato.
Proposizione 4.9. Ad ogni funzionale ¢ E V* sullo spazio euclideo
n-dimensionale V, corrisponde un unico vettore J!.. E V tale che

Per la dimostrazione di questo teorema, valida per qualunque spazio


euclideo, separabile e completo, si rimanda al par. 4.4.2.
La corrispondenza descritta dall'equazione [4.112] permette di asso-
ciare alla base {;I:(j)*}l di V*, duale della base {;I:(j)}l di V, una nuova
base {J!..(j)}l di V tale che

Anche {J!..U)}r e chiamata base duale di {;I:U)}l; e chiaro che la base


{yU)}l e duale di se stessa (e auto-duale): yU) =;I:(j), j = 1,... , n se
e~olo se la base {;I:(j)}l e ortonormale. -
La corrispondenza biunivoca ¢ f-+ Y tra gli spazi V* e V gode dell a
proprieta -
0!1 ¢1 + 0!2¢2 f-+ Q;1J!..1 + Q;2J!..2
e prende il nome di isomorfismo coniugato.

Ad ogni operatore lineare A su V il prodotto scalare associa "l'operatore


aggiunto", 0 "hermitiano coniugato" A + attraverso l'equazione

(si mostri che l'aggiunto di un operatore e unico). Ne segue innanzi-


tutto che A + e un operatore lineare su V e che (A +)+ = A. Inoltre,
se (A) e la matrice che rappresenta l'operatore A in una certa base
{;I:(j)}l allora la matrice (A +), che rappresenta A + nella base duale
{J!..U)}l di V (tale che valga la [4.113]), ha componenti

e prende il nome di "matrice aggiunta" 0 "hermitiana coniugata" della


matrice (A), ed e ottenuta dalla matrice (A) attraverso Ie operazioni
di scambio di righe con colonne (trasposizione) e di coniugazione com-
plessa. Infatti (A)ij = (y(i),A;I:U)) = (A+y(i),;I:U)) = (A+)ij. Se la
base {;I:U)}r e ortonormale (e quindi la base duale {J!..(j)}l coincide con
{;I:U)}r), allora Ie rappresentazioni matriciali degli operatori A e A +
rispetto alla base {;I:(j)}l sono legate dall'equazione [4.115].
E naturale chiedersi che relazione intercorra tra gli invarianti (cfr.
par. 4.2.4) di un operatore A e quelli del suo aggiunto A +, ed e
possibile mostrare che:

det(A+ - AI) = 1>~-jAj, ct = (_l)n


j=O

dell'operatore A + sono i complessi coniugati dei corrispondenti coeffi-


cienti del polinomio di A.
Infatti, poicM il determinante di una matrice e uguale a quello della
sua trasposta, si ha che

In particolare: tr A + = tr A, det A + = det A e gli autovalori di A +


sono i complessi coniugati degli autovalori di A.
E utile raccogliere Ie proprieta pili rilevanti dell'operazione di co-
niugazione hermitiana nella seguente proposizione.

Proposizione 4.11. Gli operatori lineari A1, ... ,Am sullo spazio eu-
clideo V godono delle seguenti proprieta (che valgono anche per Ie
rispettive rappresentazioni matriciali):
i) (AI + ... + Am)+ = At + ... + A~;
ii) (cA)+ = cA +;
iii) (A +)+ = A;
iv) (A1A2 ... Am)+ = A~ ... At At;
v) se esiste A-I => (A -1)+ = (A +)-1,
la cui dimostrazione e lasciata al let tore.
Notiamo che esiste una forte analogia tra l'operazione di coniugazio-
ne hermitiana di operatori lineari su spazi euclidei e la nozione di co-
niugazione complessa di numeri complessi. Se, infatti, z E C e A e un
A---+A+
cA ---+ cA+
Zi + Z2 ---+ Zi + Z2 Ai + A2 ---+ At + At
Z=Z (A+)+ =A
tr(A +A) = tr(AA +) :::::0

L ZiZi = L IZil2 = 0 =} Zi =0
i=i

Allenati oramai alIa ricerca di invarianti, notiamo che il sottoinsieme


dei numeri complessi invarianti per coniugazione complessa, cioe tali
che Z = z, e l'importante insieme dei reali. Siamo quindi portati
ad introdurre e studiare l'insieme degli operatori lineari A invarianti
rispetto all'operazione di coniugazione hermitiana, cioe tali che

Un operatore che soddisfa questa proprieta e detto "autoaggiunto"


o "hermitiano"; se 10 spazio vettoriale e reale, e detto "simmetrico".
DaIle equazioni [4.115] e [4.116] segue che la rappresentazione matri-
ciale di un operatore hermitiano A e data da una matrice (A), detta
hermitiana, tale che

una matrice, cioe, che e invariante rispetto alla combinazione delle 0-


perazioni di scambio di righe con colonne e di coniugazione complessa
degli dementi; dalla [4.117] segue in particolare che gli elementi dia-
gonali di una matrice hermitiana sono reali. Se V e uno spazio reale,
aHora

e la matrice e simmetrica rispetto alla scambio di righe e colonne.


Le analogie tra operatori hermitiani e numeri reali sono assai forti.
La proposizione 4.10 implica che gli invarianti di un operatore hermi-
tiano associati al suo polinomio caratteristico sono reali; vale inoltre il
seguente importante teorema di caratterizzazione.

Teorema 4.5. GIVES affinche una trasformazione lineare sullo spazio


euclideo V sia hermitir.rw e che la forma quadratica (lC, AlC), detta in
questo caso forma hermitiana, sia reale per ogni lC E V.
(lC,AlC) = LLXiAijXj = LLXiAjiXj =
j j

= LLXjAijXi = LLXiAijXj = (lC,AlC)


j j

L'analogo dei numeri immaginari, cioe tali che Z = -Z, e dato dagli
operatori "anti-hermitiani", definiti dall'equazione

dove B e hermitiano e C e anti-hermitiano.


Se V e uno spazio complesso, allora ogni operatore lineare su V e
esprimibile in modo univoco nella forma

dove BeD sono operatori hermitiani. Infatti B = 1/2(A + A +) e


C = 1/2(A - A +) sono gli operatori nella [4.121]. Se V e complesso,
allora D = -iC e hermitiano, da cui segue la [4.122].
La relazione [4.122] e l'analogo della decomposizione di un numero
complesso: Z = Re Z + ilm Z nella sua parte reale ed immaginaria.
Le matrici BeD prendono quindi il nome di "parte reale" e "parte
immaginaria" della matrice A (anche parte "hermitiana" e parte "anti-
hermitiana" ).
L'analogia tra coniugazione complessa e coniugazione hermitian a si
e gia dimostrata fruttuosa, portando all'individuazione degli opera-
tori hermitiani, analogo dei numeri reali. Se ci chiediamo Quale sia
l'analogo dei numeri positivi Z ::::: 0, tali che Z = e
per qualche ( E R
o tali che Z = (( per qualche ( E G, giungiamo aIle seguenti possibili
definizioni di "operatore positivo" , che indicheremo col simbolo A :::::0:
i) A = B2, per qualche B hermitiano;
ii) A = C+C, per qualche C;
iii) A e hermitiano e (;r:,A:f) ~ 0 Y;r:E V.
Si puo dimostrare che Ie tre caratterizzazioni sono equivalenti. Soli-
tamente si usa la iii come definizione di operatore positivo; un ope-
ratore positivo (0 definito positivo) e quindi un operatore hermitiano
tale che (;r:,A;r:) ~ 0 Y;r:E V; interpreteremo Ie i e ii come due carat-
terizzazioni alternative.
Completiamo il nostro parallelo tra numeri complessi ed operatori
lineari su spazi euclidei prendendo in esame i numeri complessi di
modulo 1, cioe tali che zz = 1. Introdurremo quindi gli "operatori
unitari" U, definiti dalla pro prieta

Se 10 spazio V e reale, allora tali operatori sono detti "ortogonali".


Un operatore unitario su uno spazio finito-dimensionale e invertibile e
gode delle seguenti proprieta

La nozione di trasformazione unitaria risolve il fondamentale problema


(volutamente trascurato sinor a) di individuare la trasformazione li-
neare pili generale su uno spazio euclideo che preservi il prodotto
scalare tra vettori e, quindi, lunghezze, distanze e angoli.
Proposizione 4.12. CNES affinche un operatore Usia unitario e che

Dimostrazione. Se U e unitario, Ie formule [4.125] e [4.126] seguono


direttamente dalle [4.124] e dalla definizione di coniugazione hermi-
tiana, Se, viceversa, vale la [4,125], allora il vettore (U+U - I)y) e
perpendicolare a;r: Y;r:E V, e quindi (U+U - I)y =.Q Yy, da cui segue
la [4.123]. - -
La trasformazione unitaria, che preserva Ie proprieta metriche dello
spazio euclideo, e anche detta "trasformazione isometrica" 0 "isome-
tria" .
Una conseguenza import ante di questa proprieta e che operatori uni-
tari trasformano sistemi ortonormali di vettori in altri sistemi ortonor-
mali; infatti, se ;r:(1),... , :f(m) sono vettori ortonormali, allora i vettori
(f(i),f(j)) = (U;r:(i),U;r:(j)) =

(U+U;r:(i),;r:(j)) = (;r:(i),:f(j)) = Dij

Questa proprieta puo anzi essere usata come terza caratteri~zazione


alternativa di trasformazioni unitarie. Vale infatti il seguente nsultato.
CNES affinche Usia un operatore unitario e che trasformi basi ortonor-
mali in basi ortonormali.
Infatti, se (U;r:(i),U:f(j)) = Dij Yi,j = 1, ... ,n, allora (;r:(i),(U+U-
Ih(j)) = 0 per ogni vettore delIa base, e quindi segue la [4.123]. . .
Notiamo infine che la matrice che rappresenta un operatore umtano
rispetto ad una base ortonormale e tale che Ie sue colonne de?niscono
un sistema ortonormale di vettori; 10 stesso vale per Ie sue nghe. In-
fatti, dalle equazioni [4.124] segue che
n
(U+U)ij = 'L UkiUkj = Dij
k=l
n'

(UU+)ij = 'L UikUjk = DiJ


k=l

Allora gli n vettori y(i) di componenti vii) = Uki (Ie colonne delIa
mat rice U) e gli n vettori 1Q(i) di componenti wit) = Uik (le righe di
U) costituiscono due sistemi ortonormali di vettori di cn:
n
(y(i) ,y(j)) = 'LU!::Ukj = Dij
k=l

(1Q(j), 1Q(i)) = 'L UjkUik = Dij


k=l

Completiamo questa analogia tra numeri reali, positivi, numeri com-


plessi di modulo 1 e, rispettivamente, operatori hermitiani, positivi,
unitari considerando 10 spettro di tali operatori. Vale infatti la seguen-
te cara~terizzazione spettrale per operatori hermitiani ed unitari:
i) se A e un operatore hermitiano, i suoi autoval.ori sono r~ali; se
A e positivo 0 strettamente positivo, allora i SUOl autovalon sono,
rispettivamente, positivi 0 strettamente positivi; se A e unitario, allara
i suoi autovalori sono numeri complessi di modulo 1;
ii) se A e hermitiano od unitario, autovettori corrispondenti ad auto-
valori diversi sono ortogonali.
Ritorniamo brevemente ai proiettori ortogonali introdotti nel par.
4.2.6; siamo ora in grado, infatti, di caratterizzarne completamente Ie
proprieta. I proiettori ortogonali sono idempotenti (proposizione 4.3);
ci chiediamo ora quale ulteriore proprieta ne caratterizzi l'ortogonalita.
La risposta e: un operatore lineare P e un proiettore ortogonale se e
solo se P e hermitiano (anzi positivo), oltre che ovviamente idem po-
tente.
La proposizione 4.4, relativa alIa decomposizione dello spazio ad
opera di proiettori, viene naturalmente generalizzata nel seguente mo-
do, quando tali proiettori sono ortogonali.
Proposizione 4.13. Se gli operatori hermitiani p(1), ... ,p(rn) soddi-
sfano Ie equazioni [4.35] e [4.36]' allora essi decompongono 10 spazio V
nella somma diretta di m sottospazi mutuamente ortogonali M1, ... ,
.Mm e tali che, se ~ E Mj =} p(i)~ = 8ij~.
Nei paragrafi precedenti abbiamo avuto pill volte occasiane di ap-
prezzare !'irnportanza di una decomposizione della spazio V in sot-
tospazi invarianti rispetto ad un certo opcratore. Gli ultcriori vantaggi
che derivano dal trovarsi in uno spazio euclideo sono essenzialmente
legati al seguente risultato (tanto element are quanto fondamentale).

Proposizione 4.14. Sia M un sottospazio dello spazio cuclideo V. Se


M e invariante rispctto all'operatore lineare A, allora M ~ e invariantc
rispetto ad A + .

Dimostrazione. Si consideri l'equazione (y,A~) = (A+y,~), con ~ E


M eyE M J_ . Per ogni ~ EM, allora A~ EM=} (y, A~) = 0 =
(A+'!L~~) =} A+'!L E M-L. -
Conseguenza immediata e che se M e invariante rispetto ad un 0-
peratore hermitiano A, allora anche M ~ e invariante rispetto a talc
operatore.
Siamo ora in grado di dirnostrare il teorema spettrale per opcratori
hermitiani su spazi euclidci finito-dimensionali. Usando un punto di
vista riduttivo (ma non troppo), si potrebbc affermare che tutto ci()che
si e fatto sinor a in questo capitolo e un esercizio preparatorio in fun-
zione di tale teorerna. II let tore e invitato ad un confronto col teorema
spettrale 4.3 (par. 4.2.5) valido per opcratori lineari diagonalizzabili.

Teorema 4.6. Teorema spettrale per opera tori hermitiani.


i) Un operatore auto-aggiunto 0 hermitiano A su uno spazio euclideo V
di dimensione n possiede 71 autovalori A 1, ... , An reali (event1halmente
degeneri). A utovettori corrispondenti ad autovalori diversi sono orto-
gonali. ( ) ( .
,
ii) L 'operatore A posszede n autovettorz ' ortonorma I'z 1!. 1 , ... , 1!.,n) "
iii) Esso ammette 10. seguente decomposizione spettrale [4.66], ewe
n
A = LAkP(k)
k=1

attraverso gli operatorz , d'z prozezlOne


" or t ogona Ie p(k) " kIn= , ... , che
soddisfano Ie equazioni [4.68], cioe

LP(i) =I
i=1

e decornpongono 10 spazio V nella somma diretta di n sottospazi L1, ... ,


Ln mutuamente ortogonali ed invarianti rispetto ad A, con A,£ = Ai~,
se.x ELi' ( )
iv) In una generica base ortonoTmale §.(j) il proiettor'e oTtogonale P k

e rappTesentato dalla matTice

(p(k))" t)
_
-- Vi
(k)
Vj
(k)

dove v(k) e 100 componente i-esima dell 'autovettoTe 1!.(k) nella base {§.Ul}.
v) La t'rnatTice AD = diag(A1,"" An) rappTesenta l'operatore A nella
base oTtonormale dei suoi autovettori. La matrzce herrmtzana (A) che
10 rappresenta nella base {s::.(j)}l e trasformata nella rnatrice diagonale
AD (e cioe diagonalizzata) attraverso 10. tmsfoT'rnazione (dz szmzlztu-
dine) unitaria

dove 10. matrice unitaria U ha per colonne gli autovettori ortonormali


di A:

vi) Se gli autovettoTi sono degeneri nel modo descritto dalla [4.71],
allora vale 10. decomposizione spettmle [4.72], cioe
m

A = l: JLkP(k)

k=1
attmverso i proiettori ortogonali definiti dalle [4.73] ehe soddisfano le
[4.74] e quindi decompongono lo spazio V nella somma diretta di m
sottospazi M1, ... Mm ,mutuamente ortogonali ed invarianti rispetto ad
A, can A;r = l1i;r, ;r;} EMi, e tali che dim Mk = nk, k = 1, ... , m,
dove nk e la moltepl~eita algebrica dell'autovalore 11k.
vii) Un qualunque polinomio p(A) dell'operatore A ammette la seguente
decomposizione spettrale (efr. [4.75])
m
p(A) = "LP(l1k)p(k)
k=l

viii) Gli operatori di proiezione ortogonali della decomposizione [4.72]


sono esprimibili come polinomi dell' operatore A nel seguente modo:

Dimostrazione. Per dimostrare il punto ii si noti che l'insieme N =


k
N(A - I1kl), l'inviluppo lineare degli autovettori di A corrispondenti
all'autovalore 11k, e un sottospazio invariante rispetto ad A. Dalla
proposizione 4.14 segue che anche Nt
e invariante rispetto ad A.
quindi det(A-AI) = det(AINk -AI) det(A1Nk'--AI). D'altra parte: i)
l'operatore AINk possiede il solo autovalore 11k con molteplicita alge-
brica mk : det(AINk - AI) = (11k- A)mk; ii) l'operatore AIN-Lnon puo
avere l'a~tovalore 11k =? det(A1Nk'- - I1k1) =I 0 e quindi det(A1Nk'-- AI)
non contlene nessun fattore 11k - A. II confronto con l'espressione
[4.78] porta a concludere che mk = nk, cioe che, in corrispondenza
ad ogni autovettore 11k di molteplicita algebrica nk, l'operatore hermi-
tiano A possiede nk autovettori indipendenti, che possono poi essere
resi ortonormali. In virtu del risultato i gli insiemi NJ, J' = 1, ... , m
sono mutuamente ortogonali, e quindi gli 'LZ'=1 nk = n autovettori in
essi contenuti sono ortonormali. Per dimostrare il resto del teorema
bastera utilizzare i risultati del teorema 4.3, adattandoli al caso di
autovettori ortonormali. In particolare, la matrice di trasformazione
[4.69] diventa unitaria e si riduce all'espressione [4.132], i proiettori
[4.69] diventano ortogonali e si riducono aIle espressioni [4.130].
Di particolare irnportanza in Meccanica analitica e, soprattutto, in
Meccanica quantistica, e il seguente risultato: CNES affinche gli 0-
pemtori hermitiani A e B posseggano n autovettori ortonormali co-
muni (e quindi siano diagonalizzabili attmverso la stessa trasforma-
zione 1mitaria U), e che essi commutino.
Dimostmzione. La dimostrazione delIa necessita e immediata: si as-
sume che AQ(j) = Aj'Q(j) e BQ(j) = I1j'Jij), j = 1, ... , n; inoltre
ogni ;r EVe espresso come ;r = I:~=lCkQ(k). Quindi AB;r =
I:~=lCkl1kAkQ(v) = BA;r. Si noti che questo risultato vale per ogni
coppia di operatori che hanno un sistema completo di autovettori in
comune. Se, viceversa, assumiamo che [A, B] = 0, allora A e B hanno
almeno un autovettore v in comune. Sia L la varieta lineare ad esso
associata e L1- il suo complemento ortogonale di dimensione n - l.
Allora sia Ache B sono invarianti rispetto ad L1-, e Ie 101'0 restrizioni
su L1- sono operatori hermitiani in L1- che commutano. Esse hanno
quindi un vettore di L1- in comune, ortogonale al precedente; e cosl
via, fino alI'esaurimento dello spazio.
Operatori hermitiani possiedono una base ortonormale di autovet-
tori, la forma spettrale [4.72] e sono diagonalizzabili con una trasfor-
mazione unitaria. Vedremo ora che queste importanti proprieta sono
condivise da una classe piu ampia di operatori, ed un semplice argo-
mento che permette di individuarli e il seguente. Se si vuole che un
operatore N sia decomponibile, secondo la [4.72]' in proiettori ortogo-
nali (e quindi hermitiani), allora N deve necessariamente commutare
col suo aggiunto:

Un operatore N che gode della proprieta [4.134] e detto "normale"; si


noti che operatori hermitiani ed unitari sono due esernpi significativi di
operatori normali. Vale il seguente annunciato teorema per operatori
normali.
Teorema 4.7. CNES affinche un opemtore possegga n autovettori or-
togonali e che sia normale.

Dimostrazione. Sia N = B + iD, B = 1/2(N + N+) e D = 1/2i(N -


N+) la rappresentazione cartesiana dell'operatore N; essendo N nor-
male, gli operatori hermitiani BeD commutano: [N, N+] = [B +
iD, B - iD] = i[D, B] = O. Essi hanno quindi 10 stesso sistema
di autovettori ortonormali, che sono quindi anche gli autovettori di
N. Se, viceversa, N possiede n autovettori ortonormali: NQ(j) =
AjQ(j), (Q(j), Q(k)) = Ojk, j, k = 1, ... , n vogliamo dimostrare ch.e
N+ possiede gli stessi autovettori, e quindi commuta con N. Infattl,
V;r E V,;r = I:~=l(Q(k),;r)Q(k); quindi (N+Q(J),;r) = (Q(j),N;r) =
Aj(Q(j),;r) =? ((N+ - '\jl)Q(j),;r) = 0 V;r E V=? N+Q(J) = AjQ(1).
II teorema spettrale 4.6, precedentemente dimostrato per operatori
hermitiani, vale quindi, piu in generale, per operatori normali, con
l'ovvia avvertenza di eliminare la caratterizzazione di realta degli auto-
valori (cioe il punto i del teorema). Se un' opportuna caratterizzazione
degli autovalori e invece data, essa fissa in modo significativo il carat-
tere del corrispondente operatore normale. Vale, a questo proposito,
il seguente risultato. Un operatore normale su V e hermitiano, posi-
tivo, strettamente positivo, unitario, invertibile, idempotente se e solo
se i suoi autovalori sono, rispettivamente, reali, positivi, strettamente
positivi, di modulo 1, diversi da 0, uguali a 0 e 1.

Tra Ie matrici 2 x 2, sono molto usate in fisica Ie cosiddette matrici di


Pauli (Ji, (i = 1, 2, 3) che, nella base naturale, hanno la seguente forma
esplicita:

Esse hanno traccia nulla e sono non-singolari (det (J i = -1); sono i-


noltre hermitiane. E facile verificare con calcolo esplicito che godono
delle proprieta riassunte dalla seguente formula:
3

(Jj(Jk = DjkI + i 2.:= I tjkWI


1

dove I e la mat rice identita e con tjkl si e indicato il simbolo comple-


tamente antisimmetrico di Levi-Civita:

Essendo Ie (Ji hermitiane, la [4.135] mostra chiaramente che esse sono


anche unitarie. Dalla [4.135] si ottiene poi facilmente che:

[(Jj, (JkJ = 2i 2.:= I tjkWI


1

{ (Jj, (Jd = 2DikI

Gli autovalori delle matrici di Pauli sono evidentemente (per la traccia


nulla e il determinante uguale a-I) ±1.
Ogni matrice A(2 x 2) si puo scrivere nella forma di Pauli:
~ ( ) ;+ = ((J (J2 (J3). Si osservi che se A e hermitiana,
dove a = a1,a2,a3 , v 1"
a
allora ao, sono reali.
E facile verificare, con l'aiuto della [4.135], che
1
ao = -tr(A)
2
1
aj = "2tr((JjA)
, h I (J (J (J3 formano chiaramente una base ortogonale di ma-
COSIc e , 1, 2, h d tt scalare
trici (dr. [4.100]) in uno spazio matriciale che a come pro 0 0
di A e B il numero (lj2)Tr(AB). .
r< 11 B - b I + ~b . (j si otterra la seguente formula per 11
:::>ea ora - 0 '

prodotto:
AB = (aobo + a· b)I + [aob + boa + i(a 1\ b)] . (j
dove 1\ indica l'usuale prodotto vettoriale tra due vet~ori in 3.dimen-
sioni. Poiche il commutatore di A e B e ~ato dall'umco termme non
simmetrico dell a formula del prodotto, cioe

[A, B] = 2i(a 1\ b) . (j
. . , d' d atrici A e B si traduce in
la condizione di commutatlvlta 1 ue m . ~ ~ ~ ~ Vk
una condizione di parallelismo dei relativi vetton a, b : a = kb, ~
[A,B] =0.

4.2.9. Rappresentazione polare di una matrice

U
sa talvolta una decomposizione delle matrici in due fattori che
Si . 1" "modulo" e
e l'analogo delIa fattorizzazione dei numer.I comp eSSIm
"fattore di fase" (efr. par. 1.1.1). Pili precIsamente:

A=HU
dove H e una matrice hermitiana e U e una matrice unitaria. La rap~
. . t . e H e U non commutano,
presentazione non e necessanamen e umca, s
una forma equivalente e:

A=VH'
' 't' PoicM, per l'unitarieta
dove, ancora, H' e hermitiana e V e um ana.
di U eVe per la hermiticita di H e H':
VH'U+ = H = (VH'U+)+ = UH'V+
segue che possiamo scegliere V = U. A questo punto 8 facile deter-
minare H e H':

e sceglieremo per H e H', nelle loro forme diagonali, Ie determinazioni


positive delle radici degli autovalori di AA + e A +A, rispettivamente.
Risulta cosl evidente che, se A e A + commutano (A 8, Ci08, una
matrice normale e soddisfa la [4.134]' [A, A +] = 0), allora H e H'
coincidono.
Determinate cosl H e H', se A 8 non-singolare e facile determinare
U:

Se pero il det A = 0 (e percio det H = det H' = 0), la determinazione


di U resta in parte arbitraria, come era da aspettarsi in analogia
all'indeterminazione dell'argomento nell'origine del piano complesso.

La noz10ne di funzione di una matrice, che si generalizza facilmente


a quella di funzione di un operatore lineare, e molto importante nelle
applicazioni fisiche. Essa 8 abbastanza semplice da usare. Intanto,
supponiamo di partire da una funzione di variabile complessa, f(z),
sviluppabile in serie di Taylor:

f(z) = L n a"zn, Izi < R


o

Poiche Ie potenze di una matrice A (n x n) sono ben definite dall'opera-


zione elementare di prodotto di due matrici, la nuova matrice costruita
come combinazione lineare di potenze di A:

00

f(A) = L n anA"
o

richiede soltanto un'estensione delIa nozione di convergenza al caso


delle serie di matrici (di potenze di una matrice, in particolare). Sup-
poniamo che
Segue, allora, che se k < R si puo parlare di convergenza di f(A) in
tutto 10 spazio di vettori ;r perche

If(Ahl ::; Lo n lanl IA";r1 ::;L lanlknl;rl


' 0
n

Se k > R, si puo sempre trovare un sottospazio V tale che questa


diseguaglianza sia soddisfatta '1;r E V; in quel caso si dira che la serie
[4.136] converge in V, e si porra un problema analogo a quello del pro-
lungamento analitico al di fuori dello spazio originario di definizione
(V, in questo caso). Se A e diagonalizzabile e ha n autovalori Ai,
(i = 1,2, ... , n), allara il problema 8 esattamente quello del prolunga-
mento analitico di f(z), perche, se f(i) 8 l'autovettore associato a Ai,
richiederemo che esista il prolungamento f(Ai) tale che

Sappiamo anche (efr. [4.58]) che esiste il polinomio identicamente


nullo di grado n detto di Cayley-Hamilton che consente di ridurre
ogni potenza > n - 1 di A a una combinazione lineare delle prime
n - 1. Pertanto, ci aspettiamo che ogni funzione di matrice n x n sia
riducibile alIa forma polinomiale
n-l
f(A) = L m fm Am
o
Come si determinano i coefficienti f m? Se 10 spettro di A non 8 de-
genere, il problema e molto semplice, perche, richiedendo che
n-l
f(Ai) = L m fm A'; , i = 1,2, ... , n
o
si dispone esattamente di n equazioni lineari nelle n incognite fm, m =
0,1, ... , n -1. D'altra parte, il determinante dei coefficienti delle inco-
gnite f m - coefficienti che altro non sono che Ie potenze dei diversi
autovalori, per ipotesi tutti distinti - 8 certamente diverso da zero (8
il determinante detto di Van der Monde).
Un esempio molto comune e
quello dell'estensione matriciale della formula
di Euler-De Moivre per i numeri complessi (efr. par. 1.1.1) al caso della
funzione esponenziale di matrici di Pauli. Sia n un versore a tre componenti
reali. La matrice i1,· 5 soddisfa il polinomio di Cayley-Hamilton (n· 5)2 = I
cosl che i suoi autovalori sono +1 e -1. Pertanto, se GO e un parametro (non
necessariamente reale), si avra

e questa e la forma di Pauli della matrice a primo membro che, essendo


di rango 2, si puo sempre ridurre ad essa (dunque, la forma di Pauli segue
anche dall'esistenza del polinomio di Cayley-Hamilton). Dovendo essere, per
la [4.138],

ia
e = fo + h
e-ia = fo -·h
risolvendo per fo, h si otterra la notevole formula (di Euler-De Moivre
generalizzata) :

Appena pili complicato e il caso in cui Asia degenere. Supponiamo


ehe abbia due autovalori uguali, Al = A2. In quel caso, Ie prime due
equazioni del sistema [4.138] che determina i coefficienti 1m vengono
a coincidere e il problema e sottodeterminato. Ma possiamo sempre
richiedere che siano soddisfatte sia la prima equazione (quella per AI)
che quella che si ottiene dalla prima per derivazione rispetto a AI:

Infatti, se immaginiamo che 10 spettro non sia esattamente degenere e che


A2 = A1 + E, con E piccolo a piacere, la differenza tra la seconda e la prima
equazione del sistema dara:

n-1
lim f(A1 + E) - f(A1)
d~1 f(A1) = L m mfmA';'-1
(;~O E
1

Questa procedura e intuitivamente comprensibile: la [4.138] equivale all'ap-


prossimazione mediante un polinomio di grade n - 1 di una funzione f(A)
di cui si conoscano gli n valori f(Ai) in n punti distinti Ai. Be pero due dei
punti coincidono, si puo assegnare il valore nel punto e la tangente in esso
(cioe la derivata).
II procedimento si puo poi ripetere estendendolo a derivate di ordine
pili elevato (2,3, ... ) quando la degenerazione e pili grande (3,4, ...
autovalori uguali).
Inoltre, osserviamo che una matrice unitaria U puo sempre essere
rappresentata nella forma di una funzione esponenziale di una matrice
hermitiana:

dove H e appunto una matrice hermitiana, H = H+. La dimostrazione


e molto semplice e viene lasciata allettore (eventualmente, utilizzare
la rappresentazione per serie delia funzione esponenziale).
Una formula notevole che riguarda in particolare il caso di matrici
diagonalizzabili e la seguente:

det(expA) = det{Texp(A)T-1} = det{exp(TAT-1)} =


= exp{Tr(TAT-1)} = exp(Tr A)

perehe il determinante delia forma diagonale di exp(A) e il prodotto


degli autovalori di exp(A).
Infine, e necessario fare attenzione a non usare Ie ordinarie regole
di composizione di funzioni di variabili numeriehe se Ie matriei che si
adoperano non commutano. Per esempio:

a meno che A e B commutino. Se A e B non commutano, vale una


formula (di Baker, Campbell e Hausdorff) di cui riportiamo qui i primi
termini senza dimostrazione:
4.3
Spazi lineari astratti

L'impostazione che seguiremo nell'esporre gli argomenti di questo para-


grafo sara in linea di mas sima quell a di dot are l'oggetto della no-
stra indagine di strutture progressivamente pili complesse, cercando di
chiarire quaIi nozioni e proprieta possano essere corrispondentemente
introdotte.
Partiremo percio introducendo la nozione di spazio line are astratto,
mostrando come da essa discendano naturalmente i concetti di dip en-
denza e indipendenza lineare e di dimensione. Muniremo successiva-
mente il nostro spazio lineare di una metrica, definendo la "distanza"
tra due elementi dello spazio: questo ci permettera di parlare di insiemi
aperti e chiusi, limitati e non, di definire "convergenza", "densita",
"completezza" ecc.
Specializzando ulteriormente la trattazione, ci chiederemo come si
possa concretamente definire una metrica: mostreremo come uno dei
modi possibili consiste nel definire in modo appropriato la lunghezza
di un elemento dello spazio, introducendo cioe la nozione di "norma".
Infine, noteremo come una "norma" e conseguentemente una "me-
trica" possano essere indotte dal "prodotto scalare" tra due elementi
dello spazio, che generalizza la nozione di "angolo" tra due vettori:
arriveremo COS1agli spazi euclidei astratti e in particolare agli spazi
di Hilbert. Per quanto possibile, non distingueremo tra caso finito
dimensionale (gia trattato al par. 4.2) e infinito-dimensionale, po-
nendo di volta in volta l'accento sulle proprieta per Ie quali il carattere
infinito delle dimensioni gioca un ruolo "critico", I successivi parr.
4.4 e 4.5 saranno dedicati allo studio delle trasformazioni tra spazi
lineari, con particolare riguardo aIle trasformazioni lineari. Comince-
remo con i funzionali lineari, nel cui ambito tratteremo Ie distribuzioni,
e passeremo poi al caso degli operatori lineari propriamente detti, e
privilegeremo 10 studio degli operatori lineari su spazi di Hilbert.
Come abbiamo ricordato al par. 4.2.1, sappiamo dalla geometria e-
lementare che i vettori dello spazio tridimensionale possono essere fra
loro sommati (con la regola del parallelogramma) e moltiplicati per
un numero reale arbitrario. Sappiamo pure, dall'algebra, che se un
sistema di Iv! equazioni algebriche lineari in N incognite ammette due
soluzlOm• •
dlClamO
.•
x I = ('xl,x2,···,x
I
N
')
e 22 I! -- (""X1,x2,"" x")
N' una
, -
loro arbitraria combinazione lineare y = (o:x~ + /3x~, ... , o:x'tv + /3xN
")
e ancora una soluzione. E abbiamo imparato dall'analisi che una pro-
prieta analoga vale per Ie equazioni differenziali lineari omogenee.
I vettori dello spazio tridimensionale, Ie soluzioni di un sistema li-
neare omogeneo 0 di una equazione differenziale lineare omogenea sono
altrettante realizzazioni particolari di spazi lineari. AlIa luce dei prece-
denti esempi e del par. 4.2, e naturale definire in generale uno spazio
lineare, anche detto spazio vettoriale, come un insieme di oggetti (gli
"elementi" 0 i "vettori" dello spazio) su cui sono definite due ope-
razioni una interna, chiamata somma, e una esterna, il prodotto per
un nuu'tero (reale 0 complesso) che godono delle seguenti proprieta:
i) Somma: per ogni coppia di elementi 22, JLEVe definito u~i:oc~mente
un terzo elemento ~ E V, detto somma di 22 e JL, che Sl md1ca con
~ = 22 + Y, l'operazione di somma essendo commutativa (22 + JL =
Y + 22), e associativa (22 + (JL + ~) = (22 + JL) + ~ = 22 + JL + ~).
Esiste inoltre l'elemento neutro, detto Q (zero 0 vettore nullo), tale che
22 + Q = 22 "h E V ed esiste un elemento -22 (1'"opposto" di 22) tale che
22 + (~22) = 22 - 22 = Q.
ii) Fr-odotto per un numero: per ogni 22 EVe per o?ni 0: E ??-( 0 E C),
e definito un elemento 0:22 E V, detto prodotto dl 22 per 11numero
0:. L'operazione di prodotto e: associativa (0:(/322) = /3(0:22) = 0:/322),
distributiva rispetto alla somma dei nv,meri ((0: + /3)22 = 0:22 + /322),
distributiva rispetto alIa somma dei vettori (0:(22 + JL) = 0:22 + o:'!!.), e
tale che 1 . x = x.
Uno spa;io v~ttoriale V si dice reale 0 complesso a seconda che
l'operazione di prodotto sia definita suI campo dei reali 0 dei com-
plessi.

Per gli esempi pili semplici (1'insieme dei numeri reali 0 comples~i:
l'insieme delle n-ple di numeri reali 0 complessi, l'insieme delle matncl
n x n, l'insieme dei polinomi di grade :s: n 1) rimandiamo al par.
4.2.1.
Esempi pili esotici, ma che saranno oggetto import ante d'indagine,
sono dati dalle successioni di numeri reali 0 complessi (la somma di
due successioni essendo definita come la successione i cui clementi
sono la somma degli elementi omologhi delle successioni di partenza),
o dall'insieme delle funzioni (reali 0 complesse) continue di variabile
reale, con Ie definizioni:

(f + g)(t) = f(t) + g(t) t E [a, b]

(aJ)(t) = af(t)
Sempre nell'ambito delle funzioni, altri esempi sono forniti dalle fun-
zioni di modulo (0 di modulo quadrato) integrabile su una linea ecc.

Due spazi lineari VI e V2 si dicono isomorfi se tra loro esiste una


corrispondenza biunivoca compatibile con Ie operazioni di somma e
prodotto definite su di essi (cioe .:f <----> x', y <----> y' implica a.:f +
(3y <----> a.:f' + (3y'). Due spazi lineari tra fOro isomorfi si possono
considerare come realizzazioni diverse dello stesso spazio. Un esempio
classico (efr. par. 4.2.1) di isomorfismo e quello tra nn(o en) e 10
spazio dei polinomi in una indeterminata di grado :s: n - 1 a coeffi-
cienti reali (complessi) (ogni polinomio e in corrispondenza biunivoca
con l'n-pla di numeri costituita dai suoi coefficienti).

D'ora in poi useremo sistematicamente it termine vettore per indicare


un elemento di uno spazio lineare. Come abbiamo visto al par. 4.2.1,
si dice che n vettori .:f(l), .:f(2), ... , .:f(n) sono linearmente dipendenti se
esistono numeri reali (0 complessi) non tutti nulli 001,002, ... , an tali
che (efr. [4.13]):

n
L ai.:f(i) = Q
i=1

Un'espressione del tipo L~=1 ai.:f(i) si dice combinazione lineare dei


vettori .:f(l), ... ,.:f(n). Se la [4.139] e verificata solo per ai = 0, 'Vi, gli
n vettori si diranno linearmente indipendenti: la dipendenza lineare
I' Illia naturale generalizzazione dei concetti geometrici elementari di
""lIiucarita 0 coplanarita di vettori nello spazio a 3 dimensioni.
IhIla definizione di dipendenza e indipendenza lineare segue quella
(I i dirnensione di uno spazio vettoriale. La dimensione di Veil nn··
IIf(T() massimo di vettori linearmente indipendenti esistenti in V. Sc,
1)('1' og;ni numero naturale n, si possono sempre trovare n vettori li-
IIl'anncnte indipendenti, diremo che V ha dimensione infinita. Se V
lia dirnensione n, abbiamo visto al par. 4.2.1 che n vettori linearment(~
illdipcndenti in V costituiscono una base per V, nel senso che ogni
vdLore .:f E V si pua rappresentare come combinazione line are degli
d"lllcllti delIa base.
Nd caso finito dimension ale esiste un criterio generale per deciderc
::,~ k vettori sono linearmente dipendenti, criterio che qui presentiamo.
(:i limitiamo (ovviamente!) a considerare il caso k < n, dove n ()
la dirnensione finita dello spazio. Siano .:f(1) ,.:f(2), ... , .:f(k) i vettori in
'1llcstione, e sia {(I), {(2), ... , {en) una base in V. Potremo scrivere:

n
.;f(i) = L x;{(j)
j=l

(:rj (~ la componente del vettore X(i) secondo il vettore di base {(j)).


Allora:

pcr j = 1, ... , n. Cioe, i k vettori .:f(i) sono linearmente indipendenti


sc c solo se il sistema line are omogeneo di n equazioni nelle k incognite
(Yl,a2,···,ak:

L aixj =0 (j = 1, ... , n)
i=l

ammette solo la soluzione nulla. Cia equivale a richiedere che it rango


(massimo ordine dei minori non tutti nulli) dell a matrice n x k xj (j
in dice di riga, i indice di colonna; ai sono Ie componenti di un vettorc
colonna) Q) sia pari a k: in particolare, se k e uguale a n, la condizioIW
per l'indipendenza lineare e che il determinante della matrice quadrata
xj (detto determinante di Gram), sia diverso da zero. Lasciamo al
lettore la dimostrazione che l'indipendenza lineare di k vettori e una
proprieta geometrica intrinseca, indipendente cioe dalla scelta della
base.
Per Ie nozioni di varieta lineare, spazio quoziente e classe di equi-
valenza si rimanda al par. 4.2.1.

Siamo abituati a riguardare 10 spazio ordinario tridimensionale come


uno spazio metrico, in cui cioe sia definita la distanza tra due punti,
che scriviamo:

adottando la cosiddetta metrica euclidea. Se immaginiamo pero ad


esempio che il nostro spazio ambiente sia una superficie sferica, ve-
diamo subito che esso non costituisce uno spazio vettoriale (la relazione
xZ+yz+zz = RZ e un'equazione algebrica non lineare e non omogenea):
cia nonostante e chiaro che possiamo definire la (minima) distanza tra
due punti delIa superficie sferica prendendo la lunghezza dell'arco delIa
circonferenza massima passante per entrambi. Abbiamo un esempio
di spazio metrico che non e uno spazio vettoriale. Un altro esempio
ban ale e costituito da un insieme di punti isolati (aI, ... , an, ... ) sulla
retta: esso non e ovviamente uno spazio vettoriale, ma possiamo ben
definire la distanza tra due di essi come d(ai,aj) = lai - ajl.
Nel seguito tuttavia ci limiteremo a considerare spazi metrici che
siano anche spazi lineari, e per brevita li chiameremo semplicemente
spazi metrici.
Uno spazio vettoriale V e anche uno spazio met rico M se per ogni
coppia ;r, Y EVe definita una distanza, cioe una funzione d(;r, y)
V x V -> n, che gode delle seguenti proprieta: -
i) positivita: d(;r, y) ?: 0, d(;r, y) = 0 B ;r = y;
ii) simmetria: d(£ y) = d(y,;r~ -
iii) diseguaglianza triangoGre: d(;r,~) S; d(;r, JI) + d('}L,~).

a) la retta numeric a R1 con d(x, y) = Ix - yl;


b) 10 spazio vettoriale Rn con una qualsiasi delle distanze d1' (;r, y)
(I:~=1 IXk -Yk 11')1/1'(p> 0) e l'analogo complesso cn; i corrispondenti
spazi metrici saranno da noi nel seguito indicati con R~ 0 C;;;
c) ancora Rn con la distanza dCXJ = maxl<k<n IXk - Ykl, detto R~;
dJ tra gli esempi oo-dimensionali, 10 spazio delle successioni convcrgcnLi
di numeri reali (0 complessi) l1" con d1'(;r,'!!) = IXk - Ykl1')'/J> (' (I:%:l
10 spazio delle successioni limitate loo con

c) esempi oo-dimensionali sono ancora forniti da qa,b], 10 spazio (kll('


fnnzioni continue suI segmento, con doo(J,g) = maxtE[a,b]If(t) - !l(tll;
da Cz(a, b), spazio delle funzioni continue con la distanza dz(x, y)
U;:' dtlf(t) - g(t)IZ)l/Z; dagli spazi L1'[a, b] delle funzioni f(t) tali e1H'
risulti J: dtlf(t)I1' < 00 (l'integrale essendo inteso come integral(, di
Lebesgue), con d1'(J,g) = (1: dtlf(t) - g(t)IP)l/1'. Particolare irnpor
Lanza per Ie applicazioni fisiche ha 10 spazio Lz delle funzioni di mod III()
<Juadrato integrabile.

Per provare che gli spazi 11' sono spazi metrici, occorre most rare che la .Ii
sl.anza d1' sopra introdotta:
00 1

d1'(:f, Ji) = (2:: IXk - Ykl1') P


k=l
soddisfa la diseguaglianza triangolare, detta in questo caso diseguag1ianza tli
Minkowski, che riscriviamo nella forma

2::
00 00 100 1
1 1
IXkYkl ::; (2:: IXkl 1'
) P (2:: IYkl q
) q; -+-=1
p q
k=l k=l k=l
Osserviamo che, per t :::::0, la funzione J(t) = to. (a < 1) si trova sempre al
di sotto della sua tangente in t = 1, di equazione g( t) = at + 1 - a (fig. 4.6).

Ponendo t = ~/ri, la proprieta J(t) ::::get) diventa:


~o. :::: a~170.-1 + (1 - a)17o.

L ~k 17~-0.::::a L ~k + (1 - a) L 17k

k=J k k

In virtll delIa omogeneita delIa relazione da dimostrare, possiamo limitarci


a consider are il caso in cui

(X)

L ~kr)~-o. ::::Dc + 1 -- a = 1
k=l

che e esattamente la diseguaglianza di Holder nel nostro caso. Siamo ora


pronti per dimostrare la diseguaglianza di Minkowski. Si ha:

2:: IXk + YklP :::: 2::(IXkl + IYklY =


k k

= L IXkl(!Xkl + IYkl)P-J + IYkl(lxkl + IYkly-l


k
1 1

2:: IXkllxk + YkIP-1 :::: (2:: IXkIP) p (2:: IXk + Yklq(P-l»);;


k k k

1 1 1

(2::(I Xkl + IYkW)" :::: (2:: IXkIP)" + (2:: IYkIP)"


k k k
chp ovviamente implica la [4.145].

La llozione di distanza, caratteristica degli spazi metrici, da una bas,·


quantitativa all'idea di vicinanza tra due elementi dello spazio: UII\)
spa:;;io line are met rico e in effetti un esempio di spazio lineare to]!O
IO.IJico.
Sia /1.4 il nostro spazio metrico. Chiameremo sfera aperta di raggi\)
f' p centro ;[0 l'insieme dei punti ;[ E M tali che d(;[, ;[0) < r. La sf<>ra

chilwa di raggio r e centro ;[0 sara invece definita dalla diseguaglian:;;a


d(:c,;[o) S; r.
Un insieme S contenuto in M si dira limitato se e interamente COil
t,PlllltOin qualche sfera. Un insieme S contenuto in uno spazio )!I('
t,rico M si dira totalmente limitato se ad esso si puo associare 1111 (
rdicolo finito, cioe un insieme finito di punti X = {;[l"",;[N} tal,·
"h", V ;[ E S, si abbia d(;[';[j) < E per qualche ;[j EX. E immediat\)
III\)strare che un insieme totalmente limitato e limitato. In effetti, Sf'
iudichiamo con R la massima distanza dei punti di X dall'origine:

R = . max d(;[j,Q)
J=l, ... ,N

P <)Ilindi S e contenuto nella sfera di raggio R + E. Nel par. 4.rJ.!;


vpdremo pero un esempio di insieme limitato di uno spazio liw,;LJ'('
IIldrico oo-dimensionale che non e totalmente limitato.
Chiameremo f-intorno di un punto ;ro la sfera aperta di raggio f e
centro ;roo Sia M' e M un sottoinsieme di M; ;ro EM e aderente a M'
(0 di aderenza per M') se in ogni f-intorno di ;fa cadono punti di M';
chiaramente, tutti i punti di M' sono di aderenza per M'; l'insieme
di tutti i punti di aderenza di M' e detto chiusura di M' e si indica
con M' (0 con [M'D. Un punto ;ro E Me di accumulazione per M',
o e un punto limite di M', se in ogni f-intorno di esso cadono infiniti
punti di M'. E evidente che un punto di accumulazione e anche punto
di aderenza, ma non e vero il contrario: se M' ha punti isolati, questi
sono di aderenza ma non di accumulazione. Ovviamente, se M' e una
varieta lineare di M, esso non puo avere punti isolati, e quindi per esso
la nozione di punto di aderenza e di accumulazione coincidono. La
chiusura M' di un insieme si puo ottenere anche considerando l'unione
dei punti di M' e dei suoi punti di accumulazione.
Generalizzando la definizione di sfera aperta e chiusa a un qualunque
sottoinsieme di M, diremo che M' eM e chiuso se M' = M', cioe
se esso contiene tutti i suoi punti di aderenza (0 di accumulazione).
Lo diremo invece insieme aperto, 0 semplicemente aperto, se V;r EM',
esiste un f-intorno di;r interamente contenuto in M'.
In uno spazio lineare metrico, particolare importanza hanno Ie sue
varietd lineari chiuse: esse prendono il nome di sottospazi lineari. In
particolare, la chiusura dell'inviluppo lineare di n vettori (compren-
dente anche il caso n = (0) viene detta sottospazio generato dagli n
vettori.
Siamo a questo punto in grado di definire cosa si intende per limite
di una successione di vettori di uno spazio lineare metrico: data una
successione ;r(n), essa converge a un elemento ;r E M, detto il limite
delIa successione, se risulta:

lirn d(;r(n),;r)
n-+oo
= °
Le definizioni di punto di aderenza e punto di accumulazione si possono
allora riformulare, dicendo che ;r e di aderenza per M' e M se e solo
se esiste una successione di elementi di M' convergente a ;r, e che ;r e
di accumulazione per M' se e solo se esiste una successione di elementi
a due a due distinti convergenti a ;r.
Di notevole importanza per Ie applicazioni e il concetto di sottoin-
sieme denso di uno spazio metrico: spesso infatti basta dimostrare
che una proprieta vale in un sottoinsieme denso di M per essere certi
della sua validita su tutto M. Un sottoinsieme M' e denso su M se
M' ::2 M 0, in altre parole, se ogni punta di M e di aderenza per M'.
Cosl l'insieme dei razionali e den so sui reali, l'insieme dei vettori a
,'oillponenti razionali in Rn e denso su R;, l'insieme delle S\lcc(~ssiOlli
.Ii lIurneri razionali aventi soltanto un numero finito di tennilli 11011
1IIIIlitodenso su lp e, come mostra un importante teorema dovuto a 1\.
Wpicrstrass:

'f('()7"cma 4.8. L'insieme dei polinomi a coefficienti razionali (; r!1"I/SO


SII Cla,b] nella metrica doo(j,g) = rnaXtcla,b] If(t) - g(t)l·

~;i puo anche mostrare che 10 spazio delle funzioni continue (~d(~w:',
::11L2[a,bj (nella metrica d2(j,g) =U: dtlf(t) - g(t)12)1/2 C da ci,.
:,i dcduce facilmente che 10 spazio dei polinorni e denso su L2111" "I
(lldia stessa metrica). Spazi come R;, lp, Cla,b], L2[a, b] che ammct.t.ollo
varida lineari numerabili ovunque dense si dicono separabili: in flltlilo
,.j occuperemo unicamente di spazi metrici separabili.

Se si e sentita la necessita di qualificare con un attributo sp(ocili""


(scparabile) gli spazi metrici che posseggono sottoinsiemi densi 1111 III(,
la,hili, e chiaro che debbono esistere spazi metrici che non godollo .Ii
qllPsta proprieta: un esempio e fornito dallo spazio K delle succcssioili
limitate con la metrica doo = sUPk IXk - Ykl. Esso contiene infal.li,
ill particolare, l'insieme K' delle successioni i cui elementi sono () ()
I: questo insieme ha la potenza del continuo e la distanza tra .I11('
"I,'menti qualsiasi di esso e pari a 1; possiamo quindi sempre troval"
1111 f-intorno di un elemento, in cui non ne siano contenuti altri. lVIa
ill ogni tale f-intorno deve cadere almeno un elemento di K, che d(~v,'
;were percio la potenza del continuo.
La separabilita non e dunque una pro prieta condivisa da tutti )·;Ii
spazi metrici; 10 stesso puo dirsi per la completezza. Nello spazio U;:
(0 C;n, il criteria di Cauchy per la convergenza delle successioni 1111
Illcriche funziona ancora: ma Ie cose cambiano nel caso degli spazi
a illfinite dimensioni. Per chiarire questo punto, diamo la seguclIL,'
dcfinizione,
Una successione di elementi di uno spazio metrico e detta fondo:ml"l1
!.ale 0 di Cauchy se, per ogni f > 0, esiste un intero positivo N( !.all'
che n, m > Nc implica d(;r(n), ;r(m)) < f. Segue dalla diseguagli;ulza
triangolare che, se una successione di elementi di uno spazio metrico ;,
('ollvergente (a un elemento dello spazio!), essa e necessariamente 1111<1
slH:cessione di Cauchy: esistono pero spazi metrici in cui successioni .Ii
(~a\lchy non convergono (a un elemento dello spazio!). Uno spazio III<'
trico in cui ogni successione di Cauchy e convergente si dice compldo.
Lo spazio R;, 10 spazio lp, 10 spazio Cla,b] e 10 spazio L2[a, b] (CO::'I
corne anche gli spazi Lp[a,b]) sono spazi metrici completi. Mostrialll()
la completezza di 12 e di qa,b]'
00

L Ixi n
) - xim) 12 < (2 per n, m > Nc
1=1

Cio implica evidentemente che Ie successioni numeriche xim) (l om


denota una cena successione, m il termine corrispondente) sono di
Cauchy \I l. Sia quindi

, (rn)
Xl = rn->oo
I1m Xl

Dobbiamo ora far vedere che la successione X = {Xl}~l E l2 ed e il


limite delle successioni ;f(n) , -
La condizione di Cauchy implica ovviamente:

L Ixi n
) - xfm)12 < (2 per n, m > Nc
1=1

L Ixfn) - xl12 ~ (2 per n > Nc


1=1

00

L Ixfn) - xl12 < (2 per n > Nc


1=1

lim d(;f(n),;f) = 0
n->oo

Cioe ;f e il limite della successione z:(n) , D'altra parte ;f E l2; infatti,


ponendo

Xl = Xl(n)- ((n)
Xl - Xl )

IXl12= Ixfn) 12+ Ixi


n
) - xl12 - 2Re[xfn) (Xl - Xl)] ~
~ Ixfm)12+ Ixfm) - xl12 + 2lxfn)1 Ixl- XII
00 00 00

L I l1X
2
~ 2 L Ixfn)12 + 2 L: Ixfn) - xzl2 < 00
1=1 1=1 1=1

cioe;f E l2'
In modo concettualmente analogo si mostra la completezza di q",1'I:
dal fatto che una successione di funzioni f(k)(t) E Cra,b] e di Callcll.Y,
:-;q;ue, \It E [a, b], la convergenza della successione numerica f(k) (i);
la continuita di f(t) segue dalla convergenza uniforme delle funJliolii
continue f(k)(t):

If(n)(t) - JCml(t) I < ( =} If(n)(t) - f(t)1 ~ (=}

=} sup If(n)(t) - f(t)1 ~ (


tE[a,b]

s(~vogliamo rimanere nello spazio delle funzioni continue ma vogliallio


c:llnbiare metrica, possiamo imbatterci in spazi non completi: e (l1w:-:I.o
iI caso dello spazio delle funzioni continue su un segmento, COli 1:1
Ilid-rica d2(a, b) = U:
dtlf(t) - g(t)12)1/2,
!"( lrnito dalla successione di funzioni:
Il controesempio classico j.

-1 ~ t ~ -l/n
-l/n ~ t ~ l/n
l/n ~ t ~ 1

"'Il' :-:ipuo mostrare essere una successione di Cauchy (nella IlIdri


(':1 112!) e converge chiaramente aHa funzione, discontinua in t (I,
!(I.)={-l t<O,
, 1 t >0
N('gli spazi lineari, abbiamo introdotto il concetto di base, QIH,:-:I"
('OllccttO si estende abbastanza naturalmente al caso di uno sprLZ'l1l It
l/.( '{/,'I'e metrico: un insieme di vettori (eventualmente infinito) di 1111"
p:Izio line are metrico costituisce una base (si dice anche dw (\ 1111
,'o'
i II:-;i( 'IIICcompleto) se il sottospazio da esso generato coincide con l'illl(:ro
,'o'paJlio, In altre parole, se bgni vettore ;f puo essere rapprescnlal,l)
"Ialilo bene quanta si vuole" da una combinazione line are di elcllwllii
dell'insieme; con un linguaggio pili formale, se {r.(k)}k=l e una base
per M, \/;£ E M deve esistere una successione:

n
;£(n) = I: O!kr.(k)
k=l

Hm d(;£(n),;£) =0
n-+oo

I . L"·mSJeme {~(k)}= k=l con ei(k) -


-
~
Uik
-
-
{I0 k=l,
k # i e una bid
ase per 2, aI
momento che V:[. = (Xl, X2, ... , Xk, ... ) la successione:

:[.(n) = I: Xk~(k)
k=l

converge ad :[. in 12.


II. L'insieme di monomi:

e una base per Cra,b], grazie al gia citato teorema di Weiestrass, ed e quindi
anche una base per £2[a, b].
III. La base di Fourier: {1,cosmt,sinmt} (m = 1, ... ,00) una base per e
10 spazio delle funzioni continue in [-Jr,Jr] tali che f(Jr) = f(-Jr). Infatti,
una funzione continua di due variabili reali, X e y, grazie a una estensione
bi-dimensionale del teorema di Weierstrass, sara il limite uniforme di una
successione di polinomi nelle variabili X ed y:

N M

9 (x,y ) = I.
N~~~ '" '" kl (N,M)
L.JL.Ja Xk yI
I'd_OCl k=O l=O

N M

g(x, y) -+ g(r, 0) = Ji:nco I: I: a~f,J\1)rk+l(sin O)k(cos tI)1


M~·= k=O 1=0

e
Per ogni r fissato, la funzione g(r, tI) una funzione periodica (di periodo
2Jr) dell a variabile 0, e la formula precedente, riconducendo (sin tI)k, (cos tI)1
a seni e coseni di angoli multipli di e,
ci dice allora che una funzione continua
in [-Jr, Jr] tale che f(rr) = f( -Jr), si puo scrivere come limite uniforme di una
'''H:cessione di "polinomi trigonometrici", cioe di una combinazionc 1 ill<':l.1I ,
,Ii dementi della base di Fourier,
IV, La base di Fourier e anche una base per £2[-"-,,,-); infatti, ricor,I;l.Il<lo
dlC 10 spazio delle funzioni continue e denso su £2[-"-,,,-) (nella metrica 11./'),
hastera mostrare che ogni funzione continua puo essere considerata COliI<'il
limite, nella metric a di £2, di una successione di funzioni continue f(n)(I)
t.ali che f(n)(Jr) = f(n)( -Jr); una tale successione si puo facilmente cost.I'llill',
scegliendo ad esempio Ie funzioni j<n)(t) che coincidono con f(t) pCI' I I
[Jr(1 - I/n), Jr(1 - I/n)] e variano linearmente nei rimanenti intel'valli III
Illodo da assumere 10 stesso valore in -Jr e Jr (fig. 4.7).
Si ha allora:

d~(j, fn) = j-,,-(l-;l-) If - f(n)12dt + 1"- [f - f(n)12dt:s:


-7t 7'r(1-~)

:s: max If - /n) 1


2. 2Jr n=:;c;o+ 0
tE[-"-,,,-) n

Un teorema import ante valido negli spazi metrici completi, clw al>
lJiamo avuto occasione di utilizzare nel par. 2,2 nel corso della <Ii
lllostrazione del teorema di Cauchy, il cosiddetto e
Teorema delle sjiT"
chiuse "incapsulate" ("nested" in inglese, "emboitees" in franc(~s('),
Esso afferma che:

Teorema 4.9. CNES affinche M sia uno spazio metrico completo i: ('!I"
ogni successione Bn di sfere chiuse incapsulate il cui raggio tend,' II
zero abbia una intersezione non vuota.

Una dimostrazione completa esula dagli scopi di questo libro; a<:('(,"


niamo schematicamente alla dimostrazione della necessita dell a COli
dizione, osservando che, nelle ipotesi del teorema, la successione :r(lI)
dei centri delle sfere e una successione di Cauchy (d(::r.(n),;r.(m)) < 2rn
per m > n) e quindi converge a un limite ::r. per la completezza di M:
;r. e senz'altro aderente a ognuna delle sfere Bn e quindi appartiene a
ognuna di esse in quanto Ie sfere sono chiuse.
Ha interesse consider are trasformazioni (applicazioni, "mapping")
tra spazi metrici, 0 tra sottoinsiemi di uno stesso spazio metrico.
Tra queste trasformazioni, particolare importanza rivestono Ie trasfor-
mazioni continue.
Siano M e M' due spazi metrici, muniti rispettivamente delle di-
stanze d e d' e sia A una trasformazione da M a !VI'; indichiamo
con ;r., y due elementi qualunque di M, e con ::r.' e y' i loro trasformati
secondo A. Diremo che A e continlLa se manda "punti vicini" in "punti
vicini" , cioe se VI'. > 038< tale che d(;r., y) < 8< implica d' (;r.', y') < E.
Essa quindi manda successioni convergenti in successioni convergenti, e
si puo "scambiare" l'operazione di passaggio allimite con l'applicazione
di A:

(Sia infatti ;r. = lim ::r.(n) e sia ;r.' = A;r.; poiche d(;r., x(n)) r;;:=;oo" 0,
risulta d' (::r.', ;r.'(n)) r;;:=;oo" 0). Se la trasformazione continua A e in-
vertibile (cioe se stabilisee una corrispondenza biunivoca tra M eM')
e la sua inversa A-I e anch'essa continua, essa prende il nome di omeo-
morfismo; Ie isometrie (cfr. anehe par. 4.2) sono quei particolari omeo-
morfismi che preservano la distanza (d(;r., y) = d(;r.', y') V ;r., y E M).
Le rotazioni nell'ordinario spazio euclideo tridimensionale sono un e-
sempio di isometrie.
Un'altra classe import ante di trasformazioni continue sono le cosid-
dette contrazioni: A e una contrazione se, can Ie solite notazioni,
risulta d'(x',y') :::; ad(x,y) 0 < a < 1. Vale il seguente importante
teorema, sulle cui applicazioni torneremo nel seguito (par. 4.5.6).

Teorema 4.10. (Teorema delle contrazioni). Be Me uno spazio metrico


completo e A e lLna contrazione da M in se stesso, A ammette lLno e
lLn solo plLnto fisso ;r., dato da:

;r. = lim An;r.(O) V;r.(O) E M


n--+(X)

Con An, abbiamo indicato l'applicazione iterata n volte dell' "operato-


re" A.
La dimostrazione e semplice: sia ;r.(0) un elemento arbitrario di M,
e ;r.(l) il suo trasformato secondo A. Iteriamo l'applicazione di A,
ottenendo successivamente ;r.(2) = A;r.(1) = A (2) ::r.(0), , :fen)
A;r.(n-1) = ... = A n;r.(O). La successione ;r.(n) e una successio!w .Ii
Cauchy. Infatti (ponendo m > n):
i)

+ d(;r.(m-n);;r.(m-n)) :::;

:::;(1 + a + ... + am-n-1)d(;r.(0),;r.(l))


e quindi:
iii)

Poiche M e completo, la successione ;r.(n) converge a un elemento .Ii


M:

lim ;r.(n) = ;r.


n-tOO

L'utilita del teorema delle contrazioni consiste non solo nel garan
tire l'unicita della soluzione di un'equazione (anche non lineare!) <1,,1
tipo ;r. = A;r., ma anche nel fornire un procedimento costruttivo (il
metodo delle approssimazioni successive) per determinarla. Si !Iot.i
che il metodo puo applicarsi anche ad equazioni del tipo:

nel caso in cui la metrica sia invariante per traslazioni (come in t.IJUi
gli esempi espliciti fin qui considerati), cioe tale che:
d(.;£(l)',.;£(2)1) = d(lL + A.;£(l),lL + A.;£(2»)=
= d(A.;£(1), A.;£(2»):::;ad(x(l), x(2»)

che e quanto basta a garantire l'unicita della soluzione dell'equazione


[4.157].

Tutti gli esempi espliciti di spazi metrici che abbiamo sin qui consi-
derato sono altrettanti esempi di spazi normati, cioe di spazi lineari in
cui la metric a e indotta da una nozione primitiva, quella di lunghezza 0
norma di un vettore. Tecnicamente, uno spazio lineare V e uno spazio
normato se su di esso e definito un funzionale (cioe un'applicazione da
V in R) che indicheremo con II . II, tale che:

Il numero reale positivo 11.;£11si chiama appunto norma 0 lunghezza 0


anche modulo del vettore.;£. Lasciamo allettore la dimostrazione (im-
mediata) del fatto che uno spazio normato e uno spazio lineare metrico
munito della distanza d(.;£, y) = 11.;£- yll. Notiamo esplicitamente che
una norma induce una metrica invariante per traslazioni.

Esempi:
I. Lo spazio metrico R~ e uno spazio normato, con 11:fllp = (L~=l IXkIP)l/p.
II. Lo spazio delle successioni lp e uno spazio normato con

III. Lo spazio Cra.b] e normato con 1111100 = maXtE[a.b]l/(t)l.


IV. Lo spazio L2(a,b) e normato con 11/112 = U:
I/(tW)1/2.
Uno spazio normato completo si dice spazio di Banach. Esistono anche
spazi lineari metrici in cui la distanza non e indotta da una norma: una
classe, in cui ci imbatteremo quando parleremo delle distribuziolli, ,.
costituita dagli spazi "numerabilmente" normati, in cui la mdrica (.
indotta da una successione di nor me a due a due compatibili.
Due norme si dicono compatibili se illimite di una successio]w cllI'
sia di Cauchy rispetto a entrambe e 10 stesso (se esiste) in cntr:u 111)('
Ie norme. Esempi di spazi numerabilmente normati: sono 10 spa~,i"
delle funzioni indefinitamente derivabili suI segmento la, b], in alclilli
testi indicato con K[a,b], e 10 spazio S delle funzioni di Schwarz, ill
definitamente derivabili sulla retta R, che si annullano all'infinit,o piil
rapidamente di ogni potenza insieme a tutte Ie loro derivate. I',~r I"
spazio K[a,b] una successione di norme compatibili e data da:

Uno spazio numerabilmente normato diventa uno spazio metrico d,'


finendo ad esempio la distanza:

d (x )- ~ ~ 11.;£-lLlln a> 1
a -, lL - ~ an 1+ 11.;£ - lLlln

Uno spazio numerabilmente normato e completo prende il nome d i


spazio di Frechet.

Per la fisica, gli esempi di spazi lineari metrici di pili frequent" llii
lizzazione sono quelli in cui la metrica e, come si dice, "indotta" ,I:d
prodotto scalare: essi vengono chiamati spazi euclidei e sono Ilna /',<'
neralizzazione dell'ordinario spazio euclideo tridimensionale, in cui j.
definito l'angolo tra due vettori.
Per completezza, richiamiamo alcune definizioni e proprieta fonda
mentali introdotte nel par. 4.2.6. Ricordiamo che uno spazio liJwail'
V, che supponiamo per maggiore generalita complesso, e uno spa~,i"
euclideo E se ad ogni coppia di vettori.;£, y EVe associato un IIlllIl<'r<)
complesso, che indicheremo di solito con (i, JL) e chiameremo pro<!oU"
scalare di .:f e y, che gode delle seguenti proprieta (cfr. ancora par.
4.2.6): --
1. (.:f, y) = (y, ;r;)
2. (.:f, >,y) = ).(.:f, y) VA E C
3. (;12, Y -=+- K) = (£y) + (x, z)
4. (;12, i) ?: 0; (.:f, i) = 0 -¢=? .:f = 0
Un'applicazione ("mapping") dal prodotto cartesiano V x V in C che
goda delle proprieta 1-3 e detta applicazione sesquilineare ("sesquili-
near mapping"); uno spazio lineare munito di un "sesquilinear map-
ping" che non soddisfi la proprieta di positivita 4 si dice anche pseudo--
euclideo. L'esempio pili familiare e quello dello spazio di Minkowski, 10
spazio vettoriale delle 4-ple di numeri reali col prodotto pseudoscalare
3
(.:f,y) = xoYo - I:i=J XiYi·
I~ uno spazio euclideo la distanza tra due vettori e data da d(;12, y) =
11.:f- yll (invariante per traslazioni), dove la norma 0 lunghezza 11;1211
del vettore .:f e definita come:

Dalle proprieta del prodotto scalare segue immediatamente 2: 0


11;[11
(= 0 ¢?.:f = Q) e 110:;[11
= 10:111.:f11.
Per dimostrare, in tutta la generalita,
la proprieta [4.160c] che garantisce la validita dell a diseguaglianza
triangolare, premettiamo la dimostrazione dell a diseguaglianza di Cau-
chy-Schwarz (quella fornita nel par. 4.2.6 vale soltanto nel caso di spazi
finito-dimensionali) :

A tale scopo, consideriamo il numero reale non negativo 11;r. + Al{W = (;r. +
AY, ;r.+ AY), ricordando che esso e nullo se e solo se ;r.,= - ,\y. Per;r., y fissati,
esso e una funzione a valori reali del numero complesso A;- -
- 1(;r.,yW
f(Ao,Ao) = (;r.,;r.) - -( -) :::::0
y,y

che e appunto quanto volevamo dimostrare.


Si dimostra ora facilmente la diseguaglianza triangolare; infaLt.i al)
biamo:

+ ul12 = (.:f+ U, .:f + u)


11;12 = (;12,.:f)+ 2Re(.:f,u) + (u, u) :s:
:s: (;12,.:f)+ (u, u) + 2 r (.:f,U) 1

+ ul12 :s: (.:f,.:f) + (U' U)


11;12 + 2(.:f,;12)~ (U' U) ~ =

= [(.:f,.:f)~ + (U'U)~]2 + Ilull)2


= (11;1211

Nel par. 4.2.6 sono state introdotte Ie nozioni di angola tra vdl.ori
[4.94] e di ortogonalita, che sono ovviamente indipendenti dalla dilllCl1
sione dello spazio. Nel caso di uno spazio euclideo oo-dimensiollal,·,
definiremo base (ortonormale) un sistema (ortonormale), neccssari;l
mente infinito, di vettori, che sia completo, secondo la definizioll(' "i
completezza di un insieme di elementi di uno spazio metrico, dat.a 11<'1
par. 4.3.3.
Negli spazi euclidei separabili, ogni sistema artonormale e finit.o 0 al
pili infinito rmmerabile. Sia infatti {§.(a)} un tale sistema (l"'indicc" tl
potendo a priori variare con continuita); risulta:

Allora Ie sfere aperte Ba(§.(a), 1/2) di centro §.(a) e raggio 1/2 SOli"
a due a due disgiunte. Sia {;r,Ji)} un insieme numerabile di vdl.orj
ovunque denso su E: in ognuna delle sfere Ba deve allora cadcn, al
meno uno degli ;1;.(i): quindi l'insieme delle sfere, e di consegucnza il
sistema degli §.(a), puo essere al pili infinito-numerabile.

Dato un sistema, finito 0 infinito-numembile di vettori :rY) lineaml/:n/,


indipendenti, da esso si pub sempre costruire un sistema ortono7"l1/1l!"
E questo il contenuto del Teorerna di ortogonalizzazione di Gram-
Schmidt, che ha il pregio - non trascurabile - di fornire un proce-
dimento concreto per questa costruzione, il cui risultato e stato gia
enunciato nel par. 4.2.6, formula [4.98].
Chiamiamo §.(i) i vettori del sistema ortonormale da costruire, e as-
sumiamo che essi siano collegati agli ;]2(i) da una trasformazione trian-
golare, cioe tale che:

i
§.(i) = L aik;]2(k) (i = 1,2, ... )
k=l

La condizione (§.(1) , §.(1)) = 1 fissa au a meno di un numero complesso


di modulo 1 (detti numeri sono anche chiamati fattori di fase):

In altri termini, abbiamo norrnalizzato ;]2(1).


Veniamo ora a §.(2): esso deve essere ortogonale a §.(1) e di norma 1.
L'idea geometrica naturale e quella di sottmrre da ;]2(2) 130 componente
proporzionale a e(l) (parallelo a ;]2(1)) e poi normalizzare il vettore
ottenuto (cioe "aggiustarne" la lunghezza).
Abbiamo percio:

(2) _ ;]2(2) - (§.(1) , ;]2(2))§.(1)


§. - 11;]2(2)- (§.(l), ;]2(2))§.(1) II

A questo punto e chiaro come iter are il procedimento: determinati i


vettori §.(l), §.(2) , ... , §.(k) ,il vet tore §.(k+l) sara costruito sottmendo da
;]2(k+1) Ie sue componenti secondo §.(1), ... ,§.(k) e poi normalizzando il
vettore ottenuto (dr. [4.98]):

x(k+1) - Lk (§.(j) , ;]2(k+1))§.(j)


j=l
k
11;]2(k+1) - L (§.(j), ;]2(k+1))§.(j) II
j=l
Supponiamo che il nostro spazio E possa avere dimensioIl(~ inJinil.a, ('
che sia a nostra disposizione un sistema ortonormale di vettori {I,(I.) } ~ I'
dove N puo essere finito 0 infinito.
Appare naturale porsi il seguente problema: dato un arbitrari.o wI.
tore ;]2 E E, qual e la combinazione lineare degli §.(,: che meglio ap
pros sima ;]27 Pili precisamente, ci chiediamo qual e la N-pla (0 h
successione) di numeri complessi Cl:i che rende minima la distamm:

dN = d(;]2,;]2(N)) = 11;]2 - L Cl:ie(i) II


i=l

N N
d}y = (;]2 - L Cl:i§.(i), ;]2 - L Cl:j§.(j)) =
i=l j=l
N N

= 11;]2112- 2 L Re O:i (§.(i) ,;]2) + 2: lCl:i12


i=l i=l

N N
d}y = IIxl12 + L lCl:i - ~i12 - L l~il2
i=l i=l

da cui segue immediatamente che la minima distanza dN,min si otti,,11<'


per Cl:i = ~i' . . ,
I coefficienti ~i (cioe Ie componenti di ;]2 nel sistema {§.(')}) SI cIlia
mana anche i coefficienti di Fourier del vettore ;]2 nel sistema ortonm
male considerato.
Possiamo quindi affermare che la combinazione lineare di vettori (I i
un sistema ortonormale dato che meglio approssima un vettore ;]2 ( I';
e quella costruita. con i coefficienti di Fourier, che da:

d~'in = IlxW - L l~il2 ~ 0


i=l
IIxl1
2
:::: L l~il2
i=1

valida per ogni ld. e per ogni sistema ortonormale {~(i)}, si chiama
diseguaglianza di Bessel, gia mostrata al par. 4.2.6 per spazi euclidei
finito-dimensionali.
La diseguaglianza di Bessel contiene in realta due informazioni:
i) la successione {~i}~1 e di modulo quadrato sommabile (appartiene
cioe a l2);
ii) la somma della serie:

s= ~1~iI2
i=1
non puo superare 11ld.112.
Se, per ogni ld. E E, vale l'uguaglianza:

2
11;1211 = ~ l~il2
i=1

detta uguaglianza (0 relazione) di Parseval, il sistema degli


eompleto (gli ~(i) formano una base ortonormale).
Infatti, l'uguaglianza di Parseval implica:

lim d(;12, ~
N -+co
~i~(i)) =0 V;12 E E
i=1

il che equivale a dire che la successione {;12(N) = I:~1~iii)} converge


a ld. per ogni ;12.
Da cia segue chiaramente che il sottospazio generato dagli ~(i) coin-
cide con l'intero spazio.
In virtu della diseguaglianza di Bessel, possiamo affermare che se
i termini di una successione numerica {~d forniscono i coefficienti di
Fourier di un vettore ;12 in un sistema (in particolare in una base)
ortonormale, la successione deve neeessariamente essere di modulo
quadrato sommabile.
Se 10 spazio euclideo E e (separabile e) completo, l'appartenenza
della successione a l2 e anche suffieiente. In effetti, se {~i} E l2 ed
{~(')}~1 e una base ortonormale, si pua dimostrare che la successione
di vettori:
N
ld.(N) = ~~i~(i)
i=1

e di Cauchy. Dal momento che E e completo, la SUCCCSSiOllC


;1'( N)

converge a un qualche ld. E E, e per questo ld. si ha:

~i = (li) ,ld.) ; 11ld.112 = ~ l~il2


i=1
PUO sorgere la domanda se vi sia, in uno spazio euclideo-illfillit.••
dimensionale, un modo alternativo (rispetto aHa verifica deHa validiLI
deH'uguaglianza di Parseval) per caratterizzare una base ortonorIllall'
In uno spazio finito--dimensionale, una base e data da un insiemc III":;
simale di vettori linearmente indipendenti, per cui l'unico vett(m~ dldl••
spazio a componenti tutte nuHe e il vettore nullo. Questa propridh ,>;i
estende agli spazi infinito-dimensionali grazie al seguente teoremll.:
Teorema 4.11. In uno spazio euclideo separabile e eompleto, eN j';S
affinehe un sistema ortonormale di vettori eostituisea una base t; ('h,
l'v,nieo vettore ortogonale a tutti gli elementi del sistema sill. il vcUO'I"
nullo.

Sia infatti {~(i)} una base; aHora Vld. E E vale l'uguaglianza di Panwval:

2
11;1211 = ~ l~il2
i=1

dove ~i = (~(i),;12). Se quindi (~(i),;12) e uguale a zero Vi,;12 ha 1I0J'lIl"


nulla e quindi e il vettore nullo.
Assumiamo ora, viceversa, che (~(i) , ld.) = 0 V i implichi ;12 = 0: S( ~ iI
sistema degli {~(i)} non fosse una base, esisterebbe un qualche ;r ( I';
per cui la diseguaglianza di Bessel e soddisfatta in senso stretto:
00 00

;]2*= L~i~(i); 11;]2*11=2 L l~il2 con ~i = (~(i),;]2*)


i=l i=l

(AI solito, la successione ;]2(N) = L:~l ~i~(i) e di Cauchy). Ma allora:


(~(i),,,22 - ,,22*)= (~(i),,,22) - (~(i),,,22*) = ~i ~ ~i = 0 'V i
quindi ,,22- ;]2*e il vettore nullo, e in particolare si ha:

=
11,,2211 L l~il2
2
i=l

Uno spazio euclideo infinito-dimensionale completo si chiama spazio


di Hilbert. Noi ci occuperemo esclusivamente di spazi di Hilbert se-
parabili, e tale attributo verra di regola omesso nella trattazione che
seguira. Alla luce dei risultati fin qui ottenuti, possiamo dire che,
mediante l'introduzione di una base ortonormale, si stabilisce una cor-
rispondenza biunivoca tra un generico spazio di Hilbert H e 10 spazio
l2 delle successioni di modulo quadrato sommabile. Lo spazio l2, che
abbiamo gia incontrato tra gli spazi normati separabili e completi,
diventa uno spazio euclideo non appena 10 si munisca del prodotto
scalare:

({Xi}, {yd) = L XiYi


i=l
La corrispondenza tra H e 12 e chiaramente un isomorfismo lineare: da

a,,22 + (31£ ¢} {aXi + (3yd~l


Ma e anche un isomorfismo in sensa euclideo, in quanta "conserva"
l'operazione di prodotta scalare; si ha in altre parole
00

(,,22,1£) = L XiYi
k=l
00

(;J;. + 1£, ;]2 + 1£) = L IXk + Yk!2


k=l

(,,22 + i1£,,,22 + i1£) = L IXk + iYk!2


k=l

00

He(x, y) = He L XkYk
k=l

Im(x, y) = 1m L .TkYk
k=l

Possiamo quindi affermare che, a meno di isomorfismi, esiste \Ill s, )1,)


spazio di Hilbert, 10 spazio 12, che puo essere visto come una n':l
lizzazione in coordinate di uno spazio di Hilbert astratto. Un'al!.r"
realizzazione in coordinate di uno spazio di Hilbert e costituita, COIIl<'
vedremo meglio nel seguito, dallo spazio L2[a, b] (spazio delle f\llly,iOlli
di modulo quadrato integrabile ~ secondo Lebesgue - su un segllwlI!.o)

4.4
Funzionali lineari e distribuzioni

Cominciamo con alcune definizioni fondamentali, in parte gia introdo!.


te nel par. 4.2.2.
Siano N1 e N2 due spazi normati (basterebbe in realta cOllsid,
rare spazi lineari metrici), con norme II· IiI e 11·112 rispettivanwn!.,'
Un'applicazione (tra..<;formazione) Ada N1 a N2 e un operatore lilwar,'
se:

A e un aperatore continuo se manda "punti vicini" di N1 in "pllliI.i


vicini" di N2, ciae se "IE > 0, risulta: IIA;]2- A1£112< E non apI"'1I:1
Ilx - ylll < 8('
Sia D(A) la varieta lineare c=: N1 per cui e definito l'operatore line are
A: essa e detta dominio (0 insieme di definizione) dell'operatore A.
D(A) e quindi l'insieme degli;r:. E N1 tali che A;r:.E N2.
L'insieme degli E N2 che provengono da qualche;r:. E D(A) tramite
'!!...

l'operatore A si chiama "range" (0 "immagine") dell'operatore A e


si indica con R(A) (0 con Im(A)). E ovvio che anche R(A) e u~a
varieta lineare. Chiameremo "nucleo" 0 "kernel" 0 "null space" di A
l'insieme degli ;r:. E D(A) che vengono mandati nel vettore nullo di
N2: 10 indicheremo di solito con N(A) (in letteratura si trova spesso
l'espressione Ker(A)). Se A e continuo, N(A) e un sottospazio, cioe
una varieta lineare chiusa di N1: infatti, se ;r:.(n) e una successione di
elementi E N(A), che converge a un elemento ;r:. E N1, allora ;r:. E
N (A). Risulta infatti:

.Q = lim A:.r.(n) = A( lim ;r:.(n)) = A;.r.


n----..CX) n---+oo

Tra gli operatori lineari su spazi normati, un posto particolare occu-


pano i funzionali lineari, caratterizzati dalla proprieta che 10 spazio di
arrivo N2 e l'insieme C (0 in particolare R): sono quindi applicazioni
lineari da uno spazio normato generico N in C. Ci occuperemo in
particolare dei funzionali lineari continui. Se un funzionale lineare e
continuo in un punto di N, in particolare in ;.r.= .Q, e continuo su tutto
N.

Inoltre, un funzionale line are e continuo se e solo se esso e limitato


sulla sfera unitaria, cioe se si ha:

sup If(;.r.) 1 < 00


I 1.'£1I:S: 1
Infatti, se f(:r) e continuo, deve in particolare essere (si osscrvi ell(' f(ll)

Q!):

Quindi, f e limitato su una sfera di raggio < 8(" Allora, POIICIlc!O .'I

(8<)-1:r, si ha:
E
If(l!) 1 < 8< per 11It.1I < 1

Viceversa, se f(:r) e limitato sulla sfera unitaria, cioe se esiste 0 < ('. ''',
tale che:

If(:r) 1 :s; C per 11:r11 :s; 1


ponendo It.= E/C :r, risulta
E
per 11It.11 :s; 8<= C

L'insieme dei funzionali lineari continui su N costituisce uno 87m::!O


normato completo (anche se N non e completo) che si indica COil N'
e si chiama spazio duale (0 coniugato) di N.
Per dimostrare questa affermazione, cominciamo col definire la Ilm
ma Ilfll di un funzionale f(;.r.):

Ilfll = sup If(;.r.)! = sup If( ;r:. )1 = sup If(y)1


11.~II#o 11;.r.1
I 11~II#o 11;.r.11 111!.11=1-

1{I~i I S Ilfll, cioe If(;.r.) I :s; 11;.r.1


1 Ilfll

L'insieme dei funzionali lineari si puo munire inoltre di una struUur:\


di spazio lineare, nel modo pili naturale:

f = II +!z se, V;r:. E N, f(;.r.) = II (;.r.) + !z(;r:.)


g = oJ se, V;.r. EN, g(;.r.) = af(;.r.) = f(a;.r.)
E ovvio che una qualsiasi combinazione line are di funzionali COIlt,i1111 i
e ancora un funzionale continuo; e altresl chiaro che la norma ddilliL\
sopra gode delle proprieta richieste [4.160]:

Ilfll ~ 0 (= 0 se e solo se f = 0, cioef(;.r.) = 0 V;.r.)

Potrebbero piacerti anche