Capitulo 2
Capitulo 2
Capitulo 2
Produto interno
72 Ana L. Correia
Para recordar, um número complexo z ∈ C tem a forma
z = a + bi
onde a e b são números reais e i é o número imaginário
√
i = −1
e, portanto, i2 = −1. Como é usual, referir-nos-emos ao número real a como sendo
a parte real de z (e denotá-la-emos por Re z) e ao número real b como sendo a
parte imaginária de z (que denotaremos por Im z. Qualquer número real a pode
ser identificado com o número complexo a + 0i e, portanto, podemos considerar
(como faremos) que R é um subconjunto de C. Além disso, dado qualquer número
complexo z = a + bi, a, b ∈ R, o conjugado de z , que denotamos por z, é (por
definição) o número complexo
z = a − b i.
É fácil verificar que, dado um número complexo z ∈ C, temos
z ∈ R ⇐⇒ z = z; (2.1)
por outras palavras, os números reais são exatamente os número complexos que
coincidem com o seu conjugado. Além disso, para quaisquer z, w ∈ C, temos
z+w =z+w , z·w =z·w , z =z (2.2)
z + z = 2 Re z , z − z = 2(Im z)i. (2.3)
Finalmente, se z = a + b i, a, b ∈ R, for qualquer número complexo, o módulo de z,
que denotaremos por |z|, é o número real (positivo ou nulo) definido por
√
|z| = a2 + b2 .
Para qualquer número complexo z, temos
|z| = |z| , zz = |z|2 e |z| = 0 ⇐⇒ z = 0. (2.4)
Desta forma, um produto interno num espaço vetorial complexo é uma forma
sesquilinear hermítica definida positiva.
(e) x | x > 0 se e só se x 6= 0E .
x | (y + z) = (y + z) | x = y | x + z | x = y | x + z | x = x | y + x | z
A3 A1 (2.2) A3
= x|y+x|z
(2.2)
74 Ana L. Correia
O leitor deve reparar na analogia com a “situação real” que tratámos na secção
anterior. Esta analogia continua nos exemplos seguintes.
Exemplo 2.13. Para qualquer n ∈ N, seja · | · : Cn × Cn → C a aplicação definida,
para quaisquer vetores x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ) de Cn , por
x | y = x1 y1 + x2 y2 + · · · + xn yn .
x | y = x1 y1 + x2 y2 + · · · + xn yn = x1 y1 + x2 y2 + · · · + xn yn
= x1 y1 + x2 y2 + · · · + xn yn = y1 x1 + y2 x2 + · · · + yn xn = y | x.
Além disso,
2.2.1 Norma
No que se segue K = R ou K = C. Seja E um espaço vetorial real ou complexo
munido de um produto interno · | · : E × E → K. Sabemos que, para qualquer vetor
x ∈ E temos
x | x é um número real não-negativo
independentemente de K = R ou K = C. Este facto, dá sentido ao conceito de
norma de um vetor.
76 Ana L. Correia
Exemplo 2.17. Seja n ∈ N. Considerando em Rn o produto interno canónico
· | · : Rn × Rn → R temos, para qualquer vetor x = (x1 , . . . , xn ) ∈ Rn ,
q
kxk = x21 + · · · + x2n .
Em particular, √ √
k(1, 2)k = 12 + 22 = 5.
Em particular, p √ √
k(1, i)k = |1|2 + |i|2 = 1+1= 2.
(a) kxk = 0 se e só se x = 0E .
|x | y| ≤ kxkkyk.
78 Ana L. Correia
A demonstração está completa (porque os vetores x e y ou são linearmente
dependente ou são linearmente independentes).
Demonstração. Temos
kx + yk2 = (x + y) | (x + y) = kxk2 + x | y + y | x + kyk2
= kxk2 + kyk2 + x | y + x | y = kxk2 + kyk2 + 2 Re(x | y).
Como, para qualquer número complexo z = a + b i,
√
Re(z) = a ≤ a2 + b2 = |z|,
concluímos que
kx + yk2 ≤ kxk2 + kyk2 + 2|x | y|.
Usando, agora, a desigualdade de Cauchy-Schwartz, deduzimos que
kx + yk2 ≤ kxk2 + kyk2 + 2kxkkyk = (kxk + kyk)2
e, portanto, como kx + yk, kxk + kyk ≥ 0, obtemos
kx + yk ≤ kxk + kyk,
como queríamos.
kx
−y yk
k x+
k
k
kx
ky k
como queríamos.
2.2.2 Ângulo
Até final desta secção, (E, · | ·) é um espaço vetorial real munido de um produto
interno. O conceito que introduziremos agora é uma consequência da desigualdade
de Cauchy-Schwartz e permite (de certo modo) estabelecer a posição relativa de dois
vetores.
Sejam x e y vetores arbitrários de E. Pela desigualdade de Cauchy-Schwartz,
temos |x | y| ≤ kxkkyk, logo
−kxkkyk ≤ x | y ≤ kxkkyk
arccos α = θ ⇐⇒ cos θ = α e 0 ≤ θ ≤ π.
x|y
cos θ = .
kxkkyk
80 Ana L. Correia
Observação.
(a) ∠(x, x) = 0.
x|x kxk2
∠(x, x) = arccos = arccos = arccos 1 = 0.
kxkkxk kxk2
x|y y|x
∠(x, y) = = = ∠(y, x).
kxkkyk kykkxk
√ √ 2
k(1, 2)k = 12 + 22 = 5 y
p √
k(−1, 3)k = (−1)2 + 32 = 10 1 x
(1, 2) | (−1, 3) = 1 · (−1) + 2 · 3 = 5 π/4
−1 1
Desta forma,
√
(1, 2) | (−1, 3) 5 2 π
∠(x, y) = arccos = arccos √ = arccos = .
k(1, 2)kk(−1, 3)k 5 2 2 4
2.2.3 Ortogonalidade
Seja (E, · | ·) um espaço vetorial real munido de um produto interno. Dados dois
vetores não nulos x, y ∈ E resulta da definição de ângulo que
π x|y
∠(x, y) = ⇐⇒ cos ∠(x, y) = 0 ⇐⇒ = 0 ⇐⇒ x | y = 0 .
2 kxkkyk
Este facto motiva a definição seguinte que é extensiva também a espaços vetoriais
complexos e a vetores nulos.
82 Ana L. Correia
Proposição 2.28. Seja (E, · | ·) um espaço vetorial real ou complexo munido de
um produto interno e sejam x e y vetores de E. Temos
(a) Se x ⊥ y então y ⊥ x.
(b) 0E ⊥ x.
(c) x ⊥ x se e só se x = 0E .
Demonstração. Exercício.
como queríamos.
84 Ana L. Correia
Então, para qualquer 1 ≤ i ≤ n,
x | ei
αi = ,
ei | ei
x = (x | e1 ) e1 + · · · + (x | en ) en .
x | y = x1 y1 + · · · + xn yn .
86 Ana L. Correia
Na demonstração da alínea (b) da proposição 2.36, transparece que o cálculo de
x | y será trabalhoso se a base do espaço não for ortonormada. O principal objetivo
da secção seguinte é introduzir a representação matricial, para um produto interno,
para que este tipo de cálculos sejam simplificados.
ei | ej com i, j = 1, 2, . . . , n.
Quando existe mais do que uma base em uso escreveremos GB , para indicar a
base em relação à qual consideramos a matriz da métrica.
x | y = x1 y1 − x1 y2 − x2 y1 + 3x2 y2 .
1) Seja B = e1 , e2 a base canónica de R2 . Temos
e1 | e1 = (1, 0) | (1, 0) = 1
e2 | e1 = e1 | e2 = (1, 0) | (0, 1) = −1 (por simetria)
e2 | e2 = (0, 1) | (0, 1) = 3.
(1, 0) | (1, 0) = 1
(1, 0) | (1, 1) = (1, 1) | (1, 0) = 0 (por simetria)
(1, 1) | (1, 1) = 2.
1 0
Portanto, GB′ = ∈ M2×2 (R). Repare-se que esta base é ortogonal para
0 2
este produto interno.
e1 | e1 = (1, 0, i) | (1, 0, i) = 1 + ii = 2
e1 | e2 = (1, 0, i) | (1, i, 0) = 1 , e2 | e1 = e1 | e2 = 1 (por A3)
e1 | e3 = (1, 0, i) | (1, 0, 0) = 1 , e3 | e1 = e1 | e3 = 1 (por A3)
e2 | e2 = (1, i, 0) | (1, i, 0) = 1 + ii = 2
e2 | e3 = (1, i, 0) | (1, 0, 0) = 1 , e3 | e2 = e2 | e3 = 1 (por A3)
e3 | e3 = (1, 0, 0) | (1, 0, 0) = 1
2 1 1
Portanto GB = 1 2 1 ∈ M3×3 (C).
1 1 1
2) Seja B′ = v1 , v2 , v3 a base de C3 onde v1 = (1, 1, 1), v2 = (1, 1, i) e v3 =
(1, i, i). Temos, novamente por A3,
v1 | v1 = (1, 1, 1) | (1, 1, 1) = 1 + 1 + 1 = 3
v1 | v2 = (1, 1, 1) | (1, 1, i) = 1 + 1 − i = 2 − i , v2 | v1 = v1 | v2 = 2 + i
v1 | v3 = (1, 1, 1) | (1, i, i) = 1 − i − i = 1 − 2i , v3 | v1 = v1 | v3 = 1 + 2i
v2 | v2 = (1, 1, i) | (1, 1, i) = 1 + 1 + ii = 3
v2 | v3 = (1, 1, i) | (1, i, i) = 1 − i + ii = 2 − i , v3 | v2 = v2 | v3 = 2 + i
v3 | v3 = (1, 1, i) | (1, 1, i) = 1 + 1 + ii = 3
3 2 − i 1 − 2i
Portanto GB′ =2+i 3 2 − i ∈ M3×3 (C).
1 + 2i 2 + i 3
88 Ana L. Correia
Proposição 2.40. Seja (E, · | ·) um espaço euclideano ou unitário e seja B =
e1 , . . . , en uma base fixa em E. Temos
G = In ∈ Mn×n (R).
(a) matriz conjugada de A à matriz A = [aij ] ∈ Mm×n (C) cuja (i, j)-ésima
entrada é o conjugado aij da (i, j)-ésima entrada aij de A (para 1 ≤ i ≤ m
e 1 ≤ j ≤ n);
90 Ana L. Correia
Demonstração. Vamos proceder como na demonstração da proposição 2.36 e usar
os axiomas A1 e A2 de produto interno.
x | y = (x1 e1 + · · · + xn en ) | (y1 e1 + · · · + yn en )
= x1 y1 (e1 | e1 ) + x1 y2 (e1 | e2 ) + · · · + x1 yn (e1 | en )
+ x2 y1 (e2 | e1 ) + x2 y2 (e2 | e2 ) + · · · + x2 yn (e2 | en )
+···
+ xn y1 (en | e1 ) + xn y2 (en | e2 ) + · · · + xn yn (en | en )
Xn X n
= xi yj (ei | ej ).
j=1 i=1
Portanto obtemos
n X
X n
x|y= xi yj (ei | ej ) = X T GY ∈ M1×1 (K).
j=1 i=1
1 −1 2
(1, 2) | (2, 1) = 1 2 = 3.
−1 3 1
Exercício 2.46. Considere em C3 a base B = e1 , e2 , e3 , onde
e1 = (1, 1, 1) , e2 = (1, 1, i) , e3 = (1, i, i).
Suponhamos que (C3 , · | ·) está munido de um produto interno cuja matriz da
métrica, com respeito à base B, é
7 5 − 2i 5 − 4i
G = 5 + 2i 5 5 − 2i ∈ M3×3 (C).
5 + 4i 5 + 2i 7
Determine x | y com x = (1, 0, 0) e y = (0, 0, 1).
ej
+
ei
π/4
ei
92 Ana L. Correia
Já observámos que a matriz da métrica é simétrica (no caso real) ou hermítica (no
caso complexo). O resultado seguinte diz-nos que G é sempre uma matriz invertível.
T
Demonstração. (a) Suponhamos que X = x1 x2 · · · xn e que B = e1 , . . . , en .
Então, pela proposição 2.44 e axioma A4,
X T GX = x | x ≥ 0 com x = x1 e1 + · · · + xn en ,
X T GX = X T GY = X T |{z}
GY = X T 0 = 0.
0
X T GX = 0 ⇐⇒ x | x = 0 ⇐⇒ x = 0E ⇐⇒ X = 0 ⇐⇒ Y = X = 0.
Provámos, assim, que o sistema homogéneo de matriz simples G tem uma única
solução, a solução nula, o que implica que G tem característica n e, portanto, que
G é invertível.
As Proposições 2.43 e 2.48 são dois critérios que nos podem ajudar a decidir se
uma dada matriz pode ser matriz de um produto interno nalgum espaço euclideano
ou unitário. Mas as condições destes resultados são necessárias, não são suficientes.
Isto quer dizer que se alguma delas não for satisfeita por uma matriz G então G não
poderá ser matriz da métrica de algum produto interno, mas se forem satisfeitas não
poderemos concluir nada. Vejamos os casos seguintes.
1 a 1/2
Exercício 2.49. Seja a ∈ R e seja Ga = a 1 1/2 ∈ M3×3 (R).
1/2 1/2 1
94 Ana L. Correia
Teorema 2.50. Seja (E, · | ·) um espaço vetorial euclideano ou unitário de
dimensão finita n e sejam B = e1 , . . . , en e B′ = e′1 , . . . , e′n bases de E.
Sejam GB e GB′ as matrizes da métrica do produto interno · | · com respeito às
bases B e B′ , respetivamente. Além disso, seja P = M(idE ; B′ , B) a matriz de
mudança de base de B para B′ . Então,
GB ′ = P T GB P .
′ 1 1
P = M(id; B , B) = ∈ M2×2 (R),
0 1
como queríamos.
96 Ana L. Correia
Exemplo 2.54. Vimos no exemplo 2.38-(2) que a base B′ = (1, 0), (1, 1) é orto-
gonal para o produto interno definido por
x | y = x1 y1 − x1 y2 − x2 y1 + 3x2 y2 ,
e que
(1, 0) | (1, 0) = 1 e (1, 1) | (1, 1) = 2.
Pela proposição 2.53,
√ √ !
(1, 1) (1, 1) 1 1 2 2
= √ = √ ,√ = ,
k(1, 1)k 2 2 2 2 2
√ √
tem norma 1 e, portanto, para este produto interno, B = (1, 0), 22 , 22
′′
é uma
base ortonormada.
• u1 = e1 ;
e2 | u1
• u2 = e2 − u1 ;
u1 | u1
e3 | u1 e3 | u2
• u3 = e3 − u1 − u2 ;
u1 | u1 u2 | u2
• ···
en | u1 en | u2 en | un−1
• un = en − u1 − u2 − · · · − un−1 .
u1 | u1 u2 | u2 un−1 | un−1
Então:
(a) B′ = u1 , . . . , un é uma base ortogonal de (E, · | ·).
′′ u1 u2 un
(b) B = , ,..., é uma base ortonormada de (E, · | ·).
ku1k ku2 k kun k
(b) Pela Proposição 2.53, cada vetor da forma vi = kuuii k tem norma 1. Além
disso, para quaisquer 1 ≤ i, j ≤ n, i 6= j, temos
1 1 1
vi | vj = ui uj = (ui | uj ) = 0,
kui k kuj k kui kkuj k
uma vez que u1 , . . . , un é uma base ortogonal. Assim, B′′ = v1 , . . . , vn é uma
base ortonormada de (E, · | ·), o que prova b).
Corolário 2.56.
P T GP = In ,
98 Ana L. Correia
Terminamos esta secção com um exemplo de aplicação do processo de ortogona-
lização de Gram-Schmidt.
• u1 = e1 = (1, 0, 0) e u1 | u1 = e1 | e1 = 4
e2 | u1 e2 | e1
• u2 = e2 − u1 = e2 − e1 = e2 − −1 e = 41 , 1, 0
4 1
u1 | u1 4
1 1
u2 | u2 = e2 + 4 e1 | e2 + 4 e1 = e2 | e2 + 12 (e1 | e2 ) + 16
1
(e1 | e1 ) = 11
4
e3 | u1 e3 | u2 1
e3 | (e2 + 41 e1 )
• u3 = e3 − u1 − u2 = e3 − 4 e1 − 11 u2
u1 | u1 u2 | u2 4
= e3 − 41 e1 − 11
9
(e2 + 41 e1 ) = e3 − 11
9 5
e2 − 11 e1
pois e3 | u2 = e3 | (e2 + 4 e1 ) = e3 | e2 + 4 (e3 | e1 ) =
1 1 9
4
Portanto B′ = (1, 0, 0), ( 14 , 1, 0), ( −5 , −9 , 1) é uma base ortogonal de R3 para o
11 11
produto interno dado. Agora
−5 −5
4 −1 1 11 11
u3 | u3 = −511
−9
11
1 −1 3 2 −9 = 0 0 43 −9 = 43 .
11 11 11 11
1 2 6 1 1
Assim
√ q
11
√
11
q
43
ku1 k = 4 = 2 , ku2k = 4
= 2
, ku3 k = 11
,
pelo que
′′ u1 u2 u3
B = , ,
ku1 k ku2 k ku3 k
1
1 2
5 9 11
= 2
, 0, 0 , 2√11 , √11 , 0 , − √473 , − √473 , √473
Nota: Para determinar o produto interno de dois vetores podemos recorrer à matriz
da métrica ou às propriedades de bilinearidade [resp. sesquilinearidade] do produto
interno, conforme dê menos cálculos.
v | x = 0 para todo x ∈ X.
X ⊥ = {v ∈ E : v | x = 0, para todo x ∈ X} = {v ∈ E : v ⊥ X} .
x⊥ = {v ∈ E : v | x = 0} = {v ∈ E : v ⊥ x} = {x}⊥
Portanto
(1, 2, 3)⊥ = v = (α1 , α2 , α3 ) ∈ R3 : α3 = −3α1 + 4α2
= {(α1 , α2 , −3α1 +4α2) : α1 , α2 ∈ R}
= {α1 (1, 0, −1)+α2(0, 1, 4) : α1 , α2 ∈ R} = h(1, 0, −1), (0, 1, 4)i .
(a) Se X ⊆ Y então Y ⊥ ⊆ X ⊥ .
(b) X ⊆ (X ⊥ )⊥ .
(c) hXi⊥ = X ⊥ .
(e) 0E ⊥ = {0E }⊥ = E.
v ∈ X =⇒ v | y = 0 para todo y ∈ X ⊥ ⇐⇒ v ∈ (X ⊥ )⊥ .
v | x = v | (α1 x1 + · · · + αk xk ) = α1 (v | x1 ) + · · · + αk (v | xk ) = 0,
| {z } | {z }
0 0
o que prova que v ∈ hXi⊥ , como queríamos. Da dupla inclusão segue-se a igualdade.
(d) Suponhamos que X ∩ X ⊥ 6= ∅. Seja v ∈ X ∩ X ⊥ . Então, por definição de
intersecção, v ∈ X e v ∈ X ⊥ . Como v ∈ X ⊥ , então v é ortogonal a qualquer vetor
de X. Mas v ∈ X. Logo v ⊥ v. Ora, pelo axioma A4,
v ⊥ v ⇐⇒ v | v = 0 ⇐⇒ v = 0E .
(i) (F + G)⊥ = F ⊥ ∩ G⊥ .
(ii) (F ∩ G)⊥ = F ⊥ + G⊥ .
E = F + G ⊆ F + F⊥ ⊆ E
e, portanto,
E = F + F ⊥.
Para concluir que a soma E = F + F ⊥ é direta, resta justificar que F ∩ F ⊥ = {0E }.
Ora 0E ∈ F ∩ F ⊥ , donde F ∩ F ⊥ = {0E }, pela proposição 2.62-(d).
(b) Sabemos que
como queríamos.
⊥
(c) Temos, pela proposição 2.62-(b), F ⊆ F ⊥ . Por outro lado, por (b)
⊥
dim E = dim F + dim F ⊥ e dim E = dim F ⊥ + dim F ⊥
e, portanto,
⊥
dim F = dim F ⊥ .
Dada a inclusão entre estes dois subespaços, e como têm igual dimensão, são iguais,
⊥
i.e. F = F ⊥ , como queríamos.
⊥
(d) Usando a proposição 2.62-(e), temos E ⊥ = {0E }⊥ = {0E }, como desejado.
(e)-(i) “⊆”: Como F ⊆ F + G e G ⊆ F + G então, por 2.62-(a), temos
(F + G)⊥ ⊆ F ⊥ , (F + G)⊥ ⊆ G⊥ .
Logo
⊥
(F ∩ G)⊥ = (F ⊥ + G⊥ )⊥ = F ⊥ + G⊥ .
(c)
F ⊥ = {v ∈ E : v | ui = 0, i = 1, . . . , k.} .
Resolução. Por hipótese F é gerado pelos vetores u1 = (1, 0, 2) e u2 = (0, −1, 1).
Como a base B é a base canónica temos, para x = (x1 , x2 , x3 ) ∈ R3 ,
2 −1 0 1 2 −1 0 0
⊥
x ∈ F ⇐⇒ x1 x2 x3 −1 1 0 0 = 0 , x1 x2 x3 −1 1 0 −1= 0.
0 0 3 2 0 0 3 1
Para simplificar podemos juntar as duas matrizes coluna, com as coordenadas dos
onde A ∈ Mn×k (K) é a matriz formada pelas colunas dos vetores geradores
u1 , . . . , uk de F , escritos na base B. Quer dizer que
F ⊥ = N ((GA)T ).
F ⊥ = N (AT ).
v ∈ F ⊥ ⇐⇒ v | u1 = 0 , . . . , v | uk = 0
a11 a1k
.
.
⇐⇒ α1 · · · αn G . = 0 , . . . , [ 1 α · · · α .. = 0
n] G .
an1 ank
a11 · · · a1k
⇐⇒ α1 · · · αn G ... .. = 0 · · · 0
.
an1 · · · ank
⇐⇒ α1 · · · αn GA = 0 · · · 0
T T
⇐⇒ α1 · · · αn GA = 0 · · · 0
α1 0
T .. .
⇐⇒ (GA) . = ..
αn 0
⇐⇒ α1 , . . . , αn é solução do sistema (GA)T X = 0
⇐⇒ v = α1 e1 + · · · + αn en ∈ N ((GA)T ).
Ora
T 2 −1 6 1 −1 3 1 −1 3
(GA) = −→ −→ .
1 −1 3 L1 ↔L2 2 −1 6 L2 −2L1 0 1 0
Logo
F ⊥ = (x1 , x2 , x3 ) ∈ R3 : x2 = 0, x1 = −3x3 = {(−3x3 , 0, x3 ) : x3 ∈ R} = h(−3, 0, 1)i .
Por conseguinte,
F ⊥ = {(−1 + i)x3 e1 + 0e2 + x3 e3 : x3 ∈ C} = x3 (−1 + i)e1 + e3 : x3 ∈ C
= h(−1 + i)e1 + e3 i = h(−1 + i)(i, 1, 1) + (1, 1, i)i = h(i, −i, 1 − 2i)i .
para todo p(x) ∈ R[x], o que implica que todos os polinómios de R(x] têm o seu
termo constante igual a zero - contradição. Portanto tal polinómio u(x) não existe.
b b
θ
θ
λu u λu u
θ ∈ [0, π/2[ θ ∈]π/2, π]
kbk b|u
proju b = cos ∠(b, u) u = u ∈ hui .
kuk kuk2
(a) b − proju b ∈ u⊥ .
(b) b ⊥ u ⇐⇒ proju b = 0E .
e, portanto, b − proju b ∈ u⊥ .
(b) Temos
b|u
b ⊥ u ⇐⇒ b | u = 0 ⇐⇒ proju b = u = 0 · u = 0E ,
kuk2
como queríamos.
O conceito de projeção ortogonal, de um vetor em relação a outro vetor, generali-
za-se a subespaços reais ou complexos. O resultado seguinte, conhecido por teorema
da projeção, fundamenta a generalização.
b = projF b + (b − projF b) ∈ F + F ⊥ .
F⊥
projF b F
projF ⊥ b = b − projF b.
b = b + 0E com b ∈ F e 0E ∈ F ⊥ .
k k
X X b | vi
projF b = projv1 b + projv2 b + · · · + projvk b = projvi b = vi .
i=1 i=1
kvi k2
k
X k
X
projF b = projvi b = (b | vi )vi .
i=1 i=1
Segue-se que
k k
X X b | vi
projF b = αi vi = v,
2 i
i=1 i=1
kv i k
Resolução. Ora (1, 0, 2), (0, −1, 1) é um sistema linearmente independente, logo
é uma base de F , mas não é ortogonal para a métrica dada pois,
2 −1 0 1 2
(0, −1, 1) | (1, 0, 2) = 0 −1 1 −1 1 00 = 0 −1 1 −1 = 7 6= 0.
0 0 3 2 6
Comecemos por determinar uma base ortogonal para F , usando Gram-Schmidt:
(0, −1, 1) | (1, 0, 2)
v1 = (1, 0, 2) , v2 = (0, −1, 1) − (1, 0, 2) = (−1/2, −1, 0). confirme!
(1, 0, 2) | (1, 0, 2)
Agora, pelo Teorema da Decomposição 2.76, temos
b | v1 b | v2
projF b = projv1 b + projv2 b = 2
v1 + v2 .
kv1 k kv2 k2
Como
1
−1/2
b | v1 = 7 −1 5 G 0 = 45 , b | v2 = 7 −1 5 G −1 = 1/2
2 0
kv1 k2 = 14 , kv2 k2 = 21 ,
então
45
projF b = 14
(1, 0, 2) + − 21 , −1, 0 = 19
7
, −1, 45
7
.
E = F ⊕F⊥
B′ = (v1 , . . . , vk , w1 , . . . , wn−k ),
| {z } | {z }
BF - base de F B ⊥ - base de F ⊥
F
b = α1 v1 + · · · + αk vk + β1 w1 + · · · + βn−k wn−k .
| {z } | {z }
∈F ∈F ⊥
Passo 5 Seja (α1 , . . . , αk , β1 , . . . , βn−k ) a solução (única) deste sistema. Logo temos
b = projF b + projF ⊥ b.
Para resolver
o sistema P X = b, fazemos transformações elementares na matriz
ampliada P | b :
1 0 −3 7
1 0 −3 7 1 0 −3 7
P | b = 0 −1 0 −1 −→ 0 −1
0 −1 −→ 0 −1 0 −1
L3 −2L2 L +L
2 1 1 5 0 1 7 −9 3 2 0 0 7 −10
1 0 −3 7 1 0 0 19/7
−→ 0 1 0 1
−→ 0
1 0 1 = I3 | c
−L2 −10/7 L1 +3L3 0
1/7L3 0 0 1 0 1 −10/7
Segue-se que c = 19
7
, 1, − 10
7
é a solução única do sistema tendo-se
19
(7, −1, 5) = 7
(1, 0, 2) + 1(0, −1, 1) + − 10
7
(−3, 0, 1)
19
= 7
, −1, 45
7
+ 307
, 0, − 10
7
e, portanto, projF = 19
7
, −1, 45
7
, projF ⊥ = 30
7
, 0, − 10
7
.
No caso de Definição 2.79. Seja (E, · | ·) um espaço vetorial, real ou complexo, munido de
E = R temos um produto interno. Dados dois vetores x, y ∈ E, chamaremos distância entre x
kx − yk =
p e y à norma da diferença destes vetores:
(x − y)2 =
|x − y|, para
d(x, y) = kx − yk .
todos x, y ∈ R.
x−
kyk = 2 y
kxk = 3 x = (3, 0)
x′
−
y′
x′ = (4, 1)
(b) d(x, y) = 0 se e só se x = y.
d(x, y) = 0 ⇐⇒ kx − yk = 0 ⇐⇒ x − y = 0E ⇐⇒ x = y;
d(x, y) = kx − yk = k − (y − x)k = | − 1|ky − xk = ky − xk = d(y, x).
Este critério
Teorema 2.82. (Teorema da aproximação) Seja F um subespaço vetorial de serve de base ao
um espaço euclidiano ou unitário (E, · | ·). Seja b ∈ E. Então Método dos Mí-
nimos Quadra-
d(b, projF b) = kb − projF bk = k projF ⊥ bk ≤ kb − xk = d(b, x), dos, que procura
encontrar a me-
para qualquer x ∈ F . Se x 6= projF b, então lhor aproxima-
ção para um
conjunto de da-
d(b, projF b) < d(b, x). dos tentando
minimizar a
Portanto soma dos qua-
d(b, projF b) = kb − projF bk = min{d(b, x) : x ∈ F }. drados das di-
ferenças entre o
valor estima-
F⊥ do e os dados
observados,
b − projF b muito importan-
b b−x te em econome-
tria.
projF b x
F
0 = p′ | p − p′ | x = p′ | (p − x) = (b − p) | (p − x).
Por fim, se x 6= projF b = p temos d(p, x) > 0, pela proposição 2.81-(b), donde
F = {(x, y, z) ∈ R3 : 2x + 3y − z = 0}.
Resolução. Pelo Teorema da aproximação, o vetor pedido é u = projF (3, −1, 2).
Agora recorremos ao algoritmo acima para calcular a projeção ortogonal:
Confirme! Passo 1: Determinar uma base para F : por exemplo BF = (1, 0, 2), (0, 1, 3) .
Confirme! Passo 2: Determinar uma base para F ⊥ : por exemplo BF ⊥ = (2, 3, −1) .
Passo 3: Consideremos a base B = (1, 0, 2), (0, 1, 3), (2, 3, −1) de R3 .
Passo 4, 5: Vamos resolver o sistema P X = b, com P = M(id; B, b.c R3 ):
40
1 0 2 3 1 0 2 3 1 0 2 3 1 0 0 14
0 1 3 −1 −→ 0 1
3 −1 −→ 0
1 3 −1 −→ 0 1 0 − 17 14 .
1
2 3 −1 2 0 3 −5 −4 0 0 −14 −1 0 0 1 14
Portanto projF (3, −1, 2) = 40
14
(1, 0, 2) − 17
14
(0, 1, 3) = 40
14
, − 17 , 29
14 14
é o vetor de F à
menor distância de b = (3, −1, 2).
40
d(b, F ) = d(b, projF b) = d 3, −1, 2), ( 14 , − 17 ,
14 14
29
)
q √
2 2 29 2 14
= 3 − 40
14
+ − 1 + 17
14
+ 2 − 14
= 14
.
Alternativamente,
1
√
1 3 1 14
d(b, F ) = k projF ⊥ bk =
14 (2, 3, −1)
=
, , − 14
7 14
=
14
.
B = BdB0 ∪ BiB0 .
É claro da definição que a base B0 é direta para a orientação definida por si, pois
M(idE ; B0 , B0 ) = In e |In | = 1 > 0.
Dada outra base B1 de E, então apenas uma das duas situações seguintes ocorre
M(idE ; B1 , B0 ) > 0 e B1 ∈ BdB0 (2.5)
ou
M(idE ; B1 , B0 ) < 0 e B1 ∈ BiB0 . (2.6)
Podemos então provar que E admite exatamente duas orientações distintas - as de-
terminadas pelas bases diretas e as determinadas pelas bases inversas. Para o efeito
relembremos como é construída a matriz duma composição de aplicações lineares.
Suponhamos que temos as aplicações lineares f e g entre os subespaços vetoriais E,
E ′ e E ′′ relativamente às bases B, B′ , B′′ como indicado
f g
E −→ E′′ −→ E′′′′ e A = M(f ; B, B′ ) , B = M(g; B′, B′′ ).
B A B B B
Então
M(g ◦ f ; B, B′′ ) = M(g; B′ , B′′ )M(f ; B, B′ ) = BA.
ou
Exemplo 2.90. Se B0 = e1 , e2 , e3 fixa uma orientação em R3 então, para esta
orientação:
Podemos recorrer à proposição 2.89. Para B1 usamos a alínea (a) e para B2 usamos
(b) e as bases são diretas. Para B3 usamos a alínea (a) e para B4 usamos (b) e (c)
e as bases são inversas.
Alternativamente podemos efetuar os cálculos dos respetivos determinantes:
1 0 0 1 0 0
(a) |M(idR3 ; B1 , B0 )| = 0 1 0 = 2 > 0 , |M(idR3 ; B2 , B0 )| = 1 1 0 = 1 > 0,
0 0 2 0 0 1
1 0 0 0 1 0
(b) |M(idR3 ; B3 , B0 )| = 0 −1 0 = −1 < 0 , |M(idR3 ; B4 , B0 )| = 1 0 0 = −2 < 0.
0 0 1 0 1 2
Desta forma, existem apenas dois vetores em hu, vi⊥ com norma k, a saber
k k
z1 = z e z2 = − z.
kzk kzk
Desta forma, somente uma destas bases define igual orientação que B0 .
Acabámos de justificar que num espaço euclideano de dimensão 3, dados dois
vetores linearmente independentes, existe um único vetor satisfazendo as três restri-
ções que impusémos. Em resumo:
Teorema 2.91. Seja (E, · | ·) um espaço euclidiano de dimensão 3 com uma base
fixa B0 = e1 , e2 , e3 . Sejam u, v ∈ E dois vetores linearmente independentes.
Seja k ∈ R+ . Então, existe um único vetor z ∈ E tal que
(b) kzk = k
(c) B = u, v, z é uma base direta de E.
(a) u×v 6= 0E .
(ii) Por (i), sabemos que z = α(1, −1, 1/2) para algum α ∈ R. Vamos agora
conhecer as duas possibilidades para α sabendo que kzk = kukkvk sen ∠(u, v).
Temos
v v
u u
u 1 0 −1 1 u 1 √
u u
kuk = t 1 1 0 0 1 1 1 = t 1 1 0 1 = 2
−1 1 5 0 0
v u v
u
u 1 0 −1 1 u 2 √ √
u u
kvk = t 1 0 −1 0 1 1 0 = t 1 0 −1 −1 = 8 = 2 2
−1 1 5 −1 −6
v u v
u
u 1 0 −1 1 u 2
u u
u | v = t 1 1 0 0 1 1 0 = t 1 1 0 −1 = 1
−1 1 5 −1 −6
Portanto
r 2 r 2
p u|v
sen < (u, v) = 1 − cos2 ∠(u, v) = 1− = 1− √ 1√
kukkvk 22 2
q 2 q √
= 1 − 14 = 15 16
= 15
4
.
Logo √ √ √ √
kukkvk sen < (u, v) = 2 2 2 415 = 15.
Por outro lado,
v v 1
u u
u 1 0 −1 1 u 2 √
1, −1, 1
= u
t 1 −1 1
0 1 1 u
1 = t 1 −1 1 1
− = 5
.
2 2 2 2 2
1 1
−1 1 5 2 2
Por fim
√
α 1, −1, 1
= kukkvk sen < (u, v) ⇐⇒ |α|
1, −1, 1
= 15
2 2
√
√ √ 15 √ √ √
⇐⇒ |α| 25 = 15 ⇐⇒ |α| = √ = 2 3 ⇐⇒ α = 2 3 ∨ α = −2 3.
5/2
(iii) Para decidirmos qual dos dois α possíveis é o certo temos de determinar a
orientação dada pelas bases B1 = u, v, z1 e B2 = u, v, z2 , onde z1 =
√ √
2 3 1, −1, 12 e z2 = −2 3 1, −1, 12 . Temos
(u×v) | w.
Demonstração. Temos
⊥
(u×v) | w = 0 ⇐⇒ w ∈ hu×vi⊥ ⇐⇒ w ∈ hu, vi⊥ ⇐⇒ w ∈ hu, vi ,
Prop. 2.93 Teor. 2.63
como queríamos.
u×v
v
h ku×vk
u
Assim, temos
área do paralelogramo de-
ku×vk = kukkvk sen ∠(u, v) = kukh = finido pelos vetores u e v .
Em particular,
1
ku×vk = área do triângulo definido pelos vetores u e v .
2
Por outro lado,
(iii) Temos
u1 v1 u2 v3 − u3 v2
|M(idE ; (u, v, z), B)| = u2 v2 −u1 v3 + u3 v1
u3 v3 u1 v2 − u2 v1
= u1 v2 (u1v2 − u2 v1 ) + u2 v3 (u2 v3 − u3 v2 ) + u3 v1 (−u1 v3 + u3 v1 )
− u3 v2 (u2v3 − u3 v2 ) − u2 v1 (u1 v2 − u2 v1 ) − u1 v3 (−u1 v3 + u3 v1 )
= u21 v22 − u1 u2 v1 v2 + u22 v32 − u2 u3 v2 v3 + u23 v12 − u1 u3 v1 v3
− u2 u3 v2 v3 + u23 v22 − u1 u2 v1 v2 + u22 v12 − u1 u3 v1 v3 + u21 v32
= u21 v22 −2u1u2 v1 v2 +u22v32 −2u2 u3 v2 v3 +u23v12 +u23v22 +u22v12 −2u1 u3 v1 v3 +u21 v32
Pelo menos = (u1 v2 − u2 v1 )2 + (u2 v3 − u3 v2 )2 + (u1 v3 − u3 v1 )2 > 0.
uma parcela é
não-nula! Portanto a base u, v, z é direta.
Porquê?
O teorema está provado.
= e1 − 3e2 − 2e3 .
Vamos considerar novamente a situação do exercício 2.94 e re-calcular u×v re-
correndo ao Teorema 2.98.
1 0 −1
Exemplo 2.100. Na situação do exercício 2.94, G = [ei | ej ] = 0 1 1 é a
−1 1 5
matriz da métrica em relação à base canónica B = e1 , e2 , e3 de R . Para usarmos o
3
teorema 2.98 necessitamos de expressar os vetores u = (1, 1, 0), v = (1, 0, −1) como
combinação linear dos vetores de uma base ortonormada e direta para o produto
interno definido por G. Por observação da matriz G = [ei | ej ] sabemos que
e1 | e1 = 1 = e2 | e2 e e1 | e2 = 0.
Assim, de acordo com o processo de ortogonalização de Gram-Schmidt, podemos
tomar u1 = e1 , u2 = e2 e
e3 | u1 e3 | u2
u3 = e3 − u1 − u2 = e3 − −1 e − 11 u2 = e1 − e2 + e3 = (1, −1, 1).
1 1
u1 | u1 u2 | u2
1 0 −1 1 0
Como u3 | u3 = 1 −1 1 0 1 1 −1 = 1 −1 1 0 = 3 então
−1 1 5 1 3
√ √ √
B′ = u1 , u2 , kuu33 k = (1, 0, 0), (0, 1, 0), 33 , − 33 , 33 é uma base ortonormada
para o produto interno dado. Como temos
√
1 0 3/3
√ √
0 1 − 3/3 = 3/3 > 0
0 0 √3/3
(c) Temos
u×(v + w) = −(v + w)×u = − (v×u) + (w×u) = (u×v) + (u×w).
b) a) b)
(e) Temos
u1 u2 u3 v1 v2 v3 v1 v2 v3
(u×v) | w = v1 v2 v3 = − u1 u2 u3 = − − w1 w2 w3
cor. 2.101
w1 w2 w3 L1 ↔L2 w1 w2 w3 L2 ↔L3 u1 u2 u3
= (v×w) | u = u | (v×w).
cor. 2.101 A3
para quaisquer x = x1 e1 + · · · + xn en , y = y1 e1 + · · · + yn en ∈ Cn .
No caso de A ser real, usando um argumento idêntico prova-se também que
f (x) | y = x | f (y), para quaisquer x, y ∈ Rn . Um endomorfismo f : E → E que
satisfaça uma igualdade do tipo 2.12 tem um nome especial, que será justificado na
subsecção 2.6.3.
Demonstração. Vamos considerar o caso complexo, pois o caso real é análogo. Seja
A = [aij ] = M(f ; B, B) ∈ Mn×n (C). Quer dizer que f (ej ) = a1j e1 + · · · + aij ei +
· · · + anj ej , para j = 1, . . . , n. Como a base B é ortonormada, já observámos que
f (u) | v = (u1 + 2u2 , 2u1 − u2 ) | (v1 , v2 ) = (u1 + 2u2 )v1 + (2u1 − u2 )v2
= u1 v1 + 2u2 v1 + 2u1 v2 − u2 v2 = u1 (v1 + 2v2 ) + u2 (2v1 − v2 )
= (u1 , u2 ) | (v1 + 2v2 , 2v1 − v2 ) = u | f (v)
(b) f tem pelo menos um vetor próprio (e, portanto, um valor próprio); mais
precisamente, existe v ∈ E, v 6= 0E , tal que f (v) = λv para algum λ ∈ R.
e, portanto, a matriz
x1 + x1 2 Re x1
Y =X +X = .. = .. ∈ M (R)
. . n×1
xn + xn 2 Re xn
F = Eλ1 ⊕ · · · ⊕Eλt .
E = F = Eλ1 ⊕ · · · ⊕Eλt .
(b) A tem pelo menos um vetor próprio (e, portanto, um valor próprio); mais
precisamente, existe X ∈ Mn×1 (K), X =
6 0, tal que AX = λX para algum
λ ∈ R.
Teorema 2.109. Seja P ∈ Mn×n (R) uma matriz quadrada real. São equivalen-
tes as afirmações seguintes:
(a) P é ortogonal.
(b) P é invertível e P −1 = P T .
(P T )T P T = (P P T )T = InT = In
Teorema 2.110. Seja U ∈ Mn×n (C) uma matriz quadrada complexa. São equi-
valentes as afirmações seguintes:
(a) U é unitária.
(b) U é invertível e U −1 = U ∗ .
(c) | det U| = 1.
O Teorema dos Eixos Principais garante que toda a matriz real simétrica é diago-
nalizável ortogonalmente e que vale o recíproco. Este resultado permitirá determinar
um sistema de eixos, chamados eixos principais, relativamente ao qual uma forma
quadrática admite uma equação simplificada, daí o seu nome. Ver secção 4.3.
(a) A é simétrica.
AT = (P DP T )T = (P T )T D T P T = P DP T = A,
Passo 2 Determinar uma base para cada espaço próprio Mλ , resolvendo o sistema
(A − λIn )X = 0.
Passo 4 O conjunto formado pelos vetores próprios que constituem as bases para
os espaços próprios obtidas no passo 3 é uma base ortonormada de Rn .
Passo 5 Se P é a matriz cujas colunas são formadas pelos vetores da base obtida
no passo 4, então P é uma matriz ortogonal e P T AP é uma matriz diagonal.
2 2 1
Exemplo 2.115. Dada a matriz simétrica A = 2 5 2 ∈ M3×3 (R) vamos de-
1 2 2
terminar uma matriz ortogonal P tal que P AP seja diagonal.
T
Passo 4: Logo √1 , √2 , √1 , √12 , 0, − √12 , √13 , − √13 , √13 é uma base ortonor-
6 6 6
mada de R3 formada por vetores próprios de A.
1 1 1
√ √ √
6 2 3
Passo 5: Seja P = √26 0 − √13
. Temos P ortogonal e P T AP = diag(7, 1, 1).
√1 − √12 √13
6
A∗ = (UAU −1 )∗ = (U ∗ )∗ D ∗ U ∗ = UD ∗ U ∗ 6= UDU ∗ = A.
As matrizes quadradas que comutam com a sua transconjugada, mas cujo pro-
duto não seja necessariamente a matriz identidade, têm um nome especial.
O conceito de matriz normal pode ser traduzido de modo natural para um endo-
morfismo. Para isso, necessitamos de garantir a existência de um endomorfismo f ∗
que se comporte relativamente a f como a matriz A∗ se comporta relativamente à
matriz A. A sua existência (e unicidade) é garantida pelo Teorema de Riesz 2.69. E
o recurso a f ∗ facilitará a caracterização das matrizes diagonalizáveis unitariamente,
como veremos adiante.
hy (x) = f (x) | y
para todo x ∈ E é uma aplicação linear, visto f ser linear. Portanto, pelo Teorema
f (x) | y = x | u = x | f ∗ (y).
para i, j = 1, . . . , n. Portanto
In = G B ′ = P T G B P = P T In P = P T P ,
(b) Diremos que f é normal se ele comutar com o seu adjunto, i.e. se
f ◦ f ∗ = f ∗ ◦ f.
(a) f é auto-adjunto se e só se f = f ∗ .
(c) f ∗∗ = f .
e da definição de f ∗ .
(e) Seja y ∈ F ⊥ . Queremos mostrar que f ∗ (y) ∈ F ⊥ , ou seja que x | f ∗ (y) = 0
para todo x ∈ (F ⊥ )⊥ = F . Seja, pois, x ∈ F qualquer. Temos f (x) ∈ f (F ) ⊆ F e
y ∈ F ⊥ , logo f (x) | y = 0. Segue-se que
x | f ∗ (y) = f (x) | y = 0,
T 2.121
como queríamos.
(b) Vamos mostrar que f − λ idE comuta com (f − λ idE )∗ :
= (f − λ idE )∗ (f − λ idE ).
f ∗∗ (Eλ⊥ ) ⊆ Eλ⊥ .
(a) A é normal.
F = Eλ1 ⊕ · · · ⊕Eλt .
f (Eλ⊥i ) ⊆ Eλ⊥i , 1 ≤ i ≤ t.
Assim temos
Em geral, dada f (F ⊥ ) = f Eλ⊥1 ∩ · · · ∩ Eλ⊥t ⊆ f Eλ⊥1 ∩ · · · ∩ f Eλ⊥t ⊆ Eλ⊥1 ∩ · · · ∩ Eλ⊥t = F ⊥ .
uma função
f: A→B e Usando esta inclusão, com um argumento idêntico ao da demonstração do teorema
A1 , A2 ⊆ A
2.106-(e), podemos provar que E = F , com E = Cn . Por outro lado, seguindo esse
temos
f (A1 ∩ A2 ) ⊆ argumento, para cada 1 ≤ i ≤ t, escolhemos uma base ortonormada Bi de Eλi e
f (A1 ) ∩ f (A2 ). consideramos a união
B = B1 ∪ . . . ∪ Bt .
Como Cn = Eλ1 ⊕ · · · ⊕Eλt , B é uma base de Cn . Além disso, para i 6= j, os vetores
de Bi são ortogonais aos vetores de Bj (pela Proposição 2.125-(d) porque λi 6= λj ) e,
portanto, B é ortonormada (e constituída por vetores próprios de f ). Segue-se que
existe uma matriz diagonalizante U cujas colunas formam uma base ortonormada
de Cn . Pelo Teorema 2.110, a matriz U é unitária, e portanto, A é diagonalizável
unitariamente.