Algebra Lineal y Multilineal
Algebra Lineal y Multilineal
Algebra Lineal y Multilineal
lgebra Lineal,
lgebra Multilineal
y
K-Teora Algebraica Clsica
Emilio Lluis-Puebla
www.sociedadmatematicamexicana.org.mx
Serie: Textos. Vol. 9 (2008)
ISBN 968-9161-31-8
A L G E B R A L I N E A L,
ALGEBRA MULTILINEAL
Y
K-TEORIA
ALGEBRAICA CLASICA
EMILIO LLUIS-PUEBLA
Universidad Nacional Aut
onoma de Mexico
INDICE GENERAL
Prefacio
Introducci
on
Captulo I
Conceptos Fundamentales
I.1
I.2
I.3
I.4
I.5
21
27
35
42
47
Captulo II
Vectores Caractersticos y Formas Can
onicas
II.1
II.2
II.3
II.4
II.5
55
62
67
70
77
iv
Indice general
Captulo III
Formas y Operadores
III.1 Formas bilineales
III.2 Formas bilineales, simetricas, alternantes, cuadraticas
y hermitianas
III.3 Producto escalar
III.4 Operadores adjuntos
III.5 El teorema espectral
87
97
103
109
114
Captulo IV
Algebra Multilineal y K-Teora Algebraica Cl
asica
IV.1
IV.2
IV.3
IV.4
Producto tensorial
Producto exterior
Estructuras algebraicas
K0 y K1
121
128
135
141
Ap
endice
Notas Hist
oricas
151
Bibliografa
173
Lista de Smbolos
175
Indice Analtico
177
PREFACIO
vi
Prefacio
modificaciones adecuadas, como por ejemplo, el captulo I, II.1, II.2, II.3 y III.3 en
el primer semestre y el resto en el segundo).
En la Introduccion se presenta un panorama del presente texto. Obviamente no
se pretende que el lector que no conozca el tema pueda comprender lo que en ella se
expone. Al contrario, conforme el lector avance en el estudio, podra regresar a ella
y obtener una vision global del Algebra Lineal incluida en esta obra. Las refencias
sin n
umeros romanos indican resultados del captulo en consideracion.
Hemos incluido un apendice que contiene notas historicas sobre algunos de los
conceptos definidos en el texto. Tiene como finalidad la de motivar el estudio del
Algebra Lineal a traves del analisis de las ideas que dieron lugar a dichos conceptos
y del conocimiento de quienes contribuyeron a ellos. No esta dise
nado para una
lectura continua, mas bien, lo esta para ser consultado conforme el lector encuentre
los conceptos en cada seccion. Organizamos el apendice de acuerdo al orden de las
secciones indicadas con una A antepuesta.
Durante varios a
nos he impartido cursos basados en el material aqu incluido a
alumnos de licenciatura, a quienes agradezco su atencion y sus oportunos comentarios.
Del mismo modo, deseo agradecer a varios de mis colegas, entre ellos Mara Elena
Garca y Mary Glazman el haber utilizado versiones preliminares en sus cursos; muy
especialmente a mi padre, Emilio Lluis Riera por haber hecho importantes comentarios, sugerencias y correcciones al haber utilizado el texto varios a
nos. Tambien,
mi mayor agradecimiento a mi esposa Flor de Mara Aceff, quien ademas de haberlo
utilizado en sus cursos, hecho numerosas correcciones y proporcionado agradables
conversaciones sobre el libro, realizo la formacion y composicion en el sistema T E X
de las m
ultiples versiones preliminares. Sin embargo, cualquier falta u omision es
exclusivamente ma.
Igualmente, agradezco a Mara de Jes
us Figueroa el haber escrito las notas
historicas como consecuencia de su largo estudio de investigacion para realizar su
tesis doctoral y a Alejandro Garciadiego a quien agradecemos el asesoramiento
experto para la realizacion de dichas notas.
Finalmente, agradezco a Rosa Quintana la captura preliminar del texto. Este
libro, producto de varios a
nos de trabajo, se elaboro durante su fase final bajo el
auspicio del CONACYT a traves de una Catedra Patrimonial.
Emilio Lluis Puebla
Prefacio
vii
publicacion. Este
tiene una excelente accesibilidad, as como un nulo costo, que
de no ser as, resultara elevado para los estudiantes y colegas de muchos lugares.
Las Publicaciones Electronicas de la Sociedad Matematica Mexicana tienen acceso
libre en lnea, pueden copiarse en el ordenador o imprimirse en papel para uso
personal. Ademas, el lector podra adquirir las publicaciones en CD o impresas en
papel empastado.
Primavera de 2008
Emilio Lluis-Puebla
INTRODUCCION
Introducci
on
Introducci
on
j
%
Vj
ni=1 Vi
n
K = Kj
-f
{1, 2, . . . , n}
g
n
n
X
X
j ej =
j vj = 0
j=1
j=1
Introducci
on
como una combinacion lineal. El que sea biyectiva quiere decir que todo elemento
Pn
de V puede escribirse de una, y solamente una manera, en la forma j=1 j vj . Es
onica.
claro que el conjunto {ej }nj=1 es una base de nj=1 Kj = K n llamada can
Tambien diremos que el conjunto {vj }nj=1 de vectores de V es linealmente dependiente si no es linealmente independiente.
Es inmediato, de la definicion de base, que todo espacio vectorial V sobre un
campo K con base {vj }nj=1 es isomorfo a K n . Cualquier base de V posee la misma
cardinalidad y los espacios K n y K m son isomorfos si, y solo si, n = m. Esto nos
permite definir el concepto de dimension. Definimos la dimensi
on de un espacio
vectorial V sobre un campo K, denotada dim V , como el n
umero de elementos
de una de sus bases podemos poseer una teora de la dimension para los espacios
vectoriales. As, podemos decir que dos espacios vectoriales son isomorfos si, y solo
si, tienen la misma dimension.
Un resultado que relaciona la dimension de la suma de subespacios con la de
cada uno de ellos es
dim (U + V ) = dim U + dim V dim (U V )
donde U y V son subespacios de alg
un espacio W , y como consecuencia inmediata
dim (U V ) = dim U + dim V.
Si f : U V es una funcion lineal entonces se tiene que
dim (U ) = dim (im f ) + dim (ker f ).
Utilizaremos este hecho en lo subsecuente.
Existe una relacion fundamental entre los homomorfismos y las matrices. Un
sistema de m ecuaciones con n incognitas puede escribirse en la forma
AX = B
donde
a11
A = ...
am1
..
.
a1n
.. ,
.
amn
X = t (x1 , . . . , xn ) y B = t (b1 , . . . , bm ).
Introducci
on
11 v1
..
.
m1 v1
1n vn
..
.
mn vn .
f (u1 )
11 1n
v1
. .
.. .. .
..
.. =
.
.
m1 mn
vn
f (um )
11 1n
t
.. se llama matriz asociada a f , la denotaremos con
La matriz ...
.
m1 mn
0
[f ] y decimos que representa a f .
Si [u] representa el vector traspuesto de coordenadas de u con respecto a la
base y [f (u)] 0 es el de f (u) con respecto a 0 entonces se tiene que
0
[f ] [u] = [f (u)] 0
es decir, multiplicar el vector de coordenadas de u con respecto a la base por la
0
matriz [f ] nos da el vector de coordenadas del vector f (u) con respecto a 0 .
Ahora consideremos dos bases de U : = {ui }ni=1 y = {u0i }ni=1 . Entonces
1U (u1 ) = u1
..
..
.
.
1U (un ) = un
=
=
11 u01
..
.
n1 u01
+
+
..
.
11
..
N =
.
1n
n1
..
.
nn
1n u0n
nn u0n .
Introducci
on
Introducci
on
f () = an + an1
n1
+ + a1 + a0 I
Introducci
on
Introducci
on
una base del subespacio que genera, cuya matriz asociada posee ndice de
nilpotencia r y es de la forma
0
0
.
..
0
0
1
0
0
1
0
0
0
0
0
0
0
0
..
.
..
.
..
.
0
0
..
.
.
1
0
A
un m
as, si HomK (V, V ) es de ndice de nilpotencia r, entonces posee
una matriz asociada diagonal por bloques que son de la forma de la matriz
anterior.
Se sabe que existe al menos una matriz de orden r y que las otras son de ordenes
r. El n
umero de matrices esta determinado en forma u
nica por y el n
umero de
matrices de todos los ordenes es igual a la dimension de ker .
10
Introducci
on
i
0
Jij = ...
0
0
1
i
..
.
0
0
0
1
..
.
0
0
0
0
..
.
i
0
0
0
..
.
.
1
i
As, dos operadores lineales cualesquiera son similares si, y solo si, poseen la
misma forma canonica de Jordan salvo el orden de los bloques.
Una funcion f : U V W de espacios vectoriales sobre un campo K se llama
bilineal si es lineal en cada variable cuando la otra se mantiene fija. El ser bilineal
no quiere decir que sea lineal ni viceversa. Si W = K diremos que f es una forma
bilineal y denotamos con L2 (U, V ; K) el conjunto de formas bilineales de U V
en K. Si U = V , utilizaremos la notacion Bil(V ) y le podemos dar a Bil(V ) una
estructura de espacio vectorial sobre K.
Considere el espacio vectorial sobre K, HomK (V, K).
Sus elementos
f : V K se llaman funcionales lineales o formas lineales, se acostumbra
denotar a HomK (V, K) con L1 (V ; K) o simplemente V y se le llama espacio
dual de V . Se tienen los siguientes resultados:
(i) Sea {vi }ni=1 una base de V y {fi }ni=1 HomK (V, K) = V funcionales tales
que fi (vj ) = ij . Entonces {fi }ni=1 es una base de V y dim V = n.
(ii) Si {fi }ni=1 es una base de V entonces {fij }ni,j=1 dada por fij (u, v) =
fi (u)fj (v) es una base para Bil(V ) y dim Bil(V ) = n2 .
(iii) Sea = {vi }ni=1 una base de V y f : V V K una forma bilineal. Si
Pn
Pn
u = i=1 i vi y v = j=1 j vj entonces
f (u, v) =
n
X
i j f (vi , vj ).
i,j=1
n
X
i,j=1
Introducci
on
11
12
Introducci
on
Introducci
on
13
f (v1 , . . . , vi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm )
14
Introducci
on
g&
yh
W
f1
f2
f3
fm2
fm1
fm
0 V1 V2 V3 Vm1 Vm 0
es exacta en Vi si im fi1 = ker fi y diremos que es exacta si es exacta en cada
Vi para i = 1, . . . , m.
Sucede que si se tiene una sucesion exacta como la anterior, entonces
dim V1 dim V2 + dim V3 + (1)m1 dim Vm = 0 y si 0 V1
V2 V3 0 es una sucesion exacta (llamada sucesi
on exacta corta) entonces
V2
= V1 V3 .
Consideremos una funcion multilineal f : ki=1 Vi W . Diremos que f es alternante si f (v1 , . . . , vk ) = 0 siempre que vi = vj para algunas i 6= j.
15
Introducci
on
ni=1 Vi
g&
Vk
yh
W
Si {vi }ki=1 son vectores de V , denotaremos a f (v1 , . . . , vk ) con v1 vk .
V2
Tambien denotaremos
V como V V . Es facil comprobar que u v = v u.
Vk
V como el cociente ki=1 Vi /U donde U es el subespacio de ki=1 Vi
Si definimos
generado por todos los elementos de la forma v1 vk con vi = vj para algunas
Vk
V estan garantizadas. La dimension
i 6= j es claro que la existencia
y unicidad de
Vk
n
de
V resulta ser
.
k
Sea A: V V un endomorfismo (sinonimo de operador lineal) de V . SuVn
V
pongamos que dim V = n. Definamos la funcion g = gA : ni=1 Vi
donde Vi = V dada por gA (v1 , . . . , vn ) = A(v1 ) A(vn ). Como g es mulVn
Vn
V
tilineal alternante, existe una funcion lineal u
nica h = hA :
V tal que
Vn
n
hA (v1 vn ) = A(v1 ) A(vn ). Como dim
V =
= 1, hA es
n
simplemente la multiplicacion por un escalar denotado |A| o det(A), i.e.
hA (v1 vn ) = |A|(v1 vn ).
El determinante de A: V V se define como el escalar |A|. Es facil comPn
probar que si {vi }ni=1 es una base de V y si escribimos A(vi ) = j=1 ij vj para
i = 1, . . . , n donde (ij ) es la matriz de A con respecto a la base {v1 , . . . vn }, el
P
determinante de A es igual a sig1(1) n(n) donde es una permutacion
del conjunto {1, 2, . . . , n} As, definimos el determinante de una matriz (ij )
Pn
como el determinante del endomorfismo A: V V dado por A(vi ) = j=1 ij vj
para i = 1, . . . , n y lo denotamos con |ij | o det(ij ).
Podemos definir una multiplicacion llamada producto exterior y denotarla por
Vk
V`
Vk+`
conveniencia con :
V
V
V mediante la regla
((u1 uk ), (v1 v` )) = u1 uk v1 v` .
16
Introducci
on
mediante
((u1 uk ), (v1 v` )) 7 u1 uk v1 v`
As tenemos un algebra graduada (donde T 0 V = K y T 1 V = V )
TV = (K, V, T 2 V, T 3 V, T 4 V, . . .)
llamada
algebra tensorial de V .
Sea V el espacio dual de V . Consideremos el espacio tensorial T k V de grado k de
V.
Consideremos tambien T ` V y denotemos con T`k (V ) el producto
(k V ) (` V ). Es decir, T k V T ` (V ) = T`k (V ). Con esta notacion se tiene
que T0k (V ) = T k (V ) = k V , T`0 (V ) = l V y T00 (V ) = K. Llamaremos a T`k V
espacio tensorial de tipo (k, `) y cada uno de sus elementos lo llamaremos tensor
de tipo (k, `). Un tensor de tipo (k, 0) se llamara tensor contravariante de grado
k y uno de tipo (0, `) tensor covariante de grado `. Un tensor de tipo (0, 0) es
simplemente un escalar. Un elemento de T01 V = V se llama vector contravariante y uno de T10 V = V se llama vector covariante. Si k 6= 0 y ` 6= 0, un tensor
mixto es un tensor de tipo (k, `).
Sea {vi }ni=1 una base de V y {f j }nj=1 la base de V , (con ndices superiores). Es
facil ver que los tensores
vi1 vik f j1 f j`
con i , j = 1, . . . , n; = 1, . . . , k y = 1, . . . , ` forman una base de T`k (V ).
Entonces cualquier tensor del tipo (k, `) puede escribirse en forma u
nica como
t=
j1
k
f j` .
ji11 i
j` vi1 vik f
17
Introducci
on
La K-Teora Algebraica Clasica es parte del Algebra Lineal General. Intuitivamente, la K-Teora Algebraica Clasica es una generalizacion del teorema que
establece la existencia y unicidad de las bases para espacios vectoriales y tambien
de la Teora de Grupos del grupo lineal general sobre un campo K.
Definiremos un grupo denotado K0 (X) asociado a un monoide conmutativo X
mediante la siguiente propiedad universal: sea g: X G un homomorfismo de
monoides del monoide X en el grupo conmutativo G. Definimos el grupo K0 (X)
como el u
nico grupo que cumple que, si f : X K0 (X) es un homomorfismo de
monoides entonces existe un homomorfismo de grupos u
nico h: K0 (X) G tal
que g = h f
X
K0 (X)
yh
g&
G
18
Introducci
on
sobre un campo K, los cuales podemos representar por el smbolo EVK se tiene
que K0 (EVK ) = K0 (K)
= ZZ.
Que sucede para otras estructuras cuando consideramos anillos que no necesariamente son campos? Si consideramos los ZZ-modulos proyectivos finitamente
generados Ab, es decir, los grupos abelianos libres de rango finito se sabe que
K0 (ZZ)
= ZZ. Sin embargo, si consideramos los ZZ-modulos finitos Abf se sabe que
K0 (Abf )
I + . Pero si consideramos los ZZ-modulos finitamente generados Abfg
=Q
se tiene que K0 (Abfg)
= ZZ.
Como antes, sea K un campo y denotemos con K n el producto K K
n veces. El producto tensorial de dos espacios vectoriales sobre K es un espacio
vectorial sobre K. Como K n K m
= K nm los espacios vectoriales son cerrados
bajo el producto tensorial. Entonces podemos dar a K0 (K) una estructura de anillo
mediante
[V ] [W ] = [V K W ].
Consideremos el conjunto de las transformaciones lineales invertibles a traves
de uno asociado de matrices. Sea V un espacio vectorial de dimension n sobre un
campo K. Denotemos con GL(V ) (o con AutK (V )) el conjunto de todas las funciones lineales de V en V que sean biyectivas (invertibles). Podemos proporcionarle
a este conjunto una estructura de grupo definiendo una operacion binaria
: GL(V ) GL(V ) GL(V )
mediante la composicion
(f g)(v) = f (g(v)).
Claramente GL(V ) es un grupo bajo .
Ahora definamos otro conjunto. Denotemos con GLn (K) el conjunto de las
matrices de n n con elementos en el campo K que poseen inverso, es decir, el
conjunto de todas las matrices invertibles o no singulares de n n con elementos
en K. Podemos definir en GLn (K) una operacion binaria
: GLn (K) GLn (K) GLn (K)
(A, B) 7 A B
donde denota la multiplicacion de matrices.
Es facil comprobar que
(GLn (K), ) es un grupo cuyo elemento de identidad es la matriz diagonal In .
Llamaremos a GLn (K) el grupo lineal general de grado n sobre K.
Existe una estrecha relacion entre los grupos GL(V ) y GLn (K), a saber, si
escogemos una base fija de V , cada funcion lineal biyectiva de V en V posee una
19
Introducci
on
si j 6= k, i 6= l
1
si j = k, i 6= l
[ei,j , ek,l ] = eil
ekj
si j 6= k, i = l.
Denotemos con En (K) el subgrupo de GLn (K) generado por todas las matrices
elementales eij , K, 1 i 6= j n, llamado grupo elemental lineal de K.
Si cada matriz A GLn (K) la identificamos con la matriz
A 0 GL
n+1 (K)
0 1
obtendremos inclusiones GL1 (K) GL2 (K) GL3 (K) . . . . Sea GL(K) =
S
on de los grupos GLn (K) la cual llamaremos grupo lineal
n=1 GLn (K), la uni
general infinito de K. Podemos concebir a GL(K) como el grupo que consta
de todas las matrices invertibles infinitas A = (aij ) con aij K, 1 i < ,
1 j < y aij = ij , la delta de Kronecker para toda i, j excepto un n
umero
finito de i, j. Entonces GLn (K) GL(K) y lo vemos como el subgrupo de todas
las (aij ) GL(K) con aij = ij para toda i, j > n. La inclusion de GLn (K)
en GLn+1 (K) se restringe a la inclusion de En (K) en En+1 (K) y, en GL(K), el
subgrupo
E(K) =
n=1 En (K)
se llama grupo elemental infinito de K. Se puede probar un resultado de Whitehead:
[GL(K), GL(K)] = E(K).
Definimos el grupo cociente GL(K)/E(K) como el K-grupo algebraico de ndice
uno del campo K denotado con K1 (K). Luego
20
Introducci
on
A
0
0
Ik
Captulo I
CONCEPTOS FUNDAMENTALES
I.1
ESPACIOS VECTORIALES Y
FUNCIONES LINEALES
Sea K un campo.
1.1 DEFINICION. Un espacio vectorial sobre un campo K es un conjunto
no vaco V con una operacion binaria
+: V V V
(u, v) 7 u + v
y una funcion
: K V V
(, v) 7 (, v) = v
que cumplen los siguientes axiomas:
(i) u + v = v + u
(ii) (u + v) + w = u + (v + w)
(iii) Existe O V tal que v + O = v
(iv) Para cada v
v + (v) = O
22
(v) (u + v) = u + v
(vi) ( + )v = v + v
(vii) ()v = (v)
(viii) Para 1 K, 1v = v;
(, , 1 K; u, v, w V ).
Entonces
(i) 0v = O; 0 K, O V .
(ii) ()v = (v) = v;
K, v V .
Demostraci
on. (i) Sabemos que 0 + 0 = 0 en K. Luego, utilizando el axioma
(vi) de 1.1 tenemos que
0v + 0v = (0 + 0)v = 0v.
Sumando 0v a ambos lados obtenemos que 0v = O.
(ii) Como + () = 0, K tenemos que
O = 0v = ( + ())v = v + ()v.
Sumando v a ambos lados se tiene que v = ()v. Tomando v+(v) =
O (axioma (iv)), obtenemos (problema 1.2(i))
O = O = (v + (v)) = v + (v).
Sumando v a ambos lados obtenemos v = (v). Luego, ()v =
(v) = v.
Observese que, en la demostracion precedente, cuando tomamos + (), el
signo + se refiere a la suma del campo K y cuando consideramos v + (v), el signo
+ se refiere a la suma del espacio vectorial V .
23
mediante
(1 , 2 , . . . , n ) + (1 , 2 , . . . , n ) = (1 + 1 , 2 + 2 , . . . , n + n ); i , i K.
Definamos una multiplicacion escalar
: K K n K n
(, (1 , . . . , n )) 7 (1 , . . . , n )
mediante
(1 , . . . , n ) = (1 , . . . , n );
, i K.
24
25
Ademas, (g f )(u) = g(f (u)) = g(f (u)) = g(f (u)) = (g f )(u). Por lo
tanto (g f ) es una funcion lineal.
1.11 DEFINICION. Sea f : U V un homomorfismo (o funcion lineal o
aplicacion lineal) de espacios vectoriales sobre un campo K. Diremos que f es un
=
isomorfismo, y escribiremos f : U
V , si existe un homomorfismo g: V U
tal que g f = 1U y f g = 1V .
Es facil comprobar (problema 1.9) que, si g existe, esta determinada en forma
u
nica; la denotaremos con f 1 y se llama inverso de f . As, f : U V es
isomorfismo si, y solo si, es biyectiva. Diremos que dos espacios U y V sobre un
=
campo K son isomorfos si existe un isomorfismo f : U V y escribiremos U
=V.
PROBLEMAS
1.1 Sea V un espacio vectorial sobre un campo K. Pruebe que el vector O V
es u
nico y que el inverso de v V es tambien u
nico.
1.2 Pruebe que
(i) O = O; K, O V .
(ii) Si v = O entonces, = 0 o v = O;
(iii) (1)v = v;
K, v V .
v V.
1.3 Proporcione con todo detalle el hecho de que V es un espacio vectorial en los
ejemplos 1.3, 1.4, 1.5 y 1.6.
1.4 Sea U = V = K n . Pruebe que f : U V dada por f (u1 , . . . , un ) =
(u1 , u2 , . . . , un1 , 0) es lineal.
1.5 Sea V un espacio vectorial sobre un campo K. Pruebe que la funcion
1V : V V y la funcion OV : V V dadas por 1V (v) = v y OV (v) = O
26
27
2 Subespacios vectoriales
I.2
SUBESPACIOS VECTORIALES
Siempre que consideramos un objeto matematico nos preguntamos por sus subobjetos. Es natural definir un subespacio vectorial de un espacio vectorial sobre un
campo K como un subconjunto que es a su vez un espacio vectorial sobre K bajo
las mismas operaciones. Sin embargo para nuestra conveniencia lo definiremos de
otra forma equivalente (problema 2.1).
(iii) si K y v U entonces v U .
2.5 DEFINICION. Sea f : U V un homomorfismo (funcion lineal) de espacios vectoriales sobre un campo K. El n
ucleo de f , denotado ker f , es el conjunto
de todos los elementos u U tales que f (u) = 0. La imagen de f , denotada im f ,
es el conjunto de f (u) con u U .
28
K.
Luego, f 1 (V 0 ) es un subespacio de U .
2.8 PROPOSICION. Sea {Vi }iI una familia de subespacios de un espacio vectorial V sobre un campo K indizada por un conjunto I . Entonces
iI Vi es un subespacio de V .
Demostraci
on. Sea K; u, v iI Vi . Como iI Vi Vi para cualquier
i I, tenemos que u, v Vi . Como Vi es subespacio de V , O Vi , u + v Vi y
u Vi para toda i I. Por lo tanto O iI Vi , u + v iI Vi y u iI Vi .
29
2 Subespacios vectoriales
K.
30
V1
V
x
V1 V2
-2
V2
31
2 Subespacios vectoriales
Vj
Ln
i=1
Vi
Ln
i=1
Vi .
32
2.18 EJEMPLO. Sea S = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} un
subconjunto de IR4 . Considere las combinaciones lineales de elementos de S, i.e.,
expresiones de la forma
1 (1, 0, 0, 0) + 2 (0, 1, 0, 0) + 3 (0, 0, 1, 0) + 4 (0, 0, 0, 1).
Es claro que cualquier vector de IR4 puede escribirse como combinacion lineal de
vectores de S; luego hSi = IR4 .
PROBLEMAS
33
2 Subespacios vectoriales
n
X
i=1
i vi = 0.
34
35
nj=1 Kj
-f
g
{1, . . . , n}
Demostraci
on. Sea u = 1 e1 + + n en nj=1 Kj y sean v1 = f (1), . . . , vn
= f (n). Como la expresion de u es u
nica podemos definir una funcion mediante
la formula (1 e1 + n en ) = 1 v1 + + n vn . Es inmediato comprobar que
es lineal y que (ei ) = f (i), es decir, g(i) = f (i), o sea, g = f .
3.2 DEFINICION. Diremos que el conjunto {vj }, j {1, 2, . . . , n}, de elementos de un espacio vectorial V sobre un campo K es
(i) linealmente independiente si es inyectiva
(ii) un conjunto de generadores de V si es suprayectiva
36
37
38
tuyendo uj con
w=
j1
X
i=1
Pj1
i=1
i ui tenemos que
i ui + j
j1
X
i=1
i ui +
n
X
i=j+1
i ui =
j1
X
(i + j i )ui +
i=1
n
X
i ui .
i=j+1
39
Demostraci
on. Sea n = dim U , m = dim V y r = dim (U V ). Sea {ui }ri=1
una base de U V . Por el problema 3.5 (iii) {ui }ri=1 es parte de una base de
U y tambien de una base de V , digamos A = {u1 , . . . , ur , v1 , . . . , vnr } y B =
{u1 , . . . , ur , w1 , . . . , wmr } respectivamente.
Consideremos el conjunto C = {u1 , . . . , ur , v1 , . . . , vnr , w1 , . . . , wmr } y
veamos que es una base de U + V con lo que habremos terminando. Como A
genera a U y B genera a V , C genera a U + V . Nos resta probar que C es linealmente independiente, pero esto lo dejamos como ejercicio al lector (problema
3.8).
40
PROBLEMAS
41
42
I.4 APLICACIONES
Considerese el sistema de ecuaciones lineales
a11 x1
..
.
am1 x1
a1n xn
..
.
+ amn xn
=
=
b1
..
.
bm
a11
a1n
b1
x1 ... + + xn ... = ...
am1
amn
bm
()
mogeneo
x1 A1 + + xn An = 0
43
4 Aplicaciones
donde
a11
A = ...
am1
a1n
.. ,
.
amn
X = t (x1 , . . . , xn ) y B = t (b1 , . . . , bm ).
2
2
3
1
2
K 2 dada por f (v) = Av. As, si v = 4 , f (v) = Av = 2 1 3
4 =
6
6
22 .
26
De esta forma, la solucion de la ecuacion AX = 0 es el n
ucleo de la aplicacion
n
m
lineal f = A: K K .
Recuerde que el rango de una matriz A es el n
umero maximo de renglones
linealmente independientes (que tambien es el n
umero maximo de columnas linealmente independientes). Recuerde tambien que el rango de una matriz se obtiene reduciendola mediante operaciones elementales a una matriz escalonada. Por
definicion, si f : U V es una transformacion lineal, el rango de f es la dimension
de la imagen y la nulidad de f es la dimension del n
ucleo de f , i.e.
rango f = dim (im f ) y nul f = dim (ker f ).
44
1 3
1 3
2 6
el rango de la matriz
!
2 4 1
1
1 3
1 0
1 5
4
0
de coeficientes
3
0
0
2
1
3
4
1
3
1
2
6
1 3
0 0
0 0
2 4
1 1
0 0
1
2
0
!
.
45
4 Aplicaciones
Demostraci
on. Si f es invertible, entonces es biyectiva, en particular es inyectiva y, por el problema 2.8, ker f = {0}. Luego, f es no singular.
Si f es no singular, entonces ker f = {0} y por lo tanto f es inyectiva (problema
2.8). Como dim V < , dim V = dim (im f ) + dim (ker f ) = dim (im f ). Por lo
tanto im f = V , i.e., f es suprayectiva. As, f es biyectiva, luego invertible.
Consideremos el sistema de n ecuaciones con n incognitas AX = B. Si suponemos que el sistema homogeneo asociado AX = 0 solamente posee la solucion trivial,
i.e., ker A = {0}, entonces, por 4.7, A es biyectiva y por lo tanto AX = B posee
una solucion u
nica para cualquier B.
Si suponemos que A es singular, i.e., ker A 6= {0}, existe una solucion no trivial
de AX = 0. Luego A no es suprayectiva, i.e., existe B K n para el cual AX = B
no tiene solucion. A
un mas, si existe una solucion, esta no es u
nica.
PROBLEMAS
4.1 Pruebe que los renglones diferentes de cero de una matriz escalonada son
linealmente independientes.
4.2 Encuentre la dimension y una base para el espacio solucion de los sistemas
(a)
2x + 3y + 2z 4t = 0
2x + 3y + z + 2t = 0
6x 2y + 8z t = 0
(b)
x + 2y + 2z s + 3t = 0
x + 2y + 3z + s + t = 0
3x + 6y + 8z + s + 5t = 0
4.3 Encuentre el sistema homogeneo cuyo espacio solucion esta generado por el
conjunto {(1, 3, 2), (4, 5, 8), (3, 8, 6)}. Haga los mismo para el conjunto {(1, 2, 0, 3),
(1, 1, 1, 4), (1, 0, 2, 5)}.
46
4.4 Sean U y V los subespacios de IR3 dados por U = {(x, y, z)|x + y + z = 0},
V = {(x, y, z)|x+y = 0}. Encuentre una base y la dimension de U , V y U V . Haga
lo mismo para U = {(a, b, c, d) IR4 |b+c+d = 0} y W = {(a, b, c, d) IR4 |a+b = 0,
c = 2d}.
4.5 Sean U y V los subespacios de IR4 generados por {(1, 4, 3, 2), (2, 4, 6, 8),
(3, 6, 4, 2)} y {(2, 3, 1, 4), (1, 1, 2, 0), (3, 1, 2, 4)}. Encuentre la base y la dimension
de U + V y de U V . Haga lo mismo para los subespacios U y V de IR5 generados
por los conjuntos {(1, 3, 2, 2, 3), (1, 4, 3, 4, 2), (2, 3, 1, 2, 9)} y {(1, 3, 0, 2, 1),
(1, 5, 6, 6, 3), (2, 5, 3, 2, 1)}.
4.6 Sea A una matriz de n n. Pruebe que el rango de A es n si, y solo si A es
invertible.
4.7 Encuentre la transformacion inversa del operador lineal f : IR3 IR3 dado
por f (x, y, z) = (y, 2x z, z).
4.8 Pruebe que el rango por columna de una matriz A de m n es igual al rango
de la funcion lineal f : K n K m determinada por A. (Sugerencia: verifique que
para cada j = 1, . . . , n, el vector f (ej ) = Aej es la j-columna de A.)
47
I.5
%
Kj
U
x
Kj
-g
g 00
0
{1, 2, . . . , n}
48
n X
m
X
ij fij (uk ) =
i=1 j=1
m
X
kj fkj (uk ) =
j=1
m
X
supongamos
que
kj vj ;
j=1
f
y
por
lo
tanto
{f
}
genera
a HomK (U, V ). Como hay nm eleij
i=1
j=1 ij ij
mentos en {fij }, dim HomK (U, V ) = nm.
Sea f : U V una aplicacion de espacios vectoriales U y V con dim U = m y
dim V = n. Supongamos que = {u1 , . . . , um } y 0 = {v1 , . . . , vn } son bases para
U y V respectivamente. Como f (ui ) V , tenemos que
f (u1 ) =
..
.
f (um ) =
11 v1
..
.
m1 v1
1n vn
..
.
+ mn vn
49
f (u1 )
11 v1 + + 1n vn
11
.
..
= ..
.. =
.
.
m1 v1 + + mn vn
m1
f (um )
v1
1n
.. .. .
.
.
mn
vn
A la matriz
11
= ...
m1
[f ]
1n
11
.. = ..
.
.
mn
1n
m1
..
.
mn
5.4 EJEMPLO. Sea f : IR2 IR2 dado por f (x, y) = (2x y, x + y). Cal0
culemos [f ] con respecto a la base = 0 = {(1, 0), (0, 1)}. Entonces
f (1, 0) = (2, 1) = 2(1, 0) + 1(0, 1)
Luego [f ] =
2
1
1 .
1
5.5 EJEMPLO. Sea f : IR2 IR2 la aplicacion lineal dada por f (x, y) =
0
(4x + y, 2x 4y). Calculemos [f ] donde = 0 = {(1, 1), (1, 0)}:
f (1, 1) = (5, 2) = (2)(1, 1) + (7)(1, 0) y
f (1, 0) = (4, 2) = (2)(1, 1) + (2)(1, 0). Luego
0
[f ] =
2
7
2 .
2
[f ] [u] =
2
7
2
2
5 = 14 = [f (u)] 0 .
2
31
50
=
=
=
=
11
[f ] [u] = ...
1n
0
11 1 + + mj m
1
m1
..
.. .. =
= [f (u)] 0 .
.
.
.
m
1n 1 + + mn m
mn
u1
..
.
un
=
=
11 u01
..
.
n1 u01
+
+
..
.
1n u0n
+ nn u0n .
11
N = ...
1n
n1
..
.
nn
51
0 1
1 1 . Por otro lado,
(1, 1) = (1)(1, 0) + (1)(0, 1)
1
1
1 .
0
Observe que N N = I.
5.9 LEMA. Sea N = N la matriz de transici
on de la base = {ui }ni=1
en la base = {u0i }ni=1 del espacio vectorial U sobre un campo K . Entonces
N [u] = [u] , y [u] = N 1 [u] para toda u U .
Pn
Demostraci
on. Sea u0i = i1 u1 + i2 u2 + + in un =
j=1 ij uj , para
cada i = 1, . . . , n. Entonces N es la matriz cuadrada con renglon j igual a
(1j , 2j , . . . , nj ).
Pn
Si suponemos que u = 1 u01 + 2 u02 + + n u0n = i=1 i u0i entonces [u] =
Pn
Pn
Pn
0
t
=
( , . . . , ).
Luego u =
=
j=1 ij uj )
i=1 i (
i=1 i ui
Pn1 Pn n
Pn
)u
=
(
)u
.
As
,
[u]
es
el
vector
(
1j 1
2j 2
nj n j
j=1
j=1
i=1 ij i j
columna con coeficiente j igual a 1j 1 + 2j 2 + + nj n .
Por otro lado, el coeficiente j de N [u] se obtiene multiplicando el renglon j de
N por [u] , i.e., multiplicando (1j , 2j , . . . , nj ) por t (1 , . . . , n ). Dicha multiplicacion es precisamente 1j 1 + + nj n . Luego N [u] y [u] tienen los mismos
coeficientes. Por lo tanto N [u] = [u] . Finalmente, si multiplicamos por N 1 ,
(vease el problema 5.6), obtenemos N 1 [u] = N 1 N [u] = [u] .
52
Demostraci
on. Sea u U , luego N 1 [f ] N [u]
(5.9)
[f (u)] 0
0
[f ] N [u]
0
[f (u)] 0 . Como [f ] [u]
0
0
[f ] [u] . Luego N 1 [f ] N
(5.9)
N 1 [f ] [u]
(5.6)
= [f ] .
[f ] =
4
2
1 .
4
[f ] = N 1 [f ] N
0 1
4
1
1 1
= 1
1
2 4
1
0
0
1
5
4
2
2
= 1 1
2 2 = 7
2
0
PROBLEMAS
5.1 a) Sean f, g: U V funciones lineales de espacios vectoriales sobre un campo
K y K. Demuestre que f + g y f son funciones lineales.
b) Pruebe el teorema 5.1 con detalle. Si U = V se acostumbra denotar al
conjunto de funciones lineales de V en s mismo con EndK (V ) y se llama conjunto
de endomorfismos de V .
5.2 Sea f : IR2 IR2 el operador lineal dado por f (x, y) = (3x 4y, x y).
Calcule la matriz [f ] asociada a f con respecto a la base = {(1, 1), (1, 0)}.
5.3 Sea f como en el problema anterior. Cuales son las coordenadas del vector
f (3, 5) con respecto a ?
53
[f ] = M 1 [f ] N.
Captulo II
VECTORES CARACTERISTICOS
Y FORMAS CANONICAS
II.1
relaci
on de equivalencia.
Demostraci
on. Claramente A = I 1 AI donde I es la matriz identidad, la cual
es invertible. Luego, A es similar a A. Si A es similar a B, existe una matriz
invertible N tal que A = N 1 BN . Entonces N AN 1 = N (N 1 BN )N 1 = B o
bien (N 1 )1 AN 1 = B. Luego, B es similar a A. Finalmente, si A es similar
a B y B es similar a C, entonces existen matrices invertibles N y M tales que
A = N 1 BN y B = M 1 CM . Sustituyendo obtenemos A = N 1 (M 1 CM )N =
(M N )1 C(M N ) y como M N es invertible, A es similar a C.
56
1.4 DEFINICION. Diremos que un operador lineal f : U U es diagonalizable si para alguna base de U , la matriz asociada es diagonal. Diremos que dicha
base diagonaliza a f .
El siguiente resultado es consecuencia inmediata de 1.3:
0
57
2
4
A = 3 6 encontremos los valores caractersticos y sus vectores caractersticos
x
no triviales asociados, i.e., si X = y , buscamos K tal que AX = X. Esto
es
x
x
2 4
y = y .
3 6
)
)
(2 )x + 4y = 0
2x + 4y = x
Entonces se tiene
, por lo que
.
3x + 6y = y
3x + (6 )y = 0
As, el sistema homogeneo anterior tiene solucion no trivial si, y solo si, el determinante de la matriz de coeficientes es cero:
(2 )
4
= (2 )(6 ) 12 = 12 2 6 + 2 12
3
(6 )
= 2 8 = ( 8) = 0.
As, es un valor caracterstico de A correspondiente a un vector caracterstico
)
2x + 4y = 0
distinto de cero si, y solo si, = 0 o = 8. Si = 0, entonces
3x + 6y = 0
x
o bien, x + 2y = 0. Luego X = y = 2
es un vector caracterstico no
1
58
59
1 0 0 0
0 2 0 0
B=
..
..
.
.
0
0 0 n
si, y solo si, existe una base {ui }ni=1 de U tal que
f (u1 ) = 1 u1 + 0u2 + + 0un
f (u2 ) = 0u1 + 2 u2 + + 0un
..
.
f (un ) = 0u1 + 0u2 + + n un .
i.e. si, y solo si, los vectores {ui }ni=1 son vectores caractersticos de f correspondientes a los valores caractersticos {i }ni=1 .
Observe que los elementos de la diagonal de B son precisamente los valores
caractersticos correspondientes.
Observe tambien que, por 1.12, una matriz cuadrada A es similar a una matriz
diagonal B si, y solo si, A posee n vectores caractersticos linealmente independientes. Aqu tambien B posee en su diagonal a los valores caractersticos. Si
N es la matriz cuyas columnas son los n vectores caractersticos de A, entonces
B = N 1 AN .
1.13 EJEMPLO. Sea A la matriz del ejemplo 1.8. Los vectores caractersticos
60
3/8 2/8
2
2
2
2
1
son X =
=
. Luego
1 y Y = 3 . Sea N =
1 3 ,N
1/8 2/8
A es similar a la matriz diagonal
B = N 1 AN =
3/8 2/8
1/8 2/8
2 4
3 6
2 2
1 3
0 0
0 8
PROBLEMAS
1.1 Recuerde que la traza de una matriz cuadrada A (i.e.
la funcion
tr: Mn (K) K), denotada trA, es la suma de los elementos de su diagonal.
Pruebe que:
(i) tr(AB) = tr(BA) y que
(ii) tr(A) = tr(B) si A y B son similares. Debido a esto u
ltimo, decimos que la
traza es un invariante bajo la relacion de similaridad o semejanza.
1.2 Calcule los valores
caracter
sticos y los vectores caractersticos correspondien1
5
tes de la matriz A = 4 3 y encuentre una matriz invertible N tal que N 1 AN
sea diagonal.
1.3 Calcule los valorescaractersticos
y los vectores caractersticos correspondien!
1 4 2
tes de la matriz A = 2 3 2 y encuentre una matriz invertible N tal que
1 1 2
N 1 AN sea diagonal.
1.4 Sean A, B Mmn K. Se dice que A es equivalente a B si existen matrices
invertibles M y N tales que A = M BN . Pruebe que la equivalencia de matrices es
una relacion de equivalencia.
1.5 Pruebe con todo detalle que A representa a f con respecto a la base en la
proposicion 1.3.
1.6 (i) Supongase que A y B son matrices similares de n n, i.e. B = N 1 AN
para alguna matriz invertible N . Pruebe que B k = N 1 Ak N .
61
(ii) Suponga que los conejos no se reproducen durante su primer mes de vida,
pero que a partir del segundo mes cada pareja de conejos produce un nuevo par.
Suponga que ning
un conejo muere. Si comenzamos con un par de conejos, cuantas
parejas de conejos hay a los n meses? Sugerencia: escriba la formula de recursion
un = un1 +un2 como la igualdad de matrices (un , un1 ) = (un1 , un2 )B donde
B = 11 10 . Encuentre los valores caractersticos de B y utilice (i). La sucesion
as obtenida se llama sucesi
on de Fibonacci, sus terminos se llaman n
umeros
de Fibonacci y el valor caracterstico positivo obtenido se llama secci
on
aurea o
proporci
on divina. La solucion de muchos problemas de aplicacion de la teora
con largos enunciados se reduce a formular ecuaciones adecuadas como en este
problema.
62
II.2
TEOREMA DE CAYLEY-HAMILTON
a11
a21
..
.
an1
a12
a22
..
.
an2
a1n
a2n
..
.
ann
63
2 Teorema de Cayley-Hamilton
Recordemos que si A es la matriz cuadrada de n n
a11 a1n
..
..
.
.
an1 ann
Por ejemplo, si A =
N12 =
4
7
6
9
1 2
4 5
7 8
3
6
9
!
entonces
Pn
j=1
A11 An1
..
A = ...
.
A1n Ann
polinomio caracterstico.
Demostraci
on. Sea A una matriz cuadrada y pA () = |I A| = n +
n1
an1
+ + a1 + a0 su polinomio caracterstico. Sea C la adjunta clasica
de la matriz I A. Como los elementos de C son cofactores de I A, son
polinomios en de grado menor o igual que n 1. Luego
C = Cn1 n1 + + C1 + C0
donde Ci es una matriz cuadrada con elementos en K. As que, aplicando la
propiedad que mencionamos de la matriz adjunta clasica se tiene que (I A)C =
|I A|I. Esto es
(I A)(Cn1 n1 + + C1 + C0 ) = (n + an1 n1 + + a1 + a0 )I.
64
pA () = |I A| = 1
3
1 2 . Luego
3 4
2 = 2 4 + 4 6 = 2 5 2.
4
1 2
1 2 5 1 2 2 1 0
3 4
3 4
3 4
0 1
2
0
5
10
7
10
= 15 22 15 20 0 2 = 00 00 .
pA (A) =
con todas las ai distintas, entonces A es similar a una matriz diagonal con
las ai en la diagonal.
Demostraci
on. Como las ai son las distintas races diferentes de cero de pA (),
estas son, por 2.6, los valores caractersticos de A y, por 1.11, los vectores caractersticos correspondientes son linealmente independientes. Luego, los vectores
65
2 Teorema de Cayley-Hamilton
caractersticos asociados a dichos valores caractersticos son una base del espacio
vectorial y, por 1.12, A es similar a una matriz diagonal.
PROBLEMAS
2.1 Pruebe que si f y g son polinomios con coeficientes en K entonces (f +g)(A) =
f (A) + g(A), (f g)(A) = f (A)g(A) y (f )(A) = (f (A)), K.
2.2 Sea A la matriz asociada a . Pruebe que f (A) es la matriz asociada a f ().
= |A|I.
2.3 Pruebe que si A es la matriz adjunta clasica de A entonces AA = AA
1
2.4 Sea A = 4
7
Compruebe que C
elementos en K.
2
5
8
=
!
3
6 . Calcule la adjunta clasica C de la matriz I A.
9
C2 2 + C1 1 + C0 donde Ci es una matriz cuadrada con
66
Encuentre los valores caractersticos y una base para cada espacio caracterstico
U .
2.8 Calcule los valores y vectores caractersticos de
1 4 sobre IR y sobre C
A = 21 1
y
B
=
I.
3
2 1
Propongase usted mismo ejercicios similares a estos dos u
ltimos si presiente que
no ha dominado la tecnica.
3 El polinomio mnimo
II.3
67
EL POLINOMIO MINIMO
68
(I A) C() = (t C0 + t1 C1 + + Ct1 )
(t1 AC0 + t2 AC1 + + ACt2 + ACt1 )
= t C0 + t1 (C1 AC0 ) + + (Ct1 ACt2 ) + a0 I
= t I + at1 t1 I + + a1 1 I + a0 I
= mA ()I.
Luego, |I A||C()| = |mA ()I| = mA ()n . Por lo tanto, |I A| divide a
mA ()n . Es decir, el polinomio caracterstico de A divide a mA ()n .
3 0 1 0
3.5 EJEMPLO. Sea A = 00 30 03 00 . El polinomio caracterstico de A es
0 0 0 8
pA () = |I A| = ( 3)3 ( 8). Por los resultados precedentes, mA ()|pA ()
y ademas mA () posee los mismos factores irreducibles, entonces mA () puede ser
uno de los siguientes:
( 3)( 8), ( 3)2 ( 8), o ( 3)3 ( 8).
69
3 El polinomio mnimo
PROBLEMAS
0
4
0
0
4
0 .
4
9
0
2
2
0
0
2
0
0
3
3
8
0
1
2 .
0
2
70
II.4
: K V /U V /U dada por
(, v + U ) 7 v + U.
Es facil comprobar que las operaciones anteriores estan bien definidas (problema
4.2) y que definen una estructura de espacio vectorial en V /U . Llamaremos a V /U ,
espacio cociente.
Nota: Sea U un subespacio del espacio vectorial V sobre un campo K. Si
u v + U entonces existe w U tal que u = v + w. Luego u v = w U .
Si u v U entonces u v = w U . Luego u = v + w v + U . Tambien
71
v u + U . En resumen,
72
n
X
i (i (v) + U )
i=0
X
X
i (i )V /U (v + U )
i (V /U )i (v + U )
!
n
X
i
=
i (V /U ) (v + U )
=
i=0
= f (V /U )(v + U ).
As que [f ()]V /U = f (V /U ). Esto es, si es raz de f entonces [f ()]V /U = 0V /U =
U = f (V /U ), luego V /U es raz de f .
Observe que, debido a la proposicion anterior, el polinomio mnimo de V /U
divide al polinomio mnimo de .
73
a11
0
..
.
0
a12
a22
..
.
..
.
0
a1n
a2n
.. ,
.
ann
su polinomio caracterstico es
pA () = |I A| = ( a11 )( a22 ) ( ann ).
74
(v2 ) a22 v2 es un m
ultiplo de v, por ejemplo, (v2 ) a22 v2 = a21 v, luego (v2 ) =
a21 v + a22 v2 . Analogamente para i = 3, . . . , n, (vi ) ai2 v2 ai3 v3 aii vi U ,
luego (vi ) = ai1 v + ai2 v2 + + aii vi . As que
(v) = a11 v
(v2 ) = a21 v + a22 v2
..
.
(vn ) = an1 v + an2 v2 + + ann vn
y la matriz asociada a con respecto a esta base es triangular.
Y donde X es la
Entonces posee una matriz asociada de la forma X
0 Z
matriz asociada a |U .
Demostraci
on. Sea {u1 , . . . , ut } una base de U . Completemos la base a una
base de V : {u1 , . . . , ut , w1 , . . . , ws }. Entonces
|U (u1 ) = (u1 ) = a11 u1 + + a1t ut
|U (u2 ) = (u2 ) = a21 u1 + + a2t ut
..
..
..
.
.
.
|U (ut ) = (ut ) = at1 u1 + + att ut
(w1 ) = b11 u1 + + b1t ut + c11 w1 + + c1s ws
(w2 ) = b21 u1 + + b2t ut + c21 w1 + + c2s ws
..
.
(ws ) = bs1 u1 + + bst ut + cs1 w1 + + css ws .
As, la matriz asociada
a es la traspuesta de la matriz de coeficientes del sistema
75
Demostraci
on. Sea f cualquier polinomio. Supongamos que el grado n de
f es mayor que 1, pues si es de grado cero o uno es valida la afirmacion. Si
f es de la forma n xn + n1 xn1 + + 1 x1 + 0 y el resultado vale para
grados menores que n, entonces f (|U )(u) = (n |nU + + 1 |U + 0 I)(u) =
n1
(n |n1
+ + 0 I)(u) = (n n1 )((u)) + (n1 n1 +
U )(|U (u)) + (n1 |U
+ 0 I)(u) = f ()(u). Si m () denota al polinomio mnimo de , entonces
m (|U )(u) = m ()(u) = 0(u) = 0 u U . Luego |U es raz del polinomio
mnimo de y, por la proposicion 3.2, el polinomio mnimo de |U divide a m ().
PROBLEMAS
4.1 Pruebe que cualesquiera clases laterales o son ajenas o son iguales.
4.2 Compruebe que las operaciones definidas en V /U estan bien definidas y que
proporcionan una estructura de espacio vectorial en V /U .
4.3 Sea U un subespacio de un espacio vectorial V sobre un campo K. Pruebe que
si el conjunto de clases laterales {v 1 , . . . , v n } de V /U es linealmente independiente
entonces {v1 , . . . , vn } es linealmente independiente.
4.4 Describa las clases laterales de U en IR3 donde U es el espacio solucion de la
ecuacion 8x + 2y + 5z = 0.
4.5 Pruebe que si HomK (V, V ) es un operador lineal y f un polinomio
cualquiera, entonces el n
ucleo de f () es invariante bajo .
4.6 Proporcione con todo detalle la demostracion de la Proposicion 4.8.
4.7 Compruebe que si A es una matriz cuadrada cuyo polinomio caracterstico
se factoriza en polinomios lineales entonces A es similar a una matriz triangular.
(Sugerencia: Teorema 4.6)
4.8 Pruebe que si f : V W es una funcion lineal entre espacios vectoriales
sobre un campo K, entonces existe una funcion lineal u
nica h: V /kerf W tal
76
77
II.5
78
nomio mnimo
m () = f1 ()1 f2 ()2 fs ()s
79
5.5 COROLARIO. Un operador HomK (V, V ) posee una matriz asociada diagonal si, y s
olo si, su polinomio mnimo m () es producto de
polinomios lineales distintos.
Demostraci
on. Sea un operador lineal cuya matriz asociada es diagonal. Entonces V posee una base que consiste de vectores caractersticos de con valores caractersticos distintos 1 , . . . , r .
Por consiguiente el operador f () =
( 1 I)( 2 I) ( r I) enva cualquier vector de la base al cero (vease
el problema 5.3). Luego f () = 0 y, por lo tanto, el polinomio mnimo m() de
divide al polinomio f () = ( 1 )( 2 ) ( r I). As, m() es producto de
polinomios lineales distintos.
Ahora, supongamos que m() = ( 1 )( 2 ) ( s ) con las i K
diferentes. Por el teorema 5.4, V = si=1 ker ( i I). Sea v ker ( i I), luego
( i I)(v) = 0, i.e., (v) = i v. Esto significa que cada vector de ker ( i I)
es un vector caracterstico perteneciente al valor caracterstico i . Por el problema
I.3.10, la union de las bases de ker ( i I) es una base de V que consiste de
vectores caractersticos. Luego es diagonalizable.
A continuacion estudiaremos operadores lineales cuyas races de su polinomio
mnimo son todas cero. Sabemos entonces, por el teorema 4.6, que existe una base
del espacio vectorial tal que la matriz asociada a es triangular. Sin embargo,
el encontrar formas canonicas para dichos operadores nilpotentes nos permitiran
encontrar formas canonicas para cualquier operador que se factorice como producto
de polinomios lineales.
80
0 1 0
0 0 1
..
.. .. ..
. . .
0 0 0 .
0 0 0
0 0
0 0
.. ..
. . .
0 1
0 0
Demostraci
on. Por el problema 5.4, el conjunto {r1 (v), . . . , v} es linealmente
independiente y el subespacio que genera es invariante bajo . Por el problema 5.5,
como es nilpotente de ndice r, (0 )r (k (v)) = r+k (v) = 0 luego
0 (r1 (v)) =
0 (r2 (v)) =
0 (r3 (v)) =
..
.
0 ((v))
0 (v)
r (v) = 0
r1 (v)
r2 (v)
..
.
2 (v)
=
=
(v)
Demostraci
on. Sea v ker k , luego k (v) = 0 y k+1 (v) = (k (v)) =
(0) = 0. Por lo tanto v ker k+1 y, como v es arbitraria, ker k ker k+1 .
Si v ker k+1 entonces k+1 (v) = 0. Queremos ver que (v) ker k i.e.
k ((v)) = 0. Pero como k+1 (v) = 0 y k ((v)) = k+1 (v) = 0 hemos terminado.
5.9 PROPOSICION. Sea HomK (V, V ) nilpotente de ndice r. Entonces posee una matriz asociada diagonal por bloques que son de la forma
0 1 0
0 0 1
. . .
.. .. ..
0 0 0
0 0 0
0 0
0 0
.. ..
.
. .
0 1
0 0
Demostraci
on. Sea n = dim V , mi = dim ker i , i = 1, . . . , r. Como r = 0,
V = ker r y como r1 =
6 0, ker r1 6= V . Luego mr1 < mr = n. Por el lema
81
5.8, ker 1 ker 2 ker r = V. Por induccion, podemos escoger una base
{v1 , . . . , vn }
de
V
tal
que
i
{v1 , . . . , vmi } es una base de ker .
Escojamos una base nueva de V para la cual posee la forma deseada: pongamosla con cierto orden;
u(1,r) = vmr1 +1
u(2,r) = vmr1 +2
..
.
u(mr mr1 ,r) = vmr
u(1,r1) = u(1,r)
u(2,r1) = u(2,r)
..
.
u(mr mr1 ,r1) = u(mr mr1 ),r) .
Por el problema 5.6, X1 = {v1 , . . . , vmr2 , u(1,r1) , . . . , u(mr mr1 ,r1) es un
subconjunto linealmente independiente de ker r1 . Extendemos X1 a una base de
ker r1 adjuntando nuevos elementos como
u(mr mr1 +1,r1)
u(mr mr1 +2,r1)
..
.
u(mr1 mr2 ,r1) .
Sea
u(1,r2) = u(1,r1)
u(2,r2) = u(2,r1)
..
.
82
Si seguimos con este proceso obtendremos una base para V rearreglada como
u(1,r) , . . . , u(mr mr1 ,r)
u(1,r1) , . . . , u(mr mr1 ,r1) , . . . , u(mr1 mr2 ,r1)
..
.
u(1,2) , . . . , u(mr mr1 ,2) , . . . , u(mr1 mr2 ,2) , . . . , u(m2 m1 ,2)
u(1,1) , . . . , u(mr mr1 ,1) , . . . , u(mr1 mr2 ,1) , . . . , u(m2 m1 ,1) , . . . , u(m1 ,1)
El u
ltimo renglon es una base para ker 1 . El u
ltimo y el pen
ultimo renglon son
una base para ker 2 y as sucesivamente. Observese que cada vector se transforma
bajo en el vector inmediato inferior, o en cero si el vector es del u
ltimo renglon,
i.e.,
n
u(i,j1) si j > 1
u(i,j) =
0
si j = 1.
Por la proposicion 5.7, tendra la forma requerida si las u(i,j) se ordenan lexicograficamente, comenzando por u(1,1) y subiendo por la primera columna hasta
u(1,r) ; luego brincando a u(2,1) hasta arriba, etcetera.
83
i
0
..
Jij =
.
0
0
1
i
..
.
0
1
..
.
0
0
..
.
0
0
0
0
i
0
0
0
..
.
.
1
i
Demostraci
on. Por 5.4, = ri=1 ker f ()i donde fi ()i = ( i )i es
i
3
0
1
3
2
0
1
2
o bien es
3 1
0 3
3 1
0 3
2 1
0 2
84
Las formas canonicas triangular y de Jordan para un operador lineal existen si,
y solo si, el polinomio caracterstico de posee todas sus races en un campo base
K, (lo cual es cierto si K = C
I pero no lo es si K = IR en general). Sin embargo,
si esto no sucede, siempre podemos obtener un campo K adjuntando races de tal
forma que los polinomios mnimo y caracterstico se factoricen en factores lineales
y entonces podramos decir que todo operador posee una forma canonica de Jordan
y que toda matriz es similar a una matriz en forma canonica de Jordan. Tambien
vimos que una clase de transformaciones que tienen todas sus races caractersticas
en un campo K fueron las nilpotentes, luego siempre se pueden poner en forma
triangular.
PROBLEMAS
5.1 Sea HomK (V, V ) y V = si=1 Ui con Ui invariante bajo . Pruebe que si
la matriz asociada a |Ui es Xi entonces posee una matriz asociada por bloques
de la forma
X1 0 0
0 X2 0
X=
..
..
..
.
.
.
0
0 Xs
que denotaremos como X = si=1 Xi .
5.2 Sea M una matriz cuadrada diferente de I tal que M 5 = I. Compruebe si M
es similar a una matriz diagonal con los coeficientes de M reales o complejos.
5.3 Pruebe con detalle que el operador f () dado en la demostracion de 5.5 enva
cualquier vector de la base al cero.
5.4 Sea HomK (V, V ) un operador nilpotente de ndice r, y v V tal que
r1 6= 0. Pruebe que el conjunto {v, (v), 2 (v), . . . , r1 (v)} es linealmente independiente y genera un subespacio invariante bajo .
5.5 Pruebe que la restriccion 0 de al subespacio generado por el conjunto
{v, (v), . . . , r1 (v)} del problema 5.4 es nilpotente de ndice r.
5.6
85
Captulo III
FORMAS Y OPERADORES
III.1
FORMAS BILINEALES
88
y1
a11 a1n
.. ..
(x1 , . . . , xm ) ...
.
.
yn
am1 amn
m
! y1
m
X
X
=
xi ai1 , . . . ,
xi ain ...
i=1
i=1
yn
n
m
XX
=
xi aij yj
j=1 i=1
n X
m
X
aij xi yj .
j=1 i=1
!
!
!
y1
2 1 1
x1
Por ejemplo, si A = 1 3 3 , X = x2 y Y = y2 entonces
y3
2 1 1
x3
f (X, Y ) = (x1 , x2 , x3 )
2
1
2
1
3
1
1
3
1
y1
y2
y3
y1
y2
y3
89
1 Formas bilineales
(f )(v) = f (v); v V, K.
Aqu vemos a K como espacio vectorial sobre s mismo.
1.4 EJEMPLO. Sea V = K n . Si f HomK (V, K) = V , f tiene una representacion matricial de la forma
x1
f (x1 , . . . , xn ) = (a1 , a2 , . . . , an ) ... = a1 x1 + a2 x2 + + an xn
xn
llamada tambien forma lineal.
Sabemos que si dim V = n entonces dim V = n pues V = HomK (V, K) y por
el teorema I.5.3 dim HomK (V, K) = n 1 = n.
Veamos como determinar una base para V a partir de una base de V .
1.5 PROPOSICION. Sea {v1 , . . . , vn } una base del espacio vectorial V
sobre K . Sean f1 , . . . , fn HomK (V, K) = V funcionales
dadas por fi (vj ) =
n
1
si
i = j . Entonces
ij , donde ij es la delta de Kronecker, i.e., ij =
0 si i 6= j
{fi }ni=1 es una base de V .
Demostraci
on. Veamos que {fi }ni=1 es linealmente independiente: Supongamos que 1 f1 + + n fn = 0. Evaluando en v1 obtenemos 1 f1 (v1 ) + +
n fn (v1 ) = 1 1 = 0(v1 ) = 0. Luego 1 = 0. Analogamente, evaluando en
90
1.6 EJEMPLO. Consideremos la base {(1, 1), (3, 1)} de IR2 . Encontremos
su base dual para ( IR2 ) = Hom IR ( IR2 , IR). Deseamos encontrar funcionales
f1 (x, y) = x + y y f2 (x, y) = x + y tales que f1 (1, 1) = 1 , f1 (3, 1) = 0,
f2 (1, 1) = 0, f2 (3, 1) = 1. Luego
)
f1 (1, 1) = 1 + 1 = 1
f1 (3, 1) = 3 + 1 = 0
3
1
y= .
2
2
)
f2 (1, 1) = + = 0
f2 (3, 1) = 3 + = 1
1
Resolviendo el sistema obtenemos =
2
3
1
1
f1 (x, y) = x + y , f2 (x, y) = x
2
2
2
1
y = . Por lo tanto, una base dual es
2
1
y .
2
(ii) si f V , f es de la forma
f = f (v1 )f1 + f (v2 )f2 + + f (vn )fn .
Demostraci
on. (i) Sea v = a1 v1 + a2 v2 + + an vn . Evaluando fi (v) =
fi (a1 v1 + + an vn ) = ai para i = 1, . . . , n. Luego v = f1 (v)v1 + + fn (v)vn .
91
1 Formas bilineales
(ii) Sea v = f1 (v)v1 + +fn (v)vn . Luego f (v) = f1 (v)f (v1 )+ +fn (v)f (vn ) =
f (v1 )f1 (v) + + f (vn )fn (v) = (f (v1 )f1 + + f (vn )fn )(v) para toda v en V . As
que f = f (v1 )f1 + + f (vn )fn .
A continuacion encontremos una base para Bil(V ).
1.8 PROPOSICION. Sea V un espacio vectorial sobre un campo K de
dimensi
on n. Si {fi }ni=1 es una base para V entonces {fij }ni,j=1 dado por
fij (u, v) = fi (u)fj (v) es una base para Bil(V ).
Demostraci
on. Sea {vi }ni=1 una base de V , dual de {fi }ni=1 . Veamos que {fij }
P
es linealmente independiente: supongamos que aij fij = 0. Entonces para ndices
P
P
r, s
=
1, . . . , n tenemos que ( aij fij )(vr , vs )
=
aij fij (vr , vs )
P
P
=
aij fi (vr )fj (vs ) =
aij ir js = ars = 0(vr , vs ) = 0. Por lo tanto {fij } es
linealmente independiente.
Veamos que {fij } genera a Bil(V ): sea f Bil(V ) y aij = f (vi , vj ). Basta
P
probar que f (vr , vs ) = ( aij fij )(vr , vs ) para r, s = 1, . . . , n. Pero como antes,
P
( aij fij )(vr , vs ) = ars = f (vr , vs ), luego {fij } genera Bil(V ).
Observe que dim Bil(V ) = n2 .
Sea V un espacio vectorial con base = {v1 , . . . , vn } y sea f : V V K una
forma bilineal de V . Si u = 1 v1 + + n vn y v = 1 v1 + + n vn son vectores
de V ,
n
n
X
X
f (u, v) = f (
i vi ,
j vj )
i=1
j=1
n
X
i j aij
i,j=1
1
= (1 , . . . , n )A ...
n
= t [u] A[v] .
Llamaremos a A matriz asociada a la forma bilineal f con respecto a la base
. A menudo denotamos a A como [f ] .
92
1.9 EJEMPLO. Sea f : IR2 IR2 IR una forma bilineal dada por
f ((1 , 2 ), (1 , 2 )) = 42 2 y = {1 , 2 } = {(1, 1), (3, 1)} una base de IR2 . Calculemos la matriz asociada a f con respecto a , i.e., A = (aij ) donde aij = f (i , j )
a11 = f (1 , 1 ) = f ((1, 1), (1, 1)) = 4 1 1 = 4
a12 = f (1 , 2 ) = f ((1, 1), (3, 1)) = 4 1 1 = 4
a21 = f (2 , 1 ) = 4
a22 = f (2 , 2 ) = 4
Luego A =
4 4 .
4 4
Luego B =
4
4
4 .
4
1/2 2
Luego N =
.
1/2 1
1/2 2
4 4 = B.
4
4
t
1/2
1/2
Observe que N AN =
=
4 4
4 4
2
1
1/2
1
Establezcamos la observacion del ejemplo 1.10 en el siguiente teorema:
1.11 TEOREMA. Sea f : V V K una forma bilineal. Si N es la
matriz de transici
on de una base a una base 0 de V entonces la matriz
B asociada a f con respecto a la base 0 es
B = t N AN
93
1 Formas bilineales
1.13 PROPOSICION. Sean {ui }ni=1 y {vi }ni=1 bases de V . Sean {fi }ni=1 y
{gi }ni=1 bases de V duales de {ui } y {vi } respectivamente. Sea N la matriz
1
de transici
on de la base {ui } en la base {vi }. Entonces t N es la matriz de
transici
on de la base {fi } en la base {gi }.
Demostraci
on. Recuerdese (I.5.7) que la matriz N es la matriz cuadrada traspuesta de la asociada al sistema
v1
..
.
vn
i.e.
11
..
N=
.
1n
11 u1
..
.
= n1 u1
n1
.. = t ( ) y
ij
.
nn
1n un
..
.
nn un
11
t
..
N=
.
n1
1n
.. = ( ).
ij
.
nn
=
=
11 f1
..
.
n1 f1
1n fn
..
.
nn fn
94
11
..
B=
.
1n
i.e.
n1
.. = t (ij ).
.
nn
=
=
n
X
k=1
n
X
ik jk
0
ik kj
0
(kj
= jk ).
k=1
Luego B t N = I.
Que sucede cuando consideramos el espacio dual de V ? Lo denotaremos con
V = (V ) .
V , pero antes neceQue relacion existe entre V y V ? Veremos que V =
sitaremos un resultado previo que vale para espacios de dimension infinita pero que
no probaremos aqu.
1.14 LEMA. Sea V un espacio vectorial de dimensi
on finita n y v V
un campo K . La aplicaci
on : V V dada por (v) = v donde v(f ) = f (v)
v V es un isomorfismo.
Demostraci
on. Veamos que es lineal:
(u + v)(f ) = u + v(f ) = f (u + v) = f (u) + f (v)
= u(f ) + v(f ) = (u)(f ) + (v)(f ).
(u)(f ) = (u)(f ) = f (u) = f (u)
= u(f ) = (u)(f ).
Luego es lineal.
1 Formas bilineales
95
PROBLEMAS
1.1
Pruebe que la funcion f : IRm IRm
IR dada por
f ((x1 , . . . , xm ), (y1 , . . . , ym )) = x1 y1 + x2 y2 + + xm ym es bilineal. A f , as
definida, se le llama producto escalar.
1.2 Encuentre la base del espacio dual de V para
(a) V = IR2 con base {(2, 1), (3, 87)}.
(b) V = IR3 con base {(0, 1, 1), (0, 1, 1), (2, 4, 3)}.
1.3 Sea f : K m K n K una aplicacion bilineal. Pruebe que existe una matriz
u
nica A tal que f (X, Y ) = t XAY y que el conjunto de aplicaciones bilineales
L2 (K m , K n ; K) es un espacio vectorial sobre K isomorfo a Mmn (K).
1.4 Considere f : IR2 IR2 IR dado por f ((1 , 2 ), (1 , 2 )) = 31 2 2 1 .
(i) Compruebe que f es bilineal.
(ii) Encuentre la matriz asociada a f con respecto a la base = {(2, 1),
(3, 87)}.
(iii) Encuentre la matriz asociada a f con respecto a la base 0 = {(1, 1),
(2, 1)}.
1.5 Sea V = IR3 con bases = {(0, 1, 1), (0, 1, 1), (2, 4, 3)} y 0 = {(1, 0, 0),
(0, 1, 0), (0, 0, 1)}.
(i) Encuentre la matriz de transicion de la base en la base 0 .
96
97
III.2
dada por
f (X, Y ) = XAY.
Pero t XAY = t (t XAY ), puesto que es un escalar. Luego t XAY = t Y t AX.
Como f es simetrica, f (X, Y ) = t XAY = t Y t AX = t Y AX = f (Y, X) (X, Y ).
Luego t A = A. Analogamente, si A = t A entonces f (X, Y ) = f (Y, X). Por lo
tanto, una forma bilineal es simetrica si, y solo si, su matriz asociada es simetrica.
Observemos que si f posee una matriz asociada en forma diagonal entonces f es
simetrica pues toda matriz diagonal es simetrica.
98
a11
(x1 , . . . , xn ) ...
an1
X
=
aij xi xj
a1n
x1
.. ..
.
.
ann
xn
i,j
aij xi xj .
i<j
Si A es diagonal, entonces q(X) = a11 x21 + +ann x2n y como mas adelante veremos,
este es siempre el caso.
Considere la expresion y las igualdades siguientes
q(u + v) q(u) q(v) = f (u + v, u + v) f (u, u) f (v, v)
= f (u, u) + f (u, v) + f (v, u) + f (v, v) f (u, u) f (v, v)
= 2f (u, v)
Si el campo K es tal que 1+1 6= 0 podremos dividir entre 2 y tendremos la siguiente
expresion que permite obtener f a partir de q:
f (u, v) =
1
[q(u + v) q(u) q(v)] .
2
9 4
4 3
es la matriz simetrica asociada a q.
Ahora encontremos la forma bilineal simetrica asociada a q: Consideremos vectores X1 = (x1 , y1 ) y X2 = (x2 , y2 ); luego
1
[q(X1 + X2 ) q(X1 ) q(X2 )]
2
1
9(x1 + x2 )2 8(x1 + x2 )(y1 + y2 ) 3(y1 + y2 )2 9x21 + 8x1 y1
=
2
f (X1 , X2 ) =
99
Observe que los coeficientes de f son los elementos de la matriz simetrica asociada
a q.
f (v1 , v)
v1 y as, v es la suma de un
f (v1 , v1 )
100
como sigue: las matrices asociadas a una misma forma bilineal simetrica son congruentes entre s. Notese que si A es simetrica entonces t N AN es simetrica.
Tambien observe que, por el teorema 2.4, cuando la caracterstica de K es
diferente de 2, siempre podemos encontrar una matriz diagonal tal que la forma
cuadratica posea una representacion de la forma
q(X) = a11 x21 + + ann x2n .
simetrica.
1
1
Demostraci
on. Sea s(u, v) = (f (u, v) + f (v, u)) y a(u, v) = (f (u, v)
2
2
1
1
f (v, u)). Luego s(u, v) = (f (u, v) + f (v, u)) = (f (v, u) + f (u, v)) = s(v, u)
2
2
1
1
y a(u, v) = (f (u, v) f (v, u)) = (f (v, u) f (u, v)) = a(v, u). As, s es
2
2
simetrica y a es antisimetrica. Luego f = s + a.
101
1
i
(q(u + v) q(u v)) + (q(u + iv)
4
4
q(u iv)) y tambien se tiene un resultado analogo a 2.8 para formas bilineales
hermitianas.
partir de q mediante la formula f (u, v) =
PROBLEMAS
2.1 Considere las formas cuadratricas siguientes y encuentre su matriz asociada,
as como la forma bilineal correspondiente:
(i) q(x, y) = 18x2 4xy 9y 2
(ii) q(x, y) = x2 xy
(iii) q(x, y, z) = x2 + 4yz xz
102
2.2 Para cada matriz A asociada a las formas del problema 2.1 que sea simetrica
encuentre una matriz no singular N tal que t N AN sea diagonal.
2.3 En los terminos del teorema 2.8 se define el signo de una forma bilineal
f : V V IR como sgf = n+ n . Se dice que f esta definida positivamente
si f (v, v) > 0 v 6= 0 y que esta semidefinida no negativamente si f (v, v) 0
v V .
(i) Pruebe que f esta definida positivamente si, y solo si, dim V = sg(f ).
(ii) Pruebe que f esta semidefinida no negativamente si, y solo si, sg(f ) = rg(f )
y
(iii) analice las formas de los problemas 2.1 y 1.1 y diga sus caractersticas.
2.4 Sea f : V V C
I una forma bilineal hermitiana.
f (v, v1 + v2 ) = f (v, v1 ) + f (v, v2 ).
Pruebe que
2.5 Sea A = (aij ) la matriz cuadrada donde aij denota al conjugado complejo
de aij . Sea A = t A = t A. Una matriz se llama hermitiana si A = A, i.e.,
si aij = aji . Pruebe que si A es hermitiana, f (X, Y ) = t XAY define una forma
hermitiana en C
I n.
2.6 Compruebe la formula que permite obtener la forma hermitiana a partir de
la forma cuadratica hermitiana asociada
f (u, v) =
1
i
(q(u + v) q(u v)) + (q(u + iv) q(u iv)).
4
4
2.7 Establezca el resultado analogo al del teorema 2.8 para formas bilineales hermitianas.
2.8 Pruebe que la congruencia de matrices simetricas es una relacion de equivalencia.
2.9 Pruebe que cualquier forma cuadratica sobre IR es de la forma q(X) = x21 +
+ x2s x2s+1 x2r donde X = (x1 , . . . , xn ). (Sugerencia: considere la matriz
p
diagonal N con elementos iguales a 1 si aii = 0 y 1/ |aii | si aii 6= 0 donde A = (aii )
es la matriz diagonal asociada a la forma cuadratica q(X) = a11 x21 + + ann x2n .
Luego A es congruente con la matriz diagonal requerida).
103
3 Producto escalar
III.3
PRODUCTO ESCALAR
3.2 EJEMPLOS. (i) Los problemas 1.1 y 2.3 nos dicen que
h , i: IRm IRm IR
es un producto escalar en V = IRm sobre IR.
(ii) h , i: C
I mC
I m C
I dado por
hX, Y i = x1 y 1 + + xm y m
donde X = (x1 , . . . , xm ) C
I m y Y = (y1 , . . . , ym ) C
I m es un producto escalar
en V = C
I m sobre C
I.
104
hA, Bi =
tr(t BA) si K = IR y
tr(B A) si K = C
I
p
hv, vi.
1
|hv, wi|2
2
,
. Luego
obtenemos
0
||v||
||w||2
||w||2
2
2
2
|hv, wi| ||v|| ||w|| . Tomando raz cuadrada obtenemos el resultado requerido.
Ahora, si tomamos =
p
hv, vi > 0 si
(ii) Consideremos ||v||2 = hv, vi = hv, vi = ||2 ||v||2 , luego tomemos la raz
cuadrada de ambos lados.
105
3 Producto escalar
(iii) Por 3.3
||v + w||2 = hv + w, v + wi = hv, vi + hv, wi + hv, wi + hw, wi
||v||2 + 2||v|| ||w|| + ||w||2 = (||v|| + ||w||)2 .
Luego tomese la raz cuadrada de ambos lados.
Sea V un espacio vectorial con producto escalar. Diremos que los vectores v, w
V son ortogonales si hv, wi = 0.
Si V es un espacio euclidiano, definimos el
angulo entre dos vectores no nulos
u, v V como = arccos(hu, vi/||u|| ||v||) para [0, ].
Sea U un subconjunto del espacio V y U = {v V | hu, vi = 0 u U } el
conjunto ortogonal a U .
3.7 TEOREMA. Sea {ui }ni=1 una base del espacio vectorial de dimensi
on
finita V sobre un campo K = IR o C
I . Entonces existe una base ortonormal
{vi }ni=1 de V tal que la matriz de transici
on es triangular.
Demostraci
on. Utilizaremos induccion sobre n = dim V . Si n = 1, conu1
, luego {v1 } es ortonormal. Supongamos que el conjunto
sideremos v1 =
||u1 ||
wn
, donde wn = un
{v1 , v2 , . . . , vn1 } es ortonormal. Veamos que si vn =
||wn ||
hun , v1 iv1 hun , v2 iv2 hun , v3 iv3 hun , vn1 ivn1 , entonces el conjunto
106
(0, 1, 0)
w2
= (0, 1, 0).
=
||w2 ||
1
107
3 Producto escalar
(0, 0, 1)
w3
= (0, 0, 1).
=
||w3 ||
1
3
{v1 , v2 , v3 } es una base ortonormal para IR .
Normalizando w3 obtenemos v3 =
Luego
PROBLEMAS
3.1 Verifique que los ejemplos de 3.2 son efectivamente productos escalares.
3.2 Sea V = C[0,1] el espacio de las funciones continuas sobre el intervalo [0,1]
y K = IR o C
I . Compruebe que h , i: C[0,1] C[0,1] K dado por hf, gi =
R1
f (x)g(x)dx, x [0, 1] es un producto escalar en V = C[0,1] sobre K.
0
108
3.3
Compruebe utilizando los resultados de la seccion III.2 que
h , i: IR2 IR2 IR dado por hX, Y i = 2x1 y1 3x1 y2 3x2 y1 + 2x2 y2 donde
X = (x1 , x2 ) y Y = (y1 , y2 ) es un producto escalar.
3.4 Calcule la norma del vector u = (6, 7) IR2 con respecto al producto escalar
del problema 3.3.
3.5 Sea f = x2 + x + 1 y g = 3x + 2i. Calcule hf, gi, ||f || y ||g|| con respecto al
producto escalar del problema 3.2.
3.6 Encuentre una base ortonormal para el subespacio de C[0,1] generado por
{1, x, x2 } con el producto escalar definido en el problema 3.2.
3.7 Sea U un espacio vectorial sobre un campo K = IR o C
I . Pruebe que
(i) si hu, ui = 0 entonces u = 0, u U y
(ii) ||u|| = 0 si y solo si u = 0.
3.8 Sea {v1 , . . . , vs } un subconjunto ortogonal de un espacio vectorial V de dimension finita n. Pruebe que para cualquier v V ,
s
X
|hv, vi i|2
i=1
||vi ||2
||v||2
(desigualdad de Bessel).
3.9 Pruebe que, (i) si U es un subespacio de un espacio vectorial V de dimension
finita, entonces U = U ;
(ii) si V no es de dimension finita entonces U (U ) .
3.10 Sea V un espacio vectorial de dimension finita con producto escalar. Pruebe
que (U + U 0 ) = U U 0 y que (U U 0 ) = U + U 0 .
3.11 Sea {v1 , . . . , vn } una base ortonormal de un espacio vectorial V sobre un
campo K. Pruebe que si v V entonces v = hv, v1 iv1 + hv, v2 iv2 + + hv, vn ivn ,
y que si : V V es un operador lineal entonces el elemento ij de la matriz
asociada A a con respecto a la base dada es h(vj ), vi i.
109
4 Operadores adjuntos
III.4
OPERADORES ADJUNTOS
tal que
v 7 gv
la funcion dada por gv (u) = hu, vi. Efectivamente, como gv (u1 + u2 ) =
hu1 + u2 , vi = hu1 , vi + hu2 , vi = gv (u1 ) + gv (u2 ), tenemos que gv V .
Entonces cada elemento v V nos proporciona un funcional gv . Veamos que si V
es de dimension finita sucede lo inverso:
para toda u, v V .
Demostraci
on. Sea u V un elemento fijo de V . Consideremos la aplicacion
f : V K dada por f (v) = h(v), ui la cual es un funcional de V . Por 4.1 existe un
elemento u
nico u0 V tal que h(v), ui = hv, u0 i para toda v V . Sea : V V
tal que (u) = u0 . Entonces
h(v), ui = hv, (u)i
110
2
A= 8
6
la base canonica es
!
3i 4
9i 10
7i 8
111
4 Operadores adjuntos
Entonces la matriz asociada a es
A =
2
3i
4
8
9i
10
6
7i
8
u, v V.
112
1
y = . Observe que, por 4.3, si K = C
I , la matriz asociada a un operador
unitario es A (llamada matriz unitaria) si, y solo si A = A1 , i.e. AA =
I = A A. Tambien, si K = IR, la matriz asociada a un operador ortogonal
es A (llamada matriz ortogonal) si, y solo si t A = A1 (pues A = t A), i.e.
A(t A) = I = t AA.
Si A es una matriz ortogonal, A(t A) = I y como |A| = |t A|, |At A| = |I| = 1.
Pero |At A| = |A||t A| = |A|2 . Luego |A| = 1.
Observe que el conjunto de la matrices ortogonales de n n cumplen las propiedades (ii), (iii) y (iv) de I.1.1, es decir, forman un grupo que llamaremos grupo
ortogonal denotado con O(n). El conjunto de matrices ortogonales que poseen
determinante 1 lo denotaremos con SO(n) y lo llamaremos grupo ortogonal especial.
4.9 DEFINICION. Diremos que un operador : V V es normal si conmuta
con su adjunto, es decir, si = . Diremos que una matriz compleja A es
normal si conmuta con su conjugada traspuesta, es decir, si AA = A A.
Observe que los operadores ortogonales y unitarios son normales.
4 Operadores adjuntos
113
PROBLEMAS
4.1 Compruebe la unicidad de del teorema 4.2.
4.2 Pruebe que, si : V V es un operador de V y U un subespacio invariante
bajo entonces U es un subespacio invariante bajo .
4.3 Sea un valor caracterstico de un operador : V V donde V es un espacio
vectorial complejo. Pruebe que
(i) si = entonces IR.
(ii) si = 1 entonces || = 1.
4.4 Pruebe que las siguientes afirmaciones son equivalentes:
(i) = 1
(ii) h(v), (u)i = hv, ui para toda v, u V
(iii) ||(u)|| = ||u|| para toda u V .
Un operador que cumple la afirmacion (ii) se dice que preserva productos
escalares y si cumple (iii) se dice que preserva longitudes.
4.5 Pruebe que si A es una matriz ortogonal de 2 2 con |A| = 1 entonces A es
de la forma
cos t sen t
para alguna t IR.
sen t cos t
4.6 Pruebe que si A es una matriz ortogonal (o unitaria) entonces los renglones y
las columnas forman conjuntos ortonormales y viceversa.
114
III.5
EL TEOREMA ESPECTRAL
115
5 El teorema espectral
5.6 COROLARIO. Sea A una matriz normal. Entonces existe una matriz unitaria N tal que la matriz B = N 1 AN = N AN es diagonal.
7 2 . Encon2 4
tremos una matriz ortogonal N tal que B = t N AN sea diagonal. El polinomio
caracterstico pA () de A es
5.7 EJEMPLO. Consideremos la matriz simetrica A =
2 = ( 3)( 8).
pA () = |I A| = 7
2
4
116
x
x
7 2
y =3 y
2 4
lo que nos da el sistema de ecuaciones
4x 2y = 0
)
.
2x y = 0
El vector (2, 4) es una solucion del sistema y por lo tanto es un vector caracterstico correspondiente al valor caracterstico = 3. Para = 8, obtenemos
x
x
7 2
=
8
y
y
2 4
lo que nos da el sistema de ecuaciones
x + 2y = 0
2x + 4y = 0
)
.
El vector (4, 2) es una solucion del sistema y por lo tanto es un vector caracterstico
correspondiente al valor caracterstico = 8.
Por la proposicion 5.2 sabemos que dichos vectores caractersticos son ortogonales. Normalizamos los vectores caractersticos y obtenemos una base ortonormal
n
2/ 20, 4/ 20 , 4/ 20, 2/ 20 .
Definamos N como la matriz
2/20
4/ 20
!
4/ 20
.
2/ 20
117
5 El teorema espectral
(i) = 1 pV1 + 2 pV2 + + s pVs
(ii) pV1 + + pVs = I
(iii) pVi pVj = 0 si j 6= i.
Demostraci
on. (i) Como es simetrico (normal), por 5.3 (5.5) existe una base
ortonormal que consiste de vectores caractersticos asociados a valores caractersticos 1 , . . . , s de . Luego V
= V1 Vs . Sea v = v1 + + vs donde
vi Vi . Entonces (v) = (v1 ) + + (vs ) = 1 v1 + + s vs . DenoteP
mos con W = V1 Vc
i Vs . Sea u Vi , w =
j6=i wj donde
P
P
wj Vj . Entonces hu, wi = hu, j6=i wj i = j6=i hu, wj i. Por el problema 5.4,
esta u
ltima igualdad es 0 y por lo tanto W = Vi . As, por definicion, el operador
pVi : V V dado por pVi (v) = vi es la proyeccion ortogonal sobre Vi . Luego
(v) = 1 pV1 (v) + + s pVs (v) y = 1 pV1 + + s pVs .
(ii) Sea v = v1 + +vs . Por (i), v = pV1 (v)+ +pVs (v) = (pV1 + +pVs )(v).
Luego I = pV1 + + pVs .
(iii) (pVi pVj )(v) = pVi (pVj (v)) = pVi (vj ) con vj Vi . Pero pVi (vj ) = 0
pues pVi es la proyeccion ortogonal. Luego pVi pVj = 0.
La descomposicion de del teorema anterior se llama descomposici
on o resoluci
on espectral de .
4 5 0
A= 5 4 0
0 0 3
la cual es simetrica (y por ende lo es) y posee una descomposicion espectral en
proyecciones ortogonales. Veamos como se obtienen. Los valores caractersticos se
obtienen de
4
5
0
5
4
0 = ( 4)2 ( 3) 25( 3)
0
0
3
= ( 4)2 25 ( 3)
= ( 9)( + 1)( 3).
Sean 1 = 9, 2 = 1 y 3 = 3 los valores caractersticos. Ahora encontremos los
espacios caractersticos generados por los vectores caractersticos asociados a 1 , 2
y 3 :
118
(i) Para 1 = 9, 1 I A =
5
5
0
5
5
0
5 0
5 0 , luego
0 6
! ! !
5 0
x
0
5 0
y = 0
0 6
z
0
5x 5y = 0
5x + 5y = 0
cuya solucion es
6z = 0
!
5 0
(ii) Para 2 = 1, 2 I A =
5 0 , luego
0 4
! ! !
0
x
5 5 0
y = 0
5 5 0
0
z
0
0 4
5x 5y = 0
4z = 0
y = c y z = 0.
5
5
0
dim V1 = 1
dim V2 = 1 y
dim V3 = 1.
Luego IR3
= V1 V2 V3 . Si (x, y, z) IR3 entonces
(x, y, z) = (a, a, 0) + (c, c, 0) + (0, 0, b)
= (a + c, a c, b).
Como x = a + c, y = a c y z = b,
x + y = 2a
de donde a =
x + y = 2c
x + y
xy
x+y
,c=
=
. Las proyecciones ortogonales son
2
2
2
x+y x+y
,
,0
pV1 =
2
2
xy yx
,
,0
pV2 =
2
2
pV3 = (0, 0, z)
5 El teorema espectral
119
(x, y, z) = 9
xy yx
x+y x+y
,
,0
,
, 0 + 3(0, 0, z).
2
2
2
2
PROBLEMAS
5.1 Pruebe que si V es un espacio vectorial sobre IR de dimension finita con
producto escalar y : V V es un operador lineal para el cual existe una base
ortonormal que consiste de vectores caractersticos de entonces es simetrico, i.e.
es autoadjunto sobre IR.
5.2 (i) Proporcione una demostracion del corolario 5.4.
(ii) Pruebe que si A es una matriz hermitiana entonces existe una matriz unitaria
N tal que N AN es diagonal.
5.3 Pruebe que si es un operador normal entonces
(i) I es normal
(ii) (v) = 0 si, y solo si, (v) = 0
5.4 Sea un operador normal. Pruebe que
(i) si (v) = v entonces (v) = v
(ii) si (v) = v y (v 0 ) = 0 v 0 y 6= 0 entonces hv, v 0 i = 0.
5.5 Escriba con detalle el final de la demostracion de 5.5.
5.6 (i) Pruebe que si p es una proyeccion entonces p2 = p.
(ii) Veifique y pruebe en caso de ser valida la doble implicacion del siguiente
enunciado: Un operador : V V es normal si, y solo si es autoadjunto.
5.7 Pruebe que si es un operador normal y f un polinomio sobre C
I , entonces
f () es un operador normal.
120
Captulo IV
ALGEBRA MULTILINEAL Y
K-TEORIA ALGEBRAICA CLASICA
IV.1
PRODUCTO TENSORIAL
g&
yh
W
122
U V
f0
yh
T 0
yh0
f&
f0
1T
U V
&
T0
yh0
T
yh
1T 0
T
T0
Por ser T un producto tensorial, y como 1T : T T es tal que 1T f = f y tambien
h0 h f = f , por la unicidad tenemos que h0 h = 1T . De manera semejante,
por ser T 0 un producto tensorial, y como 1T 0 : T 0 T 0 es tal que 1T 0 f 0 = f 0 y
tambien h h0 f 0 = f 0 , se tiene, por unicidad, que h h0 = 1T 0 . Por lo tanto, h es
un isomorfismo.
Entonces podemos hablar de el producto tensorial T de U y V , denotado con
T = U K V o simplemente U V .
En otras palabras, 1.1 nos dice que cualquier funcion bilineal g: U V W
puede expresarse en terminos de f : U V T = U K V como g(u, v) = h(f (u, v))
para una funcion lineal u
nica h: U K V W .
Ahora veamos que, dados dos espacios vectoriales de dimension finita sobre un
campo K, siempre existe su producto tensorial.
1.2 PROPOSICION. Sean U y V espacios vectoriales de dimensi
on finita
sobre un campo K . Entonces existe un espacio vectorial T de dimensi
on
finita sobre K que cumple la definici
on 1.1.
Demostraci
on. Sea {u1 , . . . , um } una base de U y {v1 , . . . , vn } una base de V .
mn
Sea T = K
el espacio vectorial de dimension mn sobre K y {eij } con 1 i m
y 1 j n la base canonica. Los elementos de T se pueden expresar en forma
u
nica como
m X
n
X
ij eij con ij K.
i=1 j=1
m X
n
X
i=1 j=1
i j eij .
123
1 Producto tensorial
En particular, f (ui , vj ) = eij .
=
=
m X
n
X
i=1 j=1
m X
n
X
(i j + i0 j )eij
(i j eij + i0 j eij )
i=1 j=1
n
m X
X
i j eij +
i=1 j=1
n
m X
X
i0 j eij
i=1 j=1
= f (u, v) + f (u0 , v)
Analogamente se tiene que f (u, v + v 0 ) = f (u, v) + f (u, v 0 ) y que f (u, v) =
f (u, v) = f (u, v).
Finalmente, sea g: U V W una funcion bilineal. Por la proposicion I.5.2
existe
on lineal
u
nica h: T W tal que h(eij ) = g(ui , vj ). As, g(u, v) =
P una funci
Pn
Pm Pn
m
g
=
=
i=1 i ui ,
j=1 j vj
i=1
j=1 i j g(ui , vj )
P
m Pn
h
i=1
j=1 i j eij = h(f (u, v)).
La funcion bilineal f se llama funci
on bilineal universal (cualquier otra funcion
bilineal g: U V W se obtiene de f ). Decimos que debido a la propiedad universal, el espacio vectorial U K V esta determinado en forma u
nica salvo isomorfismo.
Es decir, que si en la construccion del espacio vectorial U K V hubieramos tomado
bases diferentes para U y V obtendramos un espacio vectorial isomorfo a U K V .
A
un mas, podramos haber construido el producto tensorial U K V sin utilizar
bases de U y V tal que 1.1 se cumpla, vease [LL1, p.60].
Para cada u U y v V , el elemento f (u, v) lo escribiremos en la forma u v.
Es facil comprobar (problema 1.9) que f (U V ) genera el producto tensorial T ,
el cual denotamos U K V . De manera que cada elemento de U K V se puede
Pr
escribir en la forma i=1 i (ui vi ) con i K, ui U , vi V . Esta expresion
no es u
nica pues de la bilinealidad de f se tiene que
(1 u1 + 2 u2 ) v = 1 (u1 v) + 2 (u2 v)
u (1 v1 + 2 v2 ) = 1 (u v1 ) + 2 (u v2 ),
donde 1 , 2 , 1 , 2 , K; u1 , u2 , u U y v1 , v2 , v V .
124
(ui vi )
i=1
donde ui U , vi V .
A continuacion estableceremos algunas propiedades del producto tensorial.
1.3 PROPOSICION. Sea V un espacio vectorial de dimensi
on finita n
sobre un campo K . Entonces
V K K
=V
= K K V.
Demostraci
on. Sea g: V K V la funcion bilineal dada por g(v, ) = v,
K, v V .
Entonces por 1.1 existe una funcion lineal u
nica
h: V K K V tal que h f = g, es decir, el siguiente diagrama conmuta:
V K
V K K
yh
g&
V
1.4 DEFINICION. Sean V1 , V2 , . . . , Vm , W una coleccion de espacios vectoriales sobre un campo K. Diremos que una funcion
f : V1 V2 Vm W
125
1 Producto tensorial
es multilineal si para cada i = 1, . . . , m
f (v1 , . . . , vi + vi0 , . . . , vm ) = f (v1 , . . . , vi , . . . , vm ) + f (v1 , . . . , vi0 , . . . , vm )
f (v1 , . . . , vi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm )
donde K, vi , vi0 Vi .
Es decir, f es lineal en cada variable cuando las otras se mantienen fijas. Tambien llamaremos forma multilineal a una funcion multilineal con codominio K.
Podemos enunciar la definicion equivalente a 1.1 para productos multitensoriales.
g&
yh
W
126
f1
fm1
f2
fm
0 V1 V2 Vm1 Vm 0
es exacta en Vi si im fi1 = ker fi . Diremos que la sucesion es exacta si es exacta
en cada Vi , para toda i = 1, . . . , m.
f1
f2
f3
fm2
fm1
fm
0 V1 V2 V3 Vm1 Vm 0
una sucesi
on exacta. Entonces
dim V1 dim V2 + dim V3 + (1)m1 dim Vm = 0.
Demostraci
on. Utilizaremos el proceso de induccion sobre m.
Para
f0
f1
m = 1 tenemos la sucesion 0 V1 0. Por exactitud, im f0 = 0 = ker f1 = V1 .
Luego V1 = 0 y dim V1 = 0. Supongamos que la proposicion es valida para
m 1. Como f2 : V2 V3 posee n
ucleo ker f2 = im f1 , induce una funcion lineal
V2 /im f1 V3 (problema II.4.8) que es inyectiva. Luego, se tiene una sucesion
exacta
0 V2 /im f1 V3 Vm1 Vm 0
y, por hipotesis de induccion dim V2 /im f1 dim V3 + = 0, es decir, por II.4.5
dim V2 dim (im f1 ) dim V3 + = 0 y por I.3.11 dim V1 = dim (im f1 ) +
dim (ker f1 ) = dim (im f1 ) + 0 = dim (im f1 ) pues im f0 = 0 = ker f1 . Luego
dim V2 dim V1 dim V3 + = 0.
1.9 COROLARIO. Si 0 V1 V2 V3 0 es una sucesi
on exacta
corta de espacios vectoriales de dimensi
on finita sobre un campo K entonces
V2
= V1 V3 .
Demostraci
on. Por 1.8, dim V1 dim V2 + dim V3 = 0. Luego dim V2 =
dim V1 + dim V3 y por lo tanto V2
= V1 V3 .
127
1 Producto tensorial
PROBLEMAS
1.1 Pruebe que K n K m = K nm y que K K V
= V para V un espacio vectorial
como en 1.3.
1.2 Proporcione con todo detalle la demostracion de 1.6
1.3 Pruebe que U V
= V U.
1.4 Pruebe que si
T U V W
es una sucesion exacta de espacios vectoriales sobre un campo K, entonces
(i) h es inyectiva si, y solo si, g es trivial (i.e. g(U ) = 0)
(ii) g es trivial si, y solo si, f es suprayectivo.
1.5 Pruebe que, en una sucesion exacta de espacios vectoriales sobre un campo K
f
S T U V W
f es suprayectiva y k es inyectiva si, y solo si, U = 0.
1.6 Pruebe que, si 0 V 0 es una sucesion exacta de espacios vectoriales
sobre un campo K, entonces V = 0.
f
128
V V
yh
g&
W
La existencia se demuestra facilmente utilizando los conceptos de producto tensorial y espacio vectorial cociente:
2.3 PROPOSICION. Sea V un espacio vectorial de dimensi
on finita
0
sobre K y (V V, f ) el producto tensorial. Sea U el subespacio de V V
generado por los elementos v v con v V . Sea p: V V (V V )/U la
proyecci
on can
onica. Entonces la pareja ((V V )/U, f ), con f = pf 0 es la
potencia exterior V V .
Demostraci
on. Veamos que f es bilineal alternante. En efecto, es bilineal
porque f 0 lo es y p es lineal; es alternante porque f (v, v) = pf 0 (v, v) = p(v v) =
(v v) + U = U que es el cero de (V V )/U .
129
2 Producto exterior
f0
V V
yh0
g&
V V /U = V V
.h
(f = pf 0 )
W
Por ser V V el producto tensorial existe h0 , funcion lineal tal que g = h0 f 0 . As,
h0 (v v) = h0 f 0 (v, v) = g(v, v) = 0. Luego, h0 (v v) = h0 f 0 (v, v) = 0 para toda
v V , lo cual implica que h0 (U ) = 0. Entonces existe una funcion lineal u
nica h
tal que h0 = hp. Por lo tanto g = hpf 0 = hf .
Observe que como im f 0 genera a V V y p es suprayectiva, resulta que im f
genera a V V .
X
f (u, v) = f
i ui ,
j uj
= 1 1 f (u1 , u1 ) + 1 2 f (u1 , u2 ) + 1 3 f (u1 , u3 ) + 2 1 f (u2 , u1 )
+ 2 2 f (u2 , u2 )2 3 f (u2 , u3 ) + 3 1 f (u3 , u1 ) + 3 2 f (u3 , u2 )
+ 3 u3 f (u3 , u3 )
=
3 X
3
X
i=1 j=1
i j f (ui , uj ).
130
(i j j i )tij
1i,j3
P3
P3
en donde u = i=1 i ui , v = j=1 j uj . En particular se tiene que g(ui , uj ) = tij .
Esta funcion (problema 2.3) es bilineal y alternante. Entonces, por la propiedad
universal, existe una funcion lineal u
nica h: V V W tal que g = hf . Obtenemos
as g(u, v) = hf (u, v) = h(u v) y, en particular, h(ui uj ) = g(ui , uj ) = tij .
P
Supongamos ahora que
u uj = 0 para (1 i < j 3). Entonces como h es
P
Pij i
P
P
lineal, h( ij ui uj ) =
ij h(ui uj ) =
ij g(ui , uj ) =
ij tij = 0. Como
{t12 , t13 , t23 } es base de W , entonces 12 = 13 = 23 = 0.
2.6 EJEMPLO. Si V = IR3 , recuerdese que el producto vectorial o producto
cruz de dos vectores u = (1 , 2 , 3 ) y v = (1 , 2 , 3 ) se define como u v =
(2 3 3 2 , 3 1 1 3 , 1 2 2 1 ), es decir,
u v = (2 3 3 2 )e1 + (3 1 1 3 )e2 + (1 2 2 1 )e3
lo cual puede expresarse como
e1
u v = 1
1
e2
2
2
e3
3
3
131
2 Producto exterior
yh
g&
W
La demostracion de la unicidad y existencia de la potencia exterior sigue exacV2
tamente los mismos pasos que para el caso de
V =V V.
Dejamos al lector imitar el caso k = 2 para probar (problema 2.6) que si
{v1 , . . . , vn } es una base de V entonces
{vj1 vjk | 1 j1 < < jk n}
132
n
elementos, la dimension de
es base de
V . Puesto que este conjunto tiene
k
Vk
n
V es
.
k
Vk
n V
yh
g&
(v1 , . . . , vn ) 7
g&
n V
Vn
v1 vn
yh
A(v1 ) A(vn )
Vn
Pero dim
V = 1, es decir
V = K por lo que hA : K K es una funcion
lineal y por lo tanto hA es la multiplicacion por un escalar. Entonces, si denotamos
con |A| a este escalar, tenemos
hA (v1 vn ) = |A|(v1 vn ) = A(v1 ) A(vn ).
Entonces definimos el determinante de A: V V como el escalar |A|.
Si (ij ) es la matriz de la funcion lineal A: V V con respecto a la base
Pn
{v1 , . . . , vn }, es decir, si A(vi ) = j=1 ij vj (1 i n) entonces obtenemos
A(v1 ) A(vn ) =
1 ji n, i = 1, . . . , n
Ahora bien, en esta suma los productos vj1 vjn con dos (o mas) ndices
iguales valen 0. Es decir, solamente quedan aquellos productos tales que los ndices
133
2 Producto exterior
j1 , . . . , jn son todos distintos entre s. Dicho de otra manera, los ndices son las
permutaciones de 1, . . . , n, es decir (i) = ji .
Ademas, como vj1 vjn = sigv1 vn obtenemos
X
A(v1 ) A(vn ) =
sig1(1) n(n) v1 vn
PROBLEMAS
2.1 Pruebe la unicidad de la potencia exterior.
2.2 Sea V un espacio vectorial sobre un campo K y u, v V . Pruebe que si u y
v son linealmente dependientes entonces u v = 0.
2.3 Pruebe que la funcion g definida en el ejemplo 2.5 es bilineal y alternante.
2.4 Pruebe que el conjunto {vi vj } (1 i < j n) de la demostracion de 2.7 es
linealmente independiente. (Siga el metodo usado en el ejemplo 2.5).
134
2.5
Pruebe que si es una permutacion de {1, 2, . . . , k} entonces
v(1) v(k) = sig()v1 vk , en donde sig() denota el signo de la
permutacion.
2.6 Pruebe que si {v1 , . . . , vn } es una base de V entonces {vj1 vjk |
Vk
1 j1 < < jk n} es base de
V y que el n
umero de tales vectores es
n
.
k
2.7 Pruebe que si A, B: V V son endomorfismos de V entonces
(i) |AB| = |A| |B|
(ii) |1V | = 1
(iii) |A1 | = |A|1 para A biyectivo (i.e. A automorfismo de V )
2.8 Pruebe que si una columna de la matriz (ij ) es combinacion de las demas,
entonces |ij | = 0.
2.9 Verifique que el producto exterior posee las tres propiedades mencionadas.
3 Estructuras algebraicas
IV.3
135
ESTRUCTURAS ALGEBRAICAS
136
f (u ? v) = f (u) f (v).
Si en la definicion I.1.1 consideramos un anillo (, +, ) conmutativo con 1 en
lugar de un campo K, obtendremos una estructura algebraica llamada -m
odulo
137
3 Estructuras algebraicas
(izquierdo). Entonces, como caso particular de los -modulos estan los K-modulos,
i.e. los espacios vectoriales sobre un campo K.
Todos los puntos tratados en las secciones I.1 y I.2 son validos para los modulos, basta tomar K = un anillo conmutativo con 1. En particular, relacionamos dos -modulos mediante un homomorfismo de -m
odulos (definicion
I.1.7). Los -modulos son generalizaciones de los conceptos de grupo conmutativo y
de espacio vectorial, y son los objetos de estudio del Algebra Homologica. Imitando
a los espacios vectoriales, si un -modulo posee una base, le llamaremos -m
odulo
libre. No todo -modulo posee base, es decir, no todo -modulo es libre, pero todo
espacio vectorial o K-modulo es libre, es decir, s posee una base. Diremos que un
-modulo es proyectivo si es sumando directo de un libre y que es finitamente
generado si posee un conjunto finito de generadores.
Un
algebra sobre es un conjunto A que simultaneamente es un anillo y un
-modulo. Es decir, un algebra (A, +, , ) es un -modulo con otra operacion
binaria, llamada multiplicaci
on con una condicion extra que hace compatibles las
operaciones binarias y multiplicacion escalar, la cual es la siguiente:
(u + 0 v)w = (uw) + 0 (vw)
y
w(u + 0 v) = (wu) + 0 (wv)
para , 0 ; u, v, w A
mediante
(u1 uk ) (v1 v` ) = u1 uk v1 v`
138
Vk
V`
Vk+`
V.
V = (K, V,
V2
V,
V3
V, . . .)
llamada
algebra exterior o
algebra de Grassmann de V .
Sea V el espacio dual de V . Consideremos el espacio tensorial de grado k de
V , T k V , del ejemplo 3.6. Consideremos tambien T ` V y denotemos con T`k (V ) el
producto (k V ) (` V ). Es decir, T k V T ` (V ) = T`k (V ). Con esta notacion
se tiene que T0k (V ) = T k (V ) = k V , T`0 (V ) = ` V y T00 (V ) = K. Llamaremos a
T`k V espacio tensorial de tipo (k, `) y cada uno de sus elementos lo llamaremos
tensor de tipo (k, `). Un tensor de tipo (k, 0) se llamara tensor contravariante
de grado k y uno de tipo (0, `) tensor covariante de grado `. Un tensor de
tipo (0, 0) es simplemente un escalar. Un elemento de T01 V = V se llama vector
contravariante y uno de T10 V = V se llama vector covariante. Si k 6= 0 y ` 6= 0,
un tensor mixto es un tensor de tipo (k, `).
PROBLEMAS
3.1 Verifique que los conjuntos con operacion binaria del ejemplo 3.2 son grupos.
3.2 Verifique que los conjuntos con operaciones binarias del ejemplo 3.5 son anillos
y que ZZ, K y K[x] son dominios euclidianos.
3.3 Considere la parte aditiva de un espacio vectorial (V, +, ) sobre un campo
K. Entonces (V, +) es un grupo conmutativo bajo la suma. Si U es un subespacio
de V , (U, +) es un subgrupo conmutativo de (V, +). Proporcione una definicion
139
3 Estructuras algebraicas
140
j1
k
ji11 ,...,i
f j` .
,...,j` vi1 vik f
141
4 K0 y K1
IV.4
K0 Y K1
142
4.1 PROPOSICION. f : X K0 (X) satisface la siguiente propiedad universal: para cada homomorfismo (de monoides) g: X G de X en un
grupo abeliano G existe un u
nico homomorfismo (de grupos) h: K0 (X) G
tal que g = hf , es decir, tal que el siguiente diagrama conmuta:
X
K0 (X)
yh
g&
G
143
4 K0 y K1
144
(f g)(v) = f (g(v)).
Claramente (problema 4.5) GL(V ) es un grupo bajo .
Ahora definamos otro conjunto. Denotemos con GLn (K) el conjunto de las
matrices de n n con elementos en el campo K que poseen inverso, es decir, el
conjunto de todas las matrices invertibles o no singulares de n n con elementos
en K. Podemos definir en GLn (K) una operacion binaria
(A, B) 7 A B
1 0
0 1
0 0
0
1
!
.
* Tambien se acostumbra llamar matriz elemental (en otros textos) a aquella matriz obtenida
de la matriz 1n mediante una sola operaci
on elemental y dicho concepto no coincide con el aqu
definido. Tambi
en, en algunos textos se le llama transvecciones a las matrices que arriba definimos
como elementales. El nombre de elementales es el que se utiliza en la K-Teora Algebraica desde
la d
ecada de los sesenta.
145
4 K0 y K1
1
0
0
0
1
0
3
0
1
1
0
0
0
1
0
3
0
1
1 0
0 1
0 0
0
0
1
es decir, e313 e3
13 = 13 .
Es facil ver (problema 4.9) que si eij es una matriz elemental y A GLn (K),
multiplicar A por eij por la izquierda equivale a sumar veces el renglon j al
renglon i, y que multiplicar por la derecha equivale a sumar veces la columna i a la
columna j. Es decir, que la multiplicacion eij A o Aeij equivale a hacer operaciones
elementales por renglon o columna en matrices. Por ejemplo, en GL3 (K), e23 A es
1
0
0
0
1
0
a11
a21
a31
a12
a22
a32
a13
a23
a33
a11
a21 + a31
a31
a12
a22 + a32
a32
a13
a23 + a33
a33
!
.
si j 6= k, i 6= `
si j = k, i =
6 `
si j 6= k, i = `
Denotemos con En (K) el subgrupo de GLn (K) generado por todas las matrices
elementales eij , K, 1 i 6= j n, llamado grupo elemental lineal de K.
Si cada matriz A GLn (K) la identificamos con la matriz
A 0
0 1
GLn+1 (K)
obtenemos inclusiones GL1 (K) GL2 (K) GL3 (K) . Sea GL(K) =
on de los grupos GLn (K) que llamaremos grupo lineal genen=1 GLn (K), la uni
ral infinito de K. Podemos concebir a GL(K) como el grupo que consta de todas
las matrices invertibles infinitas A = (aij ) con aij K, 1 i < , 1 j < y
aij = ij , la delta de Kronecker para toda i, j excepto un n
umero finito de i, j. Entonces GLn (K) GL(K) y lo vemos como el subgrupo de todas las (aij ) GL(K)
146
con aij = ij para toda i, j > n. La inclusion de GLn (K) en GLn+1 (K) se restringe
a la inclusion de En (K) en En+1 (K) y, en GL(K), el subgrupo
E(K) =
n=1 En (K)
se llama grupo elemental infinito de K.
n 3.
ABA1 B 1
0
0
I
Pero
ABA1 B 1
0
0
I
A
0
0
A1
B
0
0
B 1
(BA)1
0
0
BA
147
4 K0 y K1
X
0
0
X 1
X
0
0
X 1
0
tales (o lo que es lo mismo, invertibles) y as tendremos que X
E2n (K).
1
0 X
Como
X
0
0
X 1
I
0
X
I
I
X 1
0
I
I
0
X
I
0
I
I
0
las tres primeras elementales (i.e. pueden reducirse a I2n mediante operaciones
elementales por renglon) y como
0
I
I
0
I
0
I
I
I
I
0
I
I
0
I
I
X
0
es producto de matrices elementales. Luego ABA1 B 1 E(K) y
0 X 1
por lo tanto [GL(K), GL(K)] E(K).
148
Definamos SL(K) = ker (det), o sea, todas las matrices de GL(K) con determinante uno, y lo llamaremos grupo especial lineal o infinito de K. Notese
que
SL(K) =
n=1 SLn (K)
donde SLn (K) = ker (det: GLn (K) K ) y que las matrices elementales siempre
tienen determinante 1, as que, para toda n
En (K) SLn (K)
E(K) SL(K).
GL(K)
= K1 (K).
E(K)
Si definimos
SK1 (K) = SL(K)/E(K) = ker (det: K1 (K) K )
resulta que (problema 4.11) K1 (K)
= SK1 (K)K , i.e., se tiene la sucesion exacta
corta que se escinde
det
K 1.
1 SL(K)/E(K) GL(K)/E(K)
Como K puede considerarse conocido, el calculo de K1 (K) se limita al de
SK1 (K). Observese que SK1 (K) es trivial si, y solo si, para cualquier matriz
A SLn (K) podemos transformar la matriz
A 0
0 Ik
4 K0 y K1
149
PROBLEMAS
4.1 (i) Pruebe que en IN IN, (a, b) (c, d) a + d = b + c es una relacion
de equivalencia.
(ii) Pruebe que la adicion en IN IN/ dada por (a, b) + (c, d) = (a + c, b + d)
esta bien definida y IN IN/ es un grupo conmutativo.
4.2 Pruebe que si (X, ) es un monoide conmutativo, la relacion (a, b) (c, d)
a b h = b c h para alguna h X es una relacion de equivalencia.
4.3 Pruebe que f : X K0 (X) satisface la propiedad universal de 4.1.
4.4 Un ideal I de un anillo conmutativo es un subconjunto de que es un
subgrupo aditivo y tal que I I (es decir, si I y entonces I).
El grupo cociente /I hereda de una multiplicacion bien definida que lo hace un
anillo, llamado anillo cociente. Defina en K0 (K) = F/R una estructura de anillo
mediante hV i hW i = hV K W i en F . Compruebe que R es un ideal de F .
4.5 Sea V un espacio vectorial de dimension n sobre un campo K. Pruebe que
(GL(V ), ) o (AutK (V ), ) es un grupo. Observese que AutK (V ) es el grupo de las
unidades de EndK (V ).
4.6 Pruebe que (GLn (K); ) es un grupo.
4.7 Sea V un espacio vectorial sobre un campo K. Establezca detalladamente el
isomorfismo de grupos
GL(V )
= GLn (K).
150
APENDICE
NOTAS HISTORICAS
El Algebra Lineal una de las ramas
m
as antiguas de la Matem
atica
y a la vez una de las m
as nuevas.[B]
152
Ap
endice
un segmento de lnea recta con longitud y direccion fija. Dos vectores pueden ser
sumados uniendo el punto inicial del segundo vector con el punto final del primero.
La resta es simplemente la suma del negativo, esto es, el vector con la misma
longitud y direccion contraria. [K]
A partir de estas ideas geometricas, Grassmann define el espacio vectorial
generado por las unidades e1 , e2 , e3 , . . ., considerando combinaciones lineales
P
i ei donde las i son n
umeros reales. Establece la suma y la multiplicacion por
un n
umero real de la siguiente manera:
X
X
X
i ei +
i ei =
(i + i )ei
X
X
(
i ei ) =
(i )ei
y demuestra formalmente las propiedades de espacio vectorial para esas operaciones (no es claro si el conjunto de unidades puede ser infinito, pero la finitud es
implcitamente asumida en algunas de sus demostraciones). Desarrolla la teora de
independencia lineal similarmente a la presentacion que uno encuentra en los textos
actuales sobre Algebra Lineal. [F-S]
Grassmann denota a la funcion lineal que enva los elementos de la base
e1 , e2 , . . . , en a los de la base b1 , b2 , . . . bn respectivamente como
Q=
b1 , b2 , . . . , bn
e1 , e2 , . . . , en
0, . . . , 0, es , 0, . . . , 0
e1 , . . . , er , . . . en
[F S]
153
Ap
endice
154
Ap
endice
155
Ap
endice
a,
a0 ,
a00 ,
..
.
b,
b0 ,
b00 ,
c,
c0 ,
c00 ,
para representar lo que hoy llamamos una matriz y noto que el uso de matrices es
muy conveniente para la teora de ecuaciones lineales. Luego escribio
a,
b,
c, !
a0 , b0 , c0 , x
00
00
00
(u, v, w, . . .) =
a , b , c , y
z
..
.
para representar el sistema de ecuaciones
u = ax + by + cz + ,
v = a0 x + b0 y + c0 z + ,
w = ax + by + cz + ,
..
.
156
Ap
endice
a,
b,
c,
!
u
a0 , b 0 , c 0 ,
00
00
00
(x, y, z) =
v
a
,
b
,
c
,
w
..
.
En 1858, Cayley introdujo la notacion de una sola letra para matrices y definio
no solamente como multiplicarlas sino tambien como sumarlas y restarlas.
De esas innovaciones notacionales surge la idea de que las matrices se comportan
como entes que pueden ser sumadas y multiplicadas: la ley de adicion de matrices
es precisamente similar a la adicion de cantidades algebraicas ordinarias, y como se
puede ver en su multiplicacion, en general no es conmutativa.
As, Cayley desarrollo el algebra matricial, haciendo uso constante de su analoga
con las manipulaciones algebraicas ordinarias, pero notando cuidadosamente donde
fallan estas analogas. Luego, usando la formula para la inversa de una matriz,
escribio que la nocion de inversa de una matriz falla cuando el determinante es
cero; la matriz en este caso se dice que es indeterminada; y que el producto de dos
matrices puede ser cero sin que alguno de los factores sea cero.
Las innovaciones notacionales sugeridas por el problema de Cayley-Hermite le
permitieron a Cayley obtener el teorema de Hamilton-Cayley.
Laguerre en 1867 contin
ua el trabajo de Eisenstein y Hermite en la aplicacion del
algebra simbolica de las funciones lineales a problemas en la Teora Aritmetica de
Formas y a la Teora de Funciones Elpticas. Las memorias de Laguerre constan de
dos partes: la primera esta dedicada al desarrollo del algebra simbolica de funciones
lineales en la lnea de la memoria de Cayley de 1858. La segunda parte contiene el
problema de Cayley-Hermite. El trabajo de Laguerre es importante historicamente
porque muestra que el desarrollo del algebra simbolica de matrices fue una consecuencia del trabajo de Eisenstein y Hermite ya que Laguerre no conoca las notas
de Cayley de 1855 ni sus memorias de 1858.
Sin conocer las memorias de Cayley y Laguerre, Georg Frobenius tambien investigo el algebra simbolica de matrices en su trabajo de formas bilineales de 1878.
Frobenius hizo mas contribuciones a la teora de matrices, en particular estudio
algunas propiedades de varias clases especiales de matrices, como las simetricas,
hermitianas, ortogonales y unitarias.
A
un en sus u
ltimas memorias de 1858 y 1866, Cayley nunca uso su algebra
simbolica de matrices como un modo de razonamiento, mientras que Frobenius s
157
Ap
endice
y2 = y 0 ,
y3 = y 00 , , yn = y (n1)
reemplazando la u
nica ecuacion de orden n por un sistema de n ecuaciones de
158
Ap
endice
primer orden
y10
y20
..
.
=
=
yn0
y2
a0 y1
a1 y2
y3
an1 yn
y, por u
ltimo, calculando el polinomio caracterstico de la matriz de coeficientes de
este sistema. [F-B]
Veinte a
nos mas tarde, Lagrange (1736 -1813) dio una version mas explcita
de esta misma idea al hallar la solucion de un sistema de ecuaciones diferenciales
encontrando las races del polinomio caracterstico de la matriz de coeficientes. El
sistema particular de ecuaciones diferenciales surgio del examen de los movimientos
infinitesimales de un sistema mecanico en la vecindad de su posicion de equilibrio.
En 1774, Lagrange resolvio un problema similar de Mecanica Celeste usando la
misma tecnica.
Por otro lado, DAlembert en trabajos que datan de 1743 a 1758, y motivado
por la consideracion del movimiento de una cuerda cargada con un n
umero finito
de masas (restringidas aqu por simplicidad a tres), haba considerado el sistema
3
d2 yi X
+
aik yk = 0
dt2
i = 1, 2, 3.
k=1
Para resolver este sistema decidio multiplicar la i-esima ecuacion por una constante
vi para cada i y sumar las ecuaciones para obtener
3
X
d2 yi
vi aik yk = 0.
vi 2 +
dt
i=1
3
X
i,k=1
P3
Si las vi son elegidas tal que
i=1 vi aik + vk = 0 para k = 1, 2, 3, esto es, si
(v1 , v2 , v3 ) es un vector caracterstico correspondiente al valor caracterstico
para la matriz A = (aik ), la sustitucion u = v1 y1 + v2 y2 + v3 y3 reduce el sistema
original a la u
nica ecuacion diferencial
d2 u
+ u = 0.
dt2
Tal ecuacion, despues del trabajo de Euler sobre ecuaciones diferenciales, fue resuelta facilmente y permitio encontrar las soluciones para las tres yi . Un estudio de
Ap
endice
159
las tres ecuaciones en las cuales esto aparece demuestra que esta determinada por
una ecuacion c
ubica la cual tiene tres races. DAlembert y Lagrange, un poco mas
tarde, se dieron cuenta de que para que las soluciones tuvieran sentido fsico tenan
que ser acotadas cuando t . Esto debera ser verdadero si los tres valores de
fueran distintos, reales y positivos. Cuando Lagrange considero sistemas similares
derivados de sus estudios de Mecanica Celeste, tambien haba determinado los valores para , los cuales en muchos casos satisfacan ecuaciones de grado mayor que
tres. No poda determinar la naturaleza de esos valores matematicamente, luego
argumentaba que de la estabilidad del sistema solar se obtena que los valores fueran
tales que las correspondientes soluciones a las ecuaciones diferenciales permanecan
acotadas.
Cauchy fue el primero que resolvio el problema de determinar en un caso especial los valores caractersticos de la matriz (aik ). Se considera que no estuvo
influenciado por el trabajo de DAlembert ni de Lagrange sobre ecuaciones diferenciales, sino que lo hizo como resultado de su estudio sobre superficies cuadraticas
(el cual formaba parte del curso de Geometra Analtica que ense
naba en el Ecole
Polytechnique desde 1815). Una superficie cuadratica (centrada en el origen) esta
dada por una ecuacion f (x, y, z) = k, donde f es una forma cuadratica ternaria
Ax2 + 2Bxy + Cy 2 + 2Dxz + 2Eyz + F z 2 . Para clasificar tales superficies, Cauchy,
como Euler mas tempranamente, necesitaban encontrar una transformacion de
coordenadas bajo las cuales f se converta en una suma o diferencia de cuadrados. En terminos geometricos, este problema significa encontrar un nuevo conjunto
de ejes ortogonales en un espacio de tres dimensiones en el cual expresar la superficie. Pero entonces, Cauchy generalizo el problema a formas cuadraticas con
n variables, cuyos coeficientes pueden ser escritos como una matriz simetrica. Por
ejemplo, la forma cuadratica binaria ax2 + 2bxy + cy 2 determina la matriz simetrica
de 2 2
a b .
b c
El proposito de Cauchy fue encontrar una funcion lineal tal que la matriz resultante
de esta fuera diagonal, lo cual logro en un artculo de 1829. Debido a que la esencia
de la demostracion de Cauchy reside en el caso de dos variables, veremos este
caso: para encontrar una transformacion lineal la cual mande a la forma cuadratica
binaria f (x, y) = ax2 +2bxy +cy 2 en una suma de cuadrados, es necesario encontrar
el maximo y mnimo de f (x, y) sujeto a la condicion x2 +y 2 = 1. El punto en el cual
tal valor extremo de f ocurre es un punto sobre el crculo unitario, el cual tambien
esta al final de un eje de uno de la familia de elipses (o hiperbolas) descritas por la
forma cuadratica. Si se toma la lnea del origen a ese punto como uno de los ejes y la
160
Ap
endice
perpendicular a esa lnea como el otro, la ecuacion en relacion a esos ejes contendra
u
nicamente los cuadrados de las variables. Por el principio de los multiplicadores
de Lagrange, los valores extremos ocurren cuando los cocientes fx /2x y fy /2y son
iguales. Dandole a cada uno de ellos el valor de , obtenemos las ecuaciones
ax + by
=
x
bx + cy
=
y
161
Ap
endice
det
aM
c
a b
c d
b
dM
=0
Cayley le comunico a Sylvester este notable teorema en una carta el 19 de noviembre de 1857. En ella y en el artculo de 1858, Cayley hizo calculos con M como
si fuera una cantidad algebraica ordinaria y demostro que (a M )(d M ) bc =
162
Ap
endice
(ad bc)M 0 (a + d)M 1 + M 2 = 0 donde M 0 = 10 01 . Lo que motivo a Cayley a establecer este resultado fue demostrar que cualquier matriz satisface una
ecuacion algebraica de su mismo orden y por lo tanto que toda funcion racional
y entera (de la matriz) puede ser expresada como una funcion racional y entera de
un orden a lo mas igual al de la matriz menos la unidad. Despues demostro que
este resultado es cierto para funciones irracionales. En particular demuestra como
calcular L2 = M , donde M es una matriz de 2 2. Supongamos que
M= a b
y L=
c d
Como L satisface L2 ( + )L + ( ) = 0 y L2 = M , sustituyendo obtenemos
L=
1
[M + ( )] .
+
b
a+Y
X
L= X
d + Y .
c
X
X
Como la suma de las diagonales de esta matriz es X y el determinante es Y , se
obtienen dos ecuaciones para las variables X y Y que involucran u
nicamente los
coeficientes de la matriz original.
Hamilton enuncio el teorema en terminos de funciones lineales y no en terminos
de matrices. En particular, escribio el resultado para dimension 3 en terminos de
una funcion lineal de vectores y para dimension 4 en terminos de una funcion lineal
de cuaterniones. Cabe se
nalar que no dio una demostracion general del teorema.
Su principal interes estuvo en derivar una expresion para la inversa de una funcion
lineal. Por ejemplo, si la ecuacion M 2 + aM + b = 0 entonces bM 1 = (a + M ) y
M 1 puede ser facilmente encontrada. Luego, se puede explotar esta idea tratando
con potencias negativas de una matriz dada. [K]
Frobenius en un artculo de 1878 dio la primera demostracion general del Teorema de Cayley-Hamilton.
163
Ap
endice
caractersitico y que es u
nico. Sin embargo no fue hasta 1904 que Kurt Hensel
(1861-1941) demostro la afirmacion de unicidad de Frobenius. [KL]
aij xi yj
i,j=1
164
Ap
endice
D1 0 0 0
0 D2 0 0
.
.. . .
..
..
.
.
.
.
.
.
0
0 0 Dk
donde cada submatriz Di es de la
0
0
..
.
u
forma
..
.
0
0
..
.
0
0
1
..
.
0
1
u
..
.
0
u
0
..
.
0
k 1 0 0 0
0 k 1 0 0
. . . .
. . ... ...
.. .. ..
0 0 0 k 1
0 0 0 0 k
Ap
endice
165
166
Ap
endice
tiplicado por la proyeccion perpendicular del segundo sobre el y establecio algebraicamente el producto interior | de y (cuando n = 3) como
| = 1 1 + 2 2 + 3 3
donde = 1 e1 + 2 e2 + 3 e3 y = 1 e1 + 2 e2 + 3 e3 son hipern
umeros,
las i y i son n
umeros reales y e1 , e2 y e3 son unidades primarias representadas geometricamente por vectores de longitud unitaria, dibujados desde un origen
com
un tal como lo determina un sistema de ejes ortogonales de la mano derecha. Las
i ei son m
ultiplos de las unidades primarias y son representadas geometricamente
por las longitudes i a lo largo de los ejes respectivos, mientras que esta representada por un vector en el espacio cuyas proyecciones sobre los ejes son las longitudes
i . Se cumple lo mismo para i y . Para el producto interior Grassmann postula
que
ei |ei = 1 y que ei |ej = 0 para i 6= j.
El valor numerico o magnitud de un hipern
umero lo define como
q
p
a = | = 12 + 22 + 32 .
Luego, la magnitud de es numericamente igual a la longitud del vector, el cual se
representa geometricamente. Tambien desarrolla la formula para el cambio de coordenadas bajo cambio de base e introduce algunas de las ideas basicas relacionadas
con las funciones lineales. Finalmente, aplico algunas de estas ideas en el desarrollo
de la geometra simbolica.
Hamilton tambien define el producto escalar de dos vectores, pero en dimension
a lo mas cuatro y demuestra su bilinealidad.
167
Ap
endice
i 6= j,
[ei ei ] = 0.
Estos corchetes son llamados unidades del segundo orden y no son reducidos por
Grassmann (mientras que Hamilton s lo hace) a unidades del primer orden. Sin
embargo eran equivalentes a unidades del primer orden [e1 e2 ] = e3 , y as sucesivamente. Con la ayuda del producto exterior de las unidades primarias, el producto
exterior P de los hipernumeros = 1 e1 + 2 e2 + 3 e3 y = 1 e1 + 2 e2 + 3 e3
lo expreso como sigue:
P = [] = (2 3 3 2 )[e2 e3 ] + (3 1 1 3 )[e3 e1 ] + (1 2 2 1 )[e1 e2 ].
Este producto es un hipern
umero del segundo orden y esta expresado en terminos
de unidades independientes del segundo orden. Su magnitud |P | se obtiene a partir
de la definicion del producto interior, P |P , de dos hipern
umeros del segundo orden
y es
p
p
|P | = P |P = (2 3 3 2 )2 + (3 1 1 3 )2 + (1 2 2 1 )2
s
2 2
3 3 2
1 1
+
+
)
= |||| 1 (
|||| |||| ||||
= ||||sen
donde es el angulo entre los vectores y .
Luego, la magnitud |P | del producto exterior [], se representa geometricamente por el area del paralelogramo construido sobre los vectores, los cuales son
las representaciones geometricas de y .
Hamilton establecio el producto exterior de dos vectores, como el que ahora es
dado para el sistema de los n
umeros complejos. Durante 15 a
nos estuvo tratando
de generalizarlo a un espacio de tres dimensiones. Un da mientras caminaba por
el canal Royal se le ocurrio la formula i2 = j 2 = k 2 = ijk que le permitio definir el
producto exterior de dos vectores, pero en un espacio de dimension cuatro (cuaterniones).
AIV.4 K0 y K1
La K-Teora Algebraica comienza por el hecho de que no todos los modulos proyectivos son libres.
168
Ap
endice
169
Ap
endice
n : Stn () En () GLn ()
dado por n (xij ) = eij , y pasando al lmite directo obtenemos : St() GL()
tal que (St()) = E(). Entonces Milnor definio K2 () = ker .
La K-Teora Algebraica se convirtio en un tema importante porque relaciona
dos areas de las matematicas. El desarrollo de la K-Teora Algebraica superior de
Quillen relaciona la Topologa con el Algebra de una manera nueva y fundamental.
La K-Teora Algebraica utiliza metodos topologicos para encontrar invariantes algebraicos, y tambien proporciona una manera de traducir conceptos algebraicos en
170
Ap
endice
Ap
endice
171
BIBLIOGRAFIA
174
Bibliografa
McGraw-Hill.
LISTA DE SIMBOLOS
K, 21
Mmn K, 23
K S , 23 K[x], 23
U
= V , 25
1V , 26
OV , 26
tr, 26
det, 26, 147
HomK (U, V ), 26
L(U, V ), 26
A(U, V ), 26
Mn K, 27
ker f ,27
im f , 27
U + V , 28
U V , 29
Ln
i=1 Vi , 31
hSi, 31
dim V , 38
rango f , 43
nul f , 43
0
[f ] , 49
[u] , 49
[f (u)] 0 , 49
N , 50
EndK (V ), 52
U , 57
pA (), 62
|Nij |, 63
Aij , 63
63
A,
mA (), 67
V /U , 70
U , 71
Jij , 83
176
Lista de smbolos
L2 (V, V ; K), 88
T k (V ), 137
L2 (V ; K), 88
L1 (V ; K), 89
T V , 138
Vk
V , 138
V
V , 138
V , 89
T`k (V ), 138
[f ] , 91
AK (V ), 140
V , 94
K0 (X), 141
Bil(V ), 88
U , 96
hV i, 142
rg(f ), 96
[V ], 142
n+ , 100
EVK , 143
n , 100
Ab, 143
sgf , 101
Abf , 143
A , 102
Abfg, 143
h , i, 103
GL(V ), 143
|| ||, 104
AutK (V ), 143
U , 105
, 109
eij , 144
A , 112
O(n), 112
GL(K), 145
SO(n), 112
En (K), 145
U k V , 121
E(K), 145
ui vj , 122
K1 (K), 147
V V , 128
SL(K), 147
u v, 129
u v, 130
Vk
V , 131
|A|, 132
INDICE ANALITICO
algebra
de Grassmann, 138
exterior, 138
graduada, 137
tensorial, 138
base, 36
can
onica, 36
de un m
odulo, 137
dual, 90
Bessel
desigualdad de, 108
campo, 136
Cauchy-Schwarz
desigualdad de, 104
Cayley-Hamilton
teorema de, 63
clase lateral, 70
coeficientes, 31
cofactor, 63
combinaci
on lineal, 31
componente de un tensor, 140
conjunto
base, 36
de generadores, 35
linealmente dependiente, 33, 36
linealmente independiente, 33, 35
ortogonal, 105
ortogonal a un subconjunto, 105
ortonormal, 105
soluci
on, 32
conmutador, 145
descomposici
on espectral, 117
desigualdad
de Bessel, 108
de Cauchy-Schwarz, 104
del tri
angulo, 104
determinante, 132
de una matriz, 133
178
diagrama
conmutativo, 31
dimensi
on, 38
dominio
entero, 136
euclidiano, 136
forma bilineal, 88
alternante, 100
antisimetrica, 100
definida positivamente, 101
degenerada, 96
no degenerada, 96
rango de una, 96
semidefinida no negativamente, 101
signo de una, 101
simetrica, 97
forma can
onica, 56, 70
de Jordan, 83
normal, 76
forma cuadr
atica, 97
compleja, 101
hermitiana,101
forma hermitiana, 101
forma lineal, 89
forma multilineal, 125
funci
on
bilineal, 87
bilineal alternante, 128
multilineal, 125
funci
on lineal, 24
matriz que representa a una, 49
nulidad de una, 43
rango de una, 43
Indice analtico
trivial, 26,127
funcional lineal, 89
G
Gram-Schmidt
procedimiento de, 105
generadores, 35
grupo, 135
abeliano libre, 139
base de un, 139
cociente, 139
conmutativo, 22, 135
de Grothendieck, 141
elemental infinito, 145
elemental lineal, 145
especial infinito, 147
especial lineal, 147
lineal general, 144
lineal general infinito, 145
ortogonal, 112
ortogonal especial, 112
H
homomorfismo
de anillos, 136
de espacios vectoriales, 24
de grupos, 136
de identidad, 26
de -m
odulos, 137
natural, 95
trivial, 26
I
ideal, 149
imagen, 27
ndice
contravariante, 140
covariante, 140
de nilpotencia, 79
invariante bajo similaridad, 60, 65
isomorfismo
de espacios vectoriales, 25
de grupos, 139
de espacios con producto escalar, 112
L
lema de Whitehead, 145
ley de la inercia de Sylvester, 101
longitud de un vector, 104
179
Indice analtico
matriz
adjunta cl
asica, 63
antisimetrica, 100
asociada a una funci
on lineal, 49
asociada a una forma bilineal, 91
asociada con respecto a una base, 50
asociada relativa a una base, 50
caracterstica, 62
congruente a, 99
cuadrada, 27
de transici
on, 50
determinante de una, 133
elemental, 144
equivalente a, 60, 76
hermitiana, 102
nilpotente, 79
normal, 112
ortogonal, 112
semejante a, 55
simetrica, 27
similar a, 55
traza de una, 26, 60
unitaria, 112
menor del elemento, 63
m
odulo
finitamente generado, 137
izquierdo, 137
libre, 137
proyectivo, 137
sobre un anillo, 137
monoide, 135
multiplicaci
on, 137
multiplicaci
on escalar, 22
operador
adjunto, 110
autoadjunto, 114
hermitiano, 114
normal, 112
ortogonal, 112
que preserva longitudes, 113
que preserva productos escalares, 113
simetrico, 114
unitario, 112
operador lineal, 44
descomponible, 77
determinante de un, 132
diagonalizable, 56
invertible, 44
nilpotente, 79
no singular, 44
representado por matriz triangular, 73
singular, 44
permutaciones, 133
polinomio
caracterstico, 62
mnimo, 67
potencia
exterior de grado dos, 128
exterior de grado k , 131
procedimiento de Gram-Schmidt, 105
producto
escalar, 95, 103
exterior, 133
interno, 103
tensorial, 121
propiedad universal
de la potencia exterior, 128, 131
de la suma directa, 30
del producto tensorial, 121
proporci
on divina, 61
proyecci
on ortogonal, 107
rango, 43
resoluci
on espectral, 117
secci
on
aurea, 61
semigrupo, 135
subconjunto independiente m
aximo, 41
subespacio
generado por, 31
invariante bajo un operador, 71
ortogonal, 105
trivial, 27
vectorial, 27
subgrupo, 139
sucesi
on
de Fibonacci, 61
exacta, 126
exacta corta, 139
suma
de subespacios vectoriales, 28
directa, 29
directa externa, 29
180
directa interna, 29
Sylvester, ley de la inercia, 101
tensor
componente de un, 140
contravariante de grado k , 138
covariante de grado `, 138
de tipo (k, `), 138
mixto, 138
teorema
de Cayley-Hamilton, 63
de descomposici
on primaria, 78
espectral, 116
transformaci
on lineal, 24
transvecci
on, 144
traza, 26, 60
valor
caracterstico, 56
propio, 56
Indice analtico
vector
caracterstico, 56
contravariante, 138
covariante, 138
longitud de un, 104
norma de un, 104
normalizado, 104
propio, 56
unitario, 104
vectores, 22
linealmente dependientes, 33
linealmente independientes, 33
ortogonales, 105
Whitehead
lema de, 145
del Algebra
Lineal. Se ha incluido el Algebra
Multilineal, tema de fundamental
importancia as como algunos conceptos de la K-Teora Algebraica Clasica, una de
las ramas mas recientes de la Matematica. Se incluyen diversos ejercicios de calculo
explcito, as como una gran cantidad de problemas interesantes que le brindan al
estudiante la oportunidad de crear y redactar matematica.
En la introduccion se presenta un panorama del libro y se incluye un apendice que
contiene notas historicas sobre los conceptos definidos. El texto esta escrito en un
lenguaje claro, conciso y elegante. Esta dise
nado para un curso de un a
no o dos
semestres al nivel licenciatura o bien de un semestre para algunos posgrados.
Este libro cumple ya mas de diez a
nos de ser utilizado exitosamente como texto
sobre la materia en diversas universidades del Continente Americano, incluyendo
algunas universidades de Estados Unidos de Norteamerica y, desde luego, en Mexico.
Emilio Lluis nacio en la Ciudad de Mexico en septiembre de 1952. Realizo sus
Estudios Profesionales y de Maestra en Matematica en Mexico. En 1980 obtuvo
su Doctorado (Ph.D.) en Matematica en Canada. Es catedratico de la Universidad
Nacional Autonoma de Mexico en sus Divisiones de Estudios Profesionales y de
Posgrado desde hace treinta a
nos. Ha formado varios profesores e investigadores
que laboran tanto en Mexico como en el extranjero.