Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Algebra Lineal y Multilineal

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 191

Publicaciones Electrnicas

Sociedad Matemtica Mexicana

lgebra Lineal,
lgebra Multilineal
y
K-Teora Algebraica Clsica
Emilio Lluis-Puebla

www.sociedadmatematicamexicana.org.mx
Serie: Textos. Vol. 9 (2008)
ISBN 968-9161-31-8

A L G E B R A L I N E A L,
ALGEBRA MULTILINEAL
Y
K-TEORIA
ALGEBRAICA CLASICA

EMILIO LLUIS-PUEBLA
Universidad Nacional Aut
onoma de Mexico

2008 Segunda Edicion: Sociedad Matematica Mexicana,


Publicaciones Electrnicas
ISBN 968-9161-31-8 (version en lnea)
ISBN 968-9161-32-6 (version en CD)
ISBN 968-9161-33-4 (version en papel)
1997 Primera Edicion: Sistemas Tecnicos de Edicion, S.A. de C.V.
San Marcos, 102. Tlalpan 14000 Mexico, D.F.
c
1996
Emilio Lluis-Puebla
Obra compuesta y formada en TEX por Flor de Mara Aceff Sanchez
Hecho en Mexico.
ISBN 970-629-149-0
Sistemas Tecnicos de Edicion
ABCDEFGHIJKL-M 9987

INDICE GENERAL

Prefacio

Introducci
on

Captulo I
Conceptos Fundamentales
I.1
I.2
I.3
I.4
I.5

Espacios vectoriales y funciones lineales


Subespacios vectoriales
Espacios vectoriales de dimension finita
Aplicaciones
La matriz asociada a una funcion lineal

21
27
35
42
47

Captulo II
Vectores Caractersticos y Formas Can
onicas
II.1
II.2
II.3
II.4
II.5

Valores y vectores caractersticos


Teorema de Cayley-Hamilton
El polinomio mnimo
Forma canonica triangular
Forma canonica de Jordan

55
62
67
70
77

iv

Indice general

Captulo III
Formas y Operadores
III.1 Formas bilineales
III.2 Formas bilineales, simetricas, alternantes, cuadraticas
y hermitianas
III.3 Producto escalar
III.4 Operadores adjuntos
III.5 El teorema espectral

87
97
103
109
114

Captulo IV
Algebra Multilineal y K-Teora Algebraica Cl
asica
IV.1
IV.2
IV.3
IV.4

Producto tensorial
Producto exterior
Estructuras algebraicas
K0 y K1

121
128
135
141

Ap
endice
Notas Hist
oricas

151

Bibliografa

173

Lista de Smbolos

175

Indice Analtico

177

PREFACIO

La mayora de los textos de Algebra Lineal que se encuentran en nuestro pas, en


espa
nol, son traducciones de textos en ingles dirigidos a estudiantes de diversas
disciplinas (Psicologa, M
usica, Medicina, etc., para los cuales es obligatorio cursar Algebra Lineal). Por lo tanto, dichos textos no poseen el enfoque que deben
tener para estudiantes de las carreras de Matematicas o Fsica, por mencionar algunas. Los textos en otros idiomas dirigidos exclusivamente a estudiantes de Fsica o
Matematica son escasos y en espa
nol lo son a
un mas. Es as que nuestra intencion
es la de proveer a los estudiantes de carreras cientficas de un enfoque serio, fundamentado y moderno del Algebra Lineal. Hemos incluido el Algebra Multilineal,
tema excluido de los programas usuales pero que nosotros pensamos que es de importancia fundamental, as como la notacion que se utiliza en fsica para tensores.
No se ha descuidado el aspecto computacional, al contrario, se incluyen diversos
ejercicios de calculo explcito. Sin embargo, han sido incluidos una gran cantidad de problemas interesantes que preparan al estudiante para realmente darle la
oportunidad de crear matematicas. Todos ellos se resuelven utilizando el material
expuesto. Como consecuencia del trabajo de resolverlos, le brindan al estudiante la
oportunidad de redactar matematicas.
Suponemos que el lector esta familiarizado con algunos de los temas basicos del
Algebra Superior, es decir, que ya conoce y maneja estructuras algebraicas como
IN, Q
I , IR, C
I, C
I [x], la definicion de campo, y ha trabajado numericamente con
matrices, determinantes y sistemas de ecuaciones lineales. Es conveniente que haya
conocido los espacios vectoriales IRn sobre el campo IR.
Este libro esta dise
nado para un curso de un a
no (dos semestres, estudiando los
captulos I y II en el primero y los captulos III y IV en el segundo; o bien, haciendo

vi

Prefacio

modificaciones adecuadas, como por ejemplo, el captulo I, II.1, II.2, II.3 y III.3 en
el primer semestre y el resto en el segundo).
En la Introduccion se presenta un panorama del presente texto. Obviamente no
se pretende que el lector que no conozca el tema pueda comprender lo que en ella se
expone. Al contrario, conforme el lector avance en el estudio, podra regresar a ella
y obtener una vision global del Algebra Lineal incluida en esta obra. Las refencias
sin n
umeros romanos indican resultados del captulo en consideracion.
Hemos incluido un apendice que contiene notas historicas sobre algunos de los
conceptos definidos en el texto. Tiene como finalidad la de motivar el estudio del
Algebra Lineal a traves del analisis de las ideas que dieron lugar a dichos conceptos
y del conocimiento de quienes contribuyeron a ellos. No esta dise
nado para una
lectura continua, mas bien, lo esta para ser consultado conforme el lector encuentre
los conceptos en cada seccion. Organizamos el apendice de acuerdo al orden de las
secciones indicadas con una A antepuesta.
Durante varios a
nos he impartido cursos basados en el material aqu incluido a
alumnos de licenciatura, a quienes agradezco su atencion y sus oportunos comentarios.
Del mismo modo, deseo agradecer a varios de mis colegas, entre ellos Mara Elena
Garca y Mary Glazman el haber utilizado versiones preliminares en sus cursos; muy
especialmente a mi padre, Emilio Lluis Riera por haber hecho importantes comentarios, sugerencias y correcciones al haber utilizado el texto varios a
nos. Tambien,
mi mayor agradecimiento a mi esposa Flor de Mara Aceff, quien ademas de haberlo
utilizado en sus cursos, hecho numerosas correcciones y proporcionado agradables
conversaciones sobre el libro, realizo la formacion y composicion en el sistema T E X
de las m
ultiples versiones preliminares. Sin embargo, cualquier falta u omision es
exclusivamente ma.
Igualmente, agradezco a Mara de Jes
us Figueroa el haber escrito las notas
historicas como consecuencia de su largo estudio de investigacion para realizar su
tesis doctoral y a Alejandro Garciadiego a quien agradecemos el asesoramiento
experto para la realizacion de dichas notas.
Finalmente, agradezco a Rosa Quintana la captura preliminar del texto. Este
libro, producto de varios a
nos de trabajo, se elaboro durante su fase final bajo el
auspicio del CONACYT a traves de una Catedra Patrimonial.
Emilio Lluis Puebla

Prefacio

vii

PREFACIO (SEGUNDA EDICION)


Este libro cumple ya mas de diez a
nos de ser utilizado exitosamente como texto
sobre la materia en diversas universidades del Continente Americano, incluyendo
algunas universidades de Estados Unidos de Norteamerica y, desde luego, en Mexico.
He tenido el gusto de ofrecer conferencias en muchas universidades de Centroamerica y Sudamerica donde me he encontrado con colegas, que llevan mi libro
como texto. Me han solicitado una nueva edicion pues la anterior es imposible
de conseguir. Esta nueva edicion, donde he corregido algunos errores tipograficos
y atendido nuevas ideas o sugerencias que al traves de los a
nos me he hecho y
han hecho mis propios alumnos (a quienes mucho agradezco), la he incluido dentro
de las Publicaciones Electronicas de la Sociedad Matematica Mexicana mostrando
(como matematico y Editor Ejecutivo de las mismas) la confianza en este tipo de

publicacion. Este
tiene una excelente accesibilidad, as como un nulo costo, que
de no ser as, resultara elevado para los estudiantes y colegas de muchos lugares.
Las Publicaciones Electronicas de la Sociedad Matematica Mexicana tienen acceso
libre en lnea, pueden copiarse en el ordenador o imprimirse en papel para uso
personal. Ademas, el lector podra adquirir las publicaciones en CD o impresas en
papel empastado.
Primavera de 2008

Emilio Lluis-Puebla

INTRODUCCION

Siempre que se habla de alguna rama de la Matematica se establecen los objetos


de estudio. Los objetos que estudiaremos seran los espacios vectoriales (que son un
caso especial de los modulos). Sea K un campo. Diremos que el conjunto V junto
con la operacion binaria + y accion de K en V forman un espacio vectorial
sobre un campo K si bajo +, V es un grupo abeliano, distribuye tanto a la
suma de elementos de V como a la suma de elementos de K, la accion del producto
de dos elementos de K es igual a uno de ellos por la accion del otro y finalmente,
la accion del elemento unitario de K en V es trivial.
Los elementos de V se llaman vectores, los del campo K se llaman escalares
y la accion se llama multiplicaci
on escalar. K n , K[x] y el conjunto de las
matrices de m n con elementos en K denotado con Mmn K son ejemplos de
espacios vectoriales.
Como relacionamos dos espacios vectoriales sobre un campo K? As como a los
conjuntos los podemos relacionar mediante funciones, a los espacios vectoriales los
relacionaremos mediante funciones que preservan la estructura de espacio vectorial
llamadas homomorfismos o funciones lineales (o aplicaciones o transformaciones lineales). Entonces, si U y V son espacios vectoriales sobre un campo K,
f : U V es un homomorfismo o funci
on lineal si f (u + v) = f (u) + f (v) y
ademas f (v) = f (v); K; u, v U . Resulta que la composicion de homomorfismos es un homomorfismo. Se dice que una funcion lineal f : U V es un
isomorfismo si existe una funcion g: V U tal que g f = 1U y f g = 1V .
Es un hecho el que si dicha g existe, es lineal, esta determinada en forma u
nica, se

Introducci
on

denota con f 1 y se llama inversa de f . Si existe un isomorfismo entre dos espacios


vectoriales U y V se dice que los espacios son isomorfos y escribimos U
=V.
Si K es un campo, el conjunto de homomorfismos o funciones lineales de U en
V lo denotamos con HomK (U, V ) (o con L(U, V ), A(U, V )). Le podemos dar una
estructura de espacio vectorial sobre K. Una gran parte del Algebra Lineal consiste
del estudio de este espacio vectorial.
Dada una funcion lineal f : U V entre espacios vectoriales sobre un campo
K podemos considerar su n
ucleo, es decir, el conjunto de todos los elementos
de U cuya imagen es el cero de V , denotado con ker f . Podemos considerar
la imagen de f , es decir, el conjunto de los elementos de V que provienen de
elementos de U , denotado con im f . Tambien podemos considerar subespacios de
un espacio vectorial. Estos son subconjuntos tales que el cero del espacio pertenece
al subconjunto y este u
ltimo es cerrado bajo la suma y multiplicacion escalar.
Sucede lo esperado: la imagen bajo una funcion lineal de un subespacio es un
subespacio; la imagen inversa de un subespacio bajo una funcion lineal es un subespacio; en particular, el n
ucleo y la imagen de una funcion lineal son subespacios
(de donde deben serlo).
La suma de dos subespacios U y V de W , denotada U + V , es el conjunto de
todas las sumas u + v donde u U y v V . Se dice que W es suma directa
interna de U y V si todo elemento de W puede escribirse en forma unica como
suma de uno de U y uno de V y escribimos W = U V . Podemos definir la suma
directa externa de espacios vectoriales {Vi }ni=1 sobre un campo K y la denotamos
con ni=1 Vi como el espacio vectorial cuyos elementos son listas ordenadas de la
forma (v1 , ..., vn ) con las operaciones usuales de suma y multiplicacion escalar. Si
un espacio vectorial V es suma directa interna de subespacios de V entonces es
isomorfo a la suma directa externa de los mismos subespacios. En vista de esto
u
ltimo hablaremos de la suma directa.
Un espacio vectorial es suma directa de dos subespacios si, y solo si, es suma
de ellos y su interseccion es vaca. La suma directa posee la siguiente propiedad
importante llamada universal: si j : Vj V son funciones lineales de espacios
vectoriales e j : Vj Vi son las inclusiones para i I = {1, . . . , n}, entonces
existe una funcion lineal u
nica : ni=1 Vi V tal que j = j , j I.

Introducci
on

Esta propiedad caracteriza a la suma directa y podemos representarla mediante el


diagrama
V
x

j
%

Vj

ni=1 Vi

Decimos que un vector v V es una combinaci


on lineal de elementos de un
subconjunto S de V si existe un n
umero finito de elementos {vi }ni=1 de S tal que
Pn
v = i=1 i vi , i K. Las i se llaman coeficientes. El conjunto de todas las
combinaciones lineales hSi de un subconjunto no vaco S de V es un subespacio que
contiene a S y es el mas peque
no de los subespacios de V que contiene a S. Dicho
espacio se llama subespacio generado por S y es, por lo tanto, la interseccion de
todos los subespacios que contienen a S. Como caso particular, si hSi = V , todo
elemento de V es una combinacion lineal de elementos de S y diremos que V esta
generado por el subconjunto S de V .
El siguiente resultado es fundamental y es consecuencia de la propiedad universal
para la suma directa: considere K n = nj=1 Kj donde cada Kj
= K, K un campo
fijo, g: {1, . . . , n} K n dada por i 7 ei y V un espacio vectorial sobre K.
Entonces para toda funcion f : {1, 2, ..., n} V existe una funcion lineal u
nica
: nj=1 Kj V tal que f = g, es decir, el siguiente diagrama conmuta:
V
x

n
K = Kj

-f
{1, 2, . . . , n}
g

La funcion g se llama funci


on can
onica.
Diremos que el conjunto {vj }nj=1 de vectores de V es (i) linealmente independiente si es inyectiva, (ii) un conjunto de generadores si es suprayectiva y (iii)
una base si es biyectiva.
En otras palabras, el conjunto {vj } es linealmente independiente si

n
n
X
X

j ej =
j vj = 0
j=1

j=1

implica que j = 0 para toda j = 1, . . . , n; j Kj . El que sea suprayectiva


Pn
equivale a decir que todo elemento de V se puede escribir como j=1 j vj , es decir,

Introducci
on

como una combinacion lineal. El que sea biyectiva quiere decir que todo elemento
Pn
de V puede escribirse de una, y solamente una manera, en la forma j=1 j vj . Es
onica.
claro que el conjunto {ej }nj=1 es una base de nj=1 Kj = K n llamada can
Tambien diremos que el conjunto {vj }nj=1 de vectores de V es linealmente dependiente si no es linealmente independiente.
Es inmediato, de la definicion de base, que todo espacio vectorial V sobre un
campo K con base {vj }nj=1 es isomorfo a K n . Cualquier base de V posee la misma
cardinalidad y los espacios K n y K m son isomorfos si, y solo si, n = m. Esto nos
permite definir el concepto de dimension. Definimos la dimensi
on de un espacio
vectorial V sobre un campo K, denotada dim V , como el n
umero de elementos
de una de sus bases podemos poseer una teora de la dimension para los espacios
vectoriales. As, podemos decir que dos espacios vectoriales son isomorfos si, y solo
si, tienen la misma dimension.
Un resultado que relaciona la dimension de la suma de subespacios con la de
cada uno de ellos es
dim (U + V ) = dim U + dim V dim (U V )
donde U y V son subespacios de alg
un espacio W , y como consecuencia inmediata
dim (U V ) = dim U + dim V.
Si f : U V es una funcion lineal entonces se tiene que
dim (U ) = dim (im f ) + dim (ker f ).
Utilizaremos este hecho en lo subsecuente.
Existe una relacion fundamental entre los homomorfismos y las matrices. Un
sistema de m ecuaciones con n incognitas puede escribirse en la forma
AX = B
donde

a11
A = ...
am1

..
.

a1n
.. ,
.
amn

X = t (x1 , . . . , xn ) y B = t (b1 , . . . , bm ).

Entonces cualquier matriz A de m n determina una funcion lineal f =


A: K n K m (por abuso de notacion) dada por v 7 Av donde los vectores

Introducci
on

de K n y K m los colocamos como vectores columna. As, la solucion de la ecuacion


AX = 0 es el n
ucleo de la funcion lineal f = A: K n K m y por lo anterior
dim (ker f ) = dim K n dim (im f ) = n r
donde r es el rango de A.
Hemos visto que HomK (U, V ) es un espacio vectorial. Si dim U = m y dim V =
n entonces dim HomK (U, V ) = mn. Sea f HomK (U, V ), = {ui }m
i=1 base
0
n
de U y = {vi }i=1 base de V . Como f (ui ) V , f (ui ) puede escribirse como
combinacion lineal de elementos de 0 , es decir
f (u1 ) =
..
.
f (um ) =

11 v1
..
.
m1 v1

1n vn
..
.
mn vn .

Este sistema de ecuaciones lo podemos escribir en la forma



f (u1 )
11 1n
v1
. .
.. .. .
..
.. =
.
.
m1 mn
vn
f (um )

11 1n
t
.. se llama matriz asociada a f , la denotaremos con
La matriz ...
.
m1 mn
0
[f ] y decimos que representa a f .
Si [u] representa el vector traspuesto de coordenadas de u con respecto a la
base y [f (u)] 0 es el de f (u) con respecto a 0 entonces se tiene que
0

[f ] [u] = [f (u)] 0
es decir, multiplicar el vector de coordenadas de u con respecto a la base por la
0
matriz [f ] nos da el vector de coordenadas del vector f (u) con respecto a 0 .
Ahora consideremos dos bases de U : = {ui }ni=1 y = {u0i }ni=1 . Entonces
1U (u1 ) = u1
..
..
.
.
1U (un ) = un

=
=

11 u01
..
.
n1 u01

+
+

..
.

Luego, la matriz cuadrada

11

..

N =
.
1n

n1
..
.
nn

1n u0n

nn u0n .

Introducci
on

se llama matriz de transici


on de la base en la base .
La matriz de transicion N puede verse como la matriz asociada a la funcion
lineal 1U : U U con respecto a las bases y .
Tenemos los siguientes resultados:
(i) si f HomK (U, U ) y N es la matriz de transicion de la base = 0 a la base
0
0
= 0 entonces [f ] = N 1 [f ] N y
(ii) si f HomK (U, V ), N es la matriz de transicion de la base en la base
de U y M es la matriz de transicion de la base 0 en la base 0 de V entonces
0
0
[f ] = M 1 [f ] N .
Finalmente, existe un isomorfismo
HomK (U, U )
= Mn (K)
dado por f 7 [f ] .
Pasamos ahora al estudio del espacio vectorial HomK (U, U ) cuando U es un espacio vectorial de dimension finita sobre K.
Sus elementos los llamaremos
operadores lineales. Podemos definir otra operacion binaria en HomK (U, U ) mediante 2 1 (v) = 2 (1 (v)) la cual hace de HomK (U, U ) un algebra sobre K. As,
HomK (U, U ) es un objeto provisto de varias estructuras que lo hace sumamente
interesante. (En efecto, si A es un algebra con uno sobre un campo K entonces A
resulta ser isomorfa a una subalgebra de HomK (U, U ).)
El resultado (i) anterior nos lleva a definir lo siguiente: dos matrices cuadradas A
y B son similares (o semejantes) si A = N 1 BN con N una matriz invertible. De
aqu que las matrices A y B representan al mismo operador lineal f HomK (U, U )
si, y solo si, son similares una con la otra. La relacion de similaridad o semejanza es
una relacion de equivalencia, de manera que las matrices asociadas a un operador
lineal especfico constituyen una clase de equivalencia. Para el caso de matrices,
sumarlas y multiplicarlas cuando estas son diagonales, es muy sencillo. Simplemente
uno suma o multiplica los elementos correspondientes de las diagonales. Esta es
una buena razon para saber cuales matrices son similares a una matriz diagonal.
Un operador lineal f HomK (U, U ) es diagonalizable si para alguna base de
U , la matriz asociada es diagonal. Tambien decimos que dicha base diagonaliza
a f . Entonces podemos afirmar que f es diagonalizable si, y solo si, existe una
matriz invertible N tal que N 1 BN es diagonal. Quisieramos dar un criterio para
saber cuando un operador lineal f es diagonalizable. Para ello necesitamos definir
algunos conceptos.

Introducci
on

Sea f HomK (U, U ). Si existe un vector u U distinto de cero y un escalar


K tal que f (u) = u llamaremos a valor caracterstico y a u vector caracterstico correspondiente a . Resulta que el conjunto de vectores caractersticos
U correspondientes a un valor caracterstico junto con el cero es un subespacio
de U y es igual al n
ucleo del operador I f . El siguiente teorema nos dice cuando
un operador es diagonalizable:
TEOREMA. Sea f HomK (U, U ). f es diagonalizable si, y s
olo si, U
posee una base que consta de vectores caractersticos de f .
A continuacion asociaremos unos polinomios a operadores lineales y matrices
cuadradas que son de fundamental importancia.
Sea A una matriz cuadrada con coeficientes en K, HomK (U, U ) y f (x) =
an xn + an1 xn1 + + a1 x + a0 un polinomio con coeficientes en K. Definimos
f (A) = an An + an1 An1 + + a1 A + a0 I
n

f () = an + an1

n1

+ + a1 + a0 I

donde n es la composicion de , n veces. Se dice que A o es raz del polinomio


f si f (A) = 0 o si f () = 0. Si A es una matriz cuadrada de m m, la matriz
cuadrada Im A se llama matriz caracterstica, el determinante de la matriz
caracterstica se llama polinomio caracterstico y lo denotamos con
pA () = |Im A|.
Resulta que toda matriz cuadrada es raz de su polinomio caracterstico. Este es el
famoso enunciado de Cayley-Hamilton.
Un criterio para saber si un escalar es un valor caracterstico es la siguiente
PROPOSICION. K es un valor caracterstico de A si, y s
olo si,
es una raz del polinomio caracterstico pA ().
Es un hecho el que si el polinomio caracterstico de A es producto de factores
lineales de la forma ( a1 )( a2 ) ( an ) con todas las ai distintas entonces
A es similar a una matriz diagonal con las ai en la diagonal. Finalmente, si dos
matrices A y B son similares entonces pA () = pB ().
Debido a esto u
ltimo decimos que la funcion Mn (K) K[] que asigna a cada
matriz de n n su polinomio caracterstico es un invariante bajo la relacion de
similaridad.
El polinomio caracterstico es un polinomio para el cual pA (A) = 0, A una
matriz cuadrada. Puede haber otros polinomios para los cuales A sea raz. El

Introducci
on

polinomio monico de menor grado tal que A es su raz lo denotaremos con mA () y


se llama el polinomio mnimo de A. Dicho polinomio es u
nico, divide al polinomio
caracterstico y posee los mismos factores irreducibles que el caracterstico de A.
Tambien, es un valor caracterstico de A si, y solo si, es una raz del polinomio
mnimo de A. A
un mas, una matriz cuadrada A es diagonalizable si, y solo si,
mA () = (1 )(2 ) (r ) donde 1 , . . . , r son los valores caractersticos
distintos de A.
El concepto de similaridad de matrices se traduce en uno de similaridad de
operadores el cual, al igual que el de matrices, es una relacion de equivalencia.
Como determinamos si dos operadores son similares? o equivalentemente, como
podemos distinguir las clases de equivalencia? Para hacerlo, definiremos ciertas
matrices llamadas formas canonicas, una para cada clase de equivalencia. Definimos
un conjunto de formas can
onicas para una relacion de equivalencia en un
conjunto C como un subconjunto F de C que consiste de exactamente un elemento
de cada clase de equivalencia de . As, una vez obtenidas, bastara comparar
si son las mismas para cada operador. Existen varias formas canonicas, nosotros
consideraremos en este texto u
nicamente la triangular y la de Jordan.
Sea U un subespacio de V . Denotamos con v + U el conjunto de todas las
expresiones de la forma v + u donde u recorre todos los elementos de U . Dichos
v + U los llamaremos clases laterales de U en V . Es inmediato comprobar que
cualesquiera dos clases laterales o son ajenas o son iguales. Denotamos con V /U el
conjunto de todas las clases laterales de U en V . Si definimos (u + U ) + (w + U ) =
(v + w) + U y (v + U ) = v + U hacemos de V /U un espacio vectorial llamado
espacio cociente. La funcion lineal p: V V /U tal que v 7 v + U se llama
proyecci
on can
onica.
Si U es un subespacio de V tal que (U ) U para HomK (V, V ) decimos
que U es invariante bajo . Dicho operador : V V induce un operador de
U denotado |U . Se sabe que dim V = dim U + dim V /U . Diremos que un
operador HomK (V, V ) puede representarse por una matriz triangular si su
matriz asociada con respecto a alguna base lo es. Su polinomio caracterstico se
factoriza como producto de polinomios lineales. Lo inverso es cierto: si el polinomio
caracterstico de se factoriza como producto de polinomios lineales entonces existe
una base de V para la cual la matriz asociada es triangular. Traducido a matrices
tenemos que si A es una matriz cuadrada cuyo polinomio caracterstico se factoriza
en polinomios lineales entonces A es similar a una matriz triangular.
Se dice que un operador HomK (V, V ) es descomponible como suma directa de operadores |Ui si V = si=1 Ui con Ui invariante bajo . Escribimos

Introducci
on

= si=1 |Ui . El siguiente resultado se conoce como el teorema de la descomposici


on primaria.
TEOREMA. Si HomK (V, V ) posee el polinomio mnimo
m () = f1 ()1 f2 ()2 . . . fs ()s

donde los fi () son polinomios m


onicos irreducibles distintos, entonces V
es suma directa de los subespacios ker fi ()i y estos son invariantes bajo
. A
un m
as, fi ()i es el polinomio mnimo de |ker fi ()i .
Como consecuencia se tiene que HomK (V, V ) posee una matriz asociada
diagonal si, y solo si, su polinomio mnimo m () es producto de polinomios lineales
distintos.
Un operador lineal HomK (V, V ) se llama nilpotente si n = 0 para alguna
n > 0. El entero r es el ndice de nilpotencia de si r = 0 pero r1 6= 0.
Tambien diremos que una matriz cuadrada A es nilpotente si An = 0 y r es el
ndice de nilpotencia de A si Ar = 0 pero Ar1 6= 0. Observese que el polinomio
mnimo de un operador nilpotente de ndice r es m () = r y su u
nico valor
caracterstico es el cero. Entonces existe una base del espacio vectorial tal que
la matriz asociada a es triangular. El encontrar formas canonicas para dichos
operadores nilpotentes nos permiten encontrar formas canonicas para cualquier
operador que se factorice como producto de polinomios lineales. As tenemos la
siguiente
PROPOSICION. Si HomK (V, V ) es de ndice de nilpotencia r y v
V tal que r1 (v) 6= 0, entonces el conjunto {r1 (v), r2 (v), . . . , (v), v} es

una base del subespacio que genera, cuya matriz asociada posee ndice de
nilpotencia r y es de la forma

0
0
.
..

0
0

1
0

0
1

0
0

0
0

0
0

0
0

..
.

..
.

..
.

0
0
..
.
.

1
0

A
un m
as, si HomK (V, V ) es de ndice de nilpotencia r, entonces posee
una matriz asociada diagonal por bloques que son de la forma de la matriz
anterior.
Se sabe que existe al menos una matriz de orden r y que las otras son de ordenes
r. El n
umero de matrices esta determinado en forma u
nica por y el n
umero de
matrices de todos los ordenes es igual a la dimension de ker .

10

Introducci
on

Finalmente tenemos el siguiente


TEOREMA. Sea HomK (V, V ) tal que sus polinomios caracterstico

y mnimo se factorizan como producto de potencias de polinomios lineales.


Entonces posee una matriz asociada diagonal por bloques J , llamada forma
canonica de Jordan de cuyo bloques son de la forma

i
0

Jij = ...

0
0

1
i
..
.
0
0

0
1
..
.
0
0

0
0
..
.
i
0

0
0
..
.
.

1
i

As, dos operadores lineales cualesquiera son similares si, y solo si, poseen la
misma forma canonica de Jordan salvo el orden de los bloques.
Una funcion f : U V W de espacios vectoriales sobre un campo K se llama

bilineal si es lineal en cada variable cuando la otra se mantiene fija. El ser bilineal
no quiere decir que sea lineal ni viceversa. Si W = K diremos que f es una forma
bilineal y denotamos con L2 (U, V ; K) el conjunto de formas bilineales de U V
en K. Si U = V , utilizaremos la notacion Bil(V ) y le podemos dar a Bil(V ) una
estructura de espacio vectorial sobre K.
Considere el espacio vectorial sobre K, HomK (V, K).
Sus elementos
f : V K se llaman funcionales lineales o formas lineales, se acostumbra
denotar a HomK (V, K) con L1 (V ; K) o simplemente V y se le llama espacio
dual de V . Se tienen los siguientes resultados:
(i) Sea {vi }ni=1 una base de V y {fi }ni=1 HomK (V, K) = V funcionales tales
que fi (vj ) = ij . Entonces {fi }ni=1 es una base de V y dim V = n.
(ii) Si {fi }ni=1 es una base de V entonces {fij }ni,j=1 dada por fij (u, v) =
fi (u)fj (v) es una base para Bil(V ) y dim Bil(V ) = n2 .
(iii) Sea = {vi }ni=1 una base de V y f : V V K una forma bilineal. Si
Pn
Pn
u = i=1 i vi y v = j=1 j vj entonces
f (u, v) =

n
X

i j f (vi , vj ).

i,j=1

Si A = (aij ) es la matriz cuadrada tal que aij = f (vi , vj ) entonces


f (u, v) =

n
X
i,j=1

i j aij = t [u] A[v]

Introducci
on

11

y A se llama matriz asociada a la forma bilineal f con respecto a la base ,


tambien denotada [f ] . Se tienen los siguientes resultados para una forma bilineal
f : V V K:
(i) Si N es la matriz de transicion de una base en otra 0 de V entonces la
matriz B asociada a f con respecto a 0 es B = t N AN .
(ii) Bil(V )
= Mn (K) dado por f 7 [f ] .
(iii) Si N es la matriz de transicion de la base {ui } en la base {vi }, entonces t N 1
es la matriz de transicion de las bases duales {fi } en {gi }.
(iv) Sea V = (V ) , entonces V
= V .
Diremos que una forma bilineal de V es sim
etrica si f (u, v) = f (v, u) para toda
u, v V . Sucede que una forma bilineal es simetrica si, y solo si, su matriz asociada
es simetrica, i.e. es igual a su traspuesta. Si f posee una matriz asociada diagonal
entonces f es simetrica.
La forma cuadr
atica asociada a f es la funcion q: V K dada por q(v) =
f (v, v), v V . Sea A la matriz simetrica asociada a la forma bilineal simetrica
P
f . Entonces q(X) = f (X, X) = t XAX = i,j aij xi xj . Si A es diagonal, q(X) =
a11 x21 + + ann x2n . La formula f (u, v) = [q(u + v) q(u) q(v)]/2 permite obtener
f a partir de q.
Si f es una forma bilineal simetrica y K es de caracterstica diferente de 2,
entonces existe una base de V tal que f posee una matriz asociada diagonal. Una
matriz simetrica B es congruente con una matriz simetrica A si existe una matriz
no singular o invertible N tal que B = t N AN . As, si A es una matriz simetrica con
elementos en un campo de caracterstica diferente de 2, entonces A es congruente
con una matriz diagonal.
Decimos que una forma bilineal f es antisim
etrica si f (u, v) = f (v, u) para
toda u, v V . Si V es de dimension finita, f es antisimetrica si, y solo si, su matriz
asociada A es tal que A = t A, es decir, antisim
etrica. Tambien decimos que f
es alternante si f (v, v) = 0 para toda v V . Se tiene que toda forma bilineal es
suma de una simetrica y una antisimetrica.
Si consideramos el caso en que K = C
I , una forma f : V V C
I se llama
hermitiana si f es lineal en la primera variable y f (u, v) = f (v, u) para u, v V .
La forma cuadratica q: V IR asociada a f , dada por q(v) = f (v, v) se llama
forma cuadr
atica hermitiana.
Si K = IR, decimos que f : V V IR esta definida positivamente si
f (v, v) > 0 para toda v V , v 6= 0.

12

Introducci
on

Ahora consideraremos espacios vectoriales sobre IR o C


I . En ellos podemos
definir una forma bilineal simetrica o hermitiana definida positivamente h , i llamada producto escalar o interno sobre IR o C
I . Este producto escalar permite
definir los conceptos de longitud y angulo. La norma o longitud ||v|| de un vector
p
v que pertenece a un espacio vectorial sobre K = IR o C
I se define como hv, vi.
Dos vectores son ortogonales si hv, wi = 0. El angulo entre dos vectores u, v V
diferentes de cero se define como = arccos(hu, vi/||u|| ||v||) para [0, ]. El conjunto U = {v V | hu, vi = 0 u U , U un subconjunto de V } se llama conjunto
ortogonal a U y resulta ser un subespacio de V . Sea {vi }ni=1 un conjunto de vectores
de V . {vi }ni=1 es ortogonal si hvi , vj i = 0 para i 6= j y ortonormal si hvi , vj i = ij .
El siguiente teorema es de particular importancia y en su demostracion se establece
un procedimiento para encontrar una base ortonormal de un espacio vectorial de
dimension finita llamado procedimiento de Gram-Schmidt:
TEOREMA. Sea {ui }ni=1 una base del espacio vectorial de dimensi
on
n
finita V sobre IR o C
I . Entonces existe una base ortonormal {vi }i=1 de V
tal que la matriz de transici
on es triangular.
Un resultado u
til es el siguiente: si U es un subespacio de V entonces V
= U U .
As, podemos hablar de una proyeccion llamada ortogonal de V en U , pU : V V
tal que im pU = U y ker pU = U .
Un espacio que posee un producto escalar se llama espacio con producto escalar. Sea V un espacio vectorial con producto escalar sobre un campo K = IR
oC
I y g: V V dada por g(v)(u) = gv (u) = hu, vi. As claramente, cada vector v V nos determina un funcional gv . Lo inverso tambien sucede: si V es de
dimenson finita y f : V K un funcional, entonces existe un vector u
nico v V
tal que f (u) = hu, vi, para toda u V . Estos resultados nos dicen que cualquier
funcional es igual al producto escalar con un vector fijo de V .
Sea u un elemento fijo de un espacio vectorial de dimension finita V con producto
escalar y HomK (V, V ). Consideremos f V un funcional dada por f (v) =
h(v), ui. Luego, existe un vector u
nico u0 V tal que h(v), ui = hv, u0 i para toda
v V . Definimos : V V tal que (u) = u0 . Entonces h(v), ui = hv, (u)i,
resulta ser lineal, u
nico, y se le llama operador adjunto de .
Si A es la matriz asociada a con respecto a una base ortonormal de V entonces
la matriz asociada a es A = t A.
Se define un isomorfismo f : V V 0 entre espacios vectoriales con producto
escalar como un isomorfismo que preserva productos escalares, es decir, tal que
hf (v), f (u)i = hv, ui para toda v, u V .

Introducci
on

13

Sea : HomK (V, V ) HomK (V, V ) el operador dado por () = . Son


equivalentes las afirmaciones = 1 y h(v), (u)i = hv, ui para toda v, u en V .
Un operador unitario (ortogonal) : V V definido en un espacio vectorial con
producto escalar V sobre K = C
I (K = IR) es un isomorfismo de espacios vectoriales
con producto escalar : V V . Entonces es unitario (ortogonal) si K = C
I (K =
IR) y = 1 . La matriz asociada a un operador unitario es A (llamada matriz
unitaria) si, y solo si, A = A1 . La matriz asociada a un operador ortogonal es
A (llamada matriz ortogonal) si, y solo si, t A = A1 . Si A es una matriz ortogonal,
|A| = 1. El conjunto de matrices ortogonales de n n posee una estructura de
grupo, llamado grupo ortogonal y es denotado con O(n). El conjunto de matrices
ortogonales que poseen determinante 1 es denotado con SO(n) y llamado grupo
ortogonal especial. Finalmente, decimos que un operador : V V es normal
si conmuta con su adjunto, es decir, si = . Analogamente, una matriz
compleja A es normal si conmuta con su conjugada traspuesta, i.e. AA = A A.
As, los operadores ortogonales y unitarios son normales.
Un operador HomK (V, V ) es autoadjunto si () = = . Si K = IR
le llamaremos tambien sim
etrico y si K = C
I le llamaremos hermitiano. Los
operadores autoadjuntos son importantes por lo siguiente: si es simetrico, su
polinomio caracterstico se factoriza en factores lineales, los vectores caractersticos
son ortogonales y posee una matriz asociada diagonal. En terminos de matrices,
si A es una matriz simetrica real entonces existe una ortogonal N tal que B =
N 1 AN = t N AN es diagonal. En forma similar, si HomK (V, V ) es normal
entonces posee una matriz asociada diagonal. En terminos de matrices, si A es
normal entonces existe una matriz unitaria N tal que B = N 1 AN = N AN es
diagonal.
El siguiente resultado establece una descomposicion de llamada espectral de
: sea un operador normal, entonces existen proyecciones ortogonales pVi de V
Ps
P
en Vi tales que = i=1 i pVi ,
pVi = I y pVi pVj = 0 si i 6= j.
Generalizando el concepto de funcion bilineal, diremos que una funcion
f : V1 V2 Vm W entre espacios vectoriales sobre un campo K es
multilineal si para cada i = 1, . . . , m se tiene que
f (v1 , . . . , vi + vi0 , . . . , vm ) = f (v1 , . . . , vi , . . . , vm ) + f (v1 , . . . , vi0 , ..., vm )
y

f (v1 , . . . , vi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm )

donde K y vi , vi0 Vi . Es decir, f es lineal en vi si las demas variables se


mantienen fijas.

14

Introducci
on

Sea f : V1 Vm T una funcion multilineal y h: T W una funcion


lineal entre espacios vectoriales. Entonces h f es una funcion multilineal. Nos
preguntamos, cuando es posible tener T y W de tal manera que toda funcion multilineal se obtenga de esta forma? En otras palabras, cuando podemos encontrar
T y f de tal manera que dada cualquier funcion multilineal g: V1 Vm W
exista una y solamente una funcion lineal h: T W tal que hf = g? La pregunta
anterior suele conocerse con el nombre de problema universal para funciones multilineales. Definimos el producto tensorial de los espacios {Vi }m
i=1 como la pareja
(T, f ) que resuelve dicho problema universal y denotamos T con V1 V2 Vm ,
o con m
on g = h f puede visualizarse en el siguiente diagrama
i=1 Vi . La condici
conmutativo
V1 Vm

g&

yh
W

Es relativamente facil comprobar la unicidad y existencia del producto tensorial


que ademas posee las siguientes propiedades:
(i) V K K
=V
= K K V
(ii) (U K V ) K W
= U K V K W
= U K (V W )
(iii) U K V
= V K U .
Existen isomorfismos que relacionan el producto tensorial con el conjunto de
homomorfismos (vease [LL1]).
Sea {Vi }m
on finita sobre un
i=1 una familia de espacios vectoriales de dimensi
campo K. Diremos que la sucesion
f0

f1

f2

f3

fm2

fm1

fm

0 V1 V2 V3 Vm1 Vm 0
es exacta en Vi si im fi1 = ker fi y diremos que es exacta si es exacta en cada
Vi para i = 1, . . . , m.
Sucede que si se tiene una sucesion exacta como la anterior, entonces
dim V1 dim V2 + dim V3 + (1)m1 dim Vm = 0 y si 0 V1
V2 V3 0 es una sucesion exacta (llamada sucesi
on exacta corta) entonces
V2
= V1 V3 .
Consideremos una funcion multilineal f : ki=1 Vi W . Diremos que f es alternante si f (v1 , . . . , vk ) = 0 siempre que vi = vj para algunas i 6= j.

15

Introducci
on

Sea Vi = V un espacio vectorial de dimension finita sobre un campo K. La


Vk
Vk
V, f ) donde
V es un espacio
Vk
k
V es una funcion multilineal alternante tal que
vectorial sobre K y f : i=1 Vi
para todo espacio vectorial W sobre K y para toda funcion multilineal alternante
Vk
g: ki=1 Vi W , existe una funcion lineal u
nica h:
V W tal que g = h f ,
es decir, tal que el siguiente diagrama conmuta

potencia exterior de grado k de V es la pareja (

ni=1 Vi

g&

Vk

yh

W
Si {vi }ki=1 son vectores de V , denotaremos a f (v1 , . . . , vk ) con v1 vk .
V2
Tambien denotaremos
V como V V . Es facil comprobar que u v = v u.
Vk
V como el cociente ki=1 Vi /U donde U es el subespacio de ki=1 Vi
Si definimos
generado por todos los elementos de la forma v1 vk con vi = vj para algunas
Vk
V estan garantizadas. La dimension
i 6= j es claro que la existencia
y unicidad de

Vk
n
de
V resulta ser
.
k
Sea A: V V un endomorfismo (sinonimo de operador lineal) de V . SuVn
V
pongamos que dim V = n. Definamos la funcion g = gA : ni=1 Vi
donde Vi = V dada por gA (v1 , . . . , vn ) = A(v1 ) A(vn ). Como g es mulVn
Vn
V
tilineal alternante, existe una funcion lineal u
nica h = hA :
V tal que
Vn
n
hA (v1 vn ) = A(v1 ) A(vn ). Como dim
V =
= 1, hA es
n
simplemente la multiplicacion por un escalar denotado |A| o det(A), i.e.
hA (v1 vn ) = |A|(v1 vn ).
El determinante de A: V V se define como el escalar |A|. Es facil comPn
probar que si {vi }ni=1 es una base de V y si escribimos A(vi ) = j=1 ij vj para
i = 1, . . . , n donde (ij ) es la matriz de A con respecto a la base {v1 , . . . vn }, el
P
determinante de A es igual a sig1(1) n(n) donde es una permutacion
del conjunto {1, 2, . . . , n} As, definimos el determinante de una matriz (ij )
Pn
como el determinante del endomorfismo A: V V dado por A(vi ) = j=1 ij vj
para i = 1, . . . , n y lo denotamos con |ij | o det(ij ).
Podemos definir una multiplicacion llamada producto exterior y denotarla por
Vk
V`
Vk+`
conveniencia con :
V
V
V mediante la regla
((u1 uk ), (v1 v` )) = u1 uk v1 v` .

16

Introducci
on

Este producto exterior es asociativo, distributivo y anticonmutativo. Para compleV0


V1
tar los ndices se define
V = K y
V = V . Entonces tenemos un algebra
graduada
V
V2 V3
V = (K, V,
V,
V, . . .)
llamada algebra exterior o de Grassman de V .
Tambien, si T k (V ) = k V = V K K V , llamado espacio tensorial de
grado k de V definimos una multiplicacion
: T k V T ` V T k+`

mediante

((u1 uk ), (v1 v` )) 7 u1 uk v1 v`
As tenemos un algebra graduada (donde T 0 V = K y T 1 V = V )
TV = (K, V, T 2 V, T 3 V, T 4 V, . . .)
llamada
algebra tensorial de V .
Sea V el espacio dual de V . Consideremos el espacio tensorial T k V de grado k de
V.
Consideremos tambien T ` V y denotemos con T`k (V ) el producto
(k V ) (` V ). Es decir, T k V T ` (V ) = T`k (V ). Con esta notacion se tiene
que T0k (V ) = T k (V ) = k V , T`0 (V ) = l V y T00 (V ) = K. Llamaremos a T`k V
espacio tensorial de tipo (k, `) y cada uno de sus elementos lo llamaremos tensor
de tipo (k, `). Un tensor de tipo (k, 0) se llamara tensor contravariante de grado
k y uno de tipo (0, `) tensor covariante de grado `. Un tensor de tipo (0, 0) es
simplemente un escalar. Un elemento de T01 V = V se llama vector contravariante y uno de T10 V = V se llama vector covariante. Si k 6= 0 y ` 6= 0, un tensor
mixto es un tensor de tipo (k, `).
Sea {vi }ni=1 una base de V y {f j }nj=1 la base de V , (con ndices superiores). Es
facil ver que los tensores
vi1 vik f j1 f j`
con i , j = 1, . . . , n; = 1, . . . , k y = 1, . . . , ` forman una base de T`k (V ).
Entonces cualquier tensor del tipo (k, `) puede escribirse en forma u
nica como
t=

j1
k
f j` .
ji11 i
j` vi1 vik f

Los ndices i se llaman ndices contravariantes, los j ndices covariantes


i,...ik
se llaman componentes de t con respecto a la base {vi }.
y j,...j
`

17

Introducci
on

La K-Teora Algebraica Clasica es parte del Algebra Lineal General. Intuitivamente, la K-Teora Algebraica Clasica es una generalizacion del teorema que
establece la existencia y unicidad de las bases para espacios vectoriales y tambien
de la Teora de Grupos del grupo lineal general sobre un campo K.
Definiremos un grupo denotado K0 (X) asociado a un monoide conmutativo X
mediante la siguiente propiedad universal: sea g: X G un homomorfismo de
monoides del monoide X en el grupo conmutativo G. Definimos el grupo K0 (X)
como el u
nico grupo que cumple que, si f : X K0 (X) es un homomorfismo de
monoides entonces existe un homomorfismo de grupos u
nico h: K0 (X) G tal
que g = h f
X

K0 (X)

yh
g&
G

K0 (X) se llama grupo de Grothendieck del monoide X.


Sea K un campo y consideremos los espacios vectoriales de dimension finita sobre
K. Denotemos con hV i la clase de isomorfismo del espacio vectorial de dimension
finita V . Es inmediato verificar que el conjunto X = {hV i} de clases de isomorfismo
es un monoide conmutativo cuya operacion binaria esta dada por
hV i + hW i = hV W i.
Sea g: X ZZ dado por g(hV i) = dim V un homomorfismo de monoides. Sea
F el grupo abeliano libre con base el conjunto de clases de isomorfismo de los
espacios vectoriales. Sea R el subgrupo de F generado por las expresiones de la
forma hV W i hV i hW i donde 0 V V W W 0 recorre todas
las posibles sucesiones cortas para los espacios vectoriales. Sea K0 (K) = F/R el
grupo cociente y denotemos con [V ] la proyeccion o imagen de [V ] en el cociente.
Entonces, siempre que se tenga una sucesion exacta corta de espacios vectoriales
0 V V W W 0
tendremos una expresion de la forma [V W ] = [V ] + [W ] en K0 (K), es decir,
K0 (K) esta generado por {[V ] | V es un espacio vectorial} sujeta a las relaciones
de la forma
[V ] + [W ] = [V W ].
El homomorfismo g: X ZZ da lugar a un homomorfismo h: K0 (K) ZZ
dado por h([V ]) = dim V el cual es biyectivo. Es decir, para los espacios vectoriales

18

Introducci
on

sobre un campo K, los cuales podemos representar por el smbolo EVK se tiene
que K0 (EVK ) = K0 (K)
= ZZ.
Que sucede para otras estructuras cuando consideramos anillos que no necesariamente son campos? Si consideramos los ZZ-modulos proyectivos finitamente
generados Ab, es decir, los grupos abelianos libres de rango finito se sabe que
K0 (ZZ)
= ZZ. Sin embargo, si consideramos los ZZ-modulos finitos Abf se sabe que
K0 (Abf )
I + . Pero si consideramos los ZZ-modulos finitamente generados Abfg
=Q
se tiene que K0 (Abfg)
= ZZ.
Como antes, sea K un campo y denotemos con K n el producto K K
n veces. El producto tensorial de dos espacios vectoriales sobre K es un espacio
vectorial sobre K. Como K n K m
= K nm los espacios vectoriales son cerrados
bajo el producto tensorial. Entonces podemos dar a K0 (K) una estructura de anillo
mediante
[V ] [W ] = [V K W ].
Consideremos el conjunto de las transformaciones lineales invertibles a traves
de uno asociado de matrices. Sea V un espacio vectorial de dimension n sobre un
campo K. Denotemos con GL(V ) (o con AutK (V )) el conjunto de todas las funciones lineales de V en V que sean biyectivas (invertibles). Podemos proporcionarle
a este conjunto una estructura de grupo definiendo una operacion binaria
: GL(V ) GL(V ) GL(V )
mediante la composicion
(f g)(v) = f (g(v)).
Claramente GL(V ) es un grupo bajo .
Ahora definamos otro conjunto. Denotemos con GLn (K) el conjunto de las
matrices de n n con elementos en el campo K que poseen inverso, es decir, el
conjunto de todas las matrices invertibles o no singulares de n n con elementos
en K. Podemos definir en GLn (K) una operacion binaria
: GLn (K) GLn (K) GLn (K)
(A, B) 7 A B
donde denota la multiplicacion de matrices.
Es facil comprobar que
(GLn (K), ) es un grupo cuyo elemento de identidad es la matriz diagonal In .
Llamaremos a GLn (K) el grupo lineal general de grado n sobre K.
Existe una estrecha relacion entre los grupos GL(V ) y GLn (K), a saber, si
escogemos una base fija de V , cada funcion lineal biyectiva de V en V posee una

19

Introducci
on

matriz asociada de n n con elementos en K la cual es no singular o invertible.


Esta correspondencia establece un isomorfismo entre los grupos GL(V ) y GLn (K)
debido a que cuando se componen dos funciones lineales, esta composicion esta
representada por la multiplicacion de sus matrices asociadas.
Consideremos un tipo especial de matrices de GLn (K), que llamaremos elementales y que son aquellas que difieren de la matriz identidad In solo en un elemento
K fuera de la diagonal. Dichas matrices las denotaremos con el smbolo eij .
Definimos el smbolo [A, B] como el producto de las matrices ABA1 B 1 y lo
llamaremos conmutador de A y B donde A, B GLn (K).
Se tiene la siguiente formula para el conmutador de matrices elementales:

si j 6= k, i 6= l
1

si j = k, i 6= l
[ei,j , ek,l ] = eil

ekj
si j 6= k, i = l.
Denotemos con En (K) el subgrupo de GLn (K) generado por todas las matrices
elementales eij , K, 1 i 6= j n, llamado grupo elemental lineal de K.
Si cada matriz A GLn (K) la identificamos con la matriz

A 0 GL
n+1 (K)
0 1
obtendremos inclusiones GL1 (K) GL2 (K) GL3 (K) . . . . Sea GL(K) =
S
on de los grupos GLn (K) la cual llamaremos grupo lineal
n=1 GLn (K), la uni
general infinito de K. Podemos concebir a GL(K) como el grupo que consta
de todas las matrices invertibles infinitas A = (aij ) con aij K, 1 i < ,
1 j < y aij = ij , la delta de Kronecker para toda i, j excepto un n
umero
finito de i, j. Entonces GLn (K) GL(K) y lo vemos como el subgrupo de todas
las (aij ) GL(K) con aij = ij para toda i, j > n. La inclusion de GLn (K)
en GLn+1 (K) se restringe a la inclusion de En (K) en En+1 (K) y, en GL(K), el
subgrupo
E(K) =
n=1 En (K)
se llama grupo elemental infinito de K. Se puede probar un resultado de Whitehead:
[GL(K), GL(K)] = E(K).
Definimos el grupo cociente GL(K)/E(K) como el K-grupo algebraico de ndice
uno del campo K denotado con K1 (K). Luego

K1 (K) = GL(K)/[GL(K), GL(K)].

20

Introducci
on

Observese que si f : K K 0 es un homomorfismo de campos se tiene un homomorfismo de grupos inducido por f


f : GL(K) GL(K 0 )
que enva a E(K) en E(K 0 ), siendo as que f induce un homomorfismo de grupos
K1 (f ): K1 (K) K1 (K 0 ).
Como K es conmutativo podemos considerar el determinante de una matriz como
un homomorfismo de grupos det: GL(K) K donde K denota las unidades
de K.
Definamos SL(K) = ker(det), o sea, todas las matrices de GL(K) con determinante uno, y lo llamaremos grupo especial lineal o infinito de K. det induce un
homomorfismo, que por abuso de notacion, tambien lo denotaremos con
det: K1 (K) = GL(K)/E(K) K
el cual posee un inverso K = GL1 (K) GL(K) GL(K)/E(K) = K1 (K).
Si definimos SK1 (K) = SL(K)/E(K) = ker(det: K1 (K) K ) resulta que
K1 (K)
= SK1 (K) K . Como K puede considerarse conocido, el calculo de
K1 (K) se limita al de SK1 (K). Observese que SK1 (K) es trivial si, y solo si, para
cualquier matriz A SLn (K) podemos transformar la matriz

A
0

0
Ik

para k adecuada, en la identidad In+k mediante operaciones elementales por renglon


o columna. Si SK1 (K) es trivial, entonces K1 (K)
= K . Este resulta ser el caso
para el campo K y en general para cualquier dominio euclidiano. As K1 (K[x])
=

K y K1 (ZZ)) = {1, +1}.


Podemos generalizar todo lo anterior poniendo un anillo conmutativo en lugar
de un campo K. Veanse [LL1] y [LL2] para una lectura posterior.

Captulo I
CONCEPTOS FUNDAMENTALES

I.1

ESPACIOS VECTORIALES Y
FUNCIONES LINEALES

Sea K un campo.
1.1 DEFINICION. Un espacio vectorial sobre un campo K es un conjunto
no vaco V con una operacion binaria
+: V V V
(u, v) 7 u + v
y una funcion
: K V V
(, v) 7 (, v) = v
que cumplen los siguientes axiomas:
(i) u + v = v + u
(ii) (u + v) + w = u + (v + w)
(iii) Existe O V tal que v + O = v
(iv) Para cada v
v + (v) = O

existe un elemento, denotado con v, tal que

22

Captulo I Conceptos fundamentales

(v) (u + v) = u + v
(vi) ( + )v = v + v
(vii) ()v = (v)
(viii) Para 1 K, 1v = v;

(, , 1 K; u, v, w V ).

Los elementos u, v, w, . . . del espacio vectorial sobre K se llaman vectores. Los


elementos del campo K se llaman escalares y la funcion se llama multiplicaci
on
escalar.
Los primeros cuatro axiomas hacen de V , junto con la operacion binaria +, un
grupo conmutativo, por lo que no se requiere utilizar parentesis al sumar vectores
y el orden de los sumandos carece de importancia. Tambien, el vector O es u
nico y
el inverso v de v es u
nico (problema 1.1). La resta u v se define como u + (v);
u, v V .
Los siguientes cuatro axiomas ((v) a (viii)) se refieren a la acci
on del campo
K en V . Veamos algunas propiedades que se pueden deducir de ellas.
1.2 PROPOSICION. Sea V un espacio vectorial sobre un campo K .

Entonces
(i) 0v = O; 0 K, O V .
(ii) ()v = (v) = v;

K, v V .

Demostraci
on. (i) Sabemos que 0 + 0 = 0 en K. Luego, utilizando el axioma
(vi) de 1.1 tenemos que
0v + 0v = (0 + 0)v = 0v.
Sumando 0v a ambos lados obtenemos que 0v = O.
(ii) Como + () = 0, K tenemos que
O = 0v = ( + ())v = v + ()v.
Sumando v a ambos lados se tiene que v = ()v. Tomando v+(v) =
O (axioma (iv)), obtenemos (problema 1.2(i))
O = O = (v + (v)) = v + (v).
Sumando v a ambos lados obtenemos v = (v). Luego, ()v =
(v) = v.
Observese que, en la demostracion precedente, cuando tomamos + (), el
signo + se refiere a la suma del campo K y cuando consideramos v + (v), el signo
+ se refiere a la suma del espacio vectorial V .

23

1 Espacios vectoriales y funciones lineales


A continuacion veamos varios ejemplos de espacios vectoriales:
1.3 EJEMPLO. Sea K un campo. Definamos en K n la suma
+: K n K n K n
((1 , . . . , n ), (1 , . . . , n )) 7 (1 , . . . , n ) + (1 , . . . , n )

mediante

(1 , 2 , . . . , n ) + (1 , 2 , . . . , n ) = (1 + 1 , 2 + 2 , . . . , n + n ); i , i K.
Definamos una multiplicacion escalar
: K K n K n
(, (1 , . . . , n )) 7 (1 , . . . , n )
mediante

(1 , . . . , n ) = (1 , . . . , n );

, i K.

Es facil comprobar que K n junto con las operaciones de suma y multiplicacion


escalar es un espacio vectorial sobre K. Observe que este ejemplo establece que, en
particular, el campo de los n
umeros reales IR = IR1 , as como IRn , (n un entero
mayor o igual que 1), son espacios vectoriales sobre IR. Tambien C
I n es un espacio
vectorial sobre C
I y sobre IR. Sin embargo, IRn no es un espacio vectorial sobre C
I.

1.4 EJEMPLO. Sea K un campo. Sea V = Mmn K, el conjunto de matrices


de m n con elementos en K, con la suma y multiplicacion por un escalar usuales.
Entonces V es un espacio vectorial sobre K.

1.5 EJEMPLO. Sea V el conjunto de funciones de un conjunto no vaco S en


un campo K, i.e., V = K S . Si definimos la suma de dos funciones f, g K S como
(f + g)(s) = f (s) + g(s) y la multiplicacion escalar mediante (f )(s) = f (s),
s S, es inmediato comprobar que V es un espacio vectorial sobre K.

1.6 EJEMPLO. Sea V = K[x] el conjunto de todos los polinomios


0 + 1 x + 2 x2 + + n xn con coeficientes en un campo K. Entonces, V
es un espacio vectorial sobre K si definimos la suma y la multiplicacion por un
escalar de la manera usual.
Veamos como relacionar dos espacios vectoriales sobre un campo K mediante
una funcion que preserve la estructura de espacio vectorial.

24

Captulo I Conceptos fundamentales

1.7 DEFINICION. Sean U y V espacios vectoriales sobre un campo K. Una


funcion f : U V se llama lineal o tambien homomorfismo de espacios vectoriales si
(i) f (u + v) = f (u) + f (v) y
(ii) f (v) = f (v); u, v U ; K.
Observese que el + de u + v se refiere a la suma de U y que el + de
f (u) + f (v) se refiere a la suma de V . Lo mismo que v denota la multiplicacion
escalar de U y f (v) la de V .
Si en (ii) tomamos = 0 K, tenemos que f (0v) = f (O) = 0f (v) = O, luego
f (O) = O, i.e., todo homomorfismo de espacios vectoriales (o funcion lineal) enva
el vector cero del dominio en el vector cero del codominio.
Es obvio que las condiciones (i) y (ii) de la definicion 1.7 son equivalentes a la
siguiente:
f (u + v) = f (u) + f (v); , K; u, v U.
Tambien se suele llamar a una funcion lineal f , aplicaci
on lineal o transformaci
on lineal. Utilizaremos cualquiera de estas denominaciones.
Nota. Por abuso de notacion se acostumbra escribir 0 en lugar de O.
1.8 EJEMPLO. Sea U = IR3 y V = IR con la suma y multiplicacion escalar
usuales. Definamos f : U V mediante la regla f (x, y, z) = 3x 2y + 2z. Veamos
que f es lineal. Como
f ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = f (x1 + x2 , y1 + y2 , z1 + z2 )
= 3(x1 + x2 ) (y1 + y2 ) + 2(z1 + z2 )
y

f (x1 , y1 , z1 ) + f (x2 , y2 , z2 ) = (3x1 , 2y1 + 2z1 ) + (3x2 2y2 + 2z2 ),

claramente se cumple la condicion (i) de 1.7. Tambien, f ((x, y, z)) = f (x, y, z)


= 3x 2y + 2z = (3x 2y + 2z) = f (x, y, z), por lo que se cumple (ii) de
1.7.
1.9 EJEMPLO. Sea U = V = IR2 . Definamos f : U V mediante f (x, y) =
(x + 2, y + 3). Como f (0, 0) = (2, 3) 6= (0, 0), f no es lineal pues todo homomorfismo de espacios vectoriales enva el vector cero del dominio en el vector cero del
codominio.
1.10 PROPOSICION. La composici
on de dos homomorfismos de espacios vectoriales sobre un campo K es un homomorfismo de espacios vectoriales sobre K.

25

1 Espacios vectoriales y funciones lineales


Demostraci
on. Sean f : U V y g: V W funciones lineales. Luego
(g f )(u + v) = g(f (u + v))
= g(f (u) + f (v))
= g(f (u)) + g(f (v))
= (g f )(u) + (g f )(v)

Ademas, (g f )(u) = g(f (u)) = g(f (u)) = g(f (u)) = (g f )(u). Por lo
tanto (g f ) es una funcion lineal.
1.11 DEFINICION. Sea f : U V un homomorfismo (o funcion lineal o
aplicacion lineal) de espacios vectoriales sobre un campo K. Diremos que f es un

=
isomorfismo, y escribiremos f : U
V , si existe un homomorfismo g: V U
tal que g f = 1U y f g = 1V .
Es facil comprobar (problema 1.9) que, si g existe, esta determinada en forma
u
nica; la denotaremos con f 1 y se llama inverso de f . As, f : U V es
isomorfismo si, y solo si, es biyectiva. Diremos que dos espacios U y V sobre un

=
campo K son isomorfos si existe un isomorfismo f : U V y escribiremos U
=V.

PROBLEMAS
1.1 Sea V un espacio vectorial sobre un campo K. Pruebe que el vector O V
es u
nico y que el inverso de v V es tambien u
nico.
1.2 Pruebe que
(i) O = O; K, O V .
(ii) Si v = O entonces, = 0 o v = O;
(iii) (1)v = v;

K, v V .

v V.

1.3 Proporcione con todo detalle el hecho de que V es un espacio vectorial en los
ejemplos 1.3, 1.4, 1.5 y 1.6.
1.4 Sea U = V = K n . Pruebe que f : U V dada por f (u1 , . . . , un ) =
(u1 , u2 , . . . , un1 , 0) es lineal.
1.5 Sea V un espacio vectorial sobre un campo K. Pruebe que la funcion
1V : V V y la funcion OV : V V dadas por 1V (v) = v y OV (v) = O

26

Captulo I Conceptos fundamentales

v V , son lineales. 1V se llama homomorfismo identidad de V y OV se llama


homomorfismo trivial.
1.6 Compruebe cuales aplicaciones son lineales y cuales no lo son:
(i) f : K n K m , f (v) = Av donde A es una matriz de m n con elementos en
el campo K.
(ii) f : K 2 K 2 , f (x, y) = (4y, 0)
(iii) f : K 3 K 3 , f (x, y, z) = (z, x, y)
(iv) f : K 2 K 2 , f (x, y) = (x2 , 2y)
(v) f : K 5 K 4 , f (u, v, x, y, z) = (2uy, 3xz, 0, 4u)
(vi) f : K 3 K 3 , f (x, y, z) = (x + 2, y + 2, z + 2)
1.7 Establezca que, (i) si V = R[x] es el espacio vectorial de los polinomios en x
sobre IR, entonces la diferencial D: V V dada por D(f ) = df /dx y la integral
R1
I: V IR dada por I(f ) = 0 f (x)dx son lineales.
(ii) la traza tr: Mn (K) K de una matriz cuadrada (la suma de los elementos
de su diagonal) es una funcion lineal y que el determinante det: Mn (K) K no
es una funcion lineal.
1.8 Sea K un campo. Denotemos con HomK (U, V ) el conjunto de homomorfismos
o funciones lineales del espacio vectorial U sobre K en el espacio vectorial V sobre
K. Defina f + g: U V mediante (f + g)(u) = f (u) + g(u), u U y f : U V
mediante (f )(u) = (f (u)), K,u U . Pruebe que HomK (U, V ) es un espacio
vectorial sobre K con las operaciones definidas. A menudo, tambien se utilizan las
notaciones L(U, V ) y A(U, V ) en lugar de HomK (U, V ).
1.9 Pruebe que si f : U V es como en 1.11, g esta determinada en forma u
nica
y que f es isomorfismo si, y solo si es biyectiva.
1.10 Sea f : U V una aplicacion lineal biyectiva de espacios vectoriales sobre
un campo K. Pruebe que la funcion inversa f 1 : V U es tambien lineal.
1.11 Sea K un campo y V un espacio vectorial sobre K. Considere K como un
espacio vectorial sobre s mismo. Pruebe que dado un vector v V , existe una
funcion lineal u
nica h: K V tal que h(1) = v. (Esta funcion esta dada por
h() = v.)

27

2 Subespacios vectoriales

I.2

SUBESPACIOS VECTORIALES

Siempre que consideramos un objeto matematico nos preguntamos por sus subobjetos. Es natural definir un subespacio vectorial de un espacio vectorial sobre un
campo K como un subconjunto que es a su vez un espacio vectorial sobre K bajo
las mismas operaciones. Sin embargo para nuestra conveniencia lo definiremos de
otra forma equivalente (problema 2.1).

2.1 DEFINICION. Un subconjunto U de un espacio vectorial V sobre un


campo K se llama subespacio vectorial de V si
(i) el vector O de V pertenece a U ,
(ii) si v, w U entonces v + w U

(iii) si K y v U entonces v U .

2.2 EJEMPLO. El conjunto U de vectores de la forma (u1 , . . . , un1 , 0) con ui


en el campo K forman un subespacio del espacio vectorial K n sobre K.

2.3 EJEMPLO. Sea V un espacio vectorial sobre un campo K. Los conjuntos


V y {O} son subespacios de V , llamado este u
ltimo subespacio trivial y, por abuso
de notacion, se acostumbra escribirlo simplemente como 0.

2.4 EJEMPLO. Sea V = Mn K el espacio vectorial de las matrices de n n


o cuadradas. Sea U el subconjunto de Mn K que consiste de las matrices que
cumplan que aij = aji , llamadas sim
etricas. Entonces U es un subespacio de
Mn K.

2.5 DEFINICION. Sea f : U V un homomorfismo (funcion lineal) de espacios vectoriales sobre un campo K. El n
ucleo de f , denotado ker f , es el conjunto
de todos los elementos u U tales que f (u) = 0. La imagen de f , denotada im f ,
es el conjunto de f (u) con u U .

28

Captulo I Conceptos fundamentales

2.6 PROPOSICION. Sea f : U V un homomorfismo (funci


on lineal)
de espacios vectoriales sobre un campo K . Entonces, si U 0 es un subespacio
de U , f (U 0 ) es un subespacio de V y, si V 0 es un subespacio de V , f 1 (V 0 )
es un subespacio de U .
Demostraci
on. Veamos que f (U 0 ) = {f (u)|u U 0 } es un subespacio de V .
Sean v, w f (U 0 ), luego, existen u, u0 U 0 tales que f (u) = v, f (u0 ) = w. Como
U 0 es subespacio de U , u + u0 U 0 y u U 0 . Como f es lineal,
f (O) = O f (U 0 ),
v + w = f (u) + f (u0 ) = f (u + u0 ) f (U 0 ),
v = f (u) = f (u) f (U 0 ).
Por lo tanto, f (U 0 ) es un subespacio de V .
Veamos que f 1 (V 0 ) = {u U |f (u) V 0 } es un subespacio de U . Sean u, u0
f 1 (V 0 ), entonces f (u) y f (u0 ) estan en V 0 . Como V 0 es un subespacio de V y f
es lineal,
f (O) = O V 0
f (u + u0 ) = f (u) + f (u0 ) V 0
f (u) = f (u) V 0 ,

K.

Luego, f 1 (V 0 ) es un subespacio de U .

2.7 COROLARIO. Sea f : U V lineal. Entonces im f es un subespacio


de V y ker f es un subespacio de U .
Demostraci
on. Inmediata de 2.6 tomando U 0 = U y V 0 = 0.

2.8 PROPOSICION. Sea {Vi }iI una familia de subespacios de un espacio vectorial V sobre un campo K indizada por un conjunto I . Entonces
iI Vi es un subespacio de V .
Demostraci
on. Sea K; u, v iI Vi . Como iI Vi Vi para cualquier
i I, tenemos que u, v Vi . Como Vi es subespacio de V , O Vi , u + v Vi y
u Vi para toda i I. Por lo tanto O iI Vi , u + v iI Vi y u iI Vi .

2.9 DEFINICION. Sean U y V subespacios vectoriales de un espacio vectorial


W sobre un campo K. La suma de U y V , denotada U + V , es el conjunto de
todas las sumas u + v donde u U , v V .

29

2 Subespacios vectoriales

Es inmediato comprobar que U + V es un subespacio de W , (problema 2.5).

2.10 DEFINICION. Sean U y V subespacios del espacio vectorial W sobre un


campo K. Diremos que W es la suma directa interna de U y V si cada elemento
w W puede escribirse de una y solamente una manera como w = u + v; u U ,
v V . En tal caso escribiremos W = U V .

2.11 EJEMPLO. Sea W = IR4 , U = {(x, y, z, 0) IR4 |x, y, z, 0 IR} y


V = {(0, 0, z, t) IR4 |z, t, 0 IR}. Entonces IR4 = U + V pues cualquier vector en
IR4 es suma de vectores de U y de vectores de V . IR4 no es suma directa de U y
V pues no son u
nicas las expresiones para w W . Por ejemplo, el vector (4,2,3,5)
se puede escribir de varias maneras, como (4,2,1,0) + (0,0,2,5), o como (4,2,2,0) +
(0,0,1,5). Sin embargo si tomamos W = IR4 , U = {(x, y, 0, 0) IR4 |x, y, 0 IR}
y V = {(0, 0, z, t) IR4 |z, t, 0 IR} es claro que cualquier vector (x, y, z, t) puede
escribirse como suma de un vector en U y otro en V en una, y solamente una forma:
(x, y, z, t) = (x, y, 0, 0) + (0, 0, z, t).
Entonces IR4 = U V .
Podemos definir la suma directa externa de espacios vectoriales {Vi }, i =
1, . . . , n, sobre un campo K y la denotamos con ni=1 Vi como sigue: los elementos
de ni=1 Vi son listas de la forma (v1 , . . . , vn ); dos elementos de Vi son iguales, si
son iguales coordenada a coordenada; su suma y multiplicacion escalar estan dadas
mediante
(v1 , . . . , vn ) + (v10 , . . . , vn0 ) = (v1 + v10 , . . . , vn + vn0 )
(v1 , . . . , vn ) = (v1 , . . . , vn ),

K.

Es inmediato comprobar que ni=1 Vi con las operaciones de suma y multiplicacion


escalar es un espacio vectorial sobre un campo K, y que, si V es la suma directa
interna de V1 , . . . , Vn , entonces V es isomorfo a la suma directa externa de V1 , . . . , Vn
(vease el problema 2.10). En vista de esto hablaremos de la suma directa.

2.12 TEOREMA. W = U V si, y s


olo si, W = U + V y U V = {0}.
Demostraci
on. Supongamos que W = U V , esto es, w W se escribe de
manera u
nica como w = u + v; u U , v V . Luego W = U + V . Supongamos

30

Captulo I Conceptos fundamentales

que w U V . Entonces podemos escribir w como w = w + 0 con w U , 0 V y


tambien w = 0 + w con 0 U , w V . Como cada expresion para w es u
nica por
hipotesis, w = 0. Luego U V = {0}.
Ahora, supongamos que W = U + V con U V = {0}. Sea w W . Como
w = u + v, lo u
nico que debemos probar es que dicha expresion para w es u
nica.
0
0
Supongamos que existe otra expresion para w de la forma w = u + v . Entonces
u + v = u0 + v 0 . Luego u u0 = v 0 v. Pero u u0 U y v 0 v V y como
U V = {0}, u u0 = 0 y v 0 v = 0. Luego u = u0 y v = v 0 . Por lo tanto, w se
expresa en forma u
nica y W = U V .

2.13 COROLARIO. Sean f : U V y g: V W funciones lineales


entre espacios vectoriales sobre un campo K tales que g f es isomorfismo.
Entonces V
= im f ker g .
Demostraci
on. Veamos que im f + ker g = V . Sea v V y g(v) W . Como
gf : U W es un isomorfismo, existe u U tal que gf (u) = g(v). Sea v 0 = f (u)
im f y v 00 = v v 0 . Entonces g(v 00 ) = g(v v 0 ) = g(v)g(v 0 ) = gf (u)g(f (u)) = 0.
Luego v 00 ker g y, por lo tanto, v 0 + v 00 im f + ker g pues v era arbitraria.
Veamos que im f ker g = {0}. Sea v im f ker g. Entonces, como v im f ,
existe u U tal que f (u) = v. Como v ker g, g(v) = 0. Luego gf (u) = g(v) = 0.
Como gf es un isomorfismo, u = 0. Luego f (u) = 0 y, por lo tanto, v = 0. Por
2.12, V
= im f ker g.
A continuacion estableceremos una propiedad, llamada universal, de la suma
directa.
2.14 TEOREMA. Sea V un espacio vectorial sobre un campo K ,
i : Vi V , i = 1, 2 funciones lineales de espacios vectoriales e i : Vi
V1 V2 , i = 1, 2 las inclusiones naturales. Entonces existe una funci
on
lineal u
nica : V1 V2 V tal que i = i , i = 1, 2.
Demostraci
on. La afirmacion del enunciado puede representarse en el siguiente
diagrama:

V1

V
x

V1 V2

-2

V2

31

2 Subespacios vectoriales

Definamos (v1 , v2 ) = 1 (v1 ) + 2 (v2 ). Es facil comprobar que : V1 V2 V


es la u
nica funcion lineal tal que el diagrama anterior conmuta, i.e., i = i ,
i = 1, 2.Problema 2.9
El teorema precedente caracteriza a la suma directa y se puede generalizar
facilmente a n sumandos con solamente considerar i = 1, 2, . . . , n. El diagrama
correspondiente es
V
x

Vj

Ln
i=1

donde j denota la inclusion natural de Vj en

Vi

Ln
i=1

Vi .

2.15 DEFINICION. Decimos que un vector v de un espacio vectorial V sobre


un campo K es una combinaci
on lineal de elementos de un subconjunto S de V
si existe un n
umero finito de elementos {vi }ni=1 de S tal que v = 1 v1 + + n vn ,
i K. Las i se llaman coeficientes.
Para simplificar la notacion, y cuando no haya posibilidad de confusion, quitaremos los lmites del conjunto. Por ejemplo escribiremos {vj } en lugar de {vj }nj=1 .
2.16 TEOREMA. El conjunto de todas las combinaciones lineales hSi de
un subconjunto no vaco S del espacio vectorial V sobre un campo K es un
subespacio de V que contiene a S y es el subespacio m
as peque
no de V que
contiene a S.
Demostraci
on. Sea v S, como v = 1v entonces v hSi y es inmediato
comprobar que O hSi. Si u, v hSi entonces u = 1 u1 + + n un y v =
1 v1 + + m vm ; i , j K; ui ,vj S. Entonces u + v = 1 u1 + + n un +
1 v1 + + m vm y u = (1 u1 + + n un ) = 1 u1 + + n un . Luego
u + v y u pertenece a hSi. As, hSi es un subespacio de V .
Supongamos que U es un subespacio de V que contiene a S y supongamos que
u1 , . . . , un S U . Entonces 1 u1 , . . . , n un U con i K. Esto significa que
U contiene a todas las combinaciones lineales de S, i.e., U contiene a hSi.

2.17 DEFINICION. El subespacio mas peque


no de un espacio vectorial V

32

Captulo I Conceptos fundamentales

sobre un campo K que contiene a un subconjunto S de V se llama subespacio


generado por S.
Por el teorema 2.16, hSi es el subespacio generado por un subconjunto S de
V . Ademas, observe que como es el subespacio mas peque
no de V que contiene
a S, hSi es igual a la interseccion de todos los subespacios que contienen a S. Si
hSi = V , todo elemento de V es una combinacion lineal de elementos de S. En este
caso, diremos que V esta generado por el subconjunto S de V .

2.18 EJEMPLO. Sea S = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} un
subconjunto de IR4 . Considere las combinaciones lineales de elementos de S, i.e.,
expresiones de la forma
1 (1, 0, 0, 0) + 2 (0, 1, 0, 0) + 3 (0, 0, 1, 0) + 4 (0, 0, 0, 1).
Es claro que cualquier vector de IR4 puede escribirse como combinacion lineal de
vectores de S; luego hSi = IR4 .

2.19 EJEMPLO. Sea S = {u1 , u2 } donde u1 = (2, 3, 4) y u2 = (1, 6, 7) son


vectores en V = IR3 . Entonces hSi es el plano dado por la ecuacion (x, y, z) =
1 (2, 3, 4) + 2 (1, 6, 7). Es decir, cada punto (x, y, z) hSi es tal que x = 21 + 2 ,
y = 31 + 62 y z = 41 + 72 .

PROBLEMAS

2.1 Pruebe que el subconjunto U del espacio vectorial V es un subespacio de V si,


y solo si, U es un espacio vectorial sobre K con respecto a las mismas operaciones
de V .
2.2 Muestre con todo detalle el hecho de que U sea un subespacio de V en los
ejemplos 2.2 y 2.4.
2.3 Pruebe, sin utilizar la proposicion 2.6, la afirmacion de 2.7.

33

2 Subespacios vectoriales

2.4 Pruebe que el conjunto soluci


on (i.e., el conjunto de todas las soluciones) X
de un sistema de m ecuaciones lineales homogeneo con n incognitas y coeficientes
en un campo K
11 x1 + + 1n xn = 0
21 x1 + + 2n xn = 0
..
..
.
.
m1 x1 + + mn xn = 0
es un subespacio del espacio vectorial K n sobre K llamado subespacio soluci
on.
Observe que el conjunto solucion de un sistema no homogeneo de ecuaciones lineales
con n incognitas no es un subespacio de K n .
2.5 Pruebe que U + V es un subespacio de W donde U, V y W son los definidos
en 2.9.
2.6 Geometricamente, explique que significan en IR3 las combinaciones lineales
de uno, dos y tres vectores en todas sus posibles elecciones.
2.7 Verifique si el vector v = (2, 8, 1) IR3 es una combinacion lineal de los
vectores
(i) v1 = (3, 8, 0), v2 = (2, 1, 4) y v3 = (0, 2, 8) y
(ii) v1 = (0, 4, 6), v2 = (3, 6, 8) y v3 = (2, 3, 1).
2.8 Demuestre que una funcion lineal f : U V entre espacios vectoriales sobre
un campo K es inyectiva si, y solo si, ker f = {0}.
2.9 Pruebe que en 2.14 es lineal y u
nica.
2.10 (a) Compruebe que la suma directa externa ni=1 Vi de los espacios vectoriales
Vi , i = 1, . . . , n sobre K es un espacio vectorial sobre un campo K.
(b) Establezca el isomorfismo entre la suma directa interna y externa de la familia
{Vi }ni=1 .
2.11 Sean v1 , . . . vn vectores de un espacio vectorial V sobre un campo K. Se dice
que estos vectores son linealmente dependientes si existen escalares 1 , . . . , n
K, no todos iguales a cero, tales que
1 v1 + + n vn =

n
X
i=1

i vi = 0.

34

Captulo I Conceptos fundamentales

Tambien se dice que un conjunto de vectores es linealmente independiente si no


es linealmente dependiente.
Pruebe que un conjunto finito de vectores de V es linealmente dependiente si, y
solo si, alg
un vector del conjunto es una combinacion lineal de los restantes.

3 Espacios vectoriales de dimension finita

35

I.3ESPACIOS VECTORIALES DE DIMENSION FINITA


Iniciaremos esta seccion estudiando, desde otro punto de vista, los conceptos de
dependencia e independencia lineal definidos en el problema 2.11. Veremos que
ambos puntos de vista coinciden.
Consideremos la suma directa K n = nj=1 Kj con cada Kj igual a K considerado
como espacio vectorial sobre s mismo. Sea i : Ki nj=1 Kj la inclusion natural
dada por i () = (0, . . . , , . . . , 0), ( en el lugar i). Por el problema 1.11 y como i
es lineal, la inclusion queda determinada por su valor en 1, i (1) = (0, . . . , 1, . . . , 0) =
ei . Observe que cada u nj=1 Kj puede escribirse en forma u
nica como u =
1 e1 + 2 e2 + + n en con j Kj . Denotaremos con g la funcion
g: {1, . . . , n} nj=1 Kj
i 7 ei
dada por g(i) = ei . (g es simplemente una funcion.)

3.1 PROPOSICION. Para todo espacio vectorial V sobre un campo K


y para toda funci
on f : {1, 2, . . . , n} V existe una funci
on lineal u
nica
n
: j=1 Kj V tal que f = g .
V
x

nj=1 Kj

-f
g

{1, . . . , n}

Demostraci
on. Sea u = 1 e1 + + n en nj=1 Kj y sean v1 = f (1), . . . , vn
= f (n). Como la expresion de u es u
nica podemos definir una funcion mediante
la formula (1 e1 + n en ) = 1 v1 + + n vn . Es inmediato comprobar que
es lineal y que (ei ) = f (i), es decir, g(i) = f (i), o sea, g = f .

3.2 DEFINICION. Diremos que el conjunto {vj }, j {1, 2, . . . , n}, de elementos de un espacio vectorial V sobre un campo K es
(i) linealmente independiente si es inyectiva
(ii) un conjunto de generadores de V si es suprayectiva

36

Captulo I Conceptos fundamentales

(iii) una base de V si es biyectiva.


En otras palabras, el conjunto {vj }, j {1, 2, . . . , n} es linealmente indepenPn
Pn
diente si ( j=1 j ej ) =
j=1 j vj = 0 implica que j = 0 para toda j en
{1, 2, . . . , n}, j Kj .
Diremos que el conjunto {vj }, j {1, 2, . . . , n}, de elementos de un espacio
vectorial V sobre un campo K es linealmente dependiente si dicho conjunto no
es linealmente independiente. Es decir, {vj } es linealmente dependiente si existen
escalares i K no todos cero tales que
1 v1 + 2 v2 + + n vn = 0.
Esta u
ltima expresion es valida para j = 0, j {1, 2, . . . , n} y si esta u
ltima
expresion es valida u
nicamente para j = 0, j {1, 2, . . . , n} entonces el conjunto
{vj } es linealmente independiente. En otras palabras, el conjunto {vj } es linealmente independiente si, y solo si, toda combinacion lineal no trivial de vectores del
conjunto {vj } es diferente del vector 0.
Decir que en 3.2 es suprayectiva equivale a decir que todo elemento de V
Pn
puede escribirse como j=1 j vj , i.e., como una combinacion lineal. El que sea
biyectiva quiere decir que todo elemento v V puede escribirse de una y solamente
Pn
una manera en la forma v = j=1 j vj , j {1, 2, . . . , n}.
Es claro que el conjunto {ej }, j {1, . . . , n}, es una base de nj=1 Kj (llamada
can
onica). Frecuentemente se identifica el conjunto {1, 2, . . . , n} con el conjunto
de los ej mediante la biyeccion dada por j 7 ej .
3.3 EJEMPLO. Los vectores del espacio vectorial IR4 sobre IR, v1 = (2, 3, 1, 4),
v2 = (3, 2, 1, 0) y v3 = (17, 18, 7, 16), son linealmente dependientes puesto que
4(2, 3, 1, 4) + 3(3, 2, 1, 0) (17, 18, 7, 16) = (0, 0, 0, 0).

3.4 EJEMPLO. Sean v1 = (5, 4, 7), v2 = (0, 3, 1) y v3 = (0, 0, 2) vectores del


espacio vectorial IR3 sobre IR. Sea 1 v1 + 2 v2 + 3 v3 = 0 una combinacion lineal
igual a cero. Entonces tenemos un sistema de ecuaciones lineales
51 + 02 + 03 = 0
41 + 32 + 03 = 0
71 + 12 + 23 = 0.

3 Espacios vectoriales de dimension finita

37

De la primera ecuacion, tenemos que 1 = 0. De la segunda ecuacion con 1 = 0


tenemos que 2 = 0, y de la tercera ecuacion con 1 = 2 = 0 tenemos que 3 = 0.
Luego 1 = 2 = 3 = 0 y los vectores v1 , v2 y v3 son linealmente independientes.

3.5 PROPOSICION. El conjunto de vectores diferentes de cero {vi }ni=1

es linealmente dependiente si, y s


olo si, uno de ellos es combinaci
on lineal
de los vectores precedentes.
Demostraci
on. Supongamos que son linealmente dependientes; entonces
1 v1 + + n vn = 0 con alguna i 6= 0. Sea j el mayor entero tal que j 6= 0.
Entonces 1 v1 + + j vj + 0vj+1 + + 0vn = 0, i.e., 1 v1 + + j vj = 0. Si
j = 1 entonces 1 v1 = 0 con 1 6= 0, luego v1 = 0. Si j > 1, como los vectores vj
son diferentes de cero y
vj = j1 1 v1 j1 j1 vj1 ,
vj es combinacion lineal de los vectores precedentes.
Supongamos ahora que vj = 1 v1 + + j1 vj1 . Entonces podemos reescribir
esto como
1 v1 + + j1 vj1 vj + 0vj+1 + + 0vn = 0
con j 6= 0. Luego, {vi }ni=1 es linealmente dependiente.

3.6 OBSERVACION. Es inmediato de la definicion 3.2 que si V es un espacio


vectorial sobre un campo K con base {v1 , . . . , vn } entonces es isomorfo a K n .

3.7 TEOREMA. Sea X = {ui }ni=1 un conjunto de generadores de un


espacio vectorial V sobre un campo K .
(i) Si uj es combinaci
on lineal de los vectores {ui }j1
i=1 entonces el conjunto
{u1 , . . . , uj1 , uj+1 , . . . , un } genera a V .
(ii) Si Y = {v1 , . . . , vr } es linealmente independiente entonces r n y V
est
a generado por un conjunto de la forma {v1 , . . . , vr , ui1 , . . . , uinr }
con uij X .
(iii) Cualquier base de V posee la misma cardinalidad.
Demostraci
on. (i) Supongamos que uj es combinacion de {ui }j1
, entonces
Pj1
Pn i=1
n
uj = i=1 i ui . Sea w V . Como {ui }i=1 genera a V , w = i=1 i ui , susti-

38

Captulo I Conceptos fundamentales

tuyendo uj con
w=

j1
X
i=1

Pj1
i=1

i ui tenemos que

i ui + j

j1
X
i=1

i ui +

n
X
i=j+1

i ui =

j1
X

(i + j i )ui +

i=1

n
X

i ui .

i=j+1

Por lo tanto, como w era arbitrario, {u1 , . . . , uj1 , uj+1 , . . . , un } genera a V .


(ii) Como {ui }ni=1 genera a V , si le agregamos el vector v1 , entonces
{v1 , u1 , . . . , un } es linealmente dependiente y genera a V (vease el problema 3.3).
Por 3.5 uno de los vectores del conjunto {v1 , u1 , . . . , un } es una combinacion lineal
de los vectores precedentes. No puede ser v1 , pues {v1 } es linealmente independiente, tiene que ser uno de los de X, digamos uj . Por (i) podemos omitir a uj
y obtener un conjunto {v1 , u1 , . . . , uj1 , uj+1 , . . . , un } que genera. Repetimos el
procedimiento con v2 . Entonces {v1 , v2 , u1 , . . . , uj1 , uj+1 , . . . , un } es linealmente
dependiente y genera a V . Por 3.5 uno de los vectores del conjunto es una combinacion lineal de los precedentes. Como {v1 , v2 } es linealmente independiente,
ese vector debe ser una uk . Por (i) podemos omitir uk y obtener un conjunto
{v1 , v2 , u1 , . . . , uj1 , uj+1 , . . . , uk1 , uk+1 , . . . , un } que genera a V . Si continuamos
el proceso obtendremos un conjunto, para r n, {v1 , v2 , . . . , vr , ui1 , . . . , uinr } que
genera a V .
(iii) Sea {u1 , . . . , un } una base de V y {v1 , v2 , . . .} otra base de V . Como {ui }ni=1
genera a V , la base {vj } debe contener n o menos vectores, pues, si no, sera
linealmente dependiente (por (ii) o el problema 3.4). Si la base {vj } contiene
menos de n vectores, entonces {ui }ni=1 es linealmente dependiente (por (ii) o por el
problema 3.4). Luego, la base {vj } contiene n elementos.
Observese que los espacios vectoriales K n y K m son isomorfos si, y solo si,
n = m.

3.8 DEFINICION. La dimensi


on de un espacio vectorial V sobre un campo
K, denotada dim V , es el n
umero de elementos de una base de V .
A continuacion estableceremos un resultado que relaciona la dimension de la
suma de subespacios, con la de cada uno de ellos.

3.9 TEOREMA. Sean U y V subespacios de un espacio vectorial W sobre


un campo K de dimensi
on finita. Entonces
dim (U + V ) = dim U + dim V dim (U V ).

3 Espacios vectoriales de dimension finita

39

Demostraci
on. Sea n = dim U , m = dim V y r = dim (U V ). Sea {ui }ri=1
una base de U V . Por el problema 3.5 (iii) {ui }ri=1 es parte de una base de
U y tambien de una base de V , digamos A = {u1 , . . . , ur , v1 , . . . , vnr } y B =
{u1 , . . . , ur , w1 , . . . , wmr } respectivamente.
Consideremos el conjunto C = {u1 , . . . , ur , v1 , . . . , vnr , w1 , . . . , wmr } y
veamos que es una base de U + V con lo que habremos terminando. Como A
genera a U y B genera a V , C genera a U + V . Nos resta probar que C es linealmente independiente, pero esto lo dejamos como ejercicio al lector (problema
3.8).

3.10 COROLARIO. dim (U V ) = dim U + dim V .

3.11 PROPOSICION. Sea f : U V una transformaci


on lineal de espacios vectoriales sobre un campo K . Entonces
dim U = dim (im f ) + dim (ker f ).
Demostraci
on. Sea n = dim U . Como ker f es un subespacio de U ,
dim (ker f ) dim U = n. Sea r = dim (ker f ) n. Veamos que dim (im f ) =
n r. Sea {v1 , . . . , vr } una base de ker f . Podemos extenderla a una base de U de
la forma {v1 , . . . , vr , w1 , . . . , wnr }. Consideremos {f (w1 ), . . . , f (wnr )} y veamos
que es una base de im f .
Sea v im f . Entonces existe u U tal que f (u) = v. Como {v1 , . . . , vr ,
w1 , . . . , wnr } genera a U , u = 1 v1 + + r vr + 1 w1 + + nr wnr con i ,
i K. Como f (vi ) = 0 para i = 1, . . . , r pues vi ker f , tenemos que f (u) =
v = f (1 v1 + + r vr + 1 w1 + + nr wnr ) = 1 f (w1 ) + + nr f (wnr ).
As, f (wi ) genera a la imagen de f .
Ahora veamos la independencia lineal: sea 1 f (w1 ) + 2 f (w2 ) + +
nr f (wnr ) = 0. Entonces f (1 w1 + + nr wnr ) = 0 y por lo tanto
Pnr
i=1 i wi ker f . Como {vi } genera a ker f , existe i K, i = 1, . . . , r
tal que
1 w1 + 2 w2 + + nr wnr = 1 v1 + 2 v2 + + r vr
i.e.,
1 w1 + + nr wnr 1 v1 r vr = 0.
Como {v1 , . . . , vr , w1 , . . . , wnr } es una base de U , es linealmente independiente

40

Captulo I Conceptos fundamentales

y por lo tanto i = i = 0. En particular i = 0, i = 1, . . . , n r. Luego, los f (wi )


son linealmente indendientes. Por lo tanto dim (im f ) = n r.

PROBLEMAS

3.1 Compruebe que


Pn
(i) Si en la expresion j=1 j vj = 0 una de las j no es cero, entonces el conjunto
{vj } es linealmente dependiente.
(ii) Si en el conjunto {vj } alguna vj = 0 entonces el conjunto {vj } es linealmente
dependiente.
(iii) Cualquier vector diferente de cero es, por s mismo, linealmente independiente.
(iv) Si en {vj }, vi = vj para alguna i 6= j entonces la familia es linealmente
dependiente.
(v) Dos elementos de un espacio vectorial V sobre un campo K son linealmente
dependientes si, y solo si, uno de ellos es un m
ultiplo del otro.
(vi) Un conjunto de vectores que contiene un conjunto linealmente dependiente es
linealmente dependiente.
(vii) Un subconjunto de un conjunto linealmente independiente es linealmente independiente.
3.2 Demuestre que un conjunto de elementos {vj }, j {1, 2, . . . , n} de un espacio
vectorial V sobre un campo K es linealmente dependiente si, y solo si, uno de ellos
es combinacion lineal de los restantes.
3.3 Sea X = {u1 , . . . , un } un conjunto generador de un espacio vectorial V sobre
un campo K. Pruebe que si v es cualquier vector de V , entonces {v, u1 , . . . , un } es
un conjunto linealmente dependiente y genera V .
3.4 Supongamos que {v1 , . . . , vn } genera el espacio vectorial V sobre un campo
K. Pruebe que n + 1 vectores o mas de V son linealmente dependientes.
3.5 Sea S un subconjunto de un espacio vectorial V . Un subconjunto de elementos {ui }ri=1 de S se llama subconjunto independiente m
aximo de S, si es un

3 Espacios vectoriales de dimension finita

41

subconjunto linealmente independiente de S y si v V es cualquier elemento de S,


entonces {ui }ri=1 {v} es linealmente dependiente. Pruebe que:
(i) si hSi = V y {ui }ni=1 es un subconjunto independiente maximo de S entonces
{ui }ni=1 es una base de V .
(ii) si #S < y hSi = V entonces dim V < y un subconjunto de S es una
base de V .
(iii) cualquier conjunto linealmente independiente es parte de una base de V .
3.6 Sea U un subespacio de un espacio vectorial V sobre un campo K de dimension
finita. Pruebe que dim U dim V y que si dim U = dim V entonces U
=V.
3.7 Caracterice los subespacios de dimensiones 0, 1, 2 y 3 del espacio vectorial IR3
sobre IR.
3.8 Pruebe que el conjunto C del teorema 3.9 es linealmente independiente.
3.9 Sea V el espacio vectorial de las matrices de m n sobre un campo K. Sea
1
1
Eij
V la matriz con 1 en el lugar ij y cero en todos los demas. Pruebe que {Eij
}
es una base de V y que dim V = mn.
3.10 Sean U1 , . . . , Us subespacios de un espacio vectorial V sobre un campo K.
Pruebe que V = si=1 Ui si, y solo si la union de los elementos de las bases de cada
Ui es una base de V .

42

Captulo I Conceptos fundamentales

I.4 APLICACIONES
Considerese el sistema de ecuaciones lineales
a11 x1
..
.
am1 x1

a1n xn
..
.
+ amn xn

=
=

b1
..
.
bm

con aij en el campo K. Podemos reescribirlo de la siguiente manera:

a11
a1n
b1
x1 ... + + xn ... = ...
am1
amn
bm

()

4.1 PROPOSICION. Consid


erese el sistema de ecuaciones lineales ho-

mogeneo
x1 A1 + + xn An = 0

donde Ai = t (a1i , . . . , ami ) K m y n > m. Entonces existe una soluci


on no
trivial del sistema.
Demostraci
on. Como n > m, y mas de m vectores son linealmente dependientes, existen elementos del campo s1 , . . . , sn K no todos cero tales que
s1 A1 + + sn An = 0. Por lo tanto S = {s1 , . . . , sn } es una solucion no trivial del
sistema.

4.2 PROPOSICION. Si en (), m = n y el conjunto {Ai } es linealmente

independiente entonces el sistema posee una soluci


on y esta es u
nica.
Demostraci
on. Como {Ai } es linealmente independiente, forma una base de
K n y en consecuencia el vector columna t (b1 , . . . , bn ) = B puede expresarse de
manera u
nica como combinacion lineal de las Ai , es decir, como
x1 A1 + + xn An = B.
Luego, X = (x1 , . . . , xn ) es la u
nica solucion.
Tambien podemos escribir el sistema original de ecuaciones lineales en la forma
AX = B

43

4 Aplicaciones
donde

a11
A = ...
am1

a1n
.. ,
.
amn

X = t (x1 , . . . , xn ) y B = t (b1 , . . . , bm ).

Observe que cualquier matriz A de m n lugares determina una aplicacion lineal


f : K n K m dada por v 7 Av donde los vectores de K n y K m se ponen como
vectores columna. La linealidad es inmediata
pues A(v
1 + v2 ) = Av1 + Av2 y
3
1
2
A(v) = A(v), K. Por ejemplo, si A = 2 1 3 , A determina f : K 3
!
!

2
2
3
1
2
K 2 dada por f (v) = Av. As, si v = 4 , f (v) = Av = 2 1 3
4 =
6
6

22 .
26
De esta forma, la solucion de la ecuacion AX = 0 es el n
ucleo de la aplicacion
n
m
lineal f = A: K K .
Recuerde que el rango de una matriz A es el n
umero maximo de renglones
linealmente independientes (que tambien es el n
umero maximo de columnas linealmente independientes). Recuerde tambien que el rango de una matriz se obtiene reduciendola mediante operaciones elementales a una matriz escalonada. Por
definicion, si f : U V es una transformacion lineal, el rango de f es la dimension
de la imagen y la nulidad de f es la dimension del n
ucleo de f , i.e.
rango f = dim (im f ) y nul f = dim (ker f ).

4.3 PROPOSICION. La dimensi


on del espacio soluci
on de un sistema
de ecuaciones lineales homogeneo AX = 0 es n r donde n es el n
umero de
inc
ognitas y r es el rango de la matriz de coeficientes.
Demostraci
on. Por la proposicion 3.11,
dim (ker f ) = dim K n dim (im f ) = n rango A.
Pero n es el n
umero de incognitas, luego el resultado es inmediato.
Observe que, si vemos a A como transformacion lineal, entonces la dimension
de la imagen de A coincide con el rango de A pues im A corresponde a su espacio
columna. (Vease el problema 4.8.)

44

Captulo I Conceptos fundamentales

4.4 EJEMPLO. Consideremos el siguiente sistema de ecuaciones lineales


x + 3y 2z + 4s t = 0
x + 3y z + 3s + t = 0
2x + 6y z + 5s + 4t = 0.
Obtenemos

1 3
1 3
2 6

el rango de la matriz
!
2 4 1
1
1 3
1 0
1 5
4
0

de coeficientes
3
0
0

2
1
3

4
1
3

1
2
6

1 3
0 0
0 0

2 4
1 1
0 0

1
2
0

!
.

As tenemos un sistema de dos ecuaciones con cinco incognitas


x + 3y 2z + 4s t = 0
z + s 2t = 0.
La dimension del espacio solucion es n r, es decir 3. Tenemos tres variables
libres (y, s, t).
En terminos de y, s, t obtenemos z = s 2t y x = 3y 2s 3t. Luego, las
soluciones son de la forma (3y 2s 3t, y, s 2t, s, t). Si damos valores particulares para (y, s, t) obtenemos valores particulares que son solucion del sistema. Por
ejemplo, si damos valores (1, 0, 0),(0, 1, 0) y (0, 0, 1) para la terna (y, s, t) obtenemos las soluciones u1 = (3, 1, 0, 0, 0), u2 = (2, 0, 1, 1, 0) y u3 = (3, 0, 2, 0, 1)
respectivamente, las cuales forman una base del espacio solucion.
Sea V un espacio vectorial sobre un campo K. Sea f : V V una aplicacion
lineal de V en s mismo. Tal aplicacion lineal se llama operador lineal.

4.5 DEFINICION. Diremos que un operador lineal f : V V es invertible


si posee un inverso f 1 , i.e., si existe f 1 : V V tal que f f 1 = 1V = f 1 f .

4.6 DEFINICION. Sea g: U V una transformacion lineal de espacios


vectoriales sobre un campo K. Diremos que g es no singular si ker g = {0}. g es
singular si no es no singular.

4.7 PROPOSICION. Sea V un espacio vectorial de dimensi


on finita
sobre un campo K . El operador f : V V es invertible si, y s
olo si, es no
singular.

45

4 Aplicaciones

Demostraci
on. Si f es invertible, entonces es biyectiva, en particular es inyectiva y, por el problema 2.8, ker f = {0}. Luego, f es no singular.
Si f es no singular, entonces ker f = {0} y por lo tanto f es inyectiva (problema
2.8). Como dim V < , dim V = dim (im f ) + dim (ker f ) = dim (im f ). Por lo
tanto im f = V , i.e., f es suprayectiva. As, f es biyectiva, luego invertible.
Consideremos el sistema de n ecuaciones con n incognitas AX = B. Si suponemos que el sistema homogeneo asociado AX = 0 solamente posee la solucion trivial,
i.e., ker A = {0}, entonces, por 4.7, A es biyectiva y por lo tanto AX = B posee
una solucion u
nica para cualquier B.
Si suponemos que A es singular, i.e., ker A 6= {0}, existe una solucion no trivial
de AX = 0. Luego A no es suprayectiva, i.e., existe B K n para el cual AX = B
no tiene solucion. A
un mas, si existe una solucion, esta no es u
nica.

PROBLEMAS
4.1 Pruebe que los renglones diferentes de cero de una matriz escalonada son
linealmente independientes.
4.2 Encuentre la dimension y una base para el espacio solucion de los sistemas

(a)

2x + 3y + 2z 4t = 0
2x + 3y + z + 2t = 0
6x 2y + 8z t = 0

(b)

x + 2y + 2z s + 3t = 0
x + 2y + 3z + s + t = 0
3x + 6y + 8z + s + 5t = 0

4.3 Encuentre el sistema homogeneo cuyo espacio solucion esta generado por el
conjunto {(1, 3, 2), (4, 5, 8), (3, 8, 6)}. Haga los mismo para el conjunto {(1, 2, 0, 3),
(1, 1, 1, 4), (1, 0, 2, 5)}.

46

Captulo I Conceptos fundamentales

4.4 Sean U y V los subespacios de IR3 dados por U = {(x, y, z)|x + y + z = 0},
V = {(x, y, z)|x+y = 0}. Encuentre una base y la dimension de U , V y U V . Haga
lo mismo para U = {(a, b, c, d) IR4 |b+c+d = 0} y W = {(a, b, c, d) IR4 |a+b = 0,
c = 2d}.
4.5 Sean U y V los subespacios de IR4 generados por {(1, 4, 3, 2), (2, 4, 6, 8),
(3, 6, 4, 2)} y {(2, 3, 1, 4), (1, 1, 2, 0), (3, 1, 2, 4)}. Encuentre la base y la dimension
de U + V y de U V . Haga lo mismo para los subespacios U y V de IR5 generados
por los conjuntos {(1, 3, 2, 2, 3), (1, 4, 3, 4, 2), (2, 3, 1, 2, 9)} y {(1, 3, 0, 2, 1),
(1, 5, 6, 6, 3), (2, 5, 3, 2, 1)}.
4.6 Sea A una matriz de n n. Pruebe que el rango de A es n si, y solo si A es
invertible.
4.7 Encuentre la transformacion inversa del operador lineal f : IR3 IR3 dado
por f (x, y, z) = (y, 2x z, z).
4.8 Pruebe que el rango por columna de una matriz A de m n es igual al rango
de la funcion lineal f : K n K m determinada por A. (Sugerencia: verifique que
para cada j = 1, . . . , n, el vector f (ej ) = Aej es la j-columna de A.)

47

5 La matriz asociada a una transformaci


on lineal

I.5

LA MATRIZ ASOCIADA A UNA


TRANSFORMACION LINEAL

Sea K un campo. Denotemos con HomK (U, V ) el conjunto de transformaciones


lineales del espacio vectorial U sobre K en el espacio V sobre K. Sean f, g: U V
aplicaciones lineales y definamos f + g: U V mediante (f + g)(u) = f (u) +
g(u). Tambien, si f : U V y K definamos una multiplicacion escalar
f : U V mediante (f )(u) = (f (u)). Es inmediato comprobar que f + g y
f son lineales (problema 5.1(a)). A
un mas, (veanse los problemas 5.1(b) y 1.8)
tenemos el siguiente resultado:
5.1 TEOREMA. Sean U y V espacios vectoriales sobre un campo K .
Entonces HomK (U, V ) con las operaciones definidas arriba es un espacio
vectorial sobre K .
Cual sera la dimension del espacio HomK (U, V ) si U y V son de dimension
finita? Para responder esta pregunta, primero veamos un resultado previo que nos
dice que una transformacion lineal esta totalmente determinada si conocemos la
imagen de los elementos de la base de U .
5.2 PROPOSICION. Sean U y V espacios vectoriales sobre un campo K .
Sea {ui }ni=1 una base de U y {vi }ni=1 cualesquiera vectores de V . Entonces
existe una funci
on lineal u
nica f : U V tal que f (ui ) = vi , i = 1, . . . , n.
Demostraci
on. Daremos dos demostraciones.
(1) Consideremos el diagrama
V
x
f

%
Kj

U
x

Kj

-g

g 00
0

{1, 2, . . . , n}

Por 3.1 y 3.6, basta tomar f = 0 1 donde 0 : nj=1 Kj V es la funcion


lineal u
nica tal que 0 g = g 00 pues es biyectiva.

48

Captulo I Conceptos fundamentales

(2) Definamos f : U V mediante f (u) = f (1 u1 + + n un ) = 1 v1 + +


n vn . En particular f (ui ) = f (0u1 + + 1ui + + 0un ) = vi . Veamos que f es
Pn
Pn
Pn
lineal: sean u = i=1 i ui y u0 = i=1 i ui entonces f (u+u0 ) = i=1 (i +i )vi =
Pn
Pn
P
Pn
n
0
i=1 i vi +
i=1 i vi = f (u) + f (u ) y f (u) =
i=1 i vi =
i=1 i vi =
0
f (u). Veamos que f es u
nica: sea f : U V otra aplicacion lineal tal que
P
P
P
f 0 (ui ) = vi , i = 1, . . . , n. Entonces f 0 (u) = f 0 ( i ui ) =
i f 0 (ui ) =
i vi =
0
f (u). Como u es arbitraria, f = f .

5.3 TEOREMA. Si dim U = n y dim V = m entonces dim HomK (U, V ) =


nm.
Demostraci
on. Sea {ui }ni=1 una base de U y {vj }m
j=1 una base de V . Encontremos una base para HomK (U, V ) y contemos el n
umero de elementos de dicha
base. Para ello definimos fij HomK (U, V ) mediante
n
vj si k = i
fij (uk ) =
0 si k 6= i.
Veamos que {fij } es linealmente independiente:
Pn Pm
i=1
j=1 ij fij = 0; ij K. Pero para uk
0=

n X
m
X

ij fij (uk ) =

i=1 j=1

m
X

kj fkj (uk ) =

j=1

m
X

supongamos

que

kj vj ;

j=1

pero como las vj son linealmente independientes, para k = 1, . . . , n tenemos que


k1 = k2 = = km = 0. Luego ij = 0 y por lo tanto {fij } es linealmente
independiente.
Veamos que {fij } genera a HomK (U, V ): sea f cualquier elemento de
HomK (U, V ). Sea wi = f (ui ), i = 1, . . . , n. Como wk V , wk = k1 v1 + +
Pn Pm
km vm ; k = 1, . . . , n; ij K. Luego, al evaluar en uk , i=1 j=1 ij fij (uk ) =
Pm
Pm
Pero wk = f (uk ). Luego, f =
f (u ) =
j=1 kj vj = wk .
Pnj=1 Pkjm kj k

f
y
por
lo
tanto
{f
}
genera
a HomK (U, V ). Como hay nm eleij
i=1
j=1 ij ij
mentos en {fij }, dim HomK (U, V ) = nm.
Sea f : U V una aplicacion de espacios vectoriales U y V con dim U = m y
dim V = n. Supongamos que = {u1 , . . . , um } y 0 = {v1 , . . . , vn } son bases para
U y V respectivamente. Como f (ui ) V , tenemos que
f (u1 ) =
..
.
f (um ) =

11 v1
..
.
m1 v1

1n vn
..
.
+ mn vn

49

5 La matriz asociada a una transformaci


on lineal
El sistema de ecuaciones anterior lo podemos escribir como



f (u1 )
11 v1 + + 1n vn
11
.
..
= ..
.. =
.
.
m1 v1 + + mn vn
m1
f (um )


v1
1n
.. .. .
.
.
mn
vn

A la matriz

11
= ...
m1

[f ]


1n
11
.. = ..
.
.
mn
1n

m1
..
.
mn

se le llama matriz asociada a la transformaci


on lineal f, y decimos que representa a f .

5.4 EJEMPLO. Sea f : IR2 IR2 dado por f (x, y) = (2x y, x + y). Cal0
culemos [f ] con respecto a la base = 0 = {(1, 0), (0, 1)}. Entonces
f (1, 0) = (2, 1) = 2(1, 0) + 1(0, 1)

f (0, 1) = (1, 1) = 1(1, 0) + 1(0, 1).


0

Luego [f ] =

2
1

1 .
1

5.5 EJEMPLO. Sea f : IR2 IR2 la aplicacion lineal dada por f (x, y) =
0
(4x + y, 2x 4y). Calculemos [f ] donde = 0 = {(1, 1), (1, 0)}:
f (1, 1) = (5, 2) = (2)(1, 1) + (7)(1, 0) y
f (1, 0) = (4, 2) = (2)(1, 1) + (2)(1, 0). Luego
0

[f ] =

2
7

2 .
2

Observemos que si u = (3, 5) entonces, en terminos de la base ,


u = (3, 5) = 5(1, 1) + 2(1, 0). Luego f (u) = f (3, 5) = (17, 14) = 14(1,
1) +
(31)(1, 0). As que, el vector traspuesto de coordenadas de u es [u] = 52 y

el vector traspuesto de coordenadas de f (u) es [f (u)] 0 = 14


31 . Finalmente
0

[f ] [u] =

2
7

2
2

5 = 14 = [f (u)] 0 .

2
31

50

Captulo I Conceptos fundamentales

Tenemos el siguiente resultado que establece lo que observamos en el ejemplo


anterior:
5.6 PROPOSICION. Sean = {u1 , . . . , um } y 0 = {v1 , . . . , vn } bases para
los espacios vectoriales U y V sobre un campo K respectivamente. Sea
0
f : U V una transformaci
on lineal. Entonces [f ] [u] = [f (u)] 0 .
Demostraci
on. Consideremos f (ui ) = i1 v1 + i2 v2 + + in vn
Pn
0
on j es (1j , 2j , . . . , mj ).
j=1 ij vj . Entonces [f ] es la matriz cuyo rengl
Pm
Supongamos que u = 1 u1 + + m um =
Luego [u]
i=1 i ui .
t
(1 , . . . , m ). Aplicando la transformacion lineal f a u obtenemos f (u)
Pm
Pm
Pm
Pn
Pn Pm
f ( i=1 i ui ) =
i f (ui ) =
i ( j=1 ij vj ) =
i=1
i=1
j=1 (
i=1 ij i )vj
Pn
j=1 (1j 1 + + mj m )vj .

=
=
=
=

Luego [f (u)] 0 es el vector columna cuyo coeficiente en el nivel j es


1j 1 + + mj m . Calculando

11
[f ] [u] = ...
1n
0

11 1 + + mj m
1
m1
..
.. .. =
= [f (u)] 0 .
.
.
.
m
1n 1 + + mn m
mn

La proposicion anterior nos dice que, el multiplicar el vector de coordenadas de


0
u con respecto a la base = {u1 , . . . , um } por la matriz [f ] nos da el vector de
coordenadas del vector f (u) con respecto a la base 0 = {v1 , . . . , vn }.

5.7 DEFINICION. Sean = {u1 , . . . , un } y = {u01 , . . . , u0n } bases de U .


Considerese
1U (u1 ) =
..
.
1U (un ) =

u1
..
.
un

=
=

11 u01
..
.
n1 u01

+
+

..
.

1n u0n

+ nn u0n .

Luego, la matriz cuadrada

11
N = ...
1n

n1
..
.
nn

se llama matriz de transici


on de la base en la base . Con frecuencia escribimos
simplemente N en lugar de N . Si = , N se denota N y se llama matriz
asociada a f con respecto (o relativa) a .

51

5 La matriz asociada a una transformaci


on lineal

La matriz de transicion N puede verse como la matriz asociada a la funcion


lineal 1U : U U con respecto a las bases y , es decir N = [1U ] .
5.8 EJEMPLO. Considere U = IR2 con bases = {(1, 0), (0, 1)} y =
{(1, 1), (1, 0)}. Entonces
(1, 0) = 0(1, 1) + (1)(1, 0)

(0, 1) = 1(1, 1) + (1)(1, 0).


Luego N =

0 1
1 1 . Por otro lado,
(1, 1) = (1)(1, 0) + (1)(0, 1)

(1, 0) = (1)(1, 0) + 0(0, 1).


Luego N =

1
1

1 .
0

Observe que N N = I.
5.9 LEMA. Sea N = N la matriz de transici
on de la base = {ui }ni=1
en la base = {u0i }ni=1 del espacio vectorial U sobre un campo K . Entonces
N [u] = [u] , y [u] = N 1 [u] para toda u U .
Pn
Demostraci
on. Sea u0i = i1 u1 + i2 u2 + + in un =
j=1 ij uj , para
cada i = 1, . . . , n. Entonces N es la matriz cuadrada con renglon j igual a
(1j , 2j , . . . , nj ).
Pn
Si suponemos que u = 1 u01 + 2 u02 + + n u0n = i=1 i u0i entonces [u] =
Pn
Pn
Pn
0
t
=
( , . . . , ).
Luego u =
=
j=1 ij uj )
i=1 i (
i=1 i ui
Pn1 Pn n
Pn

)u
=
(

)u
.
As
,
[u]
es
el
vector
(
1j 1
2j 2
nj n j

j=1
j=1
i=1 ij i j
columna con coeficiente j igual a 1j 1 + 2j 2 + + nj n .
Por otro lado, el coeficiente j de N [u] se obtiene multiplicando el renglon j de
N por [u] , i.e., multiplicando (1j , 2j , . . . , nj ) por t (1 , . . . , n ). Dicha multiplicacion es precisamente 1j 1 + + nj n . Luego N [u] y [u] tienen los mismos
coeficientes. Por lo tanto N [u] = [u] . Finalmente, si multiplicamos por N 1 ,
(vease el problema 5.6), obtenemos N 1 [u] = N 1 N [u] = [u] .

5.10 TEOREMA. Sea N la matriz de transici


on de la base = 0 = {ui }
0
0
a la base = = {ui } del espacio vectorial U . Sea f : U U un operador
0
0
lineal. Entonces [f ] = N 1 [f ] N donde N = N .

52

Captulo I Conceptos fundamentales


0

Demostraci
on. Sea u U , luego N 1 [f ] N [u]
(5.9)

[f (u)] 0

0
[f ] N [u]

0
[f (u)] 0 . Como [f ] [u]
0
0
[f ] [u] . Luego N 1 [f ] N

(5.9)

N 1 [f ] [u]

(5.6)

= [f (u)] 0 por 5.6, tenemos que


0

= [f ] .

5.11 EJEMPLO. Considere el operador f : IR2 IR2 dado por f (x, y) =


(4x + y, 2x 4y). Sean = 0 y = 0 las bases del ejemplo 5.8. Luego
f (1, 0) = (4, 2) = 4(1, 0) + 2(0, 1) y
f (0, 1) = (1, 4) = 1(1, 0) + (4)(0, 1).
As que

[f ] =

4
2

1 .
4

Calculemos [f ] utilizando el teorema 5.10 con la N = N obtenida en 5.8:


0

[f ] = N 1 [f ] N

0 1
4
1
1 1
= 1
1
2 4
1
0

0
1
5
4
2
2
= 1 1
2 2 = 7
2
0

la cual coincide con la matriz [f ] de 5.5.

PROBLEMAS
5.1 a) Sean f, g: U V funciones lineales de espacios vectoriales sobre un campo
K y K. Demuestre que f + g y f son funciones lineales.
b) Pruebe el teorema 5.1 con detalle. Si U = V se acostumbra denotar al
conjunto de funciones lineales de V en s mismo con EndK (V ) y se llama conjunto
de endomorfismos de V .
5.2 Sea f : IR2 IR2 el operador lineal dado por f (x, y) = (3x 4y, x y).
Calcule la matriz [f ] asociada a f con respecto a la base = {(1, 1), (1, 0)}.
5.3 Sea f como en el problema anterior. Cuales son las coordenadas del vector
f (3, 5) con respecto a ?

5 La matriz asociada a una transformaci


on lineal

53

5.4 a) Describa la matriz de transicion de un espacio de dimension 1.


b) Calcule la matriz de transicion de la base = {(1, 1), (1, 0)} a la base
= {(2, 6), (4, 10)} del espacio vectorial IR2 del problema 5.2.
0

5.5 Calcule la matriz asociada [f ] 0 en el problema 5.4.


5.6 Pruebe que la matriz de transicion N definida en 5.7 es invertible.
5.7 Pruebe que existe un isomorfismo del espacio HomK (U, U ) con el espacio de
las matrices cuadradas Mn K dado por f 7 [f ] .
5.8 Pruebe que si f, g HomK (U, U ) entonces [f g] = [f ] [g] .
5.9 Pruebe resultados analogos al problema 5.7 para HomK (U, V ) i.e.,
HomK (U, V )
= Mmn K y al problema 5.8 para cuando f HomK (U, V ) y
g HomK (V, W ) son transformaciones lineales de espacios vectoriales U, V y W
sobre un campo K con bases , y respectivamente, i.e. pruebe que [g f ] =
[g] [f ] .
5.10 Sea N la matriz de transicion de la base en la base de U . Sea M la
matriz de transicion de la base 0 en la base 0 de V . Pruebe que si f : U V es
una aplicacion lineal, entonces
0

[f ] = M 1 [f ] N.

Captulo II
VECTORES CARACTERISTICOS
Y FORMAS CANONICAS

II.1

VALORES Y VECTORES CARACTERISTICOS

1.1 DEFINICION. Sean A y B matrices cuadradas. Si A = N 1 BN con N


una matriz invertible entonces diremos que A es similar o semejante a B.

1.2 PROPOSICION. La relaci


on de similaridad (o semejanza) es una

relaci
on de equivalencia.
Demostraci
on. Claramente A = I 1 AI donde I es la matriz identidad, la cual
es invertible. Luego, A es similar a A. Si A es similar a B, existe una matriz
invertible N tal que A = N 1 BN . Entonces N AN 1 = N (N 1 BN )N 1 = B o
bien (N 1 )1 AN 1 = B. Luego, B es similar a A. Finalmente, si A es similar
a B y B es similar a C, entonces existen matrices invertibles N y M tales que
A = N 1 BN y B = M 1 CM . Sustituyendo obtenemos A = N 1 (M 1 CM )N =
(M N )1 C(M N ) y como M N es invertible, A es similar a C.

56

Captulo II Vectores caractersticos y formas can


onicas

1.3 PROPOSICION. Las matrices A y B representan al mismo operador


lineal f : U U si, y s
olo si, son similares una con la otra.
Demostraci
on. Sean = 0 y = 0 bases de U . Supongamos que A = [f ]

y B = [f ] representan el mismo operador lineal. Por I.5.10, A es similar a B.


0

Sea = 0 una base de U y supongamos que A es similar a B = [f ] , es decir,


0

que A = N 1 [f ] N para alguna matriz invertible N . Sea = 0 la base de U


obtenida mediante N a partir de = 0 . Es facil comprobar (problema 1.5) que A
representa a f con respecto a la base .
Dado un operador lineal f , podemos decir que sus matrices asociadas forman
una clase de equivalencia de matrices similares.

1.4 DEFINICION. Diremos que un operador lineal f : U U es diagonalizable si para alguna base de U , la matriz asociada es diagonal. Diremos que dicha
base diagonaliza a f .
El siguiente resultado es consecuencia inmediata de 1.3:
0

1.5 COROLARIO. Sea B = [f ] la matriz asociada al operador lineal f


con respecto a la base = 0 . Entonces f es diagonalizable si, y s
olo si,
1
existe una matriz invertible N tal que N BN es una matriz diagonal.
Hacemos la observacion de que no todo operador es diagonalizable. Como veremos mas adelante, a todo operador f se le puede asociar una matriz especial
llamada forma can
onica, (vease 4).

1.6 DEFINICION. Sea U un espacio vectorial sobre un campo K. Sea


f : U U un operador lineal. Si existe un vector u U distinto de cero y
un escalar K tal que f (u) = u entonces llamaremos a valor caracterstico
o valor propio de f y a u vector caracterstico o vector propio correspondiente
a .
Observe que si en la definicion anterior u = 0 entonces u sera un vector caracterstico correspondiente a cualquier K. Notese que u es un vector caracterstico correspondiente a si f (u) es un m
ultiplo de u, i.e., f (u) = u, K.
Tambien los m
ultiplos u de un vector caracterstico son vectores caractersticos
pues f (u) = f (u) = (u) = (u). Ademas, puede haber muchos vectores

1 Valores y vectores caractersticos

57

caractersticos correspondientes a un valor caracterstico. Por ejemplo, la funcion


identidad 1U : U U posee a 1 K como su u
nico valor caracterstico, pero
cualquier vector distinto de cero de U es un vector caracterstico correspondiente
al 1.

1.7 PROPOSICION. Sea un valor caracterstico (fijo) de


f : U U . Entonces el conjunto de los vectores u U tales que f (u) = u
es un subespacio no trivial de U denotado U .
Demostraci
on. Si u = 0 U , f (u) = f (0) = 0 = 0 = u, para K. Luego
0 U . Si u, u0 U entonces f (u) = u y f (u0 ) = u0 . Luego, f (u + u0 ) =
f (u) + f (u0 ) = u + u0 = (u + u0 ). Ademas f (u) = f (u) = (u) = (u).
As, u + u0 U y u U . Luego U es un subespacio de U .
Llamaremos a U espacio caracterstico de . Observe que U consiste del
cero y de todos lo vectores caractersticos correspondientes a .

1.8 EJEMPLO. Si A es una matriz cuadrada, los valores caractersticos de


A son los valores
caractersticos de A vista como operador lineal. Por ejemplo, si

2
4
A = 3 6 encontremos los valores caractersticos y sus vectores caractersticos

x
no triviales asociados, i.e., si X = y , buscamos K tal que AX = X. Esto
es

x
x
2 4
y = y .
3 6
)
)
(2 )x + 4y = 0
2x + 4y = x
Entonces se tiene
, por lo que
.
3x + 6y = y
3x + (6 )y = 0
As, el sistema homogeneo anterior tiene solucion no trivial si, y solo si, el determinante de la matriz de coeficientes es cero:

(2 )
4

= (2 )(6 ) 12 = 12 2 6 + 2 12
3
(6 )
= 2 8 = ( 8) = 0.
As, es un valor caracterstico de A correspondiente a un vector caracterstico
)
2x + 4y = 0
distinto de cero si, y solo si, = 0 o = 8. Si = 0, entonces
3x + 6y = 0

x
o bien, x + 2y = 0. Luego X = y = 2
es un vector caracterstico no
1

58

Captulo II Vectores caractersticos y formas can


onicas

trivial correspondiente al valor caracterstico asociado a = 0. Cualquier otro


vector caracter
stico asociado a = 0 es un m
ultiplo de X. Si = 8, entonces
)


6x + 4y = 0
x
o bien 3x 2y = 0. Luego Y = y = 23 es un vector
3x 2y = 0
caracterstico no trivial correspondiente al valor caracterstico = 8. Cualquier
otro vector caracterstico de = 8 es un m
ultiplo de Y .

1.9 TEOREMA. Sea f : U U un operador lineal de un espacio vectorial


U sobre un campo K . Entonces K es un valor caracterstico de f si, y
s
olo si, I f es singular.
Demostraci
on. es un valor caracterstico de f existe un vector no
trivial u tal que f (u) = u (I)(u) f (u) = 0 (I f )(u) = 0 i.e.,
I f es singular, (o no invertible).

1.10 COROLARIO. El espacio de vectores caractersticos de es igual


al n
ucleo de I f .

1.11 PROPOSICION. Los vectores caractersticos correspondientes a

valores caractersticos diferentes son linealmente independientes.


Demostraci
on. Sea f : U U un operador lineal con u1 , . . . , un vectores
caractersticos correspondientes a los valores caractersticos distintos 1 , . . . , n .
Veamos que {ui }ni=1 es linealmente independiente. Para ello hagamos induccion sobre n. Si n = 1, entonces u1 es linealmente independiente pues u1 6= 0. Supongamos
que, para n > 1,
1 u1 + + n un = 0,
i K.
()
Luego, f (1 u1 + + n un ) = 1 f (u1 ) + + n f (un ) = f (0) = 0. Por hipotesis,
f (ui ) = i ui , y tenemos que
1 1 u1 + + n n un = 0.
Si multiplicamos () por n obtenemos
1 n u1 + + n n un = 0.
Restando las dos u
ltimas ecuaciones obtenemos
1 (1 n )u1 + + n1 (n1 n )un1 = 0.

1 Valores y vectores caractersticos

59

Por induccion, i (i n ) = 0 para i = 1, . . . , n 1. Como las i son distintas


entre s, i n 6= 0 para i 6= n. Luego, i = 0 para i = 1, . . . , n 1. Al sustituir
en () obtenemos que n un = 0 y, por lo tanto, n = 0. As, las ui son linealmente
independientes.
Nota. Vectores caractersticos linealmente independientes pueden corresponder
a un mismo valor caracterstico.
El siguiente teorema relaciona los conceptos de matriz diagonal y vector caracterstico.
1.12 TEOREMA. Sea f : U U un operador lineal. Entonces f tiene
como matriz asociada a (o puede representarse por) una matriz diagonal si,
y s
olo si, U posee una base que consta de vectores caractersticos de f .
Demostraci
on. f puede representarse por una matriz diagonal

1 0 0 0
0 2 0 0
B=
..
..

.
.
0
0 0 n
si, y solo si, existe una base {ui }ni=1 de U tal que
f (u1 ) = 1 u1 + 0u2 + + 0un
f (u2 ) = 0u1 + 2 u2 + + 0un
..
.
f (un ) = 0u1 + 0u2 + + n un .
i.e. si, y solo si, los vectores {ui }ni=1 son vectores caractersticos de f correspondientes a los valores caractersticos {i }ni=1 .
Observe que los elementos de la diagonal de B son precisamente los valores
caractersticos correspondientes.
Observe tambien que, por 1.12, una matriz cuadrada A es similar a una matriz
diagonal B si, y solo si, A posee n vectores caractersticos linealmente independientes. Aqu tambien B posee en su diagonal a los valores caractersticos. Si
N es la matriz cuyas columnas son los n vectores caractersticos de A, entonces
B = N 1 AN .

1.13 EJEMPLO. Sea A la matriz del ejemplo 1.8. Los vectores caractersticos

60

Captulo II Vectores caractersticos y formas can


onicas

3/8 2/8
2
2
2
2
1
son X =
=
. Luego
1 y Y = 3 . Sea N =
1 3 ,N
1/8 2/8
A es similar a la matriz diagonal

B = N 1 AN =

3/8 2/8
1/8 2/8

2 4
3 6

2 2
1 3

0 0
0 8

donde los elementos de la diagonal son los valores caractersticos correspondientes.

PROBLEMAS
1.1 Recuerde que la traza de una matriz cuadrada A (i.e.
la funcion
tr: Mn (K) K), denotada trA, es la suma de los elementos de su diagonal.
Pruebe que:
(i) tr(AB) = tr(BA) y que
(ii) tr(A) = tr(B) si A y B son similares. Debido a esto u
ltimo, decimos que la
traza es un invariante bajo la relacion de similaridad o semejanza.
1.2 Calcule los valores
caracter
sticos y los vectores caractersticos correspondien1
5
tes de la matriz A = 4 3 y encuentre una matriz invertible N tal que N 1 AN
sea diagonal.
1.3 Calcule los valorescaractersticos
y los vectores caractersticos correspondien!
1 4 2
tes de la matriz A = 2 3 2 y encuentre una matriz invertible N tal que
1 1 2
N 1 AN sea diagonal.
1.4 Sean A, B Mmn K. Se dice que A es equivalente a B si existen matrices
invertibles M y N tales que A = M BN . Pruebe que la equivalencia de matrices es
una relacion de equivalencia.
1.5 Pruebe con todo detalle que A representa a f con respecto a la base en la
proposicion 1.3.
1.6 (i) Supongase que A y B son matrices similares de n n, i.e. B = N 1 AN
para alguna matriz invertible N . Pruebe que B k = N 1 Ak N .

1 Valores y vectores caractersticos

61

(ii) Suponga que los conejos no se reproducen durante su primer mes de vida,
pero que a partir del segundo mes cada pareja de conejos produce un nuevo par.
Suponga que ning
un conejo muere. Si comenzamos con un par de conejos, cuantas
parejas de conejos hay a los n meses? Sugerencia: escriba la formula de recursion
un = un1 +un2 como la igualdad de matrices (un , un1 ) = (un1 , un2 )B donde
B = 11 10 . Encuentre los valores caractersticos de B y utilice (i). La sucesion
as obtenida se llama sucesi
on de Fibonacci, sus terminos se llaman n
umeros
de Fibonacci y el valor caracterstico positivo obtenido se llama secci
on
aurea o
proporci
on divina. La solucion de muchos problemas de aplicacion de la teora
con largos enunciados se reduce a formular ecuaciones adecuadas como en este
problema.

62

II.2

Captulo II Vectores caractersticos y formas can


onicas

TEOREMA DE CAYLEY-HAMILTON

2.1 DEFINICION. Sea f (x) = an xn + an1 xn1 + + a1 x + a0 un polinomio


con coeficientes en un campo K. Sea A una matriz cuadrada con coeficientes
tambien en K. Definimos el polinomio f (A) como an An + an1 An1 + + a1 A +
a0 I, donde I es la matriz identidad.
En forma analoga tenemos la siguiente
2.2 DEFINICION. Sea : U U un operador lineal del espacio vectorial
U sobre el campo K. Sea f (x) un polinomio con coeficientes en K. Definimos
f () = an n + + a1 1 + a0 I donde I es la aplicacion de identidad. Aqu,
n = , n veces.
Se dice que una matriz A (o un operador ) es una raz del polinomio f si
f (A) = 0 (o si f () = 0).

2.3 DEFINICION. Sea A la matriz cuadrada

a11 a12 a1n


..
.. .
..
.
.
.
an1 an2 ann
La matriz cuadrada In A se llama matriz caracterstica. Llamamos polinomio
caracterstico pA () de A al determinante de la matriz caracterstica de A, i.e.,
pA () = |In A|.
As, In A es

a11
a21

..

.
an1

a12
a22
..
.
an2

a1n
a2n

..

.
ann

y pA () es ( a11 )( a22 ) ( ann ) ; o bien,


pA () = n (a11 + a22 + + ann )n1 + = n (trA)n1 + + (1)n |A|
donde (1)n |A| = pA (0) es el termino constante.

63

2 Teorema de Cayley-Hamilton
Recordemos que si A es la matriz cuadrada de n n

a11 a1n
..
..
.
.
an1 ann

se denota con Nij a la submatriz de (n 1) (n 1) obtenida de A suprimiendo


su renglon i y su columna j y, el determinante |Nij | se llama menor del elemento
aij de A. El cofactor de aij se define como el escalar
Aij = (1)i+j |Nij |.

Por ejemplo, si A =

N12 =

4
7

6
9

1 2
4 5
7 8

3
6
9

!
entonces

y A12 = (1)1+2 47 69 = (36 42) = 6.

Recordemos que |A| = ai1 Ai1 + ai2 Ai2 + + ain Ain =


Pn
a1j A1j + a2j A2j + + anj Anj = i=1 aij Aij .

Pn
j=1

aij Aij y |A| =

Tambien recordemos que la matriz adjunta cl


asica de A es la matriz traspuesta
de cofactores, i.e.,

A11 An1
..

A = ...
.
A1n Ann

= |A|I; lo cual implica que A1 = 1 A.


y tiene la siguiente propiedad: AA = AA
|A|
2.4 TEOREMA. (Cayley-Hamilton). Toda matriz cuadrada es raz de su

polinomio caracterstico.
Demostraci
on. Sea A una matriz cuadrada y pA () = |I A| = n +
n1
an1
+ + a1 + a0 su polinomio caracterstico. Sea C la adjunta clasica
de la matriz I A. Como los elementos de C son cofactores de I A, son
polinomios en de grado menor o igual que n 1. Luego
C = Cn1 n1 + + C1 + C0
donde Ci es una matriz cuadrada con elementos en K. As que, aplicando la
propiedad que mencionamos de la matriz adjunta clasica se tiene que (I A)C =
|I A|I. Esto es
(I A)(Cn1 n1 + + C1 + C0 ) = (n + an1 n1 + + a1 + a0 )I.

64

Captulo II Vectores caractersticos y formas can


onicas

Luego AC0 = a0 I, C0 AC1 = a1 I, . . . , Cn3 ACn2 = an2 I,


Cn2 ACn1 = an1 I y Cn1 = I. Si multiplicamos ambos lados de cada igualdad por I, A, A2 , . . . , An respectivamente, obtenemos: AC0 = a0 I, AC0 A2 C1 =
a1 A, . . . , An2 Cn3 An1 Cn2 = an2 An2 , An1 Cn2 An Cn1 = an1 An1 ,
An Cn1 = An . Al sumar las ecuaciones obtenemos 0 = a0 I + a1 A + a2 A2 + +
an1 An1 + An .

2.5 EJEMPLO. Sea A =

pA () = |I A| = 1
3

1 2 . Luego
3 4

2 = 2 4 + 4 6 = 2 5 2.
4

Por el teorema 2.4

1 2
1 2 5 1 2 2 1 0
3 4
3 4
3 4
0 1

2
0
5
10
7
10
= 15 22 15 20 0 2 = 00 00 .

pA (A) =

2.6 PROPOSICION. Sea A una matriz cuadrada con elementos en un


campo K . Un elemento K es un valor caracterstico de A correspondiente a un vector caracterstico (diferente de 0), si, y s
olo si, es una raz
del polinomio caracterstico pA ().
Demostraci
on. Por 1.9, es un valor caracterstico de A si, y solo si, I A es
singular, es decir, no invertible. Pero I A es no invertible si, y solo si, |I A| = 0
(recuerde que una matriz es invertible si, y solo si, su determinante es distinto de
cero). i.e., es raz de pA ().

2.7 PROPOSICION. Sup


ongase que pA () es de la forma
( a1 )( a2 ) ( an )

con todas las ai distintas, entonces A es similar a una matriz diagonal con
las ai en la diagonal.
Demostraci
on. Como las ai son las distintas races diferentes de cero de pA (),
estas son, por 2.6, los valores caractersticos de A y, por 1.11, los vectores caractersticos correspondientes son linealmente independientes. Luego, los vectores

65

2 Teorema de Cayley-Hamilton

caractersticos asociados a dichos valores caractersticos son una base del espacio
vectorial y, por 1.12, A es similar a una matriz diagonal.

2.8 PROPOSICION. Si A y B son matrices similares, entonces


pA () = pB ().
Demostraci
on. Si A es similar a B entonces A = N 1 BN con N invertible.
1
Como I = N IN , tenemos que |I A| = |I N 1 BN | = |N 1 IN
N 1 BN | = |N 1 (I B)N | = |N 1 ||I B||N | = |I B||N 1 ||N | = |I B|.
En otras palabras, la funcion Mn (K) K[] que asigna a cada matriz su
polinomio caracterstico es un invariante bajo similaridad o semejanza.
Puesto que todo polinomio sobre C
I posee una raz, si A es una matriz con
coeficientes en C
I entonces A posee al menos un valor caracterstico.

PROBLEMAS
2.1 Pruebe que si f y g son polinomios con coeficientes en K entonces (f +g)(A) =
f (A) + g(A), (f g)(A) = f (A)g(A) y (f )(A) = (f (A)), K.
2.2 Sea A la matriz asociada a . Pruebe que f (A) es la matriz asociada a f ().
= |A|I.
2.3 Pruebe que si A es la matriz adjunta clasica de A entonces AA = AA

1
2.4 Sea A = 4
7
Compruebe que C
elementos en K.

2
5
8
=

!
3
6 . Calcule la adjunta clasica C de la matriz I A.
9
C2 2 + C1 1 + C0 donde Ci es una matriz cuadrada con

2.5 Pruebe que pA () = pt A ().


2.6 Pruebe que si A es una matriz triangular, su polinomio caracterstico posee
como valores caractersticos a los elementos de la diagonal.
2.7 Sea : IR3 IR3 un operador lineal dado por (x, y, z) = (x + y, 2x, 4y).

66

Captulo II Vectores caractersticos y formas can


onicas

Encuentre los valores caractersticos y una base para cada espacio caracterstico
U .
2.8 Calcule los valores y vectores caractersticos de

1 4 sobre IR y sobre C
A = 21 1
y
B
=
I.
3
2 1
Propongase usted mismo ejercicios similares a estos dos u
ltimos si presiente que
no ha dominado la tecnica.

3 El polinomio mnimo

II.3

67

EL POLINOMIO MINIMO

En esta seccion presentaremos otro invariante para la relacion de similaridad o


semejanza.

3.1 DEFINICION. Sea A una matriz cuadrada. El polinomio mnimo mA ()


de A es el polinomio monico (con coeficiente inicial 1) de menor grado tal que
mA (A) = 0.
Por el teorema de Cayley-Hamilton, A es raz de un polinomio pA () diferente
de cero. Supongamos que tiene grado n y que es el mas peque
no de los grados
tal que pA (A) = 0. Si dividimos pA () entre su coeficiente inicial obtendremos un
polinomio monico mA () de grado n con A como raz. Si m0A () es otro polinomio
monico de grado n para el cual m0A (A) = 0 entonces mA ()m0A () es un polinomio
diferente de cero de grado menor que n con raz A. Esto contradice el que n sea el
mas peque
no de los grados tal que pA (A) = 0. Por lo tanto mA () es u
nico.
A
un mas, por el algoritmo de la division, si f () es un polinomio tal que f (A) = 0
entonces f () = mA ()g() + r() con r() = 0 o gr r() < gr mA (). Como
f (A) = 0 y mA (A) = 0 tenemos que r(A) = 0. Si r() 6= 0, entonces r() es
un polinomio de grado menor que el de mA () que posee a A como raz, lo cual
contradice el hecho de que mA () sea mnimo. Luego r() = 0 y f () = mA ()g().
Podemos resumir lo anterior en la siguiente
3.2 PROPOSICION. El polinomio mnimo de una matriz A existe, es
u
nico y divide a cualquier otro polinomio que tenga a A como raz, en
particular, divide al polinomio caracterstico de A.

3.3 PROPOSICION. El polinomio mnimo y el polinomio caracterstico


de una matriz A poseen los mismos factores irreducibles.
Demostraci
on. Sea mA () el polinomio mnimo de A de la forma mA () =
t1
+ at1
+ + a1 + a0 . Consideremos las matrices C0 = I, C1 = A + at1 I,
C2 = A2 + at1 A + at2 I, . . . , Ct1 = At1 + at1 At2 + + a1 I. Luego C0 = I,
C1 AC0 = at1 I, C2 AC1 = at2 I, . . . , Ct1 ACt2 = a1 I. Multiplicando
t

68

Captulo II Vectores caractersticos y formas can


onicas

Ct1 por A obtenemos ACt1 = a0 I (At + at1 At1 + + a1 A + a0 I) =


a0 I mA (A) = a0 I. Sea C() = t1 C0 + t2 C1 + + Ct2 + Ct1 . Entonces

(I A) C() = (t C0 + t1 C1 + + Ct1 )
(t1 AC0 + t2 AC1 + + ACt2 + ACt1 )
= t C0 + t1 (C1 AC0 ) + + (Ct1 ACt2 ) + a0 I
= t I + at1 t1 I + + a1 1 I + a0 I
= mA ()I.
Luego, |I A||C()| = |mA ()I| = mA ()n . Por lo tanto, |I A| divide a
mA ()n . Es decir, el polinomio caracterstico de A divide a mA ()n .

Sea g() un polinomio irreducible. Si g()mA () entonces g()|pA () pues


mA ()|pA (). Por otro lado, si g()|pA () entonces g()|mA ()n . Como g()
es irreducible, g()|mA (). Luego mA () y pA () poseen los mismos factores
irreducibles.

3.4 COROLARIO. Un elemento K es valor caracterstico de A si, y


s
olo si, es raz del polinomio mnimo de A.
Demostraci
on. Por 3.3, el polinomio mnimo y el polinomio caracterstico de
A poseen los mismos factores lineales irreducibles y, por lo tanto, poseen las mismas
races.

3 0 1 0
3.5 EJEMPLO. Sea A = 00 30 03 00 . El polinomio caracterstico de A es
0 0 0 8
pA () = |I A| = ( 3)3 ( 8). Por los resultados precedentes, mA ()|pA ()
y ademas mA () posee los mismos factores irreducibles, entonces mA () puede ser
uno de los siguientes:
( 3)( 8), ( 3)2 ( 8), o ( 3)3 ( 8).

Por el teorema (de Cayley-Hamilton) 2.4, mA (A) = 0. Luego, calculando, mA ()


debe ser ( 3)2 ( 8).

69

3 El polinomio mnimo

PROBLEMAS

3.1 Encuentre el polinomio mnimo de A = 00


0

0
4
0
0

3.2 Encuentre los valores caractersticos de A = 40


0

4
0 .
4
9

0
2
2
0
0
2
0
0

3
3
8
0

1
2 .
0
2

3.3 Sea V un espacio vectorial de dimension finita sobre un campo K. Pruebe


que HomK (V, V ) es invertible si, y solo si, el termino constante de m () de
no es cero.
3.4 Sea V en espacio vectorial de dimension finita sobre un campo K. Pruebe
que:
(a) si HomK (V, V ) es invertible, entonces 1 es una expresion polinomial
en sobre K y
(b) si es singular, entonces existe HomK (V, V ), 6= 0 tal que = = 0.
3.5 Pruebe que una matriz cuadrada A es diagonalizable si, y solo si, mA () =
( 1 )( 2 ) ( r ) donde 1 , . . . , r son los valores caractersticos distintos
de A.

70

II.4

Captulo II Vectores caractersticos y formas can


onicas

FORMA CANONICA TRIANGULAR

En 1.1 definimos el concepto de similaridad de matrices, (el cual se traduce en uno


para operadores), y en 1.2 se vio que era una relacion de equivalencia. El problema
que consideraremos sera el de como distinguir las clases de equivalencia, o bien, dicho de otra manera, como determinamos si dos operadores lineales son similares. Lo
resolveremos definiendo ciertas matrices llamadas formas canonicas, una para cada
clase de equivalencia. Formalmente, definimos un conjunto de formas can
onicas
para una relacion de equivalencia en un conjunto C como un subconjunto F
de C que consiste de exactamente un elemento de cada clase de equivalencia de
. Entonces, una vez obtenidas las formas canonicas, bastara comparar si estas
son las mismas o no para cada operador. Comenzaremos estudiando el importante
concepto de espacio cociente que utilizaremos en esta seccion y en el resto del texto.

4.1 NOTACION. Sea V un espacio vectorial sobre un campo K. Sea U un


subespacio de V y v V . Denotaremos con v + U el conjunto {v + u|u U }.
Dichos elementos v + U los llamaremos clases laterales de U en V .
Como 0 U y v = v + 0 v + U , cada v V pertenece a una clase lateral. Es
inmediato comprobar que cualesquiera dos clases laterales son ajenas o son iguales
(problema 4.1).
Sea V /U el conjunto de todas las clases laterales de U en V . Demosle a V /U
una estructura de espacio vectorial mediante
+: V /U V /U V /U dada por
((v + U ), (w + U )) 7 ((v + w) + U )

: K V /U V /U dada por
(, v + U ) 7 v + U.
Es facil comprobar que las operaciones anteriores estan bien definidas (problema
4.2) y que definen una estructura de espacio vectorial en V /U . Llamaremos a V /U ,
espacio cociente.
Nota: Sea U un subespacio del espacio vectorial V sobre un campo K. Si
u v + U entonces existe w U tal que u = v + w. Luego u v = w U .
Si u v U entonces u v = w U . Luego u = v + w v + U . Tambien

71

4 Forma canonica triangular


u v U (u v) = v u U
u v + U u v U v u + U .

v u + U . En resumen,

Sea p: V V /U dada por v 7 v + U . Si v, w V , entonces p(v + w) =


(v + w) + U = (v + U ) + (w + U ) = p(v) + p(w). Si K, p(v) = v + U =
(v + U ) = p(v). Por lo tanto, p es una aplicacion lineal llamada proyecci
on
can
onica.

4.2 DEFINICION. Sea V un espacio vectorial sobre un campo K y U un subespacio de V .


Decimos que U es invariante bajo un operador lineal
: V V si (U ) U .
Observe que define un operador lineal de U que denotamos con |U .

4.3 PROPOSICION. Sea : V V un operador lineal de V y U un


subespacio de V invariante bajo . Entonces induce un operador lineal
V /U : V /U V /U dado por V /U (v + U ) = (v) + U .
Demostraci
on. Veamos que V /U esta bien definido: sea u + U = u0 + U ,
0
entonces u u U y como U es invariante bajo , (u u0 ) = (u) (u0 ) U .
Luego
V /U (u + U ) = (u) + U = (u0 ) + U = V /U (u0 + U ).
As, si u + U = u0 + U entonces V /U (u + U ) = V /U (u0 + U ) y, por lo tanto,
V /U esta bien definida.
Veamos que V /U es lineal:
V /U ((u + U ) + (u0 + U )) = V /U (u + u0 + U )
= (u + u0 ) + U = (u) + (u0 ) + U
= (u) + U + (u0 ) + U
= V /U (u + U ) + V /U (u0 + U ).
V /U ((u + U )) = V /U (u + U )
= (u) + U
= (u) + U
= ((u) + U )
= V /U (u + U ).

72

Captulo II Vectores caractersticos y formas can


onicas

4.4 PROPOSICION. Sea : V V un operador lineal. Si f es un


polinomio tal que f () = 0 entonces f (V /U ) = 0.
Demostraci
on. Sea v + U una clase lateral de V /U . Observe que (2 )V /U =
2
(V /U ) pues (2 )V /U (v + U ) = 2 (v) + U = ((v)) + U = V /U ((v) + U ) =
V /U (V /U (v + U )) = (V /U )2 (v + U ). Analogamente, (i )V /U = (V /U )i . Luego,
Pn
para el polinomio f = i=0 i ti tenemos que
[f ()]V /U (v + U ) = f ()(v) + U
n
X
=
i i (v) + U
i=0

n
X

i (i (v) + U )

i=0

X
X

i (i )V /U (v + U )

i (V /U )i (v + U )
!
n
X
i
=
i (V /U ) (v + U )
=

i=0

= f (V /U )(v + U ).
As que [f ()]V /U = f (V /U ). Esto es, si es raz de f entonces [f ()]V /U = 0V /U =
U = f (V /U ), luego V /U es raz de f .
Observe que, debido a la proposicion anterior, el polinomio mnimo de V /U
divide al polinomio mnimo de .

4.5 PROPOSICION. Sea U un subespacio de un espacio vectorial V sobre


un campo K . Sea {u1 , . . . , ut } una base de U y {v 1 , . . . , v r } una base de V /U .
Entonces {v1 , . . . , vr , u1 , . . . , ut } es una base de V y dim V = dim U + dim V /U .
Demostraci
on. Sea v V . Como {v i } es una base de V /U , v = v + U =
1 v 1 +2 v 2 + +r v r . Luego v = 1 v1 + +r vr +u donde u U . Como {ui } es
una base de U , v = 1 v1 + +r vr +1 u1 + +t ut . Luego {v1 , . . . , vr , u1 , . . . , ut }
genera a V .
Supongamos que 1 v1 + +r vr +1 u1 + +t ut = 0. Luego 1 v 1 + +r v r =
0 = U pues cada v i = vi + U . Como {v i } es linealmente independiente, i = 0.
Luego 1 u1 + + t ut = 0 y como las {ui } son linealmente independientes, las
i = 0. Luego {v1 , . . . , vr , u1 , . . . , ut } es linealmente independiente.
Sea HomK (V, V ) un operador lineal de V . Diremos que puede represen-

73

4 Forma canonica triangular

tarse por una matriz triangular si su matriz asociada es triangular. Si A es la


matriz triangular de la forma

a11
0
..
.
0

a12
a22
..
.

..
.
0

a1n
a2n
.. ,
.
ann

su polinomio caracterstico es
pA () = |I A| = ( a11 )( a22 ) ( ann ).

El siguiente teorema establece el sentido inverso:


4.6 TEOREMA. Sea HomK (V, V ) tal que su polinomio caracterstico
se factoriza como producto de polinomios lineales. Entonces existe una base
de V para la cual la matriz asociada a es triangular.
Demostraci
on. Utilizando induccion sobre la dimension de V tenemos que, si
dim V = 1, la matriz asociada a , de 1 1, es triangular.
Supongamos que dim V = n con n > 1 y que el teorema es valido para dimensiones menores que n. El polinomio caracterstico se factoriza como producto de
polinomios lineales por hipotesis, luego posee al menos un valor caracterstico y
un vector caracterstico asociado diferente de cero. Sea v dicho vector caracterstico
tal que (v) = a11 v. Sea U el subespacio de dimension 1 generado por v. Luego,
por 4.5, dim V /U = dim V dim U = n 1. Como U es invariante bajo , por
4.3 induce un operador V /U cuyo polinomio mnimo divide al polinomio mnimo
de . Como el polinomio caracterstico de es producto de polinomios lineales, el
polinomio mnimo de tambien es producto de polinomios lineales y por ende lo
son los polinomios caractersticos y mnimos de V /U . Luego V /U y V /U satisfacen
las hipotesis del teorema. Por induccion, existe una base {v 2 , . . . , v n } de V /U tal
que
V /U (v 2 ) = a22 v 2
V /U (v 3 ) = a32 v 2 + a33 v 3
..
.
V /U (v n ) = an2 v 2 + an3 v 3 + + ann v n .
Sea vi v i . Por 4.5, {v, v2 , . . . , vn } es una base de V . Como V /U (v 2 ) = a22 v 2 ,
V /U (v 2 ) a22 v 2 = 0. Luego (v2 ) a22 v2 U . Como U esta generado por v,

74

Captulo II Vectores caractersticos y formas can


onicas

(v2 ) a22 v2 es un m
ultiplo de v, por ejemplo, (v2 ) a22 v2 = a21 v, luego (v2 ) =
a21 v + a22 v2 . Analogamente para i = 3, . . . , n, (vi ) ai2 v2 ai3 v3 aii vi U ,
luego (vi ) = ai1 v + ai2 v2 + + aii vi . As que
(v) = a11 v
(v2 ) = a21 v + a22 v2
..
.
(vn ) = an1 v + an2 v2 + + ann vn
y la matriz asociada a con respecto a esta base es triangular.

4.7 PROPOSICION. Sea U un subespacio invariante


de HomK (V, V ).

Y donde X es la
Entonces posee una matriz asociada de la forma X
0 Z
matriz asociada a |U .
Demostraci
on. Sea {u1 , . . . , ut } una base de U . Completemos la base a una
base de V : {u1 , . . . , ut , w1 , . . . , ws }. Entonces
|U (u1 ) = (u1 ) = a11 u1 + + a1t ut
|U (u2 ) = (u2 ) = a21 u1 + + a2t ut
..
..
..
.
.
.
|U (ut ) = (ut ) = at1 u1 + + att ut
(w1 ) = b11 u1 + + b1t ut + c11 w1 + + c1s ws
(w2 ) = b21 u1 + + b2t ut + c21 w1 + + c2s ws
..
.
(ws ) = bs1 u1 + + bst ut + cs1 w1 + + css ws .
As, la matriz asociada
a es la traspuesta de la matriz de coeficientes del sistema

y es de la forma X Y donde X es la traspuesta del sistema correspondiente.


0 Z

4.8 PROPOSICION. Sea HomK (V, V ) y |U la restricci


on de a un
subespacio invariante U de V . Si f es un polinomio, entonces f (|U )(u) =
f ()(u), u U y el polinomio mnimo m|U () divide al polinomio mnimo
m ().

4 Forma canonica triangular

75

Demostraci
on. Sea f cualquier polinomio. Supongamos que el grado n de
f es mayor que 1, pues si es de grado cero o uno es valida la afirmacion. Si
f es de la forma n xn + n1 xn1 + + 1 x1 + 0 y el resultado vale para
grados menores que n, entonces f (|U )(u) = (n |nU + + 1 |U + 0 I)(u) =
n1
(n |n1
+ + 0 I)(u) = (n n1 )((u)) + (n1 n1 +
U )(|U (u)) + (n1 |U
+ 0 I)(u) = f ()(u). Si m () denota al polinomio mnimo de , entonces
m (|U )(u) = m ()(u) = 0(u) = 0 u U . Luego |U es raz del polinomio
mnimo de y, por la proposicion 3.2, el polinomio mnimo de |U divide a m ().

PROBLEMAS

4.1 Pruebe que cualesquiera clases laterales o son ajenas o son iguales.
4.2 Compruebe que las operaciones definidas en V /U estan bien definidas y que
proporcionan una estructura de espacio vectorial en V /U .
4.3 Sea U un subespacio de un espacio vectorial V sobre un campo K. Pruebe que
si el conjunto de clases laterales {v 1 , . . . , v n } de V /U es linealmente independiente
entonces {v1 , . . . , vn } es linealmente independiente.
4.4 Describa las clases laterales de U en IR3 donde U es el espacio solucion de la
ecuacion 8x + 2y + 5z = 0.
4.5 Pruebe que si HomK (V, V ) es un operador lineal y f un polinomio
cualquiera, entonces el n
ucleo de f () es invariante bajo .
4.6 Proporcione con todo detalle la demostracion de la Proposicion 4.8.
4.7 Compruebe que si A es una matriz cuadrada cuyo polinomio caracterstico
se factoriza en polinomios lineales entonces A es similar a una matriz triangular.
(Sugerencia: Teorema 4.6)
4.8 Pruebe que si f : V W es una funcion lineal entre espacios vectoriales
sobre un campo K, entonces existe una funcion lineal u
nica h: V /kerf W tal

que h p = f . Ademas, h es inyectiva y f (V ) = imf = V /kerf .

76

Captulo II Vectores caractersticos y formas can


onicas

4.9 Sea f : U V una funcion lineal. Pruebe


queexisten bases de U y de V tales
que la matriz asociada a f es de la forma Ir 0 donde Ir es matriz identidad
0 0
y r es el rango de f . Este es un ejemplo de forma can
onica llamada normal de
f bajo la relacion de equivalencia siguiente: una matriz A es equivalente a una
matriz B si, y solo si, el rango de A es igual al rango de B.
4.10 Sea Irm,n la matriz de m n cuyos primeros r renglones
son la
base canonica
de K r y cuyos renglones restantes son cero, i.e., Irm,n = Ir 0 . Pruebe que,
0 0
si A, B Mmn K entonces A es equivalente a Irm,n si, y solo si, el rango de A es
r. Concluya que A es equivalente a B si, y solo si, sus rangos son iguales (vease el
problema 1.4) y que las matrices Irm,n (r = 1, 2, . . . , min(m, n)) son un conjunto de
formas canonicas para la relacion de equivalencia en Mmn K.
4.11 Sea HomK (V, V ) tal que = 1 2 con respecto a la suma V = U1 U2
donde Ui (i = 1, 2) es invariante bajo . Pruebe que p () = p1 ()p2 () donde
p , p1 y p2 son los polinomios caractersticos.

77

5 Forma canonica de Jordan

II.5

FORMA CANONICA DE JORDAN

5.1 DEFINICION. Sea HomK (V, V ) y Ui , i = 1, . . . , s subespacios de V .


Diremos que (es descomponible) se puede descomponer como suma directa de
operadores |Ui , si V = si=1 Ui con Ui invariante bajo . En este caso escribiremos
= si=1 |Ui .
5.2 LEMA. Sea HomK (V, V ) tal que = 1 2 con respecto a la suma
V = U1 U2 donde Ui , i = 1, 2 es invariante bajo . Entonces m () es el
m.c.m. de m1 () y de m2 ().
Demostraci
on. Por el problema 4.6, m1 ()|m () y m2 ()|m (). Sea h un
polinomio m
ultiplo de m1 y m2 . Luego h(1 ) = 0 y h(2 ) = 0. Sea v V tal que
v = u1 + u2 , u1 U1 , u2 U2 . Entonces
h()(v) = h()(u1 ) + h()(u2 ) = 0.
Por lo tanto, es raz de h. Luego, por 3.2, m ()|h() y, por lo tanto, m () es
el mnimo com
un m
ultiplo.

5.3 PROPOSICION. Sea HomK (V, V ). Sean f, g y h polinomios tales


que f () = 0, f = gh y (g, h) = 1. Entonces V = ker g() ker h(). A
un
m
as, si f es el polinomio mnimo de entonces g y h son los polinomios
mnimos de |ker g() y de |ker h() respectivamente.
Demostraci
on. Por el problema 4.5, ker g() y ker h() son invariantes bajo
. Como g y h son primos relativos
rg + sh = 1
para ciertos polinomios r y s. As que,
r()g() + s()h() = I
el cual, calculado en un elemento v V nos da
r()g()(v) + s()h()(v) = v.

78

Captulo II Vectores caractersticos y formas can


onicas

Como h()r()g()(v) = r()g()h()(v) = r()f ()(v) = r()0(v) = 0,


r()g()(v) ker h(). Analogamente g()s()h()(v) = s()g()h()(v) =
s()f ()(v) = s()0(v) = 0 y s()h() ker g(). Luego V = ker g() + ker h().
Ahora, necesitamos probar que si v = v 0 + v 00 con v 0 ker g() y v 00 ker h(),
v 0 y v 00 estan determinadas en forma u
nica por v: aplicamos r()g() a v = v 0 + v 00
0
y como g()v = 0 tenemos que r()g()(v) = r()g()(v 0 ) + r()g()(v 00 ) =
r()g()(v 00 ). Tambien v 00 = I(v 00 ) = r()g()(v 00 ) + s()h()(v 00 ) = r()g()(v 00 )
pues
h()(v 00 )
=
0.
Las
formulas
anteriores
nos
dan
00
00
v = r()g()(v) y as v esta determinada en forma u
nica por v. De manera
semejante, v 0 esta determinada en forma u
nica por v; luego V es suma directa de
ker g() y de ker h().
Sean mg y mh los polinomios mnimos de |ker g() y de |ker h() respectivamente. Sabemos que g(|ker g() ) = 0 y que h(|ker h() ) = 0. Luego mg |g y mh |h.
Por 5.2, f es el m.c.m. de mg y mh . Pero mg y mh son primos relativos puesto que
g y h lo son. Luego f = mg mh . Pero f = gh. Esto implica que g = mg y h = mh .

5.4 TEOREMA. (Descomposicion primaria). Sea HomK (V, V ) con poli-

nomio mnimo
m () = f1 ()1 f2 ()2 fs ()s

donde los fi () son polinomios m


onicos e irreducibles distintos. Entonces
V = si=1 ker fi ()i donde los subespacios ker fi ()i son invariantes bajo
y fi ()i es el polinomio mnimo de |ker fi ()i .
Demostraci
on. Utilizando induccion sobre s, tenemos que para s = 1, el resultado es trivial. Supongamos que el teorema es valido para s 1. Por la
proposicion 5.3, V = ker f1 ()1 ker (f2 ()2 fs ()s ) y los polinomios mnimos
de |ker f1 ()1 y de |ker f2 ()2 fs ()s son f1 ()1 y f2 ()2 fs ()s respectivamente.
Sea 1 = |ker f2 ()2 fs ()s .
Por hipotesis de induccion,
2
s
s
i
ker (f2 () fs () ) = i=2 ker fi (1 ) tal que fi ()i es el polinomio mnimo
de la restriccion de 1 a ker fi (1 )i . Como fi ()i divide a f2 ()2 fs ()s ,
ker fi ()i ker (f2 ()2 fs ()s ), i = 2, . . . , s. Luego, ker fi ()i =
ker fi (1 )i .
Como |ker fi (1 )i = 1 |ker fi (1 )i para i = 2, . . . , s, fi ()i es tambien el polinomio mnimo de |ker fi (1 )i . Luego V = ker f1 ()1 ker f2 ()2
ker fs ()s y la descomposicion de es = si=1 |ker fi ()i .

5 Forma canonica de Jordan

79

5.5 COROLARIO. Un operador HomK (V, V ) posee una matriz asociada diagonal si, y s
olo si, su polinomio mnimo m () es producto de
polinomios lineales distintos.
Demostraci
on. Sea un operador lineal cuya matriz asociada es diagonal. Entonces V posee una base que consiste de vectores caractersticos de con valores caractersticos distintos 1 , . . . , r .
Por consiguiente el operador f () =
( 1 I)( 2 I) ( r I) enva cualquier vector de la base al cero (vease
el problema 5.3). Luego f () = 0 y, por lo tanto, el polinomio mnimo m() de
divide al polinomio f () = ( 1 )( 2 ) ( r I). As, m() es producto de
polinomios lineales distintos.
Ahora, supongamos que m() = ( 1 )( 2 ) ( s ) con las i K
diferentes. Por el teorema 5.4, V = si=1 ker ( i I). Sea v ker ( i I), luego
( i I)(v) = 0, i.e., (v) = i v. Esto significa que cada vector de ker ( i I)
es un vector caracterstico perteneciente al valor caracterstico i . Por el problema
I.3.10, la union de las bases de ker ( i I) es una base de V que consiste de
vectores caractersticos. Luego es diagonalizable.
A continuacion estudiaremos operadores lineales cuyas races de su polinomio
mnimo son todas cero. Sabemos entonces, por el teorema 4.6, que existe una base
del espacio vectorial tal que la matriz asociada a es triangular. Sin embargo,
el encontrar formas canonicas para dichos operadores nilpotentes nos permitiran
encontrar formas canonicas para cualquier operador que se factorice como producto
de polinomios lineales.

5.6 DEFINICION. Un operador lineal HomK (V, V ) se llama nilpotente


si n = 0 para alguna n > 0. Llamaremos al entero r ndice de nilpotencia de si
r = 0 pero r1 6= 0. Tambien diremos que una matriz cuadrada A es nilpotente
si An = 0 y r es el ndice de nilpotencia de A si Ar = 0 pero Ar1 6= 0.
Observaci
on. El polinomio mnimo de un operador nilpotente de ndice r es
m() = r . Su u
nico valor caracterstico es el cero. (Problema 5.7).

5.7 PROPOSICION. Sea HomK (V, V ) un operador nilpotente de


ndice r, y v V tal que r1 (v) 6= 0. Entonces el conjunto {r1 (v),
r2 (v), . . . , (v), v} es una base del subespacio que genera, cuya matriz aso-

80

Captulo II Vectores caractersticos y formas can


onicas

ciada posee ndice de nilpotencia r y es de la forma

0 1 0
0 0 1
..
.. .. ..
. . .
0 0 0 .

0 0 0

0 0
0 0
.. ..
. . .
0 1

0 0

Demostraci
on. Por el problema 5.4, el conjunto {r1 (v), . . . , v} es linealmente
independiente y el subespacio que genera es invariante bajo . Por el problema 5.5,
como es nilpotente de ndice r, (0 )r (k (v)) = r+k (v) = 0 luego
0 (r1 (v)) =
0 (r2 (v)) =
0 (r3 (v)) =
..
.
0 ((v))
0 (v)

r (v) = 0
r1 (v)
r2 (v)
..
.
2 (v)

=
=

(v)

Por lo tanto, la matriz asociada es la requerida. Es inmediato comprobar que es


de ndice r.

5.8 LEMA. Sea HomK (V, V ).


(ker k+1 ) ker k .

Entonces ker k ker k+1 y

Demostraci
on. Sea v ker k , luego k (v) = 0 y k+1 (v) = (k (v)) =
(0) = 0. Por lo tanto v ker k+1 y, como v es arbitraria, ker k ker k+1 .
Si v ker k+1 entonces k+1 (v) = 0. Queremos ver que (v) ker k i.e.
k ((v)) = 0. Pero como k+1 (v) = 0 y k ((v)) = k+1 (v) = 0 hemos terminado.

5.9 PROPOSICION. Sea HomK (V, V ) nilpotente de ndice r. Entonces posee una matriz asociada diagonal por bloques que son de la forma

0 1 0
0 0 1
. . .
.. .. ..

0 0 0
0 0 0

0 0
0 0
.. ..
.
. .

0 1
0 0

Demostraci
on. Sea n = dim V , mi = dim ker i , i = 1, . . . , r. Como r = 0,
V = ker r y como r1 =
6 0, ker r1 6= V . Luego mr1 < mr = n. Por el lema

81

5 Forma canonica de Jordan

5.8, ker 1 ker 2 ker r = V. Por induccion, podemos escoger una base
{v1 , . . . , vn }
de
V
tal
que
i
{v1 , . . . , vmi } es una base de ker .
Escojamos una base nueva de V para la cual posee la forma deseada: pongamosla con cierto orden;
u(1,r) = vmr1 +1
u(2,r) = vmr1 +2
..
.
u(mr mr1 ,r) = vmr

u(1,r1) = u(1,r)
u(2,r1) = u(2,r)
..
.
u(mr mr1 ,r1) = u(mr mr1 ),r) .
Por el problema 5.6, X1 = {v1 , . . . , vmr2 , u(1,r1) , . . . , u(mr mr1 ,r1) es un
subconjunto linealmente independiente de ker r1 . Extendemos X1 a una base de
ker r1 adjuntando nuevos elementos como
u(mr mr1 +1,r1)
u(mr mr1 +2,r1)
..
.
u(mr1 mr2 ,r1) .
Sea

u(1,r2) = u(1,r1)
u(2,r2) = u(2,r1)
..
.

u(mr1 mr2 ,r2) = u(mr1 mr2 ,r1) .


Por el problema 5.6 se tiene que
X2 = {v1 , . . . , vmr3 , u(1,r2) , . . . , u(mr1 mr2 ,r2) }
es un subconjunto linealmente independiente de ker r2 el cual podemos extender
a una base de ker r2 adjuntandole elementos de la forma
u(mr1 mr2 +1,r2)
u(mr1 mr2 +2,r2)
..
.
u(mr2 mr3 ,r2) .

82

Captulo II Vectores caractersticos y formas can


onicas

Si seguimos con este proceso obtendremos una base para V rearreglada como
u(1,r) , . . . , u(mr mr1 ,r)
u(1,r1) , . . . , u(mr mr1 ,r1) , . . . , u(mr1 mr2 ,r1)
..
.
u(1,2) , . . . , u(mr mr1 ,2) , . . . , u(mr1 mr2 ,2) , . . . , u(m2 m1 ,2)
u(1,1) , . . . , u(mr mr1 ,1) , . . . , u(mr1 mr2 ,1) , . . . , u(m2 m1 ,1) , . . . , u(m1 ,1)

El u
ltimo renglon es una base para ker 1 . El u
ltimo y el pen
ultimo renglon son
una base para ker 2 y as sucesivamente. Observese que cada vector se transforma
bajo en el vector inmediato inferior, o en cero si el vector es del u
ltimo renglon,
i.e.,
n
u(i,j1) si j > 1
u(i,j) =
0
si j = 1.
Por la proposicion 5.7, tendra la forma requerida si las u(i,j) se ordenan lexicograficamente, comenzando por u(1,1) y subiendo por la primera columna hasta
u(1,r) ; luego brincando a u(2,1) hasta arriba, etcetera.

5.10 COROLARIO. En la proposici


on 5.9, existe al menos una matriz
de orden r, las otras son de
ordenes menores o iguales a r. El n
umero de
matrices de cada orden posible est
a determinado en forma u
nica por y el
n
umero de matrices de todos los
ordenes es igual a la dimensi
on de ker .
Demostraci
on. Hay mr mr1 elementos de la diagonal de orden r;
(mr1 mr2 ) (mr mr1 ) = 2mr1 mr mr2 elementos de la diagonal de orden r 1; ... , 2m2 m1 m3 elementos de la diagonal de orden 2 y
2m1 m2 elementos de la diagonal de orden 1.
Como los n
umeros m1 , . . . , mr estan determinados en forma u
nica por , el
n
umero de elementos diagonales de cada orden estan determinados en forma u
nica
por .
Como m1 = (mr mr1 ) + (2mr1 mr mr2 ) + + (2m2 m1 m3 ) +
(2m1 m2 ), m1 = dim ker 1 es el n
umero de elementos de la diagonal de .
Observe que, por 5.7 la matriz de 5.9 es nilpotente de ndice igual a su orden.

83

5 Forma canonica de Jordan


5.11 TEOREMA. Sea HomK (V, V ) tal que
p () = ( 1 )1 ( 2 )2 ( r )r y
m () = ( 1 )1 ( 2 )2 ( r )r

donde i K . Entonces posee una matriz asociada diagonal por bloques


J (llamada forma can
onica de Jordan de ) cuyos bloques son de la forma

i
0
..
Jij =
.

0
0

1
i
..
.

0
1
..
.

0
0
..
.

0
0

0
0

i
0

0
0
..
.
.

1
i

Demostraci
on. Por 5.4, = ri=1 ker f ()i donde fi ()i = ( i )i es
i

el polinomio mnimo de ker f ()i . Por el teorema de Cayley-Hamilton cada


i
|ker fi ()i es raz de su polinomio mnimo, i.e. (|ker fi ()i i I)i = 0 para i =
1, . . . , r. Definamos Ni = |ker fi ()i i I, para i = 1, . . . , r. Luego |ker fi ()i =
Ni + i I donde Nii = 0. Por 5.9 podemos escoger una base tal que |ker fi ()i
tenga una matriz asociada diagonal por bloques cuyos elementos diagonales son las
matrices Jij . La suma directa de las matrices asociadas a |ker fi ()i la denotaremos
con J y por el problema 5.1, es la matriz asociada a .

5.12 EJEMPLO. Sea un operador lineal con polinomio caracterstico p () =


(3)4 (2)3 y con polinomio mnimo m () = (3)2 (2)2 . Su forma canonica
de Jordan es (vease el problema 5.8)

3
0

1
3

2
0

1
2

o bien es

3 1
0 3

3 1
0 3

2 1
0 2

La primera matriz ocurre cuando tiene tres vectores caractersticos linealmente


independientes correspondientes al 3. La segunda matriz ocurre cuando tiene dos
vectores independientes correspondientes al 3.
Lo que hemos hecho es lo siguiente: en 1.1 definimos una relacion de similaridad entre matrices y en 1.2 probamos que era de equivalencia. En 1.3 vimos que
cualesquiera dos matrices representan a un mismo operador lineal si, y solo si, son
similares una con la otra.

84

Captulo II Vectores caractersticos y formas can


onicas

Las formas canonicas triangular y de Jordan para un operador lineal existen si,
y solo si, el polinomio caracterstico de posee todas sus races en un campo base
K, (lo cual es cierto si K = C
I pero no lo es si K = IR en general). Sin embargo,
si esto no sucede, siempre podemos obtener un campo K adjuntando races de tal
forma que los polinomios mnimo y caracterstico se factoricen en factores lineales
y entonces podramos decir que todo operador posee una forma canonica de Jordan
y que toda matriz es similar a una matriz en forma canonica de Jordan. Tambien
vimos que una clase de transformaciones que tienen todas sus races caractersticas
en un campo K fueron las nilpotentes, luego siempre se pueden poner en forma
triangular.

PROBLEMAS
5.1 Sea HomK (V, V ) y V = si=1 Ui con Ui invariante bajo . Pruebe que si
la matriz asociada a |Ui es Xi entonces posee una matriz asociada por bloques
de la forma

X1 0 0
0 X2 0
X=
..
..
..

.
.
.
0
0 Xs
que denotaremos como X = si=1 Xi .
5.2 Sea M una matriz cuadrada diferente de I tal que M 5 = I. Compruebe si M
es similar a una matriz diagonal con los coeficientes de M reales o complejos.
5.3 Pruebe con detalle que el operador f () dado en la demostracion de 5.5 enva
cualquier vector de la base al cero.
5.4 Sea HomK (V, V ) un operador nilpotente de ndice r, y v V tal que
r1 6= 0. Pruebe que el conjunto {v, (v), 2 (v), . . . , r1 (v)} es linealmente independiente y genera un subespacio invariante bajo .
5.5 Pruebe que la restriccion 0 de al subespacio generado por el conjunto
{v, (v), . . . , r1 (v)} del problema 5.4 es nilpotente de ndice r.
5.6

Sea HomK (V, V ), {v1 , . . . , vt } una base de ker r2 , {v1 , . . . , vt ,

5 Forma canonica de Jordan

85

u1 , . . . , uk } una base de ker r1 y {v1 , . . . , vt , u1 , . . . , uk , w1 , . . . , ws } una base


de ker r . Pruebe que {v1 , . . . , vt , (w1 ), . . . , (ws )} es un subconjunto linealmente
independiente de ker r1 .
5.7 Pruebe que el polinomio mnimo de un operador nilpotente de ndice r es
m() = r y que su u
nico valor caracterstico es el cero.
5.8 Pruebe que, en la terminologa de 5.11, existe al menos una matriz Jij de
orden i y que el resto de las Jij poseen ordenes menores o iguales a i . Tambien
demuestre que la suma de los ordenes de Jij es igual a i .
5.9 Encuentre todas las posibles formas canonicas de Jordan de un operador
HomK (V, V ) cuyo polinomio caracterstico es p () = ( 3)3 ( 7)2 .
5.10 Si m () = ( 7)2 es el polinomio mnimo de una matriz de orden 7,
encuentre todas las posibles formas canonicas de Jordan.
5.11 Pruebe que dos operadores lineales cualesquiera son similares (proporcione
una definicion adecuada de similaridad de operadores) si, y solo si, poseen la misma
forma canonica de Jordan.

Captulo III
FORMAS Y OPERADORES

III.1

FORMAS BILINEALES

1.1 DEFINICION. Sean U , V y W espacios vectoriales sobre un campo K.


Una funcion f : U V W se llama bilineal si:
(i) f (u1 + u2 , v) = f (u1 , v) + f (u2 , v)
(ii) f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ) y
(iii) f (u, v) = f (u, v) = f (u, v); u1 , u2 , u U ; v1 , v2 , v V ; K.
Es decir, f : U V W es bilineal si es lineal en cada variable cuando la otra
se mantiene fija.
Observaci
on. Lo anterior significa que si v V se mantiene fija en U V ,
la funcion u 7 f (u, v) es lineal y por lo tanto es un elemento de HomK (U, W ).
De igual forma, si u U se mantiene fija en U V , la funcion v 7 f (u, v) es
lineal y pertenece a HomK (V, W ). Esto no significa que f sea lineal como funcion
f : U V W . Por ejemplo, f : IR IR IR dada por f (u, v) = uv es bilineal
pero no es lineal. Otro ejemplo, f : IR IR IR dada por f (u, v) = u + v es lineal
pero no es bilineal.

88

Captulo III Formas y operadores

1.2 EJEMPLO. Sea A una matriz de m n. Definamos


f : K m K n K
mediante f (X, Y ) = t XAY . Esto es


y1
a11 a1n
.. ..
(x1 , . . . , xm ) ...
.
.
yn
am1 amn
m
! y1
m
X
X
=
xi ai1 , . . . ,
xi ain ...
i=1
i=1
yn
n
m
XX
=
xi aij yj
j=1 i=1

n X
m
X

aij xi yj .

j=1 i=1

Es inmediato comprobar que f (X, Y ) K y que es bilineal, ya que las propiedades


de las matrices establecen que t XA(Y + Y 0 ) = t XAY + t XAY 0 y t XA(Y ) =
(t XAY ).

!
!
!
y1
2 1 1
x1
Por ejemplo, si A = 1 3 3 , X = x2 y Y = y2 entonces
y3
2 1 1
x3

f (X, Y ) = (x1 , x2 , x3 )

2
1
2

1
3
1

1
3
1

y1
y2
y3

= (2x1 + x2 + 2x3 , x1 + 3x2 + x3 , x1 + 3x2 + x3 )

y1
y2
y3

= 2x1 y1 + x2 y1 + 2x3 y1 + x1 y2 + 3x2 y2 + x3 y2 + x1 y3 + 3x2 y3 + x3 y3 .

Si en 1.1, W = K diremos que f es una forma bilineal. Denotamos con


L2 (U, V ; K) el conjunto de formas bilineales de U V en K. Si U = V , simplemente denotamos a L2 (V, V ; K) con L2 (V ; K) o con Bil(V ) entendiendose que
se trata de formas bilineales de V V en K, que son las que consideraremos en
adelante.
A Bil(V ) le podemos dar una estructura de espacio vectorial mediante las reglas
(f + g)(u, v) = f (u, v) + g(u, v) y (f )(u, v) = f (u, v) para f, g Bil(V ), K.

89

1 Formas bilineales

Consideremos el caso en que tengamos el espacio vectorial de homomorfismos


HomK (V, K). Sus elementos f : V K, que son homomorfismos o aplicaciones
lineales, se acostumbra llamarlos funcionales lineales o formas lineales. Tambien
se acostumbra denotar a HomK (V, K) con L1 (V ; K) o simplemente V y se le llama
espacio dual de V . Su estructura esta dada por
(f + g)(v) = f (v) + g(v)

(f )(v) = f (v); v V, K.
Aqu vemos a K como espacio vectorial sobre s mismo.

1.3 EJEMPLO. Sea V = Mn (K) el espacio de las matrices cuadradas de n n.


Sea f = tr: Mn
(K) K dadapor tr(A) = a11 + a22 + + ann , i.e., la traza de
a11 a1n
.. . Como tr(A + B) = trA + trB y tr(A) = trA,
la matriz A = ...
.
an1 ann
tr es un funcional.

1.4 EJEMPLO. Sea V = K n . Si f HomK (V, K) = V , f tiene una representacion matricial de la forma

x1
f (x1 , . . . , xn ) = (a1 , a2 , . . . , an ) ... = a1 x1 + a2 x2 + + an xn
xn
llamada tambien forma lineal.
Sabemos que si dim V = n entonces dim V = n pues V = HomK (V, K) y por
el teorema I.5.3 dim HomK (V, K) = n 1 = n.
Veamos como determinar una base para V a partir de una base de V .
1.5 PROPOSICION. Sea {v1 , . . . , vn } una base del espacio vectorial V
sobre K . Sean f1 , . . . , fn HomK (V, K) = V funcionales
dadas por fi (vj ) =
n
1
si
i = j . Entonces
ij , donde ij es la delta de Kronecker, i.e., ij =
0 si i 6= j
{fi }ni=1 es una base de V .
Demostraci
on. Veamos que {fi }ni=1 es linealmente independiente: Supongamos que 1 f1 + + n fn = 0. Evaluando en v1 obtenemos 1 f1 (v1 ) + +
n fn (v1 ) = 1 1 = 0(v1 ) = 0. Luego 1 = 0. Analogamente, evaluando en

90

Captulo III Formas y operadores

v2 , v3 , . . . , vn obtenemos que 2 = 3 = = n = 0. Luego {fi }ni=1 es linealmente


independiente. Como dim V = n y {fi }ni=1 es linealmente independiente, es una
base de V . Sin embargo veamos directamente que {fi }ni=1 genera a V : sea f V
Pn
Pn
tal que f (vi ) = i . Sea = i=1 i fi . Luego (v1 ) = i=1 i fi (v1 ) = 1 , (v2 ) =
2 , . . . , (vn ) = n . As que f (vi ) = (vi ) para toda i = 1, . . . , n. Puesto que f y
Pn
son iguales al evaluarlas en los elementos de la base de V , f = = i=1 i fi .
Luego {fi }ni=1 genera a V .
La base de V , as obtenida, se llama base dual.

1.6 EJEMPLO. Consideremos la base {(1, 1), (3, 1)} de IR2 . Encontremos
su base dual para ( IR2 ) = Hom IR ( IR2 , IR). Deseamos encontrar funcionales
f1 (x, y) = x + y y f2 (x, y) = x + y tales que f1 (1, 1) = 1 , f1 (3, 1) = 0,
f2 (1, 1) = 0, f2 (3, 1) = 1. Luego
)
f1 (1, 1) = 1 + 1 = 1
f1 (3, 1) = 3 + 1 = 0
3
1
y= .
2
2
)
f2 (1, 1) = + = 0

Resolviendo el sistema obtenemos =


Tambien

f2 (3, 1) = 3 + = 1
1
Resolviendo el sistema obtenemos =
2

3
1
1
f1 (x, y) = x + y , f2 (x, y) = x
2
2
2

1
y = . Por lo tanto, una base dual es
2

1
y .
2

1.7 PROPOSICION. Sea V un espacio vectorial de dimensi


on finita son
n
bre un campo K . Sea {vi }i=1 una base de V y {fi }i=1 su base dual. Entonces
(i) si v V , v es de la forma
v = f1 (v)v1 + f2 (v)v2 + + fn (v)vn

(ii) si f V , f es de la forma
f = f (v1 )f1 + f (v2 )f2 + + f (vn )fn .
Demostraci
on. (i) Sea v = a1 v1 + a2 v2 + + an vn . Evaluando fi (v) =
fi (a1 v1 + + an vn ) = ai para i = 1, . . . , n. Luego v = f1 (v)v1 + + fn (v)vn .

91

1 Formas bilineales

(ii) Sea v = f1 (v)v1 + +fn (v)vn . Luego f (v) = f1 (v)f (v1 )+ +fn (v)f (vn ) =
f (v1 )f1 (v) + + f (vn )fn (v) = (f (v1 )f1 + + f (vn )fn )(v) para toda v en V . As
que f = f (v1 )f1 + + f (vn )fn .
A continuacion encontremos una base para Bil(V ).
1.8 PROPOSICION. Sea V un espacio vectorial sobre un campo K de
dimensi
on n. Si {fi }ni=1 es una base para V entonces {fij }ni,j=1 dado por
fij (u, v) = fi (u)fj (v) es una base para Bil(V ).
Demostraci
on. Sea {vi }ni=1 una base de V , dual de {fi }ni=1 . Veamos que {fij }
P
es linealmente independiente: supongamos que aij fij = 0. Entonces para ndices
P
P
r, s
=
1, . . . , n tenemos que ( aij fij )(vr , vs )
=
aij fij (vr , vs )
P
P
=
aij fi (vr )fj (vs ) =
aij ir js = ars = 0(vr , vs ) = 0. Por lo tanto {fij } es
linealmente independiente.
Veamos que {fij } genera a Bil(V ): sea f Bil(V ) y aij = f (vi , vj ). Basta
P
probar que f (vr , vs ) = ( aij fij )(vr , vs ) para r, s = 1, . . . , n. Pero como antes,
P
( aij fij )(vr , vs ) = ars = f (vr , vs ), luego {fij } genera Bil(V ).
Observe que dim Bil(V ) = n2 .
Sea V un espacio vectorial con base = {v1 , . . . , vn } y sea f : V V K una
forma bilineal de V . Si u = 1 v1 + + n vn y v = 1 v1 + + n vn son vectores
de V ,
n
n
X
X
f (u, v) = f (
i vi ,
j vj )
i=1

j=1

= 1 1 f (v1 , v1 ) + 1 2 f (v1 , v2 ) + + n n f (vn , vn )


n
X
=
i j f (vi , vj ).
i,j=1

Sea A = (aij ) la matriz cuadrada tal que aij = f (vi , vj ); luego


f (u, v) =

n
X

i j aij

i,j=1

1
= (1 , . . . , n )A ...
n
= t [u] A[v] .
Llamaremos a A matriz asociada a la forma bilineal f con respecto a la base
. A menudo denotamos a A como [f ] .

92

Captulo III Formas y operadores

1.9 EJEMPLO. Sea f : IR2 IR2 IR una forma bilineal dada por
f ((1 , 2 ), (1 , 2 )) = 42 2 y = {1 , 2 } = {(1, 1), (3, 1)} una base de IR2 . Calculemos la matriz asociada a f con respecto a , i.e., A = (aij ) donde aij = f (i , j )
a11 = f (1 , 1 ) = f ((1, 1), (1, 1)) = 4 1 1 = 4
a12 = f (1 , 2 ) = f ((1, 1), (3, 1)) = 4 1 1 = 4
a21 = f (2 , 1 ) = 4
a22 = f (2 , 2 ) = 4

Luego A =

4 4 .
4 4

1.10 EJEMPLO. Sea f como en el ejemplo anterior. Calculemos la matriz B


asociada a f con respecto a la base 0 = {10 , 20 } = {(2, 1), (1, 1)}:
b11 = f (10 , 10 ) = f ((2, 1), (2, 1)) = 4
b12 = f (10 , 20 ) = f ((2, 1), (1, 1)) = 4
b21 = f (20 , 10 ) = f ((1, 1), (2, 1)) = 4
b22 = f (20 , 20 ) = f ((1, 1), (1, 1)) = 4

Luego B =

4
4

4 .
4

Ahora, calculemos la matriz de transicion N de la base a la base 0 del ejemplo


1.9:
1
10 = (2, 1) = (1, 1) + (3, 1) = = =
2
20 = (1, 1) = (1, 1) + (3, 1) = = 2, = 1.

1/2 2
Luego N =
.
1/2 1

1/2 2
4 4 = B.
4
4
t
1/2
1/2
Observe que N AN =
=
4 4
4 4
2
1
1/2
1
Establezcamos la observacion del ejemplo 1.10 en el siguiente teorema:
1.11 TEOREMA. Sea f : V V K una forma bilineal. Si N es la
matriz de transici
on de una base a una base 0 de V entonces la matriz
B asociada a f con respecto a la base 0 es
B = t N AN

93

1 Formas bilineales

donde A es la matriz asociada a f con respecto a .


Demostraci
on. Sean u, v V arbitrarios. Por I.5.9 N [u] 0 = [u] y N [v] 0 =
[v] .
Luego t [u] = t [u] 0 t N .
As que f (u, v) = t [u] A[v] =
t
t
t
[u] 0 N AN [v] 0 . Por lo tanto, N AN es la matriz asociada a f con respecto a
0.

1.12 TEOREMA. Sea f : V V K una forma bilineal, = {v1 , . . . , vn }


una base de V y [f ] la matriz asociada a la forma bilineal f . Entonces
Bil(V )
= Mn (K) dado por f 7 [f ] .
Demostraci
on. Es claro que f
7 [f ] es biyectiva pues f esta determinada
por f (vi , vj ). Veamos que es lineal: como
(f + f 0 )(vi , vj ) = f (vi , vj ) + f 0 (vi , vj ) y
(f )(vi , vj ) = f (vi , vj ) para i, j = 1, . . . , n,
se tiene que [f + f 0 ] = [f ] + [f 0 ] y [f ] = [f ] .

1.13 PROPOSICION. Sean {ui }ni=1 y {vi }ni=1 bases de V . Sean {fi }ni=1 y
{gi }ni=1 bases de V duales de {ui } y {vi } respectivamente. Sea N la matriz
1
de transici
on de la base {ui } en la base {vi }. Entonces t N es la matriz de
transici
on de la base {fi } en la base {gi }.
Demostraci
on. Recuerdese (I.5.7) que la matriz N es la matriz cuadrada traspuesta de la asociada al sistema
v1
..
.
vn

i.e.

11
..

N=
.
1n

11 u1
..
.
= n1 u1

n1
.. = t ( ) y
ij
.
nn

1n un
..
.
nn un

11
t
..

N=
.
n1

1n
.. = ( ).
ij
.
nn

De la misma manera, la matriz de transicion B de la base {fi } a {gi } es la


traspuesta de la asociada al sistema
g1
..
.
gn

=
=

11 f1
..
.
n1 f1

1n fn
..
.
nn fn

94

Captulo III Formas y operadores

11
..

B=
.
1n

i.e.

Deseamos ver que B = t N


1
B = t N . Pero

n1
.. = t (ij ).
.
nn

. Para ello, veamos que B t N = I, y as tendremos que

ij = gi (vj ) = (i1 f1 + + in fn )(j1 u1 + + jn un )


XX
=
ik j` fk (u` )
k

=
=

n
X
k=1
n
X

ik jk
0
ik kj

0
(kj
= jk ).

k=1

Luego B t N = I.
Que sucede cuando consideramos el espacio dual de V ? Lo denotaremos con
V = (V ) .
V , pero antes neceQue relacion existe entre V y V ? Veremos que V =
sitaremos un resultado previo que vale para espacios de dimension infinita pero que
no probaremos aqu.
1.14 LEMA. Sea V un espacio vectorial de dimensi
on finita n y v V

diferente de cero. Entonces existe un elemento f V tal que f (v) 6= 0.


Demostraci
on. Como v 6= 0, podemos completar una base de V de la forma
{v1 , v2 , v3 , . . . , vn } con v1 = v. Sea {f1 , . . . , fn } la base dual. Entonces f1 (v1 ) =
f1 (v) = 1 6= 0.

1.15 TEOREMA. Sea V un espacio vectorial de dimensi


on finita sobre

un campo K . La aplicaci
on : V V dada por (v) = v donde v(f ) = f (v)
v V es un isomorfismo.
Demostraci
on. Veamos que es lineal:
(u + v)(f ) = u + v(f ) = f (u + v) = f (u) + f (v)
= u(f ) + v(f ) = (u)(f ) + (v)(f ).
(u)(f ) = (u)(f ) = f (u) = f (u)
= u(f ) = (u)(f ).
Luego es lineal.

1 Formas bilineales

95

Sea v 6= 0, v V . Por el lema 1.14, existe un funcional f V tal que f (v) 6= 0.


Luego 0 6= f (v) = v(f ) = (v)(f ) para toda v 6= 0, por lo que 6= 0, es decir, es
no singular (ker = {0}). Por I.4.7 es invertible y como dim V = dim V =
dim V , es un isomorfismo.
Observe que la funcion lineal : V V se definio sin hacer mencion de una
base.
A de 1.15 se le llama aplicaci
on u homomorfismo natural de V en V . Si
V no es de dimension finita, no es suprayectiva.

PROBLEMAS
1.1
Pruebe que la funcion f : IRm IRm

IR dada por
f ((x1 , . . . , xm ), (y1 , . . . , ym )) = x1 y1 + x2 y2 + + xm ym es bilineal. A f , as
definida, se le llama producto escalar.
1.2 Encuentre la base del espacio dual de V para
(a) V = IR2 con base {(2, 1), (3, 87)}.
(b) V = IR3 con base {(0, 1, 1), (0, 1, 1), (2, 4, 3)}.
1.3 Sea f : K m K n K una aplicacion bilineal. Pruebe que existe una matriz
u
nica A tal que f (X, Y ) = t XAY y que el conjunto de aplicaciones bilineales
L2 (K m , K n ; K) es un espacio vectorial sobre K isomorfo a Mmn (K).
1.4 Considere f : IR2 IR2 IR dado por f ((1 , 2 ), (1 , 2 )) = 31 2 2 1 .
(i) Compruebe que f es bilineal.
(ii) Encuentre la matriz asociada a f con respecto a la base = {(2, 1),
(3, 87)}.
(iii) Encuentre la matriz asociada a f con respecto a la base 0 = {(1, 1),
(2, 1)}.
1.5 Sea V = IR3 con bases = {(0, 1, 1), (0, 1, 1), (2, 4, 3)} y 0 = {(1, 0, 0),
(0, 1, 0), (0, 0, 1)}.
(i) Encuentre la matriz de transicion de la base en la base 0 .

96

Captulo III Formas y operadores

(ii) Encuentre las bases duales de y 0 en ( IR3 ) .


(iii) Encuentre la matriz de transicion de la base dual de en la base dual de 0 .
1.6 Sea U un subconjunto de un espacio vectorial V sobre un campo K. Un
funcional f V se llama aniquilador o anulador de U si f (u) = 0 para toda
u U . Sea U a = {f V |f (u) = 0 u U }. Pruebe que:
(i) U a es un subespacio de V .
(ii) Si V es de dimension finita y U es un subespacio de V entonces dim U a +
dim U = dim V y (U a )a = U .
1.7 Sea U el subespacio de IR3 generado por los vectores u1 = (4, 3, 1) y u2 =
(1, 4, 3). Encuentre una base para U a .
1.8 El rango de una forma bilineal f : V V K se define como el rango de
la matriz asociada a f y se denota rg(f ). Se dice que f es una forma bilineal
degenerada si rg(f ) < dim V . Se dice que f es no degenerada si rg(f ) =
dim V . Pruebe que el producto escalar del problema 1.1 es una forma bilineal no
degenerada.

97

2 Formas bilineales simetricas, ...

III.2

FORMAS BILINEALES SIMETRICAS,


ANTISIMETRICAS, ALTERNANTES
Y HERMITIANAS.
FORMAS CUADRATICAS.

Sea V un espacio vectorial sobre un campo K.


2.1 DEFINICION. Sea f una forma bilineal de V . Diremos que f es sim
etrica
si f (u, v) = f (v, u) para toda u, v V .
Recuerde que una matriz se llama sim
etrica si es igual a su traspuesta. Veamos
como se relaciona el concepto de simetra de una forma bilineal con el de una matriz
simetrica. Sea A la matriz asociada a la forma bilineal simetrica f . Entonces, si V
es de dimension finita, podemos escribir f como en el ejemplo 1.2
f : K n K n K

dada por

f (X, Y ) = XAY.
Pero t XAY = t (t XAY ), puesto que es un escalar. Luego t XAY = t Y t AX.
Como f es simetrica, f (X, Y ) = t XAY = t Y t AX = t Y AX = f (Y, X) (X, Y ).
Luego t A = A. Analogamente, si A = t A entonces f (X, Y ) = f (Y, X). Por lo
tanto, una forma bilineal es simetrica si, y solo si, su matriz asociada es simetrica.
Observemos que si f posee una matriz asociada en forma diagonal entonces f es
simetrica pues toda matriz diagonal es simetrica.

2.2 DEFINICION. Sea f : V V K una forma bilineal simetrica. La


forma cuadr
atica asociada a f es la funcion q: V K dada por q(v) = f (v, v),
v V.
Observe que una forma cuadratica es lineal solamente cuando f es la funcion
trivial.
Sea A la matriz simetrica asociada a la forma bilineal simetrica f . Entonces
podemos escribir
q(X) = f (X, X) = t XAX
En otra forma, esto es

98

Captulo III Formas y operadores

a11
(x1 , . . . , xn ) ...
an1
X
=
aij xi xj


a1n
x1
.. ..
.
.
ann
xn

i,j

=a11 x21 + a22 x22 + + ann x2n + 2

aij xi xj .

i<j

Si A es diagonal, entonces q(X) = a11 x21 + +ann x2n y como mas adelante veremos,
este es siempre el caso.
Considere la expresion y las igualdades siguientes
q(u + v) q(u) q(v) = f (u + v, u + v) f (u, u) f (v, v)
= f (u, u) + f (u, v) + f (v, u) + f (v, v) f (u, u) f (v, v)
= 2f (u, v)
Si el campo K es tal que 1+1 6= 0 podremos dividir entre 2 y tendremos la siguiente
expresion que permite obtener f a partir de q:
f (u, v) =

1
[q(u + v) q(u) q(v)] .
2

2.3 EJEMPLO. Sea X = (x, y) y q(x, y) = 9x2 8xy 3y 2 una forma


cuadratica. La matriz simetrica asociada a q posee elementos diagonales iguales
a los coeficientes de los terminos cuadrados y elementos aij , i 6= j, iguales a la
mitad de los coeficientes de los terminos no cuadrados. Luego

9 4
4 3
es la matriz simetrica asociada a q.
Ahora encontremos la forma bilineal simetrica asociada a q: Consideremos vectores X1 = (x1 , y1 ) y X2 = (x2 , y2 ); luego
1
[q(X1 + X2 ) q(X1 ) q(X2 )]
2
1
9(x1 + x2 )2 8(x1 + x2 )(y1 + y2 ) 3(y1 + y2 )2 9x21 + 8x1 y1
=
2

+3y12 9x22 + 8x2 y2 + 3y22


1
= [2 9x1 x2 8x2 y1 8x1 y2 2 3y1 y2 ]
2
= 9x1 x2 4x2 y1 4x1 y2 3y1 y2 .

f (X1 , X2 ) =

2 Formas bilineales simetricas, ...

99

Observe que los coeficientes de f son los elementos de la matriz simetrica asociada
a q.

2.4 TEOREMA. Sea f una forma bilineal sim


etrica f : V V K tal que
1+1 6= 0 en K (i.e. tal que K sea de caracterstica diferente de 2). Entonces
existe una base de V tal que f posee una matriz asociada diagonal.
Demostraci
on. La afirmacion es obvia si dim V = 1 o si f = 0. Supongamos
que n = dim V > 1 y que f 6= 0. Si f (v, v) = 0 para toda v V , utilizando la
formula que permite obtener f a partir de q (la anterior al ejemplo 2.3), f = 0.
Por lo tanto podemos suponer que existe un elemento v1 V tal que f (v1 , v1 ) 6= 0
pues estamos considerando el caso en que f 6= 0. Sea V1 = hv1 i y U el subespacio
generado por los elementos v V tales que f (v1 , v) = 0. Veremos que V = V1 U
y as, f restringida a U es una forma bilineal simetrica en U . As tendramos
que dim U = n 1 y por lo tanto existira una base {v2 , . . . , vn } de U tal que
f (vi , vj ) = 0 para i 6= j y 2 i, j n. Pero por la definicion de U , f (v1 , vj ) = 0
para j = 2, . . . , n. Luego {v1 , . . . , vn } es la base requerida tal que f (vi , vj ) = 0,
i 6= j y f posee una matriz asociada diagonal (vease la definicion de matriz asociada
a una forma bilineal f anterior al ejemplo 1.9).
Nos resta probar que V = V1 U : veamos que V1 U = {0}. Sea w V1 U .
Como w V1 , w = v1 para K. Como w U , 0 = f (w, w) = f (v1 , v1 ) =
2 f (v1 , v1 ). Pero f (v1 , v1 ) 6= 0, luego = 0 y por lo tanto w = v1 = 0 y
f (v1 , v)
V1 U = {0}. Ahora, veamos que V = V1 + U . Sea v V y sea u = v
v1 .
f (v1 , v1 )
Entonces
f (v1 , v)
f (v1 , u) = f (v1 , v)
f (v1 , v1 ) = 0.
f (v1 , v1 )
Luego u U y, por lo anterior, v = u +
elemento de V1 y de un elemento de U .

f (v1 , v)
v1 y as, v es la suma de un
f (v1 , v1 )

Diremos que una matriz simetrica B es congruente a una matriz simetrica A si


existe una matriz no singular o invertible N tal que B = t N AN .
En terminos de congruencia de matrices podemos interpretar el teorema anterior
como sigue: si A es una matriz simetrica (con elementos en un campo de caracterstica diferente de 2) entonces A es congruente con una matriz diagonal, i.e.,
existe una matriz no singular o invertible N tal que t N AN es diagonal.
Observe que 1.11 lo podemos formular para el caso de formas bilineales simetricas

100

Captulo III Formas y operadores

como sigue: las matrices asociadas a una misma forma bilineal simetrica son congruentes entre s. Notese que si A es simetrica entonces t N AN es simetrica.
Tambien observe que, por el teorema 2.4, cuando la caracterstica de K es
diferente de 2, siempre podemos encontrar una matriz diagonal tal que la forma
cuadratica posea una representacion de la forma
q(X) = a11 x21 + + ann x2n .

2.5 DEFINICION. Sea f : V V K una forma bilineal. Diremos que f es


antisimetrica si f (u, v) = f (v, u) para toda u, v V .
Es claro que si V es de dimension finita, f es antisimetrica si, y solo si, su matriz
asociada A es tal que A = t A, es decir si, y solo si, A es antisim
etrica.
Observe que si el campo K es tal que 1 + 1 6= 0 (i.e. es de caracterstica diferente
de dos) y f antisimetrica entonces f (v, v) = f (v, v) lo cual implica que f (v, v) = 0.

2.6 PROPOSICION. Si f : V V K es una forma bilineal, entonces


f es la suma de una forma bilineal sim
etrica y de una forma bilineal anti-

simetrica.
1
1
Demostraci
on. Sea s(u, v) = (f (u, v) + f (v, u)) y a(u, v) = (f (u, v)
2
2
1
1
f (v, u)). Luego s(u, v) = (f (u, v) + f (v, u)) = (f (v, u) + f (u, v)) = s(v, u)
2
2
1
1
y a(u, v) = (f (u, v) f (v, u)) = (f (v, u) f (u, v)) = a(v, u). As, s es
2
2
simetrica y a es antisimetrica. Luego f = s + a.

2.7 DEFINICION. Una forma bilineal f se llama alternante si f (v, v) = 0


para toda v V .
Ahora, consideremos formas bilineales f : V V K donde K = IR.
2.8 TEOREMA. Sea f : V V IR una forma bilineal sim
etrica. Entonces V posee una base tal que la matriz asociada a f es diagonal y
cualquier otra matriz diagonal asociada a f posee el mismo n
umero de

elementos positivos y el mismo n


umero de elementos negativos.
Demostraci
on. Por el teorema anterior existe una base {vi }ni=1 tal que f posee
una matriz asociada diagonal. Sea {vi0 }ni=1 otra base tal que la matriz asociada a

101

2 Formas bilineales simetricas, ...

f es diagonal. Sean n+ y n0+ los n


umeros de elementos positivos, y n y n0 los
n
umeros de elementos negativos de las matrices asociadas a f con respecto a las
bases {vi } y {vi0 }.
Sabemos que rg(f ) = n+ +n = n0+ +n0 . Veamos que n+ = n0+ : sea V+ el subespacio generado por {v1 , . . . , vn+ } y V0 el subespacio generado por {vn0 0 +1 , . . . , vn0 }.
+

Luego f (v, v) > 0 si 0 6= v V+ y f (v, v) 0 si 0 6= v V0 . As que V+ V0 = {0}


y dim V+ = n+ y dim V0 = n n0+ . Entonces dim (V+ + V0 ) = dim V+ + dim V0
dim (V+ V0 ) = n+ +(nn0+ )0 = n+ n0+ +n. Pero dim (V+ +V0 ) dim V = n.
Luego n+ n0+ + n n, i.e., n+ n0+ . Analogamente n0+ n+ y por lo tanto
tendremos n+ = n0+ . Es claro que esto es suficiente para probar el teorema pues
podramos comenzar la demostracion con los elementos negativos.
El teorema anterior se llama ley de la inercia de Sylvester.
Consideremos el caso en que K = C
I . Diremos que una forma f : V V C
I
es hermitiana si
(i) f (v1 + v2 , v) = f (v1 , v) + f (v2 , v) y
(ii) f (u, v) = f (v, u) para v1 , v2 , v V ; , C
I.
A veces se les llama formas bilineales hermitianas, a pesar de que no son
bilineales, pues el escalar de la segunda variable sale conjugado (problema 2.4).
Definimos q: V IR dado por q(v) = f (v, v) como la forma cuadr
atica
hermitiana o compleja asociada a la forma bilineal hermitiana f . f se obtiene a

1
i
(q(u + v) q(u v)) + (q(u + iv)
4
4
q(u iv)) y tambien se tiene un resultado analogo a 2.8 para formas bilineales
hermitianas.
partir de q mediante la formula f (u, v) =

PROBLEMAS
2.1 Considere las formas cuadratricas siguientes y encuentre su matriz asociada,
as como la forma bilineal correspondiente:
(i) q(x, y) = 18x2 4xy 9y 2
(ii) q(x, y) = x2 xy
(iii) q(x, y, z) = x2 + 4yz xz

102

Captulo III Formas y operadores

2.2 Para cada matriz A asociada a las formas del problema 2.1 que sea simetrica
encuentre una matriz no singular N tal que t N AN sea diagonal.
2.3 En los terminos del teorema 2.8 se define el signo de una forma bilineal
f : V V IR como sgf = n+ n . Se dice que f esta definida positivamente
si f (v, v) > 0 v 6= 0 y que esta semidefinida no negativamente si f (v, v) 0
v V .
(i) Pruebe que f esta definida positivamente si, y solo si, dim V = sg(f ).
(ii) Pruebe que f esta semidefinida no negativamente si, y solo si, sg(f ) = rg(f )
y
(iii) analice las formas de los problemas 2.1 y 1.1 y diga sus caractersticas.
2.4 Sea f : V V C
I una forma bilineal hermitiana.
f (v, v1 + v2 ) = f (v, v1 ) + f (v, v2 ).

Pruebe que

2.5 Sea A = (aij ) la matriz cuadrada donde aij denota al conjugado complejo
de aij . Sea A = t A = t A. Una matriz se llama hermitiana si A = A, i.e.,
si aij = aji . Pruebe que si A es hermitiana, f (X, Y ) = t XAY define una forma
hermitiana en C
I n.
2.6 Compruebe la formula que permite obtener la forma hermitiana a partir de
la forma cuadratica hermitiana asociada
f (u, v) =

1
i
(q(u + v) q(u v)) + (q(u + iv) q(u iv)).
4
4

2.7 Establezca el resultado analogo al del teorema 2.8 para formas bilineales hermitianas.
2.8 Pruebe que la congruencia de matrices simetricas es una relacion de equivalencia.
2.9 Pruebe que cualquier forma cuadratica sobre IR es de la forma q(X) = x21 +
+ x2s x2s+1 x2r donde X = (x1 , . . . , xn ). (Sugerencia: considere la matriz
p
diagonal N con elementos iguales a 1 si aii = 0 y 1/ |aii | si aii 6= 0 donde A = (aii )
es la matriz diagonal asociada a la forma cuadratica q(X) = a11 x21 + + ann x2n .
Luego A es congruente con la matriz diagonal requerida).

103

3 Producto escalar

III.3

PRODUCTO ESCALAR

3.1 DEFINICION. Sea V un espacio vectorial sobre un campo K = IR o C


I.
Si K = IR, un producto escalar en V sobre IR es una forma bilineal simetrica
definida positivamente. Si K = C
I , un producto escalar en V sobre C
I es una
forma hermitiana definida positivamente (i.e. tal que f (v, v) > 0 v 6= 0).
Es decir, si V es un espacio vectorial real o complejo, la forma bilineal
h , i: V V K tal que
(i) hv1 + v2 , vi = hv1 , vi + hv2 , vi
(ii) hu, vi = hv, ui y
(iii) hv, vi > 0 si v 6= 0
se llama producto escalar. Tambien se le acostumbra llamar producto interno.
Un espacio vectorial que posee un producto escalar se llama espacio con producto escalar. Si el producto escalar es sobre IR, al espacio vectorial se le llama
espacio euclidiano y si el campo es C
I , se le llama espacio unitario.
Observe que
hv, v1 + v2 i = hv1 + v2 , vi
= hv1 , vi + hv2 , vi
= hv1 , vi + hv2 , vi
= hv, v1 i + hv, v2 i.

3.2 EJEMPLOS. (i) Los problemas 1.1 y 2.3 nos dicen que
h , i: IRm IRm IR
es un producto escalar en V = IRm sobre IR.
(ii) h , i: C
I mC
I m C
I dado por
hX, Y i = x1 y 1 + + xm y m
donde X = (x1 , . . . , xm ) C
I m y Y = (y1 , . . . , ym ) C
I m es un producto escalar
en V = C
I m sobre C
I.

104

Captulo III Formas y operadores

(iii) h , i: Mn K Mn K K dado por

hA, Bi =

tr(t BA) si K = IR y
tr(B A) si K = C
I

son productos escalares en Mn K sobre K = IR o C


I.
A continuacion definimos la norma o longitud de un vector v de un espacio
vectorial V sobre K = IR o C
I como
||v|| =

p
hv, vi.

Observe que si hv, vi = 1 entonces ||v|| = 1 y llamaremos a v vector unitario o


normalizado.

3.3 PROPOSICION. Si v, w V entonces |hv, wi| ||v|| ||w||. (Desigualdad


de Cauchy-Schwarz).
Demostraci
on. Si w = 0 entonces 0 0 y el resultado es cierto. Si w 6= 0,
para cualquier IR, como hv, wi = hw, vi y = ,
0 ||v hv, wiw||2 = hv hv, wiw, v hv, wiwi
= hv, vi hv, wihw, vi hv, wihv, wi + hv, wihv, wi2 hw, wi
= hv, vi hv, wihv, wi hv, wihv, wi + hv, wihv, wi2 hw, wi
= ||v||2 2|hv, wi|2 + |hv, wi|2 2 ||w||2

pues |hv, wi|2 = hv, wihv, wi.

1
|hv, wi|2
2
,
. Luego
obtenemos
0

||v||

||w||2
||w||2
2
2
2
|hv, wi| ||v|| ||w|| . Tomando raz cuadrada obtenemos el resultado requerido.
Ahora, si tomamos =

3.4 PROPOSICION. (i)||v|| > 0 si v 6= 0


(ii) ||v|| = || ||v||
(iii) ||v + w|| ||v|| + ||w|| (desigualdad del tri
angulo).
Demostraci
on. (i) Por 3.1, hv, vi > 0 si v 6= 0, luego ||v|| =
v 6= 0.

p
hv, vi > 0 si

(ii) Consideremos ||v||2 = hv, vi = hv, vi = ||2 ||v||2 , luego tomemos la raz
cuadrada de ambos lados.

105

3 Producto escalar
(iii) Por 3.3
||v + w||2 = hv + w, v + wi = hv, vi + hv, wi + hv, wi + hw, wi
||v||2 + 2||v|| ||w|| + ||w||2 = (||v|| + ||w||)2 .
Luego tomese la raz cuadrada de ambos lados.

Sea V un espacio vectorial con producto escalar. Diremos que los vectores v, w
V son ortogonales si hv, wi = 0.
Si V es un espacio euclidiano, definimos el
angulo entre dos vectores no nulos
u, v V como = arccos(hu, vi/||u|| ||v||) para [0, ].
Sea U un subconjunto del espacio V y U = {v V | hu, vi = 0 u U } el
conjunto ortogonal a U .

3.5 PROPOSICION. U es un subespacio de V .


Demostraci
on. Como hu, 0i = 0, 0 U . Sean v, v 0 U , entonces
0
hu, v + v i = hu, vi + hu, v 0 i = 0 + 0 = 0. Por lo tanto v + v 0 U .

3.6 DEFINICION. Sea {vi }ni=1 un conjunto de vectores de un espacio vectorial


V sobre un campo K = IR o C
I . Diremos
n que {vi } es ortogonal si hvi , vj i = 0 para
i 6= j
i 6= j y ortonormal si hvi , vj i = ij = 01 si
si i = j .
A continuacion estableceremos un procedimiento para encontrar una base ortonormal de un espacio vectorial V de dimension finita, llamado procedimiento de
Gram-Schmidt.

3.7 TEOREMA. Sea {ui }ni=1 una base del espacio vectorial de dimensi
on
finita V sobre un campo K = IR o C
I . Entonces existe una base ortonormal
{vi }ni=1 de V tal que la matriz de transici
on es triangular.
Demostraci
on. Utilizaremos induccion sobre n = dim V . Si n = 1, conu1
, luego {v1 } es ortonormal. Supongamos que el conjunto
sideremos v1 =
||u1 ||
wn
, donde wn = un
{v1 , v2 , . . . , vn1 } es ortonormal. Veamos que si vn =
||wn ||
hun , v1 iv1 hun , v2 iv2 hun , v3 iv3 hun , vn1 ivn1 , entonces el conjunto

106

Captulo III Formas y operadores

{v1 , . . . , vn } es ortonormal. Pero un calculo directo nos muestra que hwn , v1 i =


hwn , v2 i = = hwn , vn1 i = 0. As, wn es ortogonal a cada v1 , . . . , vn1 . Luego,
el conjunto {v1 , . . . , vn } es ortonormal.
Nos resta probar que el conjunto ortonormal es linealmente independiente: considere 1 v1 + + n vn = 0 y calculemos h0, vi i:
0 = h0, vi i = h1 v1 + + n vn , vi i
= 1 hv1 , vi i + + i hvi , vi i + + n hvn , vi i = i .
Luego {vi }ni=1 es una base de V . Resumiendo, la base ortogonal se obtiene como
sigue:
u1
v1 =
||u1 ||
u2 hu2 , v1 iv1
v2 =
||u2 hu2 , v1 iv1 ||
u3 hu3 , v1 iv1 hu3 , v2 iv2
v3 =
||u3 hu3 , v1 iv1 hu3 , v2 iv2 ||
..
.
un hun , v1 iv1 hun , vn1 ivn1
vn =
||un hun , v1 iv1 hun , vn1 ivn1 ||
Claramente, la matriz de transicion de la base {ui } a {vi } es triangular.

3.8 EJEMPLO. Sean u1 = (1, 0, 0), u2 = (1, 1, 0) y u3 = (1, 1, 1) los elementos


de una base para IR3 . Utilizando el procedimiento de 3.7 obtengamos una base
ortonormal v1 , v2 , v3 para IR3 .
(1, 0, 0)
u1
= (1, 0, 0). Luego,
=
Sea v1 =
||u1 ||
1
w2 = u2 hu2 , v1 iv1
= (1, 1, 0) h(1, 1, 0), (1, 0, 0)i(1, 0, 0)
= (1, 1, 0) (1, 0, 0) = (0, 1, 0)
Consideremos v2 =

(0, 1, 0)
w2
= (0, 1, 0).
=
||w2 ||
1

Luego w3 = u3 hu3 , v1 iv1 hu3 , v2 iv2


= (1, 1, 1) h(1, 1, 1), (1, 0, 0)i(1, 0, 0) h(1, 1, 1), (0, 1, 0)i(0, 1, 0)
= (1, 1, 1) (1, 0, 0) (0, 1, 0) = (0, 0, 1).

107

3 Producto escalar
(0, 0, 1)
w3

= (0, 0, 1).
=
||w3 ||
1
3
{v1 , v2 , v3 } es una base ortonormal para IR .
Normalizando w3 obtenemos v3 =

Luego

3.9 TEOREMA. Si U es un subespacio de un espacio vectorial V de


dimensi
on finita sobre un campo K , entonces V
= U U .
Demostraci
on. Sea {u1 , . . . , us } una base de U . Extiendase a una base
{u1 , . . . , un } de V y aplique el procedimiento de Gram-Schmidt para obtener una
base ortonormal {v1 , . . . , vn } de V . Por lo tanto {v1 , . . . , vs } es una base ortonormal de U y {vs+1 , . . . , vn } U . Veamos que V = U + U : si v V entonces
v = 1 v1 + + n vn donde 1 v1 + + s vs U y s+1 vs+1 + + n vn U .
Luego V = U + U . Veamos que U U = {0}: si u U U entonces hu, ui = 0
y por el problema 3.7, u = 0. Luego U U = {0}.
U U entonces existe una proyeccion u
Observe que si V =
nica

(I.2.4) pU : V V tal que im pU = U y ker pU = U llamada proyecci


on
ortogonal de V en U . Por ejemplo, sea V = IR3 , U = {(0, 0, ) | IR} y U =
{(, , 0)|, IR}. Entonces IR3 = U U y pU (, , ) = im pU = (0, 0, ) es
la proyeccion ortogonal de IR3 en U .
Otro ejemplo es el siguiente: denotemos con AX = 0 al sistema de m ecuaciones
lineales homogeneo con n incognitas con coeficientes reales. El espacio solucion U
es el n
ucleo del operador lineal A. Es decir, U es el conjunto de todos los vectores
ortogonales a cada renglon de A. Luego, U es el complemento ortogonal del espacio
generado por los renglones de A. Ademas, por I.3.10, el teorema 3.9 nos dice que
dim U = n rango A.

PROBLEMAS

3.1 Verifique que los ejemplos de 3.2 son efectivamente productos escalares.
3.2 Sea V = C[0,1] el espacio de las funciones continuas sobre el intervalo [0,1]
y K = IR o C
I . Compruebe que h , i: C[0,1] C[0,1] K dado por hf, gi =
R1
f (x)g(x)dx, x [0, 1] es un producto escalar en V = C[0,1] sobre K.
0

108

Captulo III Formas y operadores

3.3
Compruebe utilizando los resultados de la seccion III.2 que
h , i: IR2 IR2 IR dado por hX, Y i = 2x1 y1 3x1 y2 3x2 y1 + 2x2 y2 donde
X = (x1 , x2 ) y Y = (y1 , y2 ) es un producto escalar.

3.4 Calcule la norma del vector u = (6, 7) IR2 con respecto al producto escalar
del problema 3.3.
3.5 Sea f = x2 + x + 1 y g = 3x + 2i. Calcule hf, gi, ||f || y ||g|| con respecto al
producto escalar del problema 3.2.
3.6 Encuentre una base ortonormal para el subespacio de C[0,1] generado por
{1, x, x2 } con el producto escalar definido en el problema 3.2.
3.7 Sea U un espacio vectorial sobre un campo K = IR o C
I . Pruebe que
(i) si hu, ui = 0 entonces u = 0, u U y
(ii) ||u|| = 0 si y solo si u = 0.
3.8 Sea {v1 , . . . , vs } un subconjunto ortogonal de un espacio vectorial V de dimension finita n. Pruebe que para cualquier v V ,
s
X
|hv, vi i|2
i=1

||vi ||2

||v||2

(desigualdad de Bessel).
3.9 Pruebe que, (i) si U es un subespacio de un espacio vectorial V de dimension
finita, entonces U = U ;
(ii) si V no es de dimension finita entonces U (U ) .
3.10 Sea V un espacio vectorial de dimension finita con producto escalar. Pruebe

que (U + U 0 ) = U U 0 y que (U U 0 ) = U + U 0 .
3.11 Sea {v1 , . . . , vn } una base ortonormal de un espacio vectorial V sobre un
campo K. Pruebe que si v V entonces v = hv, v1 iv1 + hv, v2 iv2 + + hv, vn ivn ,
y que si : V V es un operador lineal entonces el elemento ij de la matriz
asociada A a con respecto a la base dada es h(vj ), vi i.

109

4 Operadores adjuntos

III.4

OPERADORES ADJUNTOS

En esta seccion K denota al campo IR o C


I.
Sea V un espacio vectorial con producto escalar sobre el campo K. Sea
g: V V

tal que

v 7 gv
la funcion dada por gv (u) = hu, vi. Efectivamente, como gv (u1 + u2 ) =
hu1 + u2 , vi = hu1 , vi + hu2 , vi = gv (u1 ) + gv (u2 ), tenemos que gv V .
Entonces cada elemento v V nos proporciona un funcional gv . Veamos que si V
es de dimension finita sucede lo inverso:

4.1 TEOREMA. Sea V un espacio vectorial de dimensi


on finita sobre
el campo K con producto escalar. Sea f : V K un funcional. Entonces
existe un u
nico v V tal que f (u) = hu, vi para toda u V .
Demostraci
on. Sea {u1 , . . . , un } una base ortonormal de V . Sea v = f (u1 )u1 +
+ f (un )un un elemento de V . Definamos
gv (ui ) = hui , vi = hui , f (u1 )u1 + + f (un )un i = f (ui ).
Luego gv = f pues coinciden en los elementos de la base. Veamos que v es u
nico:
supongamos que v 0 V es tal que f (u) = hu, v 0 i para toda u V . Entonces
hu, vi = hu, v 0 i, i.e. hu, vv 0 i = 0. Consideremos u = vv 0 luego hvv 0 , vv 0 i = 0.
Por lo tanto v v 0 = 0 y v = v 0 .

4.2 TEOREMA. Sea V como en 4.1 y : V V un operador lineal.


Entonces existe un operador lineal u
nico : V V tal que
h(v), ui = hv, (u)i

para toda u, v V .
Demostraci
on. Sea u V un elemento fijo de V . Consideremos la aplicacion
f : V K dada por f (v) = h(v), ui la cual es un funcional de V . Por 4.1 existe un
elemento u
nico u0 V tal que h(v), ui = hv, u0 i para toda v V . Sea : V V
tal que (u) = u0 . Entonces
h(v), ui = hv, (u)i

110

Captulo III Formas y operadores

para toda u, v V . Veamos que es lineal:


hv, (u1 + u2 )i = h(v), u1 + u2 i
= h(v), u1 i + h(v), u2 i
= hv, (u1 )i + hv, (u2 )i
= hv, (u1 ) + (u2 )i
u1 , u2 , v V ; , K. Como v es arbitraria, por la unicidad de 4.1
(u1 + u2 ) = (u1 ) + (u2 ),
y por lo tanto es lineal. Dejamos probar la unicidad de al lector (problema
4.1).
Si la base de V es ortonormal se tiene la siguiente
4.3 PROPOSICION. Si A = (aij ) es la matriz asociada a con respecto
a una base ortonormal {u1 , . . . , un } de V entonces la matriz asociada a
es A .
Demostraci
on. Por el problema 3.11 los elementos ij de las matrices aso
ciadas a y son h(uj ), ui i y h (uj ), ui i respectivamente. Pero h (uj ), ui i
hui , (uj )i = h(ui ), uj i = aji . Luego A es la matriz asociada a .

4.4 DEFINICION. Sea V un espacio con producto escalar. Un operador


: V V posee un operador adjunto en V si
h(v), ui = hv, (u)i.
Observe que si V es un espacio vectorial de dimension finita, por 4.2 siempre
existe un operador adjunto.

4.5 EJEMPLO. Sea : C


I 3 C
I 3 dado por
(x, y, z) = (2x + 3iy + 4z, 8x + 9iy + 10z, 6x + 7iy + 8z).
La matriz A asociada a con respecto a

2
A= 8
6

la base canonica es
!
3i 4
9i 10
7i 8

111

4 Operadores adjuntos
Entonces la matriz asociada a es

A =

2
3i
4

8
9i
10

6
7i
8

Luego (x, y, z) = (2x + 8y + 6z, 3ix 9iy 7iz, 4x + 10y + 8z).

4.6 PROPOSICION. Sean , : V V operadores lineales de un espacio


vectorial de dimensi
on finita sobre K . Entonces
(i) ( + ) = +
(ii) () =
(iii) () =
(iv) ( ) =
(v) I = I
(vi) Si es invertible entonces (1 ) = ( )1 .
Demostraci
on. Tomando en cuenta la proposicion 4.3, la demostracion puede
hacerse utilizando las propiedades de las matrices, pero tambien se puede hacer
directamente como sigue:
(i) Considere las igualdades siguientes:
h( + )(v), ui = h(v) + (v), ui
= h(v), ui + h(v), ui
= hv, (u)i + hv, (u)i
= hv, (u) + (v)i
= hv, ( + )(u)i;

u, v V.

Por la unicidad de 4.2, ( + ) = + .


(ii) h()(v), ui = h((v)), ui = h(v), (u)i = hv, ( (u))i = hv, ( )(u)i;
u, v V . Por la unicidad de 4.2, () = .
(iii) h()(v), ui = h(v), ui = h(v), ui = hv, (u)i = hv, (u)i
= hv, ( )(u)i; u, v V ; K. Por la unicidad de 4.2, () = .
(iv) h (v), ui = hu, (v)i = h(u), vi = hv, (u)i; u, v V . Por 4.2, ( ) = .
(v) Lo dejamos como ejercicio al lector.
(vi) Como I = I por (v), I = (1 ) = (1 ) . As que (1 ) = ( )1 .

112

Captulo III Formas y operadores

Considere el conjunto AV = HomK (V, V ) de todos los operadores lineales


: V V donde V es un espacio vectorial de dimension finita con producto
escalar. Sabemos que AV posee una estructura de espacio vectorial. Considere el
operador : AV AV dado por () = .
A continuacion estudiaremos el caso especfico en que () = es 1 .
4.7 DEFINICION. Sean V y V 0 espacios vectoriales con producto escalar
h , iV y h , iV 0 respectivamente. Un isomorfismo entre espacios vectoriales con
producto escalar es un isomorfismo f : V V 0 que preserva productos escalares,
es decir, hf (v), f (u)iV 0 = hv, uiV para toda v, u V .
4.8 DEFINICION. Un operador unitario (ortogonal) : V V definido
en un espacio vectorial V con producto escalar sobre K = C
I (K = IR) es un
isomorfismo : V V de espacios vectoriales con producto escalar.
Por el problema 4.4, : V V es unitario (ortogonal) si K = C
I (K = IR)

1
y = . Observe que, por 4.3, si K = C
I , la matriz asociada a un operador
unitario es A (llamada matriz unitaria) si, y solo si A = A1 , i.e. AA =
I = A A. Tambien, si K = IR, la matriz asociada a un operador ortogonal
es A (llamada matriz ortogonal) si, y solo si t A = A1 (pues A = t A), i.e.
A(t A) = I = t AA.
Si A es una matriz ortogonal, A(t A) = I y como |A| = |t A|, |At A| = |I| = 1.
Pero |At A| = |A||t A| = |A|2 . Luego |A| = 1.
Observe que el conjunto de la matrices ortogonales de n n cumplen las propiedades (ii), (iii) y (iv) de I.1.1, es decir, forman un grupo que llamaremos grupo
ortogonal denotado con O(n). El conjunto de matrices ortogonales que poseen
determinante 1 lo denotaremos con SO(n) y lo llamaremos grupo ortogonal especial.
4.9 DEFINICION. Diremos que un operador : V V es normal si conmuta
con su adjunto, es decir, si = . Diremos que una matriz compleja A es
normal si conmuta con su conjugada traspuesta, es decir, si AA = A A.
Observe que los operadores ortogonales y unitarios son normales.

4 Operadores adjuntos

113

PROBLEMAS
4.1 Compruebe la unicidad de del teorema 4.2.
4.2 Pruebe que, si : V V es un operador de V y U un subespacio invariante
bajo entonces U es un subespacio invariante bajo .
4.3 Sea un valor caracterstico de un operador : V V donde V es un espacio
vectorial complejo. Pruebe que
(i) si = entonces IR.
(ii) si = 1 entonces || = 1.
4.4 Pruebe que las siguientes afirmaciones son equivalentes:
(i) = 1
(ii) h(v), (u)i = hv, ui para toda v, u V
(iii) ||(u)|| = ||u|| para toda u V .
Un operador que cumple la afirmacion (ii) se dice que preserva productos
escalares y si cumple (iii) se dice que preserva longitudes.
4.5 Pruebe que si A es una matriz ortogonal de 2 2 con |A| = 1 entonces A es
de la forma

cos t sen t
para alguna t IR.
sen t cos t
4.6 Pruebe que si A es una matriz ortogonal (o unitaria) entonces los renglones y
las columnas forman conjuntos ortonormales y viceversa.

114

III.5

Captulo III Formas y operadores

EL TEOREMA ESPECTRAL

Considere el operador : AV AV dado por () = de la seccion anterior,


donde V es un espacio vectorial de dimension finita con producto escalar sobre
K = IR o C
I.

5.1 DEFINICION. Diremos que un operador : V V es autoadjunto


si () = = . Si K = IR lo llamaremos tambien sim
etrico; si K = C
I lo
llamaremos hermitiano.
Veamos algunas propiedades de los operadores simetricos:

5.2 PROPOSICION. Sea : V V un operador sim


etrico. Entonces el
polinomio caracterstico p () de se factoriza en factores lineales sobre IR
y los vectores caractersticos de que corresponden a valores caractersticos

distintos son ortogonales.


Demostraci
on. Sea A la matriz asociada a con respecto a una base ortonormal de V . Entonces t A = A. Sea pA () el polinomio caracterstico de A. Por el
problema 4.3(i) el operador autoadjunto considerado como operador autoadjunto
complejo posee u
nicamente valores caractersticos reales. Entonces
pA () = ( 1 )( 2 ) ( n )
donde i IR.
Si (u) = u y (v) = 0 v con 6= 0 entonces hu, vi = hu, vi = h(u), vi =
hu, (v)i = hu, 0 vi = 0 hu, vi. Luego ( 0 )hu, vi = 0. Como 6= 0 , hu, vi = 0.

5.3 TEOREMA. Sea : V V un operador sim


etrico (V es un espacio
vectorial sobre IR). Entonces posee una matriz asociada diagonal.
Demostraci
on. Utilizaremos induccion sobre la dimension de V .
Si
dim V = 1 entonces el teorema se cumple. Sea dim V = n con n > 1. Por
5.2 existe al menos un vector caracterstico v1 diferente de cero de . Sea U el
v1
. Como v1 es un vector caracterstico
subespacio generado por v1 y sea w1 =
||v1 ||
el subespacio U es invariante bajo . Por el problema 4.2 U es invariante bajo

115

5 El teorema espectral

= . As, |U es un operador simetrico. Por 3.9, V


= U U . Como dim U = 1,

dim U = n 1. Por induccion, existe una base ortonormal {w2 , . . . , wn } de U


que consta de vectores caractersticos de |U y por lo tanto de . Como wi U ,
hw1 , wi i = 0 para i = 2, . . . , n y por lo tanto {wi }ni=1 es un conjunto ortonormal de
vectores caractersticos de y por II.1.12 posee una matriz asociada diagonal.

5.4 COROLARIO. Sea A una matriz sim


etrica real. Entonces existe una
matriz ortogonal N tal que la matriz B = N 1 AN = t N AN es diagonal.
Observe que por el problema 5.1 y el teorema anterior tenemos que un espacio
vectorial sobre IR posee una base ortonormal que consiste de vectores caractersticos
de si, y solo si, es autoadjunto.
A continuacion veamos un resultado semejante al teorema 5.3 para operadores
normales en espacios complejos.
5.5 TEOREMA. Sea : V V un operador normal donde V es un espacio vectorial complejo con producto escalar. Entonces posee una matriz
asociada diagonal.
Demostraci
on. Utilizaremos el proceso de induccion sobre la dimension de V .
Si dim V = 1 el teorema es valido. Supongamos que dim V = n para n > 1.
Como el campo es C
I , posee al menos un valor caracterstico y por ende un vector
caracterstico w 6= 0. Sea U el subespacio generado por w y sea v1 un vector
unitario de U . Como w es un vector caracterstico de , U es invariante bajo . Por
el problema 5.4(i), w es tambien un vector caracterstico de y por lo tanto, U
es invariante bajo . Por el problema 4.2, U es invariante bajo = . Ahora,
contin
ue la demostracion en forma analoga a 5.3.

5.6 COROLARIO. Sea A una matriz normal. Entonces existe una matriz unitaria N tal que la matriz B = N 1 AN = N AN es diagonal.

7 2 . Encon2 4
tremos una matriz ortogonal N tal que B = t N AN sea diagonal. El polinomio
caracterstico pA () de A es
5.7 EJEMPLO. Consideremos la matriz simetrica A =

2 = ( 3)( 8).
pA () = |I A| = 7
2
4

116

Captulo III Formas y operadores

Entonces = 3 y = 8 son los valores caractersticos. Para = 3, obtenemos



x
x
7 2
y =3 y
2 4
lo que nos da el sistema de ecuaciones
4x 2y = 0

)
.

2x y = 0

El vector (2, 4) es una solucion del sistema y por lo tanto es un vector caracterstico correspondiente al valor caracterstico = 3. Para = 8, obtenemos


x
x
7 2
=
8
y
y
2 4
lo que nos da el sistema de ecuaciones
x + 2y = 0
2x + 4y = 0

)
.

El vector (4, 2) es una solucion del sistema y por lo tanto es un vector caracterstico
correspondiente al valor caracterstico = 8.
Por la proposicion 5.2 sabemos que dichos vectores caractersticos son ortogonales. Normalizamos los vectores caractersticos y obtenemos una base ortonormal
n

2/ 20, 4/ 20 , 4/ 20, 2/ 20 .
Definamos N como la matriz

2/20
4/ 20

!
4/ 20
.
2/ 20

Luego t N AN = 30 08 = B. Observe que la diagonal de B consiste de los valores


caractersticos correspondientes a los vectores caractersticos.
A continuacion estableceremos el teorema espectral.
5.8 TEOREMA. Sea : V V un operador sim
etrico (normal) donde
V es un espacio vectorial de dimensi
on finita con producto escalar sobre
K = IR (K = C
I ). Entonces existen proyecciones ortogonales pVi de V en
Vi tales que

117

5 El teorema espectral
(i) = 1 pV1 + 2 pV2 + + s pVs
(ii) pV1 + + pVs = I
(iii) pVi pVj = 0 si j 6= i.

Demostraci
on. (i) Como es simetrico (normal), por 5.3 (5.5) existe una base
ortonormal que consiste de vectores caractersticos asociados a valores caractersticos 1 , . . . , s de . Luego V
= V1 Vs . Sea v = v1 + + vs donde
vi Vi . Entonces (v) = (v1 ) + + (vs ) = 1 v1 + + s vs . DenoteP
mos con W = V1 Vc
i Vs . Sea u Vi , w =
j6=i wj donde
P
P
wj Vj . Entonces hu, wi = hu, j6=i wj i = j6=i hu, wj i. Por el problema 5.4,
esta u
ltima igualdad es 0 y por lo tanto W = Vi . As, por definicion, el operador
pVi : V V dado por pVi (v) = vi es la proyeccion ortogonal sobre Vi . Luego
(v) = 1 pV1 (v) + + s pVs (v) y = 1 pV1 + + s pVs .
(ii) Sea v = v1 + +vs . Por (i), v = pV1 (v)+ +pVs (v) = (pV1 + +pVs )(v).
Luego I = pV1 + + pVs .
(iii) (pVi pVj )(v) = pVi (pVj (v)) = pVi (vj ) con vj Vi . Pero pVi (vj ) = 0
pues pVi es la proyeccion ortogonal. Luego pVi pVj = 0.
La descomposicion de del teorema anterior se llama descomposici
on o resoluci
on espectral de .

5.9 EJEMPLO. Considere el operador : IR3 IR3 dado por (x, y, z) =


(4x + 5y, 5x + 4y, 3z). Su matriz asociada es
!

4 5 0
A= 5 4 0
0 0 3
la cual es simetrica (y por ende lo es) y posee una descomposicion espectral en
proyecciones ortogonales. Veamos como se obtienen. Los valores caractersticos se
obtienen de

4
5
0

5
4
0 = ( 4)2 ( 3) 25( 3)
0
0
3

= ( 4)2 25 ( 3)
= ( 9)( + 1)( 3).
Sean 1 = 9, 2 = 1 y 3 = 3 los valores caractersticos. Ahora encontremos los
espacios caractersticos generados por los vectores caractersticos asociados a 1 , 2
y 3 :

118

Captulo III Formas y operadores

(i) Para 1 = 9, 1 I A =

5
5
0

5
5
0

5 0
5 0 , luego
0 6
! ! !
5 0
x
0
5 0
y = 0
0 6
z
0

5x 5y = 0

5x + 5y = 0
cuya solucion es

6z = 0

y obtenemos el sistema de ecuaciones


x = y = a y z = 0.

!
5 0
(ii) Para 2 = 1, 2 I A =
5 0 , luego
0 4
! ! !

0
x
5 5 0
y = 0
5 5 0
0
z
0
0 4

5x 5y = 0

y obtenemos el sistema de ecuaciones 5x 5y = 0


cuya solucion es x = c,

4z = 0
y = c y z = 0.
5
5
0

(iii) Analogamente, para 3 = 3 obtenemos x = y = 0 y z = b. As, los espacios


caractersticos son
V1 = {(a, a, 0)|a IR},

dim V1 = 1

V2 = {(c, c, 0)|c IR},


V3 = {(0, 0, b)|b IR},

dim V2 = 1 y
dim V3 = 1.

Luego IR3
= V1 V2 V3 . Si (x, y, z) IR3 entonces
(x, y, z) = (a, a, 0) + (c, c, 0) + (0, 0, b)
= (a + c, a c, b).
Como x = a + c, y = a c y z = b,
x + y = 2a
de donde a =

x + y = 2c

x + y
xy
x+y
,c=
=
. Las proyecciones ortogonales son
2
2
2

x+y x+y
,
,0
pV1 =
2
2

xy yx
,
,0
pV2 =
2
2
pV3 = (0, 0, z)

5 El teorema espectral

119

y podemos expresar como

(x, y, z) = 9

xy yx
x+y x+y
,
,0
,
, 0 + 3(0, 0, z).
2
2
2
2

Es facil comprobar que (x, y, z) = (4x + 5y, 5x + 4y, 3z).

PROBLEMAS
5.1 Pruebe que si V es un espacio vectorial sobre IR de dimension finita con
producto escalar y : V V es un operador lineal para el cual existe una base
ortonormal que consiste de vectores caractersticos de entonces es simetrico, i.e.
es autoadjunto sobre IR.
5.2 (i) Proporcione una demostracion del corolario 5.4.
(ii) Pruebe que si A es una matriz hermitiana entonces existe una matriz unitaria
N tal que N AN es diagonal.
5.3 Pruebe que si es un operador normal entonces
(i) I es normal
(ii) (v) = 0 si, y solo si, (v) = 0
5.4 Sea un operador normal. Pruebe que
(i) si (v) = v entonces (v) = v
(ii) si (v) = v y (v 0 ) = 0 v 0 y 6= 0 entonces hv, v 0 i = 0.
5.5 Escriba con detalle el final de la demostracion de 5.5.
5.6 (i) Pruebe que si p es una proyeccion entonces p2 = p.
(ii) Veifique y pruebe en caso de ser valida la doble implicacion del siguiente
enunciado: Un operador : V V es normal si, y solo si es autoadjunto.
5.7 Pruebe que si es un operador normal y f un polinomio sobre C
I , entonces
f () es un operador normal.

9 2 una matriz simetrica. Encuentre una matriz ortogonal


2 6
N tal que B = t N AN sea diagonal.
5.8 Sea A =

120

Captulo III Formas y operadores

5.9 Encuentre la descomposicion espectral de : IR3 IR3 dado por (x, y, z) =


(5x 2y, 2x + 2y, 4z).

Captulo IV
ALGEBRA MULTILINEAL Y
K-TEORIA ALGEBRAICA CLASICA

IV.1

PRODUCTO TENSORIAL

A continuacion definiremos un espacio vectorial en el cual solamente se tienen relaciones bilineales.

1.1 DEFINICION. Sean U y V espacios vectoriales de dimension finita sobre


un campo K. El producto tensorial de U y V , es la pareja (T, f ) donde T es un
espacio vectorial de dimension finita y f : U V T es una funcion bilineal, tal
que si W es un espacio vectorial de dimension finita y g: U V W es bilineal,
entonces existe una funcion lineal u
nica h: T W tal que g = h f .
La condicion g = h f se puede representar mediante el diagrama
U V

g&

yh
W

Veamos a continuacion que, si existe, el producto tensorial de dos espacios vecto-

122

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

riales de dimension finita es u


nico. Es decir, dados dos productos tensoriales (T, f )
y (T 0 , f 0 ) de U y V existe un isomorfismo entre T y T 0 . Esto es inmediato, pues, por
ser T un producto tensorial, existe h: T T 0 tal que f 0 = h f . Analogamente,
como T 0 es un producto tensorial, existe h0 : T 0 T tal que f = h0 f 0 . Consideremos los siguientes diagramas
f

U V

f0

yh

T 0

yh0
f&

f0

1T

U V

&

T0

yh0
T

yh

1T 0

T
T0
Por ser T un producto tensorial, y como 1T : T T es tal que 1T f = f y tambien
h0 h f = f , por la unicidad tenemos que h0 h = 1T . De manera semejante,
por ser T 0 un producto tensorial, y como 1T 0 : T 0 T 0 es tal que 1T 0 f 0 = f 0 y
tambien h h0 f 0 = f 0 , se tiene, por unicidad, que h h0 = 1T 0 . Por lo tanto, h es
un isomorfismo.
Entonces podemos hablar de el producto tensorial T de U y V , denotado con
T = U K V o simplemente U V .
En otras palabras, 1.1 nos dice que cualquier funcion bilineal g: U V W
puede expresarse en terminos de f : U V T = U K V como g(u, v) = h(f (u, v))
para una funcion lineal u
nica h: U K V W .
Ahora veamos que, dados dos espacios vectoriales de dimension finita sobre un
campo K, siempre existe su producto tensorial.
1.2 PROPOSICION. Sean U y V espacios vectoriales de dimensi
on finita
sobre un campo K . Entonces existe un espacio vectorial T de dimensi
on
finita sobre K que cumple la definici
on 1.1.
Demostraci
on. Sea {u1 , . . . , um } una base de U y {v1 , . . . , vn } una base de V .
mn
Sea T = K
el espacio vectorial de dimension mn sobre K y {eij } con 1 i m
y 1 j n la base canonica. Los elementos de T se pueden expresar en forma
u
nica como
m X
n
X
ij eij con ij K.
i=1 j=1

Sea f : U V T la funcion dada por


f (u, v) = f (1 u1 + + m um , 1 v1 + + n vn ) =

m X
n
X
i=1 j=1

i j eij .

123

1 Producto tensorial
En particular, f (ui , vj ) = eij .

Veamos que se cumple 1.1. Comprobemos que f es bilineal: sea u0 = 10 u1 +


0
+ m
um .
m X
n
X
f (u + u0 , v) =
(i + i0 )j eij
i=1 j=1

=
=

m X
n
X
i=1 j=1
m X
n
X

(i j + i0 j )eij
(i j eij + i0 j eij )

i=1 j=1

n
m X
X

i j eij +

i=1 j=1

n
m X
X

i0 j eij

i=1 j=1

= f (u, v) + f (u0 , v)
Analogamente se tiene que f (u, v + v 0 ) = f (u, v) + f (u, v 0 ) y que f (u, v) =
f (u, v) = f (u, v).
Finalmente, sea g: U V W una funcion bilineal. Por la proposicion I.5.2
existe
on lineal
u
nica h: T W tal que h(eij ) = g(ui , vj ). As, g(u, v) =
P una funci
Pn
Pm Pn
m
g
=
=
i=1 i ui ,
j=1 j vj
i=1
j=1 i j g(ui , vj )

P
m Pn
h
i=1
j=1 i j eij = h(f (u, v)).
La funcion bilineal f se llama funci
on bilineal universal (cualquier otra funcion
bilineal g: U V W se obtiene de f ). Decimos que debido a la propiedad universal, el espacio vectorial U K V esta determinado en forma u
nica salvo isomorfismo.
Es decir, que si en la construccion del espacio vectorial U K V hubieramos tomado
bases diferentes para U y V obtendramos un espacio vectorial isomorfo a U K V .
A
un mas, podramos haber construido el producto tensorial U K V sin utilizar
bases de U y V tal que 1.1 se cumpla, vease [LL1, p.60].
Para cada u U y v V , el elemento f (u, v) lo escribiremos en la forma u v.
Es facil comprobar (problema 1.9) que f (U V ) genera el producto tensorial T ,
el cual denotamos U K V . De manera que cada elemento de U K V se puede
Pr
escribir en la forma i=1 i (ui vi ) con i K, ui U , vi V . Esta expresion
no es u
nica pues de la bilinealidad de f se tiene que
(1 u1 + 2 u2 ) v = 1 (u1 v) + 2 (u2 v)
u (1 v1 + 2 v2 ) = 1 (u v1 ) + 2 (u v2 ),
donde 1 , 2 , 1 , 2 , K; u1 , u2 , u U y v1 , v2 , v V .

124

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

Como caso particular se tiene que


(u) v = (u v) = u (v).
Si = 1 se tiene que (u) v = (u v) = u (v) y si = 0 se tiene que
0 v = 0 = u 0.
Por lo tanto, cualquier elemento de U K V puede escribirse en la forma
r
X

(ui vi )

i=1

donde ui U , vi V .
A continuacion estableceremos algunas propiedades del producto tensorial.
1.3 PROPOSICION. Sea V un espacio vectorial de dimensi
on finita n
sobre un campo K . Entonces
V K K
=V
= K K V.
Demostraci
on. Sea g: V K V la funcion bilineal dada por g(v, ) = v,
K, v V .
Entonces por 1.1 existe una funcion lineal u
nica
h: V K K V tal que h f = g, es decir, el siguiente diagrama conmuta:
V K

V K K

yh
g&
V

La funcion bilineal g es suprayectiva pues g(v, 1) = 1 v = v. Como h f = g


entonces h es suprayectiva.
Veamos que h es inyectiva: sea x V K K. Sea {vi }ni=1 una base de V , x es
Pn
Pn
de la forma i=1 (vi i ) para vi V , i K y tal que x = i=1 (vi i ) =
Pn
Pn
i=1 (i vi 1) = (
i=1 i vi ) 1 = v 1. Luego h(x) = h(v 1) = h(f (v, 1)) =
g(v, 1) = 1 v = v. Si h(v 1) = 0 entonces v = 0 y por lo tanto x = v 1 = 0.
As, h es inyectivo. Dejamos al lector probar que V
= K K V (Problema 1.1).

1.4 DEFINICION. Sean V1 , V2 , . . . , Vm , W una coleccion de espacios vectoriales sobre un campo K. Diremos que una funcion
f : V1 V2 Vm W

125

1 Producto tensorial
es multilineal si para cada i = 1, . . . , m
f (v1 , . . . , vi + vi0 , . . . , vm ) = f (v1 , . . . , vi , . . . , vm ) + f (v1 , . . . , vi0 , . . . , vm )

f (v1 , . . . , vi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm )
donde K, vi , vi0 Vi .
Es decir, f es lineal en cada variable cuando las otras se mantienen fijas. Tambien llamaremos forma multilineal a una funcion multilineal con codominio K.
Podemos enunciar la definicion equivalente a 1.1 para productos multitensoriales.

1.5 DEFINICION. Sean {Vi }m


i=1 espacios vectoriales sobre un campo K. El
producto tensorial de {Vi } es una pareja (T, f ) donde T es un espacio vectorial
sobre K y f es una funcion multilineal f : V1 Vm T tal que si W es
un espacio vectorial sobre un campo K y g: V1 Vm W es multilineal,
entonces existe una funcion lineal u
nica h: T W tal que g = h f , es decir, tal
que el siguiente diagrama conmuta:
V1 Vm

g&

yh
W

Denotaremos a T con V1 Vm o con m


acil comprobar la unicidad
i=1 Vi y es f
y existencia de T .

1.6 PROPOSICION. Sean U, V, W espacios vectoriales sobre un campo


K . Entonces (U V ) W
= U (V W )
= U V W.
Demostraci
on. Consideremos la funcion bilineal g 00 : U V U V W
dada por g 00 (u, v) = u v w para w W fija, la cual induce una funcion lineal
hw : U V U V W tal que hw (u v) = u v w. Sea g: (U V ) W
U V W dada por g(t, w) = hw (t). g es bilineal y por lo tanto induce una funcion
lineal h: (U V ) W U V W tal que h((u v) w) = u v w.
Construyamos ahora una funcion h0 : U V W (U V ) W tal que
h h = 1(U V )W y h h0 = 1U V W . Para construir h0 considere la funcion
g 0 : U V W (U V ) W dada por g 0 (u, v, w) = (u v) w. g 0 es lineal en
cada variable, luego induce una funcion lineal h0 : U V W (U V ) W tal
que h(u v w) = (u v) w. Es inmediato comprobar que h0 h = 1(U V )W
0

126

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

y que h h0 = 1U V W y, por lo tanto, h y h0 son isomorfismos. La demostracion


de que U (V W )
= U V W es analoga.

1.7 DEFINICION. Sean V1 , . . . , Vm espacios vectoriales de dimension finita


sobre un campo K. Diremos que la sucesion
f0

f1

fm1

f2

fm

0 V1 V2 Vm1 Vm 0
es exacta en Vi si im fi1 = ker fi . Diremos que la sucesion es exacta si es exacta
en cada Vi , para toda i = 1, . . . , m.

1.8 PROPOSICION. Sean V1 , . . . , Vm espacios vectoriales de dimensi


on
finita sobre un campo K y
f0

f1

f2

f3

fm2

fm1

fm

0 V1 V2 V3 Vm1 Vm 0

una sucesi
on exacta. Entonces
dim V1 dim V2 + dim V3 + (1)m1 dim Vm = 0.
Demostraci
on. Utilizaremos el proceso de induccion sobre m.
Para
f0
f1
m = 1 tenemos la sucesion 0 V1 0. Por exactitud, im f0 = 0 = ker f1 = V1 .
Luego V1 = 0 y dim V1 = 0. Supongamos que la proposicion es valida para
m 1. Como f2 : V2 V3 posee n
ucleo ker f2 = im f1 , induce una funcion lineal
V2 /im f1 V3 (problema II.4.8) que es inyectiva. Luego, se tiene una sucesion
exacta
0 V2 /im f1 V3 Vm1 Vm 0
y, por hipotesis de induccion dim V2 /im f1 dim V3 + = 0, es decir, por II.4.5
dim V2 dim (im f1 ) dim V3 + = 0 y por I.3.11 dim V1 = dim (im f1 ) +
dim (ker f1 ) = dim (im f1 ) + 0 = dim (im f1 ) pues im f0 = 0 = ker f1 . Luego
dim V2 dim V1 dim V3 + = 0.
1.9 COROLARIO. Si 0 V1 V2 V3 0 es una sucesi
on exacta
corta de espacios vectoriales de dimensi
on finita sobre un campo K entonces
V2
= V1 V3 .
Demostraci
on. Por 1.8, dim V1 dim V2 + dim V3 = 0. Luego dim V2 =
dim V1 + dim V3 y por lo tanto V2
= V1 V3 .

127

1 Producto tensorial

PROBLEMAS
1.1 Pruebe que K n K m = K nm y que K K V
= V para V un espacio vectorial
como en 1.3.
1.2 Proporcione con todo detalle la demostracion de 1.6
1.3 Pruebe que U V
= V U.
1.4 Pruebe que si

T U V W
es una sucesion exacta de espacios vectoriales sobre un campo K, entonces
(i) h es inyectiva si, y solo si, g es trivial (i.e. g(U ) = 0)
(ii) g es trivial si, y solo si, f es suprayectivo.
1.5 Pruebe que, en una sucesion exacta de espacios vectoriales sobre un campo K
f

S T U V W
f es suprayectiva y k es inyectiva si, y solo si, U = 0.
1.6 Pruebe que, si 0 V 0 es una sucesion exacta de espacios vectoriales
sobre un campo K, entonces V = 0.
f

1.7 Sea R S T U V W una sucesion exacta de espacios


vectoriales sobre un campo K. Pruebe que g, k son funciones lineales triviales si,
y solo si, h es isomorfismo, y que h es isomorfismo si, y solo si, f es suprayectiva y
q es inyectiva.
h

1.8 Pruebe que, si 0 U V 0 es una sucesion exacta de espacios


vectoriales sobre un campo K, entonces h es un isomorfismo.
1.9 Verifique que f (U V ) genera a U K V . (Sugerencia: defina una funcion
lineal i: U V U K V y utilice la unicidad de 1.1 para mostrar que i es
suprayectiva.)

128

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

IV.2 PRODUCTO EXTERIOR

2.1 DEFINICION. Sean V y W espacios vectoriales de dimension finita sobre


un campo K. Diremos que la funcion bilineal f : V V W es alternante si
f (v, v) = 0 para toda v V .

2.2 DEFINICION. La potencia exterior (de grado 2) de un espacio vectorial


V de dimension finita sobre un campo K, es una pareja (V V, f ) en donde V V
es un espacio vectorial sobre K y f : V V V V es una funcion bilineal
alternante, tal que para todo espacio vectorial W y toda g: V V W funcion
bilineal alternante, existe una funcion lineal u
nica h: V V W tal que g = h f ,
es decir, tal que el siguiente diagrama conmuta:
V V

V V

yh
g&
W

Analogamente al caso de suma directa y al de producto tensorial se demuestra


(problema 2.1) que, si existe, la potencia exterior es u
nica.

La existencia se demuestra facilmente utilizando los conceptos de producto tensorial y espacio vectorial cociente:
2.3 PROPOSICION. Sea V un espacio vectorial de dimensi
on finita
0
sobre K y (V V, f ) el producto tensorial. Sea U el subespacio de V V
generado por los elementos v v con v V . Sea p: V V (V V )/U la
proyecci
on can
onica. Entonces la pareja ((V V )/U, f ), con f = pf 0 es la
potencia exterior V V .
Demostraci
on. Veamos que f es bilineal alternante. En efecto, es bilineal
porque f 0 lo es y p es lineal; es alternante porque f (v, v) = pf 0 (v, v) = p(v v) =
(v v) + U = U que es el cero de (V V )/U .

129

2 Producto exterior

Demostraremos que satisface (la propiedad universal de) la definicion de potencia


exterior.
Dada
una
funcion
bilineal
alternante
arbitraria
g: V V W consideremos el diagrama
V V

f0

V V

yh0
g&

V V /U = V V
.h

(f = pf 0 )

W
Por ser V V el producto tensorial existe h0 , funcion lineal tal que g = h0 f 0 . As,
h0 (v v) = h0 f 0 (v, v) = g(v, v) = 0. Luego, h0 (v v) = h0 f 0 (v, v) = 0 para toda
v V , lo cual implica que h0 (U ) = 0. Entonces existe una funcion lineal u
nica h
tal que h0 = hp. Por lo tanto g = hpf 0 = hf .
Observe que como im f 0 genera a V V y p es suprayectiva, resulta que im f
genera a V V .

Si f : V V V V es la funcion bilineal alternante que da la potencia exterior


V V usaremos la notacion
f (u, v) = u v.

2.4 EJEMPLO. Con la notacion anterior, tambien resulta que u v = v u.


En efecto, ya que f (u+v, u+v) = 0, se tiene que f (u, u)+f (u, v)+f (v, u)+f (v, v) =
0 de donde f (u, v) = f (v, u).

2.5 EJEMPLO. Sea V un espacio vectorial de dimension 3 y (V V, f ) la


P3
P3
potencia exterior. Sea {ui }3i=1 una base de V . Si u = i=1 i ui , v = i=1 i ui
entonces
X

X
f (u, v) = f
i ui ,
j uj
= 1 1 f (u1 , u1 ) + 1 2 f (u1 , u2 ) + 1 3 f (u1 , u3 ) + 2 1 f (u2 , u1 )
+ 2 2 f (u2 , u2 )2 3 f (u2 , u3 ) + 3 1 f (u3 , u1 ) + 3 2 f (u3 , u2 )
+ 3 u3 f (u3 , u3 )
=

3 X
3
X
i=1 j=1

i j f (ui , uj ).

130

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

Por ser f alternante f (ui , ui ) = 0, f (u2 , u1 ) = f (u1 , u2 ), f (u3 , u1 ) = f (u1 , u3 )


y f (u3 , u2 ) = f (u2 , u3 ). As obtenemos
f (u, v) = (1 2 2 1 )f (u1 , u2 ) + (1 3 3 1 )f (u1 , u3 ) + (2 3 3 2 )f (u2 , u3 ),
es decir,
u v = (1 2 2 1 )u1 u2 + (1 3 3 1 )u1 u3 + (2 3 3 2 )u2 u3 .
Demostraremos a continuacion que {u1 u2 , u1 u3 , u2 u3 } es una base de
V V y, por lo tanto la dimension de la potencia exterior, en este caso, es 3.
Acabamos de demostrar que todo elemento de im f es combinacion lineal de estos
tres vectores y como la im f genera a V V , el conjunto {u1 u2 , u1 u3 , u2 u3 }
genera a V V .
Para demostrar que son linealmente independientes podemos utilizar la propiedad universal de la manera siguiente. Sea W un espacio vectorial de dimension 3 y
{t12 , t13 , t23 } una base de W . Sea g: V V W la funcion dada por
g(u, v) =

(i j j i )tij

1i,j3

P3
P3
en donde u = i=1 i ui , v = j=1 j uj . En particular se tiene que g(ui , uj ) = tij .
Esta funcion (problema 2.3) es bilineal y alternante. Entonces, por la propiedad
universal, existe una funcion lineal u
nica h: V V W tal que g = hf . Obtenemos
as g(u, v) = hf (u, v) = h(u v) y, en particular, h(ui uj ) = g(ui , uj ) = tij .
P
Supongamos ahora que
u uj = 0 para (1 i < j 3). Entonces como h es
P
Pij i
P
P
lineal, h( ij ui uj ) =
ij h(ui uj ) =
ij g(ui , uj ) =
ij tij = 0. Como
{t12 , t13 , t23 } es base de W , entonces 12 = 13 = 23 = 0.
2.6 EJEMPLO. Si V = IR3 , recuerdese que el producto vectorial o producto
cruz de dos vectores u = (1 , 2 , 3 ) y v = (1 , 2 , 3 ) se define como u v =
(2 3 3 2 , 3 1 1 3 , 1 2 2 1 ), es decir,
u v = (2 3 3 2 )e1 + (3 1 1 3 )e2 + (1 2 2 1 )e3
lo cual puede expresarse como

e1

u v = 1
1

e2
2
2

e3
3
3

131

2 Producto exterior

En particular e1 e2 = e3 , e2 e3 = e1 , e3 e1 = e2 , por lo que podemos escribir


u v = (1 2 2 1 )e1 e2 + (1 3 3 1 )e1 e3 + (2 3 3 2 )e2 e3 .
Si comparamos esta expresion de u v con la expresion para u v del ejemplo
anterior (con {u1 , u2 , u3 } = {e1 , e2 , e3 }) vemos que IR3 IR3 = IR3 y u v = u v;
la potencia exterior, en este caso, es el producto vectorial.

n
2.7 PROPOSICION. Si dim V = n entonces dim V V =
.
2
Demostraci
on. Sea {vi }ni=1 una base de V . Sabemos que {vi vj } (i, j =
1, . . . , n) es una base de V V y como p: V V V V es suprayectiva, {vi vj }
(i, j = 1, . . . n) genera a V V . Como vi vj = 0 (i = j) y vi vj = vj vi
(i 6= j) de este conjunto podemos eliminar los vectores innecesarios y quedarnos
con {vi vj } (1 i < j n) y sigue generando V V . Ademas (problema 2.4)
este conjunto es linealmente independiente,
por lo que es base de V
V . Como el

n
n(n 1)
n
=
, la dimension de V V es
n
umero de vectores es
.
2
2
2
El concepto de potencia exterior puede extenderse a mas de dos factores. Diremos que una funcion multilineal f : ki=1 Vi W con Vi = V es alternante si
f (v1 , . . . , vk ) = 0 siempre que vi = vj para algunas i 6= j.
2.8 DEFINICION. La potencia exterior de grado k de un espacio vectorial
Vk
Vk
V
V de dimenson finita sobre un campo K es una pareja ( V, f ) en donde
V
k
V (Vi = V ) es una funcion multilineal
es un espacio vectorial y f : ki=1 Vi
alternante tal que para todo espacio vectorial W y toda g: ki=1 Vi W (Vi = V )
Vk
funcion multilineal alternante, existe una u
nica funcion lineal h:
V W tal
que g = h f , es decir, tal que el siguiente diagrama conmuta:
Vk
f
ki=1 Vi
V
(Vi = V )

yh
g&
W
La demostracion de la unicidad y existencia de la potencia exterior sigue exacV2
tamente los mismos pasos que para el caso de
V =V V.
Dejamos al lector imitar el caso k = 2 para probar (problema 2.6) que si
{v1 , . . . , vn } es una base de V entonces
{vj1 vjk | 1 j1 < < jk n}

132

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica


n
elementos, la dimension de
es base de
V . Puesto que este conjunto tiene
k

Vk
n
V es
.
k
Vk

Si denotamos J = {j1 , . . . , jk } con 1 j1 < < jk n entonces los elementos


Vk
P
v
V son de la forma v = J J vJ en donde vJ = vj1 vjk .
Vk
V0
V1
Para completar la definicion de
V definimos
V =K y
V = V . ObserVk
vese que para ndices k > n = dim V , claramente
V = 0.
En lo que sigue analizaremos la relacion que existe entre los conceptos de potencia
exterior y determinante.
Sea V un espacio vectorial de dimension n y A: V V un endomorfismo
(sinonimo de operador lineal) de V , es decir una funcion lineal de V en V . Defnase
Vn
V
(Vi = V ) dada por
una funcion g = gA : ni=1 Vi
gA (v1 , . . . , vn ) = A(v1 ) A(vn )
para {v1 , . . . , vn } una base de V . Como g es multilineal alternante existe una
Vn
Vn
funcion lineal u
nica h = hA :
V
V tal que
hA (v1 vn ) = gA (v1 , . . . , vn ) = A(v1 ) A(vn )
ni=1 Vi

n V

yh
g&

(v1 , . . . , vn ) 7
g&

n V
Vn

v1 vn

yh
A(v1 ) A(vn )

Vn

Pero dim
V = 1, es decir
V = K por lo que hA : K K es una funcion
lineal y por lo tanto hA es la multiplicacion por un escalar. Entonces, si denotamos
con |A| a este escalar, tenemos
hA (v1 vn ) = |A|(v1 vn ) = A(v1 ) A(vn ).
Entonces definimos el determinante de A: V V como el escalar |A|.
Si (ij ) es la matriz de la funcion lineal A: V V con respecto a la base
Pn
{v1 , . . . , vn }, es decir, si A(vi ) = j=1 ij vj (1 i n) entonces obtenemos
A(v1 ) A(vn ) =

1j1 njn vj1 vjn ;

1 ji n, i = 1, . . . , n

Ahora bien, en esta suma los productos vj1 vjn con dos (o mas) ndices
iguales valen 0. Es decir, solamente quedan aquellos productos tales que los ndices

133

2 Producto exterior

j1 , . . . , jn son todos distintos entre s. Dicho de otra manera, los ndices son las
permutaciones de 1, . . . , n, es decir (i) = ji .
Ademas, como vj1 vjn = sigv1 vn obtenemos
X
A(v1 ) A(vn ) =
sig1(1) n(n) v1 vn

y como |A|v1 vn = A(v1 ) A(vn ) obtenemos |A| = sig1(1) n(n) .


Entonces definimos el determinante de una matriz (ij ) como el determinante
Pn
de la funcion lineal A: V V dada por A(vi ) = j=1 ij vj (i = 1, . . . , n). Se
denotara con |ij |.
A continuacion definiremos una multiplicacion la cual denotaremos tambien con
el smbolo por conveniencia. Sea
Vk+`
V`
Vk
V
V
V
:
dado por
(u1 uk , v1 v` ) = u1 uk v1 v` .
Esta multiplicacion suele llamarse producto exterior y posee las siguientes propiedades:
(i) es asociativo
(ii) es distributivo con respecto a la suma directa.
(iii) u1 uk v1 v` = (1)k` v1 v` u1 uk .

PROBLEMAS
2.1 Pruebe la unicidad de la potencia exterior.
2.2 Sea V un espacio vectorial sobre un campo K y u, v V . Pruebe que si u y
v son linealmente dependientes entonces u v = 0.
2.3 Pruebe que la funcion g definida en el ejemplo 2.5 es bilineal y alternante.
2.4 Pruebe que el conjunto {vi vj } (1 i < j n) de la demostracion de 2.7 es
linealmente independiente. (Siga el metodo usado en el ejemplo 2.5).

134

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

2.5
Pruebe que si es una permutacion de {1, 2, . . . , k} entonces
v(1) v(k) = sig()v1 vk , en donde sig() denota el signo de la
permutacion.
2.6 Pruebe que si {v1 , . . . , vn } es una base de V entonces {vj1 vjk |
Vk
1 j1 < < jk n} es base de
V y que el n
umero de tales vectores es
n
.
k
2.7 Pruebe que si A, B: V V son endomorfismos de V entonces
(i) |AB| = |A| |B|
(ii) |1V | = 1
(iii) |A1 | = |A|1 para A biyectivo (i.e. A automorfismo de V )
2.8 Pruebe que si una columna de la matriz (ij ) es combinacion de las demas,
entonces |ij | = 0.
2.9 Verifique que el producto exterior posee las tres propiedades mencionadas.

3 Estructuras algebraicas

IV.3

135

ESTRUCTURAS ALGEBRAICAS

En esta seccion definiremos varias estructuras algebraicas algunas de las cuales ya


han sido implcitamente estudiadas. Tiene como finalidad la de (i) presentar un
breve panorama de las estructuras algebraicas; (ii) definir el algebra tensorial y
exterior, (iii) situar al lector en la posibilidad de entender los objetos de estudio
del algebra lineal y (iv) proporcionar los objetos necesarios para el estudio de la
K-Teora Algebraica Clasica que haremos en la proxima seccion.
Sea (V, +, ) un espacio vectorial sobre un campo K tal como se definio en I.1.1.
Si quitamos la multiplicacion escalar nos quedaremos con un conjunto con una
operacion binaria + que cumple (i) a (iv) de I.1.1. Entonces diremos que (V, +) es
un grupo conmutativo bajo +. Formalmente tenemos la siguiente:
3.1 DEFINICION. Un grupo es una pareja (G, +) donde G es un conjunto y
+: G G G es una operacion binaria (u, v) 7 +(u, v) donde, por abuso de
notacion se escribe +(u, v) = u + v, tal que
(i) (u + v) + w = u + (v + w)
(ii) existe un elemento 0 G tal que v + 0 = v
(iii) para cada v
v + (v) = 0.

G existe un elemento, denotado con v, tal que

Diremos que el grupo es conmutativo si ademas satisface


(iv) u + v = v + u.
Si en la definicion anterior consideramos un conjunto S con una operacion binaria
+ que cumpla (i) diremos que (S, +) es un semigrupo.
Tambien, si en la definicion 3.1 consideramos un conjunto M con una operacion
binaria + que cumpla (i) y (ii) diremos que (M, +) es un monoide.

3.2 EJEMPLOS. El lector podra comprobar que (ZZ, +), (Q


I , +),
(Q
I=Q
I {0}, ), ( IR, +), ( IR = IR {0}, ), (C
I , +), (C
I =C
I {0}, ), (ZZn , +),
(V, +), (Mn K, +) son grupos.
Para relacionar dos grupos es necesario definir una funcion que preserve la estructura de grupo.

136

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

3.3 DEFINICION. Sean (G, ) y (G0 , ?) dos grupos. Un homomorfismo de


grupos es una funcion f : G G0 tal que f (u v) = f (u) ? f (v).

3.4 DEFINICION. Un anillo es una terna (, +, ) donde es un conjunto,


+ y son operaciones binarias tales que
(i) (, +) es un grupo conmutativo
(ii) (, ) es un semigrupo
(iii) u(v + w) = uv + uw y (u + v)w = uw + vw

3.5 EJEMPLOS. El lector podra comprobar que (ZZ, +, ), (ZZn , +, ),


(Q
I , +, ), ( IR, +, ), (Mn K, +, ), (K, +, ), (K[x], +, ), (C
I , +, ) son anillos.
Si un anillo (, +, ) satisface
(iv) (, ) es un semigrupo conmutativo, entonces (, +, ) se llamara anillo conmutativo.
Si en 3.4 (, ) es un monoide, diremos que (, +, ) es un anillo con identidad
o con uno.
Si el anillo (, +, ) no posee divisores de cero, se llamara dominio entero. Si
un dominio entero posee un inverso multiplicativo para cada elemento no nulo, se
dice que es un anillo con divisi
on. Un dominio euclidiano es un dominio entero
junto con una funcion d: ZZ+ tal que (i) para todo x, y , distintos de
cero, d(x) d(xy) y (ii) para todo x, y , distintos de cero, existen q, r tales
que x = qy + r donde r = 0 o d(r) < d(y) (algoritmo de la divisi
on). Finalmente,
un campo es un anillo conmutativo con division.
Como se relacionan dos anillos? Mediante funciones que preserven la estructura
de anillos. Si (, , ?) y (0 , +, ) son anillos, un homomorfismo de anillos es
una funcion que es un homomorfismo del grupo conmutativo de en el grupo
conmutativo de 0 y que tambien es un homomorfismo del semigrupo de en el
semigrupo de 0 , es decir,
f (u v) = f (u) + f (v)

f (u ? v) = f (u) f (v).
Si en la definicion I.1.1 consideramos un anillo (, +, ) conmutativo con 1 en
lugar de un campo K, obtendremos una estructura algebraica llamada -m
odulo

137

3 Estructuras algebraicas

(izquierdo). Entonces, como caso particular de los -modulos estan los K-modulos,
i.e. los espacios vectoriales sobre un campo K.
Todos los puntos tratados en las secciones I.1 y I.2 son validos para los modulos, basta tomar K = un anillo conmutativo con 1. En particular, relacionamos dos -modulos mediante un homomorfismo de -m
odulos (definicion
I.1.7). Los -modulos son generalizaciones de los conceptos de grupo conmutativo y
de espacio vectorial, y son los objetos de estudio del Algebra Homologica. Imitando
a los espacios vectoriales, si un -modulo posee una base, le llamaremos -m
odulo
libre. No todo -modulo posee base, es decir, no todo -modulo es libre, pero todo
espacio vectorial o K-modulo es libre, es decir, s posee una base. Diremos que un
-modulo es proyectivo si es sumando directo de un libre y que es finitamente
generado si posee un conjunto finito de generadores.
Un
algebra sobre es un conjunto A que simultaneamente es un anillo y un
-modulo. Es decir, un algebra (A, +, , ) es un -modulo con otra operacion
binaria, llamada multiplicaci
on con una condicion extra que hace compatibles las
operaciones binarias y multiplicacion escalar, la cual es la siguiente:
(u + 0 v)w = (uw) + 0 (vw)
y
w(u + 0 v) = (wu) + 0 (wv)

para , 0 ; u, v, w A

En particular se tiene que (u)v = (uv) = u(v) y por lo tanto uv es un elemento


bien definido de A.
Dejamos al lector proporcionar la definicion de homomorfismo de algebras as
como percatarse de varios ejemplos de algebras ya introducidos implcitamente.
Si se imponen condiciones en la multiplicacion de un algebra se obtienen
algebras
conmutativas,
algebras asociativas,
algebras con uno. Un algebra asociativa
con uno tal que todo elemento diferente de cero sea invertible se llama
algebra con
divisi
on.
Definimos un
algebra graduada como una sucesion
A = (A0 , A1 , A2 , . . .)
de algebras Ai , una para cada ndice i IN.

3.6 EJEMPLO. Sea T k (V ) = k V = V K K V el producto tensorial de


un espacio vectorial V sobre un campo K, k veces. Llamaremos a T k (V ) espacio
tensorial de grado k de V . Si definimos una multiplicacion
: T k V T ` V T k+` V

mediante

(u1 uk ) (v1 v` ) = u1 uk v1 v`

138

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

tenemos un algebra graduada (donde definimos T 0 V = K y T 1 V = V ) T V =


(K, V, T 2 V, T 3 V, T 4 V, . . .) llamada
algebra tensorial de V .
Vk
3.7 EJEMPLO. Sea
V = V V el producto exterior de un espacio
vectorial V sobre un campo K, k veces. Consideremos la multiplicacion exterior
definida en la seccion 2, a saber
:

Vk

V`

Vk+`

V.

Entonces tenemos un algebra graduada


V

V = (K, V,

V2

V,

V3

V, . . .)

llamada
algebra exterior o
algebra de Grassmann de V .
Sea V el espacio dual de V . Consideremos el espacio tensorial de grado k de
V , T k V , del ejemplo 3.6. Consideremos tambien T ` V y denotemos con T`k (V ) el
producto (k V ) (` V ). Es decir, T k V T ` (V ) = T`k (V ). Con esta notacion
se tiene que T0k (V ) = T k (V ) = k V , T`0 (V ) = ` V y T00 (V ) = K. Llamaremos a
T`k V espacio tensorial de tipo (k, `) y cada uno de sus elementos lo llamaremos
tensor de tipo (k, `). Un tensor de tipo (k, 0) se llamara tensor contravariante
de grado k y uno de tipo (0, `) tensor covariante de grado `. Un tensor de
tipo (0, 0) es simplemente un escalar. Un elemento de T01 V = V se llama vector
contravariante y uno de T10 V = V se llama vector covariante. Si k 6= 0 y ` 6= 0,
un tensor mixto es un tensor de tipo (k, `).

PROBLEMAS
3.1 Verifique que los conjuntos con operacion binaria del ejemplo 3.2 son grupos.
3.2 Verifique que los conjuntos con operaciones binarias del ejemplo 3.5 son anillos
y que ZZ, K y K[x] son dominios euclidianos.
3.3 Considere la parte aditiva de un espacio vectorial (V, +, ) sobre un campo
K. Entonces (V, +) es un grupo conmutativo bajo la suma. Si U es un subespacio
de V , (U, +) es un subgrupo conmutativo de (V, +). Proporcione una definicion

139

3 Estructuras algebraicas

adecuada de subgrupo de un grupo. Considere el espacio cociente V /U definido en


II.4. Recuerde que (V /U, +, ) posee una estructura de espacio vectorial sobre K. Si
nos fijamos solamente en la parte aditiva (V /U, +) recibe el nombre grupo cociente
y consiste tambien de las clases laterales de U en V . Considere el subgrupo nZZ de ZZ
y describa las clases laterales de ZZ/nZZ. Compruebe que existe una correspondencia
biyectiva entre los conjuntos ZZ/nZZ y ZZn . Defina adecuadamente el concepto de
isomorfismo de grupos y compruebe que ZZ/nZZ es isomorfo a ZZn .
3.4 Establezca un resultado analogo al del problema II.4.8 para grupos.
3.5 Sea (G, +) un grupo conmutativo. Una base de G es un conjunto {vi }ni=1 ,
n 1 de elementos de G tal que cualquier elemento v G puede escribirse de
manera u
nica como
v = 1 v 1 + + n v n
con 1 , . . . , n ZZ. Demuestre que, si G es un grupo conmutativo con base {vi }ni=1 ,
G0 es otro grupo conmutativo y {vi }ni=1 es cualquier conjunto de elementos de G0
entonces existe un homomorfismo de grupos u
nico h: G G0 tal que h(vi ) = vi0
para toda i = 1, . . . , n. Diremos que (G, +) es un grupo abeliano libre si G es
conmutativo y posee una base. Observe que el concepto de base para un grupo
abeliano se define de una manera similar a la de base para un espacio vectorial
tomando en cuenta que los coeficientes i son enteros.
3.6 Sea U un subespacio de un espacio vectorial V sobre un campo K. Considere
el espacio cociente V /U . Sea i: U V la inclusion y p: V V /U la proyeccion
al cociente. Pruebe que
i

(i) 0 U V V /U 0 es una sucesion exacta y


(ii) cualquier sucesion de la forma
0 M 0 M M 00 0
llamada sucesi
on exacta corta de espacios vectoriales es esencialmente una sucesion del tipo del inciso (i), es decir, una sucesion con un subespacio y un espacio
cociente en los extremos.
3.7 Sea {vi }ni=1 una base de V y {f j }nj=1 la base dual de {vi } en V (con ndices
superiores). Compruebe que los tensores
vi1 vik f j1 f j`

140

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

con i , j = 1, . . . , n, = 1, . . . , k y = 1, . . . , ` forman una base de T`k (V ).


Entonces cualquier tensor del tipo (k, `) puede escribirse en forma u
nica como
t=

j1
k
ji11 ,...,i
f j` .
,...,j` vi1 vik f

Los ndices i se llaman ndices contravariantes, los j ndices covariantes y


k
ji11 i
j` se llaman componentes de t con respecto a la base {vi }.
3.8 Sean 1 y 2 elementos de HomK (V, V ). Defina una operacion binaria en
HomK (V, V ) mediante 2 1 (v) = 2 (1 (v)) para toda v V y compruebe que
HomK (V, V ) es un algebra asociativa sobre K tambien denotada con AK (V ).

141

4 K0 y K1

IV.4

K0 Y K1

En esta seccion estudiaremos algunos conceptos de la K-Teora Algebraica Clasica


la cual es parte del Algebra Lineal. Intuitivamente, la K-Teora Algebraica Clasica
es una generalizacion del teorema que establece la existencia y unicidad de las bases
para espacios vectoriales y tambien de la Teora de Grupos del grupo lineal general
sobre un campo K.
Recordemos la construccion de ZZ a partir de IN: en el conjunto IN IN definimos
la relacion
(a, b) (c, d) a + d = b + c.
Es muy facil (problema 4.1(i)) ver que es de equivalencia. Entonces se tiene el
conjunto de clases de equivalencia IN IN/ . Si denotamos con (a, b) a la clase
de equivalencia de (a, b) es facil demostrar que la formula
(a, b) + (c, d) = (a + c, b + d)
define una operacion binaria en IN IN/ y que con esta operacion el conjunto
IN IN/ constituye un grupo conmutativo que se denotara K0 ( IN) o con ZZ.
(Se debe demostrar primero que la adicion dada por la formula anterior esta bien
definida, es decir, es independiente de los representantes de las clases de equivalencia. Despues debe comprobarse que satisface los axiomas de grupo conmutativo,
(problema 4.1(ii)).
Ademas se tiene un homomorfismo (de monoides) f : IN K0 ( IN) dado por
a 7 (a, 0).
Esta misma construccion sirve para cualquier monoide conmutativo
(X, ) si alteramos la relacion de equivalencia de la siguiente manera: en X X,
(a, b) (c, d) a d h = b c h
para alguna h X. Es facil ver que es de equivalencia (problema 4.2). (En el
caso de los naturales se puede tomar la misma h = 0 siempre. En el caso en que no
se cuente con la ley de cancelacion se necesitan estos sumandos de compensacion.)
Se define entonces la operacion en X X/ y se obtiene un grupo conmutativo que se denota K0 (X) el cual se llama grupo de Grothendieck del monoide
conmutativo X. Tambien se tiene el homomorfismo de monoides f : X K0 (X)
dado por f (x) = (x, 0).

142

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

4.1 PROPOSICION. f : X K0 (X) satisface la siguiente propiedad universal: para cada homomorfismo (de monoides) g: X G de X en un
grupo abeliano G existe un u
nico homomorfismo (de grupos) h: K0 (X) G
tal que g = hf , es decir, tal que el siguiente diagrama conmuta:
X

K0 (X)

yh
g&
G

La demostracion es facil (problema 4.3). Tambien, siguiendo los mismos pasos


V
que en el producto tensorial y que en la potencia exterior , es facil demostrar
que K0 (X) es u
nico (problema 4.3).
As, para el conjunto de los n
umeros naturales IN = {0, 1, 2, . . .} con la operacion
de sumar (el cual es un monoide conmutativo en donde vale la ley de cancelacion)
el grupo de Grothendieck K0 ( IN) de este monoide es el grupo aditivo ZZ, es decir,
K0 ( IN) = ZZ.
Ahora, sea K un campo y consideremos los espacios vectoriales de dimension
finita sobre K, es decir, los K-modulos proyectivos finitamente generados. Denotemos con hV i la clase de isomorfismo del espacio vectorial V de dimension finita, es
decir, la clase de todos los espacios vectoriales que son isomorfos a V . Es inmediato verificar que el conjunto X = {hV i} de clases de isomorfismo es un monoide
conmutativo cuya operacion binaria esta dada por
hV i + hW i = hV W i.
Sea g: X ZZ dado por g(hV i) = dim V un homomorfismo de monoides, i.e.
g(hV i + hW i) = g(hV W i) = dim (V W ) = dim V + dim W
= g(hV i) + g(hW i).
Sea F el grupo abeliano libre con base el conjunto de clases de isomorfismo de
los espacios vectoriales, es decir, con base {hV i} | V es un espacio vectorial}. Sea
R el subgrupo de F generado por las expresiones de la forma hV W i hV i hW i
donde 0 V V W W 0 recorre todas la posibles sucesiones
exactas cortas para los espacios vectoriales. Sea K0 (K) = F/R el grupo cociente y
denotemos con [V ] la proyeccion o imagen de hV i en el cociente. Entonces, siempre
que se tenga una sucesion exacta corta de espacios vectoriales
0 V V W W 0

143

4 K0 y K1

tendremos una expresion de la forma [V W ] = [V ] + [W ] en K0 (K), es decir,


K0 (K) esta generado por {[V ] | V es un espacio vectorial} sujeta a las relaciones
de la forma
[V ] + [W ] = [V W ]
El homomorfismo g: X ZZ da lugar a un homomorfismo h: K0 (K) ZZ dado
por h([V ]) = dim V . Pero h es inyectivo, pues si h([V ]) = h([W ]) entonces
h([V ] [W ]) = 0, lo cual implica que dim V dim W = 0 y que dim V = dim W
y por lo tanto V
= W . Tambien, h es suprayectivo pues h([K]) = 1. En resumen,
para los espacios vectoriales sobre un campo K, los cuales podemos representar por
el smbolo EVK se tiene que K0 (EVK ) = K0 (K)
= ZZ. Aqu hemos denotado, por
abuso de notacion, K0 (K) en lugar de K0 (EVK ).
Que sucede para otras estructuras cuando consideramos anillos que no necesariamente son campos? Para los ZZ-modulos proyectivos finitamente generados Ab,
es decir, los grupos abelianos libres de rango finito (i.e. con base finita) se sabe que
K0 (ZZ)
= ZZ.
Sin embargo, para los ZZ-modulos finitos Abf se sabe que K0 (Abf )
I +.
= Q
Pero para los ZZ-modulos finitamente generados Abfg se tiene que K0 (Abfg)
= ZZ.
Vease [LL1] para una demostracion de estos resultados.
Como antes, sea K un campo y denotemos con K n el producto K K
n veces. El producto tensorial de dos espacios vectoriales sobre K es un espacio
vectorial sobre K. Como K n K m
= K nm los espacios vectoriales son cerrados bajo
el producto tensorial. Entonces (vease el problema 4.4) podemos darle a K0 (K)
una estructura de anillo mediante
[V ] [W ] = [V K W ].
A continuacion estudiaremos el conjunto de las transformaciones lineales invertibles a traves de uno asociado de matrices. Sea V un espacio vectorial de dimension
n sobre un campo K. Denotemos con GL(V ) (o con AutK (V )) el conjunto de
todas las funciones lineales de V en V que sean biyectivas (invertibles). Podemos
proporcionarle a este conjunto una estructura de grupo definiendo una operacion
binaria
: GL(V ) GL(V ) GL(V )
mediante la composicion

144

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

(f g)(v) = f (g(v)).
Claramente (problema 4.5) GL(V ) es un grupo bajo .
Ahora definamos otro conjunto. Denotemos con GLn (K) el conjunto de las
matrices de n n con elementos en el campo K que poseen inverso, es decir, el
conjunto de todas las matrices invertibles o no singulares de n n con elementos
en K. Podemos definir en GLn (K) una operacion binaria

: GLn (K) GLn (K) GLn (K)


mediante

(A, B) 7 A B

donde denota la multiplicacion de matrices. Es facil comprobar (problema 4.6)


que (GLn (K), ) es un grupo cuyo elemento de identidad es la matriz diagonal 1n .
Llamaremos a GLn (K) grupo lineal general de grado n sobre K.
Existe una estrecha relacion entre los grupos GL(V ) y GLn (K), a saber, si
escogemos una base fija de V , cada funcion lineal biyectiva de V en V posee una
matriz asociada de n n con elementos en K la cual es no singular o invertible.
Esta correspondencia establece un isomorfismo entre los grupos GL(V ) y GLn (K)
debido a que cuando se componen dos funciones lineales, esta composicion esta
representada por la multiplicacion de sus matrices asociadas.
Consideremos un tipo especial de matrices de GLn (K), que llamaremos elementales * y que son aquellas que difieren de la matriz identidad 1n en un solo elemento
K fuera de la diagonal. Dichas matrices las denotaremos con el smbolo eij , el
cual nos indica que tenemos una matriz con unos en la diagonal y en el lugar i, j
con i 6= j. Por ejemplo e13 representa dentro de GL3 (K) a la matriz

1 0
0 1
0 0

0
1

!
.

* Tambien se acostumbra llamar matriz elemental (en otros textos) a aquella matriz obtenida
de la matriz 1n mediante una sola operaci
on elemental y dicho concepto no coincide con el aqu
definido. Tambi
en, en algunos textos se le llama transvecciones a las matrices que arriba definimos
como elementales. El nombre de elementales es el que se utiliza en la K-Teora Algebraica desde
la d
ecada de los sesenta.

145

4 K0 y K1

Como eij GLn (K) entonces es facil comprobar que (eij )1 = e


ij (problema
4.8). Por ejemplo, en GL3 (K),

1
0
0

0
1
0

3
0
1

1
0
0

0
1
0

3
0
1

1 0
0 1
0 0

0
0
1

es decir, e313 e3
13 = 13 .
Es facil ver (problema 4.9) que si eij es una matriz elemental y A GLn (K),
multiplicar A por eij por la izquierda equivale a sumar veces el renglon j al
renglon i, y que multiplicar por la derecha equivale a sumar veces la columna i a la
columna j. Es decir, que la multiplicacion eij A o Aeij equivale a hacer operaciones
elementales por renglon o columna en matrices. Por ejemplo, en GL3 (K), e23 A es

1
0
0

0
1
0

a11
a21
a31

a12
a22
a32

a13
a23
a33

a11
a21 + a31
a31

a12
a22 + a32
a32

a13
a23 + a33
a33

!
.

Definimos el smbolo [A, B] como el producto de las matrices ABA1 B 1 y lo


llamaremos conmutador de A y B donde A, B GLn (K).
Dejamos al lector probar la siguiente formula para el conmutador de matrices
elementales:

[eij , ek` ] = ei`



ekj

si j 6= k, i 6= `
si j = k, i =
6 `
si j 6= k, i = `

Denotemos con En (K) el subgrupo de GLn (K) generado por todas las matrices
elementales eij , K, 1 i 6= j n, llamado grupo elemental lineal de K.
Si cada matriz A GLn (K) la identificamos con la matriz

A 0
0 1

GLn+1 (K)

obtenemos inclusiones GL1 (K) GL2 (K) GL3 (K) . Sea GL(K) =

on de los grupos GLn (K) que llamaremos grupo lineal genen=1 GLn (K), la uni
ral infinito de K. Podemos concebir a GL(K) como el grupo que consta de todas
las matrices invertibles infinitas A = (aij ) con aij K, 1 i < , 1 j < y
aij = ij , la delta de Kronecker para toda i, j excepto un n
umero finito de i, j. Entonces GLn (K) GL(K) y lo vemos como el subgrupo de todas las (aij ) GL(K)

146

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

con aij = ij para toda i, j > n. La inclusion de GLn (K) en GLn+1 (K) se restringe
a la inclusion de En (K) en En+1 (K) y, en GL(K), el subgrupo
E(K) =
n=1 En (K)
se llama grupo elemental infinito de K.

4.2 LEMA. (Whitehead) [GL(K), GL(K)] = E(K).


Demostraci
on. Primero veamos que cada matriz elemental puede expresarse
como el conmutador de otras dos matrices elementales para n 3. Sea eij En (K)
una matriz elemental. Consideremos las matrices e1ik y ekj con k 6= i, j. Como n 3
siempre podemos encontrar dicha k. Entonces por la formula para el conmutador
(problema 4.10) [e1ik , ekj ] = eij , 0 k n y k 6= i, j. Pero esto es valido para
cualquier eij En (K), por lo tanto
En (K) [En (K), En (K)],

n 3.

Tambien, el producto de matrices elementales es una matriz elemental, i.e. el grupo


conmutador siempre es un subgrupo, luego
En (K) [En (K), En (K)].
As, En (K) = [En (K), En (K)] y, por lo tanto, E(K) = [E(K), E(K)].
Por otro lado, E(K) GL(K), luego [E(K), E(K)] [GL(K), GL(K)]. As
que E(K) [GL(K), GL(K)].
Ahora veamos que E(K) [GL(K), GL(K)]: sean A, B GLn (K). Veamos
que ABA1 B 1 E(K), i.e. que ABA1 B 1 es una matriz elemental, i.e. que se
puede expresar como producto de matrices elementales. Consideremos la siguiente
matriz en GL2n (K)

ABA1 B 1
0

0
I

Pero

ABA1 B 1
0

0
I

A
0

0
A1

B
0

0
B 1

(BA)1
0

0
BA

147

4 K0 y K1

Esto significa que podemos descomponerla como el producto de tres matrices de la


forma

X
0

0
X 1

donde X GLn (K).

Veamos que cada matriz de la forma

X
0

0
X 1

es producto de matrices elemen

0
tales (o lo que es lo mismo, invertibles) y as tendremos que X
E2n (K).
1
0 X
Como

X
0

0
X 1

I
0

X
I

I
X 1

0
I

I
0

X
I

0
I

I
0

las tres primeras elementales (i.e. pueden reducirse a I2n mediante operaciones
elementales por renglon) y como

0
I

I
0

I
0

I
I

I
I

0
I

I
0

I
I

X
0
es producto de matrices elementales. Luego ABA1 B 1 E(K) y
0 X 1
por lo tanto [GL(K), GL(K)] E(K).

4.3 DEFINICION. El grupo cociente GL(K)/E(K) es el K-grupo algebraico

de ndice uno del campo K denotado con K1 (K).


As, K1 (K) = GL(K)/[GL(K), GL(K)].
Observese que si f : K K 0 es un homomorfismo de campos se tiene un homomorfismo de grupos inducido por f
f : GL(K) GL(K 0 )
que enva E(K) en E(K 0 ), siendo as que f induce un homomorfismo de grupos
K1 (f ): K1 (K) K1 (K 0 ).
Como K es conmutativo podemos considerar el determinante de una matriz como
un homomorfismo det: GL(K) K donde K denota las unidades de K, i.e.
los elementos K tal que divide al 1, o sea, elementos tales que 0 = 1 para
alguna 0 K. En un campo K, todo elemento diferente de cero es una unidad.

148

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

Definamos SL(K) = ker (det), o sea, todas las matrices de GL(K) con determinante uno, y lo llamaremos grupo especial lineal o infinito de K. Notese
que
SL(K) =
n=1 SLn (K)
donde SLn (K) = ker (det: GLn (K) K ) y que las matrices elementales siempre
tienen determinante 1, as que, para toda n
En (K) SLn (K)

E(K) SL(K).

Notese que det: GLn (K) K es invariante bajo la inclusion


GLn (K) GLn+1 (K) y, por lo tanto, det: GL(K) K esta bien definido.
Luego, det induce un homomorfismo, que por abuso de notacion, tambien denotaremos con
det: K1 (K) = GL(K)/E(K) K
el cual posee un inverso
K = GL1 (K) GL(K)

GL(K)
= K1 (K).
E(K)

Si definimos
SK1 (K) = SL(K)/E(K) = ker (det: K1 (K) K )
resulta que (problema 4.11) K1 (K)
= SK1 (K)K , i.e., se tiene la sucesion exacta
corta que se escinde
det

K 1.
1 SL(K)/E(K) GL(K)/E(K)
Como K puede considerarse conocido, el calculo de K1 (K) se limita al de
SK1 (K). Observese que SK1 (K) es trivial si, y solo si, para cualquier matriz
A SLn (K) podemos transformar la matriz

A 0
0 Ik

4 K0 y K1

149

para k adecuada, en la identidad In+k mediante operaciones elementales por renglon


o columna. Si SK1 (K) es trivial, entonces K1 (K)
= K . Este resulta ser el caso
para el campo K. (Vease el problema 4.12).
Podemos generalizar todo lo anterior poniendo, en lugar de un campo K, un
anillo conmutativo . Veanse [LL1], [LL2], [V] y [L] para una lectura posterior.

PROBLEMAS
4.1 (i) Pruebe que en IN IN, (a, b) (c, d) a + d = b + c es una relacion
de equivalencia.
(ii) Pruebe que la adicion en IN IN/ dada por (a, b) + (c, d) = (a + c, b + d)
esta bien definida y IN IN/ es un grupo conmutativo.
4.2 Pruebe que si (X, ) es un monoide conmutativo, la relacion (a, b) (c, d)
a b h = b c h para alguna h X es una relacion de equivalencia.
4.3 Pruebe que f : X K0 (X) satisface la propiedad universal de 4.1.
4.4 Un ideal I de un anillo conmutativo es un subconjunto de que es un
subgrupo aditivo y tal que I I (es decir, si I y entonces I).
El grupo cociente /I hereda de una multiplicacion bien definida que lo hace un
anillo, llamado anillo cociente. Defina en K0 (K) = F/R una estructura de anillo
mediante hV i hW i = hV K W i en F . Compruebe que R es un ideal de F .
4.5 Sea V un espacio vectorial de dimension n sobre un campo K. Pruebe que
(GL(V ), ) o (AutK (V ), ) es un grupo. Observese que AutK (V ) es el grupo de las
unidades de EndK (V ).
4.6 Pruebe que (GLn (K); ) es un grupo.
4.7 Sea V un espacio vectorial sobre un campo K. Establezca detalladamente el
isomorfismo de grupos
GL(V )
= GLn (K).

150

Captulo IV Algebra Multilineal y K-Teora Algebraica Cl


asica

4.8 Pruebe que (eij )1 = e


ij .
4.9 Demuestre que si eij es una matriz elemental y A GLn (K), multiplicar A
por eij por la izquierda equivale a sumar veces el rengon j al renglon i, y que
multiplicar por la derecha equivale a sumar veces la columna i a la columna j.
4.10 Pruebe la formula dada por el conmutador [eij , ek` ] y observe que no existe
una formula sencilla para [eij , eji ], o sea, para el caso j = k, i = `.
4.11 Demuestre que K1 (K)
= S K1 (K) K .
4.12 Pruebe que si es un dominio euclidiano entonces K1 ()
= . En particular K1 (K)
= K , K1 (K[x])
= K y K1 (ZZ)
= {1, +1}. (Sugerencia: Considere

el isomorfismo K1 () = SK1 () . Pruebe que SK1 () = 0, es decir, que


SL() = E(). Para probar que si A = (aij ) SLn () entonces A En (),
sea = minj {|a1j | : a1j 6= 0}. Supongamos que = |a1k |. Despues de restar
los m
ultiplos adecuados de la columna k de las otras columnas, pasamos a una
nueva matriz B = (bij ), con minj {|b1j | : b1j 6= 0} < . Continuando de esta
manera obtenemos una matriz C = (cij ) con minj {|c1j | : c1j 6= 0} = 1, es decir,
alguna c1k es una unidad. De hecho, podemos suponer que c11 es una unidad (por
que?). Despues de transformaciones por columna y renglon, podemos suponer que
el primer renglon, y la primera columna de C son cero, excepto c11 . Una vez logrado
esto, repita el proceso al menor de c11 en C. Finalmente se llegara a una matriz
= diag(d1 , . . . , dn ) donde necesariamente d1 dn = 1. Luego, En ().)

APENDICE
NOTAS HISTORICAS
El Algebra Lineal una de las ramas
m
as antiguas de la Matem
atica
y a la vez una de las m
as nuevas.[B]

AI.1, A.I.2 y A.I.3 Espacios Vectoriales, Funciones Lineales,


Subespacios Vectoriales y Espacios Vectoriales de Dimensi
on
Finita
Hermann Gunther Grassmann (1809 -1877) fue el primero en presentar una teora
detallada de espacios vectoriales de dimension mayor que tres [K]. En sus dos versiones del C
alculo de Extensi
on (1844 y 1862), expresa simbolicamente las ideas
geometricas sobre espacios vectoriales y distingue el Algebra Lineal como una teora
formal, donde la geometra solo es una aplicacion particular. El trabajo de Grassmann no fue entendido por sus contemporaneos debido a su forma abstracta y
filosofica. [K]
La definicion de espacio vectorial antes llamado espacio lineal llego a ser
ampliamente conocida alrededor del a
no 1920, cuando Hermann Weyl (1885-1955)
y otros publicaron la definicion formal. De hecho, tal definicion (para dimension
finita e infinita) haba sido dada treinta a
nos antes por Peano (1858-1932), quien
fue uno de los primeros matematicos que apreciaron en todo su valor la obra de
Grassmann, y ademas con una notacion completamente moderna dio la definicion
de funcion lineal. Grassmann no dio la definicion formal de funcion lineal, ya que el
lenguaje no estaba disponible, sin embargo no hay duda de que conoca el concepto.
Grassmann comienza su trabajo en 1862 con el concepto de un vector como

152

Ap
endice

un segmento de lnea recta con longitud y direccion fija. Dos vectores pueden ser
sumados uniendo el punto inicial del segundo vector con el punto final del primero.
La resta es simplemente la suma del negativo, esto es, el vector con la misma
longitud y direccion contraria. [K]
A partir de estas ideas geometricas, Grassmann define el espacio vectorial
generado por las unidades e1 , e2 , e3 , . . ., considerando combinaciones lineales
P
i ei donde las i son n
umeros reales. Establece la suma y la multiplicacion por
un n
umero real de la siguiente manera:
X
X
X
i ei +
i ei =
(i + i )ei
X
X
(
i ei ) =
(i )ei
y demuestra formalmente las propiedades de espacio vectorial para esas operaciones (no es claro si el conjunto de unidades puede ser infinito, pero la finitud es
implcitamente asumida en algunas de sus demostraciones). Desarrolla la teora de
independencia lineal similarmente a la presentacion que uno encuentra en los textos
actuales sobre Algebra Lineal. [F-S]
Grassmann denota a la funcion lineal que enva los elementos de la base
e1 , e2 , . . . , en a los de la base b1 , b2 , . . . bn respectivamente como
Q=

b1 , b2 , . . . , bn
e1 , e2 , . . . , en

y considera a Q como un cociente generalizado. Mientras que hay problemas obvios


con esta notacion, esta tiene cierta elegancia; por ejemplo, si b1 , b2 , . . . , bn son
linealmente independientes, entonces el inverso de Q es
e1 , e2 , . . . , en
.
b1 , b2 , . . . , bn
P
Da la representacion matricial de Q como Q =
r,s Er,s donde
Er,s =

0, . . . , 0, es , 0, . . . , 0
e1 , . . . , er , . . . en

El determinante de Q lo define como el n


umero
b1 b2 bn
.
e1 e2 en

[F S]

Define los conceptos de subespacio vectorial, independencia lineal, espacio


generado, dimensi
on de un espacio vectorial, interseccion de subespacios y se da

153

Ap
endice

cuenta de la necesidad de demostrar que cualquier base de un espacio vectorial tiene


el mismo n
umero de elementos. Entre otras cosas prueba que todo espacio vectorial
de dimension finita tiene un subconjunto linealmente independiente que genera el
mismo espacio y que cualquier subconjunto linealmente independiente se extiende
a una base. Demuestra la identidad importante
dim (U + V ) = dim U + dim V dim (U V ).
William Rowan Hamilton (1805-1865), presenta paralelamente a Grassmann una
teora de espacios vectoriales, solo que lo hace en el caso de dimension cuatro. Llama
cuaterniones a los vectores y demuestra que forman un espacio vectorial sobre el
campo de los n
umeros reales, definiendo su suma y la multiplicacion por un escalar.

AI.5 La Matriz Asociada a una Funci


on Lineal
El Algebra Matricial se obtuvo como una consecuencia del tratamiento de la teora
aritmetica de formas cuadraticas binarias aX 2 + 2bXY + cY 2 contenidas en las
Disquisiciones Aritmeticas de Gauss (1777-1855). Durante su estudio, Gauss introdujo nuevas convenciones notacionales. Luego, para sustituciones (funciones)
lineales en dos variables
x = x0 + y 0
(1)
y = x0 + y 0
decidio, por brevedad, referirse a ellas por sus coeficientes:

Cuando estaba tratando con ejemplos numericos, modifico la notacion anterior,


agregandole llaves:
o
n
1 0
0 2
Cada sustitucion lineal la denoto con una sola letra may
uscula cuando no era necesario referirse a los coeficientes.
La composicion de sustituciones lineales tambien fue una parte importante en
la teora aritmetica de formas. Como en el caso binario, Gauss observo que si la
sustitucion definida por (1) transforma una forma F = ax2 + 2bxy + cy 2 en F 0 y si
F 0 es transformada en F 00 por una segunda sustitucion lineal
x0 = x00 + y 00
y 0 = x00 + y 00

154

Ap
endice

entonces existe una nueva sustitucion lineal que transforma F directamente en F 00 :


x = ( + )x00 + ( + )y 00
y = ( + )x00 + ( + )y 00
Gauss escribio la matriz de coeficientes de esta nueva sustitucion lineal, la cual
es el producto de las dos matrices de coeficientes de las dos sustituciones lineales
originales. Tambien realizo un calculo analogo en su estudio de formas cuadraticas
ternarias Ax2 + 2Bxy + Cy 2 + 2Dxz + 2Eyz + F z 2 , obteniendo la regla para multiplicar matrices de 3 3. Sin embargo no designo explcitamente este proceso como
un tipo de multiplicacion de objetos que no son n
umeros. Esto no significa que
tales ideas fueran muy abstractas para el, ya que fue el primero en introducirlas,
pero en un contexto diferente. [K]
Cauchy (1789-1857) escribio en 1815 una memoria sobre la teora de determinantes, su trabajo fue inspirado tanto en forma como en contenido por las Disquisiciones de Gauss. Siguiendo la direccion de Gauss, introdujo un sistema
simetrico
a1,1 , a1,2 , a1,3 , , a1,n
a2,1 , a2,2 , a2,3 , , a2,n
..
..
..
..
..
.
.
.
.
.
an,1 , an,2 , an,3 , , an,n ,
que represento en forma abreviada (aij ), al cual se le asocia un determinante.
A
un mas, en su formulacion del teorema del producto para deteminantes, Cauchy
reconocio explcitamente la idea de Gauss de componer dos sistemas (aij ) y (bij )
Pn
para formar un nuevo sistema (mij ) donde mij = k=1 ai,k bk,j . Entonces demostro
que el determinante del nuevo sistema (mij ) es el producto de los determinantes de
(aij ) y (bij ).
James Joseph Sylvester (1814-1897) en 1850, utiliza el termino matriz para
denotar un arreglo rectangular de n
umeros.
Ferdinand Gotthold Eisenstein (1823-1852) hizo un estudio cuidadoso de las

Disquisiciones Aritmeticas, que inspiraron gran parte de su trabajo. Introdujo


la notacion S T para la sustitucion compuesta de S y T y S para el sistema
inverso del sistema S en un artculo sobre formas cuadraticas ternarias publicado
en 1844.
Eisenstein considero a las sustituciones lineales como entes que pueden ser sumados y multiplicados como si fueran n
umeros ordinarios, solo que la multiplicacion no
es conmutativa. Consideraba lo anterior como algo generalmente conocido ya que
es sugerido por el teorema del producto para determinantes formulado por Cauchy.

155

Ap
endice

Gauss haba empleado un simbolismo para la composicion de formas binarias que


reflejaban su analoga con la aritmetica ordinaria, luego Eisenstein lo empleo para
sustituciones lineales. Eisenstein nunca desarrollo plenamente su idea de un algebra
de sustituciones.
El simbolismo de Eisenstein fue adoptado por su contemporaneo, Charles Hermite. Tanto Hermite como Eisenstein emplearon el simbolismo como un medio de
resumir resultados y no como un modo de razonamiento. Su estudio del algebra
simbolica no lo desarrollaron mas alla de lo que necesitaban en su trabajo sobre la
Teora de N
umeros y Funciones Elpticas.
El problema de Cayley-Hermite [H] es muy importante para el entendimiento
del desarrollo historico del algebra simbolica de matrices. Hermite fue el primero
en formular dicho problema y le intereso por la relevancia en su trabajo sobre
la teora aritmetica de formas cuadraticas ternarias. Tres matematicos, quienes
llevaron la investigacion mas alla que Eisenstein y Hermite (Cayley, Laguerre y
Frobenius), estuvieron preocupados por este problema. Al menos en el caso de
Cayley y Frobenius, fue lo primero que motivo su estudio del algebra simbolica de
matrices.
En 1855 Cayley introdujo la notacion

a,
a0 ,
a00 ,

..
.

b,
b0 ,
b00 ,

c,
c0 ,
c00 ,

para representar lo que hoy llamamos una matriz y noto que el uso de matrices es
muy conveniente para la teora de ecuaciones lineales. Luego escribio

a,
b,
c, !
a0 , b0 , c0 , x

00
00
00
(u, v, w, . . .) =
a , b , c , y
z
..
.
para representar el sistema de ecuaciones
u = ax + by + cz + ,
v = a0 x + b0 y + c0 z + ,
w = ax + by + cz + ,
..
.

156

Ap
endice

Tambien determino la solucion del sistema usando lo que llamo la inversa de la


matriz:
1

a,
b,
c,
!
u
a0 , b 0 , c 0 ,

00
00
00
(x, y, z) =
v
a
,
b
,
c
,

w
..
.
En 1858, Cayley introdujo la notacion de una sola letra para matrices y definio
no solamente como multiplicarlas sino tambien como sumarlas y restarlas.
De esas innovaciones notacionales surge la idea de que las matrices se comportan
como entes que pueden ser sumadas y multiplicadas: la ley de adicion de matrices
es precisamente similar a la adicion de cantidades algebraicas ordinarias, y como se
puede ver en su multiplicacion, en general no es conmutativa.
As, Cayley desarrollo el algebra matricial, haciendo uso constante de su analoga
con las manipulaciones algebraicas ordinarias, pero notando cuidadosamente donde
fallan estas analogas. Luego, usando la formula para la inversa de una matriz,
escribio que la nocion de inversa de una matriz falla cuando el determinante es
cero; la matriz en este caso se dice que es indeterminada; y que el producto de dos
matrices puede ser cero sin que alguno de los factores sea cero.
Las innovaciones notacionales sugeridas por el problema de Cayley-Hermite le
permitieron a Cayley obtener el teorema de Hamilton-Cayley.
Laguerre en 1867 contin
ua el trabajo de Eisenstein y Hermite en la aplicacion del
algebra simbolica de las funciones lineales a problemas en la Teora Aritmetica de
Formas y a la Teora de Funciones Elpticas. Las memorias de Laguerre constan de
dos partes: la primera esta dedicada al desarrollo del algebra simbolica de funciones
lineales en la lnea de la memoria de Cayley de 1858. La segunda parte contiene el
problema de Cayley-Hermite. El trabajo de Laguerre es importante historicamente
porque muestra que el desarrollo del algebra simbolica de matrices fue una consecuencia del trabajo de Eisenstein y Hermite ya que Laguerre no conoca las notas
de Cayley de 1855 ni sus memorias de 1858.
Sin conocer las memorias de Cayley y Laguerre, Georg Frobenius tambien investigo el algebra simbolica de matrices en su trabajo de formas bilineales de 1878.
Frobenius hizo mas contribuciones a la teora de matrices, en particular estudio
algunas propiedades de varias clases especiales de matrices, como las simetricas,
hermitianas, ortogonales y unitarias.
A
un en sus u
ltimas memorias de 1858 y 1866, Cayley nunca uso su algebra
simbolica de matrices como un modo de razonamiento, mientras que Frobenius s

157

Ap
endice

lo hizo. En 1878, Frobenius demostro convincentemente la potencia del metodo


simbolico de razonamiento cuando lo combina con los resultados de la teora espectral de formas bilineales.
Fue Emmy Noether (1882-1935) quien libero al Algebra Lineal de las matrices y
determinantes.

AII.1 Valores y Vectores Caractersticos


El concepto de matriz similar, como muchos otros conceptos de la teora de
matrices provienen del trabajo de Cauchy. En 1826, en su trabajo sobre formas
cuadraticas demostro que, si dos formas cuadraticas estan relacionadas mediante
un cambio de variable, esto es, si sus matrices son similares, entonces sus polinomios
caractersticos son iguales. Sin embargo Georg Frobenius (1849-1917) fue el primero
que analizo y definio formalmente el concepto de similaridad, bajo el nombre de
transformacion contragrediente, en un artculo de 1878. Comenzo analizando el
caso general: establecio que dos matrices A y D son equivalentes, si existen matrices invertibles P y Q tales que D = P AQ. Trato los casos especiales de P = t Q
(matrices congruentes) y de P = Q1 , y demostro varios resultados sobre matrices
similares incluyendo el teorema que dice: si A es similar a D, entonces f (A) es
similar a f (D), donde f es cualquier funcion matricial polinomial.
El concepto de valor caracterstico se origino independientemente de la teora
de matrices. El contexto en el cual se obtuvieron los primeros problemas de valores
caractersticos durante el siglo XVIII fue en la solucion de sistemas de ecuaciones
diferenciales lineales con coeficientes constantes. En 1743, Leonhard Euler (17071783) introdujo por primera vez el metodo estandar de resolucion de una ecuacion
diferencial de orden n con coeficientes constantes
y n + an1 y (n1) + + a1 y 1 + a0 y 0 = 0
usando funciones de la forma y = e t donde es una raz de la ecuacion caracterstica
z n + an1 z n1 + + a1 z + a0 = 0.
Esta es la misma ecuacion que se obtiene al sustituir
y1 = y,

y2 = y 0 ,

y3 = y 00 , , yn = y (n1)

reemplazando la u
nica ecuacion de orden n por un sistema de n ecuaciones de

158

Ap
endice

primer orden
y10
y20
..
.

=
=

yn0

y2

a0 y1

a1 y2

y3

an1 yn

y, por u
ltimo, calculando el polinomio caracterstico de la matriz de coeficientes de
este sistema. [F-B]
Veinte a
nos mas tarde, Lagrange (1736 -1813) dio una version mas explcita
de esta misma idea al hallar la solucion de un sistema de ecuaciones diferenciales
encontrando las races del polinomio caracterstico de la matriz de coeficientes. El
sistema particular de ecuaciones diferenciales surgio del examen de los movimientos
infinitesimales de un sistema mecanico en la vecindad de su posicion de equilibrio.
En 1774, Lagrange resolvio un problema similar de Mecanica Celeste usando la
misma tecnica.
Por otro lado, DAlembert en trabajos que datan de 1743 a 1758, y motivado
por la consideracion del movimiento de una cuerda cargada con un n
umero finito
de masas (restringidas aqu por simplicidad a tres), haba considerado el sistema
3

d2 yi X
+
aik yk = 0
dt2

i = 1, 2, 3.

k=1

Para resolver este sistema decidio multiplicar la i-esima ecuacion por una constante
vi para cada i y sumar las ecuaciones para obtener
3
X
d2 yi
vi aik yk = 0.
vi 2 +
dt
i=1

3
X

i,k=1

P3
Si las vi son elegidas tal que
i=1 vi aik + vk = 0 para k = 1, 2, 3, esto es, si
(v1 , v2 , v3 ) es un vector caracterstico correspondiente al valor caracterstico
para la matriz A = (aik ), la sustitucion u = v1 y1 + v2 y2 + v3 y3 reduce el sistema
original a la u
nica ecuacion diferencial
d2 u
+ u = 0.
dt2
Tal ecuacion, despues del trabajo de Euler sobre ecuaciones diferenciales, fue resuelta facilmente y permitio encontrar las soluciones para las tres yi . Un estudio de

Ap
endice

159

las tres ecuaciones en las cuales esto aparece demuestra que esta determinada por
una ecuacion c
ubica la cual tiene tres races. DAlembert y Lagrange, un poco mas
tarde, se dieron cuenta de que para que las soluciones tuvieran sentido fsico tenan
que ser acotadas cuando t . Esto debera ser verdadero si los tres valores de
fueran distintos, reales y positivos. Cuando Lagrange considero sistemas similares
derivados de sus estudios de Mecanica Celeste, tambien haba determinado los valores para , los cuales en muchos casos satisfacan ecuaciones de grado mayor que
tres. No poda determinar la naturaleza de esos valores matematicamente, luego
argumentaba que de la estabilidad del sistema solar se obtena que los valores fueran
tales que las correspondientes soluciones a las ecuaciones diferenciales permanecan
acotadas.
Cauchy fue el primero que resolvio el problema de determinar en un caso especial los valores caractersticos de la matriz (aik ). Se considera que no estuvo
influenciado por el trabajo de DAlembert ni de Lagrange sobre ecuaciones diferenciales, sino que lo hizo como resultado de su estudio sobre superficies cuadraticas
(el cual formaba parte del curso de Geometra Analtica que ense
naba en el Ecole
Polytechnique desde 1815). Una superficie cuadratica (centrada en el origen) esta
dada por una ecuacion f (x, y, z) = k, donde f es una forma cuadratica ternaria
Ax2 + 2Bxy + Cy 2 + 2Dxz + 2Eyz + F z 2 . Para clasificar tales superficies, Cauchy,
como Euler mas tempranamente, necesitaban encontrar una transformacion de
coordenadas bajo las cuales f se converta en una suma o diferencia de cuadrados. En terminos geometricos, este problema significa encontrar un nuevo conjunto
de ejes ortogonales en un espacio de tres dimensiones en el cual expresar la superficie. Pero entonces, Cauchy generalizo el problema a formas cuadraticas con
n variables, cuyos coeficientes pueden ser escritos como una matriz simetrica. Por
ejemplo, la forma cuadratica binaria ax2 + 2bxy + cy 2 determina la matriz simetrica
de 2 2

a b .
b c
El proposito de Cauchy fue encontrar una funcion lineal tal que la matriz resultante
de esta fuera diagonal, lo cual logro en un artculo de 1829. Debido a que la esencia
de la demostracion de Cauchy reside en el caso de dos variables, veremos este
caso: para encontrar una transformacion lineal la cual mande a la forma cuadratica
binaria f (x, y) = ax2 +2bxy +cy 2 en una suma de cuadrados, es necesario encontrar
el maximo y mnimo de f (x, y) sujeto a la condicion x2 +y 2 = 1. El punto en el cual
tal valor extremo de f ocurre es un punto sobre el crculo unitario, el cual tambien
esta al final de un eje de uno de la familia de elipses (o hiperbolas) descritas por la
forma cuadratica. Si se toma la lnea del origen a ese punto como uno de los ejes y la

160

Ap
endice

perpendicular a esa lnea como el otro, la ecuacion en relacion a esos ejes contendra
u
nicamente los cuadrados de las variables. Por el principio de los multiplicadores
de Lagrange, los valores extremos ocurren cuando los cocientes fx /2x y fy /2y son
iguales. Dandole a cada uno de ellos el valor de , obtenemos las ecuaciones
ax + by
=
x

bx + cy
=
y

las cuales pueden reescribirse como el sistema


(a )x + by = 0
bx + (c )y = 0.
Cauchy saba que su sistema tiene soluciones no triviales si, y solo si, su determinante es igual a cero, esto es, si (a )(c ) b2 = 0. En terminos de matrices,
esta es la ecuacion caracterstica det(A I) = 0, la cual Cayley trabajo unos
treinta a
nos mas tarde.
Para ver como las races de esta ecuacion nos permiten diagonalizar la matriz,
sean 1 y 2 las races de la ecuacion caracterstica y (x1 , y1 ), (x2 , y2 ) las soluciones
correspondientes para x, y. Luego
(a 1 )x1 + by1 = 0
(a 2 )x2 + by2 = 0.
Si se multiplica la primera de esas ecuaciones por x2 , la segunda por x1 , y se restan,
el resultado es la ecuacion
(2 1 )x1 x2 + b(y1 x2 x1 y2 ) = 0.
Similarmente, comenzando con las dos ecuaciones y utilizando i , se obtiene la
ecuacion
b(y2 x1 y1 x2 ) + (2 1 )y1 y2 = 0.
Sumando estas dos ecuaciones, tenemos que (2 1 )(x1 x2 + y1 y2 ) = 0. Luego, si
1 6= 2 (y esto es verdadero en el caso considerado, a menos que la forma original
ya sea diagonal), entonces x1 x2 + y1 y2 = 0. Las condiciones del problema tambien
implican que x21 + y12 = 1 y x22 + y22 = 1. En terminos modernos, la funcion lineal
x = x1 u + x2 v
y = y1 u + y2 v

161

Ap
endice

es ortogonal. Se puede calcular facilmente que la nueva forma cuadratica que se


obtiene de esta transfomacion es 1 u2 + 2 v 2 , como se quera. Que 1 y 2 son
reales, se sigue de suponer lo contrario, que son complejos y conjugados uno del
otro. En ese caso, x1 debe ser el conjugado de x2 y y1 el de y2 , ademas x1 x2 + y1 y2
no puede ser cero. Por consiguiente, Cauchy haba demostrado que todos los valores
caractersticos de una matriz simetrica son reales y al menos en el caso en el que
son todos distintos, la matriz puede ser diagonalizada utilizando transformaciones
ortogonales. [K]
Por otro lado, veamos como se demostro que los vectores caractersticos no triviales correspondientes a valores caractersticos diferentes son linealmente independientes: supongamos que
f (x) = x
P
P
donde x =
i ei 6= 0. Escribiendo Ci = (I f )(ei ), se tiene que
i Ci = 0;
luego C1 , C2 , , Cn son linealmente dependientes, de aqu que
[(I f )(e1 )][(I f )(e2 )] [(I f )(en )] = 0.
Como e1 e2 en 6= 0, esto es equivalente a que el determinante de la funcion
lineal I f sea cero, con lo cual queda demostrado el teorema. Este teorema fue
demostrado por Cauchy en 1829 y posteriormente por Weierstrass en 1858.

AII.2 Teorema de Cayley-Hamilton


Cayley menciona en su artculo de 1858, el que ahora es llamado Teorema de
Cayley-Hamilton para matrices cuadradas de cualquier orden. Demuestra el teorema para el caso de matrices de 33 y afirma que la demostracion del caso general
no es necesaria.
El uso de la notacion de una u
nica letra para representar matrices fue lo que
probablemente le sugirio a Cayley el teorema que establece que

det

donde M representa la matriz

aM
c
a b
c d

b
dM

=0

Cayley le comunico a Sylvester este notable teorema en una carta el 19 de noviembre de 1857. En ella y en el artculo de 1858, Cayley hizo calculos con M como
si fuera una cantidad algebraica ordinaria y demostro que (a M )(d M ) bc =

162

Ap
endice

(ad bc)M 0 (a + d)M 1 + M 2 = 0 donde M 0 = 10 01 . Lo que motivo a Cayley a establecer este resultado fue demostrar que cualquier matriz satisface una
ecuacion algebraica de su mismo orden y por lo tanto que toda funcion racional
y entera (de la matriz) puede ser expresada como una funcion racional y entera de
un orden a lo mas igual al de la matriz menos la unidad. Despues demostro que
este resultado es cierto para funciones irracionales. En particular demuestra como
calcular L2 = M , donde M es una matriz de 2 2. Supongamos que

M= a b
y L=

c d
Como L satisface L2 ( + )L + ( ) = 0 y L2 = M , sustituyendo obtenemos
L=

1
[M + ( )] .
+

El proposito era expresar X = + y Y = en terminos de los coeficientes


de la matriz M . Cayley resuelve esto haciendo notar que la expresion anterior para
L implica que

b
a+Y

X
L= X
d + Y .
c
X
X
Como la suma de las diagonales de esta matriz es X y el determinante es Y , se
obtienen dos ecuaciones para las variables X y Y que involucran u
nicamente los
coeficientes de la matriz original.
Hamilton enuncio el teorema en terminos de funciones lineales y no en terminos
de matrices. En particular, escribio el resultado para dimension 3 en terminos de
una funcion lineal de vectores y para dimension 4 en terminos de una funcion lineal
de cuaterniones. Cabe se
nalar que no dio una demostracion general del teorema.
Su principal interes estuvo en derivar una expresion para la inversa de una funcion
lineal. Por ejemplo, si la ecuacion M 2 + aM + b = 0 entonces bM 1 = (a + M ) y
M 1 puede ser facilmente encontrada. Luego, se puede explotar esta idea tratando
con potencias negativas de una matriz dada. [K]
Frobenius en un artculo de 1878 dio la primera demostracion general del Teorema de Cayley-Hamilton.

AII.3 El Polinomio Mnimo


Frobenius define en 1878 el polinomio mnimo, como el polinomio de menor grado
el cual satisface la matriz. Establece que esta formado por los factores del polinomio

163

Ap
endice

caractersitico y que es u
nico. Sin embargo no fue hasta 1904 que Kurt Hensel
(1861-1941) demostro la afirmacion de unicidad de Frobenius. [KL]

AII.5 Forma Can


onica de Jordan
Grassmann demuestra para un operador lineal (construyendo una base apropiada), que el espacio completo se puede descomponer como la suma directa de
subespacios invariantes ker( I)k donde recorre las races caractersticas de
y k es la multiplicidad algebraica de . Grassmann fue el primero en demostrar
este resultado el cual es llamado teorema de descomposici
on primaria.
En uno de sus artculos, Peirce (1809-1880) introduce la idea de elemento nilpotente. [K]
El trabajo de Cauchy proviene de una teora que trata de los valores caractersticos de varios tipos de matrices. Sin embargo, estos resultados fueron escritos
en terminos de formas y no en terminos de matrices a mediados del siglo XIX. Las
formas cuadraticas nos conducen a matrices simetricas. El caso mas general de
formas bilineales, funciones de 2n variables de la forma
n
X

aij xi yj

i,j=1

conducen a matrices cuadradas. Estas fueron estudiadas primero en detalle por


Jacobi alrededor del a
no 1850 y un poco mas tarde por Weierstrass y Jordan, entre
otros. Lo principal de este estudio fue encontrar maneras para clasificar tales formas, usualmente determinando las funciones lineales las cuales transforman unas
formas en otras de un tipo particularmente simple. La idea central de determinar
dichas funciones fue, como en el trabajo de Cauchy, la consideracion del polinomio
caracterstico det(A I), donde A es la matriz que representa la forma bilineal. En 1851 Sylvester demostro que un cierto conjunto de factores del polinomio
caracterstico son preservados bajo cualquier sustitucion lineal. Estos factores, los
divisores elementales, resultan fundamentales en el proceso de clasificacion. Luego,
Weierstrass en 1868, tratando con valores complejos y teniendo todos los polinomios
irreducibles lineales, demostro el converso del resultado de Sylvester el cual dice que
una forma bilineal dada A puede ser transformada en otra forma B, si y solo si,
ambas formas tienen el mismo conjunto de divisores elementales. En notacion
moderna, una forma bilineal puede ser expresada como XAY donde X es una matriz de 1 n, Y una matriz de n 1, y A una matriz de n n. Una funcion lineal
sobre X se puede expresar como X = X 0 P donde P es una matriz invertible de
n n. Similarmente, una funcion lineal sobre Y puede escribirse como Y = QY 0 .

164

Ap
endice

Se sigue que la forma bilineal transformada se puede expresar como X 0 P AQY 0 .


Weierstrass demostro que se pueden encontrar P y Q tales que la matriz P AQ se
puede escribir como

D1 0 0 0
0 D2 0 0
.
.. . .
..
..

.
.
.
.
.
.
0
0 0 Dk
donde cada submatriz Di es de la

0
0
..
.
u

forma

..
.

0
0
..
.
0

0
1
..
.
0

1
u
..
.
0

u
0
..
.
0

con u una raz del polinomio caracterstico.


Dos a
nos mas tarde, Jordan desarrollo la misma forma canonica en su Tratado de Sustituciones. Jordan no llego al problema de clasificacion a traves
del estudio de formas bilineales, sino a traves del estudio de las funciones lineales
mismas. Haba hecho un estudio detallado del trabajo de Galois sobre soluciones de
ecuaciones algebraicas y especialmente sobre la resolucion de ecuaciones de grado la
potencia de un primo. Estas soluciones involucran el estudio de funciones lineales,
funciones cuyos coeficientes podan ser considerados como elementos de un campo
finito de orden p. Tal funcion lineal, con las races x1 , x2 , . . . , xn puede ser expresada
en terminos de una matriz A. En otras palabras, si X representa la matriz de n 1
de las races xi , entonces la funcion puede ser escrita como X 0 AX(mod p). El
proposito de Jordan fue encontrar lo que llamo una transformacion de ndices
tal que la funcion pudiera ser expresada en los terminos mas simples posibles. En
notacion matricial, esto significa que quera encontrar una matriz invertible P de
n n, tal que P A DP donde D es la matriz mas simple posible.
Luego, si Y P X, entonces P AP 1 Y P AX DP X DY y la sustitucion
sobre Y es simple. Usando otra vez el polinomio caracterstico para A, Jordan
noto que si todas las races de det(A I) = 0 son distintas, entonces D puede
ser diagonal, donde los elementos de la diagonal son los valores caractersticos.
Por otro lado, si hay races m
ultiples, Jordan demostro que puede encontrarse una
sustitucion tal que la D resultante tenga forma de bloque, como en la forma anterior
de Weierstrass, donde cada bloque Di es una matriz de la forma

k 1 0 0 0
0 k 1 0 0
. . . .

. . ... ...
.. .. ..

0 0 0 k 1
0 0 0 0 k

Ap
endice

165

y k 6= 0 (mod p) es una raz del polinomio caracterstico. La forma canonica,


conocida hoy como forma can
onica de Jordan, donde los valores k de la diagonal
mayor de la matriz son todos sustituidos por el valor 1, fue introducida por Jordan
en 1871 cuando se dio cuenta que su metodo poda ser aplicado a la solucion de
sistemas de ecuaciones diferenciales lineales, cuyos coeficientes, en lugar de ser
tomados en un campo de p elementos, fueran n
umeros reales o complejos. [K]

AIII.1 Formas Bilineales


Mientras los matematicos mostraban una tendencia a desde
nar las ecuaciones de
primer grado, la resolucion de ecuaciones diferenciales fue un problema muy importante. Las ecuaciones lineales se distinguieron desde el principio y su estudio contribuyo a poner de manifiesto la linealidad correspondiente. DAlembert, Lagrange
y Euler estudiaron esto, pero el primero es el u
nico que considera u
til indicar que la
solucion general de la ecuacion no homogenea es suma de una solucion particular y
de la solucion general de la ecuacion homogenea correspondiente; ademas, cuando
estos autores enuncian que la solucion general de la ecuacion lineal homogenea
de orden n es combinacion lineal de n soluciones particulares, no mencionan que
estas deben ser linealmente independientes. Este punto, como tantos otros, no se
aclararan hasta la ense
nanza de Cauchy en la Escuela Politecnica.
Lagrange introdujo (aunque solamente para el Calculo y sin darle nombre) la
ecuacion adjunta L (y) = 0 de una ecuacion diferencial lineal L(y) = 0, la cual es
un ejemplo tpico de dualidad en virtud de la relacion
Z
Z
zL(y) dx = L (z)y dx
valida para y y z anulandose en los extremos del intervalo de integracion. Con mas
precision, y treinta a
nos antes de que Gauss definiera explcitamente la traspuesta
de una sustitucion lineal de 3 variables, vemos aqu el primer ejemplo de un operador
funcional L traspuesto de un operador L dado mediante una funci
on bilineal (en
R
este caso la integral) yz dx.
Posteriormente, el estudio de las formas cuadraticas y bilineales, y de sus matrices y sus invariantes conduce al descubrimiento de principios generales sobre la
resolucion de sistemas de ecuaciones lineales; principios que Jacobi no haba alcanzado por carecer de la nocion de rango. [B]

AIII.3 Producto Escalar


A principios de 1840, Grassmann haba desarrollado el concepto de producto interior (escalar) de dos vectores como el producto algebraico de un vector mul-

166

Ap
endice

tiplicado por la proyeccion perpendicular del segundo sobre el y establecio algebraicamente el producto interior | de y (cuando n = 3) como
| = 1 1 + 2 2 + 3 3
donde = 1 e1 + 2 e2 + 3 e3 y = 1 e1 + 2 e2 + 3 e3 son hipern
umeros,
las i y i son n
umeros reales y e1 , e2 y e3 son unidades primarias representadas geometricamente por vectores de longitud unitaria, dibujados desde un origen
com
un tal como lo determina un sistema de ejes ortogonales de la mano derecha. Las
i ei son m
ultiplos de las unidades primarias y son representadas geometricamente
por las longitudes i a lo largo de los ejes respectivos, mientras que esta representada por un vector en el espacio cuyas proyecciones sobre los ejes son las longitudes
i . Se cumple lo mismo para i y . Para el producto interior Grassmann postula
que
ei |ei = 1 y que ei |ej = 0 para i 6= j.
El valor numerico o magnitud de un hipern
umero lo define como
q
p
a = | = 12 + 22 + 32 .
Luego, la magnitud de es numericamente igual a la longitud del vector, el cual se
representa geometricamente. Tambien desarrolla la formula para el cambio de coordenadas bajo cambio de base e introduce algunas de las ideas basicas relacionadas
con las funciones lineales. Finalmente, aplico algunas de estas ideas en el desarrollo
de la geometra simbolica.
Hamilton tambien define el producto escalar de dos vectores, pero en dimension
a lo mas cuatro y demuestra su bilinealidad.

AIV.1 Producto Tensorial


El Calculo Tensorial se inicia a principios del siglo XIX con Grassmann y Cayley,
pero prospera hasta fines del mismo. Riemann multiplico el poder del calculo
tensorial adoptando las coordenadas curvilneas de Gauss. Un nuevo progreso fue
realizado por Christoffel en 1869 al organizar sistematicamente el nuevo algoritmo,
descubriendo las derivadas que despues se han llamado invariante y covariante.
Finalmente Ricci y su discpulo Levi Civita le dieron la forma definitiva en 1888.
La fsica relativista de Einstein saco del olvido este poderoso instrumento, hoy
de uso frecuente en las mas diversas teoras.
El ejemplo mas importante es la curvatura de un espacio y precisamente este
tensor de Riemann fue el que le permitio a Einstein expresar su ley de gravitacion
y su teora general de relatividad. [R]

167

Ap
endice

AIV.2 Producto Exterior


Grassmann introduce el producto exterior denotado con [ ], para el cual postula
que para las unidades primarias ei
[ei ej ] = [ej ei ]

i 6= j,

[ei ei ] = 0.

Estos corchetes son llamados unidades del segundo orden y no son reducidos por
Grassmann (mientras que Hamilton s lo hace) a unidades del primer orden. Sin
embargo eran equivalentes a unidades del primer orden [e1 e2 ] = e3 , y as sucesivamente. Con la ayuda del producto exterior de las unidades primarias, el producto
exterior P de los hipernumeros = 1 e1 + 2 e2 + 3 e3 y = 1 e1 + 2 e2 + 3 e3
lo expreso como sigue:
P = [] = (2 3 3 2 )[e2 e3 ] + (3 1 1 3 )[e3 e1 ] + (1 2 2 1 )[e1 e2 ].
Este producto es un hipern
umero del segundo orden y esta expresado en terminos
de unidades independientes del segundo orden. Su magnitud |P | se obtiene a partir
de la definicion del producto interior, P |P , de dos hipern
umeros del segundo orden
y es
p
p
|P | = P |P = (2 3 3 2 )2 + (3 1 1 3 )2 + (1 2 2 1 )2
s
2 2
3 3 2
1 1
+
+
)
= |||| 1 (
|||| |||| ||||
= ||||sen
donde es el angulo entre los vectores y .
Luego, la magnitud |P | del producto exterior [], se representa geometricamente por el area del paralelogramo construido sobre los vectores, los cuales son
las representaciones geometricas de y .
Hamilton establecio el producto exterior de dos vectores, como el que ahora es
dado para el sistema de los n
umeros complejos. Durante 15 a
nos estuvo tratando
de generalizarlo a un espacio de tres dimensiones. Un da mientras caminaba por
el canal Royal se le ocurrio la formula i2 = j 2 = k 2 = ijk que le permitio definir el
producto exterior de dos vectores, pero en un espacio de dimension cuatro (cuaterniones).

AIV.4 K0 y K1
La K-Teora Algebraica comienza por el hecho de que no todos los modulos proyectivos son libres.

168

Ap
endice

La K-Teora Algebraica comenzo a finales de la decada de los cincuentas con la


analoga de Serre entre haces vectoriales y modulos proyectivos: existe una correspondencia biyectiva entre clases de isomorfismo de haces vectoriales reales sobre X y
clases de isomorfismo de modulos finitamente generados sobre el anillo de funciones
reales continuas sobre X. Por medio de esta correspondencia, el conocimiento de los
haces vectoriales se utiliza para sugerir resultados, demostraciones y construcciones
para los modulos proyectivos.
En geometra algebraica, los haces vectoriales sobre variedades algebraicas se
definen como gavillas localmente libres. De hecho, existe una correspondencia
biyectiva entre haces vectoriales y gavillas localmente libres de rango finito. El
espacio afn Ank sobre un campo k es el espectro primo Spec k[t1 , , tn ]. Este es
un esquema afn sobre k[t1 , , tn ] y las gavillas localmente libres corresponden a
modulos proyectivos finitamente generados sobre k[t1 , , tn ]. As pues, corresponden a haces vectoriales sobre Ank los modulos proyectivos finitamente generados.
La conjetura de Serre era la siguiente: Es todo haz vectorial sobre Ank un haz
trivial? o equivalentemente, son libres todos los modulos proyectivos finitamente
generados sobre k[t1 , , tn ]?
Una de las metas de la K-Teora Algebraica fue en un principio, la de proveer
nuevas tecnicas para atacar el problema de Serre. Sin embargo, ninguna de las
soluciones independientes de Suslin y Quillen en 1976 se baso en la K-Teora Algebraica.
La K-Teora Algebraica Clasica es una parte del Algebra Lineal General. Es, intuitivamente, una generalizacion del teorema que establece la existencia y unicidad
de las bases para espacios vectoriales y tambien de la Teora de Grupos del grupo
lineal general sobre un campo.
La K-Teora Algebraica tiene sus races en el trabajo de Grothendieck sobre el
teorema de Riemann-Roch, donde introdujo el funtor K0 . Sea un anillo con
unidad. Definimos K0 () como el grupo abeliano con un generador [P ] para cada
-modulo proyectivo finitamente generado P , y una relacion [P ] = [P 0 ] + [P 00 ] para
cada sucesion exacta
0 P 0 P P 00 0.
Llamamos a K0 () el grupo de Grothendieck de , i.e., el grupo abeliano de
clases de isomorfismo de -modulos proyectivos finitamente generados.
El calculo de K0 de un campo mide, hasta cierto punto, cuanto les falta a los
-modulos proyectivos finitamente generados para poseer una teora de dimension
como la de los espacios vectoriales. As, podemos considerar aquella parte de la

169

Ap
endice

K-Teora Algebraica correspondiente a K0 como un intento de generalizar ciertas


propiedades elementales del Algebra Lineal a modulos sobre un anillo cualquiera.
Observamos que la operacion aditiva en K0 () proviene de la suma directa de
modulos, i.e., [P ] + [Q] = [P Q] y que, si es conmutativo, entonces el producto
tensorial de modulos hace de K0 () un anillo conmutativo, i.e., [P ] [Q] = [P Q].
Sea GLn el grupo lineal general de matrices invertibles denn con
coeficientes
en . Si identificamos cada matriz A GLn con la matriz A 0 GLn+1 ()
0 1
obtenemos inclusiones GL1 () GL2 () GL3 () . Denotaremos su lmite
directo con GL(). En 1939, Whitehead demostro que el subgrupo E() GL()
generado por todas las matrices elementales era igual al subgrupo conmutador
[GL(), GL()].
LEMA (Whitehead) [GL(), GL()] = E().
Por lo tanto, E() es un subgrupo normal de GL() y el cociente
GL()/E() es un grupo abeliano bien definido. Este grupo se define como K1 y
se llama grupo de Whitehead de . Es inmediato comprobar que K1 es un funtor
de la categora de anillos en la categora de grupos abelianos.
Durante los u
ltimos a
nos de la decada de los sesenta, uno de los problemas
mayores de la K-Teora Algebraica era el de definir funtores Kn para toda n Z.
Esto fue sugerido por analoga con la K-Teora Topologica.
En 1969, Milnor propuso una definicion de K2 () que posea propiedades analogas a K0 y K1 . El observo que, en el grupo En (), las matrices elementales
eij satisfacan ciertas relaciones obvias. Siguiendo a Steinberg, Milnor introdujo
un grupo abstracto Stn () definido por generadores xij y relaciones que imitaban el comportamiento de esas matrices elementales. Definiendo el homomorfismo
canonico

n : Stn () En () GLn ()
dado por n (xij ) = eij , y pasando al lmite directo obtenemos : St() GL()
tal que (St()) = E(). Entonces Milnor definio K2 () = ker .
La K-Teora Algebraica se convirtio en un tema importante porque relaciona
dos areas de las matematicas. El desarrollo de la K-Teora Algebraica superior de
Quillen relaciona la Topologa con el Algebra de una manera nueva y fundamental.
La K-Teora Algebraica utiliza metodos topologicos para encontrar invariantes algebraicos, y tambien proporciona una manera de traducir conceptos algebraicos en

170

Ap
endice

conceptos topologicos. La K-Teora Algebraica estudia las propiedades de ciertos


grupos Ki (), construidos a partir de un anillo .
Quillen en los setentas definio, para i 1, el i-
esimo K-grupo algebraico de
como Ki = i (BGL+ ). Como en los casos i = 1, 2, Ki es un funtor covariante
de la categora de anillos a la categora de grupos. [LL1] y [LL2]

Bibliografa de las Notas Hist


oricas
[B] Bourbaki, N. Elementos de Historia de las Matem
aticas. Madrid.
Alianza. (1976).
Boyer, C. B. A History of Mathematics. New York. Wiley. (1989).
Cajori, F. A History of Mathematics. New York. The Macmillan.
(1929).
Crowe, M. J. A History of Vector Analysis. University of Notre Dame
Press. (1967).
Dieudonne, J. A History of Algebraic and Differential Topology
1900-1960. Birkhauser. (1989).
[F-S] Fearnley, D., Sander. Hermann Grassmann and the Creation of Linear
Algebra. Mathematical Monthly 86. p.809-817. (1879).
[F-B] Fraleigh, J. B., Beauregard R. A. Linear Algebra. Addison-Wesley.
(1989).
Gauss, C. F. Recherches Arithm
etiques. Jaques Gabay. (1807).
Grassmann, H. G. Teora de la Extensi
on. Espasa Calpe. (1947).
[H] Hawkins, T. Another Look at Cayley and the Theory of Matrices. Archives Internationales Dhistoire des Sciences. Vol. 27 No.100.
Boston (1977).
Hawkins, T. Cauchy and the Spectral Theory of Matrices. Historia
Matematica. Vol. 2. p.1-29. (1975).
[K] Katz, V. J. Historical Ideas in Teaching Linear Algebra and about
some concepts of Linear Algebra. Comunicacion personal no publicada. (1993).
[KL] Kline, M. Mathematical Thought from Ancient to Modern Times.
Oxford University Press. (1972).

Ap
endice

171

[LL1] Lluis-Puebla, E. Algebra Homol


ogica, Cohomologa de Grupos y
K-Teora Algebraica Cl
asica. Addison Wesley Ib. (1990).
[LL2] Lluis-Puebla, E., Loday J.-L., Gillet H., Soule C., Snaith V. Higher
Algebraic K-Theory: an overview. Lecture Notes in Mathematics.
Vol. 1491. Springer Verlag. (1992).
[R] Rey, P., Babini, J. Historia de la Matem
atica. Espasa Calpe. (1951).
van der Waerden, B. L. A History of Algebra. Springer Verlag. (1985).
van der Waerden, B. L. Hamiltons Discovery of Quaternions. Mathematics Magazine. Vol. 49. No.5. p.227-234. (1976).

BIBLIOGRAFIA

Birkhoff, G., Mac Lane S. Algebra. Macmillan. (1968).


Birkhoff, G., Mac Lane S. A survey of Modern Algebra. Macmillan.
(1977).
Bourbaki, N. Elements of Mathematics. Algebra I. Addison Wesley.
(1974).
Fraleigh, J.B., Beauregard R.A. Algebra Lineal. Addison Wesley Ib.
(1989).
Guelfand, I.M. Lecciones de Algebra Lineal. U. del Pas Vasco. (Traduccion de la version rusa de 1971).
Herstein, I.N. Algebra Moderna. Trillas. (1970).
Hoffman, K., Kunze R. Linear Algebra. Prentice Hall. (1961).
Hungerford, T.W. Algebra. Springer Verlag. (1980).
[L] Lam, T.Y., Siu, M.K. K0 and K1 -An Introduction to Algebraic KTheory. Amer. Math. Monthly. April, p.329-364. (1975).
Lang, S. Algebra. Addison Wesley. (1971).
Lang, S. Linear Algebra. Addison Wesley. (1971).
Lipschutz, S. Linear Algebra. McGraw-Hill. (1974).
[LL1] Lluis-Puebla, E. Algebra Homol
ogica, Cohomologa de Grupos y
K-Teora Algebraica Cl
asica. Addison Wesley Ib. (1990).
[LL2] Lluis-Puebla, E., Loday J.-L., Gillet H., Soule C., Snaith V. Higher

174

Bibliografa

Algebraic K-Theory: an overview. Lecture Notes in Mathematics


1491. Springer Verlag. (1992).
Nomizu, K. Fundamentals of Linear Algebra.
(1966).

McGraw-Hill.

Northcott, D. Multilinear Algebra. Cambridge U. Press. (1984).


[V] Vaserstein, L.N. Linear Algebra and Algebraic K-Theory. Contemporary Mathematics vol. 82. p.191-198. (1989).

LISTA DE SIMBOLOS

K, 21
Mmn K, 23
K S , 23 K[x], 23
U
= V , 25
1V , 26
OV , 26
tr, 26
det, 26, 147
HomK (U, V ), 26
L(U, V ), 26
A(U, V ), 26
Mn K, 27
ker f ,27
im f , 27
U + V , 28
U V , 29
Ln
i=1 Vi , 31

hSi, 31
dim V , 38
rango f , 43
nul f , 43
0

[f ] , 49
[u] , 49
[f (u)] 0 , 49
N , 50
EndK (V ), 52
U , 57
pA (), 62
|Nij |, 63
Aij , 63
63
A,
mA (), 67
V /U , 70
U , 71
Jij , 83

176

Lista de smbolos

L2 (V, V ; K), 88

T k (V ), 137

L2 (V ; K), 88
L1 (V ; K), 89

T V , 138
Vk
V , 138
V
V , 138

V , 89

T`k (V ), 138

[f ] , 91

AK (V ), 140

V , 94

K0 (X), 141

Bil(V ), 88

U , 96

hV i, 142

rg(f ), 96

[V ], 142

n+ , 100

EVK , 143

n , 100

Ab, 143

sgf , 101

Abf , 143

A , 102

Abfg, 143

h , i, 103

GL(V ), 143

|| ||, 104

AutK (V ), 143

U , 105

GLn (K), 144

, 109

eij , 144

A , 112

[A, B], 145

O(n), 112

GL(K), 145

SO(n), 112

En (K), 145

U k V , 121

E(K), 145

ui vj , 122

K1 (K), 147

V V , 128

SL(K), 147

u v, 129

SLn (K), 147

u v, 130
Vk
V , 131

SK1 (K), 148

|A|, 132

INDICE ANALITICO

algebra
de Grassmann, 138
exterior, 138
graduada, 137
tensorial, 138

algebra sobre un anillo, 137


asociativa, 137
con uno, 137
conmmtativa, 137
algoritmo de la divisi
on, 136
anillo, 136
cociente, 149
con divisi
on, 136
con identidad, 136
con uno, 136
conmutativo, 136
aniquilador, 96
anulador, 96
aplicaci
on
lineal, 24
natural, 95
automorfismo, 134

base, 36
can
onica, 36
de un m
odulo, 137
dual, 90
Bessel
desigualdad de, 108

campo, 136
Cauchy-Schwarz
desigualdad de, 104
Cayley-Hamilton
teorema de, 63
clase lateral, 70
coeficientes, 31
cofactor, 63
combinaci
on lineal, 31
componente de un tensor, 140
conjunto
base, 36
de generadores, 35
linealmente dependiente, 33, 36
linealmente independiente, 33, 35
ortogonal, 105
ortogonal a un subconjunto, 105
ortonormal, 105
soluci
on, 32
conmutador, 145

descomposici
on espectral, 117
desigualdad
de Bessel, 108
de Cauchy-Schwarz, 104
del tri
angulo, 104
determinante, 132
de una matriz, 133

178
diagrama
conmutativo, 31
dimensi
on, 38
dominio
entero, 136
euclidiano, 136

endomorfismo, 52, 132


escalar, 22, 138
espacio
caracterstico, 57
cociente, 70
con producto escalar, 103
dual, 89
euclidiano, 103
unitario, 103
espacio vectorial
dimensi
on de, 38
invariante bajo un operador lineal, 71
sobre un campo, 21
tensorial de grado k , 138
tensorial de tipo (k, `), 138
espacios isomorfos, 25

forma bilineal, 88
alternante, 100
antisimetrica, 100
definida positivamente, 101
degenerada, 96
no degenerada, 96
rango de una, 96
semidefinida no negativamente, 101
signo de una, 101
simetrica, 97
forma can
onica, 56, 70
de Jordan, 83
normal, 76
forma cuadr
atica, 97
compleja, 101
hermitiana,101
forma hermitiana, 101
forma lineal, 89
forma multilineal, 125
funci
on
bilineal, 87
bilineal alternante, 128
multilineal, 125
funci
on lineal, 24
matriz que representa a una, 49
nulidad de una, 43
rango de una, 43

Indice analtico

trivial, 26,127
funcional lineal, 89

G
Gram-Schmidt
procedimiento de, 105
generadores, 35
grupo, 135
abeliano libre, 139
base de un, 139
cociente, 139
conmutativo, 22, 135
de Grothendieck, 141
elemental infinito, 145
elemental lineal, 145
especial infinito, 147
especial lineal, 147
lineal general, 144
lineal general infinito, 145
ortogonal, 112
ortogonal especial, 112

H
homomorfismo
de anillos, 136
de espacios vectoriales, 24
de grupos, 136
de identidad, 26
de -m
odulos, 137
natural, 95
trivial, 26

I
ideal, 149
imagen, 27
ndice
contravariante, 140
covariante, 140
de nilpotencia, 79
invariante bajo similaridad, 60, 65
isomorfismo
de espacios vectoriales, 25
de grupos, 139
de espacios con producto escalar, 112

K-grupo algebraico de ndice uno, 147

L
lema de Whitehead, 145
ley de la inercia de Sylvester, 101
longitud de un vector, 104

179

Indice analtico

matriz
adjunta cl
asica, 63
antisimetrica, 100
asociada a una funci
on lineal, 49
asociada a una forma bilineal, 91
asociada con respecto a una base, 50
asociada relativa a una base, 50
caracterstica, 62
congruente a, 99
cuadrada, 27
de transici
on, 50
determinante de una, 133
elemental, 144
equivalente a, 60, 76
hermitiana, 102
nilpotente, 79
normal, 112
ortogonal, 112
semejante a, 55
simetrica, 27
similar a, 55
traza de una, 26, 60
unitaria, 112
menor del elemento, 63
m
odulo
finitamente generado, 137
izquierdo, 137
libre, 137
proyectivo, 137
sobre un anillo, 137
monoide, 135
multiplicaci
on, 137
multiplicaci
on escalar, 22

norma de un vector, 104


n
ucleo, 27
nulidad, 43
n
umeros de Fibonacci, 61

operador
adjunto, 110
autoadjunto, 114
hermitiano, 114
normal, 112
ortogonal, 112
que preserva longitudes, 113
que preserva productos escalares, 113
simetrico, 114
unitario, 112
operador lineal, 44

descomponible, 77
determinante de un, 132
diagonalizable, 56
invertible, 44
nilpotente, 79
no singular, 44
representado por matriz triangular, 73
singular, 44

permutaciones, 133
polinomio
caracterstico, 62
mnimo, 67
potencia
exterior de grado dos, 128
exterior de grado k , 131
procedimiento de Gram-Schmidt, 105
producto
escalar, 95, 103
exterior, 133
interno, 103
tensorial, 121
propiedad universal
de la potencia exterior, 128, 131
de la suma directa, 30
del producto tensorial, 121
proporci
on divina, 61
proyecci
on ortogonal, 107

rango, 43
resoluci
on espectral, 117

secci
on
aurea, 61
semigrupo, 135
subconjunto independiente m
aximo, 41
subespacio
generado por, 31
invariante bajo un operador, 71
ortogonal, 105
trivial, 27
vectorial, 27
subgrupo, 139
sucesi
on
de Fibonacci, 61
exacta, 126
exacta corta, 139
suma
de subespacios vectoriales, 28
directa, 29
directa externa, 29

180
directa interna, 29
Sylvester, ley de la inercia, 101

tensor
componente de un, 140
contravariante de grado k , 138
covariante de grado `, 138
de tipo (k, `), 138
mixto, 138
teorema
de Cayley-Hamilton, 63
de descomposici
on primaria, 78
espectral, 116
transformaci
on lineal, 24
transvecci
on, 144
traza, 26, 60

valor
caracterstico, 56
propio, 56

Indice analtico

vector
caracterstico, 56
contravariante, 138
covariante, 138
longitud de un, 104
norma de un, 104
normalizado, 104
propio, 56
unitario, 104
vectores, 22
linealmente dependientes, 33
linealmente independientes, 33
ortogonales, 105

Whitehead
lema de, 145

La intencion de la presente obra es la de proveer a los estudiantes de las carreras


cientficas de un enfoque serio, fundamentado y moderno de los conceptos basicos

del Algebra
Lineal. Se ha incluido el Algebra
Multilineal, tema de fundamental
importancia as como algunos conceptos de la K-Teora Algebraica Clasica, una de
las ramas mas recientes de la Matematica. Se incluyen diversos ejercicios de calculo
explcito, as como una gran cantidad de problemas interesantes que le brindan al
estudiante la oportunidad de crear y redactar matematica.
En la introduccion se presenta un panorama del libro y se incluye un apendice que
contiene notas historicas sobre los conceptos definidos. El texto esta escrito en un
lenguaje claro, conciso y elegante. Esta dise
nado para un curso de un a
no o dos
semestres al nivel licenciatura o bien de un semestre para algunos posgrados.
Este libro cumple ya mas de diez a
nos de ser utilizado exitosamente como texto
sobre la materia en diversas universidades del Continente Americano, incluyendo
algunas universidades de Estados Unidos de Norteamerica y, desde luego, en Mexico.
Emilio Lluis nacio en la Ciudad de Mexico en septiembre de 1952. Realizo sus
Estudios Profesionales y de Maestra en Matematica en Mexico. En 1980 obtuvo
su Doctorado (Ph.D.) en Matematica en Canada. Es catedratico de la Universidad
Nacional Autonoma de Mexico en sus Divisiones de Estudios Profesionales y de
Posgrado desde hace treinta a
nos. Ha formado varios profesores e investigadores
que laboran tanto en Mexico como en el extranjero.

Es autor de varios libros sobre K-Teora Algebraica, Algebra


Homologica, Algebra
Lineal y Teora Matematica de la M
usica publicados en las editoriales con distribucion mundial Addison Wesley, Birkhauser y Springer Verlag entre otras.
Su trabajo matematico ha quedado establecido en sus artculos de investigacion y
divulgacion que ha publicado sobre la K-Teora Algebraica, la Cohomologa de Grupos y la Teora Matematica de la M
usica en las mas prestigiadas revistas nacionales
e internacionales. Ha sido Profesor Visitante en Canada.
Recibio varias distinciones academicas, entre otras, la medalla Gabino Barreda al
mas alto promedio en la Maestra, Investigador Nacional (1984-1990) y Catedra
Patrimonial de Excelencia del Conacyt (1992-1993).
Es miembro de varias asociaciones cientficas como la Real Sociedad Matematica
Espa
nola y la American Mathematical Society. Es presidente de la Academia
de Ciencias del Instituto Mexicano de Ciencias y Humanidades, presidente de la
Academia de Matematica de la Sociedad Mexicana de Geografa y Estadstica y
presidente 2000-2002 de la Sociedad Matematica Mexicana.

También podría gustarte