Algebra Lineal PDF
Algebra Lineal PDF
Algebra Lineal PDF
Gabriela Jeronimo
Juan Sabia
Susana Tesauri
lgebra Lineal
Departamento de Matemtica
Facultad de Ciencias Exactas y Naturales
Fascculo 2
Comit Editorial:
ISSN 1851-1317
Derechos reservados
2008 Departamento de Matemtica, Facultad de Ciencias Exactas y Naturales,
Universidad de Buenos Aires.
Departamento de Matemtica
Facultad de Ciencias Exactas y Naturales
Universidad de Buenos Aires
Ciudad Universitaria Pabelln I
(1428) Ciudad de Buenos Aires
Argentina.
http://www.dm.uba.ar
e-mail. secre@dm.uba.ar
tel/fax: (+54-11)-4576-3335
Gabriela Jeronimo, Juan Sabia y Susana Tesauri
Algebra lineal
El algebra lineal es una herramienta basica para casi todas las ramas de la matematica as
como para disciplinas afines tales como la fsica, la ingeniera y la computacion, entre otras.
Estas notas, basadas en la materia Algebra Lineal destinada a alumnos de la Licenciatura en
Ciencias Matematicas y del Profesorado en Matematicas de la Facultad de Ciencias Exactas
y Naturales de la Universidad de Buenos Aires, que hemos dictado varias veces, pretenden,
entre tantos buenos textos de algebra lineal existentes, ser solo una introduccion basica al
tema que se ajusta a los contenidos curriculares del curso y, al mismo tiempo, una gua de
estudios para los alumnos.
Las notas no presuponen ningun conocimiento previo de algebra lineal, aunque s de algu-
nas propiedades basicas de polinomios a coeficientes en un cuerpo y de numeros complejos,
y en algunos ejercicios se utilizan estructuras que provienen de la aritmetica elemental. Se
comienza con las definiciones basicas de estructuras algebraicas necesarias para definir la
nocion de espacio vectorial, para seguir con la nocion de subespacio, sistema de generadores
e independencia lineal. Despues de dar una breve introduccion al tema de las matrices a
coeficientes en un cuerpo, se definen y estudian las transformaciones lineales, el espacio dual
y la teora de determinantes. La diagonalizacion de matrices y la forma de Jordan de auto-
morfismos en espacios de dimension finita se desarrollan a continuacion, seguidas del estudio
de espacios con producto interno reales y complejos. El captulo de variedades lineales puede
verse como una aplicacion del algebra lineal a la geometra afn. Finalmente, se da una breve
introduccion a la teora de formas bilineales.
1 Espacios vectoriales 1
1.1 Espacios vectoriales y subespacios . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.4 Sistemas de generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Sistemas lineales homogeneos . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.2 Metodo de triangulacion . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Cantidad de soluciones de un sistema homogeneo . . . . . . . . . . . . . 17
1.2.4 Sistemas lineales no homogeneos. . . . . . . . . . . . . . . . . . . . . . . 19
1.3 Independencia lineal y bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.1 Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3.2 Bases y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.4 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.1 Subespacio suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.4.2 Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2 Matrices 47
2.1 Definiciones y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.2 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.4 Coordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.4.1 Coordenadas de un vector en una base . . . . . . . . . . . . . . . . . . . 55
2.4.2 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
vi INDICE GENERAL
2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3 Transformaciones lineales 65
3.1 Definiciones, ejemplos y propiedades basicas . . . . . . . . . . . . . . . . . . . . 65
3.1.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1.2 Nucleo e imagen de una transformacion lineal . . . . . . . . . . . . . . . 68
3.1.3 Composicion de transformaciones lineales . . . . . . . . . . . . . . . . . 71
3.2 Espacios vectoriales de dimension finita . . . . . . . . . . . . . . . . . . . . . . 72
3.3 Teorema de la dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4 Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.5 Representacion matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5.1 Matriz de una transformacion lineal . . . . . . . . . . . . . . . . . . . . 77
3.5.2 Matriz de la composicion y cambios de bases . . . . . . . . . . . . . . . 78
3.6 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6.1 Rango columna y rango fila . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6.2 Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
3.7 Espacios vectoriales de transformaciones lineales . . . . . . . . . . . . . . . . . 83
3.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4 Espacio dual 95
4.1 El espacio dual de un espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . 95
4.2 Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.3 Anulador de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5 Determinantes 107
5.1 Definicion y ejemplos basicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.1.1 Funciones multilineales alternadas . . . . . . . . . . . . . . . . . . . . . 107
5.1.2 Existencia y unicidad del determinante . . . . . . . . . . . . . . . . . . . 110
5.2 Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2.1 Determinante de la transpuesta de una matriz . . . . . . . . . . . . . . 115
5.2.2 Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.2.3 Desarrollo del determinante por una fila o columna . . . . . . . . . . . . 117
5.2.4 Determinante del producto de matrices . . . . . . . . . . . . . . . . . . 118
5.3 Determinantes y matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . 119
5.3.1 Inversibilidad de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.3.2 Adjunta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
INDICE GENERAL vii
6 Diagonalizacion 133
6.1 Nociones basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.1.1 Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.1.2 Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
6.2 Una caracterizacion de matrices diagonalizables . . . . . . . . . . . . . . . . . . 137
6.2.1 Suma directa de subespacios . . . . . . . . . . . . . . . . . . . . . . . . 137
6.2.2 Espacios de autovectores y diagonalizacion . . . . . . . . . . . . . . . . 139
6.3 Polinomios minimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
6.3.1 Polinomio minimal de una matriz . . . . . . . . . . . . . . . . . . . . . . 142
6.3.2 Polinomio minimal de un vector . . . . . . . . . . . . . . . . . . . . . . 146
6.3.3 Teorema de Hamilton-Cayley . . . . . . . . . . . . . . . . . . . . . . . . 148
6.3.4 Un criterio de diagonalizacion usando el polinomio minimal . . . . . . . 151
6.4 Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
Bibliografa 265
Espacios vectoriales
En diversos conjuntos conocidos, por ejemplo los de vectores en el plano o en el espacio (R2
y R3 ), o tambien el de los polinomios (R[X]), sabemos sumar sus elementos y multiplicarlos
por numeros. Todos estos conjuntos comparten una cierta estructura, que esta dada por
esa suma y ese producto por numeros, a la que llamaremos espacio vectorial. En este captulo
presentaremos la nocion de espacio vectorial y estudiaremos algunas propiedades basicas que
poseen los conjuntos con dicha estructura.
Definicion 1.1 Sea A un conjunto no vaco. Una operacion (o ley de composicion interna u
operacion binaria) de A es una funcion : A A A.
Notacion. (a, b) = c se escribe a b = c.
Ejemplos.
No nos interesaremos por operaciones cualesquiera, sino que trabajaremos con operaciones
que posean algunas propiedades. Entre las propiedades que analizaremos se encuentran las
siguientes:
i) se dice asociativa si (a b) c = a (b c) a, b, c A.
ii) Se dice que tiene elemento neutro si e A tal que e a = a e = a para cada a A.
(Observar que si tiene elemento neutro, este es unico, ya que si e y e0 son elementos
neutros, e0 = e e0 = e.)
iii) Si tiene elemento neutro e, se dice que todo elemento tiene inverso para si a A,
a0 A tal que a a0 = a0 a = e.
Se pueden estudiar las caractersticas que comparten los conjuntos con una operacion
que satisface algunas de estas propiedades. Una nocion util es la de grupo, que definimos a
continuacion.
Definicion 1.3 Sea A un conjunto, y sea una operacion en A que satisface las propiedades
i), ii) y iii) de la definicion anterior. Entonces (A, ) se llama un grupo. Si ademas cumple
iv), se dice que (A, ) es un grupo abeliano o conmutativo.
Ejemplos.
A4B = (A B) (A B).
A partir de la definicion de grupo pueden probarse propiedades que poseen todos los
conjuntos con esa estructura. Por ejemplo:
Sea (G, ) un grupo. Entonces para cada a G existe un unico inverso para a.
Sea e el elemento neutro de (G, ). Supongamos que b y c son inversos de a. Entonces
b = e b = (c a) b = c (a b) = c e = c.
La siguiente definicion que daremos se refiere a conjuntos en los cuales hay dos operaciones
relacionadas entre s.
a (b + c) = a b + a c
(b + c) a = b a + c a
Notacion. Cuando quede claro cuales son las operaciones + y , para referirnos al anillo
(A, +, ), escribiremos simplemente A. Al elemento neutro del producto se lo notara 1.
Ejemplos.
Al igual que en el caso de los grupos, tambien pueden probarse propiedades que poseen
todos los anillos:
0 = 0 a + b = (0 a + 0 a) + b = 0 a + (0 a + b) = 0 a.
Luego, 0 a = 0.
Ejemplos.
La siguiente definicion resume las propiedades que debe satisfacer uno de los conjuntos
involucrados en la definicion de un espacio vectorial.
Ejemplos.
P
n
Se define Q[ 2] = ai ( 2)i / ai Q, n N0 . Veamos que (Q[ 2], +, ) es un
i=0
cuerpo.
Usando que Q[ 2] R, se puede probar facilmente que (Q[ 2], +, ) es un anillo con-
mutativo.
Observamos que Q[ 2] = {a + b 2 : a, b Q}. En efecto, para cada k N, se tiene
Pn
que ( 2)2k = 2k y ( 2)2k+1 = 2k 2 y entonces, todo elemento de la forma ai ( 2)i
i=0
con ai Q y n N0 puede escribirse como a + b 2 con a, b Q. Recprocamente,
es
claro que todo elemento de la forma a + b 2 con a, b Q pertenece a Q[ 2].
Veamos ahora que todo elemento no nulo tiene inverso.
Sea a + b 2 6= 0. Entonces (a + b 2)(a b 2) = a2 2b2 6= 0 (pues a, b Q), de donde
a b
(a + b 2)1 = + 2 2.
a2 2b 2 a 2b2
Tambien en el caso de los cuerpos se pueden probar propiedades generales. Por ejemplo:
a1 (a b) = a1 0 (a1 a) b = 0 1 b = 0 b = 0.
Para poder completar la definicion de espacio vectorial necesitamos definir una clase es-
pecial de funciones que se aplican a elementos de dos conjuntos distintos:
(a) a (v + w) = a v + a w a K; v, w V .
(b) (a + b) v = a v + b v a, b K; v V .
(c) 1 v = v v V .
(d) (a b) v = a (b v) a, b K; v V .
Demostracion.
1. Se tiene que
0 v = (0 + 0) v = 0 v + 0 v.
Sea w el inverso aditivo de 0 v. Entonces
0 = 0 v + w = (0 v + 0 v) + w = 0 v + (0 v + w) = 0 v + 0 = 0 v
2. Vemos que
1. K es un K-espacio vectorial.
1.1 Espacios vectoriales y subespacios 7
1.1.3 Subespacios
Dentro de un K-espacio vectorial V , hay subconjuntos que heredan la estructura de V , es
decir, que son tambien espacios vectoriales con la misma operacion, el mismo elemento neutro
y la misma accion que V . En esta seccion, comenzaremos el estudio de los subconjuntos con
esta propiedad.
8 Espacios vectoriales
i) 0 S
ii) v, w S = v + w S
iii) K, v S = v S
Demostracion.
i0 ) S 6= .
Es decir, las condiciones i), ii), iii) son equivalentes a i), ii), iii). La demostracion de este
hecho queda como ejercicio.
1. {0} es un subespacio de V .
2. V es un subespacio de V .
3. Si v V , S = { v / K} es un subespacio de V :
i) 0 = 0 v S.
ii) Si v, v S, entonces v + v = ( + ) v S.
iii) Si v S y K, entonces ( v) = ( ) v S.
4. Sean v1 , . . . , vn V .
Entonces S = {1 .v1 + + n .vn : i K, 1 i n} es un subespacio de V :
i) 0 = 0.v1 + + 0.vn S.
ii) Si v, w S, v = 1 .v1 + + n .vn , w = 1 .v1 + + n .vn , entonces
v + w = (1 + 1 ).v1 + + (n + n ).vn S.
iii) Si K y v = 1 .v1 + + n .vn S, entonces
.v = (.1 ).v1 + + (.n ).vn S.
Demostracion.
i) 0 S T puesto que 0 S y 0 T .
Ejemplos.
De la definicion de K-espacio vectorial vemos que una forma de obtener nuevos elementos
de V a partir de los elementos de un subconjunto G V es considerando sumas finitas de
multiplos por escalares de elementos de G. Surge entonces la nocion de combinacion lineal:
Ejemplos.
1. Sea G = {(1, 2), (3, 4)} R2 . Una combinacion lineal de G es un vector v = .(1, 2) +
.(3, 4) con , R.
P
n
2. Sea G = {1, X, . . . , X n } Rn [X]. Una combinacion lineal de G es i X i con i R
i=0
para cada 0 i n.
Ejemplos.
P
1. Sea G = {X i / i N0 } R[X]. Una combinacion lineal de G es i X i donde i R
i=0
y i = 0 salvo para finitos valores de i N0 .
P
2. Sea G = {(, 0) : R} R2 . Una combinacion lineal de G es .(, 0) tal que
R
R y = 0 salvo para finitos R.
Ejemplos.
Notacion. La matriz A K nm definida por Aij = aij se llama la matriz asociada al sistema.
Resolver un sistema de este tipo significara dar un sistema de generadores para el subes-
pacio de las soluciones.
El metodo que daremos para la resolucion de sistemas de ecuaciones lineales consiste en
transformar el sistema dado, por medio de ciertas operaciones, en otro que tenga el mismo
conjunto de soluciones, pero cuya resolucion sea mas simple. Aparece entonces la nocion de
sistemas equivalentes:
Definicion 1.18 Dos sistemas lineales homogeneos se dicen equivalentes si sus conjuntos de
soluciones son iguales.
Este sistema tiene como unica solucion a (0, 0, 0): De la tercera ecuacion, resulta que x3 = 0.
Teniendo en cuenta que x3 = 0, de la segunda ecuacion se deduce que x2 = 0. Finalmente,
reemplazando x2 = x3 = 0 en la primera ecuacion, se obtiene que x1 = 0.
14 Espacios vectoriales
Analogamente, sera mas facil obtener las soluciones de cualquier sistema lineal que se
encuentre en esta forma triangular, es decir, de la forma
a11 x1 + a12 x2 + + a1n xn + + a1m xm = 0
a22 x2 + + a2n xn + + a2m xm = 0
..
.
ann xn + + anm xm = 0
La idea de lo que sigue es ver como puede obtenerse, dado un sistema lineal arbitrario, un
sistema de este tipo equivalente al dado.
La siguiente proposicion caracteriza ciertas operaciones que producen sistemas equiva-
lentes. En estas operaciones se basa el metodo de eliminacion de Gauss (o metodo de trian-
gulacion) que utilizaremos para resolver sistemas lineales.
Proposicion 1.19 Dado un sistema lineal homogeneo de ecuaciones, los siguientes cambios
en las ecuaciones dan lugar a sistemas equivalentes:
Demostracion.
Es claro que x es solucion de todas las ecuaciones que no fueron modificadas. Ademas
Como consecuencia de esta observacion, para resolver un sistema lineal trabajaremos con
la matriz asociada al sistema, en lugar de hacerlo con las ecuaciones. Al aplicar en las matrices
las operaciones dadas en la Proposicion 1.19 estaremos obteniendo matrices cuyos sistemas
lineales asociados son equivalentes al original.
El siguiente teorema nos asegura que, por medio de las operaciones permitidas siempre
puede obtenerse un sistema triangular equivalente al dado. Mas aun, de la demostracion se
desprende un algoritmo para realizar esta tarea.
Teorema 1.21 Sea H un sistema lineal homogeneo de n ecuaciones con m incognitas. En-
tonces, aplicando los cambios descriptos en la Proposicion 1.19, puede obtenerse un sistema
lineal homogeneo H 0 cuya matriz B es triangular superior, es decir, tal que Bij = 0 si i > j.
Sea HM el sistema cuya matriz asociada es M . Por hipotesis inductiva, aplicando operacio-
nes permitidas puede obtenerse un sistema equivalente a HM cuya matriz M 0 es triangular
superior. Aplicando esas mismas operaciones en la matriz A se obtiene
a c
B= con a = 1 o a = 0,
0
0 M
El primer paso del metodo de Gauss consiste en colocar en el lugar A11 un elemento no nulo.
Para eso permutamos las filas 1 y 3 de la matriz (podra usarse tambien la fila 2). Se obtiene
1 0 3 1
3 1 10 5 .
0 2 1 1
1.2 Sistemas de ecuaciones lineales 17
A continuacion debemos realizar operaciones de fila de manera de conseguir que los restantes
elementos de la primera columna de la matriz sean ceros. Si Fi denota la i-esima fila de la
matriz, haciendo F2 3F1 resulta
1 0 3 1
0 1 1 2 .
0 2 1 1
Pasamos ahora a la segunda columna de la matriz. El elemento ubicado en la fila 2 columna
2 de la matriz es un 1, con lo que solo resta conseguir un 0 en la fila 3 columna 2. Para eso
efectuamos F3 2F2 :
1 0 3 1
0 1 1 2 .
0 0 3 3
Esta matriz se encuentra en forma triangular. El sistema asociado
(
x1 + 3x3 + x4 = 0
x2 + x3 + 2x4 = 0
3x3 3x4 = 0
es equivalente al original.
De la tercera ecuacion deducimos que si X = (x1 , x2 , x3 , x4 ) es solucion del sistema,
entonces x3 = x4 . Reemplazando en la segunda ecuacion y despejando x2 se obtiene x2 =
x4 . Finalmente, de la primera ecuacion se deduce que x1 = 2x4 . Ademas es claro que
cualquier X que cumple estas condiciones es solucion de la ecuacion.
En consecuencia, las soluciones del sistema son todos los vectores en R4 de la forma
X = (2x4 , x4 , x4 , x4 ) = x4 (2, 1, 1, 1), es decir, el conjunto de las soluciones del sistema
es el subespacio
S = < (2, 1, 1, 1) >.
Teorema 1.23 Sea H un sistema lineal homogeneo de n ecuaciones con m incognitas. Su-
pongamos que n < m. Entonces existe x K m , x 6= 0, que es solucion del sistema H.
Supongamos que el resultado vale para sistemas con n ecuaciones y sea H un sistema de
n + 1 ecuaciones con m incognitas, n + 1 < m.
Triangulando la matriz del sistema, resulta que es equivalente a una de la forma
a11 a12 a1m
,
0 B
Demostracion.
B11 B1n
.. .. con B 6= 0 1 i n.
() Supongamos que B = 0 . . ii
0 Bnn
Entonces, la ultima ecuacion del sistema H 0 es Bnn xn = 0 y, como Bnn 6= 0, resulta
que xn = 0. Reemplazando en la ecuacion anterior xn por 0, queda Bn1 n1 xn1 = 0,
de donde xn1 = 0.
Siguiendo de este modo, para cada k = n 2, . . . , 1 de la k-esima ecuacion se obtiene
xk = 0.
1.2 Sistemas de ecuaciones lineales 19
Ejemplo. Hallar
todos los valores de k R para los cuales el sistema homogeneo cuya matriz
1 2 k1
asociada es 2 k + 1 1 tiene solucion unica.
k+1 4 1
Proposicion 1.26 Sea H un sistema lineal no homogeneo con soluciones. Sea S el conjunto
de soluciones del sistema homogeneo asociado a H y sea p una solucion particular de H.
Entonces, el conjunto M de soluciones de H es M = S + p = {s + p : s S}.
Por la proposicion anterior, para obtener todas las soluciones del sistema basta conocer
una solucion particular y el conjunto de soluciones del sistema homogeneo asociado.
Vemos que p = (1, 0, 0, 0) es una solucion particular del sistema.
Por otro lado, en un ejemplo anterior (pagina 16) hemos visto que el conjunto de soluciones
del sistema homogeneo asociado es S = < (2, 1, 1, 1) >.
En consecuencia, el conjunto de soluciones del sistema es < (2, 1, 1, 1) > + (1, 0, 0, 0).
Sin embargo, el resultado que relaciona las soluciones de un sistema no homogeneo con las
del homogeneo asociado es mas que nada teorico: dado un sistema de ecuaciones lineales no
homogeneo, es poco probable que conozcamos una solucion particular sin resolverlo. La reso-
lucion de un sistema lineal no homogeneo, al igual que en el caso homogeneo, puede realizarse
triangulando una matriz adecuada como mostramos en el siguiente ejemplo (comparar con el
ejemplo de la pagina 16).
Consideraremos la siguiente matriz formada por la matriz del sistema homogeneo asociado
al sistema a la que le agregamos como ultima columna los escalares solucion de cada ecuacion
(lo separamos con una lnea para recordar que esos escalares son los que aparecen del otro
lado de los iguales):
0 2 1 1 2
(A | b) = 3 1 10 5 1 .
1 0 3 1 2
1 0 3 1 2 1 0 3 1 2
0 1 1 2 7 0 1 1 2 7 .
0 0 3 3 12 0 0 1 1 4
Esta matriz se encuentra en forma triangular y su sistema no homogeneo asociado
(
x1 + 3x3 + x4 = 2
x2 + x3 + 2x4 = 7
x3 + x4 = 4
es equivalente al original.
De la tercera ecuacion deducimos que si X = (x1 , x2 , x3 , x4 ) es solucion del sistema,
entonces x3 = 4 x4 . Reemplazando en la segunda ecuacion y despejando x2 se obtiene
x2 = 3 x4 . Finalmente, de la primera ecuacion se deduce que x1 = 14 + 2x4 . Ademas
es claro que cualquier X que cumple estas condiciones es solucion del sistema. Luego, las
soluciones del sistema son todos los vectores en R4 de la forma
es decir, el conjunto de las soluciones del sistema es el subespacio S = < (2, 1, 1, 1) >
(solucion del sistema homogeneo asociado) mas la solucion particular (14, 3, 4, 0).
Esto significa que una solucion X = (x1 , x2 , x3 , x4 ) del sistema debe satisfacer la ultima
ecuacion, es decir 0.x1 + 0.x2 + 0.x3 + 0.x4 = 7, lo que es un absurdo. Por lo tanto el sistema
en cuestion no tiene soluciones.
Demostracion.
() Para cada 1 i n,
de donde vi S.
P
n
() Como v1 , . . . , vn S y S es un subespacio, entonces i vi S i K. Luego,
i=1
< v1 , . . . , vn > S.
24 Espacios vectoriales
Demostracion.
() Se tiene < v1 , . . . , vn , vn+1 > < v1 , . . . , vn >. Entonces, por la proposicion anterior,
vn+1 < v1 , . . . , vn >.
(Notacion: < v1 , . . . , vbi , . . . , vn > denota el subespacio generado por {v1 , . . . , vn } {vi }.)
Demostracion.
P
n
es decir, existen j K (j 6= i) tales que vi = j vj . Entonces
j=1
j6=i
i1
X n
X
0= j vj + (1)vi + j vj ,
j=1 j=i+1
n1
X i
vn = .vi < v1 , . . . , vn1 >.
i=1
n
2. En R[X], {X i : i N0 }.
P
Sean i R (i N0 ) tales que i = 0 para casi todo i N0 y i X i = 0.
iN0
P
Para que el elemento i X i de R[X] sea el polinomio nulo, todos sus coeficientes
iN0
deben ser 0. Luego, i = 0 para todo i N0 , de donde el conjunto {X i : i N0 } es
linealmente independiente.
La siguiente proposicion nos permitira obtener otro metodo para decidir si un conjunto
de vectores en K n es linealmente independiente.
Demostracion.
0 = 1 v1 + + i (vi + vj ) + + j vj + + n vn
= 1 v1 + + i vi + + (i + j )vj + + n vn .
1 = . . . = i = . . . = i + j = . . . = n = 0,
Triangular la matriz A.
1.3 Independencia lineal y bases 27
Definicion 1.33 Sea V un K-espacio vectorial. Una familia {v }I se llama una base del
espacio vectorial V si {v }I es una familia linealmente independiente de V que satisface
< v >I = V .
Ejemplos.
Teorema 1.34 Sea V un K-espacio vectorial. Supongamos que < v1 , . . . , vr > = V y que
{w1 , . . . , ws } V es una familia linealmente independiente. Entonces s r.
s
X
hj xh = 0 1 j r. (1.1)
h=1
r X
X s Xr X
s
= h hj vj = h hj vj = 0.
j=1 h=1 j=1 h=1
Luego, n = m.
Definicion 1.36 Sea V un K-espacio vectorial y sea B = {v1 , . . . , vn } una base de V . Di-
remos entonces que n es la dimension de V (como espacio vectorial sobre K). En este caso,
diremos que V es un K-espacio vectorial de dimension finita, para distinguirlo de los espacios
vectoriales que no admiten una base con finitos elementos. Por convencion, la dimension de
{0} es 0.
Una propiedad de las bases es que cualquier vector del espacio vectorial considerado se
puede expresar como combinacion lineal de los elementos de la base de manera unica. Como
veremos mas adelante, aplicando esta propiedad se trabajara en un K-espacio vectorial de
dimension n arbitrario como si fuese K n .
Proposicion 1.37 Sea V un K-espacio vectorial de dimension finita. Sea {v1 , . . . , vn } una
P
n
base de V . Entonces para cada x V existen unicos 1 , . . . , n K tales que x = i vi .
i=1
La siguiente proposicion muestra como hallar una base de un K-espacio vectorial de di-
mension finita V a partir de cualquier sistema de generadores finito de V y como completar
un subconjunto linealmente independiente arbitrario de V a una base.
1.3 Independencia lineal y bases 29
Demostracion.
Ejemplos.
1. Extraer una base de S = < (1, 1, 7, 3), (2, 1, 1, 0), (3, 1, 1, 1) > del sistema de genera-
dores dado.
Observamos que el sistema de generadores dado es linealmente dependiente. En efecto,
1 1 7 3 F2 2F1 1 1 7 3
2 1 1 0 0 3 15 6
3 1 1 1 F3 3F1 0 4 20 8
1 1 7 3
0 3 15 6 .
F3 34 F2 0 0 0 0
30 Espacios vectoriales
Como por la triangulacion anterior se ve simultaneamente que {(1, 1, 7, 3), (2, 1, 1, 0)}
es un conjunto l.i. y que {(1, 1, 7, 3), (2, 1, 1, 0), (3, 1, 1, 1)} es un conjunto l.d, resulta
que (3, 1, 1, 1) < (1, 1, 7, 3), (2, 1, 1, 0) >.
Luego, {(1, 1, 7, 3), (2, 1, 1, 0)} es un sistema de generadores de S. Como ademas es
linealmente independiente, es una base de S.
2. Extender el conjunto linealmente independiente {(1, 1, 0, 0), (1, 1, 1, 0)} a una base de
R4 .
Consideremos la base canonica de R4 ,
E = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}.
Con la notacion utilizada en la demostracion de la proposicion anterior:
Se tiene G1 := {(1, 1, 0, 0), (1, 1, 1, 0), (1, 0, 0, 0)}, que es linealmente independiente.
Ahora, (0, 1, 0, 0) < G1 >, puesto que (0, 1, 0, 0) = (1, 1, 0, 0) (1, 0, 0, 0) y entonces
G2 := G1 .
El conjunto G2 {(0, 0, 1, 0)} es linealmente independiente. Consideramos entonces
G3 := G2 {(0, 0, 1, 0)}. Este conjunto, formado por cuatro vectores linealmente in-
dependientes de R4 , debe poder extenderse a una base de R4 , que tendra 4 elementos
puesto que dim R4 = 4; luego, ya es una base de R4 .
i) S T dim S dim T.
ii) S T y dim S = dim T S = T.
Demostracion.
i) Sea {s1 , . . . , sr } una base de S y sea n = dim T . Como S T , se tiene que {s1 , . . . , sr }
T , y ademas es un conjunto linealmente independiente. Luego, puede extenderse a una
base de T , y en consecuencia, dim S = r n = dim T .
ii) Siguiendo el razonamiento de la demostracion de i), al extender una base {s1 , . . . , sr }
de S a una de T , como dim S = dim T , no se agrega ningun vector. Luego S =
< s1 , . . . , sr > = T .
1.4 Suma de subespacios 31
Observar que el tem ii) de la proposicion anterior nos facilita la verificacion de la igualdad
entre dos subespacios.
La siguiente proposicion muestra que la suma de dos subespacios es, en efecto, un subes-
pacio que contiene a ambos, y da una caracterizacion de este conjunto en terminos de sistemas
de generadores de los subespacios considerados.
Demostracion.
i) 0 = 0 + 0 S + T , pues 0 S, 0 T .
Sean v, v 0 S + T . Existen x, x0 S, y, y 0 T tales que v = x + y, v 0 = x0 + y 0 .
Entonces v + v 0 = (x + y) + (x0 + y 0 ) = (x + x0 ) + (y + y 0 ), y como S y T son subespacios
x + x0 S, y + y 0 T . Luego, v + v 0 S + T .
Sea v S + T y sea K. Existen x S, y T tales que v = x + y. Entonces,
.v = .(x + y) = .x + .y. Como K, x S y S es un subespacio, resulta que
.x S. Analogamente, .y T . Luego .v S + T .
En consecuencia, S + T es un subespacio de V .
X X
v= i vi + j wj
iI jJ
S = < (1, 1, 0, 1), (2, 3, 1, 1) > y T = < (0, 0, 1, 1), (1, 2, 2, 1) >.
Esta triangulacion muestra simultaneamente que el conjunto {(1, 1, 0, 1), (2, 3, 1, 1), (0, 0, 1, 1),
(1, 2, 2, 1)} es l.d. y que el conjunto {(1, 1, 0, 1), (2, 3, 1, 1), (0, 0, 1, 1)} es l.i. Por lo tanto,
(1, 2, 2, 1) < (1, 1, 0, 1), (2, 3, 1, 1), (0, 0, 1, 1) > y {(1, 1, 0, 1), (2, 3, 1, 1), (0, 0, 1, 1)} es una
base de S + T .
P
r P
s P
t
Entonces i vi + j wj = k uk . Ademas,
i=1 j=r+1 k=r+1
r
X s
X t
X
i vi + j wj S y k uk T,
i=1 j=r+1 k=r+1
P
t
de donde k uk S T . Luego, existen 1 , . . . , r K tales que
k=r+1
t
X r
X t
X r
X
k uk = ` .v` o, equivalentemente, k uk + ` .v` = 0.
k=r+1 `=1 k=r+1 `=1
1. V = S + T ,
2. S T = {0}.
Demostracion.
Existencia: Como V = S + T , para cada v V existen x S, y T tales que v = x + y.
Unicidad: Supongamos que v = x + y y v = x0 + y 0 con x, x0 S, y, y 0 T . Entonces
x x0 = y y 0 y x x0 S, y y 0 T , luego x x0 S T = {0}. En consecuencia
x x0 = y y 0 = 0, de donde x = x0 , y = y 0 .
i) V = S T
ii) B = BS BT es una base de V .
Observamos que en la condicion ii), B es la familia obtenida mediante la union de las familias
BS y BT .
1.4 Suma de subespacios 35
como tambien
P Pse tiene 0 = 0 + 0 con 0 S y 0 T , por la proposicion anterior
iI i vi = jJ j wj = 0. La independencia lineal de BS y BT implica que i = 0
i I y j = 0 j J. Luego, B es linealmente independiente.
ii) i) Como B = BS BT es una base de V , para cada P v V P existen i K, i I,
y j K, j J, casi todos nulos, tales que v = i vi + jJ j wj y por lo tanto
P P iI
v = x + y con x = i vi S e y = jJ j wj T . Luego V = S + T .
iI
P P P P
Si v S T , se tiene que v = i vi = j wj , de donde i vi + (j )wj = 0,
iI jJ iI jJ
y por la independencia lineal de B, resulta que i = 0 i I y j = 0 j J, de
donde v = 0 y S T = {0}.
Ejemplos.
1.5 Ejercicios
Ejercicio 1.
Ejercicio 2. Probar en cada caso que el conjunto V con la suma y el producto por escalares
definidos es un espacio vectorial sobre K.
ii) Probar que R2 es un R-espacio vectorial con la suma +(2,1) y el producto por escalares
.(2,1) definidos de la siguiente forma:
(x, y) +(2,1) (x0 , y 0 ) = (x + x0 2, y + y 0 1)
r .(2,1) (x, y) = r.(x 2, y 1) + (2, 1)
(Este espacio se notara R2(2,1) para distinguirlo de R2 con la suma y el producto usual.
La notacion se basa en que el (2, 1) resulta el neutro de la suma +(2,1) ).
iii) Interpretar geometricamente +(2,1) y .(2,1) , teniendo en cuenta que:
(x, y) +(2,1) (x0 , y 0 ) = f(2,1) f(2,1) (x, y) + f(2,1) (x0 , y 0 )
r .(2,1) (x, y) = f(2,1) r.f(2,1) (x, y)
Ejercicio 6.
i) Encontrar un subconjunto no vaco de R2 que sea cerrado para la suma y para la resta
pero no para la multiplicacion por escalares.
ii) Encontrar un subconjunto no vaco de R2 que sea cerrado para la multiplicacion por
escalares pero no para la suma.
i) S = {(x, y, z) R3 / x + y z = 0}, K = R
iii) Cnn , K = R
Ejercicio 10. Decidir cuales de las siguientes afirmaciones son verdaderas y cuales falsas.
x1 + x2 + x3 2x4 + x5 = 1 x1 + x2 + x3 + x4 = 2
iii) x1 3x2 + x3 + x4 + x5 = 0 iv) x1 + 3x2 + 2x3 + 4x4 = 0
3x1 5x2 + 3x3 + 3x5 = 0 2x1 + x3 x4 = 6
Cambia algo si K = Q? Y si K = C?
Ejercicio 12.
Ejercicio 13. Resolver los siguientes sistemas no homogeneos. Considerar en cada uno de
ellos el sistema homogeneo asociado (A.x = 0).
x1 x2 + x3 = 2 x1 x2 + x3 = 1
i) x1 + 2x2 + x3 = 1 ii) x1 + 2x2 + x3 = 1
x1 + 4x2 + 5x3 = 1 x1 + 4x2 + 5x3 = 4
x1 x2 x3 = 2 x1 x2 x3 =
iii) 2x1 + x2 2x3 = 1 iv) 2x1 + x2 2x3 =
x1 + 4x2 + x3 = 1 x1 + 4x2 + x3 = (, , R)
Ejercicio 16. Determinar todos los k R para que cada uno de los siguientes sistemas tenga
solucion unica.
x1 + kx2 + x3 = 0 x1 + (k 1)x2 = 0
i) 2x1 + x3 = 0 ii) x1 + (3k 4)x2 + kx3 = 0
2x1 + kx2 + kx3 = 0 x1 + (k 1)x2 + k2 x3 = 0
Ejercicio 17. Determinar los numeros reales k para los cuales el sistema
kx1 + x2 = 0
x1 + kx2 = 0
3
k x1 + x2 + k 3 x3 + kx4 = 0
2
x1 + k x2 + kx3 + kx4 = 0
tiene alguna solucion no trivial y, para esos k, resolverlo.
Ejercicio 18. Determinar para que valores de k R cada uno de los siguientes sistemas
tiene solucion unica, no tiene solucion o tiene infinitas soluciones.
kx1 + 2x2 + kx3 = 1
x1 + kx2 x3 = 1
kx 1 + (k + 4)x 2 + 3kx 3 = 2
i) x1 + x2 + k 2 x3 = 1 ii)
kx 1 2x 2 + x3 = 1
x1 + kx2 + (k 2)x3 = 2
(k + 2)x2 + (3k + 1)x3 = 1
40 Espacios vectoriales
Ejercicio 19.
Ejercicio 21. Encontrar un sistema a coeficientes reales cuya solucion general sea:
i) Si el sistema A.x = 0 tiene solucion unica, probar que el sistema A.x = b tiene a lo
sumo una solucion. Dar ejemplos de los distintos casos que se puedan presentar.
Ejercicio 23. Encontrar un sistema de generadores para cada uno de los siguientes espacios
vectoriales sobre K:
i) S1 = {(x, y, z) R3 / x + y z = 0 ; x y = 0} , K = R
( (x + z = 0 )
ii) S2 = (x, y, z) (Z7 )3 / 2y + z = 0 , K = Z7
x + 3y = 0
1.5 Ejercicios 41
Ejercicio 26. Sea S = < (1, 1, 2, 1), (3, 1, 0, 1), (1, 1, 1, 1) > R4 .
i) Determinar si (2, 1, 3, 5) S.
ii) Determinar si {x R4 /x1 x2 x3 = 0} S.
iii) Determinar si S {x R4 /x1 x2 x3 = 0}.
Ejercicio 28. Decidir si las siguientes sucesiones de vectores son linealmente independientes
sobre K.
v) (3 + 2, 1 + 2) , (7, 1 + 2 2) en R2 , para K = Q y K = R
vi) f (x) = 1 , g(x) = x en RR
vii) f (x) = sen(x) , g(x) = cos(x) en RR
viii) f (x) = ex , g(x) = x en RR
ix) u = (1, 0, 1, 0, 1, . . .) , v = (0, 1, 0, 1, 0, . . .) , w = (1, 1, 0, 1, 1, 0, . . .) en RN
Ejercicio 29. Hallar todos los k R para los cuales {v1 , v2 , v3 } V es un conjunto
linealmente independiente en los siguientes casos:
Ejercicio 31. En cada uno de los siguientes casos hallar una base del subespacio de soluciones
del sistema lineal homogeneo A.x = 0 (K = R).
2 0 3 1 0 5 3
i) A = 1 2 1 0 ii) A = 1 1 2
1 1 0 1 2 3 1
3 1 0 1 2
1 0 4 1 0
iii) A =
3 1 1 0 1
2 0 0 3 1
Ejercicio 32. Completar los siguientes conjuntos linealmente independientes a una base del
K-espacio vectorial V indicado.
Ejercicio 33. Extraer una base de S de cada uno de los siguientes sistemas de generadores.
1.5 Ejercicios 43
Ejercicio 34.
Ejercicio 35. Hallar una base y la dimension de los siguientes K-espacios vectoriales:
Ejercicio 36. Hallar la dimension del R-espacio vectorial S para cada k R en los siguientes
casos:
Ejercicio 37. Hallar todos los b R para los cuales el R-espacio vectorial de soluciones del
sistema:
3x1 + (b 6)x2 + 5bx3 = 0
x1 + (b 2)x2 + (b2 + 4b)x3 = 0
x1 2x2 + bx3 = 0
i) tenga dimension 1.
ii) tenga dimension 2.
44 Espacios vectoriales
< (2, 1, 6), (3, 0, 8) > = < (1, k, 2k), (1, 1, k 2 2), (1, 1, k) >.
Ejercicio 40. Se considera el Q-espacio vectorial V R generado por {1, 2, 3, 6}.
Ejercicio 42. Determinar todos los k R para los cuales S T = < (0, 1, 1) >, siendo
Ejercicio 45. Decidir si las siguientes afirmaciones son verdaderas o falsas. Justificar.
i) Probar que (S T ) + (S U ) S (T + U ).
ii) Mostrar que, en general, la inclusion anterior es estricta.
iii) Probar que, si U S, entonces vale la igualdad en i).
i) Probar que v
/ T, T < v > = V .
ii) Si S es un subespacio de V tal que S 6 T , probar que S + T = V . Calcular dim(S T ).
iii) Si S y T son dos hiperplanos distintos, deducir dim(S T ).
Ejercicio 50.
Matrices
Una primera observacion que debemos hacer se refiere a como determinar si dos matrices
(de las mismas dimensiones) son iguales:
48 Matrices
Definiremos ahora un producto que, dadas dos matrices A y B con coeficientes en K tales
que la cantidad de columnas de A es igual a la cantidad de filas de B, calcula una nueva
matriz C.
3. Propiedades distributivas:
Demostracion.
Observemos que, en particular, el producto de matrices esta definido para cualquier par
de matrices en K nn y, por lo tanto, se tiene una operacion producto en K nn para cada
n N. De la proposicion anterior se deduce:
Si bien el producto de matrices comparte muchas de sus propiedades con el producto usual
de numeros reales, hay propiedades que verifica este que no son validas para el producto de
matrices:
Observacion 2.6 Dos de las propiedades que no se cumplen para el producto de matrices
son las siguientes:
Definicion 2.7 Sea K un cuerpo y sea A un conjunto con dos operaciones, + y , y una
accion K de K en A tales que
1. (A, +, ) es un anillo
2. (A, +, K ) es un K-espacio vectorial
3. ( K X) Y = K (X Y ) = X ( K Y ) K X, Y A
Se dice entonces que A es una K-algebra.
Observamos que el producto de matrices nos permite escribir un sistema lineal de n ecua-
ciones con m incognitas
a11 x1 + a12 x2 + + a1m xm = b1
..
.
an1 x1 + an2 x2 + + anm xm = bn
en la forma
A.x = b,
nm
donde A K es la matriz asociada al sistema, x K m1 se define como xi1 = xi (matriz
de una columna cuyos elementos son las incognitas del sistema), y b K n1 se define como
bj1 = bj (matriz de una columna cuyos elementos son los resultados a los que estan igualadas
las ecuaciones). De esta manera, un sistema lineal puede verse como una unica ecuacion con
una unica incognita x, pero que involucra matrices en lugar de escalares.
El hecho que la solucion en K de la ecuacion a.x = b con a, b K, a 6= 0, se obtiene
haciendo simplemente x = a1 b, nos lleva a pensar que el sistema lineal Ax = b podra
resolverse analogamente como x = A1 b en caso de disponer de una matriz A1 que sea una
inversa de A para el producto de matrices. Este sera el tema a estudiar en la proxima seccion.
Concluimos esta seccion introduciendo dos nociones que nos seran de utilidad en lo suce-
sivo:
En esta seccion nos ocuparemos de las matrices que s tienen inversa y veremos tambien
como hallar la inversa de una matriz en el caso en que esta exista.
Definicion 2.11 Una matriz A K nn se dice inversible si existe una matriz B K nn tal
que A.B = B.A = In .
Notacion. B = A1 .
GL(n, K) = {A K nn / A es inversible}.
2. In GL(n, K).
Demostracion.
(A.B).(B 1 . A1 ) = In y (B 1 . A1 ).(A.B) = In .
Proposicion 2.13 (GL(n, K), ) es un grupo, que se denomina el grupo lineal general (n, K).
52 Matrices
Para concluir esta seccion, veremos un metodo para determinar si una matriz en K nn es
inversible y, en caso de serlo, encontrar su inversa. Lo describimos en el siguiente ejemplo:
P ij = In E ii E jj + E ij + E ji .
Mi (a) = In + (a 1).E ii .
Observamos que Mi (a) es la matriz que se obtiene al mutiplicar por a la i-esima fila de
la matriz In .
Dada B K nn se tiene que
Bkj si k 6= i
Mi (a).B kj =
a.Bkj si k = i,
T ij (a) = In + a.E ij ,
o sea que T ij (a).B es la matriz que se obtiene de B al sumarle a la i-esima fila, a por
la fila j.
En particular, se tiene que T ij (a).T ij (a) = T ij (a).T ij (a) = In , con lo que T ij (a)
GL(n, K) y (T ij (a))1 = T ij (a).
De las propiedades de las matrices elementales que hemos visto, se deduce que triangular
una matriz mediante operaciones sobre sus filas es multiplicarla a izquierda por matrices
elementales. En forma totalmente analoga, puede verse que multiplicar una matriz a derecha
por matrices elementales corresponde a efectuar operaciones sobre las columnas de la matriz.
En particular, esta observacion nos dice que si por medio de la aplicacion de operaciones
elementales a las filas de la matriz A obtenemos la matriz identidad I, entonces aplicando las
mismas operaciones en las filas de I obtendremos A1 .
Por otro lado, nos da un teorema de estructura para GL(n, K): as como el Teorema
Fundamental de la Aritmetica en Z dice que todo numero entero no nulo es producto de
enteros primos, la observacion anterior nos dice que toda matriz en GL(n, K) es producto de
matrices elementales.
2.4 Coordenadas
Dado un K-espacio vectorial V de dimension n y fijada una base B de V , mediante el concepto
de coordenadas de un vector en la base B podremos identificar cada elemento de V con un
vector en K n y trabajar entonces con elementos de K n .
Ejemplos.
Ejemplo. Sea V = R3 . Consideremos las bases B1 = E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} y
B2 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}. Para construir la matriz C(B1 , B2 ) R33 , comenzamos
por escribir los elementos de B1 como combinacion lineal de los de B2 :
P
n
Sea x V . Si x = ak vk , entonces para cada 1 h n,
k=1
n
X
C(B1 , B2 ).((x)B1 )t = hr ar .
h
r=1
P
n
Si bh = hr ar para cada 1 h n, por la unicidad de las coordenadas en una base,
r=1
P
n
para probar que (x)B2 = (b1 , . . . , bn ) basta ver que x = bh wh . Ahora,
h=1
n
X n X
X n n X
X n
bh wh = hr ar wh = hr ar wh =
h=1 h=1 r=1 h=1 r=1
n X
X n Xn X
n Xn
= hr ar wh = ar hr wh = ar vr = x,
r=1 h=1 r=1 h=1 r=1
Una pregunta que surge es la de la unicidad de la matriz de cambio de base: dadas dos
bases B1 y B2 , la matriz C(B1 , B2 ) que hemos definido transforma coordenadas en la base
B1 en coordenadas en la base B2 . Existira alguna otra matriz en K nn con esta misma
propiedad? El resultado que probamos a continuacion nos asegura que no.
Esta observacion dice que si una matriz A verifica A.((x)B1 )t = ((x)B2 )t para todo x
V , entonces necesariamente A = C(B1 , B2 ). Utilizando este resultado, es facil probar las
igualdades que enunciamos a continuacion.
2. C(B2 , B1 ) = C(B1 , B2 )1 .
Para terminar, probaremos algunos resultados que relacionan matrices inversibles con
cambios de base.
Proposicion 2.21 Sea A GL(n, K). Existen bases B1 , B2 de K n tales que A = C(B1 , B2 ).
n X
X n Xn X
n Xn X
n
0= j aij ei = j aij ei = j aij ei ,
j=1 i=1 i=1 j=1 i=1 j=1
P
n
de donde aij j = 0 para cada 1 i n, o equivalentemente,
j=1
1
A. ... = 0.
n
Demostracion.
ii) Por la parte i), dadas A1 GL(n, K) y la base B de K n , existe una base B2 de K n
tal que A1 = C(B2 , B). En consecuencia, A = C(B2 , B)1 = C(B, B2 ).
2.5 Ejercicios 59
2.5 Ejercicios
Ejercicio 1. Probar que los siguientes conjuntos son subespacios de K nn y calcular su
dimension.
i) S1 = {A K nn / A = At } (matrices simetricas)
ii) S2 = {A K nn / A = At } (matrices antisimetricas)
iii) S3 = {A K nn / Aij = 0 si i > j} (matrices triangulares superiores)
iv) S4 = {A K nn / Aij = 0 si i 6= j} (matrices diagonales)
v) S5 = {A K nn / Aij = 0 si i 6= j y A11 = A22 = ... = Ann } (matrices escalares)
vi) S6 = {A K nn / tr(A) = 0}
i) Probar que S1 S2 = K nn si 2 6= 0 en K.
ii) Probar que S5 S6 = K nn si K = Q , R o C.
Ejercicio 4.
2
iv) Sea A K nn con n 2. Probar que el conjunto {In , A, A2 , A3 , . . . , An 1
} es lineal-
mente dependiente.
v) Dar condiciones necesarias y suficientes sobre A y B K nn para que
a) (A + B)2 = A2 + 2AB + B 2
b) A2 B 2 = (A B).(A + B)
vi) Probar que si A y B K nn no necesariamente vale A2 .B 2 = (A.B)2
i) A.B = 0 A = 0 o B = 0
ii) A.B = A.C y A 6= 0 B = C
iii) A.B = 0 B.A = 0
iv) Aj = 0 A = 0
v) A2 = A A = 0 o A = In
Ejercicio 8. Sean A y B K nn .
Ejercicio 9. Sea A K nn .
i) Probar que A.At y At.A son simetricas. Encontrar un ejemplo donde A.At 6= At.A.
ii) El producto de dos matrices simetricas, es una matriz simetrica?
2.5 Ejercicios 61
4 1
Ejercicio 10. Sea A = R22 .
8 2
ii) Calcular An n N.
a b
Ejercicio 11. Sea A K 22 con A = y sea = a.d b.c. Probar que, si 6= 0,
c d
1 d b
A GL(2, K) y A1 = . .
c a
i) A.B = A.C B = C
ii) A.B = 0 B = 0
Ejercicio 13. Decidir si cada una de las siguientes afirmaciones es verdadera o falsa.
i) A , B GL(n, K) A + B GL(n, K)
iii) tr(A) = 0 A
/ GL(n, K)
ii) Si m = n y A GL(n, K), entonces H tiene un solo elemento. Cual es? (Notar que
esto significa que si A es inversible, cualquier sistema lineal cuya matriz asociada sea A
tiene solucion unica).
Ejercicio 15.
Ejercicio 16. Averiguar si las siguientes matrices son inversibles y en caso afirmativo exhibir
sus inversas.
2 1 3 1 2
1 1 1 0 5 1 8 2
i) A = 0 1 1 iv) A = 0 0 0 1 2
0 0 1 0 0 0 1 2
0 0 0 0 2
1 0 1 0 a11 0 ... 0
0 0 1 0 0 a22 ... 0
ii) A = v) A =
2 1 2 3 ... ... ... ...
3 1 1 3 0 0 . . . ann
cos sen 0
iii) A = sen cos 0
0 0 1
v) V = R3 [X] ; v = 2X 2 X 3 y B = {3 , 1 + X , X 2 + 5 , X 3 + X 2}
22 a11 a12 1 3 1 4 0 2 1 1
vi) V = R ; v= yB= , , ,
a21 a22 0 1 3 2 1 1 2 5
2.5 Ejercicios 63
1 0 1
Ejercicio 23. Dadas la matriz M = 1 1 1 y la base B = {v1 , v2 , v3 } de K 3 , hallar
0 1 1
una base B 0 tal que M = C(B, B 0 ).
1 0 1
Ejercicio 24. Dadas la matriz M = 1 1 1 y la base B 0 = {v1 , v2 , v3 } de K 3 , hallar
0 1 1
una base B tal que M = C(B, B 0 ).
64 Matrices
Captulo 3
Transformaciones lineales
Las transformaciones lineales son las funciones con las que trabajaremos en Algebra Lineal.
Se trata de funciones entre K-espacios vectoriales que son compatibles con la estructura (es
decir, con la operacion y la accion) de estos espacios.
i) f (v +V v 0 ) = f (v) +W f (v 0 ) v, v 0 V.
ii) f ( V v) = W f (v) K, v V.
Ejemplos.
R1
5. F : C(R) R, donde C(R) = {f : R R | f es continua}, F (g) = g(x) dx es una
0
transformacion lineal.
Demostracion.
Demostracion.
P
n
Existencia. Dado v V existen unicos 1 , . . . , n K tales que v = i vi , es decir,
i=1
(1 , . . . , n ) = (v)B es el vector de coordenadas de v en la base B. Definimos
n
X
f (v) = i wi .
i=1
y, en consecuencia,
n
X n
X n
X
f (v + v 0 ) = (i + i0 )wi = i wi + i0 wi = f (v) + f (v 0 ).
i=1 i=1 i=1
68 Transformaciones lineales
Teniendo en cuenta que las transformaciones lineales son funciones entre conjuntos, tiene
sentido estudiar la validez de las propiedades usuales de funciones: inyectividad, suryectividad
y biyectividad. Las transformaciones lineales que verifican alguna de estas propiedades reciben
nombres particulares:
1. f es un monomorfismo si f es inyectiva.
2. f es un epimorfismo si f es suryectiva.
3. f es un isomorfismo si f es biyectiva.
Demostracion.
Por definicion,
Im(f ) = {y R3 / x R3 , f (x) = y}
= {y R3 / (x1 , x2 , x3 ) R3 , (x1 x2 , x1 x2 , 2x1 2x2 + x3 ) = y}.
Luego, Im(f ) = < (1, 1, 2), (1, 1, 2), (0, 0, 1) > = < (1, 1, 2), (0, 0, 1) >.
Otra manera de calcular la imagen de f , teniendo en cuenta que es una transformacion
lineal, es la siguiente:
Consideremos un sistema de generadores de R3 , por ejemplo la base canonica {e1 , e2 , e3 }.
Para cada x R3 se tiene que x = x1 .e1 + x2 .e2 + x3 .e3 , de donde resulta que
Luego,
n
X
f (v) = ij f (vij ) < {f (vi ) : i I} >.
j=1
Esto prueba que Im(f ) < {f (vi ) : i I} >. Es claro que vale la otra inclusion, ya que
f (vi ) Im(f ) para cada i I.
Luego, Im(f ) = < {f (vi ) : i I} >.
Consideramos entonces una base de S, por ejemplo {(1, 1, 0), (0, 0, 1)}, y la extendemos
a una base de R3 , por ejemplo {(1, 1, 0), (0, 0, 1), (1, 0, 0)}. Teniendo en cuenta que T =
< (1, 0, 0), (0, 1, 0) >, definimos:
Entonces f (S) = < f (1, 1, 0), f (0, 0, 1) > = < (1, 0, 0), (0, 1, 0) > = T .
f : V K n, f (x) = (x1 , . . . , xn ).
3.3 Teorema de la dimension 73
Im(f ) = < f (v1 ), . . . , f (vr ), f (vr+1 ), . . . , f (vn ) > = < f (vr+1 ), . . . , f (vn ) >,
Como consecuencia de este resultado se prueba que si una transformacion lineal entre
dos espacios vectoriales de dimension n es inyectiva (resp. suryectiva), entonces tambien es
suryectiva (resp. inyectiva):
1. f es un isomorfismo.
2. f es un monomorfismo.
3. f es un epimorfismo.
Demostracion.
(2. 3.) Por el teorema de la dimension, n = dim V = dim(Nu(f )) + dim(Im(f )), y como f
es un monomorfismo, dim(Nu(f )) = 0. Entonces dim(Im(f )) = n = dim W , de donde
Im(f ) = W .
(3. 1.) Por el teorema de la dimension, y teniendo en cuenta que f es un epimorfismo, se
tiene que n = dim V = dim(Nu(f )) + dim(Im(f )) = dim(Nu(f )) + n. Esto implica que
dim(Nu(f )) = 0, con lo cual, Nu(f ) = {0} y f es un monomorfismo. Siendo epimorfismo
y monomorfismo, resulta que f es un isomorfismo.
A diferencia de lo que sucede para muchos de los resultados que hemos demostrado, en
el corolario anterior la hipotesis de que los espacios vectoriales sean de dimension finita es
esencial. El resultado no vale para transformaciones lineales definidas en espacios de dimension
infinita:
3.4 Proyectores
Definicion 3.21 Sea V un K-espacio vectorial. Una transformacion lineal f : V V se
llama un proyector si f f = f .
Demostracion.
Demostracion. En primer lugar, veamos que Nu(f ) Im(f ) = {0}: Sea x Nu(f ) Im(f ).
Como x Im(f ), por la proposicion anterior, f (x) = x. Pero x Nu(f ), de donde f (x) = 0.
Luego, x = 0.
Veamos ahora que Nu(f ) + Im(f ) = V : Sea x V . Entonces x = (x f (x)) + f (x) y se
tiene que f (x f (x)) = f (x) f f (x) = f (x) f (x) = 0, con lo que x f (x) Nu(f ) y
f (x) Im(f ).
f (x) = t si x = s + t con s S, t T.
En esta seccion todos los espacios vectoriales considerados seran de dimension finita.
Concluimos esta seccion estudiando como se puede obtener a partir de la matriz de una
transformacion lineal f : V W en un par de bases B1 y B2 de V y W respectivamente, la
matriz de la misma transformacion lineal en cualquier otro par de bases B10 y B20 de dichos
espacios.
Proposicion 3.31 Sean V y W dos K-espacios vectoriales de dimension finita. Sean B1 , B10
bases de V y B2 , B20 bases de W . Entonces
|f |B10 B20 = C(B2 , B20 ).|f |B1 B2 .C(B10 , B1 ).
3.6 Rango de una matriz 79
Demostracion. Se tiene que f = idW f idV . Aplicando dos veces el resultado dado en la
Proposicion 3.29 y el hecho que la matriz de la transformacion lineal identidad en un par de
bases coincide con la matriz de cambio de base entre las mismas, se obtiene
|f |B10 B20 = |idW f idV |B10 B20 = |idW f |B1 B20 |idV |B10 B1 =
= |idW |B2 B20 .|f |B1 B2 .|idV |B10 B1 = C(B2 , B20 ).|f |B1 B2 .C(B10 , B1 ),
|f |B1 B2 = (C1 | . . . | Cm ) K nm .
Definicion 3.32 Sea A K nm . Se llama rango columna de A, y se nota rgC (A), a la di-
mension del subespacio de K n generado por las columnas de A, es decir, si A = (C1 | | Cm ),
entonces rgC (A) = dim < C1 , . . . , Cm >.
Mediante el calculo del rango columna de una matriz A es posible obtener la dimension
del subespacio de soluciones del sistema lineal homogeneo asociado a A:
1 2 3
Ejemplo. Sea A R33 , A = 1 2 1 , y sea S = {x R3 / A.x = 0}. Entonces
1 2 4
dim S = 3 rgC (A) = 3 dim < (1, 1, 1), (2, 2, 2), (3, 1, 4) > = 3 2 = 1.
Teniendo en cuenta el subespacio generado por las filas de una matriz en lugar del generado
por sus columnas puede darse la siguiente definicion de rango fila analoga a la de rango
columna.
Nuestro siguiente objetivo es mostrar que el rango fila y el rango columna de una matriz
coinciden. Para hacer esto nos basaremos en la observacion anterior. Primero mostraremos
que el rango columna de una matriz A no cambia si se la multiplica a izquierda o derecha por
matrices inversibles.
es una base de K n .
Se tiene que (
0 si i 6= j
(|fA |B1 B2 )ij = 1 si i = j m s
0 si i = j > m s
Observamos que
|fA |B1 B2 = C(E 0 , B2 ).|fA |EE 0 .C(B1 , E) = C.A.D,
donde C = C(E 0 , B2 ) GL(n, K) y D = C(B1 , E) GL(m, K).
Definicion 3.39 Sea A K nm . Al numero rgC (A) = rgF (A) lo llamaremos el rango de la
matriz A, y lo notaremos rg(A).
La Observacion 3.33 puede ahora reescribirse utilizando la nocion de rango de una matriz.
82 Transformaciones lineales
Esto significa que la dimension del espacio de soluciones de un sistema lineal homogeneo es
igual a la cantidad de incognitas menos la cantidad de ecuaciones independientes.
Como hemos visto en la seccion anterior, si dos matrices son equivalentes entonces tienen
el mismo rango. A continuacion veremos que la recproca de esta propiedad tambien es cierta.
En consecuencia, el rango resulta ser un invariante que nos permite determinar facilmente si
dos matrices son equivalentes.
Demostracion.
Definimos ahora una operacion en HomK (V, W ) y una accion de K en HomK (V, W ) que
lo convierten en un K-espacio vectorial:
Suma. Dadas f, g HomK (V, W ) se define f + g como
(f + g)(x) = f (x) + g(x) x V.
Veamos que f + g HomK (V, W ), con lo cual + resulta un operacion en HomK (V, W ):
Es claro que f + g : V W .
f + g es una transformacion lineal:
Para cada x, y V , se tiene que
(f + g)(x + y) = f (x + y) + g(x + y) = f (x) + f (y) + g(x) + g(y) =
= f (x) + g(x) + f (y) + g(y) = (f + g)(x) + (f + g)(y).
Por otro lado, para cada K y cada x V vale
(f + g)( x) = f ( x) + g( x) = f (x) + g(x) =
= (f (x) + g(x)) = (f + g)(x).
Por definicion, f : V W .
f es una transformacion lineal:
Para todo par de elementos x, y V :
i) (f + g) = f + g
ii) ( + ) f = f + f
iii) 1 f = f
iv) ( ) f = ( f )
En consecuencia:
Proposicion 3.46 Sean V y W dos K-espacios vectoriales de dimension finita, con dim V =
n y dim W = m. Sean B y B 0 bases de V y W respectivamente. Entonces la funcion
T : HomK (V, W ) K mn definida por T (f ) = |f |BB 0 es un isomorfismo.
T es un isomorfismo:
T es monomorfismo: Sea f HomK (V, W ) tal que T (f ) = 0, es decir, |f |BB 0 = 0.
Entonces, Im(f ) = {0}, de donde f 0.
T es epimorfismo: Sea A K mn . Consideramos fA : V W definida por fA (x) B 0 =
t
A.(x)tB para cada x V .
Se tiene que fA HomK (V, W ) y T (fA ) = |fA |BB 0 = A.
3.8 Ejercicios
Ejercicio 1. Determinar cuales de las siguientes aplicaciones son lineales.
i) f : R3 R2 , f (x1 , x2 , x3 ) = (x2 3.x1 + 2.x3 , x1 12 .x2 )
ii) f : R2 R3 , f (x1 , x2 ) = (x1 x2 , 2.x2 , 1 + x1 )
iii) f : R3 R3 , f (x1 , x2 , x3 ) = (2.x1 7.x3 , 0 , 3.x2 + 2.x3 )
iv) f : R2 R2 , f (x1 , x2 ) = (x1 + x2 , |x1 |)
v) f : C C , f (z) = i.z (considerando a C como R-espacio vectorial y como C-espacio
vectorial)
vi) f : C C , f (z) = i.Im(z) (considerando a C como R-espacio vectorial y como C-
espacio vectorial)
vii) f : C C , f (z) = z (considerando a C como R-espacio vectorial y como C-espacio
vectorial)
22 a11 a12
viii) f : R R, f = a11 .a22 a12 .a21
a21 a22
a11 a12 a13
ix) f : R23 R3 , f = (3.a13 a23 , a11 + 2.a22 a23 , a22 a12 )
a21 a22 a23
a11 a12 a22 0 a12 + a21
x) f : R22 R23 , f =
a21 a22 0 a11 a22 a11
a11 a12 a11 a12
xi) f : C22 C22 , f = (considerando a C22 como R-espacio
a21 a22 a21 a22
vectorial y como C-espacio vectorial)
i) f (x, y) = (x, 0)
ii) f (x, y) = (0, y)
86 Transformaciones lineales
Ejercicio 3.
i) tr : K nn K
ii) t : K nm K mn , t(A) = At
iii) f : K nm K rm , f (A) = B.A donde B K rn
iv) : C (R) C (R), (f ) = f 0
v) : K[X] K, (f ) = f () donde K
vi) s : K N K N , s({ai }iN ) = (0, a1 , a2 , . . . , an , . . .)
Ejercicio 5.
i) Probar que existe una unica transformacion lineal f : R2 R2 tal que f (1, 1) = (5, 3)
y f (1, 1) = (5, 2). Para dicha f , determinar f (5, 3) y f (1, 2).
ii) Existira una transformacion lineal f : R2 R2 tal que f (1, 1) = (2, 6), f (1, 1) =
(2, 1) y f (2, 7) = (5, 3)?
iii) Sean f, g : R3 R3 transformaciones lineales tales que
Determinar si f = g.
iv) Hallar todos los a R para los cuales exista una transformacion lineal f : R3 R3
que satisfaga que f (1, 1, 1) = (2, a, 1) , f (1, 1, 2) = (a2 , 1, 1) y f (1, 1, 2) =
(5, 1, 7).
3.8 Ejercicios 87
v) Hallar una formula para todas las tranformaciones lineales f : R3 [X] R3 que satis-
facen f (X 3 + 2X 2 X + 4) = (6, 5, 3), f (3X 2 + 2X 5) = (0, 0, 3), f (X 3 2X 2 +
3X 2) = (0, 1, 1) y f (2X 3 3X 2 + 7) = (6, 4, 7).
Ejercicio 6.
i) Calcular bases del nucleo y de la imagen para cada tranformacion lineal del ejercicio 1.
Decidir, en cada caso, si f es epimorfismo, monomorfismo o isomorfismo. En el caso
que sea isomorfismo, calcular f 1 .
ii) Clasificar las transformaciones lineales tr , t , , y s del ejercicio 4 en epimorfismos,
monomorfismos e isomorfismos.
Ejercicio 9.
Ejercicio 10. Determinar si existe (y en caso afirmativo hallar) una transformacion lineal
f : R3 R4 que verifique Im(f ) = S y Nu(f ) = T en los siguientes casos:
Ejercicio 11. En cada uno de los siguientes casos encontrar una transformacion lineal
f : R3 R3 que verifique lo pedido:
Ejercicio 12. En cada uno de los siguientes casos construir un proyector f : R3 R3 que
cumpla:
Ejercicio 16.
i) Calcular |f 1 |B .
ii) Calcular f 1 (v1 2.v2 + v4 ).
Ejercicio 20. En cada uno de los siguientes casos, hallar una matriz A Rnn para un n
adecuado que verifique:
i) A 6= In y A3 = In .
ii) A 6= 0; A 6= In y A2 = A.
Ejercicio 21. Sea V un K-espacio vectorial de dimension finita y sea B una base de V .
i) Sea tr : Hom(V, V ) K la aplicacion definida por tr(f ) = tr(|f |B ). Probar que tr(f )
no depende de la base B elegida.
tr(f ) se llama la traza del endomorfismo f .
ii) Probar que tr : Hom(V, V ) K es una transformacion lineal.
Ejercicio 23.
f (x1 , x2 , x3 , x4 ) = (0, x1 , x1 + x2 , x1 + x2 + x3 )
y sea v = (1, 0, 0, 0). Probar que B = {v, f (v), f 2 (v), f 3 (v)} es una base de R4 . Calcular
|f |B .
3.8 Ejercicios 91
/ Nu(f n1 )).
(Sugerencia: elegir v1
Encontrar bases B y B 0 de R5 y R4 respectivamente tales que |f |BB 0 sea una matriz diagonal.
Ejercicio 34. Dadas A , B Rnn , decidir si existen matrices P , Q GL(n, R) tales que
A = P.B.Q.
3.8 Ejercicios 93
2 5 1 2
i) n = 2; A = ;B=
1 3 1 1
2 3 5 8
ii) n = 2; A = ;B=
4 6 1 2
1 0 5 3 8 5
iii) n = 3; A = 2 1 0 ; B = 2 2 0
0 1 0 0 7 0
1 1 0 0 1 2
iv) n = 3; A = 2 1 0 ; B = 1 0 1
3 0 1 1 1 3
Ejercicio 36. Sean A, C K nn . Probar que las siguientes afirmaciones son equivalentes:
i) A C.
ii) f : K n K n tranformacion lineal y bases B y B 0 de K n tales que |f |B = A y
|f |B 0 = C
Ejercicio 37.
Espacio dual
Una de las situaciones en donde se aplica la teora de espacios vectoriales es cuando se tra-
baja con espacios de funciones, como vimos al final del captulo anterior. En este captulo
estudiaremos algunas nociones basicas de ciertos espacios que de alguna forma le dan una
estructura a las ecuaciones lineales.
Segun vimos en la Seccion 3.7, si dim V = n, dadas B una base de V y B 0 una base de
K, se tiene que : HomK (V, K) K 1n definida por (f ) = |f |BB 0 , es un isomorfismo. En
consecuencia,
dim(V ) = dim(K 1n ) = n = dim V.
a1 1 + + an n = 0.
ei (vj ) = 0 = i (vj ) si 1 j n, j 6= i,
ei (vi ) = 1 = i (vi ) = 1,
es decir,
ei y i son dos transformaciones lineales que coinciden sobre una base. En conse-
cuencia, ei = i para cada 1 i n.
Ejemplos.
X
n Xn
j (v) = j i vi = i j (vi ) = j .
i=1 i=1
X
n n
X
(vj ) = i i (vj ) = i i (vj ) = j .
i=1 i=1
x+y
Ejemplo. Sean B = {(1, 1), (1, 1)} R2 y B = {1 , 2 }, con 1 (x, y) = y
2
xy
2 (x, y) = , su base dual (ver Ejemplo 2. en la pagina 96).
2
1. Hallar las coordenadas del vector v = (5, 7) R2 en la base B.
Teniendo en cuenta que B es la base dual de B, por la observacion anterior resulta que
Hemos visto que toda base de un K-espacio vectorial V de dimension finita posee una
base dual asociada. Recprocamente, resulta que toda base de V es la base dual de una base
de V :
Demostracion.
Existencia. Sea B2 = {w1 , . . . , wn } una base de V y sea B2 su base dual.
Para cada 1 i n, se tiene que (i )B2 = (i (w1 ), . . . , i (wn )). Como {1 , . . . , n } es
un conjunto linealmente independiente y tomar coordenadas es un isomorfismo, resulta que
{(1 )B2 , . . . , (n )B2 } K n es linealmente independiente. En consecuencia, la matriz
1 (w1 ) 1 (wn )
2 (w1 ) 2 (wn )
M = .. ..
. .
n (w1 ) n (wn )
P
n
Para cada 1 j n, sea vj = akj wk .
k=1
Por construccion, es claro que vale i (vj ) = ij para cada 1 i, j n. Queda por ver
que {v1 , . . . , vn } es una base de V . Como dim V = dim V = n, basta ver que este conjunto
P
n
es linealmente independiente. Ahora, si j vj = 0, para cada 1 i n, se tiene que
j=1
X
n Xn
0 = i j vj = j i (vj ) = i ,
j=1 j=1
de donde ui = vi .
4.3 Anulador de un subespacio 99
0 0 (P ) + 1 1 (P ) + 2 2 (P ) = 0.
(X 1)(X 2) 1
con lo que P0 = = (X 1)(X 2). Analogamente se calculan los otros dos
(1)(2) 2
1
elementos de la base: P1 = X(X 2) y P2 = X(X 1).
2
Si se quiere hallar un polinomio P R2 [X] tal que P (0) = , P (1) = y P (2) = , basta
tener en cuenta que esto equivale a que
Es claro que 0 S .
Si f, g S , entonces f (s) = 0 y g(s) = 0 para todo s S, de donde (f + g)(s) =
f (s) + g(s) = 0 para todo s S. Luego, f + g S .
Si K y f S , entonces ( f )(s) = f (s) = 0 = 0 para todo s S, puesto
que f (s) = 0 para cada s S. Luego f S .
En el caso de un K-espacio vectorial de dimension finita, existe una relacion entre las
dimensiones de un subespacio y su anulador.
dim S + dim S = n.
Ejemplo. Sea S = < (1, 1, 1), (1, 2, 1) > R3 . Hallar una base de S .
Ejemplo. Sea S = < (1, 1, 1), (1, 2, 1) > R3 . Hallar ecuaciones para S.
S = {(x, y, z) R3 / f (x, y, z) = 0 f S }
= {(x, y, z) R3 / .(x z) = 0 R}
= {(x, y, z) R3 / x z = 0}.
Para terminar, vamos a ver como se comporta el anulador con la suma y la interseccion
de subespacios.
1. (S + T ) = S T .
2. (S T ) = S + T .
102 Espacio dual
Demostracion.
1. Sea f V . Se tiene que:
f (S + T ) f (s + t) = 0 s S, t T
f (s) = 0 s S f (t) = 0 t T
f S T
4.4 Ejercicios
Ejercicio 1. Sea S (R3 ) el subespacio S = { (R3 ) / (1, 1, 2) = 0}. Encontrar una
base de S.
Ejercicio 2. Dada la base B del K-espacio vectorial V , hallar su base dual en cada uno de
los siguientes casos:
i) V = R2 , B = {(1, 1), (2, 0)}
ii) V = R3 , B = {(1, 1, 0), (0, 1, 0), (0, 0, 1)}
iii) V = R3 [X], B = {X + 2, X 1, X 2 3.X + 2, X 3 3.X 2 + 2.X}
Ejercicio 7. Sea B R2 la base B = {(1, 1), (1, 1)}. Encontrar las coordenadas de la base
dual de B en la base dual de la canonica.
Ejercicio 8. Sean B y B1 las bases de R3 definidas por B = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} y
B1 = {(1, 1, 1), (1, 1, 1), (1, 1, 1)}. Si (R3 ) tiene coordenadas (1, 3, 2) respecto de
B , calcular sus coordenadas respecto de B1 .
( ( )
x1 x2 + x3 + x4 = 0
4 4
iv) V = R y S = (x1 , x2 , x3 , x4 ) R / 2.x1 + x2 2.x3 + 3.x4 = 0
4.x1 x2 + 5.x4 = 0
2 2
Ejercicio 10. Sea B = R22 y sea W = {A R22 / A.B = 0}. Sea f W
1 1
0 0
tal que f (I2 ) = 0 y f = 3. Calcular f (B).
0 1
i) V = R4 , S = < (1, 1, 1, 1), (2, 1, 3, 1) > , T = < (2, 4, 8, 0), (1, 1, 2, 3) >
n n o
x1 x3 = 0
ii) V = R4 , S = (x1 , x2 , x3 , x4 ) / , T = < (2, 1, 3, 1) >
x1 + x2 + x4 = 0
n n o
x1 2.x2 + x3 = 0
iii) V = R3 , S = (x1 , x2 , x3 ) / ,
3.x2 2.x3 = 0
T = {(x1 , x2 , x3 , x4 ) R4 / 2.x1 x2 = 0}
i) Probar que fa (K nn ) a K nn .
1
Hallar a0 , a1 y a2 en el caso en que n = 2, 0 = 1, 1 = 2 y 2 = 0.
f t () = f W .
Determinantes
Notar que los tems i) y ii) dicen que si f : K nn K es multilineal, para cada columna
i, una vez fijados los valores de las columnas restantes, se obtiene una funcion lineal en la
columna i.
Ejemplos.
En la siguiente proposicion damos algunas de las propiedades basicas que verifica toda
funcion multilineal alternada.
~0 | . . . | An ) = 0 1 i n.
i) f ( A1 | . . . | |{z}
col. i
ii) f ( A1 | . . . | Ai | . . . | Aj | . . . | An ) = f ( A1 | . . . | Aj | . . . | Ai | . . . | An ).
|{z} |{z}
col. i col. j
iii) f ( A1 | . . . | Ai + Aj | . . . | Aj | . . . | An ) = f ( A1 | . . . | Ai | . . . | Aj | . . . | An ).
| {z }
col. i
P
n
iv) Si Ai = j Aj , entonces f ( A1 | . . . | Ai | . . . | An ) = 0.
j=1
j6=i
5.1 Definicion y ejemplos basicos 109
Demostracion.
0 = f ( A1 | . . . | Ai | . . . | Ai + Aj | . . . | An ) +
+ f ( A1 | . . . | Aj | . . . | Ai + Aj | . . . | An )
= f ( A1 | . . . | Ai | . . . | Ai | . . . | An ) + f ( A1 | . . . | Ai | . . . | Aj | . . . | An ) +
+ f ( A1 | . . . | Aj | . . . | Ai | . . . | An ) + f ( A1 | . . . | Aj | . . . | Aj | . . . | An )
= f ( A1 | . . . | Ai | . . . | Aj | . . . | An ) + f ( A1 | . . . | Aj | . . . | Ai | . . . | An ),
de donde
f ( A1 | . . . | Ai | . . . | Aj | . . . | An ) = f ( A1 | . . . | Aj | . . . | Ai | . . . | An ).
f ( A1 | . . . | Ai + Aj | . . . | Aj | . . . | An ) =
= f ( A1 | . . . | Ai | . . . | Aj | . . . | An ) + f ( A1 | . . . | Aj | . . . | Aj | . . . | An ) =
= f ( A1 | . . . | Ai | . . . | Aj | . . . | An ),
Lema 5.3 Sea f : K (n+1)(n+1) K una funcion multilineal alternada tal que f (In+1 ) = .
Sea i con 1 i n + 1. Se define fi : K nn K como
a11 . . . a1 i1 0 a1 i ... a1n
.. .. .. .. ..
. . . . .
ai1 1 . . . ai1 i1 0 ai1 i . . . ai1 n
fi (A) = f
0 ... 0 1 0 ... 0
si A = (ajl )1j, ln .
ai1 ... ai i1 0 ai i ... ai n
.. .. .. .. ..
. . . . .
an1 ... an i1 0 an i ... ann
Entonces fi es una funcion multilineal alternada y fi (In ) = .
5.1 Definicion y ejemplos basicos 111
Veamos como puede utilizarse este resultado para hallar una funcion multilineal alternada
de K 33 en K con un determinado valor sobre I3 conociendo las funciones multilineales
alternadas de K 22 en K:
Teorema 5.4 Sea K. Para cada n N, existe una unica funcion multilineal alternada
f : K nn K tal que f (In ) = .
n+1
X
e
f (A) = e
(1)i+1 a1i g(A(1|i)) e
+ (1)k+1 (a1k + a01k ) g(A(1|k))
i=1
i6=k
n+1
X n+1
X
= (1)i+1 a1i g(A(1|i)) + (1)i+1 a1i g(A0 (1|i)) +
i=1 i=1
i6=k i6=k
= f (A) + f (A0 ).
e = ( A1 | . . . | Ak | . . . | An+1 ). Entonces
ii) Sea A = ( A1 | . . . | Ak | . . . | An+1 ) y sea A
n+1
X
e
f (A) = e
(1)i+1 a1i g(A(1|i)) e
+ (1)k+1 a1k g(A(1|k))
i=1
i6=k
n+1
X
= (1)i+1 a1i g(A(1|i)) + (1)k+1 a1k g(A(1|k))
i=1
i6=k
= f (A).
Observamos que para cada i 6= j, k, la matriz A(1|i) tiene dos columnas iguales, con lo
que g(A(1|i)) = 0. Ademas A(1|j) y A(1|k) solo difieren en la posicion de una columna:
la j-esima columna de A(1|k) es la (k 1)-esima columna de A(1|j). En consecuencia,
A(1|j) puede obtenerse a partir de A(1|k) mediante k 1 j intercambios de columnas
y por lo tanto, g(A(1|k)) = (1)k1j g(A(1|j)). Luego
a12 ... a1i 0 a1i+1 ... a1n+1
.. .. .. .. ..
. . . . .
n+1
X ai1 2 ... ai1 i 0 ai1 i+1 ... ai1 n+1
= (1) ai1 . f
i1
0 ... 0 1 0 ... 0
i=1 ai+1 2 ... ai+1 i 0 ai+1 i+1 ... ai+1 n+1
.. .. .. .. ..
. . . . .
an+1 2 ... an+1 i 0 an+1 i+1 . . . an+1 n+1
n+1
X
= (1)i+1 ai1 . fi (A(i|1)).
i=1
de donde f es unica.
Las formulas recursivas para el calculo del determinante de una matriz dadas en el corolario
anterior se llaman el desarrollo del determinante por la primera columna y por la primera fila
respectivamente.
2 0 0 1
0 1 0 1
Ejemplo. Calcular det(A), siendo A = .
1 0 1 0
0 1 1 0
Utilizando la formula del desarrollo por la primera fila del Corolario 5.6 obtenemos:
2 0 0 1
1 0 1 0 1 0
0 1 0 1
det = (1)2. 2. det 0 1 0 + (1)5. 1. det 1 0 1
1 0 1 0
1 1 0 0 1 1
0 1 1 0
2 1 0 0 1
= 2. (1) .1. det + (1)4 .1. det +
1 0 1 1
5.2 Propiedades del determinante 115
3 1 1
+ (1) (1) .1. det
0 1
= 2.(0 + 1) + (1)(1) = 3.
Proposicion 5.9 Sea A = (aij ) K nn una matriz triangular superior. Entonces det(A) =
Qn
aii .
i=1
Supongamos que vale para n y sea A = (aij ) K (n+1)(n+1) una matriz triangular
superior. Entonces
n+1
X
det(A) = (1)i+1 ai1 det(A(i|1)) = a11 det(A(1|1)),
i=1
puesto que por nuestra hipotesis sobre A, se tiene que ai1 = 0 para cada i 2.
Ahora, la matriz A(1|1) K nn es triangular superior y entonces, por hipotesis inductiva,
Q
n Q
n+1
det(A(1|1)) = (A(1|1))jj = aii . En consecuencia,
j=1 i=2
n+1
Y
det(A) = a11 det(A(1|1)) = aii ,
i=1
Observacion 5.10 Dado que el determinante es una funcion multilineal alternada por fi-
las (ver Observacion 5.8), podemos calcular el determinante de una matriz triangulandola,
teniendo en cuenta el cambio del determinante de acuerdo a la operacion elemental efectuada:
0 1 0 1
F1 F1
.
B . C .
B . C
B . C B . C
B C B C
B Fi C B Fj C
B C B C
B . C B C Intercambiar dos filas
det B .. C = det B ... C
B C B C cambia el signo del determinante.
B Fj C B Fi C
B C B C
B . C B . C
@ .. A @ .. A
Fn Fn
0 1 0 1
F1 F1
B .. C B .. C
B . C B . C
B C B C Multiplicar una fila por una constante no nula
det B
B F i
C = det B Fi C
C B C
B .. C B .. C multiplica el determinante por esa constante.
@ . A @ . A
Fn Fn
0 1 0 1
F1 F1
B ..
C .
B . C
B C
. B . C
B C B C
B Fi + Fj C B Fi C
B C B C
B .. C B . C Sumarle a una fila un multiplo de otra
det B . C = det B .. C
B C B C no modifica el determinante.
B Fj C B Fj C
B C B C
B .. C B . C
@ A @ .. A
.
Fn Fn
2 0 0 1
0 1 0 1
Ejemplo. Calcular det(A), siendo A = .
1 0 1 0
0 1 1 0
2 0 0 1 1 0 1 0 1 0 1 0
0 1 0 1 0 1 0 1 0 1 0 1
det = det = det =
1 0 1 0 2 0 0 1 0 0 2 1
0 1 1 0 0 1 1 0 0 1 1 0
1 0 1 0 1 0 1 0
0 1 0 1 0 1 0 1
= det = 2 det 1 =
0 0 2 1 0 0 1 2
0 0 1 1 0 0 1 1
1 0 1 0
0 1 0 1
= 2 det 1 = 3.
0 0 1 2
0 0 0 23
lo que da una formula para el desarrollo del determinante de una matriz por la j-esima
columna para 1 j n arbitrario. Usando que det(A) = det(At ), se prueba una formula
para el desarrollo por la i-esima fila para cualquier 1 i n.
Hemos demostrado el siguiente resultado:
1 2 1 2
1 0 2 1
Ejemplo. Calcular det(A), siendo A = .
1 0 2 0
1 0 1 0
Desarrollando el determinante por la segunda columna, se obtiene:
1 2 1 1 2 1
det(A) = (1)1+2 . (2). det 1 2 0 = 2. det 1 2 0,
1 1 0 1 1 0
y desarrollando por la tercera columna el determinante del miembro derecho,
1 2
det(A) = 2. (1)1+3 . 1. det = 2. (1. 1 2. 1) = 2.
1 1
i) Para i con 1 i n,
f ( X1 | . . . | Xi + Xi0 | . . . | Xn ) = det A. ( X1 | . . . | Xi + Xi0 | . . . | Xn ) =
= det( AX1 | . . . | AXi + AXi0 | . . . | AXn ) =
= det( AX1 | . . . | AXi | . . . | AXn ) + det( AX1 | . . . | AXi0 | . . . | AXn ) =
= f ( X1 | . . . | Xi | . . . | Xn ) + f ( X1 | . . . | Xi0 | . . . | Xn ).
ii) Para K, 1 i n,
f ( X1 | . . . | Xi | . . . | Xn ) = det A.( X1 | . . . | Xi | . . . | Xn ) =
= det AX1 | . . . | A.Xi | . . . | AXn = det AX1 | . . . | AXi | . . . | AXn =
= f ( X1 | . . . | Xi | . . . | Xn ).
5.3 Determinantes y matrices inversibles 119
iii) Para 1 i n,
f ( X1 | . . . | Xi | . . . | Xi | . . . | Xn ) = det A.( X1 | . . . | Xi | . . . | Xi | . . . | Xn ) =
= det AX1 | . . . | AXi | . . . | AXi | . . . | AXn = 0.
Demostracion.
1 5 2
Ejemplo. Sea A = 2 1 1 . Entonces la adjunta de A es la matriz
1 2 0
1 1 5 2 5 2
+ det det + det
2 0 2 0 1 1
2 4 3
2 1 1 2 1 2
adj(A) =
det + det det = 1
2 3
1 0 1 0 2 1
3 3 9
2 1 1 5 1 5
+ det det + det
1 2 1 2 2 1
1
de donde se deduce que A1 = . adj(A). Teniendo en cuenta que det(A) = 9, resulta que
9
1 1
A = . adj(A).
det(A)
P
n
Si k = `, entonces (A. adj(A))` ` = (1)i+` a` i det(A(`|i)) = det(A), puesto que la sumato-
i=1
ria resulta ser el desarrollo de det(A) por la `-esima fila.
5.3 Determinantes y matrices inversibles 121
P
n
Por otro lado, si k 6= `, se tiene que (A. adj(A))k` = (1)i+` aki det(A(`|i)) = 0, puesto
i=1
que se trata del desarrollo por la `-esima fila del determinante de la matriz A(k`) definida por
(k`) aij si i 6= `
(A )ij =
akj si i = `
Proposicion 5.17 (Regla de Cramer) Sea A = (aij ) K nn una matriz inversible, y sea
b K n1 . Entonces la (unica) solucion del sistema lineal A.x = b esta dada por
a11 . . . a1 i1 b1 a1 i+1 . . . a1n
a21 . . . a2 i1 b2 a2 i+1 . . . a2n
det . .. .. .. ..
.. . . . .
an1 ... an i1 bn an i+1 ... ann
xi = para i = 1, . . . , n.
det A
adj(A).A.x = adj(A). b.
Ejemplo. Sea A Znn tal que det(A) = 1 y sea b Zn . Entonces el sistema lineal
A.x = b tiene solucion en Zn .
Sea x0 Qn la solucion del sistema A.x = b. Por la regla de Cramer, sabemos que cada
coordenada de x0 se obtiene como el cociente entre el determinante de una matriz cuyos
coeficientes son coeficientes de A y de b, y el determinante de la matriz A. Como tanto los
coeficientes de A como los de b son numeros enteros, el determinante que aparece en cada
numerador es un numero entero y, puesto que det(A) = 1, el cociente resulta entero. Luego
x0 Zn .
Para n = 2:
t a0
det = t(t + a1 ) + a0 = t2 + a1 t + a0 .
1 t + a1
Supongamos que vale para toda matriz de este tipo en K nn . Entonces, dada una matriz
de esta forma en K (n+1)(n+1) , desarrollando el determinante por la primera fila, y aplicando
luego la hipotesis inductiva resulta que
t 0 0 ... 0 0 a0
1 t 0 ... 0 0 a1
0 1 t ... 0 0 a2
det
0 0 1 . . . 0 0 a3 =
... ... ... ... ... ... ...
0 0 0 ... 1 t an1
0 0 0 ... 0 1 t + an
5.4 Calculo de algunos determinantes 123
t 0 0 ... 0 a1
1 t 0 ... 0 a2
0 1 t ... 0 a3
= t. det
+ (1)n+2 a0 (1)n =
... ... ... ... ... ...
0 0 0 ... t an1
0 0 0 . . . 1 t + an
Y
Entonces det V (k1 , k2 , . . . , kn ) = (kj ki ).
1i<jn
1 0 0 ... 0
0 k k k k . . . k k1
2 1 3 1 n+1
= det
0 (k 2 k 1 )k 2 (k 3 k 1 )k3 . . . (kn+1 k 1 )kn+1
... ... ... ... ...
0 (k2 k1 )k2n1 (k3 k1 )k3n1 . . . (kn+1 k1 )kn+1 n1
1 1 ... 1
n+1
Y k2 k3 . . . kn+1
= (kj k1 ). det ...
... ... ...
j=2
k2n1 k3n1 . . . kn+1 n1
n+1
Y Y
= (kj k1 ) . (kj ki )
j=2 2i<jn+1
Y
= (kj ki ).
1i<jn+1
Observacion 5.18 Del ejemplo anterior se deduce que, si k1 , . . . , kn K son escalares dis-
tintos, la matriz V (k1 , . . . , kn ) K nn es inversible, pues su determinante es no nulo.
La matriz de Vandermonde se relaciona con el siguiente problema de interpolacion: dados
0 , . . . , n K escalares distintos, y 0 , . . . , n K escalares arbitrarios, hallar un polinomio
Pn
P = ai X i K[X] de grado menor o igual que n tal que P (i ) = i para cada 0 i n.
i=0
Estas condiciones dan lugar a un sistema de ecuaciones lineales para los coeficientes de P :
(V (0 , . . . , n ))t .x = t ,
2 1 3
Ejemplo. Sea A R33 , A = 2 2 1 .
1 4 1
2 2 1
Una submatriz de A de 2 3 es, por ejemplo, , que se obtiene al suprimir
1 4 1
la primera fila de A.
2 3
Una submatriz de A de 2 2 es, por ejemplo, , que se obtiene al suprimir la
2 1
tercera fila y la segunda columna de A.
La relacion entre rango y submatrices con determinante no nulo viene dada por la siguiente
proposicion.
i) rg(A) r.
Demostracion.
i) ii) Si rg(A) r, entonces existen r filas Fi1 , . . . , Fir (i1 < . . . < ir ) de A que son
linealmente independientes. Consideramos la submatriz A0 de A formada por dichas
filas. Se tiene que A0 K rm y rg(A0 ) = r. Esto ultimo implica que A0 tiene r
columnas Cj1 , . . . , Cjr (j1 < . . . < jr ) linealmente independientes.
Sea B K rr la submatriz de A0 cuyas columnas son Cj1 , . . . , Cjr . Es claro que B es
una submatriz de A y, como sus columnas son linealmente independientes, det(B) 6= 0.
Observacion 5.21 Sea A K nm una matriz que posee una submatriz de r r inversible,
pero no posee ninguna submatriz de (r + 1) (r + 1) inversible. Entonces rg(A) = r.
126 Determinantes
Fn
alternada por filas tenemos que
ei1
X F2
det(A) = a1i1 det
...
1i1 n
Fn
Dado que, si una matriz tiene dos filas iguales, su determinante es cero, en la suma podemos
quedarnos solo con los determinantes de las matrices cuyas filas son los n vectores distintos
de la base canonica, eventualmente cambiados de orden. Para facilitar la notacion, daremos
la siguiente
Luego,
e(1)
X e(2)
det(A) = a1(1) a2(2) . . . an(n) det . .
..
Sn
e(n)
e(1)
e(2)
Como el determinante de la matriz . solo depende de la permutacion y siempre da
..
e(n)
1 o 1 (ya que la matriz se obtiene intercambiando filas de la matriz In ), podemos definir
el signo de la permutacion (que notaremos sg()) como dicho determinante. Usando esta
notacion, tenemos:
5.7 Ejercicios 127
5.7 Ejercicios
Ejercicio 1. Calcular el determinante de las siguientes matrices:
1 2 5
3 2 2 2
i) ii) iii) 3 0 1
4 5 1 1
1 4 2
2 3 2 5 5 4 2 5
2 1 3
4 5 0 6 2 3 0 6
iv) 1 1 2 v) vi)
2 0 1 7 0 0 2 0
4 1 5
6 3 4 8 4 3 3 8
0 0 . . . 0 a1
0 0 . . . a2 0
A = ... ... ... ... ....
0 an1 ... 0 0
an 0 ... 0 0
128 Determinantes
Ejercicio 4.
i) Si A K nn , B K mm
y C K nm , sea M K (n+m)(n+m) la matriz de bloques
A C
definida por M = . Probar que det(M ) = det(A). det(B).
0 B
ii) Sean r1 , r2 , . . . , rn N y para cada i , 1 i n, sea Ai K ri ri . Se considera la
matriz de bloques
A1 0 0 ... 0
0 A2 0 . . . 0
M = 0 0 A3 . . . 0 .
... ... ... ... ...
0 0 0 . . . An
Calcular det(M ).
Q
probar que det V (k1 , k2 , . . . , kn ) = (kj ki ) de la siguiente forma: Sin perder
1i<jn
generalidad se puede suponer que ki 6= kj si i 6= j. Si se considera el determinante de
V (k1 , k2 , . . . , kn1 , X) como polinomio en X, probar que k1 , . . . , kn1 son sus races y facto-
rizarlo.
1 1
Ejercicio 9. Sea A = (aij ) R33 tal que A. 2 = 2 . Si det(A) = 3, calcular el
1 7
determinante de la matriz
a12 a22 a32
1 2 7 .
a11 + 2a13 a21 + 2a23 a31 + 2a33
probar que no existe ninguna matriz C GL(2, R) tal que A.C = C.B. Y si no se pide que
C sea inversible?
0 1 2
Ejercicio 11. Sea A R33 la matriz A = 0 1 2 y sea B R33 , B = (bij ), una
0 2 3
matriz tal que det(A + B) = det(A B). Probar que B es inversible si y solo si b11 6= b21 .
Ejercicio 12.
Ejercicio 14. Sean 1 , . . . , n R, todos distintos y no nulos. Probar que las funciones
e1 x , . . . , en x son linealmente independientes sobre R. Deducir que RR no tiene dimension
finita.
Pn
Sugerencia: Derivar n 1 veces la funcion ci ei x .
i=1
Ejercicio 15. Calcular el determinante, la adjunta y la inversa de cada una de las siguientes
matrices:
1 1 6 5
2 3 3 cos 0 sen
2 3 1 1 2 3
i) ii) 5 4 0 iii) iv) 0 1 0
5 1 1 2 5 4
0 2 2 sen 0 cos
2 1 0 1
Ejercicio 16. Sea A una matriz inversible. Calcular det adj A . Que pasa si A no es
inversible?
Ejercicio 17.
a b c
Ejercicio 18. Sea A R33 la matriz A = d e f . Se sabe que
g h i
1 b c a 2 c a b 1
det 2 e f = 0, det d 4 f = 0, y det d e 2 = 0.
5 h i g 10 i g h 5
Calcular det A.
5.7 Ejercicios 131
Ejercicio 19.
i) Sea A K 33 no inversible tal que A11 .A33 A13 .A31 6= 0. Calcular la dimension de
S = {x K 3 / A.x = 0}.
ii) Sea A K nn no inversible tal que adj(A) 6= 0. Calcular rg(A) y rg(adj(A)).
Ejercicio 20.
i) Sea A = (aij ) K 66 . Con que signos aparecen los siguientes productos en det(A)?
a) a23 .a31 .a42 .a56 .a14 .a65
b) a32 .a43 .a14 .a51 .a66 .a25
ii) Sea A = (aij ) K 55 . Elegir todos los posibles valores de j y de k tales que el producto
a1j .a32 .a4k .a25 .a53 aparezca en det(A) con signo +
iii) Sea A = (aij ) K 44 . Escribir todos los terminos de det(A) que tengan al factor a23
y signo +
Probar que si A GL(n, K), det(M ) = det(A.D A.C.A1 .B). Si ademas A.C = C.A
entonces det(M ) = det(A.D C.B).
132 Determinantes
Captulo 6
Diagonalizacion
y por lo tanto, existe una matriz C GL(n, K) tal que |f |B1 = C. |f |B2 . C 1 . Recproca-
mente, si A, B K nn son tales que existe una matriz C GL(n, K) tal que A = C.B.C 1 ,
definiendo f : K n K n como f (x) = A.x y considerando B1 = E la base canonica de K n y
B2 la base de K n formada por las columnas de C, resulta que
Por lo que vimos, una misma transformacion lineal da lugar a matrices semejantes si
calculamos sus matrices en distintas bases. Es por eso que, en lo que sigue, estudiaremos la
134 Diagonalizacion
En otras palabras, una matriz diagonalizable es una matriz que es semejante a una matriz
diagonal. La nocion correspondiente para transformaciones lineales es la siguiente:
Ejemplos.
2 3
1. Decidir si A = R22 es diagonalizable.
2 1
En virtud de la proposicion anterior, basta buscar los autovectores
de
A, es decir,
los
x1 .x 1
vectores x = (x1 , x2 ) R2 tales que (x1 , x2 ) 6= (0, 0) y A. = para
x2 .x2
algun R.
Para esto, buscaremos en primer termino los elementos R para los cuales el sistema
A.x = .x tiene solucion no trivial (autovalores de A) y despues, para cada uno de
los valores hallados, los vectores (x1 , x2 ) R2 que son soluciones del sistema lineal
correspondiente.
Observamos que
2 3 x1 0
A.x = .x (I2 A).x = 0 . = .
2 1 x2 0
Este sistema homogeneo tiene solucion no trivial si y solo si el determinante de su matriz
asociada es 0, o sea, si y solo si 2 3 4 = 0. Luego, los autovalores de A son = 1
y = 4.
Busquemos ahora los autovectores correspondientes a cada autovalor:
Para = 1, queda el sistema
3 3 x1 0
= ,
2 2 x2 0
cuyo conjunto de soluciones es < (1, 1) >. Luego el conjunto de los autovectores
asociados a = 1 es < (1, 1) > {(0, 0)}.
Para = 4, el sistema es
2 3 x1 0
= ,
2 3 x2 0
136 Diagonalizacion
cuyo conjunto de soluciones es < (3, 2) >. Luego el conjunto de los autovectores aso-
ciados a = 4 es < (3, 2) > {(0, 0)}.
En consecuencia, A es diagonalizable, puesto que B = {(1, 1), (3, 2)} es una base de
R2 formada por autovectores de A. Mas aun, si C = C(E, B) se tiene que
1 1 0
C. A. C = .
0 4
3 0 0
2. Decidir si A = 1 3 0 es diagonalizable en R33 .
0 0 3
Busquemos los autovalores de A, es decir, los valores de R para los cuales el sistema
A.x = .x tiene solucion no trivial o, equivalentemente, el sistema (.I3 A).x = 0 tiene
solucion no trivial. Pero esto vale si y solo si det(.I3 A) = 0, es decir ( 3)3 = 0.
Luego, = 3 es el unico autovalor de A.
Si A fuese diagonalizable, existira C GL(n, K) tal que
3 0 0 3 0 0
C.A.C 1 = 0 3 0 A = 0 3 0 .
0 0 3 0 0 3
Luego, A no es diagonalizable.
Demostracion.
P
r
Como sj s0j Sj y (s0i si ) es una suma donde cada s0i si Si , de la hipotesis
i=1
i6=j
Como en la suma directa de dos subespacios, en este caso tambien es posible obtener una
base del espacio suma uniendo bases de cada uno de los sumandos. La demostracion de este
resultado es analoga a la de la Proposicion 1.46.
= (X )s det(XIns M )
= (X )s Q.
6.2 Una caracterizacion de matrices diagonalizables 141
(X )s Q = XfA = XA = (X )r P con P () 6= 0,
i) A es diagonalizable en K nn .
L
r
ii) Ei = K n .
i=1
Demostracion.
r
X r
X
n = dim K n = dim Ei mult(i , XA ) gr(XA ) = n.
i=1 i=1
S
r
iii ) i ) Para cada 1 i r sea Bi una base de Ei . Por la Proposicion 6.18, B = Bi
i=1
L
r
es una base de Ei K n . Ahora,
i=1
r
X r
X r
X
#B = #Bi = dim Ei = ai = gr(XA ) = n,
i=1 i=1 i=1
L
r L
r
de donde dim Ei = dim K n . Luego Ei = K n y entonces B es una base
i=1 i=1
(formada por autovectores de A) de K n . En consecuencia, A es diagonalizable.
1 0 0 1
1 1 0 1
Ejemplo. Decidir si A =
0
R44 es diagonalizable.
0 1 1
0 0 0 2
P (A) = a0 In + a1 A + + ar Ar K nn .
Dada una matriz A K nn nos interesa considerar polinomios P K[X] que anulen a A,
es decir, tales que P (A) = 0. El siguiente resultado asegura que para cualquier matriz existe
un polinomio no nulo con esta propiedad.
Para cada matriz, distinguimos un polinomio particular entre todos los polinomios que la
anulan: el de grado mnimo y monico. Veamos que para toda matriz existe un polinomio con
estas propiedades y que es unico:
Puesto que {I2 , A} es linealmente independiente, no existe P R[X] tal que gr(P ) = 1 y
P (A) = 0.
Buscamos entonces P = X 2 +aX +b que anule a A, para lo cual estudiamos la independecia
lineal de {I2 , A, A2 }.
1 0 1 0 1 0
A2 + aA + bI2 = 0 +a +b =0
2 1 1 1 0 1
n
1a+b=0
a = 2, b = 1.
2 + a = 0
Luego, mA = X 2 + 2X + 1. (Observar que, en este caso, mA coincide con XA .)
Dada una matriz A K nn , el conjunto de todos los polinomios que anulan a A puede
caracterizarse a partir de su polinomio minimal mA .
144 Diagonalizacion
Demostracion.
Como mA es de grado mnimo entre los polinomios que anulan a A, no puede ser
gr(R) < gr(mA ) y, por lo tanto, R = 0.
Como sucede en el caso del polinomio caracterstico, vemos que dos matrices semejantes
tienen el mismo polinomio minimal. Para eso, analizamos en primer lugar la relacion entre
los polinomios que anulan a dos matrices semejantes. Utilizaremos el siguiente hecho:
P
r
Demostracion. Sea P K[X], P = ai X i . Si A B, existe C GL(n, K) tal que
i=0
A = C.B.C 1 , y entonces
r
X
P (A) = P (C. B. C 1 ) = ai .(C. B. C 1 )i
i=0
r
X X
r
= ai . C. B i . C 1 = C. ai B i . C 1 = C. P (B). C 1 .
i=0 i=0
mA (A) = 0 mA (B) = 0 mB | mA .
mB (B) = 0 mB (A) = 0 mA | mB .
Definicion 6.29 Sea V un K-espacio vectorial de dimension finita, y sea B una base de
V . Sea f : V V una transformacion lineal. Se define el polinomio minimal de f como
mf = m|f |B .
En la Proposicion 6.11 vimos que las races del polinomio caracterstico de una matriz son
sus autovalores. El siguiente resultado muestra que lo mismo vale para el polinomio minimal.
Demostracion.
0 = mA (A) = Q(A).(A In ) + R. In .
de donde es un autovalor de A.
146 Diagonalizacion
Ejemplos.
A2 e1 + a.Ae1 + b.e1 = 0
Ademas, como mv es de grado mnimo entre los polinomios que satisfacen P (v) = 0, se tiene
que {v, A.v, . . . , Am1 .v} es un conjunto linealmente independiente.
Luego, para hallar el polinomio minimal de v, un primer paso consiste en buscar el mnimo
m N tal que {v, A.v, . . . , Am .v} es linealmente dependiente. Si Am .v = a0 .v a1 .A.v
am1 .Am1 .v, entonces mv = X m + am1 X m1 + + a1 X + a0 .
Al igual que para el polinomio minimal de una matriz (ver Proposicion 6.25), fijada una
matriz A, todo polinomio que anula a un vector dado resulta ser multiplo de su polinomio
minimal.
X
n Xn
P (A).v = P (A) i .vi = i P (A).vi = 0.
i=1 i=1
148 Diagonalizacion
1 0 0
Ejemplo. Calcular mA para A = 1 1 0 .
0 0 2
me1 : Vemos que {e1 , A.e1 } = {e1 , e1 + e2 } es un conjunto linealmente independiente, pero
{e1 , A.e1 , A2 .e1 } = {e1 , e1 + e2 , e1 + 2e2 } no lo es.
X 0 ... 0 a0
1 X 0 a1
.. ..
0 1 . . M
XA = det
.. ..
. . X ak1
0 ... 1 X + ak
0 X. Ink1 N
X 0 ... 0 a0
1 X 0 a1
.. ..
= det
0 1 . . det(X. Ink1 N ).
. ..
.. . X ak1
0 ... 1 X + ak
= mv . det(X. Ink1 N ).
1. gr(mA ) n.
150 Diagonalizacion
2. Si gr(mA ) = n, entonces mA = XA .
3. Si existe v K n tal que gr(mv ) = n, entonces mv = mA = XA .
En el ejemplo que sigue, mostramos como puede utilizarse el hecho de conocer un polinomio
que anula a una matriz (en este caso, su polinomio caracterstico) para calcular las potencias
de la matriz.
0 1
Ejemplo. Sea A = R22 . Calcular An para cada n N.
1 2
1 = 0. P (1) + an + bn an + bn = 1.
X n = (X 1)2 P (X) + nX + 1 n,
de donde
n 0 1 1 0 1 n n
A = n.A + (1 n)I2 = n. + (1 n) = .
1 2 0 1 n n+1
El procedimiento para calcular A1 del ejemplo anterior puede generalizarse para hallar
la inversa de cualquier matriz en GL(n, K):
6.3 Polinomios minimales 151
Demostracion.
mv = X k+1 + ak X k + . . . + a1 X + a0 .
Rnn satisface
Notar que si A k
A = In , A no es necesariamente diagonalizable sobre
0 0 1
R. Por ejemplo, A = 1 0 0 cumple A3 = I3 , pero A no es diagonalizable, puesto que
0 1 0
mA = (X 1)(X 2 + X + 1), que no tiene todas sus races en R.
Ejemplos.
1 0 0 0
1 1 0 0
1. Sea A =
0
R44 .
0 2 0
0 0 0 3
Si E = {e1 , e2 , e3 , e4 } es la base canonica de R4 , algunos subespacios invariantes por fA
son: < e1 , e2 >, < e2 >, < e3 >, < e4 >, < e3 , e4 >, < e1 , e2 , e4 >.
1 0
2. Hallar todos los subespacios invariantes por fA siendo A = R22 .
2 1
Demostracion.
i) Se tiene que f (Nu(f )) = {0} Nu(f ), con lo que Nu(f ) es invariante por f .
Ademas, es claro que f (Im(f )) Im(f ), de donde Im(f ) es invariante por f .
ii) Sea S un subespacio f -invariante de V de dimension 1. Entonces S = < v > para algun
v V , v 6= 0, tal que f (v) < v >. Esta ultima condicion implica que f (v) = . v para
algun K, y siendo v 6= 0, resulta que v es un autovector de f .
Recprocamente, si S = < v > con v un autovector de f , como v 6= 0, entonces dim S =
1, y como f (v) = . v para algun K, resulta que f (S) S. Luego, S es un
subespacio f -invariante de V de dimension 1.
i) mf|S | mf .
ii) Xf|S | Xf .
6.4 Subespacios invariantes 155
i) Sabemos que
B = BS BT = {v1 , . . . , vs , w1 , . . . , wt }
es una base de V y
A1 0
|f |B = ,
0 A2
donde A1 K ss y A2 K tt . Mas aun, si f|S : S S y f|T : T T son las restricciones,
se tiene que A1 = |f|S |BS y A2 = |f|T |BT .
i) Xf = Xf|S . Xf|T
Demostracion.
ii) Sea P = mcm(mf|S , mf|T ). Puesto que S y T son subespacios f -invariantes de V , por
la Proposicion 6.42, se tiene que mf|S | mf y mf|T | mf . Luego P | mf .
Por otro lado, por la Observacion 6.43, si BS y BT son bases de S y T respectivamente,
y B = BS BT , entonces
A1 0
|f |B =
0 A2
con A1 = |f|S |BS y A2 = |f|T |BT .
Como mf|S | P y mf|T | P , resulta que P (A1 ) = 0 y P (A2 ) = 0. Entonces, operando
por bloques,
P (A1 ) 0
P (|f |B ) = = 0,
0 P (A2 )
de donde mf | P .
Luego P = mf , puesto que P y mf son dos polinomios monicos que se dividen mutua-
mente.
6.5 Ejercicios
Ejercicio 1. Calcular el polinomio caracterstico, los autovalores y los autovectores de la
matriz A en cada uno de los siguientes casos (a R):
6.5 Ejercicios 157
0 2 1 3 1 0 a 1 1
iv) A = 2 0 3 v) A = 4 1 0 vi) A = 1 a 1
1 3 0 4 8 2 1 1 a
0 1 0 1 0 0 0 0
1 0 0
1 0 1 0 1 0 0 0
vii) A = viii) A = ix) A = a 1 0
0 1 0 1 0 1 0 0
0 a 1
1 0 1 0 0 0 0 1
Ejercicio 2. Para cada una de las matrices A del ejercicio anterior, sea U una base de K n
y sea f : K n K n la tranformacion lineal tal que |f |U = A. Decidir si es posible encontrar
una base B de K n tal que |f |B sea diagonal. En caso afirmativo, calcular C(U, B).
Ejercicio 4.
a b
i) Sea A = K 22 . Determinar todos los a, b y c K para los que A es
0 c
diagonalizable.
22
ii) Probar que
todamatriz A C es diagonalizable o bien es semejante a una matriz
0
del tipo .
1
158 Diagonalizacion
Ejercicio
6. Se sabe que la matriz A R22 tiene a (1, 1) como autovector de autovalor
2 y, ademas, XA Q[X]. Decidir si A es diagonalizable en R22 . Es A unica?
Ejercicio 7.
Ejercicio 10. Sea A K nn . Probar que A y At tienen los mismos autovalores. Dar un
ejemplo en el que los autovectores sean distintos.
Ejercicio 11. Sea : C (R) C (R) la transformacion lineal derivacion. Mostrar que
todo numero real es un autovalor de y exhibir un autovector correspondiente.
Ejercicio 13.
Ejercicio 14. Sea A Rnn que verifica A2 + In = 0. Probar que A es inversible, que no
tiene autovalores reales y que n debe ser par.
Ejercicio 17. Sea f : Cn Cn una transformacion lineal. Probar que existe una base B de
Cn tal que |f |B es triangular superior.
Ejercicio 18. Sea A Cnn y sean 1 , . . . , n las races de XA contadas con multiplicidad.
n
Y
i) Probar que det(A) = i .
i=1
n
X
ii) Probar que tr(A) = i .
i=1
160 Diagonalizacion
Ejercicio 20. Dadas las matrices A C22 y los polinomios P C[X], calcular P (A) para:
1 0
i) A = , a) P = X 1 , b) P = X 2 1 , c) P = (X 1)2
1 1
i 0
ii) A = , P = X 3 i.X 2 + 1 + i
1 i
Ejercicio 21. Sea A Rnn . Probar que el minimal de A como matriz real y el minimal de
A como matriz compleja coinciden.
Ejercicio 22. Hallar el polinomio minimal de las siguientes matrices (comparar con el poli-
nomio caracterstico):
4 1 1 0 a 0 i 0
i) ii) iii) iv)
2 1 1 1 0 a 1 i
1 0 0 1 1 1 1 0 0 0 0 1
v) 0 1 0 vi) 0 1 1 vii) 0 2 0 viii) 0 1 0
0 0 1 0 0 1 0 0 2 1 0 0
1 0 0 0 0 1 0 0 1 i 1 0
1 1 0 0 1 0 0 0 0 1 0 1
ix) x) xi)
0 0 1 0 1 2 1 0 0 0 2 0
0 0 0 1 3 4 0 1 0 0 0 2
a 0 0 0 a 0 0 0 a 0 0 0 a 0 0 0
0 a 0 0 1 a 0 0 1 a 0 0 1 a 0 0
xii) xiii) xiv) xv)
0 0 a 0 0 0 a 0 0 1 a 0 0 1 a 0
0 0 0 a 0 0 1 a 0 0 0 a 0 0 1 a
Ejercicio 23. Calcular el polinomio minimal para cada una de las siguientes transformaciones
lineales:
Ejercicio 25. Sea : R[X] R[X] la transformacion lineal derivada. Probar que no
admite ningun polinomio minimal.
Ejercicio 28. Exhibir una matriz A Cnn tal que A2 + In = 0. Comparar con el Ejercicio
14.
162 Diagonalizacion
Ejercicio 29.
i) Sea f : R2 R2 la transformacion lineal definida por f (x, y) = (x + 3.y, 3.x 2.y).
Hallar todos los subespacios de R2 que sean f -invariantes.
ii) Sea f : R2 R2 la rotacion de angulo . Probar que, para todo 6= k. (k Z), f
no es diagonalizable. Hallar todos los subespacios de R2 que sean f -invariantes.
iii) Sea R y g : C2 C2 la transformacion C-lineal cuya matriz en la base canonica es
cos sen
|g |E =
sen cos
Es g diagonalizable? Hallar todos los subespacios de C2 que sean g -invariantes.
Ejercicio 31.
i) Sea V un K-espacio vectorial de dimension finita y sea f : V V una transformacion
lineal diagonalizable. Si S es un subespacio de V f -invariante, probar que f : S S es
diagonalizable.
ii) Sean A, B K nn tales que A.B = B.A y sea E = {x K n / A.x = .x}. Probar
que E es B-invariante.
iii) Sean A, B K nn dos matrices diagonalizables tales que A.B = B.A. Probar que
existe C GL(n, K) tal que C.A.C 1 y C.B.C 1 son diagonales. (Es decir, A y B se
pueden diagonalizar simultaneamente.)
Ejercicio 32.
i) Hallar una matriz A C33 tal que mA (X) = X 3 5X 2 + 6X + 8. Decidir si A es
diagonalizable.
ii) Hallar una matriz A C44 tal que mA (X) = X 4 + 4X 3 + 8X 2 + 8X + 4. Decidir si A
es diagonalizable.
Ejercicio 34. Sea A Cnn una matriz de traza nula. Probar que A es semejante a una
matriz que tiene toda la diagonal nula.
Captulo 7
Forma de Jordan
Lema 7.4 Sea V un K-espacio vectorial de dimension finita y sea f : V V una transfor-
macion lineal. Entonces f es nilpotente de ndice k si y solo si mf = X k .
Notar que, con las mismas hipotesis del lema anterior, como el grado del polinomio minimal
de f es siempre menor o igual que la dimension n de V , tendremos que f es nilpotente si y
solo si f n = 0 (comparar con el Ejercicio 14 de la Seccion 3.8).
Lema 7.8 Sea V un K-espacio vectorial de dimension finita. Sea f : V V una transfor-
macion lineal y sea i N. Sea {v1 , . . . , vr } V un conjunto linealmente independiente tal
que Nu(f i ) < v1 , . . . , vr > = {0}. Entonces {f (v1 ), . . . , f (vr )} es linealmente independiente
y Nu(f i1 ) < f (v1 ), . . . , f (vr ) > = {0}.
0 = f i1 (v) = f i (1 v1 + + r vr ),
un conjunto linealmente independiente tal que Bk1 Ck es una base de Nu(f k ) = V . Por
construccion, Ck es un conjunto linealmente independiente y
El Teorema 7.7 nos dice entonces que para todo endomorfismo nilpotente f : V V ,
donde V es un K-espacio vectorial de dimension finita, existe una base B de V tal que |f |B
es una forma de Jordan nilpotente. A una tal base B la llamaremos una base de Jordan para
f y a la matriz |f |B , una forma de Jordan para f .
Aplicando este teorema a la transformacion lineal fA : K n K n asociada a una matriz
A K nn , obtenemos el analogo para matrices:
Teorema 7.10 Sea A K nn una matriz nilpotente. Entonces A es semejante a una forma
de Jordan nilpotente.
A una base B de K n tal que |fA |B = JA es una forma de Jordan nilpotente la llamaremos
una base de Jordan para A, y a la matriz JA una forma de Jordan para A.
Ejemplo. Hallar una forma de Jordan y una base de Jordan para A R66 , siendo
0 0 0 0 0 0
1 0 0 0 0 0
1 1 0 0 0 0
A= 0
.
1 0 0 1 0
1 0 0 0 0 0
1 0 0 0 1 0
Finalmente, extendemos el conjunto {A2 .e1 , A.e5 } a una base de Nu(A), por ejemplo, con el
vector e3 . Obtenemos:
{0} Nu(A) Nu(A2 ) Nu(A3 ) = R6
A2 .e1 A.e1 e1
A.e5 e5
e3
Entonces, una base de Jordan para A es
Este resultado nos permite calcular la cantidad de bloques de cada tamano que aparecen
en una forma de Jordan usando los rangos de las potencias de la matriz.
k
X k
X k
X
rg(Ai ) rg(Ai+1 ) = cj . (j i) cj . (j (i + 1)) = cj = bi .
j=i+1 j=i+2 j=i+1
Corolario 7.13 Sea A K nn una forma de Jordan nilpotente de ndice k. Entonces, para
cada 1 i k, la cantidad de bloques de Jordan nilpotentes de tamano i i que aparecen en
A es
ci = rg(Ai+1 ) 2 rg(Ai ) + rg(Ai1 ).
7.1 Transformaciones lineales nilpotentes 171
ci = bi1 bi
= (rg(Ai1 ) rg(Ai )) (rg(Ai ) rg(Ai+1 ))
= rg(Ai+1 ) 2 rg(Ai ) + rg(Ai1 ).
Ejemplo. Decidir si existe una matriz A R1515 tal que rg(A) = 10, rg(A4 ) = 3 y
rg(A5 ) = 0.
Demostracion. Segun lo que hemos visto, las cantidades de bloques de cada tamano que
aparecen en una forma de Jordan nilpotente solo dependen de los rangos de sus potencias.
Por otro lado, si J J 0 , entonces para cada 1 i k, se tiene que rg(J i ) = rg((J 0 )i ). En
consecuencia, la cantidad de bloques de Jordan de cada tamano es la misma en J que en J 0 .
Luego, J = J 0 .
Demostracion.
Ejemplos.
0 0 0 0
La idea de la forma de Jordan general es, como en el caso nilpotente, encontrar una base
donde la matriz del endomorfismo considerado tenga una forma particular (bloques de Jordan
en la diagonal).
La demostracion de la existencia de forma de Jordan se basa en el siguiente lema, que
permite descomponer el espacio en suma directa de subespacios invariantes, en cada uno de
los cuales la transformacion lineal tiene un solo autovalor.
Lema 7.18 Sea V un K espacio vectorial de dimension finita. Sea f : V V una transfor-
macion lineal tal que mf = P. Q con (P, Q) = 1. Entonces:
Demostracion.
de donde (R(f ) P (f ))(x) Nu(Q(f )). Analogamente, (S(f ) Q(f ))(x) Nu(P (f )).
En consecuencia, Nu(P (f )) + Nu(Q(f )) = V .
mf|Nu(P (f )) = P y mf|Nu(Q(f )) = Q:
Sean f1 y f2 las restricciones de f a Nu(P (f )) y Nu(Q(f )) respectivamente. Como
V = Nu(P (f )) Nu(Q(f )), se tiene que mf = mcm(mf1 , mf2 ).
Pr
Si P = ai X i , para cada x Nu(P (f )), se tiene que
i=0
X
r r
X r
X
P (f1 )(x) = ai f1i (x) = ai f1i (x) = ai f i (x) = P (f )(x) = 0,
i=0 i=0 i=0
Definicion 7.19 Diremos que J K nn es una matriz de Jordan o una forma de Jordan si
J1 0 ... 0
..
0 J2 .
J = .
.. ..
. 0
0 ... 0 Js
y i 6= j para i 6= j, o sea, cada Ji esta formada por (varios) bloques de Jordan de autovalor
i ubicados sobre la diagonal.
Con la notacion anterior, a una base B con la propiedad del teorema la llamaremos una
base de Jordan para f y a la matriz |f |B una forma de Jordan para f .
Q
r
Observemos que, con las notaciones del teorema anterior, si mf = (X i )ki con
i=1
i 6= j si i 6= j, la demostracion nos permite dar una forma constructiva de obtener una
forma de Jordan de f . Como
V = Nu((f 1 . idV )k1 ) Nu((f r . idV )kr ),
podemos obtener una forma de Jordan para cada una de las restricciones de f a estos subes-
pacios invariantes Nu((f i . idV )ki ) y las bases de Jordan Bi correspondientes. Entonces
B = B1 Br resulta ser una base de V y |f |B resulta una forma de Jordan de f .
A una base B de K n tal que |fA |B es una forma de Jordan, la llamaremos una base de
Jordan para A, y a la matriz |fA |B una forma de Jordan para A.
Ejemplo. Hallar una forma de Jordan semejante a A y una base de Jordan para A, siendo
1 0 0 2
2 1 0 2
A= 2
C44 .
0 1 2
0 0 0 1
de donde Nu(A I) = < (1, 1, 1, 0) > y Nu((A I)2 ) = < (1, 1, 1, 0), (0, 0, 0, 1) >.
Consideramos el vector e4 = (0, 0, 0, 1) que extiende una base de Nu(A I) a una de
Nu((A I)2 ). Obtenemos
Luego, una base de Jordan para f1 es B1 = {e4 , (A I).e4 } = {(0, 0, 0, 1), (2, 2, 2, 0)} y
su forma de Jordan es
1 0
|f1 |B1 = .
1 1
Demostracion. Sea B = {v1 , . . . , vn } una base de V tal que |f |B es una forma de Jordan
J K nn ,
J1 (1 ) 0 ... 0
..
0 J2 (2 ) .
J = ,
.. .
. . . 0
0 ... 0 Js (s )
donde para cada 1 i s, Ji (i ) K di di denota la matriz formada por todos los bloques
de Jordan de autovalor i que aparecen en J y i 6= j si i 6= j.
Qs
Se tiene que Xf = XJ = (X i )di . Entonces 1 , . . . , s son los autovalores de f y,
i=1
para cada 1 i s, di = mult(i , Xf ).
Ahora, para cada 1 i s, se tiene que mJi (i ) = (X i )ki para algun 1 ki di .
Q
s
Entonces mf = mJ = (X i )ki , con lo que, para cada 1 i s, ki = mult(i , mf ).
i=1
Sea uno de los autovalores de f y sea k = mult(, mf ). Sin perdida de generalidad,
supongamos que = 1 . Observamos que
J1 (0) 0 ... 0
..
0 J2 (2 ) .
J . In =
..
,
..
. . 0
0 ... 0 Js (s )
de donde
0 0 ... 0
..
0 (J2 (2 ))k .
(J . In )k =
..
..
. . 0
0 ... 0 (Js (s ))k
Puesto que (Ji (i ))k es inversible para cada 2 i s, entonces Nu (J In )k =
< e1 , . . . , ed1 >. Teniendo en cuenta que J = |f |B , resulta que J .In = |f .idV |B , con
lo que
Nu((f . idV )k ) = < v1 , . . . , vd1 >.
Consideremos la restriccion
f1 = (f . idV )|Nu((f . id k
: Nu((f . idV )k ) Nu((f . idV )k ).
V) )
La restriccion f1 resulta una transformacion lineal nilpotente y, por lo tanto, tiene una unica
forma de Jordan nilpotente J1 asociada.
Sea B1 = {v1 , . . . , vd1 }, que como vimos, es una base de Nu (f . idV )k . Observamos
que
|f1 |B1 = f|Nu(f . id )k .Id1 = J1 (0).
V B1
180 Forma de Jordan
Como J1 (0) es una forma de Jordan nilpotente, debe ser la forma de Jordan J1 de f1 .
En consecuencia, J1 (1 ) = J1 + 1 .Id1 esta unvocamente determinada por f . (Notar que
el subespacio invariante Nu((f . idV )k ) y la restriccion f1 = (f . idV )|Nu((f . id )k ) solo
V
dependen de f y no de una base.)
Haciendo lo mismo para cada i con 1 i s, resulta que, Ji (i ) K di di satisface:
Ji (i ) = Ji + i . Idi ,
El hecho que todo polinomio se factorice linealmente en C[X] nos permite demostrar el
siguiente resultado sobre semejanza de matrices en Cnn .
Demostracion.
Ya sabemos que vale (). Probemos la otra implicacion. Por el Teorema 7.23, A y B
son semejantes si tienen la misma forma de Jordan (salvo el orden de los distintos autovalo-
res). Luego, basta ver que la forma de Jordan de una matriz en C33 queda unvocamente
determinada por su polinomio caracterstico y su polinomio minimal.
Sea J C33 una forma de Jordan. Entonces XJ es un polinomio monico de grado 3 en
C[X], luego puede escribirse de alguna de las siguientes formas:
7.2 Caso general 181
Para cada una de las opciones anteriores, veremos que existe una unica J para cada polinomio
minimal posible.
En primer lugar, observamos que es posible calcular las potencias de una matriz a partir
de las potencias de una matriz semejante:
Si A B, existe C GL(n, K) tal que A = C. B. C 1 . Entonces, para cada k N,
A = C. B k . C 1 (ver Observacion 6.26).
k
Xk
k k k
J(, m) = (. Im + J(0, m)) = (Im )ki . J(0, m)i
i=0
i
k
!
X k ki 0i(mi) 0ii
= .
i=0
i Imi 0(mi)i
k
!
X 0i(mi) 0ii
= k ki
i=0 i . Imi 0(mi)i
k 0 ... ... 0
k k1 .. ..
k . .
1
k k2 k .. ..
= k1 k . . .
2 1
.. .. .. ..
. . . . 0
k
k(m1) k k2 k k1 k
m1 ... 2 1
k
(Consideramos h = 0 si h > k.)
Esto nos da una formula para el calculo de las potencias de un bloque de Jordan de
autovalor . Usando las observaciones anteriores podemos calcular las potencias de A.
184 Forma de Jordan
7.4 Ejercicios
Ejercicio 1. Dadas las matrices A y A0 en K nn
0 0 ... 0 0 0 1 0 ... 0
1 0 ... 0 0 0 0 1 ... 0
. .. ..
A= .
0 1 ... 0 0
y A0 =
.
. . .
.. .. .. 0 0 0 ...
. . 1
0 0 ... 1 0 0 0 0 ... 0
i) Probar que ambas son nilpotentes y que A es semejante a A0 .
ii) Dar bases B y B 0 de Rn1 [X] tal que la matriz de la derivacion en la base B sea A y
en la base B 0 sea A0 .
iii) Sea B una base de K n y sea f : K n K n tal que |f |B = A. Probar que no existen
subespacios propios f -invariantes S y T de K n tales que K n = S T .
Ejercicio 5. Hallar la forma y una base de Jordan de la matriz A = (aij ) Cnn donde
0 si i j
aij =
1 si i > j
Ejercicio 6.
i) Decidir si existe A C88 nilpotente tal que rg(A) = 6, rg(A2 ) = 4, rg(A3 ) = 3,
rg(A4 ) = 1 y rg(A5 ) = 0 simultaneamente. En caso afirmativo, exhibir una.
ii) Decidir si existe A R1616 tal que mA (X) = X 5 , rg(A) = 9, rg(A2 ) = 5, rg(A3 ) = 3,
rg(A4 ) = 1 y rg(A5 ) = 0 simultaneamente. En caso afirmativo, exhibir una.
7.4 Ejercicios 185
Ejercicio 7. Sea f : C7 C7 una transformacion lineal y sea B una base de C7 tal que
2 0 0 0 0 0 0
1 2 0 0 0 0 0
0 1 2 0 0 0 0
|f |B = 0 0 0 2 0 0 0.
0 0 0 1 2 0 0
0 0 0 0 0 3 0
0 0 0 0 0 0 3
i) Hallar Xf y mf .
7
ii) Sea un autovalor de f tal que mult(, Xf ) =
m. Se definen
E = {v C / f (v) = .v}
7 m m
y V = {v C / (. Id f ) (v) = 0} = Nu (. Id f ) .
Para que autovalores de f se tiene que E = V ?
iii) Para cada autovalor de f , cual es la menor potencia k tal que V = Nu (. Id f )k ?
iv) Si es un autovalor de f , se nota f a la restriccion de f a V . Calcular dim(Im(f ))
y dim(Im(f2 )) para cada .
Ejercicio 9. Hallar la forma y una base de Jordan de A C nn en cada uno de los siguientes
casos:
1 1 1 3 0 8 4 2 10 2 8 6
3 3 3 ; 3 1 6 ; 4 3 7 ; 4 10 6
2 2 2 2 0 5 3 1 7 4 8 4
3 1 0 0 1 2 3 4
1 1 2
3 4 1 0 0 0 1 2 3
3 6 ; ;
7 1 2 1 0 0 1 2
2 2 4
17 6 1 0 0 0 0 1
Ejercicio 11. Sea V C (R) el subespacio V = < ex , x. ex , x2 .ex , e2x >. Sea : V V
la transformacion lineal definida por (f ) = f 0 . Hallar la forma y una base de Jordan para .
Ejercicio 14. Encontrar todas las formas de Jordan posibles de la matriz A Cnn en cada
uno de los siguientes casos:
Ejercicio 15. Sea A C1515 una matriz con autovalores 1 , 2 y 3 y que cumple, simul-
taneamente:
rg(A 1 .I) = 13, rg(A 1 .I)2 = 11, rg(A 1 .I)3 = 10, rg(A 1 .I)4 = 10,
rg(A 2 .I) = 13, rg(A 2 .I)2 = 11, rg(A 2 .I)3 = 10, rg(A 2 .I)4 = 9,
rg(A 3 .I) = 13, rg(A 3 .I)2 = 12, rg(A 3 .I)3 = 11.
Ejercicio 16. Dar la forma de Jordan de una matriz A C1414 que verifica, simultanea-
mente:
mA = (X 1 )2 .(X 2 ).(X 3 )2 .(X 4 )3 (con i 6= j si i 6= j),
rg(A 1 .I) = 11, rg(A 1 .I)2 = 10, rg(A 3 .I) = 12, rg(A 3 .I)2 = 10 y
rg(A 4 .I) = 13.
7.4 Ejercicios 187
Ejercicio 20. Sea A C66 una matriz tal que mA = X 6 y sea {v1 , v2 , v3 , v4 , v5 , v6 } una
base de Jordan para A. Calcular la forma y una base de Jordan para las matrices A2 , A3 , A4
y A5 .
5 1 4
Ejercicio 21. Dada la matriz A = 1 3 1 , encontrar B Q33 tal que B 2 = A.
0 0 1
(v + w, z) = (v, z) + (w, z)
(.v, z) = . (v, z)
Ejemplos. Se puede comprobar que las funciones definidas a continuacion son productos
internos sobre los espacios vectoriales correspondientes:
Producto interno canonico en Rn :
((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + + xn yn .
Definicion 8.4 Sea (V, h, i) un espacio vectorial sobre R (respectivamente C) con producto
1
interno y sea v V . Se define la norma de v asociada a h, i (y se nota kvk) como kvk = hv, vi 2 .
Proposicion 8.5 (Propiedades de la norma.) Sea (V, h, i) un espacio vectorial con producto
interno.
kv + wk kvk + kwk.
iii) Si w = 0, no hay nada que hacer. Supongamos entonces que w 6= 0. Se tiene que
D hv, wi hv, wi E
0 v w, v w
kwk2 kwk2
D hv, wi E hv, wi D hv, wi E
= v, v w w, v w
kwk2 kwk2 kwk2
hv, wi hv, wi hv, wi hv, wi
= hv, vi hv, wi hw, vi + hw, wi
kwk2 kwk2 kwk2 kwk2
|hv, wi|2
= kvk2
kwk2
Esto implica que |hv, wi|2 kvk2 kwk2 , de donde se obtiene la desigualdad buscada.
kv + wk2 = hv + w, v + wi
= hv, vi + hv, wi + hv, wi + hw, wi (8.1)
= kvk2 + 2 Rehv, wi + kwk2 .
192 Espacios vectoriales con producto interno
En general, se puede definir una norma en un espacio vectorial V sobre R o C como una
funcion k k : V R que cumpla las condiciones i), ii) y iv) de la proposicion anterior. Una
norma cualquiera en este sentido puede no provenir de un producto interno (es decir, puede
no haber ningun producto interno tal que la norma asociada sea k k). Un ejemplo de esto es
la norma infinito en Rn , definida por k(x1 , . . . , xn )k = max{|x1 |, . . . , |xn |}.
Dada una norma, se puede decidir si proviene o no de un producto interno, ya que este se
puede recuperar a partir de su norma asociada:
i) Sea (V, h, i) un R-espacio vectorial con producto interno. Entonces para cada v, w V
vale:
1 1
hv, wi = kv + wk2 kv wk2 .
4 4
ii) Sea (V, h, i) un C-espacio vectorial con producto interno. Entonces para cada v, w V
vale:
1 1 i i
hv, wi = kv + wk2 kv wk2 + kv + iwk2 kv iwk2 .
4 4 4 4
Demostracion.
ii) En forma analoga a lo hecho en i), usando la identidad (8.1), resulta que si V es un
C-espacio vectorial, entonces
1 1
kv + wk2 kv wk2 = Rehv, wi.
4 4
Por otro lado, kv + iwk2 = kvk2 + 2 Rehv, iwi + kiwk2 = kvk2 + 2 Imhv, wi + kwk2 y,
similarmente, kv iwk2 = kvk2 2 Imhv, wi + kwk2 , lo que implica que
i i
kv + iwk2 kv iwk2 = i Imhv, wi.
4 4
Una norma cualquiera estara asociada a un producto interno si y solo si la funcion que
se obtiene mediante estas identidades resulta un producto interno. En lo que sigue, solo se
consideraran normas asociadas a productos internos.
Definicion 8.7 Sea V un R-(o C-) espacio vectorial con producto interno h, i. Se define
d : V V R como d(v, w) = kv wk.
Utilizando las propiedades de la norma se puede verificar que la funcion d satisface las
siguientes propiedades:
i) d(v, w) 0 v, w V .
ii) d(v, w) = 0 v = w.
hv, wi
1 1.
kvk.kwk
Esto nos permite introducir la siguiente nocion de angulo entre dos vectores:
Definicion 8.8 Sea (V, h, i) un espacio eucldeo y sean v, w V no nulos. Se define el angulo
hv, wi
entre v y w como el unico numero real [0, ] tal que cos() = .
kvk.kwk
Definicion 8.9 Sea V un R-(respectivamente C-) espacio vectorial de dimension finita, sea
h, i un producto interno sobre V y sea B = {v1 , . . . , vn } una base de V . Se define la matriz
del producto interno h, i en la base B como la matriz A Rnn (respectivamente A Cnn )
tal que
Aij = hvi , vj i 1 i, j n.
Notacion. Escribiremos |h, i|B para denotar la matriz del producto interno h, i en la base B.
Sin embargo, la condicion Aij = Aji i, j no es suficiente para que A sea la matriz de un
0 1
producto interno. Por ejemplo, A = no puede ser la matriz de un producto interno
1 1
en una base, ya que si v es el primer vector de la base, sera hv, vi = 0.
La matriz de un producto interno en una base B nos permite calcular el producto interno
entre cualquier par de vectores:
Proposicion 8.11 Sea V un R-(o C-) espacio vectorial de dimension finita y sea h, i un
producto interno sobre V . Sea B una base de V . Entonces, para cada v, w V , se tiene que
P
n P
n
Demostracion. Sea B = {v1 , . . . , vn }. Supongamos que v = i vi y w = i vi . Entonces
i=1 i=1
DX
n n
X E Xn D X n E Xn X
n
hv, wi = i vi , j vj = i vi , j vj = i j hvi , vj i .
i=1 j=1 i=1 j=1 i=1 j=1
Por otro lado, teniendo en cuenta que (v)B = (1 , . . . , n ) y (w)B = (1 , . . . , n ), resulta que
n
X n
X X
n
(v)B . |h, i|B . (w)tB = i |h, i|B (w)tB = i hvi , vj ij .
i1
i=1 i=1 j=1
8.2 Ortogonalidad
En esta seccion generalizaremos la nocion conocida de perpendicularidad en R2 y algunas pro-
piedades que se basan en esta nocion, a espacios vectoriales con producto interno arbitrarios.
Definicion 8.14 Sea (V, h, i) un espacio vectorial con producto interno. Se dice que
{v1 , . . . , vr } V es un conjunto ortogonal si hvi , vj i = 0 i 6= j. El conjunto se dice
ortonormal si es ortogonal y kvi k = 1 para cada 1 i r.
196 Espacios vectoriales con producto interno
Ejemplos.
n
X X
n 12
hv, wi = i i y kvk = |i |2 .
i=1 i=1
Proposicion 8.16 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr } un
conjunto ortogonal de V con vi 6= 0 para cada 1 i r. Entonces {v1 , . . . , vr } es linealmente
independiente.
P
r
Demostracion. Supongamos que i vi = 0. Entonces para cada 1 j r,
i=1
DX
r E r
X
0 = h0, vj i = i vi , vj = i hvi , vj i = j . kvj k2 ,
i=1 i=1
Si se tiene una base ortogonal de un subespacio, las coordenadas en esta base de cualquier
vector del subespacio pueden encontrarse facilmente usando el producto interno:
Proposicion 8.17 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortogonal tal que vi 6= 0 para cada 1 i r y sea v < v1 , . . . , vr >.
Entonces
X r
hv, vj i
v= . vj .
j=1
kvj k2
r
X
Demostracion. Si v = i vi , para cada 1 j r se tiene que
i=1
DX
r E Xr
hv, vj i = i vi , vj = i hvi , vj i = j hvj , vj i = j kvj k2 ,
i=1 i=1
hv, vj i
de donde se deduce, teniendo en cuenta que vj 6= 0, que j = .
kvj k2
Corolario 8.18 Sea (V, h, i) un espacio vectorial con producto interno y sea {v1 , . . . , vr } un
conjunto ortonormal de V . Entonces, para cada v < v1 , . . . , vr >, se tiene que
r
X
v= hv, vi i. vi .
i=1
Corolario 8.19 Sea (V, h, i) un espacio vectorial con producto interno y sea {v1 , . . . , vr } un
conjunto ortonormal de V . Entonces:
r
X
i) Para v, w < v1 , . . . , vr >, hv, wi = hv, vi i.hw, vi i.
i=1
X
r 12
ii) Para cada v < v1 , . . . , vr >, kvk = |hv, vi i|2 .
i=1
(ver pagina 190). Hallar una base de R2 ortonormal para este producto interno.
Elegimos un vector en R2 , por ejemplo, (1, 0). Buscamos un vector ortogonal a este para
el producto interno dado, es decir, un vector (y1 , y2 ) R2 tal que
k(1, 0)k = 1,
1 1
k(1, 1)k =
h(1, 1), (1, 1)i 2 = (1 1 1 + ) 2 = 1.
n 1 o
1
Luego, B = (1, 0), 1 , 1 es una base ortonormal de R2 para el producto interno
dado.
La proposicion siguiente asegura que todo espacio vectorial de dimension finita con pro-
ducto interno tiene una base ortonormal. Mas aun, su demostracion da un procedimiento
recursivo, conocido como el metodo de ortonormalizacion de Gram-Schmidt, que permite
obtener una base ortonormal del espacio a partir de una base cualquiera del mismo.
Luego, el vector
hv2 , v1 i hv2 , z1 i
z2 = v2 2
.v1 = v2 .z1
kv1 k kz1 k2
satisface las condiciones requeridas.
Supongamos construidos z1 , . . . , zr V tales que
(i) hzi , zj i = 0 si i 6= j.
(ii) < z1 , . . . , zk > = < v1 , . . . , vk > 1 k r.
Consideramos el vector
r
X hvr+1 , zi i
zr+1 = vr+1 .zi . (8.2)
i=1
kzi k2
Se tiene que:
a) < z1 , . . . , zr , zr+1 > = < z1 , . . . , zr , vr+1 > = < v1 , . . . , vr , vr+1 >,
b) para cada j r
D r
X hvr+1 , zi i E
hzr+1 , zj i = vr+1 .zi , zj
i=1
kzi k2
r
X hvr+1 , zi i
= hvr+1 , zj i . hzi , zj i
i=1
kzi k2
hvr+1 , zj i
= hvr+1 , zj i . hzj , zj i
kzj k2
= 0.
De esta manera, al concluir el n-esimo paso se obtiene una base ortogonal {z1 , . . . , zn } de V
que ademas satisface < z1 , . . . , zk > = < v1 , . . . , vk > para cada 1 k n.
zi
Finalmente, para cada 1 i n consideramos el vector wi = . Luego el conjunto
kzi k
B = {w1 , . . . , wn } resulta una base ortonormal de V que cumple lo pedido.
Corolario 8.21 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno, y
sea S un subespacio de V , S 6= {0}. Entonces existe una base ortonormal de V que contiene
una base ortonormal de S.
Ejemplo. Dada la base B = {(1, 0, i), (1, 1, 2 + i), (0, 0, 1)} de C3 , ortonormalizarla usando
el metodo de Gram-Schmidt.
hv3 , z1 i hv3 , z2 i
z3 = v3 .z1 .z2
kz1 k2 kz2 k2
h(0, 0, 1), (1, 0, i)i h(0, 0, 1), (i, 1, 1)i
= (0, 0, 1) . (1, 0, i) . (i, 1, 1)
k(1, 0, i)k2 k(i, 1, 1)k2
i 1
= (0, 0, 1) + . (1, 0, i) . (i, 1, 1)
2 3
i 1 1
= , , .
6 3 6
El conjunto {z1 , z2 , z3 } es una base ortogonal de C3 . Dividiendo cada vector por su norma,
obtenemos
z1 1 1 i
w1 = = . (1, 0, i) = , 0,
kz1 k 2 2 2
z2 1 i 1 1
w2 = = . (i, 1, 1) = , ,
kz2 k 3 3 3 3
z3 i 1 1 6i 6 6
w3 = = 6. , , = , ,
kz3 k 6 3 6 6 3 6
tales que {w1 , w2 , w3 } es una base ortonormal de C3 que cumple < v1 > = < w1 > y
< v1 , v2 > = < w1 , w2 >.
8.2 Ortogonalidad 201
S = {v V : hv, si = 0 s S}.
ii) Sean v, w S . Para cada s S, se tiene que hv, si = 0 y hw, si = 0, con lo que
hv + w, si = hv, si + hw, si = 0 + 0 = 0. Luego, v + w S .
Ejemplos.
Proposicion 8.24 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno,
y sea S V un subespacio. Entonces:
i) S S = {0}.
En consecuencia, S S = V .
202 Espacios vectoriales con producto interno
Demostracion.
{s1 , . . . , sr , vr+1 , . . . , vn }
D r
X E Xr
hwj , si = wj , i wi = i hwj , wi i = 0,
i=1 i=1
ya que, como la base B es ortogonal y j > r, se tiene que hwj , wi i = 0 para cada
1 i r. En consecuencia, wj S .
Se tiene entonces que wr+1 , . . . , wn S , con lo que < wr+1 , . . . , wn > S (pues S
es un subespacio) y, por lo tanto,
Ejemplo. Sea S = < (1, 0, i), (1, 1, 2 + i) > C3 . En el ejemplo de la pagina 200, hallamos
una base ortonormal {w1 , w2 , w3 } de C3 con la propiedad de que {w1 , w2 } es una base de S.
Entonces, la demostracion
D E del tem ii) de la proposicion anterior nos dice que S = < w3 > =
6i 6 6
6 , 3 , 6 .
Proposicion 8.25 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno,
y sea S un subespacio de V . Entonces (S ) = S.
Por otro lado, por la proposicion anterior, dim((S ) ) = dim S, y por lo tanto, vale la
igualdad S = (S ) .
Definicion 8.26 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno y
sea S V un subespacio. Se define la proyeccion ortogonal sobre S como la transformacion
lineal pS : V V que satisface:
pS (s) = s s S
pS (t) = 0 t S
pS (vi ) = vi 1 i r y pS (vi ) = 0 r + 1 i n.
P
n
En consecuencia, para cada v V , recordando que v = hv, vi i. vi , resulta que
i=1
X
n Xn r
X
pS (v) = pS hv, vi i. vi = hv, vi i. pS (vi ) = hv, vi i. vi ,
i=1 i=1 i=1
lo que nos da una expresion para pS (v) en terminos de los vectores de la base ortonormal de
S.
204 Espacios vectoriales con producto interno
Ejemplo. Sea S el subespacio de C3 dado por S = < (1, 0, i), (1, 1, 2 + i) >. Hallar la
proyeccion ortogonal pS : C3 C3 .
Notar que si {w1 , . . . , wr } es una base ortogonal de S, de la formula hallada mas arriba
Xr
hv, wi i
para pS se desprende que pS (v) = wi para cada v V .
i=1
kwi k2
Observacion 8.27 Sea V un espacio vectorial de dimension finita con producto interno y
sea S un subespacio de V . Entonces pS + pS = idV .
Definicion 8.28 Sea (V, h, i) un espacio vectorial con producto interno y sea S V . Para
cada v V se define la distancia de v a S como
Proposicion 8.29 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno
y sea S V un subespacio. Entonces para cada v V , d(v, S) = kv pS (v)k. En otras
palabras, el punto de S a menor distancia de v es pS (v).
y, en consecuencia,
r
X n
X n
X
kv sk2 = |hv s, vi i|2 + |hv, vi i|2 |hv, vi i|2 .
i=1 i=r+1 i=r+1
es decir, para
r
X r
X
s= hs, vi i.vi = hv, vi i. vi = pS (v).
i=1 i=1
Observacion 8.30 Sea V un espacio vectorial de dimension finita con producto interno y
sea S un subespacio de V . Entonces, para cada v V , vale d(v, S) = kpS (v)k.
Sabemos que d((1, 1, 2), S) = kpS (1, 1, 2)k. Calculamos entonces pS (1, 1, 2).
En primer lugar, observemos que S = {x R3 : hx, (2, 2, 1)i = 0} = < (2, 2, 1) > , de
donde S = < (2, 2, 1) >. Luego, {(2, 2, 1)} es una base (ortogonal) de S . Entonces
h(1, 1, 2), (2, 2, 1)i 2 4 4 2
pS (1, 1, 2) = . (2, 2, 1) = . (2, 2, 1) = , , ,
k(2, 2, 1)k2 9 9 9 9
206 Espacios vectoriales con producto interno
y 4 4 2 2
d((1, 1, 2), S) = kpS (1, 1, 2)k = , , = .
9 9 9 3
El punto de S mas cercano a (1, 1, 2) es pS (1, 1, 2), que podemos calcular como
4 4 2 13 5 16
pS (1, 1, 2) = (1, 1, 2) pS (1, 1, 2) = (1, 1, 2) , , = , , .
9 9 9 9 9 9
Definicion 8.31 Sea (V, h, i) un espacio vectorial con producto interno y sea f : V V
una transformacion lineal. Se llama adjunta de f , y se nota f , a una transformacion lineal
f : V V tal que
hf (v), wi = hv, f (w)i v, w V.
Proposicion 8.32 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno
y sea f : V V una transformacion lineal. Entonces existe una unica transformacion lineal
f : V V que satisface hf (v), wi = hv, f (w)i v, w V .
Demostracion.
Unicidad. Supongamos que f : V V y fe : V V son dos transformaciones lineales que
verifican la propiedad del enunciado.
Fijemos w V . Para cada v V , se tiene que
En particular, tomando v = f (w) fe (w) resulta que hf (w) fe (w), f (w) fe (w)i = 0,
lo que implica que f (w) fe (w) = 0. Luego, f (w) = fe (w).
Como esto vale para cada w V , concluimos que f = fe .
P
n
Definimos entonces f : V V como f (w) = hw, f (vi )i vi .
i=1
Veamos que la funcion f que definimos es una transformacion lineal que cumple la
propiedad del enunciado:
Proposicion 8.33 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno
y sea f : V V una transformacion lineal. Sea B una base ortonormal de V . Entonces
|f |B = (|f |B ) .
Este resultado puede utilizarse para hallar la adjunta de una transformacion lineal:
Definicion 8.34 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno
y sea f : V V una transformacion lineal. Se dice que f es autoadjunta si f = f .
En lo que sigue veremos que la matriz de una transformacion lineal autoadjunta en una base
ortonormal tiene cierta estructura particular. Mas precisamente, las matrices involucradas
seran del siguiente tipo:
Proposicion 8.37 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno
y sea f : V V una transformacion lineal. Son equivalentes:
i) f es autoadjunta.
Proposicion 8.38 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno.
Sea f : V V una transformacion lineal autoadjunta. Entonces, el polinomio caracterstico
de f tiene todas sus races en R.
Demostracion. Consideraremos por separado los casos en que f esta definida en un C-espacio
vectorial o en un R-espacio vectorial.
Si V es un C-espacio vectorial:
Sea C una raz de Xf . Entonces, es un autovalor de f . Sea v V un autovector
de f de autovalor C. Se tiene que
Observacion 8.39 Sea A Cnn una matriz hermitiana. Entonces todas las races del
polinomio caracterstico de A son reales.
Teorema 8.40 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno.
Sea f : V V una transformacion lineal autoadjunta. Entonces existe una base ortonormal
B de V tal que |f |B es diagonal real.
8.3 Endomorfismos en espacios vectoriales con producto interno 211
Observacion 8.41 Sea A Cnn una matriz hermitiana. Entonces, si se considera Cn con el
producto interno canonico, la transformacion lineal fA : Cn Cn , definida por fA (x) = A.x,
es autoadjunta y, si E es la base canonica de Cn , |fA |E = A.
Por la proposicion anterior, existe una base ortonormal B de Cn tal que |fA |B = D es
diagonal real. Entonces
C(B, E)1 . A. C(B, E) = D.
Ademas, como E y B son bases ortonormales de Cn , la matriz de cambio de base satisface:
(C(B, E)1 )ij = C(E, B)ij = hej , vi i = hvi , ej i = C(B, E)ji = (C(B, E) )ij
Corolario 8.43 Sea A Cnn una matriz hermitiana. Entonces existe una matriz unitaria
C Cnn tal que C . A. C es diagonal real.
Sea A Rnn una matriz simetrica. Entonces existe una matriz ortogonal O Rnn tal
que O t . A. O es diagonal.
Observacion 8.44 Sea (V, h, i) un espacio vectorial de dimension finita con producto in-
terno y sean B y B 0 bases ortonormales de V . Entonces C(B, B 0 ) es una matriz unitaria (u
ortogonal).
(C(B, B 0 )1 )ij = C(B 0 , B)ij = hwj , vi i = hvi , wj i = C(B, B 0 )ji = (C(B, B 0 ) )ij ,
Teorema 8.45 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno y
sea f : V V una transformacion lineal. Son equivalentes:
i) Existe una base ortonormal B de V tal que f (B) es una base ortonormal de V .
ii) hf (v), f (w)i = hv, wi v, w V .
iii) Para toda base ortonormal B de V , f (B) es una base ortonormal de V .
iv) kf (v)k = kvk v V .
v) f f = f f = idV .
Definicion 8.46 Sea (V, h, i) un espacio vectorial con producto interno. Una transformacion
lineal f : V V que cumple las condiciones equivalentes del Teorema 8.45 se dice unitaria si
V es un C-espacio vectorial, u ortogonal si V es un R-espacio vectorial.
8.3 Endomorfismos en espacios vectoriales con producto interno 213
Demostracion del Teorema 8.45. Probaremos que i) ii) iii) i), ii) iv) y ii) v).
i) ii) Sea B = {v1 , . . . , vn } una base ortonormal de V tal que f (B) = {f (v1 ), . . . , f (vn )}
P n
es tambien una base ortonormal de V . Entonces, si v, w V con v = i vi y
i=1
P
n
w= i vi , como B y f (B) son bases ortonormales de V , se tiene que
i=1
DX
n n
X E n
X
hv, wi = i vi , j vj = i i
i=1 j=1 i=1
DXn n
X E n
X
hf (v), f (w)i = i f (vi ), j f (vj ) = i i ,
i=1 j=1 i=1
ii) iii) Sea B = {v1 , . . . , vn } una base ortonormal de V . Consideramos el conjunto f (B) =
{f (v1 ), . . . , f (vn )}. Se tiene que
1 1
hf (v), f (w)i = kf (v) + f (w)k2 kf (v) f (w)k2
4 4
1 1
= kf (v + w)k kf (v w)k2
2
4 4
1 1
= kv + wk kv wk2
2
4 4
= hv, wi.
v) ii) Para v, w V , se tiene que hf (v), f (w)i = hv, f (f (w))i = hv, f f (w)i =
hv, idV (w)i = hv, wi.
Proposicion 8.47 Sea (V, h, i) un espacio vectorial de dimension finita con producto interno
y sea B una base ortonormal de V . Sea f : V V una trasformacion lineal. Entonces
() Si |f |B es unitaria, |f |1
B = (|f |B ) , de donde resulta que |f f |B = |f f |B = In y,
por lo tanto, f f = f f = idV .
En primer lugar, probamos dos resultados acerca de los autovalores de una transformacion
ortogonal y de sus subespacios invariantes.
hf (x), si = hf (x), f (e
s)i = hx, sei = 0.
En lo que sigue, daremos una caracterizacion para las trasformaciones lineales ortogonales
definidas en espacios vectoriales de dimension 2. En particular, clasificaremos las transforma-
ciones ortogonales en R2 .
Sea V un espacio eucldeo con dim V = 2 y sea f : V V una transformacion lineal
ortogonal.
Sea B = {v1 , v2 } una base ortonormal de V . Entonces {f (v1 ), f (v2 )} es una base ortonor-
mal de V y, si
f (v1 ) = v1 + v2 y f (v2 ) = 0 v1 + 0 v2 ,
resulta que {(, ), (0 , 0 )} es una base ortonormal de R2 , es decir,
k(, )k = k(0 , 0 )k = 1 y 0 + 0 = 0.
(2) Como |f |B es simetrica, existe una base ortonormal B 0 de V tal que |f |B 0 es diagonal.
Puesto que Xf = (X )(X + ) 2 = X 2 1 = (X 1)(X + 1) se puede tomar B 0
tal que
1 0
|f |B 0 = .
0 1
Observamos que si B 0 = {w1 , w2 } entonces f (w1 ) = w1 y f (w2 ) = w2 .
Vimos que si f es una transformacion ortogonal, existe una base ortonormal B = {v1 , v2 }
de R2 tal que
cos sen 1 0
|f |B = o |f |B = .
sen cos 0 1
Ejemplos.
Tenemos que L = < (1, 1) > y L = < (1, 1) >. Definimos f : R2 R2 en la base
{(1, 1), (1, 1)} como sigue:
f (1, 1) = (1, 1)
f (1, 1) = (1, 1).
Entonces f|L = idL y f|L = idL , lo que dice que f es la simetra respecto de la recta
L.
Se tiene que f (x, y) = (y, x) para cada (x, y) R2 .
8.3 Endomorfismos en espacios vectoriales con producto interno 217
Si = 1 es autovalor de f :
Sea v1 un autovector de f asociado al autovalor 1 con kv1 k = 1 (si kv1 k 6= 1, lo dividimos
por su norma). Entonces S = < v1 > es un subespacio invariante por f . Por el Lema
8.49, S es f -invariante.
Consideremos S con el producto interno inducido por el producto interno de V . En-
tonces f|S : S S es una transformacion ortogonal en un espacio eucldeo con
dim S = 2. En consecuencia, existe una base ortonormal B1 = {v2 , v3 } de S tal que
vale alguna de las dos igualdades siguientes:
cos sen
(1) |f|S |B1 = , con [0, ],
sen cos
1 0
(2) |f|S |B1 = .
0 1
Sea B = {v1 , v2 , v3 }. Entonces B es una base ortonormal de V y vale alguna de las dos
igualdades siguientes:
1 0 0
(1) |f |B = 0 cos sen , con [0, ],
0 sen cos
1 0 0
(2) |f |B = 0 1 0 .
0 0 1
Vemos que en el caso en que V = R3 , f es una rotacion compuesta con una simetra,
puesto que:
1 0 0 1 0 0
|f |B = 0 1 0 . 0 cos sen .
0 0 1 0 sen cos
| {z } | {z }
simetra rotacion
Ejemplo. Definir una rotacion f : R3 R3 tal que f (1, 1, 0) = (0, 1, 1) y tal que el eje de la
rotacion sea ortogonal a (1, 1, 0) y (0, 1, 1).
Sea H = < (1, 1, 0), (0, 1, 1) > el subespacio de R3 de dimension 2 que contiene a (1, 1, 0)
y a (0, 1, 1).
Consideremos H = {(x1 , x2 , x3 ) R3 : x1 + x2 = 0, x2 + x3 = 0} = < (1, 1, 1) >.
Queremos definir f de manera que H sea el eje de la rotacion, es decir, que f|H = idH .
En primer lugar, construimos una base ortonormal de R3 que contenga una base de H
y una base de H:
n 1 1 1 1 1 1 1 2 o
B= , , , , ,0 , , , .
3 3 3 2 2 6 6 6
| {z } | {z }
base de H base de H
Para que la matriz tenga la estructura del tem (1) de la pagina 218, definimos
1 1
1 3 1 1 1 1 1 2
(c) f , , = , ,0 + , , .
6 6 6 2 2 2 2 6 6 6
Teorema 8.54 Sea (V, h, i) un espacio eucldeo de dimension finita. Sea f : V V una
transformacion lineal ortogonal. Entonces existe una base ortonormal B de V tal que
In 1
In2
cos 1 sen 1
sen 1 cos 1
|f |B = (8.3)
..
.
cos r sen r
sen r cos r
Si = 1 es autovalor de f :
Sea v1 una autovector de f de autovalor 1 tal que kv1 k = 1 (si kv1 k 6= 1, lo dividimos
por su norma). Entonces S = < v1 > es un subespacio de V invariante por f , de donde
S tambien es invariante por f .
Consideremos f1 = f|S : S S , que es una transformacion lineal ortogonal definida
en un espacio eucldeo de dimension n1 (considerando en S la restriccion del producto
interno de V ). Por hipotesis inductiva, existe una base ortonormal B1 de S tal que
|f1 |B1 es de la forma (8.3).
Tomando B = {v1 } B1 , se obtiene una base ortonormal de V tal que
!
1 01(n1)
|f |B = ,
0(n1)1 |f1 |B1
8.4 Ejercicios
Ejercicio 1. Sea V un espacio vectorial y sea h, i un producto interno sobre V . Probar:
Ejercicio 3. Sea V un espacio vectorial. Demostrar que la suma de dos productos internos
sobre V es un producto interno sobre V .
Ejercicio 4. Sea V un espacio vectorial con producto interno y sea d la distancia asociada.
Demostrar que:
i) d(x, y) 0
8.4 Ejercicios 223
ii) d(x, y) = 0 x = y
iii) d(x, y) = d(y, x)
iv) d(x, y) d(x, z) + d(z, y)
(x, y) = a.x1 .y1 + b.x1 .y2 + b.x2 .y1 + b.x2 .y2 + (1 + b).x3 .y3
un producto interno en R3 .
Ejercicio 8. Probar que las siguientes funciones definen productos internos sobre los espacios
vectoriales considerados:
Ejercicio 9. Restringir el producto interno del item ii) del ejercicio anterior a Rn [X] y
calcular su matriz en la base B = {1, X, . . . , X n }.
Ejercicio 10.
i) Sea : R2 R2 R definida por (x, y) = x1 .y1 2.x1 .y2 2.x2 .y1 + 6.x2 .y2 .
a) Probar que es un producto interno.
b) Encontrar una base de R2 que sea ortonormal para .
ii) Encontrar una base de C2 que sea ortonormal para el producto interno definido en el
Ejercicio 5. vi).
Ejercicio 11. Sea V un espacio vectorial de dimension n y sea B = {v1 , . . . , vn } una base de
V.
i) Probar que existe un unico producto interno en V para el cual B resulta ortonormal.
ii) Hallarlo en los casos
a) V = R2 y B = {(1, 1), (2, 1)}
b) V = C2 y B = {(1, i), (1, i)}
c) V = R3 y B = {(1, 1, 1), (1, 1, 0), (0, 1, 1)}
d) V = C3 y B = {(1, i, 1), (0, 0, 1), (0, 1, i)}
Ejercicio 13.
i) Hallar bases ortonormales para los subespacios del ejercicio anterior para cada uno de
los productos internos considerados.
ii) Definir explcitamente las proyecciones ortogonales sobre cada uno de dichos subespa-
cios.
iii) Hallar el punto de S5 mas cercano a (0, 1, 1, 0).
Encontrar una base ortonormal {v1 , v2 , v3 , v4 } de R4 tal que vi Si (i = 1, 2, 3). Por que
este problema tiene solucion?
Ejercicio 16.
Ejercicio 17. Sea V un espacio vectorial con producto interno h, i. Sea W V un subespacio
/ W , entonces existe y V tal que y W y
de dimension finita de V . Probar que si x
hx, yi =
6 0.
kv1 k. kp<v1 > (v2 )k. kp<v1 ,v2 > (v3 )k . . . kp<v1 ,...,vk1 > (vk )k.
Vamos a probar que el volumen del paraleleppedo definido por los vectores linealmente
independientes v1 , . . . , vn en Rn es igual a | det(A)|, donde A Rnn es la matriz cuyas
columnas son los vectores v1 , . . . , vn .
Ejercicio 19. Calcular f para cada una de las transformaciones lineales siguientes:
i) f : R2 R2 , f (x1 , x2 ) = (3.x1 + x2 , x1 + x2 )
ii) f : C3 C3 , f (x1 , x2 , x3 ) = (2.x1 + (1 i).x2 , x2 + (3 + 2i).x3 , x1 + i.x2 + x3 )
iii) B = {(1, 2, 1), (1, 0, 0), (0, 1, 1)}, f : R3 R3 tal que
1 0 1
|f |B = 2 0 1
0 1 0
R1
iv) f : R2 [X] R2 [X], f (p) = p0 (donde hp, qi = 0
p(x).q(x) dx).
v) P GL(n, C), f : Cnn Cnn , f (A) = P 1 .A.P (donde hA, Bi = tr(A.B )).
R1
vi) f : R[X] R[X], f (p) = f.p donde f R[X] y hp, qi = 0 p(x).q(x)dx
Ejercicio 20. Sea (V, h, i) un espacio vectorial de dimension finita con producto interno.
Sean f1 y f2 endomorfismos de V y sea k un escalar. Probar:
i) (f1 + f2 ) = f1 + f2
ii) (k.f1 ) = k.f1
iii) (f1 f2 ) = (f2 ) (f1 )
iv) Si f1 es un isomorfismo, entonces f1 es un isomorfismo y (f1 )1 = (f11 )
v) ((f1 ) ) = f1
vi) f1 f1 = 0 f1 = 0
Ejercicio 21. Sea (V, h, i) un espacio vectorial de dimension finita con producto interno y
sea f : V V una tranformacion lineal. Probar que Im(f ) = (Nu(f )) .
Ejercicio 23. Sea (V, h, i) un espacio vectorial de dimension finita con producto interno y sea
S un subespacio de V . Probar que la proyeccion ortogonal P : V V sobre S es autoadjunta.
Calcular sus autovalores.
228 Espacios vectoriales con producto interno
Ejercicio 24.
i) En cada uno de los siguientes casos, encontrar una matriz O Rnn ortogonal tal que
O.A.Ot sea diagonal:
5 0 2
2 1 1 3
A= A= A= 0 7 2
1 2 3 1
2 2 6
ii) En cada uno de los siguientes casos, encontrar una matriz U Cnn unitaria tal que
U.A.U sea diagonal:
4 1 i 0 2 1 i 0
1 3 2i 1 1 2 i 0
A= A=
i 2i 3 i i i 2 0
0 1 i 2 0 0 0 3
Ejercicio 25. Encontrar una base ortonormal B de R2 tal que |f |B y |g|B sean diagonales
si las matrices de f y de g en la base canonica son:
2 1 1 3
y
1 2 3 1
Ejercicio 26. Sea (V, h, i) un C-espacio vectorial de dimension finita con producto interno y
sea f : V V una transformacion lineal.
iii) Probar que si f es normal, entonces admite una base ortonormal de autovectores.
Sugerencia: observar que (E ) es f -invariante y f -invariante.
iv) Deducir de lo anterior que las matrices unitarias son diagonalizables sobre C. Encontrar
un ejemplo de matriz ortogonal que no sea diagonalizable sobre R.
8.4 Ejercicios 229
Ejercicio 27. Hallar la matriz en la base canonica de las siguientes transformaciones orto-
gonales:
i) f : R2 R2 , rotacion de angulo 3.
Decidir si f es una rotacion, una simetra o una composicion de una rotacion y una simetra.
Encontrar la rotacion, la simetra o ambas.
i) Probar que si f : Rn Rn es una isometra tal que f (0) = 0, f resulta una transfor-
macion lineal y ademas f es ortogonal.
ii) Deducir que f : Rn Rn es una isometra si y solo si existen g : Rn Rn transfor-
macion ortogonal y v Rn tales que f (x) = g(x) + v, x Rn .
230 Espacios vectoriales con producto interno
Captulo 9
Variedades lineales
Al considerar los subespacios de R2 , vimos que estos son el conjunto {(0, 0)}, el espacio R2
y las rectas que pasan por el origen. Ahora, en algunos contextos, por ejemplo para resolver
problemas geometricos, puede ser util trabajar con rectas que no pasan por el origen, es decir,
que no son subespacios.
En este captulo estudiaremos una nocion que generaliza a la de subespacios de un K-
espacio vectorial: las variedades lineales. As como los subespacios aparecen como conjuntos
de soluciones de sistemas de ecuaciones lineales homogeneas, las variedades lineales pueden
verse como conjuntos de soluciones de ecuaciones lineales no homogeneas.
Se definen
+p : V V V , v +p w = v + w p
p : K V V , p v = (v p) + p
Entonces (V, +p , p ) es un K-espacio vectorial, p es el elemento neutro de +p (con lo cual
cumple la funcion de ser el nuevo origen de V ) y M es un subespacio de (V, +p , p ) (comparar
con el Ejercicio 4 de la Seccion 1.5).
Proposicion 9.3 Sea V un K-espacio vectorial y sea M V una variedad lineal. Suponga-
mos que existen p, p0 V y subespacios S y S 0 de V tales que M = S + p y M = S 0 + p0 .
Entonces S = S 0 y p p0 S.
Este resultado nos permite introducir una nocion de dimension para variedades lineales.
Definicion 9.4 Sea V un K-espacio vectorial y sea M V una variedad lineal. Supon-
gamos que M = S + p, donde S es un subespacio de V y p V . Entonces S se llama el
subespacio asociado a M . Si S es de dimension finita, se define la dimension de M como
dim(M ) = dim(S).
Ejemplos.
{x K n / A.x = b} = Shom + p,
i) Una recta en V es una variedad lineal de dimension 1, es decir, L = < v > + p, con
v, p V , v 6= ~0.
ii) Un plano en V es una variedad lineal de dimension 2, es decir, = < v, w > + p, con
{v, w} V linealmente independiente
iii) Si dim V = n, un hiperplano de V es una variedad lineal de dimension n 1.
234 Variedades lineales
Observacion 9.7 Sea V un K-espacio vectorial y sean p 6= q V . Entonces existe una unica
recta L V tal que p L y q L.
Demostracion. Sea L = < p q > + q. Se tiene que L es una recta, puesto que como p 6= q,
dim(< p q >) = 1. Ademas:
q L, puesto que q = 0 + q.
p L, puesto que p = 1. (p q) + q.
Sea L0 una recta tal que p L0 y q L0 . Entonces existe un subespacio S con dim S = 1 tal
que L0 = S + q y L0 = S + p. Por lo tanto, p q S y, como p q 6= 0 y dim S = 1, resulta
que S = < p q >. Luego L0 = < p q > + q = L.
En general, dada una cantidad finita de vectores en un K-espacio vectorial V , existe una
variedad lineal que los contiene. Esto da lugar a la siguiente definicion:
Ejemplo. Sea M = {P R2 [X] / P (2) = 1}, que es una variedad lineal en R2 [X]. Conside-
remos la base B = {1, X, X 2 }. Entonces
P M P (2) = 1 (P )B = (a, b, c) y a + 2b + 4c = 1.
Proposicion 9.14 Sea V un K-espacio vectorial con dim(V ) 2. Sean L1 y L2 dos rectas
en V . Son equivalentes:
ii) L1 L2 6= o L1 k L2 .
Demostracion.
Es posible que dos variedades lineales no sean paralelas, pero tampoco tengan interseccion
no vaca (por ejemplo, L1 = < (1, 0, 0) > + (0, 0, 1) y L2 = < (0, 1, 0) > + (0, 0, 2) son dos
rectas en R3 que no son paralelas ni se cortan). Esto da lugar a la siguiente definicion:
Ejemplos.
1. L1 = < (1, 0, 0) > + (0, 0, 1) y L2 = < (0, 1, 0) > + (0, 0, 2) son dos rectas alabeadas en
R3 .
2. Los planos definidos en R4 por
1 = {(x, y, z, w) R4 : x = 1, y = 1} y 2 = {(x, y, z, w) R4 : x = 2, z = 3}
son alabeados.
(Se puede probar que, si V es un K-espacio vectorial tal que existen dos planos 1 y
2 en V que son alabeados, entonces dim(V ) 4.)
donde dim < (a, b, c), (d, e, f ) > = 2 y dim < (a0 , b0 , c0 ), (d0 , e0 , f 0 ) > = 2. Se tiene que
ax + by + cz = d
ex + f y + gz = h
L1 L2 :
a0 x + b0 y + c0 z = d0
0
e x + f 0 y + g 0 z = h0 .
238 Variedades lineales
Sean
a b c a b c d
e f g e f g h
A=
a0
y B= .
b0 c0 a0 b0 c0 d0
e0 f0 g0 e0 f0 g0 h0
Observamos que:
2. M1 M1 M2 y M2 M1 M2 .
3. Si M1 = S1 + p1 y M2 = S2 + p2 , entonces p1 p2 S1 + S2 si y solo si M1 M2 6= ,
en cuyo caso M1 M2 = (S1 + S2 ) + p2 .
9.3 Variedades lineales en espacios con producto interno 239
i) Si M1 M2 6= ,
dim(M1 M2 ) = dim(M1 ) + dim(M2 ) dim(M1 M2 ).
ii) Si M1 M2 = , entonces p1 p2
/ S1 + S2 , con lo que
dim(M1 M2 ) = dim(S1 + S2 + < p1 p2 >)
= dim(S1 + S2 ) + 1
= dim(S1 ) + dim(S2 ) dim(S1 S2 ) + 1
= dim(M1 ) + dim(M2 ) dim(S1 S2 ) + 1.
Definicion 9.20 Sea (V, h, i) un espacio eucldeo de dimension finita, sea M V una varie-
dad lineal y sea q V . El complemento ortogonal a M por el punto q es la variedad lineal
Mq = S + q, donde S es el subespacio de V asociado a M .
Escribiremos M para denotar al complemento ortogonal a M por q = 0.
Ejemplos.
L
(1,1,2) = {(x, y, z) R3 / h(x, y, z), (1, 2, 3)i = 0} + (1, 1, 2)
= {(x, y, z) R3 / x + 2y + 3z = 0} + (1, 1, 2)
= {(x, y, z) R3 / x + 2y + 3z = 9}.
2. Hallar 3
(1,0,1) siendo = {(x, y, z) R / 3x 2y + z = 7}.
Se tiene que
= {(x, y, z) R3 / 3x 2y + z = 0} + (0, 0, 7)
= {(x, y, z) R3 / h(x, y, z), (3, 2, 1)i = 0} + (0, 0, 7)
= < (3, 2, 1) > + (0, 0, 7).
Entonces
(1,0,1) = < (3, 2, 1) > + (0, 0, 1) = < (3, 2, 1) > + (0, 0, 1).
Definicion 9.21 Sea (V, h, i) un espacio eucldeo y sean L1 = < v1 >+p1 y L2 = < v2 >+p2 ,
con v1 , v2 V no nulos, dos rectas en V . Se define el angulo entre L1 y L2 como el (unico)
numero real comprendido entre 0 y 2 que coincide con el angulo entre v1 y v2 o con el angulo
entre v1 y v2 .
9.3 Variedades lineales en espacios con producto interno 241
Esta nocion nos permite a su vez definir el angulo entre una recta y un plano, y el angulo
entre dos planos, en un espacio eucldeo de dimension 3:
d(q, M ) = inf{d(q, z) / z M }.
Notar que lo que se hizo es trasladar el problema al 0, o sea, restarle p a todos los puntos
de la variedad y a q, y entonces calcular la distancia de un vector a un subespacio.
De las igualdades de la observacion anterior se deduce que d(q, M ) = kq (pS (q p) + p)k
y, como pS (q p) + p M , concluimos que este es el punto de M mas cercano a q.
Finalmente observamos que se puede probar que, si Mq es el complemento ortogonal a
M por q, entonces Mq M = {pS (q p) + p}.
Ejemplo. Calcular la distancia de (1, 2, 4) a M = < (1, 1, 0), (0, 1, 0) > + (5, 1, 2).
Se tiene que S = < (1, 1, 0), (0, 1, 0) > es el subespacio asociado a M y S = < (0, 0, 1) >.
Por lo tanto, para cada (x, y, z) R3 vale pS (x, y, z) = (0, 0, z). De acuerdo a la observacion
anterior,
d((1, 2, 3), M ) = kpS ((1, 2, 4) (5, 1, 2))k = k(0, 0, 2)k = 2.
242 Variedades lineales
En lo que sigue, veremos que lo que sucede en el ejemplo (es decir, que la distancia entre
L1 y L2 es la mnima de las distancias entre un punto de L1 y un punto de L2 ) se da tambien
para variedades lineales arbitrarias en espacios eucldeos de dimension finita. Damos entonces
la siguiente definicion:
Definicion 9.25 Sea (V, h, i) un espacio eucldeo de dimension finita. Sean M1 y M2 var-
iedades lineales en V . Se define la distancia entre M1 y M2 como
d(M1 , M2 ) = inf{d(m1 , m2 ) / m1 M1 , m2 M2 }.
Consideremos el subespacio S = < (1, 2, 1), (2, 1, 1) >, que es la suma de los subespacios
asociados a L1 y L2 .
Se tiene que
n
3 x + 2y + z = 0
S = (x, y, z) R : = < (1, 1, 3) >.
2x + y + z = 0
Buscamos u = pS ((1, 7, 2) (0, 0, 1)):
h(1, 7, 1), (1, 1, 3)i 5 5 15
u = pS (1, 7, 1) = (1, 1, 3) = , , .
k(1, 1, 3)k2 11 11 11
En consecuencia,
5 5 15 5 11
d(L1 , L2 ) = , , = .
11 11 11 11
244 Variedades lineales
9.4 Ejercicios
Ejercicio 1. Sea V un K-espacio vectorial y sean p, q V . Si M es la recta que pasa por p
y q, probar la validez de las siguientes afirmaciones:
ii) M = {.q + .p / , K ; + = 1}
Ejercicio 2. Probar que cada uno de los siguientes conjuntos son variedades lineales y calcular
su dimension:
i) M1 = {(x1 , x2 , x3 ) R3 / 2.x1 x3 = 1 y x2 + x3 = 2}
Ejercicio 3.
i) Sea L R3 la recta que pasa por los puntos (2, 1, 0) y (1, 3, 1). Hallar una variedad
lineal M de dimension 2 que contenga a L. Es M unica?
ii) Sea = {(x1 , x2 , x3 ) R3 / 2.x1 x2 + x3 = 1} y sea L = < (0, 1, 1) > + (1, 1, 0). Hallar
una variedad lineal M R3 de dimension 2 tal que M = L.
ii) M R4 la mnima variedad que contiene a (1, 1, 2, 0), (2, 1, 1, 0) y (1, 0, 4, 1).
Ejercicio 7.
i) Encontrar en R3 dos rectas alabeadas que pasen por (1, 2, 1) y (2, 1, 1) respectivamente.
ii) Encontrar en R4 dos planos alabeados que pasen por (1, 1, 1, 0) y (0, 1, 1, 1) respectiva-
mente.
Ejercicio 8.
i) Sea S = < (2, 3) > R2 . Hallar una recta L k S tal que (1, 1) L. Graficar.
ii) Sea L1 = < (2, 1, 0) > + (0, 0, 1). Hallar una recta L2 k L1 que pase por el punto
(1, 3, 0).
Ejercicio 9. En cada uno de los siguientes casos, decidir si las variedades lineales M1 y M2
se cortan, son paralelas o alabeadas. En cada caso, hallar M1 M2 , M1 M2 y calcular todas
las dimensiones:
i) M1 = {(x1 , x2 , x3 ) R3 / x1 + x2 x3 = 1}
M2 = < (1, 0, 1) > + (0, 0, 3)
iii) M1 = {(x1 , x2 , x3 , x4 ) R4 / x1 x2 1 = x3 + x4 = 0}
M2 = {(x1 , x2 , x3 , x4 ) R4 / x1 x2 = x2 + x3 + x4 1 = 0}
Ejercicio 15. Un paralelogramo es un cuadrilatero tal que sus lados opuestos son paralelos.
i) Probar que si el cuadrilatero dado en R2 por los puntos (0, 0), (a, b), (c, d) y (e, 0) es
un paralelogramo, el punto de interseccion de sus diagonales es el punto medio de cada
una de ellas.
ii) Bajo las mismas hipotesis de i), probar que si las diagonales son perpendiculares, los
cuatro lados son iguales.
Ejercicio 19. Dado en R2 el triangulo de vertices A = (2, 3), B = (8, 5) y C = (14, 11),
hallar la longitud de la altura que pasa por el vertice A.
Ejercicio 20. Se consideran en R2 los puntos O = (0, 0), P = (a, b) y Q = (c, d). Dichos
puntos forman un triangulo isosceles con base P Q. Probar que la altura correspondiente a la
base corta a esta en su punto medio.
Ejercicio 21. Sean en R3 los puntos A1 = (1, 1, 0) y A2 = (1, 1, 1). Encontrar tres
hiperplanos H tales que d(A1 , H) = d(A2 , H).
Ejercicio 22.
i) Calcular el angulo entre las rectas de R2 definidas por L1 : x1 x2 = 1 y L2 : x1 +x2 = 3.
ii) Hallar una recta L3 tal que Ang(L1 , L2 ) = Ang(L2 , L3 ) y L1 L2 L3 .
Ejercicio 23. Sea L R3 la recta L = < (1, 1, 1) > + (2, 1, 0). Encontrar un plano R3
tal que (2, 1, 0) y Ang(L, ) = 4 .
Ejercicio 25. Probar que si M1 y M2 son variedades lineales de Rn con dim M1 dim M2
y M1 k M2 , entonces d(M1 , M2 ) = d(P, M2 ) para todo P M1 .
Ejercicio 26. Sea en R2 la recta L que pasa por los puntos (2, 1) y (5, 3). Determinar una
recta L0 k L tal que d(L, L0 ) = 2.
Ejercicio 28. Sean en R3 la recta L = < (1, 2, 2) > + (0, 2, 0) y el punto P = (1, 2, 2).
Encontrar ecuaciones implcitas de una recta L0 ortogonal a L tal que d(P, L0 ) = 3 y LL0 = .
Es unica?
Ejercicio 30. Sea L = < (3, 0, 4) > + (1, 1, 0). Encontrar una recta L0 alabeada con L,
tal que d(L, L0 ) = 2.
Ejercicio 31.
i) Construir una rotacion f : R3 R3 tal que f (M1 ) = M2 en cada uno de los siguientes
casos:
a) M1 = {(1, 2, 1)}, M2 = {(1, 2, 1)}
b) M1 = {(x1 , x2 , x3 ) R3 / x1 x2 = 2, x3 = 1}
M2 = {(x1 , x2 , x3 ) R3 / x1 2.x2 = 1, 3.x2 x3 = 4}
c) M1 = {(x1 , x2 , x3 ) R3 / x1 x2 + x3 = 3}
M2 = {(x1 , x2 , x3 ) R3 / x1 x2 + x3 = 3}
ii) Encontrar M1 y M2 variedades lineales de R3 de igual dimension tales que no haya
ninguna rotacion f : R3 R3 que cumpla f (M1 ) = M2 .
Formas bilineales
Las formas bilineales son un caso particular de funciones multilineales que tienen diversas
aplicaciones. En este captulo solo daremos una breve introduccion al tema para poder de-
mostrar una caracterizacion de las formas bilineales simetricas reales definidas positivas que
se utiliza en el calculo de extremos de funciones multivariadas.
i) (v + v 0 , w) = (v, w) + (v 0 , w) v, v 0 , w V .
Notar que el nombre bilineal deriva del hecho que, cuando se fija cualquiera de las variables,
la funcion resulta lineal en la otra.
La matriz de una forma bilineal en una base sirve, como en el caso de las transformaciones
lineales, para poder calcular el valor de la forma si conocemos las coordenadas de los vectores
en dicha base.
Proposicion 10.3 Sea V un K-espacio vectorial de dimension finita y sea B = {v1 , . . . , vn }
una base de V . Sea : V V K una forma bilineal. Entonces, para cada x, y V ,
(x, y) = (x)B . ||B . (y)tB .
P
n P
n
Demostracion. Sean x, y V . Supongamos que x = i vi e y = j vj . Entonces
i=1 j=1
X
n n
X Xn n
X Xn X
n
(x, y) = i vi , j vj = i (vi , j vj ) = i (vi , vj )j .
i=1 j=1 i=1 j=1 i=1 j=1
Observacion 10.4 Si A K nn es una matriz tal que x, y V vale (x)B .A.(y)tB = (x, y),
entonces Aij = (vi , vj ). En efecto,
Las matrices de cambio de bases nos permiten calcular la matriz de una forma bilineal en
distintas bases.
Notar que la matriz de cambio de base de la izquierda aparece transpuesta, lo que es natural
por la forma de calcular la forma bilineal en un par de vectores, conocidas sus coordenadas.
(x, y) = x1 y1 + x1 y2 + x2 y1 + 3x2 y2 .
1 1
Si E es la base canonica de R2 , vimos que ||E = . Calcular ||B para B =
1 3
{(1, 1), (1, 2)}.
Demostracion.
() Supongamos que es una forma bilineal simetrica. Entonces
(||B )ij = (vi , vj ) = (vj , vi ) = (||B )ji .
() Sean x, y V . Entonces
t
(x, y) = (x)B . ||B . (y)tB = (x)B . ||B . (y)tB
= (y)B . ||tB . (x)tB = (y)B . ||B . (x)tB = (y, x).
1. Nu() es un subespacio de V .
2. Si dim V = n y B es una base de V , entonces
Nu() = {x V / (x)B . ||B . (y)tB = 0 y V } = {x V / (x)B . ||B = 0}
= {x V / ||tB . (x)tB = 0} = {x V / ||B . (x)tB = 0}
= {x V / (x)B Nu(||)B }.
En consecuencia, dim Nu() = n rg(||B ).
A partir de este resultado, se define una nocion de rango de una forma bilineal simetrica:
1. Si a11 6= 0:
1 0 ... 0 a a12 ... a1n 1 aa12 ... aa1n
a12 .. 11
11 11
a 1 . a12 0 1 0
=
. .. ..
11
.. .. .. ..
. . 0 M . . .
aa1n 0 . . . 1 a1n 0 ... 0 1
11
254 Formas bilineales
a11 0 ... 0
0
= .. con M 0 simetrica.
. M 0
0
Ahora se sigue diagonalizando M 0 .
2. Si a1i = 0 1 i n:
0 ... 0
..
Entonces ||B0 = . M y basta diagonalizar M .
0
3. Si a11 = 0 y existe i con 2 i n tal que a1i 6= 0, pueden pasar dos cosas:
i) Si aii 6= 0, se multiplica a izquierda y a derecha por la matriz elemental P 1i y se obtiene
la matriz simetrica P 1i .||B0 .P 1i tal que (P 1i .||B0 .P 1i )11 = aii , con lo que estamos en
el primer caso.
ii) Si aii = 0, sea C (i) la matriz definida por
n
(i) 1 si k = ` o k = i, ` = 1
Ck` =
0 si no
Entonces ((C (i) )t .||B0 .C (i) )11 = 2.a1i y la matriz es simetrica, con lo que tambien
estamos en el primer caso, pues 2 6= 0 en K.
Ejemplos.
1. Sea : R3 R3 R la forma bilineal simetrica tal que
0 1 1
||E = 1 1 0 .
1 0 0
Hallar una base B de R3 tal que la matriz ||B sea diagonal.
Siguiendo el algoritmo que demuestra la proposicion anterior, estamos en el caso en
que a11 = 0 pero a22 6= 0. Multiplicando a izquierda y a derecha por la matriz P 12
obtenemos
0 1 0 0 1 1 0 1 0 1 1 0
P 12 .||E .P 12 = 1 0 0 1 1 0 1 0 0 = 1 0 1 .
0 0 1 1 0 0 0 0 1 0 1 0
Estamos ahora en condiciones de aplicar el primer paso del algoritmo, ya que tenemos
(P 12 .||E .P 12 )11 = 1 6= 0. Luego
1 0 0 1 1 0 1 1 0 1 0 0
1 1 0 1 0 1 0 1 0 = 0 1 1 .
0 0 1 0 1 0 0 0 1 0 1 0
10.3 Formas bilineales simetricas 255
1 1
Ahora, nos basta diagonalizar el bloque , que nuevamente satisface las condi-
1 0
ciones del paso 1, as que,
1 0 1 1 1 1 1 0
= .
1 1 1 0 0 1 0 1
1 0 0 1 0 0 1 1 0 1 0 0
0 1 0 1 1 0 .P 12 .||E . P 12 . 0 1 0 . 0 1 1 =
0 1 1 0 0 1 0 0 1 0 0 1
1 0 0
= 0 1 0 .
0 0 1
y por lo tanto, la base B resulta ser B = {(0, 1, 0), (1, 1, 0), (1, 1, 1)}.
En este caso, a11 = 0 pero a22 = 0. Como estamos en el caso 3. ii) del algoritmo anterior,
multiplicamos por las matrices C (2) y (C (2) )t a derecha y a izquiera respectivamente y
obtenemos
1 1 0 1 0 0 2 1 2
0 1 0 .||E . 1 1 0 = 1 0 0 .
0 0 1 0 0 1 2 0 0
Ejemplos.
Todas las formas bilineales simetricas reales pueden diagonalizarse de una forma especial:
10.4 Formas bilineales simetricas reales 257
Es facil ver que A.Ot . ||B1 . O.A tiene la forma del enunciado del teorema.
Puesto que O y A son ambas inversibles, entonces O.A es inversible. En consecuencia,
existe una base B tal que O.A = C(B, B1 ). Ademas, A.Ot = At .Ot = (O.A)t = C(B, B1 )t .
Por lo tanto
es de la forma ().
Demostracion. Sabemos que rg(||B ) = dim V dim Nu() para cualquier base B de
V . Entonces s = rg(||B1 ) = rg(||B2 ) = `. Mas aun, Nu() = < vs+1 , . . . , vn > =
< w`+1 , . . . , wn >.
Consideremos
i) V + (V + Nu()) = {0}:
Supongamos que x V + y x = x1 + x2 con x1 V y x2 Nu(). Entonces
Observamos que si S = < v1 , . . . , vr >, entonces |SS es definida positiva, puesto que
X
r r
X Xr r
X r
X
i vi , j vj = i j (vi , vj ) = i2 > 0
i=1 j=1 i=1 j=1 i=1
si algun i 6= 0. Como V + tiene dimension maxima entre los subespacios en los cuales la
restriccion de es definida positiva, dim V + dim S = r.
De la misma manera resulta que dim V dim < vr+1 , . . . , vs > = s r.
En consecuencia se tiene que
i) es definida positiva r = n.
Definicion 10.17 Sea V un espacio vectorial real y sea : V V R una forma bilineal
simetrica tal que para una base B
(
1 si 1 i r, j = i
(||B )ij = 1 si r + 1 i s, j = i
0 si no
Se define la signatura de como la diferencia entre la cantidad de 1 y la cantidad de 1 que
aparecen en ||B , es decir
Demostracion. Como A es una matriz simetrica, existe una matriz ortogonal O Rnn tal
que
1 0
.. ,
Ot . A. O = ... ..
. .
0 n
donde 1 , . . . , n son los autovalores de A.
Sea B 0 = {v1 , . . . , vn } una base de V tal que O = C(B 0 , B). Entonces
1 0
||B 0 = ... . . . ... .
0 n
() Por induccion en n.
Es claro que vale para n = 1.
Supongamos que vale para n 1 y que V es un R-espacio vectorial de dimension n.
Como es definida positiva, a11 = (v1 , v1 ) > 0. Entonces, A se puede triangular, en
el sentido de las formas bilineales, como sigue:
1 0 ... 0 1 aa12 ... aa1n a11 0 ... 0
a12 ..
11 11
a 1 . 0 1 0 0
11 .A. .. .. = .. .
.. .. ..
. . 0 . . . . M
aa1n 0 ... 1 0 ... 0 1 0
11
Es facil ver que estas operaciones no cambian los menores principales. Por lo tanto, el
i-esimo menor principal de A se obtiene multiplicando el (i 1)-esimo menor principal
de M por a11 .
Ahora, si S = < v2 aa11 12
. v1 , . . . , vn aa1n
11
. v1 >, entonces M es la matriz (simetrica) de
la forma bilineal |SS : S S R (que se obtiene al restringir a S S) en la base
BS = {v2 aa1112
. v1 , . . . , vn aa1n 11
. v1 }. Como |SS es definida positiva y dim S = n 1,
por hipotesis inductiva, los menores principales de M son positivos.
Como ademas a11 > 0, resulta que todos los menores principales de A son positivos.
() Por induccion en n.
Para n = 1 no hay nada que hacer.
Supongamos que n > 1 y que el resultado vale para n 1.
El primer menor principal de A es positivo, es decir, a11 > 0. Entonces
1 0 ... 0 1 aa12 ... aa1n a11 0 ... 0
a12 ..
11 11
a 1 . 0 1 0 0
11 .A. .. .. = .. .
.. .. ..
. . 0 . . . . M
aa1n 0 ... 1 0 ... 0 1 0
11
262 Formas bilineales
Observar que todos los menores principales de M son positivos, puesto que al multipli-
carlos por a11 se obtienen menores principales de A, que son positivos.
Si S = < v2 aa12
11
. v1 , . . . , vn aa1n
11
. v1 > y BS = {v2 aa12 11
. v1 , . . . , vn aa1n
11
. v1 }, entonces
M = ||SS |BS . Por hipotesis inductiva, |SS es definida positiva. Entonces existe
una base B 0 = {w2 , . . . , wn } de S tal que ||SS |B 0 = In1 (ver Observacion 10.16). En
consecuencia,
a11 0 . . . 0
0 1 ... 0
||{v1 ,w2 ,...,wn } = . con a11 > 0.
.. . . . . . . ...
0 ... 0 1
10.5 Ejercicios
Ejercicio 1. Probar que las siguientes funciones son formas bilineales:
vi) : C3 C3 C, (x, y) = x1 .y1 + (2 + i).x2 .y1 + 2.x2 .y2 + (2 + i).x1 .y2 + x1 .y3 +
x3 .y1 x3 .y3
Ejercicio 3.
i) Para las formas bilineales sobre R3 del ejercicio anterior, calcular su matriz en la base
{(1, 2, 4), (2, 1, 0), (1, 2, 0)}.
ii) Para las formas bilineales simetricas del ejercicio anterior calcular su nucleo.
Ejercicio 4. Hallar una forma bilineal simetrica en R3 tal que Nu() =< (1, 2, 1) > y
((1, 1, 1), (1, 1, 1)) < 0. Calcular la matriz de en la base canonica.
Ejercicio 5. Para cada una de las formas bilineales reales siguientes hallar una base ortonor-
mal tal que la matriz de la forma bilineal en dicha base sea diagonal y exhibir la matriz de la
forma bilineal en esta base. Calcular signatura y rango, decidir si es degenerada o no, definida
(positiva o negativa), semidefinida (positiva o negativa) o indefinida.
5 0 2
i) : R3 R3 R tal que ||E = 0 7 2
2 2 6
ii) : R4 R4 R definida por (x, y) = 2.x1 .y1 + 2.x1 .y3 + 2.x3 .y1 x3 .y3 x4 .y4 .
Ejercicio 6. Para cada una de las formas bilineales simetricas reales dadas en la base
canonica por las matrices siguientes, hallar una base B tal que la matriz de la forma bilineal
en dicha base sea diagonal con 1, 1 y 0 en la diagonal. Calcular signatura y rango, decidir
si es degenerada o no, definida (positiva o negativa), semidefinida (positiva o negativa) o
indefinida.
1 1 2 3
1 2 3
1 2 5 1
i) 2 6 9 ii)
2 5 6 9
3 9 4
3 1 9 11
Ejercicio 7. Sea A Rnn una matriz simetrica. Probar que la forma bilineal que tiene a
A como matriz en la base canonica es definida negativa si y solo si los signos de los menores
principales de A van alternandose comenzando por un signo menos.
264 Formas bilineales
Bibliografa
[6] Carl Meyer, Matrix analysis and applied linear algebra. SIAM, Philadelphia, 2000.
[7] Ben Noble, D. Daniel James, Algebra lineal aplicada. Prentice-Hall Hispanoamericana,
Mexico, 1989.
[8] Gilbert Strang, Algebra lineal y sus aplicaciones. Fondo Educativo Interamericano,
Mexico, 1982.
Indice Alfabetico
teorema de la dimension
para la suma de subespacios, 33
para transformaciones lineales, 73
para variedades lineales, 239
teorema de Pitagoras, 195
teorema de Thales, 246
Gabriela Jeronimo
Departamento de Matematica, Facultad de Ciencias Exactas y Naturales,
Universidad de Buenos Aires
CONICET - Argentina
jeronimo@dm.uba.ar
Juan Sabia
Departamento de Ciencias Exactas, Ciclo Basico Comun,
Universidad de Buenos Aires
CONICET - Argentina
jsabia@dm.uba.ar
Susana Tesauri
Departamento de Matematica, Facultad de Ciencias Exactas y Naturales,
Universidad de Buenos Aires
stesauri@dm.uba.ar