Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Main

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 171

Índice general

1. Afinando temas 5
1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2. Binomio de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3. Producto de matrices por bloques . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.4. Potencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1. Una operación por filas que no es elemental . . . . . . . . . . . . . . . . . . . . 11
1.2.2. Método de reducción de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.3. Unicidad de la forma equivalente reducida . . . . . . . . . . . . . . . . . . . . . 13
1.2.4. Tipos de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . 14
1.2.5. Algunas variantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.6. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.4. Operando con wxMaxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.1. Búsqueda bibliográfica [Poo04] . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8. Respuestas a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.9. Respuestas a los problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2. Espacios vectoriales 29
2.1. Grupos, anillos y cuerpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.1. Grupo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.2. Anillo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.3. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2. Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3. Espacios vectoriales (ev) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.4. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.5. Dependencia lineal y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6. Reflexionando sobre lo visto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6.1. Tipos de subespacios en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.6.2. Determinación de la dependencia lineal . . . . . . . . . . . . . . . . . . . . . . 44
2.6.3. Obtención de bases de un subespacio definido por ecuaciones y viceversa . . . . 47
2.7. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.7.1. Consecuencias del teorema del rango . . . . . . . . . . . . . . . . . . . . . . . . 49

1
2 ÍNDICE GENERAL

2.8. Intersección y suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49


2.9. Coordenadas en una base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.10. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.10.1. Búsqueda bibliográfica [Lar77] . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.11. Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.13. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.14. Respuestas a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3. Espacios vectoriales con producto interno 65


3.1. Producto interno (o escalar) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1.1. Otros productos internos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.2. Conjuntos ortogonales y ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3. Proceso de ortonormalización de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . 70
3.4. Complemento ortogonal de un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
3.5.1. Búsqueda bibliográfica [EJ98] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6. Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.9. Respuestas a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

4. Transformaciones Lineales 83
4.1. Algunas definiciones, proposiciones y propiedades . . . . . . . . . . . . . . . . . . . . . 85
4.2. Composición e inversa de una t.l. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.3. Teorema de la dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.4. Matriz de una t.l. en las bases B y B’ . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.5.1. Búsqueda bibliográfica [AL82] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.6. Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
4.9. Respuestas a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

5. Transformaciones lineales especiales 109


5.1. Homotecia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.2. Trasquilado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.3. Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
5.4. Transformaciones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
5.4.1. Simetrı́as y rotaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
5.5. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.5.1. Búsqueda bibliográfica [AL82] . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.6. Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
5.8. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
ÍNDICE GENERAL 3

6. Formas canónicas de las transformaciones lineales 127


6.1. Autovalores y autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
6.1.1. wxmaxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.1.2. Algunos teoremas y observaciones . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.1.3. Autovalores y autovectores de matrices hermı́ticas y simétricas . . . . . . . . . 137
6.1.4. Autovalores de transformaciones lineales especiales . . . . . . . . . . . . . . . . 139
6.2. Forma normal o canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.2.2. Desarrollo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
6.2.3. Funciones especı́ficas de wxmaxima para la forma canónica de Jordan . . . . . 147
6.3. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6.4. Cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
6.4.1. Búsqueda bibliográfica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
6.5. Teóricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
6.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
6.7. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

A. Determinante de Vandermonde 159

B. Teorema fundamental de la dimensión 161

C. Teorema del rango 163

D. Diagonalización de una matriz hermı́tica 165

E. Forma canónica de Jordan 167


4 ÍNDICE GENERAL
Capı́tulo 1

Afinando temas

Si bien suponemos que ustedes están familiarizados con los conocimientos básicos sobre números
complejos, polinomios, matrices, sistemas de ecuaciones lineales y determinantes, necesitamos pro-
fundizar algunos conceptos e interpretaciones que utilizaremos en este curso. Presentaremos también
algunas demostraciones que no suelen darse en cursos básicos de álgebra y que tampoco suelen estar
en la bibliografı́a.

1.1. Matrices
Supondremos que están familiarizados con las operaciones básicas sobre matrices y sus propiedades.
En particular las operaciones de suma, producto, producto por un escalar, trasposición, conjugación
e inversión. Llamaremos adjunta de una matriz a su conjugada traspuesta:
t
A∗ = A (adjunta de A)

Observen que esta definición de matriz adjunta no tiene relación con la matriz de cofactores.

1.1.1. Producto de matrices


Sabemos que si A = (aij ) ∈ Cn×m y B = (bij ) ∈ Cm×r , entonces A · B es una matriz C =
m
X
(cij ) ∈ Cn×r donde cij = aik bkj . Una de las consecuencias de esta definición es que el producto
k=1
de matrices no es en general conmutativo. Claro que existen excepciones, por ejemplo si hablamos de
matrices cuadradas, la matriz identidad I y la matriz nula O conmutan con cualquier otra matriz.
También es cierto y lo demostraremos más adelante que cualquier matriz inversible conmuta con su
inversa. No son las únicas situaciones, ustedes pueden verificar que:
       
3 1 1 3 1 3 3 1
. = .
4 5 12 7 12 7 4 5

El hecho que en general el producto de matrices no sea conmutativo, hace que ciertas propiedades que
habitualmente se utilizan con números, no puedan utilizarse con matrices, por ejemplo 3 · 5 · 3−1 = 5,
pero en general A · B · A−1 6= B como muestra el siguiente ejemplo:
       
3 7 2 4 5 −7 −1 8
· · =
2 5 1 3 −2 3 −1 6
| {z } | {z } | {z } | {z }
A B A−1 6=B

5
6 CAPÍTULO 1. AFINANDO TEMAS

Tampoco pueden utilizarse las conocidas fórmulas del cuadrado del binomio o la diferencia de cuadra-
dos ya que como en general A · B 6= B · A:
(A + B) · (A + B) = A2 + A · B + B · A +B 2
| {z }
6=2·A·B

(A + B) · (A − B) = A −A · B + B · A −B 2
2
| {z }
6=O
2
(A − B) · (A + B) = A + A · B − B · A −B 2
| {z }
6=O

Observamos también que al no existir el cociente entre matrices, los despejes de ciertas ecuaciones
matriciales deben hacerse de manera adecuada. En el siguiente ejemplo, A, B y X son matrices cuadra-
das e inversibles, el objetivo es despejar X y para eso debemos hacer exactamente lo mismo a ambos
miembros de la igualdad. Si multiplico ambos miembros por una matriz, debo hacerlo del mismo lado
en ambos miembros, o para eliminar operaciones como la conjugación, trasposición o inversión debo
aplicar esa operación a ambos miembros.
t
At · B · (X t )−1 · B −1 = A
h t i t
At · B · (X t )−1 · B −1 = At
At · B · (X t )−1 · B −1 = At
(At )−1 · At ·B · (X t )−1 · B −1 t −1 t
| {z· B} = (A ) · A · B
| {z }
I I

B · (X t )−1 = (At )−1 · At · B


−1 t −1 −1
| {z· B} ·(X ) = B
B · (At )−1 · At · B
I
−1
(X t )−1 = B · (At )−1 · At · B
−1 −1 −1
(X t )−1 = B · (At )−1 · At · B
X t = B −1 · (At )−1 · At · B
t
(X t )t = B −1 · (At )−1 · At · B
t
X = B · A · A−1 · (B −1 )t
X = B ∗ · A · A−1 · (B −1 )t

1.1.2. Binomio de Newton


r  
X r r−k k
r
Si a, b ∈ C, es posible aplicar la fórmula del binomio de Newton (a + b) = a b , pero
k
k=0
¿será aplicable a matrices? En general la respuesta es no, pero si las matrices en juego conmutan en
el producto entonces si podemos utilizarla como veremos a continuación:

Teorema 1. 1 Si A, B ∈ Cn×n son tales que A · B = B · A, entonces


r  
r
X r
(A + B) = Ar−k B k
k
k=0
1.1. MATRICES 7

Demostración

(Optativa) Lo haremos por inducción en r.


Es trivialmente cierto para r = 0. Supongamos que es cierto para r y veamos que pasa para r + 1.
r+1   r  
X r + 1 r+1−k k r+1
X r + 1 r+1−k k
A B =A + A B + B r+1
k k
k=0 k=1
r    
r+1
X r r
=A + + Ar+1−k B k + B r+1
k−1 k
k=1
r   r  
r+1
X r r+1−k k
X r
=A + A B + Ar+1−k B k + B r+1
k−1 k
k=1 k=1
r−1   r  
X r X r
=Ar+1 + Ar−k B k+1 + Ar+1−k B k + B r+1
k k
k=0 k=1
utilizando que A y B conmutan y la hipótesis inductiva
r−1   r  
r+1
X r r−k k
X r
=A +B A B +A Ar−k B k +B r+1
k k
k=0 k=1
| {z } | {z }
(A+B)r −B r (A+B)r −Ar

Ar+1
 + B(A + B)r − B r+1 Ar+1
XX + A(A + B)r −   + B r+1
 
=
X XX X

=(B + A)(A + B)r


=(A + B)r+1

Vemos entonces que también es válida para r + 1 y eso completa la demostración.

1.1.3. Producto de matrices por bloques


Supongamos que A y B son dos matrices que pueden multiplicarse. Tenemos interés en ver que
sucede con el producto si dividimos las matrices A y B en cuatro bloques rectangulares adecuados.
Supongamos que dividimos las matrices A y B de la siguiente forma:
   
A11 A12 B11 B12
A= B=
A21 A22 B21 B22

donde la cantidad de filas y columnas de cada submatriz o bloque se eligen de forma que pueda
realizarse el producto A11 · B11 . Observamos que necesariamente podrán realizarse los productos A11 ·
B12 , A21 · B11 , A21 · B12 , A12 · B21 , A12 · B22 , A22 · B21 y A22 · B22 .
Además observamos que el producto A · B puede obtenerse según el siguiente esquema de bloques:
 
A11 · B11 + A12 · B21 A11 · B12 + A12 · B22
A·B =
A21 · B11 + A22 · B21 A21 · B12 + A22 · B22
8 CAPÍTULO 1. AFINANDO TEMAS

Veamos un ejemplo:
 
  2 1 1 0
2 1 −3 1 1 
 0 −1 2 2 

A =  −2 1 4 0 2  B=
 0 1 −1 0 

0 2 3 4 1  1 2 3 2 
3 −1 1 −1

     
4 1 4 4 −2 7 8 −1 11
A11 · B11 + A12 · B21 = + =
−4 −3 0 6 2 −2 2 −1 −2
     
2 1 3
A11 · B12 + A12 · B22 = + =
2 −2 0
  
A21 · B11 + A22 · B21 = 0 −2 4 + 7 10 10 = 7 8 14
A21 · B12 + A22 · B22 =(4) + (7) = (11)
 
8 −1 11 3
A · B =  2 −1 −2 0 
7 8 14 11
Ejercicio. Calcular el producto de A y B utilizando los siguientes bloques:
 
  2 1 1 0
2 1 −3 1 1 
 0 −1 2 2 

A=  −2 1 4 0 2  B=
 0 1 −1 0 

0 2 3 4 1  1 2 3 2 
3 −1 1 −1

Con la misma idea, también es posible dividir las matrices en más bloques y realizar el producto
adecuadamente. En el caso que los bloques de A sean sus filas y los de B sus columnas, se obtiene la
forma estandar del producto.
Observemos que si A y B tienen bloques nulos en posiciones estratégicas, C = A · B también lo tendrá:
     
A11 A12 B11 B12 C11 C12
· =
O A22 O B22 O C22
     
A11 O B11 O C11 O
· =
A21 A22 B21 B22 C21 C22
     
A11 O B11 O C11 O
· =
O A22 O B22 O C22
El último es un caso particular de lo que llamaremos matrices diagonales por bloques. Llamaremos
matriz diagonal por bloques a una matriz de ceros salvo en los bloques diagonales:
 
A11 O
A22
 
 
..
 
.
 
 
O Akk
1.1. MATRICES 9

En particular, nos interesan las matrices cuadradas y diagonales por bloques donde a su vez los bloques
son cuadrados. Si A es una matriz de este tipo, entonces puede obtenerse una potencia de la misma
de la siguiente forma:
r  
Ar11

A11 O O
r
 
A22 A
   
  22
 = 
..

.
 . .

.
   
   
O Akk O Arkk
En la siguiente sección, veremos como obtener potencias de distintos tipos de bloques.

1.1.4. Potencia de matrices


En general, obtener potencias altas de matrices cuadradas no es sencillo, aunque existen algunos
casos en que es trivial, por ejemplo en las matrices diagonales:
 r  r 
λ1 O λ1 O
 λ2   λr2 
=
   
 ..   .. 
 .   . 
O λ3 O r
λ3
En particular, tenemos que Ir = I y Or = O.
Analizaremos algunas situaciones más, por ejemplo, consideremos las matrices con la forma:
 
0 1 0 ··· 0
 0 0
 1 ··· 

N =
 ..  ∈ Cn×n

(1.1)
 . 
 0 ··· 0 0 1 
0 ··· ··· 0 0
Observamos que si tenemos otra matriz A y calculamos el producto N · A, el resultado es una matriz
que tiene las mismas filas que A pero desplazadas una posición hacia arriba, quedando la última fila
nula como se ve en el siguiente ejemplo:
     
0 1 0 0 0 1 2 3 4 5 6 7 8 9 0
 0 0 1 0 0   6 7 8 9 0   4 5 6 7 8 
     
 0 0 0 1 0 · 4 5 6 7 8 = 9 0 1 2 3 
     
 0 0 0 0 1   9 0 1 2 3   5 6 7 8 9 
0 0 0 0 0 5 6 7 8 9 0 0 0 0 0
En particular, al multiplicar N por si misma, se obtiene una matriz idéntica a N pero con los unos
desplazados una posición arriba. Al seguir multiplicando el resultado por N , obtenemos la siguiente
secuencia:
 
0 0 1 0 ··· 0
 0
 0 0 1 ··· 

 .. 
 . 
N2 =  0
 
 ··· 0 0 1 0 

 0
 ··· 0 0 0 1 

 0 ··· 0 0 0 0 
0 ··· 0 0 0 0
10 CAPÍTULO 1. AFINANDO TEMAS

 
0 0 0 1 ··· 0
 0
 0 0 0 1 ··· 

 .. 
 . 
N3 =  0
 
 ··· 0 0 0 1 

 0
 ··· 0 0 0 0 

 0 ··· 0 0 0 0 
0 ··· 0 0 0 0

..
.
 
0 0 0 0 ··· 1
 0
 0 0 0 0 ··· 

 .. 
 . 
N n−1 = 0
 
 ··· 0 0 0 0 

 0
 ··· 0 0 0 0 

 0 ··· 0 0 0 0 
0 ··· 0 0 0 0

Nn = O

Tenemos entonces caracterizadas todas las potencias de matrices con la forma (1.1).
También podemos obtener con un poco de trabajo, potencias de matrices con la forma:
 
λ 1 0 ··· 0
 0 λ
 1 ··· 

J =
 .. =λI+N

(Bloque de Jordan) (1.2)
 . 
 0 ··· 0 λ 1 
0 ··· ··· 0 λ

A este tipo de matrices lo llamaremos bloque de Jordan y será muy importante más adelante. En
este momento nos interesa obtener potencias de estos bloques. Como las matrices N y λ I conmutan
en el producto, podemos aplicar la fórmula del binomio de Newton de manera que:

p   p  
p p
X p k p−k p−k
X p
J = (λ I + N ) = N I λ = N k λp−k
k k
k=0 k=0

Si J ∈ Cn×n y k ≥ n,entonces N k = O con lo cual

n−1
X 
p p
J = N k λp−k (p ≥ n − 1)
k
k=0

Observamos que obtener una potencia cualquiera de un bloque de Jordan, es razonablemente sencillo
ya que tenemos caracterizadas las potencias de N y podremos utilizar este resultado en cualquier
matriz diagonal por bloques de Jordan. Veamos un ejemplo:
1.2. SISTEMAS DE ECUACIONES LINEALES 11

 
2 1 0
Si J =  0 2 1  , entonces
0 0 2

2  
50
X 50
J = N k λ50−k
k
k=0
     
50 50 50
= N 0 250 + N 1 249 + N 2 248
0 1 2
| {z } | {z } | {z }
1 50 1225
      
1 0 0 0 1 0 0 0 1
=248 4  0 1 0  + 100  0 0 1  + 1225  0 0 0 
0 0 1 0 0 0 0 0 0
 
4 100 1225
48 
=2 0 4 100 
0 0 4

Demostraremos a su debido tiempo que si A ∈ Cn×n , entonces existe P ∈ Cn×n inversible tal que
J = P · A · P −1 es diagonal por bloques de Jordan. Observemos que:

A = P −1 · J · P ⇒ Ar = (P −1 · J · P ) · (P −1 · J · P ) · · · (P −1 · J · P ) = P −1 · J r · P
| {z }
r veces
Dado que sabemos como obtener potencias altas de bloques de Jordan, cuando seamos capaces de
obtener la matriz P , podremos obtener potencias altas de cualquier matriz cuadrada.

1.2. Sistemas de ecuaciones lineales


Suponemos que ustedes están familiarizados con el concepto de sistemas de ecuaciones equivalentes,
el concepto de matrices equivalentes por filas, con las operaciones elementales de Gauss sobre sistemas
de ecuaciones y que en el caso lineal conocen su efecto sobre las filas de la matriz ampliada. Que
saben escoger una secuencia de operaciones que lleve la matriz ampliada a una matriz escalonada
superiormente y que a partir de esta última saben resolver el sistema equivalente.
Haremos abuso del lenguaje refiriendonos a sistemas de ecuaciones lineales cuando tengamos sus
matrices ampliadas y viceversa.

1.2.1. Una operación por filas que no es elemental


Las tres operaciones elementales de Gauss para filas de una matriz son:

1. Intercambiar dos filas de la matriz.

2. Multiplicar una fila de la matriz por un número distinto de cero.

3. Sumarle a una fila un multiplo de otra fila de la matriz.

Por combinación de dos operaciones elementales podemos definir una cuarta operación que si bién no
es elemental, operativamente es muy útil. En esta operación,

A un multiplo no nulo de una fila le sumamos un multiplo de otra fila de la matriz.


12 CAPÍTULO 1. AFINANDO TEMAS

El siguiente esquema donde Fi representa una fila de la matriz lo demuestra:


     
F1 F1 F1
 ..   ..   .. 
 .   .   . 
     
 Fi   k1 · Fi   k1 · Fi + k2 · Fj 
     
 ..   ..   .. 
 . . .
 −→   −→ 
    
 
 Fj  Fj  F
 k1 6= 0  j
  
   
 ..   ..   .. 
 .   .   . 
Fn Fn Fn

El siguiente ejemplo muestra como utilizarla:


   
2 4 7 1 2 4 7 1
 3 0 3 −1  −→ 2F2 − 3F1  0 −12 −15 −5 
1 1 3 −2 2F3 − F1 0 −2 −1 −5

1.2.2. Método de reducción de Gauss-Jordan


La forma escalonada superiormente de la matriz ampliada, no es necesariamente la que corresponde
al sistema equivalente lo más sencillo posible. Fue Jordan quien caracterizo esta situación estableciendo
que el sistema equivalente más sencillo corresponde a una matriz ampliada con las siguientes carac-
terı́sticas:
Matriz reducida:2

1. Es una matriz escalonada superiormente.

2. El primer elemento no nulo de cada fila es un uno (unos principales).

3. Donde hay unos principales, los demás elementos de la columna son cero.

4. Cuanto más abajo la fila, más a la derecha está el uno principal.

Es sencillo ver que cualquier matriz es equivalente por filas a una matriz reducida.
Sea A = (aij ) ∈ Cn×m , y aαβ el primer elemento no nulo de la primer fila no nula de A. Por ser
aαβ 6= 0, si divido la fila α por aαβ , el primer elemento no nulo de la fila α será un uno (principal).
Si luego tomamos todas las filas i 6= α y les sumamos −aiβ por la fila α, los elementos de la columna
β serán nulos salvo el de la fila α que será un uno. Entonces, esta última matriz que llamaremos A1 ,
tiene a la fila α como primer fila no nula y su primer elemento no nulo será un uno en la columna β.
Además, los otros elementos de la columna β son cero.
Si pasamos a la próxima fila no nula de A1 , digamos la γ, la primera observación es que el primer
elemento no nulo no puede estar en la columna β ya que esa posición tiene un cero obtenido en el paso
anterior. Si repetimos para la fila γ el procedimiento utilizado antes para la fila α, se observa que no
se modifica la columna β y que el primer elemento no nulo de la fila γ es un uno (principal). Además,
los otros elementos de la columna de ese uno son cero.
Repitiendo este procedimiento hasta la última fila no nula de la matriz se logra otra matriz Ak ,
en el cual el primer elemento no nulo de cada fila es un uno (principal) y los demas elementos de las
columnas de esos unos son cero.
2
El nombre completo es matriz escalonada en las filas reducida, pero por comodidad solo la llamaremos matriz
reducida.
1.2. SISTEMAS DE ECUACIONES LINEALES 13

Permutando convenientemente las filas de Ak , se logra una matriz AR escalonada superiormente


como se buscaba. Hagamos un ejemplo que aclare esto último:
   
0 0 0 0 0 0 0 0 0 0
 0 0 3 −9 −21  1
 −→ 3 F2  0 0 1 −3 −7  −→
 

 0 0 0 −2 −6   0 0 0 −2 −6 
2 −6 6 4 22 2 −6 6 4 22
   
F1 − 0F2 0 0 0 0 0 0 0 0 0 0
 0 0 1 −3 −7   0 0 1 −3 −7 
−→   −→   −→
F3 − 0F2  0 0 0 −2 −6  − 21 F3  0 0 0 1 3 
F4 − 6F2 2 −6 0 22 64 2 −6 0 22 64
| {z }
A1
   
F1 − 0F3 0 0 0 0 0 0 0 0 0 0
F2 + 3F2  0 0 1 0 2   0 0 1 0 2 
−→   −→   −→
 0 0 0 1 3   0 0 0 1 3 
1
F4 − 22F3 2 −6 0 0 −2 2 F4 1 −3 0 0 −1
   
F1 − 0F4 0 0 0 0 0 F4 1 −3 0 0 −1
F2 − 0F4 
 0 0 1 0 2  −→ F2
 0 0 1 0 2 
−→  
F3 − 0F4  0 0 0 1 3  F3  0 0 0 1 3 
1 −3 0 0 −1 F1 0 0 0 0 0
| {z } | {z }
Ak AR

En este ejemplo, α = 2 y β = 3. Para aclarar la secuencia de pasos, fueron marcadas algunas


operaciones que no modificaron las filas correspondientes y que en la práctica no hace falta indicar.

1.2.3. Unicidad de la forma equivalente reducida


Para evitar una demostración engorrosa con sistemas generales y subı́ndices molestos, daremos
una justificación contundente acerca de la unicidad de la matriz reducida equivalente con situaciones
particulares.
Analicemos
 los siguientes sistemas de ecuaciones lineales:

 x 1 +a 12 x2 +a14 x4 +a16 x6 +a18 x8 = 0
x +a x +a x +a28 x8 = 0


 3 24 4 26 6
Sa x5 +a36 x6 +a38 x8 = 0
x 7 +a48 x8 = 0




0 =0


 1
 x +b x
12 2 +b x
14 4 +b x
15 5 +b x
16 6 = 0
x3 +b24 x4 +b25 x5 +b26 x6 =0



Sb x7 =0
x 8 =0




0 =0



 x 1 +c x
12 2 +c x
14 4 +c x
16 6 +c 18 8 = 0
x
x3 +c24 x4 +c26 x6 +c28 x8 = 0



Sc x5 +c36 x6 +c38 x8 = 0
x7 +c48 x8 = 0




0 =0

14 CAPÍTULO 1. AFINANDO TEMAS

Estos tres sistemas de 8 incógnitas ya están reducidos. Observemos que Sa tiene un uno principal en
la 5o columna, cosa que no tiene Sb . En tal situación, es fácil construir una solución de Sb que no es
solución de Sa de la siguiente forma:

(−b15 ; 0; −b25 ; 0; 1; 0; 0; 0)

Basta reflexionar unos minutos acerca de como se construyó esta solución para convencerse de que si dos
sistemas reducidos no tienen los unos principales en las mismas posiciones no pueden ser equivalentes.

Observación 1. Si AR y A0R son dos matrices reducidas equivalentes por filas a A, entonces AR y
A0R tienen los unos principales en las mismas posiciones.

Sa y Sc tienen los unos principales en las mismas posiciones como indica la observación anterior.
Tomemoslos como equivalentes. Centremos nuestra atención en alguna columna que no corresponda a
un uno principal, por ejemplo la 6o . Puedo construirme la siguiente solución de Sa :

(−a16 ; 0; −a26 ; 0; −a36 ; 1; 0; 0)

Por ser Sa y Sc sistemas equivalentes, también tiene que ser solución de Sc y al reemplazar obtenemos:

−a16 +c16 = 0 ⇒ a16 = c16


−a26 +c26 = 0 ⇒ a26 = c26
−a36 +c36 = 0 ⇒ a36 = c36
0 =0
0 =0

De forma que tienen la 6o columna idéntica. Por supuesto que podriamos proceder de manera similar
con cualquier otra columna que no contenga un uno principal.
Se puede razonar de la misma forma que lo hemos hecho con cualquier par de sistemas reducidos
equivalentes, concluimos que:

Observación 2. Si A ∈ Cn×m , la matriz reducida AR equivalente por filas a A es única.

Observación 3. Si A es equivalente por filas a I, entonces A no tiene filas nulas.

Observación 4. Si dos sistemas lineales equivalentes tienen la misma cantidad de ecuaciones, enton-
ces tienen la misma matriz reducida.

1.2.4. Tipos de sistemas de ecuaciones lineales


Entendemos por incompatibilidad de las ecuaciones de un sistema, aquella situación en la cual
no hay soluciones de todas las ecuaciones de forma simultanea, por ejemplo el siguiente sistema es
trivialmente incompatible: 
x1 + x2 = 2
x1 + x2 = 3
En caso contrario, decimos que las ecuaciones son compatibles. Si la cantidad de soluciones del
sistema es única, cada incógnita toma un valor univocamente determinado como en el siguiente
sistema: 
 x1 =2
x2 = 3
0 =0

1.2. SISTEMAS DE ECUACIONES LINEALES 15

Si el sistema admite infinitas soluciones, estas quedarán expresadas en función de parámetros y el


valor de las incógnitas no tomará un valor determinado como en el siguiente ejemplo:

  x1 = 2 −3x2 +6x4
x1 +3x2 −6x4 = 2
⇒ x3 = 3 −3x4
x3 +3x4 = 3
x2 ; x4 ∈ R

Sabemos que para resolver sistemas de ecuaciones lineales del tipo A · X = b, debemos llevar mediante
operaciones elementales por filas la matriz ampliada (A|b) a la forma reducida, la cual es única. Se
dan solo las tres situaciones descriptas:
I b0
 
o I b0

1. La matriz reducida equivalente toma la forma
O 0
en este caso, el sistema tiene una única solución y el sistema es del tipo compatible determi-
nado.
AR b0
 
o AR b0

2. La matriz reducida equivalente toma la forma
O 0
donde AR es una matriz reducida distinta de I y sin filas de ceros, en este caso, el sistema tiene
infinitas soluciones y el sistema es del tipo compatible indeterminado.

3. La matriz reducida equivalente tiene un uno principal en la última columna y en este caso el
sistema es incompatible.

Observación 5.

1. Un sistema de ecuaciones cuadrado A · X = b es compatible determinado si y solo si A es


equivalente por filas a I.

2. Un sistema de ecuaciones lineales con menos ecuaciones que incógnitas no puede ser compatible
determinado.

3. Un sistema de ecuaciones lineales homogéneo con menos ecuaciones que incógnitas siempre es
compatible indeterminado.

4. Si A es equivalente por filas a I y X = b0 es la solución de A · X = b, entonces al reducir por


filas la matriz (A|b) se obtiene (I|b0 ).

1.2.5. Algunas variantes


Si consideramos que x1 ; · · · ; xm son incógnitas, las tres situaciones siguientes representan el mismo
sistema de ecuaciones escrito de distinta forma:


 a11 x1 + · · · a1m xm = b1
 a21 x1 + · · · a2m xm = b2

..


 .
an1 x1 + · · · anm xm = bn

     
a11 ··· a1m x1 b1
 a21 ··· a2m   x2   b2 
· =
     
 .. .. .. 
 .   .   . 
an1 + · · · anm xm bn
16 CAPÍTULO 1. AFINANDO TEMAS

       
a11 a12 a1m b1
 a21   a22   a2m   b2 
x1 ·   + x2 ·   + · · · + xm ·  =
       
.. .. .. .. 
 .   .   .   . 
an1 an2 anm bn
| {z }
Combinación lineal de las columnas de A
Esta última interpretación será crucial en este curso, de hecho llamaremos combinación lineal en este
caso de las columnas de A a una cuenta como la indicada. Podemos decir que el sistema de ecuaciones
lineales A · X = b es compatible sii b es una combinación lineal de las columnas de A. Más adelante
formalizaremos el tema.
Consideremos ahora el sistema de ecuaciones lineales

A·X =B

donde A ∈ Cn×m , X ∈ Cm×r y B =∈ Cn×r . Sean b1 ; · · · ; br las columnas de B, esto es B = (b1 · · · br )


y X1 ; · · · ; Xr las columnas de X, o sea X = (X1 · · · Xr ). Este sistema consta de n × r ecuaciones con
m × r incógnitas dispuestas de una manera muy particular ya que pueden separarse en los siguientes
subsistemas:
A · X1 = b1 , A · X2 = b2 , · · · A · Xr = br

Este es un caso particular de sistemas de ecuaciones desacoplables, en los que pueden desacoplarse
las ecuaciones de manera que las incógnitas de un grupo de ecuaciones no se mezclan con las de otro
grupo. Consideremos la situación en que A es cuadrada y equivalente por filas a I, en ese caso, al
reducir la matriz ampliada de cada subsistema por separado se obtiene:

(A|b1 ) → (I|b01 )
..
.
(A|br ) → (I|b0r )

donde b01 ; · · · ; b0r son las soluciones de cada sistema. Al ensamblar la matriz solución X, nos encontra-
mos con que es:
X = (b01 · · · b0r )

con lo cual se tiene el siguiente esquema de reducción

(A|B) → (I|X)

Veamos un ejemplo de esta situación:

El sistema
     
1 2 1 a d g j 5 1 2 0
 3 1 −2  ·  b e h k  =  5 −7 1 −5 
1 1 −3 c f i l 0 −7 −2 −4
| {z } | {z } | {z }
A X B

se puede desacoplar en los siguientes cuatro subsistemas:


1.2. SISTEMAS DE ECUACIONES LINEALES 17

           
1 2 1 a 5 1 2 1 d 1
 3 1 −2  ·  b  =  5   3 1 −2  ·  e = −7 
1 1 −3 c 0 1 1 −3 f −7
| {z } | {z } | {z } | {z } | {z } | {z }
A X1 b1 A X2 b2

           
1 2 1 g 2 1 2 1 j 0
 3 1 −2  ·  h  =  1   3 1 −2  ·  k  =  −5 
1 1 −3 i −2 1 1 −3 l −4
| {z } | {z } | {z } | {z } | {z } | {z }
A X3 b3 A X4 b4

que pueden resolverse con las siguientes reducciones:


       
1 2 1 5 1 0 0 2 1 2 1 1 1 0 0 −1
 3 1 −2 5  →  0 1 0 1   3 1 −2 −7  →  0 1 0 0 
1 1 −3 0 0 0 1 1 1 1 −3 −7 0 0 1 2
| {z } | {z } | {z } | {z }
(A|b1 ) (I|b01 ) (A|b2 ) (I|b02 )

       
1 2 1 2 1 0 0 1 1 2 1 0 1 0 0 −1
 3 1 −2 1  →  0 1 0 0   3 1 −2 −5  →  0 1 0 0 
1 1 −3 −2 0 0 1 1 1 1 −3 −4 0 0 1 1
| {z } | {z } | {z } | {z }
(A|b3 ) (I|b03 ) (A|b4 ) (I|b4 )

o con esta sola:


   
1 2 1 5 1 2 0 1 0 0 2 −1 1 −1
 3 1 −2 5 −7 1 −5  →  0 1 0 1 0 0 0 
1 1 −3 0 −7 −2 −4 0 0 1 1 2 1 1
| {z } | {z }
(A|B) (I|X)

y finalmente, la única solución es:


 
2 −1 1 −1
X= 1 0 0 0 
1 2 1 1
En el caso que A no sea equivalente por filas a I, el sistema será compatible indeterminado o incom-
patible. Tengan en cuenta que para que el sistema sea incompatible, alcanza con que al menos uno de
los subsistemas desacoplados sea incompatible, por ejemplo la siguiente matriz reducida corresponde
a un sistema incompatible:  
1 2 0 2 −1 0 −1
 0 0 1 1 2 0 3  (1.3)
0 0 0 0 0 1 0
ya que el tercer subsistema tiene por tercer ecuación 0 = 1 que no tiene solución.

1.2.6. Matriz inversa


Supongamos que tenemos dos matrices cuadradas A y B tales que A · B = I. El sistema B · X = I
puede resolverse de la siguiente manera:

B·X =I ⇒ A · B} ·X = A · I
| {z ⇒ X=A
I
18 CAPÍTULO 1. AFINANDO TEMAS

Esto demuestra que si A y B son matrices cuadradas del mismo tamaño, entonces:

A·B =I ⇔ B·A=I

El sistema A · X = I, puede resolverse reduciendo la matriz (A|I). Se dan dos situaciones:

1. A es equivalente por filas a I, con lo cual hay una única solución que se obtiene con el siguiente
esquema de reducción:
(A|I) → (I|X)

2. A no es equivalente por filas a I. En este caso, A sera equivalente a una matriz reducida con al
menos una fila de ceros, pero como no es posible obtener una fila de ceros en I por operaciones
elementales en las filas, el sistema será necesariamente incompatible ya que se dará una situación
como en (1.3).

Lo descripto recién, justifica la siguiente definición y observaciones:

Definición 1. Decimos que A ∈ Cn×n es inversible si ∃A−1 ∈ Cn×n tal que A · A−1 = I. A la
matriz A−1 la llamamos la inversa de A.

Observación 6.

1. A · A−1 = I ⇔ A−1 · A = I

2. A es inversible sii es equivalente por filas a I.

3. A−1 se puede obtener según el esquema de reducción (A|I) → (I|A−1 )

4. Si A es inversible, su inversa es única.

5. (A−1 )−1 = A

1.3. Determinantes
Asumimos que están familiarizados con el cálculo de determinantes por cofactores y las propiedades
básicas.

 
B C
Proposición 1. Si A = ∈ Cn×n es una matriz dada por bloques con B y D
O D
cuadrados, entonces
det(A) = det(B) · det(D)

Demostración

Llamaremos Bij a la matriz que resulta de eliminar la fila i y la columna j de B y Ci a la matriz que
resulta de eliminar la fila i de C.
Si B ∈ Ck×k , hagamos inducción en k.
1.3. DETERMINANTES 19

Es cierto para k = 1, basta ver el desarrollo del determinante de A por la primer columna.
Supongamos que es cierto para k − 1 y veamos que pasa en k. Desarrollemos por la primer columna:

B11 C1 B21 C2 k+1
Bk1 Ck
det(A) =b11
− b21
+ · · · + (−1) bk1

O D O D O D
Como Bij es de (k − 1) × (k − 1), puedo utilizar la hipótesis inductiva
=b11 |B11 | · |D| − b21 |B21 | · |D| + · · · + (−1)k+1 bk1 |Bk1 | · |D|
 
= b11 |B11 | − b21 |B21 | + · · · + (−1)k+1 bk1 |Bk1 | |D|
=|B| · |D|

Observación 7. Si los bloques de la diagonal son cuadrados, entonces:



B O
1.
= |B| · |D|
O D

B O
2. = |B| · |D|
C D

A11 O

A22


3. = |A11 | · |A22 | · · · |Akk |
..
.



O Akk

4. El determinante de una matriz triangular superior (o inferior) es el producto de los elementos


de la diagonal.

Recordemos también las siguientes propiedades:

|A · B| = |A| · |B|

|At | = |A|

|A| = |A|

|A∗ | = |A|

A es inversible ⇐⇒ |A| =
6 0

Si A es inversible, entonces |A−1 | = |A|−1

Si k ∈ C y A ∈ Cn×n , entonces |k · A| = k n · |A|


20 CAPÍTULO 1. AFINANDO TEMAS

Teorema 2 (Determinante de Vandermonde).

···

1 1 1 1

λ1
2 λ2 ··· λn−1 λn
λ1 λ 2 ··· λ2n−1 λ2n
2 Y
··· ··· · · · = (λj − λi )

··· ··· · · · 1≤i<j≤n

λn−2 λn−2 ··· n−2
λn−1 λn−2
1 2 n
λn−1 λn−1 ··· n−1
λn−1 λn−1
1 2 n

Demostración

Ver apéndice A.

1.4. Operando con wxMaxima


Existe una gran cantidad de excelentes apuntes de introducción a maxima, basta con googlear
introducción wxmaxima matematica. Por esa razón, nos dedicaremos a lo especı́fico del álgebra lineal,
aunque será de estilo telegráfico con lo cual corre por cuenta de ustedes una formación más profunda.
Sobre cuestiones generales, solo comentaremos que
%i es la unidad imaginaria de complejos.
%e es la base de los logaritmos naturales.
%pi es el número π.

Los finales de linea deben tener un “;” si queremos ver el resultado o un “$” si no queremos
verlo.

Los comentarios se indican de la siguiente forma: /* comentario */.

Los comandos se ejecutan con ctrl+enter o con el enter del teclado numérico.

El enter del teclado alfabético solo salta renglones.

Algunas cosas las veremos sobre la marcha. Para introducir una matriz hay dos formas, por comandos o
por cuadro de diálogo. Utilizaremos el cuadro de diálogo y los comandos se escribirán automaticamente.
Al ir al menú Algebra− > Introducir matriz, se abre un cuadro de diálogo en el cual la introducción de
una matriz puede hacerse de forma intuitiva, ustedes harian bien en explorar las distintas posibilidades
que ofrece. Por nuestro lado, mostramos la introducción de una matriz de C3×3 que hemos llamado A
y algunas operaciones:

%i1: A:matrix(
[5+3* %i,2,1],
[4,6+4* %i,3],
[1,4,4* %i]
);
 
3 %i + 5 2 1
%o1  4 4 %i + 6 3 
1 4 4 %i
1.4. OPERANDO CON WXMAXIMA 21

%i2 conjugate(A); /*conjugada*/


 
5 − 3 %i 2 1
%o2  4 6 − 4 %i 3 
1 4 −4 %i
%i3 transpose(A); /*traspuesta*/
 
3 %i + 5 4 1
%o3  2 4 %i + 6 4 
1 3 4 %i
%i4 ctranspose(A);
 /*adjunta*/ 
5 − 3 %i 4 1
%o4  2 6 − 4 %i 4 
1 3 −4 %i
%i5 ratsimp(adjoint(A));
 /*traspuesta de lamatriz de cofactores y simplificada*/
24 %i − 28 4 − 8 %i −4 %i
%o5  3 − 16 %i 20 %i − 13 −9 %i − 11
10 − 4 %i −12 %i − 18 38 %i + 10
%i6 invert(A)$ /*inversa, no se muestra el resultado debido al $ final*/
%i7 determinant(A); /*determinante*/
%o7 (3 %i + 5) (4 %i (4 %i + 6) − 12) − 2 (16 %i − 3) − 4 %i + 10
%i8 ratsimp(determinant(A)); /*determinante simplificado*/
%o8 −196

Observación: La función adjoint es la traspuesta de la matriz de cofactores, lo que nosotros


llamamos adjunta (traspuesta y conjugada) se calcula con la función ctranspose.
También podemos realizar operaciones entre matrices, introduzcamos otra matriz B y obtengamos

5 · B + B3 − A · B

%i9 B:matrix(
[2, 1, −3],
[0, 5, 7],
[1, 2, −3]
)$
%i10 ratsimp(5*B+B
 ∧ ∧ 3-A.B); 
11 − 6 %i 14 − 3 %i 9 %i − 37
%o10  17 215 − 20 %i 224 − 28 %i
21 − 4 %i 53 − 8 %i 12 %i − 62

Observación: Para la potencia de una matriz, hay que utilizar un doble ∧, con uno solo calcula las
potencias posición a posición. El producto de matrices se representa con un punto y el producto por
un escalar con un asterı́sco.
Podemos crear una matriz C = (A|B), y luego eliminarle la 2o fila y la 1o y 4o columna:

%i11 C:addcol(A,B);
22 CAPÍTULO 1. AFINANDO TEMAS

 
3 %i + 5 2 1 2 1 −3
%o11  4 4 %i + 6 3 0 5 7
1 4 4 %i 1 2 −3
%i12 submatrix(2,C,1,4);
 
2 1 1 −3
%o12
4 4 %i 2 −3

Podemos obtener la forma escalonada equivalente de C con la función triangularize y si queremos


un uno en el primer elemento no nulo de cada fila con la función echelon:

%i13 echelon(C);
1 2 %i+3 3 5 7
 
2 4 0 4 4
74 %i−47 4 %i+10 6 %i+15
%o13 0 1 58 29 58 − 38 %i+95
58

0 0 1 − 15 %i+15
98 − 3 %i−15
49
93 %i+93
98

No existe que yo sepa una función que devuelva la forma reducida equivalente (con ceros arriba de
los unos), pero podemos definir una función que lo haga, en este caso la función GJ():

%i14 GJ(X):= block([A], /*Gauss-Jordan*/


A:echelon(X),
for i:2 thru rank(A) do
for j:1 while A[i,j]=0 do
for k:1 thru (i-1) do A:rowop(A,k,i,A[k,i]),
ratsimp(A)
)$
%i15 GJ(C);
1 0 0 − 638 2842%i−812
− −1741421
%i−58 1682 %i−1624 

2842
%o15 0 1 0 1189 %i+145 1218−957 %i
− 6235 %i−1943 
5684 2842 5684
0 0 1 − 15 %i+15 98 − 3 %i−15
49
93 %i+93
98

Les queda como tarea averiguar que hacen las funciones rowop, block y las distintas formas de
utilizar el bucle for. También es posible resolver sistemas de ecuaciones lineales de la siguiente manera:

%i16 E1 : 2 ∗ x1 − 3 ∗ x2 + x3 = 3$
E2 : −3 ∗ x1 + 5 ∗ x2 + x3 = 4$
E3 : −x1 + 2 ∗ x2 + 2 ∗ x3 = 7$
solve([E1, E2, E3], [x1, x2, x3]);

solve: dependent equations eliminated: (3)


%i19 [[x1 = 27 − 8 ∗ %r1, x2 = 17 − 5 ∗ %r1, x3 = %r1]]

En este caso, el sistema resulto compatible indeterminado y las soluciones se expresan en función
del parámetro %r1.

1.5. Cuestionario
1. ¿Es cierto que si A, B ∈ Cn×n , entonces A · B = B · A?
1.5. CUESTIONARIO 23

2. ¿Es cierto que si A, B ∈ Cn×n , entonces A · B 6= B · A?

3. ¿Es cierto que si A 6= O, B ∈ Cn×n , entonces A · B = O =⇒ B = O?

4. ¿Es cierto que si A, B son matrices que pueden multiplicarse y k ∈ C, entonces k · (A · B) =


(k · A) · B = A · (k · B)?

5. Tachar la/las respuestas incorrectas. Si A, B ∈ Cn×n , entonces:

(A · B)∗ = A∗ · B ∗ (A · B)∗ = B ∗ · A∗

(A∗ )t = (At )∗ = A A∗ = A = At
(A−1 )∗ = (A∗ )−1 (A + B)∗ = A∗ + B ∗

6. ¿Es cierto que si A, B ∈ Cn×n con B inversible, entonces B −1 · A · B = A?

7. ¿Es cierto que si A, B ∈ Cn×n , entonces podemos utilizar la factorización


A2 − B 2 = (A − B) · (A + B)?

8. ¿Es cierto que si A, B, C ∈ Cn×n , entonces A · B = C · B =⇒ A = C?

9. ¿Es cierto que si A, B, C ∈ Cn×n con C inversible, entonces


A · C = C · B =⇒ A = B?

10. ¿Porque son útiles los bloques de Jordan?

11. Las operaciones elementales de Gauss ¿Solo sirven para sistemas de ecuaciones lineales?

12. ¿Porque es útil llevar la matriz ampliada a la forma reducida?

13. Tachar la/las respuestas incorrectas.

Un sistema de ecuaciones lineales con menos ecuaciones que incógnitas puede ser:
a) Compatible determinado. b) Compatible indeterminado.
c) Incompatible.
Un sistema de ecuaciones lineales homogeneo con menos ecuaciones que incógnitas puede
ser:
a) Compatible determinado. b) Compatible indeterminado.
c) Incompatible.
Un sistema de ecuaciones lineales con más ecuaciones que incógnitas puede ser:
a) Compatible determinado. b) Compatible indeterminado.
c) Incompatible.
Un sistema de ecuaciones lineales cuadrado puede ser:
a) Compatible determinado. b) Compatible indeterminado.
c) Incompatible.

14. ¿Siempre es cierto que det(A · B) = det(A) · det(B)?

15. ¿Es cierto que det(A + B) = det(A) + det(B)?

16. ¿Es cierto que det(α · A) = α · det(A)? (α ∈ R)

17. ¿Es cierto que una matriz cuadrada es inversible si y solo si es equivalente por filas a la identidad?
24 CAPÍTULO 1. AFINANDO TEMAS

18. ¿Es cierto que una matriz cuadrada es inversible si y solo si su determinante es distinto de cero?

19. ¿Es cierto que el producto de matrices inversibles es inversible? ¿y la suma?

20. ¿Es cierto que el producto de una matriz inversible y una que no lo es es inversible? ¿y la suma?

21. ¿Es cierto que el producto de matrices no inversibles no es inversible? ¿y la suma?

1.5.1. Búsqueda bibliográfica [Poo04]


¿Que son las matrices elementales, que caracterı́sticas tienen y para que sirven?

1.6. Ejercicios
Ejercicio 1 Si A, B, X ∈ Cn×n son inversibles, despejar X.
t −1 t
a) B ∗ · B −1 · X · A · A∗ = A

b) A−1 · A · (X −1 )∗ · A · B ∗ = I
∗ −1
c) B t · A−1 · X t · At · B = B −1 · A

Ejercicio 2 Calcular el producto de A y B utilizando los siguientes bloques:


 
  3 2 4 0
1 2 −2 3  0 −1 1 3 
a) A =  0 0 4 3  B=  0 0 0 −2


0 0 3 1
0 0 0 1
 
2 4 0 0
 3 2 0 0 
b) A = B =   0 0 2 −1 

0 0 3 4

Ejercicio 3 Hallar A30 para las siguientes matrices:


 
1 0 0  
3 1
a) A =  0 −1 0  b) A =
0 3
0 0 2
 
1 0 0 0 0  
 0 −1 −2 1 0 0
0 0 0  
  0 −2 1 0 
c) A =  0 0 2 0 0  d) A =  
 0 0
  0 0 −2 1 
0 3 1 
0 0 0 −2
0 0 0 0 3

Ejercicio 4 Sea N la matriz definida en (1.1) y A ∈ Cn×n . Explique como se relacionan las siguientes
operaciones con la matriz A:

a) A · N b) N t · A c) A · N t
   
3 7 3 1
Ejercicio 5 Si P = ,J= y A = P −1 · J · P , hallar A30 .
2 5 0 3
Puede utilizar el resultado obtenido en el ejercicio 3b.
1.7. PROBLEMAS 25

Ejercicio 6 Resuelva los siguientes sistemas de ecuaciones lineales llevando sus matrices ampliadas a la forma
reducida equivalente.
         
1 1 0 −3 −1
 1   1   1   3   6 
 5  + x2 ·  4  + x3 ·  2  + x4 ·  0  =  11 
a) x1 ·          

0 1 0 −3 −2
         
2 1 1 3 7
b) x1 ·  3  + x2 ·  2  + x3 ·  1  + x4 ·  0  =  6 
2 2 1 0 5

Compare los resultados y saque conclusiones.

Ejercicio 7 Resolver las siguientes ecuación matriciales:


   
1 2 1 4 1 2    
2 −1 0 1 −3 0 2 −1 5 −4 6
2 1 1 · X = 1 2 3
a)  b) ·X =
  
3 4 2 5 9
1 4 2 4 6 5

Ejercicio 8 Hallar la inversa de A utilizando el esquema de reducción de la observación 6-3 y calcular X.


   
1 −3 2 1 0 2 1
a)  −3 3 1 ·X =
  0 1 2 −2 
1 −2 1 0 3 −1 0
| {z }
A
 
  2 0 2
−2 2 3  1 1 −2 
b) X ·  −1 1 1  = 
 1 3

1 
3 −2 1
| {z } 0 −2 1
A

Ejercicio 9 Hallar el determinante de la siguiente matriz:


 
1 2 1 5 9 6 7 5 k 2 + 3 ln(5) q − 7 2
 2 1 2 r5 2 −9 k 3−k 2 −5 9 17 6 
 
 3 3 1 5 q+4 r−q 2 1 −9 −6 5 2 
 
 0 0 0 4
 −2 0 0 0 0 0 0 0 

 0 0 0 1 1 0 0 0 0 0 0 0 
 
 0 0 0 5 7 2 1 0 0 0 0 0
 

 0 0 0 12 −3 7 3 0 0 0 0 0
 

 0 0 0 3 −9 8 3 2 6 −2 4 5
 

−6 −9 −1

 0 0 0 2 4 0 3 5 8


−1
 
 0 0 0 5 1 3 0 0 3 8 2 
 
 0 0 0 0 0 5 6 0 0 0 4 0 
0 0 0 0 0 9 −1 0 0 0 0 10

1.7. Problemas
Problema 1 Hallar las corrientes del siguiente circuito.
26 CAPÍTULO 1. AFINANDO TEMAS

Problema 2 Hallar los coeficientes estequiométricos enteros mı́nimos de la siguiente reacción quı́mica:

a K2 Cr2 O7 + b HI + c HClO4 −→ d Cr(ClO4 )3 + e I2 + f H2 O + g KClO4

Problema 3 Se disponen de las aleaciones 1 y 2 de los metales A, B y C. Se quiere fundir una mezcla de
ambos para producir la aleación 3. Las composición de las tres aleaciones se muestran en la
tabla:

A B C
Aleación 1 10 % 30 % 60 %
Aleación 2 20 % 50 % 30 %
Aleación 3 12 % 40 % 48 %

Decidir si esto es posible y en que proporciones.

1.8. Respuestas a los ejercicios


Ejercicio 1 a) X = A · At · (A∗ )−1 · B t · (B ∗ )−1
b) X = At · (A∗ )−1 · B · A∗
c) X = A−1 · (At )−1 · B −1 A
 
  16 16 0 0
3 0 6 13  12 16 0 0 
Ejercicio 2 a)  0 0 0 −5  b) 
 0 0 1 −6 

0 0 0 −5
0 0 18 13
   
1 0 0 1 0 0 0 0
Ejercicio 3 a) A30 =  0 1 0   0 1 0 0 0 
0 0 230 30
 30

c) A =  0 0 2
 0 0 

 0 0 0 330 10 · 330 
0 0 0 0 330
 
4 −60 435 −2030
 0 4 −60 435 
  d ) A30 = 228 ·  
1 10  0 0 4 −60 
b) A30 = 330 ·
0 1 0 0 0 4

Ejercicio 4 a) Se corren las columnas hacia la derecha. b) Se corren las filas hacia abajo.
c) Se corren las columnas hacia la izquierda.
1.9. RESPUESTAS A LOS PROBLEMAS 27

 
101 250
Ejercicio 5 A30 = 330 ·
−40 −99
Ejercicio 6 Los dos sistemas son equivalentes con la siguiente solución:
     
x1 1 0
 x2   −2 
+t· 3 
 
 =
 x3   7   −6  t∈R
x4 0 1
       
4 −4 −1 −1 3 −2 0 0 −2
Ejercicio 7 a)  7 −5 −2 b)  2 0 + t1 ·  1 0 + t2 · 0 1 
−14 15 7 0 0 1 0 0 1
 
  −4 12 2
−5 28 −17 −7  −9 23 2 
Ejercicio 8 a)  −4 22 −13 −6  b) 
 −14 39

4 
−3 19 −10 −5
9 −24 −2
Ejercicio 9 8640

1.9. Respuestas a los problemas


Problema 1 El sistema tiene por única solución:
I1 = (11, 83 − 27, 63 j) A I2 = (0 + 0, 31 j) A I3 = (11, 83 − 27, 95 j) A

Problema 2 El sistema es compatible indeterminado y los mı́nimos coeficientes enteros son:

a = 1; b = 6; c = 8; d = 2; e = 3; f = 7; g = 2

Problema 3 No es posible obtener lo que se busca ya que el sistema queda incompatible.


28 CAPÍTULO 1. AFINANDO TEMAS
Capı́tulo 2

Espacios vectoriales

Una técnica habitual en matemática es definir una especie de “moldes” genéricos que cumplen
ciertas propiedades. De la misma forma que un molde puede rellenarse con bronce, plomo o aluminio
fundido, en estos moldes matemáticos pueden encajar objetos matemáticos de distinta naturaleza,
pero eso no importa, si encajan tendrán que cumplir las propiedades antes mencionadas de la misma
manera que en un molde artı́stico la forma del objeto no dependera del material de relleno. De esta
manera, la matemática logra abstraer y generalizar ideas independientemente del tipo de objeto que se
trate. Es habitual escuchar que la matemática es difı́cil porque es abstracta, pero esa es en realidad su
mayor virtud y uno utiliza esa abstracción de forma cotidiana sin darse cuenta como en este ejemplo
que alguna vez leı́. ¿Quien tiene un número 3 en el bolsillo? Seguro que nadie, a lo sumo tendrán un
papel con el sı́mbolo que representa al 3, el número 3 no tiene una existencia real, es una abstracción.
Uno puede tener 3 manzanas, 3 cuadernos o 3 monedas pero no un 3, el 3 es un “molde” abstracto
aplicable a distintos tipos de objetos.

3 manzanas+4 manzanas=7 manzanas


3 cuadernos+4 cuadernos=7 cuadernos
3 monedas+4 monedas=7 monedas

Nosotros abstraemos la idea y decimos:


3+4=7
Acá tenemos el molde y confiamos en el de una forma absoluta.

“Si uno dijera que en un planeta lejano hay caballos azules podrı́amos
creerlo. Pero si nos dicen que tres y cuatro caballos forman noventa y siete
caballos, sabrı́amos que es imposible.”
Jorge Luis Borges

“Es la diferencia entre probable y posible. Es probable que halla caballos


azules, pero es imposible que tres caballos azules más cuatro caballos azules
forman noventa y siete caballos azules. Esa suma es universal, y vale para
siempre, en cualquiera de los mundos reales o imaginarios.”
Ernesto Sábato

29
30 CAPÍTULO 2. ESPACIOS VECTORIALES

Las estructuras algebráicas son algunos de esos moldes a los que me refiero, en particular los espacios
vectoriales. Comenzaremos esta unidad con las estructuras algebráicas más básicas.

2.1. Grupos, anillos y cuerpos


2.1.1. Grupo

Definición 2. Sea A un conjunto no vacı́o y sobre el cual hay definida una operación binaria
que simbolizaremos con # : A × A → A. Decimos que (A, #) es un grupo o que # define sobre
A una estructura de grupo si :

1 a, b, c ∈ A ⇒ (a#b)#c = a#(b#c) (asociativa)

2 ∃e ∈ A/e#a = a#e = a ∀aA (existencia de elemento neutro)

3 ∃a0 ∈ A/a0 #a = a#a0 = e ∀aA (existencia de opuesto)

Si además la operación # es conmutativa se lo llama grupo abeliano.

El ejemplo más sencillo de grupo abeliano es el de los números enteros con la suma habitual (Z, +)
ya que la suma de enteros es asociativa, conmutativa, el 0 cumple el papel de neutro y si z ∈ Z,
z + (−z) = (−z) + z = 0, con lo cual −z cumple el papel de opuesto.
También (Q, +), (R, +) y (C, +) son grupos abelianos, basta un minuto de reflexion para darse cuenta,
y también (Q > 0, ·) y (R > 0, ·), pero no lo son (Q, ·) ni (R, ·). Hay muchos más grupos como por
ejemplo el conjunto de matrices inversibles de C2×2 con la operación de producto (no abeliano), el
conjunto de las raices n-simas de 1 con la operación de producto o el de las rotaciones con la operación
de composición. Como verán, en el “molde” de grupo caen situaciones de lo más diversas. Como este no
es un tema central de la materia, no profundizaremos demasiado, pero hay una propiedad de cualquier
grupo que es muy fácil de demostrar:

Proposición 2. Si (A, #) es un grupo, el elemento neutro es único.

Demostración

Si e y e∗ son dos elementos neutros, entonces:

e = e#e∗ (por ser e∗ elemento neutro)


= e∗ (por ser e elemento neutro)

Lo interesante de esto, es que no importa el tipo de elementos ni la operación, mientras sea un grupo
todos tienen un único elemento neutro. De esto se trata la abstracción matemática, con la menor
cantidad de esfuerzo, sacar las conclusiones más generales posibles. Otras propiedades de los grupos
son:
2.1. GRUPOS, ANILLOS Y CUERPOS 31

Propiedades 1.

1 El opuesto es único.

2 (a#b)0 = b0 #a0

3 (a0 )0 = a

4 ∀a, b, c a#b = a#c =⇒ b = c

5 a#b = a =⇒ b = e

2.1.2. Anillo

Definición 3. Sea A un conjunto sobre el cual hay definidas dos operaciones binarias A×A → A
llamadas suma + y producto ·. Decimos que (A, +, ·) es un anillo o que + y · define sobre A
una estructura de anillo si :

1 La suma define una estructura de grupo abeliano sobre A.

2 El producto es asociativo.

3 a, b, c ∈ A ⇒ a · (b + c) = a · b + a · c (distributiva a izquierda)

4 a, b, c ∈ A ⇒ (b + c) · a = b · a + c · a (distributiva a derecha)

Notación: Llamamos 0 al neutro de la suma y −a al opuesto aditivo de a.

Si además la operación de producto es conmutativa decimos que el anillo es conmutativo, y


diremos que A es un anillo con identidad, si A posee un elemento 1 6= 0 tal que

1 · a = a · 1 = a ∀a ∈ A

Algunos ejemplos de anillos conmutativos con identidad son (Z, +, ·), (Q, +, ·), (R, +, ·), (C, +, ·),
(Z[X], +, ·), (Q[X], +, ·), (R[X], +, ·) y (C[X], +, ·).
Un ejemplo de anillo no conmutativo con identidad lo forman (C2×2 , +, ·), (C3×3 , +, ·) y en general
(Cn×n , +, ·).
Demostremos una de las propiedades de los anillos:

Proposición 3. Si (A, +, ·) es un anillo y a ∈ A, entonces a · 0 = 0

Demostración

a · 0 = a · (0 + 0) = a · 0 + a · 0 =⇒ a · 0 + [−(a · 0)] = a · 0 + a · 0 + [−(a · 0)] =⇒ 0=a·0


| {z } | {z }
0 0
32 CAPÍTULO 2. ESPACIOS VECTORIALES

Como puede verse, la suma y el producto son otros moldes. Sea lo que sea el neutro de la suma que
representamos por 0, al multiplicarlo por un elemento del anillo da 0. Otras propiedades de los anillos
son:

Propiedades 2.

1 (−a) · b = a · (−b) = −(a · b)

2 (−a) · (−b) = a · b

2.1.3. Cuerpo

Definición 4. Sea (A, +, ·) un anillo conmutativo con identidad. Decimos que (A, +, ·) es un
cuerpo si:
∃a−1 ∈ A tal que a−1 · a = a · a−1 = 1 (∀a 6= 0 ∈ A)

Los conjuntos (Q, +, ·), (R, +, ·) y (C, +, ·) son los cuerpos más habituales. Ninguno de los otros anillos
mencionados antes son cuerpos. Veamos un ejemplo más extraño:

Ejemplo 1. Todos estamos familiarizados con las siguientes tablas de la lógica proposicional:

p q ∧ ∨
V V V V
V F F V
F V F V
F F F F

Si consideramos al conjunto A = {V ; F }, a ∨ como una suma y a ∧ como un producto, podemos


construir las siguientes tablas de doble entrada:

+ V F · V F
V V V V V F
F V F F F F

Resulta que (A, ∨, ∧) tienen estructura de cuerpo, donde 0 = F y 1 = V .

2.2. Vectores
¿Como es que a un matemático se le ocurren estos moldes? Generalmente se inspiran en cosas
conocidas, por ejemplo, ¿Que caracterı́sticas tiene Z que no tiene N? ¿que caracterı́sticas tienen Q, R
y C que no tiene Z? ¿que propiedades tienen las operaciones de esos conjuntos?
En particular nos interesa la estructura de espacio vectorial y utilizaremos como base de lo que
estamos definiendo, el concepto geométrico de vector. Recordemos que un vector es un segmento
orientado que representamos por una flecha cuyas caracterı́sticas son:
2.2. VECTORES 33

Su norma o módulo: Representado por la longitud de la flecha.

Su dirección: Representado por el segmento.

Su sentido: Representado por la punta de la flecha.

dirección
Sentido

Norma o módulo

Los vectores se suman con la conocida regla del paralelogramo, que puede extenderse a la regla de la
poligonal.

Cuando se suman dos vectores de igual módulo y dirección, pero sentido opuesto, obtenemos una
“flecha” con longitud nula y sin dirección. A ese resultado lo llamamos el vector nulo, de esta forma
tenemos que en la suma de vectores existe un neutro de la suma y opuesto aditivo para cada vector.
Además es fácil ver que la suma es conmutativa y asociativa. O sea que los vectores geométricos con
la operación de suma descripta forman un grupo abeliano.
El producto de un vector por un escalar (número real), produce el cambio en la longitud del mismo sin
cambiar la dirección pero cambiando el sentido en caso que el escalar sea negativo. Lo ejemplificamos
en la siguiente figura:
34 CAPÍTULO 2. ESPACIOS VECTORIALES

A=1·A

2·A
3·A

-1.A=-A
-2·A

-3·A

Asumiendo que las letras minúsculas representan escalares y las mayúsculas vectores, este producto
por un escalar cumple las siguientes propiedades:
k · (A + B) = k · A + k · B

(k1 + k2 ) · A = k1 · A + k2 · A

(k1 · k2 ) · A = k1 · (k2 · A)

1·A=A
Al llevar estos conceptos al campo de la geometrı́a analı́tica, utilizamos pares o ternas ordenadas para
representar los vectores fijos al origen.

De esta manera, abstraemos la idea de vector geométrico y lo representamos por pares o ternas
ordenadas. Desde este punto de vista, las operaciones de suma de vectores y producto por un escalar
se definen como:
Pares ordenados
Suma de vectores (x1 ; y1 ) + (x2 ; y2 ) = (x1 + x2 ; y1 + y2 )
Producto por un escalar k · (x; y) = (k · x; k · y)

Ternas ordenadas
2.2. VECTORES 35

Suma de vectores (x1 ; y1 ; z1 ) + (x2 ; y2 ; z2 ) = (x1 + x2 ; y1 + y2 ; z1 + z2 )


Producto por un escalar k · (x; y; z) = (k · x; k · y; k · z)

Estas descripciones analı́ticas de los vectores en el plano (R2 ) y en el espacio (R3 ), respetan todas las
propiedades e interpretaciones geométricas vistas anteriormente.
La primer pregunta que surge es: ¿Los pares ordenados son puntos o vectores? La verdad es que
son pares ordenados y responden a las operaciones antes definidas. Si nos conviene que sean puntos,
serán puntos, y si nos conviene pensarlos como vectores, los pensaremos como vectores. Incluso en una
misma situación podremos pensarlos como puntos y vectores simultaneamente. Los pares ordenados
(y las ternas) son moldes donde cuadran tanto los puntos como los vectores.Veamos un ejemplo:

Ejemplo 2. Sean en R2 (o en R3 ) los puntos A = (a1 ; a2 ) y B = (b1 ; b2 ). ¿Como encontramos


las componentes del punto medio M ? Veamos la siguiente figura donde O representa el origen de
componentes:

En principio nuestro problema trata sobre puntos, pero interpretamos los pares ordenados A y B
1
como vectores y observamos que (A + B) coincide con el punto medio M , esto es:
2
 
1 1 1
M = (A + B) = (a1 + b1 ); (a2 + b2 )
2 2 2

Hemos utilizado a los pares ordenados como puntos y vectores en el mismo problema.

La segunda pregunta es: ¿Porque no en R4 ? Si la geometrı́a analı́tica permite prescindir del dibujo,
trabajando solo con pares o ternas ordenadas y las operaciones definidas ¿No es cierto que si definimos
operaciones análogas en R4 estarı́amos haciendo practicamente lo mismo? Alguien podrı́a decir que en
realidad no existe un espacio fı́sico de cuatro dimensiones espaciales y es cierto, pero matematicamente
la pregunta es válida ya que en matemática no hace falta que algo exista en la realidad para que tenga
sentido. Y si tiene sentido en R4 , ¿porque no en R5 , R6 y en general en Rn ? ¿y en Rr×m ? Si solo
son n−uplas dispuestas en forma rectangular. De la misma manera podrı́amos considerar Cn y Cn×n
¿Hasta donde podemos llevar esta idea?
36 CAPÍTULO 2. ESPACIOS VECTORIALES

Justamente lo que queremos, es definir el molde de vector, donde por supuesto tienen que encajar
todas las situaciones anteriores. Para eso, hace falta abstraer lo mı́nimo que deben cumplir esos objetos
con sus operaciones y es lo que veremos a continuación.

2.3. Espacios vectoriales (ev)

Definición 5. Sea K un cuerpo y sea (V; +) un grupo abeliano donde existe una operación
· : K × V −→ V para todo elemento de K y V. Decimos que V es un K espacio vectorial (K-ev) o
que V tiene estructura de K-ev si ∀k1 ; k2 ∈ K y ∀v1 ; v2 ∈ V se cumplen las siguientes propiedades:

1 k1 · (v1 + v2 ) = k1 · v1 + k1 · v2

2 (k1 + k2 ) · v1 = k1 · v1 + k2 · v1

3 (k1 · k2 ) · v1 = k1 · (k2 · v1 )

4 1 · v 1 = v1

A los elementos de V los llamaremos vectores.

Noten que en ningún momento de la definición se hace referencia al tipo de objetos que componen
a V ni a K, ni el significado que tienen las dos operaciones, es una definición que deja mucha libertad.
Queda a cargo de ustedes, revisar que los vectores geométricos, Rn , Rn×m , Cn y Cn×m cumplen todo
lo que se necesita para ser un R-ev o un C-ev según corresponda. Ustedes podrán revisar que los
siguientes conjuntos también son ev:
1 Q[x], R[x] y C[x] con la suma y producto por un número habitual son Q-ev, R-ev y C-ev
respectivamente.

2 Rk [x]=Conjunto de todos los polinomios con coeficientes reales de grado k o menor junto con el
polinomio nulo.
Es un R-ev con la suma y producto por un número habitual.

3 Ck [x]=Conjunto de todos los polinomios con coeficientes complejos de grado k o menor junto
con el polinomio nulo.
Es un C-ev con la suma y producto por un número habitual.

4 C[a; b] = Conjunto de todas las funciones continuas en el intervalo [a; b]


Es un R-ev con la suma y producto por un número habitual.

5 C k [a; b] = Conjunto de todas las funciones con derivada k-sima continua en el intervalo [a; b]
Es un R-ev con la suma y producto por un número habitual.
Z b
2
6 L [a; b] = Conjunto de todas las funciones f (x) tales que |f (x)|2 dx < ∞
a
Es un R-ev con la suma y producto por un número habitual.
Un mismo conjunto puede tener mas de una estructura de ev modificando las operaciones, por ejemplo:
7 Si A = (3; 5), entonces R2 con las operaciones v1 +A v2 = v1 + v2 − A y k ·A v = k · (v − A) + A
tiene estructura de R-ev donde A es el elemento neutro de la suma. Lo mismo sucede si A es
cualquier otro elemento fijo de R2 .
2.3. ESPACIOS VECTORIALES (EV) 37

Los siguientes ejemplos no son ev y ustedes deberán explicar porqué:


1 Los polinomios de grado n con coeficientes reales con la suma y producto por un escalar habitual.
2 R2 con las operaciones (x1 ; x2 ) + (y1 ; y2 ) = (x1 + y1 ; 0) y el producto por un escalar habitual.
3 R2 con las operaciones de suma habitual y k · (x; y) = (k · x; 0).

Notación: Utilizaremos letras en negrita para representar a los vectores de


V y letra normal para los elementos de K. Utilizaremos 0 para representar
al neutro aditivo (vector nulo) de V y 0 para el neutro aditivo de K.
Definimos también la resta de vectores:

∀v, w ∈ V, v − w := v + (−w)

Todos los espacios vectoriales cumplen las siguientes propiedades:

Propiedades 3. Sea V un K-ev. Si v, w ∈ V y k ∈ K, entonces:


1 v + w = v =⇒ w = 0

2 0·v =0

3 k·0=0

4 (−1) · v = −v

5 Si k · v = 0, entonces k = 0 o v = 0.

6 k · (v − w) = k · v − k · w

Demostración

1 v+w =v =⇒ −v + (v + w) = −v + v =⇒ (−v + v) +w = 0 =⇒ w=0


| {z }
0

2 Demostraremos que 0 · v es el neutro aditivo de V y dado que ese neutro es único, deberá ser 0.
v+0·v = 1 · v + 0 · v (Por 4 de ev)
= (1 + 0) · v (Por 2 de ev)
= 1·v (Por ser 0 el neutro aditivo de K)
= v (Por 4 de ev)
3 Utilizaremos una estrategia similar al anterior:
k · v + k · 0 = k · (v + 0)
= k·v
4 Probaremos que (−1) · v actúa de opuesto y la unicidad del mismo completa la demostración:
v + (−1) · v = 1 · v + (−1) · v
= [1 + (−1)] ·v
| {z }
0
= 0
38 CAPÍTULO 2. ESPACIOS VECTORIALES

5 Si k = 0, no hay nada que demostrar, supongamos pues que k 6= 0. Por ser k 6= 0 un elemento
de un cuerpo, tiene inverso multiplicativo k −1 , con lo cual:
k · v = 0 ⇒ k −1 · (k · v) = k −1 · 0 ⇒ (k −1 · k) ·v = 0 ⇒ v = 0
| {z }
1

6 A cargo de ustedes.

Daremos a continuación la siguiente definición:

Definición 6. Sea V un K-ev, y sean v1 , v2 , · · · vr ∈ V y k1 , k2 , · · · kr ∈ K.


Si v = k1 · v1 + k2 · v2 + · · · + kr · vr , decimos que v es una combinacion lineal (c.l.) de
v1 , v2 , · · · vr . Al conjunto de todas las c.l. de v1 , v2 , · · · vr lo llamaremos conjunto generado
por v1 , v2 , · · · vr y lo representaremos como:

gen{v1 , v2 , · · · vr }

De ahora en más, consideraremos los ev con sus operaciones habituales salvo que indiquemos lo con-
trario.

2.4. Subespacios

Definición 7. Sea S un subconjunto de un K-ev V. Decimos que S es un subespacio de V, si S


tiene estructura de K-ev con las mismas operaciones de suma y producto por un escalar.

Observación 8. Si S es un subespacio de V, entonces 0 ∈ S

Esto significa que un subespacio es un ev metido dentro de otro. Para demostrar que un subconjunto
S de V es un subespacio, solo hace falta demostrar que sus elementos cumplen dos propiedades como
lo demuestra la siguiente proposición:

Proposición 4. Sea S ⊂ V. S 6= ∅ es un subespacio de V si y solo si se cumplen las siguientes


propiedades:

1 v∈S ⇒ k·v ∈S

2 v1 , v 2 ∈ S ⇒ v1 + v2 ∈ S

Demostración

Si S es un subespacio de V, en particular tiene estructura de K-ev y tendrá que cumplir las dos
propiedades. Ahora tenemos que demostrar que si cumple las dos propiedades, es un subespacio.
Si v ∈ S, entonces 0 · v = 0 ∈ S. De esta forma, el vector nulo está necesariamente en S.
2.4. SUBESPACIOS 39

Si v ∈ S, entonces (−1) · v = −v ∈ S. Y también el opuesto de los vectores de S están en S.


Al ser la suma, la misma que en V, será asociativa y conmutativa. La propiedad 2, garantiza que la
operacion de suma cumpla + : S × S −→ S con lo cual S es un grupo abeliano.
La propiedad 1 garantiza que la operación de producto por un escalar cumpla · : K × S −→ S. Y
como esta operación es la misma que en V, cumplira las propiedades de la definición 5, con lo cual S
tiene estructura de K-ev y será un subespacio de V.

Ejemplo 3.

1 Hay dos subespacios triviales de todo ev V que son:

{0} =Subesacio nulo. Ya que k · 0 = 0 y 0 + 0 = 0


V =El espacio completo.

2 En Rn , Rn×m , Cn y Cn×m , los subconjuntos correspondientes a soluciones de sistemas de


ecuaciones lineales y homogéneos de sus componentes corresponden a subespacios ya que
estos sistemas siempre pueden representarse matricialmente de la forma A · X = O, con lo
cual:

Si X son las componentes de un elemento de S, entonces

A·X =O =⇒ k · (A · X) = k · O
=⇒ A · (k · X) = O
=⇒ k · X son las componentes de un elemento de S.

Si X1 y X2 son componentes de dos elementos de S, entonces

A · X1 = O y A · X2 = O =⇒ A · X1 + A · X2 = O
=⇒ A · (X1 + X2 ) = O
=⇒ (X1 + X2 ) son las componentes de un elemento de S.

3 Si v1 , v2 , · · · vr ∈ V, entonces S =gen{v1 , v2 , · · · vr } es un subespacio de V ya que:

v ∈ S =⇒ v = k1 · v1 + k2 · v2 + · · · + kr · vr
Multiplicando miembro a miembro por k obtenemos:
k · v = (k · k1 ) · v1 + (k · k2 ) · v2 + · · · + (k · kr ) · vr , y al ser este último una c.l. de
v1 , v2 , · · · vr , estará en S.
v1 = k1 · v1 + k2 · v2 + · · · + kr · vr
v1 , v2 ∈ S =⇒
v2 = h1 · v1 + h2 · v2 + · · · + hr · vr
Sumando miembro a miembro obtenemos:
v1 + v2 = (k1 + h1 ) · v1 + (k2 + h2 ) · v2 + · · · + (kr + hr ) · vr y al ser este último una
c.l. de v1 , v2 , · · · vr , estará en S.
40 CAPÍTULO 2. ESPACIOS VECTORIALES

2.5. Dependencia lineal y dimensión

Definición 8. Sea V un K-ev. Decimos que el conjunto de vectores {v1 , v2 , · · · vr } ⊂ V es li-


nealmente dependiente (l.d.) si contiene al 0 o si alguno de esos vectores puede escribirse
como c.l. de los otros, en caso contrario decimos que el conjunto es linealmente independiente
(l.i.).
En caso que el conjunto no tenga una cantidad finita de vectores, será l.i. si todo subconjunto
finito de vectores es l.i.
De ahora en más, cuando escribamos {v1 , v2 , · · · vr }, nos referiremos a conjuntos con una can-
tidad finita de vectores.

Observación 9. Un conjunto l.i. no puede contener al 0.

Proposición 5. Si V es un K-ev, entonces el conjunto {v1 , v2 , · · · vr } ⊂ V es linealmente


independiente si y solo si el sistema

α1 · v1 + α2 · v2 + · · · + αr · vr = 0

admite como única solución a la solución trivial

α1 = 0; α2 = 0; · · · ; αr = 0

Demostración

=⇒

Sea el conjunto l.i. y la solución al sistema distinta a la trivial, y supongamos sin pérdida de generalidad
que α1 6= 0. En ese caso, podrı́amos despejar v1 de la siguiente forma:
α2 α3 αr
v1 = − · v1 − · v2 − · · · − · vr
α1 α1 α1
con lo cual el sistema serı́a l.d. lo cual es absurdo.
⇐=
Por el contrarecı́proco, sea el conjunto l.d. y sin pérdida de generalidad supongamos que

v1 = k2 · v2 + k3 · v3 + · · · + kr · vr =⇒ (−1) · v1 + k2 · v2 + k3 · v3 + · · · + kr · vr = 0

con lo cual k1 = −1 y la solución es distinta de la trivial.

Proposición 6.
Si {v1 , v2 , · · · vr } son l.i. y w ∈
/ gen = {v1 , v2 , · · · vr }, entonces {v1 , v2 , · · · vr , w} son l.i.
Demostración Se propone como ejercicio.
2.5. DEPENDENCIA LINEAL Y DIMENSIÓN 41

En todo subespacio (recordemos que un ev es un subespacio de si mismo) es posible definir un


conjunto de vectores que lo genere, el caso trivial es considerar todos los vectores del subespacio. Surge
la pregunta ¿Existe un conjunto de generadores de un subespacio con la mı́nima cantidad de vectores?
La respuesta es que en algunos caso si y es lo que analizaremos a continuación.
Observemos que R3 = gen{(1; 0; 0); (0; 1; 0); (0; 0; 1); (1; 2; 3)} ya que cualquier terna
(x1 ; x2 ; x3 ) ∈ R3 puede escribirse como:

(x1 ; x2 ; x3 ) = (x1 − 2) (1; 0; 0) + (x2 − 4) (0; 1; 0) + (x3 − 6) (0; 0; 1) + 2 (1; 2; 3)

Tambien vemos que el conjunto es l.d. ya que (1; 2; 3) = 1 (1; 0; 0) + 2 (0; 1; 0) + 3 (0; 0; 1), con lo cual:

(x1 ; x2 ; x3 ) =(x1 − 2) (1; 0; 0) + (x2 − 4) (0; 1; 0) + (x3 − 6) (0; 0; 1) + 2 (1; 2; 3)


=(x1 − 2) (1; 0; 0) + (x2 − 4) (0; 1; 0) + (x3 − 6) (0; 0; 1)+
 
+ 2 1 (1; 0; 0) + 2 (0; 1; 0) + 3 (0; 0; 1)
=x1 (1; 0; 0) + x2 (0; 1; 0) + x3 (0; 0; 1)

O sea que gen{(1; 0; 0); (0; 1; 0); (0; 0; 1); (1; 2; 3)} = gen{(1; 0; 0); (0; 1; 0); (0; 0; 1)}
Esto fue posible porque el conjunto era l.d., en general sucede lo siguiente:

Proposición 7. Si en un ev V se cumple w = α1 v1 + · · · + αr vr , entonces:

gen{v1 , v2 , · · · vr , w} = gen{v1 , v2 , · · · vr }
| {z } | {z }
G1 G2

Demostración

G1 ⊃ G2

Si v ∈ G2 , entonces

v =β1 v1 + · · · + βr vr
=β1 v1 + · · · + βr vr + 0 w

con lo cual v ∈ G1

G1 ⊂ G2

Si v ∈ G1 , entonces

v =γ1 v1 + · · · + γr vr + δ w
 
=γ1 v1 + · · · + γr vr + δ α1 v1 + · · · + αr vr
=(γ1 + δ α1 ) v1 + · · · + (γr + δ αr ) vr

con lo cual v ∈ G2
42 CAPÍTULO 2. ESPACIOS VECTORIALES

Observación 10. Vemos en la demostración de G1 ⊃ G2 , que no es necesario que w sea una c.l.
de los vectores de G2 para que se cumpla:

gen{v1 , v2 , · · · vr } ⊂ gen{v1 , v2 , · · · vr , w}

También es posible demostrar la siguiente:

Proposición 8. Sea V un K-ev. Si v1 , · · · , vr ∈ V y k ∈ K, entonces:

gen{v1 ; · · · ; vi ; · · · ; vj ; · · · ; vr } = gen{v1 ; · · · ; vj ; · · · ; vi ; · · · ; vr }
gen{v1 ; · · · ; vi ; · · · ; vj ; · · · ; vr } = gen{v1 ; · · · ; vi + k vj ; · · · ; vj ; · · · ; vr }
gen{v1 ; · · · ; vi ; · · · ; vr } = gen{v1 ; · · · ; k vi ; · · · ; vr } con k 6= 0

Demostración Queda como ejercicio.

O sea que los conjuntos de generadores con menos vectores deben ser l.i., lo cual motiva la siguiente
definición:

Definición 9. Sea S un subespacio de un K-ev. Llamamos base de S a cualquier conjunto de


generadores de l.i. del mismo.

Observación 11. El subespacio nulo {0} no tiene base.

Proposición 9. Sea S un subespacio de un K-ev. Si B = {v1 , v2 , · · · vr } es una base de S y


v ∈ S, entonces el sistema
v = α1 v1 + · · · + αr vr
admite una única solución.

Demostración

Supongamos que las siguientes son soluciones:

v = α1 v1 + · · · + αr vr

v = β1 v1 + · · · + βr vr
Entonces, restando miembro a miembro obtenemos:

0 = (α1 − β1 ) v1 + · · · + (αr − βr ) vr
2.6. REFLEXIONANDO SOBRE LO VISTO 43

y como el conjunto es l.i. por ser una base, obtenemos:

(α1 − β1 ) = 0; · · · ; (αr − βr ) = 0

con lo cual llegamos a que


α1 = β1 ; · · · ; αr = βr
o sea que son la misma solución.

Teorema 3. (Teorema fundamental de la dimensión)


Si S es un subespacio de un K-ev, toda base de S tiene el mismo número de vectores, a ese número
lo llamamos la dimensión de S y escribimos dim(S).

Corolario. Sea V un K-ev y S un subespacio. Si dim(S) = r < ∞ y B 0 = {w1 , · · · , wr } ⊂ S son


l.i., entonces B 0 es una base de S.

Demostración Ver apendice B

Este último es un resultado central del álgebra lineal. Hasta ahora hemos definido una serie de
conceptos necesarios como
Espacio vectorial Subespacio
Combinación lineal Dependencia lineal
Conjunto de generadores Base
Dimensión
y hemos analizado sus propiedades. Ha llegado el momento de comenzar a interpretarlos y utilizarlos
en situaciones concretas.

2.6. Reflexionando sobre lo visto


2.6.1. Tipos de subespacios en R3
Consideremos como primera aproximación el espacio R3 .
Sabemos que B = {(1; 0; 0); (0; 1; 0); (0; 0; 1)} es una base del mismo, con lo cual dim(R3 ) = 3, y por el
| {z } | {z } | {z }
e1 e2 e3
corolario del teorema fundamental de la dimensión, cualquier conjunto de tres vectores l.i. de R3 serán
una base del mismo. A la base B = {e1 ; e2 ; e3 } la llamamos la base canónica de R3 y la notaremos
con E.
En R3 hay cuatro tipos de subespacios posibles:
Los dos subespacios triviales, el nulo con dimensión 0 y todo R3 con dimensión 3.

Subespacios de dimensión 1 con una base del tipo B = {v}, con v 6= 0. Los elementos del
subespacio tendrán la forma t · v y formarán una recta que pasa por el origen.

Subespacios de dimensión 2 con una base del tipo B = {v1 ; v2 }, donde ninguno de esos vectores
puede ser obtenido multiplicando al otro por un escalar pues en ese caso serı́an l.d. Los elementos
del subespacio tendrán la forma t1 · v1 + t2 · v2 y formarán un plano que pasa por el origen.
44 CAPÍTULO 2. ESPACIOS VECTORIALES

z z

Un subespacio de
Dimensión 1 en R3
Es una recta que v1 Un subespacio de
v pasa por el origen. Dimensión 2 en R3
v2 Es un plano que
pasa por el origen.
y x y
x

Hemos mencionado más de una vez que E = {e1 ; e2 ; e3 } es una base de R3 . Esto es fácil de ver porque
generan el espacio y son l.i. ya que

α1 e1 + α2 e2 + α3 e3 = (0; 0; 0) =⇒ α1 = α2 = α3 = 0

¿Pero como determinamos si {(2; 1; 3); (3; 1; 2); (1; 1; 4)} o {(3; 2; 0); (4; 0; 1); (−1; 2; 3)} son l.i.?
Hay dos maneras habituales:

2.6.2. Determinación de la dependencia lineal


1 Utilizando la proposición 5.
Veamoslo con el primer conjunto. Para esto planteamos:

α1 (2; 1; 3) + α2 (3; 1; 2) + α3 (1; 1; 4) = (0; 0; 0) (2.1)

Que es lo mismo que      


2 3 1 α1 0
1 1 1 · α2  = 0
3 2 4 α3 0
y reduciendo la matriz por filas se llega a

1 23 12
 
0 1 −1
0 0 0

que corresponde a un sistema con infinitas soluciones, o sea que el primer conjunto es l.d.
En definitiva, se trata de analizar el sistema homogeneo asociado con la matriz cuyas columnas
son los vectores del conjunto.
Esta técnica permite además decidir cual de los tres vectores puede descartarse del conjunto.
Efectivamente, en el último sistema:
3 1
α1 + α2 + α3 = 0
2 2
α2 − α3 = 0

Cualquiera de los 3 vectores puede ser despejado de la ecuación 2.1 como c.l. de los demás ya
que todos los αi pueden ser 6= 0 en alguna solución particular. Si desechamos por ejemplo el
tercer vector, tenemos gracias a la proposición 7 que:

gen{(2; 1; 3); (3; 1; 2); (1; 1; 4)} = gen{(2; 1; 3); (3; 1; 2)}
2.6. REFLEXIONANDO SOBRE LO VISTO 45

Eliminando α3 del sistema anterior queda:


3
α1 + α2 = 0
2
α2 = 0
Que es compatible determinado, con lo cual los primeros dos vectores forman un conjunto l.i.
Si S = gen{(2; 1; 3); (3; 1; 2); (1; 1; 4)}, entonces B = {(2; 1; 3); (3; 1; 2)} es una base de S.
Hemos extraido una base del conjunto de generadores.
Para el segundo conjunto la matriz a analizar queda:
 
3 4 −1
2 0 2 
0 1 3
que por operaciones por filas queda:  
2 0 2
0 8 −8
0 0 32
que corresponde a un sistema cuya única solución es la trivial. Resulta que el conjunto es l.i.
Por el corolario del teorema fundamental de la dimensión resulta que
B = {(3; 2; 0); (4; 0; 1); (−1; 2; 3)} es una base de R3 .
Noten que no hace falta llegar a la matriz reducida equivalente, alcanza con llegar a una matriz
en la cual uno pueda decidir si el sistema homogeneo correspondiente tiene solución única o
infinitas.
2 Utilizando la proposición 8
Si ponemos a los vectores del conjunto como filas de una matriz, la proposición 8 nos permite
utilizar las operaciones elementales de Gauss por filas sin cambiar lo que generan esas filas.
Además es fácil comprender que las filas no nulas de una matriz escalonada son l.i.
En el primer conjunto, por operaciones elementales tenemos que:
   
2 1 3 2 1 3
3 1 2 −→ 0 −1 −5
1 1 4 0 0 0
No hay duda que el conjunto es l.d. ya que
gen{(2; 1; 3); (3; 1; 2); (1; 1; 4)} = gen{(2; 1; 3); (0; −1; −5)}
| {z }
base de S

También podemos mejorar la base reduciendo la matriz por completo, obteniendo:


 
1 0 −1
0 1 5  −→ Base de S = {(1; 0; −1); (0; 1; 5)}
0 0 0

Para el segundo ejemplo, la cosa es más sencilla de interpretar, ya que por operaciones por filas
obtenemos:      
3 2 0 3 2 0 1 0 0
4 0 1 −→ 0 −8 3  −→ 0 1 0
−1 2 3 0 0 −32 0 0 1
46 CAPÍTULO 2. ESPACIOS VECTORIALES

En el primer paso ya podemos determinar que el conjunto es l.i., ya que las filas de esa matriz son
l.i., además forman una base de R3 . Pero llevandola a la forma reducida, nos queda la identidad
y obtenemos la base canónica:
E = {e1 ; e2 ; e3 }
Estas técnicas pueden ser utilizadas en Rn o Cn , donde los elementos de la base canónica serán:
ej = (0; · · · ; 0; 1; 0; · · · ; 0)
j

También podemos utilizarlo en Rn×m o Cn×m considerando la siguiente

Observación 12.
n
(a11 ; a12 ; a13 ; a21 ; a22 ; a23 );
   
a11 a12 a13 b11 b12 b13
; son l.i. ⇐⇒ o son l.i.
a21 a22 a23 b21 b22 b23 (b11 ; b12 ; b13 ; b21 ; b22 ; b23 )

Que puede ser extendida a cualquier tamaño de matriz o cualquier cantidad de vectores, como en el
siguiente:

       
2 1 −2 1 2 3 2 5
Ejemplo 4. Sea S = gen ; ; ; . Hallar una base de S.
1 −3 0 3 2 −3 3 −3
Resolución. Construimos vectores con las filas de las matrices, los ponemos como filas de otra matriz
y la reducimos:
1 0 14 − 23
   
2 1 1 −3
−2 1 0 3  0 1 1 0 
2
 2 3 2 −3 −→ 0 0 0 0 
   

2 5 3 −3 0 0 0 0
Con las dos filas no nulas construimos la base de S:
   
1 0 0 1
B= 1 3 ; 1
4 −2 2 0
Incluso por la proposición 8 podemos multiplicar la primer matriz por 4 y la segunda por 2 para obtener
una base más cómoda:    
0 4 0 0 2
B = ;
1 −6 1 0
Claramente dim(S)=2.

La base canónica de Rn×m o Cn×m estará formada por las matrices eij que son matrices de ceros salvo
en la posición ij donde tiene un uno, por ejemplo:
 
0 0 0
e23 = 0 0 1
0 0 0
En general, si pensamos en las bases canónicas es fácil deducir que :
dim(Rn ) = n dim(Cn ) = n
dim(Rn×m ) = n · m dim(Cn×m ) = n · m
2.6. REFLEXIONANDO SOBRE LO VISTO 47

2.6.3. Obtención de bases de un subespacio definido por ecuaciones y viceversa

Ejemplo
 5. Si S es el subespacio de R5 definido como los vectores cuyas componentes cumplen:
 3 x1 − x2 + x3 − x5 =0
2 x1 − x2 − 2 x3 + x4 + 2 x5 =0 , hallar una base de S.
−x1 + x2 + 5 x3 − 2 x4 − 5 x5 = 0

Resolución. Para aclarar, S es un subespacio por lo demostrado en el ejemplo 3-2.


Resolvamos el sistema llevando su matriz de coeficientes a la forma reducida:
   
3 −1 1 0 −1 1 0 3 −1 −3
 2 −1 −2 1 2 −→ 0 1 8 −3 −8
−1 1 5 −2 −5 0 0 0 0 0

Entonces la solución es:



  x1 = −3 x3 + x4 + 3 x5
x1 + 3 x3 − x4 − 3 x5 =0
=⇒ x2 = −8 x3 + 3 x4 + 8 x5
x2 + 8 x3 − 3 x4 − 8 x5 = 0
x3 ; x4 ; x5 ∈ R

De forma que las 5-uplas de S pueden escribirse como:

(x1 ; x2 ; x3 ; x4 ; x5 ) = (−3 x3 + x4 + 3 x5 ; −8 x3 + 3 x4 + 8 x5 ; x3 ; x4 ; x5 )
| {z } | {z }
x1 x2
= (−3 x3 ; −8 x3 ; x3 ; 0; 0) + (x4 ; 3 x4 ; 0; x4 ; 0) + (3 x5 ; 8 x5 ; 0; 0; x5 )
= x3 (−3; −8; 1; 0; 0) + x4 (1; 3; 0; 1; 0) + x5 (3; 8; 0; 0; 1)

Resulta que los elementos de S, son todas las combinaciones lineales de estos últimos 3 vectores, con
lo cual:
S = gen{(−3; −8; 1; 0; 0); (1; 3; 0; 1; 0); (3; 8; 0; 0; 1)}
Como esos vectores son l.i. (pruebenlo), además son una base de S.

Ejemplo 6. Si S = gen{(−2; −5; 1; 1; 0); (2; 5; 0; −1; 1); (1; 3; 1; 1; 1)}, hallar un sistema de ecuaciones
para las componentes de una 5-upla tal que S sea el conjunto de soluciones.

Resolución. Las componentes de un vector de S deben ser una c.l. de los generadores, o sea que si
(x1 ; x2 ; x3 ; x4 ; x5 ) ∈ S,
       
x1 −2 2 1
x2  −5 5 3
       
x3  = α1  1  + α2  0  + α3 1 para algún α1 ; α2 ; α3
       
x4  1 −1 1
x5 0 1 1
48 CAPÍTULO 2. ESPACIOS VECTORIALES

En este sistema, que debe ser compatible, las incógnitas son α1 ; α2 y α3 . Al ensamblar la matriz
ampliada y escalonarla obtenemos:
   
−2 2 1 x1 1 0 1 x3
 −5 5 3 x2   0 1 0 x3 − x4 
   
 1
 0 1 x3   −→  0 0 1
 −x3 + x4 + x5 
 (2.2)
 1 −1 1 x4   0 0 0 x1 + 3 x3 − x4 − 3 x5 
0 1 1 x5 0 0 0 x2 + 8 x3 − 3 x4 − 8 x5
Para que el sistema sea compatible las componentes deben cumplir:

x1 + 3 x3 − x4 − 3 x5 =0
y justamente este sistema es el pedido.
x2 + 8 x3 − 3 x4 − 8 x5 = 0
Pueden verificar que los 3 generadores cumplen las ecuaciones del sistema.

Observación al problema
En vez de hacer la reducción como se muestra en 2.2, podemos utilizar las mismas operaciones por
filas pero de la siguiente manera:
   
−2 2 1 1 0 0 0 0 1 0 1 0 0 1 0 0
 −5 5 3 0 1 0 0 0   0 1 0 0 0 1 −1 0 
   
 1
 0 1 0 0 1 0 0   −→  0 0 1
 0 0 −1 1 1 

 1 −1 1 0 0 0 1 0   0 0 0 1 0 3 −1 −3 
0 1 1 0 0 0 0 1 0 0 0 0 1 8 −3 −8
Recuperamos la última columna de 2.2 de la siguiente forma:
     
0 0 1 0 0 x1 x3
 0
 0 1 −1 0  x2   x3 − x4
   


 0
 0 −1 1 1  · x3  =  −x3 + x4 + x5
   

 1 0 3 −1 −3  x4   x1 + 3 x3 − x4 − 3 x5 
0 1 8 −3 −8 x5 x2 + 8 x3 − 3 x4 − 8 x5
Solo nos interesan las últimas 2 filas. Además, por ser obtenidas con operaciones elementales por filas
sobre la identidad, cuyas filas son la base canónica de R5 , estas ecuaciones serán l.i., en el sentido que
no podrá eliminarse ninguna por operaciones elementales.
Si bien lo hemos explicado para este ejemplo en particular, la observación vale en general.

2.7. Rango de una matriz


Enunciaremos a continuación un teorema de gran importancia.

Definición 10. Sea A ∈ Cn×m (o en Rn×m ).

Llamamos rango por filas A, a la dimensión del subespacio de Cm (o en Rm ) generado por


las filas de A.

Llamamos rango por columnas A, a la dimensión del subespacio de Cn (o en Rn ) generado


por las columnas de A.
2.8. INTERSECCIÓN Y SUMA DE SUBESPACIOS 49

Teorema 4 (Teorema del rango). El rango por filas de A es igual a su rango por columnas.
De ahora en más a cualquiera de los dos lo llamaremos rango de A y lo escribiremos rg(A).

Demostración: Ver el apéndice C

2.7.1. Consecuencias del teorema del rango


Para facilitar el razonamiento, tomemos el ejemplo 6. Hemos visto al resolver el ejemplo, que al
poner los generadores de S como columnas de una matriz A y reducirla, tenemos solo 3 filas distintas
de 0 y l.i., por lo cual rg(A) = 3. Al poner estos generadores como filas de una matriz obtendremos
At , y al someterla al proceso de reducción, también tendrá solo 3 filas distintas de 0 y l.i. debido al
teorema del rango. Estas últimas 3 filas, además forman una base de S, por lo cual dim(S) = 3.
Volvamos a la matriz A. Esta matriz tiene 5 filas, ya que sus columnas son vectores de R5 y solo
3 filas distintas de 0 y l.i., ya que dim(S) = 3. Las dos filas nulas que quedan, son las que utilizamos
para obtener un sistema de ecuaciones de S, que por lo observado en el ejemplo, son l.i. Se cumple
entonces que:

dim(R5 ) =dim(S)+cantidad de ecuaciones l.i. de S

En general se cumple la siguiente:

Proposición 10. Si V es Rn , Rn×m , Cn o Cn×m , y S es un subespacio de V, entonces:

dim(V) = dim(S) + cantidad de ecuaciones l.i. de S (2.3)

2.8. Intersección y suma de subespacios

Definición 11. Sea V un K-ev, y S, T dos subespacios del mismo. Llamamos:

S ∩ T = {v ∈ V/v ∈ S y v ∈ T} (intersección)

S + T = {v ∈ V/v = s + t para algún s ∈ S y algún t ∈ T} (suma)


Si S ∩ T = {0}, diremos que están en suma directa y escribiremos S ⊕ T.

Observación 13.

1 S ∩ T y S + T son subespacios de V.

2 S + T 6= S ∪ T
S = gen{s1 ; · · · ; sj }
3 =⇒ S + T = gen{s1 ; · · · ; sj ; t1 ; · · · ; tk }
T = gen{t1 ; · · · ; tk }

B = base de S
4 Si , no necesariamente B ∪ B 0 es una base de(S + T)
B 0 = base de T
50 CAPÍTULO 2. ESPACIOS VECTORIALES

Teorema 5 (Teorema de la dimensión de subespacios).


Si S, T son subespacios de V, entonces:

dim(S + T) = dim(S) + dim(T) − dim(S ∩ T)

Demostración

Sea B1 = {v1 ; · · · ; vr } una base de S ∩ T. Por la proposición 6 y el corolario del teorema fundamental
de la dimensión, B1 puede extenderse a una base de S y a una de T:

BS = {v1 ; · · · ; vr ; s1 ; · · · ; sj }

BT = {v1 ; · · · ; vr ; t1 ; · · · ; tk }
De donde obtenemos que:
nz base de S o
}| {
S + T = gen s1 ; · · · ; sj ; v1 ; · · · ; vr ; t1 ; · · · ; tk
| {z }
base de T

Veamos que este conjunto de vectores es l.i., para eso planteamos:

α1 s1 + · · · + αj sj + β1 v1 + · · · + βr vr + γ1 t1 +; · · · + γk tk = 0
| {z } | {z }
w1 w2 ∈T

w1 debe pertenecer a T ya que w1 = −w2 , pero por ser c.l. de los si , también debe estar en S, o sea
que w1 ∈ S ∩ T. Si w1 6= 0, deberı́a ser una c.l. de los vi lo cual es absurdo pues los si y los vi son
l.i., con lo cual necesariamente w1 = 0. Tenemos lo siguiente:
α1 s1 + · · · + αj sj = 0 =⇒ αi = 0 por ser los si l.i.
β1 v1 + · · · + βr vr + γ1 t1 +; · · · + γk tk = 0 =⇒ βi = γi = 0 por ser los vi y los ti l.i.
O sea que tenemos la siguiente base de S + T
nz base de S o
}| {
base de (S + T) = gen s1 ; · · · ; sj ; v1 ; · · · ; vr ; t1 ; · · · ; tk (2.4)
| {z }
base de T

Con lo cual dim(S + T) = dim(S) + dim(T) − dim(S ∩ T)


| {z } | {z } | {z } | {z }
j+r+k j+r r+k r

Corolario. Si S ∩ T = {0}, entonces:

B = base de S
=⇒ B ∪ B 0 = base de S ⊕ T
B 0 = base de T

dim(S ⊕ T)=dim(S)+dim(T)
2.8. INTERSECCIÓN Y SUMA DE SUBESPACIOS 51

Las bases con caracterı́sticas como la 2.4, tendrán un interés particular cuando veamos transforma-
ciones lineales. Necesitaremos saber como construir este tipo de bases. En los espacios más comunes
se dan tres posibilidades:
Los dos subespacios se dan por sistemas de ecuaciones lineales homogéneos.
Los dos subespacios se dan por conjuntos de generadores.
Se da un subespacio por ecuaciones lineales homogéneos y el otro por conjuntos de generadores.
Hagamos un par de ejemplos:

Ejemplo 7. hallar una base de S + T que contenga una base de S y una base de T siendo:
S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 / x1 + x2 − x3 + x4 = 0

 . x −x +x +x =0 
4 1 2 3 4
T = (x1 ; x2 ; x3 ; x4 ) ∈ R
3 x1 − x3 + 2 x4 =0
Resolución. La intersección queda determinada por las 4-uplas que cumplen tanto las ecuaciones de
S como las de T:
 , x +x −x +x =0 
 1 2 3 4 
4
S ∩ T = (x1 ; x2 ; x3 ; x4 ) ∈ R x1 − x2 + x3 + x4 = 0
3 x1 − x3 + 2 x4 =0
 

Al resolver los tres sistemas obtenemos bases de cada subespacio como se vió en la sección 2.6.3:

BS ={(−1; 1; 0; 0); (1; 0; 1; 0); (−1; 0; 0; 1)}


BT ={(1; 4; 3; 0); (−2; 1; 0; 3)}
BS∩T ={(−1; −1; −1; 1)}
Ustedes pueden verificar que los vectores cumplen las ecuaciones del subespacio correspondiente.
Vemos que dim(S) = 3. Debemos extender la base de S ∩ T a una de S. Para eso le agregamos 2
vectores de BS , verificamos que el nuevo conjunto es l.i. y obtenemos:
B1 = {(−1; −1; −1; 1); (−1; 1; 0; 0); (1; 0; 1; 0)}
Procedemos de la misma manera con T y obtenemos:
B2 = {(−1; −1; −1; 1); (1; 4; 3; 0)}
y la base buscada es:
base de S
z }| {
base de S∩T
n z }| { o
BS+T = (−1; 1; 0; 0); (1; 0; 1; 0); (−1; −1; −1; 1); (1; 4; 3; 0)
| {z }
base de T

Dado que dim(S + T) = 4, además tenemos que S + T = R4 .

El próximo ejemplo será un poco más complicado.


52 CAPÍTULO 2. ESPACIOS VECTORIALES

Ejemplo 8. hallar una base de S + T que contenga una base de S y una base de T siendo:

     
2 1 −1 1 1 0 0 2 1
S =gen ; ;
0 0 0 0 0 −1 −1 0 0
       
1 2 0 0 4 2 −1 2 2 1 1 0
T =gen ; ; ;
−1 0 1 −2 0 1 −1 0 −1 1 1 0

Resolución. Revisen ustedes que estos conjuntos de generadores son además bases. Para obtener la
intersección, es conveniente obtener ecuaciones para uno de los subespacios. Para elegir cual, tenemos
la siguiente regla: “cuanto más matrices, menos ecuaciones”. Elegimos T para facilitar los cálculos
posteriores y si utilizamos el procedimiento aprendido en el ejemplo 6 considerando la observación 12
obtenemos:

0 −1 0 −1 1 x11
   
1 1 x11 1

 2 4 2 1 x12 


 0 1 0 −1 −x11 + x23 

 0 2 2 0 x13   0 0 2 2 2 x11 + x13 − 2 x23 
  −→  

 −1 −2 −1 1 x21 


 0 0 0 −1 −2 x11 + x12 − 2 x13 

 0 0 0 1 x22   0 0 0 0 −3 x11 + 2 x12 − 3 x13 + x21 
1 1 −1 0 x23 0 0 0 0 −2 x11 + x12 − 2 x13 + x22
   
a11 a12 a13 −3 x11 + 2 x12 − 3 x13 + x21 = 0
con lo cual T = ∈ R2×3
a21 a22 a23 −2 x11 + x12 − 2 x13 + x22 =0

Los elementos de S toman la forma:


       
a11 a12 a13 2 1 −1 1 1 0 0 2 1
=α · +β· +γ·
a21 a22 a23 0 0 0 0 0 −1 −1 0 0
 
2α + β α + β + 2γ −α + γ
= (2.5)
−γ 0 −β

Para hallar la intersección, necesitamos ver cuales de los vectores de S cumplen las ecuaciones de T,
para eso sustituimos 2.5 en las ecuaciones:
 
−3(2α + β) + 2(α + β + 2γ) − 3(−α + γ) + (−γ) = 0 −α − β = 0
−→ −→ α = −β
−2(2α + β) + (α + β + 2γ) − 2(−α + γ) + 0 =0 −α − β = 0

Reemplazando en 2.5, obtenemos que los elementos de S ∩ T toman la forma:


       
a11 a12 a13 2 1 −1 1 1 0 0 2 1
=−β· +β· +γ·
a21 a22 a23 0 0 0 0 0 −1 −1 0 0
   
−1 0 1 0 2 1
=β · +γ· (2.6)
0 0 −1 −1 0 0

y como estas dos últimas matrices son l.i., obtenemos:


   
−1 0 1 0 2 1
BS∩T = ;
0 0 −1 −1 0 0
2.9. COORDENADAS EN UNA BASE 53

Por el teorema de la dimensión de subespacios, ya sabemos que dim(S + T) = 5


Ahora, solo debemos extender esta base a una de S y a una de T como hicimos en el ejemplo anterior
y obtenemos:

base de S
z }| {
base de S∩T
(  z }| 
 {    )
2 1 −1 −1 0 1 0 2 1 0 4 2 1 1 0
BS+T = ; ; ; ;
0 0 0 0 0 −1 −1 0 0 −2 0 1 1 1 0
| {z }
base de T

2.9. Coordenadas en una base


Proposición 11. Si V es un K-e.v., v ∈ V y B = {v1 ; · · · ; vn } es una base de V, entonces existe una
única c.l. de los vectores de B que da v. A los coeficientes de esa c.l. los llamaremos las coordenadas
de v en la base B.

Demostración

Sean v = α1 v1 + · · · + αn vn y v = β1 v1 + · · · + βn vn dos c.l. posibles.


Restando miembro a miembro y operando obtenemos:

0 = (α1 − β1 )v1 + · · · + (αn − βn )vn

pero como los vectores de B son l.i., resulta:

α1 − β1 = 0 ⇒ α1 = β1
···
···
αn − βn = 0 ⇒ αn = βn

Q.e.d.

Veamos algunos ejemplos:

Ejemplo 9. Sea B = {(2; 1; 3; 2); (2; 1; 0; 2); (2; 3; 3; 1); (−3; 1; −1; 0)} una base de R4 . Encontrar las
coordenadas de v = (3; 12; 17; 2) en la base B.

Resolución. Hay que encontrar los coeficientes tales que:

(3; 12; 17; 2) = α(2; 1; 3; 2) + β(2; 1; 0; 2) + γ(2; 3; 3; 1) + δ(−3; 1; −1; 0)


54 CAPÍTULO 2. ESPACIOS VECTORIALES

El sistema de ecuaciones a resolver es el siguiente:




 2α + 2β + 2γ − 3δ = 3
α + β + 3γ + δ = 12


 3α + 3γ − δ = 17
2α + 2β + γ =2

que tiene la siguiente matriz ampliada y su reducción:


   
2 2 2 −3 3 1 0 0 0 2
1 1 3 1 12 0 1 0 0 −3
  −→  
3 0 3 −1 17 0 0 1 0 4
2 2 1 0 2 0 0 0 1 1

con lo cual las coordenadas buscadas son:

α=2 β = −3 γ=4 δ=1

Notación: Escribiremos el resultado anterior como (3; 12; 17; 2)B = (2; −3; 4; 1)

Observación 14. La matriz ampliada se construye con los vectores de la base B como columnas,
ampliada con el vector v.

       
2 1 2 1 2 3 −3 1
Ejemplo 10. Sea B = ; ; ; una base de R4 . Encontrar las coor-
3 2 0 2 3 1 −1 0
 
3 12
denadas de v = en la base B.
17 2

Resolución. Pensando a las matrices de R2×2 como vectores de R4 de la siguiente forma:


 
a b
←→ (a; b; c; d)
c d

resulta el mismo problema que el 9, con lo cual:


 
3 12
= (2; −3; 4; 1)
17 2 B

Observación 15. Las coordenadas de un vector en una base, siempre están en Rn .

Ejemplo 11. Sea B 0 = {(2; 1; 0; 2); (2; 3; 3; 1); (2; 1; 3; 2); (−3; 1; −1; 0)} una base de R4 . Encontrar las
coordenadas de v = (3; 12; 17; 2) en la base B 0 .

Resolución. Comparando con el ejemplo 9, la única diferencia entre las bases B y B 0 es como están
ordenados los vectores, con lo cual podemos reescribir la c.l. de la siguiente manera:

(3; 12; 17; 2) = β(2; 1; 0; 2) + γ(2; 3; 3; 1) + α(2; 1; 3; 2) + δ(−3; 1; −1; 0)

que es el mismo sistema que antes, con lo cual: (3; 12; 17; 2)B 0 = (−3; 4; 2; 1)
2.10. CUESTIONARIO 55

Observación 16. Al tratar con coordenadas en una base, el orden en que están los vectores de la base
es importante.

Daremos ahora una serie de propiedades de las coordenadas en una base:

Propiedades 4. Si B es una base de un K-e.v. V, v1 ; · · · ; vk ∈ V y t1 ; · · · ; tk ∈K, entonces:

1 (t1 v1 + · · · + tk vk )B = t1 v1B + · · · + tk vkB

2 v1B ; · · · vkB son l.i. ⇐⇒ v1 ; · · · vk son l.i.


 
3 dim gen{v1 ; · · · vk } = dim gen{v1B ; · · · vkB }

Demostración

A cargo de ustedes.

2.10. Cuestionario
1 ¿Que son grupos, anillos y cuerpos?

2 De tres ejemplos de grupos, anillos y cuerpos.

3 ¿Que es un espacio vectorial?

4 ¿Es posible definir una estructura de R-e.v. para el conjunto de las funciones pares f : R −→ R?
¿Y para las impares?

5 ¿Es posible definir una estructura de R-e.v. para el conjunto de las funciones f : R −→ R tales
que f (0) = 3? ¿Y para las que f (3) = 0?

6 ¿Que significa en términos geométricos que el conjunto {v1 ; v2 } sea l.d.? ¿que significarı́a que
sean l.i.?

7 ¿Que significa en términos geométricos que el conjunto {v1 ; v2 ; v3 } sea l.d.? ¿que significarı́a
que sean l.i.?

8 ¿Que debe pasar para que gen{v1 , v2 , · · · vr , w} = gen{v1 , v2 , · · · vr }?

9 ¿Que es un subespacio?

10 ¿Que tipos de subespacios son posibles en R2 ? ¿y en R3 ?

11 Si pongo un conjunto de generadores de un subespacio de Rn como filas de una matriz y la


reduzco,¿que se obtiene?

12 Si pongo un conjunto de generadores de un subespacio de Rn como columnas de una matriz y


la reduzco,¿como interpreto el resultado?
56 CAPÍTULO 2. ESPACIOS VECTORIALES

13 ¿Que es una base? ¿Es cierto que toda base de un subespacio tiene la misma cantidad de vectores?
Es cierto que todo subespacio tiene una base?

14 Si S = gen{v1 ; · · · ; vk } y v ∈ S,¿que debe pasar para que el sistema v = t1 v1 + · · · + t2 vk tenga


solución única?

15 Considere el sistema de ecuaciones A · X = b, con A ∈ Rn×m Si el sistema es compatible, ¿Como


se relacionan rg(A) con rg(A|b)? ¿y si fuera incompatible? Explique.

16 Si S y T son subespacios de un e.v. V ¿Puede haber en S + T elementos que no estén en S ni en


T?

17 Si S y T son subespacios de un e.v. V ¿Puede haber en S ∩ T elementos que no estén en S?

18 Si S y T son subespacios de un e.v. V, BS y BT son base de los respectivos subespacios ¿Que es


BS ∪ BT ? ¿y si fuera S ⊕ T?

19 Si S ⊂ T ¿Cuanto valen dim(S ∩ T) y dim(S + T)?

20 ¿Es cierto que las coordenadas en una base B de los vectores v1 ; · · · ; vk son l.i. si y solo si los
vectores son l.i.?

21 ¿Es posible tener coordenadas de un vector en una base que pertenezcan a Rn×m ?

2.10.1. Búsqueda bibliográfica [Lar77]


¿Que es un espacio afı́n y que son las variedades lineales?

2.11. Teóricos
teórico 1 Demuestre que el ejemplo 1 corresponde a un cuerpo.

teórico 2 Explique porque C k [a; b] y L2 [a; b] son R-e.v.

teórico 3 Demuestre que el conjunto de polinomios de grado 3 con el producto por un escalar y suma
habituales no es un R-e.v.

teórico 4 Demuestre que el conjunto de pares ordenados (x; y) ∈ R2 tales que x ≥ 0 e y ≥ 0 con el producto
por un escalar y suma habituales no es un R-e.v.

teórico 5 Demuestre la proposición 6.

teórico 6 Demuestre la proposición 8.

teórico 7 Demuestre las propiedades 4.

2.12. Ejercicios
Ejercicio 1 Escriba, en caso que sea posible, al vector v como c.l. de los elementos de U y diga si esa c.l. es
única o no para las siguientes situaciones:

a) v = (4; −7; 8; 11)


U = {(2; −1; 2; 3); (1; 4; −1; 1); (0; 1; 0; 1)}
2.12. EJERCICIOS 57

 
1 −1
b) v =
3 2
     
2 −1 1 4 0 1
U= ; ;
2 3 −1 1 0 1
c) v = (1; 2; 1; 1)
U = {(1; −2; −2; 1); (2; 0; −1; 2); (1; 6; 4; 1)}
 
2 0
d) v =
4 −1
     
1 −2 2 −1 1 4
U= ; ;
−2 1 0 2 6 1
3 2
 3− 7x 2− 5x − 6 2
e) v = 4x
U = (x + 2x + 1); (3x + x + 2)
3 2
 3− 5x 2− 3x + 7 2
f ) v = 2x
U = (x + 2x + 1); (3x + x + 2)

Ejercicio 2 Hallar un conjunto de generadores de los siguientes subespacios:


 
4 x1 − x2 + x4 =0
a) S = (x1 ; x2 ; x3 ; x4 ) ∈ R
3x1 + 2x2 − x3 + 3x4 =0
 
 2x1 + 3x2 + x3 + x4 =0 
b) S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 x1 + x2 + 2x4 =0
−x1 − 2x2 + 4x3 =0
 
 
 x1 − x2 + x3 + x4 =0 
c) S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 −2x1 + 4x2 + 2x3 − x4 =0
−x1 + 5x2 + 7x3 + x4 =0
 

d ) S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 x1 − 5x2 + 7x3 + 2x4 =0



 

 x 1 + 2x 2 + x 3 =0 

2x + 5x + 3x + 2x =0
 
4 1 2 3 4
e) S = (x1 ; x2 ; x3 ; x4 ) ∈ R

 3x1 + 7x2 + x3 =0  
x1 + 3x2 + x3 + x4 =0
 
 
2×3 a11 + a12 + 3a22 − a23 =0
f) S = A = (aij ) ∈ R
a13 + a21 + 2a23 =0

Ejercicio 3 Hallar un sistema de ecuaciones lineales homogeneo para los siguientes subespacios:

a) S = gen{(3; 2; 1; 4)}
b) S = gen{(1; 3; 2; 2); (2; 1; 3; 0)}
c) S = gen{(1; 3; 2; 1); (5; 3; 1; 2); (1; 1; 0; −1)}
d ) S = gen{(1; 1; 1; 1); (1; 5; 3; 4); (−1; 7; 3; 5)}
     
1 1 1 5 −1 7
e) S = gen ; ; (Compare con el anterior)
1 1 3 4 3 5
f ) S = gen{(1; −1; 8; −2); (0; 1; 2; 5); (0; 0; 5; 2); (0; 0; 0; 4)}
g) S = gen{0}

Ejercicio 4 Obtener una base de S.


58 CAPÍTULO 2. ESPACIOS VECTORIALES

a) S = gen{(2; 4; 8; 6); (3; 6; 12; 9)}


b) S = gen{(1 : 3; −2; 1); (1; 4; 3; −1); (1; 0; −17; 7)}
c) S = gen{(1; 2; 1; 2); (2; 5; 3; 2); (1; 4; 3; −2); (2; 7; 6; −2)}
       
1 2 2 5 1 4 2 7
d ) S = gen ; ; ; (Compare con el anterior)
1 2 3 2 3 −2 6 −2
     
1 4 2 7 1 2
e) S = gen ; ;
5 0 0 1 −12 −1
f ) S = gen{(1; −1; 8; −2); (0; 1; 2; 5); (0; 0; 5; 2); (0; 0; 0; 4)}
g) S = gen{0}

Ejercicio 5 Extraer una base de S a partir de su conjunto de generadores para los subespacios del problema
anterior.

Ejercicio 6 Si {v1 ; v2 ; v3 ; v4 } es un conjunto l.i. de vectores, determinar si los siguientes conjuntos son l.i.

a) {2v1 − v2 + v3 + 3v4 ; 3v1 + 2v2 + 4v3 + v4 ; −v1 + 4v2 + 2v3 − 5v4 }


b) {v1 + 3v2 + v3 − v4 ; 2v1 + v2 + v3 + 3v4 ; v1 − 2v2 }

Ejercicio 7 Obtener una base del e.v. V que contenga una base del subespacio S.

a) S = gen{(2; 3; 1; 4); (2; 3; 2; 5)} con V = R4


 
 x1 − x2 + x3 + x4 =0 
b) S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 −2x1 + 4x2 + 2x3 − x4 =0 con V = R4
−x1 + 5x2 + 7x3 + x4 =0
 
     
3 4 2 1 2 11
c) S = gen ; ; con V = R2×2
2 1 0 1 8 −1
d ) S = gen{v1 +v2 +3v3 −5v4 ; v1 +v2 +4v3 +3v4 } sabiendo que base(V) = {v1 ; v2 ; v3 ; v4 }

Ejercicio 8 Indicar si S + T están en suma directa o no. Obtener una base de S + T que contenga una base
de S y una base de T. Verifique el teorema de la dimensión de subespacios.

a) S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 2x1 − x2 + x3 =0


T = gen{(1; 7; 2); (1; −10; −6)}


 
4 x1 + 2x2 + 3x3 − x4 =0
b) S = (x1 ; x2 ; x3 ; x4 ) ∈ R
2x1 + x2 + x3 + x4 =0
 
4 2x1 − x2 + 3x3 + x4 =0
T= (x1 ; x2 ; x3 ; x4 ) ∈ R
3x1 + 2x3 + 2x4 =0
c) S = gen{(−3; −5; 1)}
T = gen{(0; 1; 10); (2; 3; −4)}
 
 2x1 + 2x2 + x3 − 2x4 =0 
d) S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 x1 + 4x2 + 4x3 + 2x4 =0
2x2 + x3 + 2x4 =0
 
T = gen{(1; −3; 1; 1); (1; 1; −2; −1); (1; 2; −1; −1)}
 
5 3x1 − x3 − 2x4 − 4x5 =0
e) S = (x1 ; x2 ; x3 ; x4 ; x5 ) ∈ R
3x2 + x3 − x4 − 2x5 =0
 
5 x1 + x3 − 2x4 − 2x5 =0
T= (x1 ; x2 ; x3 ; x4 ; x5 ) ∈ R
x2 + 3x3 − 3x4 − 2x5 =0
2.13. PROBLEMAS 59

f ) S = gen{(3; 1; 2; −1); (2; 3; 1; 2); (1; −2; 0; 1)}


T = gen{(3; 1; 1; 3); (0; 7; 2; −4)}
 
a11 + 2a12 − a21 + a22 =0
g) S = A = (aij ) ∈ R2×2
a12 + a21 − 2a22 =0
2×2

T = A = (aij ) ∈ R a11 + 2a22 =0

Ejercicio 9 Demostrar que B es una base de V y hallar vB para:

a) B = {(1; 1; 1); (1; 0; 1); (1; 0; 0)} V = R3


v = (6; 3; 1)
b) B = {(1; 0; 1); (1; 0; 0); (1; 1; 1)} V = R3
v = (6; 3; 1)
       
1 2 2 1 −1 2 1 0
c) B = ; ; ; V = R2×2
1 3 1 1 1 3 1 0
 
−2 8
v=
2 13

2.13. Problemas
Problema 1 Seanlos siguientes subespacios de R4 :
S = (x1 ; x2 ; x3 ; x4 ) ∈ R4 x1 − 5x2 − x3 + 2x4 =0

T = gen{(3; 1; 0; 1)}
U = (x1 ; x2 ; x3 ; x4 ) ∈ R4 2x1 − x2 − 3x3 + 2x4 =0


Hallar ,en caso que sea posible, un subespacio H tal que dim(H) = 2, T ⊂ H ⊂ S y que
H ∩ U = {0}.

Problema 2 Seanlos siguientes subespacios de R4 :


U = (x1 ; x2 ; x3 ; x4 ) ∈ R4 2x1 − x2 + x3 + 2x4 =0

W = gen{(1; 0; 0; 0); (0; 1; 0; 1); (1; 1; 1; 0)}


Hallar, en caso que sea posible, dos subespacios S 6= T de igual dimensión tales que:

(S ∩ U) ⊕ T = W y (T ∩ U) ⊕ U = W

Problema 3 Sean los siguientes subespacios de R4 :


S = gen{(1;
 1; −2; 5); (1; 4; −2; −1)} 
4 5x1 + x3 − 3x4 =0
T= (x1 ; x2 ; x3 ; x4 ) ∈ R
x2 + x3 − x4 =0
U = (x1 ; x2 ; x3 ; x4 ) ∈ R4 x1 − 2x2 − x4 =0


Hallar, en caso que sea posible, un subespacio W tal que:

W ⊕ (S ∩ T) = S + T y W∩S⊂U
       
1 2 2 1 1 1 −1 2
Problema 4 Sean S = gen y T = gen ; ; dos subespacios de R4 y
1 4 2 1 2 0 0 1
 
9 −1
v=
4 8

a) Demuestre que R4 = S + T.
60 CAPÍTULO 2. ESPACIOS VECTORIALES

b) Escriba al vector v como suma de un elemento de S más uno de T.


c) ¿Es única la solución?
   
3 −2 −1 0
Problema 5 Sean S = gen ; y
2 0 0 1
     
−2 1 1 2 −1 2
T = gen ; ; dos subespacios de R4 y
0 1 2 1 1 1
 
2 −9
v=
−1 −1

a) Demuestre que R4 = S + T.
b) Escriba al vector v como suma de un elemento de S más uno de T.
c) ¿Es única la solución?

Problema 6 Compare los dos problemas anteriores y reflexione las diferencias.

Problema 7 Sea B = {v1 ; v2 ; v3 ; v4 } una base de un R-e.v. V.

a) Demuestre que el conjunto de vectores


{2v1 − v2 + v4 ; v1 + 3v2 + v3 + 5v4 ; −v1 + v2 + v3 + v4 ; v1 + v2 + v3 + 3v4 } es l.d.
b) Demuestre que el conjunto de vectores
{v1 + 2v2 − 3v3 + v4 ; v1 + v2 + 2v4 ; −v1 + 3v3 + v4 } es l.i.
c) Demuestre que B 0 = {v1 + v2 + v3 + v4 ; v1 + v3 + v4 ; v1 + v3 ; v3 } es una base de V.
d ) Hallar (v1 + v2 + 4v3 + 3v4 )B 0

Problema 8 Sean B = {(2; 3; 1); (1; 2; 1); (1; 1; 1)} y B 0 = {1; −1; 0); (3; −2; 1); (−1; 1; 1)}

a) Demostrar que B y B 0 son bases de R3 .


b) Hallar dos vectores v y w tales que (v + w)B = (1; −2; −1) y que (2v + 3w)B 0 = (−1; 1; 2)

Problema 9 Sean B = {(1; −1; 1); (−1; 0; 3); v} y B 0 = {w; (−2; 1; 1); (1; 0; 3)} dos bases de un R-e.v.
Hallar v y w tales que vB 0 = (2; 3; 2) y wB = (1; −3; 2).

Problema 10 Sean S = gen{(1; 3; 1; 1); (2; −1; 1; 0)} y 


x1 + x3 − 3x4 =0
T= (x1 ; x2 ; x3 ; x4 ) ∈ R4
x2 + x3 − x4 =0
4
Hallar una base B de R que contenga una base de S y una base de T tal que
(2; −5; 2; 0)B = (0; 1; 0; 1).

Problema 11 (optativo) Al plantear la segunda ley de Newton al problema de masa-resorte-amortiguador sin


gravedad de la figura 2.1, resulta la siguiente ecuación diferencial:

m s(t)00 = −c s(t)0 − k s(t)

donde m es la masa del cuerpo, k es una constante elástica, c es una constante de amortiguación,
s es la posición de la masa respecto a la posición de equilibrio y t es el tiempo.
Si C 2 es el espacio vectorial den las funciones
. f : R −→ R con derivadao segunda continua
2 00 0
(operaciones habituales) y S = s(t) ∈ C m s(t) = −c s(t) − k s(t) , demuestre que S es un
subespacio de C 2 .
2.14. RESPUESTAS A LOS EJERCICIOS 61

k
s

c
Posición de
equilibrio

Figura 2.1: Problema de masa, resorte y amortiguador

Problema 12 (optativo) Una situación tridimensional de transferencia de calor puede modelarse por medio de
la ley de Fourier:  2
∂2T ∂2T

∂ T ∂T
α2 + + =
∂x2 ∂y 2 ∂z 2 ∂t
donde T (x; y; z; t) es la temperatura en el punto P = (x; y; z) al instante t y α2 es una constante
llamada difusividad térmica.
Sea V el conjunto de funciones f (x; y; z; t) : R4 −→ R con derivadas parciales segundas continuas
(operaciones habituales) y
  2
∂2f ∂2f
  
2 ∂ f ∂f
S= f ∈V α + 2 + 2 =
∂x2 ∂y ∂z ∂t

a) Demuestre que V es un e.v.


b) Demuestre que S es un subespacio de V.

2.14. Respuestas a los ejercicios


Nota: Las respuestas dadas no necesariamente son las únicas.

Ejercicio 1 a) (4; −7; 8; 11) = 3(2; −1; 2; 3) − 2(1; 4; −1; 1) + 4(0; 1; 0; 1) (única)
b) No es posible.
c) (1; 2; 1; 1) = (−1 + 3α3 ) (1; −2; −2; 1) + (1 − 2α3 ) (2; 0; −1; 2) + α3 (1; 6; 4; 1)
d ) No es posible.
e) 4x3 − 7x2 − 5x − 6 = 4 (x3 + 2x2 + 1) − 5 (3x2 + x + 2)
f ) No es posible.

Ejercicio 2 a) {(1; 1; 5; 0); (−1; 0; 0; 1)}


b) {(24; −14; −1; −5)}
c) {(3; 2; −1; 0); (3; 1; 0; −2)}
d ) {(5; 1; 0; 0); (−7; 0; 1; 0); (−2; 0; 0; 1)}
62 CAPÍTULO 2. ESPACIOS VECTORIALES

e) {(0; 0; 0; 0)}
       
−1 1 0 0 0 −1 −3 0 0 1 0 −2
f) ; ; ;
0 0 0 1 0 0 0 1 0 0 0 1

 x1 − 43 x4 = 0

Ejercicio 3 a) x2 − 21 x4 = 0
x3 − 41 x4 = 0

x1 − 23 x3 + 16 x4

=0
b)
x2 − 31 x3 − 76 x4 =0
c) x1 − 2x2 + 3x3 − x4 = 0

x1 − 3x3 + 2x4 = 0
d)
x2 + x3 − 2x4 = 0

a11 − 3a21 + 2a22 = 0
e)
a12 + a21 − 2a22 = 0
f ) No hay condiciones sobre las componentes ya que los vectores son l.i. y generan todo R4 .
g) x1 = x2 = x3 = x4 = 0

Ejercicio 4 a) {(1; 2; 4; 3)}


b) {(1; 0; −7; 3); (0; 1; 5; −2)}
c) {(1; 0; 0; 6); (0; 1; 0; −2); (0; 0; 1; 0)}
     
1 0 0 1 0 0
d) ; ;
0 6 0 −2 1 0
     
1 0 0 1 0 0
e) S = gen ; ;
0 −31 0 9 1 −1
f ) E = {e1 ; e2 ; e3 ; e4 } (La canónica de R4 )
g) No es posible.

Ejercicio 5 a) {(2; 4; 8; 6)}


b) {(1 : 3; −2; 1); (1; 4; 3; −1)}
c) {(1; 2; 1; 2); (2; 5; 3; 2); (2; 7; 6; −2)}
     
1 2 2 5 2 7
d) ; ;
1 2 3 2 6 −2
     
1 4 2 7 1 2
e) S = gen ; ;
5 0 0 1 −12 −1
f ) {(1; −1; 8; −2); (0; 1; 2; 5); (0; 0; 5; 2); (0; 0; 0; 4)}
g) No es posible.

Ejercicio 6 a) l.d. b) l.i.

Ejercicio 7 a) B = {(2; 3; 1; 4); (2; 3; 2; 5); e2 ; e4 }


| {z }
base(S)

b) B = {(3; 2; −1; 0); (3; 1; 0; −2); e3 ; e4 }


| {z }
base(S)
2.14. RESPUESTAS A LOS EJERCICIOS 63

   
3 4 2 1
c) B = { ; ; e21 ; e22 }
2 1 0 1
| {z }
base(S)

d ) B = {v1 + v2 + 3v3 − 5v4 ; v1 + v2 + 4v3 + 3v4 ; v2 ; v4 }


| {z }
base(S)

base de S
z }| {
base de S∩T
n z }| { o
Ejercicio 8 a) BS+T = (1; 2; 0); (3; 4; −2);(1; 7; 2)
| {z }
base de T
b) Suma directa.
base de T
nz }| {
c) BS+T = (0; 1; 10); (−3; −5; 1) (S ⊂ T)
| {z }
base de S
d ) Suma directa.
base de S
z }| {
base de S∩T
n z }| { o
e) BS+T = (2; 1; 0; 1; 1); (1; 0; 1; 1; 0); (1; 1; −1; −2; 2);(1; 2; −1; −1; 1)
| {z }
base de T
base de S
nz }| {o
f ) BS+T = (3; 1; 2; −1); (3; 1; 1; 3); (0; 7; 2; −4) (S + T = S)
| {z }
base de T
base de S
z }| {
base de S∩T
z }| {
n 3 −1 −2 1 0 1 0 0 o
g) BS+T = ; ; ;
1 0 1 1 0 0 1 0
| {z }
base de T

Ejercicio 9 a)  = (3; −2; 5)


(6; 3; 1)B  b) (6; 3; 1)B = (−2; 5; 3)
−2 8
c) = (4; −2; 1; −1)
2 13 B
64 CAPÍTULO 2. ESPACIOS VECTORIALES
Capı́tulo 3

Espacios vectoriales con producto


interno

3.1. Producto interno (o escalar)


Del curso básico de álgebra, conocemos el producto interno para vectores de R2 y R3 , el cual se
define como:
< x; y >= kxk kykcosα
A partir de esa definición, pueden demostrarse las siguientes fórmulas para su cálculo:
< (x1 ; x2 ); (y1 ; y2 ) > = x1 y1 + x2 y2
< (x1 ; x2 ; x3 ); (y1 ; y2 ; y3 ) > = x1 y1 + x2 y2 + x3 y3
También conocemos sus propiedades:
< x; x > ≥ 0 < x; x >= 0 ⇔ x = 0
< x; y >=< y; x > < x; y + z >=< x; y > + < x; z >
x ⊥ y ⇔< x; y >= 0 k < x; y >=< k x; y >
Al margen de que deberı́amos explicar el sentido de α en ese contexto, podrı́amos extender el concepto
a vectores de Rn mediante la siguiente fórmula:
< (x1 ; x2 ; · · · ; xn ); (y1 ; y2 ; · · · ; yn ) >= x1 y1 + x2 y2 + · · · + xn yn (3.1)
Pero la gran pregunta es si se puede extender el concepto de producto interno para cualquier e.v. V.
Los matemáticos han estudiado las propiedades de los productos internos básicos antes mencionados
y han llegado a la conclusión de que es posible abstraer el concepto mediante la siguiente definición:
Definición 12. Sea K = R o K = C. Decimos que una operación entre elementos de un K-e.v.
<; >: V × V → K es un producto interno si ∀x; y ∈ V y ∀k ∈ K:
1 < x; x > ∈ R≥0
2 < x; x >= 0 ⇔ x = 0
3 < x; y >= < y; x >
4 < x; y + z >=< x; y > + < x; z >
5 k < x; y >=< k x; y >

65
66 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

También daremos la siguiente definición:

Definición 13. Si V es un K-e.v. donde hay definido un producto interno y x ∈ V, llamamos norma
o módulo de x a:

kxk = < x, x >

El producto interno cumple la desigualdad de Cauchy-Schwarz:

| < x; y > | ≤ kxk kyk

Demostración

Si kxk = 0 o kyk = 0 la desigualdad es trivial. supongamos que kxk =


6 0 y kyk =
6 0.
Se cumple lo siguiente:

0 ≤ kx − λyk2 =< (x − λy); (x − λy) >= kxk2 − < x; y > λ− < y; x > λ + kyk2 |λ|2 ∀λ ∈ C
< x; y >
Si tomamos λ = , obtenemos:
kyk2
2
< x; y > < x; y > 2 | < x; y > |
0 ≤kxk2 − < x; y > − < y; x > + kyk
kyk2 kyk2 kyk4
| < x; y > |2 | < x;  |2 | < x;  |2
 
2 y> y>
= kxk − − +
kyk2 
kyk2


kyk2


de donde se deduce que:


kxk kyk ≤ | < x; y > | Q.e.d.

< x; y >
Observación 17. Observamos que si el producto interno es real,−1 ≤ ≤ 1, con lo cual
kxk kyk
< x; y >
tiene sentido definir el ángulo α entre x e y como el ángulo tal que cos(α) = . En el caso
kxk kyk
de R2 y R3 , recuperamos la definición de producto interno. En los demás espacios vectoriales con
producto interno, ese ángulo α, no tiene el sentido de un ángulo medible con un transportador, será
simplemente un ángulo analı́tico. La propiedad x ⊥ y ⇔< x; y >= 0, solo debe ser entendida en ese
contexto analı́tico.

Definiremos ortogonalidad (⊥) entre vectores por la siguiente identidad:

x⊥y ⇔ < x; y >= 0

Otra propiedad del producto interno cuya demostración queda a cargo de ustedes es:

k < x; y >=< x; k y >

También la norma tiene sus propiedades:

Propiedades 5.
1 kxk ≥ 0
3.1. PRODUCTO INTERNO (O ESCALAR) 67

2 kxk = 0 ⇔ x = 0

3 kk xk = |k| kxk

4 kx + yk ≤ kxk + kyk (Desigualdad triángular o de Minkowski)

5 kx − yk = ky − xk

De hecho, las cuatro primeras corresponden a la definición de norma, “pero esa, esa es otra historia”
(Conan, el bárbaro). Demostremos la 4.

kx + yk2 =< x + y; x + y >=< x; x > + < x; y > + < y; x > + < y; y >≤

kxk2 + 2 kxk kyk + kyk2 = (kxk + kyk)2


y tomando raı́z cuadrada a ambos miembros se demuestra lo pedido.
Los espacios vectoriales con producto interno se llaman espacios prehilbertianos . En los
espacios prehilbertianos, se cumple el teorema de Pitágoras:

Teorema 6. Teorema de Pitágoras

Demostración

A cargo de ustedes.

3.1.1. Otros productos internos


1 En Cn , la siguiente operación es un producto interno:

< (x1 ; x2 ; · · · ; xn ); (y1 ; y2 ; · · · ; yn ) >= x1 y1 + x2 y2 + · · · + xn yn

Si pensamos los elementos de Cn como matrices de 1 × n, podrı́amos escribir:

< x; y >= x · y∗
68 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

2 En Cn (o Rn ), si A = (aij ) ∈ Rn×n es una matriz diagonal con aii > 0, la siguiente operación es
un producto interno:
< x; y >= x · A · y∗

3 En Rn×m y siendo tr(C) la traza de C, la siguiente operación es un producto interno:

< A; B >= tr(A · B ∗ )

4 En C[a; b] = Conjunto de todas las funciones continuas en el intervalo [a; b],


y si Q(x) > 0 ∀x ∈ [a; b], la siguiente operación es un producto interno:
Z b
< f ; g >= f (x)g(x)Q(x)dx
a

3.2. Conjuntos ortogonales y ortonormales


De ahora en más, todos los e.v. V serán con producto interno.
Llamaremos vector unitario o versor a los elementos x ∈ V tales que kxk = 1. Utilizaremos la
siguiente notación:
1
x̂ = x (x versor)
kxk
que en R2 o en R3 corresponde a un versor con la misma dirección y sentido que x y que en los demás
e.v. abstraeremos ese concepto.

Definición 14. Decimos que un conjunto de vectores no nulos {v1 · · · vk } es ortogonal si ∀i 6= j,


< vi ; vj >= 0. Además, si kvi k = 1, decimos que el conjunto es ortonormal.

Observación 18. Si {v1 · · · vk } es un conjunto ortogonal, entonces {v̂1 · · · v̂k } es un conjunto orto-
normal.

Proposición 12. Si {v1 · · · vk } es un conjunto ortogonal, entonces el conjunto es l.i.

Demostración

Hay que probar que el sistema t1 v1 +t2 v2 +· · ·+tk vk = 0 tiene solo la solución trivial. Multipliquemos
escalarmente por v1 a ambos miembros:

< (t1 v1 + t2 v2 + · · · + tk vk ); v1 >=< 0; v1 >

t1 < v1 ; v1 > +t2 < v2 ; v1 > + · · · + tk < vk ; v1 > = 0


| {z } | {z } | {z }
kv1 k2 6=0 0 0

t1 = 0
Multiplicando sucesivamente por v2 ; v3 ; · · · ; vk , se obtiene que t2 = 0; t3 = 0; · · · ; tk = 0, que es lo
que querı́amos probar.
3.2. CONJUNTOS ORTOGONALES Y ORTONORMALES 69

Observación 19. Veamos algunas ventajas de tener una base ortogonal. Si B = {v1 · · · vn } una base
ortogonal del e.v. V, y v ∈ V, entonces podemos escribir a v como c.l. de los elementos de B:

v = t1 v1 + t2 v2 + · · · + tn vn

Multipliquemos escalarmente por v1 a ambos miembros, distribuyamos y saquemos los escalares fuera
del producto interno:

< v; v1 >= t1 < v1 ; v1 > +t2 < v2 ; v1 > + · · · + tn < vn ; v1 >


| {z } | {z } | {z }
kv1 k2 0 0

< v; v1 >
t1 =
kv1 k2
Procediendo de manera similar obtenemos los otros coeficientes con lo cual:

< v; v1 > < v; v2 > < v; vn >


v= 2
v1 + 2
v2 + · · · + vn
kv1 k kv2 k kvn k2

Y en caso que la base sea ortonormal, queda:

v =< v; v1 > v1 + < v; v2 > v2 + · · · + < v; vn > vn

Ejemplo 12. Sea B = {(1; 1; 1; 1); (1; −1; 1; −1); (1; 0; −1; 0); (0; 1; 0; −1)}. Probar que B es una base
ortogonal de R4 y hallar las coordenadas de (3; 2; 1; 4) en la base B.

Resolución.

< (1; 1; 1; 1); (1; −1; 1; −1) > = 0 < (1; 1; 1; 1); (1; 0; −1; 0) >= 0
< (1; 1; 1; 1); (0; 1; 0; −1) > = 0 < (1; −1; 1; −1); (1; 0; −1; 0) >= 0
< (1; −1; 1; −1); (0; 1; 0; −1) > = 0 < (1; 0; −1; 0); (0; 1; 0; −1) >= 0

Esto prueba que el conjunto es ortogonal, por lo tanto l.i. y al ser 4 vectores necesariamente son una
base de R4 .
Utilizando la observación 19, obtenemos que:
< (3; 2; 1; 4); (1; 1; 1; 1) > 5 < (3; 2; 1; 4); (1; −1; 1; −1) > 1
= =−
k(1; 1; 1; 1)k2 2 k(1; −1; 1; −1)k2 2

< (3; 2; 1; 4); (1; 0; −1; 0) > < (3; 2; 1; 4); (0; 1; 0; −1) >
=1 = −1
k(1; 0; −1; 0)k2 k(0; 1; 0; −1)k2
Con lo cual:  
5 1
(3; 2; 1; 4)B = ; − ; 1; −1
2 2
y verificamos que:
5 1
(3; 2; 1; 4) = (1; 1; 1; 1) − (1; −1; 1; −1) + (1; 0; −1; 0) − (0; 1; 0; −1)
2 2
70 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Wxmaxima En Wxmaxima puede realizarse el producto interno para Rn definido en la ecuación


3.1 utilizando un punto, y obtener el versor de un vector con la función unitvector. Para esta última
habra que cargar el paquete eigen. Lamentablemente no hay una función para la norma pero podemos
definirla sin problemas. Veamos un ejemplo:
%i5 unitvector(A);
%i1: A : [2, 3, 2]$ 2 3 2
%i2: B : [3, 4, −2]$ %o5 [ √ , √ , √ ]
17 17 17
%i3 A.B; %i6 norm(A) := \sqrt(A.A);
%o3 14 %i7 norm(A);
%i4 load(eigen)$ √
%o7 17;
El paquete eigen también proporciona el producto interno definido en el ejemplo 3.1.1-1 con la
función inprod y a partir de el definir la norma:
%i8: C : [2 + 3 ∗ %i, 3 − %i, 2]$
%i9: D : [3 + 5 ∗ %i, 4 + %i, −2 ∗ %i]$
%i10 inprod(C, D);
%o10 4 ∗ %i + 32
%i11 cnorm(A) := \sqrt(inprod(A, A))$
%i12 cnorm(C)
3
%012 3 2

3.3. Proceso de ortonormalización de Gram-Schmidt


El siguiente teorema viene a responder la pregunta de si siempre podemos tener una base ortogonal
(y en consecuencia una ortonormal) para un subespacio dado. En su demostración, a partir de una
base cualquiera de un subespacio, se procede a construir otra ortogonal. Ese proceso se conoce como
proceso de ortonormalización de Gram-Schmidt y es además la forma práctica de obtener una base
ortonormal del subespacio mencionado. El resultado depende de la base en si y del orden de los vectores
en dicha base.

Teorema 7. Si S es un subespacio de dimensión finita del K-e.v. V, entonces existe una base orto-
normal de S.

Demostración

Sea B = {v1 ; · · · ; vk } una base de S. Procedemos a construir otra base B 0 = {w1 ; · · · ; wk } de la


siguiente manera:

w1 =v1
 
< v2 ; w1 >
w2 =v2 − w1
kw1 k2
   
< v3 ; w1 > < v3 ; w2 >
w3 =v3 − w1 − w2
kw1 k2 kw2 k2
..
.
   
< vk ; w1 > < vk ; wk−1 >
wk =vk − w1 · · · − wk−1
kw1 k2 kwk−1 k2
3.3. PROCESO DE ORTONORMALIZACIÓN DE GRAM-SCHMIDT 71

Por construcción, necesariamente

gen{w1 } = gen{v1 }
gen{w1 ; w2 } = gen{v1 ; v2 }
gen{w1 ; w2 ; w3 } = gen{v1 ; v2 ; v3 }
..
.
gen{w1 ; · · · ; wk } = gen{v1 ; · · · ; vk }

De esta forma, {w1 ; · · · ; wk } forman una base de S.


Probaremos por inducción que el conjunto {w1 ; · · · ; wk } es ortogonal:
Como un único vector es un conjunto ortogonal de vectores, no hay duda que {w1 } es un conjunto
ortogonal.
Supongamos ahora que {w1 ; · · · ; wi } son ortogonales. Debemos demostrar que {w1 ; · · · ; wi ; wi+1 } es
un conjunto ortogonal. Para  eso alcanza ver
 que < w i+1 ; wj >= 0  ∀j = 1; · · · ; i
< vi+1 ; w1 > < vi+1 ; wi >
Pero como wi+1 = vi+1 − 2
w1 · · · − wi
kw1 k kwi k2
y {w1 ; · · · ; wi } son ortogonales, resulta:
< vi+1 ; wj >
< wi+1 ; wj >=< vi+1 ; wj > − 2
<(w(
j; (
wj((
>=0
kw
j k
(

lo cual demuestra la ortogonalidad del conjunto. De esta forma, B 0 = {w1 ; · · · ; wk } es una base
ortogonal de S y
B 00 = {ŵ1 ; · · · ; wˆk } es una base ortonormal de S

Observación 20.

1 El resultado depende de la base en si y del orden de los vectores en dicha base como ya habiamos
mencionado.

2 Si vj+1 es perpendicular a w1 ; · · · ; wj (o a v1 ; · · · ; vj ), entonces wj+1 = vj+1

Ejemplo 13. Hallar una base ortonormal de

S = gen{(1; 3; 1; 3; 1); (2; 5; 2; 7; 2); (2; 7; 5; 11; 2); (0; −3; 3; −5; 0)}
| {z } | {z } | {z } | {z }
v1 v2 v3 v4

Resolución. Prueben ustedes que el conjunto de generadores de S es una base. Utilizando el proceso
de ortonormalización de Gram-Schmidt obtenemos:
72 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

w1 =v1
=(1; 3; 1; 3; 1)
 
< v2 ; w1 >
w2 =v2 − w1
kw1 k
42
=(2; 5; 2; 7; 2) − (1; 3; 1; 3; 1)
21
=(0; −1; 0; 1; 0)
   
< v3 ; w1 > < v3 ; w2 >
w3 =v3 − w1 − w2
kw1 k kw2 k
63 4
=(2; 7; 5; 11; 2) − (1; 3; 1; 3; 1) − (0; −1; 0; 1; 0)
21 2
=(−1; 0; 2; 0; −1)
     
< v4 ; w1 > < v4 ; w2 > < v4 ; w3 >
w4 =v4 − w1 − w2 − w3
kw1 k kw2 k kw3 k
−21 −2 6
=(0; −3; 3; −5; 0) − (1; 3; 1; 3; 1) − (0; −1; 0; 1; 0) − (−1; 0; 2; 0; −1)
21 2 6
=(2; −1; 2; −1; 2)

Con lo cual una base ortogonal de S es:

B 0 = {(1; 3; 1; 3; 1); (0; −1; 0; 1; 0); (−1; 0; 2; 0; −1); (2; −1; 2; −1; 2)}

y si a cada vector lo dividimos por su norma, obtenemos la base ortonormal:


   
00 1 3 1 3 1 1 1
B = √ ;√ ;√ ;√ ;√ ; 0; − √ ; 0; √ ; 0 ;
21 21 21 21 21 2 2
   
1 2 1 2 1 2 1 2
− √ ; 0; √ ; 0; − √ ; √ ; −√ ; √ ; −√ ; √
6 6 6 14 14 14 14 14
Si quieren, pueden racionalizar el denominador.

Wxmaxima También es posible obtener los wj usando una función especı́fica de Wxmaxima, pero
habrá que cargar el paquete eigen previamente:

%i1: load(eigen)$
%i2: A:matrix(
[1,3,1,3,1],
[2,5,2,7,2],
[2,7,5,11,2],
[0,-3,3,-5,0]
)$
%i3 gramschmidt(A);
%o3 [[1, 3, 1, 3, 1], [0, −1, 0, 1, 0], [−1, 0, 2, 0, −1], [2, −1, 2, −1, 2]]
3.4. COMPLEMENTO ORTOGONAL DE UN SUBESPACIO 73

3.4. Complemento ortogonal de un subespacio


Definición 15. Sea S un subespacio del K-e.v. V. Llamamos complemento ortogonal de S, al
conjunto:
S⊥ = {v ∈ V/ < v, s >= 0 ∀s ∈ S}

O sea, S⊥ está formado por todos los vectores que son perpendiculares a todos los vectores de S.

Propiedades 6. Si S es un subespacio del K-e.v. V, entonces se cumple lo siguiente:


1 S⊥ es un subespacio de V.

2 Si S = gen{v1 ; · · · ; vk }, entonces v ∈ S⊥ si y solo si < v, vi >= 0, i = 1; · · · ; k.

3 Si = {v1 ; · · · ; vk } ⊂ S⊥ , entonces α1 v1 + · · · + αk vk ∈ S⊥ .

4 V⊥ = {0}

5 (S⊥ )⊥ = S

6 Si dim(V) = n, entonces V = S ⊕ S⊥

Demostración

Demostremos 6 y dejemos los demás como ejercicio.


Sea BS = {w1 ; · · · ; wk } una base ortogonal de S y extendamosla a una base de V

B = {w1 ; · · · ; wk ; vk+1 ; · · · ; vn }

Si utilizamos el proceso de ortonormalización de Gram-Schmidt sobre B, al ser los vectores de BS


ortogonales, estos no se modificarán (observación 20). Solo se modificarán los vectores de la extensión
resultando una base ortogonal

B 0 = {w1 ; · · · ; wk ; wk+1 ; · · · ; wn }

Esta claro que gen{wk+1 ; · · · ; wn } ⊂ S⊥ , con lo cual V = S + S⊥ .


Demostremos ahora que dim(S ∩ S⊥ ) = 0. Sea v ∈ S ∩ S⊥ . Como v ∈ S⊥ , entonces < v; wi >= 0,
∀wi ∈ S. Pero como v ∈ S, también se cumple que < v; wi >= 0, ∀wi ∈ S⊥ . De esta forma,
necesariamente v ∈ V⊥ = {0} que es lo que queriamos demostrar.

Ejemplo 14. Hallar S⊥ , siendo:

1 S = gen{(2; 3; 1; 1); (4; 5; 8; 1)}


 
x1 − x2 + x3 + 5x4 =0
2 S= (x1 ; x2 ; x3 ; x4 ) ∈ R4
3x1 + 2x2 − x3 + 4x4 =0

Resolución.
74 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

1 Buscamos los (x1 ; x2 ; x3 ; x4 ) ∈ R4 tales que :


< (x1 ; x2 ; x3 ; x4 ); (2; 3; 1; 1) >= 0 y que < (x1 ; x2 ; x3 ; x4 ); (4; 5; 8; 1) >= 0
o sea que:
 
⊥ 2x1 + 3x2 + x3 + x4 =0
S = (x1 ; x2 ; x3 ; x4 ) ∈ R4
4x1 + 5x2 + 8x3 + x4 =0

2 Las ecuaciones pueden reescribirse como:

< (1; −1; 1; 5); (x1 ; x2 ; x3 ; x4 ) >= 0 < (3; 2; −1; 4); (x1 ; x2 ; x3 ; x4 ) >= 0

o sea que todos los vectores de S son ortogonales a los vectores (1; −1; 1; 5) y (3; 2; −1; 4) y por
lo tanto a todas sus c.l., de esta manera, si

T = gen{(1; −1; 1; 5); (3; 2; −1; 4)}

resulta que T⊥ = S con lo cual S⊥ = T y entonces:

S⊥ = gen{(1; −1; 1; 5); (3; 2; −1; 4)}

Una consecuencia de la propiedad 6-6, es que cualquier vector v ∈ V puede escribirse de manera
única como suma de un elemento v1 ∈ S y otro v2 ∈ S⊥ como se ejemplifica en la siguiente figura.

Observamos en la figura que v1 corresponde al concepto de proyección ortogonal de v sobre S,


pero recordemos que el concepto de ortogonalidad es dependiente del producto interno utilizado, esto
quiere decir que los vectores, no necesariamente deben formar 90o , la idea es que el producto interno
entre ellos sea cero. Solo si el producto interno es el definido en 3.1, formarán los 90o habituales. La
ortogonalidad es sinónimo de perpendicularidad solo en la geometrı́a euclı́dea clásica.
Formalicemos ahora la idea que acabamos de comentar.
Definición 16. Sea S un subespacio del espacio prehilbertiano V, y sea v ∈ V. Sean también v1 ∈ S
y v2 ∈ S⊥ tales que v = v1 + v2 . Llamamos proyección ortogonal de v sobre S a v1 y escribimos:

PS (v) = v1
3.4. COMPLEMENTO ORTOGONAL DE UN SUBESPACIO 75

Observación 21.

1 PS ⊥ (v) = v2

2 < PS ; PS ⊥ >= 0

Proposición 13. Si w ∈ S, entonces kv − PS (v)k ≤ kv − wk.

Demostración

kv − PS (v)k = kv − w + (w − PS (v))k ≤ kv − wk + kw − PS (v)k ≤ kv − wk

Dado que ku1 − u2 k mide la distancia entre los puntos u1 y u2 , estamos afirmando que el punto de
S más cercano a v es PS (v). Claro que la distancia es dependiente del producto interno utilizado, o
sea que es el más cercano solo en ese sentido. Además, se aprecia en la demostración que ese punto es
único.
Sigamos con otra observación. Si consideramos x = (x1 ; · · · ; xn ) ∈ Rn y la base canónica
E = {eˆ1 ; · · · ; eˆn }, entonces
n
X
2
x = x1 eˆ1 + · · · + xn eˆn < x; êi >= xi kxk = x2i
i=1

Como la base canónica es ortonormal, ademas xi = Peˆi (x). Si ahora tomamos otra base ortonormal
B = {v1 ; · · · ; vk ; vk+1 ; · · · ; vn }, resultará:

x = t1 v1 + · · · + tn vn < x; ei >= ti = Pvi (x)


n
X
y deberı́a cumplirse que kxk2 = t2i . Esta idea se ilustra en la siguiente figura:
i=1

Lo discutido recién sugiere la siguiente:


76 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Proposición 14. (Desigualdad de Bessel) Si v es un vector del espacio prehilbertiano V,


dim(V) = n y v1 ; · · · ; vk un conjunto ortonormal de vectores, entonces:
k
X
| < v; vi > |2 ≤ kvk2
i=1

y la igualdad vale si y solo si:


k
X
v= < v; vi > vi
i=1

Demostración

Extendamos el conjunto de vectores a una base ortonormal de V:

B = {v1 ; · · · ; vk ; vk+1 ; · · · ; vn }

Podemos escribir (por observación 19):


n
X
v= < v; vi > vi
i=1

y es fácil ver que:


n
X k
X
2 2
kvk = | < v; vi > | ≤ | < v; vi > |2
i=1 i=1
Para que se de la igualdad, necesariamente
n
X k
X
| < v; vi > |2 = 0 ⇐⇒ < v; vi >= 0 ⇐⇒ v= < v; vi > vi
i=k+1 i=1

3.5. Cuestionario
1 ¿Es cierto que el producto interno es conmutativo? En caso que sea falso, dar un ejemplo.

2 ¿Es cierto que dado un e.v., hay un único producto interno? En caso que sea falso, dar un
ejemplo.

3 ¿Que es un espacio prehilbertiano?

4 ¿Es cierto que si el producto interno entre dos vectores es cero estos forman 90o ? En caso que
sea falso, dar un ejemplo.

5 ¿Es cierto que todo conjunto ortogonal de vectores es l.i.? ¿y si fuera ortonormal?

6 ¿Es cierto que para todo subespacio no nulo de dimensión finita se puede encontrar una base
ortogonal? ¿y ortonormal? ¿y para el subespacio nulo?

7 ¿Que se puede afirmar a partir del proceso de ortogonalización de Gram-Schmidt?


3.6. TEÓRICOS 77

8 ¿Depende del orden de los vectores de una base el resultado del proceso de ortogonalización de
Gram-Schmidt?

9 ¿Como puede construirse una base ortonormal a partir de una ortogonal?

10 ¿Que ventaja tiene una base ortonormal de un e.v. frente a otras bases?

11 Si S es un subespacio del e.v. V ¿Quien es S⊥ ?

12 Si S es un subespacio del e.v. V, ¿quien es (S⊥ )⊥ , V⊥ y 0⊥ ?

13 ¿Es cierto que para e.v. V de dimensión finita se cumple que V = S ⊕ S⊥ ?

3.5.1. Búsqueda bibliográfica [EJ98]


¿Que es un espacio métrico? ¿y uno normado? ¿Es todo espacio métrico necesariamente normado?
¿Es todo espacio normado necesariamente métrico?

3.6. Teóricos
teórico 1 Sea V un R-e.v. con producto interno y B = {v1 ; · · · ; vn } una base ortonormal de V. Demuestre
que si w1 ; w2 ∈ V, entonces < w1 ; w2 >=< w1B ; w2B >, donde este último producto interno
es el habitual para Rn .

teórico 2 Sea V un C-e.v. con producto interno y B = {v1 ; · · · ; vn } una base ortonormal de V. Demuestre
que si w1 ; w2 ∈ V, entonces < w1 ; w2 >=< w1B ; w2B >, donde este último producto interno
es el habitual para Cn .

teórico 3 Definición: Dado un conjunto A, decimos que d : A×A −→ R ≥ 0 es una métrica si ∀x, y, z ∈ A:

a) d(x; y) = 0 ⇐⇒ x = y
b) d(x; y) = d(y; x)
c) d(x; y) ≤ d(x; z) + d(z; y) (desigualdad triangular)

Demuestre que si V es un e.v. con producto interno, entonces d(x; y) = kx − yk es una métrica.

3.7. Ejercicios
Nota: A menos que se indique, los productos escalares de los ejercicios son los habituales.

Ejercicio 1 Considere en R2 la siguiente operación:

< (x1 ; x2 ), (y1 ; y2 ) >= 6x1 y1 + 2x2 y2

a) Demuestre que esta operación es un producto interno.


√ √
b) Si x = (1; 3) e y = (1; − 3), hallar < x, y >
c) Si midiera el ángulo entre x e y con un transportador, ¿que ángulo obtendrı́a?
d ) Sacar conclusiones.
78 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO

Ejercicio 2 Considere en C[0; 1] el producto interno:


Z 1
< f, g >= f (x)g(x)dx
0

< f, g >
a) Si f (x) = 3x2 y g(x) = 2x3 , calcular kf k, kgk, < f, g > y cos(α) =
kf kkgk
b) ¿Es posible medir el ángulo entre f y g con un transportador?

Ejercicio 3 Sean a, b ∈ R > 0 y considere en C2 el producto interno:

< (x1 ; x2 ), (y1 ; y2 ) >= ax1 y1 + bx2 y2

a) Encontrar en caso que sea posible valores de a y b para que (2; 3 + i) sea ortogonal a
(−3; 1 − i).
b) Encontrar en caso que sea posible valores de a y b para que (2 − 3i; 3) sea ortogonal a
(−2; 2 + 3i).

Ejercicio 4 a) Demuestre que B = {(1; 2; 1; −1), (3; 1; −5; 0), (2; −1; 1; 1), (−1; 3; 0; 5)} es una base ortogo-
nal de R4 y obtenga (0; 15; −18; −2)B
b) A partir de B, obtenga una base ortonormal B 0 de R4 y obtenga (0; 15; −18; −2)B 0

Ejercicio 5 Utilizar el proceso de ortogonalización de Gram-Schmidt para hallar una base ortogonal de:

a) S = gen{(1; −1; 1; −1); (3; 1; 3; 1); (3; 0; 1; 2)}


b) S = gen{(3; 1; 3; 1); (1; −1; 1; −1); (3; 0; 1; 2)} (Compare con el resultado anterior.)
c) S = gen{(1; −1; 1; −1); (3; 1; 3; 1); (3; 5; 3; 5)}
d ) En C[0; 1] con S = {3x2 ; 2x3 } y el producto interno definido como:
Z 1
< f, g >= f (x)g(x)dx
0

Ejercicio 6 a) Hallar una base de S⊥ para los siguientes casos:


1) S = gen{(2; 3)} V = R2
2) S = gen{(1; −2; 2)} V = R3
3) S = gen{(3; 4; −1); (−3; 14; −5)} V = R3
 
1 −1
4) S = gen V = R2×2
1 −1
   
1 0 1 1
5) S = ; V = R2×2
0 −1 0 0
 
3 x1 − x2 =0
6) S = (x ; x
1 2 3 ; x ) ∈ R
3x1 + 2x2 − x3 =0
3

7) S = (x1 ; x2 ; x3 ) ∈ R x1 + 2x2 − 3x3 =0
 
x1 − x2 + x3 − x4 =0
8) S = (x1 ; x2 ; x3 ; x4 ) ∈ R4
3x1 + 2x2 − x3 + x4 =0
b) Para los casos anteriores, hallar una base ortogonal de V que contenga una base de S y una
base de S⊥ .
3.8. PROBLEMAS 79

Ejercicio 7 a) Considerando el e.v. Rn correspondiente y el producto escalar habitual, hallar PS (v) y


PS ⊥ (v) para los siguientes casos:
1) S = gen{(2; −1; 2)} v = (4; 0; −3)
3

2) S = (x1 ; x2 ; x3 ) ∈ R 3x1 + 12x2 − 4x3 =0 v = (−1; 2; −2)
3) S = gen{(1; 3; 2; −1); (1; 4; 5; 3)} v = (5; −3; 0; 6)
 
4 x1 + 4x2 + 3x3 − 3x4 =0
4) S = (x1 ; x2 ; x3 ; x4 ) ∈ R v = (10; 20; −1; −10)
x1 + 5x2 − 4x3 + x4 =0
b) En los casos anteriores, hallar la distancia entre v y el elemento más cercano de S.

Ejercicio 8 Comprobar que los siguientes conjuntos de vectores son ortonormales y verificar la desigualdad
de Bessel para el vector (−2; 5; −6; 14):
   
2 1 2 2 1 2
a) ; 0; ; ; ; ; 0; −
3 3 3 3 3 3
     
2 1 2 2 1 2 1 2 2
b) ; 0; ; ; ; ; 0; − ; − ; ; ;0
3 3 3 3 3 3 3 3 3
       
2 1 2 2 1 2 1 2 2 2 2 1
c) ; 0; ; ; ; ; 0; − ; − ; ; ; 0 ; 0; ; − ;
3 3 3 3 3 3 3 3 3 3 3 3

3.8. Problemas
Problema 1 Sean en R3 las bases B = {(2; 3; 2); (2; −5; 3); (−19; 6; 96)}, B 0 = {(1; 1; 0); (1; 2; 0); (0; 0; 1)} y el
producto interno

h(x1 ; x2 ; x3 ); (y1 ; y2 ; y3 )i = a x1 y1 + b x2 y2 + c x3 y3 a, b, c ∈ R>0

a) Obtener en caso que sea posible, valores para a, b y c de forma que B resulte una base
ortogonal.
b) Obtener en caso que sea posible, valores para a, b y c de forma que B 0 resulte una base
ortogonal.
c) Utilizando el producto interno definido en 1a, normalice los vectores de B para obtener una
base ortonormal de R3 .

Problema 2 Sean S = gen{(1; 2; 1; −2; 3); (0; 2; 0; −2; −1)} y T = gen{(−2; 1; 2; 1; 0)} dos subespacios de R5 .

a) Hallar en caso que sea posible, una base ortogonal B de R5 que contenga una base de S y
una base de T.
b) Dar una base ortogonal de S⊥ ,una de T⊥ y otra de S⊥ ∩ T⊥ .

Problema 3 Sean S = gen{(4; −2; 0; 1); (−2; 2; −2; 1)} y T = {(x1 ; x2 ; x3 ; x4 ) ∈ R4 /x1 − x2 + 2x3 − x4 = 0}
dos subespacios de R4 .
Hallar, en caso que sea posible, un subespacio W ⊂ R4 que cumpla simultaneamente:

dim(W) = 2 W⊂T dim(W + S⊥ ) = 3



1 si x ∈ [n; n + 1]
Problema 4 Sea n ∈ N0 y sean ϕn (x) =
Z x∞∈
0 si / [n; n + 1]
y el producto interno < f, g >= f (x)Q(x)g(x)dx, con Q(x) > 0.
0
80 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO


0 si i 6= j
a) Explique gráficamente porque ϕi (x) · ϕj (x) =
ϕi (x) si i = j
b) Demostrar que ϕ1 (x), ϕ2 (x), ϕ3 (x), · · · es un conjunto ortogonal con cualquier función de
peso Q(x) > 0 en el intervalo [0; ∞).
c) Demostrar que si Q(x) = 1 el conjunto es ortonormal.
Z β
Problema 5 Sea el producto interno < f, g >= f (x)Q(x)g(x)dx
α

a) Hallar a, b y c para que el conjunto {1, x + a, x2 + bx + c} sea ortogonal con función de


peso Q(x) = 1 y [α; β] = [−1; 1].
b) Hallar la norma de las tres funciones.
c) Ídem 5a y 5b con [α; β] = [0; 1] y función de peso Q(x) = 1.
d ) Ídem 5a y 5b en [α; β] = [−1; 1] y función de peso Q(x) = x2 .

W = gen{(1; 0; 1; 2); (1; 1; 0; −1)}, T1 = (x1 ; x2 ; x3 ; x4 ) ∈ R4 /x1 − 2x2 + x3 − x4 = 0 y



Problema 6 Sean 
T2 = (x1 ; x2 ; x3 ; x4 ) ∈ R4 /x1 + ax2 − x3 + bx4 = 0 subespacios de R4 .
Hallar, en caso que sea posible, a,b ∈ R y un subespacio S tal que se verifique simultaneamente:

W ⊕ S = T1 W⊥ ⊕ S = T2

3.9. Respuestas a los ejercicios


Nota: Las respuestas dadas no necesariamente son las únicas.

Ejercicio 1 b) < x; y >= 0


c) Debemos utilizar el producto interno estandar:
< x; y > −2 1
cos(α) = = =− ⇒ α = 120o
kxkkyk 2·2 2
3 2
Ejercicio 2 a) kf k = √ , kgk = √ , < f ; g >= 1
5 7
Ejercicio 3 a) No es posible.
3
b) Debe cumplirse que a = b
2
Ejercicio 4 a) (0; 15; −18; −2)B = (2; 3; −5; 1)
√ √ √ √
b) (0; 15; −18; −2)B 0 = (2 7; 3 35; −5 7; 35)

Ejercicio 5 a) {(1; −1; 1; −1); (2; 2; 2; 2; ); (1; −1; −1; 1)}


   
2 23 2 23
b) (3; 1; 3; 1); ;− ; ;− ; (1; −1; −1; 1)
5 5 5 5
c) {(1; −1; 1; −1); (2; 2; 2; 2)}
 
2 3 5 2
d ) 3x ; 2x − x
3
    √
4 2 4 32 2 31 221
Ejercicio 7 a) PS (v) = ;− ; PS ⊥ (v) = ; ;− d=
9 9 9 9 9 9 3
3.9. RESPUESTAS A LOS EJERCICIOS 81

   
256 10 222 87 348 116 29
b) PS (v) = − ;− ;− PS ⊥ (v) = ; ;− d=
169 169 169 169 169 169 13

c) PS (v) = (−1; −2; 1; 5) PS ⊥ (v) = (6; −1; −1; 1) d = 39

d ) PS (v) = (5; −2; −2; −3) PS ⊥ (v) = (5; 22; 1; −7) d = 559
82 CAPÍTULO 3. ESPACIOS VECTORIALES CON PRODUCTO INTERNO
Capı́tulo 4

Transformaciones Lineales

Consideremos un punto P = (x; y) en el plano coordenado a distancia ρ del origen y supongamos que
nos interesa conocer las coordenadas de P = (x0 ; y 0 ) en un sistema que se encuentra rotado un ángulo
α respecto al original. Observando la figura, por un lado resulta que:

x = ρ cos(β)
y = ρ sen(β)

y por otro lado tenemos:


x0 = ρ cos(β − α)


y 0 = ρ sen(β − α)
Utilizando identidades trigonométricas obtenemos:
  
 x 0 = ρ cos(β − α) = ρ cos(α) cos(β) + sen(α) sen(β) = cos(α) ρ cos(β) +sen(α) ρ sen(β)

 | {z } | {z }

  x y
 0
y = ρ sen(β − α) = ρ cos(α) sen(β) − sen(α) cos(β) = cos(α) ρ sen(β) −sen(α) ρ cos(β)


 | {z } | {z }
y x

83
84 CAPÍTULO 4. TRANSFORMACIONES LINEALES

Con lo cual:

x0 = x cos(α) + y sen(α)
  0    
x cos(α) sen(α) x
=⇒ = ·
y 0 = −x sen(α) + y cos(α) y0 −sen(α) cos(α) y
 
x
Podemos interpretar este último resultado como una función que a las componentes de un punto
y
 0
x
en un sistema de coordenadas le asigna las componentes del mismo punto en un sistema de
y0
coordenadas que está rotado
 un ángulo
  α respecto
 del anterior. Analicemos
 la estructura de esta
x x cos(α) sen(α)
función. Si llamamos X = , X0 = yA= , nos queda:
y y −sen(α) cos(α)

X0 = A · X}
| {z
T (X)

donde estamos llamando T (X) a la función mencionada anteriormente, de esta manera, T (X) = A · X.
Esta función, tiene caracterı́sticas peculiares:
Su dominio y codominio son espacios vectoriales (en este caso R2 o si prefiere R2×1 ).

T (X1 + X2 ) = T (X1 ) + T (X2 )

Si λ ∈ R, entonces T (λ X) = λ T (X)

Del anterior se desprende que T (0) = 0


Estas caracterı́sticas se repiten para cualquier función T : Rn −→ Rm de la forma T (X) = A · X
donde A ∈ Rm×n y aparecen con frecuencia en problemas de distinta naturaleza como el planteado
anteriormente sobre sistemas rotados. Se motiva de esta forma la siguiente:

Definición 17. Sea T : V −→ W una función, donde V y W son K-e.v. Decimos que T es una
transformación lineal(t.l.) o un homomorfismo (o simplemente morfismo) de V en W si:
1 T (X1 + X2 ) = T (X1 ) + T (X2 )

2 Si λ ∈ K, entonces T (λ X) = λ T (X)

Observemos que la definición no limita el tipo de función a la forma T (X) = A · X ni los tipos de
espacios vectoriales a Rn , logrando una definición muy amplia como se acostumbra en matemática. Este
será el objeto de estudio de este capitulo. También es fácil demostrar que si T (X) es una t.l.,entonces
T (0) = 0.
Veamos algunos ejemplos:

Ejemplo 15. Ustedes pueden demostrar que:


   
2 1   2x + y
x
1 T (x; y) = 0 3 · =  3y  es una t.l. de R2 en R3 .
y
2 5 2x + 5y
4.1. ALGUNAS DEFINICIONES, PROPOSICIONES Y PROPIEDADES 85

2 T (x) = 5 x es una t.l. de R en R.


 
a11 a12
3 T = 3 a11 x3 − (a21 − 3 a22 ) x2 + (a12 + a11 ) x + a22
a21 a22
es una t.l. de C2×2 en C[x].

También es fácil verificar que:


 2 
x
4 f (x; y) = ; x + 2 y , f : R2 −→ R2 no es una t.l. ya que su dominio no es todo el e.v. R2 .
y
   2 
2 1   2x + y
x
5 f (x; y) = 0 3 · =  3y , f : R2 −→ R3 no es una t.l. ya que f (3; 0) 6= 3 f (1; 0).
y
2 5 2x + 5y
También se llega a la misma conclusión con f (1; 0) + f (1; 0) 6= f (2; 0).

6 f (x) = 3 x + 2, f : R −→ R no es una t.l. ya que f (0) 6= 0


 p 
7 f (x; y) = 2 x−3 y; 3 x3 + y 3 , f : R2 −→ R2 no es una t.l. ya que f (1; −1)+f (1; 0) 6= f (2; −1)

8 f (x; y) = (x; y), f : C2 −→ C2 no es una t.l. ya que f [i (1; 1)] 6= i f (1; 1)

4.1. Algunas definiciones, proposiciones y propiedades

Proposición 15. Si A ∈ Cm×n y T : Cn×r −→ Cm×r , T (v) = A · v, entonces T es una t.l.

Demostración

Utilizando propiedades de las operaciones entre matrices resulta:

T (λ v) = A · (λ v) = λ (A · v) = λ T (v)

T (v1 + v2 ) = A · (v1 + v2 ) = A · v1 + A · v2 = T (v1 ) + T (v2 )

Ejemplo 16.
 
  x
2 6 9  
1 T x y z = · y es una t.l.
4 7 1
z
   
a11 a12   a11 a12
a21 a22  2 3 0 2 a21 a22 
a31 a32  = 1 4 7 1 · a31
2 T      es una t.l.
a32 
8 3 4 8
a41 a42 a41 a42
86 CAPÍTULO 4. TRANSFORMACIONES LINEALES

Observación 22. Ustedes pueden generalizar el siguiente ejemplo:


Como T1 (x1 ; x2 ; x3 ;x4 ) = (x1 − 3 x3 + x4 ; 2x2 − x4 ; x1 + x3 ; x1 − x2 + 5 x4 ) es una t.l., entonces
x1 − 3 x3 + x4 2x2 − x4
T2 (x1 ; x2 ; x3 ; x4 ) = también lo es.
x1 + x3 x1 − x2 + 5 x4

Observación 23. Si T : Rn −→ Rm es una t.l.,, entonces existe una matriz A ∈ Rm×n tal que
T (v) = A · v como en el siguiente ejemplo:
  
x1  x1

 x2  1 0 −3 1  x2 
T1 (x1 ; x2 ; x3 ; x4 ) = (x1 −3 x3 +x4 ; 2x2 −x4 ; x1 +x3 ) −→ T1   = 0
 x3  2 0 −1 ·  
 x3 
1 0 1 0
x4 | {z } x4
A

A esa matriz A la llamaremos la matriz de la transformación T y la denotaremos como kT k.

Proposición 16. Sean v1 ,v2 ∈ V, V,W dos K-e.v. y λ ∈K.


T : V −→ W es una t.l. si y solo si T (v1 + λ v2 ) = T (v1 ) + λ T (v2 )

Demostración

A cargo de ustedes.

Propiedades 7. Sean V,W dos K-e.v. y λ ∈K. Si T : V −→ W es una t.l., entonces:


1 T (0) = 0

2 T (−v) = −T (v)

3 T (v1 − v2 ) = T (v1 ) − T (v2 )

4 T (λ1 v1 + · · · + λk vk ) = λ1 T (v1 ) + · · · + λk T (vk )

Demostración

A cargo de ustedes.

Proposición 17. Sea B = {v1 ; · · · ; vn } una base el K-e.v. V y v ∈ V y sea T : V −→ W una t.l.
Alcanza con conocer T (vi ), (i = 1; · · · ; n) para conocer a T en todo su dominio.
4.1. ALGUNAS DEFINICIONES, PROPOSICIONES Y PROPIEDADES 87

Demostración

Como B es una base, existen λ1 ; · · · ; λn tales que v = λ1 v1 + · · · + λn vn , con lo cual:

T (v) = T (λ1 v1 + · · · + λn vn ) = λ1 T (v1 ) + · · · + λn T (vn )

Ejemplo 17. Sea T : R3 −→ R2 la t.l. tal que T (1; 1; 1) = (2; 1), T (1; 1; 0) = (3; 2) y T (1; 0; 0) = (1; 1).
Encontrar la forma explı́cita de T .

Resolución. Escribimos un vector genérico (x; y; z) como c.l. de los elementos de la base B =
{(1; 1; 1); (1; 1; 0); (1; 0; 0)}:

(x; y; z) = λ1 (1; 1; 1) + λ2 (1; 1; 0) + λ3 (1; 0; 0)

Resolvemos el sistema:    
1 1 1 x 1 0 0 z
 1 1 0 y  −→  0 1 0 y − z 
1 0 0 z 0 0 1 x−y
De esta manera queda:

(x; y; z) = z (1; 1; 1) + (y − z) (1; 1; 0) + (x − y) (1; 0; 0)

Con lo cual:
 
T (x; y; z) =T z (1; 1; 1) + (y − z) (1; 1; 0) + (x − y) (1; 0; 0)
=z T (1; 1; 1) + (y − z) T (1; 1; 0) + (x − y) T (1; 0; 0)
=z (2; 1) + (y − z) (3; 2) + (x − y) (1; 1)
=(x + 2 y − z ; x + y − z)

Definición 18. Sean V,W dos K-e.v., S un subespacio de V y T : V −→ W una t.l.

1 Llamamos imagen de T a Im(T ) = {w ∈ W : ∃v ∈ V tal que T (v) = w}

2 Llamamos núcleo o kernel de T a N u(T ) = {v ∈ V : T (v) = 0}

3 Llamamos imagen de S por T a T (S) = {w ∈ W : ∃v ∈ S tal que T (v) = w}

Proposición 18. Si T : V −→ W es una t.l. y S es un subespacio de V, entonces N u(T ) es un


subespacio de V e Im(T ) y T (S) son subepacios de W.

Demostración
88 CAPÍTULO 4. TRANSFORMACIONES LINEALES

A cargo de ustedes.

 
x1  
x2 
  x1 − 2 x4 + x5
  x1 − 2 x2 
x3  =
Ejemplo 18. Hallar N u(T ) e Im(T ) para T 
x4  x2 + x3 − 2 x5
x5


 x1 − 2 x4 + x5 = 0
Resolución. Para el núcleo hay que resolver el sistema: x1 − 2 x2 = 0
x2 + x3 − 2 x5 = 0

Reduciendo la matriz de coeficientes obtenemos:
   
1 0 0 −2 1 1 0 0 −2 1
1 −2 0 0 0  −→ 0 1 0 −1 21 
0 1 1 0 −2 0 0 1 1 − 52

Luego resulta:  
 x1 − 2 x4 + x5 = 0  x1 = 2 x4 − x5
1
x2 − x4 + 2 x5 = 0 −→ x2 = x4 − 21 x5
5
x3 + x4 − 2 x5 = 0 x3 = −x4 + 25 x5
 

       
x1 2 x4 − x5 2 −1
x2   x4 − 1 x5  1 − 1 
2  2
x3  = −x4 + 5 x5  = x4 −1 + x5  5 
     
   2     2 
x4   x4  1  0 
x5 x5 0 1
       
 2 −1   2 −2 
1 
   
 1  − 2   1  −1

     
   


5

N u(T ) = gen  −1  ;   = gen −1 ;  5 
   2     


  1   0  


 1   0  
   
0 1 0 2
   

Si prefiere, puede escribirlo como filas:

N u(T ) = gen {(2; 1; −1; 1; 0); (−2; −1; 5; 0; 2)}

Para la imagen, basta con transformar los elementos de una base cualquiera, por ejemplo la canónica
y esos transformados serán un conjunto de generadores de Im(T ) (piense porqué).

T (1; 0; 0; 0; 0) = (1; 1; 0)
T (0; 1; 0; 0; 0) = (0; −2; 1)
T (0; 0; 1; 0; 0) = (0; 0; 1) −→ Im(T ) = gen{(1; 1; 0); (0; −2; 1); (0; 0; 1); (−2; 0; 0); (1; 0; −2)} = R3
T (0; 0; 0; 1; 0) = (−2; 0; 0)
T (0; 0; 0; 0; 1) = (1; 0; −2)
4.1. ALGUNAS DEFINICIONES, PROPOSICIONES Y PROPIEDADES 89

Ejemplo 19. Sea T :: V −→ W la t.l. tal que T (v1 ) = w1 − 2w3 , T (v2 ) = 2 w1 − 4w2 , T (v3 ) =
2 w1 − 3 w2 − w3 , siendo B = {v1 ; v2 ; v3 } una base de V y B 0 = {w1 ; w2 ; w3 } una base de W. Hallar
una base de N u(T ) y otra de Im(T ).

Resolución. La imagen es trivial ya que w1 − 2w3 , 2 w1 − 4w2 y 2 w1 − 3 w2 − w3 son los trans-


formados de la base B con lo cual:

Im(T ) = gen{w1 − 2w3 ; 2 w1 − 4w2 ; 2 w1 − 3 w2 − w3 }

Hay que extraer una base de allı́. Trabajemos con las coordenadas poniendolas como filas de una matriz
y reduciendo:    
1 0 −2 1 0 −2
2 −4 0  −→ 0 1 −1
2 −3 −1 0 0 0
y la base queda:
base de Im(T ) = {w1 − 2 w3 ; w2 − w3 }
Para el núcleo hay que buscar los v = λ1 v1 + λ2 v2 + λ3 w3 tales que:

0 =T (v)
=λ1 T (v1 ) + λ2 T (v2 ) + λ3 T (v3 )
=λ1 (w1 − 2w3 ) + λ2 (2 w1 − 4w2 ) + λ3 (2 w1 − 3 w2 − w3 )
= (λ1 + 2 λ2 + 2 λ3 ) w1 + (−4λ2 − 3λ3 ) w2 + (−2λ1 − λ3 ) w3
| {z } | {z } | {z }
0 0 0

Como B 0 = {w1 ; w2 ; w3 } es una base de W y la única c.l. entre ellos que da 0 es la trivial, resulta
un sistema de ecuaciones para los λi que si lo reducimos:

1 0 21
   
1 2 2  1
 0 −4 −3 −→ 0 1 3  −→ λ1 = − 23 λ3
4 λ2 = − 4 λ3
−2 0 −1 0 0 0

O sea que:

v =λ1 v1 + λ2 v2 + λ3 w3
1 3
= − λ3 v1 − λ3 v2 + λ3 w3
2
 4 
1 3
=λ3 − v1 − v2 + w3
2 4
1 3
con lo cual v son todas las c.l. del vector − v1 − v2 + w3 y entonces:
2 4
 
1 3
base de N u(T ) = − v1 − v2 + w3
2 4

Definición 19. Sean V y W dos K-e.v. de dimension finita y T : V −→ W una t.l.


90 CAPÍTULO 4. TRANSFORMACIONES LINEALES

1 Si dim(N u(T )) = 0 decimos que T es un monomorfismo.

2 Si dim(Im(T )) = dim(W) decimos que T es un epimorfismo.

3 Si T es monomorfismo y epimorfismo decimos que T es un isomorfismo.

4 Si V = W, decimos que T es un endomorfismo.

5 Si T es un isomorfismo y endomorfismo decimos que T es un automorfismo.

6 Si T (v) = 0 ∀v ∈ V, T se llama la transformación nula. Escribiremos a esa transformación


0(v).

7 Si T es un endomorfismo y T (v) = v ∀v ∈ V, T se llama la transformación identidad.


Escribiremos a esa transformación IV (v).

Propiedades 8.
1 Un monomorfismo es inyectivo.

2 Un epimorfismo es sobreyectivo.

3 Un isomorfismo es biyectivo, por lo tanto inversible.

Demostración

A cargo de ustedes.

4.2. Composición e inversa de una t.l.

Definición 20. Sean U, V, W tres K-e.v. y T1 : U −→ V,T2 : V −→ W dos t.l.. Llamamos composi-
ción de T1 y T2 a:
(T2 ◦ T1 )(v) = T2 [T1 (v)]

Definición 21. Sean V y W dos K-e.v. de la misma dimensión y T : V :−→ W un isomorfismo.


LLamamos inversa de T a:

T −1 (w) = v con T (v) = w ∀w ∈ W

Proposición 19. Se cumplen los siguientes items:


1 La composición de dos t.l. es una t.l.

2 La inversa de un isomorfismo es una t.l.


4.2. COMPOSICIÓN E INVERSA DE UNA T.L. 91

3 N u(T1 ) ⊂ N u(T2 ◦ T1 )

4 Im(T2 ◦ T1 ) ⊂ Im(T2 )

5 Si T2 es un monomorfismo, entonces N u(T2 ◦ T1 ) = N u(T1 )

6 Si T1 es un epimorfismo, entonces Im(T2 ◦ T1 ) = Im(T2 )

7 Si T : V −→ W es un isomorfismo, entonces T ◦ T −1 : V −→ V y T −1 ◦ T : W −→ W resultan


ser IV e IW respectivamente.

8 Si T1 : Rn −→ Rk y T2 : Rk −→ Rm son t.l., entonces kT2 ◦ T1 k = kT2 k · kT1 k.

9 Si T : Rn −→ Rn es un isomorfismo, entonces kT k es inversible y kT −1 k = kT k−1 .

10 Si T1 , T2 y T3 son t.l. que pueden componerse en ese orden, entonces T1 ◦(T2 ◦T3 ) = (T1 ◦T2 )◦T3 .

Demostración

1,4,6,7,8 y 9 a cargo de ustedes.

2 Hay que demostrar que T −1 (w1 + λ w2 ) = T −1 (w1 ) + λ T −1 (w2 ).


Sean v1 y v2 tales que T (v1 ) = w1 y T (v2 ) = w2 , de esta manera:

T −1 (w1 ) + λ T −1 (w2 ) = v1 + λ v2

Pero también se cumple que:

T (v1 + λv2 ) = T (v1 ) + λ T (v2 ) = w1 + λ w2

con lo cual:
T −1 (w1 + λ w2 ) = v1 + λv2 = T −1 (w1 ) + λ T −1 (w2 ) Q.e.d.

3 Si v ∈ N u(T1 ), entonces (T2 ◦ T1 )(v) = T2 [T1 (v)] = T2 [0] = 0 =⇒ v ∈ N u(T2 ◦ T1 )

5 Debido a 19-3, solo hay que probar que N u(T2 ◦ T1 ) ⊂ N u(T1 ).


Si v ∈ N u(T2 ◦ T1 ), entonces T2 [T1 (v)] = 0, pero esto solo es posible si T1 (v) ∈ N u(T2 ). Dado
que T2 es un monomorfismo, lo anterior significa que T1 (v) = 0 =⇒ v ∈ N u(T1 ), o sea
que N u(T2 ◦ T1 ) ⊂ N u(T1 ).

10 Supongamos que T3 (u) = v, que T2 (v) = w y T1 (w) = z. Queda claro que


(T1 ◦ T2 )(v) = T1 [T2 (v)] = z y que (T2 ◦ T3 )(u) = T2 [T3 (u)] = w
De esta forma resulta que:

[T1 ◦ (T2 ◦ T3 )](u) = T1 [(T2 ◦ T3 )(u)] = z


| {z }
w

[(T1 ◦ T2 ) ◦ T3 ](u) = (T1 ◦ T2 )[T3 (u)] = z


| {z }
v

con lo cual ambas expresiones son iguales.


92 CAPÍTULO 4. TRANSFORMACIONES LINEALES

Veamos algún ejemplo de composición e inversa:


Ejemplo 20. Sean T1 (x1 ; x2 ; x3 ) = (2x1 − x2 + 3x3 ; 2x1 + 3x2 + x3 ; x1 + 2x2 − x3 ) y T2 (x1 ; x2 ) =
(x1 + x2 ; 3x1 + 4x2 ; x1 − x2 ) dos t.l. Hallar T1 ◦ T2 y T1−1

Resolución. Dado que Im(T2 ) ⊂ dom(T1 ), la composición es posible. Aunque no es necesario, para
facilitar la comprensión del proceso consideraremos
T1 (u1 ; u2 ; u3 ) = (2u1 − u2 + 3u3 ; 2u1 + 3u2 + u3 ; u1 + 2u2 − u3 ). De esta forma:
(T1 ◦ T2 )(x1 ; x2 ) = T1 [T2 (x1 ; x2 )]
= T1 (x1 + x2 ; 3x1 + 4x2 ; x1 − x2 )
| {z } | {z } | {z }
u1 u2 u3

= 2 (x1 + x2 ) − (3x1 + 4x2 ) +3 (x1 − x2 );
| {z } | {z } | {z }
u1 u2 u3
2 (x1 + x2 ) +3 (3x1 + 4x2 ) + (x1 − x2 );
| {z } | {z } | {z }
u1 u2 u3

(x1 + x2 ) +2 (3x1 + 4x2 ) − (x1 − x2 )
| {z } | {z } | {z }
u1 u2 u3
= (2x1 − 5x2 ; 12x1 + 13x2 ; 6x1 + 10x2 )

(T1 ◦ T2 )(x1 ; x2 ) = (2x1 − 5x2 ; 12x1 + 13x2 ; 6x1 + 10x2 )


Para obtener T1−1 , lo primero deberı́a ser asegurarse que se trata de un isomorfismo, esto es que
N u(T1 ) = {0} y que Im(T1 ) = R3 , veremos esto más adelante. Si consideramos lo siguiente:
T1 (x1 ; x2 ; x3 ) = (2x1 − x2 + 3x3 ; 2x1 + 3x2 + x3 ; x1 + 2x2 − x3 )
| {z } | {z } | {z }
y1 y2 y3

,para obtener T1−1 se trata de obtener los xi en función de los yi . Si armamos la matriz ampliada del
sistema y reducimos se obtiene:
1 0 0 12 y1 − 12 y2 + y3
   
2 −1 3 y1
 2 3 1 y2  −→  0 1 0 − 3 y1 + 1 y2 − 2 y3 
10 2 5
1
1 2 −1 y3 0 0 1 − 10 y1 + 12 y2 − 54 y3
Con lo cual
 
1 1 3 1 2 1 1 4
T1−1 (y1 ; y2 ; y3 ) = y1 − y2 + y3 ; − y1 + y2 − y3 ; − y1 + y2 − y3
2 2 10 2 5 10 2 5
o lo que es lo mismo:
 
1 1 3 1 2 1 1 4
T1−1 (x1 ; x2 ; x3 ) = x1 − x2 + x3 ; − x1 + x2 − x3 ; − x1 + x2 − x3
2 2 10 2 5 10 2 5

Además, al tener solución única para todo (y1 ; y2 ; y3 ), garantizamos que es un isomorfismo(piensen
porque).
No estarı́a de más que reprodujeran estos resultados utilizando las proposiciones 19-8 y 19-9.
4.3. TEOREMA DE LA DIMENSIÓN 93

4.3. Teorema de la dimensión


Veremos ahora un teorema muy importante sobre las transformaciones lineales.

Teorema 8. Sean V y W dos K-e.v., dim(V) = n. Si T : V −→ W es una t.l., entonces

dim(V) = dim(N u(T )) + dim(Im(T ))

Demostración

Sea BN = {v1 ; · · · ; vk } una base de N u(T ). Extendamos esta base a una de V:

B = { v1 ; · · · ; vk ; vk+1 ; · · · ; vn }
| {z } | {z }
base de N u(T ) B 00

Claramente estamos asumiendo que dim(N u(T )) = k, deberiamos probar que dim(Im(T )) = n − k.
Transformando la base B, obtenemos un conjunto de generadores de Im(T ), pero los primeros k dan el
vector nulo ya que son transformados de elementos del núcleo, esto es, quedan solo n − k generadores.

T (vk+1 ) = w1
T (vk+2 ) = w2
.. −→ Im(T ) = gen{w1 ; w2 ; · · · ; wn−k }
.
T (vn ) = wn−k

Para demostrar lo buscado, falta probar que estos generadores son l.i.

0 =λ1 w1 + · · · + λn−k wn−k


=λ1 T (vk+1 ) + · · · + λn−k T (vn−k )
h i
=T λ1 vk+1 + · · · + λn−k vn−k

Esto significa que λ1 vk+1 + · · · + λn−k vn−k está en N u(T ), pero como los vectores de B 00 son una
extensión de la base de N u(T ), esto solo es posible si

λ1 = · · · = λn−k = 0 Q.e.d.

Una consecuencia muy importante de este teorema es que permite decidir si ciertas t.l. so posibles,
por ejemplo:

Ejemplo 21. Decidir si es posible hallar una t.l. T : R4 −→ R4 tal que


ImT = gen{2; 2; 3; −5); (0; 3; 7; 2); (0; 0; 3; 9)} y N u(T ) = {(5; 0; 8; 6); (0; 4; 8; 1)}.

Resolución. Si fuera posible, entonces se debe cumplir que dim(R4 ) = dim[N u(T )] + dim[Im(T )],
pero como dim[N u(T )] = 2 y dim[Im(T )] = 3, la t.l. no es posible.
94 CAPÍTULO 4. TRANSFORMACIONES LINEALES

Algunas consecuencias directas de este teorema son:

1 Si T : V −→ W es un monomorfismo, entonces dim(Im(T )) = dimV

2 Si T : V −→ W es un epimorfismo, entonces dim(N u(T )) = dimV − dim(W)

3 Si T : V −→ W es un isomorfismo, entonces dim(V) = dim(W).

Proposición 20. Si T1 y T2 son dos isomorfismos que pueden componerse en ese orden, entonces
T1 ◦ T2 es un isomorfismo y se cumple:

(T1 ◦ T2 )−1 = T2−1 ◦ T1−1

Demostración

Dado que T1 y T2 son isomorfismos, dominios y codominios de ambas tienen la misma dimension,
además como se pueden componer, resulta que Cod(T2 ) = Dom(T1 ). Gracias al teorema de la dimen-
sión, nos alcanza con probar que que N u(T1 ◦ T2 ) = {0} para garantizar que la composición es un
isomorfismo. Lo hacemos de la siguiente manera:

v ∈ N u(T1 ◦ T2 ) ⇒ T1 [T2 (v)] = 0


⇒ T2 (v) ∈ N u(T1 ) = {0}
| {z }
por ser iso

⇒ T2 (v) = 0
⇒ v ∈ N u(T2 ) = {0}
| {z }
por ser iso

⇒ v=0

En definitiva hemos demostrado que T1 ◦ T2 es un isomorfismo.


Para la segunda parte consideremos un u tal que T2 (u) = v y T1 (v) = w, con lo cual
(T1 ◦ T2 )(u) = w. La demostración sale porque:

(T2−1 ◦ T1−1 )(w) = T2−1 [T1−1 (w)] = T2−1 (v) = u = (T1 ◦ T2 )−1 (w)

4.4. Matriz de una t.l. en las bases B y B’


Hemos visto en la sección 2.9, la posibilidad de representar un vector a traves de sus coordenadas en
una base. Dada una t.l. T : V −→ W, resulta natural preguntarse como se relacionan las coordenadas
de un vector en una base de V con las de su transformado en una base de W. Más formalmente, si
B = {v1 ; · · · ; vn } es una base de V,
B 0 = {w1 ; · · · ; wm } es una base de W,
v = α1 v1 + · · · + αn vn y
T (v) = β1 w1 + · · · + βm wm ,
¿Como se relacionan vB = (α1 ; · · · ; αn ) y [T (v)]B 0 = (β1 ; · · · ; βm )?
4.4. MATRIZ DE UNA T.L. EN LAS BASES B Y B’ 95

Supongamos que T (vi ) = t1i w1 + · · · + tmi wm , esto es [T (vi )]B 0 = (t1i ; · · · ; tmi )
Si utilizamos la propiedad 4-1 y lo observado en la sección 1.2.5, obtenemos:
T (v)B 0 = T (α1 v1 + · · · + αn vn )B 0
= α1 T (v1 )B 0 + · · · + αn T (vn )B 0
   
t11 t1n
 t21   t2n 
   
 ..   .. 
 .  + · · · + αn  .
= α1    

 ..   .. 
 .   . 
tm1 tmn
 
t11 · · · · · · t1n  
 t21 · · · · · · t2n  α1
 
 · · · · · · · · · · · ·   ..
= · .


 .. .. 
 . .  αn
tm1 · · · · · · tmn | {z
vB
}
| {z }
kT kBB 0

A la matriz kT kBB 0 la llamaremos la matriz de T en las bases B y B 0 . En resumen:

T (v)B 0 = kT kBB 0 · vB (4.1)


En caso que B = B 0 escribimos: kT kBB = kT kB
Debemos familiarizarnos con la utilización de este resultado ya que será necesario más adelante.

Observación 24.
1 Las columnas de kT kBB 0 se forman con T (vi )B 0 .
2 rg(kT kBB 0 ) = dim[Im(T )]
3 Si T : Rn −→ Rm , E y E 0 son las bases canónicas de Rn y Rm respectivamente, entonces
kT kEE 0 = kT k
4 Si N : V −→ W es la t.l. nula y; B y B 0 son bases cualquiera de V y W respectivamente, entonces
kN kBB 0 = O.
5 Dados T , B y B 0 , resulta que kT kBB 0 es única.

Ejemplo 22. Sean la t.l. T (x1 ; x2 ; x3 ) = (2x1 − x2 + x3 ; x1 + 3x2 − 4x3 ) y las bases
B = {(2; 1; 1); (−1; 2; 4); (1; 3; 0)} y B 0 = {(1; 2); (1; −1)}. Hallar kT kBB 0 .
Resolución. Las columnas de kT kBB 0 estarán formadas por [T (2; 1; 1)]B , [T (−1; 2; 4)]B y
[T (1; 3; 0)]B .
 
5 7 5 7
T (2; 1; 1) = (4; 1) = (1; 2) + (1; −1) =⇒ [T (2; 1; 1)]B = ;
3 3 3 3
 
11 11 11 11
T (−1; 2; 4) = (0; −11) = − (1; 2) + (1; −1) =⇒ [T (−1; 2; 4)]B = − ;
3 3 3 3
T (1; 3; 0) = (−1; 10) = 3(1; 2) − 4(1; −1) =⇒ [T (1; 3; 0)]B = (3; −4)
96 CAPÍTULO 4. TRANSFORMACIONES LINEALES

Con lo cual: 5
− 11

3 3 3
kT kBB 0 = 7 11
3 3 −4

 
2 1 1
Ejemplo 23. Sea T : R3 −→R2 la t.l. tal que kT kBB 0 = , siendo
3 2 1
B = {(1; 1; 1); (0; 1; 1); (0; 0; 1)} y B 0 = {(2; 3); (4; 6)}. Hallar T (2; 3; 5) y bases de Im(T ) y N u(T ).
Resolución. Sabemos que [T (2; 3; 5)]B 0 = kT kBB 0 · (2; 3; 5)B , lo primero que debemos hacer es obtener
(2; 3; 5)B .
(2; 3; 5) = 2(1; 1; 1) + (0; 1; 1) + 2(0; 0; 1) =⇒ (2; 3; 5)B = (2; 1; 2)
Ahora obtenemos [T (2; 3; 5)]B 0 como sigue:  
  2  
2 1 1   7
[T (2; 3; 5)]B 0 = kT kBB 0 · (2; 3; 5)B = · 1 =
3 2 1 10
2
Por último, utilizamos las coordenadas obtenidas para recuperar el vector:

T (2; 3; 5) = 7(2; 3) + 10(4; 6) = (54; 81)

Para obtener la imagen, consideremos que las columnas de kT kBB 0 , son coordenadas de generadores
de Im(T ) ya que corresponden a los transformados de los elementos de la base B. Luego:
2(2; 3) + 3(4; 6) = (16; 24) (2; 3) + 2(4; 6) = (10; 15) (2; 3) + (4; 6) = (6; 9)
son generadores de Im(T ) con lo cual:

Im(T ) = R2 =⇒ sirve cualquier base de R2 , por ejemplo la canónica E

Para el núcleo, hay que considerar que (0; 0)B 0 = (0; 0) para cualquier base B 0 , con lo cual para
obtener coordenadas de los generadores del núcleo hay que resolver kT kBB 0 ·vB = 0. Para eso reducimos
kT kBB 0 y armamos el sistema equivalente:
   
2 1 1 1 0 1
−→
3 2 1 0 1 −1

α1 + α3 = 0
−→
α2 − α3 = 0

α1 = −α3
−→
α2 = α3
−→ (α1 ; α2 ; α3 ) = (−α3 ; α3 ; α3 ) = α3 (−1; 1; 1)

(−1; 1; 1) son las coordenadas del generador de N u(T ), o sea:

−(1; 1; 1) + (0; 1; 1) + (0; 0; 1) = (−1; 0; 1) −→ Base de N u(T ) = {(−1; 0; 1)}

Proposición 21. Si T1 : U −→ V y T2 : V −→ W son dos t.l., B es una base de U, B 0 es una base


de V y B 00 es una base de W, entonces:

kT2 ◦ T1 kBB 00 = kT2 kB 0 B 00 · kT1 kBB 0


4.4. MATRIZ DE UNA T.L. EN LAS BASES B Y B’ 97

Demostración

El siguiente esquema, la unicidad de kT2 ◦ T1 kBB 00 y la propiedad asociativa del producto de matrices
es autoexplicativa:
kT2 ◦T1 k 00
z }| BB {
kT2 kB 0 B 00 · kT1 kBB 0 · vB
| {z }
[T1 (v)]B 0
| {z }
[T2 [T1 (v)]]B 00

Proposición 22. T : V −→ W es un isomorfismo, B es una base de V, B 0 y es una base de W,


entonces:
kT −1 kB 0 B = kT k−1
BB 0

Demostración

Por ser T un isomorfismo, rg(kT kBB 0 ) = dim[Im(T )] con lo cual kT kBB 0 es inversible. Si consideramos
un v ∈ V y T (v) = w, entonces:

wB 0 = kT kBB 0 · vB =⇒ kT k−1 0
−1
BB 0 · wB = kT kBB 0 · kT kBB ·vB
0 =⇒ vB = kT k−1 0 ·wB 0
| {z } | {zBB}
I kT −1 kB 0 B

Ejemplo 24. Sean T1 (a x2 + b x + c) = (a − b; b − c; a + c), T2 (x1 ; x2 ) = (x1 + x2 ; x1 − x2 ; 2x1 ),


B = {1; x; x2 }; B 0 = {(1; 1; 1); (0; 1; 1); (0; 0; 1)} y B 00 = {(0; 1); (1; 1)}. Hallar kT1 kBB 0 , kT2 kB 00 B 0 y
kT1−1 ◦ T2 kB 00 B .

Resolución.

T1 (1) = (0; −1; 1) = −(0; 1; 1) + 2(0; 0; 1) =⇒ [T1 (1)]B 0 = (0; −1; 2)


T1 (x) = (−1; 1; 0) = −(1; 1; 1) + 2(0; 1; 1) − (0; 0; 1) =⇒ [T1 (x)]B 0 = (−1; 2; −1)
T1 (x2 ) = (1; 0; 1) = (1; 1; 1) − (0; 1; 1) + (0; 0; 1) =⇒ [T1 (x2 )]B 0 = (1; −1; 1)

Con lo cual:
 
0 −1 1
kT1 kBB 0 = −1 2 −1
2 −1 1

T2 (0; 1) = (1; −1; 0) = (1; 1; 1) − 2(0; 1; 1) + (0; 0; 1) =⇒ [T2 (0; 1)]B 0 = (1; −2; 1)
T2 (1; 1) = (2; 0; 2) = 2(1; 1; 1) − 2(0; 1; 1) + 2(0; 0; 1) =⇒ [T2 (1; 1)]B 0 = (2; −2; 2)

Con lo cual:
 
1 2
kT2 kB 00 B 0 = −2 −2
1 2
98 CAPÍTULO 4. TRANSFORMACIONES LINEALES

Por último

kT1−1 ◦ T2 kB 00 B = kT1−1 kB 0 B · kT2 kB 00 B 0


= kT1 k−1
BB 0 · kT2 kB B
00 0
 1 1
  
−2 0 2 1 2
=  12 1 12  · −2 −2
3
2 1 12 1 2
 
0 0
= −1 0

0 2

Definición 22. Sean B = {v1 ; · · · ; vn } y B 0 = {w1 ; · · · ; wn } dos base de V e IV el endomorfismo


identidad de V. Llamamos matriz de cambio de base de B a B 0 a:

CBB 0 = kIV kBB 0

Observación 25.

1 Las columnas de CBB 0 se forman con viB 0 .


−1
2 CB 0 B = CBB 0

3 vB 0 = CBB 0 · vB (lo que le da el nombre a CBB 0 )

4 kT1 kB 00 B 0 = CBB 0 · kT kB 00 B

5 kT2 kBB 00 = kT kB 0 B 00 · CBB 0

Ejemplo 25. Sean B = {v1 ; v2 ; v3 } y B 0 = {2v1 + v2 −3v3 ; 2v1 + v2 


− 2v3 ; 3v1 + v2 + v3 } dos
−18 46 2
bases de un R-e.v. V y T : V −→ V la t.l. tal que kT kB =  −8 21 1. Hallar kT kB 0
4 −14 0

Resolución. Utilizando la observación anterior, tenemos que kT kB 0 = CBB 0 · kT kB · CB 0 B , con lo


| {z }
kT kB 0 B
cual necesitamos CBB 0 y CB 0 B . Comencemos con CB 0 B que es más fácil. Para eso necesitamos las
coordenadas de los vectores de B 0 en la base B y ponerlas como columnas de una matriz:
(2v1 + v2 − 3v3 )B = (2; 1; −3)
(2v1 + v2 − 2v3 )B = (2; 1; −2)
(3v1 + v2 + v3 )B = (3;
 1; 1)  
2 2 3 3 −8 −1
−1 −4 11 1 
CB 0 B =  1 1 1 −→ CBB 0 = BB 0B =

−3 −2 1 1 −2 0
4.4. MATRIZ DE UNA T.L. EN LAS BASES B Y B’ 99

con lo cual        
3 −8 −1 −18 46 2 2 2 3 2 0 0
CBB 0 · kT kB · CB 0 B = −4 11 1  ·  −8 21 1 ·  1 1 1 = 0 3 0 
1 −2 0 4 −14 0 −3 −2 1 0 0 −2
 
2 0 0
kT kB 0 = 0 3 0 
0 0 −2
100 CAPÍTULO 4. TRANSFORMACIONES LINEALES

4.5. Cuestionario
1 ¿Es cierto que toda transformación lineal transforma subespacios en subespacios? Justificar.

2 ¿Es cierto que toda transformación lineal transforma rectas en rectas? Justificar.

3 Sea T : R2 −→ W una t.l. ¿Es cierto que si T (2; 1) = T (3; 2), entonces T no es un monomorfismo?
Justificar.

4 Sea T : V −→ W un monomorfismo. ¿Como se relacionan dim(V) y dim(W)?

5 Sea T : V −→ W un epimorfismo. ¿Como se relacionan dim(V) y dim(W)?

6 Sea T : V −→ W un isomorfismo. ¿Como se relacionan dim(V) y dim(W)?

7 Sea T : V −→ W una t.l. ¿Es cierto que T ◦ T −1 = T −1 ◦ T ? Justificar.

8 Sean T1 : V −→ V y T2 : V −→ V dos t.l. ¿Es cierto que T1 ◦ T2 = T2 ◦ T1 ? Justificar.

9 Sea T : V −→ W una t.l. y {v1 ; · · · ; vk } vectores l.i. de V. ¿Es cierto que el conjunto
{T (v1 ); · · · ; T (vk )} es l.i.? Justificar.

10 Sea T : V −→ W un monomorfismo y {v1 ; · · · ; vk } vectores l.i. de V. ¿Es cierto que el conjunto


{T (v1 ); · · · ; T (vk )} es l.i.? Justificar.

11 Sea T : V −→ W una t.l. y {T (v1 ); · · · ; T (vk )} vectores l.i. de W. ¿Es cierto que el conjunto
{v1 ; · · · ; vk } es l.i.? Justificar

12 Sea T : Rn −→ Rm una t.l. ¿Es cierto que las columnas de kT k forman un conjunto de generadores
de Im(T )? Justificar.

13 Sea T : Rn −→ Rm una t.l. ¿Es cierto que dim[Im(T )] = rgkT k? Justificar.

14 Sea T : V −→ W una t.l. y S un subespacio de V. ¿Es cierto que dim[T (S)] = dim(S)? Justificar.

15 ¿Que debe suceder con la dimensión de los espacios para que pueda existir una t.l. T : V −→ W
tal que dim[N u(T )] =dim[Im(T )]? ¿y para que N u(T ) = Im(T )?

16 Sea T : V −→ W una t.l. tal que N u(T ) = Im(T ). ¿Que da T ◦ T ? Justificar.

17 Sea T : V −→ W una t.l. tal que Im(T ) ⊂ N u(T ). ¿Que da T ◦ T ? Justificar.

18 Si T1 y T2 son t.l. ¿Que debe pasar para que Im(T1 ◦ T2 ) = Im(T1 ) y N u(T1 ◦ T2 ) = N u(T2 )?

19 ¿Es cierto que la composición de epimorfismos es un epimorfismo? Justificar.

20 ¿Es cierto que la composición de monomorfismos es un monomorfismo? Justificar.

21 ¿Es cierto que la composición de isomorfismos es un isomorfismo? Justificar.

22 ¿Es cierto que rg(kT kBB 0 ) = dim[Im(T )] sean quien sean B y B 0 ? Justificar.

23 Marcar si las siguientes identidades son verdaderas o falsas.


4.6. TEÓRICOS 101

a) kT kBB 0 = CBU · kT kU U 0 · CU 0 B 0 b) kT kBB 0 = CU 0 B 0 · kT kU U 0 · CBU


c) CBB 0 = CU B · CU U 0 · CB 0 U 0 d) CBB 0 = CB 00 B 0 · CBB 00
e) CB 0 B · CBB 0 = CBB = I f) kT1 ◦ T2 kBB 0 = kT2 kBU · CU 0 U · kT1 kU B 0
g) kT −1 kBB 0 = CB 00 B 0 · kT k−1
B 00 B h) kT1 ◦ T2 kBB 0 = kT1 kU B 0 · CU 0 U · kT2 kBU
i) kT kB = CBB 0 · kT kB 0 · CB 0 B j) kT kB = CB 0 B · kT kB 0 · CBB 0
k) kT kB = CBE · kT k · CEB l) kT kB = CEB · kT k · CBE
m) kT k = CBE · kT kB · CEB n) kT k = CEB · kT kB · CBE

24 Si T : V −→ W es una t.l., completar los casilleros con la respuesta correcta:

a) Si T es un isomorfismo, entonces dimN u(T )=sawdfhshhh


b) Si T es un isomorfismo, entonces dimIm(T )=sawdfhshhh
c) Si T es un monomorfismo, entonces dimN u(T )=sawdfhshhh
d ) Si T es un monomorfismo, entonces dimIm(T )=sawdfhshhh
e) Si T es un epimorfismo, entonces dimN u(T )=sawdfhshhh
f ) Si T es un epimorfismo, entonces dimIm(T )=sawdfhshhh
g) Si T es un isomorfismo, entonces dimVsawdfhsdimW
h) Si T es un monomorfismo, entonces dimVsawdfhsdimW
i ) Si T es un epimorfismo, entonces dimVsawdfhsdimW

sawdfhshhh

4.5.1. Búsqueda bibliográfica [AL82]


¿Que es el espacio dual?

4.6. Teóricos
teórico 1 Demuestre la proposición 16.

teórico 2 Demuestre las propiedades 7.

teórico 3 Sean V y W dos K-e.v. Demuestre que si T : V −→ W es una t.l., y k ∈ K, entonces


(k T )(v) = k T (v) es una t.l.

teórico 4 Sean V y W dos K-e.v. y T1 : V −→ W, T2 : V −→ W dos t.l.


Demuestre que (T1 + T2 )(v) = T1 (v) + T2 (v) es una t.l.

teórico 5 [optativo] Sea L(V, W) el conjunto de todas las transformaciones lineales de V en W. Demostrar
que L(V, W) con las operaciones definidas en los dos items anteriores es un K-e.v.

teórico 6 Demuestre la proposición 18.

teórico 7 Demuestre las propiedades 8.

teórico 8 Demuestre que un monomorfismo transforma rectas en rectas y planos en planos. ¿Que puede
pasar si no es monomorfismo?

teórico 9 Demuestre la proposición 19-1,4,6, 7,8,9.


102 CAPÍTULO 4. TRANSFORMACIONES LINEALES

teórico 10 Demuestre que no existen isomorfismos T tales que N u(T ) = Im(T ).

teórico 11 Demuestre que si B y B 0 son bases de un K-e.v. V y T : V −→ V, entonces


det(kT kB ) = det(kT kB 0 ).

teórico 12 Sea el R-e.v. C[a, b] de las fuciones derivables en el intervalo [a; b].

a) Demostrar que si f (x) ∈ C[a; b], entonces D[f (x)] = f 0 (x) es una t.l.
b) Hallar N u(D)
c) Justificar porqué D no es un epimorfismo.

teórico 13 Sea el R-e.v. R4 [x] de los polinomios de grado 4 o menos más el polinomio nulo.

a) Demostrar que si P (x) ∈ R4 [x], entonces D[P (x)] = P 0 (x) es una t.l.
b) Hallar Im(D) y N u(D).
c) Justificar porqué D no es un epimorfismo.
d ) Hallar kDkE , siendo E = {1; x; x2 ; x3 }

teórico 14 Sea el R-e.v. V de las fuciones integrables en el intervalo [a; b].


Rb
a) Demuestre que si f (x) ∈ V, entonces T [f (x)] = a f (x)dx es una t.l.
b) Hallar Im(T ).

teórico 15 Sea el R-e.v. V de Rlas fuciones integrables en el intervalo [a; b]. explique porqué si f (x) ∈ V,
entonces T [f (x)] = f (x)dx no es una t.l.

4.7. Ejercicios
Ejercicio 1 Para las funciones del ejemplo 15, demuestre que las 3 primeras son t.l. y termine de verificar
que las demás no lo son.

Ejercicio 2 Decidir si las siguientes son t.l. o no:

a) Si X ∈ C3×3 , T (X) = X t b) Si X ∈ C3×3 , T (X) = X


c) Si X ∈ C3×3 , T (X) = X ∗ d ) Si X, A ∈ C3×3 T (X) = A · X
e) Si X, A ∈ C3×3 T (X) = X · A f ) Si X ∈ C3×3 , T (X) = det(X)
2 1 z1 2 1 1

g) T (z1 ; z2 ; z3 ) = 3 2 z2 h) T (z1 ; z2 ; z3 ) = z2 z1 z3
6 2 z3 6 2 7

Ejercicio 3 Hallar la fórmula de la t.l. T y luego bases para Im(T ) y N u(T ). Verificar el teorema de la
dimensión.

a) T : R3 → R4 tal que T (1; 0; 0) = (2; 1; 3; 1), T (0; 1; 0) = (4; 3; 5; 1), T (0; 0; 1) = (2; 1; 1; 2)
b) T : R3 → R3 tal que T (1; 1; 2) = (2; 1; 1), T (2; 1; 0) = (1; 2; 3), T (−1; 0; 1) = (3; 0; −1)
   
2 2×2 6 −10 2 3
c) T : R → R tal que T (1; 1) = , T (2; 1) =
3 −5 3 1
4.7. EJERCICIOS 103

     
1 1 1 1 1 1
d) T : R2×2→ R2
tal que T = (2; 1), T = (1; 0), T = (2; 1),
1 1 1 0 0 0
 
1 0
T = (1; 1)
0 0
e) T : C2 → C2 tal que T (1 + i; i) = (2 + i; 1 + 3i), T (0; 2) = (−2; 4)

Ejercicio 4 Decidir si existen t.l. que cumplan las condiciones siguentes y en caso que existan diga si es única
o no:

a) T (1; 1) = (1; 2), T (1; 0) = (2; 3), T (2; 1) = (3; −2)


b) T (1; 1) = (1; 2), T (1; 0) = (2; 3), T (2; 1) = (3; 5)
c) T (1; 2; −3) = (2; 0; 1), T (3; 0; 1) = (1; 3; 1), T (0; 1; 1) = (3; 3; 2)
d ) T (1; 1; 1) = (2; 1; 1), T (1; 0; 1) = (1; 0; 4), T (3; 5; 3) = (8; 5; −3)
e) T (1; 1; 1) = (2; 1; 1), T (1; 0; 1) = (1; 0; 4), T (3; 5; 3) = (2; 1; 1)

Ejercicio 5 Hallar bases de N u(T ), Im(T ) y T (S) para:


     
a11 a12 1 1 0 1
a) T = (2a11 − 3a12 + a22 ; a12 + 2a21 ), S = gen ;
a21 a22 0 0 0 1
h i
b) T : C2 −→ C2 T (z1 ; z2 ) = (4 + 2i)z1 − 6iz2 ; (4 + 2i)z1 − 6iz2 ) , S = gen{(2; i)}
c) T : R3 −→ R2 tal que T (2; 1; 3) = (1; 4), T (0; 2; −1) = (1; 2), T (1; 0; 2) = (0; 0),
S = gen{(2; −3; 5); (0; −3; 1)}
d ) Si B = {v1 ; v2 ; v3 } es una base del R-e.v. V, la t.l. tal que T (v1 ) = v1 −v2 , T (v2 ) = v2 −v3 ,
T (v3 ) = v1 − v3 , S = gen{v1 ; v2 − v3 }

Verificar el teorema de la dimensión en cada caso.

Ejercicio 6 De las t.l. de los ejercicios anteriores, indicar cuales son monomorfismos, cuales epimorfis-
mos,cuales isomorfismos, cuales endomorfismos y cuales automorfismos.

Ejercicio 7 Para las siguientes t.l., hallar T1 ◦ T2 , una base del N u(T1 ◦ T2 ) que contenga una base de N u(T2 )
y una base de Im(T2 ) que contenga una base de Im(T1 ◦ T2 ).

a) T1 (x1 ; x2 ; x3 ) = (2x1 + 3x2 + x3 ; x1 + 2x2 ; −x1 + 5x2 − 7x3 )


T2 (x1 ; x2 ; x3 ) = (x1 + 5x3 ; −x1 + x2 − 4x3 ; −x2 − x3 )
b) T1 (x1 ; x2 ; x3 ) = (x1 + 2x2 + x3 ; x1 + 2x2 + x3 ; 2x1 + 4x2 + 2x4 )
T2 (x1 ; x2 ; x3 ) = (2x1 + 3x2 + x3 ; −x1 − x2 − x3 ; −x2 + x3 )
c) T1 (x1 ; x2 ; x3 ) = (x1 + 2x2 + x3 ; 2x1 + x2 − x3 ; x1 )
T2 (x1 ; x2 ; x3 ) = (3x1 + 2x2 + 5x3 ; 2x1 + x2 + 3x3 ; x2 + x3 )
d ) T1 (x1 ; x2 ; x3 ) = (2x1 + 3x2 + x3 ; x1 + 3x2 + 2x3 ; 3x1 + x2 + 2x3 )
T2 (x1 ; x2 ) = (3x1 + x2 ; 2x1 + 2x2 ; x1 − x2 )
e) T1 (x1 ; x2 ; x3 ) = (x1 + x2 − x3 ; 3x1 − 3x2 + x3 )
T2 (x1 ; x2 ; x3 ) = (x1 + x2 + 2x3 ; 4x1 + 5x2 + x3 ; 3x1 + 3x2 + 2x3 )

Ejercicio 8 Hallar T −1 para:

a) T (x1 ; x2 ) = (x1 − 3x2 ; −x1 + 4x2 )


104 CAPÍTULO 4. TRANSFORMACIONES LINEALES

b) T : R3 −→ R3 tal que T (1; 0; 1) = (1; 1; 0), T (0; 1; 1) = (1; 0; 0) y T (1; 1; 0) = (2; 1; 1)


c) T : Rn×m −→ Rm×n tal que T (X) = X t
d ) Si A ∈ Rn×n con |A| =
6 0, la t.l. T : Rn×m −→ Rn×m tal que T (X) = A · X

Ejercicio 9 Hallar kT1 k, kT2 k y kT1 ◦ T2 k para los items del ejecicio 7.

Ejercicio 10 Hallar kT k y kT −1 k para los items a) y b) del ejecicio 8.

Ejercicio 11 Hallar kT kBB 0 para:


 
a11 a12
a) T = (2a11 − 3a12 + a22 ; a12 + 2a21 ),
a21 a22
       
1 −1 1 2 0 1 2 1
B= ; ; ; , B 0 = {(1; −1); (1; 0)}
0 1 1 0 1 3 1 0
h i
b) T : C2 −→ C2 T (z1 ; z2 ) = (4 + 2i)z1 − 6iz2 ; (4 + 2i)z1 − 6iz2 )
B = B 0 = {(3; 1); (0; i)}
c) T : R3 −→ R2 tal que T (2; 1; 3) = (1; 4), T (0; 2; −1) = (1; 2), T (1; 0; 2) = (0; 0)
B = {(0; 2; −1); (1; 0; 2); (2; 1; 3)}, B 0 = {(1; 1); (1; −1)}
d ) Si B = {v1 ; v2 ; v3 } es una base del R-e.v. V, la t.l. tal que T (v1 ) = v1 −v2 , T (v2 ) = v2 −v3 ,
T (v3 ) = v1 − v3
B = {v1 + v2 ; v2 + v3 ; v1 + v2 + v3 }, B 0 = {3v1 + v3 ; v1 + v3 ; 3v1 − v2 + 4v3 }
 
4 3 2
e) La t.l. T tal que kT kU =  1 1 2, con U = {(0; 2; −1); (1; −1; 1); (5; 2; 1)}
−2 1 4
B = B 0 = {1; 1; 1); (1; 1; 0); (1; 0; 0)}
 
2 1 4
f ) La t.l. T tal que kT kEU = 3 0 2 , con U = {(1; 2; 3); (3; 4; 1); (1; 1; 0)}
1 −1 −2
B = {(2; 3; 1); (4; 2; 0); (2; −1; 1)}, B 0 = {(0; 1; 0); (0; 0; 1); (1; 0; 0)}
 
2 0 2
Ejercicio 12 a) Hallar la base B sabiendo que CBB 0 = 1 2 −1 y que
1 3 1
B 0 = {(2; −1; 1); (1; 2; 0); (3; 1; 2)}
 
−1 3 −2
b) Hallar la base B 0 sabiendo que CBB 0 =  1 −2 2  y que
1 1 3
B = {(1; −1; 1); (1; 1; 0); (2; 0; −1)}

Ejercicio 13 Hallar una base de Im(T ) y una de N u(T ) para la t.l. tal que:
 
−1 3 −2
a) T : R3 −→ R3 tal que kT kB =  1 −2 2  con B = {(1; 1; 1); (1; 0; 1); (0; 1; 0)}
1 1 3
 
−1 3 −2
b) T : V −→ V tal que kT kB =  1 −2 2  con B = {v1 +v2 +v3 ; v1 +v3 ; v2 }, sabiendo
1 1 3
que {v1 ; v2 ; v3 } es un conjunto l.i. y que dim(V) = 3.
4.8. PROBLEMAS 105

 
−1 3 −2
c) T : R2 [x] −→ R2 [x] tal que kT kB =  1 −2 2  con B = {1 + x + x2 ; 1 + x2 ; x}
1 1 3
 
−1 3 −2
d) 3 3
T : R −→ R tal que kT kB =  1 −2 2  con B = {(1; 1; 1); (1; 0; 1); (0; 1; 0)}
0 1 0
 
−1 3 −2
e) T : V −→ V tal que kT kB =  1 −2 2  con B = {v1 +v2 +v3 ; v1 +v3 ; v2 }, sabiendo
0 1 0
que {v1 ; v2 ; v3 } es un conjunto l.i. y que dim(V) = 3.
 
−1 3 −2
f) T : R2 [x] −→ R2 [x] tal que kT kB =  1 −2 2  con B = {1 + x + x2 ; 1 + x2 ; x}
0 1 0
 
2 1 1 0
g) 4 3
T : R −→ R tal que kT kBB 0 = 3 4 0 1 con

3 1 1 1
B = {(1; 1; 1; 1); (0; 1; 1; 1); (0; 0; 1; 1); (0; 0; 0; 1)} y B 0 = {(1; 1; 1); (1; 0; 1); (0; 1; 0)}
 
2 1 1 0
h) T : V −→ W tal que kT kBB 0 = 3 4 0 1 con
3 1 1 1
B = {v1 + v2 + v3 + v4 ; v2 + v3 + v4 ; v3 + v4 ; v4 } y
B 0 = {w1 + w2 + w3 ; w1 + w3 ; w2 } sabiendo que {v1 ; v2 ; v3 ; v4 } es una base de V y que
{w1 ; w2 ; w3 } es una base de W.
 
2 1 1 0
i) T : R3 [x] −→ R2 [x] tal que kT kBB 0 = 3 4 0 1 con
3 1 1 1
B = {1 + x + x2 + x3 ; x + x2 + x3 ; x2 + x3 ; x3 } y B 0 = {1 + x + x2 ; 1 + x2 ; x}

4.8. Problemas
Problema 1 Definir una t.l. T que cumpla las siguientes condiciones y decidir si la t.l. es única o no.

a) T : R2 −→ R2 tal que N u(T ) = {(x1 ; x2 ) ∈ R2 |x1 + x2 = 0}


b) T : R2 −→ R2 tal que Im(T ) = {(x1 ; x2 ) ∈ R2 |x1 + 3x2 = 0}
c) T : R2 −→ R2 tal que Im(T ) = {(x1 ; x2 ) ∈ R2 |x1 + 3x2 = 0} y
N u(T ) = {(x1 ; x2 ) ∈ R2 |x1 + x2 = 0}
d ) T : R3 −→ R4 tal que Im(T ) = {(x1 ; x2 ; x3 ; x4 ) ∈ R2 |x1 + 3x2 − x3 + x4 = 0} y
N u(T ) = gen{(2; 1; 1)}
e) Un epimorfismo T : R4 −→ R3 tal que T (2; 1; 1; 1) = (0; 0; 0)
f ) Un monomorfismo T : R3 −→ R4 tal que T (1; 2; 1) = (1; 3; 0; −1) y T (2; 0; 1) = (1; 0; 0; 1)
g) T : R3 −→ R3 tal que T no es epimorfismo y (2; 1; 1) ∈ Im(T ).
h) T : R4 −→ R4 tal que N u(T ) = Im(T ), T (1; 0; 0; 0) = (2; 1; 1; 0) y T (2; 1; 1; 0) = (3; 0; 1; 0)

Problema 2 Sea S = gen{(1; 2; 1; 2)}. Definir una t.l. T : R4 −→ R4 tal que S ⊂ N u(T ) ∩ Im(T ) y
T (2; 1; 0; 0) = (2; 1; 0; 0). Decidir si dicha t.l. es única o no.
106 CAPÍTULO 4. TRANSFORMACIONES LINEALES

Problema 3 Hallar una t.l. T : R3 −→ R3 tal que N u(T ) = gen{(1; 2; 1)} y N u(T ◦ T ) = gen{(1; 2; 1);
(1; 0; 1)}. Decidir si dicha t.l. es única o no.

Problema 4 Hallar una t.l. T : R3 −→ R3 tal que T (1; −1; 3) = (3; 3; 1) y que T ◦ T = 0. Decidir si dicha t.l.
es única o no.

Problema 5 Sean S1 = {X ∈ R4 |4x1 − 3x2 + x3 − 3x4 = 0} y S2 = gen{(1; 1; 2; 1); (0; 1; 0; 1)}. Hallar una t.l.
T : R3 −→ R3 tal que T (S1 ) = S1 y que T (S2 ) = S2 . Decidir si dicha t.l. es única o no.

Problema 6 Hallar una t.l. T : R3 −→ R3 tal que N u(T ) = gen{(1; 2; 1)}, Im(T ) = gen{(1; 0; 2); (1; 2; −1)}
y que T ◦ T = T .

Problema 7 Hallar una t.l. T : R3 −→ R3 , T 6= I tal que T −1 = T . Decidir si dicha t.l. es única o no.

Problema 8 Sea S = gen{(1; 1; 0; 1); (0; 1; 2; 0)}.

a) Hallar una t.l. T1 : R4 −→ R4 tal que N u(T1 ) = S y que Im(T1 ) = S⊥ .


b) Hallar una t.l. T2 : R4 −→ R4 tal que T2 [N u(T1 )] = Im(T1 ) y que T2 [Im(T1 )] = N u(T1 ).
Decidir si dicha t.l. es única o no.
c) Decidir justificando adecuadamente si T2 es un isomorfismo o no.

Problema 9 Sea T1 : R4 −→ R3 la t.l. T1 (X) = (2x1 + x2 + 2x3 − x4 ; x1 + 2x2 + x3 + 3x4 ; x1 − 4x2 + x3 − 11x4 ).
Hallar, en caso que sea posible, una t.l. T2 6= 0 tal que T1 ◦ T2 = 0 y que T2 ◦ T1 = 0. Decidir si
dicha t.l. es única o no.

Problema 10 Sean T1 y T2 t.l. tales que


(T2 ◦ T1 )(x1 ; x2 ; x3 ) = (x1 + 2x2 + x3 ; 2x1 + 3x2 + 4x3 )
T2 (x1 ; x2 ) = (3x1 + 7x2 ; 2x1 + 5x2 )
Hallar T1 .

Problema 11 Sean T1 y T2 t.l. tales que


(T1 ◦ T2 )(x1 ; x2 ) = (2x1 + x2 ; x1 + 3x2 ; 2x1 + 3x2 )
T2 (x1 ; x2 ) = (4x1 + 3x2 ; 3x1 + 2x2 )
Hallar T1 .

Problema 12 Para el siguiente circuito y asumiendo que R1, R2 y R3 son datos, encuentre una t.l.
T : R3 −→ R3 que de los valores de I1, I2 e I3 en función de E1, E2 y E3. Explicar en términos fı́si-
cos porque esta t.l. no puede ser un epimorfismo. Hallar una ecuación que describa los elementos
de Im(T ) e interpretar fisicamente. Hallar N u(T ) e interpretar el resultado fisicamente.

R1 R2 R3
I1 I2 I3

E1 E2 E3
4.9. RESPUESTAS A LOS EJERCICIOS 107

4.9. Respuestas a los ejercicios


Nota: Las respuestas dadas no necesariamente son las únicas.

Ejercicio 2 a) Si. b) No. c) No. d ) Si. e) Si.


f ) No. g) Si. h) Si.
 
2 4 2  
1 3 1 x1
Ejercicio 3 a) T (x1 ; x2 ; x3 ) = 
  · x2 

3 5 1
x3
1 1 2
   
−5 11 −2 x1
b) T (x1 ; x2 ; x3 ) = −1 4 −1 · x2 
0 3 −1 x3
 
−4x1 + 10x2 13x1 − 23x2
c) T (x1 ; x2 ) =
3x2 6x1 − 11x2
 
x11 x12
d) T = (x11 + x12 − x21 + x22 ; x11 − x21 + x22 )
x21 x22
   
2 −1 z
e) T (z1 ; z2 ) = · 1
1 2 z2

Ejercicio 4 a) No. b) Si. Única. c) Si. Única. d ) Si. Hay ∞. e) No.


   
1 0 0 1
Ejercicio 5 a) N u(T ) = gen ; , Im(T ) = T (S) = R2
0 −2 − 12 3
 
1 2
b) N u(T ) = gen 1; − i , Im(T ) = T (S) = gen{(1; 1)},
3 3
c) N u(T ) = gen{(1; 0; 2)}, Im(T ) = R2 , T (S) = {(1; 0)}
d ) N u(T ) = gen{v1 + v2 − v3 }, Im(T ) = gen{v1 − v3 ; v2 − v3 }, T (S) = {v1 − v2 }

Ejercicio 7 a) (T1 ◦ T2 )(x1 ; x2 ; x3 )(= (−x1 + 2x2 − 3x3 ; −x1 )


+ 2x2 − 3x3 ; −6x1 + 12x2 − 18x3 )
   
1 1 1
N u(T1 ◦ T2 ) = gen 1; ; − ; 1; 0; −
5 5 3
| {z }
N u(T2 )
Im(T1 ) = gen{ (1; 1; 6) ; (1; 0; −7)}
| {z }
Im(T1 ◦T2 )

b) (T1 ◦ T2 )(x1 ; x2 ; x3 ) = (0; 0; 0)


N u(T1 ◦ T2 ) = R3 = gen{(−2; 1; 1); (0; 1; 0); (0; 0; 1)}
| {z }
N u(T2 )
Im(T1 ) = gen{(1; 1; 2)} Im(T1 ◦ T2 ) = {0} no tiene base
c) (T1 ◦ T2 )(x1 ; x2 ; x3 ) = (7x1 + 5x2 + 12x3 ; 8x1 + 4x2 + 12x3 ; 3x1 + 2x2 + 5x3 )
N u(T1 ◦ T2 ) = N u(T(2 ) = gen{(1; 1; −1)} )
   
1 1
Im(T1 ) = R3 = gen 1; 0; ; 0; 1; ; (0; 0; 1)
3 12
| {z }
Im(T1 ◦T2 )
108 CAPÍTULO 4. TRANSFORMACIONES LINEALES

d ) (T1 ◦ T2 )(x1 ; x2 ) = (13x1 + 7x2 ; 11x1 + 5x2 ; 13x1 + 3x2 )


N u(T1 ◦ T2 ) = N u(T(2 ) = {0} no tiene base )
   
3 8 13
Im(T1 ) = R = gen 1; 0; − ; 0; 1; ; (0; 0; 1)
3 3
| {z }
Im(T1 ◦T2 )

e) (T1 ◦ T2 )(x1 ; x2 ; x3 ) = (2x1 + 3x2 + x3 ; −12x1 − 15x2 + x3 )


N u(T1 ◦ T2 ) = gen{(3; −2; 0)} N u(T2 ) = {0} no tiene base
2
Im(T1 ) = Im(T1 ◦ T2 ) = R = gen{(0; 1); (1; 0)}

Ejercicio 8 a) T −1 (x1 ; x2 ) = (4x1 + 3x2 ; x1 + x2 )


b) T −1 (x1 ; x2 ; x3 ) = (x1 ; x1 − x2 ; x1 − 2x3 )
c) T −1 (X) = T (X) = X t
d ) T −1 (X) = A−1 · X
   
−1 −4 −3 −3 4 2
Ejercicio 11 a) b)
7 0 3 4 −8 i −4 i
 
 3 1 1 2
0 52

c) 2 d ) −2 1 −4
− 12 0 − 23
0 −1 0
   
−59 −6 23 51 70 47
e)  140 16 −50 f ) 41 42 29
−131 −13 52 32 48 32

Ejercicio 12 a) B = {(8; 1; 14); (11; 7; 6); (0; −3; 4)}


b) B 0 = {(3; −7; 11); (4; −10; 15); (0; 2; −3)}

Ejercicio 13 a) N u(T ) = {0}, Im(T ) = R3


b) N u(T ) = {0}, Im(T ) = V
c) N u(T ) = {0}, Im(T ) = R2 [x]
d ) N u(T ) = gen{(2; 1; 2)}, Im(T ) = gen{(1; 0; 1); (0; 1; 0)}
e) N u(T ) = gen{2v1 + v2 + 2v3 }, Im(T ) = gen{v1 + v3 ; v2 }
f ) N u(T ) = gen{2 + x + 2x2 , Im(T ) = gen{1 + x2 ; x}
g) N u(T ) = gen{(1; 0; −1; −2); (0; 1; 0; 4))}, Im(T ) = gen{(1; 0; 1); (0; 1; 0)}
h) N u(T ) = gen{v1 − v3 − 2v4 ; v2 + 4v4 }, Im(T ) = gen{w1 + w3 ; w2 }
i ) N u(T ) = gen{1 − x2 − 2x3 ; x + 4x3 }, Im(T ) = gen{1 + x2 ; x}
Capı́tulo 5

Transformaciones lineales especiales

5.1. Homotecia
La homotecia es una transformación lineal que cambia el tamaño de un objeto sin variar su forma,
formalmente:
Sea V un R-ev y ρ ∈ R. Una t.l. T : V −→ V con T (v) = ρ · v se llama homotecia.
Si ρ > 1 es una dilatación y amplifica las figuras.
Si 0 < ρ < 1 es una contracción y reduce las figuras,
Si ρ = −1 es una simetrı́a respecto al origen.

Observación 26. Si T es una homotecia, entonces kT kB = ρ · I para toda base B de V.

109
110 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

Ejemplo 26. La t.l. T : R3 −→ R3 , T (x; y; z; ) = (3x; 3y; 3z) = 3(x; y; z) es una homotecia, en
particular, una dilatación.

En caso de existir una base B = {v1 ; · · · ; v2 } de V tal que T (vi ) = λi vi , λi ∈ R, decimos que T
es una homotecia heterogenea. En una homotecia heterogenea, hay direcciones especı́ficas dadas
por los vectores de la base B, donde la t.l. puede interpretarse como una contracción, una dilatación
o una simetrı́a respecto al origen. Si T es una homotecia heterogenea, entonces kT kB es diagonal.

Ejemplo 27. La t.l. T : R4 −→ R4 tal que:


 
1 1 1
T (1; 1; 1; 1) = (2; 2; 2; 2) T (1; 1; 1; 0) = ; ; ;0
2 2 2

T (1; 1; 0; 0) = (−1; −1; 0; 0) T (1; 0; 0; 0) = (0; 0; 0; 0)


es una homotecia heterogenea.

5.2. Trasquilado
La idea del trasquilado, es que sea una t.l. que represente la deformación que sufre un cuerpo
flexible frente a un esfuerzo cortante. La figura siguiente muestra dos ejemplos.

En el caso del trasquilado en R2 de la figura, los puntos sobre el eje x no se mueven, mientras que los
otros sufren un desplazamiento horizontal proporcional a la distancia al eje x. Matematicamente serı́a
una t.l. con la siguiente forma:
       
x x + y 1  x
T = = ·
y y 0 1 y

Para el caso del trasquilado en R3 de la figura, los puntos sobre el plano xy permanecen fijos y
los otros puntos sufren un desplazamiento en la dirección del eje y proporcional a la altura, lo que
matematicamente puede representarse por:
       
x x 1 0 0 x
T y = y + z = 0 1  · y 
      
z z 0 0 1 z
5.2. TRASQUILADO 111

Para el caso general, consideremos un hiperplano H ⊂ V (un R-ev) y el subespacio ortogonal con la
siguiente base:
Base de H⊥ = {v}
La idea es considerar el hiperplano H como la zona donde los puntos no se desplazan y H⊥ como la
dirección donde se mide la altura. La dirección del esfuerzo de corte podrı́a venir dado por un vector
w ∈ H. La siguiente figura describe como podemos medir la distancia de X al hiperplano H.

El producto interno de X con v es proporcional a la distancia entre X y H, ya que:


hv; Xi = kvk hv̂; Xi
Es por eso que podemos dar la siguiente forma para el trasquilado que mantiene fijos los puntos sobre
H y tiene un esfuerzo de corte en la dirección de w.
T (X) = X + hv; Xi · w
Las normas de v y de w, deben ajustarse para dar la intensidad del esfuerzo, de hecho, kvk kwk es la
intensidad del desplazamiento por unidad de distancia al hiperplano H.

Ejemplo 28. Para definir un trasquilado T : R3 −→ R3 que desplace 2 unidades en la dirección del
vector w = (1 : 2; 1) por unidad de altura en la dirección v = (1; −1; 1), tenemos que:
H⊥ = gen{(1 : −1; 1)} H = {(1; 2; 1); (1; 0; −1)} (fácil de ver)
Necesitamos que kvk · kwk = 2, pero tenemos:
√ √ √
kvk = 3 kwk = 6 kvk · kwk = 3 2
2
Utilizamos entonces un w = √ (1 : 2; 1) alternativo y ahora kvk · kwk = 2, quedando el trasquilado
3 2
de la siguiente manera:
√ √ √   
2+3 2 2
3 − 3 3 x
2  2√ √ √
T (x; y; z) = (x; y; z) + (x − y + z) √ (1; 2; 1) =  3 2 3−23 2 2 3 2  · y 

3 2 √ √ √
2
− 2 2+3 z
3 3 3
112 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

5.3. Proyectores
La idea de una proyección, es la que muestra la siguiente figura:

Observemos que si el punto O es el origen, tanto la pantalla sobre la que se proyecta como la dirección
de la proyección son subespacios y su suma directa da R3 . Veremos que este tipo de operación es una
t.l., en la cual la dirección de la proyección es el núcleo y la pantalla donde se proyecta es la imagen.
Una observación importante es que la proyección del punto P (v) da P (v), pues ya esta proyectado.
Matematicamente esto significa que P [P (v)] = P (v), lo cual justifica la siguiente:

Definición 23. Sea P un endomorfismo. Decimos que P es un proyector si P ◦ P = P .

Proposición 23. Sea P : V −→ V un proyector. Se cumplen las siguientes proposiciones:


1 Si v ∈ Im(P ), entonces P (v) = v

2 V = N u(P ) ⊕ Im(P )

3 Si S1 y S2 son subespacios tales que V = S1 ⊕ S2 , entonces existe un único proyector P tal que
Im(P ) = S1 y que N u(P ) = S2 .

4 Si v ∈ V, entonces v − P (v) ∈ N u(P ).

5 Todo vector v ∈ V puede descomponerse de manera única como suma de un elemento de Im(P )
y otro de N u(P ) de la siguiente forma:

v = v − P (v) + P (v)
| {z } | {z }
∈N u(P ) ∈Im(P )

6 La t.l. P2 (v) = v − P (v) es un proyector con Im(P2 ) = N u(P ) y N u(P2 ) = Im(P ). Lo


llamaremos el proyector complementario de P y escribiremos P c .

7 Si P c es el proyector complementario de P , entonces P ◦ P c = P c ◦ P = 0 y P + P c = I.

8 P cc = P
5.3. PROYECTORES 113

Demostración

A cargo de ustedes.

Definición 24. Sea S un subespacio del K-e.v. con producto escalar V. Al proyector P tal que Im(P ) =
S y N u(P ) = S⊥ lo llamamos la proyección ortogonal sobre S. Lo notaremos como PS .

Observación 27.

1 El proyector complementario de PS es otra proyección ortogonal.

2 PS es dependiente del producto interno utilizado.

Ejemplo 29. Sean en R4 los subespacios S1 = gen{(1; 3; 2; 3); (1; 2; 1; 0)} y


S2 = gen{(1; 3; 1; 1); (1; 3; 2; 2)}.

1 Demostrar que R4 = S1 ⊕ S2 .

2 Hallar un la forma explı́cita de un proyector P tal que N u(P ) = S1 y que Im(P ) = S2 .

3 Hallar kP c k.

4 Hallar kPS1 k y kPSc1 k

Resolución. Para ver que S1 y S2 están en suma directa y dán R4 , basta con ver que el conjunto de
generadores de S1 junto con el de S2 forman un conjunto l.i., ya que:

R4 = S1 + S2 −→ dim(R4 ) = dim(S1 ) + dim(S2 ) − dim(S1 ∩ S2 )


| {z } | {z } | {z } | {z }
4 2 2 necesariamente 0

Se deja el cálculo a ustedes.


El proyector P se define a partir de las bases de S1 = N u(P ) y S2 = Im(P ):

P (1; 3; 2; 3) = P (1; 2; 1; 0) = (0; 0; 0; 0) P (1; 3; 1; 1) = (1; 3; 1; 1) P (1; 3; 2; 2) = (1; 3; 2; 2)

Para hallar la forma explı́cita, consideremos que:


       
x1 1 1 1
x2 3 2 3
  =(x4 − x3 − x2 + 3 x1) ·   + (3 x1 − x2) ·   + (−x3 + x2 − x1) ·   +
x3 2 1 1
x4 3 0 1
 
1
3
+ (−x4 + 2 x3 + x2 − 4 x1) · 
2


114 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

       
x1 1 1 1
x2 3 2 3
x3 =(x4 − x3 − x2 + 3 x1) · P
P    + (3 x1 − x2) · P   + (−x3 + x2 − x1) · P   +
2 1 1
x4 3 0 1
 
1
3
+ (−x4 + 2 x3 + x2 − 4 x1) · P 
2

2
     
0 0 1
0 0 3
=(x4 − x3 − x2 + 3 x1) · 
0 + (3 x1 − x2) · 0 + (−x3 + x2 − x1) · 1 +
    

0 0 1
 
1
3
+ (−x4 + 2 x3 + x2 − 4 x1) · 
2

2
 
−x4 + x3 + 2 x2 − 5 x1
−3 x4 + 3 x3 + 6 x2 − 15 x1
=
 −2 x4 + 3 x3 + 3 x2 − 9 x1  (forma explı́cita de P)

−2 x4 + 3 x3 + 3 x2 − 9 x1
Resulta:  
−5 2 1 −1
−15 6 3 −3
kP k = 
 −9

3 3 −2
−9 3 3 −2
Es fácil verificar que kP k2 = kP k
El proyector complementario P c se obtiene a partir de la matriz recién obtenida:
 
6 −2 −1 1
15 −5 −3 3
kP c k = I − kP k = 


9 −3 −2 2
9 −3 −3 3

Para el proyector ortogonal, necesitamos S⊥


1 = gen{(6; −3; 0; 1); (1; −1; 1; 0)} y lo definimos en una
base de S1 = Im(PS1 ) y S⊥
1 = N u(P S1 )
PS1 (1; 3; 2; 3) = (1; 3; 2; 3) PS1 (1; 2; 1; 0) = (1; 2; 1; 0) PS1 (6; −3; 0; 1) = PS1 (1; −1; 1; 0) = (0; 0; 0; 0)
resolviendo como el proyector anterior queda:
   
11 19 8 −9 46 −19 −8 9
1 
 19 38 19 0 
kPSc1 k =
1 −19 19 −19 0 

kPS1 k = 
57  8 19 11 9  57  −8 −19 46 −9
−9 0 9 54 9 0 −9 3

Proposición 24. Sea S un subespacio del K-e.v. con producto escalar V. Si w ∈ S y w 6= PS (v),
entonces:
kv − PS (v)k < kv − wk ∀v ∈ V
5.4. TRANSFORMACIONES ORTOGONALES 115

Demostración

Como w 6= PS (v), entonces kPS (v) − wk2 6= 0. Veamos lo siguiente:


kv − wk2 =k[v − PS (v)] + [PS (v) − w]k2
= < [v − PS (v)] + [PS (v) − w]; [v − PS (v)] + [PS (v) − w] >
∈N u(PS )=S⊥ ∈Im(PS )=S
z }| { z }| {
= < v − PS (v); v − PS (v) > + < v − PS (v) ; PS (v) − w >
| {z } | {z }
kv−PS (v)k2 0

+ < v − PS (v); PS (v) − w > + < PS (v) − w; PS (v) − w >


| {z } | {z }
0 kPS (v)−wk2 6=0

Con lo cual:
kv − wk2 = kv − PS (v)k2 + kPS (v) − wk2 > kv − PS (v)k2 −→ kv − wk2 > kv − PS (v)k2
Observación 28.
1 El punto de S más cercano a v es PS (v).
2 Los puntos v, PS (v) y w son los vértices de un triángulo rectángulo como se muestra en la
figura.

5.4. Transformaciones ortogonales


La rotaciones conforman una operación geométrica de gran interés en la ingenierı́a. Para definir-
las, pasaremos previamente por un caso que las incluye: las transformaciones ortogonales. Queremos
analizar las rotaciones con el origen fijo. Por la naturaleza de las rotaciones, deben preservar norma y
ángulos. No es difı́cil ver que esto ocurre sii preserva el producto interno. Por ejemplo, si T : Rn −→ Rn
es una t.l. que representa una rotación, entonces debe cumplir que
< T (v); T (w) >=< v; w > ∀v, w
116 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

En Rn con el producto habitual:


vt · kT kt · kT k · w = vt · w
vt · (kT kt · kT k − I) · w = 0 ∀v, w −→ kT kt · kT k = I
Para el caso complejo T : Cn −→ Cn , la generalización es que kT k∗ · kT k = I Justificamos de esta
manera la siguiente:

Definición 25.

1 A es una matriz ortogonal sii At · A = I.

2 A es una matriz unitaria sii A∗ · A = I.

3 T un endomorfismo ortogonal en Rn si kT k es una matriz ortogonal.

Observación 29.

1 Si A ∈ Rn×n es ortogonal, entonces es unitaria.

2 Si T es ortogonal, entonces kT (v)k = kvk ∀v ∈ V.

3 Si T es ortogonal, entonces kT k−1 = kT kt .

4 Si T es ortogonal, entonces kT kt es ortogonal.

5 Si T es ortogonal, entonces las filas de kT k forman una base ortonormal de Rn .

6 Si T es ortogonal, entonces las columnas de kT k forman una base ortonormal de Rn .

7 Si T es ortogonal, transforma bases ortogonales en bases ortogonales.

8 Si T es ortogonal, transforma bases ortonormales en bases ortonormales.

9 Si las filas de kT k forman una base ortonormal, entonces kT k es una matriz ortogonal.

10 Si las columnas de kT k forman una base ortonormal, entonces kT k es una matriz ortogonal.

11 Las filas de kT k forman una base ortonormal sii las columnas de kT k forman una base ortonor-
mal.

Ustedes pueden verificar que la definición y estas observaciones se cumplen en el ejemplo introduc-
torio del capı́tulo 4. Dada la importancia de este tipo de t.l., ampliaremos el tema con la finalidad de
generalizar las transformaciones ortogonales en cualquier R-e.v.

Proposición 25. Sea V un K-e.v. con producto interno. Si B = {v1 ; · · · ; vn } y B 0 = {w1 ; · · · ; wn }


son bases ortonormales de V, entonces CBB 0 es una matriz ortogonal.

Demostración

Por ser B una base ortonormal, se cumple que < vi ; vj >= δij . Dado que B 0 también es una base
ortonormal y debido al teórico 2 del capı́tulo 3, concluimos que < viB 0 ; vj B 0 >= δij . Pero por como se
construye, viB 0 y vj B 0 son las columnas i y j de CBB 0 con lo cual las columnas de CBB 0 son una base
ortonormal. Por la observación 29-10, CBB 0 resulta una matriz ortogonal.
5.4. TRANSFORMACIONES ORTOGONALES 117

n √ √ √ √ o n √ √ o
Ejemplo 30. Es fácil verificar que B = ( 22 ; 22 ); ( 22 ; − 22 ) y B 0 = ( 23 ; 12 ); (− 21 ; 23 ) son bases

√ √ 
2 √ 3+1 √ 3−1 t
ortonormales. Ustedes pueden verificar que CBB 0 = 4 y que CBB 0 · CBB 0 = I.
3−1 − 3−1

Proposición 26. Sea T un endomorfismo ortogonal en Rn . Si B es una base ortonormal de Rn ,


entonces kT kB es una matriz ortogonal.

Demostración

kT kB = CEB · kT k · CBE
con lo cual

kT kB · kT ktB =CEB · kT k · CBE · CBE


t
·kT kt · CEB
t
| {z }
I
t
=CEB ·kT k · kT kt ·CEB
| {z }
I
t
=CEB · CEB
=I

Definición 26. Sea T un endomorfismo en V, un R-e.v. con producto interno y B una base ortonormal
de V. Decimos que T es una transformación ortogonal si kT kB es una matriz ortogonal.

Proposición 27. Si T es un endomorfismo ortogonal en V y B es una base cualquiera de V, entonces


detkT kB = ±1.

Demostración

Sea B 0 una base ortonormal de V. Tenemos lo siguiente:

kT kB 0 = CBB 0 · kT kB · CB 0 B −→ kT ktB 0 = CB
t t t
0 B · kT kB · CBB 0

kT kB 0 · kT ktB 0 = CBB 0 · kT kB · CB 0 B · CB
t t t
0 B · kT kB · CBB 0

det(kT kB 0 · kT ktB 0 ) =det(CBB 0 · kT kB · CB 0 B · CB


t t t
0 B · kT kB · CBB 0 )

=det(kT kB ) det(kT ktB )

Por otro lado, como B 0 es una base ortonormal,

kT kB 0 · kT ktB 0 = I −→ det(kT kB 0 ) det(kT ktB 0 ) = 1

y por lo tanto:

det(kT kB ) det(kT ktB ) = det(kT kB ) det(kT kB ) = 1 −→ det(kT kB ) = ±1

Proposición 28. Sea en Rn el producto interno habitual y sea A, B ∈ Rn×n .


Si ∀v, w ∈ Rn se cumple < A · v; w >=< v; B · w >, entonces B = At .
118 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

Demostración

< A · v; w >= (A · v)t · w = vt · At · w


< v; Bw >= vt · B · w
con lo cual
0 = vt · At · w − vt · B · w = vt · (At − B) · w ∀v; w ∈ Rn
y por lo tanto At − B = 0 −→ At = B.
Observación 30. At es la única matriz tal que < A · v; w >=< v; At · w >

Proposición 29. Sea V un R-ev de dimensión finita con producto interno. Si T es un endomorfismo
en V, entonces existe una única t.l. T2 tal que
< T (v); w >=< v; T2 (w) > ∀v; w ∈ V

Demostración

Veamos primero la existencia


Sea B una base ortonormal de V y T2 la t.l. tal que kT2 kB = kT ktB y veamos que que cumple lo
pedido:
t
< T (v), w >=< T (v)B , wB >=< kT kB ·vB , wB >= vB ·kT ktB · wB =< vB ; T2 (w)B >=< v; T2 (w) >
| {z }
T2 (w)B

Veamos la unicidad
Sea T3 otra t.l. tal que < T (v); w >=< v; T3 (w) > ∀v; w ∈ V
Sigue entonces lo siguiente:
0 =< v; T2 (w) > − < v; T3 (w) >=< v; T2 (w) − T3 (w) >=< v; (T2 − T3 )(w) >
Esto se cumple ∀v; w ∈ V, en particular si v = (T2 − T3 )(w) tenemos:
0 =< (T2 − T3 )(w); (T2 − T3 )(w) >= k(T2 − T3 )(w)k2 −→ (T2 − T3 )(w) = 0 ∀w
y necesariamente T2 = T3 .

Definición 27. Sea T un endomorfismo en V, un R-ev con producto interno. Llamamos transfor-
mación traspuesta T t a la única t.l. tal que < T (v); w >=< v; T t (w) >
Observación 31. Si B es una base ortonormal de V, entonces kT t kB = kT ktB

Proposición 30. Si T es un endomorfismo en V, un R-ev con producto interno, entonces:


T es ortogonal ⇐⇒ T t ◦ T = I

Demostración

A cargo de ustedes.
5.4. TRANSFORMACIONES ORTOGONALES 119

5.4.1. Simetrı́as y rotaciones


Al definir transformaciones ortogonales, nos inspiramos en las rotaciones con el origen fijo. La
idea fue que una rotación conserva las normas y ángulos entre vectores, pero no son el único tipo de
t.l. que las preserva ya que una operación de simetrı́a como una imagen especular también lo hace.
Refinaremos el tema para ser capaces de discriminar entre rotaciones y simetrı́as.

Definición 28. Sea V un espacio prehilbertiano con dim(V) = n. Si S es un subespacio con dim(S) =
n − 1 lo llamamos hiperplano.

En la siguiente figura se muestra la idea de una t.l. que represente una simetrı́a respecto de un
hiperplano.

Desarrollo de la formalización

Todo vector v ∈ V puede descomponerse de manera única como suma de un elemento de S más
uno de S⊥ :
v = v1 + v2 v1 ∈ S, v2 ∈ S⊥

La simetrı́a respecto del hiperplano S resulta de:

S(v) = v1 −v2 = 2v1 −(v1 + v2 ) = 2PS (v)−v (Definición de simetrı́a respecto a un subespacio S)
| {z }
v

Donde PS (v) es la proyección ortogonal sobre S. Es trivialmente una t.l. Demostremos que es una t.l.
ortogonal:

Sean v = v1 +v2 y w = w1 +w2 dos vectores de V con v1 , w1 en S y v2 , w2 en S⊥ . Demostraremos


120 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

que < v; w >=< S(v); S(w) >


< v; w >= < v1 + v2 ; w1 + w2 >
= < v1 ; w1 > + < v1 ; w2 > + < v2 ; w1 > + < v2 ; w2 >
| {z } | {z }
0 0
= < v1 ; w1 > + < v2 ; w2 >
< S(v); S(w) >= < v1 − v2 ; w1 − w2 >
= < v1 ; w1 > − < v1 ; w2 > − < v2 ; w1 > + < v2 ; w2 >
| {z } | {z }
0 0
= < v1 ; w1 > + < v2 ; w2 >
Como S preserva el producto interno, es una t.l. ortogonal.

Veamos ahora que si S es una simetrı́a, entonces detkSkB = −1 para cualquier base B. Conside-
remos una base ortonormal B 0 que contenga una base de S y una de S⊥ :
B 0 = {v1 ; · · · ; vn−1 ; vn }
| {z } |{z}
base de S ∈S⊥

Para la simetrı́a S se cumple que:


S(v1 ) = v1 ; · · · ; S(vn−1 ) = vn−1 ; S(vn ) = −vn
Con lo cual, si pensamos los viB 0 como columnas resulta:
 
1 0 0 0 0
0 1 0 0 0
   
kSkB 0 = v1B 0 · · · vn−1 B 0 (−vn )B 0 = 0
 .. 
 0 . 0 0

0 0 0 1 0
0 0 0 0 −1
cuyo determinante es -1. Para una base B cualquiera, lo buscado resulta pues
kSkB = CB 0 B · kSkB 0 · CBB 0 que tiene el mismo determinante.

Proposición 31. Si T es una t.l. ortogonal en V y detkT kB = −1, entonces existen (no únicas) una
simetrı́a S y una t.l. ortogonal R con detkRkB = 1 tales que T = S ◦ R.
Demostración
Consideremos una base ortonormal B = {v1 ; · · · ; vn }. Si Fi son las filas de kT kB , entonces:
 
  0 1 0 0 0 0  
F1 1 0 0 0 0 F2
 F2   0
  F1 
  0 0 1 0 0 0  
kT kB =  F3  = 
  F3 
 ·   = kS ◦ RkB
  
 ..  0 0 0 . . . 0
  ... 
0  
 .  
0 0 0 0 1 0
Fn F
0 0 0 0 0 1 | {zn }
| {z } kRkB
kSkB

Es fácil ver que S es la simetrı́a con S = gen{v1 + v2 ; v3 ; · · · ; vn } y S⊥ = gen{v1 − v2 } (Se propone


como teorico), por otro lado, que R es ortogonal resulta porque las filas de kRkB son las mismas que
las de kT kB y forman una base ortonormal. También es trivial que detkRkB = 1.
5.4. TRANSFORMACIONES ORTOGONALES 121

Si R es una t.l. ortogonal y detkRkB = 1, diremos que R es una rotación propia (Rotación pura)
Si T es una t.l. ortogonal y detkRkB = −1, diremos que R es una rotación impropia (Rotación pura
compuesta con una simetrı́a)
122 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

5.5. Cuestionario
1 Las homotecias, ¿son isomorfismos? Si su respuesta es afirmativa, ¿que tipo de t.l. es su inversa?

2 Los trasquilados, ¿son isomorfismos? Si su respuesta es afirmativa, ¿que tipo de t.l. es su inversa?

3 La transformación identidad, ¿es un proyector? En caso que lo sea, ¿quien es el proyector com-
plementario?

4 ¿Es cierto que si T : V −→ V es un proyector con Im(T ) = V, entonces T = I? Justificar.


4 −→ R4 es un proyector y dim[Im(T )] = 3, entonces existe una base B
5 ¿Es cierto que si T : R 
1 0 0 0
0 1 0 0
de R4 tal que kT kB = 0 0 1 0? Justificar.

0 0 0 0

6 ¿Es cierto que la composición de proyectores es un nuevo proyector?

7 ¿Será posible obtener un proyector T : R3 −→ R3 con Im(T ) = gen{(1; 2; 3); (4; 1; 8)} y N u(T ) =
{(4; 1; 7); (3; 2; 0)}? Justificar adecuadamente.

8 ¿Es cierto que si T : V −→ V es una t.l. ortogonal, entonces las filas de kT kB forman una base
ortonormal de V? Explique.

9 ¿Es cierto que si T : V −→ V es ortogonal, entonces las columnas de kT kB forman una base
ortonormal de V? Explique.

10 ¿Es cierto que si T : V −→ V es una t.l. ortogonal, transforma bases ortogonales en bases
ortogonales?

11 ¿Es cierto que si T : V −→ V es una t.l. ortogonal, transforma bases ortonormales en bases
ortonormales?

12 ¿Es cierto que si las filas de A ∈ Rn×n forman una base ortonormal de Rn , entonces A es una
matriz ortogonal? Explique.

13 ¿Es cierto que si las columnas de A ∈ Rn×n forman una base ortonormal de Rn , entonces A es
una matriz ortogonal? Explique.

14 ¿Es cierto que las filas de A ∈ Rn×n forman una base ortonormal sii las columnas de A forman
una base ortonormal? Explique.

15 ¿Es cierto que toda t.l. ortogonal representa una rotación? Explique.

16 ¿Es cierto que si T es una t.l. ortogonal y det(kT kB ) = −1, entonces T representa una simetrı́a?

5.5.1. Búsqueda bibliográfica [AL82]


¿Que es la transformación adjunta y que es una transformación autoadjunta?
5.6. TEÓRICOS 123

5.6. Teóricos
teórico 1 Demuestre que la composición de homotecias es una homotecia.
teórico 2 Sea T una homotecia. Demuestre que T −1 es una homotecia. Demuestre que si T es una dilata-
ción, entonces T −1 es una contracción.
teórico 3 Sea < v; w >= 0. Demostrar que la inversa del trasquilado T (X) = X+hv, Xi·w es el trasquilado
T −1 (X) = X − hv, Xi · w.
teórico 4 Sea V, un espacio prehilbertiano y H un hiperplano del mismo, y sean w1 , w2 ∈ H, v ∈ H⊥ .
Demuestre que la composición de los trasquilados T1 (X) = X + hv, Xi · w1 y
T2 (X) = X + hv, Xi · w2 es un nuevo trasquilado. ¿Que tienen en común T1 y T2 ?
teórico 5 Sea H un subespacio tal que H⊥ = gen{v} y el trasquilado T (X) = X + hv, Xi · w. Sea también
X1 tal que kPH ⊥ (X1 )k = 1. Demuestre que T (X1 ) − X1 es paralelo a w. Demuestre que
kT (X1 ) − X1 k = kvk · kwk. Interprete geometricamente.
teórico 6 Demostrar la proposición 23.
teórico 7 De un contraejemplo en R2 que muestre que la composición de proyectores no es un proyector.
teórico 8 Demostrar que si T1 y T2 son t.l. tales que T1 ◦ T2 ◦ T1 = T1 , entonces T1 ◦ T2 y T2 ◦ T1 son
proyectores.
teórico 9 Demostrar que si P 6= I es un proyector del K-e.v. V y B es una base de V, entonces
det(kP kB ) = 0.
teórico 10 Sea S un subespacio del K-e.v. V con producto escalar y PS la proyección ortogonal sobre S.
Demostrar que si v, w ∈ V, entonces hPS (v); wi = hv; PS (w)i
teórico 11 Demostrar que si P es un proyector del K-e.v. V y B es una base de V, entonces kP k2B = kP kB
teórico 12 Demostrar la proposición 30
teórico 13 Demuestre que si A ∈ Rn×n y A2 = A, entonces (I − A)2 = (I − A)
teórico 14 Sea P : V −→ V un proyector, dim[Im(P )] = k. Demuestre que existe una base B de V tal que
 
I O
kP kB = con I ∈ Rk×k
O O

teórico 15 Demuestre que si B = {v1 ; · · · ; vn } es una base ortonormal de V y S es una t.l. tal que
 
0 1 0 0 0 0
1 0 0 0 0 0
 
0 0 1 0 0 0
kSkB = 
 
.. 
0 0
 0 . 0 0

0 0 0 0 1 0
0 0 0 0 0 1
entonces S es la simetrı́a respecto al hiperplano S = gen{v1 + v2 ; v3 ; · · · ; vn } y
S⊥ = gen{v1 − v2 }.
teórico 16 Demuestre que la composición de dos simetrı́as, una respecto al hiperplano H1 y otra respecto
al hiperplano H2 , es una rotación propia.
124 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES

5.7. Ejercicios
Ejercicio 1 Defina una t.l. T : R3 −→ R3 tal que transforme el cubo de vértices
A = (0; 0; 0), B = (1; 0; 0), C = (0; 1; 0), D = (0; 0; 1)
E = (1; 1; 0), F = (1; 0; 1), G = (0; 1; 1), H = (1; 1; 1)
en el paralelepı́pedo de vértices
A0 = (0; 0; 0), B 0 = (2; 0; 0), C 0 = (0; 3; 0), D0 = (0; 0; 4)
E 0 = (2; 3; 0), F 0 = (2; 0; 4), G0 = (0; 3; 4), H 0 = (2; 3; 4)
Encuentre kT k. Grafique el cubo y el paralelepı́pedo.
Nota: Una t.l. como la definida, se llama homotecia heterogénea.
 
3 0
Ejercicio 2 Sea B = {(2; 3); (4; −2)} una base de R2 y la t.l. T tal que kT kB = . Interpretar
0 2
geometricamente que hace T . Hallar la fórmula de T (X).
Nota: Este es otro tipo de homotecia heterogénea.

Ejercicio 3 Hallar la fórmula de un trasquilado T : R3 −→ R3 que deje los puntos del plano XZ fijos y que
por cada unidad que se incremente la coordenada Y desplace 3 unidades en la dirección de Z.

Ejercicio 4 Sea H = {X ∈ R5 : 4x1 − 4x2 + 6x3 + 7x4 + 2x5 = 0} un hiperplano de R5 .

a) Compruebe que w = (2; −1; −2; 0; 0) ∈ H.


b) Hallar la fórmula de un trasquilado que mantenga fijos los puntos de H y que desplace los
demás puntos 99 unidades en la dirección de w por unidad de distancia al hiperplano H.

Ejercicio 5 Sean los subespacios de R5 S1 = {(1; 2; 1; 0; −1); (2; 1; 1; −2; 1); (0; 2; 1; 3; −2)} y
S2 = {(1; 3; 2; 4; 0); (2; 2; 1; 1; 1)}

a) Compruebe que R5 = S1 ⊕ S2 .
b) Hallar un proyector P1 tal que Im(P1 ) = S1 y N u(P1 ) = S2 .
c) Hallar un proyector P2 tal que Im(P2 ) = S2 y N u(P2 ) = S1 .
d ) Comprobar que kP1 k2 = kP1 k, que kP2 k2 = kP2 k y que kP1 k + kP2 k = I
e) Hallar las proyecciones ortogonales PS1 y PS ⊥
1
 
x1 + x2 x1 + x2
Ejercicio 6 Demostrar que P (x1 ; x2 ) = ; es un proyector e interpretar geometricamente.
2 2
¿Es una proyección ortogonal?

Ejercicio 7 a) Definir dos proyectores distintos P : R3 −→ R3 tales que N u(P ) = gen{3; 3; −2)} y verificar
que kP k2 = kP k.
b) Definir dos proyectores distintos P : R3 −→ R3 tales que Im(P ) = gen{3; 3; −2)} y verificar
que kP k2 = kP k.

Ejercicio 8 Hallar la fórmula de una t.l. S : R2 −→ R2 que represente una simetrı́a respecto a la recta y = 3x
y verificar que detkSk = −1.

Ejercicio 9 a) Hallar la fórmula de una t.l. S1 : R3 −→ R3 que represente una simetrı́a respecto al plano
π : x − 2y + z = 0 y verificar que detkS1 k = −1.
b) Hallar la fórmula de una t.l. S2 : R3 −→ R3 que represente una simetrı́a respecto a la recta
L : (x; y; z) = t(1; −2; 1) y verificar que detkS2 k = −1.
5.8. PROBLEMAS 125

c) Relacionar los resultados obtenidos para S1 y S2 .

Ejercicio 10 Hallar, en caso que sea posible una rotación R : R2 −→ R2 tal que:

a) R(1; 3) = (2; 1)
b) R(2; 1) = (1; 2)
c) ¿Cuantas hay en cada caso?

Ejercicio 11 Hallar un procedimiento para obtener rotaciones propias R : R5 −→ R5 , R 6= I.

5.8. Problemas
Problema 1 Sea P : R2 −→ R2 el proyector tal que Im(P ) = gen{(−1; 2)} y N u(P ) = gen{(1; 1)} y sea
T (X) = 2 · P (X) − X. Interpretar geometricamente el significado de T .

Problema 2 a) Sea P1 : R3 −→ R3 el proyector tal que Im(P1 ) = gen{(−1; 2; 1); (0; 1; 1)} y
N u(P1 ) = gen{(1; 1; 1)} y sea T1 (X) = 2 · P1 (X) − X. Interpretar geometricamente el
significado de T1 .
b) Sea P2 : R3 −→ R3 el proyector tal que Im(P2 ) = gen{(1; 1; 1)} y
N u(P2 ) = gen{(−1; 2; 1); (0; 1; 1)} y sea T2 (X) = 2·P2 (X)−X. Interpretar geometricamente
el significado de T2 .
c) Relacionar los resultados obtenidos para T1 y T2 .

Problema 3 Sean Rα y Rβ las rotaciones en R2 de ángulos α y β respectivamente. Demostrar que la compo-


sición es la rotación de ángulo α + β.

Problema 4 Definir, en caso que sea posible, una rotación pura R : R3 −→ R3 tal que el eje de rotación sea
la recta L : (x; y; z) = t · (1; 1; 1) y que R(1; 0; −1) = (−1; 1; 0).
126 CAPÍTULO 5. TRANSFORMACIONES LINEALES ESPECIALES
Capı́tulo 6

Formas canónicas de las


transformaciones lineales

6.1. Autovalores y autovectores


Una caracterı́stica importante de un endomorfismo T : V −→ V es la existencia de subespacios
invariantes, esto es subespacios S tales que T (S) ⊂ S. Esta caracterı́stica permite que tenga sentido
la restricción del endomorfismo al subespacio T |S : S −→ S tenga sentido. Existen dos subespacios
invariantes triviales en todo endomorfismo:

El subespacio nulo.

Todo el e.v.

Si dim(V) = n, nos interesan los subespacios invariantes S tales que 0 < dim(S) < n. En particular,
son fáciles de caracterizar los subespacios invariantes S de dimensión 1, ya que si T (S) ⊂ S, entonces
para cada v ∈ S resulta T (v) = λ v. A λ lo llamamos un autovalor, a cada v 6= 0 un autovector y
a S = Sλ el autoespacio asociado a λ. Formalmente:

Definición 29. Sea T : V −→ V un endomorfismo. Decimos que λ es un autovalor de T si existe


v 6= 0 tal que T (v) = λ v. A estos vectores v los llamamos un autovector de T . Al conjunto de todos
los autovectores con autovalor λ lo llamaremos autoespacio asociado a λ.

Es fácil demostrar que si a los autoespacios asociados les agregamos el 0 son subespacios, pero
¿como hacemos para obtenerlos? Hay varias aproximaciones al tema. Partamos del hecho que un
autovalor λ y un autovector v deben cumplir:

T (v) = λ v con v 6= 0

Si somos capaces de resolver esta ecuación se acabó el problema. Considerando que buscamos soluciones
no triviales, deberemos determinar primero aquellos valores de λ (autovalores) para los cuales el sistema
tenga ∞ soluciones y luego pasar a buscar los autovectores correspondientes. Esta es la situación más
general, veamos algunos ejemplos:

Ejemplo 31. Hallar los autovalores y autovectores de las siguientes t.l.

1 T : R2 [x] −→ R2 [x], la transformación derivada T (p) = p0 .

127
128 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

2 T : C 1 [R] −→ C 1 [R], la transformación derivada T (f ) = f 0 .

3 T : C[R] −→ C[R], la transformación T [f (x)] = f (−x).

Resolución.

1 Debemos resolver la ecuación p0 = λ p. Cualquier p ∈ R2 [x] puede representarse por:

p(x) = a x2 + b x + c

con lo cual la ecuación pasa a ser:

2 a x + b = λ a x2 + λ b x + λ c y de esta forma λa = 0 λb = 2a λc = b

Si λ 6= 0, entonces a = b = c = 0 y la solución serı́a necesariamente el polinomio nulo, justo el


que no nos sirve. Si λ = 0, obtenemos que a = b = 0, c ∈ R, de esta forma las soluciones son
p(x) = c, c 6= 0, todos los polinomios de grado cero. En definitiva la respuesta es:

λ = 0 (único autovalor) S0 = gen{1} (autoespacio asociado a 0)

2 Es el mismo problema que antes pero ahora el e.v. contiene todas las funciones con derivada
continua. La ecuación a resolver es f 0 (x) = λ f (x) la cual es una ecuación diferencial que puede
resolverse por el método de separación de variables.
Z Z
0 df df
f (x) = λ f (x) −→ = λ f (x) −→ df = λ f (x) dx −→ = λ dx
dx f

−→ ln(f ) = x + k −→ f (x) = C eλ x
Cualquier valor real de λ sirve de autovalor, con lo cual hay infinitos autoespacios, uno por cada
λ.
n o
λ∈R S λ = eλ x

3 En este caso, la ecuación a resolver es f (−x) = λ f (x), y si cambiamos x por −x obtenemos:

f (x) = λ f (−x) = λ (λ f (x)) = λ2 f (x) −→ λ = ±1

O sea que los únicos autovalores posibles son 1 y -1. Si λ = 1, la ecuación queda como f (x) =
f (−x) con lo cual el autoespacio es el de las funciones pares. Si λ = −1, la ecuación queda como
f (x) = −f (−x) con lo cual el autoespacio es el de las funciones impares.

λ =1 S1 = {Conjunto de las funciones pares}


λ=−1 S−1 = {Conjunto de las funciones impares}

Si T : Cn −→ Cn , entonces podemos avanzar un poco más. Se debe cumplir que:

kT k · v = λ v −→ (kT k − λI) · v = 0 con v 6= 0


6.1. AUTOVALORES Y AUTOVECTORES 129

Si queremos soluciones, esta última condición, obliga a que el sistema sea compatible indeterminado,
por lo tanto:
det(kT k − λ I) = 0
| {z }
P (λ)

Por la naturaleza de las cuentas involucradas, el determinante indicado resulta en un polinomio en λ,


llamado polinomio caracterı́stico. De esta manera, los autovalores de T son las raices del polinomio
caracterı́stico de T . Para sacar el conjunto de autovectores correspondiente, solo resta resolver un
sistema de ecuaciones lineales y homogeneo con ∞ soluciones. Veamos algún ejemplo:

Ejemplo 32. Hallar los autovalores y autovectores de la t.l.

T (x1 ; x2 ; x3 ) = (−4x1 + x2 + 9x3 ; 15x1 − 2x2 − 27x3 ; −5x1 + x2 + 10x3 )


 
−4 1 9
Resolución. Como kT k =  15 −2 −27, el polinomio caracterı́stico queda:
−5 1 10

−4 − λ 1 9
−2 − λ −27 = −λ3 + 4 λ2 − 5 λ + 2

det(kT k − λ I) = 15
−5 1 10 − λ

cuyas raices son 2 y 1(doble). Tenemos entonces dos autovalores.


λ = 2 El sistema a resolver es:
       
−6 1 9 a 0  1 
 15 −4 −27 ·  b  = 0 , cuya solución es S2 = gen −3
−5 1 8 c 0 1
 

λ = 1 El sistema a resolver es:


         
−5 1 9 a 0  9 0 
 15 −3 −27 ·  b  = 0 , cuya solución es S1 = gen 0 ;  9 
−5 1 9 c 0 5 −1
 

Por último, consideremos T : V −→ V, con dim(V) = n y B = {w1 ; · · · ; wn } una base de V. Dado


que (k v)B = k vB y que kT kB vB = T (v)B , resulta:

kT kB vB = λ vB −→ (kT kB − λI) vB = 0 con vB 6= 0

y por lo tanto:
det(kT kB − λI) = 0
| {z }
P (λ)

También lo llamaremos polinomio caracterı́stico y sus raices son los autovalores de T . Luego, solo
hay que resolver un sistema de ecuaciones lineales y homogeneo con ∞ soluciones que nos darán las
coordenadas de los autovectores correspondientes. Veamos un ejemplo:
130 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

Ejemplo 33. Hallar los autovalores y autovectores de la t.l. T : R2×2 −→ R2×2 tal que
       
2 1 18 3 2 0 5 5
T = T =
1 2 8 10 1 0 7 −2
       
0 1 −10 −3 1 1 −5 −9
T = T =
1 0 −6 −4 1 0 −11 4
       
2 1 2 0 0 1 1 1
Resolución. Si consideramos la base B = ; ; ; , la matriz de T en
1 2 1 0 1 0 1 0
la base B queda:  
5 −1 −2 2
5 2 −3 −2
kT kB =  
0 3 −1 −6
−2 3 0 −5
con lo cual el polinomio caracterı́stico será:

5 − λ −1 −2 2

5 2−λ −3 −2
P (λ) = det(kT kB − λI) = = λ4 − λ3 − 3 λ2 + λ + 2
0 3 −1 − λ −6
−2 3 0 −5 − λ

cuyas raices son -1(doble), 1 y 2. Tenemos entonces 3 autovalores.


λ = −1 El sistema a resolver es:
       
6 −1 −2 2 a 0 
 1 
 
5 3 −3 −2   b  0
 ·   =   , cuya solución es gen 2 (que son coordenadas)


0 3 0 −6  c  0 

3

−2 3 0 −4 d 0 1
 

 
7 5
con lo cual el autoespacio correspondiente es: S−1 =
7 2
λ = 1 El sistema a resolver es:
       
4 −1 −2 2 a 0 
 0 
 
5 1 −3 −2  ·   =   , cuya solución es gen 2
 b  0 

0 3 −2 −6  c  0 

0

−2 3 0 −6 d 0 1
 

 
5 1
con lo cual el autoespacio correspondiente es: S1 =
3 0
λ = 2 El sistema a resolver es:
       
3 −1 −2 2 a 0 
 1 
 
5 0 −3 −2  ·   =   , cuya solución es gen 3
 b  0 

0 3 −3 −6  c  0 

1

−2 3 0 −7 d 0 1
 

 
9 3
con lo cual el autoespacio correspondiente es: S2 =
6 2
6.1. AUTOVALORES Y AUTOVECTORES 131

Haremos una serie de observaciones que se desprenden de los ejemplos:

Observación 32.

1 No siempre es posible encontrar una base del e.v. V formada exclusivamente por autovectores.

2 La multiplicidad del autovalor como raiz del polinomio caracterı́stico no tiene porque coincidir
con la dimensión del autoespacio correspondiente.

3 En caso que sea posible encontrar una base B del e.v. V formada exclusivamente por autovectores,
entonces kT kB es una matriz diagonal, y dicha diagonal estará formada por los autovalores. En
este caso, diremos que se logró una diagonalización de T .

4 También es posible definir el polinomio caracterı́stico de T como P (λ) = det(λ I − kT kB ), en


cuyo caso resultará necesariamente mónico, lo cual lo hace cómodo para desarrollos teóricos.

5 Si P (λ) = det(kT kB − λI), el coeficiente principal será (−1)n , con n = dim(V).

6 Si dim(N u(T )) 6= 0, entonces 0 es un autovalor y S0 = N u(T ).

Definición 30. Sea A ∈ Cn×n y sea T (v) = A · v la t.l. tal que kT k = A. Llamamos autovalores y
autovectores de A a los autovalores y autovectores de T . Decimos que la matriz A es diagonalizable
si T es diagonalizable. Una diagonalización de A consta en escribir A = CBE · kT kB · CEB , donde B
es una base de autovectores de A. Necesariamente, kT kB será una matriz diagonal con los autovalores
en la diagonal.

Observación 33.

1 En caso que A sea diagonalizable, la diagonalización no es única ya que bastarı́a con reordenar
los vectores de B para obtener otra.
−1
2 CBE se construye con la base de autovectores como columnas y CEB = CBE

3 Una forma equivalente de definir diagonalización de una matriz, consta en decir que una matriz
A ∈ Cn×n es diagonalizable si existen matrices D diagonal y C inversible tales que A = C·D·C −1 .

 
−69 19 129
Ejemplo 34. Diagonalizar, en caso que sea posible la matriz A =  54 −10 −93
−46 12 85

Resolución. Calculamos el polinomio caracterı́stico y sus raices serán los autovalores:



−69 − λ 19 129
−10 − λ −93 = −λ3 + 6 λ2 + λ − 30

P (λ) = det(A − λI) = 54
−46 12 85 − λ
132 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

cuyas raices son -2, 3 y 5.


λ = −2 El sistema a resolver es:
       
−67 19 129 a 0  3 
 54 −8 −93 ·  b  = 0 , cuya solución es gen −3
−46 12 87 c 0 2
 

λ = 3 El sistema a resolver es:


       
−72 19 129 a 0  1 
 54 −13 −93 ·  b  = 0 , cuya solución es gen −3
−46 12 82 c 0 1
 

λ = 5 El sistema a resolver es:


       
−74 19 129 a 0  2 
 54 −15 −93 ·  b  = 0 , cuya solución es gen 1
−46 12 80 c 0 1
 

Como hay una base de R3 formada por autovectores, la matriz es diagonalizable. La base B resulta:
     
 3 1 2 
B = −3 ; −3 ; 1
2 1 1
 

   
3 1 2 4 −1 −7
−1
de esta forma CBE = −3 −3 1 y CEB = CBE = −5 1 9
2 1 1 −3 1 6
La diagonalización queda:
       
−69 19 129 3 1 2 −2 0 0 4 −1 −7
 54 −10 −93 = −3 −3 1 ·  0 3 0 · −5 1 9
−46 12 85 2 1 1 0 0 5 −3 1 6
| {z } | {z } | {z } | {z }
A C=CBE D=kT kB C −1 =CEB

6.1.1. wxmaxima
wxmaxima dispone de herramientas especı́ficas para el cálculo de autovalores y autovectores. En
el menú Álgebra se encuentran las siguientes:

Polinomio caracterı́stico charpoly(A, t), expand , que devuelve el polinomio caracterı́stico de A
con la variable t. Para el último ejemplo, habrı́a devuelto:

−t3 + 6 t2 + t − 30

Valores propios eigenvalues(A) , que devuelve las raices del polinomio caracterı́stico (autova-
lores) y sus multiplicidades. Para el último ejemplo, habrı́a devuelto:

[ [−2, 5, 3] , [1, 1, 1] ]
| {z } | {z }
autovalores multiplicidades
6.1. AUTOVALORES Y AUTOVECTORES 133


Vectores propios eigenvectors(A) , que devuelve dos listas:

• La primer lista contiene dos listas, una con los autovalores y otra con sus multiplicidades
en el polinomio caracterı́stico. Como si fuera la función “Valores propios”.
• La segunda lista, contiene listas de los generadores de los autoespacios correspondientes.
Hay que estar atento con los niveles de corchetes. Para el último ejemplo, habrı́a devuelto:
2o lista
1o lista z }| {
z }| { 2 1 1
[[ [−2, 5, 3] , [1, 1, 1] ], [[[1, −1, ]], [[1, , ]], [[1, −3, 1]]]]
| {z }
autovalores
| {z }
multiplicidades
| {z 3} | {z 2 2} | {z }
S 5
S−2 S3
| {z }
Generadores de los autoespacios

El paquete eigen.mac se carga en memoria de forma automática cuando se invocan eigenvalues o


eigenvectors. Si eigen.mac no está ya cargado, load (eigen) lo carga. Tras la carga, todas las funciones
y variables del paquete estarán activas. En algunos casos, una solución exacta no es conveniente por
su extensión o no es posible por el grado del polinomio caracterı́stico. En estas situaciones es cómodo
disponer de una solución numérica. El paquete lapack.mac dispone de la función dgeev que realiza
estos cálculos. dgeev(A), solo calcula los autovalores de A, dgeev(A,true), devuelve los autovalores
y una matriz cuyas columnas son los autovectores correspondientes. Los autovectores calculados están
normalizados para ser unitarios y su componente mayor tenga su parte imaginaria igual a cero. Si lo
hubieramos hecho con el último ejemplo, habrı́a devuelto:

[[−1,999999999999762, 4,9999999999999, 2,999999999999919],


 
0,63960214906683 −0,8164965809277 0,30151134457778
−0,63960214906684 −0,40824829046394 −0,90453403373328 , f alse]
0,42640143271122 −0,40824829046384 0,30151134457777

6.1.2. Algunos teoremas y observaciones


Daremos ahora algunos teoremas útiles sobre autovalores y autovectores.

Proposición 32. Si T : V −→ V es una t.l. y B y B 0 son dos bases de V, entonces:


det(kT kB − λI) = det(kT kB 0 − λI)

Esto nos dice que el polinomio caracterı́stico es un invariante de T ya que no depende de la


base utilizada.

Demostración

det(kT kB − λI) = det(CB 0 B · kT kB 0 · CBB 0 − λ CB 0 B · I · CBB 0 )


 
= det CB 0 B · (kT kB 0 − λI) · CBB 0
= det(CB 0 B ) det(kT kB 0 − λI) det(CBB 0 )
= det(CB 0 B ) det(CBB 0 ) det(kT kB 0 − λI)
| {z }
det(I)=1

= det(kT kB 0 − λI)
134 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

Proposición 33. Si A ∈ Cn×n , el producto de todos los autovalores, ya sean reales o complejos da
det(A).

Demostración
n
Y
P (λ) = |A − λI| = (−1)n (λ − λi ) −→ P (0) = |A|
i=1
por otro lado:
n
Y n
Y n
Y
n n n
P (0) = (−1) (−λi ) = (−1) (−1) λi = λi
i=1 i=1 i=1
n
Y
con lo cual |A| = λi
i=1

Proposición 34. Si A ∈ Cn×n , entonces:


1 At tiene el mismo polinomio caracterı́stico que A y por lo tanto los mismos autovalores.
2 Si A es inversible y vi es un autovector con autovalor λi , entonces vi es un autovector con
1
autovalor de A−1 .
λi
Demostración

Se propone como teórico.

Teorema 9. Sea T : V −→ V una t.l., λ1 ; · · · λk autovalores distintos de T y vi tales que T (vi ) = λi vi .


Si v1 + · · · + vk = 0, entonces v1 = · · · = vk = 0

Demostración

Aplicando k − 1 veces T a la igualdad v1 + · · · + vk = 0, obtenemos:

v1 + · · · + vk = 0

λ1 v1 + · · · + λk vk = 0
λ21 v1 + · · · + λ2k vk = 0
······
λ1k−1 v1 + · · · + λkk−1 vk = 0
La matriz asociada a ese sistema de ecuaciones lineal es:
···
 
1 1 1
 λ1
 2 λ2 · · · λk 
2 2 

 λ1
 λ2 · · · λ k 
 ··· ··· 
 
 ··· ··· 
k−1 k−1 k−1
λ1 λ2 · · · λk
6.1. AUTOVALORES Y AUTOVECTORES 135

Como es una matriz de Vandermonde (ver apéndice A) y por ser los autovalores distintos entre sı́, su
determinante es distinto de cero, con lo cual el sistema tiene solución única y necesariamente deberá
ser v1 = · · · = vk = 0
Corolario (1). Si v1 ; · · · ; vk son autovectores no nulos de T con autovalores distintos, entonces
{v1 ; · · · ; vk } es un conjunto l.i.

Demostración

λ1 v1 + · · · + λk vk = 0 −→ λ i vi = 0 −→ λi = 0
Corolario (2). Si λ1 ; · · · λk son autovalores distintos de T y B1 ; · · · ; Bk son bases de los autoespacios
Si correspondientes, entonces B1 ∪ · · · ∪ Bk es una base de S1 ⊕ · · · ⊕ Sk .
Corolario (3). Si V = S1 ⊕ · · · ⊕ Sk , entonces T es diagonalizable.

Teorema 10. Sean T : V −→ V una t.l., dim(V) = n y λi un autovalor de T . Si Si es el autoespacio


asociado a λi y mi es la multiplicidad de λi en el polinomio caracterı́stico de T , entonces:

dim(Si ) ≤ mi

Nota: Suele llamarse multiplicidad algebráica a mi y multiplicidad geométrica a dim(Si ).

Demostración

Sean v1 ; · · · ; vk una base de Si y vk+1 ; · · · ; vn una extensión a una base B de V. En esas condiciones,
la matriz de T en la base B toma la siguiente forma:
 
λi I B
kT kB = , con Ai cuadrada.
0 Ai

El polinomio caracterı́stico queda:



(λ − λi )I −B
P (λ) = det(λI − kT kB ) =
= (λ − λi )k |λI − Ai |
0 λI − Ai | {z }
q(λ)

Por otro lado, P (λ) = (λ − λi )mi u(λ), con u(λi ) 6= 0, por ser mi la multiplicidad. Si k > mi , entonces
la primer expresión de P (λ) nos dirı́a que la multiplicidad de λi serı́a mayor a mi lo cual es un absurdo,
con lo cual:
dim(Si ) ≤ mi
| {z }
k

Corolario. T es diagonalizable ⇔ dim(Si ) = mi ; ∀i

Demostración

⇐ Trivial

Tenemos que dim(Aλi ) ≤ mi , pero como m1 + · · · + mk = n
y dim(Aλ1 )) + · · · + dim(Aλk ) = n, necesariamente se cumple lo propuesto.
136 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

Teorema 11 (Gershgarin). Si A = (aij ) ∈ Cn×n y λ es un autovalor de A, entonces λ pertenece a


algún disco de Gershgarin Di , donde
 

Xn 

Di = z ∈ C |z − aii | ≤ |aij |
 
j=1; j6=i

Demostración
 
v1
 .. 
.
 
 1  ← i normalizado
Si λ es un autovalor, entonces existe v 6= 0 tal que (A − λI) · v = 0. Sea v =  
 .. 
.
vn
de manera que su componente de módulo máximo sea 1 (máx{|vk |} = 1) y asumamos que es en la
componente vi .
Xn
Necesitamos demostrar que |λ − aii | ≤ |aij |
j=1; j6=i
La componente i de (A − λI) · v = 0 queda:

ai1 v1 + · · · + (aii − λ) · 1 + · · · + ain vn = 0


n
X
λ − aii = ai1 v1 + · · · + ain vn = aij vj
j=1; j6=i



n n n n
X X X X
|λ − aii | =
aij vj ≤
|aij vj | = |aij | |vj | ≤ |aij | Q.e.d.
j=1; j6=i j=1; j6=i j=1; j6=i j=1; j6=i

Observación 34. Dado que |λ I − A| = |λ I − At |, resulta que los autovalores también tienen que estar
en algun disco de At .

 
1 0 −2
Ejemplo 35. Graficar los autovalores y los discos de Gershgarin de A = −1 2 −2
1 0 −1
Resolución. Utilizando el comando eigenvalues(A) de Wxmaxima obtenemos que los autovalores de
A son i; −i y 2. Por otro lado tenemos:

D1 ={z ∈ C : |z − 1| ≤ |0| + | − 2|} = {z ∈ C : |z − 1| ≤ 2}


D2 ={z ∈ C : |z − 2| ≤ | − 1| + | − 2|} = {z ∈ C : |z − 2| ≤ 3}
D3 ={z ∈ C : |z + 1| ≤ |1| + |0|} = {z ∈ C : |z + 1| ≤ 1}

cuyo gráfico se ve en la siguiente figura y donde se observa que cada autovalor está incluido en al
menos un disco.
6.1. AUTOVALORES Y AUTOVECTORES 137

6.1.3. Autovalores y autovectores de matrices hermı́ticas y simétricas


Teorema 12. Si A ∈ Cn×n es hermı́tica, todos sus autovalores son reales.

Demostración

Si v 6= 0 es un autovector con autovalor λ, entonces:

A · v = λv −→ v∗ · A · v = λ v∗ · v −→ v∗ · A · v = λ kvk2
| {z }
(1)

Sacando adjunta a ambos miembros y utilizando que A es hermı́tica, obtenemos:

v∗ · A · v = λ kvk2
| {z }
(2)

Haciendo (1)-(2) miembro a miembro obtenemos:

0 = (λ − λ) kvk2

como v 6= 0, debe ser λ = λ −→ λ∈R

Corolario. Si A ∈ Rn×n es simétrica, todos sus autovalores son reales y para cada autovalor es posible
obtener una base del autoespacio correspondiente con vectores en Rn .

Teorema 13. Si A ∈ Cn×n es hermı́tica y vi ; vj son autovectores con autovalores λi 6= λj , entonces


vi y vj son ortogonales.

Demostración
138 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

λi < vi ; vj >= < λi vi ; vj >


= < A · v i ; vj >
=vi ∗ · A∗ · vj
=vi ∗ · A · vj
= < vi ; A · v j >
= < vi ; λj vj >
=λj < vi ; vj >
=λj < vi ; vj >
con lo cual:
λi < vi ; vj >= λj < vi ; vj > −→ (λi − λj ) < vi ; vj >= 0
y como λi 6= λj , necesariamente < vi ; vj >= 0
Corolario. Si A ∈ Rn×n es simétrica y vi ; vj son autovectores con autovalores λi 6= λj , entonces vi
y vj son ortogonales.

Teorema 14. Si A ∈ Cn×n es hermı́tica, entonces es diagonalizable.

Demostración

Ver apéndice D
Corolario (1). Si A ∈ Rn×n es simétrica, entonces es diagonalizable.
Corolario (2). Si A ∈ Cn×n es hermı́tica o si A ∈ Rn×n es simétrica y Aλi es el autoespacio asociado
a λi , entonces dim(Aλi ) es la multiplicidad algebráica de λi .
Observación 35. Si A ∈ Cn×n es hermı́tica o si A ∈ Rn×n es simétrica, entonces existe una base B
ortonormal de autovectores de A. Basta con tomar bases ortonormal de cada autoespacio.

Definición 31. Decimos que A ∈ Cn×n es ortogonalmente diagonalizable si existe una matriz unitaria
C y una matriz diagonal D tales que A = C · D · C −1 . En el caso A ∈ Cn×n , C debe ser ortogonal.

Teorema 15. A ∈ Rn×n es ortogonalmente diagonalizable ⇐⇒ A es simétrica

Demostración


Si B es la base ortonormal descripta en la última observación, basta con tomar C = CBE ya que
transforma una base ortonormal en otra ortonormal.

Si tenemos en cuenta que C −1 = C t por ser ortogonal,
A = C · D · C −1 −→ At = C −1 t · Dt · C t = C · D · C −1 = A −→ A es simétrica
Observación 36. Si A ∈ Cn×n es hermı́tica, entonces es ortogonalmente diagonalizable.
6.1. AUTOVALORES Y AUTOVECTORES 139

6.1.4. Autovalores de transformaciones lineales especiales


Homotecias
Sea T : V −→ V, dim(V) = n una t.l.. Esta claro que:
T es una homotecia ⇔ T es diagonalizable
Además si tiene un solo autovalor es una homotecia homogenea.

Trasquilados
Sea T : Rn −→ Rn , dim(V) = n un trasquilado. Sabemos que existe un hiperplano H donde los
vectores se transforman en si mismo, esto es T (v) = v, lo cual nos dice que H es un autoespacio con
autovalor 1. En este momento podemos afirmar que el polinomio caracterı́stico de T tiene la forma
P (λ) = (λ − 1)n−1 (λ − α), y necesariamente α ∈ R. También sabemos que la dirección del esfuerzo de
corte viene dado por un vector no nulo w ∈ H. Si hubiera algún autovector con autovalor α 6= 1 fuera
de H, serı́a v = v1 + v2 con v1 ∈ H y v2 ∈ H⊥ , este último no nulo. Analicemos esa posibilidad. Por
un lado:
T (v1 + v2 ) = α(v1 + v2 )
Por otro lado:

T (v1 + v2 ) = T (v1 ) + T (v2 ) = v1 + v2 +  w, para algún  6= 0

de donde
α(v1 + v2 ) = v1 + v2 +  w −→ (α − 1) v1 −  w = (1 − α) v2
| {z } | {z }
∈H ∈H⊥
lo cual es un absurdo. No puede haber un autovalor distinto de 1 y necesariamente el polinomio
caracterı́stico de T es P (λ) = (λ − 1)n . Pero al ser T distinto de la transformación identidad por ser
un trasquilado, resulta no diagonalizable.
Por otro lado, si v ∈ H⊥ , entonces

T (v) = v +  w −→ T (v) − v =  w ∈ H

Concluimos que:
T es un trasquilado en Rn si y solo si el polinomio caracterı́stico es P (λ) = (λ − 1)n ,
dim(A1 ) = n − 1 (por lo tanto no es diagonalizable) y T (v) − v ∈ H.

Proyectores
Sea P : V −→ V, dim(V) = n un proyector. Sabemos que V = N u(P )⊕Im(P ). Si v ∈ N u(P ), entonces
P (v) = 0 −→ A0 = N u(P ), y si v ∈ Im(P ), entonces P (v) = v −→ A1 = Im(P ). Concluimos que:
P es un proyector ⇔ P es diagonalizable y los únicos autovalores son 0 y 1.

Transformaciones ortogonales
Sea T : V −→ V una t.l. ortogonal. Queremos averiguar que tipo de autovalores son posibles. Para esto,
recordemos que una transformación ortogonal preserva las longitudes, o sea que kT (v)k = kvk, y si v es
un autovector, entonces T (v) = λ v ⇒ kT (v)k = |λ| kvk. Llegamos a que kvk = |λ| kvk ⇒ |λ| = 1.
Concluimos que:
Si T : V −→ V es una t.l. ortogonal, todos los autovalores de T , sean reales o complejos
tienen módulo 1.
140 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

Rotaciones propias
Sea T : Rn −→ Rn , dim(V) = n una rotación propia distinta de la identidad. Por ser una transforma-
ción ortogonal, los únicos autovalores reales posibles son 1 y -1. Si tiene a 1 por autovalor, entonces hay
un subespacio A1 donde la transformación no produce ningún efecto sobre los vectores. Al subespacio
A1 lo llamamos eje de la rotación.
En R2
Está claro que las rotaciones propias de R2 , no contienen el eje de rotación en R2 , veamos esto anali-
ticamente. Una rotación propia T de R2 , tiene una matriz con la forma:
 
cos(α) sen(α)
kT k =
−sen(α) cos(α)

cuyo polinomio caracterı́stico es:

P (λ) = [λ − cos(α)]2 + [sen(α)]2

Si queremos que tenga autovalores reales, las únicas posibilidades son:

α = 0, con λ = 1(doble) y en ese caso se trata de la rotación identidad, por lo cual no hay eje.

α = π, con λ = −1(doble) y tampoco hay eje. En este caso se trata de una rotación de 180o .

En todos los demás casos, debe haber un par de raices complejas conjugadas (no reales) de módulo 1
con la forma λ = cos(α) ± i sen(α).
En R3
Recordemos que el producto de las raices del polinomio caracterı́stico tiene que dar el determinante de
la matriz de la transformación, que al tratarse de una rotación propia es 1. El polinomio caracterı́stico
de la transformación es de tercer grado y en R[x], con lo cual se dan dos posibilidades:

1 Tiene una raiz real y las otras dos son complejas conjugadas.

2 Las tres raices son reales.

En el primer caso, el producto de las raices complejas es:

λλ = |λ|2 = 1

y necesariamente tenemos que la raiz real es 1 con lo cual hay un eje de dimensión 1.
En el segundo caso, las posibilidades son λ1 = λ2 = λ3 = 1 que nos conduce a la transformación
identidad y λ1 = 1; λ2 = λ3 = −1 y en este caso también hay un eje de dimensión 1. Se tratarı́a de
una rotación de 180o alrededor del eje.
En general, una rotación propia en R3 distinta de la identidad, siempre tiene un eje de dimensión 1.
Podemos componer varias rotaciones propias que dará otra rotación propia y siempre tenemos un eje
de dimensión 1 donde los vectores permanecen fijos.
En Rn ; n > 3
En esta situación, hay que replantear el sentido común de las rotaciones, el esfuerzo de imaginación
es complicado. No detallaremos estos casos, solo diremos que si n es impar, al menos un autovalor
deberá dar 1 y tenemos un eje. Si n es par, no hay garantı́a acerca de la existencia de un autovalor
igual a 1 por lo cual podrı́a no haber eje.
6.2. FORMA NORMAL O CANÓNICA DE JORDAN 141

Simetrı́as respecto a un hiperplano


Sea T : V −→ V, dim(V) = n una simetrı́a respecto a un hiperplano S. En dicha simetrı́a, el hiperplano
S corresponde al autoespacio con autovalor 1, con lo cual 1 debe ser un autovalor con multiplicidad
n−1. Por otro lado, dada la naturaleza de las simetrı́as respecto a un hiperplano, S⊥ es necesariamente
un autoespacio de dimensión 1 con autovalor -1. Concluimos que:

Sea S un hiperplano de V, dim(V) = n.


T es una simetrı́a respecto a S si y solo si S es un autoespacio con autovalor 1 y S⊥ es un
autoespacio con autovalor -1.

6.2. Forma normal o canónica de Jordan


6.2.1. Introducción
Como hemos visto, no todas las matrices cuadradas son diagonalizables. Para estas situaciones,
veremos una forma alternativa que si bien no es tan simple como una matriz diagonal, se parece
bastante: La forma canónica de Jordan. En esta forma, la matriz de un endomorfismo queda diagonal
por bloques de Jordan, recomendamos repasar la sección 1.1.4.

6.2.2. Desarrollo
El desarrollo teórico requiere de un esfuerzo importante ya que hay que definir algunas cosas y
demostrar varias proposiciones, algunas no triviales. De ahora en más salvo que se indique lo contrario,
nuestros endomorfismos serán sobre V, un C-e.v. de dimensión finita. Comenzaremos con lo siguiente:

Definición 32. Si λ es un autovalor del endomorfismo T , llamamos autoespacios generalizados


a:
Gλ = {v ∈ V| ∃r > 0 tal que (T − λ I)r v = 0}

Observación 37. Aλ ⊂ Gλ

Proposición 35. Si Gλ es un autoespacio generalizado de T , entonces:


1 Gλ es un subespacio de V.

2 T − λI es nilpotente en Gλ .

3 Gλ es invariante por T .

4 Si µ ∈ C, entonces Gλ es invariante por T − µI.

Demostración

Son sencillas y se deja a cargo de ustedes.


142 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

Proposición 36. Sea T es una t.l. y vr ∈ Gλ . Si (T − λ I)r vr = 0 y (T − λ I)r−1 vr 6= 0, entonces :


1 vr ; (T − λ I)vr ; · · · ; (T − λI)r−1 vr son linealmente independientes.
| {z } | {z }
vr−1 v1

2 Los vectores v1 ; · · · ; vr cumplen que T (vi ) = λvi ó T (vi ) = λvi + vi−1

Demostración

Debemos demostrar que si α1 v1 + · · · + αr vr = 0 (a), entonces α1 = · · · = αr = 0.


Si aplicamos (T − λ I)r−1 a ambos miembros de (a) y aplicamos la linealidad, obtenemos:

α1 (T − λ I)r−1 v1 +α2 (T − λ I)r−1 v2 + · · · + αr (T − λ I)r−1 vr = 0


| {z } | {z } | {z }
=0 =0 v1

y como v1 6= 0, resulta αr = 0, con lo cual α1 v1 + · · · + αr−1 vr−1 = 0 (b).


Aplicando (T − λ I)r−2 a ambos miembros de (b) y aplicando la linealidad, se obtendrá:

α1 (T − λ I)r−2 v1 +α2 (T − λ I)r−2 v2 + · · · + αr−1 (T − λ I)r−2 vr−1 = 0


| {z } | {z } | {z }
=0 =0 =v1

con lo cual αr−1 = 0. Repitiendo este proceso se logra demostrar que α1 = · · · = αr−2 = 0.
Q.e.d.
La segunda parte queda a cargo de ustedes.

Proposición 37. Si µ ∈ C, µ 6= λ y si v ∈ Gλ , entonces:


1 (T − µ I)v = 0 ⇒ v = 0

2 (T − µ I)k v = 0 ⇒ v = 0

Demostración

1 Si (T − µI)v = 0, entonces T (v) = µv


Hagamos la siguiente cuenta:
(T − λI)v = T (v) − λv = µv − λv = (µ − λ)v
Si v ∈ Gλ , entonces (T − λ I)r v = 0 para algún r > 0, con lo cual (µ − λ)r v = 0 y como µ 6= λ,
resulta v = 0.

2 Utilizaremos la proposición 35-4 y el item anterior:


0 = (T − µ I)k v = (T − µ I) (T − µ I)k−1 v = 0 −→ (T − µ I)k−1 v = 0
| {z }
∈Gλ
0 = (T − µ I)k−1 v = (T − µ I) (T − µ I)k−2 v = 0 −→ (T − µ I)k−2 v = 0
| {z }
∈Gλ

···

0 = (T − µI)v −→ v=0
6.2. FORMA NORMAL O CANÓNICA DE JORDAN 143

Proposición 38. Si λ1 ; λ2 ; · · · ; λk son autovalores distintos de T , entonces Gλ1 + Gλ2 + · · · + Gλk


es una suma directa.

Demostración

Basta con demostrar que si vi ∈ Gλi y v1 + v2 + · · · + vk = 0, entonces vi = 0, ∀i = 1; · · · ; k.


Hagamoslo por inducción.
Es trivial que se cumple para k = 1.
Supongamos que es correcta para k − 1 y veamos que pasa para k.
Como vk ∈ Gλk , ∃r > 0 tal que (T − λk I)r vk = 0, con lo cual:

(T − λk I)r (v1 + v2 + · · · + vk−1 + vk ) = (T − λk I)r 0

(T − λk I)r v1 + (T − λk I)r v2 + · · · + (T − λk I)r vk−1 + (T − λk I)r vk = 0


| {z } | {z } | {z } | {z }
∈Gλ1 ∈Gλ2 ∈Gλk−1 0

Por 4 de la proposición 35, sabemos que (T − λk I)r vi ∈ Gλi , y por hipótesis inductiva resulta (T −
λk I)r vi = 0. Utilizando la proposición 37-2 tenemos que vi = 0 ∀i = 1; · · · ; k − 1 y necesariamente
vk = 0.

Esta última proposición es clave para comprender a que apuntamos. La idea es demostrar que los Gλi
no solo están en suma directa, sino que si λ1 ; λ2 ; · · · ; λk son todos los autovalores de T , entonces:

V = G λ1 ⊕ G λ2 ⊕ · · · ⊕ G λk

con lo cual habremos logrado una descomposición de V en k subespacios invariantes por T , y eligiendo
convenientemente las bases de los Gλi , lograremos nuestro objetivo que es expresar a T de manera
sencilla. En ese camino va la siguiente:

Proposición 39. Si Gλ es un autoespacio generalizado del endomorfismo T , entonces existe una


base Bλ = {v1 ; · · · ; vk } de Gλ tal que:

(T − λI)vi = vi−1 o (T − λI)vi = 0 i = 1; · · · ; k

Demostración

Ver apéndice E
Corolario. (Trivial) Si Gλ es un autoespacio generalizado del endomorfismo T , entonces existe una
base Bλ = {v1 ; · · · ; vj } de Gλ tal que:

T(vi ) = λvi + vi−1 o T(vi ) = λvi i = 1; · · · ; j



Observación 38. f |Gλ es diagonal por bloques de Jordan y hay tantos bloques como Dim(Aλ ).

Proposición 40. Sea P (t) el polinomio caracterı́stico del endomorfismo T . Si λ es una raiz de P (t)
y j es su multiplicidad, entonces:
Dim(Gλ ) = j
144 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

Demostración

Ver apéndice E

Corolario. Si λ1 ; λ2 ; · · · ; λk son todos los autovalores de T , entonces:

V = G λ1 ⊕ G λ2 ⊕ · · · ⊕ G λk

Demostración

Es trivial si consideramos las proposiciones 38 y 40 y el hecho que gr(P ) = Dim(V).

Teorema 16 (Forma normal o canónica de Jordan). Si T es un endomorfismo de un C e.v. V,


entonces existe una base B de V (base de Jordan) tal que kT kB es diagonal por bloques de Jordan.

Demostración

Ver apéndice E

Corolario. 1.(Trivial) Si todas las raices del polinomio caracterı́stico de T son reales, el mismo
teorema puede afirmarse para un R e.v.

Corolario. 2. Si T es un endomorfismo nilpotente de un e.v., entonces existe una base B de V tal


que kT kB es diagonal por bloques del tipo:
 
0 1 0 ··· 0
 0 0 1 0 ··· 0 
 
 .. 
 . 
 
 
 
 0 ··· 0 1 
0 ··· 0 0

Demostración

Como el único autovalor posible de un endomorfismo nilpotente es 0, los bloques de Jordan toman esa
forma.

Corolario. 3. Todo endomorfismo para el cual exista una base de Jordan puede descomponerse en la
suma de un endomorfismo nilpotente más otro diagonal.

Demostración

Es consecuencia de que los bloques de Jordan pueden descomponerse como:


     
λ 1 0 ··· 0 0 1 0 ··· 0 λ 0 0 ··· 0
 0 λ
 1 ···   0 0
  1 ···   0 λ
  0 ··· 

 .. =
  .. +
  . .. 

 .   .  


 0 ··· 0 λ 1   0 ··· 0 0 1   0 ··· 0 λ 0 
0 ··· ··· 0 λ 0 ··· ··· 0 0 0 ··· ··· 0 λ
6.2. FORMA NORMAL O CANÓNICA DE JORDAN 145

Ejemplo 36. Hallar la base y la forma canónica de Jordan de


1 −1 2 −2 −1
 
2
 0 3 0
 −1 −1 1 

 0 1 2 −2 −1 1 
A=  0 0 0

 2 0 0 

 0 1 1 −1 0 2 
0 0 1 0 −1 3
Resolución. Lo haremos paso a paso utilizando wxmaxima y la nomenclatura de la proposición 39:

Calculamos el polinomio caracterı́stico de A y obtenemos sus raices:


( %i1) a : matrix(
[1, −1, 2, −2, −1, 2],
[0, 3, 0, −1, −1, 1],
[0, 1, 2, −2, −1, 1],
[0, 0, 0, 2, 0, 0],
[0, 1, 1, −1, 0, 2],
[0, 0, 1, 0, −1, 3])
( %i2) f actor(determinant(a − t ∗ ident(6)));

Obtenemos que P (t) = (t − 2)5 (t − 1).


Hallemos los autoespacios generalizados para λ1 = 2 y λ2 = 1

λ1 = 2

calculamos el nucleo de A − 2I:


( %i3) nullspace(a-2*ident(6));
nos devuelve una base de S1 :
B10 = {(0; 1; 1; 0; 1; 0) (1; −1; −1; 0; 0; 1)}
Como la dimensión de S1 es menor que la multiplicidad busco el nucleo de (A − 2I)2 :
( %i4) nullspace((a-2*ident(6))∧ ∧ 2);
nos devuelve una base de S2 :
B20 = {(−1; 0; −1; 0; 0; 0) (0; −1; −1; 0; 0; 0) (0; 0; 0; 0; 1; 0) (0, 0, 1, 0, 0, −1)}
Como la dimensión de S2 es menor que la multiplicidad busco el nucleo de (A − 2I)3
( %i5) nullspace((a-2*ident(6))∧ ∧ 3);
nos devuelve una base de S3 = Gλ1 :
B30 = {(0; 0; 0; 0; 1; 0) (0, 0, 0, 1, 0, 1) (0; 0; 1; 1; 0; 0) (0; 1; 1; 0; 0; 0) (1; −1; 0; 0; 0; 0)}
Busco un subespacio T3 tal que S3 = S2 ⊕ T3 , por ejemplo
B3 = {(0, 0, 0, 1, 0, 1)} (base de T3 )
| {z }
v3

Ahora debemos calcular v2 = (A − 2I) · v3 ∈ T2 y v1 = (A − 2I) · v2 = (A − 2I)2 · v3 ∈ T1


146 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

( %i6) v3:matrix([0],[0],[0],[1],[0],[1]);
( %i7) v2:(a-2*ident(6)).v3;
( %i8) v1:((a-2*ident(6))∧ ∧ 2).v3;
con lo que obtenemos v2 = (0; 0; −1; 0; 1; 1) y v1 = (−1; 0; 0; 0; −1; −1)
{v1 ; v2 ; v3 } forman la base de Jordan del primer bloque.
Como ya utilizamos todos los vectores de T3 , debemos pasar a T2 . Para eso extendemos v2 a una base
de algún T2 tal que S2 = S1 ⊕ T2 , por ejemplo:

B2 = {(0; 0; −1; 0; 1; 1) (0; 0; 0; 0; 1; 0)} (base de T2 )


| {z }| {z }
v2 v5

Ahora debemos calcular v4 = (A − 2I) · v5 ∈ T1


( %i9) v5:matrix([0],[0],[0],[0],[1],[0]);
( %i10) v4:(a-2*ident(6)).v5;
Obteniendose que v4 = (−1; −1; −1; 0; −2; −1)
{v4 ; v5 } forman la base de Jordan del segundo bloque.
Ustedes pueden verificar que v1 y v4 son autovectores de A.

λ2 = 1

Como la multiplicidad de esta raiz es 1, sabemos que buscamos una base del autoespacio Aλ2 . Para
ello precisamos una base del nucleo de (A − 1 I):
( %i11) nullspace(a-ident(6));
De esta manera obtenemos v6 = (−1; 0; 0; 0; 0; 0), y la base de Jordan buscada es:
v v v

z }|1 {z }|2 {z }|3 {
B = (−1; 0; 0; 0; −1; −1) (0; 0; −1; 0; 1; 1) (0, 0, 0, 1, 0, 1)



(−1; −1; −1; 0; −2; −1) (0; 0; 0; 0; 1; 0) (−1; 0; 0; 0; 0; 0)
| {z }| {z }| {z }
v4 v5 v6

La matriz de Jordan puede obtenerse a mano o mediante wxmaxima con J = CEB · A · CBE , donde
CBE = (v1 v2 v3 v4 v5 v6 ):
( %i12) v6:matrix([-1],[0],[0],[0],[0],[0])$
( %i13) C:v1$
( %i14) Cbe:addcol(C,v2,v3,v4,v5,v6);
( %i15) J:(Cbe∧∧-1).a.Cbe;
y obtenemos:

−1 0 0 −1 0 −1
   
2 1 0 0 0 0
0
 2 1 0 0 0
0
 0 0 −1 0 0 
0 0 2 0 0 0  0 −1 0 −1 0 0 
J =
0
 CBE =
 
 0 0 2 1 0  0 0 1 0 0 0 

0 0 0 0 2 0 −1 1 0 −2 1 0 
0 0 0 0 0 1 −1 1 1 −1 0 0
6.2. FORMA NORMAL O CANÓNICA DE JORDAN 147

6.2.3. Funciones especı́ficas de wxmaxima para la forma canónica de Jordan


Como acabamos de ver, la obtención de la forma canónica de Jordan hecha paso a paso da bastante
trabajo a pesar de que los cálculos los hicimos con wxmaxima. Este programa, dispone de funciones
especı́ficas que hacen este trabajo de forma automática y que pasaremos a describir, de paso resolvere-
mos el ejemplo anterior de forma óptima. Estas funciones forman parte del paquete diag que hay que
cargar antes de utilizarlas. Además, wxmaxima codifica las matrices por bloques de Jordan mediante
listas según el siguiente formato:
 
[λ1 , n1 , · · · , np ], · · · , [λk , m1 , · · · , mq ]

que corresponde a una matriz con un primer autovalor λ1 que tiene p bloques de tamaños n1 , · · · , np ,
hasta el último autovalor λk con q bloques de tamaños m1 , · · · , mq , la matriz de Jordan del ejemplo
anterior quedarı́a codificada como:  
[2, 3, 2], [1, 1]
Veamos las funciones especı́ficas:

load(”diag”): Esta orden carga el paquete diag.


( %i1) load(”diag”)$

JF(λ,n): Devuelve un bloque de Jordan de n × n con autovalor λ.


( %i2) JF(2,3);
 
2 1 0
( %o2) 0 2 1 
0 0 2
jordan(A): Devuelve la forma canónica de Jordan de la matriz A en forma codificada.
( %i3) a : matrix(
[1, −1, 2, −2, −1, 2],
[0, 3, 0, −1, −1, 1],
[0, 1, 2, −2, −1, 1],
[0, 0, 0, 2, 0, 0],
[0, 1, 1, −1, 0, 2],
[0, 0, 1, 0, −1, 3]) $
( %i4) b : jordan(a);
( %o4) [[2,3,2],[1,1]]
dispJordan(b): Devuelve la matriz de Jordan asociada a la codificación descripta en la lista b.
( %i5) J : dispJordan(b);
 
2 1 0 0 0 0
0 2 1 0 0 0
 
0 0 2 0 0 0
( %o5) 
0 0 0 2 1 0

 
0 0 0 0 2 0
0 0 0 0 0 1

ModeMatrix(A,b): Devuelve la matriz M tal que M −1 · A · M = J, donde J es la forma canónica


de Jordan asociada a la lista b, básicamente es CBE cuyas columnas forman la base de Jordan.
148 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

( %i6) Cbe : ModeMatrix(A,b);


−1 0 0 1 1 1
 
0 0 0 1 0 0
 
 0 −1 0 1 0 0
( %o6) 
0

 0 1 0 0 0 
−1 1 0 2 0 0
−1 1 1 1 1 0

Observemos que no obtuvimos la misma base de Jordan que en la resolución anterior, lo cual muestra
que esta base no es única.

6.3. Teorema de Cayley-Hamilton


Definición 33 (Especialización de un polinomio en una matriz).
Sea P (t) = an tn + · · · + a1 t + a0 un polinomio en C[x] y sea A ∈ Cn×n , definimos:

P (A) = an An + · · · + a1 A + a0 I

Teorema 17 (Cayley-Hamilton).
Si A ∈ Cn×n y P (λ) es su polinomio caracterı́stico, entonces P (A) = 0

Demostración

k
Y
El polinomio caracterı́stico de la matriz A ∈ Cn×n es (a) P (λ) = (λ − λi )mi , donde mi es la
i=1
multiplicidad del autovalor λi , y necesariamente m1 + · · · + mk = n. Como las matrices A − λi I y
Yk
A − λj I conmutan, resulta que (b) P (A) = (A − λi I)mi , ya que el producto (b) sigue las mismas
i=1
reglas que el de (a). Consideremos un vector vj de una base de Jordan de A asociado a al autovalor
λj . Sabemos que existe un r ≤ mj tal que (A − λj I)r · vj = 0 por ser un autovector generalizado, y
como los factores de (b) conmutan, poniendo el factor (A − λj I)mj al final resulta que
 
Yk
P (A) · vj =  (A − λi I)mi  · (A − λj I)mj · vj = 0
i=1, i6=j
| {z }
0

Quiere decir que P (A) · v = 0 para cualquier v de la base de Jordan, esto solo es posible si la matriz
P (A) = 0, lo cual demuestra el teorema.

Teorema 18 (Polinomio minimal).


Si A ∈ Cn×n , existe un polinomio mónico mA (t) de grado mı́nimo tal que mA (A) = 0. Además, el
grado k de de mA debe ser 1 ≤ k ≤ n y cualquier otro polinomio Q(t) que se anule en A es divisible
por mA (t).

Demostración
6.3. TEOREMA DE CAYLEY-HAMILTON 149

Por el teorema de Cayley-Hamilton, el polinomio caracterı́stico cumple que P (A) = 0 y tiene grado
n, con lo cual garantizamos que 1 ≤ k ≤ n. Consideremos otro polinomio Q(t) tal que Q(A) = 0.
Dividiendolo por mA (t), obtenemos:

Q(t) = S(t) · mA (t) + R(t) con R = 0 ó gr(R) < k

Claramente R(A) = 0 y si no fuera R = 0 tendrı́a grado menor que el minimal con lo cual necesaria-
mente R = 0 y mA divide a Q.
150 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

6.4. Cuestionario
1 Los autovalores de la matriz A ∈ Cn×n son los mismos que los de At

2 Los autovectores de la matriz A ∈ Cn×n son los mismos que los de At

3 Si A ∈ Cn×n , la multiplicidad del autovalor λ es igual a dim[Aλ ].

4 ¿En que cambia el polinomio caracterı́stico de una matriz A ∈ Cn×n con las definiciones
P1 (λ) = |A − λI| y P2 (λ) = |λI − A|?

5 ¿Puede una matriz A ∈ Cn×n tener n autovalores distintos y no ser diagonalizable? Explicar.

6 ¿Puede una matriz A ∈ Cn×n tener k autovalores con k < n y ser diagonalizable?

7 En lo referido a la diagonalización, ¿Que es la multiplicidad geométrica y la algebráica? ¿Como


se relacionan?

8 Sea A ∈ Cn×n . ¿Que da el producto de todas las raices del polinomio caracterı́stico de A?

9 ¿De que tipo de matrices tenemos la garantı́a de que todos sus autovalores sean reales?

10 ¿Que es un subespacio invariante y como se relaciona con el tema de la diagonalización?

11 Un subespacio invariante, ¿es necesariamente de autovectores?

12 Un subespacio invariante de dimensión 1, ¿es necesariamente de autovectores?

13 ¿Para que sirven los discos de Gershgarin?

14 ¿Que debe pasar con una t.l. para tener una homotecia? ¿Como sabe si es homogenea o hetero-
genea?

15 ¿Que autovalores puede tener un proyector? ¿Existen proyectores que no sean diagonalizables?

16 ¿Que autovalores puede tener un trasquilado y que dimensión geométrica y algebráica tiene?

17 ¿Que condición cumplen los autovalores de una t.l. ortogonal?

18 Si R : R2 −→ R2 es una rotación propia. ¿Que puede decir acerca del eje de rotación?

19 Si R : R3 −→ R3 es una rotación propia. ¿Que puede decir acerca del eje de rotación? ¿Como
harı́a para obtenerlo?

20 Si R : R4 −→ R4 es una rotación propia. ¿Que puede decir acerca del eje de rotación?

21 Si S : V −→ V es una simetrı́a respecto al hiperplano H. ¿Que puede decir acerca de los


autovalores y autoespacios de S y sus dimensiones?

22 Los proyectores ¿son homotecias? ¿y los trasquilados? ¿y las simetrı́as respecto a un hiperplano?

23 ¿Que forma tiene un bloque de Jordan?


6.5. TEÓRICOS 151

24 El polinomio caracterı́stico de la matriz A es P (λ) = (λ − 5)3 . Independientemente del orden de


los bloques, escriba las posibles formas de Jordan para A.
25 Si A ∈ Cn×n , defina autovector generalizado.
26 Si B = {v1 ; · · · ; vn } es una base de Jordan para A ∈ Cn×n y λ un autovalor de la misma,
entonces A · vi = λ · vi o A · vi =?.
27 Una base de Jordan esta formada totalmente por autovectores generalizados.
28 Las bases de Jordan son necesariamente ortogonales.
29 Toda matriz A ∈ Cn×n tiene una forma canónica de Jordan.
30 Un bloque de Jordan tiene la forma J = λ · I + N . ¿Que forma tiene N?
31 Un bloque de Jordan define un subespacio invariante.
32 La diagonalización es un caso particular de la forma canónica de Jordan.
33 ¿Para que sirve la forma canónica de Jordan?
34 Enuncie el teorema de Cayley-Hamilton.
35 Michael Jordan era un jugador de basquet que no tiene nada que ver con el matemático Camille
Jordan. Por otro lado, Adrian Paenza es un periodista deportivo que además es doctor en
matemática.
Indicar quienes son los de la foto.

6.4.1. Búsqueda bibliográfica


[AL82] ¿Que es la forma canónica racional de una t.l.?

6.5. Teóricos
teórico 1 Demuestre que si λi es un autovalor de A ∈ Cn×n , entonces λi es una raiz de P (λ) = |A − λ I|.
teórico 2 Demuestre que si T : V −→ V es una t.l. y B es una base de V, entonces los autovalores de T
son los autovalores de kT kB y que los autovectores de kT kB , son coordenadas en la base B de
los autovectores de T .
teórico 3 Demuestre que si T : V −→ V es una t.l. y B y B 0 son bases de V, entonces el polinomio
caracterı́stico de kT kB es el mismo que el de kT kB 0
teórico 4 Sea A ∈ Cn×n . Demuestre que el producto de todas las raices del polinomio caracterı́stico de A
da det(A).
teórico 5 Demuestre que para matrices A ∈ R2×2 , el polinomio caracterı́stico es

P (λ) = λ2 − tr(A) λ + det(A)


152 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

teórico 6 Demuestre que para matrices A ∈ R3×3 , el polinomio caracterı́stico es

P (λ) = λ3 − tr(A) λ2 + tr[cof (A)] λ − det(A)

donde cof (A) es la matriz de cofactores de A.

teórico 7 Demuestre la proposición 34.

teórico 8 Sea λ un autovalor de la t.l. T : V −→ V con autovector asociado v. Probar que la t.l. α T tiene
autovalor α λ con autovector asociado v.

teórico 9 Sea λ un autovalor de la t.l. T : V −→ V con autovector asociado v. Probar que la t.l. T 2 tiene
autovalor λ2 con autovector asociado v.

teórico 10 Sean las t.l. T1 : V −→ V y T2 : V −→ V tales que ambas tienen a λ por autovalor con autovector
asociado v. Probar que T1 ◦ T2 tiene a λ2 por autovalor con autovector asociado v.

teórico 11 Demuestre que si A ∈ Cn×n es una matriz hermı́tica, entonces todos sus autovalores son reales.
¿A que se reduce esta propiedad si A ∈ Rn×n ?

teórico 12 La forma canónica de Jordan puede desarrollarse de dos maneras distintas, con unos en la
diagonal inmediatamente por encima de la diagonal principal o con los unos debajo. El soft
wxmaxima, devuelve la forma canónica con los unos por encima de la diagonal principal. Explique
una estrategia para aprovechar wxmaxima y obtener la forma canónica con los unos por debajo.
En particular, se pide como obtener C tal que A = C · J 0 · C −1 con J 0 una forma canónica con
los unos por debajo de la diagonal principal.

teórico 13 Sabiendo que un bloque de Jordan es fácil de elevar a una potencia, explique como utilizarla la
para obtener A50 con A ∈ Cn×n .

teórico 14 Si T : V −→ V es una t.l. y v1 ; v2 ; v3 ; v4 son tales que T (v4 ) = 5 · v4 + v3 , T (v3 ) = 5 · v3 + v2 ,


T (v2 ) = 5 · v2 + v1 y T (v1 ) = 5 · v1 , demuestre que v1 ; v2 ; v3 ; v4 son vectores generalizados de
T . ¿Cual es la mı́nima multiplicidad algebráica del autovalor 5?

teórico 15 Sea T : V −→ V una t.l. y v4 tal que (T − 4 · I)4 (v4 ) = 0 y (T − 4 · I)3 (v4 ) 6= 0. Hallar otros
tres vectores generalizados v1 ; v2 ; v3 de modo que v1 ; v2 ; v3 ; v4 sean l.i. Indicar si hay algún
autovector y con que autovalor.

teórico 16 Sabiendo que 3 es el único autovalor de A ∈ R2×2 , dar todas las posibilidades de la forma de
Jordan de A indicando dim(A3 ).

teórico 17 Sabiendo que 5 es el único autovalor de A ∈ R3×3 , dar todas las posibilidades de la forma de
Jordan de A independientemente del orden de los bloques, indicando dim(A5 ).

teórico 18 Sabiendo que 2 es el único autovalor de A ∈ R4×4 , dar todas las posibilidades de la forma de
Jordan de A independientemente del orden de los bloques, indicando dim(A4 ).

6.6. Ejercicios
Ejercicio 1 Para las siguientes matrices de R3×3 , hallar calculando el determinante correspondiente el poli-
nomio caracterı́stico, los autovalores (reales y complejos), plantee los sistemas correspondientes
a la búsqueda de autovectores y encuentre los autoespacios de:
6.6. EJERCICIOS 153

   
5 2 2 2 8 4
a) A = −7 1 3 b) A = 0 6 2
7 2 0 0 −12 −4
   
−9 7 −7 −1 9 −8
c) A = −7 5 −7 d ) A = −1 −18 15 
7 −7 5 −1 −23 20
   
0 2 −1 1 3 4
e) A = −1 −3 1  f ) A =  1 0 −3
−1 −2 0 −1 2 5
 
8 −25 −5
g) A=  3 −6 −1
−6 18 5

En cada caso dibujar los discos de Gershgarin y verificar el teorema.

Ejercicio 2 Para las matrices del ejercicio 1, decida cuales son diagonalizables y en caso que lo sea encuentre
las matrices C inversible y D diagonal tales que A = C · D · C −1 .

Ejercicio 3 Comprobar que las siguientes son t.l. Hallar el polinomio caracterı́stico, los autovalores y los
autoespacios correspondientes de las t.l. Decidir si la t.l. es diagonalizable.
   
x1 −3 x3 + x2 + 2 x1
x2  −4 x4 − 6 x3 + 5 x2 + 8 x1 
a) T x3  =  −x4 − 3 x3 + 2 x2 + 3 x1 
   T : R4 −→ R4
x4 −2 x4 − 7 x3 + 4 x2 + 6 x1
 
0 1
b) T (X) = X · T : R2×2 −→ R2×2
1 0
 
0 1
c) T (X) = X − · Xt T : R2×2 −→ R2×2
1 0
   
0 1 0 1
d ) T (X) = X · + ·X T : R2×2 −→ R2×2
1 0 1 0
 
1 1
e) T (X) = tr(M · X) M + X con T : R2×2 −→ R2×2
−1 1
f ) T (a x2 + b x + c) = b x2 + c x + a T : R2 [x] −→ R2 [x]
g) T [P (x)] = x2 P (−1) + x P 0 (x) + P (x) T : R2 [x] −→ R2 [x]
h) T [P (x)] = −2 P (x − 1) + P 0 (x) T : R2 [x] −→ R2 [x]
i ) T [P (x)] = −P (2x + 1) + 3 P (x) T : R2 [x] −→ R2 [x]
j ) T [P (x)] = −x P 0 (x) + P 0 (x) − 2 P (x) T : R2 [x] −→ R2 [x]

Ejercicio 4 Hallar los autovalores y los autoespacios correspondientes de las siguientes t.l.

a) T [f (x)] = −f 0 (x) T : C 1 [R] −→ C 1 [R]


b) T [f (x)] = 3 f (x) − x f (1) T : C 0 [R] −→ C 0 [R]
c) T [f (x)] = −x f 0 (x) T : C 1 (0; ∞) −→ C 1 (0; ∞)
d ) T [f (x)] = −x2 f 0 (x) T : C 1 (0; ∞) −→ C 1 (0; ∞)
154 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

Ejercicio 5 Sean las bases de R3 B = {(−2; 3; −1); (−5; 6; −3); (2; −2; 1)} y
B 0 = {(−2; −5; 2); (3; 6; −2); (−1; −3; 1)}
a) Hallar los 
autovaloresy autoespacios correspondientes de la t.l. T tal que
0 5 −4
kT kEB = 2 0 4 

6 5 6
b) Hallar los 
autovaloresy autoespacios correspondientes de la t.l. T tal que
0 2 4
kT kBE = 4 1 −5
3 1 −3
c) Hallar los autovalores
 y autoespacios
 correspondientes de la t.l. T tal que
−1 −3 1
kT kBB 0 = −4 −10 4
−6 −14 6
d ) Sea B = {v1 ; v2 ; v3 } una base del e.v. V y sea T la t.l. tal que:

T (v1 ) = 6 v1 + 4 v2 + 4 v3 T (v2 ) = −4 v1 − 2 v2 − 4 v3 T (v3 ) = −4 v1 − 4 v2 − 2 v3

Hallar los autovalores y los autoespacios correspondientes.


Ejercicio 6 a)  que sea posible, k ∈ R para que (1; −1; −1) sea autovector de
Hallar, en caso 
−3 −4 4
k 6 −4
k k −3
 
−3 −k − 2 k + 2
b) Hallar k ∈ R para que  5 k + 4 −k − 2 tenga un autovalor doble.
5 5 −3
 
1 1 −k − 5
c) Hallar k ∈ R para que k + 4 −k − 2 k + 3  sea diagonalizable en R.
k + 4 −k − 4 k + 5
d ) Sea la base de R3 B = {(−2; 3; −1); (−5; 6; −3); (2; −2; 1)} y las t.l. T1 y T2 tales que:
   
2 1 0 1 1 0
kT1 kEB = 2 0 k + 5
  kT2 kBE = 3 0 3
0 0 k+5 0 0 −2
Hallar k ∈ R para que −4 sea autovalor de T1 ◦ T2 .
Ejercicio 7 (Diagonalización ortogonal)
a) Hallar, en caso que sea posible una matriz C ortogonal y una matriz D diagonal tal que
A = C · D· C −1   
3 −4 −17 5 −7 0
1) A =  −4 −3 −34 2) A = −7 5 0
−17 −34 −73 0 0 12
   √ 
2 −1 4 −1 −7 1 −√2 0
−1 3 −1 3  −7
√ − 2 0
 1
 √

3) A =  4 −1 2 −1
 4) A = − 2 − 2 −6 0
−1 3 −1 3 0 0 0 −8
6.6. EJERCICIOS 155

√ √ 
−6 3 √2 −3 √2

0
 0
√ −6√ −3 2 −3 2

5) A = 
 3 2 −3 2
√ √ −6 0 
−3 2 −3 2 0 −6
b) Hallar, en caso que sea posible una matriz C unitaria y una matriz D diagonal tal que
A = C · D · C −1
   
9 −11 i 10 i − 10 1 0 −i
1) A =  11 i 9 −10 i − 10 2) A = 0 0 0
−10 i − 10 10 i − 10 50 i 0 1
Ejercicio 8 Hallar de forma aproximada los autovalores y autoespacios correspondientes de:
√ √ 
−6 −8√2 −2√ 2
  
2 1 4 6 22
3 8 7 4   −6 2√ −2 2 8 2 
a) A =   b) A= √ 
0 2 1 −1 −8 2 −2 2 18 10 
√ √
3 6 1 2 −2 2 8 2 10 6
 
0,49 −5,359999 4,0 −14,72
 3,4 12,76 −4,789999 27,97 
c) A =  −0,68

−0,68 0,49 −0,68 
−1,36 −4,87 2,15 −10,72
Ejercicio 9 Decidir si las siguientes t.l. T : Rn −→ Rn son homotecias, proyectores, trasquilados, rotaciones
propias, rotaciones impropias, simetrı́as respecto a un hiperplano o ninguna de las anteriores.
Tenga en cuenta que puede caer en más de una categorı́a.

En caso que sea una homotecia decidir si es homogenea o heterogenea.


En caso que sea un proyector, hallar su núcleo e imagen.
En caso que sea un trasquilado, hallar el hiperplano fijo y la dirección de desplazamiento
w.
Si es una rotación propia hallar el eje de rotación.
Si es una simetrı́a respecto a un hiperplano, hallar el hiperplano.
 
3 5 3 1  1
√ √2 √1

−2 −3 −2 0  6 6 6
a) kT k =  b) kT k =  √114 − √214 √314 
  
1 1 1 −1
− √421 √1 √2
1 2 1 1 21 21

3
 1 
− 2 0 0
 
2 3 0 0 0
 √3 1
0 0 0 3 0 0
  
c) kT k =  2 2 d ) kT k =
 
1 1
0 0 √ √  0 0 3 0
 
2 2
0 0 − √12 √12 0 0 0 3
 1
− 12 − 21 − 12
  
−7 2 4 20 2
8 1 −3 −17 − 1 1
− 12 − 12 
e) kT k =   f ) kT k =  12 2
1 1 1

−4 −2 1 6  − − −
2 2 2 2
−3 2 3 10 − 12 − 12 − 21 1
2
 
−3 −12 4 −8  1
√ √3 √2

6 14 21
1 4 −1 2 
g) kT k =  h) kT k =  √26 − √214 √1 
 
1 3 0 2  21 
√1 √1 − 421

1 3 −1 3 6 14
156 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES

 √ 
  1 3
5 0 −4 −8 − 0 0
−4  √23 1
2
1 4 8

i ) kT k =   j ) kT k =
 2 2 0 0
2 0 −1 −4
 
0 0 0 1
2 0 −2 −3 0 0 1 0

Ejercicio 10 Para las siguientes matrices A, utilizar Wxmaxima para hallar C inversible y J diagonal por
bloques de Jordan tales que A = C · J · C −1 , e indicar los autovalores y la dimensión del
autoespacio correspondiente. Indicar los subespacios invariantes que encuentre de la t.l.
T : Rn −→ Rn definida por T (X) = A · X
   
8 8 12 −1 −3 −3
a) A =  18 27 36  b) A = −3 −1 −3
−16 −22 −30 3 3 5
   
2 1 1 7 8 0
c) A =  1 2 0 d ) A = −2 −1 0
−1 −1 1 1 2 3
 
  −1 −13 −10 −10
17 8 0 −5 −15 −11 −15
e) A = −23 −11 −1 f) A = 
3

9 10 7 
21 12 3
5 19 11 19
   
6 14 29 −4 0 0 0 0
1 1 4 0  −3 0 0 13 
g) A = −3 −6 −13 1 
 h) A =  2 0 0 −9

−1 −3 −4 −2 0 0 0 0
   
2 2 −4 0 −7 0 9 −9
−11 −7 18 −9 −6 −2 8 −4
i) A =  −8 −6 14 −7
 j) A = 
−3 −2 6 −2

−5 −6 12 −3 9 0 −9 11
Ejercicio 11 Para las matrices del ejercicio anterior, hallar C inversible y J 0 diagonal por bloques de Jordan
con los unos por debajo de la diagonal principal tales que A = C · J 0 · C −1
Ejercicio 12 Utilizar Wxmaxima para hallar C inversible y J diagonal
 por bloques de Jordantales que
i+2 0 0 2i + 1
0 2 − i 2 i + 3 4 − 7 i
A = C · J · C −1 e indicar la base de Jordan para A = 


 0 0 2i 1 
0 0 0 2i
 
4k − 3 2 − 2k 4 − 3k
Ejercicio 13 Hallar todos los valores de k ∈ R tales que  5 0 −4  no es diagonalizable.
4k − 6 2 − 2k 7 − 3k
Ejercicio 14 Para las matrices del ejercicio 1 verificar el teorema de Cayley-Hamilton y hallar el polinomio
minimal.

6.7. Problemas
Problema 1 Averiguar si existe un polinomio no nulo P (x) ∈ R[x] tal que P (x − 2) + P 0 (x) + x P (1) = P (x).
Si existe, ¿cual es uno de estos polinomios?
Ayuda: Ver si λ = 1 es autovalor de la t.l. T [P (x)] = P (x − 2) + P 0 (x) + x P (1)
6.7. PROBLEMAS 157

Problema 2 a) Defina una rotación propia T : R4 −→ R4 que no tenga eje.


b) Defina una rotación propia T : R4 −→ R4 que tenga eje y averiguar su dimensión.

Problema 3 Hallar los autovalores de una matriz A ∈ R3×3 tal que rg(A) = 1 y tr(A) = 7.

Problema 4 Los autovalores de la matriz A son -3 y 4 con dim(A−2 ) = 1 y dim(A4 ) = 2

a) Hallar los autovalores de 2.B, B t , B −1 , B k y B − 7I justificando la respuesta.


b) Para 2.B, B −1 , B k y B − 7I diga cuales son los autoespacios correspondientes.

Problema 5 Los autovalores de una matriz simétrica A ∈ R3×3 son 2, 3 y 4 con A2 = gen{(1; 1; 2)} y
A3 = {(1 − 1; 0)}. Hallar una A posible. ¿Cuantas puede encontrar?

3k 1 1 (−1)k 1 −1
     
1 2
Problema 6 Sea A = . Probar que Ak = +
2 1 2 1 1 2 −1 1

Problema 7 Los autovectores de una matriz A ∈ R3×3 son (1; 3; −2), (−1; 1; 1) y (5; 1; 4) con autovalores
respectivos 2, 3 y -5. Expicar justificando adecuadamente porque A es simétrica. Hallar det(A).
   
5 9 3k + 2 9k
Problema 8 Sea A = . Probar que Ak = 2k−1 ·
−1 −1 −k 2 − 3k
158 CAPÍTULO 6. FORMAS CANÓNICAS DE LAS TRANSFORMACIONES LINEALES
Apéndice A

Determinante de Vandermonde

Un determinante con la siguiente estructura se llama determinante de Vandermonde:


···

1 1 1 1

λ1
2 λ 2 · · · λn−1 λn
λ1 λ 2 · · · λ2n−1 λ2n
2
Vn = · · · ··· · · ·
··· ··· · · ·

λn−2 λn−2 n−2
· · · λn−1 λnn−2
1 2
λn−1 λn−1 · · · λn−1 n−1
1 2 n−1 λn

Demostraremos que Vn = Vn−1 (λn − λ1 )(λn − λ2 ) · · · (λn − λn−1 ). Para eso, calcularemos el siguiente
determinante por la última columna:
· · ·

1 1 1 1

λ1
2 λ2 · · · λn−1 x
λ1
λ22 · · · λ2n−1 x2
P (x) = · · · ··· · · ·
··· ··· · · ·

λn−2 λn−2 · · · λn−2 xn−2
1 2 n−1
λn−1 λn−1 · · · λn−1 xn−1
1 2 n−1

λ1
2 λ 2 · · · λ n−1 1 1 ··· 1
2 2
2
λ22 λ2n−1

λ1
λ2 · · · λn−1 λ1
···
n+1 · · · ··· n+2 · · · ···

=(−1) + (−1) · x + ···
··· ··· ··· ···
n−2 n−2 n−2
n−2
λ
1 λ 2 · · · λ n−1
λ
1 λn−2
2 ··· n−2
λn−1
λn−1 λn−1 · · · λn−1 λn−1 λn−1 ··· λn−1
1 2 n−1 1 2 n−1

1
1 ··· 1
λ1
2 λ2 ··· λn−1
n+n λ1
λ22 ··· λ2n−1 n−1
· · · + (−1) ·x
| {z } · · · ···
=1 ··· ···

λn−2 λn−2 ··· λn−2
1 2 n−1
| {z }
Vn−1

Observemos que el resultado es un polinomio en x de grado n − 1, y que su coeficiente principal es


Vn−1 . Además, λ1 ; · · · λn−1 son raices de P (x) ya que quedarı́a un determinante con dos columnas

159
160 APÉNDICE A. DETERMINANTE DE VANDERMONDE

iguales. Estos resultados nos permiten escribir a P (x) de forma factorizada:

P (x) = Vn−1 (x − λ1 )(x − λ2 ) · · · (x − λn−1 )

Como P (λn ) = Vn , resulta que:

Vn = Vn−1 (λn − λ1 )(λn − λ2 ) · · · (λn − λn−1 )

Con este resultado, podemos construir la siguiente secuencia:

Vn−1 =Vn−2 (λn−1 − λ1 )(λn−1 − λ2 ) · · · (λn−1 − λn−2 )


Vn−2 =Vn−3 (λn−2 − λ1 )(λn−2 − λ2 ) · · · (λn−2 − λn−3 )
···

V3 =V2 (λ3 − λ2 )(λ3 − λ1 )


=(λ2 − λ1 )(λ3 − λ2 )(λ3 − λ1 )

Concluimos que el determinante de Vandermonde puede calcularse como:


Y
Vn = (λj − λi )
1≤i<j≤n

Observamos que la matriz de Vandermonde es inversible si y solo si λi 6= λj ∀i 6= j.


Apéndice B

Teorema fundamental de la dimensión

Si S es un subespacio de un K-ev, toda base de S tiene el mismo número de vectores.


Demostración
Supongamos que B = {v1 , v2 , · · · vr } y B 0 = {w1 , w2 , · · · ws } son dos bases de S con r < s. En ese
caso, serı́a posible escribir a los vectores de B 0 como c.l. de los vectores de B, esto es:

w1 =k11 v1 + · · · + kr1 vr
············
············
ws =k1s v1 + · · · + krs vr

Planteamos ahora el siguiente sistema de ecuaciones:

α1 w1 + · · · + αs ws = 0

sustituyendo lo anterior obtenemos:

α1 (k11 v1 + · · · + kr1 vr ) + · · · + αs (k1s v1 + · · · + krs vr ) = 0

Reordenando queda:

(α1 k11 + · · · + αs k1s ) v1 + · · · + (α1 kr1 + · · · + αs krs ) vr = 0

Por ser B una base, sus vectores son l.i., con lo cual:

α1 k11 + · · · + αs k1s = 0
············
············
α1 kr1 + · · · + αs krs = 0

que es un sistema de r ecuaciones con s incógnitas. Teniendo en cuenta que r < s y la observación 5-2,
el sistema tendrı́a infinitas soluciones, lo cual es absurdo pues B 0 es una base y sus vectores son l.i.
Corolario. Sea V un K-ev y S un subespacio. Si dim(S) = r y B 0 = {w1 , · · · , wr } ⊂ S son l.i.,
entonces B 0 es una base de S.

Demostración

161
162 APÉNDICE B. TEOREMA FUNDAMENTAL DE LA DIMENSIÓN

Sea B = {v1 , v2 , · · · vr } una base de S. Está claro que gen(B 0 ) ⊂ gen(B). Falta demostrar que
gen(B) ⊂ gen(B 0 ). Las mismas cuentas que antes pero con s = r, nos llevan al sistema:

α1 k11 + · · · + αr k1r = 0
············
············
α1 kr1 + · · · + αr krr = 0

La diferencia es que ahora, los wi son l.i., con lo cual el sistema debe tener solución única y al ser
cuadrado, la matriz de coeficientes debe ser inversible. Si H = (hij ) es dicha inversa, tendremos que:

v1 =h11 w1 + · · · + hr1 wr
············
············
vs =h1r w1 + · · · + hrr wr

De esta manera, toda c.l. de los vi será también una c.l. de los wi con lo cual gen(B) ⊂ gen(B 0 ).
Apéndice C

Teorema del rango

Conocimientos previos
Método de reducción de Gauss-Jordan.

Generadores, bases y dimensión de subespacios.

Al utilizar operaciones elementales de Gauss sobre la identidad, no se anula ninguna fila.

Al utilizar operaciones elementales de Gauss sobre las filas de una matriz, no se modifica el
subespacio generado por las filas.

Obtener un sistema de ecuaciones de un subespacio cuando se conoce un conjunto de generadores.

Unicidad de la forma reducida equivalente.

El rango por filas de A (rgf (A)) es igual a su rango por columnas (rgc (A)). De ahora en
más a cualquiera de los dos lo llamaremos rango de A y lo escribiremos rg(A).

Haremos una demostración acompañada de ejemplos ilustrativos.


Una primera observación es que si AR es una matriz escalonada en las filas y reducida con k filas
distintas de cero, entonces al reducir AtR se obtiene una matriz también con k filas distintas de cero
ya que cada uno principal puede utilizarse para anular los demás elementos de su columna, de esta
forma, si AR está reducida resulta que rgf (AR ) = rgc (AR ). Veamos un ejemplo:
   
  1 0 0 0 1 0 0 0
1 5 0 0 7 2 5
 0 0 0

0
 1 0 0

0 0 1 0 4 6 0 1 0 0 0 0 1 0
AR = 
0
 =⇒ AtR =   =⇒  
0 0 1 2 3 0
 0 1 0

0
 0 0 0

0 0 0 0 0 0 7 4 2 0 0 0 0 0
2 6 3 0 0 0 0 0

163
164 APÉNDICE C. TEOREMA DEL RANGO

Si A ∈ Cn×m es una matriz cualquiera, sus filas generan un subespacio S ⊂ Rm que es el mismo que
el generado por las filas de su matriz reducida equivalente, por ejemplo:
   
1 2 1 −1 1 0 1 −11
1 3 1 4  0 1 0 5 
A= 2
 =⇒ AR =  
5 2 3 0 0 0 0 
−1 −1 −1 6 0 0 0 0
con lo cual
S = gen{(1; 2; 1; −1); (1; 3; 1; 4); (2; 5; 2; 3); (−1; −1; −1; 6)} = gen{(1; 0; 1; −11); (0; 1; 0; 5)}
Llamaremos B a la matriz que tiene por filas las filas no nulas de AR . Obtengamos ahora un sistema de
ecuaciones lineal y homogeneo para los elementos de S. Para eso, podemos usar cualquiera de los dos
conjuntos de generadores, poniendo estos como columnas y ampliando las matrices con la identidad.
En nuestro ejemplo quedarı́an:

   
1 1 2 −1 | 1 0 0 0 1 0 1 −2 | −1 9 −18 −2
2 3 5 −1 | 0 1 0 0 0 1 1 1 | −6 −4 15 1 
(At |I) = 

 =⇒  
1 1 2 −1 | 0 0 1 0 0 0 0 0 | 1 0 −1 0 
−1 4 3 6 | 0 0 0 1 0 0 0 0 | 0 1 − 11 5 − 15
   
1 0 | 1 0 0 0 1 0 | 0 0 1 0
0 1 | 0 1 0 0 0 1 | 0 0 11 1 
(B t |I) = 

 =⇒  5 5 
 1 0 | 0 0 1 0 0 0 | 1 0 −1 0 
−11 5 | 0 0 0 1 0 0 | 0 1 − 11
5 − 15
Si observamos nuestro ejemplo, en ambos casos los sistemas resultaron ser exactamente el mismo:

x1 − x3 = 0
x2 − 11 1
5 3 − 5 x4 = 0
x
Demostraremos que esto no es casual. Hagamos las siguientes observaciones para el caso general:
Los sistemas obtenidos por los dos caminos deben ser equivalentes ya que sus soluciones son los
elementos de S.
En ambos casos, los sistemas estan “reducidos” debido al procedimiento empleado.
En ambos casos no hay ecuaciones redundantes ya que sus coeficientes son obtenidos con opera-
ciones elementales por filas sobre la identidad, con lo cual tienen la misma cantidad de ecuaciones.
Por lo observado anteriormente y por la unicidad de la forma reducida, ambos sistemas deben
ser exactamente iguales.
Debido a lo anterior, la cantidad cantidad de filas que se anulan al reducir At tiene que ser la misma
que al reducir B t , con lo cual
rgc (A) = rgf (At ) = rgf (B t )
Pero B es una matriz reducida, con lo cual
rgf (B t ) = rgf (B) =⇒ rgc (A) = rgf (B) = rgf (AR ) = rgf (A)
Apéndice D

Diagonalización de una matriz


hermı́tica

Teorema 19. Si A ∈ Cn×n es hermı́tica, entonces es diagonalizable.

Demostración

Sean λ1 ; · · · ; λk ∈ R todos los autovalores de A con multiplicidades algebráicas m1 ; · · · ; mk , donde


necesariamente m1 + · · · + mk = n, y sean A(λi ) los autoespacios correspondientes. Sea la t.l.
T (v) = A · v.
Llamemos M = A(λ1 ) ⊕ · · · ⊕ A(λk ). Suponemos como hipótesis del absurdo que M 6= Cn , con lo cual
M ⊥ 6= {0}. Está claro que M es un subespacio invariante, demostremos que M ⊥ también lo es:

v1 ∈ M ⊥ ; v2 ∈ M ⇒ < A · v1 ; v2 >=v1 ∗ · A∗ · v2
= < v 1 ; A∗ · v 2 >
= < v1 ; A · v2 >
| {z }
∈M
=0

con lo cual A · v1 ∈ M ⊥ y M ⊥ resulta un subespacio invariante.


Si BM es una base de M , BM ⊥ es una base de M ⊥ y consideramos la base ordenada B = BM ∪ BM ⊥
de Cn×n , entonces la t.l. T tiene una matriz asociada en la base B con bloques distribuidos de la
siguiente manera:  
D 0
kT kB = con H y D cuadradas
0 H
Sabemos que el polinomio caracterı́stico de una t.l. no depende de la base empleada (ver proposición
32), por lo tanto,

det(A − λI) = det(kT kB − λI) = det(D − λI) · det(H − λI)


| {z } | {z } | {z }
PA (λ) PD (λ) PH (λ)

Como por hipótesis M ⊥ 6= {0}, resulta que gr(PH ) ≥ 1 y debe tener raices que también lo sean de
PA (λ), por lo tanto reales. Si esto fuera ası́, deberı́a existir en M ⊥ un autovector w 6= 0 asociado a ese
autovalor, pero entonces w ∈ M , ya que M contiene todos autovectores de A y resulta M ∩ M ⊥ 6= {0}
lo cual es un absurdo y necesariamente M = Cn y A es diagonalizable.

165
166 APÉNDICE D. DIAGONALIZACIÓN DE UNA MATRIZ HERMÍTICA
Apéndice E

Forma canónica de Jordan

Proposición 41. Si Gλ es un autoespacio generalizado del endomorfismo T , entonces existe una


base Bλ = {v1 ; · · · ; vk } de Gλ tal que:

(T − λI)vi = vi−1 o (T − λI)vi = 0 i = 1; · · · ; k

Demostración

Si Gλ = Aλ , entonces cualquier base de Gλ es una base de autovectores y cumple lo pedido. Para


el caso Gλ 6= Aλ , lo haremos por inducción completa. Esta claro que si dim(Gλ ) = 1 se cumple. La
hipótesis inductiva es que se cumple si dim(Gλ ) < k.
Sea dim(Gλ ) = k y la t.l. T0 : Gλ −→ Gλ , T0 = T − λI. Es fácil ver que Gλ es un autoespacio
generalizado de T0 con autovalor cero. Al haber un núcleo no nulo, dim[Im(T0 )] < k. Además si supo-
nemos que Gλ 6= Aλ , T0 no es la transformación nula. Entonces, si dim[Im(T0 )] = r, necesariamente
0 < r < k. Por ser r < k y utilizando la hipótesis inductiva, si restrigimos T0 a Im(T0 ), existe una
base con las condiciones pedidas, esto es U = {u1 ; · · · ; ur } tales que T0 (ui ) = ui−1 o T (ui ) = 0.
Este conjunto U , está estructurado por cadenas de vectores que comienzan con un autovector de T0 ,
esto serı́a:
U = { a1 ; · · · ; aja ; b1 ; · · · ; bjb ; · · · ; z1 ; · · · ; zjz }
|{z} |{z}
u1 ur

donde, por ejemplo en la primer cadena, T0 (a1 ) = 0 y T0 (ai ) = ai−1 si i = 2; · · · ; ja .


Dado que aja ∈ Im(T0 ), existe un vector sa tal que T0 (sa ) = aja , y lo mismo para las demás cadenas,
con lo cual podemos armar el siguiente conjunto de vectores:

V = {a1 ; · · · ; aja ; sa ; b1 ; · · · ; bjb ; sb ; · · · ; z1 ; · · · ; zjz ; sz }

Este conjunto V , extiende cada cadena en un vector, ¿pero cuantas hay? Si dim[N u(T0 )∩Im(T0 )] = p,
entonces existen en Im(T0 ), p cadenas de estos vectores, uno por cada autovector de T0 que se encuentre
en U , o sea que V contiene r + p vectores.
Por el teorema de la dimensión de t.l., dim[N u(T0 )] = k − r, esto quiere decir que es posible extender
al conjunto a1 ; · · · ; z1 a una base del núcleo con k − r − p vectores wi que necesariamente están fuera
de la imagen. Por supuesto que estos vectores son autovectores de T0 . Armamos el conjunto con k
vectores de la siguiente manera:

B = { a1 ; · · · ; aja ; sa ; b1 ; · · · ; bjb ; sb ; · · · ; z1 ; · · · ; zjz ; sz ; w1 ; · · · ; wk−r−p }


|{z} | {z }
v1 vk

167
168 APÉNDICE E. FORMA CANÓNICA DE JORDAN

Este conjunto de vectores y en ese orden, cumple lo buscado. Solo resta probar que es un conjunto l.i.
Veamos:
Xr Xp k−r−p
X
αh uh + βh sh + γh wh = 0 (1)
h=1 h=1 h=1

Si aplicamos T0 a ambos miembros queda:


 
Xr 0 Xp
αh  ó  + βh T0 (sh ) = 0 (2)
h=1 uh−1 h=1

En la primer suma, los vectores que aparecen son los de U sacando los últimos de cada cadena.
Los T0 (sh ), son precisamente esos últimos vectores de cada cadena, concluimos que las dos sumas
involucradas en (2) son 0. Como los T0 (sh ) son l.i. por ser parte de una base, concluimos que βh = 0.
Volviendo a (1), tenemos que:

r
X k−r−p
X
α h uh + γh wh = 0 (3)
h=1 h=1

La primer suma está en la imagen, pero la segunda suma está formada por vectores l.i. del núcleo que
extendı́an los a1 ; · · · ; z1 y que estaban fuera de la imagen. Concluimos que cada suma de (3) es nula
y necesariamente αh = γh = 0, lo cual prueba la independencia lineal de la ahora base B. Esta base
cumple que:
T0 (vi ) = 0 −→ (T − λI)vi = 0

T0 (vi ) = vi−1 −→ (T − λI)vi = vi−1

Q.e.d.

Corolario. (Trivial) Si Gλ es un autoespacio generalizado del endomorfismo T , entonces existe una


base Bλ = {v1 ; · · · ; vj } de Gλ tal que:

T(vi ) = λvi + vi−1 o T(vi ) = λvi i = 1; · · · ; j



Observación 39. f |Gλ es diagonal por bloques de Jordan y hay tantos bloques como Dim(Aλ ).

Proposición 42. Sea P (t) el polinomio caracterı́stico del endomorfismo T . Si λ es una raiz de P (t)
y j es su multiplicidad, entonces:
Dim(Gλ ) = j

Demostración

Sea Bλ = {v1 ; · · · ; vq } una base de Gλ como en la proposición 39 y extendamos a una base B =


{v1 ; · · · ; vq ; · · · ; vn } de V. Como Gλ es invariante por T (ver 3 de la proposición 35), la matriz de T
en B tiene la forma:  
J A
kT kB =
O B
169

donde J es una matriz diagonal por bloques como se indico en la observación de la proposición 39 y
O es la matriz nula. Observen que B es cuadrada y J ∈ Cq×q . Obtengamos el polinomio caracterı́stico
de kT kB :
    
J A J − tI A
P (t) = Det − tI = Det = Det (J − tI) · Det (B − tI)
O B O B − tI
donde se ha utilizado el sı́mbolo I para matrices identidad de distintos tamaños.
Como J es diagonal por bloques de Jordan, todos con el mismo λ y como estos bloques son triangulares
superiores con λ en la diagonal, resulta que
Det (J − tI) = (λ − t)q
con q = Dim(Gλ ), de donde
P (t) = (λ − t)q · Q(t)
con Q(t) = Det (B − tI)
Para ver que q = j solo nos falta demostrar
  Q(λ) 6= 0, lo haremos por el absurdo.
que
wq+1
Si Q(λ) = 0, existirı́a un vector w =  ...  6= 0 que serı́a autovector de B, esto es (B−λI)·w = O.
 

wn
 
0
 ..

 .

0
 0 
Está claro que el vector (w )B =  ∈
 / Gλ

 w q+1 
 .. 
 . 
wn
Hagamos la siguiente cuenta:
     
J − λI A 0 A·w A·w
· (w )B = = ∈ Gλ
O B − λI (B − λI) · w B O B

Pero entonces, ∃r > 0 tal que


 r    r  
J − λI A A·w J − λI A J − λI A
· =0 ⇒ · (w0 )B = 0
O B − λI O B
O B − λI O B − λI
con lo cual (w0 )B ∈ Gλ , lo cual serı́a un absurdo.
Corolario. Si λ1 ; λ2 ; · · · ; λk son todos los autovalores de T , entonces:
V = G λ1 ⊕ G λ2 ⊕ · · · ⊕ G λk

Demostración

Es trivial si consideramos las proposiciones 38 y 40 y el hecho que gr(P ) = Dim(V).

Teorema 20. (Forma normal o canónica de Jordan) Si T es un endomorfismo de un C e.v. V,


entonces existe una base B de V (base de Jordan) tal que kT kB es diagonal por bloques de Jordan.

Demostración

Es trivial a partir de las proposiciones y corolarios anteriores.


170 APÉNDICE E. FORMA CANÓNICA DE JORDAN
Bibliografı́a

[AL82] Friedberg S.and Insel A. and Spence L. Algebra Lineal. Publicaciones Cultural S.A., Mexico,
primera edition, 1982.

[EJ98] Marsden J. E. and Hoffman M. J. Análisis Clásico Elemental. Addison-Wesley Iberoameri-


cana, segunda edition, 1998.

[Lar77] Ángel Rafael Larotonda. Álgebra Lineal y Geometrı́a Analı́tica. EUDEBA, segunda edition,
1977.

[Poo04] David Poole. Álgebra Lineal (Una introducción moderna). THOMSON, 2004.

171

También podría gustarte