Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Fasciculo 7

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 74

Fascı́culos de Álgebra Lineal

Operadores Lineales: Reducciones Matriciales


(Versión revisada)

Neptalı́ Romero
Universidad Centro Occidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Departamento de Matemáticas

Abril, 2005
Índice general

3. Operadores Lineales: reducciones matriciales 3


3.1. Valores y Vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
3.1.1. Cálculo de valores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3.1.2. Multiplicidades algebraicas y geométricas de valores propios . . . . . . . . . . . . . 11
3.1.3. Ejercicios Propuestos de la Sección 3.1 . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2. Diagonalización de matrices y operadores lineales . . . . . . . . . . . . . . . . . . . . . . . 15
3.2.1. Algoritmo de diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.2.2. Ejercicios Propuestos de la Sección 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3. Núcleo e Imagen generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.1. Ascendencia y descendencia del núcleo e imagen . . . . . . . . . . . . . . . . . . . 25
3.3.2. Ejercicios Propuestos de la Sección 3.3 . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.4. Forma canónica de operadores y matrices nilpotentes . . . . . . . . . . . . . . . . . . . . . 29
3.4.1. Operadores y matrices nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.2. Ejercicios Propuestos de la Sección 3.4 . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.5. Forma canónica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.5.1. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5.2. Forma Canónica de Jordan: la construcción teórica . . . . . . . . . . . . . . . . . . 48
3.5.3. Ejercicios Propuestos de la Sección 3.5 . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.6. Forma canónica de Jordan real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6.1. Complexificado de espacios vectoriales y operadores lineales . . . . . . . . . . . . . 59
3.6.2. Preliminares teóricos para la forma canónica de Jordan real . . . . . . . . . . . . . 65
3.6.3. Construcción de la forma canónica de Jordan real . . . . . . . . . . . . . . . . . . 69
3.6.4. Ejercicios Propuestos de la Sección 3.6 . . . . . . . . . . . . . . . . . . . . . . . . . 73

2
3
Operadores Lineales: reducciones matriciales

Este capı́tulo está destinado exclusivamente a presentar: matrices semajantes “simples” de una ma-
triz cuadrada dada, y formas simplificadas de expresar matricialmente operadores lineales en espacios
vectoriales de dimensión finita.
Como sabemos, si U es un espacio vectorial de dimensión finita n ≥ 1 sobre K y T : U → U es un
operador lineal en U , entonces existen matrices en Mn×n (K) mediante las cuales se describe la acción de
T sobre los vectores en U ; más precisamente, para cada base (ordenada) B de U existe una única matriz
A = [T ]B ∈ Mn×n (K) tal que, para cada u ∈ U se satisface la identidad [T (u)]B = A [u]B . Puesto que
las representaciones matriciales de T varı́an con la base escogida, es natural pensar que puedan existir
algunas bases de U en las cuales las representaciones matriciales del operador sean “simples”.
Con el objetivo de estimular el interés en el tópico que acá expondremos, consideraremos un primer
ejemplo.
Ejemplo 3.1. Sea T : P2 (R) → P2 (R) el operador lineal definido por

T (a0 + a1 x + a2 x2 ) = (4a0 + a2 ) + (2a0 + 3a1 + 2a2 )x + (a0 + 4a2 )x2 .

Es simple verificar que en la base B = {1, x, x2 } de P2 (R), la representación matricial de T es dada por
 
4 0 1
la matriz A = [T ]B = 2 3 2. Esto indica que la acción de T sobre cualquier función polinómica de
1 0 4
grado menor o igual a 2, p(x) = a0 + a1 x + a2 x2 , es como el producto de A por una matriz unicolumna
[p(x)]B ; es decir,
 
4a0 + a2
[T (p(x))]B = A [p(x)]B = 2a0 + 3a1 + 2a2  .
a0 + 4a2
Sin embargo, al tomar por ejemplo la base B ′ = {p1 (x), p2 (x), p3 (x)}, donde

p1 (x) = 1 + 2x + x2 , p2 (x) = 1 − x2 y p3 (x) = x,

y en vista de que

T (p1 (x)) = 5 + 10x + 5x2 = 5p1 (x) + 0p2 (x) + 0p3 (x) = 5p1 (x),
T (p2 (x)) = 3 − 3x2 = 0p1 (x) + 3p2 (x) + 0p3 (x) = 3p2 (x), y (3.1)
T (p3 (x)) = 3x = 0p1 (x) + 0p2 (x) + 3p3 (x) = 3p3 (x),
 
5 0 0
sigue que [T ]B′ = B = 0 3 0 es la representación matricial de T en la base B′ . De esta forma la
0 0 3
acción de T sobre cualquier p(x) ∈ P2 (R) es el producto de esta matriz diagonal por el correspondiente
vector de coordenadas de esta función polinómica p(x) en la base B ′ ; es decir, para cada p(x) ∈ P2 (R) se
tiene que
 
5 0 0
[T (p(x))]B′ = 0 3 0 [p(x)]B′ .
0 0 3

3
4 Fascı́culos de Álgebra Lineal

La matriz B que es diagonal (y por tanto “más simple” que A) también representa la acción del operador
T sobre los vectores de P2 (R). Note además que existe una única matriz invertible P ∈ M3×3 (R) tal que
   
5 0 0 4 0 1
0 3 0 = P −1 2 3 2 P ;
0 0 3 1 0 4

P es justamente la matriz de cambio de base de B hacia B ′ ; por lo que B y A son matrices semajantes.

Como veremos, no todo operador lineal en un espacio vectorial de dimensión finita admite una re-
presentación matricial tan simple como una matriz diagonal; no obstante siempre es posible obtener otro
tipo de representaciones matriciales que en cierto sentido son las más simple; éstas son conocidas como
formas canónicas matriciales del operador. Supongamos por un instante que T es un operador lineal como
arriba, y que J es la representación matricial “canónica” de T (la más simple); es claro por tanto que
existe una base B de U tal que J = [T ]B . Luego si A es cualquier otra representación matricial de T ,
entonces existe una matriz P invertible tal que J = P −1 A P . Esto permite concluir que la matriz J es
la matriz más simple (la forma conónica) en la clase de todas las matrices semajantes a ella.
El punto de partida para la obtención de estas “formas canónicas” (que aún no hemos definido) son
las nociones de valores y vectores propios de un operador lineal o una matriz cuadrada.

3.1. Valores y Vectores propios


Nuestro recorrido por el estudio de las formas canónicas de operadores lineales en espacios vectoriales
de dimensión finita, y por ende de matrices cuadradas, comienza por introducir un “invariante” para este
tipo de objeto matemático. En Matemáticas, de forma un tanto imprecisa, un invariante es un ente que es
preservado por una apropiada equivalencia entre objetos matemáticos del mismo tipo. En el caso que nos
ocupa, estos objetos son los operadores lineales (o matrices cuadradas), la equivalencia es la semejanza
(o similaridad) y los invariantes son los valores propios, los cuales son de considerable importancia tanto
para el Álgebra Lineal como para otras áreas de las Matemáticas, e incluso para otras disciplinas que
recurren al Álgebra Lineal para explicar sus fenómenos.

Definición 3.1. Sean U un espacio vectorial sobre K y T : U → U un operador lineal. Un valor propio
de T es un escalar λ ∈ K tal que, para algún vector no nulo u ∈ U se cumple T (u) = λu. A un tal vector
u se le conoce como vector propio de T asociado al valor propio λ.

Comentario 3.1. En la literatura matemática se pueden encontrar varias denominaciones para los
valores propios (resp. vectores propios), entre ellas: autovalores (resp. autovectores), valores caracterı́sticos
(resp. vectores caracterı́sticos). Acá emplearemos valores y vectores propios. En el idioma inglés es común
encontrar el calificativo de “eigenvalue” y “eigenvector” para referirse a los valores y vectores propios,
aunque el prefijo “eigen” es de origen germano, el cual significa propio.
Observe que el hecho de ser λ ∈ K un valor propio de T : U → U y u ∈ U (u 6= 0U ) un vector
propio asociado a λ equivale a que el vector u pertenezca al núcleo del operador T − λI, donde I es el
operador identidad en U ; en efecto, pues T (u) = λu si, y sólo si (T − λI)(u) = 0U , lo cual equivale a decir
que u ∈ N (T − λI). En otras palabras, λ ∈ K es un valor propio de T si, y sólo si, T − λI es singular
(no inyectivo). En este caso, los vectores no nulos de N (T − λI) son los vectores propios asociados a
valor propio λ. A este núcleo N (T − λI) se le conoce con el nombre de subespacio propio de λ; que por
tratarse de un núcleo de un operador lineal, es un subespacio vectorial de U . En adelante denotaremos
al subespacio propio asociado a λ por Nλ (T ).
Operadores Lineales: Reducciones Matriciales 5

Es un hecho simple de verificar que el subespacio propio de un valor propio de T es invariante por T ;
esto es, si λ ∈ K es un valor propio no nulo de T , entonces T (Nλ (T )) = Nλ (T ); ver ejercicio 6 en página
14.
Ejemplo 3.2. El lector podrá verificar que para el operador lineal T : P2 (R) → P2 (R) del ejemplo
anterior los escalares λ1 = 5 y λ2 = 3 son valores propios de T ; de hecho p1 (x) = 1 + 2x + x2 es un vector
propio asociado a λ1 , mientras que p2 (x) = 1 − x2 y p3 (x) = x son vectores propios asociados al vector
propio λ2 ; ver (3.1), pues

T (p1 (x)) = 5 p1 (x), T (p2 (x)) = 3 p2 (x) y T (p3 (x)) = 3 p3 (x).


 
2 2 1 1
Ejemplo 3.3. Consideremos el operador lineal T : R → R dado por la matriz ; esto es,
−1 1
    
x 1 1 x
T = . Para averiguar si T tiene valores propios, debemos plantearnos el problema
y −1 1 y
       
x x x 0
de encontrar valores λ ∈ R tales que T =λ para algún 6= ; es decir, averiguar si existen
y y y 0
        
1 1 x x x 0
escalares λ ∈ R tales que =λ para algún 6= . Esto equivale a encontrar valores
−1 1 y y y 0

(1 − λ)x + y = 0
de λ ∈ R para los cuales el sistema de ecuaciones lineales homogéneo admite
−x + (1 − λ)y = 0
solucionesdiferentes de la nula; lo cual también equivale a encontrar valores de λ ∈ R para los cuales
1−λ 1 1 − λ 1
la matriz es no invertible, esto es, valores de λ ∈ R tales que = 0. Ahora
−1 1−λ −1 1 − λ

1 − λ 1
bien, como = (1 − λ)2 + 1 > 0 para todo λ ∈ R, entonces concluimos que T no tiene valores
−1 1 − λ
propios.
Por otro lado, si consideramos
 el mismo
 operador   pero definido
  en el espacio vectorial complejo C2 ,
x 1 1 x x
que es el operador lineal T = con ∈ C2 , el planteamiento del problema
y −1 1 y y
de
encontrar los valores propios es el mismo, excepto que ahora se admite que los escalares que hacen
1−λ 1

−1 = 0 puedan ser números complejos. Es decir, λ ∈ C es un valor propio de T si, y sólo
1−λ
si, (1 − λ)2 + 1 = 0. Una simple cuenta muestra que esta ecuación tiene como solución a λ1 = 1 + i y
λ2 = 1 −i; que son en este caso los valores propios de T . De acuerdo a lo expuesto  en
 elcomentario

x 2 x 0
anterior, ∈ C es un vector propio de T asociado a λk (k = 1, 2) si, y sólo si, 6= y es un
y y 0

(1 − λk )x + y = 0
vector solución de .
−x + (1 − λk )y = 0
 
x
Para λ1 = 1 + i los vectores propios asociados a este valor propio son los vectores no nulos ∈ C2
y
  
−ix + y = 0 −i 1
que resuelven . Dado que la matriz de este sistema es , entonces como
−x − iy = 0 −1 −i
     
−i 1 f1 →if1 1 i f2 →f2 +f1 1 i
−−−−−→ −−−−−−−→ ,
−1 −i −1 −i 0 0
 
1
se tiene que es base del espacio solución de este sistema de ecuaciones lineales homogéneo; por
i
6 Fascı́culos de Álgebra Lineal

           
x 0 x x x 1
tanto, 6= es tal que T = λ1 si, y sólamente si, existe α ∈ C tal que =α .
y 0 y y y i
 
1
De igual forma se verifica que es base del espacio propio asociado al valor propio λ2 ; con lo
−i
 
1
cual todo vector propio asociado al valor propio λ2 es de la forma α , con α ∈ C no nulo.
−i
   
1 1
Observe que los vectores y son linealmente independientes en C2 (como un espacio vectorial
i −i
   
1 1
sobre C), de hecho B = , es una base de C2 ; y como
i −i
       
1 1 1 1
T = (1 + i) = (1 + i) +0 , y
i i i −i
       
1 1 1 1
T = (1 − i) =0 + (1 − i) ,
−i −i i −i
   
1+i 0 1 1
entonces [T ]B = ; más aun, para la matriz invertible P = se tiene que
0 1−i i −i
   
1 1 1+i 0
P −1 P = ,
−1 1 0 1−i

pues P es la matriz de cambio de la base canónica de C2 hacia la base B.

3.1.1. Cálculo de valores propios


El problema de encontrar los valores propios de un operador lineal T sobre un espacio vectorial U
de dimensión finita sobre K, puede tornarse un problema difı́cil. No obstante, cuando dim(U ) = n ≥ 1
(n < +∞) este problema se reduce a encontrar las raı́ces en K de un cierto polinomio de grado n, que es un
problema (aunque difı́cil en muchos casos) está completamente descrito; incluso, haciendo uso de técnicas
numéricas pueden obtenerse aproximaciones de los mismos. Trataremos acá el caso finito dimensional.
Consideremos entonces un espacio vectorial U sobre K de dimensión finita n ≥ 1 y T : U → U un
operador lineal. Recordemos que la acción de T sobre los vectores de U puede ser expresada mediante el
uso de cualquier representación matricial de T ; esto es, para cualquier base B = {u1 , · · · , un } de U y cada
u ∈ U se cumple [T (u)]B = [T ]B [u]B . En consecuencia, λ ∈ K es valor propio de T y u ∈ U (u 6= 0U ) es
un vector propio asociado a λ si, y sólo si, [T (u)]B = λ[u]B , pues T (u) = λu y [λu]B = λ[u]B . Por tanto,
λ ∈ K es valor propio de T si, y sólo si, exiten vectores no nulos u ∈ U tales que [T ]B [u]B = λ[u]B . Ahora
bien, dado que
[T ]B [u]B = λ[u]B si, y sólo si, ([T ]B − λIn )[u]B = O,
pues λ[u]B = λIn [u]B , donde In es la matriz identidad de orden n. De acá se desprende que:

1. los valores propios de T son todos los escalares λ ∈ K para los cuales el sistema de ecuaciones
lineales homogéneo es ([T ]B − λIn )X = O admite soluciones no triviales; y

2. los vectores propios asociados a un valor propio λ ∈ K de T son los vectores no nulos u ∈ U cuyos
vectores de coordenadas en la base B considerada son soluciones del sistema de ecuaciones lineales
([T ]B − λIn )X = O.
Operadores Lineales: Reducciones Matriciales 7

Como sabemos, el sistema de ecuaciones lineales ([T ]B − λIn )X = O tiene soluciones no nulas si, y
sólo si, tal matriz [T ]B − λIn es singular (no invertible), lo que equivale a det([T ]B − λIn ) = 0. Concluimos
entonces diciendo que:

λ ∈ K es valor propio de T si, y sólo si, λ es solución de det([T ]B − λIn ) = 0. (3.2)

Observe que la forma de cómo hemos reducido el problema de encontrar los valores propios de un
operador lineal T en el espacio vectorial U de dimensión finita n ≥ 1, pasó por la consideración de una
base particular de U . Surge por tanto la siguiente interrogante: ¿dependen los valores propios de T de la
representación matricial escogida? La respuesta es no.

Proposición 3.1. Sean A = [T ]B y B = [T ]B′ representaciones matriciales del operador lineal T en el


espacio vectorial U de dimensión finita n ≥ 1. Entonces, det(A − λIn ) = 0 si, y sólo si, det(B − λIn ) = 0.

Demostración: Dado que A y B representan al mismo operador lineal, existe una única matriz invertible
P ∈ Mn×n (K) tal que B = P −1 A P . Sigue por tanto que

det(B − λIn ) = det(P −1 A P − λP −1 In P ) = det(P −1 (A − λIn )P )


= det(P −1 ) det(A − λIn ) det(P ) = det(A − λIn );
1
pues det(P −1 ) = det(P ) .

En resumen tenemos el siguiente teorema:

Teorema 3.1. Sean U un espacio vectorial sobre K de dimensión finita n ≥ 1 y T : U → U un operador


lineal. Las siguientes afirmaciones son equivalentes:

1. λ ∈ K es un valor propio de T ,

2. el operador lineal T − λI es singular,

3. det([T ]B − λIn ) = 0 para alguna base B de U , y

4. det([T ]B − λIn ) = 0 para cualquier base B de U

Dado que las matrices cuadradas de orden n × n con coeficientes en K están en correspondencia
biunı́voca con los operadores lineales en cualquier espación de dimensión n sobre K, entonces procedemos
a definir valores y vectores propios de matrices cuadradas..

Definición 3.2. Dada A ∈ Mn×n (K), se dice que λ ∈ K es valor propio de A, si existe X ∈ Kn (vector
unicolumna) no nulo tal que AX = λX; un tal vector se le denomina vector propio de A asociado a λ ; y
al subespacio vectorial Nλ (A) = {X ∈ Kn : (A − λIn )X = 0} se le llama subespacio propio de A asociado
a λ.

Parafraseando para matrices cuadradas el teorema 3.1 escribimos:

Teorema 3.2. Para toda A ∈ Mn×n (K) son equivalentes:

1. λ ∈ K es valor propio de A,

2. A − λIn es singular, y

3. det(A − λIn ) = 0
8 Fascı́culos de Álgebra Lineal

Nótese que los valores propios son invariantes por semejanza (o similaridad) de matrices; esto es,
si A, B ∈ Mn×n (K) son tales que para alguna matriz invertible P se tenga B = P −1 A P , entonces
det(A − λIn ) = det(B − λIn ) para todo λ ∈ K; esto sigue de la proposición anterior.
Como se habrá notado, en el cálculo de los valores propios de un operador lineal en un espacio vectorial
de dimensión finita, o de una matriz cuadrada, la solución en x de la ecuación det(A − xI) = 0 es crucial.
Examinaremos por tanto este tipo de expresión algebraica. Supongamos inicialmente que A ∈ M1×1 (K),
 
a a12
en este caso, det(A − xI1 ) = a11 − x es un polinomio de grado 1 en x. Si A = 11 , entonces
a21 a22

a11 − x a12
det(A − xI2 ) =
= x2 − (a11 + a22 )x + (a11 a22 − a12 a21 );
a21 a22 − x

que es un polinomio de grado 2 en x; observe que el término constante de este polinomio es det(A), y el
 
a11 a12 a13
coeficiente que de x es −tr(A) = −(a11 + a22 ). Al considerar A = a21 a22 a23  tenemos
a31 a32 a33

a11 − x a12 a13

det(A − xI3 ) = a21 a22 − x a23 = −x3 + (a11 + a22 + a33 )x2
a
31 a32 a33 − x
− (a11 a22 − a12 a21 + a11 a33 − a13 a31 + a22 a33 − a23 a32 )x + det(A);

de donde, det(A − xI3 ) es un polinomio de grado 3 en x cuyo término constante es det(A) y el coeficiente
 
a11 · · · a1n
de x2 es la traza de A. En general, para cualquier matriz A =  ... .. ..  se tiene

. . 
an1 ··· ann

a11 − x · · · a1n

det(A − xIn ) = ... .. ..
= (−1)n xn + (−1)n−1 tr(A)xn−1 + t.o.i. + det(A),

. .
a
n1 ··· ann − x

donde t.o.i denota los términos de ordenes intermedios entre n − 2 y 1. Ası́, det(A − xIn ) es un polinomio
de grado n en x cuyo término constante es det(A), el coeficiente de xn es (−1)n y el coeficiente de xn−1
es (−1)n−1 tr(A).

Definición 3.3. Dada A ∈ Mn×n (K), se denomina polinomio caraterı́stico de A al polinomio en x dado
por pA (x) = det(A − xIn ).

Vimos anteriormente que det([T ]B − xIn ) y det([T ]B′ − xIn ) son iguales, sean cuales fueren las bases
B y B′ del espacio vectorial U . Esto hace consistente la siguiente definición.

Definición 3.4. Dado un operador lineal T en el espacio vectorial U de dimensión finita n ≥ 1, se conoce
como polinomio caraterı́stico de T a pT (x) = det([T ]B − xIn ), donde B es cualquier base de U .

Ejemplo 3.4. Consideremos el operador lineal T : P2 (R) → P2 (R) cuya representanción matricial en
 
2 2 −1
la base B = {1, 1 − x, 1 − 2x + x2 } es A =  1 3 −1 . Calculemos los valores propios de A y sus
2 2 0
Operadores Lineales: Reducciones Matriciales 9

respectivos espacios propios. En primer lugar el polinomio caracterı́stico de T es:



2−x 2 −1

det(A − xI3 ) = 1 3 − x −1 = −x3 + 5x2 − 8x + 4.
2 2 −x

Usando, por ejemplo, la regla de Ruffini se obtiene que λ = 1 es una raı́z de det(A − xI3 ); factorizando
el polinomio caracterı́sco pA (x) se tiene que pA (x) = (x − 1)(−x2 + 4x − 4) = −(x − 1)(x − 2)2 . Luego
los valores propios de T son λ1 = 1, con multiplicidad 1; y λ2 = 2, con multiplicidad 2.
Conocidos los valores propios de T procedamos a obtener los subespacios propios asociados a cada
uno de ellos. Recordemos que el subespacio propio asociado a un valor propio λ de T es el subespacio
vectorial Nλ (T ); esto es, v ∈ Nλ (T ) si, y sólo si, (T − λI)(v) = 0U ; de donde, v ∈ Nλ (T ) si, y sólo si,
[(T − λI)(v)]B = 0, que es (A − λI3 )[v]B = 0. Por tanto, un vector v pertenece al subespacio propio
asociado a λ si, y sólo si, [v]B es un vector solución del sistema de ecuaciones lineales homogéneo dado
por la matriz A − λI3 , donde A = [T ]B .
• Espacio solución de (A − I3 )X = 0.
La matriz A − I3 tiene rango 2, en efecto:
     
1 2 −1 1 2 −1 1 2 −1
f2 →f2 −f1 f2 ←→f3
A − I3 =  1 2 −1  −−−−−−−→  0 0 0  −−−−−→  0 −2 1 .
f3 →f3 −2f1
2 2 −1 0 −2 1 0 0 0

Por tanto la dimensión del espacio solución del sistema (A − I3 )X = 0 es igual a 1 (diferencia entre el
número de variables del sistema y el rango de la matriz); que es dim(N1 (A) = 1. Dado que el sistema
 
0
(A − I3 )X = 0 tiene una variable libre (la última), entonces el vector  21  constituye una base del
1
espacio solución de (A − I3 )X = 0. Interpretando esto en términos del operador lineal T y la base B,
sigue que la función polinómica p1 (x) = 0.1 + 21 (1 − x) + 1.(1 − 2x + x2 ) = 32 − 25 x + x2 ; constituye una
base de N1 (T ); en particular, los vectores propios de T asociados al valor propio λ1 = 1 son aquellos
que se obtienen como múltiplos no nulos de p1 (x); es decir, q(x) satisface T (q(x)) = q(x) si, y sólo si,
q(x) = α p1 (x) para algún α ∈ R.
• Espacio solución de (A − 2I3 )X = 0.
Al analizar el sistema homogéneo (A − 2I3 )X = 0 tenemos que la matriz A − 2I3 tiene rango 2:
     
0 2 −1 1 1 −1 1 1 −1
f1 ←→f2 f3 →f3 −2f1
A − 2I3 =  1 1 −1  −−−−−→  0 2 −1  −−−−−−−→  0 2 −1  ;
2 2 −2 2 2 −2 0 0 0

ası́, dim(N2 (A)) = dim(N2 (T )) = 1 y una base del espacio solucion de (A − 2I3 )X = 0 la constituye el
 1 
2
1
vector  2
; cuya interpretación en la base B es la función polinómica
1

p2 (x) = 12 1 + 21 (1 − x) + 1.(1 − 2x + x2 ) = 2 − 52 x + x2 ,

la cual determina una base del subespacio propio, N2 (T ), asociado al valor propio λ2 = 2 de T . En otras
palabras, q(x) ∈ P2 (R) satisface T (q(x)) = 2q(x) si, y sólo si, existe α ∈ R tal que q(x) = α p2 (x).
10 Fascı́culos de Álgebra Lineal

   3 
x x + 12 y
Ejemplo 3.5. Consideremos ahora en R2 el operador lineal dado por T = 21 . Clara-
y x + 3y
 23 1 2 
mente la representación matricial de T en la base canónica de R2 es la matriz A = 12 23 . Luego el
2 2
polinomio caracterı́stico de T es

3 1

−x 3
2
pT (x) = det(A − xI2 ) = 2
1 3
2 =
2 −x − 14 ;
2 2 −x

ası́, los valores propios de T son λ1 = 2 y λ2 = 1. De esta forma, los subespacios propios asociados a λ1
y λ2 son los núcleos de los operadores T − 2I y T − I, respectivamente; los cuales corresponden a los
espacios solución de los sistemas de ecuaciones lineales homogéneos (A − 2I2 )X = 0 y (A − I2 )X = 0.
   
1 1
Un cálculo directo muestra que estos sistemas lineales tienen a y como bases de sus
1 −1
 
1
espacios soluciones. Ası́, N2 (T ) es el subespacio de R2 generado por el vector ; con lo cual, N2 (T )
1
es la recta del plano real con ecuación x − y = 0. Similarmente, N1 (T ) es la recta del plano real con
ecuación x + y = 0.
Como comentario adicional en este ejemplo observe que los puntos sobre cada una de estas rectas son
mapeados por T sobre la misma recta; es decir, los subespacios N2 (T ) y N1 (T ) son invariantes por T ; de
hecho, cada punto diferente del origen en la recta N2 (T ) es envı́ado sobre N2 (T ) en la misma dirección
del punto y 2 veces más alejado del origen que el punto original; mientras que los puntos de N1 (T ) son
dejados fijos por T . La gráfica 3.1 revela este comportamiento de T sobre los subespacios propios.

T (u)
N1 (T )
u

v = T (v)
N2 (T )

Figura 3.1: Comportamiento sobre los subespacios propios de T .

2
Finalmente,
  dado
 que
la matriz A es la representación matricial de T en la basecanónica de R y en
1 1 2 0
la base , la representación matricial de T es la matriz B = , entonces la matriz
1 −1 0 1
 
1 1
invertible P = es tal que B = P −1 A P .
1 −1
Operadores Lineales: Reducciones Matriciales 11

3.1.2. Multiplicidades algebraicas y geométricas de valores propios


Ya sabemos que dado un operador lineal T sobre un espacio vectorial de dimensión finita n ≥ 1 sobre,
y una matriz A ∈ Mn×n (K), sus polinomios caracterı́sticos se obtienen como pT (x) = det([T ]B − xIn ) y
pA (x) = det(A − xIn ), respectivamente; siendo que B es cualquier base (ordenada) de U . Sus raı́ces en K
son los valores propios de T , y de A.
El siguiente teorema establece el número máximo de raı́ces que posee un polinomio. Hay muchas
demostraciones de este importante resultado. Todas requieren bastantes conocimientos matemáticos para
formalizarlas, por ello no la mostraremos; sin embargo es útil conocer al menos su enunciado.

Teorema 3.3 (Teorema Fundamental del Álgebra). Todo polinomio p(x) de grado n ≥ 1 con
coeficientes en C, tiene exactamente n raı́ces, contadas aquellas que se repiten.

De este resultado, si T es un operador lineal en un espacio vectorial U de dimensión finita n ≥ 1 sobre


C (o si A ∈ Mn×n (C)), entonces su polinomio caracterı́stico pT (x) tiene n raı́ces en C (contadas las veces
que éstas se repiten); en otras palabras, existen enteros positivos k, r1 , · · · , rk y escalares λ1 , · · · , λk en
C tales que r1 + · · · + rk = n y

pT (x) = (−1)n (x − λ1 )r1 · · · (x − λk )rk ; (3.3)

es decir, pT (x) se factoriza en potencias de los monomios x − λi (i = 1, · · · , k), donde λ1 , · · · , λk son los
valores propios distintos de T , y r1 , · · · , rk son las veces que se repiten λ1 , · · · , λk como raı́ces de pT (x).
Por otra parte, si T es un operador lineal en un espacio vectorial U de dimensión finita n ≥ 1 sobre R (o
si A ∈ Mn×n (R)), entonces pT (x) tiene a lo más n raı́ces en R (contadas las veces que éstas se repiten);
pues puede ocurrir que pT (x) tenga alguna de sus raı́ces en C \ R; ver el ejemplo 3.3. Ası́, si pT (x) tiene
todas sus raı́ces (n en total) en R, entonces pT (x) se factoriza como en la ecuación (3.3). Pero si pT (x)
admite raı́ces que no son números reales, y λ1 , · · · , λk son las raı́ces reales distintas de T (por tanto los
valores propios de T ) cuyas veces que se repiten son, respectivamente, r1 , · · · , rk con 0 ≤ r1 +· · ·+rk < n,
entonces existe un polinomio q(x) con coeficientes en R de grado n − (r1 + · · · + rk ) tal que

pT (x) = (−1)n (x − λ1 )r1 · · · (x − λk )rk q(x); (3.4)

donde q(x) no tiene raı́ces en R.

Definición 3.5. Sea T un operador lineal definido en el espacio vectorial U de dimensión finita n ≥ 1
sobre K (resp. A ∈ Mn×n (K)). Si λ ∈ K es un valor propio de T (resp. valor propio de A), se conoce
con el nombre de multiplicidad algebraica de λ al mayor entero positivo k tal que (λ − x)k es un factor
del polinomio caracterı́stico de T (resp. de A); es decir, la multiplicidad algebraica de λ es el número de
veces que éste se repite como raı́z del polinomio caracterı́stico.
A la dimensión del subespacio propio asociado a λ, dim(Nλ (T )), (resp. dim(Nλ (A))), se le denomina
multiplicidad geométrica de λ.

No siempre las distintas multiplicidades de un valor propio coinciden. Observe el ejemplo 3.4 de la
 
2 2 −1
página 8; la matriz A =  1 3 −1  (o el operador allı́ descrito) tiene como polinomio caracterı́stico
2 2 0
2
a pA (x) = −(x − 1)(x − 2) ; en consecuencia las multiplicidades algebraicas de λ1 = 1 y λ2 = 2 son,
respectivamente: r1 = 1 y r2 = 2. En este caso las multiplicidades geométricas de λ1 y λ2 son ambas
iguales a 1.
12 Fascı́culos de Álgebra Lineal

Creemos importante destacar que si B es una matriz de orden 3×3 con el mismo polinomio caracterı́sco
pA (x) anterior, entonces no necesariamente los valores propios de B (que son los mismos de A) tienen
 
1 0 0
multiplicidades geométricas iguales a 1. Por ejemplo, para B = 0 2 0 el polinomio caracterı́stico es
0 0 2
 
 1 
2
pB (x) = pA (x) = −(x − 1)(x − 2) , sin embargo, como podrá chequearse de manera muy simple, 0
 
0
    
 0 0 
y  1 , 0 constituyen bases de los subespacios propios N1 (B) y N2 (B); esto es, las multiplicidades
 
 
0 1
geométricas de λ1 = 1 y λ2 = 2 son, respectivamente: iguales a 1 y 2.
A continuación mostraremos un resultado que establece una relación de orden entre las multiplicidades
algebraicas y geométricas de los valores propios de un operador lineal o de una matriz cuadrada.

Teorema 3.4. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K, y T un operador lineal
en U (resp. A ∈ Mn×n (K)). Si λ ∈ K es un valor propio de T (resp. de A), entonces su multiplicidad
geométrica es siempre menor o igual a su multiplicidad algebraica.

Demostración: Sean d ≥ 1 y k ≥ 1 las multiplicidades algebraica y geométrica respectivamente del


valor propio λ; esto es, dim(Nλ (T )) = k y el polinomio caracterı́stico de T es pT (x) = (x − λ)d q(x),
donde q(x) no es divisible por x − λ; es decir, q(x) no tiene a λ como una de sus raı́ces.
Consideremos una base B1 = {u1 , · · · , uk } del subespacio propio asociado a λ, Nλ (T ), y una extensión
B = {u1 , · · · , uk , uk+1 , · · · , un } de B1 a una base de U . Veamos cómo es la representación matricial de
T en la base B. Dado que T (ui ) = λ ui para todo i = 1, · · · , k, pues cada ui (i = 1, · · · , k) es un vector
propio asociado a λ, y si para cada j = k + 1, · · · , n escribimos

T (uj ) = a1j u1 + · · · + akj uk + ak+1j uk+1 + · · · anj un ,


 
λ a1k+1 ··· a1n
 .. .. .. .. 
 . . . .   


 "

# a1k+1 · · · a1n
 λ akk+1 ··· akn  λ Ik A  .. .. .. ,
entonces [T ]B =  = ; con A =  . . . 
 ak+1k+1 · · · ak+1n  0 B
0 akk+1 · · · akn
 
 .. .. .. 
 . . . 
ank+1 ··· ann
 
ak+1k+1 · · · ak+1n
B =
 .. .. .. 
. . .  e Ik la matriz identidad de orden k. Como λIk y B son matrices cua-
ank+1 ··· ann
dradas y el determinante de una matriz cuadrada por bloques es el producto de los determinantes de las
matrices cuadradas en su diagonal, sigue que el polinomio caracterı́stico de T es

α Ik − x Ik A
pT (x) = = (−1)k (x − λ)k det(B − x In−k ).
0 B − x In−k

Esto implica que k ≤ d, pues de lo contrario se tendrı́a pT (x) = (x − λ)d q(x), siendo que el polinomio
q(x) es dado por q(x) = (−1)k (x − λ)k−d det(B − x In−k ), lo cual es imposible ya que, por hipótesis, q(x)
no tiene a x − λ como un factor.
Operadores Lineales: Reducciones Matriciales 13

3.1.3. Ejercicios Propuestos de la Sección 3.1


1. Decidir acerca de la veracidad o falsedad de cada una de las siguientes proposiciones:

a) La suma de vectores propios de T : U → U (resp. A ∈ Mn×n (K)) es también un vector propio.


b) La suma de valores propios de T : U → U (resp. A ∈ Mn×n (K)) es también un valor propio.
c) Si T : U → U (resp. A ∈ Mn×n (K)) admite un vector propio, entonces tiene infinitos vectores
propios.
d ) Existen operadores lineales (resp. matrices cuadradas) que no admiten valores propios.
e) Dos vectores propios de T : U → U (resp. A ∈ Mn×n (K)) son linealmente independientes.
f ) Cada operador lineal en un espacio vectorial n-dimensional tiene exactamente n valores propios
contando sus multiplicidades.
g) Matrices semejantes tienen los mismos valores propios.
h) Matrices semajantes tienen los mismos vectores propios.

2. Para cada una de las matrices que se indican:

(i) determine su polinomio caracterı́stico y sus valores propios;


(ii) para cada valor propio obtenido, encontrar el subespacio propio asociado y una base de cada
uno de ellos.
   
3 2 a b
a) , K = R. b) , K = R.
1 2 −b a
   
a b 1 i
c) , con a ∈ R, b > 0 y K = C. d) , K = C.
−b a −i 2
 
  0 0 0 0
2 0 1  a 0 0 0 
e)  1 1 0 , K = R.  0 b 0 0 , K = R.
f)  
1 −1 −1
0 0 c 0
 
  4 −3 1 1
cos θ − sen θ 0  2 −1 1 1 
g)  sen θ cos θ 0 , K = C h) 
 0
, K = C.
0 −4 3 
0 0 1
0 0 2 1
 
  a1 a2 a3
a1 a2
i) ,K=R j)  a2 a3 a1 , K = R.
a2 a1
a3 a1 a2

3. Determinar los polinomios caracterı́sticos de los operadores nulo e identidad en un espacio vectorial
de dimensión finita.
 
0 1 0 ··· 0
 0 0 1 ··· 0 
 
 . .. .. .. .. 
4. Determine el polinomio caracterı́stico de la matriz real A =  . . . . . .  .
 
 0 0 0 ··· 1 
an−1 an−2 an−3 · · · a0
14 Fascı́culos de Álgebra Lineal

5. Sea T : P3 (R) → P3 (R) el operador lineal que en la base B = {1, 1 − x, 1 + x2 + x3 , x3 } se representa


 
1 −1 −2 0
 0 2 0 0 
mediante la matriz A =  0
.
0 3 0 
0 0 1 4
a) Determine el polinomio caracterı́stico y los valores propios de T .
b) Para cada uno de los valores propios obtenidos, encontrar el subespacio propio asociado y una
base de los mismos.
c) Determine T (p(x)), donde p(x) = a0 + a1 x + a2 x2 + a3 x3

6. Demostrar que los subespacios propios son invariantes por T ; de hecho, si λ ∈ K es un valor propio
no nulo de T , entonces T (Nλ (T )) = Nλ (T ). Si λ = 0 es un valor propio de T , demuestre que
T (N0 (T )) ⊂ N0 (T ). ¿Será cierto que también se cumple la igualdad?

7. Demostrar que los valores propios de cualquier matriz triangular son los elementos de la diagonal.

8. Demostrar que para toda A ∈ Mn×n (K), los polinomios caracterı́sticos de A y At son iguales.
¿Ocurre lo mismo con sus vectores propios?

9. Sea T : U → U un operador lineal (resp. A ∈ Mn×n (K)). Demostrar:

a) T es invertible si, y sólo si, 0 no es valor propio de T (resp. de A)


b) Si T es invertible y λ ∈ K es un valor propio de T , entonces λ−1 es un valor propio de T −1 .
c) Si λ ∈ K es valor propio de T , entonces para todo entero positivo m, λm es valor propio de
T m . ¿Será cierto que Nλ (T ) = Nλm (T m )?

10. Sea A ∈ Mn×n (K) y pA (x) = (−1)n xn + an−1 xn−1 + · · · + a1 x + a0 su polinomio caracterı́stico.

a) Demostrar que pA (0) = det(A).


b) Demostrar que pA (x) = (a11 − x) · · · (ann − x) + q(x), donde q(λ) es un polinomio en x de
grado a los más n − 2. Deducir entonces que tr(A) = (−1)n−1 an−1 .

11. Sean A1 , · · · , Ak matrices cuadradas,no necesariamente de los mismos ordenes, y sea A la ma-
 
A1 0 ··· 0
0 A2 · · · 0
 
triz diagonal por bloques A =  . .. .. .. . Demostrar que pA (x) = pA1 (x) · · · pAk (x).
 .. . . . 
0 0 · · · Ak
Generalize el resultado para matrices triangulares por bloque.

12. Sean U un espacio vectorial sobre K de dimensión finita, y W1 , · · · , Wk subespacios vectoriales de


U tales que U = W1 ⊕ · · · ⊕ Wk . Sea T un operador lineal en U que deja invariante a los subespacios
W1 , · · · , WK ; es decir, T (Wj ) ⊂ Wj para cada j = 1, · · · , k. Si Tj : Wj → Wj es la restricción de T
al subespacio Wj (j = 1, · · · , k), demostrar que pT (x) = pT1 (x) · · · pTk (x).

13. Sean T : U → U un operador lineal y g(x) = am xm + · · · + a1 x + a0 un polinomio cualquiera. Se


define g(T ) como el operador lineal g(T ) = am T m + · · · + a1 T + a0 I. Demostrar que si λ es un
valor propio de T y v ∈ U es un vector propio asociado a λ, entonces v es un vector propio de g(T )
asociado al valor propio g(λ); esto es, g(T )(v) = g(λ)v.
Enuncie el mismo resultado para A ∈ Mn×n (K).
Operadores Lineales: Reducciones Matriciales 15

14. Sea C(R, R) el espacio vectorial sobre R de todas las funciones continuas f : R → R. Se define el
operador lineal T en C(R, R) que envı́a cada función f ∈ C(R, R) en la función T (f ) : R → R dada,
Rx
para cada x ∈ R, por T (f )(x) = 0 f (t) dt. Demostrar que T no admite valores propios.

15. Sean A y B en Mn×n (K). Demostrar que los polinomios caraterı́sticos de AB y BA son iguales.
Sugerencia: Demostrar que si P, Q ∈ Mn×n (K) son tales que P Q − In es invertible, entonces
QP − In es invertible; para ello verifique que −(QP − I)(I + Q(P Q − I)−1 P ) = I. Luego emplear
este resultado para mostrar lo que se pide.

16. Sean A ∈ Mn×n (K) una matriz diagonal y pA (x) = (x−λ1 )d1 · · · (x−λk )dk su polinomio caracterı́sti-
co, donde λ1 , · · · , λk son sus valores propios distintos. Sea W el subespacio vectorial de Mn×n (K)
de todas las matrices B tales que AB = BA. Demostrar que W tiene dimensión d21 + · · · + d2k .
Sugerencia: Considere el operador lineal T : Mn×n (K) → Mn×n (K) dado por T (B) = AB − BA.
Encuentre la representación matricial de T en la base {E11 , · · · , E1n , · · · , En1 , · · · , Enn } donde cada
Eij es la matriz cuadrada de orden que tiene 0 en todas sus entradas, excepto en la entrada ij que
es igual a 1.

17. Fijada A ∈ Mn×n (K) se define el operador lineal T : Mn×n (K) → Mn×n (K) por T (B) = AB.
¿Tienen A y T los mismos valores propios?

3.2. Diagonalización de matrices y operadores lineales


Hemos mostrado anteriormente, mediante algunos ejemplos, que existen operadores lineales en espacios
vectoriales de dimensión finita, y matrices cuadradas, que admiten representaciones matriciales, y matrices
semejantes, que son diagonales. En esta sección nos proponemos caracterizar aquellos operadores lineales
y matrices cuadradas con tal propiedad. Adems, ofrecemos un algoritmo para decidir cuando es que esto
ocurre y cómo hacerlo.

Definición 3.6. Sea U un espacio vectorial de dimensión finita n ≥ 1 sobre K. Un operador lineal
T : U → U se dice diagonalizable si existe una base B de U tal que [T ]B es diagonal.
Una matriz A ∈ Mn×n (K) se dice diagonalizable si existe una matriz invertible P ∈ Mn×n (K) tal que
P −1 A P sea diagonal; es decir, que sea semejante a una matriz diagonal.

Ejemplo 3.6. Al inicio de este capı́tulo mostramos un operador lineal en el espacio P2 (R) cuya repre-
 
4 0 1
sentación matricial en la base B = {1, x, x2 } es la matriz A = 2 3 2. Allı́ también se mostró que en
1 0 4
 
5 0 0
la base B′ = {1 + 2x + x2 , 1 − x2 , , x} se tiene que [T ]B′ = 0 3 0. Lo cual implica que dicho operador
0 0 3
 
1 1 0
es diagonalizable. Observe que la matriz de cambio de base de B hacia B ′ es P =  2 0 1 , y
1 −1 0
 1 1   
2 0 2 5 0 0
P −1 =  12 0 − 21 , entonces P −1 A P = 0 3 0; por lo que A también es diagonalizable.
−1 1 −1 0 0 3
Ejemplo 3.7. No todas las matrices cuadradas u operadores lineales son diagonalizables. Consideremos
el operador lineal T : R3 → R3 cuya representación matricial en la base canónica de R3 es la matriz
16 Fascı́culos de Álgebra Lineal

       
0 0 0 x 0 x
A = 0 0 0. Claramente esto significa que T y  =  0  para todo y  de R3 . Obviamente
1 0 0 z x z
T no es el operador nulo, por lo que ninguna representación matricial es la matriz nula. Si T fuese
 
α1 0 0
diagonalizable, existirı́a una matriz P invertible tal que, P −1 AP =  0 α2 0  = B, para ciertos
0 0 α3
números reales α1 , α2 , α3 (al menos uno de ellos no nulo). Note que B es la representación matricial de T
en alguna otra base en la que P es la matriz de cambio de la primera a la segunda de estas bases. Dado que
   2   
0 0 0 α1 0 0 0 0 0
B 2 = (P −1 AP )(P −1 AP ) = P −1 A2 P y A2 = 0 0 0, entonces B 2 =  0 α22 0  = 0 0 0,
0 0 0 0 0 α32 0 0 0
de donde α1 = α2 = α3 = 0; es decir B = O, lo cual no puede ser; ası́ que tanto A como T no son
diagonalizables.
La siguiente proposición es la primera de las caracterizaciones que mostraremos de la diagonalización
de operadores lineales sobre espacios vectoriales de dimensión finita.
Proposición 3.2. Sea U un espacio vectorial de dimensión finita n ≥ 1 sobre K. Un operador lineal T
en U es diagonalizable si, y sólo si, existe una base de U formada por vectores propios de T .
Demostración: Supongamos que T es diagonalizable, entonces existe una base B = {u1 , · · · , un } de U
 
λ1 0 · · · 0
 0 λ2 · · · 0 
 
de manera que [T ]B =  . .. .. .. . Por definición de la representación matricial [T ]B , sigue que
 .. . . . 
0 0 · · · λn
cada vector de B es vector propio de T , de hecho se tiene que T (u1 ) = λ1 u1 , · · · , T (un ) = λn un . Ası́, los
escalares λ1 , · · · , λn son los valores propios de T , y los vectores u1 , · · · , un son vectores propios asociados
a λ1 , · · · , λn respectivamente.
Recı́procamente, supongamos que B = {u1 , · · · , un } es una base de U formada por vectores propios
de T . Entonces existen escalares λ1 , · · · , λn ∈ K tales que T (u1 ) = λ1 u1 , · · · , T (un ) = λn un ; luego la
 
λ1 0 · · · 0
 0 λ2 · · · 0 
 
representación matricial de T en esta base es la matriz A =  . .. .. .. .
 .. . . . 
0 0 · · · λn
Para matrices cuadradas este primer criterio de diagonalización no podrı́a ser diferente; es más, la
siguiente proposición da cuenta de ello.
Proposición 3.3. A ∈ Mn×n (K) es diagonalizable si, y sólo si, el operador lineal TA : Kn → Kn definido,
para cada X ∈ K n , por TA (X) = AX también lo es.
Demostración: Supongamos que A ∈ Mn×n (K) es diagonalizable. Entonces existe P ∈ Mn×n (K) in-
vertible tal que P −1 AP es diagonal. Dado que A es la representación matricial de TA en la base canónica
C de Kn , y como las columnas de P , digamos X1 , · · · , Xn , constituyen una base de Kn pues P es in-
vertible, sigue que P es justamente la matriz de cambio de base de C hacia B = {X1 , · · · , Xn }; por
 
λ1 0 · · · 0
 0 λ2 · · · 0 
 
tanto, [TA ]B = P −1 AP =  . .. . .. , para ciertos escalares λ1 , · · · , λn ∈ K; con lo cual TA es
. . . . . . 
0 0 ··· λn
Operadores Lineales: Reducciones Matriciales 17

diagonalizable y por la proposición anterior, para cada i = 1, · · · , n, TA (Xi ) = λi Xi ; es decir, cada vector
Xi de la base B es un vector propio de TA que esta asociado al valor propio λi .
Supongamos ahora que TA es diagonalizable, entonces existe una base B = {X1 , · · · , Xn } de Kn ,
formada por vectores propios de TA , tal que [TA ]B es una matriz diagonal. Siendo A la representación
matricial de TA en la base canónica, existe una matriz P invertible tal que [TA ]B = P −1 AP ; con lo cual
A es diagonalizable.

Como habrá sido observado, para decidir si un operador lineal (o una matriz cuadrada) es o no
diagonalizable, se debe investigar la existencia de bases formadas por vectores propios. De allı́ que sea
necesario tener un criterio para saber cuando esto ocurre; lo cual sin duda pasa por examinar las raı́ces
del polinomio caracterı́stico del operador o la matriz, pues tales raı́ces (en K) son los valores propios que
determinaran tales valores propios. El primer paso en esa dirección es el siguiente:

Lema 3.1. Sean U un espacio vectorial sobre K, T un operador lineal en U y λ1 , · · · , λk ∈ K valores


propios distintos de T . Si u1 , · · · , uk son vectores propios asociados a los valores propios λ1 , · · · , λk
respectivamente, entonces u1 , · · · , uk son linealmente independientes.

Demostración: Procedamos por inducción sobre el número k. Obviamente cuando k = 1, un sólo vector
propio u1 asociado a un valor propio λ1 es linealmente independiente pues es no nulo. Examinemos el caso
k = 2. Supongamos que λ1 , λ2 son valores propios distintos de T y 1 , u2 son vectores propios asociados a
λ1 , λ2 , respectivamente. Si α1 u1 + α2 u2 = 0U , entonces al aplicar T a ambos lados de esta identidad se
tiene α1 λ1 u1 + α2 λ2 u2 = 0U , pues T (u1 ) = λ1 u1 y T (u2 ) = λ2 u2 . Ahora, al multiplicar α1 u1 + α2 u2 = 0U
por λ1 tenemos α1 λ1 u1 + α2 λ1 u2 = 0U ; por tanto se deduce que α2 (λ1 − λ2 )u2 = 0U , de donde α2 = 0
pues (λ1 − λ2 )u2 6= 0U , y por ende α1 = 0; ası́ que u1 y u2 son linealmente independientes.
Supongamos como hipótesis inductiva que los vectores u1 , · · · , uk−1 son linealmente independientes.
Veamos que u1 , · · · , uk también lo son. Si suponemos que α1 u1 + · · · + αk−1 uk−1 + αk uk = 0U , como
antes, esto implica que α1 λ1 u1 + · · · + αk−1 λk−1 uk−1 + αk λk uk = 0U . Multiplicando la primera de estas
identidades por λk y haciendo la diferencia sigue que α1 (λ1 − λk )u1 + · · · + αk−1 (λk−1 − λk )uk−1 = 0U ;
luego por la hipótesis inductiva, dado que los valores propios λ1 , · · · , λk son distintos entre sı́, se concluye
que α1 = · · · = αk−1 = 0, de donde αk = 0 y u1 , · · · , uk son linealmente independientes.

Sigue inmediatamente de este lema el siguiente corolario.

Corolario 3.1. Sean U es un espacio vectorial sobre K de dimensión finita n ≥ 1 y T es un operador


lineal en U . Si T admite n valores propios distintos, entonces es diagonalizable.

Demostración: Se dejan los detalles al lector.

El lema a continuación es fundamental para el criterio de diagonalización que estableceremos en


el teorema 3.5. Antes de proceder conviene recordar el significado de cuando la suma de subespacios
vectoriales está en suma directa.
Supongamos que U es un espacio vectorial sobre K y que W, V1 , · · · , Vm son subespacios de U . W es
suma de V1 , · · · , Vm , lo cual se denota por W = V1 + · · · + Vm , siempre que se satisfagan:

1. cualesquiera sean los vectores v1 ∈ V1 , · · · , vm ∈ Vm se tiene que v1 + · · · + vm ∈ W ; esto es,


V1 + · · · + Vm ⊂ W ; y

2. cualquiera sea el vector w ∈ W , existen v1 ∈ V1 , · · · , vm ∈ Vm tales que w = v1 + · · · + vm ; es decir,


W ⊂ V1 + · · · + Vm .
18 Fascı́culos de Álgebra Lineal

Por otra parte, W es suma directa de V1 , · · · , Vm , lo que se demota por W = V1 ⊕ · · · ⊕ Vm , siempre que
se satisfagan:

1. W = V1 + · · · + Vm ; y

2. para todo w ∈ W existen únicos vectores v1 ∈ V1 , · · · , vm ∈ Vm tales que w = v1 + · · · + vm .

Es bien conocido que si W = V1 + · · · + Vm , entonces las siguientes proposiciones son equivalentes:

(i) W = V1 ⊕ · · · ⊕ Vm .

(ii) Todo vector w ∈ W se escribe de manera única como w = v1 + · · · + vk , donde vi ∈ Vi para todo
i = 1, · · · , k.

(iii) Para toda base {vi1 , · · · , viki } de Vi (i = 1, · · · , m), {v11 , · · · , v1k1 , · · · , vm1 , · · · , vmkm } es base de
W.

(iv) Para todo i ∈ {1, · · · , m} se cumple:

Vi ∩ (V1 + · · · + Vi−1 + Vi+1 + · · · + Vm ) = {0U }.

Lema 3.2. Sean U un espacio vectorial sobre K, T un operador lineal en U y λ1 , · · · , λk ∈ K valores pro-
pios distintos de T . Si Nλ1 (T ), · · · , Nλk (T ) son los subespacios propios asociados a tales valores propios,
entonces la suma Nλ1 (T ) + · · · + Nλk (T ) es directa.

Demostración: Empleando la anterior equivalencia, procederemos por el absurdo. Supongamos sin


perder generalidad que
Nλ1 (T ) ∩ (Nλ2 (T ) + · · · + Nλk (T )) 6= {0U }.

Luego existe un vector no nulo u1 ∈ Nλ1 (T ) ∩ (Nλ2 (T ) + · · · + Nλk (T )); esto es, u1 ∈ Nλ1 (T ) y existen
vectores u2 ∈ Nλ2 (T ), · · · , uk ∈ Nλk (T ) tales que u1 = u2 + · · · + uk . Entonces al aplicar T a ambos lados
de esta identidad se tiene λ1 u1 = λ2 u2 + · · · + λk uk . O equivalentemente

λ1 u1 + (−λ2 )u2 + · · · + (−λk )uk = 0U . (3.5)

Dado que u1 = u2 + · · · + uk y u1 6= 0U , entonces al menos uno de los vectores u2 , · · · , uk es no nulo. Ası́,


de (3.5) y del lema anterior se tiene que λ1 y al menos uno de los valores propios λ2 , · · · , λm son iguales
a 0, lo cual es imposible por la hipótesis del lema.

Teorema 3.5 (Criterio de diagonalización de operadores lineales). Sean U un espacio vectorial


sobre K de dimensión finita n ≥ 1 y T un operador lineal en U . Si λ1 , · · · , λk ∈ K son los valores propios
distintos de T , entonces las siguientes proposiones son equivalentes:

1. T es diagonalizable.

2. U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ).

3. El polinomio caracterı́stico de T tiene todas sus raı́ces en K; esto es, pT (x) = (λ1 −x)d1 · · · (λk −x)dk
(d1 + · · · + dk = n); además, di = dim(Nλ1 (T )) para cada i = 1, · · · , k; es decir, las multiplicidades
algebraicas y geométricas de cada valor propio coinciden.
Operadores Lineales: Reducciones Matriciales 19

Demostración:
(1 ⇒ 2)
Supongamos inicialmente que T es diagonalizable; esto es, U admite una base B formada por vectores
propios de T ; digamos que B = {u1 , · · · , un } es una tal base. Dado que la suma Nλ1 (T ) + · · · + Nλk (T ) es
directa (ver lema 3.2), para mostrar U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ) es suficiente con verificar que todo vector
u ∈ U se escribe como u = v1 + · · · + vk , siendo que vi ∈ Nλi (T ) para todo i = 1, · · · , k; equivalentemente,
basta mostrar que U ⊂ Nλ1 (T ) + · · · + Nλk (T ), en otras palabras, cada vector de U es la suma de vectores
propios de T . Pero como todos los vectores en B son vectores propios de T , entonces todo vector de U es
suma de vectores propios de T .
(2 ⇒ 3)
Supongamos ahora que U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ). Para cada i = 1, · · · , k, sea {ui1 , · · · , uidi } una
base del subespacio propio Nλi (T ) (dim(Nλi (T )) = di ). Usando las caracterizaciones anteriores de sumas
directas sigue que B = {u11 , · · · , u1d1 , · · · , uk1 , · · · , ukdk } es una base de U . Como los subespacios propios
son invariantes por T (T (Nλi (T )) ⊂ Nλi (T )) y para cada i = 1, · · · , k se tiene que T (uij ) = λi uij para
 
λ1 Id1


 · O 


todo j = 1, · · · , di , se concluye por un simple cálculo que [T ]B =   ·  ; por


 O ·


λk Idk
tanto

(λ1 − x)Id1



· O


pT (x) = det([T ]B − xIn ) = · = (λ1 − x)d1 · · · (λk − x)dk .



O ·



(λk − x)Idk

(3 ⇒ 1)
Finalmente, si las multiplicidades algebraicas y geométricas coinciden y su suma es n = dim(U ), entonces
como la suma Nλ1 (T ) + · · · + Nλk (T ) es directa se sigue que U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ), de donde la
unión de bases en Nλi (T ) (i = 1, · · · , k) es una base de U formada por vectores propios de T .

El resultado que acabamos de mostrar tiene su versión para matrices cuadradas; su demostración es
obvia a partir de la del teorema anterior y del hecho que cada matriz cuadrada A ∈ Mn×n (K) está en
correspondencia biunı́voca con el operador lineal TA en Kn .

Teorema 3.6 (Criterio de diagonalización de matrices). Sea A ∈ Mn×n (K). Si λ1 , · · · , λk ∈ K


son los valores propios distintos de A, entonces las siguientes proposiones son equivalentes:

1. A es diagonalizable.

2. Kn = Nλ1 (A) ⊕ · · · ⊕ Nλk (A).

3. El polinomio caracterı́stico de A tiene todas sus raı́ces en K; esto es, pA (x) = (λ1 −x)d1 · · · (λk −x)dk
(d1 + · · · + dk = n); además, di = dim(Nλ1 (A)) para cada i = 1, · · · , k; es decir, las multiplicidades
algebraicas y geométricas de cada valor propio coinciden.
20 Fascı́culos de Álgebra Lineal

3.2.1. Algoritmo de diagonalización


Expondremos a continuación un algoritmo para la diagonalización de matrices cuadradas; el algoritmo
para la diagonalización de operadores lineales en espacios vectoriales finito dimensionales de desprende
del primero, como veremos más adelante.

Algoritmo de diagonalización para matrices cuadradas

• Paso 1:
Dada A ∈ Mn×n (K), se procede a determinar su polinomio caracterı́stico pA (x) = det(A − xIn ).
• Paso 2:
Determinado pA (x) se calculan sus raı́ces y sus respectivas multiplicidades algebraicas. Si todas las raı́ces
de pA (x) están en K (esto habrá que chequearlo si K = R) y la suma de sus multiplicidades algebraicas
es igual a n, continuamos; de lo contrario A no es diagonalizable.
• Paso 3:
Con los valores propios distintos de A, digamos λ1 , · · · , λk con multiplicidades algebraicas a1 , · · · , ak ,
determinamos los subespacios propios correspondientes, Nλ1 (A), · · · , Nλk (A), y sus respectivas dimensio-
nes d1 , · · · , dk (multiplicidades geométricas); si la suma de las multiplicidades geométricas es igual a n,
entonces A es diagonalizable y proseguimos en la busqueda de la matriz P tal que P −1 AP sea diagonal;
de lo contrario A no es diagonalizable.
• Paso 4:
A cada subespacio propio Nλi (A) (i = 1, · · · , k) se le calcula una base {Xi1 , · · · , Xidi } cuyos vectores son
unicolumnas, y son justamente una base del espacio solución del sistema de ecuaciones lineales homegéneo
(A − λi In )X = 0. La matriz P de columnas X11 , · · · , X1d1 , X21 · · · , X2d2 , · · · , Xk1 , · · · , Xkdk , es tal que
 
λ1 Id1

−1


 · O 


P AP = 
 · ,


 O ·


λk Idk

donde Idj es la matriz identidad de orden dj para cada j = 1, · · · , k.


 
1 0 0 2
 −1 1 −1 1 
Ejemplo 3.8. Dada la matriz real A = 
 −1
, veamos si es o no diagonalizable. En primer
0 0 1 
0 0 0 3
el polinomio caracterı́stico de A es

1−x 0 0 2
1−x 0 0
−1 1 − x −1 1
pA (x) = = (3 − x) −1 1 − x −1 = −(3 − x)(1 − x)2 x.
−1 0 −x 1
−1 0 −x
0 0 0 3−x

Por tanto los valores propios de A, y sus multiplicidades algebraicas, son: λ1 = 3, a1 = 1; λ2 = 1, a2 = 2;


y λ3 = 0, a3 = 1. En este caso, a1 + a2 + a3 = 4. Entonces procedemos a calcular los correspondientes
subespacios propios, sus dimensiones (multiplicidades geométricas de A), y bases de los mismos.
• Subespacio propio Nλ1 (A):
Operadores Lineales: Reducciones Matriciales 21

Sabemos que X ∈ Nλ1 (A) si, y sólo si, (A − λ1 I4 )X = O. Por lo que una base de Nλ1 (A) es una base del
espacio solución de tal sistema de ecuaciones lineales homogéneos. Dado que
     
−2 0 0 2 1 0 3 −1 1 0 3 −1
 −1 −2 −1 1  f1 ←→−f3  −1 −2 −1 1  f2 →f2 +f1  0 −2 2 0 
A − λ1 I4 = 
 −1
 −−−−−−→   −−−−−−−→  ;
0 −3 1   −2 0 0 2  f3 →f3 +2f1  0 0 6 0 
0 0 0 0 0 0 0 0 0 0 0 0

entonces el rango de A − λ1 I4 es 3, por lo que la dimensión del espacio solución de (A − λ1 I4 )X = O


es igual a 1 (número de variable libres); es decir, dim(Nλ1 (A)) = 1, el cual coincide con a1 . Por otro

 x + 3y − w = 0
lado, como el sistema de ecuaciones lineales 2y + 2z = 0 es equivalente a (A − λ1 I4 )X = O, y el

6z = 0
 
 1 
 0 
 
primero de éstos tiene a w como variable libre, entonces   es una base de Nλ (A).
 0  1

 
 
1
• Subespacio propio Nλ2 (A):
Para λ2 = 1 tenemos que
   
0 0 0 2 1 0 1 −1
1
 −1 0 −1 1  2 f1 ←→−f3  −1 0 −1 1 
A − λ2 I4 = 
 −1 0 −1 1  −−−−−−−−→  0 0
  
0 1 
0 0 0 2 0 0 0 2
   
1 0 1 −1 1 0 1 −1
f2 →f2 +f1  0 0 0 0  f2 ←→f3  0 0 0 1 
−−−−−−−→  − −−−−→  ;
f4 →f4 −2f3  0 0 0 1   0 0 0 0 
0 0 0 0 0 0 0 0

ası́, el espacio solución de (A − λ2 I4 )X = O y Nλ2 (A) tienen dimensión igual a 2, que coincide con a2 .

x+z−w =0
Además, como es equivalente a (A − λ2 I4 )X = O, con y, z como sus variables libres,
w=0
   
 0 −1 

 1   0  
entonces  ,  es una base de Nλ (A).
2
 0
   1 
 

0 0
• Subespacio propio Nλ3 (A):
Para el valor propio λ3 = 0 ocurre que
   
1 0 0 2 1 0 0 2
 −1 1 −1 1  f2 →f2 +f1  0 1 −1 3 
A − λ3 I4 = 
 −1 0
 −−−−−−−→  
0 1  f3 →f3 +f1  0 0 0 3 
0 0 0 3 0 0 0 0
 
 0 
 1 
 
lo cual implica, de la misma forma que antes, que el conjunto   es una base de Nλ (A),
 1  3

 
 
0
ası́ dim(Nλ3 (A)) = 1 = a3 .
22 Fascı́culos de Álgebra Lineal

 
1 0 −1 0
 0 1 0 1 
Con toda esta información concluimos que A es diagonalizable, y que la matriz P = 
 0

0 1 1 
1 0 0 0
 
3 0 0 0
 0 1 0 0 
es tal que P −1 AP = 
 0 0 1 0 .

0 0 0 0

Algoritmo de diagonalización para operadores lineales

Sea T : U → U un operador lineal en un espacio vectorial de dimensión finita n > 1 sobre U ; los casos en
los que dim(U ) = 0 y dim(U ) = 1 son triviales.
• Paso 1:
Considerar una base cualquiera B = {u1 , · · · , un } de U . Sobre tal base obtener la representación matricial
de T , A = [T ]B . Si A es diagonal, pues no habrá nada que hacer, pues B estará formada por vectores
propios de T .
• Paso 2:
Para la matriz cuadrada A obtenida en el paso previo, emplear el algoritmo de diagonalización para
matrices antes descrito.
• Paso 3:
En el caso de que A sea diagonalizable, y obtenida la matriz P que hace a P −1 AP diagonal, procedemos
a interpretar en la base B original los vectores propios que conformarán la base B ′ en la que [T ]B′ es
diagonal.
 
α1
 .. 
Recordar que dado un vector X =  .  ∈ Kn , éste representa un único vector v ∈ U interpretado en la
αn
base B; tal vector v es dado por v = α1 u1 + · · · + αn un . Luego los vectores v1 , · · · , vn ∈ U , obtenidos de
la interpretación en la base B a partir de los vectores que constituyen las bases de los subespacios propios
de A, constituyen una base B′ en la que [T ]B′ es una matriz diagonal.

Ejemplo 3.9. Consideremos el operador lineal en P3 (R) dado por

T (a + bx + cx2 + dx3 ) = a + (−a + 3b − c + d)x + (b + c)x2 + dx3 .

Veamos si T es o no diagonalizable. En la base B = {1, x, x2 , x3 } el operador lineal T se representa


 
1 0 0 0
 −1 3 −1 1 
matricialmente mediante A = [T ]B = 
 0
. Dado que
1 1 0 
0 0 0 1

1−x 0 0 0
3−x −1 1
−1 3 − x −1 1
pT (x) = = (1 − x) 1 1 − x 0 = (1 − x)2 (2 − x)2 ;
0 1 1−x 0
0 0 1−x
0 0 0 1−x

los valores propios de T son λ1 = 1 con multiplicidad algebraica a1 = 2, y λ2 = 2 también con multipli-
cidad algebraica a2 = 2. Estudiemos ahora los subespacios propios asociados a tales valores propios.
Operadores Lineales: Reducciones Matriciales 23

• Subespacio propio Nλ1 (A):


   
0 0 0 0 −1 2 −1 1
 −1 2 −1 1 
 es equivalente por filas a la matriz  0 1 0 0 

Como A − λ1 I4 =   0 1
, en-
0 0   0 0 0 0 
0 0 0 0 0 0 0 0
tonces A − λ1 I4 tiene rango igual a 2; por lo que dim(Nλ1 (A)) = dim(Nλ1 (T )) = 2 = a1 , que es la
dimensión del espacio solución del sistema de ecuaciones lineales homogéneo (A − λ1 I4 )X = 0. Una base
   
 −1 1 

 
 0   0 
de tal subespacio es dada por  ,
 1   0 
 , pues el sistema (A − λ1 I4 )X = 0 es equivalente a

 
 
0 1

−x + 2y − z + w = 0
, y este último tiene como variables libre a z, w. De acá que una base de Nλ1 (T )
y=0
   
−1 1
 0   0 
es {p1 (x), p2 (x)}, donde p1 (x) = −1 + x2 y p2 (x) = 1 + x3 son los vectores  1  y  0  interpretador
  

0 1
en la base B de arriba.
• Subespacio propio Nλ2 (A):
Por otro lado, como
     
−1 0 0 0 1 0 0 0 1 0 0 0
 −1 1 −1 1  ←→−f1  0 1 −1 1  f3 →−f3 +f2  0 1 −1 1 
A − λ2 I4 =   −f−1−−−−−→  −−−−−−−−→  ,
 0 1 −1 0  f2 →f2 +f1  0 1 −1 0  f4 →f4 −f3  0 0 0 1 
0 0 0 −1 0 0 0 1 0 0 0 0
 
 0 

 

1 
se concluye que el espacio solución de (A − λ2 I4 )X = O tiene dimensión 1; una base es   −1 
 . Por

 
 
0
tanto Nλ2 (T ) tiene multiplicidad geométrica igual a 1 (dim(Nλ2 (T )) = 1 < a2 = 2), de donde se concluye
 
0
 1 
que T es no diagonalizable. Como información adicional, el vector   −1  representa en la base B a la

0
2
función polinómica p3 (x) = x − x , el cual constituye una base del subespacio propio Nλ2 (T ).

3.2.2. Ejercicios Propuestos de la Sección 3.2


1. Averiguar si cada una de las siguientes matrices es o no diagonalizable; en caso de serlo, obtener P
−1
tal que
 P AP sea diagonal.      
a b 1 −1 1 1 1 1
a) b) c) d) ,a∈R
−b a 0 2 0 1 a 1
   
  −5 4 0 4 0 1 0 1
0 1 1  −4 3 0 4   −1 2 0 1 
e)  −1 0 1  f )   −2 3 −1 3  g)  0 0 2 0 
  
0 0 2
−4 4 0 3 −1 1 0 2
24 Fascı́culos de Álgebra Lineal


  
a b b+d −a + 2b + d
2. Decidir si el operador en M2×2 (R) dado por T = es o
c d −2a + 2b + 2d −a + b + 2d
no diagonalizable. En caso de serlo, construya una base de M2×2 (R) en la que su representación
matricial es diagonal.

3. Decidir acerca de la veracidad de cada una de las siguientes proposiciones:

a) Toda matriz cuadrada es semajante a una matriz diagonal.


b) Si U es un espacio vectorial de dimensión finita n ≥ 2 sobre K y T es un operador lineal en U con
dos valores propios: λ1 y λ2 . Si sus multiplicidades algebraicas son 1 y n − 1 respectivamente,
entonces T es diagonalizable.
c) Si U es un espacio vectorial de dimensión finita n ≥ 2 sobre K y T es un operador lineal en U con
dos valores propios: λ1 y λ2 . Si sus multiplicidades geométricas son 1 y n − 1 respectivamente,
entonces T es diagonalizable.
d ) Si u y v son vectores propios asociados a un mismo valor propio de un operador lineal T ,
entonces u y v son linealmente independientes.
e) Si u y v son vectores propios asociados a un mismo valor propio de un operador lineal T ,
entonces u y v son linealmente dependientes.
f ) El operador lineal T : R3 → R3 dado por T (x, y, z) = (z, y, x) es diagonalizable.
g) El operador lineal T : Rn → Rn dado por T (x1 , · · · , xn ) = (x2 , · · · , xn , x1 ) es diagonalizable.
h) Si una matriz A ∈ Mn×n (K) tiene n valores propios iguales a 0, entonces A es semejante a
una matriz diagonal.
i ) Si una matriz A ∈ Mn×n (K) tiene n valores propios distintos, entonces A es semejante a una
matriz diagonal.
j ) Si una matriz A ∈ Mn×n (K) tiene la suma de las multiplicidades algebraicas de sus valores
propios igual a n, entonces A es semejante a una matriz diagonal.
k ) Si una matriz A ∈ Mn×n (K) tiene la suma de las multiplicidades geométricas de sus valores
propios igual a n, entonces A es semejante a una matriz diagonal.
l) Si T : U → U es diagonalizable, entonces T n también lo es para cada n ≥ 0. ¿Es cierto el
recı́proco?

4. Sea U de dimensión finita n ≥ 1. Si T es un operador lineal en U invertible. Demostrar que T es


diagonalizable si, y sólo si, T −1 también lo es.

5. Una matriz A ∈ Mn×n (K) es diagonalizable si, y sólo si, para cualquier espacio vectorial sobre K
de dimensión n y cualquier operador lineal T en U que tenga a A como representación matricial en
alguna base de U , T es diagonalizable.

6. Demostrar que A ∈ Mn×n (K) es diagonalizable si, y sólo si, At lo es.

7. Sean U de dimensión finita n ≥ 1 y T es un operador lineal en U . Sean λ1 , · · · , λk los valores


propios distintos de T ; se define W = {u ∈ U : u es combinación lineal de vectores propios de T }.
Demostrar:

a) W = Nλ1 (T ) ⊕ · · · ⊕ Nλ2 (T ).
b) T es diagonalizable si, y sólo si, W = U .
Operadores Lineales: Reducciones Matriciales 25

3.3. Núcleo e Imagen generalizados


Cuando se estudian transformaciones lineales entre espacios vectoriales, donde el dominio de la trans-
formación es de dimensión finita, nos encontramos con un resultado, aunque simple, implica algunas
propiedades que relacionan las dimensiones del núcleo y la imagen de tal transformación; este resultado,
conocido como el teorema de la dimensión, establece si T : U → V es una transformación lineal con
dim(U ) = n ≥ 1, entonces dim(N (T )) + dim(Im(T )) = n. En el caso particular de ser T un operador
lineal en el espacio vectorial U , si ocurriese que U = N (T ) ⊕ Im(T ) (lo que no siempre es cierto), en-
tonces del hecho que tanto el núcleo como la imagen de T son invariantes por T , T (N (T )) ⊂ N (T ) y
T (Im(T )) ⊂ Im(T ), se tendrá que T puede descomponerse como la suma de dos operadores lineales:
la restricción de T a su núcleo y la restricción de T a su espacio imagen; más precisamente, asumiendo
U = N (T ) ⊕ Im(T ), para cada u ∈ U , como u = u1 + u2 con únicos u1 ∈ N (T ) y u2 ∈ Im(T ), se tiene
que T (u) = T (u2 ) pues T (u1 ) = 0U . Ası́, T = T1 ⊕ T2 , donde T1 : N (T ) → N (T ), restricción de T a
N (T ), y T2 : Im(T ) → Im(T ), restricción de T a Im(T ); note que en este caso T1 es el operador nulo.
De esta forma toda la información no trivial (no nula) de T está en el subespacio Im(T ).
Lo que pretendemos ahora es obtener una extensión de esta descomposición, la cual será de suprema
utilidad para la búsqueda de las formas canónicas tanto de operadores lineales en espacios de dimensión
finita como de matrices cuadradas. Como digimos anteriormente, la hipótesis U = N (T ) ⊕ Im(T ) no
siempre es satisfecha; por tanto habrá que generalizar esta noción, la cual se obtiene mediante dos nuevos
subespacios conocidos como núcleo e imagen generalizados de un operador lineal. Antes de introducirlos
requerimos de ciertos preliminares.

3.3.1. Ascendencia y descendencia del núcleo e imagen


Comencemos considerando un operador lineal T en un espacio vectorial U ; dado que el dominio y
codominio de T son el mismo, U en este caso, tiene sentido iterar a T ; es decir, tiene sentido hablar de
los operadores lineales T 2 , T 3 , · · · , T n , etc, para cualquier entero positivo n. Estas potencias se entienden
como la composición de T consigo mismo, tanta veces como lo indica el exponente n ≥ 1; en otras
palabras, T n = T| ◦ ·{z
· · ◦ T}. Para un vector cualquiera u ∈ U , su iterado n-ésimo por T , que denotamos
n veces
por T n (u), es el vector que se obtiene de u al aplicarle n veces consecutivas el operador T ; esto es:
T 2 (u) = T (T (u)), T 3 (u) = T (T 2 (u)), · · · , T n (u) = T (T n−1 (u)).
Observe que esta noción es la generalización del producto de una matriz cuadrada A consigo misma; que
es, An = AA
| {z· · · A}. De hecho las propiedades y resultados expuestos para operadores lineales también
n veces
son válidos para matrices cuadradas, como simpre, esto es debido a que cualquier matriz cuadrada
A ∈ Mn×n (K) se entiende también como el operador lineal TA : Kn → Kn dado, para cada X ∈ Kn , por
TA (X) = AX.
El siguiente ejemplo es revelador de lo que acá vamos a desarrollar teóricamente; más aún, contiene
todos los elementos que presentaremos en esta parte de las notas.
 
1 0 0
Ejemplo 3.10. Sean N = 1 0 0 y T : R3 → R3 el operador definido por
0 1 0
     
x x x
T y  = N y  = x .
z z y
26 Fascı́culos de Álgebra Lineal

     
 0   a 
Observe que N (T ) = 0 ∈ R3 : a ∈ R e Im(T ) = a ∈ R3 : a, b ∈ R . Como es de notar en
   
a b
este caso, dim(N (T )) = 1 y dim(Im(T )) = 2. Sin embargo, no es cierto que R3 = N (T ) ⊕ Im(T ), pues en
 
0
particular el vector no nulo 0 ∈ N (T ) ∩ Im(T ). Veamos ahora cómo es el operador T 2 . Para cualquier
1
        
x x x x
y  ∈ R3 tenemos que T 2 y  = T T y  = x. Por tanto:
z z z x
     
 0   a 
N (T 2 ) = a ∈ R3 : a, b ∈ R e Im(T 2 ) = a ∈ R3 : a ∈ R .
   
b a

Note que N (T ) N (T 2 ) e Im(T ) ! Im(T 2 ). Por otra parte, una simple cuenta muestra que para todo
      
x x x
3 k   
entero n ≥ 2 y para todo y ∈ R se tiene T
  y = x. Esto implica que para todo entero n ≥ 2

z z x
valen las identidades
{0R3 } N (T ) N (T 2 ) = N (T 3 ) = N (T 4 ) = · · · = N (T n ) = · · · para todo n ≥ 2
R3 ! Im(T ) ! Im(T 2 ) = Im(T 3 ) = Im(T 4 ) = · · · = Im(T n ) = · · · para todo n ≥ 2.

Como podrá notarse R3 = N (T 2 ) ⊕ Im(T 2 ); además es simple verificar que tanto N (T 2 ) como Im(T 2 )
son T -invariantes; es decir, T (N (T 2 )) ⊂ N (T 2 ) y T (Im(T 2 )) ⊂ Im(T 2 ).
Estas propiedades permiten expresar T de una manera muy especial: T se descompone como la suma de
dos operadores; lo cual denotamos por T = T1 ⊕T2 , donde T1 : N (T 2 ) → N (T 2 ) y T2 : Im(T 2 ) → Im(T 2 )
son las restricciones de T a los subespacios (demuestre que en efecto son subespacios) N (T 2 ) e Im(T 2 )
respectivamente. Más precisamente, dado que para cada u ∈ R3 existen únicos u1 ∈ N (T 2 ) y u2 ∈ Im(T 2 )
tales que u = u1 + u2 , entonces T (u) = T (u1 ) + T (u2 ) := T1 (u1 ) + T2 (u2 ), pues T (u1 ) ∈ N (T 2 ) y
T (u2 ) ∈ Im(T 2 ) por la invarianza antes señalada. Sólo que ahora, en lugar de tenerse T1 es operador
nulo, como en el comentario inicial de arriba, es simple verificar que T12 si es el operador nulo. Concluimos
diciendo que T se escribe como la suma de dos operadores definidos en subespacios que están en suma
directa de R3 y una potencia de uno de tales operadores es el operador nulo.
En realidad esta es una propiedad general que satisfacen los núcleos y los espacios imagen de los
iterados de cualquier operador lineal, y la descomposición que queremos resaltar, y que además es válida
para operadores en espacios de dimensión finita.

Teorema 3.7 (Ascendencia y descendencia de núcleos e imágenes). Sean U un espacio vectorial


sobre K y T un operador lineal en U . Entonces los núcleos y espacios imagen de los iterados de T
satisfacen las siguientes relaciones de ascendencia y descendencia:

{0U } ⊂ N (T ) ⊂ N (T 2 ) ⊂ · · · ⊂ N (T m ) ⊂ · · · para todo m ≥ 1


(3.6)
U ⊃ Im(T ) ⊃ Im(T 2 ) ⊃ · · · ⊃ Im(T m ) ⊃ · · · para todo m ≥ 1.

Si U es de dimensión finita n ≥ 1, entonces existe un entero k ≥ 1 donde ambas sucesiones de inclusiones


se estabilizan; es decir, existe un primer entero k ≥ 1 tal que N (T k ) = N (T m ) y Im(T k ) = Im(T m )
para todo m ≥ k.
Operadores Lineales: Reducciones Matriciales 27

Demostración: Para cada entero m ≥ 1 mostraremos que N (T m ) ⊂ N (T m+1 ) e Im(T m ) ⊃ Im(T m+1 ).
Sea u ∈ N (T m ), es decir T m (u) = 0U ; dado que T m+1 (u) = T (T m (u)) = T (0U ) = 0U , entonces
u ∈ N (T m+1 ); por tanto N (T m ) ⊂ N (T m+1 ). Por otra parte, sean v ∈ Im(T m+1 ) y u ∈ U tales que
T m+1 (u) = v. Como v = T m+1 (u) = T m (T (u)), entonces v está en el espacio imagen de T m ; es decir,
v ∈ Im(T m ); por lo que Im(T m+1 ) ⊂ Im(T m ). Esto demuestra la identidad 3.6.
Supongamos ahora que dim(U ) = n ≥ 1. Dado que para cualquier par de subespacios V y W de U
con V ⊂ W se cumple dim(V ) ≤ dim(W ), como la sucesión de los núcleos de potencias de T es creciente,
entonces existe un primer entero k ≥ 1 de manera que tal sucesión se estabiliza de allı́ en adelante; es
decir, existe un primer entero k ≥ 1 tal que para todo m ≥ k se tiene N (T m ) = N (T k ). De lo contrario
tendrı́amos una sucesión infinita de subespacios encajados para los cuales su dimensión va creciendo
estrictamente. Ası́ queda demostrado que existe un primer entero k ≥ 1 tal que:

{0U } ( N (T ) ( · · · ( N (T k−1 ) ( N (T k ) = N (T k+1 ) = · · · = · · · (3.7)

Por otro lado, sea k ≥ 1 el entero que hace que la sucesión de los núcleos de las potencias de T se
estabilicen, tal y como se muestra en (3.7). Sabemos que dim(N (T m )) + dim(Im(T m )) = n para todo
m ≥ 1 (teorema de la nulidad y rango); pero como dim(N ((T m )) = dim(N (T k )) para todo m ≥ k y
dim(N ((T k−1 )) < dim(N (T k )), sigue que dim(Im((T m )) = dim(Im(T k )) = n − dim(N (T k )) para todo
m ≥ k, y dim(Im((T k−1 )) > dim(Im(T k )). Pero como la sucesión de las imágenes está encajada, y
subespacios vectoriales encajados con la misma dimensión son iguales, se concluye que para todo m ≥ k
se tiene Im(T m ) = Im(T k ) y, de hecho:

U ) Im(T ) ) · · · ) Im(T k−1 ) ) Im(T k ) = Im(T m+1 ) = · · · = · · · ,

con lo cual la demostración del teorema está completa.

Ejemplo 3.11. Como podrá observarse, las sucesiones del núcleo y espacio imagen de los iterados del
operador en el ejemplo anterior se estabilizan en k = 2.
Veamos otro ejemplo. Sea T : P2 (R) → P2 (R) definido mediante la relación

T (p(x)) = 2a0 + a2 x, para cada p(x) = a0 + a1 x + a2 x2 .

En este caso se muestra sin mayores dificultades que

N (T ) = {p(x) ∈ P2 (R) : a0 = a2 = 0} y Im(T ) = {p(x) ∈ P2 (R) : a2 = 0}.

Además, como T 2 (p(x)) = 4a0 para todo p(x) ∈ P2 (R), entonces:

N (T 2 ) = {p(x) ∈ P2 (R) : a0 = 0} y Im(T 2 ) = {p(x) ∈ P2 (R) : a1 = a2 = 0}.

Finalmente, dado que T m (p(x)) = 2m a0 para todo m ≥ 2 y p(x) ∈ P2 (R), se concluye que las sucesiones
ascendentes de los núcleos y descendente de los espacios imagen se estabiliza en k = 2. Al comparar
con el ejemplo anterior se notará que no siempre al momento de estabilizarse las sucesiones de núcleos
e imágenes de las potencias del operador, de debe tener la misma expresión para T m para todo m ≥ k,
siendo k el entero donde se estabilizan tales sucesiones.

Definición 3.7. Sean U un espacio vectorial de dimensión finita n ≥ 1, T un operador lineal en U y k


el entero que estabiliza las sucesiones dadas en (3.6). A los subespacios N (T k ) y Im(T k ) se les denomina
espacio nulo generalizado y espacio imagen generalizado; en adelante serán denotados por N∞ (T ) y
Im∞ (T ).
28 Fascı́culos de Álgebra Lineal

Teorema 3.8. Sean U un espacio vectorial de dimensión finita n ≥ 1 y T un operador lineal en U .


Entonces son satisfechas:

1. U = N∞ (T ) ⊕ Im∞ (T ),

2. N∞ (T ) y Im∞ (T ) son T -invariantes; esto es, T (N∞ (T )) ⊂ N∞ (T ) y T (Im∞ (T )) ⊂ Im∞ (T ), de


hecho T (Im∞ (T )) = Im∞ (T ), mas no siempre T (N∞ (T )) = N∞ (T ). En particular, T : Im∞ (T ) →
Im∞ (T ) es un isomorfismo y T : N∞ (T ) → N∞ (T ) es nilpotente de orden k, donde este entero es
donde se estabilizan las sucesiones dadas en (3.6).

Demostración: Sea k ≥ 1 es el entero que estabiliza las sucesiones en (3.6). Para demostrar la primera
parte es suficiente verificar que N∞ (T ) ∩ Im∞ (T ) = {0U }, pues dim(N∞ (T )) + dim(Im∞ (T )) = dim(U ).
Sea u ∈ N∞ (T ) ∩ Im∞ (T ); es decir, T k (u) = 0U y u = T k (v) para algún v ∈ U . Luego es inmediato que
T k (u) = 0U = T 2k (v); de donde v ∈ N (T 2k ) = N (T k ). Ası́ T k (v) = 0U = u; con lo cual la demostración
de la primera parte está completa.
Sea u ∈ N∞ (T ), es decir, T k (u) = 0U . Deseamos verificar que T (u) ∈ N∞ (T ) para ası́ tener
T (N∞ (T )) ⊂ N∞ (T ). Pero T k (T (u)) = T k+1 (u), y como N (T k ) = N (T k+1 ) se tiene que T k+1 (u) = 0U ,
por tanto T (u) ∈ N∞ (T ).
Supongamos que u ∈ Im∞ (T ) = Im(T k ); esto es, u = T k (v) para algún v ∈ U . Sigue entonces
que T (u) = T k+1 (v) ∈ Im(T k+1 ) = Im(T k ) = Im∞ (T ); de esta forma T (Im∞ (T )) ⊂ Im∞ (T ). Por
otra parte, sea u ∈ Im∞ (T ). Como Im∞ (T ) = Im(T k+1 ) podemos escoger v ∈ U de tal manera que
u = T k+1 (v), entonces u = T (T k (v)). Dado que T k (v) ∈ Im(T k ) = Im∞ (T ), u ∈ T (Im∞ (T )) y
Im∞ (T ) ⊂ T (Im∞ (T )). De esta forma T (Im∞ (T )) = Im∞ (T ); esto es, la restricción de T al subespacio
Im∞ (T ) es sobreyectiva, y por tratarse de un operador en un espacio finito dimensional, concluimos que
T : Im∞ (T ) → Im∞ (T ) es también inyectiva y por tanto un isomorfismo.
Finalmente, que T k restricto a N∞ (T ) sea el operador nulo es inmediato, pues si u ∈ N∞ (T ) = N (T k ),
entonces T k (u) = 0U . Podemos decir un poco más, como N( T k−1 ) N (T k ), existe al menos un vector
u ∈ N∞ (T ), no nulo, tal que T k−1 (u) 6= 0U .

Comentario 3.2. La propiedad de ser U = N∞ (T ) ⊕ Im∞ (T ) no siempre es válida para los pares
intermedios de las sucesiones (3.6): el operador T del ejemplo anterior satisface N∞ (T ) = N (T 2 ),
Im∞ (T ) = Im(T 2 ), y cualquier función polinómica de la forma p(x) = a1 x está tanto en N (T ) co-
mo en Im(T ).

3.3.2. Ejercicios Propuestos de la Sección 3.3


1. Para cada uno de los operadores que a continuación se muestran, determinar: las sucesiones ascen-
dentes y descendentes de los núcleos e imágenes, y el núcleo e imagen generalizados.

a) Operador nulo y operador identidad.


b) T : P2 (R) → P2 (R) dado por T (a + bx + cx2 ) = b + cx2 .
   
x x
c) T : R3 → R3 con T y  = x.
z z
   
x z
d ) T : R3 → R3 con T y  = y .
z x
Operadores Lineales: Reducciones Matriciales 29

   
x 2x − y
e) T : R3 → R3 con T y  =  x + 3z .
z x − y − 3z

2. Sea R∞ el espacio vectorial de todas las sucesiones {an }n≥0 de números reales, el cual está dotado
con las operaciones:

• {an }n≥0 + {bn }n≥0 = {an + bn }n≥0 , y


• α{an }n≥0 = {bn }n≥0 , donde α ∈ R y bn = αan para cada n ≥ 0.

Sean S : R∞ → R∞ y T : R∞ → R∞ los operadores lineales definidos, para cada sucesión de


números reales {an }n≥0 ∈ R∞ , por S({an }n≥0 ) = {bn }n≥0 , donde bn = an+1 para cada n ≥ 0; y
T ({an }n≥0 ) = {bn }n≥0 , donde b0 = 0 y para cada n ≥ 1 vale bn = an−1 .
Determine las sucesiones ascendentes y descendentes de los núcleos e imágenes de las potencias de
T . ¿Se estabilizan tales sucesiones de núcleos e imágenes? Compare con el enunciado del teorema
3.7.

3. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador lineal en U .


Demostrar que si T es inyectivo (no singular), entonces Im∞ (T ) = U y N∞ (T ) = {0U }. ¿Es cierto
el recı́proco? ¿Es cierto el mismo resultado si U no es finito dimensional?

3.4. Forma canónica de operadores y matrices nilpotentes


Ya hemos caracterizado tanto a los operadores lineales en espacios finito dimensionales como a las
matrices cuadradas que son diagonalizables; ahora nos disponemos a encontrar una forma canónica de
escribir operadores lineales en espacios finito dimensionales, y las matrices cuadradas, que no siendo
diagonalizables, son fáciles de describir; se trata de los denominados operadores y matrices nilpotentes. A
su vez, esta forma canónica que obtendremos será fundamental para la búsqueda de una forma canónica
para cualquier otro operador lineal en espacios de dimensión finita y de matrices cuadradas.

3.4.1. Operadores y matrices nilpotentes


Definición 3.8. Un operador lineal T en un espacio vectorial U (resp. A ∈ Mn×n (K)) se dice nilpotente
de orden k ≥ 1 si T k = 0 y T k−1 6= 0 (resp. Ak = 0 y Ak−1 6= 0).

Comentario 3.3. Si T : U → U (o A ∈ Mn×n (K)) es nilpotente de orden k ≥ 1, entonces para cada


vector u ∈ U existe un entero 1 ≤ m ≤ k tal que T m (u) = 0U . Esto es inmediato pues T k (u) = 0U para
todo u ∈ U .
Por otra parte, si U es un espacio vectorial de dimensión finita n ≥ 1 sobre K y T es un operador
nilpotente de orden k ≥ 1 en U , entonces las sucesiones de ascendencia y descendencia de los núcleos e
imágenes de las potencias de T se estabilizan en k; de hecho

{0U } N (T ) ··· N (T k−1 ) N (T k ) = U = · · · = N (T m ) = · · ·


U ) Im(T ) ) · · · ) Im(T k−1 ) ) Im(T k ) = {0U } = · · · = Im(T m ) = · · · .

Ejemplo 3.12. Consideremos el operador D : P2 (R) → P2 (R) dado por D(p(x)) = p′ (x) (operador
derivada). Dado que D2 (p(x)) = p′′ (x) y D3 (p(x)) = p′′′ (x) = 0, entonces D es un operador nilpotente
de orden 3, pues existen funciones polinómicas de grado menor o igual que 2 cuya segunda derivada es
30 Fascı́culos de Álgebra Lineal

nula. Observe que B = {p(x) = x2 , D(p(x)) = 2x, D2 (p(x)) = 2} es una base de P2 (R); y en tal base, la
 
0 0 0
representación matricial de D es [D]B = 1 0 0, la cual también es nilpotente de orden 3.
0 1 0

Ejemplo 3.13 (Parte nilpotente de un operador). Sean U un espacio vectorial de dimensión finita
n ≥ 1 sobre K y T un operador lineal en U . Como vimos en el teorema 3.8, si k ≥ 1 es el entero en el cual
se estabilizan las sucesiones de núcleos e imágenes de las potencias de T , entonces T restricto a N∞ (T )
es un operador nilpotente de orden k. Tal parte de T , es decir T : N∞ (T ) → N∞ (T ) se conoce con el
nombre de parte nilpotente de T .

La definición de operadores nilpotentes no impone restricciones a la dimensión del espacio vectorial


donde está actuando el operador. Cuando el espacio vectorial es de dimensión finita, el concepto de
nilpotencia de un operador está relacionado con la nilpotencia de cualquiera de sus representaciones
matriciales. En efecto, sean U un espacio vectorial de dimensión finita n ≥ 1, B cualquier base de U y T
un operador lineal en U . Dado que para cualquier entero m ≥ 1 se cumple [T m ]B = ([T ]B )m , entonces es
claro que T es nilpotente de orden k ≥ 1 si, y sólo si, cualquiera de sus representaciones matriciales es
nilpotente del mismo orden. Esto también implica que matrices semejantes a una nilpotente es nilpotente
del mismo orden de la matriz original.
Puede mostrarse muy fácilmente que cualquier matriz que tenga todas sus entradas nulas, excepto
posiblemente algunas entradas no nulas en una de las subdiagonales inferiores (o subdiagonales superio-
res), es nilpotente. En realidad, como veremos acá, nuestra atención estará dirigida, en particular, hacia
aquellas matrices cuadradas que tienen el dı́gito 1 en todas las entradas de la subdiagonal inferior y 0 en
el resto de sus entradas; esto es, matrices de la forma
 
0 0 ··· 0 0
1 0 · · · 0 0
 
 
N = 0 1 · · · 0 0 . (3.8)
. . .. .. 
. . .. 
. . . . .
0 0 ··· 1 0

Es simple verificar que si N es de orden k × k, entonces N es nilpotente de orden k. De


 hecho, al ir multi-
0 0 ··· 0 0
 0 0 · · · 0 0
 
. . . .. .. 
plicando N consigo misma, la subdiagonal de 1’s va descendiendo; por lo que N k−1 =  .
. . . . . . . 
 
 0 0 · · · 0 0
1 0 ··· 0 0

Definición 3.9. Toda matriz cuadrada de la forma (3.8) la denominaremos nilpotente básica.

Nuestro objetivo principal en esta parte de las notas es demostrar que todo operador lineal nilpotente
en espacios vectoriales de dimensión finita (o matrices cuadradas) nilpotentes pueden ser representados
matricialmente mediante matrices diagonales por bloques, en el que cada bloque de la diagonal es una
matriz nilpotente básica. Note que la matriz nula es de este tipo, pues la matriz nula de orden 1 × 1 es
nilpotente básica. Para alcanzar nuestro objetivo introducimos los siguientes conceptos.

Definición 3.10. Sean U un espacio vectorial de dimensión finita n ≥ 1 y T un operador lineal nilpotente
en U . Una T -cadena es una secuencia finita [v, T (v), · · · , T ℓ−1 (v)], donde v es un vector de U tal que
Operadores Lineales: Reducciones Matriciales 31

T ℓ (v) = 0U y T ℓ−1 (v) 6= 0U ; en tal caso se dice que la T -cadena [v, T (v), · · · , T ℓ−1 (v)] es de longitud ℓ.
A toda base de U obtenida como la concatenación (disjunta) de T -cadenas, digamos:

{v1 , T (v1 ), · · · , T ℓ1 −1 (v1 ), · · · , vs , T (vs ), · · · , T ℓs −1 (vs )},

donde cada [vj , T (vj ), · · · , T ℓj −1 (vj )] (j = 1, · · · , s) es una T -cadena, se le conoce con el nombre de base
en T -cadena de U .

Obviamente estos conceptos pueden ser colocados para matrices cuadradas.

Definición 3.11. Sea A ∈ Mn×n (K). Una A-cadena es cualquier secuencia finita de vectores en Kn ,
digamos, [X, AX, · · · , Aℓ−1 X], tal que Aℓ X = 0Kn y Aℓ−1 X 6= 0Kn . Al entero ℓ se le conoce como
la longitud de la A-cadena [X, AX, · · · , Aℓ−1 X]. A toda base de Kn obtenida como la concatenación
(disjunta) de A-cadenas, digamos

{X1 , AX1 , · · · , Aℓ1 −1 X1 , · · · , Xs , AXs , · · · , Aℓs −1 Xs },

se le conoce con el nombre de base en A-cadena de Kn .

Ejemplo 3.14. En R5 consideremos el operador lineal dado por T (a, b, c, d, e) = (0, a, b, 0, d). Dado que
T 2 (a, b, c, d, e) = (0, 0, a, 0, 0) y T 3 (a, b, c, d, e) = (0, 0, 0, 0, 0) para cada (a, b, c, d, e) ∈ R5 , entonces T
es nilpotente de orden 3. Es simple verificar que [e1 , e2 , e3 ] y [e4 , e5 ] son T -cadenas; por lo que la base
B = {e1, e2 , e3 , e4 , e5 } es está
 en T -cadena. La representación matricial de T en dicha base es la matriz
0 0 0 0 0
 1 0 0 0 0 
 
 
[T ]B =  0 1 0 0 0 , la cual es diagonal por bloques como la mencionada anteriormente.
 
 0 0 0 0 0 
0 0 0 1 0

Ejemplo 3.15. El operador nulo en un espacio vectorial U es obviamente nilpotente de orden 1. Si U


tiene dimensión n, cualquier vector no nulo constituye una T -cadena de longitud 1; además, toda base
está en T -cadena. Tal operador puede considerarse como patológico en el mundo de los nilpotentes, todas
sus representaciones matriciales son nulas.

Los siguientes lemas son preparatorios para el principal resultado de esta sección, el teorema 3.9.
Recordamos que cada vez que se tenga un operador lineal T en un espacio vectorial U , si W es un
subespacio vectorial de U invariante por T ; es decir, T (W ) ⊂ W , entonces la restricción de T a W es un
operador lineal en W .

Lema 3.3. Sean U un espacio vectorial sobre K y T un operador lineal nilpotente en U . Para cualquier
T -cadena [v, T (v), · · · , T ℓ−1 (v)] se satisfacen:

1. los vectores v, T (v), · · · , T ℓ−1 (v) son linealmente independientes,

2. el subespacio W generado por v, T (v), · · · , T ℓ−1 (v) es invariante por T ; y T restricto a W es nil-
potente de orden ℓ.

Demostración: Veamos que los vectores v, T (v), · · · , T ℓ−1 (v) son linealmente independientes; para ello
supongamos que existen escalares α1 , · · · , αℓ tales que

α1 v + α2 T (v) + · · · + αℓ T ℓ−1 (v) = 0U .


32 Fascı́culos de Álgebra Lineal

Al aplicar T ℓ−1 a esta identidad resulta α1 T ℓ−1 (v) = 0U , pues T k (v) = 0U para todo k ≥ ℓ; luego como
T ℓ−1 (v) 6= 0U , sigue que α1 = 0. Entonces tenemos α2 T (v) + · · · + αℓ T ℓ−1 (v) = 0U ; en tal caso aplicamos
T ℓ−2 a ambos lados de esta igualdad para ası́ obtener α2 T ℓ−1 (v) = 0U , luego α2 = 0. Procediendo
recursivamente se muestra que todos los escalares α’s son iguales a 0; esto demuestra 1.
Para demostrar la segunda parte, observe que w ∈ W si, y sólo si, existen escalares α1 , · · · , αℓ tales
que
w = α1 v + α2 T (v) + · · · + αℓ T ℓ−1 (v),
de donde T (w) = α1 T (v) + α2 T 2 (v) + · · · + αℓ−1 T ℓ−1 (v) el cual es un vector de W ; luego T (W ) ⊂ W .
Finalmente, para cualquier w ∈ W , es simple verificar que T ℓ (w) = 0U ; por otra parte, como v ∈ W pues
v = 1v + 0T (v) + · · · + 0T ℓ−1 (v), entonces T restricto a W es nilpotente de orden ℓ.

Corolario 3.2. Sea U un espacio vectorial de dimensión finita n ≥ 1 sobre K. Si T es un operador lineal
nilpotente de orden k ≥ 1 en U , entonces el orden de nilpotencia de T es menor o igual a la dimensión
del espacio.
Demostración: Es una consecuencia inmediata del lema anterior.

Lema 3.4. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K, T un operador lineal en U y
W1 , · · · , Wk subespacios vectoriales de U invariantes por T . Si U = W1 ⊕ · · · ⊕ Wk y B es una base de U
construida por la concatenación de bases en W1 , · · · , Wk (B = B1 ∪ · · · ∪ Bk ), entonces la representación
 
[T1 ]B1 O ··· O
 O
 [T2 ]B2 · · · O 
matricial de T en tal base es [T ]B =  . . . .. , donde Tj es la restricción de T al
 .. .. .. . 
O O · · · [Tk ]Bk
subespacio Wj para j = 1, · · · , k. Además, pT (x) = pT1 (x) · · · pTk (x), donde pTj (x) (j = 1, · · · , k) es el
polinomio caracterı́stico del operador Tj .
Demostración: La demostración sigue inmediatamente de la definición de representación matricial. Los
detalles se deja al lector. Ver ejercicio propuesto 12 en la página 14.

Lema 3.5. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador lineal
nilpotente en U . Si [v1 , T (v1 ), · · · , T ℓ1 −1 (v1 )], · · · , [vs , T (vs ), · · · , T ℓs −1 (vs )] son T -cadenas disjuntas tales
que su concatenación B = {v1 , T (v1 ), · · · , T ℓ1 −1 (v1 ), · · · , vs , T (vs ), · · · , T ℓs −1 (vs )} es una base en T -
 
N1 O · · · O
 O N2 · · · O 
 
cadena de U , entonces [T ]B =  . .. .. .. , donde, para cada j = 1, · · · , s, Nj es una matriz
 .. . . . 
O O · · · Ns
nilpotente básica. En adición, cada Nj es la representación matricial de T restricto al subespacio generado
por la T -cadena [vj , T (vj ), · · · , T ℓj −1 (vj )], por tanto de orden ℓj × ℓj .
Demostración: Observe que de los lemas anteriores y del hecho que si [v, T (v), · · · , T ℓ−1 (v)] es una
T -cadena, entonces:
T (v) = 0v + 1T (v) + 0T 2 (v) + · · · + 0T ℓ−1 (v)
T (T (v)) = T 2 (v) = 0v + 1T (v) + 1T 2 (v) + 0T 3 (v) · · · + 0T ℓ−1 (v)
..
.
T (T ℓ−2 (v)) = T ℓ−1 (v) = 0v + 0T (v) + · · · + 0T ℓ−2 (v) + 1T ℓ−1 (v)
T (T ℓ−1 (v)) = T ℓ (v) = 0v + 0T (v) + · · · + 0T ℓ−1 (v).
Operadores Lineales: Reducciones Matriciales 33

Pues ası́, la representación matricial de la restricción de T al subespacio generado por la  T -cadena


0 0 ··· 0 0
1 0 · · · 0 0
 
 
[v, T (v), · · · , T ℓ−1 (v)], en ella misma como base, es la matriz de orden ℓ × ℓ  0 1 ··· 0 0 .
. . . .. 
. . ..
. ..

. . .
0 0 ··· 1 0

La versión matricial del lema que acabamos de mostrar es la siguiente:

Lema 3.6. Sea A ∈ Mn×n (K) una matriz nilpotente. Si existen A-cadenas

[X1 , AX1 , · · · , Aℓ1 −1 X1 ], · · · , [Xs , AXs , · · · , Aℓs −1 Xs ],

tales que su concatenación

B = {X1 , AX1 , · · · , Aℓ1 −1 X1 , · · · , Xs , AXs , · · · , Aℓs −1 Xs }

es una base en A-cadena de Kn , entonces P = [X1 , AX1 , · · · , Aℓ1 −1 X1 , · · · , Xs , AXs , · · · , Aℓs −1 Xs ] es tal
 
N1 O · · · O
 O N2 · · · O
 
que P −1 AP =  . .. .. .. , donde, para cada j = 1, · · · , s, Nj es una matriz nilpotente básica
 .. . . . 
O O ··· Ns
de orden ℓj × ℓj .

Demostración: Se dejan los detalles al lector.

Lema 3.7. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador lineal
nilpotente de orden k ≥ 1 en U . Si U admite una base en T -cadena, entonces existe al menos una de las
T -cadenas en tal base, es de longitud k.

Demostración: Supongamos por el absurdo que B es una base en T -cadena y que todas las T -cadenas
que la conforman tienen longitud menor que k; observe que ninguna T -cadena puede tener longitud mayor
que k, pues T k es el operador nulo.
Nuestro supuesto implica que si B = {u1 , · · · , un }, entonces T k−1 (uj ) = 0U para todo j = 1, · · · , n,
pues cada ui pertenece a una T -cadena de longitud menor o igual a k − 1. Pero como todo vector u ∈ U
se escribe como u = α1 u1 + · · · + αn un para ciertos escalares α1 , · · · , αn ; al aplicar T k−1 a ambos lados
de esta igualdad tenemos T k−1 (u) = 0U ; de donde T k−1 es el operador nulo, lo cual es una contradicción
ya que el ı́ndice de nilpotencia de T es k.

Comentario 3.4 (Implicaciones de la existencia de bases en cadena). Antes de proseguir con


el enunciado y demostración del resultado principal de la sección (teorema 3.9), presentaremos algunas
consecuencias importantes derivadas de la existencia (por ahora hipotética) de una base en cadena.
Supongamos que T es un operador lineal nilpotente de orden k ≥ 1 en el espacio vectorial U de
dimensión finita n ≥ 1 sobre K. Admitamos, que U admite una base en T -cadena, por ejemplo:

B = {v1 , T (v1 ), · · · , T ℓ1 −1 (v1 ), · · · , vs , T (vs ), · · · , T ℓs −1 (vs )},

la cual suponemos ordenada en orden decreciente en la longitud de las T -cadenas que la conforman; es
decir: ℓ1 ≥ ℓ2 ≥ · · · ≥ ℓs . Del lema 3.7, al menos ℓ1 = k, que es el orden de nilpotencia de T . Además del
34 Fascı́culos de Álgebra Lineal

 
N1 O ··· O
O
 N2 ··· O 
lema 3.5, la representación matricial de T en B es [T ]B =  . .. .. .. , donde cada matriz Nj
 .. . . . 
O O ··· Ns
es nilpotente básica de orden ℓj × ℓj , para todo j = 1, · · · , s.

Consecuencia 1: El número de T -cadenas en B es dim(N (T )).

Primero note que los vectores finales de cualquier T -cadena pertenecen al núcleo de T ; ver definición
3.10. Más que esto, mostraremos que {T ℓ1 −1 (v1 ), · · · , T ℓs −1 (vs )} es una base de N (T ). En efecto; es claro
que los vectores T ℓ1 −1 (v1 ), · · · , T ℓs −1 (vs ) son linealmente independientes, por ser B base. Veamos que
generan a N (T ). Sea u ∈ N (T ), es decir, T (u) = 0U . Entonces

u = α11 v1 + · · · + αℓ11 −1 T ℓ1 −1 (v1 ) + · · · + α1s vs + · · · + αℓss −1 T ℓs −1 (vs ) (3.9)

para ciertos escalares α’s. Al aplicar T a ambos lados de esta expresión se tiene:

0U = α11 T (v1 ) + · · · + αℓ11 −2 T ℓ1 −1 (v1 ) + · · · + α1s T (vs ) + · · · + αℓss −2 T ℓs −1 (vs ),

entonces por la independencia lineal sigue que

α11 = · · · = αℓ11 −2 = · · · = α1s = · · · = αℓss −2 = 0;

por tanto de (3.9)

u = αℓ11 −1 T ℓ1 −1 (v1 ) + αℓ12 −1 T ℓ2 −1 (v2 ) · · · + αℓss −1 T ℓs −1 (vs );

lo cual muestra que {T ℓ1 −1 (v1 ), · · · , T ℓs −1 (vs )} es base de N (T ) y s = dim(N (T )) es el número de


T -cadenas en B.
Consecuencia 2: El número de T -cadenas de mayor longitud en B es dim(Im(T k−1 )).

Supongamos que en B se tienen 1 ≤ m ≤ s (al menos hay una) T -cadenas de longitud k (que es la mayor
longitud de las T -cadenas). Entonces las primeras matrices N1 , · · · , Nm en [T ]B son todas de orden k ×k y
nilpotentes de orden k; el resto de las matrices en la diagonal de [T ]B son nilpotentesde ordenes menores 
0 0 ··· 0 0
 0 0 · · · 0 0
 
. . . .. .. 
a k, por lo que Njk−1 = O para todo j = m+1, · · · , s. Ahora bien, dado que Njk−1 =  .
. . . . . . . ,
 
 0 0 · · · 0 0
1 0 ··· 0 0
para cada j = 1, · · · , m, se concluye que dim(Im(T k−1 )) = m, pues el número de filas no nulas (además
linealmente independientes) en [T k−1 ]B ; es decir, el rango de T k−1 , es m. De esta forma, el número de
T -cadenas de longitud k en B es dim(Im(T k−1 )) = n − dim(N (T k−1 )).

Ejemplo 3.16. Supongamos que T es un operador lineal nilpotente de orden 4 en un espacio vectorial
U de dimensión 8, el cual admite una base en T -cadena. Supongamos también que dim(N (T )) = 4 y
dim(N (T 2 )) = 6. De las consecuencias anteriormente señaladas tenemos que cualquiera de tales bases
tiene 4 T -cadenas (consecuencia 1), siendo que 2 de ellas son de longitud máxima (consecuencia 2), que
es el orden de nilpotencia de T . Por tanto si B = {u1 , · · · , u8 } es una base en T -cadena ordenada de
manera decreciente con respecto a la longitud de las T -cadenas que la conforman, entonces [u1 , u2 , u3 ]
Operadores Lineales: Reducciones Matriciales 35

y [u4 , u5 , u6 ] son las T -cadenas de mayor longitud. De esta forma, los vectores u7 y u8 constituyen T -
cadenas de longitud 1; es la única posibilidad para tener 4 T -cadenas en B. Esto permite concluir que
la representación matricial de T en cualquiera de las bases ası́ consideradas es la matriz diagonal por
 
0 0 0
1 0 0 
 
0 1 0 
 
 
 0 0 0 
bloques [T ]B =  .
 1 0 0 
 

 0 1 0 

 0 
0
En realidad las consecuencias que acabamos de mostrar, en el supuesto de que existan bases en T -
cadenas para un operador nilpotente T , también implican la siguiente proposición.

Proposición 3.4. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador


nilpotente de orden k ≥ 1 en U . si B1 y B2 son dos bases en T -cadena de U , entonces en ambas el
número de T -cadenas de una determinada longitud es el mismo.

Demostración: Por las consecuencias 1 y 2 anteriores tenemos que ambas bases (ordenadas de forma
decreciente) tienen s = dim(N (T )) T -cadenas, y el número de T -cadenas de longitud k (la máxima) es
dim(Im(T k−1 )). De manera que las representaciones matriciales de T en B1 y B2 son matrices diagonales
por bloques,
   
N1 O · · · O M1 O · · · O
 O N2 · · · O   O M2 · · · O 
   
[T ]B1 =  . . . .  y [T ]B2 =  . .. .. ..  ,
 .. .. .. ..   .. . . . 
O O · · · Ns O O · · · Ms
ambas con s bloques (uno por cada T -cadena); cada uno de los bloques son matrices nilpotentes básicas
y los primeros m1 = dim(Im(T k−1 )) bloques en ambas representaciones son de orden k × k, por tanto
los mismos: N1 = Nj = Mj para todo j = 1, · · · , m1 . La proposición estará demostrada siempre que
Nj = Mj para todo j = m1 + 1, · · · , s.
Note que en [T ]B1 y [T ]B2 los bloques aparecen ordenados de acuerdo a su tamaño, y por tanto a su
ı́ndice de nilpotencia. Denotamos por 1 ≤ kp < · · · < k2 < k y 1 ≤ kp′ ′ < · · · < k2′ < k los tamaños de
los bloques en tales representaciones matriciales. Sean Nm1 +1 , · · · , Nm2 (m2 > m1 ) y Mm1 +1 , · · · , Mm′2
(m′2 > m1 ) los bloques en [T ]B1 y [T ]B2 , respectivamente, de tamaños k2 × k2 y k2′ × k2′ .
Afirmamos que k2 = k2′ y m2 = m′2 . Para demostrar esto, observemos que m2 y m′2 están determinados

por m1 , k2 y dim(Im(T k2 −1 )), y por m1 , k2′ y dim(Im(T k2 −1 )), respectivamente. En efecto, dado que
k2 −1 k2 −1 k2 −1 k2 −1
las matrices N1 , · · · , Nm 1
tienen cada una k − k2 + 1 filas no nulas, Nm 1 +1
, · · · , Nm 2
tienen, cada
k2 −1
una de ellas, una única fila no nula, y las restantes matrices por bloques de [T ]B1 son nulas, entonces
se deduce que que

dim(Im(T k2 −1 )) = m1 (k − k2 + 1) + (m2 − m1 ) = m1 (k − k2 ) + m2 ,

de donde m2 = dim(Im(T k2 −1 )) − m1 (k − k2 ). De la misma forma,



dim(Im(T k2 −1 )) = m1 (k − k2′ + 1) + (m′2 − m1 ) = m1 (k − k2′ ) + m′2 ,

y m′2 = dim(Im(T k2 −1 )) − m1 (k − k2′ ). Ahora supongamos por el absurdo que k2 6= k2′ , por ejemplo
que k2′ > k2 . Como las matrices Nj , para todo j = m1 + 1, · · · , s, son nilpotentes de orden menor que
36 Fascı́culos de Álgebra Lineal

k′ −1 ′
k2′ , entonces Nj 2 = O para todo j = m1 + 1, · · · , s. Esto implica que [T k2 −1 ]B1 tiene exactamente

m1 (k − k2′ + 1) filas no nulas; por tanto dim(Im(T k2 −1 )) = m1 (k − k2′ + 1). Pero, por lo arriba expuesto,
se tendrı́a m′2 − m1 = 0, lo cual es absurdo. Ası́, k2 = k2′ y también m2 = m′2 ; concluyéndose Nj = Mj =
Nm1 +1 para todo j = m1 + 1, · · · , m2 . La demostración termina claramente por inducción, dejamos los
detalles al lector.

Comentario 3.5 (Unicidad de la representación matricial de operadores nilpotentes). La


conclusión de la proposición que acabamos de demostrar es contundente bajo el supuesto de la existencia
de bases en T -cadena para un operador lineal T nilpotente en un espacio vectorial de dimensión finita:

En cualquier base en T -cadena de U ordenada de manera decreciente en relación al tamaño


de las longitudes de las T -cadenas que la conforman, la representación matricial de T es la
misma matriz diagonal por bloques, los cuales son matrices nilpotentes básicas.

5
Ejemplo 3.17. Consideremos  en R el operador lineal que en la base canónica se representa por la
0 1 0 0 0
 0 0 0 0 0
 
matriz A = 0 0 0 1 1. Dado que A2 es la matriz nula, T es un nilpotente de orden 2. Note que
 
 
 0 0 0 0 0
0 0 0 0 0
dim(N (T )) = 3, por lo que dim(Im(T )) = 2. Con tales datos, si R5 admitiese bases en T -cadena (cosa
que es cierta, como veremos), entonces el número de T -cadenas en tales bases es de 3, mientras que el
número de T -cadenas con mayor longitud, 2, es 2.
Suponiendo que B = {u1 , u2 , u3 , u4 , u5 } es una base en T -cadena, ordenada desde las de mayor longitud
hacia las de menor longitud, entonces [u1 , u2 ], [u3 , u4 ] y [u5 ] es la manera como las T -cadenas constituyen
tales bases.
Mediante el análisis por filas de la matriz A, tenemos:
     

 x 
 
 x 


   
 
  

 y 
 
  y 
 

  5   5
N (T ) =  z  ∈ R : y = 0, u = −w y Im(T ) =  z  ∈ R : y = u = w = 0 ;
     


 u 




u 



 w 
 
 w 

  

 x 

 
 

 y 
 

  5
de donde N (T ) ∩ Im(T ) =  z  ∈ R : y = u = w = 0 . Por tanto una base de N (T ) ∩ Im(T ) es

   


 u 


 w 

            

 1 0 
 0 
 1 0 0  

       0  
     
0 0
    0 0  0 
 
           
0 , 1 . En adición, como el vector  0  ∈ N (T ) \ Im(T ), entonces 0 , 1 ,  0  es
            


 0 0 
  1  

0 0  1  


 
 
 

0 0 −1 0 0 −1
una base de N (T ). De esta forma, los vectores finales de las 3 T -cadenas, como la descrita arriba, son:
Operadores Lineales: Reducciones Matriciales 37

     
1 0 0
0 0  0 
     
     
u2 = 0 , u4 = 1 , y u5 =  0  . Resta encontrar vectores u1 y u3 tales que T (u1 ) = u2 y
     
0 0  1 
0 0 −1
T (u3 ) = u4 . Esto significa encontrar vectores que resuelvan las ecuaciones
       
x 1 x 0
 y  0  y  0
       
       
A  z  = 0 y A  z  = 1 .
       
 u  0  u  0
w 0 w 0
   
0 0
1 0
   
   
Una simple cuenta muestra que u1 = 0 y u3 = 0 resuelven las ecuaciones planteadas. Finalmente,
   
0 1
0 0
 
0 1 0 0 0
 1 0 0 0 0 
 
5  
dado que {u1 , u2 , u3 , u4 , u5 } es en efecto una base de R , la matriz P =  0 0 0 1 0  es tal
 
 0 0 1 0 1 
0 0 0 0 −1
 
0 0
 1 0 
 
 
que P −1 AP =  0 0  . Este ejemplo, aunque simple, contiene las principales ideas de la
 
 1 0 
0
demostración que daremos al principal, y siguiente, resultado de esta sección.

Teorema 3.9 (Existencia de bases en cadena). Todo operador lineal nilpotente T de orden k ≥ 1 en
un espacio vectorial U de dimensión finita n ≥ 1 sobre K admite bases en T -cadena. Aunque tales bases
no son únicas, el número y las longitudes de las T -cadenas que las conforman si lo son.

Demostración: Antes de proceder con la demostración, la cual haremos por inducción sobre el ı́ndice
de nilpotencia, recordamos que las T -cadenas son de dos tipos: las del tipo 1 son las de longitud mayor
que 1; es decir, de la forma [v, T (v), · · · , T ℓ−1 (v)], con ℓ ≥ 2; las del tipo 2 son las T -cadenas de longitud
1. En las del tipo 1, los vectores T (v), · · · , T ℓ−1 (v) pertenecen a Im(T ); y en ambas, el vector final está en
el núcleo de T .
Vamos ahora a la demostración. Sea T es un operador nilpotente de orden 1, T es el operador nulo; en
tal caso cualquier base de U está en T -cadena, de hecho es la concatenación de n T -cadenas de longitud
1; por tanto el resultado es válido para k = 1.
Examinemos, sólo por razones nemotécnicas, el caso k = 2. Supongamos que T 2 = O y T 6= O
(nilpotente de orden 2). Sean s = dim(N (T )) ≥ 1 y r = n − s = dim(Im(T )) ≥ 1. Consideremos
una base {w1 , · · · , wr } de Im(T ); dado que cada wj ∈ Im(T ), existe uj ∈ U tal que T (uj ) = wj para
todo j = 1, · · · , r. Observe además que T (wj ) = 0U para cada j = 1, · · · , r pues T 2 = O. Por tanto,
{w1 , · · · , wr } ⊂ N (T ). En particular esto indica que Im(T ) ⊂ N (T ). Sean ur+1 , · · · , us vectores en N (T )
tales que {w1 , · · · , wr , ur+1 , · · · , us } es base de N (T ).
38 Fascı́culos de Álgebra Lineal

Note que para cada j = 1, · · · , r, [uj , T (uj )] es una T -cadena de longitud 2; mientras que cada [ui ] es
una T -cadena de longitud 1 para i = r + 1, · · · , s. Mostraremos entonces que los vectores:

u1 , T (u1 ), u2 , T (u2 ), · · · , ur , T (ur ), ur+1 , · · · , us

son linealmente independientes, y por tanto constituyen una base en T -cadena de U . Supongamos que
para α1 , β1 , · · · , αr , βr , αr+1 , · · · , αs ∈ K se tiene

α1 u1 + β1 T (u1 ) + · · · + αr ur + βr T (ur ) + αr+1 ur+1 + · · · + αs us = 0U .

Aplicando T a ambos lados de esta identidad tenemos

α1 T (u1 ) + α2 T (u2 ) + · · · + αr T (ur ) = 0U = α1 w1 + α2 w2 + · · · + αr wr ;

pero como w1 , · · · , wr son linealmente independientes, entonces αj = 0 para cada j = 1, · · · , r. Luego

β1 T (u1 ) + · · · + βr T (ur ) + αr+1 ur+1 + · · · + αs us = 0U ;

ahora usamos que {w1 , · · · , wr , ur+1 , · · · , us } es base de N (T ) para concluir, como afirmamos, que
{u1 , T (u1 ), · · · , ur , T (ur ), ur+1 , · · · , us } es una base en T -cadena de U .
Continuando con el argumento recursivo, supongamos como hipótesis inductiva que si T es cualquier
operador lineal nilpotente de orden 1 ≤ j ≤ k − 1 en un espacio vectorial U de dimensión n ≥ j,
entonces U admite una base en T -cadena. Mostremos entonces que esto mimo vale para operadores
lineales nilpotentes de orden k en espacios vectoriales de dimensión n ≥ k..
Sea T un operador lineal en U tal que T k = 0 y T k−1 6= 0. Dado que el subespacio imagen Im(T )
es invariante por T , T (Im(T )) ⊂ Im(T ), entonces la restricción de T a Im(T ) es un operador lineal en
Im(T ). Es simple verificar que T : Im(T ) → Im(T ) es nilpotente de orden k − 1 (es un ejercicio para el
lector). Luego empleando la hipótesis inductiva, Im(T ) admite bases en T -cadenas; sean

[v1 , T (v1 ), · · · , T ℓ1 −1 (v1 )], · · · , [vm , T (vm ), · · · , T ℓm −1 (vm )] con 1 ≤ ℓ1 , · · · , ℓm ≤ k − 1,

T -cadenas en Im(T ) tales que B = {v1 , T (v1 ), · · · , T ℓ1 −1 (v1 ), · · · , vm , T (vm ), · · · , T ℓm −1 (vm )} es base
de Im(T ). Observe que los vectores finales de estas T -cadenas pertenecen a N (T ) y ℓ1 + · · · + ℓm =
dim(Im(T )).
Afirmamos que {T ℓ1 −1 (v1 ), · · · , T ℓm −1 (vm )} es una base de N (T ) ∩ Im(T ). Para ello basta verificar
que T ℓ1 −1 (v1 ), · · · , T ℓm −1 (vm ) generan a N (T ) ∩ Im(T ) pues ya son linealmente independientes. Sea
w ∈ N (T ) ∩ Im(T ); esto es, T (w) = 0U y w = T (v) para algún v ∈ U . Dado que B es base de Im(T ),
existen ciertos escalares α01 , · · · , αℓ11 −1 , · · · , α0m , · · · , αℓmm −1 tales que

w = α01 v1 + · · · + αℓ11 −1 T ℓ1 −1 (v1 ) + · · · + α0m vm + · · · + αℓmm −1 T ℓm −1 (vm ).

Al aplicar T en esta identidad se tiene:

0U = α01 T (v1 ) + · · · + αℓ11 −2 T ℓ1 −1 (v1 ) + · · · + α0m T (vm ) + · · · + αℓmm −2 T ℓm −1 (vm ),

nuevamente, como B es base, esta igualdad implica que todos los escalares α’s allı́ presentes son iguales
a 0; de donde w = αℓ11 −1 T ℓ1 −1 (v1 ) + · · · + αℓmm −1 T ℓm −1 (vm ); lo cual demuestra la afirmación.
Hagamos s = dim(N (T )), es claro que s = n − (ℓ1 + · · · + ℓm ). Ahora completamos la base de N (T ) ∩
Im(T ) hasta obtener una base de N (T ); sean um+1 , · · · , us tales vectores. Observe que [um+1 ], · · · , [us ]
son T -cadenas del tipo 2; las cuales, aunque no son únicas, su número está determinado por T , que es
Operadores Lineales: Reducciones Matriciales 39

dim(N (T )) − dim(N (T ) ∩ Im(T )) = s − m. Por otro lado, no es difı́cil verificar que B ∪ {um+1 , · · · , us }
es base de N (T ) + Im(T ). Recordemos que

dim(N (T ) + Im(T )) = dim(N (T )) + dim(Im(T )) − dim(N (T ) ∩ Im(T )) = n − m;

por tanto requerimos de m vectores en U de manera que al ser anexados a B ∪ {um+1 , · · · , us } se tenga
una base de U . Veamos ahora como obtener estos m vectores. Sabemos que v1 , · · · , vm pertenecen a
Im(T ), luego existen u1 , · · · , um ∈ U tales que T (ui ) = vi para todo i = 1, · · · , m. Si mostramos que el
subespacio W generado por u1 , · · · , um , es tal que W ∩ (N (T ) + Im(T )) = {0U }, entonces el conjunto
{u1 , · · · , um } ∪ B ∪ {um+1 , · · · , us } es base de U ; pues tendrı́amos U = W ⊕ (N (T ) + Im(T )). Probemos
por tanto que W ∩ (N (T ) + Im(T )) = {0U }. Sea w ∈ W ∩ (N (T ) + Im(T )); luego T (w) = 0U ya que
W ⊂ N (T ), y existen vectores u0 ∈ N (T ) y v0 ∈ Im(T ) tales que w = u0 + v0 . Como {u1 , · · · , um } es
base de W , escribimos w = α1 u1 + · · · + αm um para ciertos escalares αi con i = 1, · · · , m; por otra parte,
T (u0 ) = 0U y para escalares α01 , · · · , αℓ11 −1 , · · · , α0m , · · · , αℓmm −1 tenemos

v0 = α01 v1 + · · · + αℓ11 −1 T ℓ1 −1 (v1 ) + · · · + α0m vm + · · · + αℓmm −1 T ℓm −1 (vm )

para ciertos escalares α’s, pues B es base de Im(T ). Al aplicar T a w sigue:

α1 v1 + · · · + αm vm = α01 T (v1 ) + · · · + αℓ11 −2 T ℓ1 −1 (v1 ) + · · · + α0m T (vm ) + · · · + αℓmm −2 T ℓm −1 (vm );

pero como B es base, esta igualdad implica que todos los escalares en ella son nulos, en particular sigue
que w = 0U . Lo cual demuestra que {u1 , · · · , um } ∪ B ∪ {um+1 , · · · , us } es base de U .
Por construcción observe que

[u1 , v1 , T (v1 ), · · · , T ℓ1 −1 (v1 )], · · · , [um , vm , T (vm ), · · · , T ℓm −1 (vm )], · · · , [um+1 ], · · · , [us ]

son T -cadenas; de esta forma

{u1 , v1 , T (v1 ), · · · , T ℓ1 −1 (v1 ), · · · , um , vm , T (vm ), · · · , T ℓm −1 (vm ), · · · , um+1 , · · · , us }

es una base en T -cadena para U ; la demostración está completa.

Teorema 3.10 (Versión matricial del Teorema 3.9). Dada cualquier matriz A ∈ Mn×n (K) nilpotente
de orden k ≥ 1, existen matrices invertibles P ∈ Mn×n (K), cuyas columnas forman una base en A-cadena
de Kn , tales que P −1 AP es una matriz diagonal por bloques, cuyos bloques en su diagonal son matrices
nilpotentes básicas.

Demostración: La demostración sigue del hecho, ya conocido, que el operador TA : Kn → Kn , dado


por TA (X) = AX para cada X ∈ Kn , también es nilpotente de orden k ≥ 1.

Definición 3.12 (Forma Canónica Nilpotente). Sean U un espacio vectorial de dimensión finita
n ≥ 1 sobre K y T un operador lineal nilpotente en U . Se conoce como forma canónica nilpotente de T
a la representación matricial de T en cualquier base en T -cadena de U ordenada de manera decreciente
en relación a la longitud de las T -cadenas que la conforman.
Dada A ∈ Mn×n (K) nilpotente, la forma canónica nilpotente de A es la forma canónica nilpotente del
operador lineal TA : Kn → Kn definido por TA (X) = AX para cada X ∈ Kn .

Comentario 3.6. Para cerrar esta sección nos luce interesante hacer algunos comentarios finales; muchos
de ellos triviales, pero que resaltan y repasan las nociones acá estudiadas.
40 Fascı́culos de Álgebra Lineal

• En virtud de la proposición 3.4 y el teorema 3.9, no cabe lugar a dudas de que hemos enunciado arriba
es en efecto una definición: todas las matrices ası́ construidas son iguales.

• Dado T , un operador lineal nilpotente en U con dim(U ) = n ≥ 1, o A ∈ Mn×n (K) nilpotente, sus
polinomios caracterı́sticos son iguales a p(x) = (−1)n xn . En particular, operadores lineales o matrices
nilpotentes tiene al 0 como único valor propio, cuya multiplicidad algebraica es igual a la dimensión n del
espacio. Por tanto, los únicos operadores lineales y matrices nilpotentes diagonalizables son el operador
nulo y la matriz nula.

• Como habrá sido observado, la conformación de las bases en cadenas, dependen de las dimensiones de
las sucesiones ascendentes y descendentes de las potencias de la matriz o del operador nilpotente T .

1. Por ejemplo, consideremos una matriz A ∈ M2×2 (K) nilpotente; por el lema 3.7 A es nilpotente de
orden 1 u orden 2, no puede ser de orden mayor pues en tal caso se tendrı́a un cadena de longitud
mayor que 2, lo cual no puede ser pues ese conjunto de vectores serı́a linealmente independiente en
el espacio K2 donde actúa A. Si el orden de nilpotencia es 1, entonces existe una base {v1 , v2 } de K2
en cadena (cada parte de longitud 1) de manera que Av1 = 0K2 y Av2 = 0K2 ; luego la forma canóni-
 
0 0
ca nilpotente de A, es . Si el orden de nilpotencia de A es 2, existe una cadena de longitud
0 0
2, digamos [v1 , Av1 ]; sigue entonces que {v1 , Av1 } es base de K2 en cadena, y la forma canónica
 
0 0
nilpotente de A es la matriz . Este análisis permite hacer una clasificación, en términos de
1 0
semejanza de matrices a, de las matrices nilpotentes de orden 2 × 2; esta es:    
0 0 0 0
toda matriz nilpotente de orden 2 × 2 es semejante a una de las siguientes matrices: ó .
0 0 1 0

2. De forma análoga, se puede verificar muy fácilmente que toda matriz de orden 3 × 3 nilpotente es
     
0 0 0 0 0 0 0 0 0
semejante a alguna de las matrices: 0 0 0, 1 0 0, ó 1 0 0.
0 0 0 0 0 0 0 1 0

3. Analizemos el caso en dim(U ) = 4 y T es un operador nilpotente en U .

a) Es obvio que si el orden de nilpotencia es 1, T es el operador nulo.


b) Supongamos que el orden de nilpotencia de T es k = 2; de donde dim(N (T 2 )) = 4, por lo que
dim(N (T )) podrı́a ser 1, 2, ó 3.
• Al considerar el caso dim(N (T )) = 1, tendrı́amos que las bases en T -cadena tienen uńica
T -cadena; la cual tendrı́a longitud 4, que es mayor al orden de nilpotencia. Esto implica que
cuando dim(U ) = 4 y el orden de nilpotencia es 2, dim(N (T )) > 1.
• Cuando dim(N (T )) = 2, las bases en T -cadenas tienen 2 cadenas. Como dim(Im(T )) =
4 − 2 = 2, existen dos T -cadenas de longitud máxima, que es 2. Por tanto, en este caso, la
 
0 0
1 0 
forma canónica nilpotente de T es la matriz  .
 0 0
1 0
• Si dim(N (T )) = 3, las bases en T -cadenas tienen 3 cadenas. Como dim(Im(T )) = 4 − 3 = 1,
entonces hay una sóla T -cadena de longitud máxima, que es 2. Por tanto, en este caso, la forma
Operadores Lineales: Reducciones Matriciales 41

 
0 0
1 0 
canónica nilpotente de T es la matriz  .
 0 
0
c) Consideremos ahora que k = 3; es decir, N (T 3 ) = U y 1 ≤ dim(N (T 2 )) < 4. Dado que el
indice de nilpotencia es 3, las T -cadenas de mayor longitud tienen 3 vectores; en vista de que
dim(U ) = 4; cada base en T -cadena de U tiene examente una T -cadena de longitud 3 y otra
de longitud 1. En otras palabras, las bases en T -cadenas son concatenaciones de T -cadenas
de la forma: [v1 , T (v1 ), T 2 (v1 )] y [v2 ]; por tanto la única posibilidad es que dim(N (T )) = 2 y
 
0 0 0
1 0 0 
dim(Im(T 2 )) = dim(N (T 2 )) = 2. En este caso la forma canónica nilpotente es  0 1 0 .

0
d ) Finalmente, supongamos que k = 4. Luego las T -cadenas de mayor longitud tienen 4 vectores
(que es la dimensión de U ); por tanto, la única posibilidad para una base en T -cadena es la
formada por una sóla T -cadena: [v, T (v), T 2 (v), T 3 (v)]. Observe que las relaciones posibles en
las dimensiones de los núcleos e imágenes es: dim(N (T )) = 1 = dim(Im(T 3 )). En tal caso, la
 
0 0 0 0
1 0 0 0
la forma canónica nilpotente es 
0 1 0 0.

0 0 1 0

3.4.2. Ejercicios Propuestos de la Sección 3.4


1. Decidir
 cuáles de las siguientes
 matrices
 son nilpotentes:
   
3 2 1 −1 −2 4 1 1
a) b) c) d) ,a∈R
−2 3 2 −2 1 −2 a 1
 
      0 1 1 0
0 1 1 1 4 0 −1 1 −1  0 0 1 1 
e)  0 2 2  f )  2 2 0  g)  1 0 1  h)  
 0 0 0 0 
0 3 3 1 −2 0 1 −1 1
0 0 0 0

2. Decidir sobre la veracidad o falsedad de cada una de las siguientes proposiciones.

a) La suma de matrices nilpotentes es también es nilpotente.


b) Si T : U → U es un operador lineal nilpotente, entonces T es no inyectivo.
c) Si T : U → U es un operador lineal no inyectivo, entonces T es nilpotente.
d ) Matrices nilpotentes semejantes tienen el mismo orden de nilpotencia.

3. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T es un operador nilpotente de


orden k ≥ 1 en U . Demostrar que si λ ∈ K es un valor propio de T , entonces λ = 0.

4. Sean U un espacio vectorial de dimensión finita n ≥ 2 sobre K y T es un operador nilpotente de


orden k ≥ 2 en U . Demostrar que T : Im(T ) → Im(T ) es nilpotente de orden k − 1.

5. Mostrar un ejemplo de un operador lineal T en R3 no nilpotente con 0 como su único valor propio.
(Recordar que los valores propios deben estar en R)
42 Fascı́culos de Álgebra Lineal

6. A continuación se presentan varias alternativas de bases en T -cadenas para el espacio vectorial U .


Determine el orden de nilpotencia de T , las dimensiones de los núcleos e imágenes de las potencias
de T y la forma canónica nilpotente correspondiente.

a) B = {u1 , u2 , u3 , u4 }; con [u1 , u2 ] y [u3 , u4 ] como T -cadenas.


b) B = {u1 , u2 , u3 , u4 , u5 }; con [u1 , u2 , u3 ] y [u4 , u5 ] como T -cadenas.
c) B = {u1 , u2 , u3 , u4 , u5 }; con [u1 , u2 , u3 ], [u4 ] y [u5 ] como T -cadenas.
d ) B = {v, T (v), · · · , T n−1 (v)} es base en T -cadena de T .

7. Determine la forma canónica nilpotente, de ser posible, del operador lineal T sobre U con los datos
que se suministran:

a) dim(U ) = 6, el orden de nilpotencia de T es 2 y dim(N (T )) = 4.


b) dim(U ) = 6, el orden de nilpotencia de T es 2 y dim(N (T )) = 3.
c) dim(U ) = 8, el orden de nilpotencia de T es 4, dim(N (T )) = 3, dim(N (T 2 )) = 6, mientras
que dim(N (T 3 )) = 7. ¿Puede suprimirse este último dato para construir la forma canónica
nilpotente de T ?

8. Hacer la clasificación en términos de similitud a matrices nilpotentes de todas las matrices, nilpo-
tentes, de ordenes 5 × 5 y 6 × 6.

9. Sea T un operador lineal nilpotente en U cuyo orden de nilpotencia es k > 1, y cuya forma canónica
 
N1 O · · · O
 O N2 · · · O 
 
nilpotente es la matriz diagonal por bloques N =  . .. .. .. . ¿Cuál es la nulidad de T ?
 .. . . . 
O O · · · Ns
Si dim(N (T 2 )) = 1 + dim(N (T )), demuestre que las bases de U que dan origen a esta forma
canónica tienen una única cadena de longitud p, y el resto son de longitud 1. ¿Qué puede decirse si
dim(N (T 2 )) = 2 + dim(N (T ))?

10. Determine el orden de nilpotencia del operador T en R3 dado por T (x, y, z) = (0, x, y), y calcule su
forma canónica nilpotente.

11. En P4 (R) considere el operador lineal T dado por

T (a0 + a1 x + a2 x2 + a3 x3 + a4 x4 ) = (a1 + a2 + a4 ) + (a2 + a3 + a4 )x.

Demuestre que T es nilpotente y determine su forma canónica nilpotente.

12. Cada una de las siguientes matrices es nilpotente.


 Encontrar su forma canónica
 nilpotente.
0 0 0 0 0
   1 0
  0 0 0  0 0 0 

1 −1  
a) b)  0 2 −2  c)  −1 1 1 −1 1 
1 −1  
0 2 −2  0 1 0 0 0 
1 0 −1 1 −1
13. Demostrar que toda matriz nilpotente no nula es semejante a una matriz diagonal por bloques,
en el que cada bloque es una matriz que tiene ceros en todas las entradas, excepto en la diagonal
inmediata superior, que contiene sólo unos; o es un bloque nulo de orden 1 × 1.
Operadores Lineales: Reducciones Matriciales 43

14. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K, y T un operador lineal en U . Se


dice que T es cı́clico si existe u ∈ U tal que B = {u, T (u), · · · , T n−1 (u)} es una base de U .
 
0 0 · · · 0 a1
1 0 · · · 0 a2 
 
a) Demostrar que si T es cı́clico, existe una base B de U tal que [T ]B =  . . . .. 
 .. .. · · · .. .
0 0 · · · 1 an
para ciertos escalares a1 , · · · , an ∈ K. ¿Es todo operador cı́clico un operador nilpotente?
b) Si T es nilpotente con orden de nilpotencia n, demostrar que T es cı́clico.
c) ¿Es cierto que si T es nilpotente y cı́clico, entonces el orden de nilpotencia de T es n?
d ) Si T es nilpotente, demostrar que existen subespacios vectoriales W1 , · · · , Wk de U , todos
invariantes por T , tales que U = W1 ⊕ · · · ⊕ Wk y la restricción de T a cada uno de ellos es un
operador cı́clico y nilpotente.

3.5. Forma canónica de Jordan


Continuando con la búsqueda de representaciones matriciales “simples” para operadores lineales en
espacios de dimensión finita, y por ende, de matrices cuadradas, expondremos un resultado que es con-
siderado uno de los más relevantes del Álgebra Lineal básica; esto debido a su impacto teórico tanto
para otras áreas de la Matemática como para otras ciencias. Se trata de un resultado que garantiza la
existencia de una representación matricial especial (o matriz semejante especial) para cualquier operador
lineal en espacios de dimensión finita cuyo polinomio caracterı́stico tenga todas sus raı́ces en el cuerpo
sobre el cual está definida la multiplicación por escalares del espacio vectorial. Tales matrices especiales
son conocidas como formas canónicas de Jordan 1 .
Definición 3.13 (Bloque de Jordan). Una matriz cuadrada en Ms×s (K), para algún entero s, se dice
que es un bloque de Jordan si es de la forma Jλ = N + λIs , donde N es una forma canónica nilpotente,
Is es la matriz identidad de orden s y λ es un escalar en K.
Observe que si Jλ = N + λIs es un bloque de Jordan, dado que N es una forma canónica nilpotente,
entonces Jλ es una matriz diagonal por bloques. Cada uno de los bloques, en la diagonal principal, es la
suma de una matriz nilpotente básica y una matriz de la forma λIr , para algún entero 1 ≤ r ≤ s. En
particular, esto implica que el polinomio caracterı́stico es p(x) = (λ − x)s ; por tanto λ es el único valor
propio de Jλ , el cual tiene multiplicidad algebraica igual a s.
Gracias a la información que se tiene sobre la forma de las formas canónicas nilpotentes, es claro,
por ejemplo, que los bloques de Jordan de orden 2 × 2 y 3 × 3 con valor propio λ son, respectivamente:
     
    λ 0 0 λ 0 0 λ 0 0
λ 0 λ 0 
, , 0 λ 0 ,  1 λ 0  y  1 λ 0 .
0 λ 1 λ
0 0 λ 0 0 λ 0 1 λ
Definición 3.14 (Matriz de Jordan). Una matriz A ∈ Mn×n (K) se dice matriz de Jordan si es una
 
Jλ1

matriz diagonal por bloques de la forma  .. 
, donde Jλi (i = 1, · · · , k) es un bloque de
.
Jλk
Jordan, y λi 6= λj siempre que i 6= j.
1 Lostérminos de forma canónica de Jordan y bloque de Jordan son empleados en honor de Camille Jordan (1838–1922),
quien en 1870 publicó el libro “Traité des substitutions des équations algébriques”, donde aparece, en esencia, el teorema
3.11. Este libro es considerado por algunos historiadores del Álgebra como una obra maestra de la arquitectura matemática.
44 Fascı́culos de Álgebra Lineal

 
Jλ1

Comentario 3.7. Sea A =  .. 
 una matriz de Jordan. Si el orden de cada bloque de Jordan
.
Jλk
Jλi (i = 1, · · · , k) es mi × mi , entonces el polinomio caracterı́stico de A es

p(x) = (−1)n (x − λ1 )m1 · · · (x − λℓ )mk .

Por tanto, los valores propios distintos de A son justamente: λ1 , · · · , λk ; además, sus multiplicidades
algebraicas coinciden conel orden de sus correspondientes
  bloquesde Jordan.
1 0 0 1 0 0
 1 1 0   1 1 0 
   
   
Claramente las matrices  0 0 1 y 0 0 1  son ejemplos de matrices de Jordan
   
 2 0   2 0 
0 2 1 2
de orden 5 × 5 con valores propios λ1 = 1 y λ1 = 2. Además, toda forma canónica nilpotente es una
matriz de Jordan, en la que sus valores propios son iguales a 0. Observe también que cualquier matriz
diagonal puede escribirse (mediante la relación de semejanza) como una matriz de Jordan; de hecho, en
este caso las matrices nilpotentes a las que se refieren las definiciones anteriores son nulas.

El principal objetivo teórico en esta parte de las notas es demostrar el siguiente teorema:

Teorema 3.11 (Forma Canónica de Jordan). Sean U un espacio vectorial de dimensión finita
n ≥ 1 sobre K, y T un operador lineal en U . Si el polinomio caracterı́stico de T puede factoriazarse
como pT (x) = (−1)n (x − λ1 )m1 · · · (x − λℓ )mℓ , con m1 + · · · + mℓ = n; o equivalentemente, si T tiene
n valores propios (contadas sus multiplicidades algebraicas), entonces existe una base B de U tal que
 
Jλ1

[T ]B =  .. 
, donde cada Jλi es un bloque de Jordan.
.
Jλk

Teorema 3.12 (Versión matricial de la Forma Canónica de Jordan). Sea A ∈ Mn×n (K). Si
pA (x) = (−1)n (x − λ1 )m1 · · · (x − λℓ )mℓ , con m1 + · · · + mℓ = n; es decir, si A tiene n valores propios
(contadas sus multiplicidades algebraicas), entonces existe una matriz P ∈ Mn×n (K) invertible tal que
 
Jλ1

P −1 AP =  .. 
, donde cada Jλi es un bloque de Jordan.
.
Jλk

Demostración: Claramente la demostración de este teorema es consecuencia del anterior. Esto sigue,
como siempre, del hecho que el operador lineal TA : Kn → Kn dado por TA (X) = AX para cada vector
(unicolumna) X ∈ Kn , tiene a la matriz A como su representación matricial en la base canónica de
Kn .

Debido al Teorema Fundamental del Álgebra, ver teorema 3.3 en la página 11, tenemos inmediatamente
de los anteriores enunciados el siguiente corolario

Corolario 3.3. Todo operador lineal T en un espacio finito dimensional sobre C y toda matriz A en
Mn×n (C) admiten matrices de Jordan.

Esto hace realmente amplio el conjunto de operadores lineales (y matrices cuadradas) que pueden
representarse de manera matricial a través de una matriz de Jordan. Sin embargo, puede ocurrir que el
Operadores Lineales: Reducciones Matriciales 45

polinomio caracterı́stico de una matriz con coeficientes en R, o un operador lineal en un espacio vectorial
sobre R, sea de la forma (λ1 −x)m1 · · · (λℓ −x)mℓ q(x), donde λ1 , · · · , λℓ ∈ R y el polinomio q(x), con grado
mayor que 1, no tenga raı́ces en R, entonces estas matrices u operadores lineales no pueden expresarse
matricialmente mediante una matriz de Jordan como la que hemos expuesto. Para este tipo de matrices
y operadores existe una manera semejante de obtener formas matriciales simples, conocidas como formas
canónicas de Jordan reales, las cuales serán estudiadas más adelante.
Como ya se ha enunciado, el objetivo fundamental acá es obtener representaciones matriciales (o
matrices semejantes) en diagonal por bloques, cuyos bloques involucran formas canónicas nilpotentes;
por tal motivo analizaremos en primer lugar las matrices de Jordan correspondientes a un tipo especial
de operadores lineales y matrices cuadradas: aquellos que tienen un único valor propio con multiplicidad
algebraica igual a la dimensión del espacio vectorial donde está definido el operador lineal; tal es el caso
de operadores lineales y matrices nilpotentes, el cual fue comentado anteriormente y cuyas matrices de
Jordan son justamente las formas canónicas nilpotentes. No obstante, para realizar el análisis de la forma
que tienen las matrices de Jordan de cualquier operador lineal T en U , dim(U ) = n ≥ 1, con n valores
propios todos iguales a λ ∈ K, requerimos de otro relevante resultado del Álgebra Lineal: el teorema de
Cayley-Hamilton, que pasamos a estudiar a continuación.

3.5.1. Teorema de Cayley-Hamilton


El Teorema de Cayley-Hamilton, en honor a los matemáticos ingleses William Hamilton (1805-1865)
y Arthur Cayley (1821-1895), trata fundamentalmente sobre la anulación de matrices cuadradas, y de
operadores lineales en espacios de dimensión finita mediante su polinomio caracterı́stico. William Hamil-
ton demostró un teorema para operadores lineales que es un caso especial del hoy conocido Teorema de
Cayley-Hamilton. Mucho podrı́a decirse, y estudiarse, sobre la teorı́a de polinomios anuladores de ope-
radores lineales y matrices cuadradas; sin embargo en estas notas sólo nos ocuparemos de una pequeña
parte de esta teorı́a: el Teorema de Cayley-Hamilton y su particular consecuencia que emplearemos en la
demostración que daremos del teorema de la forma canónica de Jordan.
Comenzemos considerando p(x) = a0 + a1 x + · · · + am xm un polinomio con coeficientes en K. Sean U
un espacio vectorial de dimensión finita n ≥ 1 sobre K y T cualquier operador lineal en U . Claramente
la expresión
p(T ) = a0 I + a1 T + · · · + am T m , (I operador identidad en U ),
denota al operador lineal p(T ) : U → U definido por

p(T )(u) = a0 u + a1 T (u) + · · · + am T m (u), para cada u ∈ U.

De la misma forma, para cualquier A ∈ Mn×n (K), la matriz p(A) es definida por:

p(A) = a0 Ik + a1 A + · · · + am Am , (Ik matriz identidad ).


 
2 1 0
Por ejemplo, para p(x) = 2+x−x y A = , el polinomio p(x) evaluado en A es p(A) = 2I2 +A−A2
1 0
 
2 0
que en este caso es la matriz p(A) = .
1 2
El enunciado del teorema de Cayley-Hamilton es el siguiente:

Teorema 3.13 (Cayley-Hamilton). Dada cualquier matriz A ∈ Mn×n (K), si pA (x) es su polinomio
caracterı́stico, entonces pA (A) es la matriz nula.
46 Fascı́culos de Álgebra Lineal

A continuación una consideración previa a la demostración del teorema de Cayley-Hamilton. Supon-


gamos que D(x) es una matriz de orden n × n cuyas entradas son polinomios en x, entonces D(x) puede
expresarse
 como un polinomio en x cuyos
 coeficientes son matrices de orden n × n. Por ejemplo, la matriz
−2 + x2 − 3x3 2x + x2
D(x) = podemos escribirla como
1 + 4x 3
       
−2 0 0 2 1 1 2 −3 0
D(x) = + x+ x + x3 .
1 3 4 0 0 0 0 0

Bajo esta nomenclatura es clara la validez de la siguiente proposición: si D(x) = A0 + A1 x + · · · Am xm y


E(x) = B0 + B1 x + · · · Bk xk son matrices con coeficientes polinomiales, donde las matriz A’s y B’s son
del mismo orden, con Am 6= 0 y Bk 6= 0, entonces D(x) = E(x) si, y sólo si, m = k (ambas tienen el
mismo grado) y Aj = Bj para todo j = 1, · · · , m.

Demostración del Teorema de Cayley-Hamilton: Sea D(x) = A − xIn la matriz cuyo determinate
es el polinomio caracterı́stico de A, digamos que pA (x) = a0 + a1 x + · · · + an xn . Sea adj(D(x)) la adjunta
clásica de la matriz D(x). Dado que para cada B ∈ Mn×n (K) se cumple adj(B)B = det(B)In , entonces
pA (x)In = adj(D(x))D(x); de donde

pA (x)In = adj(D(x))A − adj(D(x))x. (3.10)

Por definición de matriz adjunta clásica, para cada 1 ≤ i, j ≤ n, la entrada ij de D(x) es igual a
(−1)i+j det(Dij (x)), donde Dij (x) es la matriz que se obtiene de D(x) al eliminar su fila i y su columna
j. De esta forma, cada una de las entradas de adj(D(x)) son polinomios en x, cuyos grados son a los
sumo n − 1. Empleando el comentario anterior, escribimos adj(D(x)) como

adj(D(x)) = D0 + D1 x + · · · + Dn−1 xn−1 ,

donde D0 , · · · , Dn−1 ∈ Mn×n (K). Sigue entonces de (3.10) que

a0 In + a1 In x + · · · + an In xn = D0 A + D1 Ax + · · · + Dn−1 Axn−1 − D0 x − D1 x2 − · · · − Dn−1 xn


= D0 A + (D1 A − D0 )x + · · · + (Dn−1 A − Dn−2 )xn−1 − Dn−1 xn .


 an In = −Dn−1




 a n−1 In = Dn−1 A − Dn−2
Al igualar coeficientes de ambos polinomios tenemos .. . A cada una de las
 .



 a1 In = D1 A − D0

 a I
0 n = D0 A.
n n−1
igualdades indicadas las multiplicamos a la derecha como sigue: la primera por A , la segunda por A ,y
n n

 an A = −Dn−1 A
 n−1

 an−1 A

 = Dn−1 An − Dn−2 An−1
ası́ sucesivamente hasta la penúltima por A; de esto resulta: .. .
 .
 2


 a1 A = D1 A − D0 A

 a I
0 n = D A. 0
Al realizar la suma a cada lado, se obtiene del lado derecho la matriz nula, mientras que la suma del lado
izquierdo es justamente el polinomio caracterı́stico de A. Ası́, la demostración está completa.

Teorema 3.14 (Cayley-Hamilton para operadores lineales). Sean U un espacio vectorial de di-
mensión finita n ≥ 1 sobre K y T un operador lineal en U . Si pT (x) es el polinomio caracterı́stico de T ,
entonces pT (T ) es el operador nulo.
Operadores Lineales: Reducciones Matriciales 47

Demostración: Note que para cualquier polinomio p(x) con coeficientes en K, y para cualquier repre-
sentación matricial A = [T ]B se tiene la relación [p(T )]B = p(A). En efecto, dado que para cualquier
k ≥ 0 (entero) y α ∈ K siempre se satisface:

[T k ]B = ([T ]B )k y [αT ]B = α[T ]B ;

se tiene que si p(x) = a0 + a1 x + · · · + am xm , entonces

[p(T )]B = a0 In + a1 [T ]B + · · · + am ([T ]B )m = p([T ]B ).

Por tanto, p(A) es la matriz nula si, y sólo si, p(T ) es el operador lineal nulo.

Corolario 3.4. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador lineal
en U . Si T , y A ∈ Mn×n (K), tiene n valores propios todos iguales a 0, entonces T , y A, es nilpotente de
orden k ≤ n.
Demostración: Claramente si un operador lineal T en un espacio de dimensión finita n ≥ 1, y una
matriz A ∈ Mn×n (K), tiene n valores propios iguales a 0, entonces pT (x) = pA (x) = (−1)n xn . Luego, del
teorema anterior sigue que pT (T ) = (−1)n T n es el operador lineal nulo en U y pA (A) = (−1)n An es la
matriz nula.

Corolario 3.5. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K, T un operador lineal en
U , y A cualquier matriz de Si Mn×n (K). Tanto T como A son nilpotentes si, y sólo si, p(x) = (−1)n xn
es su polinomio caracterı́stico.
Demostración: Sigue inmediatamente del comentario 3.6, ver página 39, y del corolario anterior.

Otra consecuencia del Teorema de Cayley-Hamilton, que mostramos a continuación, es útil para
obtener las matrices de Jordan correspondientes a operadores lineales en espacios de dimensión finita
n ≥ 1 sobre K, y de matrices en Mn×n (K), que posean exactamente n valores propios iguales; tal como
ocurre con los operadores y matrices nilpotentes.
Proposición 3.5. Sea U es un espacio vectorial de dimensión finita n ≥ 1 sobre K. Si T es un operador
lineal en U con n valores propios iguales a λ ∈ K, entonces T se representa matricialmente mediante una
la matriz N + λIn , donde N es la forma canónica nilpotente del operador lineal nilpotente T − λI.
Demostración: Observe que si el operador T tiene n valores propios iguales a λ ∈ K, entonces su
polinomio caracterı́stico es pT (x) = (−1)n (x − λ)n . Por tanto, (T − λI)n es el operador nulo; con lo cual
T − λI es nilpotente de un orden 1 ≤ k ≤ n y existe una base B de U tal que [T − λI]B = N , donde
N es la forma canónica nilpotente de T − λI. Ahora bien, como [T − λI]B = [T ]B − λ[I]B = [T ]B − λIn ,
entonces [T ]B = N + λIn ; que es una matriz de Jordan.

Es obvio que la proposición que acabamos de mostrar tiene su versión matricial, cuya demostración,
como siempre, está asociada al operador lineal TA : Kn → Kn dado por TA (X) = AX.
Proposición 3.6. Si A ∈ Mn×n (K) tiene n valores propios iguales a λ ∈ K, entonces A es semejante a
N + λIn , donde N es la forma canónica nilpotente semejante a A − λIn .
Vale resaltar que si N y A − λIn son semejantes, entonces N + λIn y A también lo son, incluso con
la misma matriz de cambio de base. En efecto, esto sigue de:

N = P −1 (A − λIn )P = P −1 AP − P −1 (λIn )P = P −1 AP − λIn ,

de donde N + λIn = P −1 AP .
48 Fascı́culos de Álgebra Lineal

 
2 0 0 1
 0 2 0 0
Ejemplo 3.18. Consideremos la matriz A =  1 0 2 0. Una simple cuenta muestra que su polinomio

0 1 0 2
4
caracterı́stico es pA (x) = (2−x) , por lo que A tiene a λ = 2 como su único valor propio, con multiplicidad
algebraica igual a 4; además del teorema de Cayley-Hamilton sigue que (A − 2I4 )4 = O. Por otro lado,
como
     
0 0 0 1 0 1 0 0 0 0 0 0
 0 0 0 0 2
0 0 0 0 3
0 0 0 0
A − 2I4 =  1 0 0 0 , (A − 2I4 ) = 0 0 0 1 , (A − 2I4 ) = 0 1 0 0 ,
    

0 1 0 0 0 0 0 0 0 0 0 0

entonces el orden de nilpotencia de A − 2I4 es 4. Por tanto existe una (A − 2I4 )-cadena de longitud 4,
la cual inevitablemente constituye una base de R4 . Si B = {X1 , AX1 , A2 X1 , A3 X1 } es una tal (A − 2I4 )-
cadena de longitud 4, entonces la matriz P , cuyas columnas son los vectores X1 , AX1 , A2 X1 y A3 X1
 
0 0 0 0
 1 0 0 0
satisface P −1 (A − 2I4 )P = N = 
0 1 0 0, que es la forma canónica nilpotente de (A − 2I4 ). Luego

0 0 1 0
 
2 0 0 0
 1 2 0 0
P −1 AP = N + 2I4 = 
0
 es una matriz de Jordan semejante a A.
1 2 0
0 0 1 2

Con el comentario que se ha expuesto se traza, de manera muy elemental, el camino para ofrecer una
demostración del teorema 3.11; de hecho, excepto por la consecuencia anunciada del Teorema de Cayley-
Hamilton, la forma canónica de Jordan se puede obtener si el espacio vectorial es descompuesto en suma
directa de un determinado número de subespacios invariantes por el operador, en los que la restricción de
éste satisface las hipótesis de la proposión 3.5; el número de subespacios a los que nos referimos depende
del número de valores propios distintos que tenga el operador lineal. Es por ello que a continuación nos
dedicaremos, en primer lugar, a conocer el Teorema de Cayley-Hamilton y su citada consecuencia, para
seguidamente dedicarnos a la búsqueda de una descomposición del espacio vectorial como la descrita.

3.5.2. Forma Canónica de Jordan: la construcción teórica


Ahora nos dedicaremos a concluir con el programa de cómo obtener matrices de Jordan para matrices
de orden n × n y operadores lineales definidos en espacios vectoriales de dimensión finita n ≥ 1 que
posean n valores propios, contando sus multiplicidades algebraicas. La vı́a para obtener tales matrices
de Jordan consiste en emplear lo que conocemos para aquellas matrices de orden n × n y operadores
lineales definidos en espacios vectoriales de dimensión finita n ≥ 1 que tienen un solo valor propio
cuya multiplicidad algebraica es n; pero para ello debemos “descomponer” el espacio vectorial en partes
(subespacios) que sean invariantes por el operador lineal, y donde sus restricciones a estas partes se tenga
únicamente un valor propio cuya multiplicidad algebraica coincida con la dimensión de este subespacio.
Esto en realidad es posible, y es justamente lo que demostraremos; pero para ello necesitaremos algunos
resultados previos que permitirán concluir lo que deseamos. En lo que sigue, U es un espacio vectorial de
dimensión finita n ≥ 1 sobre el cuerpo K y T es un operador lineal en U .
Operadores Lineales: Reducciones Matriciales 49

Lema 3.8. Sea W un subespacio vectorial de U . W es invariante por T si, y sólo si, W es invariante por
T − λI para todo λ ∈ K. En particular, si λ es un valor propio de T , entonces los subespacios N∞ (T − λI)
e Im∞ (T − λI) son invariantes por T − µI para cualquier otro valor propio µ de T .

Demostración: Supongamos inicialmente que W es invariante por T ; es decir, T (W ) ⊂ W . Cualesquiera


sean λ en K y w ∈ W , siempre se satisface

(T − λI)(w) = T (w) − λI(w) = T (w) − λw;

dado que W es un subespacio invariante por T , entonces tanto T (w) como λw pertenecen a W ; sigue
ası́ que (T − λI)(w) ∈ W , y por tanto W es invariante por T − λI. Recı́procamente, si W es invariante
por T − λI para cualquier λ ∈ K, en particular lo es para λ = 0. Esto demuestra la primera parte del
lema. La segunda parte es una consecuencia inmediata de la primera y del teorema 3.8, ver página 28;
pues los subespacios N∞ (T − λI) e Im∞ (T − λI) son invariantes por T − λ para cualquier valor propio
λ de T .

Lema 3.9. Si λ ∈ K es un valor propio de T , entonces el operador T − λI : N∞ (T − λI) → N∞ (T − λI)


es nilpotente, y el orden de nilpotencia coincide con el entero que estabiliza la sucesión ascendente de
subespacios nulos de las potencias de T − λI.

Demostración: Del lema anterior tenemos que el subespacio N∞ (T − λI) es invariante por T − λI; por
ello tiene sentido hablar del operador lineal T − λI en tal subespacio. Luego el resultado sigue al aplicar
el teorema 3.8 al operador T − λI : N∞ (T − λI) → N∞ (T − λI).

Lema 3.10. Sea λ un valor propio de T con multiplicidad algebraica m ≥ 1; es decir, su polinomio
caracterı́stico es pT (x) = (x − λ)m q(x), donde q(x) es un polinomio que no tiene a λ como una raı́z.
Entonces dim(N∞ (T − λI)) = m.

Demostración: Sabemos que T − λI : N∞ (T − λI) → N∞ (T − λI) es nilpotente; sea p ≥ 1 su orden de


nilpotencia. Recuerde que p es el entero que estabiliza la sucesión de espacios nulos de las potencias de
T − λI; ver lema 3.9. Sea k la dimensión de N∞ (T − λI). Dado que las bases en T − λI-cadenas tienen al
menos una T − λI-cadena de longitud p, ver lema 3.7 en la página 33, sigue que p ≤ dim(N∞ (T − λI)).
Sean B1 una base de N∞ (T − λI) en (T − λI)-cadena y N1 la forma canónica nilpotente de T − λI
restricto a N∞ (T − λI); esto es, [T − λI]B1 = N1 ; esto implica que la restricción de T a N∞ (T − λI)
es tal que [T ]B1 = N1 + λIk (recuerde que N∞ (T − λI) es invariante por T , ver lema 3.8). De acá sigue
que la restricción de T a N∞ (T − λI) tiene como polinomio caracterı́stico p1 (x) = (−1)k (x − λ)k . Por
otra parte, como Im∞ (T − λI) es invariante por T y U = N∞ (T − λI) ⊕ Im∞ (T − λI), ver lema 3.8
y teorema 3.8, entonces pT (x) = p1 (x)p2 (x), donde p2 (x) es el polinomio caracterı́stico de la restricción
de T a Im∞ (T − λI), ver lema 3.4. Por tanto, (x − λ)m q(x) = (−1)k (x − λ)k p2 (x). Afirmamos que
λ no es raı́z de p2 (x); pues de lo contrario T : Im∞ (T − λI) → Im∞ (T − λI) tendrı́a a λ como un
valor propio; luego existirı́a un vector no nulo v ∈ Im∞ (T − λI) tal que (T − λI)(v) = 0U ; de donde
v ∈ N (T − λI) ⊂ N∞ (T − λI) y en consecuencia Im∞ (T − λI) y N∞ (T − λI) tendrı́an vectores no nulos
en común, lo cual es imposible pues U es suma directa de estos subespacios. De esta forma p2 (x) no tiene
a λ como raı́z; ahora bien, como

k + grad(p2 (x)) = m + grad(q(x)) = n = grad(pT (x)),

donde grad(r(x)) denota el grado del polinomio r(x), entonces k = m y q(x) = (−1)k p2 (x).

Lema 3.11. N∞ (T − λI) ∩ N∞ (T − µI) = {0U } para todo par de valores propios distintos λ y µ de T .
50 Fascı́culos de Álgebra Lineal

Demostración: Sean ℓ y m los enteros positivos que estabilizan las sucesiones de los espacios nulos
de las potencias de T − λI y T − µI respectivamente. Supongamos que existe un vector v no nulo tal
que v ∈ N∞ (T − λI) ∩ N∞ (T − µI). Dado que (T − λI)ℓ (v) = 0U , sea k ≥ 0 el mayor entero tal que
(T − λI)k (v) 6= 0U . Hagamos w = (T − λI)k (v); por la forma como ha sido tomado k, es claro que
(T − λI)(w) = 0U ; es decir T (w) = λw (w es vector propio asociado a λ). Consideremos el polinomio
q(x) = (x − µ)m , del ejercicio propuesto 13 en la página 14 sigue que q(λ) = (λ − µ)m es valor propio
del operador lineal q(T ) = (T − µI)m . Como w es vector propio de T asociado a λ, q(T )(w) = q(λ)w; de
donde:
(λ − µ)m w = (T − µI)m (w) = (T − µI)m (T − λI)k (v).
Por otra parte, como T − µI y T − λI conmutan ((T − µI)(T − λI) = (T − λI)(T − µI)), entonces
de lo anterior igualdad se tiene (λ − µ)m w = (T − λI)k (T − µI)m (v); pero (T − µI)m (v) = 0U , pues
v ∈ N∞ (T − µI) = N ((T − µI)m ). Esto implica que (λ − µ)m w = 0U ; finalmente, como λ 6= µ se concluye
w = 0U ; lo cual es absurdo.

Lema 3.12. Si el polinomio caracterı́stico de T tiene n valores propios contadas sus multiplicidades;
esto es, si pT (x) = (λ1 − x)m1 · · · (λℓ − x)mℓ , donde λ1 , · · · , λℓ son los valores propios distintos de T y
m1 + · · · + mℓ = n, entonces U = N∞ (T − λ1 I) ⊕ · · · ⊕ N∞ (T − λℓ I).

Demostración: Del lema 3.10 tenemos que dim(N∞ (T − λj I)) = mj para cada j = 1, · · · , ℓ. Para
demostrar que U es suma directa de los subespacios N∞ (T − λj I) (j = 1, · · · , ℓ) procederemos por
recurrencia sobre el número de valores propios distintos de T .
Supongamos que ℓ = 1; en tal caso es claro que pT (x) = (−1)n (x − λ)n y N∞ (T − λI) = U . Sólo por
razones didácticas examinaremos el caso ℓ = 2. Si T tiene dos valores propios λ1 y λ2 distintos, y pT (x) =
(−1)n (x−λ1 )m m
1 (x−λ2 )2 con m1 +m2 = n, del lema anterior sigue que N∞ (T −λ1 I)∩N∞ (T −λ2 I) = {0U };
además, como la suma de las dimensiones de N∞ (T − λI) y N∞ (T − µI) es n, entonces U es la suma
directa de N∞ (T − λI) y N∞ (T − µI).
Supongamos como hipótesis inductiva que el enunciado del lema es cierto para todo operador lineal
que tenga k (1 ≤ k ≤ ℓ − 1) valores propios distintos, y que la suma de sus multiplicidades algebraicas
sea la dimensión del espacio vectorial donde está definido el operador. Mostremos que continúa siendo
cierto el enunciado cuando k = ℓ.
Sean λ1 , · · · , λℓ y m1 , · · · , mℓ como en el enunciado del lema; sean T1 y T2 las rectricciones de T a
los subespacios N∞ (T − λ1 I) y Im∞ (T − λ1 I) respectivamente. Dado que dim(N∞ (T − λ1 I)) = m1 y U
es la suma directa de N∞ (T − λ1 I) y Im∞ (T − λ1 I), como pT1 (x) = (λ1 − x)m1 , entonces el polinomio
caracterı́stico de T2 es pT2 (x) = (λ2 − x)m2 · · · (λℓ − x)mℓ . De esta forma el operador T2 tiene ℓ − 1 valores
propios distintos (λ2 , · · · , λℓ ) y la suma de sus multiplicidades algebraicas (m2 , · · · , mℓ ) es la dimensión
del espacio Im∞ (T − λ1 I). Entonces por la hipótesis inductiva,

Im∞ (T − λ1 I) = N∞ (T2 − λ2 I) ⊕ · · · ⊕ N∞ (Tℓ − λℓ I).

Resta mostrar entonces que para cada j = 2, · · · , ℓ, N∞ (T2 − λj I) = N∞ (T − λj I). En efecto, por la
forma que tiene pT2 (x), sigue del lema 3.10 que dim(N∞ (T2 − λj I)) = mj = dim(N∞ (T − λj I)). Ahora
bien, si v ∈ N∞ (T2 − λj I) y pj es el orden de nilpotencia de T2 − λj I, entonces

(T2 − λj I)pj (v) = (T − λj I)pj (v) = 0U ,

pues T2 es la restricción de T a Im∞ (T − λ1 I); por lo que v ∈ N ((T − λj I)pj ) ⊂ N∞ (T − λj I). Se


concluye ası́ que N∞ (T2 − λj I) es subconjunto de N∞ (T − λj I); del hecho que ambos subespacios tienen
la misma dimensión, se tiene que N∞ (T2 − λj I) = N∞ (T − λj I).
Operadores Lineales: Reducciones Matriciales 51

Basado en los lemas precedentes estamos en condiciones de ofrecer una demostración de la existencia
de matrices de Jordan para operadores definidos en espacios vectoriales de dimensión finita n ≥ 1 sobre
K, cuyos polinomios caracterı́sticos tienen n raı́ces en K, contadas sus multiplicidades algebraicas.

Demostración del Teorema 3.11 (Forma Canónica de Jordan).


Tenemos por hipótesis que el polinomio caracterı́stico de T es

pT (x) = (λ1 − x)m1 · · · (λℓ − x)mℓ con m1 + · · · + mℓ = n,

donde λ1 , · · · , λℓ son los valores propios distintos de T cuyas multiplicidades algebraicas son iguales a
m1 , · · · , mℓ , respectivamente. Para cada i = 1, · · · , ℓ, sea Ti la restricción de T a N∞ (T − λi I); recuerde
que N∞ (T − λi I) es invariante por T . Dado que U es la suma directa de los subespacios N∞ (T − λi I) con
i = 1, · · · , ℓ, entonces cualesquiera sean las bases Bi de N∞ (T − λi I), se tiene que B, la unión ordenada
de Bi con i = 1, · · · , ℓ, es base de U ; además, la representación matricial de T en B es la matriz diagonal
 
[T1 ]B1 O ··· O
 O
 [T2 ]B2 · · · O  
por bloques: [T ]B =  . . . .. , ver lema 3.4 en la página 32.
 . . .
. . . . 
O O · · · [Tℓ ]Bℓ
La demostración estará completa si para cada i = 1, · · · , ℓ construimos bases Bi de N∞ (T − λi I)
de manera que [Ti ]Bi sea una matriz de Jordan asociada al valor propio λi . Ahora bien, por el lema
3.9, cada operador Ti − λi I (i = 1, · · · , ℓ) es nilpotente, lo cual garantiza que podemos construir una
base en (Ti − λi I)-cadena Bi de N∞ (T − λi I); por lo que [Ti − λi I]Bi = Ni es la forma canónica
nilpotente de Ti − λi I, observe que Ni es de orden mi × mi , pues dim(N∞ (T − λi I)) = mi . De esta forma
 
Jλ1 O · · · O
 O Jλ2 · · · O 
 
[Ti ]Bi = Ni + λi Imi = J(λi ) es un bloque de Jordan, y [T ]B =  . .. .. ..  es una matriz
 .. . . . 
O O · · · Jλℓ
de Jordan para T .

Comentario 3.8 (Unicidad de las representaciones matriciales de Jordan). Debe hacerse notar
que la propia demostración del teorema anterior establece un algoritmo para construir matrices de Jordan
de cualquier operador lineal T , o matriz cuadrada, con valores propios λ1 , · · · , λℓ ∈ K cuya suma de
multiplicidades algebraicas es la dimensión del espacio donde está definido T . Tal algoritmo lo resumimos
como sigue:
Paso 1: Se obtienen los subespacios N∞ (T − λ1 I), · · · , N∞ (T − λℓ I).
Paso 2: Para cada j = 1, · · · , ℓ se contruye una base Bj de N∞ (T − λj I) que está en (T − λj I)-cadena;
digamos Bj = {v1j , · · · , vm
j
j
}.
S
Paso 3: B = {v11 , · · · , vm
1
1
, · · · , v1ℓ , · · · , vm


} = ℓj=1 Bj es base de U , y [T ]B es una matriz de Jordan.
Cuando estudiamos matrices y operadores nilpotentes en espacios finito dimensionales mostramos que
todas las bases en T -cadena del espacio tienen el mismo número de T -cadenas (la nulidad del operador);
además, el número de T -cadenas de una longitud dada no varı́a con las bases en T -cadenas; esto nos
condujo a convenir en denominar forma canónica nilpotente a la representación matricial obtenida a
partir de cualquier base en T -cadena ordenada de manera descendiente en relación a la longitud de las
T -cadenas que la conforman. Para convenir en cierto tipo de unicidad de las representaciones matriciales
que son matrices de Jordan, se debe establecer un criterio de orden de aparición de las bases Bj de
52 Fascı́culos de Álgebra Lineal

N∞ (T − λj I) con j = 1, · · · , ℓ en la base B construida en el paso 3 anterior. En el caso de las matrices


y operadores nilpotentes fue muy simple: se ordena la base de manera decreciente en relación a las
longitudes de las cadenas que la conforman. En el caso que nos ocupa ahora tenemos el problema de que
en la diagonal de cada uno de los bloques de Jordan tenemos los valores propios del operador, entonces
¿cómo ordenamos la aparación de las bases Bj en la base B de manera que [T ]B sea siempre la misma
sin importar cuales sean las bases construidas para cada N∞ (T − λj I)? Para responder esta interrogante
adoptaremos el siguiente convenio:

Si λ1 , · · · , λℓ son los valores propios de T , ubicamos las bases Bj de N∞ (T − λj I) en B


de la siguiente manera: primero se colocan las que correspondan a los valores propios que
están en R (si es que existen) dispuestos de acuerdo al orden usual de los números reales;
seguidamente se colocan, de acuerdo al orden lexicográfico de C aquellas bases Bj que corres-
pondan a valores propios que pertenecen a C \ R (si es que existen). La base B ası́ ordenada
la denominaremos, en estas notas, bases de Jordan; y a la representación matricial [T ]B la
llamaremos forma canónica de Jordan de T .

Antes de mostrar algunos ejemplos, conviene recordar el concepto del orden lexicográfico en los números
complejos. Este se define como sigue: si x + iy 6= z + iw, entonces

x + iy <C z + iw ⇐⇒ o x < z, o (x = z y y < w). (3.11)

Es simple verificar que <C es un orden total en C, el cual extiende el orden usual en la recta real.

Ejemplo 3.19. Supongamos que tenemos un operador lineal T en un espacio de dimensión 8 que tiene
3 valores propios distintos: λ1 = 2, λ2 = −1 y λ3 = 3 con multiplicidades algebraicas m1 = 3 = m2 y
m3 = 2; supongamos además que los bloque de Jordan que generan los operadores T − 2I, T − (−1)I y
T − 3I son, respectivamente:
   
2 0 0 −1 0 0  
3 0
J2 = 1 2 0 , J−1 =
   1 −1 0  y J3 = ;
0 3
0 1 2 0 1 −1

de esta forma, las matrices diagonales por bloques


   
J2 O O J−1 O O
 O J−1 O  y  O J2 O 
O O J3 O O J3

son ambas matrices de Jordan, pero la segunda es la forma canónica de Jordan de tal operador.

Ejemplo 3.20. Consideremos el operador lineal T : C9 → C9 satisfaciendo:

1. pT (x) = −(x − 1)(x + 2)2 (x − (−1 + i))3 (x − 3)3 , y

2. dim(N (T + 2I)) = 2, dim(N (T − (−1 + i)I) = 2 y dim(N (T − I)) = 1 = dim(N (T − 3I)).

Obviamente λ1 = 1, λ2 = −2, λ3 = −1 + i y λ4 = 3 son los valores propios de T , sus respectivas


multiplicidades algebraicas son: m1 = 1, m2 = 2 y m3 = m4 = 3. Por tanto, del lema 3.10, se tiene
dim(N∞ (T − I)) = 1, dim(N∞ (T + 2I)) = 2 y dim(N∞ (T − (−1 + i)I)) = 3 = dim(N∞ (T − 3I)). Observe
que para λ1 y λ2 , las multiplicidades algebraicas y geométricas coinciden, luego el bloque correspondiente
Operadores Lineales: Reducciones Matriciales 53

 
  −2 0
a estos valores propios son respectivamente: 1 y . Cuando analizamos los datos que tenemos
0 −2
sobre los espacios nulos de las potencias de los operadores T − (−1 + i)I y T − 3I, se concluye:
1. Las bases en (T − (−1 + i)I))-cadena de N∞ (T − (−1 + i)I) tienen dos (T − (−1 + i)I))-cadenas;
luego tales bases son la concatenación de una cadena de longitud 2 y otra de longitud 1, pues
dim(N∞ (T − (−1 + i)I)) = 3 y dim(N (T − (−1 + i)I)) = 2. Ası́, el bloque de Jordan correspondiente
 
−1 + i 0 0
al valor propio −1 + i es la matriz  1 −1 + i 0 .
0 0 −1 + i
2. Las bases en (T −3I))-cadena de N∞ (T −3I) tienen una única (T −3I))-cadena ya que el subespacio
nulo N (T − 3I) tiene dimensión 1; tales cadenas son de longitud 3. Por lo que el bloque de Jordan
 
3 0 0
correspondiente al valor propio 3 es la matriz  1 3 0 .
0 1 3
Obtenido el bloque de Jordan para cada uno de los valores propios de T ; al emplear el criterio adoptado,
tenemos que la forma canónica de T es la matriz diagonal por bloques
 
−2 0
 0 −2 
 

 1 

 3 0 0 
 
 
J = 1 3 0 .
 
 0 1 3 
 

 −1 + i 0 0 

 1 −1 + i 0 
0 0 −1 + i
 
2 0 0 0 0
 3 3 −2 −1 1 
 
 
Ejemplo 3.21. Consideremos la matriz A =  2 0 0 0 0 . Dado que
 
 2 1 −1 1 −1 
−1 0 1 0 0

2−x 0 0 0 0

3 3 − x −2 −1 1
3 − x −2 −1 1
0

−x 0 0
pA (x) = 2 0 −x 0 0 = (2 − x)


2 1 −1 1 − x −1
1 −1 1 − x −1
0 1 0 −x
−1 0 1 0 −x

3−x −1 1

= (x − 2)x 1 1 − x −1 = (2 − x)3 x2 ,
0 0 −x
entonces A tiene como valores propios a λ1 = 2 y λ2 = 0, cuyas multiplicidades algebraicas son respectiva-
mente m1 = 3 y m2 = 2. Esto implica que dim(N∞ (A−2I5 )) = 3 y dim(N∞ (A−0I5 )) = dim(N∞ (A)) = 2.
• Construcción de una base en (A − 2I5 )-cadena de N∞ (A − 2I5 ).
En primer lugar debe encontrarse el ı́ndice de nilpotencia de la matriz A − 2I5 , el cual sabemos coincide
con el entero que estabiliza la sucesión ascendente de los espacios nulos de las potencias de A − 2I5 .
54 Fascı́culos de Álgebra Lineal

En vista de que
   
0 0 0 0 0 1 0 −1 0 2
 3 1 −2 −1 1  f1 ←→ −f5  0 1 1 −1 −5 
  f → f − 3f  
  2 2 1  
A − 2I5 =  2 0 −2 0 0  −−−−−−−−−−−→  0 0 0 0 −2 
  f3 → f3 − 2f1  
 2 1 −1 −1 −1  f4 → f4 − 2f1  0 1 1 −1 −5 
−1 0 1 0 −2 0 0 0 0 0
   
0 −11 0 2 1 0 −1 0 0
 1 01 −1 −5    1 −1 0 
1
f3 ←→− 2 f3   0 1 
  f1 →f1 −2f3  
−−−−−−− −→  0 00 0 1  −−−−−−−→  0 0 0 0 1 ,
f4 →f4 −f2   f2 →f2 +5f5  
 0 00 0 0   0 0 0 0 0 
0 00 0 0 0 0 0 0 0
  

 α 


   

β − α
 

entonces dim(N (A − 2I5 )) = 2 y N (A − 2I5 ) =  α  ∈ R5 : α, β
 
∈ R . Por otra parte, como

   

 β 
 


 

0
   
0 0 0 0 0 1 0 −1 0 1
1
 f →f1f ←+→4f4 f−
 −4 0 4 0 0  5  0 0 0 0 1 
 4f2
 
2   3 3 1  
(A − 2I5 ) =  −4 0 4 0 0  −−−−−−−−−− −−−−→  0 0 0 0 0 
  f2 ←→ 41 f4  
 0 0 0 0 4  f4 → f4 + 4f1 − 4f2  0 0 0 0 0 
4 0 −4 0 4 0 0 0 0 0

sigue que dim(N ((A − 2I5 )2 )) = 3 = dim(N∞ (A − 2I5 )); en consecuencia


  

 α 


β  


  

2   5
N∞ (A − 2I5 ) = N ((A − 2I5 ) ) = α ∈ R : α, β, γ ∈ R .

   


 γ  


 

0

Observe que A − 2I5 es nilpotente de orden 2, pues es en este entero donde se estabiliza la sucesión de
los núcleos de las potencias de A − 2I5 ; además, como dim(N (A − 2I5 )) = 2, se tiene que las bases en
(A − 2I5 )-cadena de N∞ (A − 2I5 ) tienen dos cadenas: una cadena de longitud 2 y otra de longitud 1;
es decir, son la concatenación de cadenas de la forma [v1 , (A − 2I5 )v1 ] y [v2 ]; recuerde que la dimensión
de N∞ (A − 2I5 )esigual a 3. Vamos ahora a buscar  una tal base de este subespacio.
   Dado  que para 
α 0 0 0 0 0 α 0
β   3 1 −2 −1 1     
     β  α + β − γ 
      
todo vector v = α ∈ N∞ (A − 2I5 ), (A − 2I5 )(v) =  2 0 −2 0 0  α =  0 ,
      
γ   2 1 −1 −1 −1   γ  α + β − γ 
0 −1 0 1 0 −2 0 0
elegimos vectores v1 , v2 ∈ N∞ (A − 2I5 ) tales que (A − 2I
  5 1 )v =
6 0R 5 , (A − 2I )v
  5 2 R  = 0 5 con (A − 2I5 )v1
0 0 1
1 1 0
     
     
y v2 linealmente independientes; por ejemplo v1 = 0, (A − 2I5 )v1 = 0 y v2 = 1 satisfacen estas
     
0 1 1
0 0 0
Operadores Lineales: Reducciones Matriciales 55

condiciones. Ası́, B1 = {v1 , v2 , v3 } es una base en (A − 2I5 )-cadena de N∞ (A − 2I5 ) y el bloque de Jordan
 
2 0 0
de A correspondiente al valor propio λ1 = 2 es la matriz 1 2 0.
0 0 2

• Construcción de una base en A-cadena de N∞ (A).


Como antes, se debe examinar la sucesión de los espacios nulos de las potencias de A. Dado que
dim(N∞ (A)) = 2, el entero p que estabiliza tal sucesión (y por tanto es el orden de nilpotencia de
A sobre N∞ (A)) es el menor p para el cual dim(N (Ap )) = 2. El siguiente cuadro resume, las potencias de
A, describe su núcleo y correspondiente dimensión. Allı́ se observará que p = 2; y como dim(N (A)) = 1,
entonces las bases en A-cadena de N∞ (A) tienen una única A-cadena, obviamente de longitud 2: [u1 , Au1 ].

p Ap N (Ap ) dim(N (Ap ))


2 3 82 3 9
2 0 0 0 0 >
> 0 >
>
>6 7 >
6
6 3 3 −2 −1 1 77
>
>
<6 70 >
>
=
5
1 2 0 0 0 0 7 607 ∈ R : α ∈ R 1
6 7 6 7
6
6 7 > 6 7 >
4 2 1 −1 1 −1 5 >
>
>
>
4α5 >
>
>
>
0 1 0 0 α
: ;
−1
2 3 82 3 9
4 0 0 0 0 >
> 0 >
>
6 8 > >
6 8 −4 −4 4 77
>
>
<6
6α − β 7
7
>
>
=
5
2 6 4 0 0 0 0 7 α β R : α, β R 2
6 7 6 7
6 − 7 ∈ ∈
6 7 >6
> 7 >
4 8 4 −4 0 0 5 >
> 4 α 5 >
>
>
> >
0 0 0 0 0 β
: ;

   
0 0
α − β   0 
   
2    
Ası́, N∞ (A) = N (A ). Dado que para v = α − β  ∈ N∞ (A) tenemos A(v) =  0 , podemos elegir
   
 α  α − β 
β α−β
   
0 0
1 0
   
   
u1 = 1 y Au1 = 0 para conformar una base en A-cadena de N∞ (A); luego el bloque de Jordan de
   
1 1
0 1
 
0 0
A correspondiente al valor propio λ2 = 0 es la matriz .
1 0
 
0 0 0 0 1
1 0 1 1 0
 
 
Finalmente, B = {u1 , Au1 , v1 , (A−2I5 )v1 , v2 } es una base de Jordan de A, y la matriz P = 1 0 0 0 1
 
1 1 0 1 1
0 1 0 0 0
 
0 0 0 0 0
 1 0 0 0 0
 
−1  
es tal que P AP = 0 0 2 0 0 es la forma canónica de Jordan de A.
 
 0 0 1 2 0
0 0 0 0 2

Comentario 3.9. Como ya lo habiamos anunciado en el corolario 3.3, ver página 44, toda matriz
A ∈ Mn×n (C) u operador lineal T en un espacio vectorial U de dimensión finita n ≥ 1 sobre C admite
56 Fascı́culos de Álgebra Lineal

matrices semejantes, o representaciones matriciales, que son matrices de Jordan, entonces ambas tienen
una forma canónica de Jordan según el criterio que hemos adoptado.
No obstante, para que una matriz A ∈ Mn×n (R), o un operador lineal T en un espacio vectorial U de
dimensión finita n ≥ 1 sobre R, admita una forma canónica de Jordan, que en este caso será una matriz
J ∈ Mn×n (R), se debe satisfacer que sus polinomios caracterı́sticos tengan todas sus raı́ces en R, pues
 
−5 −17
estos valores se ubican en la diagonal principal de J. Por ejemplo consideremos la matriz ,
1 3
tiene como polinomio caracterı́stico a p(x) = x2 − 2x + 2 cuyas raı́ces son los números complejos (no
reales) λ1 = −1 − i y λ2 = −1 + i.

3.5.3. Ejercicios Propuestos de la Sección 3.5


1. Determine cuáles de las siguientes matrices son bloques de Jordan de acuerdo al criterio establecido:
   
    1 0 0 0 1+i 0 0 0
0 0 0 2 0 0  1 1 0 0   1 1+i 0 0 
a)  0 0 0  b)  0 2 0  c)   0 0 1 0  d)  0
  
0 1+i 0 
0 0 0 0 1 2
0 0 1 1 0 0 1 1+i
   
  1 0 0 0 1−i 0 0 0
2 0 0  0 1 0 0   1 1 − i 0 0 
e)  1 2 0  f )   0 1 1 0  g)  0
  
0 1+i 0 
0 0 2
0 0 1 1 0 0 1 1+i

2. Determine cuáles de las siguientes matrices son formas canónicas de Jordan de acuerdo al criterio
establecido:    
    1 0 0 0 1−i 0 0 0
0 0 0 0 0 0  1 1 0 0   1 1−i 0 0 
a)  0 0 0  b)  0 2 0  c) 
 0
 d)  
0 0 0   0 0 1+i 0 
0 0 0 0 1 2
0 0 1 0 0 0 1 1+i
     
2 0 0 0 1 0 0 0 1 0 0 0
 1 2 0 0   0 1 0 0   0 2 0 0 
 0 0 2 0  f)  0
e)     g)  
1 1 0   0 0 1+i 0 
0 0 0 3 0 0 0 2 0 0 0 1+i

3. Cada una de las siguientes matrices A son formas canónicas de Jordan. Determine: polinomio ca-
racterı́stico, valores propios, dim(N∞ (A − λI)), dim(N (A − λI)) y la estructura de cada una de las
bases en (A − λI)-cadena que conforman las bases de Jordan, para cada valor propio λ de A:
       
3 0 0 0 −4 0 0 0 1 0 0 0 1 0 0 0
 1 3 0 0   1 −4 0 0 
 c)  0 1 0 0  d)  1 1 0 0 
   
 0 0 3 0  b)  0
a)   
0 4 0   0 0 3 0   0 0 3 0 
0 0 1 3 0 0 1 4 0 0 0 5 0 0 0 5
 
  −1 0 0 0 0 0 0 0
2 0 0 0 0 0 
 1 −1 0 0 0 0 0 0 
  

 1 2 0 0 0 0 


 0 1 −1 0 0 0 0 0 
 1 0 0 0
   
 0 1 2 0 0 0   0 0 0 0 0 0 0 0   0 2 0 0 
e)   f)   g)  
 0 0 0 3 0 0   0 0 0 0 1 0 0 0   0 0 1+i 0 
   
 0 0 0 1 3 0  
 0 0 0 0 1 1 0 0 
 0 0 0 1+i
0 0 0 0 0 3  0 0 0 0 0 0 1 0 
0 0 0 0 0 0 0 1
Operadores Lineales: Reducciones Matriciales 57

4. Encontrar la forma canónica de Jordan de la matriz A a partir de los datos que se suministran.

a) A es de orden 5 × 5, y tiene como único valor propio a λ = 3 con multiplicidad algebraica


igual a 5. Además, dim(N (A − 3I5 )) = 2 y dim(N ((A − 3I5 )3 )) = 4. ¿Está bien formulado el
problema si dim(N (A − 3I5 )) = 2 y dim(N ((A − 3I5 )2 )) = 4?
b) A es de orden 6 × 6 con polinomio caracterı́stico p(x) = (x + 1)3 (x − 2)2 (x − i); donde
dim(N (A + 1I5 )) = 2 y dim(N (A − 2I5 )) = 1.

5. Para cada una de las siguientes matrices determine su forma canónica de Jordan; especı́fique la
matriz de cambio de base para obtenerla.
     
    2 0 1 2 2 1 5 2 0
2 −1 1 1
a) b) c)  0 6 2  d)  0 6 2  e)  −5 1 0 
2 1 −1 1
0 0 2 0 0 2 0 0 2
 
    −1 4 0 0 0
7 1 2 2 i 1 2 0  0 
 1 4 −1 −1   0  3 0 0 0 
1 0 0  h)  
f) 
 −2 1
 g)   0 −4 −1 0 0 
5 −1   0 −1 −i 0   
 3 −9 −4 2 −1 
1 1 2 8 0 0 1 1
1 5 4 1 4
6. Encontrar todas las posibles formas canónicas de Jordan de una matriz A cuyo polinomio carac-
terı́stico es:
a) (x − 1)2 (x − 2)2 b) (x + 1 − i)2 (x + 2)2 c) (x − 1)2 (x − 2)3 x d) (x + 1 − i)3 (x + 2)3

7. Sean λ y µ valores propios del operador lineal T . Para cada par de enteros positivos m, n demostrar
que los subespacios N ((T − λI)m ) y N ((T − µI)n ) solo tienen en común al vector nulo.

8. Sean A, B matrices de orden n × n cuyos polinomios caracterı́sticos tienen todas sus raı́ces en el
cuerpo al que pertenecen sus entradas; esto es obvio si éstas se consideran en C. Demostrar que A
y B son semejantes si, y sólo si, tienen la misma forma canónica de Jordan.

9. Dados dos espacios vectoriales sobre K, U y V , y operadores lineales T : U → U y S : V → V ; se


dice que T y S son linealmente equivalentes si existe un isomorfismo ϕ : U → V tal que el diagrama
T
 −→
U U

ϕy yϕ conmuta; esto es, φ T = S φ.
S
V −→ V

a) Demostrar que la equivalencia lineal es una relación de equivalencia.


b) Supóngase que dim(U ) = dim(V ) = n ≥ 1. Demostrar que si T y S son tales que sus polinomios
caracterı́sticos tienen todas sus raı́ces en K, entonces T y S son linealmente equivalentes si, y
sólo si, tienen la misma forma canónica de Jordan.

Los ejercicios que se proponen desde el 10 hasta 21 están relacionados con el concepto de polinomio
mı́nimo que a continuación se introduce.

Definición 3.15. El polinomio mı́nimo de una matriz cuadrada A ∈ Mn×n (K), o de un operador
lineal T es un espacio vectorial U finito dimensional sobre K, es el polinomio de menor grado, digamos
m(x) = xm + am−1 xm−1 + · · · + a0 , con coeficientes en K y coeficiente lider igual a 1, tal que m(A) es la
matriz nula, o m(T ) es el operador nulo en U .

10 . Demostrar que el polinomio mı́nimo siempre existe y es único.


58 Fascı́culos de Álgebra Lineal

11 . Demostrar que el grado del polinomio mı́nimo es siempre menor o igual que el grado del polinomio
caracterı́stico.
 
2 1 0
12 . Considere la matriz A = 0 2 1. Haciendo uso del método de Gauss asociado al problema:
0 0 1
3 2
A + a2 A + a1 A + a0 I2 = O, determine el polinomio mı́nimo de A.

13 . Suponga que el polinomio q(x) = an xn + · · · + a1 x + a0 se factoriza como k(x − λ1 )p1 · · · (x − λs )ps .


Demostrar que para cualquier matriz cuadrada A (u operador lineal) vale:

an An + · · · + a1 A + a0 I = k(A − λ1 )p1 · · · (A − λs )ps .

14 . Demostrar que si el polinomio mı́nimo de A ∈ Mn×n (K) (o T ) se factoriza como el producto


m(x) = (x − λ1 )p1 · · · (x − λs )ps (p1 + · · · + ps = n), entonces al menos uno de los escalares λj es un
valor propio de A.

15 . Dada A ∈ Mn×n (K), demostrar que si q(x) = an xn + · · · + a1 x + a0 es cualquier polinomio tal que
q(A) es la matriz nula, entonces el polinomio mı́nimo m(x) de A divide a q(x); esto es, existe un
polinomio c(x) tal que q(x) = c(x)m(x). En particular el polinomio mı́nimo de una matriz cuadrada
u operador lineal divide al polinomio caracterı́stico.

16 . Dada A ∈ Mn×n (K), demostrar que cada factor lineal en los que se factoriza el polinomio carac-
terı́stico de A, es también un factor del polinomio mı́nimo de A.

17 . Dada A ∈ Mn×n (K), demostrar que si su polinomio caracterı́stico es de la forma

pA (x) = (−1)n (x − λ1 )r1 · · · (x − λs )rs con r1 + · · · + rs = n,

entonces su polinomio mı́nimo es de la forma m(x) = (x − λ1 )p1 · · · (x − λs )ps , donde pj ≤ rj para


todo j = 1, · · · , s.

18 . ¿Cuál el polinomio mı́nimo de:


a) la matriz nula b) la matriz identidad c) una matriz diagonal

19 . Encontrar el polinomio mı́nimo de cada una de las siguientes matrices:


       
3 0 0 3 0 0 3 0 0 2 0 1
a)  1 3 0  b)  1 3 0  c)  0 3 0  d)  0 6 2 
0 0 3 0 1 3 0 0 3 0 0 2
 
λ 0 0 ··· 0
   1 λ 0 ··· 0 
  2 0 0 1  
0 1 0  1

 0 1 λ

2 0 2  
e)  0 0 1  f) 
 0
 g) 

..

0 2 −1  .

1 0 0 



0 0 0 1  λ 0 
0 0 0 ··· 1 λ

20 . Sea q(x) un polinomio con coeficientes en K. Demostrar que si A, B ∈ Mn×n (K) son semejantes,
entonces q(A) y q(B) también lo son. Deducir que matrices semejantes tienen el mismo polinomio
   
1 3 4 −1
mı́nimo. ¿Son y semejantes?
2 3 1 1
Operadores Lineales: Reducciones Matriciales 59

21 . Demostrar que una matriz cuadrada es invertible si, y sólo si, el término constante de su polinomio
mı́nimo es diferente de 0. Usar esto para demostrar que si A ∈ Mn×n (K) es no invertible, entonces
existe B ∈ Mn×n (K) no nula tal que AB = O = BA.

3.6. Forma canónica de Jordan real


Como se habrá podido observar las formas canónicas de Jordan de una matrices cuadradas o un
operadores lineales tienen consigo, en su diagonal principal, explicı́tamente los valores propios junto a
sus correspondientes multiplicidades algebraicas; de hecho, también es simple detectar las multiplicidades
geométricas de cada uno de ellos. No obstante, existen un gran número de matrices u operadores lineales
en R cuyas raı́ces están en C \ R. Dado que tales casos son asimismo importantes, no solo desde el punto
de vista teórico, sino también desde el punto de vista de sus aplicaciones en otras áreas de la Matemática
y otras ciencias, se hace necesario encontrar formas canónicas que revelen, al igual que la forma canónica
hasta ahora estudiada, las informaciones sobre las raı́ces del polinomio caracterı́stico.
El objetivo en esta parte es obtener una forma canónica, que de forma similar a la forma canónica
de Jordan, sea una matriz diagonal por bloques tal que las matrices cuadradas que representan tales
bloques contengan la información sobre las raı́ces (en R o no) del polinomio caracterı́stico, incluyendo
la información de sus multiplicidades algebraicas. Para lograr nuestro objetivo, nos valdremos del propio
teorema 3.11 como de la nociones de complexificados de espacios vectoriales y de operadores lineales.

3.6.1. Complexificado de espacios vectoriales y operadores lineales


Como es del conocimiento básico, una de manera de construir el conjunto de los números complejos C
es presentar tales objetos numéricos como el conjunto formado por todos los elementos de forma a + ib,
donde a y b son números reales, donde i2 = −1. Dotando a C de las operaciones:

1. Adición: (a + ib) + (c + id) := (a + c) + i(b + d), para todo a + ib, c + id ∈ C; y

2. Multiplicación: (a + ib)(c + id) := (ac − db) + i(ad − bc), para todo a + ib, c + id ∈ C,

se obtiene, como es bien conocido, que C adquiere dos estructuras algebraicas: la de cuerpo y de espacio
vectorial sobre C; esto sigue del hecho que para todo a + ib, c + id y e + if en C se satisfacen las siguientes
propiedades:

(A1) Asociatividad de la adición:

[(a + ib) + (c + id)] + (e + if ) = (a + ib) + [(c + id) + (e + if )].

(A2) Conmutatividad de la adición:

(a + ib) + (c + id) = (c + id) + (a + ib).

(A3) Elemento neutro de la adición:


El número complejo 0 = 0 + i0 es el único que cumple:

0 + (a + ib) = a + ib.
60 Fascı́culos de Álgebra Lineal

(A4) Elemento simétrico de la adición:


Cada complejo a + ib tiene como único simétrico a −a − ib; esto es, −a − ib es el único que cumple

(a + ib) + (−a − ib) = 0.

(M1) Asociatividad de la multiplicación:

[(a + ib)(c + id)](e + if ) = (a + ib)[(c + id)(e + if )].

(M2) Conmutatividad de la multiplicación:

(a + ib)(c + id) = (c + id)(a + ib).

(M3) Elemento neutro de la multiplicación:


El número complejo 1 = 1 + i0 es el único que cumple:

1(a + ib) = a + ib.

(M4) Elemento inverso de la multiplicación:


Cada complejo a + ib diferente de 0 tiene un único inverso respecto de la multiplicación; de hecho,
a b
el complejo a2 +b2 − i a2 +b2 es el único que cumple

a b
(a + ib)( −i 2 ) = 1.
a2 +b2 a + b2

(M5) Distributividad:

[(a + ib) + (c + id)](e + if ) = (a + ib)(e + if ) + (c + id)(e + if ).

Lo que pretendemos es hacer uso de estas mismas ideas para obtener espacios vectoriales complejos
a partir de espacios vectoriales sobre R; de manera que este segundo pueda considerarse inmerso inyecti-
vamente en el primero; con esto queremos decir que “el espacio vectorial real sea parte del complejo” de
la misma manera que R lo es de C.

Definición 3.16. Sea U un espacio vectorial sobre R. Denotamos por UC al conjunto de todos los objetos
de la forma u + iv, donde u y v son vectores en U , e i denota al número complejo que satisface i2 = −1.

Sobre el conjunto UC se definen una adición y una multiplicación por escalares en C como sigue:

1. Adición: Para todo u1 + iv1 , u2 + iv2 ∈ UC

(u1 + iv1 ) + (u2 + iv2 ) := (u1 + u2 ) + i(v1 + v2 ). (3.12)

2. Multiplicación: Para todo u + iv ∈ UC y α + iβ ∈ C

(α + iβ)(u + iv) := (αu − βv) + i(αv + βu). (3.13)

Con estas operaciones el conjunto UC adquiere la estructura de espacio vectorial sobre C; esto es, se
satisfacen las siguientes propiedades:
Operadores Lineales: Reducciones Matriciales 61

(A1) Asociatividad: Para todo u1 + iv1 , u2 + iv2 , u3 + iv3 en UC vale:

[(u1 + iv1 ) + (u2 + iv2 )] + (u3 + iv3 ) = (u1 + iv1 ) + [(u2 + iv2 ) + (u3 + iv3 )].

(A2) Conmutatividad: Para todo u1 + iv1 , u2 + iv2 en UC :

(u1 + iv1 ) + (u2 + iv2 ) = (u2 + iv2 ) + (u1 + iv1 ).

(A3) Elemento neutro de la adición:


El vector 0UC = 0U + i0U es el único que cumple:

0UC + (u + iv) = u + iv,

para todo u + iv ∈ UC .

(A4) Elemento simétrico de la adición:


Cada vector u + iv ∈ UC tiene como único simétrico a −u + i(−v) := −u − iv; es decir, −u − iv es
el único que cumple
(u + iv) + (−u − iv) = 0UC .

(M1) Para todo u1 + iv1 , u2 + iv2 en UC y α + iβ ∈ C:

(α + iβ)[(u1 + iv1 ) + (u2 + iv2 )] = (α + iβ)(u1 + iv1 ) + (α + iβ)(u2 + iv2 ).

(M2) Para todo u + iv ∈ UC y α + iβ, δ + iγ ∈ C:

[(α + iβ) + (δ + iγ)](u + iv) = (α + iβ)(u + iv) + (δ + iγ)(u + iv).

(M3) Para todo u + iv ∈ UC y α + iβ, δ + iγ ∈ C:

(α + iβ)[(δ + iγ)(u + iv)] = [(α + iβ)(δ + iγ)](u + iv) = (α + iβ)(δ + iγ)(u + iv).

(M4) Para el número complejo 1 = 1 + i0 y cada vector u + iv ∈ UC se cumple:

1(u + iv) = u + iv.

Los detalles de la verificación de cada una de estas propiedades se dejan al lector. En adelante al espacio
vectorial complejo UC lo denominemos complexificado de U . Es simple chequear que el espacio vectorial
real U está inmerso inyectivamente en su complexificado UC ; esto significa que la aplicación Φ : U → UC
dada por Φ(u) = u + i0U es inyectiva; ver ejercicio 7 en página 74. Haciendo uso de esta aplicación se
identifica cada vector u ∈ U con el vector u + i0U ∈ UC .

Ejemplo 3.22. Dado n ≥ 1, veamos cuál es el complexificado del espacio vectorial real Rn . Por definición
tenemos que RnC = {u + iv : u, v ∈ Rn }. Si hacemos u = (u1 , · · · , un ) y v = (v1 , · · · , vn ) y realizamos la
operación arriba indicada, entonces u + iv = (u1 + iv1 , · · · , u2 + iv2 ), de donde, RnC = Cn .
De la misma manera se verifica que el complexificado del espacio vectorial Mm×n (R) es el espacio vectorial
sobre C de las matrices de orden m × n; es decir, Mm×n (C).

Proposición 3.7. Si U es un espacio vectorial de dimensión finita n ≥ 1 sobre R, entonces UC también


tiene dimensión n; de hecho, si B = {u1 , · · · , un } es una base de U , entonces el mismo conjunto (entiendo
los vectores uk como uk + i0U , k = 1, · · · , n) es también base de UC .
62 Fascı́culos de Álgebra Lineal

Demostración: Primero veamos que u1 , · · · , un son linealmente independientes en UC . Supongamos que


existen escalares α1 + iβ1 , · · · , αn + iβn en C tales que

(α1 + iβ1 )u1 + · · · + (αn + iβn )un = 0UC .

Sigue de las operaciones (3.13) y (3.12) que

0UC = (α1 + iβ1 )u1 + · · · + (αn + iβn )un


= (α1 u1 + iβ1 u1 ) + · · · + (αn un + iβn un )
= (α1 u1 + · · · + αn un ) + i(β1 u1 + · · · + βn un ).

De donde α1 u1 +· · ·+αn un = 0U y β1 u1 +· · ·+βn uu = 0U , luego de la independencia lineal de los vectores


u1 , · · · , un se tiene que los escalares α1 + iβ1 , · · · , αn + iβn son todos nulos, y por tanto u1 , · · · , un son
linealmente independientes en UC .
Veamos ahora que todo vector u + iv ∈ UC es combinación lineal de los vectores u1 , · · · , un . Dado que
B es base de U , existen escalares α1 , · · · , αn y β1 , · · · , βn en R tales que

u = α1 u1 + · · · + αn un y v = β1 u1 + · · · + βn un .

Como antes

(α1 + iβ1 )u1 + · · · + (αn + iβn )un = (α1 u1 + · · · + αn un ) + i(β1 u1 + · · · + βn un ) = u + iv.

Con lo cual la demostración de la proposición está completa.

Comentario 3.10. Sabemos que todo espacio vectorial de dimensión finita n ≥ 1 sobre R es isomorfo
a Rn ; mientras que los espacios vectoriales de dimensión finita n ≥ 1 sobre C son todos isomorfos a Cn .
Por tanto el complexificado UC de un espacio vectorial de dimensión finita n ≥ 1 sobre R es como Cn .

Definición 3.17. Sean U espacio vectorial sobre R y T : U → U un operador lineal en U . Se conoce con
el nombre de complexificado de T , a la apliación TC : UC → UC definida, para cada u + iv ∈ UC , como
TC (u + iv) = T (u) + iT (v).

Proposición 3.8. Si U es un espacio vectorial sobre R y T : U → U es un operador lineal en U , entonces


el complexificado TC es un operador lineal en UC .

Demostración: Para demostrar la proposición basta verificar que para todo u1 + iv1 , u2 + iv2 ∈ UC y
α + iβ ∈ C se satisface

TC ((u1 + iv1 ) + (α + iβ)(u2 + iv2 )) = TC (u1 + iv1 ) + (α + iβ)TC (u2 + iv2 ).

En efecto

TC ((u1 + iv1 ) + (α + iβ)(u2 + iv2 )) = TC ((u1 + iv1 ) + ((αu2 − βv2 ) + i(αv2 + βu2 )))
= TC ((u1 + αu2 − βv2 ) + i(v1 + αv2 + βu2 ))
= T (u1 + αu2 − βv2 ) + iT (v1 + αv2 + βu2 )
= (T (u1 ) + αT (u2 ) − βT (v2 )) + i(T (v1 ) + αT (v2 ) + βT (u2 ))
= (T (u1 ) + iT (v1 )) + ((αT (u2 ) − βT (v2 )) + i(αT (v2 ) + βT (u2 )))
= TC (u1 + iv1 ) + (α + iβ)TC (u2 + iv2 ).

Con lo cual la proposición está demostrada.


Operadores Lineales: Reducciones Matriciales 63

Ejemplo 3.23. Es muy simple verificar que los complexificados del operador nulo y operador identidad
en cualquier espacio vectorial real U son justamente el operador nulo y el operador identidad en el espacio
vectorial complexificado UC
   
1 0 2 x
Ejemplo 3.24. Sean A = 2 0 1 y T : R → R el operador lineal dado, para cada y  ∈ R3 por
  3 3 
0 0 3 z
    
x 1 0 2 x
T y  = 2 0 1 y  .
z 0 0 3 z
Como sabemos el complexificado de R3 es C3 , luego el complexificado de T es el operador TC : C3 → C3
 
x1 + ix2
definido, para cada  y1 + iy2  ∈ C3 , mediante
z1 + iz2
     
x1 + ix2 x1 x2
TC  y1 + iy2  = T  y1  + iT  y2 
z1 + iz2 z1 z2
     
1 0 2 x1 1 0 2 x2
= 2 0 1  y1  + i 2 0 1  y2 
0 0 3 z1 0 0 3 z2
  
1 0 2 x1 + ix2
=  2 0 1  y1 + iy2 
0 0 3 z1 + iz2
Observe que la matriz A también define a TC ; de hecho, como sabemos, A es la representación matricial
tanto de T como de TC en la base {e1 , e2 , e3 }.
Comentario 3.11. Lo ocurrido en el ejemplo anterior no es particular en el sentido de que la matriz del
operador complexificado sea la misma que define al operador T . En efecto, es simple verificar que para
cualquier matriz A ∈ Mn×n (R) y su operador lineal asociado T : Rn → Rn con T (X) = AX, es tal que
su complexificado TC : Cn → Cn también se expresa mediante la misma matriz A; esto es, para cada
X + iY ∈ Cn , TC (X + iY ) = A(X + iY ). Podrı́amos decir entonces que el complexificado de una matriz
real es ella misma. Más general aún es la propiedad que se establece en la siguiente proposición.
Proposición 3.9. Sean U espacio vectorial de dimensión finita n ≥ 1 sobre R y T : U → U un
operador lineal en U . Entonces, dado que cualquier base B de U es considerada base de UC , se cumple
que [T ]B = [TC ]B .
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
Demostración: Sea B = {u1 , · · · , un }. Sabemos que [T ]B =  . .. .. ..  si, y sólo si, para
 .. . . . 
an1 an2 · · · ann
cada j = 1, · · · , n se satisface T (uj ) = a1j u1 + a2j u2 + · · · + anj un ; note que los coeficientes aij ∈ R.
Veamos ahora cómo es la imagen de uj = uj + i0U ∈ UC por TC .
TC (uj ) = TC (uj + i0U ) = T (uj ) + iT (0U )
= (a1j u1 + a2j u2 + · · · + anj un ) + i0U
= a1j (u1 + i0U ) + a2j (u2 + i0U ) + · · · + anj (un + i0U );
64 Fascı́culos de Álgebra Lineal

de donde, la j-ésima columna de [TC ]B es la j-ésima columna de [T ]B ; por tanto [T ]B = [TC ]B .

Comentario 3.12. La proposición que acabamos de demostrar nos dice varias cosas:

1. Si las representaciones matriciales de operadores complexificados son tomadas sobre bases del es-
pacio vectorial real, entonces tales matrices tienen todos sus coeficientes en R. No obstante, el
complexificado de un operador complexificado puede admitir representaciones matriciales cuyos
2
coeficientes
  no son todos reales. Por ejemplo, considere el operador lineal de R dado por la matriz
1 0
A= . Como vimos su complexificado es el operador lineal TC : C2 → C2 definido por
1 1
    
x + iy 1 0 x + iy
TC = .
w + iz 1 1 w + iz
   
1+i 1+i
El conjunto B = , es base de C2 . Dado que
0 1−i
       
1+i 1+i 1+i 1+i
TC = = (1 − i) +i y
0 1+i 0 1−i
       
1+i 1+i 1−i
 1+i 1+i
 1+i
TC = = 2 + 2 ,
1−i 1 0 1−i
 1−i

1−i 2
entonces [TC ]B = 1+i .
i 2

2. A pesar de que el operador complexificado pueda admitir representaciones matriciales con coefi-
cientes que no son reales, la proposición anterior nos dice que su polinomio caracterı́stico si tiene
todos sus coeficientes en R. Esto es obvio pues TC admite representaciones matriciales con todos
sus coeficientes en R. En realidad, el polinomio caracterı́stico de T y TC son iguales, esto sigue del
hecho que [TC ]B = [T ]B donde B es base de U .
 
−5 −1
Ejemplo 3.25. Consideremos en R2 el operador lineal T dado por la matriz A = . Como
17 3
sabemos el complexificado TC : C2 → C2 también es expresado por A; es decir, si B es la base canónica,
entonces A = [T ]B = [TC ]B . Luego, el polinomio caracterı́stico de T y TC es igual a p(x) = x2 + 2x + 2;
cuyas raı́ces son λ1 = −1 − i y λ2 = −1 + i. Esto implica que T no tiene valores propios, mientras de los
TC son justamente λ1 y λ2 ; además, dado que éstos son distintos, TC es diagonalizable. Vamos a encontrar
una base de C2 tal que la representación matricial de TC sea diagonal. Dado que
     
−4 + i −1 f1 ←→(−4+i)−1 f1 1 − 4+i17 f2 →f2 −17f1 1 − 4+i
17
A − λ1 I2 = −−−−−−−−−−−−→ −−−−−−−−→ ;
17 4+i 17 4 + i 0 0
 
1
luego un vector propio de TC asociado a λ1 es w1 = . Observe que λ2 es el conjugado de λ1 ,
−4 + i
 
1
de manera que una simple cuenta muestra que w 1 = es un vector propio de TC asociado a
−4 − i
 
−1 − i 0
λ2 . Ası́, en la base B = {w1 , w1 } se tiene que [TC ]B = . Para intentar buscar una
0 −1 + i
representación matricial de T con la información que B nos suministra, hacermos notar lo siguiente:
Operadores Lineales: Reducciones Matriciales 65

   
1 0
1. w1 = +i = u + iv,
−4 1

2. w1 = u − iv, el conjugado de w1 .
   
2 −1 −1
3. D = {u, v} es base de R , T (u) = y T (v) = ; además, como
5 3
   
1 0
T (u) = (−1) − (−1) = (−1)u − (−1)v; y
−4 1
   
1 0
T (v) = (−1) + (−1) = (−1)u + (−1)v.
−4 1
 
−1 1
Por tanto la representación matricial de T en D es la matriz B = . Recordamos que
−1 −1
 
α β
para cualquier matriz de la forma , con α, β ∈ R, su polinomio caracterı́stico tiene como
−β α
raı́es a α − iβ y α + iβ. De esta forma, la matriz B es una forma simple de expresar a T : una simple
inspección ofrece la información de cuales son las raı́es del polinomio caracterı́stico del operador.

Este ejemplo que acabamos de mostrar tiene en su esencia la manera en la buscaremos formas canónicas
de matrices y operadores en espacios vectoriales reales cuyos polinomios caracterı́sticos tienen raı́ces en
C \ R.

3.6.2. Preliminares teóricos para la forma canónica de Jordan real


Supongamos que A ∈ Mn×n (R), o que T es un operador lineal sobre un espacio vectorial U dimensión
finita n ≥ 1 sobre R. Dado que los polinomios caracterı́sticos de T y TC son iguales y con coeficientes
reales, conviene conocer como es la factorización que tiene tal polinomio en C. Esto lo revela la siguiente
proposición.

Lema 3.13. Si p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 , donde ai ∈ R para cada i = 0, · · · , n y an 6= 0,


entonces

p(x) = (x − α1 )m1 · · · (x − αr )mr (x − λ1 )ℓ1 · · · (x − λs )ℓs (x − λ1 )ℓ1 · · · (x − λs )ℓs , (3.14)

donde α1 , · · · , αr son las distintas raı́ces en R, λ1 , · · · , λs y λ1 , · · · , λs son las distintas raı́ces en C \ R.


En particular, esto implica que λ ∈ C \ R es valor propio de TC si, y sólo si, λ también lo es.

Demostración: Esta factorización del polinomio p(x) sigue inmediatamente del siguiente hecho: si λ ∈
C \ R es una raı́z de p(x), entonces λ también lo es. En efecto,

an λn + an−1 λn−1 + · · · + a1 λ + a0 = 0,

al tomar conjugados, como los coeficientes de p(x) son reales, se tiene

an (λ)n + an−1 (λ)n−1 + · · · + a1 λ + a0 = 0.

De lo cual se sigue que las multiplicidades algebraicas de una raı́z compleja y su conjugado son las mismas,
de allı́ que se satisfaga (3.14)
66 Fascı́culos de Álgebra Lineal

Corolario 3.6. Sea A ∈ Mn×n (R), o que T es un operador lineal sobre un espacio vectorial U dimensión
finita n ≥ 1 sobre R. Si α1 , · · · , αr son las distintas raı́ces del polinomio caracterı́stico en R (valores
propios de A o T ), y λ1 , · · · , λs , λ1 , · · · , λs son las distintas raı́ces del polinomio caracterı́stico en C \ R,
entonces éste se factoriza como:

p(x) = (−1)n (x − α1 )m1 · · · (x − αr )mr (x − λ1 )ℓ1 · · · (x − λs )ℓs (x − λ1 )ℓ1 · · · (x − λs )ℓs . (3.15)

Demostración: Sigue inmediatamente del lema anterior.

Lema 3.14. Sean U , T y TC como arriba. Si λ = α + iβ ∈ C \ R es valor propio de TC y w = u + iv ∈ UC


es un vector propio asociado a λ, entonces w = u−iv es vector propio asociado al valor propio λ = α−iβ.

Demostración: Si λ = α + iβ ∈ C \ R es valor propio de TC y w = u + iv ∈ UC es vector propio asociado


a λ, entonces TC (u + iv) = (α + iβ)(u + iv) = T (u) + iT (v). Mediante un cálculo directo se verifica muy
simplemente que T (u) = αu − βv y T (v) = βu + αv. Por otro lado

TC (u − iv) = T (u) − iT (v) = (αu − βv) − i(βu + αv) = (α − iβ)(u − iv),

por tanto u − iv es vector propio asociado a λ.

Lema 3.15. Si λ = α + iβ ∈ C \ R es un valor propio de TC y w = u + iv ∈ UC es tal que

[w, (TC − λI)(w), · · · , (TC − λI)r−1 (w)]

es una (TC − λI)-cadena, entonces para w = u − iv

[w, (TC − λI)(w), · · · , (TC − λI)r−1 (w)]

es también una (TC − λI)-cadena.

Demostración: Primero afirmamos que si w1 = (TC − λI)(w), entonces w1 = (TC − λI)(w). En efecto,
si w = u + iv y λ = α + iβ, sigue que

w1 = (TC − λI)(w) = TC (u + iv) − (α + iβ)(u + iv)


= T (u) + iT (v) − ((αu − βv) + i(βu + αv))
= (T (u) − αu + βv) + i(T (v) − βu − αv).

Por otra parte

w1 = (TC − λI)(w) = TC (u − iv) − (α − iβ)(u − iv)


= T (u) − iT (v) − ((αu − βv) − i(βu + αv))
= (T (u) − αu + βv) − i(T (v) − βu − αv).

Luego la afirmación anterior está demostrada. Ahora note que si

[w, (TC − λI)(w), · · · , (TC − λI)r−1 (w)] = [w0 , w1 , · · · , wr−1 ]

es una (TC − λI)-cadena, entonces dado que para cada j = 1, · · · , r − 1 se tiene wj = (TC − λI)(wj−1 ).
Por tanto, de la afirmación anterior sigue que

[w, (TC − λI)(w), · · · , (TC − λI)r−1 (w)] = [w 0 , w1 , · · · , wr−1 ]

es una (TC − λI)-cadena.


Operadores Lineales: Reducciones Matriciales 67

Comentario 3.13. Recordemos que si m es la multiplicidad algebraica de λ como valor propio de TC


en C \ R, entonces m es también la multiplicidad algebraica de λ, esto sigue por la forma que tiene el
polinomio caracterı́stico de TC ; en particular dim(N∞ (TC − λI)) = m = dim(N∞ (TC − λI)), ver lema
3.10 en la página 49. Esto implica, junto al lema anterior, que si Bλ = {w1 , · · · , wm } es una base en
(TC − λI)-cadena de N∞ (TC − λI), entonces Bλ = {w 1 , · · · , wm } es una base en (TC − λI)-cadena de
N∞ (TC − λI).

Lema 3.16. Sean λ = α + iβ un valor propio de TC en C \ R y [w0 , w1 , · · · , wr−1 ] una (TC − λI)-cadena.
Si para cada j = 0, 1, · · · , r − 1, wj = uj + ivj , entonces los vectores u0 , v0 , · · · ur−1 , vr−1 son linealmente
independientes en U ; además el subespacio por ellos generado es invariante por T .

Demostración: Supongamos que tenemos escalares α0 , β0 , · · · , αr−1 , βr−1 en R tales que

α0 u0 + β0 v0 + · · · + αr−1 ur−1 + βr−1 vr−1 = 0U .

Dado que para cualquier a + ib ∈ C y u + iv ∈ UC se tiene

(a − ib)(u + iv) + (a + ib)(u − iv) = 2(au + bv),

entonces
(α0 − iβ0 )w0 + (α0 + iβ0 )w0 + · · · + (αr−1 − iβr−1 )wr−1 + (αr−1 + iβr−1 )wr−1
= 2(α0 u0 + β0 v0 + · · · + αr−1 ur−1 + βr−1 vr−1 ) = 0U = 0UC .

Ahora bien, dado que [w0 , w1 , · · · , wr−1 ] y [w 0 , w1 , · · · , wr−1 ] son cadenas correspondientes a valores
propios distintos de TC , entonces w0 , w1 , · · · , wr−1 , w0 , w1 , · · · , wr−1 son linealmente independientes en
UC ; de lo cual se concluye que αj = βj = 0 para todo j = 0, · · · , r − 1, y por tanto los vectores
u0 , v0 , · · · ur−1 , vr−1 son linealmente independientes en U .
Veamos ahora que u0 , v0 , · · · ur−1 , vr−1 generan un subespacio de U invariante por T . Recuerde que
para cada j = 1, · · · , r − 1, wj = (TC − λI)(wj−1 ) y (TC − λI)(wr−1 ) = 0UC pues [w0 , w1 , · · · , wr−1 ] es
una (TC − λI)-cadena. De estas igualdades se tiene mediante un simple cálculo que:

T (uj−1 ) = αuj−1 − βvj−1 + uj
, para j = 1, · · · , r − 1 y (3.16)
T (vj−1 ) = βuj−1 + αvj−1 + vj

T (ur−1 ) = αur−1 − βvr−1
. (3.17)
T (vj−1 ) = βur−1 + αvr−1
Lo cual implica obviamente que el subespacio generado por u0 , v0 , · · · ur−1 , vr−1 es invariante por T.

Comentario 3.14. Sean λ = α + iβ un valor propio de TC en C \ R y [w0 , w1 , · · · , wr−1 ] una (TC − λI)-
cadena; donde wj = uj + ivj para cada j = 0, 1, · · · , r − 1. Dado que el espacio generado por los vectores
u0 , v0 , · · · ur−1 , vr−1 es invariante por T, tiene sentido considerar la representación matricial de la restric-
ción de T a tal subespacio; en particular, tal representación en la base ordenada {u0 , v0 , · · · ur−1 , vr−1 }
es, debido a las igualdades (3.16) y (3.17), la matriz triangular inferior por bloques de orden 2r × 2r:
 
R(α, β)
 I2 R(α, β) 
 
 .. 
A(α, β) = 
 I2 . ,
 (3.18)
 
 ................................... 
I2 R(α, β)
68 Fascı́culos de Álgebra Lineal

 
α β
donde el bloque R(α, β) = aparece en la diagonal principal, mientras que I2 , matriz identidad
−β α
de orden 2 × 2, apararece en la diagonal inmediata inferior. Observe que como A es triangular por
bloques, el polinomio caracterı́stico de A, y por tanto de la restricción de T al espacio generado por
{u0 , v0 , · · · ur−1 , vr−1 }, es pA (x) = (x − (α + iβ))r (x − (α − iβ))r . Note que A(α, β) es la suma de una
matriz nilpotente con orden de nilpotencia r, de hecho tal matriz es el cuadrado de una nilpotente básica
de orden 2r (ver definición 3.9 en la página 30), y una matriz diagonal por bloques con r bloques, cada
una de ellos igual a la matriz R(α, β).
Lema 3.17. Sean λ = α + iβ un valor propio de TC en C \ R y

[w01 , w11 , · · · , wr11 −1 ], [w02 , w12 , · · · , wr22 −1 ], · · · , [w0s , w1s , · · · , wrss −1 ]

(TC − λI)-cadenas cuya concatenación constituye una base en (TC − λI)-cadena de N∞ (TC − λI). Si para
cada k = 1, · · · , s y j = 0, · · · , rk − 1, wjk = ukj + ivjk , entonces

u10 , v01 , · · · , u1r1 −1 , vr11 −1 , · · · , us0 , v0s , · · · , usrs −1 , vrss −1

son linealmente independientes en U y el subespacio generado por ellos es invariante por T .


Demostración: Es similar a la del lema anterior; se dejan los detalles al lector.

Lema 3.18. Sean λ = α + iβ un valor propio de TC en C \ R,

[w01 , w11 , · · · , wr11 −1 ], [w02 , w12 , · · · , wr22 −1 ], · · · , [w0s , w1s , · · · , wrss −1 ] y


[z01 , z11 , · · · , zr11 −1 ], [z02 , z12 , · · · , zr22 −1 ], · · · [z0s , z1s , · · · , zrss −1 ]

(TC − λI)-cadenas cuya concatenación constituyen bases en (TC − λI)-cadena de N∞ (TC − λI). Si para
cada k = 1, · · · , s y j = 0, · · · , rk − 1 se tiene que wjk = ukj + ivjk y zjk = xkj + iyjk , entonces

{u10 , v01 , · · · , u1r1 −1 , vr11 −1 , · · · , us0 , v0s , · · · , usrs −1 , vrss −1 } y


{x10 , y01 , · · · , x1r1 −1 , yr11 −1 , · · · , xs0 , y0s , · · · , xsrs −1 , yrss −1 }

generan el mismo subespacio en U .


Demostración: La demostración sigue del hecho que ambos conjuntos:

{w01 , w11 , · · · , wr11 −1 , · · · , w0s , w1s , · · · , wrss −1 } y {z01 , z11 , · · · , zr11 −1 , · · · , z0s , z1s , · · · , zrss −1 }

constituyen bases de N∞ (TC − λI); se dejan los detalles al lector. Como comentario adicional, note que
ambas bases tienen la misma configuración de (TC − λI)-cadenas; ver proposición 3.4 en la página 35.

Para cada valor propio λ = α + iβ ∈ C \ R de TC el lema anterior permite introducir la siguiente


definición; recuerde que λ = α − iβ es también valor propio de TC .
Definición 3.18. Dados λ = α+iβ ∈ C\R un valor propio de TC , asumimos β > 0, y cualquier colección
de (TC − λI)-cadenas:

[w01 , w11 , · · · , wr11 −1 ], [w02 , w12 , · · · , wr22 −1 ], · · · , [w0s , w1s , · · · , wrss −1 ]

cuya concatenación constituyen una base en (TC − λI)-cadena de N∞ (TC − λI); al subespacio de U
generado por
Bλ = {u10 , v01 , · · · , u1r1 −1 , vr11 −1 , · · · , us0 , v0s , · · · , usrs −1 , vrss −1 }, (3.19)
donde wjk = ukj + ivjk para todo k = 1, · · · , s y j = 0, · · · , rk − 1, se le conoce por el nombre de espacio
nulo generalizado de T asociado a λ. Denotamos tal subespacio por N∞ (T − λI).
Operadores Lineales: Reducciones Matriciales 69

Comentario 3.15. Sea λ = α + iβ con β > 0 un valor propio de TC . Del lema 3.17 sigue que N∞ (T − λI)
es invariante por T ; además, es independiente, por el lema anterior, de la base en (TC − λI)-cadena que
se seleccione para el subespacio N∞ (TC − λI) de UC . Por otra parte, si dim(N∞ (TC − λI)) = ℓ, entonces
dim(N∞ (T − λI)) = 2ℓ.
Note que si [w01 , w11 , · · · , wr11 −1 ], [w02 , w12 , · · · , wr22 −1 ], · · · , [w0s , w1s , · · · , wrss −1 ] son (TC − λI)-cadenas
cuya concatenacion {w01 , w11 , · · · , wr11 −1 , w02 , w12 , · · · , wr22 −1 , · · · , w0s , w1s , · · · , wrss −1 } es base en (TC − λI)-
cadena de N∞ (TC − λI), y si Bλ es la base de N∞ (T − λI) ordenada como en (3.19), entonces la
representación matricial de la restricción de T a N∞ (T −λI), tomada sobre tal base, es la matriz diagonal
por bloques de orden 2ℓ × 2ℓ:
 
A1 (α, β)

 A2 (α, β) 

Jλ =  .. , (3.20)
 . 
As (α, β)

donde cada bloque Aj (α, β) (j = 1, · · · , s) es una matriz triangular por bloques, como en (3.18), cons-
truida a partir de la (TC − λI)-cadena [w0j , w1j , · · · , wrjj −1 ]. Note que Aj (α, β) es de orden 2rj × 2rj y que
r1 + · · · + rs = ℓ = dim(N∞ (TC − λI)).

Definición 3.19. Sea λ = α + iβ con β > 0 un valor propio de TC . A la matriz construida como en
(3.20) a partir de bases de N∞ (T − λI) ordenadas como en (3.19), se les conoce como bloque de Jordan
real asociado a λ .

Lema 3.19. Sean A ∈ Mn×n (R), o T un operador lineal sobre un espacio vectorial U dimensión finita
n ≥ 1 sobre R. Si el polinomio caracterı́stico de T es

p(x) = (−1)n (x − α1 )m1 · · · (x − αr )mr (x − λ1 )ℓ1 · · · (x − λs )ℓs (x − λ1 )ℓ1 · · · (x − λs )ℓs ,

donde α1 , · · · , αr ∈ R, y λ1 , · · · , λs ∈ C \ R con parte imaginaria positiva, entonces

U = N∞ (T − α1 I) ⊕ · · · ⊕ N∞ (T − αr I) ⊕ N∞ (T − λ1 I) ⊕ · · · ⊕ N∞ (T − λs I).

Demostración: La demostración sigue del hecho que

UC = N∞ (TC − α1 I) ⊕ · · · ⊕ N∞ (TC − αr I) ⊕ N∞ (TC − λ1 I) ⊕ · · ·


⊕ N∞ (TC − λs I) ⊕ N∞ (TC − λ1 I) ⊕ · · · ⊕ N∞ (TC − λs I);

ver lema 3.12 en la página 50. Se dejan los detalles al lector.

3.6.3. Construcción de la forma canónica de Jordan real


Supongamos que A ∈ Mn×n (R), o T es un operador lineal sobre un espacio vectorial U dimensión
finita n ≥ 1 sobre R, cuyo polinomio caracterı́stico de es de la forma

p(x) = (−1)n (x − α1 )m1 · · · (x − αr )mr (x − λ1 )ℓ1 · · · (x − λs )ℓs (x − λ1 )ℓ1 · · · (x − λs )ℓs ,

donde α1 , · · · , αr ∈ R (valores propios de T ), y λ1 , · · · , λs ∈ C \ R con parte imaginaria positiva;


suponemos además que α1 < · · · < αr y λ1 <C · · · <C λs ; ver (3.11) en la página 52.

1. Para cada valor propio αj , con j = 1, · · · , r, sea Bαj una base en (T − αj I)-cadena del subespacio
N∞ (T − αj I) de U ; ver sección 3.5.2.
70 Fascı́culos de Álgebra Lineal

2. Para cada valor propio λk de TC , con k = 1, · · · , s, sea Bλk una base del subespacio N∞ (T − λk I)
de U , tal y como fueron construidas en la sección anterior.

3. Dado que

U = N∞ (T − α1 I) ⊕ · · · ⊕ N∞ (T − αr I) ⊕ N∞ (T − λ1 I) ⊕ · · · ⊕ N∞ (T − λs I),

sigue del lema anterior que la unión ordenada

B = Bα1 ∪ · · · ∪ Bαr ∪ Bλ1 ∪ · · · ∪ Bλs (3.21)

es base de U ; la cual se conoce con el nombre de base de Jordan real.


Note que la representación matricial de A, o de T , en la base B de U ası́ construida, es la matriz
diagonal por bloques  
Jα1
 .. 

 . 

 
 Jαr 
J = , (3.22)
 Jλ1 
 
 .. 
 . 
Jλs
donde cada bloque Jαj = Nj + αj Imj , siendo Nj la forma canónica nilpotente asociada a T − αj I; esto
es, cada Jαj es el bloque de Jordan asociado al valor propio αj de T ; y los bloques Jλk como en (3.20),
son los bloques de Jordan reales asociados a los valores propios λk de TC .
Aun cuando las bases de Jordan real no son únicas, las representaciones matriciales sobre ellas cons-
truidas sı́ lo son; por lo que matrices de la forma (3.22) las denominaremos forma canónica de Jordan
real de T . Observe que tales matrices contienen, a simple vista, la información de quienes son los valores
propios de T (reales) y las raı́ces complejas no reales del polinomio caracterı́stico de T . De hecho también
informa sobre las multiplicidades algebraicas y geométricas de los valores propios de T y los de TC , que
son los mismos de T juntos a las raı́ces complejas no reales del polinomio caracterı́stico.
Ejemplo 3.26. Consideremos en R7 el operador lineal T cuyo polinomio caracterı́stico es

p(x) = −(x − 3)3 (x − (2 + i))2 (x − (2 − i))2 ,

con dim(N (T − 3I)) = 2 y dim(N (TC − (2 + i))) = 1. Del lema 3.10 tenemos que dim(N∞ (T − 3I)) = 3
y dim(N∞ (TC − (2 + i))) = 2, entonces:
1. Las bases en (T − 3I)-cadena de N∞ (T − 3I) son de la forma {w1 , (T − 3I)(w1 ), w2 }, siendo que
[w1 , (T − 3I)(w1 )] y [w2 ] son (T − 3I)-cadenas; por tanto, el bloque de Jordan asociado al valor
 
3 0 0
propio α = 3 es J3 = 1 3 0.
0 0 3
2. Las bases en (TC − (2 + i))-cadena de N∞ (TC − (2 + i)) son de la forma {z1 , (TC − (2 + i)I)(z1 )}.
Si hacemos Z1 = u1 + iv1 y u2 + iv2 = (TC − (2 + i)I)(z1 ), entonces {u1 , v1 , u2 , v2 } es una base
de Jordan real de N∞ (T − (2 + i)); y la representación matricial, en tal base, de T restricto al
 
2 1 0 0
 −1 2 0 0 
subespacio N∞ (T − (2 + i)) es J2+i = 
 1 0
.
2 1 
0 1 −1 2
Operadores Lineales: Reducciones Matriciales 71

Reuniendo tal información tenemos que {w1 , (T − 3I)(w1 ), w2 , u1 , v1 , u2 , v2 } es una base de Jordan real
de T , y su forma canónica de Jordan real es la matriz por bloques de orden

 
3 0 0

 1 3 0 

 0 0 3 
 
 
J2+i = 2 1 0 0 .
 
 −1 2 0 0 
 
 1 0 2 1 
0 1 −1 2

Ejemplo 3.27. Sea T : R6 → R6 un operador lineal con pT (x) = (x − (1 + 2i))3 (x − (1 − 2i))3 ,


el cual satisface dim(N (TC − (1 + 2i))) = 2. Dado que dim(N∞ (TC − (1 + 2i))) = 3, entonces las
bases en (TC − (1 + 2i))-cadena de N∞ (TC − (1 + 2i)) están formadas por 2 cadenas: una de longitud 2
[w1 , (TC − (1 + 2i))(w1 )] (la mayor), y otra de longitud 1 [w2 ]. Al hacer

u1 + iv1 = w1 , u2 + iv2 = (TC − (1 + 2i))(w1 ) y u3 + iv3 = w2 ,

tenemosque {u1 , v1 , u2 , v2 , u3 , v3 } es
 una base de Jordan real de T y su forma canónica de Jordan real la
1 2 0 0
 −2 1 0 0 
 
 1 0 1 2 
. Note que al ser considerado T como un operador en C6 , entonces
 
matriz 
 0 1 −2 1 
 
 1 2 
−2 1
 
1 − 2i 0 0

 1 1 − 2i 0 

 
 0 0 1 − 2i 
su forma canónica de Jordan es  
 1 + 2i 0 0 
 
 1 1 + 2i 0 
0 0 1 + 2i

 
1 1 0 0
 −2 0 1 0 
Ejemplo 3.28. Consideremos el operador lineal T : R4 → R4 dado por A =   2
.
0 0 1 
−2 −1 −1 −1
Como siempre A es la representación matricial de T en la base canónica de R4 . Es simple verificar que

pT (x) = (x2 + 1)2 = (x − i)2 (x + i)2 .

De acá que T no tiene valores propios, sin embargo TC tiene como valores propios a λ = i y λ = −i; ambos
con multiplicidades algebraicas igual a 2. Sigue que dim(N∞ (T − iI)) = 4, pues dim(N∞ (TC − iI)) =
2 = dim(N∞ (TC + iI)). En particular esto implica que TC − iI restricto a N∞ (TC − iI) es nilpotente de
orden 2. Vamos a construir una base en (TC − iI)-cadena de N∞ (TC − iI) de donde derivaremos la base
72 Fascı́culos de Álgebra Lineal

de Jordan real de T . Dado que


   
1−i 1 0 0 2 1+i 0 0
 −2 −i 1 0  f1 ←→(1+i)f1  −2 −i 1 0 
A − iI4 = 
 2
 −−−−−−−−−→  
0 −i 1   2 0 −i 1 
−2 −1 −1 −1 − i −2 −1 −1 −1 − i
   
2 1+i 0 0 2 1+i 0 0
f2 →f2 +f1  0 1 1 0  f3 →f3 +(1+i)f2  0 1 1 0 
−−−−−−−−−−→   −−−−−−−−−−→  
f3 → f3 − f1
 0 −1 − i −i 1  f 4 →f 4 −if 2
 0 0 1 1 
f4 → f4 + f1 0 i −1 −1 − i 0 0 −1 − i −1 − i
 
2 1+i 0 0
f4 →f4 +(1+i)f3  0 1 1 0 
−−−−−−−−−−→   0
,
0 1 1 
0 0 0 0
 1+i  
 − 2 z 

 

z  4
entonces dim(N (TC − iI)) = 1 y N (TC − iI) =   ∈ C : z ∈ C . Por otro lado, como

 −z  

 
z
   
−2 − 2i 1 − 2i 1 0 f1 ←→ (−1 + i)f1 4 1 + 3i −1 + i 0
 4i −3 −2i 1  f2 ←→ −if2  4 3i −2 −i 
(A − iI4 )2 = 
 −4i
 −−−−−−−−−−−−−→  
1 −2 −1 − 2i  f3 ←→ if3
 4 i −2i 2−i 
4i −1 + 2i 2i −1 + 2i f4 ←→ −if4 4 2+i 2 2+i
   
4 1 + 3i −1 + i 0 4 1 + 3i −1 + i 0
f2 →f2 −f1  0 −1 −1 − i −i  f3 →f3 −(1+2i)f2  0 −1 −1 − i −i 
−−−−−−−−−−→   0 −1 − 2i 1 − 3i 2 − i
 −−−−−−−−−−−→ 
 f4 →f4 +(1−2i)f2  0
,
f3 → f3 − f1 0 0 0 
f4 → f4 − f1 0 1 − 2i 3−i 2+i 0 0 0 0
  
(−1+3i)z+(−3+i)w

 4



  

−(1 + i)z − iw
sigue que N∞ (TC − iI) = N ((TC − iI)2 ) =  4
 
 ∈ C : z, w ∈ C . Por tanto, para

 z  


 

w
cualquier vector v ∈ C4 tal que v ∈ N∞ (TC − iI) \ N (TC − iI) se tiene que {v, (A − iI4 )(v)} es una base
en (TC − iI)-cadena de N∞ (TC − iI); por ejemplo:
   1−i 
− 1+2i
2 2
 2   i 
v=
  , (A − iI4 )(v) = 
 .
−1 + i −i 
0 i

Luego {u1 , v1 , u2 , v2 } es una base de Jordan real para T (y A), donde


     1   
− 12 −1 2 − 12
 2   0   0
 y v2 =  1  ,
  
u1 = 
  , v1 = 
  , u2 = 

−1  1  0   −1 
0 0 0 1
Operadores Lineales: Reducciones Matriciales 73

 
− 12 −1 1
2 − 12
 2 0 0 1 
de hecho v = u1 + iv1 y (A − iI4 )(v) = u2 + iv2 ; además, si P =  −1
, entonces
1 0 −1 
0 0 0 1
 
0 1 0 0
 −1 0 0 0 
P −1 AP = 
 1 0
 es la forma canónica de Jordan real de T y A.
0 1 
0 1 −1 0

3.6.4. Ejercicios Propuestos de la Sección 3.6

1. Determine cuáles de las siguientes matrices son bloques de Jordan real de acuerdo a los criterios
acá establecidos:
     
1 1 0 0 1 1 0 0 1 1 0 0
 −1 1 0 0 
 b)  −1 1 0 0   c)  −1 1 0 0 
 
a)  1 0

1 1   1 0 2 2   0 0 1 1 
0 1 −1 1 0 1 −2 2 0 0 −1 1
     
1 −1 0 0 1 0 0 0 1−i 0 0 0
 1 1 0 0   0 1 0 0   0 1 − i 0 0 
d) 
 1
 e) 
 0 1 1 0  f)  1
  
0 1 −1  0 1−i 0 
0 1 1 1 0 0 1 1 0 1 0 1−i

¿Puede un bloque de Jordan real asociado a un valor propio no real del complexificado de un
operador lineal ser de orden impar?. Explique su respuesta.

2. Determine cuáles de las siguientes matrices son formas canónicas de Jordan reales de acuerdo al
criterio establecido:      
  1 1 0 0 2 1 0 0 0 0 0 0
0 0 0  −1 1 0 0   c)  −1 2 0 0  d)  0 0
   0 0 
a)  0 2 1  b)   1 0

1 1   0 0 0 0   0 0 −2 3 
0 −1 2
0 1 −1 1 0 0 0 0 0 0 −3 −2
   
−1 0 0 0 0 0 −1 0 0 0 0 0
 0 −2 0 0 0 0   0 −2 0 0 0 0 
   
 0 0 0 1 0 0    0 0 
  0 0 0 1 
e)   f)  
 0 0 −1 0 0 0   0 0 −1 0 0 0 
   
 0 0 1 0 0 1   0 0 0 0 0 1 
0 0 0 1 −1 0 0 0 0 0 −1 0

3. Cada una de las siguientes matrices A son formas canónicas de Jordan reales de un operador lineal
T en algún Rn . Determine: polinomio caracterı́stico y sus raı́ces λ (tanto reales como complejas);
dim(N∞ (T −λI)) para cada λ ∈ C\R con parte imaginaria positiva; dim(N (TC −λI)) y la estructura
de cada una de las bases que conforman los bloques de Jordan:
     
3 0 0 0 −4 1 0 0 1 1 0 0
 1 3 0 0   −1 −4 0 0   −1 1 0 0 
a) 
 0 0
 b)   c)  
3 1   0 0 0 2   1 0 1 1 
0 0 −1 3 0 0 −2 0 0 1 −1 1
74 Fascı́culos de Álgebra Lineal

   
−1 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0

 1 −1 0 0 0 0 0 0 


 −2 0 0 0 0 0 0 0 


 0 0 −1 1 0 0 0 0 


 0 0 2 1 0 0 0 0 

   
 0 0 −1 −1 0 0 0 0   0 0 −1 2 0 0 0 0 
d)   e)  
 0 0 1 0 −1 1 0 0   0 0 1 0 2 1 0 0 
   

 0 0 0 1 −1 −1 0 0 


 0 0 0 1 −1 2 0 0 

 0 0 0 0 0 0 −1 1   0 0 0 0 1 0 2 1 
0 0 0 0 0 0 −1 −1 0 0 0 0 0 1 −1 2
4. Encontrar la forma canónica de Jordan real del operador lineal T : Rn → Rn a partir de los datos
que se suministran.

a) n = 6, el polinomio caracterı́stico es x2 (x − 1)2 (x − i)(x + i); siendo que dim(N (T )) = 1 y


además dim(N (T − I)) = 2.
b) n = 6, el polinomio caracterı́stico tiene como únicas raı́ces a λ = 3+i y λ, ambas con multiplici-
dad 3; además, dim(N (TC −λI)) = 2. ¿Está bien formulado el problema si dim(N (TC −λI)) = 2
y dim(N (TC − λI)) = 4?
c) n = 8 con polinomio caracterı́stico (x−(1+2i))4 (x−(1−2i))4; donde dim(N (TC −(1+2i)I)) = 2
y dim(N ((TC − (1 + 2i)I)2 )) = 3.

5. Para cada una de las siguientes matrices determine su forma canónica de Jordan real; especı́fique
la matriz de cambio de base para obtenerla.
     
0 −1 0 0 0 0 0 −8 0 4 −5 4
 1 0 0 0   1 0 0 16   −1 3 −3 4 
a) 
 0
 b)   c)  
0 0 −1   0 1 0 −14   1 0 −2 4 
2 0 1 0 0 0 1 6 0 1 −3 3
   
3 4 0 4 −4 8 2 4 −4 4 0 0
 −2 −2 2 3 1 −2   −2 −2 6 −4 −2 4 
   
   
 1 1 2 2 −1 6   0 0 0 2 2 0 
d)   e)  
 0 1 −1 1 3 −2   0 0 −4 4 4 −4 
   
 0 0 1 1 −3 8   0 0 0 0 0 4 
0 0 0 1 −3 5 0 0 0 0 −2 4
6. Encontrar todas las posibles formas canónicas de Jordan real de un operador sobre algún Rn cuyo
polinomio caracterı́stico es:
a) (x − 1)2 (x − 2i)2 (x + 2i)2 b) (x + 1 − i)(x + 1 + i)x2 c) (x2 + 1)4 (x − 2)3

7. Demostrar que UC = {u + iv : u, v ∈ U } con las operaciones de adición y multiplicación por


escalares en C definidas en la página 60, es un espacio vectorial sobre C. Además, que la aplicación
Φ : U → UC dada por Φ(u) = u + i0U es inyectiva. Ası́, U está inmerso en UC .

8. Demostrar el lema 3.17.

9. Completar los detalles de la demostración del lema 3.18.

10. Completar los detalles de la demostración del lema 3.19.

También podría gustarte