Fasciculo 7
Fasciculo 7
Fasciculo 7
Neptalı́ Romero
Universidad Centro Occidental Lisandro Alvarado
Decanato de Ciencias y Tecnologı́a
Departamento de Matemáticas
Abril, 2005
Índice general
2
3
Operadores Lineales: reducciones matriciales
Este capı́tulo está destinado exclusivamente a presentar: matrices semajantes “simples” de una ma-
triz cuadrada dada, y formas simplificadas de expresar matricialmente operadores lineales en espacios
vectoriales de dimensión finita.
Como sabemos, si U es un espacio vectorial de dimensión finita n ≥ 1 sobre K y T : U → U es un
operador lineal en U , entonces existen matrices en Mn×n (K) mediante las cuales se describe la acción de
T sobre los vectores en U ; más precisamente, para cada base (ordenada) B de U existe una única matriz
A = [T ]B ∈ Mn×n (K) tal que, para cada u ∈ U se satisface la identidad [T (u)]B = A [u]B . Puesto que
las representaciones matriciales de T varı́an con la base escogida, es natural pensar que puedan existir
algunas bases de U en las cuales las representaciones matriciales del operador sean “simples”.
Con el objetivo de estimular el interés en el tópico que acá expondremos, consideraremos un primer
ejemplo.
Ejemplo 3.1. Sea T : P2 (R) → P2 (R) el operador lineal definido por
Es simple verificar que en la base B = {1, x, x2 } de P2 (R), la representación matricial de T es dada por
4 0 1
la matriz A = [T ]B = 2 3 2. Esto indica que la acción de T sobre cualquier función polinómica de
1 0 4
grado menor o igual a 2, p(x) = a0 + a1 x + a2 x2 , es como el producto de A por una matriz unicolumna
[p(x)]B ; es decir,
4a0 + a2
[T (p(x))]B = A [p(x)]B = 2a0 + 3a1 + 2a2 .
a0 + 4a2
Sin embargo, al tomar por ejemplo la base B ′ = {p1 (x), p2 (x), p3 (x)}, donde
y en vista de que
T (p1 (x)) = 5 + 10x + 5x2 = 5p1 (x) + 0p2 (x) + 0p3 (x) = 5p1 (x),
T (p2 (x)) = 3 − 3x2 = 0p1 (x) + 3p2 (x) + 0p3 (x) = 3p2 (x), y (3.1)
T (p3 (x)) = 3x = 0p1 (x) + 0p2 (x) + 3p3 (x) = 3p3 (x),
5 0 0
sigue que [T ]B′ = B = 0 3 0 es la representación matricial de T en la base B′ . De esta forma la
0 0 3
acción de T sobre cualquier p(x) ∈ P2 (R) es el producto de esta matriz diagonal por el correspondiente
vector de coordenadas de esta función polinómica p(x) en la base B ′ ; es decir, para cada p(x) ∈ P2 (R) se
tiene que
5 0 0
[T (p(x))]B′ = 0 3 0 [p(x)]B′ .
0 0 3
3
4 Fascı́culos de Álgebra Lineal
La matriz B que es diagonal (y por tanto “más simple” que A) también representa la acción del operador
T sobre los vectores de P2 (R). Note además que existe una única matriz invertible P ∈ M3×3 (R) tal que
5 0 0 4 0 1
0 3 0 = P −1 2 3 2 P ;
0 0 3 1 0 4
P es justamente la matriz de cambio de base de B hacia B ′ ; por lo que B y A son matrices semajantes.
Como veremos, no todo operador lineal en un espacio vectorial de dimensión finita admite una re-
presentación matricial tan simple como una matriz diagonal; no obstante siempre es posible obtener otro
tipo de representaciones matriciales que en cierto sentido son las más simple; éstas son conocidas como
formas canónicas matriciales del operador. Supongamos por un instante que T es un operador lineal como
arriba, y que J es la representación matricial “canónica” de T (la más simple); es claro por tanto que
existe una base B de U tal que J = [T ]B . Luego si A es cualquier otra representación matricial de T ,
entonces existe una matriz P invertible tal que J = P −1 A P . Esto permite concluir que la matriz J es
la matriz más simple (la forma conónica) en la clase de todas las matrices semajantes a ella.
El punto de partida para la obtención de estas “formas canónicas” (que aún no hemos definido) son
las nociones de valores y vectores propios de un operador lineal o una matriz cuadrada.
Definición 3.1. Sean U un espacio vectorial sobre K y T : U → U un operador lineal. Un valor propio
de T es un escalar λ ∈ K tal que, para algún vector no nulo u ∈ U se cumple T (u) = λu. A un tal vector
u se le conoce como vector propio de T asociado al valor propio λ.
Comentario 3.1. En la literatura matemática se pueden encontrar varias denominaciones para los
valores propios (resp. vectores propios), entre ellas: autovalores (resp. autovectores), valores caracterı́sticos
(resp. vectores caracterı́sticos). Acá emplearemos valores y vectores propios. En el idioma inglés es común
encontrar el calificativo de “eigenvalue” y “eigenvector” para referirse a los valores y vectores propios,
aunque el prefijo “eigen” es de origen germano, el cual significa propio.
Observe que el hecho de ser λ ∈ K un valor propio de T : U → U y u ∈ U (u 6= 0U ) un vector
propio asociado a λ equivale a que el vector u pertenezca al núcleo del operador T − λI, donde I es el
operador identidad en U ; en efecto, pues T (u) = λu si, y sólo si (T − λI)(u) = 0U , lo cual equivale a decir
que u ∈ N (T − λI). En otras palabras, λ ∈ K es un valor propio de T si, y sólo si, T − λI es singular
(no inyectivo). En este caso, los vectores no nulos de N (T − λI) son los vectores propios asociados a
valor propio λ. A este núcleo N (T − λI) se le conoce con el nombre de subespacio propio de λ; que por
tratarse de un núcleo de un operador lineal, es un subespacio vectorial de U . En adelante denotaremos
al subespacio propio asociado a λ por Nλ (T ).
Operadores Lineales: Reducciones Matriciales 5
Es un hecho simple de verificar que el subespacio propio de un valor propio de T es invariante por T ;
esto es, si λ ∈ K es un valor propio no nulo de T , entonces T (Nλ (T )) = Nλ (T ); ver ejercicio 6 en página
14.
Ejemplo 3.2. El lector podrá verificar que para el operador lineal T : P2 (R) → P2 (R) del ejemplo
anterior los escalares λ1 = 5 y λ2 = 3 son valores propios de T ; de hecho p1 (x) = 1 + 2x + x2 es un vector
propio asociado a λ1 , mientras que p2 (x) = 1 − x2 y p3 (x) = x son vectores propios asociados al vector
propio λ2 ; ver (3.1), pues
x 0 x x x 1
tanto, 6= es tal que T = λ1 si, y sólamente si, existe α ∈ C tal que =α .
y 0 y y y i
1
De igual forma se verifica que es base del espacio propio asociado al valor propio λ2 ; con lo
−i
1
cual todo vector propio asociado al valor propio λ2 es de la forma α , con α ∈ C no nulo.
−i
1 1
Observe que los vectores y son linealmente independientes en C2 (como un espacio vectorial
i −i
1 1
sobre C), de hecho B = , es una base de C2 ; y como
i −i
1 1 1 1
T = (1 + i) = (1 + i) +0 , y
i i i −i
1 1 1 1
T = (1 − i) =0 + (1 − i) ,
−i −i i −i
1+i 0 1 1
entonces [T ]B = ; más aun, para la matriz invertible P = se tiene que
0 1−i i −i
1 1 1+i 0
P −1 P = ,
−1 1 0 1−i
1. los valores propios de T son todos los escalares λ ∈ K para los cuales el sistema de ecuaciones
lineales homogéneo es ([T ]B − λIn )X = O admite soluciones no triviales; y
2. los vectores propios asociados a un valor propio λ ∈ K de T son los vectores no nulos u ∈ U cuyos
vectores de coordenadas en la base B considerada son soluciones del sistema de ecuaciones lineales
([T ]B − λIn )X = O.
Operadores Lineales: Reducciones Matriciales 7
Como sabemos, el sistema de ecuaciones lineales ([T ]B − λIn )X = O tiene soluciones no nulas si, y
sólo si, tal matriz [T ]B − λIn es singular (no invertible), lo que equivale a det([T ]B − λIn ) = 0. Concluimos
entonces diciendo que:
Observe que la forma de cómo hemos reducido el problema de encontrar los valores propios de un
operador lineal T en el espacio vectorial U de dimensión finita n ≥ 1, pasó por la consideración de una
base particular de U . Surge por tanto la siguiente interrogante: ¿dependen los valores propios de T de la
representación matricial escogida? La respuesta es no.
Demostración: Dado que A y B representan al mismo operador lineal, existe una única matriz invertible
P ∈ Mn×n (K) tal que B = P −1 A P . Sigue por tanto que
1. λ ∈ K es un valor propio de T ,
Dado que las matrices cuadradas de orden n × n con coeficientes en K están en correspondencia
biunı́voca con los operadores lineales en cualquier espación de dimensión n sobre K, entonces procedemos
a definir valores y vectores propios de matrices cuadradas..
Definición 3.2. Dada A ∈ Mn×n (K), se dice que λ ∈ K es valor propio de A, si existe X ∈ Kn (vector
unicolumna) no nulo tal que AX = λX; un tal vector se le denomina vector propio de A asociado a λ ; y
al subespacio vectorial Nλ (A) = {X ∈ Kn : (A − λIn )X = 0} se le llama subespacio propio de A asociado
a λ.
1. λ ∈ K es valor propio de A,
2. A − λIn es singular, y
3. det(A − λIn ) = 0
8 Fascı́culos de Álgebra Lineal
Nótese que los valores propios son invariantes por semejanza (o similaridad) de matrices; esto es,
si A, B ∈ Mn×n (K) son tales que para alguna matriz invertible P se tenga B = P −1 A P , entonces
det(A − λIn ) = det(B − λIn ) para todo λ ∈ K; esto sigue de la proposición anterior.
Como se habrá notado, en el cálculo de los valores propios de un operador lineal en un espacio vectorial
de dimensión finita, o de una matriz cuadrada, la solución en x de la ecuación det(A − xI) = 0 es crucial.
Examinaremos por tanto este tipo de expresión algebraica. Supongamos inicialmente que A ∈ M1×1 (K),
a a12
en este caso, det(A − xI1 ) = a11 − x es un polinomio de grado 1 en x. Si A = 11 , entonces
a21 a22
a11 − x a12
det(A − xI2 ) =
= x2 − (a11 + a22 )x + (a11 a22 − a12 a21 );
a21 a22 − x
que es un polinomio de grado 2 en x; observe que el término constante de este polinomio es det(A), y el
a11 a12 a13
coeficiente que de x es −tr(A) = −(a11 + a22 ). Al considerar A = a21 a22 a23 tenemos
a31 a32 a33
a11 − x a12 a13
det(A − xI3 ) = a21 a22 − x a23 = −x3 + (a11 + a22 + a33 )x2
a
31 a32 a33 − x
− (a11 a22 − a12 a21 + a11 a33 − a13 a31 + a22 a33 − a23 a32 )x + det(A);
de donde, det(A − xI3 ) es un polinomio de grado 3 en x cuyo término constante es det(A) y el coeficiente
a11 · · · a1n
de x2 es la traza de A. En general, para cualquier matriz A = ... .. .. se tiene
. .
an1 ··· ann
a11 − x · · · a1n
det(A − xIn ) = ... .. ..
= (−1)n xn + (−1)n−1 tr(A)xn−1 + t.o.i. + det(A),
. .
a
n1 ··· ann − x
donde t.o.i denota los términos de ordenes intermedios entre n − 2 y 1. Ası́, det(A − xIn ) es un polinomio
de grado n en x cuyo término constante es det(A), el coeficiente de xn es (−1)n y el coeficiente de xn−1
es (−1)n−1 tr(A).
Definición 3.3. Dada A ∈ Mn×n (K), se denomina polinomio caraterı́stico de A al polinomio en x dado
por pA (x) = det(A − xIn ).
Vimos anteriormente que det([T ]B − xIn ) y det([T ]B′ − xIn ) son iguales, sean cuales fueren las bases
B y B′ del espacio vectorial U . Esto hace consistente la siguiente definición.
Definición 3.4. Dado un operador lineal T en el espacio vectorial U de dimensión finita n ≥ 1, se conoce
como polinomio caraterı́stico de T a pT (x) = det([T ]B − xIn ), donde B es cualquier base de U .
Ejemplo 3.4. Consideremos el operador lineal T : P2 (R) → P2 (R) cuya representanción matricial en
2 2 −1
la base B = {1, 1 − x, 1 − 2x + x2 } es A = 1 3 −1 . Calculemos los valores propios de A y sus
2 2 0
Operadores Lineales: Reducciones Matriciales 9
Usando, por ejemplo, la regla de Ruffini se obtiene que λ = 1 es una raı́z de det(A − xI3 ); factorizando
el polinomio caracterı́sco pA (x) se tiene que pA (x) = (x − 1)(−x2 + 4x − 4) = −(x − 1)(x − 2)2 . Luego
los valores propios de T son λ1 = 1, con multiplicidad 1; y λ2 = 2, con multiplicidad 2.
Conocidos los valores propios de T procedamos a obtener los subespacios propios asociados a cada
uno de ellos. Recordemos que el subespacio propio asociado a un valor propio λ de T es el subespacio
vectorial Nλ (T ); esto es, v ∈ Nλ (T ) si, y sólo si, (T − λI)(v) = 0U ; de donde, v ∈ Nλ (T ) si, y sólo si,
[(T − λI)(v)]B = 0, que es (A − λI3 )[v]B = 0. Por tanto, un vector v pertenece al subespacio propio
asociado a λ si, y sólo si, [v]B es un vector solución del sistema de ecuaciones lineales homogéneo dado
por la matriz A − λI3 , donde A = [T ]B .
• Espacio solución de (A − I3 )X = 0.
La matriz A − I3 tiene rango 2, en efecto:
1 2 −1 1 2 −1 1 2 −1
f2 →f2 −f1 f2 ←→f3
A − I3 = 1 2 −1 −−−−−−−→ 0 0 0 −−−−−→ 0 −2 1 .
f3 →f3 −2f1
2 2 −1 0 −2 1 0 0 0
Por tanto la dimensión del espacio solución del sistema (A − I3 )X = 0 es igual a 1 (diferencia entre el
número de variables del sistema y el rango de la matriz); que es dim(N1 (A) = 1. Dado que el sistema
0
(A − I3 )X = 0 tiene una variable libre (la última), entonces el vector 21 constituye una base del
1
espacio solución de (A − I3 )X = 0. Interpretando esto en términos del operador lineal T y la base B,
sigue que la función polinómica p1 (x) = 0.1 + 21 (1 − x) + 1.(1 − 2x + x2 ) = 32 − 25 x + x2 ; constituye una
base de N1 (T ); en particular, los vectores propios de T asociados al valor propio λ1 = 1 son aquellos
que se obtienen como múltiplos no nulos de p1 (x); es decir, q(x) satisface T (q(x)) = q(x) si, y sólo si,
q(x) = α p1 (x) para algún α ∈ R.
• Espacio solución de (A − 2I3 )X = 0.
Al analizar el sistema homogéneo (A − 2I3 )X = 0 tenemos que la matriz A − 2I3 tiene rango 2:
0 2 −1 1 1 −1 1 1 −1
f1 ←→f2 f3 →f3 −2f1
A − 2I3 = 1 1 −1 −−−−−→ 0 2 −1 −−−−−−−→ 0 2 −1 ;
2 2 −2 2 2 −2 0 0 0
ası́, dim(N2 (A)) = dim(N2 (T )) = 1 y una base del espacio solucion de (A − 2I3 )X = 0 la constituye el
1
2
1
vector 2
; cuya interpretación en la base B es la función polinómica
1
p2 (x) = 12 1 + 21 (1 − x) + 1.(1 − 2x + x2 ) = 2 − 52 x + x2 ,
la cual determina una base del subespacio propio, N2 (T ), asociado al valor propio λ2 = 2 de T . En otras
palabras, q(x) ∈ P2 (R) satisface T (q(x)) = 2q(x) si, y sólo si, existe α ∈ R tal que q(x) = α p2 (x).
10 Fascı́culos de Álgebra Lineal
3
x x + 12 y
Ejemplo 3.5. Consideremos ahora en R2 el operador lineal dado por T = 21 . Clara-
y x + 3y
23 1 2
mente la representación matricial de T en la base canónica de R2 es la matriz A = 12 23 . Luego el
2 2
polinomio caracterı́stico de T es
3 1
−x 3
2
pT (x) = det(A − xI2 ) = 2
1 3
2 =
2 −x − 14 ;
2 2 −x
ası́, los valores propios de T son λ1 = 2 y λ2 = 1. De esta forma, los subespacios propios asociados a λ1
y λ2 son los núcleos de los operadores T − 2I y T − I, respectivamente; los cuales corresponden a los
espacios solución de los sistemas de ecuaciones lineales homogéneos (A − 2I2 )X = 0 y (A − I2 )X = 0.
1 1
Un cálculo directo muestra que estos sistemas lineales tienen a y como bases de sus
1 −1
1
espacios soluciones. Ası́, N2 (T ) es el subespacio de R2 generado por el vector ; con lo cual, N2 (T )
1
es la recta del plano real con ecuación x − y = 0. Similarmente, N1 (T ) es la recta del plano real con
ecuación x + y = 0.
Como comentario adicional en este ejemplo observe que los puntos sobre cada una de estas rectas son
mapeados por T sobre la misma recta; es decir, los subespacios N2 (T ) y N1 (T ) son invariantes por T ; de
hecho, cada punto diferente del origen en la recta N2 (T ) es envı́ado sobre N2 (T ) en la misma dirección
del punto y 2 veces más alejado del origen que el punto original; mientras que los puntos de N1 (T ) son
dejados fijos por T . La gráfica 3.1 revela este comportamiento de T sobre los subespacios propios.
T (u)
N1 (T )
u
v = T (v)
N2 (T )
2
Finalmente,
dado
que
la matriz A es la representación matricial de T en la basecanónica de R y en
1 1 2 0
la base , la representación matricial de T es la matriz B = , entonces la matriz
1 −1 0 1
1 1
invertible P = es tal que B = P −1 A P .
1 −1
Operadores Lineales: Reducciones Matriciales 11
Teorema 3.3 (Teorema Fundamental del Álgebra). Todo polinomio p(x) de grado n ≥ 1 con
coeficientes en C, tiene exactamente n raı́ces, contadas aquellas que se repiten.
es decir, pT (x) se factoriza en potencias de los monomios x − λi (i = 1, · · · , k), donde λ1 , · · · , λk son los
valores propios distintos de T , y r1 , · · · , rk son las veces que se repiten λ1 , · · · , λk como raı́ces de pT (x).
Por otra parte, si T es un operador lineal en un espacio vectorial U de dimensión finita n ≥ 1 sobre R (o
si A ∈ Mn×n (R)), entonces pT (x) tiene a lo más n raı́ces en R (contadas las veces que éstas se repiten);
pues puede ocurrir que pT (x) tenga alguna de sus raı́ces en C \ R; ver el ejemplo 3.3. Ası́, si pT (x) tiene
todas sus raı́ces (n en total) en R, entonces pT (x) se factoriza como en la ecuación (3.3). Pero si pT (x)
admite raı́ces que no son números reales, y λ1 , · · · , λk son las raı́ces reales distintas de T (por tanto los
valores propios de T ) cuyas veces que se repiten son, respectivamente, r1 , · · · , rk con 0 ≤ r1 +· · ·+rk < n,
entonces existe un polinomio q(x) con coeficientes en R de grado n − (r1 + · · · + rk ) tal que
Definición 3.5. Sea T un operador lineal definido en el espacio vectorial U de dimensión finita n ≥ 1
sobre K (resp. A ∈ Mn×n (K)). Si λ ∈ K es un valor propio de T (resp. valor propio de A), se conoce
con el nombre de multiplicidad algebraica de λ al mayor entero positivo k tal que (λ − x)k es un factor
del polinomio caracterı́stico de T (resp. de A); es decir, la multiplicidad algebraica de λ es el número de
veces que éste se repite como raı́z del polinomio caracterı́stico.
A la dimensión del subespacio propio asociado a λ, dim(Nλ (T )), (resp. dim(Nλ (A))), se le denomina
multiplicidad geométrica de λ.
No siempre las distintas multiplicidades de un valor propio coinciden. Observe el ejemplo 3.4 de la
2 2 −1
página 8; la matriz A = 1 3 −1 (o el operador allı́ descrito) tiene como polinomio caracterı́stico
2 2 0
2
a pA (x) = −(x − 1)(x − 2) ; en consecuencia las multiplicidades algebraicas de λ1 = 1 y λ2 = 2 son,
respectivamente: r1 = 1 y r2 = 2. En este caso las multiplicidades geométricas de λ1 y λ2 son ambas
iguales a 1.
12 Fascı́culos de Álgebra Lineal
Creemos importante destacar que si B es una matriz de orden 3×3 con el mismo polinomio caracterı́sco
pA (x) anterior, entonces no necesariamente los valores propios de B (que son los mismos de A) tienen
1 0 0
multiplicidades geométricas iguales a 1. Por ejemplo, para B = 0 2 0 el polinomio caracterı́stico es
0 0 2
1
2
pB (x) = pA (x) = −(x − 1)(x − 2) , sin embargo, como podrá chequearse de manera muy simple, 0
0
0 0
y 1 , 0 constituyen bases de los subespacios propios N1 (B) y N2 (B); esto es, las multiplicidades
0 1
geométricas de λ1 = 1 y λ2 = 2 son, respectivamente: iguales a 1 y 2.
A continuación mostraremos un resultado que establece una relación de orden entre las multiplicidades
algebraicas y geométricas de los valores propios de un operador lineal o de una matriz cuadrada.
Teorema 3.4. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K, y T un operador lineal
en U (resp. A ∈ Mn×n (K)). Si λ ∈ K es un valor propio de T (resp. de A), entonces su multiplicidad
geométrica es siempre menor o igual a su multiplicidad algebraica.
Esto implica que k ≤ d, pues de lo contrario se tendrı́a pT (x) = (x − λ)d q(x), siendo que el polinomio
q(x) es dado por q(x) = (−1)k (x − λ)k−d det(B − x In−k ), lo cual es imposible ya que, por hipótesis, q(x)
no tiene a x − λ como un factor.
Operadores Lineales: Reducciones Matriciales 13
3. Determinar los polinomios caracterı́sticos de los operadores nulo e identidad en un espacio vectorial
de dimensión finita.
0 1 0 ··· 0
0 0 1 ··· 0
. .. .. .. ..
4. Determine el polinomio caracterı́stico de la matriz real A = . . . . . . .
0 0 0 ··· 1
an−1 an−2 an−3 · · · a0
14 Fascı́culos de Álgebra Lineal
6. Demostrar que los subespacios propios son invariantes por T ; de hecho, si λ ∈ K es un valor propio
no nulo de T , entonces T (Nλ (T )) = Nλ (T ). Si λ = 0 es un valor propio de T , demuestre que
T (N0 (T )) ⊂ N0 (T ). ¿Será cierto que también se cumple la igualdad?
7. Demostrar que los valores propios de cualquier matriz triangular son los elementos de la diagonal.
8. Demostrar que para toda A ∈ Mn×n (K), los polinomios caracterı́sticos de A y At son iguales.
¿Ocurre lo mismo con sus vectores propios?
10. Sea A ∈ Mn×n (K) y pA (x) = (−1)n xn + an−1 xn−1 + · · · + a1 x + a0 su polinomio caracterı́stico.
11. Sean A1 , · · · , Ak matrices cuadradas,no necesariamente de los mismos ordenes, y sea A la ma-
A1 0 ··· 0
0 A2 · · · 0
triz diagonal por bloques A = . .. .. .. . Demostrar que pA (x) = pA1 (x) · · · pAk (x).
.. . . .
0 0 · · · Ak
Generalize el resultado para matrices triangulares por bloque.
14. Sea C(R, R) el espacio vectorial sobre R de todas las funciones continuas f : R → R. Se define el
operador lineal T en C(R, R) que envı́a cada función f ∈ C(R, R) en la función T (f ) : R → R dada,
Rx
para cada x ∈ R, por T (f )(x) = 0 f (t) dt. Demostrar que T no admite valores propios.
15. Sean A y B en Mn×n (K). Demostrar que los polinomios caraterı́sticos de AB y BA son iguales.
Sugerencia: Demostrar que si P, Q ∈ Mn×n (K) son tales que P Q − In es invertible, entonces
QP − In es invertible; para ello verifique que −(QP − I)(I + Q(P Q − I)−1 P ) = I. Luego emplear
este resultado para mostrar lo que se pide.
16. Sean A ∈ Mn×n (K) una matriz diagonal y pA (x) = (x−λ1 )d1 · · · (x−λk )dk su polinomio caracterı́sti-
co, donde λ1 , · · · , λk son sus valores propios distintos. Sea W el subespacio vectorial de Mn×n (K)
de todas las matrices B tales que AB = BA. Demostrar que W tiene dimensión d21 + · · · + d2k .
Sugerencia: Considere el operador lineal T : Mn×n (K) → Mn×n (K) dado por T (B) = AB − BA.
Encuentre la representación matricial de T en la base {E11 , · · · , E1n , · · · , En1 , · · · , Enn } donde cada
Eij es la matriz cuadrada de orden que tiene 0 en todas sus entradas, excepto en la entrada ij que
es igual a 1.
17. Fijada A ∈ Mn×n (K) se define el operador lineal T : Mn×n (K) → Mn×n (K) por T (B) = AB.
¿Tienen A y T los mismos valores propios?
Definición 3.6. Sea U un espacio vectorial de dimensión finita n ≥ 1 sobre K. Un operador lineal
T : U → U se dice diagonalizable si existe una base B de U tal que [T ]B es diagonal.
Una matriz A ∈ Mn×n (K) se dice diagonalizable si existe una matriz invertible P ∈ Mn×n (K) tal que
P −1 A P sea diagonal; es decir, que sea semejante a una matriz diagonal.
Ejemplo 3.6. Al inicio de este capı́tulo mostramos un operador lineal en el espacio P2 (R) cuya repre-
4 0 1
sentación matricial en la base B = {1, x, x2 } es la matriz A = 2 3 2. Allı́ también se mostró que en
1 0 4
5 0 0
la base B′ = {1 + 2x + x2 , 1 − x2 , , x} se tiene que [T ]B′ = 0 3 0. Lo cual implica que dicho operador
0 0 3
1 1 0
es diagonalizable. Observe que la matriz de cambio de base de B hacia B ′ es P = 2 0 1 , y
1 −1 0
1 1
2 0 2 5 0 0
P −1 = 12 0 − 21 , entonces P −1 A P = 0 3 0; por lo que A también es diagonalizable.
−1 1 −1 0 0 3
Ejemplo 3.7. No todas las matrices cuadradas u operadores lineales son diagonalizables. Consideremos
el operador lineal T : R3 → R3 cuya representación matricial en la base canónica de R3 es la matriz
16 Fascı́culos de Álgebra Lineal
0 0 0 x 0 x
A = 0 0 0. Claramente esto significa que T y = 0 para todo y de R3 . Obviamente
1 0 0 z x z
T no es el operador nulo, por lo que ninguna representación matricial es la matriz nula. Si T fuese
α1 0 0
diagonalizable, existirı́a una matriz P invertible tal que, P −1 AP = 0 α2 0 = B, para ciertos
0 0 α3
números reales α1 , α2 , α3 (al menos uno de ellos no nulo). Note que B es la representación matricial de T
en alguna otra base en la que P es la matriz de cambio de la primera a la segunda de estas bases. Dado que
2
0 0 0 α1 0 0 0 0 0
B 2 = (P −1 AP )(P −1 AP ) = P −1 A2 P y A2 = 0 0 0, entonces B 2 = 0 α22 0 = 0 0 0,
0 0 0 0 0 α32 0 0 0
de donde α1 = α2 = α3 = 0; es decir B = O, lo cual no puede ser; ası́ que tanto A como T no son
diagonalizables.
La siguiente proposición es la primera de las caracterizaciones que mostraremos de la diagonalización
de operadores lineales sobre espacios vectoriales de dimensión finita.
Proposición 3.2. Sea U un espacio vectorial de dimensión finita n ≥ 1 sobre K. Un operador lineal T
en U es diagonalizable si, y sólo si, existe una base de U formada por vectores propios de T .
Demostración: Supongamos que T es diagonalizable, entonces existe una base B = {u1 , · · · , un } de U
λ1 0 · · · 0
0 λ2 · · · 0
de manera que [T ]B = . .. .. .. . Por definición de la representación matricial [T ]B , sigue que
.. . . .
0 0 · · · λn
cada vector de B es vector propio de T , de hecho se tiene que T (u1 ) = λ1 u1 , · · · , T (un ) = λn un . Ası́, los
escalares λ1 , · · · , λn son los valores propios de T , y los vectores u1 , · · · , un son vectores propios asociados
a λ1 , · · · , λn respectivamente.
Recı́procamente, supongamos que B = {u1 , · · · , un } es una base de U formada por vectores propios
de T . Entonces existen escalares λ1 , · · · , λn ∈ K tales que T (u1 ) = λ1 u1 , · · · , T (un ) = λn un ; luego la
λ1 0 · · · 0
0 λ2 · · · 0
representación matricial de T en esta base es la matriz A = . .. .. .. .
.. . . .
0 0 · · · λn
Para matrices cuadradas este primer criterio de diagonalización no podrı́a ser diferente; es más, la
siguiente proposición da cuenta de ello.
Proposición 3.3. A ∈ Mn×n (K) es diagonalizable si, y sólo si, el operador lineal TA : Kn → Kn definido,
para cada X ∈ K n , por TA (X) = AX también lo es.
Demostración: Supongamos que A ∈ Mn×n (K) es diagonalizable. Entonces existe P ∈ Mn×n (K) in-
vertible tal que P −1 AP es diagonal. Dado que A es la representación matricial de TA en la base canónica
C de Kn , y como las columnas de P , digamos X1 , · · · , Xn , constituyen una base de Kn pues P es in-
vertible, sigue que P es justamente la matriz de cambio de base de C hacia B = {X1 , · · · , Xn }; por
λ1 0 · · · 0
0 λ2 · · · 0
tanto, [TA ]B = P −1 AP = . .. . .. , para ciertos escalares λ1 , · · · , λn ∈ K; con lo cual TA es
. . . . . .
0 0 ··· λn
Operadores Lineales: Reducciones Matriciales 17
diagonalizable y por la proposición anterior, para cada i = 1, · · · , n, TA (Xi ) = λi Xi ; es decir, cada vector
Xi de la base B es un vector propio de TA que esta asociado al valor propio λi .
Supongamos ahora que TA es diagonalizable, entonces existe una base B = {X1 , · · · , Xn } de Kn ,
formada por vectores propios de TA , tal que [TA ]B es una matriz diagonal. Siendo A la representación
matricial de TA en la base canónica, existe una matriz P invertible tal que [TA ]B = P −1 AP ; con lo cual
A es diagonalizable.
Como habrá sido observado, para decidir si un operador lineal (o una matriz cuadrada) es o no
diagonalizable, se debe investigar la existencia de bases formadas por vectores propios. De allı́ que sea
necesario tener un criterio para saber cuando esto ocurre; lo cual sin duda pasa por examinar las raı́ces
del polinomio caracterı́stico del operador o la matriz, pues tales raı́ces (en K) son los valores propios que
determinaran tales valores propios. El primer paso en esa dirección es el siguiente:
Demostración: Procedamos por inducción sobre el número k. Obviamente cuando k = 1, un sólo vector
propio u1 asociado a un valor propio λ1 es linealmente independiente pues es no nulo. Examinemos el caso
k = 2. Supongamos que λ1 , λ2 son valores propios distintos de T y 1 , u2 son vectores propios asociados a
λ1 , λ2 , respectivamente. Si α1 u1 + α2 u2 = 0U , entonces al aplicar T a ambos lados de esta identidad se
tiene α1 λ1 u1 + α2 λ2 u2 = 0U , pues T (u1 ) = λ1 u1 y T (u2 ) = λ2 u2 . Ahora, al multiplicar α1 u1 + α2 u2 = 0U
por λ1 tenemos α1 λ1 u1 + α2 λ1 u2 = 0U ; por tanto se deduce que α2 (λ1 − λ2 )u2 = 0U , de donde α2 = 0
pues (λ1 − λ2 )u2 6= 0U , y por ende α1 = 0; ası́ que u1 y u2 son linealmente independientes.
Supongamos como hipótesis inductiva que los vectores u1 , · · · , uk−1 son linealmente independientes.
Veamos que u1 , · · · , uk también lo son. Si suponemos que α1 u1 + · · · + αk−1 uk−1 + αk uk = 0U , como
antes, esto implica que α1 λ1 u1 + · · · + αk−1 λk−1 uk−1 + αk λk uk = 0U . Multiplicando la primera de estas
identidades por λk y haciendo la diferencia sigue que α1 (λ1 − λk )u1 + · · · + αk−1 (λk−1 − λk )uk−1 = 0U ;
luego por la hipótesis inductiva, dado que los valores propios λ1 , · · · , λk son distintos entre sı́, se concluye
que α1 = · · · = αk−1 = 0, de donde αk = 0 y u1 , · · · , uk son linealmente independientes.
Por otra parte, W es suma directa de V1 , · · · , Vm , lo que se demota por W = V1 ⊕ · · · ⊕ Vm , siempre que
se satisfagan:
1. W = V1 + · · · + Vm ; y
(i) W = V1 ⊕ · · · ⊕ Vm .
(ii) Todo vector w ∈ W se escribe de manera única como w = v1 + · · · + vk , donde vi ∈ Vi para todo
i = 1, · · · , k.
(iii) Para toda base {vi1 , · · · , viki } de Vi (i = 1, · · · , m), {v11 , · · · , v1k1 , · · · , vm1 , · · · , vmkm } es base de
W.
Lema 3.2. Sean U un espacio vectorial sobre K, T un operador lineal en U y λ1 , · · · , λk ∈ K valores pro-
pios distintos de T . Si Nλ1 (T ), · · · , Nλk (T ) son los subespacios propios asociados a tales valores propios,
entonces la suma Nλ1 (T ) + · · · + Nλk (T ) es directa.
Luego existe un vector no nulo u1 ∈ Nλ1 (T ) ∩ (Nλ2 (T ) + · · · + Nλk (T )); esto es, u1 ∈ Nλ1 (T ) y existen
vectores u2 ∈ Nλ2 (T ), · · · , uk ∈ Nλk (T ) tales que u1 = u2 + · · · + uk . Entonces al aplicar T a ambos lados
de esta identidad se tiene λ1 u1 = λ2 u2 + · · · + λk uk . O equivalentemente
1. T es diagonalizable.
2. U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ).
3. El polinomio caracterı́stico de T tiene todas sus raı́ces en K; esto es, pT (x) = (λ1 −x)d1 · · · (λk −x)dk
(d1 + · · · + dk = n); además, di = dim(Nλ1 (T )) para cada i = 1, · · · , k; es decir, las multiplicidades
algebraicas y geométricas de cada valor propio coinciden.
Operadores Lineales: Reducciones Matriciales 19
Demostración:
(1 ⇒ 2)
Supongamos inicialmente que T es diagonalizable; esto es, U admite una base B formada por vectores
propios de T ; digamos que B = {u1 , · · · , un } es una tal base. Dado que la suma Nλ1 (T ) + · · · + Nλk (T ) es
directa (ver lema 3.2), para mostrar U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ) es suficiente con verificar que todo vector
u ∈ U se escribe como u = v1 + · · · + vk , siendo que vi ∈ Nλi (T ) para todo i = 1, · · · , k; equivalentemente,
basta mostrar que U ⊂ Nλ1 (T ) + · · · + Nλk (T ), en otras palabras, cada vector de U es la suma de vectores
propios de T . Pero como todos los vectores en B son vectores propios de T , entonces todo vector de U es
suma de vectores propios de T .
(2 ⇒ 3)
Supongamos ahora que U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ). Para cada i = 1, · · · , k, sea {ui1 , · · · , uidi } una
base del subespacio propio Nλi (T ) (dim(Nλi (T )) = di ). Usando las caracterizaciones anteriores de sumas
directas sigue que B = {u11 , · · · , u1d1 , · · · , uk1 , · · · , ukdk } es una base de U . Como los subespacios propios
son invariantes por T (T (Nλi (T )) ⊂ Nλi (T )) y para cada i = 1, · · · , k se tiene que T (uij ) = λi uij para
λ1 Id1
· O
todo j = 1, · · · , di , se concluye por un simple cálculo que [T ]B = · ; por
O ·
λk Idk
tanto
(λ1 − x)Id1
· O
pT (x) = det([T ]B − xIn ) = · = (λ1 − x)d1 · · · (λk − x)dk .
O ·
(λk − x)Idk
(3 ⇒ 1)
Finalmente, si las multiplicidades algebraicas y geométricas coinciden y su suma es n = dim(U ), entonces
como la suma Nλ1 (T ) + · · · + Nλk (T ) es directa se sigue que U = Nλ1 (T ) ⊕ · · · ⊕ Nλk (T ), de donde la
unión de bases en Nλi (T ) (i = 1, · · · , k) es una base de U formada por vectores propios de T .
El resultado que acabamos de mostrar tiene su versión para matrices cuadradas; su demostración es
obvia a partir de la del teorema anterior y del hecho que cada matriz cuadrada A ∈ Mn×n (K) está en
correspondencia biunı́voca con el operador lineal TA en Kn .
1. A es diagonalizable.
3. El polinomio caracterı́stico de A tiene todas sus raı́ces en K; esto es, pA (x) = (λ1 −x)d1 · · · (λk −x)dk
(d1 + · · · + dk = n); además, di = dim(Nλ1 (A)) para cada i = 1, · · · , k; es decir, las multiplicidades
algebraicas y geométricas de cada valor propio coinciden.
20 Fascı́culos de Álgebra Lineal
• Paso 1:
Dada A ∈ Mn×n (K), se procede a determinar su polinomio caracterı́stico pA (x) = det(A − xIn ).
• Paso 2:
Determinado pA (x) se calculan sus raı́ces y sus respectivas multiplicidades algebraicas. Si todas las raı́ces
de pA (x) están en K (esto habrá que chequearlo si K = R) y la suma de sus multiplicidades algebraicas
es igual a n, continuamos; de lo contrario A no es diagonalizable.
• Paso 3:
Con los valores propios distintos de A, digamos λ1 , · · · , λk con multiplicidades algebraicas a1 , · · · , ak ,
determinamos los subespacios propios correspondientes, Nλ1 (A), · · · , Nλk (A), y sus respectivas dimensio-
nes d1 , · · · , dk (multiplicidades geométricas); si la suma de las multiplicidades geométricas es igual a n,
entonces A es diagonalizable y proseguimos en la busqueda de la matriz P tal que P −1 AP sea diagonal;
de lo contrario A no es diagonalizable.
• Paso 4:
A cada subespacio propio Nλi (A) (i = 1, · · · , k) se le calcula una base {Xi1 , · · · , Xidi } cuyos vectores son
unicolumnas, y son justamente una base del espacio solución del sistema de ecuaciones lineales homegéneo
(A − λi In )X = 0. La matriz P de columnas X11 , · · · , X1d1 , X21 · · · , X2d2 , · · · , Xk1 , · · · , Xkdk , es tal que
λ1 Id1
−1
· O
P AP =
· ,
O ·
λk Idk
Sabemos que X ∈ Nλ1 (A) si, y sólo si, (A − λ1 I4 )X = O. Por lo que una base de Nλ1 (A) es una base del
espacio solución de tal sistema de ecuaciones lineales homogéneos. Dado que
−2 0 0 2 1 0 3 −1 1 0 3 −1
−1 −2 −1 1 f1 ←→−f3 −1 −2 −1 1 f2 →f2 +f1 0 −2 2 0
A − λ1 I4 =
−1
−−−−−−→ −−−−−−−→ ;
0 −3 1 −2 0 0 2 f3 →f3 +2f1 0 0 6 0
0 0 0 0 0 0 0 0 0 0 0 0
ası́, el espacio solución de (A − λ2 I4 )X = O y Nλ2 (A) tienen dimensión igual a 2, que coincide con a2 .
x+z−w =0
Además, como es equivalente a (A − λ2 I4 )X = O, con y, z como sus variables libres,
w=0
0 −1
1 0
entonces , es una base de Nλ (A).
2
0
1
0 0
• Subespacio propio Nλ3 (A):
Para el valor propio λ3 = 0 ocurre que
1 0 0 2 1 0 0 2
−1 1 −1 1 f2 →f2 +f1 0 1 −1 3
A − λ3 I4 =
−1 0
−−−−−−−→
0 1 f3 →f3 +f1 0 0 0 3
0 0 0 3 0 0 0 0
0
1
lo cual implica, de la misma forma que antes, que el conjunto es una base de Nλ (A),
1 3
0
ası́ dim(Nλ3 (A)) = 1 = a3 .
22 Fascı́culos de Álgebra Lineal
1 0 −1 0
0 1 0 1
Con toda esta información concluimos que A es diagonalizable, y que la matriz P =
0
0 1 1
1 0 0 0
3 0 0 0
0 1 0 0
es tal que P −1 AP =
0 0 1 0 .
0 0 0 0
Sea T : U → U un operador lineal en un espacio vectorial de dimensión finita n > 1 sobre U ; los casos en
los que dim(U ) = 0 y dim(U ) = 1 son triviales.
• Paso 1:
Considerar una base cualquiera B = {u1 , · · · , un } de U . Sobre tal base obtener la representación matricial
de T , A = [T ]B . Si A es diagonal, pues no habrá nada que hacer, pues B estará formada por vectores
propios de T .
• Paso 2:
Para la matriz cuadrada A obtenida en el paso previo, emplear el algoritmo de diagonalización para
matrices antes descrito.
• Paso 3:
En el caso de que A sea diagonalizable, y obtenida la matriz P que hace a P −1 AP diagonal, procedemos
a interpretar en la base B original los vectores propios que conformarán la base B ′ en la que [T ]B′ es
diagonal.
α1
..
Recordar que dado un vector X = . ∈ Kn , éste representa un único vector v ∈ U interpretado en la
αn
base B; tal vector v es dado por v = α1 u1 + · · · + αn un . Luego los vectores v1 , · · · , vn ∈ U , obtenidos de
la interpretación en la base B a partir de los vectores que constituyen las bases de los subespacios propios
de A, constituyen una base B′ en la que [T ]B′ es una matriz diagonal.
los valores propios de T son λ1 = 1 con multiplicidad algebraica a1 = 2, y λ2 = 2 también con multipli-
cidad algebraica a2 = 2. Estudiemos ahora los subespacios propios asociados a tales valores propios.
Operadores Lineales: Reducciones Matriciales 23
0 1
en la base B de arriba.
• Subespacio propio Nλ2 (A):
Por otro lado, como
−1 0 0 0 1 0 0 0 1 0 0 0
−1 1 −1 1 ←→−f1 0 1 −1 1 f3 →−f3 +f2 0 1 −1 1
A − λ2 I4 = −f−1−−−−−→ −−−−−−−−→ ,
0 1 −1 0 f2 →f2 +f1 0 1 −1 0 f4 →f4 −f3 0 0 0 1
0 0 0 −1 0 0 0 1 0 0 0 0
0
1
se concluye que el espacio solución de (A − λ2 I4 )X = O tiene dimensión 1; una base es −1
. Por
0
tanto Nλ2 (T ) tiene multiplicidad geométrica igual a 1 (dim(Nλ2 (T )) = 1 < a2 = 2), de donde se concluye
0
1
que T es no diagonalizable. Como información adicional, el vector −1 representa en la base B a la
0
2
función polinómica p3 (x) = x − x , el cual constituye una base del subespacio propio Nλ2 (T ).
a b b+d −a + 2b + d
2. Decidir si el operador en M2×2 (R) dado por T = es o
c d −2a + 2b + 2d −a + b + 2d
no diagonalizable. En caso de serlo, construya una base de M2×2 (R) en la que su representación
matricial es diagonal.
5. Una matriz A ∈ Mn×n (K) es diagonalizable si, y sólo si, para cualquier espacio vectorial sobre K
de dimensión n y cualquier operador lineal T en U que tenga a A como representación matricial en
alguna base de U , T es diagonalizable.
a) W = Nλ1 (T ) ⊕ · · · ⊕ Nλ2 (T ).
b) T es diagonalizable si, y sólo si, W = U .
Operadores Lineales: Reducciones Matriciales 25
0 a
Observe que N (T ) = 0 ∈ R3 : a ∈ R e Im(T ) = a ∈ R3 : a, b ∈ R . Como es de notar en
a b
este caso, dim(N (T )) = 1 y dim(Im(T )) = 2. Sin embargo, no es cierto que R3 = N (T ) ⊕ Im(T ), pues en
0
particular el vector no nulo 0 ∈ N (T ) ∩ Im(T ). Veamos ahora cómo es el operador T 2 . Para cualquier
1
x x x x
y ∈ R3 tenemos que T 2 y = T T y = x. Por tanto:
z z z x
0 a
N (T 2 ) = a ∈ R3 : a, b ∈ R e Im(T 2 ) = a ∈ R3 : a ∈ R .
b a
Note que N (T ) N (T 2 ) e Im(T ) ! Im(T 2 ). Por otra parte, una simple cuenta muestra que para todo
x x x
3 k
entero n ≥ 2 y para todo y ∈ R se tiene T
y = x. Esto implica que para todo entero n ≥ 2
z z x
valen las identidades
{0R3 } N (T ) N (T 2 ) = N (T 3 ) = N (T 4 ) = · · · = N (T n ) = · · · para todo n ≥ 2
R3 ! Im(T ) ! Im(T 2 ) = Im(T 3 ) = Im(T 4 ) = · · · = Im(T n ) = · · · para todo n ≥ 2.
Como podrá notarse R3 = N (T 2 ) ⊕ Im(T 2 ); además es simple verificar que tanto N (T 2 ) como Im(T 2 )
son T -invariantes; es decir, T (N (T 2 )) ⊂ N (T 2 ) y T (Im(T 2 )) ⊂ Im(T 2 ).
Estas propiedades permiten expresar T de una manera muy especial: T se descompone como la suma de
dos operadores; lo cual denotamos por T = T1 ⊕T2 , donde T1 : N (T 2 ) → N (T 2 ) y T2 : Im(T 2 ) → Im(T 2 )
son las restricciones de T a los subespacios (demuestre que en efecto son subespacios) N (T 2 ) e Im(T 2 )
respectivamente. Más precisamente, dado que para cada u ∈ R3 existen únicos u1 ∈ N (T 2 ) y u2 ∈ Im(T 2 )
tales que u = u1 + u2 , entonces T (u) = T (u1 ) + T (u2 ) := T1 (u1 ) + T2 (u2 ), pues T (u1 ) ∈ N (T 2 ) y
T (u2 ) ∈ Im(T 2 ) por la invarianza antes señalada. Sólo que ahora, en lugar de tenerse T1 es operador
nulo, como en el comentario inicial de arriba, es simple verificar que T12 si es el operador nulo. Concluimos
diciendo que T se escribe como la suma de dos operadores definidos en subespacios que están en suma
directa de R3 y una potencia de uno de tales operadores es el operador nulo.
En realidad esta es una propiedad general que satisfacen los núcleos y los espacios imagen de los
iterados de cualquier operador lineal, y la descomposición que queremos resaltar, y que además es válida
para operadores en espacios de dimensión finita.
Demostración: Para cada entero m ≥ 1 mostraremos que N (T m ) ⊂ N (T m+1 ) e Im(T m ) ⊃ Im(T m+1 ).
Sea u ∈ N (T m ), es decir T m (u) = 0U ; dado que T m+1 (u) = T (T m (u)) = T (0U ) = 0U , entonces
u ∈ N (T m+1 ); por tanto N (T m ) ⊂ N (T m+1 ). Por otra parte, sean v ∈ Im(T m+1 ) y u ∈ U tales que
T m+1 (u) = v. Como v = T m+1 (u) = T m (T (u)), entonces v está en el espacio imagen de T m ; es decir,
v ∈ Im(T m ); por lo que Im(T m+1 ) ⊂ Im(T m ). Esto demuestra la identidad 3.6.
Supongamos ahora que dim(U ) = n ≥ 1. Dado que para cualquier par de subespacios V y W de U
con V ⊂ W se cumple dim(V ) ≤ dim(W ), como la sucesión de los núcleos de potencias de T es creciente,
entonces existe un primer entero k ≥ 1 de manera que tal sucesión se estabiliza de allı́ en adelante; es
decir, existe un primer entero k ≥ 1 tal que para todo m ≥ k se tiene N (T m ) = N (T k ). De lo contrario
tendrı́amos una sucesión infinita de subespacios encajados para los cuales su dimensión va creciendo
estrictamente. Ası́ queda demostrado que existe un primer entero k ≥ 1 tal que:
Por otro lado, sea k ≥ 1 el entero que hace que la sucesión de los núcleos de las potencias de T se
estabilicen, tal y como se muestra en (3.7). Sabemos que dim(N (T m )) + dim(Im(T m )) = n para todo
m ≥ 1 (teorema de la nulidad y rango); pero como dim(N ((T m )) = dim(N (T k )) para todo m ≥ k y
dim(N ((T k−1 )) < dim(N (T k )), sigue que dim(Im((T m )) = dim(Im(T k )) = n − dim(N (T k )) para todo
m ≥ k, y dim(Im((T k−1 )) > dim(Im(T k )). Pero como la sucesión de las imágenes está encajada, y
subespacios vectoriales encajados con la misma dimensión son iguales, se concluye que para todo m ≥ k
se tiene Im(T m ) = Im(T k ) y, de hecho:
Ejemplo 3.11. Como podrá observarse, las sucesiones del núcleo y espacio imagen de los iterados del
operador en el ejemplo anterior se estabilizan en k = 2.
Veamos otro ejemplo. Sea T : P2 (R) → P2 (R) definido mediante la relación
Finalmente, dado que T m (p(x)) = 2m a0 para todo m ≥ 2 y p(x) ∈ P2 (R), se concluye que las sucesiones
ascendentes de los núcleos y descendente de los espacios imagen se estabiliza en k = 2. Al comparar
con el ejemplo anterior se notará que no siempre al momento de estabilizarse las sucesiones de núcleos
e imágenes de las potencias del operador, de debe tener la misma expresión para T m para todo m ≥ k,
siendo k el entero donde se estabilizan tales sucesiones.
1. U = N∞ (T ) ⊕ Im∞ (T ),
Demostración: Sea k ≥ 1 es el entero que estabiliza las sucesiones en (3.6). Para demostrar la primera
parte es suficiente verificar que N∞ (T ) ∩ Im∞ (T ) = {0U }, pues dim(N∞ (T )) + dim(Im∞ (T )) = dim(U ).
Sea u ∈ N∞ (T ) ∩ Im∞ (T ); es decir, T k (u) = 0U y u = T k (v) para algún v ∈ U . Luego es inmediato que
T k (u) = 0U = T 2k (v); de donde v ∈ N (T 2k ) = N (T k ). Ası́ T k (v) = 0U = u; con lo cual la demostración
de la primera parte está completa.
Sea u ∈ N∞ (T ), es decir, T k (u) = 0U . Deseamos verificar que T (u) ∈ N∞ (T ) para ası́ tener
T (N∞ (T )) ⊂ N∞ (T ). Pero T k (T (u)) = T k+1 (u), y como N (T k ) = N (T k+1 ) se tiene que T k+1 (u) = 0U ,
por tanto T (u) ∈ N∞ (T ).
Supongamos que u ∈ Im∞ (T ) = Im(T k ); esto es, u = T k (v) para algún v ∈ U . Sigue entonces
que T (u) = T k+1 (v) ∈ Im(T k+1 ) = Im(T k ) = Im∞ (T ); de esta forma T (Im∞ (T )) ⊂ Im∞ (T ). Por
otra parte, sea u ∈ Im∞ (T ). Como Im∞ (T ) = Im(T k+1 ) podemos escoger v ∈ U de tal manera que
u = T k+1 (v), entonces u = T (T k (v)). Dado que T k (v) ∈ Im(T k ) = Im∞ (T ), u ∈ T (Im∞ (T )) y
Im∞ (T ) ⊂ T (Im∞ (T )). De esta forma T (Im∞ (T )) = Im∞ (T ); esto es, la restricción de T al subespacio
Im∞ (T ) es sobreyectiva, y por tratarse de un operador en un espacio finito dimensional, concluimos que
T : Im∞ (T ) → Im∞ (T ) es también inyectiva y por tanto un isomorfismo.
Finalmente, que T k restricto a N∞ (T ) sea el operador nulo es inmediato, pues si u ∈ N∞ (T ) = N (T k ),
entonces T k (u) = 0U . Podemos decir un poco más, como N( T k−1 ) N (T k ), existe al menos un vector
u ∈ N∞ (T ), no nulo, tal que T k−1 (u) 6= 0U .
Comentario 3.2. La propiedad de ser U = N∞ (T ) ⊕ Im∞ (T ) no siempre es válida para los pares
intermedios de las sucesiones (3.6): el operador T del ejemplo anterior satisface N∞ (T ) = N (T 2 ),
Im∞ (T ) = Im(T 2 ), y cualquier función polinómica de la forma p(x) = a1 x está tanto en N (T ) co-
mo en Im(T ).
x 2x − y
e) T : R3 → R3 con T y = x + 3z .
z x − y − 3z
2. Sea R∞ el espacio vectorial de todas las sucesiones {an }n≥0 de números reales, el cual está dotado
con las operaciones:
Ejemplo 3.12. Consideremos el operador D : P2 (R) → P2 (R) dado por D(p(x)) = p′ (x) (operador
derivada). Dado que D2 (p(x)) = p′′ (x) y D3 (p(x)) = p′′′ (x) = 0, entonces D es un operador nilpotente
de orden 3, pues existen funciones polinómicas de grado menor o igual que 2 cuya segunda derivada es
30 Fascı́culos de Álgebra Lineal
nula. Observe que B = {p(x) = x2 , D(p(x)) = 2x, D2 (p(x)) = 2} es una base de P2 (R); y en tal base, la
0 0 0
representación matricial de D es [D]B = 1 0 0, la cual también es nilpotente de orden 3.
0 1 0
Ejemplo 3.13 (Parte nilpotente de un operador). Sean U un espacio vectorial de dimensión finita
n ≥ 1 sobre K y T un operador lineal en U . Como vimos en el teorema 3.8, si k ≥ 1 es el entero en el cual
se estabilizan las sucesiones de núcleos e imágenes de las potencias de T , entonces T restricto a N∞ (T )
es un operador nilpotente de orden k. Tal parte de T , es decir T : N∞ (T ) → N∞ (T ) se conoce con el
nombre de parte nilpotente de T .
Definición 3.9. Toda matriz cuadrada de la forma (3.8) la denominaremos nilpotente básica.
Nuestro objetivo principal en esta parte de las notas es demostrar que todo operador lineal nilpotente
en espacios vectoriales de dimensión finita (o matrices cuadradas) nilpotentes pueden ser representados
matricialmente mediante matrices diagonales por bloques, en el que cada bloque de la diagonal es una
matriz nilpotente básica. Note que la matriz nula es de este tipo, pues la matriz nula de orden 1 × 1 es
nilpotente básica. Para alcanzar nuestro objetivo introducimos los siguientes conceptos.
Definición 3.10. Sean U un espacio vectorial de dimensión finita n ≥ 1 y T un operador lineal nilpotente
en U . Una T -cadena es una secuencia finita [v, T (v), · · · , T ℓ−1 (v)], donde v es un vector de U tal que
Operadores Lineales: Reducciones Matriciales 31
T ℓ (v) = 0U y T ℓ−1 (v) 6= 0U ; en tal caso se dice que la T -cadena [v, T (v), · · · , T ℓ−1 (v)] es de longitud ℓ.
A toda base de U obtenida como la concatenación (disjunta) de T -cadenas, digamos:
donde cada [vj , T (vj ), · · · , T ℓj −1 (vj )] (j = 1, · · · , s) es una T -cadena, se le conoce con el nombre de base
en T -cadena de U .
Definición 3.11. Sea A ∈ Mn×n (K). Una A-cadena es cualquier secuencia finita de vectores en Kn ,
digamos, [X, AX, · · · , Aℓ−1 X], tal que Aℓ X = 0Kn y Aℓ−1 X 6= 0Kn . Al entero ℓ se le conoce como
la longitud de la A-cadena [X, AX, · · · , Aℓ−1 X]. A toda base de Kn obtenida como la concatenación
(disjunta) de A-cadenas, digamos
Ejemplo 3.14. En R5 consideremos el operador lineal dado por T (a, b, c, d, e) = (0, a, b, 0, d). Dado que
T 2 (a, b, c, d, e) = (0, 0, a, 0, 0) y T 3 (a, b, c, d, e) = (0, 0, 0, 0, 0) para cada (a, b, c, d, e) ∈ R5 , entonces T
es nilpotente de orden 3. Es simple verificar que [e1 , e2 , e3 ] y [e4 , e5 ] son T -cadenas; por lo que la base
B = {e1, e2 , e3 , e4 , e5 } es está
en T -cadena. La representación matricial de T en dicha base es la matriz
0 0 0 0 0
1 0 0 0 0
[T ]B = 0 1 0 0 0 , la cual es diagonal por bloques como la mencionada anteriormente.
0 0 0 0 0
0 0 0 1 0
Los siguientes lemas son preparatorios para el principal resultado de esta sección, el teorema 3.9.
Recordamos que cada vez que se tenga un operador lineal T en un espacio vectorial U , si W es un
subespacio vectorial de U invariante por T ; es decir, T (W ) ⊂ W , entonces la restricción de T a W es un
operador lineal en W .
Lema 3.3. Sean U un espacio vectorial sobre K y T un operador lineal nilpotente en U . Para cualquier
T -cadena [v, T (v), · · · , T ℓ−1 (v)] se satisfacen:
2. el subespacio W generado por v, T (v), · · · , T ℓ−1 (v) es invariante por T ; y T restricto a W es nil-
potente de orden ℓ.
Demostración: Veamos que los vectores v, T (v), · · · , T ℓ−1 (v) son linealmente independientes; para ello
supongamos que existen escalares α1 , · · · , αℓ tales que
Al aplicar T ℓ−1 a esta identidad resulta α1 T ℓ−1 (v) = 0U , pues T k (v) = 0U para todo k ≥ ℓ; luego como
T ℓ−1 (v) 6= 0U , sigue que α1 = 0. Entonces tenemos α2 T (v) + · · · + αℓ T ℓ−1 (v) = 0U ; en tal caso aplicamos
T ℓ−2 a ambos lados de esta igualdad para ası́ obtener α2 T ℓ−1 (v) = 0U , luego α2 = 0. Procediendo
recursivamente se muestra que todos los escalares α’s son iguales a 0; esto demuestra 1.
Para demostrar la segunda parte, observe que w ∈ W si, y sólo si, existen escalares α1 , · · · , αℓ tales
que
w = α1 v + α2 T (v) + · · · + αℓ T ℓ−1 (v),
de donde T (w) = α1 T (v) + α2 T 2 (v) + · · · + αℓ−1 T ℓ−1 (v) el cual es un vector de W ; luego T (W ) ⊂ W .
Finalmente, para cualquier w ∈ W , es simple verificar que T ℓ (w) = 0U ; por otra parte, como v ∈ W pues
v = 1v + 0T (v) + · · · + 0T ℓ−1 (v), entonces T restricto a W es nilpotente de orden ℓ.
Corolario 3.2. Sea U un espacio vectorial de dimensión finita n ≥ 1 sobre K. Si T es un operador lineal
nilpotente de orden k ≥ 1 en U , entonces el orden de nilpotencia de T es menor o igual a la dimensión
del espacio.
Demostración: Es una consecuencia inmediata del lema anterior.
Lema 3.4. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K, T un operador lineal en U y
W1 , · · · , Wk subespacios vectoriales de U invariantes por T . Si U = W1 ⊕ · · · ⊕ Wk y B es una base de U
construida por la concatenación de bases en W1 , · · · , Wk (B = B1 ∪ · · · ∪ Bk ), entonces la representación
[T1 ]B1 O ··· O
O
[T2 ]B2 · · · O
matricial de T en tal base es [T ]B = . . . .. , donde Tj es la restricción de T al
.. .. .. .
O O · · · [Tk ]Bk
subespacio Wj para j = 1, · · · , k. Además, pT (x) = pT1 (x) · · · pTk (x), donde pTj (x) (j = 1, · · · , k) es el
polinomio caracterı́stico del operador Tj .
Demostración: La demostración sigue inmediatamente de la definición de representación matricial. Los
detalles se deja al lector. Ver ejercicio propuesto 12 en la página 14.
Lema 3.5. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador lineal
nilpotente en U . Si [v1 , T (v1 ), · · · , T ℓ1 −1 (v1 )], · · · , [vs , T (vs ), · · · , T ℓs −1 (vs )] son T -cadenas disjuntas tales
que su concatenación B = {v1 , T (v1 ), · · · , T ℓ1 −1 (v1 ), · · · , vs , T (vs ), · · · , T ℓs −1 (vs )} es una base en T -
N1 O · · · O
O N2 · · · O
cadena de U , entonces [T ]B = . .. .. .. , donde, para cada j = 1, · · · , s, Nj es una matriz
.. . . .
O O · · · Ns
nilpotente básica. En adición, cada Nj es la representación matricial de T restricto al subespacio generado
por la T -cadena [vj , T (vj ), · · · , T ℓj −1 (vj )], por tanto de orden ℓj × ℓj .
Demostración: Observe que de los lemas anteriores y del hecho que si [v, T (v), · · · , T ℓ−1 (v)] es una
T -cadena, entonces:
T (v) = 0v + 1T (v) + 0T 2 (v) + · · · + 0T ℓ−1 (v)
T (T (v)) = T 2 (v) = 0v + 1T (v) + 1T 2 (v) + 0T 3 (v) · · · + 0T ℓ−1 (v)
..
.
T (T ℓ−2 (v)) = T ℓ−1 (v) = 0v + 0T (v) + · · · + 0T ℓ−2 (v) + 1T ℓ−1 (v)
T (T ℓ−1 (v)) = T ℓ (v) = 0v + 0T (v) + · · · + 0T ℓ−1 (v).
Operadores Lineales: Reducciones Matriciales 33
Lema 3.6. Sea A ∈ Mn×n (K) una matriz nilpotente. Si existen A-cadenas
es una base en A-cadena de Kn , entonces P = [X1 , AX1 , · · · , Aℓ1 −1 X1 , · · · , Xs , AXs , · · · , Aℓs −1 Xs ] es tal
N1 O · · · O
O N2 · · · O
que P −1 AP = . .. .. .. , donde, para cada j = 1, · · · , s, Nj es una matriz nilpotente básica
.. . . .
O O ··· Ns
de orden ℓj × ℓj .
Lema 3.7. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador lineal
nilpotente de orden k ≥ 1 en U . Si U admite una base en T -cadena, entonces existe al menos una de las
T -cadenas en tal base, es de longitud k.
Demostración: Supongamos por el absurdo que B es una base en T -cadena y que todas las T -cadenas
que la conforman tienen longitud menor que k; observe que ninguna T -cadena puede tener longitud mayor
que k, pues T k es el operador nulo.
Nuestro supuesto implica que si B = {u1 , · · · , un }, entonces T k−1 (uj ) = 0U para todo j = 1, · · · , n,
pues cada ui pertenece a una T -cadena de longitud menor o igual a k − 1. Pero como todo vector u ∈ U
se escribe como u = α1 u1 + · · · + αn un para ciertos escalares α1 , · · · , αn ; al aplicar T k−1 a ambos lados
de esta igualdad tenemos T k−1 (u) = 0U ; de donde T k−1 es el operador nulo, lo cual es una contradicción
ya que el ı́ndice de nilpotencia de T es k.
la cual suponemos ordenada en orden decreciente en la longitud de las T -cadenas que la conforman; es
decir: ℓ1 ≥ ℓ2 ≥ · · · ≥ ℓs . Del lema 3.7, al menos ℓ1 = k, que es el orden de nilpotencia de T . Además del
34 Fascı́culos de Álgebra Lineal
N1 O ··· O
O
N2 ··· O
lema 3.5, la representación matricial de T en B es [T ]B = . .. .. .. , donde cada matriz Nj
.. . . .
O O ··· Ns
es nilpotente básica de orden ℓj × ℓj , para todo j = 1, · · · , s.
Primero note que los vectores finales de cualquier T -cadena pertenecen al núcleo de T ; ver definición
3.10. Más que esto, mostraremos que {T ℓ1 −1 (v1 ), · · · , T ℓs −1 (vs )} es una base de N (T ). En efecto; es claro
que los vectores T ℓ1 −1 (v1 ), · · · , T ℓs −1 (vs ) son linealmente independientes, por ser B base. Veamos que
generan a N (T ). Sea u ∈ N (T ), es decir, T (u) = 0U . Entonces
para ciertos escalares α’s. Al aplicar T a ambos lados de esta expresión se tiene:
Supongamos que en B se tienen 1 ≤ m ≤ s (al menos hay una) T -cadenas de longitud k (que es la mayor
longitud de las T -cadenas). Entonces las primeras matrices N1 , · · · , Nm en [T ]B son todas de orden k ×k y
nilpotentes de orden k; el resto de las matrices en la diagonal de [T ]B son nilpotentesde ordenes menores
0 0 ··· 0 0
0 0 · · · 0 0
. . . .. ..
a k, por lo que Njk−1 = O para todo j = m+1, · · · , s. Ahora bien, dado que Njk−1 = .
. . . . . . . ,
0 0 · · · 0 0
1 0 ··· 0 0
para cada j = 1, · · · , m, se concluye que dim(Im(T k−1 )) = m, pues el número de filas no nulas (además
linealmente independientes) en [T k−1 ]B ; es decir, el rango de T k−1 , es m. De esta forma, el número de
T -cadenas de longitud k en B es dim(Im(T k−1 )) = n − dim(N (T k−1 )).
Ejemplo 3.16. Supongamos que T es un operador lineal nilpotente de orden 4 en un espacio vectorial
U de dimensión 8, el cual admite una base en T -cadena. Supongamos también que dim(N (T )) = 4 y
dim(N (T 2 )) = 6. De las consecuencias anteriormente señaladas tenemos que cualquiera de tales bases
tiene 4 T -cadenas (consecuencia 1), siendo que 2 de ellas son de longitud máxima (consecuencia 2), que
es el orden de nilpotencia de T . Por tanto si B = {u1 , · · · , u8 } es una base en T -cadena ordenada de
manera decreciente con respecto a la longitud de las T -cadenas que la conforman, entonces [u1 , u2 , u3 ]
Operadores Lineales: Reducciones Matriciales 35
y [u4 , u5 , u6 ] son las T -cadenas de mayor longitud. De esta forma, los vectores u7 y u8 constituyen T -
cadenas de longitud 1; es la única posibilidad para tener 4 T -cadenas en B. Esto permite concluir que
la representación matricial de T en cualquiera de las bases ası́ consideradas es la matriz diagonal por
0 0 0
1 0 0
0 1 0
0 0 0
bloques [T ]B = .
1 0 0
0 1 0
0
0
En realidad las consecuencias que acabamos de mostrar, en el supuesto de que existan bases en T -
cadenas para un operador nilpotente T , también implican la siguiente proposición.
Demostración: Por las consecuencias 1 y 2 anteriores tenemos que ambas bases (ordenadas de forma
decreciente) tienen s = dim(N (T )) T -cadenas, y el número de T -cadenas de longitud k (la máxima) es
dim(Im(T k−1 )). De manera que las representaciones matriciales de T en B1 y B2 son matrices diagonales
por bloques,
N1 O · · · O M1 O · · · O
O N2 · · · O O M2 · · · O
[T ]B1 = . . . . y [T ]B2 = . .. .. .. ,
.. .. .. .. .. . . .
O O · · · Ns O O · · · Ms
ambas con s bloques (uno por cada T -cadena); cada uno de los bloques son matrices nilpotentes básicas
y los primeros m1 = dim(Im(T k−1 )) bloques en ambas representaciones son de orden k × k, por tanto
los mismos: N1 = Nj = Mj para todo j = 1, · · · , m1 . La proposición estará demostrada siempre que
Nj = Mj para todo j = m1 + 1, · · · , s.
Note que en [T ]B1 y [T ]B2 los bloques aparecen ordenados de acuerdo a su tamaño, y por tanto a su
ı́ndice de nilpotencia. Denotamos por 1 ≤ kp < · · · < k2 < k y 1 ≤ kp′ ′ < · · · < k2′ < k los tamaños de
los bloques en tales representaciones matriciales. Sean Nm1 +1 , · · · , Nm2 (m2 > m1 ) y Mm1 +1 , · · · , Mm′2
(m′2 > m1 ) los bloques en [T ]B1 y [T ]B2 , respectivamente, de tamaños k2 × k2 y k2′ × k2′ .
Afirmamos que k2 = k2′ y m2 = m′2 . Para demostrar esto, observemos que m2 y m′2 están determinados
′
por m1 , k2 y dim(Im(T k2 −1 )), y por m1 , k2′ y dim(Im(T k2 −1 )), respectivamente. En efecto, dado que
k2 −1 k2 −1 k2 −1 k2 −1
las matrices N1 , · · · , Nm 1
tienen cada una k − k2 + 1 filas no nulas, Nm 1 +1
, · · · , Nm 2
tienen, cada
k2 −1
una de ellas, una única fila no nula, y las restantes matrices por bloques de [T ]B1 son nulas, entonces
se deduce que que
dim(Im(T k2 −1 )) = m1 (k − k2 + 1) + (m2 − m1 ) = m1 (k − k2 ) + m2 ,
k′ −1 ′
k2′ , entonces Nj 2 = O para todo j = m1 + 1, · · · , s. Esto implica que [T k2 −1 ]B1 tiene exactamente
′
m1 (k − k2′ + 1) filas no nulas; por tanto dim(Im(T k2 −1 )) = m1 (k − k2′ + 1). Pero, por lo arriba expuesto,
se tendrı́a m′2 − m1 = 0, lo cual es absurdo. Ası́, k2 = k2′ y también m2 = m′2 ; concluyéndose Nj = Mj =
Nm1 +1 para todo j = m1 + 1, · · · , m2 . La demostración termina claramente por inducción, dejamos los
detalles al lector.
5
Ejemplo 3.17. Consideremos en R el operador lineal que en la base canónica se representa por la
0 1 0 0 0
0 0 0 0 0
matriz A = 0 0 0 1 1. Dado que A2 es la matriz nula, T es un nilpotente de orden 2. Note que
0 0 0 0 0
0 0 0 0 0
dim(N (T )) = 3, por lo que dim(Im(T )) = 2. Con tales datos, si R5 admitiese bases en T -cadena (cosa
que es cierta, como veremos), entonces el número de T -cadenas en tales bases es de 3, mientras que el
número de T -cadenas con mayor longitud, 2, es 2.
Suponiendo que B = {u1 , u2 , u3 , u4 , u5 } es una base en T -cadena, ordenada desde las de mayor longitud
hacia las de menor longitud, entonces [u1 , u2 ], [u3 , u4 ] y [u5 ] es la manera como las T -cadenas constituyen
tales bases.
Mediante el análisis por filas de la matriz A, tenemos:
x
x
y
y
5 5
N (T ) = z ∈ R : y = 0, u = −w y Im(T ) = z ∈ R : y = u = w = 0 ;
u
u
w
w
x
y
5
de donde N (T ) ∩ Im(T ) = z ∈ R : y = u = w = 0 . Por tanto una base de N (T ) ∩ Im(T ) es
u
w
1 0
0
1 0 0
0
0 0
0 0 0
0 , 1 . En adición, como el vector 0 ∈ N (T ) \ Im(T ), entonces 0 , 1 , 0 es
0 0
1
0 0 1
0 0 −1 0 0 −1
una base de N (T ). De esta forma, los vectores finales de las 3 T -cadenas, como la descrita arriba, son:
Operadores Lineales: Reducciones Matriciales 37
1 0 0
0 0 0
u2 = 0 , u4 = 1 , y u5 = 0 . Resta encontrar vectores u1 y u3 tales que T (u1 ) = u2 y
0 0 1
0 0 −1
T (u3 ) = u4 . Esto significa encontrar vectores que resuelvan las ecuaciones
x 1 x 0
y 0 y 0
A z = 0 y A z = 1 .
u 0 u 0
w 0 w 0
0 0
1 0
Una simple cuenta muestra que u1 = 0 y u3 = 0 resuelven las ecuaciones planteadas. Finalmente,
0 1
0 0
0 1 0 0 0
1 0 0 0 0
5
dado que {u1 , u2 , u3 , u4 , u5 } es en efecto una base de R , la matriz P = 0 0 0 1 0 es tal
0 0 1 0 1
0 0 0 0 −1
0 0
1 0
que P −1 AP = 0 0 . Este ejemplo, aunque simple, contiene las principales ideas de la
1 0
0
demostración que daremos al principal, y siguiente, resultado de esta sección.
Teorema 3.9 (Existencia de bases en cadena). Todo operador lineal nilpotente T de orden k ≥ 1 en
un espacio vectorial U de dimensión finita n ≥ 1 sobre K admite bases en T -cadena. Aunque tales bases
no son únicas, el número y las longitudes de las T -cadenas que las conforman si lo son.
Demostración: Antes de proceder con la demostración, la cual haremos por inducción sobre el ı́ndice
de nilpotencia, recordamos que las T -cadenas son de dos tipos: las del tipo 1 son las de longitud mayor
que 1; es decir, de la forma [v, T (v), · · · , T ℓ−1 (v)], con ℓ ≥ 2; las del tipo 2 son las T -cadenas de longitud
1. En las del tipo 1, los vectores T (v), · · · , T ℓ−1 (v) pertenecen a Im(T ); y en ambas, el vector final está en
el núcleo de T .
Vamos ahora a la demostración. Sea T es un operador nilpotente de orden 1, T es el operador nulo; en
tal caso cualquier base de U está en T -cadena, de hecho es la concatenación de n T -cadenas de longitud
1; por tanto el resultado es válido para k = 1.
Examinemos, sólo por razones nemotécnicas, el caso k = 2. Supongamos que T 2 = O y T 6= O
(nilpotente de orden 2). Sean s = dim(N (T )) ≥ 1 y r = n − s = dim(Im(T )) ≥ 1. Consideremos
una base {w1 , · · · , wr } de Im(T ); dado que cada wj ∈ Im(T ), existe uj ∈ U tal que T (uj ) = wj para
todo j = 1, · · · , r. Observe además que T (wj ) = 0U para cada j = 1, · · · , r pues T 2 = O. Por tanto,
{w1 , · · · , wr } ⊂ N (T ). En particular esto indica que Im(T ) ⊂ N (T ). Sean ur+1 , · · · , us vectores en N (T )
tales que {w1 , · · · , wr , ur+1 , · · · , us } es base de N (T ).
38 Fascı́culos de Álgebra Lineal
Note que para cada j = 1, · · · , r, [uj , T (uj )] es una T -cadena de longitud 2; mientras que cada [ui ] es
una T -cadena de longitud 1 para i = r + 1, · · · , s. Mostraremos entonces que los vectores:
son linealmente independientes, y por tanto constituyen una base en T -cadena de U . Supongamos que
para α1 , β1 , · · · , αr , βr , αr+1 , · · · , αs ∈ K se tiene
ahora usamos que {w1 , · · · , wr , ur+1 , · · · , us } es base de N (T ) para concluir, como afirmamos, que
{u1 , T (u1 ), · · · , ur , T (ur ), ur+1 , · · · , us } es una base en T -cadena de U .
Continuando con el argumento recursivo, supongamos como hipótesis inductiva que si T es cualquier
operador lineal nilpotente de orden 1 ≤ j ≤ k − 1 en un espacio vectorial U de dimensión n ≥ j,
entonces U admite una base en T -cadena. Mostremos entonces que esto mimo vale para operadores
lineales nilpotentes de orden k en espacios vectoriales de dimensión n ≥ k..
Sea T un operador lineal en U tal que T k = 0 y T k−1 6= 0. Dado que el subespacio imagen Im(T )
es invariante por T , T (Im(T )) ⊂ Im(T ), entonces la restricción de T a Im(T ) es un operador lineal en
Im(T ). Es simple verificar que T : Im(T ) → Im(T ) es nilpotente de orden k − 1 (es un ejercicio para el
lector). Luego empleando la hipótesis inductiva, Im(T ) admite bases en T -cadenas; sean
T -cadenas en Im(T ) tales que B = {v1 , T (v1 ), · · · , T ℓ1 −1 (v1 ), · · · , vm , T (vm ), · · · , T ℓm −1 (vm )} es base
de Im(T ). Observe que los vectores finales de estas T -cadenas pertenecen a N (T ) y ℓ1 + · · · + ℓm =
dim(Im(T )).
Afirmamos que {T ℓ1 −1 (v1 ), · · · , T ℓm −1 (vm )} es una base de N (T ) ∩ Im(T ). Para ello basta verificar
que T ℓ1 −1 (v1 ), · · · , T ℓm −1 (vm ) generan a N (T ) ∩ Im(T ) pues ya son linealmente independientes. Sea
w ∈ N (T ) ∩ Im(T ); esto es, T (w) = 0U y w = T (v) para algún v ∈ U . Dado que B es base de Im(T ),
existen ciertos escalares α01 , · · · , αℓ11 −1 , · · · , α0m , · · · , αℓmm −1 tales que
nuevamente, como B es base, esta igualdad implica que todos los escalares α’s allı́ presentes son iguales
a 0; de donde w = αℓ11 −1 T ℓ1 −1 (v1 ) + · · · + αℓmm −1 T ℓm −1 (vm ); lo cual demuestra la afirmación.
Hagamos s = dim(N (T )), es claro que s = n − (ℓ1 + · · · + ℓm ). Ahora completamos la base de N (T ) ∩
Im(T ) hasta obtener una base de N (T ); sean um+1 , · · · , us tales vectores. Observe que [um+1 ], · · · , [us ]
son T -cadenas del tipo 2; las cuales, aunque no son únicas, su número está determinado por T , que es
Operadores Lineales: Reducciones Matriciales 39
dim(N (T )) − dim(N (T ) ∩ Im(T )) = s − m. Por otro lado, no es difı́cil verificar que B ∪ {um+1 , · · · , us }
es base de N (T ) + Im(T ). Recordemos que
por tanto requerimos de m vectores en U de manera que al ser anexados a B ∪ {um+1 , · · · , us } se tenga
una base de U . Veamos ahora como obtener estos m vectores. Sabemos que v1 , · · · , vm pertenecen a
Im(T ), luego existen u1 , · · · , um ∈ U tales que T (ui ) = vi para todo i = 1, · · · , m. Si mostramos que el
subespacio W generado por u1 , · · · , um , es tal que W ∩ (N (T ) + Im(T )) = {0U }, entonces el conjunto
{u1 , · · · , um } ∪ B ∪ {um+1 , · · · , us } es base de U ; pues tendrı́amos U = W ⊕ (N (T ) + Im(T )). Probemos
por tanto que W ∩ (N (T ) + Im(T )) = {0U }. Sea w ∈ W ∩ (N (T ) + Im(T )); luego T (w) = 0U ya que
W ⊂ N (T ), y existen vectores u0 ∈ N (T ) y v0 ∈ Im(T ) tales que w = u0 + v0 . Como {u1 , · · · , um } es
base de W , escribimos w = α1 u1 + · · · + αm um para ciertos escalares αi con i = 1, · · · , m; por otra parte,
T (u0 ) = 0U y para escalares α01 , · · · , αℓ11 −1 , · · · , α0m , · · · , αℓmm −1 tenemos
pero como B es base, esta igualdad implica que todos los escalares en ella son nulos, en particular sigue
que w = 0U . Lo cual demuestra que {u1 , · · · , um } ∪ B ∪ {um+1 , · · · , us } es base de U .
Por construcción observe que
[u1 , v1 , T (v1 ), · · · , T ℓ1 −1 (v1 )], · · · , [um , vm , T (vm ), · · · , T ℓm −1 (vm )], · · · , [um+1 ], · · · , [us ]
Teorema 3.10 (Versión matricial del Teorema 3.9). Dada cualquier matriz A ∈ Mn×n (K) nilpotente
de orden k ≥ 1, existen matrices invertibles P ∈ Mn×n (K), cuyas columnas forman una base en A-cadena
de Kn , tales que P −1 AP es una matriz diagonal por bloques, cuyos bloques en su diagonal son matrices
nilpotentes básicas.
Definición 3.12 (Forma Canónica Nilpotente). Sean U un espacio vectorial de dimensión finita
n ≥ 1 sobre K y T un operador lineal nilpotente en U . Se conoce como forma canónica nilpotente de T
a la representación matricial de T en cualquier base en T -cadena de U ordenada de manera decreciente
en relación a la longitud de las T -cadenas que la conforman.
Dada A ∈ Mn×n (K) nilpotente, la forma canónica nilpotente de A es la forma canónica nilpotente del
operador lineal TA : Kn → Kn definido por TA (X) = AX para cada X ∈ Kn .
Comentario 3.6. Para cerrar esta sección nos luce interesante hacer algunos comentarios finales; muchos
de ellos triviales, pero que resaltan y repasan las nociones acá estudiadas.
40 Fascı́culos de Álgebra Lineal
• En virtud de la proposición 3.4 y el teorema 3.9, no cabe lugar a dudas de que hemos enunciado arriba
es en efecto una definición: todas las matrices ası́ construidas son iguales.
• Dado T , un operador lineal nilpotente en U con dim(U ) = n ≥ 1, o A ∈ Mn×n (K) nilpotente, sus
polinomios caracterı́sticos son iguales a p(x) = (−1)n xn . En particular, operadores lineales o matrices
nilpotentes tiene al 0 como único valor propio, cuya multiplicidad algebraica es igual a la dimensión n del
espacio. Por tanto, los únicos operadores lineales y matrices nilpotentes diagonalizables son el operador
nulo y la matriz nula.
• Como habrá sido observado, la conformación de las bases en cadenas, dependen de las dimensiones de
las sucesiones ascendentes y descendentes de las potencias de la matriz o del operador nilpotente T .
1. Por ejemplo, consideremos una matriz A ∈ M2×2 (K) nilpotente; por el lema 3.7 A es nilpotente de
orden 1 u orden 2, no puede ser de orden mayor pues en tal caso se tendrı́a un cadena de longitud
mayor que 2, lo cual no puede ser pues ese conjunto de vectores serı́a linealmente independiente en
el espacio K2 donde actúa A. Si el orden de nilpotencia es 1, entonces existe una base {v1 , v2 } de K2
en cadena (cada parte de longitud 1) de manera que Av1 = 0K2 y Av2 = 0K2 ; luego la forma canóni-
0 0
ca nilpotente de A, es . Si el orden de nilpotencia de A es 2, existe una cadena de longitud
0 0
2, digamos [v1 , Av1 ]; sigue entonces que {v1 , Av1 } es base de K2 en cadena, y la forma canónica
0 0
nilpotente de A es la matriz . Este análisis permite hacer una clasificación, en términos de
1 0
semejanza de matrices a, de las matrices nilpotentes de orden 2 × 2; esta es:
0 0 0 0
toda matriz nilpotente de orden 2 × 2 es semejante a una de las siguientes matrices: ó .
0 0 1 0
2. De forma análoga, se puede verificar muy fácilmente que toda matriz de orden 3 × 3 nilpotente es
0 0 0 0 0 0 0 0 0
semejante a alguna de las matrices: 0 0 0, 1 0 0, ó 1 0 0.
0 0 0 0 0 0 0 1 0
0 0
1 0
canónica nilpotente de T es la matriz .
0
0
c) Consideremos ahora que k = 3; es decir, N (T 3 ) = U y 1 ≤ dim(N (T 2 )) < 4. Dado que el
indice de nilpotencia es 3, las T -cadenas de mayor longitud tienen 3 vectores; en vista de que
dim(U ) = 4; cada base en T -cadena de U tiene examente una T -cadena de longitud 3 y otra
de longitud 1. En otras palabras, las bases en T -cadenas son concatenaciones de T -cadenas
de la forma: [v1 , T (v1 ), T 2 (v1 )] y [v2 ]; por tanto la única posibilidad es que dim(N (T )) = 2 y
0 0 0
1 0 0
dim(Im(T 2 )) = dim(N (T 2 )) = 2. En este caso la forma canónica nilpotente es 0 1 0 .
0
d ) Finalmente, supongamos que k = 4. Luego las T -cadenas de mayor longitud tienen 4 vectores
(que es la dimensión de U ); por tanto, la única posibilidad para una base en T -cadena es la
formada por una sóla T -cadena: [v, T (v), T 2 (v), T 3 (v)]. Observe que las relaciones posibles en
las dimensiones de los núcleos e imágenes es: dim(N (T )) = 1 = dim(Im(T 3 )). En tal caso, la
0 0 0 0
1 0 0 0
la forma canónica nilpotente es
0 1 0 0.
0 0 1 0
5. Mostrar un ejemplo de un operador lineal T en R3 no nilpotente con 0 como su único valor propio.
(Recordar que los valores propios deben estar en R)
42 Fascı́culos de Álgebra Lineal
7. Determine la forma canónica nilpotente, de ser posible, del operador lineal T sobre U con los datos
que se suministran:
8. Hacer la clasificación en términos de similitud a matrices nilpotentes de todas las matrices, nilpo-
tentes, de ordenes 5 × 5 y 6 × 6.
9. Sea T un operador lineal nilpotente en U cuyo orden de nilpotencia es k > 1, y cuya forma canónica
N1 O · · · O
O N2 · · · O
nilpotente es la matriz diagonal por bloques N = . .. .. .. . ¿Cuál es la nulidad de T ?
.. . . .
O O · · · Ns
Si dim(N (T 2 )) = 1 + dim(N (T )), demuestre que las bases de U que dan origen a esta forma
canónica tienen una única cadena de longitud p, y el resto son de longitud 1. ¿Qué puede decirse si
dim(N (T 2 )) = 2 + dim(N (T ))?
10. Determine el orden de nilpotencia del operador T en R3 dado por T (x, y, z) = (0, x, y), y calcule su
forma canónica nilpotente.
Jλ1
Comentario 3.7. Sea A = ..
una matriz de Jordan. Si el orden de cada bloque de Jordan
.
Jλk
Jλi (i = 1, · · · , k) es mi × mi , entonces el polinomio caracterı́stico de A es
Por tanto, los valores propios distintos de A son justamente: λ1 , · · · , λk ; además, sus multiplicidades
algebraicas coinciden conel orden de sus correspondientes
bloquesde Jordan.
1 0 0 1 0 0
1 1 0 1 1 0
Claramente las matrices 0 0 1 y 0 0 1 son ejemplos de matrices de Jordan
2 0 2 0
0 2 1 2
de orden 5 × 5 con valores propios λ1 = 1 y λ1 = 2. Además, toda forma canónica nilpotente es una
matriz de Jordan, en la que sus valores propios son iguales a 0. Observe también que cualquier matriz
diagonal puede escribirse (mediante la relación de semejanza) como una matriz de Jordan; de hecho, en
este caso las matrices nilpotentes a las que se refieren las definiciones anteriores son nulas.
El principal objetivo teórico en esta parte de las notas es demostrar el siguiente teorema:
Teorema 3.11 (Forma Canónica de Jordan). Sean U un espacio vectorial de dimensión finita
n ≥ 1 sobre K, y T un operador lineal en U . Si el polinomio caracterı́stico de T puede factoriazarse
como pT (x) = (−1)n (x − λ1 )m1 · · · (x − λℓ )mℓ , con m1 + · · · + mℓ = n; o equivalentemente, si T tiene
n valores propios (contadas sus multiplicidades algebraicas), entonces existe una base B de U tal que
Jλ1
[T ]B = ..
, donde cada Jλi es un bloque de Jordan.
.
Jλk
Teorema 3.12 (Versión matricial de la Forma Canónica de Jordan). Sea A ∈ Mn×n (K). Si
pA (x) = (−1)n (x − λ1 )m1 · · · (x − λℓ )mℓ , con m1 + · · · + mℓ = n; es decir, si A tiene n valores propios
(contadas sus multiplicidades algebraicas), entonces existe una matriz P ∈ Mn×n (K) invertible tal que
Jλ1
P −1 AP = ..
, donde cada Jλi es un bloque de Jordan.
.
Jλk
Demostración: Claramente la demostración de este teorema es consecuencia del anterior. Esto sigue,
como siempre, del hecho que el operador lineal TA : Kn → Kn dado por TA (X) = AX para cada vector
(unicolumna) X ∈ Kn , tiene a la matriz A como su representación matricial en la base canónica de
Kn .
Debido al Teorema Fundamental del Álgebra, ver teorema 3.3 en la página 11, tenemos inmediatamente
de los anteriores enunciados el siguiente corolario
Corolario 3.3. Todo operador lineal T en un espacio finito dimensional sobre C y toda matriz A en
Mn×n (C) admiten matrices de Jordan.
Esto hace realmente amplio el conjunto de operadores lineales (y matrices cuadradas) que pueden
representarse de manera matricial a través de una matriz de Jordan. Sin embargo, puede ocurrir que el
Operadores Lineales: Reducciones Matriciales 45
polinomio caracterı́stico de una matriz con coeficientes en R, o un operador lineal en un espacio vectorial
sobre R, sea de la forma (λ1 −x)m1 · · · (λℓ −x)mℓ q(x), donde λ1 , · · · , λℓ ∈ R y el polinomio q(x), con grado
mayor que 1, no tenga raı́ces en R, entonces estas matrices u operadores lineales no pueden expresarse
matricialmente mediante una matriz de Jordan como la que hemos expuesto. Para este tipo de matrices
y operadores existe una manera semejante de obtener formas matriciales simples, conocidas como formas
canónicas de Jordan reales, las cuales serán estudiadas más adelante.
Como ya se ha enunciado, el objetivo fundamental acá es obtener representaciones matriciales (o
matrices semejantes) en diagonal por bloques, cuyos bloques involucran formas canónicas nilpotentes;
por tal motivo analizaremos en primer lugar las matrices de Jordan correspondientes a un tipo especial
de operadores lineales y matrices cuadradas: aquellos que tienen un único valor propio con multiplicidad
algebraica igual a la dimensión del espacio vectorial donde está definido el operador lineal; tal es el caso
de operadores lineales y matrices nilpotentes, el cual fue comentado anteriormente y cuyas matrices de
Jordan son justamente las formas canónicas nilpotentes. No obstante, para realizar el análisis de la forma
que tienen las matrices de Jordan de cualquier operador lineal T en U , dim(U ) = n ≥ 1, con n valores
propios todos iguales a λ ∈ K, requerimos de otro relevante resultado del Álgebra Lineal: el teorema de
Cayley-Hamilton, que pasamos a estudiar a continuación.
De la misma forma, para cualquier A ∈ Mn×n (K), la matriz p(A) es definida por:
Teorema 3.13 (Cayley-Hamilton). Dada cualquier matriz A ∈ Mn×n (K), si pA (x) es su polinomio
caracterı́stico, entonces pA (A) es la matriz nula.
46 Fascı́culos de Álgebra Lineal
Demostración del Teorema de Cayley-Hamilton: Sea D(x) = A − xIn la matriz cuyo determinate
es el polinomio caracterı́stico de A, digamos que pA (x) = a0 + a1 x + · · · + an xn . Sea adj(D(x)) la adjunta
clásica de la matriz D(x). Dado que para cada B ∈ Mn×n (K) se cumple adj(B)B = det(B)In , entonces
pA (x)In = adj(D(x))D(x); de donde
Por definición de matriz adjunta clásica, para cada 1 ≤ i, j ≤ n, la entrada ij de D(x) es igual a
(−1)i+j det(Dij (x)), donde Dij (x) es la matriz que se obtiene de D(x) al eliminar su fila i y su columna
j. De esta forma, cada una de las entradas de adj(D(x)) son polinomios en x, cuyos grados son a los
sumo n − 1. Empleando el comentario anterior, escribimos adj(D(x)) como
Teorema 3.14 (Cayley-Hamilton para operadores lineales). Sean U un espacio vectorial de di-
mensión finita n ≥ 1 sobre K y T un operador lineal en U . Si pT (x) es el polinomio caracterı́stico de T ,
entonces pT (T ) es el operador nulo.
Operadores Lineales: Reducciones Matriciales 47
Demostración: Note que para cualquier polinomio p(x) con coeficientes en K, y para cualquier repre-
sentación matricial A = [T ]B se tiene la relación [p(T )]B = p(A). En efecto, dado que para cualquier
k ≥ 0 (entero) y α ∈ K siempre se satisface:
Por tanto, p(A) es la matriz nula si, y sólo si, p(T ) es el operador lineal nulo.
Corolario 3.4. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K y T un operador lineal
en U . Si T , y A ∈ Mn×n (K), tiene n valores propios todos iguales a 0, entonces T , y A, es nilpotente de
orden k ≤ n.
Demostración: Claramente si un operador lineal T en un espacio de dimensión finita n ≥ 1, y una
matriz A ∈ Mn×n (K), tiene n valores propios iguales a 0, entonces pT (x) = pA (x) = (−1)n xn . Luego, del
teorema anterior sigue que pT (T ) = (−1)n T n es el operador lineal nulo en U y pA (A) = (−1)n An es la
matriz nula.
Corolario 3.5. Sean U un espacio vectorial de dimensión finita n ≥ 1 sobre K, T un operador lineal en
U , y A cualquier matriz de Si Mn×n (K). Tanto T como A son nilpotentes si, y sólo si, p(x) = (−1)n xn
es su polinomio caracterı́stico.
Demostración: Sigue inmediatamente del comentario 3.6, ver página 39, y del corolario anterior.
Otra consecuencia del Teorema de Cayley-Hamilton, que mostramos a continuación, es útil para
obtener las matrices de Jordan correspondientes a operadores lineales en espacios de dimensión finita
n ≥ 1 sobre K, y de matrices en Mn×n (K), que posean exactamente n valores propios iguales; tal como
ocurre con los operadores y matrices nilpotentes.
Proposición 3.5. Sea U es un espacio vectorial de dimensión finita n ≥ 1 sobre K. Si T es un operador
lineal en U con n valores propios iguales a λ ∈ K, entonces T se representa matricialmente mediante una
la matriz N + λIn , donde N es la forma canónica nilpotente del operador lineal nilpotente T − λI.
Demostración: Observe que si el operador T tiene n valores propios iguales a λ ∈ K, entonces su
polinomio caracterı́stico es pT (x) = (−1)n (x − λ)n . Por tanto, (T − λI)n es el operador nulo; con lo cual
T − λI es nilpotente de un orden 1 ≤ k ≤ n y existe una base B de U tal que [T − λI]B = N , donde
N es la forma canónica nilpotente de T − λI. Ahora bien, como [T − λI]B = [T ]B − λ[I]B = [T ]B − λIn ,
entonces [T ]B = N + λIn ; que es una matriz de Jordan.
Es obvio que la proposición que acabamos de mostrar tiene su versión matricial, cuya demostración,
como siempre, está asociada al operador lineal TA : Kn → Kn dado por TA (X) = AX.
Proposición 3.6. Si A ∈ Mn×n (K) tiene n valores propios iguales a λ ∈ K, entonces A es semejante a
N + λIn , donde N es la forma canónica nilpotente semejante a A − λIn .
Vale resaltar que si N y A − λIn son semejantes, entonces N + λIn y A también lo son, incluso con
la misma matriz de cambio de base. En efecto, esto sigue de:
de donde N + λIn = P −1 AP .
48 Fascı́culos de Álgebra Lineal
2 0 0 1
0 2 0 0
Ejemplo 3.18. Consideremos la matriz A = 1 0 2 0. Una simple cuenta muestra que su polinomio
0 1 0 2
4
caracterı́stico es pA (x) = (2−x) , por lo que A tiene a λ = 2 como su único valor propio, con multiplicidad
algebraica igual a 4; además del teorema de Cayley-Hamilton sigue que (A − 2I4 )4 = O. Por otro lado,
como
0 0 0 1 0 1 0 0 0 0 0 0
0 0 0 0 2
0 0 0 0 3
0 0 0 0
A − 2I4 = 1 0 0 0 , (A − 2I4 ) = 0 0 0 1 , (A − 2I4 ) = 0 1 0 0 ,
0 1 0 0 0 0 0 0 0 0 0 0
entonces el orden de nilpotencia de A − 2I4 es 4. Por tanto existe una (A − 2I4 )-cadena de longitud 4,
la cual inevitablemente constituye una base de R4 . Si B = {X1 , AX1 , A2 X1 , A3 X1 } es una tal (A − 2I4 )-
cadena de longitud 4, entonces la matriz P , cuyas columnas son los vectores X1 , AX1 , A2 X1 y A3 X1
0 0 0 0
1 0 0 0
satisface P −1 (A − 2I4 )P = N =
0 1 0 0, que es la forma canónica nilpotente de (A − 2I4 ). Luego
0 0 1 0
2 0 0 0
1 2 0 0
P −1 AP = N + 2I4 =
0
es una matriz de Jordan semejante a A.
1 2 0
0 0 1 2
Con el comentario que se ha expuesto se traza, de manera muy elemental, el camino para ofrecer una
demostración del teorema 3.11; de hecho, excepto por la consecuencia anunciada del Teorema de Cayley-
Hamilton, la forma canónica de Jordan se puede obtener si el espacio vectorial es descompuesto en suma
directa de un determinado número de subespacios invariantes por el operador, en los que la restricción de
éste satisface las hipótesis de la proposión 3.5; el número de subespacios a los que nos referimos depende
del número de valores propios distintos que tenga el operador lineal. Es por ello que a continuación nos
dedicaremos, en primer lugar, a conocer el Teorema de Cayley-Hamilton y su citada consecuencia, para
seguidamente dedicarnos a la búsqueda de una descomposición del espacio vectorial como la descrita.
Lema 3.8. Sea W un subespacio vectorial de U . W es invariante por T si, y sólo si, W es invariante por
T − λI para todo λ ∈ K. En particular, si λ es un valor propio de T , entonces los subespacios N∞ (T − λI)
e Im∞ (T − λI) son invariantes por T − µI para cualquier otro valor propio µ de T .
dado que W es un subespacio invariante por T , entonces tanto T (w) como λw pertenecen a W ; sigue
ası́ que (T − λI)(w) ∈ W , y por tanto W es invariante por T − λI. Recı́procamente, si W es invariante
por T − λI para cualquier λ ∈ K, en particular lo es para λ = 0. Esto demuestra la primera parte del
lema. La segunda parte es una consecuencia inmediata de la primera y del teorema 3.8, ver página 28;
pues los subespacios N∞ (T − λI) e Im∞ (T − λI) son invariantes por T − λ para cualquier valor propio
λ de T .
Demostración: Del lema anterior tenemos que el subespacio N∞ (T − λI) es invariante por T − λI; por
ello tiene sentido hablar del operador lineal T − λI en tal subespacio. Luego el resultado sigue al aplicar
el teorema 3.8 al operador T − λI : N∞ (T − λI) → N∞ (T − λI).
Lema 3.10. Sea λ un valor propio de T con multiplicidad algebraica m ≥ 1; es decir, su polinomio
caracterı́stico es pT (x) = (x − λ)m q(x), donde q(x) es un polinomio que no tiene a λ como una raı́z.
Entonces dim(N∞ (T − λI)) = m.
donde grad(r(x)) denota el grado del polinomio r(x), entonces k = m y q(x) = (−1)k p2 (x).
Lema 3.11. N∞ (T − λI) ∩ N∞ (T − µI) = {0U } para todo par de valores propios distintos λ y µ de T .
50 Fascı́culos de Álgebra Lineal
Demostración: Sean ℓ y m los enteros positivos que estabilizan las sucesiones de los espacios nulos
de las potencias de T − λI y T − µI respectivamente. Supongamos que existe un vector v no nulo tal
que v ∈ N∞ (T − λI) ∩ N∞ (T − µI). Dado que (T − λI)ℓ (v) = 0U , sea k ≥ 0 el mayor entero tal que
(T − λI)k (v) 6= 0U . Hagamos w = (T − λI)k (v); por la forma como ha sido tomado k, es claro que
(T − λI)(w) = 0U ; es decir T (w) = λw (w es vector propio asociado a λ). Consideremos el polinomio
q(x) = (x − µ)m , del ejercicio propuesto 13 en la página 14 sigue que q(λ) = (λ − µ)m es valor propio
del operador lineal q(T ) = (T − µI)m . Como w es vector propio de T asociado a λ, q(T )(w) = q(λ)w; de
donde:
(λ − µ)m w = (T − µI)m (w) = (T − µI)m (T − λI)k (v).
Por otra parte, como T − µI y T − λI conmutan ((T − µI)(T − λI) = (T − λI)(T − µI)), entonces
de lo anterior igualdad se tiene (λ − µ)m w = (T − λI)k (T − µI)m (v); pero (T − µI)m (v) = 0U , pues
v ∈ N∞ (T − µI) = N ((T − µI)m ). Esto implica que (λ − µ)m w = 0U ; finalmente, como λ 6= µ se concluye
w = 0U ; lo cual es absurdo.
Lema 3.12. Si el polinomio caracterı́stico de T tiene n valores propios contadas sus multiplicidades;
esto es, si pT (x) = (λ1 − x)m1 · · · (λℓ − x)mℓ , donde λ1 , · · · , λℓ son los valores propios distintos de T y
m1 + · · · + mℓ = n, entonces U = N∞ (T − λ1 I) ⊕ · · · ⊕ N∞ (T − λℓ I).
Demostración: Del lema 3.10 tenemos que dim(N∞ (T − λj I)) = mj para cada j = 1, · · · , ℓ. Para
demostrar que U es suma directa de los subespacios N∞ (T − λj I) (j = 1, · · · , ℓ) procederemos por
recurrencia sobre el número de valores propios distintos de T .
Supongamos que ℓ = 1; en tal caso es claro que pT (x) = (−1)n (x − λ)n y N∞ (T − λI) = U . Sólo por
razones didácticas examinaremos el caso ℓ = 2. Si T tiene dos valores propios λ1 y λ2 distintos, y pT (x) =
(−1)n (x−λ1 )m m
1 (x−λ2 )2 con m1 +m2 = n, del lema anterior sigue que N∞ (T −λ1 I)∩N∞ (T −λ2 I) = {0U };
además, como la suma de las dimensiones de N∞ (T − λI) y N∞ (T − µI) es n, entonces U es la suma
directa de N∞ (T − λI) y N∞ (T − µI).
Supongamos como hipótesis inductiva que el enunciado del lema es cierto para todo operador lineal
que tenga k (1 ≤ k ≤ ℓ − 1) valores propios distintos, y que la suma de sus multiplicidades algebraicas
sea la dimensión del espacio vectorial donde está definido el operador. Mostremos que continúa siendo
cierto el enunciado cuando k = ℓ.
Sean λ1 , · · · , λℓ y m1 , · · · , mℓ como en el enunciado del lema; sean T1 y T2 las rectricciones de T a
los subespacios N∞ (T − λ1 I) y Im∞ (T − λ1 I) respectivamente. Dado que dim(N∞ (T − λ1 I)) = m1 y U
es la suma directa de N∞ (T − λ1 I) y Im∞ (T − λ1 I), como pT1 (x) = (λ1 − x)m1 , entonces el polinomio
caracterı́stico de T2 es pT2 (x) = (λ2 − x)m2 · · · (λℓ − x)mℓ . De esta forma el operador T2 tiene ℓ − 1 valores
propios distintos (λ2 , · · · , λℓ ) y la suma de sus multiplicidades algebraicas (m2 , · · · , mℓ ) es la dimensión
del espacio Im∞ (T − λ1 I). Entonces por la hipótesis inductiva,
Resta mostrar entonces que para cada j = 2, · · · , ℓ, N∞ (T2 − λj I) = N∞ (T − λj I). En efecto, por la
forma que tiene pT2 (x), sigue del lema 3.10 que dim(N∞ (T2 − λj I)) = mj = dim(N∞ (T − λj I)). Ahora
bien, si v ∈ N∞ (T2 − λj I) y pj es el orden de nilpotencia de T2 − λj I, entonces
Basado en los lemas precedentes estamos en condiciones de ofrecer una demostración de la existencia
de matrices de Jordan para operadores definidos en espacios vectoriales de dimensión finita n ≥ 1 sobre
K, cuyos polinomios caracterı́sticos tienen n raı́ces en K, contadas sus multiplicidades algebraicas.
donde λ1 , · · · , λℓ son los valores propios distintos de T cuyas multiplicidades algebraicas son iguales a
m1 , · · · , mℓ , respectivamente. Para cada i = 1, · · · , ℓ, sea Ti la restricción de T a N∞ (T − λi I); recuerde
que N∞ (T − λi I) es invariante por T . Dado que U es la suma directa de los subespacios N∞ (T − λi I) con
i = 1, · · · , ℓ, entonces cualesquiera sean las bases Bi de N∞ (T − λi I), se tiene que B, la unión ordenada
de Bi con i = 1, · · · , ℓ, es base de U ; además, la representación matricial de T en B es la matriz diagonal
[T1 ]B1 O ··· O
O
[T2 ]B2 · · · O
por bloques: [T ]B = . . . .. , ver lema 3.4 en la página 32.
. . .
. . . .
O O · · · [Tℓ ]Bℓ
La demostración estará completa si para cada i = 1, · · · , ℓ construimos bases Bi de N∞ (T − λi I)
de manera que [Ti ]Bi sea una matriz de Jordan asociada al valor propio λi . Ahora bien, por el lema
3.9, cada operador Ti − λi I (i = 1, · · · , ℓ) es nilpotente, lo cual garantiza que podemos construir una
base en (Ti − λi I)-cadena Bi de N∞ (T − λi I); por lo que [Ti − λi I]Bi = Ni es la forma canónica
nilpotente de Ti − λi I, observe que Ni es de orden mi × mi , pues dim(N∞ (T − λi I)) = mi . De esta forma
Jλ1 O · · · O
O Jλ2 · · · O
[Ti ]Bi = Ni + λi Imi = J(λi ) es un bloque de Jordan, y [T ]B = . .. .. .. es una matriz
.. . . .
O O · · · Jλℓ
de Jordan para T .
Comentario 3.8 (Unicidad de las representaciones matriciales de Jordan). Debe hacerse notar
que la propia demostración del teorema anterior establece un algoritmo para construir matrices de Jordan
de cualquier operador lineal T , o matriz cuadrada, con valores propios λ1 , · · · , λℓ ∈ K cuya suma de
multiplicidades algebraicas es la dimensión del espacio donde está definido T . Tal algoritmo lo resumimos
como sigue:
Paso 1: Se obtienen los subespacios N∞ (T − λ1 I), · · · , N∞ (T − λℓ I).
Paso 2: Para cada j = 1, · · · , ℓ se contruye una base Bj de N∞ (T − λj I) que está en (T − λj I)-cadena;
digamos Bj = {v1j , · · · , vm
j
j
}.
S
Paso 3: B = {v11 , · · · , vm
1
1
, · · · , v1ℓ , · · · , vm
ℓ
ℓ
} = ℓj=1 Bj es base de U , y [T ]B es una matriz de Jordan.
Cuando estudiamos matrices y operadores nilpotentes en espacios finito dimensionales mostramos que
todas las bases en T -cadena del espacio tienen el mismo número de T -cadenas (la nulidad del operador);
además, el número de T -cadenas de una longitud dada no varı́a con las bases en T -cadenas; esto nos
condujo a convenir en denominar forma canónica nilpotente a la representación matricial obtenida a
partir de cualquier base en T -cadena ordenada de manera descendiente en relación a la longitud de las
T -cadenas que la conforman. Para convenir en cierto tipo de unicidad de las representaciones matriciales
que son matrices de Jordan, se debe establecer un criterio de orden de aparición de las bases Bj de
52 Fascı́culos de Álgebra Lineal
Antes de mostrar algunos ejemplos, conviene recordar el concepto del orden lexicográfico en los números
complejos. Este se define como sigue: si x + iy 6= z + iw, entonces
Es simple verificar que <C es un orden total en C, el cual extiende el orden usual en la recta real.
Ejemplo 3.19. Supongamos que tenemos un operador lineal T en un espacio de dimensión 8 que tiene
3 valores propios distintos: λ1 = 2, λ2 = −1 y λ3 = 3 con multiplicidades algebraicas m1 = 3 = m2 y
m3 = 2; supongamos además que los bloque de Jordan que generan los operadores T − 2I, T − (−1)I y
T − 3I son, respectivamente:
2 0 0 −1 0 0
3 0
J2 = 1 2 0 , J−1 =
1 −1 0 y J3 = ;
0 3
0 1 2 0 1 −1
son ambas matrices de Jordan, pero la segunda es la forma canónica de Jordan de tal operador.
−2 0
a estos valores propios son respectivamente: 1 y . Cuando analizamos los datos que tenemos
0 −2
sobre los espacios nulos de las potencias de los operadores T − (−1 + i)I y T − 3I, se concluye:
1. Las bases en (T − (−1 + i)I))-cadena de N∞ (T − (−1 + i)I) tienen dos (T − (−1 + i)I))-cadenas;
luego tales bases son la concatenación de una cadena de longitud 2 y otra de longitud 1, pues
dim(N∞ (T − (−1 + i)I)) = 3 y dim(N (T − (−1 + i)I)) = 2. Ası́, el bloque de Jordan correspondiente
−1 + i 0 0
al valor propio −1 + i es la matriz 1 −1 + i 0 .
0 0 −1 + i
2. Las bases en (T −3I))-cadena de N∞ (T −3I) tienen una única (T −3I))-cadena ya que el subespacio
nulo N (T − 3I) tiene dimensión 1; tales cadenas son de longitud 3. Por lo que el bloque de Jordan
3 0 0
correspondiente al valor propio 3 es la matriz 1 3 0 .
0 1 3
Obtenido el bloque de Jordan para cada uno de los valores propios de T ; al emplear el criterio adoptado,
tenemos que la forma canónica de T es la matriz diagonal por bloques
−2 0
0 −2
1
3 0 0
J = 1 3 0 .
0 1 3
−1 + i 0 0
1 −1 + i 0
0 0 −1 + i
2 0 0 0 0
3 3 −2 −1 1
Ejemplo 3.21. Consideremos la matriz A = 2 0 0 0 0 . Dado que
2 1 −1 1 −1
−1 0 1 0 0
2−x 0 0 0 0
3 3 − x −2 −1 1
3 − x −2 −1 1
0
−x 0 0
pA (x) = 2 0 −x 0 0 = (2 − x)
2 1 −1 1 − x −1
1 −1 1 − x −1
0 1 0 −x
−1 0 1 0 −x
3−x −1 1
= (x − 2)x 1 1 − x −1 = (2 − x)3 x2 ,
0 0 −x
entonces A tiene como valores propios a λ1 = 2 y λ2 = 0, cuyas multiplicidades algebraicas son respectiva-
mente m1 = 3 y m2 = 2. Esto implica que dim(N∞ (A−2I5 )) = 3 y dim(N∞ (A−0I5 )) = dim(N∞ (A)) = 2.
• Construcción de una base en (A − 2I5 )-cadena de N∞ (A − 2I5 ).
En primer lugar debe encontrarse el ı́ndice de nilpotencia de la matriz A − 2I5 , el cual sabemos coincide
con el entero que estabiliza la sucesión ascendente de los espacios nulos de las potencias de A − 2I5 .
54 Fascı́culos de Álgebra Lineal
En vista de que
0 0 0 0 0 1 0 −1 0 2
3 1 −2 −1 1 f1 ←→ −f5 0 1 1 −1 −5
f → f − 3f
2 2 1
A − 2I5 = 2 0 −2 0 0 −−−−−−−−−−−→ 0 0 0 0 −2
f3 → f3 − 2f1
2 1 −1 −1 −1 f4 → f4 − 2f1 0 1 1 −1 −5
−1 0 1 0 −2 0 0 0 0 0
0 −11 0 2 1 0 −1 0 0
1 01 −1 −5 1 −1 0
1
f3 ←→− 2 f3 0 1
f1 →f1 −2f3
−−−−−−− −→ 0 00 0 1 −−−−−−−→ 0 0 0 0 1 ,
f4 →f4 −f2 f2 →f2 +5f5
0 00 0 0 0 0 0 0 0
0 00 0 0 0 0 0 0 0
α
β − α
entonces dim(N (A − 2I5 )) = 2 y N (A − 2I5 ) = α ∈ R5 : α, β
∈ R . Por otra parte, como
β
0
0 0 0 0 0 1 0 −1 0 1
1
f →f1f ←+→4f4 f−
−4 0 4 0 0 5 0 0 0 0 1
4f2
2 3 3 1
(A − 2I5 ) = −4 0 4 0 0 −−−−−−−−−− −−−−→ 0 0 0 0 0
f2 ←→ 41 f4
0 0 0 0 4 f4 → f4 + 4f1 − 4f2 0 0 0 0 0
4 0 −4 0 4 0 0 0 0 0
Observe que A − 2I5 es nilpotente de orden 2, pues es en este entero donde se estabiliza la sucesión de
los núcleos de las potencias de A − 2I5 ; además, como dim(N (A − 2I5 )) = 2, se tiene que las bases en
(A − 2I5 )-cadena de N∞ (A − 2I5 ) tienen dos cadenas: una cadena de longitud 2 y otra de longitud 1;
es decir, son la concatenación de cadenas de la forma [v1 , (A − 2I5 )v1 ] y [v2 ]; recuerde que la dimensión
de N∞ (A − 2I5 )esigual a 3. Vamos ahora a buscar una tal base de este subespacio.
Dado que para
α 0 0 0 0 0 α 0
β 3 1 −2 −1 1
β α + β − γ
todo vector v = α ∈ N∞ (A − 2I5 ), (A − 2I5 )(v) = 2 0 −2 0 0 α = 0 ,
γ 2 1 −1 −1 −1 γ α + β − γ
0 −1 0 1 0 −2 0 0
elegimos vectores v1 , v2 ∈ N∞ (A − 2I5 ) tales que (A − 2I
5 1 )v =
6 0R 5 , (A − 2I )v
5 2 R = 0 5 con (A − 2I5 )v1
0 0 1
1 1 0
y v2 linealmente independientes; por ejemplo v1 = 0, (A − 2I5 )v1 = 0 y v2 = 1 satisfacen estas
0 1 1
0 0 0
Operadores Lineales: Reducciones Matriciales 55
condiciones. Ası́, B1 = {v1 , v2 , v3 } es una base en (A − 2I5 )-cadena de N∞ (A − 2I5 ) y el bloque de Jordan
2 0 0
de A correspondiente al valor propio λ1 = 2 es la matriz 1 2 0.
0 0 2
0 0
α − β 0
2
Ası́, N∞ (A) = N (A ). Dado que para v = α − β ∈ N∞ (A) tenemos A(v) = 0 , podemos elegir
α α − β
β α−β
0 0
1 0
u1 = 1 y Au1 = 0 para conformar una base en A-cadena de N∞ (A); luego el bloque de Jordan de
1 1
0 1
0 0
A correspondiente al valor propio λ2 = 0 es la matriz .
1 0
0 0 0 0 1
1 0 1 1 0
Finalmente, B = {u1 , Au1 , v1 , (A−2I5 )v1 , v2 } es una base de Jordan de A, y la matriz P = 1 0 0 0 1
1 1 0 1 1
0 1 0 0 0
0 0 0 0 0
1 0 0 0 0
−1
es tal que P AP = 0 0 2 0 0 es la forma canónica de Jordan de A.
0 0 1 2 0
0 0 0 0 2
Comentario 3.9. Como ya lo habiamos anunciado en el corolario 3.3, ver página 44, toda matriz
A ∈ Mn×n (C) u operador lineal T en un espacio vectorial U de dimensión finita n ≥ 1 sobre C admite
56 Fascı́culos de Álgebra Lineal
matrices semejantes, o representaciones matriciales, que son matrices de Jordan, entonces ambas tienen
una forma canónica de Jordan según el criterio que hemos adoptado.
No obstante, para que una matriz A ∈ Mn×n (R), o un operador lineal T en un espacio vectorial U de
dimensión finita n ≥ 1 sobre R, admita una forma canónica de Jordan, que en este caso será una matriz
J ∈ Mn×n (R), se debe satisfacer que sus polinomios caracterı́sticos tengan todas sus raı́ces en R, pues
−5 −17
estos valores se ubican en la diagonal principal de J. Por ejemplo consideremos la matriz ,
1 3
tiene como polinomio caracterı́stico a p(x) = x2 − 2x + 2 cuyas raı́ces son los números complejos (no
reales) λ1 = −1 − i y λ2 = −1 + i.
2. Determine cuáles de las siguientes matrices son formas canónicas de Jordan de acuerdo al criterio
establecido:
1 0 0 0 1−i 0 0 0
0 0 0 0 0 0 1 1 0 0 1 1−i 0 0
a) 0 0 0 b) 0 2 0 c)
0
d)
0 0 0 0 0 1+i 0
0 0 0 0 1 2
0 0 1 0 0 0 1 1+i
2 0 0 0 1 0 0 0 1 0 0 0
1 2 0 0 0 1 0 0 0 2 0 0
0 0 2 0 f) 0
e) g)
1 1 0 0 0 1+i 0
0 0 0 3 0 0 0 2 0 0 0 1+i
3. Cada una de las siguientes matrices A son formas canónicas de Jordan. Determine: polinomio ca-
racterı́stico, valores propios, dim(N∞ (A − λI)), dim(N (A − λI)) y la estructura de cada una de las
bases en (A − λI)-cadena que conforman las bases de Jordan, para cada valor propio λ de A:
3 0 0 0 −4 0 0 0 1 0 0 0 1 0 0 0
1 3 0 0 1 −4 0 0
c) 0 1 0 0 d) 1 1 0 0
0 0 3 0 b) 0
a)
0 4 0 0 0 3 0 0 0 3 0
0 0 1 3 0 0 1 4 0 0 0 5 0 0 0 5
−1 0 0 0 0 0 0 0
2 0 0 0 0 0
1 −1 0 0 0 0 0 0
1 2 0 0 0 0
0 1 −1 0 0 0 0 0
1 0 0 0
0 1 2 0 0 0 0 0 0 0 0 0 0 0 0 2 0 0
e) f) g)
0 0 0 3 0 0 0 0 0 0 1 0 0 0 0 0 1+i 0
0 0 0 1 3 0
0 0 0 0 1 1 0 0
0 0 0 1+i
0 0 0 0 0 3 0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 1
Operadores Lineales: Reducciones Matriciales 57
4. Encontrar la forma canónica de Jordan de la matriz A a partir de los datos que se suministran.
5. Para cada una de las siguientes matrices determine su forma canónica de Jordan; especı́fique la
matriz de cambio de base para obtenerla.
2 0 1 2 2 1 5 2 0
2 −1 1 1
a) b) c) 0 6 2 d) 0 6 2 e) −5 1 0
2 1 −1 1
0 0 2 0 0 2 0 0 2
−1 4 0 0 0
7 1 2 2 i 1 2 0 0
1 4 −1 −1 0 3 0 0 0
1 0 0 h)
f)
−2 1
g) 0 −4 −1 0 0
5 −1 0 −1 −i 0
3 −9 −4 2 −1
1 1 2 8 0 0 1 1
1 5 4 1 4
6. Encontrar todas las posibles formas canónicas de Jordan de una matriz A cuyo polinomio carac-
terı́stico es:
a) (x − 1)2 (x − 2)2 b) (x + 1 − i)2 (x + 2)2 c) (x − 1)2 (x − 2)3 x d) (x + 1 − i)3 (x + 2)3
7. Sean λ y µ valores propios del operador lineal T . Para cada par de enteros positivos m, n demostrar
que los subespacios N ((T − λI)m ) y N ((T − µI)n ) solo tienen en común al vector nulo.
8. Sean A, B matrices de orden n × n cuyos polinomios caracterı́sticos tienen todas sus raı́ces en el
cuerpo al que pertenecen sus entradas; esto es obvio si éstas se consideran en C. Demostrar que A
y B son semejantes si, y sólo si, tienen la misma forma canónica de Jordan.
Los ejercicios que se proponen desde el 10 hasta 21 están relacionados con el concepto de polinomio
mı́nimo que a continuación se introduce.
Definición 3.15. El polinomio mı́nimo de una matriz cuadrada A ∈ Mn×n (K), o de un operador
lineal T es un espacio vectorial U finito dimensional sobre K, es el polinomio de menor grado, digamos
m(x) = xm + am−1 xm−1 + · · · + a0 , con coeficientes en K y coeficiente lider igual a 1, tal que m(A) es la
matriz nula, o m(T ) es el operador nulo en U .
11 . Demostrar que el grado del polinomio mı́nimo es siempre menor o igual que el grado del polinomio
caracterı́stico.
2 1 0
12 . Considere la matriz A = 0 2 1. Haciendo uso del método de Gauss asociado al problema:
0 0 1
3 2
A + a2 A + a1 A + a0 I2 = O, determine el polinomio mı́nimo de A.
15 . Dada A ∈ Mn×n (K), demostrar que si q(x) = an xn + · · · + a1 x + a0 es cualquier polinomio tal que
q(A) es la matriz nula, entonces el polinomio mı́nimo m(x) de A divide a q(x); esto es, existe un
polinomio c(x) tal que q(x) = c(x)m(x). En particular el polinomio mı́nimo de una matriz cuadrada
u operador lineal divide al polinomio caracterı́stico.
16 . Dada A ∈ Mn×n (K), demostrar que cada factor lineal en los que se factoriza el polinomio carac-
terı́stico de A, es también un factor del polinomio mı́nimo de A.
20 . Sea q(x) un polinomio con coeficientes en K. Demostrar que si A, B ∈ Mn×n (K) son semejantes,
entonces q(A) y q(B) también lo son. Deducir que matrices semejantes tienen el mismo polinomio
1 3 4 −1
mı́nimo. ¿Son y semejantes?
2 3 1 1
Operadores Lineales: Reducciones Matriciales 59
21 . Demostrar que una matriz cuadrada es invertible si, y sólo si, el término constante de su polinomio
mı́nimo es diferente de 0. Usar esto para demostrar que si A ∈ Mn×n (K) es no invertible, entonces
existe B ∈ Mn×n (K) no nula tal que AB = O = BA.
2. Multiplicación: (a + ib)(c + id) := (ac − db) + i(ad − bc), para todo a + ib, c + id ∈ C,
se obtiene, como es bien conocido, que C adquiere dos estructuras algebraicas: la de cuerpo y de espacio
vectorial sobre C; esto sigue del hecho que para todo a + ib, c + id y e + if en C se satisfacen las siguientes
propiedades:
0 + (a + ib) = a + ib.
60 Fascı́culos de Álgebra Lineal
a b
(a + ib)( −i 2 ) = 1.
a2 +b2 a + b2
(M5) Distributividad:
Lo que pretendemos es hacer uso de estas mismas ideas para obtener espacios vectoriales complejos
a partir de espacios vectoriales sobre R; de manera que este segundo pueda considerarse inmerso inyecti-
vamente en el primero; con esto queremos decir que “el espacio vectorial real sea parte del complejo” de
la misma manera que R lo es de C.
Definición 3.16. Sea U un espacio vectorial sobre R. Denotamos por UC al conjunto de todos los objetos
de la forma u + iv, donde u y v son vectores en U , e i denota al número complejo que satisface i2 = −1.
Sobre el conjunto UC se definen una adición y una multiplicación por escalares en C como sigue:
Con estas operaciones el conjunto UC adquiere la estructura de espacio vectorial sobre C; esto es, se
satisfacen las siguientes propiedades:
Operadores Lineales: Reducciones Matriciales 61
[(u1 + iv1 ) + (u2 + iv2 )] + (u3 + iv3 ) = (u1 + iv1 ) + [(u2 + iv2 ) + (u3 + iv3 )].
para todo u + iv ∈ UC .
(α + iβ)[(δ + iγ)(u + iv)] = [(α + iβ)(δ + iγ)](u + iv) = (α + iβ)(δ + iγ)(u + iv).
Los detalles de la verificación de cada una de estas propiedades se dejan al lector. En adelante al espacio
vectorial complejo UC lo denominemos complexificado de U . Es simple chequear que el espacio vectorial
real U está inmerso inyectivamente en su complexificado UC ; esto significa que la aplicación Φ : U → UC
dada por Φ(u) = u + i0U es inyectiva; ver ejercicio 7 en página 74. Haciendo uso de esta aplicación se
identifica cada vector u ∈ U con el vector u + i0U ∈ UC .
Ejemplo 3.22. Dado n ≥ 1, veamos cuál es el complexificado del espacio vectorial real Rn . Por definición
tenemos que RnC = {u + iv : u, v ∈ Rn }. Si hacemos u = (u1 , · · · , un ) y v = (v1 , · · · , vn ) y realizamos la
operación arriba indicada, entonces u + iv = (u1 + iv1 , · · · , u2 + iv2 ), de donde, RnC = Cn .
De la misma manera se verifica que el complexificado del espacio vectorial Mm×n (R) es el espacio vectorial
sobre C de las matrices de orden m × n; es decir, Mm×n (C).
u = α1 u1 + · · · + αn un y v = β1 u1 + · · · + βn un .
Como antes
Comentario 3.10. Sabemos que todo espacio vectorial de dimensión finita n ≥ 1 sobre R es isomorfo
a Rn ; mientras que los espacios vectoriales de dimensión finita n ≥ 1 sobre C son todos isomorfos a Cn .
Por tanto el complexificado UC de un espacio vectorial de dimensión finita n ≥ 1 sobre R es como Cn .
Definición 3.17. Sean U espacio vectorial sobre R y T : U → U un operador lineal en U . Se conoce con
el nombre de complexificado de T , a la apliación TC : UC → UC definida, para cada u + iv ∈ UC , como
TC (u + iv) = T (u) + iT (v).
Demostración: Para demostrar la proposición basta verificar que para todo u1 + iv1 , u2 + iv2 ∈ UC y
α + iβ ∈ C se satisface
En efecto
TC ((u1 + iv1 ) + (α + iβ)(u2 + iv2 )) = TC ((u1 + iv1 ) + ((αu2 − βv2 ) + i(αv2 + βu2 )))
= TC ((u1 + αu2 − βv2 ) + i(v1 + αv2 + βu2 ))
= T (u1 + αu2 − βv2 ) + iT (v1 + αv2 + βu2 )
= (T (u1 ) + αT (u2 ) − βT (v2 )) + i(T (v1 ) + αT (v2 ) + βT (u2 ))
= (T (u1 ) + iT (v1 )) + ((αT (u2 ) − βT (v2 )) + i(αT (v2 ) + βT (u2 )))
= TC (u1 + iv1 ) + (α + iβ)TC (u2 + iv2 ).
Ejemplo 3.23. Es muy simple verificar que los complexificados del operador nulo y operador identidad
en cualquier espacio vectorial real U son justamente el operador nulo y el operador identidad en el espacio
vectorial complexificado UC
1 0 2 x
Ejemplo 3.24. Sean A = 2 0 1 y T : R → R el operador lineal dado, para cada y ∈ R3 por
3 3
0 0 3 z
x 1 0 2 x
T y = 2 0 1 y .
z 0 0 3 z
Como sabemos el complexificado de R3 es C3 , luego el complexificado de T es el operador TC : C3 → C3
x1 + ix2
definido, para cada y1 + iy2 ∈ C3 , mediante
z1 + iz2
x1 + ix2 x1 x2
TC y1 + iy2 = T y1 + iT y2
z1 + iz2 z1 z2
1 0 2 x1 1 0 2 x2
= 2 0 1 y1 + i 2 0 1 y2
0 0 3 z1 0 0 3 z2
1 0 2 x1 + ix2
= 2 0 1 y1 + iy2
0 0 3 z1 + iz2
Observe que la matriz A también define a TC ; de hecho, como sabemos, A es la representación matricial
tanto de T como de TC en la base {e1 , e2 , e3 }.
Comentario 3.11. Lo ocurrido en el ejemplo anterior no es particular en el sentido de que la matriz del
operador complexificado sea la misma que define al operador T . En efecto, es simple verificar que para
cualquier matriz A ∈ Mn×n (R) y su operador lineal asociado T : Rn → Rn con T (X) = AX, es tal que
su complexificado TC : Cn → Cn también se expresa mediante la misma matriz A; esto es, para cada
X + iY ∈ Cn , TC (X + iY ) = A(X + iY ). Podrı́amos decir entonces que el complexificado de una matriz
real es ella misma. Más general aún es la propiedad que se establece en la siguiente proposición.
Proposición 3.9. Sean U espacio vectorial de dimensión finita n ≥ 1 sobre R y T : U → U un
operador lineal en U . Entonces, dado que cualquier base B de U es considerada base de UC , se cumple
que [T ]B = [TC ]B .
a11 a12 · · · a1n
a21 a22 · · · a2n
Demostración: Sea B = {u1 , · · · , un }. Sabemos que [T ]B = . .. .. .. si, y sólo si, para
.. . . .
an1 an2 · · · ann
cada j = 1, · · · , n se satisface T (uj ) = a1j u1 + a2j u2 + · · · + anj un ; note que los coeficientes aij ∈ R.
Veamos ahora cómo es la imagen de uj = uj + i0U ∈ UC por TC .
TC (uj ) = TC (uj + i0U ) = T (uj ) + iT (0U )
= (a1j u1 + a2j u2 + · · · + anj un ) + i0U
= a1j (u1 + i0U ) + a2j (u2 + i0U ) + · · · + anj (un + i0U );
64 Fascı́culos de Álgebra Lineal
Comentario 3.12. La proposición que acabamos de demostrar nos dice varias cosas:
1. Si las representaciones matriciales de operadores complexificados son tomadas sobre bases del es-
pacio vectorial real, entonces tales matrices tienen todos sus coeficientes en R. No obstante, el
complexificado de un operador complexificado puede admitir representaciones matriciales cuyos
2
coeficientes
no son todos reales. Por ejemplo, considere el operador lineal de R dado por la matriz
1 0
A= . Como vimos su complexificado es el operador lineal TC : C2 → C2 definido por
1 1
x + iy 1 0 x + iy
TC = .
w + iz 1 1 w + iz
1+i 1+i
El conjunto B = , es base de C2 . Dado que
0 1−i
1+i 1+i 1+i 1+i
TC = = (1 − i) +i y
0 1+i 0 1−i
1+i 1+i 1−i
1+i 1+i
1+i
TC = = 2 + 2 ,
1−i 1 0 1−i
1−i
1−i 2
entonces [TC ]B = 1+i .
i 2
2. A pesar de que el operador complexificado pueda admitir representaciones matriciales con coefi-
cientes que no son reales, la proposición anterior nos dice que su polinomio caracterı́stico si tiene
todos sus coeficientes en R. Esto es obvio pues TC admite representaciones matriciales con todos
sus coeficientes en R. En realidad, el polinomio caracterı́stico de T y TC son iguales, esto sigue del
hecho que [TC ]B = [T ]B donde B es base de U .
−5 −1
Ejemplo 3.25. Consideremos en R2 el operador lineal T dado por la matriz A = . Como
17 3
sabemos el complexificado TC : C2 → C2 también es expresado por A; es decir, si B es la base canónica,
entonces A = [T ]B = [TC ]B . Luego, el polinomio caracterı́stico de T y TC es igual a p(x) = x2 + 2x + 2;
cuyas raı́ces son λ1 = −1 − i y λ2 = −1 + i. Esto implica que T no tiene valores propios, mientras de los
TC son justamente λ1 y λ2 ; además, dado que éstos son distintos, TC es diagonalizable. Vamos a encontrar
una base de C2 tal que la representación matricial de TC sea diagonal. Dado que
−4 + i −1 f1 ←→(−4+i)−1 f1 1 − 4+i17 f2 →f2 −17f1 1 − 4+i
17
A − λ1 I2 = −−−−−−−−−−−−→ −−−−−−−−→ ;
17 4+i 17 4 + i 0 0
1
luego un vector propio de TC asociado a λ1 es w1 = . Observe que λ2 es el conjugado de λ1 ,
−4 + i
1
de manera que una simple cuenta muestra que w 1 = es un vector propio de TC asociado a
−4 − i
−1 − i 0
λ2 . Ası́, en la base B = {w1 , w1 } se tiene que [TC ]B = . Para intentar buscar una
0 −1 + i
representación matricial de T con la información que B nos suministra, hacermos notar lo siguiente:
Operadores Lineales: Reducciones Matriciales 65
1 0
1. w1 = +i = u + iv,
−4 1
2. w1 = u − iv, el conjugado de w1 .
2 −1 −1
3. D = {u, v} es base de R , T (u) = y T (v) = ; además, como
5 3
1 0
T (u) = (−1) − (−1) = (−1)u − (−1)v; y
−4 1
1 0
T (v) = (−1) + (−1) = (−1)u + (−1)v.
−4 1
−1 1
Por tanto la representación matricial de T en D es la matriz B = . Recordamos que
−1 −1
α β
para cualquier matriz de la forma , con α, β ∈ R, su polinomio caracterı́stico tiene como
−β α
raı́es a α − iβ y α + iβ. De esta forma, la matriz B es una forma simple de expresar a T : una simple
inspección ofrece la información de cuales son las raı́es del polinomio caracterı́stico del operador.
Este ejemplo que acabamos de mostrar tiene en su esencia la manera en la buscaremos formas canónicas
de matrices y operadores en espacios vectoriales reales cuyos polinomios caracterı́sticos tienen raı́ces en
C \ R.
Demostración: Esta factorización del polinomio p(x) sigue inmediatamente del siguiente hecho: si λ ∈
C \ R es una raı́z de p(x), entonces λ también lo es. En efecto,
an λn + an−1 λn−1 + · · · + a1 λ + a0 = 0,
De lo cual se sigue que las multiplicidades algebraicas de una raı́z compleja y su conjugado son las mismas,
de allı́ que se satisfaga (3.14)
66 Fascı́culos de Álgebra Lineal
Corolario 3.6. Sea A ∈ Mn×n (R), o que T es un operador lineal sobre un espacio vectorial U dimensión
finita n ≥ 1 sobre R. Si α1 , · · · , αr son las distintas raı́ces del polinomio caracterı́stico en R (valores
propios de A o T ), y λ1 , · · · , λs , λ1 , · · · , λs son las distintas raı́ces del polinomio caracterı́stico en C \ R,
entonces éste se factoriza como:
Demostración: Primero afirmamos que si w1 = (TC − λI)(w), entonces w1 = (TC − λI)(w). En efecto,
si w = u + iv y λ = α + iβ, sigue que
es una (TC − λI)-cadena, entonces dado que para cada j = 1, · · · , r − 1 se tiene wj = (TC − λI)(wj−1 ).
Por tanto, de la afirmación anterior sigue que
Lema 3.16. Sean λ = α + iβ un valor propio de TC en C \ R y [w0 , w1 , · · · , wr−1 ] una (TC − λI)-cadena.
Si para cada j = 0, 1, · · · , r − 1, wj = uj + ivj , entonces los vectores u0 , v0 , · · · ur−1 , vr−1 son linealmente
independientes en U ; además el subespacio por ellos generado es invariante por T .
entonces
(α0 − iβ0 )w0 + (α0 + iβ0 )w0 + · · · + (αr−1 − iβr−1 )wr−1 + (αr−1 + iβr−1 )wr−1
= 2(α0 u0 + β0 v0 + · · · + αr−1 ur−1 + βr−1 vr−1 ) = 0U = 0UC .
Ahora bien, dado que [w0 , w1 , · · · , wr−1 ] y [w 0 , w1 , · · · , wr−1 ] son cadenas correspondientes a valores
propios distintos de TC , entonces w0 , w1 , · · · , wr−1 , w0 , w1 , · · · , wr−1 son linealmente independientes en
UC ; de lo cual se concluye que αj = βj = 0 para todo j = 0, · · · , r − 1, y por tanto los vectores
u0 , v0 , · · · ur−1 , vr−1 son linealmente independientes en U .
Veamos ahora que u0 , v0 , · · · ur−1 , vr−1 generan un subespacio de U invariante por T . Recuerde que
para cada j = 1, · · · , r − 1, wj = (TC − λI)(wj−1 ) y (TC − λI)(wr−1 ) = 0UC pues [w0 , w1 , · · · , wr−1 ] es
una (TC − λI)-cadena. De estas igualdades se tiene mediante un simple cálculo que:
T (uj−1 ) = αuj−1 − βvj−1 + uj
, para j = 1, · · · , r − 1 y (3.16)
T (vj−1 ) = βuj−1 + αvj−1 + vj
T (ur−1 ) = αur−1 − βvr−1
. (3.17)
T (vj−1 ) = βur−1 + αvr−1
Lo cual implica obviamente que el subespacio generado por u0 , v0 , · · · ur−1 , vr−1 es invariante por T.
Comentario 3.14. Sean λ = α + iβ un valor propio de TC en C \ R y [w0 , w1 , · · · , wr−1 ] una (TC − λI)-
cadena; donde wj = uj + ivj para cada j = 0, 1, · · · , r − 1. Dado que el espacio generado por los vectores
u0 , v0 , · · · ur−1 , vr−1 es invariante por T, tiene sentido considerar la representación matricial de la restric-
ción de T a tal subespacio; en particular, tal representación en la base ordenada {u0 , v0 , · · · ur−1 , vr−1 }
es, debido a las igualdades (3.16) y (3.17), la matriz triangular inferior por bloques de orden 2r × 2r:
R(α, β)
I2 R(α, β)
..
A(α, β) =
I2 . ,
(3.18)
...................................
I2 R(α, β)
68 Fascı́culos de Álgebra Lineal
α β
donde el bloque R(α, β) = aparece en la diagonal principal, mientras que I2 , matriz identidad
−β α
de orden 2 × 2, apararece en la diagonal inmediata inferior. Observe que como A es triangular por
bloques, el polinomio caracterı́stico de A, y por tanto de la restricción de T al espacio generado por
{u0 , v0 , · · · ur−1 , vr−1 }, es pA (x) = (x − (α + iβ))r (x − (α − iβ))r . Note que A(α, β) es la suma de una
matriz nilpotente con orden de nilpotencia r, de hecho tal matriz es el cuadrado de una nilpotente básica
de orden 2r (ver definición 3.9 en la página 30), y una matriz diagonal por bloques con r bloques, cada
una de ellos igual a la matriz R(α, β).
Lema 3.17. Sean λ = α + iβ un valor propio de TC en C \ R y
(TC − λI)-cadenas cuya concatenación constituye una base en (TC − λI)-cadena de N∞ (TC − λI). Si para
cada k = 1, · · · , s y j = 0, · · · , rk − 1, wjk = ukj + ivjk , entonces
(TC − λI)-cadenas cuya concatenación constituyen bases en (TC − λI)-cadena de N∞ (TC − λI). Si para
cada k = 1, · · · , s y j = 0, · · · , rk − 1 se tiene que wjk = ukj + ivjk y zjk = xkj + iyjk , entonces
{w01 , w11 , · · · , wr11 −1 , · · · , w0s , w1s , · · · , wrss −1 } y {z01 , z11 , · · · , zr11 −1 , · · · , z0s , z1s , · · · , zrss −1 }
constituyen bases de N∞ (TC − λI); se dejan los detalles al lector. Como comentario adicional, note que
ambas bases tienen la misma configuración de (TC − λI)-cadenas; ver proposición 3.4 en la página 35.
cuya concatenación constituyen una base en (TC − λI)-cadena de N∞ (TC − λI); al subespacio de U
generado por
Bλ = {u10 , v01 , · · · , u1r1 −1 , vr11 −1 , · · · , us0 , v0s , · · · , usrs −1 , vrss −1 }, (3.19)
donde wjk = ukj + ivjk para todo k = 1, · · · , s y j = 0, · · · , rk − 1, se le conoce por el nombre de espacio
nulo generalizado de T asociado a λ. Denotamos tal subespacio por N∞ (T − λI).
Operadores Lineales: Reducciones Matriciales 69
Comentario 3.15. Sea λ = α + iβ con β > 0 un valor propio de TC . Del lema 3.17 sigue que N∞ (T − λI)
es invariante por T ; además, es independiente, por el lema anterior, de la base en (TC − λI)-cadena que
se seleccione para el subespacio N∞ (TC − λI) de UC . Por otra parte, si dim(N∞ (TC − λI)) = ℓ, entonces
dim(N∞ (T − λI)) = 2ℓ.
Note que si [w01 , w11 , · · · , wr11 −1 ], [w02 , w12 , · · · , wr22 −1 ], · · · , [w0s , w1s , · · · , wrss −1 ] son (TC − λI)-cadenas
cuya concatenacion {w01 , w11 , · · · , wr11 −1 , w02 , w12 , · · · , wr22 −1 , · · · , w0s , w1s , · · · , wrss −1 } es base en (TC − λI)-
cadena de N∞ (TC − λI), y si Bλ es la base de N∞ (T − λI) ordenada como en (3.19), entonces la
representación matricial de la restricción de T a N∞ (T −λI), tomada sobre tal base, es la matriz diagonal
por bloques de orden 2ℓ × 2ℓ:
A1 (α, β)
A2 (α, β)
Jλ = .. , (3.20)
.
As (α, β)
donde cada bloque Aj (α, β) (j = 1, · · · , s) es una matriz triangular por bloques, como en (3.18), cons-
truida a partir de la (TC − λI)-cadena [w0j , w1j , · · · , wrjj −1 ]. Note que Aj (α, β) es de orden 2rj × 2rj y que
r1 + · · · + rs = ℓ = dim(N∞ (TC − λI)).
Definición 3.19. Sea λ = α + iβ con β > 0 un valor propio de TC . A la matriz construida como en
(3.20) a partir de bases de N∞ (T − λI) ordenadas como en (3.19), se les conoce como bloque de Jordan
real asociado a λ .
Lema 3.19. Sean A ∈ Mn×n (R), o T un operador lineal sobre un espacio vectorial U dimensión finita
n ≥ 1 sobre R. Si el polinomio caracterı́stico de T es
U = N∞ (T − α1 I) ⊕ · · · ⊕ N∞ (T − αr I) ⊕ N∞ (T − λ1 I) ⊕ · · · ⊕ N∞ (T − λs I).
1. Para cada valor propio αj , con j = 1, · · · , r, sea Bαj una base en (T − αj I)-cadena del subespacio
N∞ (T − αj I) de U ; ver sección 3.5.2.
70 Fascı́culos de Álgebra Lineal
2. Para cada valor propio λk de TC , con k = 1, · · · , s, sea Bλk una base del subespacio N∞ (T − λk I)
de U , tal y como fueron construidas en la sección anterior.
3. Dado que
U = N∞ (T − α1 I) ⊕ · · · ⊕ N∞ (T − αr I) ⊕ N∞ (T − λ1 I) ⊕ · · · ⊕ N∞ (T − λs I),
con dim(N (T − 3I)) = 2 y dim(N (TC − (2 + i))) = 1. Del lema 3.10 tenemos que dim(N∞ (T − 3I)) = 3
y dim(N∞ (TC − (2 + i))) = 2, entonces:
1. Las bases en (T − 3I)-cadena de N∞ (T − 3I) son de la forma {w1 , (T − 3I)(w1 ), w2 }, siendo que
[w1 , (T − 3I)(w1 )] y [w2 ] son (T − 3I)-cadenas; por tanto, el bloque de Jordan asociado al valor
3 0 0
propio α = 3 es J3 = 1 3 0.
0 0 3
2. Las bases en (TC − (2 + i))-cadena de N∞ (TC − (2 + i)) son de la forma {z1 , (TC − (2 + i)I)(z1 )}.
Si hacemos Z1 = u1 + iv1 y u2 + iv2 = (TC − (2 + i)I)(z1 ), entonces {u1 , v1 , u2 , v2 } es una base
de Jordan real de N∞ (T − (2 + i)); y la representación matricial, en tal base, de T restricto al
2 1 0 0
−1 2 0 0
subespacio N∞ (T − (2 + i)) es J2+i =
1 0
.
2 1
0 1 −1 2
Operadores Lineales: Reducciones Matriciales 71
Reuniendo tal información tenemos que {w1 , (T − 3I)(w1 ), w2 , u1 , v1 , u2 , v2 } es una base de Jordan real
de T , y su forma canónica de Jordan real es la matriz por bloques de orden
3 0 0
1 3 0
0 0 3
J2+i = 2 1 0 0 .
−1 2 0 0
1 0 2 1
0 1 −1 2
tenemosque {u1 , v1 , u2 , v2 , u3 , v3 } es
una base de Jordan real de T y su forma canónica de Jordan real la
1 2 0 0
−2 1 0 0
1 0 1 2
. Note que al ser considerado T como un operador en C6 , entonces
matriz
0 1 −2 1
1 2
−2 1
1 − 2i 0 0
1 1 − 2i 0
0 0 1 − 2i
su forma canónica de Jordan es
1 + 2i 0 0
1 1 + 2i 0
0 0 1 + 2i
1 1 0 0
−2 0 1 0
Ejemplo 3.28. Consideremos el operador lineal T : R4 → R4 dado por A = 2
.
0 0 1
−2 −1 −1 −1
Como siempre A es la representación matricial de T en la base canónica de R4 . Es simple verificar que
De acá que T no tiene valores propios, sin embargo TC tiene como valores propios a λ = i y λ = −i; ambos
con multiplicidades algebraicas igual a 2. Sigue que dim(N∞ (T − iI)) = 4, pues dim(N∞ (TC − iI)) =
2 = dim(N∞ (TC + iI)). En particular esto implica que TC − iI restricto a N∞ (TC − iI) es nilpotente de
orden 2. Vamos a construir una base en (TC − iI)-cadena de N∞ (TC − iI) de donde derivaremos la base
72 Fascı́culos de Álgebra Lineal
− 12 −1 1
2 − 12
2 0 0 1
de hecho v = u1 + iv1 y (A − iI4 )(v) = u2 + iv2 ; además, si P = −1
, entonces
1 0 −1
0 0 0 1
0 1 0 0
−1 0 0 0
P −1 AP =
1 0
es la forma canónica de Jordan real de T y A.
0 1
0 1 −1 0
1. Determine cuáles de las siguientes matrices son bloques de Jordan real de acuerdo a los criterios
acá establecidos:
1 1 0 0 1 1 0 0 1 1 0 0
−1 1 0 0
b) −1 1 0 0 c) −1 1 0 0
a) 1 0
1 1 1 0 2 2 0 0 1 1
0 1 −1 1 0 1 −2 2 0 0 −1 1
1 −1 0 0 1 0 0 0 1−i 0 0 0
1 1 0 0 0 1 0 0 0 1 − i 0 0
d)
1
e)
0 1 1 0 f) 1
0 1 −1 0 1−i 0
0 1 1 1 0 0 1 1 0 1 0 1−i
¿Puede un bloque de Jordan real asociado a un valor propio no real del complexificado de un
operador lineal ser de orden impar?. Explique su respuesta.
2. Determine cuáles de las siguientes matrices son formas canónicas de Jordan reales de acuerdo al
criterio establecido:
1 1 0 0 2 1 0 0 0 0 0 0
0 0 0 −1 1 0 0 c) −1 2 0 0 d) 0 0
0 0
a) 0 2 1 b) 1 0
1 1 0 0 0 0 0 0 −2 3
0 −1 2
0 1 −1 1 0 0 0 0 0 0 −3 −2
−1 0 0 0 0 0 −1 0 0 0 0 0
0 −2 0 0 0 0 0 −2 0 0 0 0
0 0 0 1 0 0 0 0
0 0 0 1
e) f)
0 0 −1 0 0 0 0 0 −1 0 0 0
0 0 1 0 0 1 0 0 0 0 0 1
0 0 0 1 −1 0 0 0 0 0 −1 0
3. Cada una de las siguientes matrices A son formas canónicas de Jordan reales de un operador lineal
T en algún Rn . Determine: polinomio caracterı́stico y sus raı́ces λ (tanto reales como complejas);
dim(N∞ (T −λI)) para cada λ ∈ C\R con parte imaginaria positiva; dim(N (TC −λI)) y la estructura
de cada una de las bases que conforman los bloques de Jordan:
3 0 0 0 −4 1 0 0 1 1 0 0
1 3 0 0 −1 −4 0 0 −1 1 0 0
a)
0 0
b) c)
3 1 0 0 0 2 1 0 1 1
0 0 −1 3 0 0 −2 0 0 1 −1 1
74 Fascı́culos de Álgebra Lineal
−1 0 0 0 0 0 0 0 0 2 0 0 0 0 0 0
1 −1 0 0 0 0 0 0
−2 0 0 0 0 0 0 0
0 0 −1 1 0 0 0 0
0 0 2 1 0 0 0 0
0 0 −1 −1 0 0 0 0 0 0 −1 2 0 0 0 0
d) e)
0 0 1 0 −1 1 0 0 0 0 1 0 2 1 0 0
0 0 0 1 −1 −1 0 0
0 0 0 1 −1 2 0 0
0 0 0 0 0 0 −1 1 0 0 0 0 1 0 2 1
0 0 0 0 0 0 −1 −1 0 0 0 0 0 1 −1 2
4. Encontrar la forma canónica de Jordan real del operador lineal T : Rn → Rn a partir de los datos
que se suministran.
5. Para cada una de las siguientes matrices determine su forma canónica de Jordan real; especı́fique
la matriz de cambio de base para obtenerla.
0 −1 0 0 0 0 0 −8 0 4 −5 4
1 0 0 0 1 0 0 16 −1 3 −3 4
a)
0
b) c)
0 0 −1 0 1 0 −14 1 0 −2 4
2 0 1 0 0 0 1 6 0 1 −3 3
3 4 0 4 −4 8 2 4 −4 4 0 0
−2 −2 2 3 1 −2 −2 −2 6 −4 −2 4
1 1 2 2 −1 6 0 0 0 2 2 0
d) e)
0 1 −1 1 3 −2 0 0 −4 4 4 −4
0 0 1 1 −3 8 0 0 0 0 0 4
0 0 0 1 −3 5 0 0 0 0 −2 4
6. Encontrar todas las posibles formas canónicas de Jordan real de un operador sobre algún Rn cuyo
polinomio caracterı́stico es:
a) (x − 1)2 (x − 2i)2 (x + 2i)2 b) (x + 1 − i)(x + 1 + i)x2 c) (x2 + 1)4 (x − 2)3