Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Apuntes Algebra

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 121

ÁLGEBRA LINEAL

Facultad de Ciencias

Autores
Evelyn Cueva
Kateryn Herrera
Departamento de Matemática
Escuela Politécnica Nacional
2
Índice general

1. Matrices 5
1.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Operaciones entre matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Tipos de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5. Equivalencia por filas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2. Sistemas de ecuaciones 27
2.1. Representación matricial de un sistema de ecuaciones . . . . . . . . . . . . . . . . . . 28
2.2. Resolución de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3. Determinantes 41
3.1. Definiciones y propiedades fundamentales . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4. Espacios vectoriales 53
4.1. Rn y Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2. Definición de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3. Propiedades de los espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

5. Espacios vectoriales de dimensión finita 69


5.1. Combinación lineal y espacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.2. Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.3. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.4. Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.5. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

3
4 ÍNDICE GENERAL

6. Transformaciones Lineales 93
6.1. Transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Propiedades de las transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 97
6.3. Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.5. Composición de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.6. Representación de una transformación lineal mediante matrices . . . . . . . . . . . . 105
6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.8. Invertibilidad y espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . . . 109
6.8.1. Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.9. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

7. Valores y Vectores Propios 113


7.1. Valores y vectores propios de un operador lineal . . . . . . . . . . . . . . . . . . . . . 113
7.2. Valores y vectores propios de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 114
7.3. Diagonalización de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
7.3.1. Diagonalización de matrices simétricas . . . . . . . . . . . . . . . . . . . . . . 118
7.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
Capítulo 1

Matrices

1.1. Preliminares

En general, se utilizará la siguiente notación:

m, n ∈ N con m > 0 y n > 0;

I = {1, 2, . . . , m} ⊆ N y J = {1, 2, . . . , n} ⊆ N; y

K un cuerpo o campo (es decir, cualquier conjunto que cumpla con los axiomas de cuerpo),
puede ser R o C.

Trabajaremos de manera transversal con la definición de función entre dos espacios, la cual se
presenta a continuación:

Definición 1.1.1 (Función). Sean A y B dos conjuntos no vacíos. Una función f de A en B es


una regla que asigna a cada elemento a ∈ A un único elemento b ∈ B, el cual se denota por
f ( a). Es decir, f es una función de A en B si y solo si

f : A −→ B
a 7−→ b = f ( a).

Pensemos que los conjuntos A y B pueden ser, por ejemplo, R, R2 , C, Z, N, I × J, donde I y


J son conjuntos de índices, etc. Uno de los objetivos de este curso es estudiar funciones lineales,
donde A y B tienen la estructura de espacio vectorial.

5
6 CAPÍTULO 1. MATRICES

1.2. Matrices

Definición 1.2.1 (Matriz). Una matriz sobre un cuerpo K es una función

A : I × J −→ K
(i, j) 7−→ A(i, j) = aij ,

la cual se representa por


 
a11 a12 ··· a1j ··· a1n
··· ···
 
 a21 a22 a2j a2n 
 .. .. .. .. 
 
..
 . . . . ··· . 
A= .
a
 i1 ai2 ··· aij · · · ain 
 . .. .. .. .. 
 .. . ··· . . . 
 
am1 am2 · · · amj · · · amn

Se dice que A es de orden m × n y que tiene m filas y n columnas.

Observación. Al conjunto de todas las matrices de orden m × n sobre el campo K se denota por Km×n .
Así, se escribe A ∈ Km×n si A es una matriz de orden m × n sobre K.

Observación. Otras notaciones usuales para el conjunto de las matrices, que se puede encontrar en la
literatura, son Mm×n (K) o Mmn (K).

A aij se lo denomina elemento, entrada o componente ij de A, el número que aparece en la fila i y la


columna j.

Dada una matriz A, esta se la representa también por A = aij = [ aij ].

Ejemplo 1.2.2. Considere las matrices


 
−1 0 !
−3 1 5
A =  2 −5  y B=
 
√ 2 7 −4
0 2

La matriz A es de orden 3 × 2 y la matriz B es de orden 2 × 3. El elemento en la fila 1 y columna 2 de A es,


a12 = 0 y el elemento de la fila 2 y columna 3 de B es, b23 = −4.

Ejercicio 1.2.3. Dada la matriz A = aij ∈ R2×3 donde




aij = 2i − j

para cada i ∈ {1, 2} y j ∈ {1, 2, 3}. Escriba a la matriz con todos sus elementos.

Definición 1.2.4 (Matriz cuadrada). Si A es un elemento de Kn×n , se dice que A es una


matriz cuadrada de orden n.
1.2. MATRICES 7

Ejemplo 1.2.5. La matriz


 
1 0 6
A =  −2 −5 3
 

0 3 0
es una matriz cuadrada de orden 3.

Definición 1.2.6 (Filas y columnas). Sean A ∈ Km×n , i ∈ I y j ∈ J. A la matriz


 
a1j
 a2j 
 
 . 
 . 
 . 
amj

se la llama la j-ésima columna de A y a la matriz


 
ai1 ai2 · · · ain

se la llama la i-ésima fila de A.

Ejemplo 1.2.7. Considere la matriz


 
1 0 6
A =  −2 −5 3
 

0 3 0
La 3-ésima columna de A, es  
6
3 .
 

0
La 1-ésima fila de A es  
1 0 6 .

 
1 2 −1 0 3
Ejercicio 1.2.8. Dada la matriz A = 1 2 0 1 3. Indique a su 2-ésima fila, 3-ésima columna y
 

3 3 3 3 3
5-ésima columna.

Definición 1.2.9 (Igualdad de matrices). Sean A ∈ Km×n y B ∈ K p×q . Se dice que las matri-
ces A y B son iguales, y se representa por A = B, si:

a) m = p y n = q; y

b) aij = bij para todo i ∈ I y j ∈ J.


8 CAPÍTULO 1. MATRICES

Ejemplo 1.2.10. Dados x, y, z ∈ R, considere las matrices A y B,


   
1 6 x 6
A =  −8 3 y B =  y 3 .
   

0 7 0 z

Notando que A y B tienen el mismo orden, para que sean iguales los valores de x, y y z deben ser 1, −8 y 7,
respectivamente.

Ejercicio 1.2.11. Dadas las matrices A, B, C ∈ R2×2 donde

aij = máx{i, j}, bij = mı́n{i, j} y cij = − máx{−i, − j}

para cada i, j ∈ {1, 2}. Indique cuáles matrices son iguales y cuáles no lo son.

1.3. Operaciones entre matrices

En esta sección consideramos p, q ∈ N con p > 0 y q > 0.

Definición 1.3.1 (Suma de matrices). Sean A, B ∈ Km×n . La suma de las matrices A y B es


la matriz C ∈ Km×n tal que:
cij = aij + bij

para todo i ∈ I y j ∈ J. A esta matriz se la denota por A + B.

Ejemplo 1.3.2. Considere las matrices

1 1 1 1
   
1 8 − −
 2 4  2 4
A =  −2 −5 6  y B= 5 7 −8  .
   
 7   1 
0 20 −1 − 2
3 3

La suma de las matrices A y B se calcula sumando los elementos que ocupan la misma posición, es decir, si
C = A + B para calcular al elemento c12 se tiene que
 
1 1
c12 = a12 + b12 = + − = 0.
2 2

Finalmente,  
9 0 0
A + B =  3 2 −2 .
 

−1 2 22

Ejercicio 1.3.3. Considere a la matriz A del ejemplo 1.3.2, calcular A + A.


1.3. OPERACIONES ENTRE MATRICES 9

Teorema 1.3.4. Sean A, B, C ∈ Km×n . Se tiene que:

a) A + B = B + A.

b) A + ( B + C ) = ( A + B) + C.

c) Existe una única matriz 0 de orden m × n tal que

A+0 = A

para cualquier matriz A de orden m × n. La matriz 0 se denomina neutro aditivo de


orden m × n, también llamada la matriz nula.

d) Para cada matriz A de orden m × n, existe una única matriz, denotada por − A, de
orden m × n tal que:
A + (− A) = 0.

A la matriz − A se la denomina el inverso aditivo de A.

Ejemplo 1.3.5. Sean A, B ∈ K2×2 , donde


! !
1 2 5 6
A= y B= .
3 4 7 8

Entonces, ! !
6 8 6 8
A+B = y B+A = .
10 12 10 12
Luego, A + B = B + A.
Ejemplo 1.3.6. Sea A la matriz de K2×2 dada por
!
1 2
A= .
3 4

el inverso aditivo de A es !
−1 −2
−A = .
−3 −4
En efecto, A + (− A) = 0.
Observación. Si A, B ∈ Km×n , se escribe

A + (−1) B

como A − B y se denomina diferencia de A con B


Ejemplo 1.3.7. Producto de un escalar con una matriz. Se tiene que
  
9 0 0

81 0 0
3 2 −2 = 
 
9·   27 18 −18 .

7

−1 22 −9 21 198
3
10 CAPÍTULO 1. MATRICES

Notemos que 9 multiplica a cada elemento de A.

Ejercicio 1.3.8. Considere a la matriz A del ejemplo 1.3.2 calcular 2A y compare con A + A, el resultado
del ejercicio 1.3.3.

Teorema 1.3.9 (Propiedades del producto por un escalar). Sean α, β ∈ K y A, B ∈ Km×n . Se


tiene que

a) α( βA) = (αβ) A;

b) (α + β) A = αA + βA; y

c) α( A + B) = αA + αB.

Definición 1.3.10 (Multiplicación de matrices). Sean A ∈ Km× p y B ∈ K p×n , el producto de


las matrices A y B es la matriz C ∈ Km×n tal que

cij = ai1 b1j + ai2 b2j + · · · + aip b pj


p
= ∑ aik bkj
k =1

para todo i ∈ I y j ∈ J. A esta matriz se la denota por AB.

Observación. El elemento cij se obtiene multiplicando elemento a elemento fila i de la matriz A por la
columna j, de B

A
z
 }| {  
a11 a12 ··· a1p z }|
B c11 c12 ··· c1j ··· c1n
{
··· ··· ···
   
 a21 a22 a2p  · · · b1j ···  c21 c22 c2j c2n 
 b11 b12 b1n
 .. .. ..     .. .. .. . 
  
..
 . . ··· .  b
  21
b22 · · · b2j ··· b2n   . . . . · · · .. 
 = c
 .. .. . ..   .
··· · · · .. ··· · · · cin 
a
 i1 ai2 aip   . . ··· .   i1 ci2 cij
 

 . .. ..   . .. .. .. .. 
 .. . ··· .  b p1 b p2
 · · · b pj ··· b pn  .. . ··· . . . 
  
am1 am2 ··· amp cm1 cm2 · · · cmj · · · cmn

Por esta razón, se debe cumplir necesariamente que el número de filas de B sea igual al número de columnas
de A.

Ejemplo 1.3.11. Considere las matrices A, B ∈ K3×3 :


   
1 0 −1 −1 2 1
A= 0 2 3  y B =  5 −2 1  .
   

−5 0 3 −1 2 −2

Notemos que el número de columnas de A es el número de filas de B , luego, su multiplicación existe y la


denominaremos por C = AB. Para ilustrar la multiplicación de matrices, obtengamos al elemento c12 de C,
1.3. OPERACIONES ENTRE MATRICES 11

para esto, consideramos la fila 1 de A y la columna 2 de B y realizamos lo indicado en la definición 1.3.10.

3
c12 = ∑ a1k bk2
k =1

= a11 b12 + a12 b22 + a13 b32


= (1)(2) + (0)(−2) + (−1)(2)
= 0.

Calculemos también, al elemento c33 de C, en este caso consideramos la fila 3 de A y la columna 3 de B, y


utilizamos la definición 1.3.10.

3
c33 = ∑ a3k bk3
k =1

= a31 b13 + a32 b23 + a33 b33


= (−5)(1) + (0)(1) + (3)(−2)
= −11.

Finalmente, la multiplicación de las matrices A y B está dada por:


 
0 0 3
AB = 7 2 −4  ,
 

2 −4 −11

donde AB ∈ K3×3 .

Ejercicio 1.3.12. Considere las siguientes matrices A ∈ K2×3 y B ∈ K3×2 :


 
! 3 0
1 5 8
A= y B =  −1 5  .
 
−1 0 −2
2 −1

Obtenga a las matrices AB y BA.

Teorema 1.3.13. Sean A, B ∈ Km×n , C, D ∈ Kn× p , E ∈ K p×q y α ∈ K. Se tiene que

a) A( DE) = ( AD ) E;

b) A(C + D ) = AC + AD;

c) ( A + B)C = AC + BC;

d) A(αC ) = α( AC ) = (αA)C.

Observación. Dadas dos matrices A, B ∈ Kn×n si

AB = BA,

entonces diremos que A y B conmutan.


12 CAPÍTULO 1. MATRICES

En general, AB ̸= BA, como se evidencia en el siguiente ejemplo.

Ejemplo 1.3.14. Considere a las matrices A y B del ejercicio 1.3.12, tenemos que
 
! 3 15 24
14 17
AB = y BA = −6 −5 −18 .
 
−7 2
3 10 18

Notemos que AB ∈ K2×2 y que BA ∈ K3×3 con AB ̸= BA, es decir, A y B no conmutan.

Ejercicio 1.3.15. Dadas las matrices


   
1 0 1 1 !
1
A =  −1 1 , B =  0 −1 y x= .
   
1
0 1 −1 1

Verificar que se cumple que ( A + B) x = Ax + Bx.

Definición 1.3.16 (Matriz identidad de orden n). Se define la matriz identidad de orden n al
elemento A de Kn×n tal que 
1 si i = j,
aij =
0 si i ̸= j,

para todo i, j ∈ J. A esta matriz se la denota por In .

Ejemplo 1.3.17. La matriz identidad de orden 3 es


 
1 0 0
I3 = 0 1 0 .
 

0 0 1

Proposición 1.3.18. Sea A ∈ Km×n se tiene que

Im A = AIn = A.

Observación. La matriz In conmuta con toda matriz de Kn×n .

Definición 1.3.19. Sean A ∈ Kn×n y r ∈ N. Se define A a la potencia r por

a) A0 = In ; y

b) Ar+1 = Ar A.

Teorema 1.3.20. Sean A ∈ Kn×n y r, s ∈ N. Se tiene que

a ) Ar A s = Ar +s ; y

b) ( Ar )s = Ars .
1.3. OPERACIONES ENTRE MATRICES 13

Observación. Note que en general ( AB)r ̸= Ar Br .

Definición 1.3.21 (Transpuesta de una matriz). Sea A ∈ Km×n . La matriz transpuesta de A


es la matriz B ∈ Kn×m tal que:
 
bij = a ji

para todo i ∈ I y j ∈ J. A esta matriz se la denota por A⊺ .

Observación. Con esto, tenemos que si A ∈ Km×n , entonces A⊺ ∈ Kn×m y


⊺ 
aij = a ji .

Ejemplo 1.3.22. Considere la matriz


 
1 4 −2
A = 3 7 9 
 

0 −3 5

su transpuesta es
 
1 3 0
A⊺ =  4 7 −3 .
 

−2 9 5

Ejercicio 1.3.23. Dadas las matrices


 
! ! 1 0 1
 
2 3 −2 4 7 0 1 1
A= , B= y C= .
1 4 −1 0 1 0
 0 1
1 1 1

Calcular su transpuesta.

Teorema 1.3.24 (Propiedades de la transpuesta). Sean α ∈ K, A, B ∈ Km×n y C ∈ Kn× p . Se


tiene que

a) ( A⊺ )⊺ = A;

b ) ( A + B )⊺ = A⊺ + B⊺ ;

c) ( AC )⊺ = C⊺ A⊺ ;

d) (αA)⊺ = αA⊺ .

Observación. Un error común es el siguiente:

( AB)⊺ = A⊺ B⊺

Notemos que lo anterior es verdad, solamente cuando A y B conmutan.


14 CAPÍTULO 1. MATRICES

Ejemplo 1.3.25. Dada la matriz A ∈ Kn×n . En este ejemplo vamos a ilustrar a las propiedades de la
transpuesta. Notemos que

( A⊺ A )⊺ = A⊺ ( A⊺ )⊺ , Teorema 1.3.24, literal c



= A A, Teorema 1.3.24, literal a

y que

( A⊺ − A)⊺ = ( A⊺ )⊺ + (− A)⊺ , Teorema 1.3.24, literal b


= A − A⊺ , Teorema 1.3.24, literales a y d.

Ejercicio 1.3.26. Sean A, B, C ∈ Kn×n . Justificando cada paso demostrar que

( A( B + C ))⊺ = B⊺ A⊺ + C⊺ A⊺ .

Definición 1.3.27 (Traza de una matriz). Sea A ∈ Kn×n . La traza de una matriz A es un
escalar que notaremos como Tr( A) tal que:

n
Tr( A) = ∑ a jj .
j =1

Ejemplo 1.3.28. Dada la matriz:


 
1 −1 2
A =  0 −3 −1 .
 

−2 −3 8
De la definición de traza se tiene que:

Tr( A) = a11 + a22 + a33 = (1) + (−3) + (8) = 6.

Ejercicio 1.3.29. Dada la matriz:


 
1 0 2
B= 0 0 −1 .
 

−2 −3 −3
Determine la Tr( B) y la Tr( B⊺ ).

Teorema 1.3.30 (Propiedades de la traza). Sea A, B ∈ Kn×n y α ∈ K. Se tiene que:

Tr(αA) = α Tr( A);

Tr( A + B) = Tr( A) + Tr( B);

Tr( A⊺ ) = Tr( A); y

Tr( AB) = Tr( BA).


1.4. TIPOS DE MATRICES 15

1.4. Tipos de matrices

Definición 1.4.1 (Matriz triangular). Sea A ∈ Kn×n . Se dice que A es

una matriz triangular superior si aij = 0 para todo i > j con i, j ∈ J; y

una matriz triangular inferior si aij = 0 para todo i < j con i, j ∈ J.

Ejemplo 1.4.2. A continuación, un ejemplo de una matriz triangular superior


!
3 2
0 1

y de una matriz triangular inferior:


 
1 0 0
 −8 2 0 .
 

0 −6 3

Definición 1.4.3 (Matriz diagonal). Sea A ∈ Kn×n . Se dice que A es una matriz diagonal si
verifica que:
aij = 0

para todo i ∈ J y j ∈ J con i ̸= j.

Ejemplo 1.4.4. Vemos algunos ejemplos de matrices diagonales:


 
  −3 0 0 0
! 1 0 0  
−2 0  0 −3 0 0 
, 0 1 0 , .
  
0 5  0 0 −3 0 
0 0 1
 
0 0 0 −3

Notemos que en todos los casos los términos fuera de la diagonal principal son todos iguales a cero.

Definición 1.4.5 (Matriz escalar). Sea A ∈ Kn×n . Se dice que A es una matriz escalar si es
una matriz diagonal que verifica:
aii = α

para todo i ∈ J, con α ∈ K, es decir, todos los elementos de la diagonal son iguales.

Ejemplo 1.4.6. Vemos algunos ejemplos de matrices diagonales:


 
! 5 0 0 0
 
−2 0 0 5 0 0
,  .
0 −2 0
 0 5 0
0 0 0 5

Observación. Note que una matriz identidad es un tipo de matriz escalar. Además, la matriz escalar se
puede expresar como la multiplicación de un escalar por la matriz identidad.
16 CAPÍTULO 1. MATRICES

Ejemplo 1.4.7. Considere a la siguiente matriz diagonal


! !
3 0 1 0
A= =3 = 3I2 .
0 3 0 1

Note que la matriz escalar dada se escribe como el producto del escalar 3 con la matriz identidad.

Ejercicio 1.4.8. Demuestre que la suma de dos matrices escalares es una matriz escalar. ¿Qué se puede
decir sobre la resta?

Definición 1.4.9 (Matriz simétrica). Sea A ∈ Kn×n . Se dice que A es simétrica si A⊺ = A.

Ejemplo 1.4.10. La matriz  


0 1 2 2
 
1 −8 2 3
A=
2 2
,
 5 4
2 3 4 1
es simétrica, en efecto, tenemos que
A⊺ = A.

Ejercicio 1.4.11. Dada la matriz A ∈ Kn×n , muestre que A⊺ + A es simétrica.

Definición 1.4.12 (Matriz antisimétrica). Sea A ∈ Kn×n . Se dice que A es antisimétrica si


A⊺ = − A.

Ejemplo 1.4.13. La matriz


 
0 1 −8
A =  −1 0 3 ,
 

8 −3 0
es antisimétrica, en efecto, tenemos que
A⊺ = − A.

Ejercicio 1.4.14. Dada la matriz A ∈ Kn×n , muestre que A⊺ − A es antisimétrica.

Definición 1.4.15 (Matriz nilpotente). Sea A ∈ Kn×n y r ∈ N. Se dice que A es nilpotente


de orden r si r es el menor entero positivo tal que

Ar = 0.

Ejemplo 1.4.16. La siguiente matriz es nilpotente de orden 2:


!
1 1
A=
−1 −1

En efecto, determinemos a A2 ,
! ! !
1 1 1 1 0 0
A2 = A · A = · = .
−1 −1 −1 −1 0 0
1.4. TIPOS DE MATRICES 17

Luego, la matriz A es nilpotente de orden 2.

Definición 1.4.17 (Matriz idempotente). Sea A ∈ Kn×n . Se dice que A es una matriz idem-
potente si A2 = A.

Ejemplo 1.4.18. La matriz !


1 0
A=
3 0

es idempotente, en efecto, calculemos a A2 ,


! ! !
2 1 0 1 0 1 0
A = · = = A.
3 0 3 0 3 0

Observación. Note que si la matriz A es idempotente entonces se puede concluir que An = A, para todo
n ∈ N∗ .

Definición 1.4.19 (Matriz escalonada reducida por filas). Se dice que una matriz está en
forma escalonada reducida por filas cuando satisface las siguientes propiedades:

1. Todas las filas que constan solo de ceros, si las hay, están en la parte inferior de la
matriz.

2. La primera entrada distinta de cero de la fila, al leer de izquierda a derecha, es un 1.


Esta entrada se denomina entrada principal o uno principal de la fila.

3. Para cada fila que no consta solo de ceros, el uno principal aparece a la derecha y abajo
de cualquier uno principal en las filas que le preceden.

4. Si una columna contiene un uno principal, el resto de las entradas de dicha columna
son iguales a cero.

Se dice que una matriz está en forma escalonada por filas si satisface las primeras tres pro-
piedades.

Ejemplo 1.4.20. Considere a las matrices siguientes:


 
1 0 0 2  
  ! 1 0 0 0 −1
0 1 0 −2 1 6
, y 0 0 1 0 −2 .
  
0 0 1 0  0 0
0 0 0 1 2
 
0 0 0 0

Estas matrices son escalonadas reducidas por filas.

Ejemplo 1.4.21. Considere a las matrices siguientes:


 
! 1 0 1 −2 −1
1 6
y 0 0 1 4 −2 .
 
0 1
0 0 0 1 2
18 CAPÍTULO 1. MATRICES

Estas matrices son escalonadas por filas.

Observación. Note que toda matriz escalonada reducida por filas es también escalonada por filas.

1.5. Equivalencia por filas

Definición 1.5.1 (Operaciones elementales de fila). Dada una matriz A ∈ Km×n , una opera-
ción elemental por filas sobre A es una de las siguientes:

Intercambio de filas: dados i, j ∈ I, intercambiar la fila i por la fila j, denotado por

Fi ↔ Fj ,

es reemplazar la fila  
ai1 ai2 . . . ain

por la fila  
a j1 a j2 . . . a jn

y viceversa.

Multiplicar una fila por un escalar: dados i ∈ I y α ∈ K, con α ̸= 0 y α ̸= 1, multipli-


car la fila i por α, denotado por
αFi → Fi ,

es reemplazar la fila  
ai1 ai2 . . . ain

por  
αai1 αai2 . . . αain .

Sumar un múltiplo de una fila con otra: dados i, j ∈ I y α ∈ K, multiplicar la fila i


por α y sumarlo a la fila j, denotado por

αFi + Fj → Fj ,

es reemplazar la fila  
a j1 a j2 . . . a jn

por  
αai1 + a j1 αai2 + a j2 . . . αain + a jn .

Ejemplo 1.5.2. Intercambio de filas. Dada la matriz:


 
1 2 3
A =  0 −1 2 
 

−1 2 −3
1.5. EQUIVALENCIA POR FILAS 19

Al aplicar la operación de fila F2 ↔ F3 , se tiene la siguiente matriz:


 
1 2 3
B =  −1 2 −3
 

0 −1 2

Ejemplo 1.5.3. Multiplicar una fila por un escalar. Considerando a la matriz A del ejemplo 1.5.2, si se
aplica la operación de fila 3F1 → F1 se tiene la siguiente matriz:
 
3 6 9
C =  0 −1 2 
 

−1 2 −3

Ejemplo 1.5.4. Sumar un múltiplo de una fila con otra. Considere a la matriz A del ejemplo 1.5.2, si
se aplica la operación de fila 3F1 + F3 → F3 se tiene la siguiente matriz:
 
1 2 3
D = 0 −1 2
 

2 8 6

Ejercicio 1.5.5. Dada la matriz  


0 −4 −4
 
1 −1 0 
A=
0 0
.
 1 
0 0 5
Sobre la matriz A, en cada ocasión realice la operación elemental por fila indicada.

1. F1 ↔ F2 .
1
2. − F2 → F2 .
4
3. −5F3 + F4 → F4 .

¿Qué matriz se ha obtenido?

Definición 1.5.6 (Equivalente por filas). Sean A, B ∈ Km×n , se dice que la matriz A es equi-
valente por filas a una matriz B, denotado por A ∼ B, si B se puede obtener al aplicar a la
matriz A una sucesión de operaciones elementales por fila.

Observación. Si A es equivalente por filas a B, entonces es B equivalente por filas a A.

Ejemplo 1.5.7. Considere a las matrices A y D del ejemplo 1.5.4, se tiene que A es equivalente por filas a
D, es decir:    
1 2 3 1 2 3
A =  0 −1 2  ∼ D = 0 −1 2 .
   

−1 2 −3 2 8 6

En efecto, a la matriz A se le aplicó la operación elemental de fila e : 3F1 + F3 → F3 , note que e( A) = D.


20 CAPÍTULO 1. MATRICES

Ejercicio 1.5.8. Considere a la matriz A y a las operaciones elementales de fila del ejercicio 1.5.18, escriba
a las correspondientes operaciones elementales de fila inversas.

Teorema 1.5.9. Toda matriz A ∈ Km×n es equivalente por filas a una única matriz en forma
escalonada reducida por filas.

Pasos para transformar una matriz a una matriz escalonada por filas. Dada una matriz A.

1. Determinar la primera columna (contando de izquierda a derecha), tal que no todos sus
entradas sean cero. Ésta es la columna pivote.

2. En la columna pivote, identificar al primer elemento (contando de arriba hacia abajo) distinto
de cero. A este elemento lo denominaremos pivote.

3. Intercambiar, en caso de ser necesario, la primera fila por aquella fila donde aparece el pivo-
te, de modo que éste se encuentre ahora en la primera fila.

4. Multiplicar a la primera fila por el recíproco del pivote. Así, el primer elemento de la colum-
na pivote es ahora un 1. A la matriz obtenida la llamamos A2 .

5. Sumar los múltiplos apropiados de la primera fila de A2 a las demás filas, para que los
elementos debajo del pivote sean cero.

6. Identificar a la primera columna (después de la columna pivote) cuyos elementos sean no


todos cero y repetir los pasos anteriores hasta obtener a la matriz escalonada por filas.

Ejemplo 1.5.10. Dada la matriz


 
1 5 −4
A = 1 −2 1  .
 

3 1 −2
Obtengamos a la correspondiente matriz escalonada por filas, para esto, notemos que la columna pivote es
la primera columna de A y que en la posición 11 ya se encuentra el pivote, entonces
   
1 5 −4 1 5 −4
− F1 + F2 → F2
A = 1 −2 1  ∼ 0 −7 5 
   
−3F1 + F3 → F3
3 1 −2 0 −14 10
 
1 5 −4
∼ 0 −7 5  − 2F2 + F3 → F3
 

0 0 0
 
1 5 −4
1
∼ 0 1 − 57  − F2 → F2
 
7
0 0 0

Luego, la correspondiente matriz escalonada por filas obtenida a partir de A es


 
1 5 −4
0 1 − 75  .
 

0 0 0
1.5. EQUIVALENCIA POR FILAS 21

Ejercicio 1.5.11. Dada la matriz


 
1 5 −4 0
A = 1 −2 1 2 .
 

0 1 −1 1

Obtenga a su correspondiente matriz escalonada por filas.

Pasos para transformar una matriz a una matriz escalonada reducida por filas. Dada una
matriz A.

1. Determinar la primera columna (contando de izquierda a derecha), tal que no todos sus
elementos sean cero. Ésta es la columna pivote.

2. En la columna pivote, identificar al primer elemento (contando de arriba hacia abajo) distinto
de cero. A este elemento lo denominaremos pivote.

3. Intercambiar, en caso necesario, la primera fila por aquella fila donde aparece el pivote, de
modo que éste se encuentre ahora en la primera fila.

4. Multiplicar a la primera fila por el recíproco del pivote. Así, el primer elemento de la colum-
na pivote es ahora un 1.

5. Realizar las operaciones elementales de fila necesarias para que los elementos de la columna
pivote sean cero, excepto el pivote.

6. Identificar a la primera columna (después de la columna pivote) cuyos elementos sean no


todos cero y repetir los pasos anteriores de tal manera que ahora solamente, en la nueva
columna pivote, su elemento pivote sea diferente de cero. Continuar con el proceso indicado
hasta obtener a la matriz escalonada reducida por filas.

Ejemplo 1.5.12. Dada la matriz


 
1 5 −4
A = 1 −2 1  .
 

3 1 −2
Obtengamos a la correspondiente matriz escalonada reducida por filas, para esto, notemos que de acuerdo
con el ejemplo 1.5.10, tenemos que
   
1 5 −4 1 5 −4
− F1 + F2 → F2
A = 1 −2 1  ∼ 0 −7 5 
   
−3F1 + F3 → F3
3 1 −2 0 −14 10
 
1 5 −4
∼ 0 −7 5  − 2F2 + F3 → F3
 

0 0 0
 
1 5 −4
1
∼ 0 1 − 57  − F2 → F2
 
7
0 0 0
22 CAPÍTULO 1. MATRICES

1 0 − 37
 

∼ 0 1 − 57  − 5F2 + F1 → F1
 

0 0 0

Luego, la correspondiente matriz escalonada por filas obtenida a partir de A es

1 0 − 37
 

0 1 − 57  .
 

0 0 0

Ejercicio 1.5.13. Dada la matriz:


 
1 5 −4 0
A = 1 −2 1 2
 

0 1 −1 1
Obtenga la matriz escalonada reducida por filas a partir de A.

Definición 1.5.14. Sean A, B ∈ Km×n , donde B es una matriz escalonada por filas equiva-
lente a A. El rango de A, denotado por rang( A), es el número de filas no nulas que tiene la
matriz B.

Proposición 1.5.15. Sean A, B ∈ Km×n . Se tiene que si A ∼ B, entonces

rang( A) = rang( B).

Ejemplo 1.5.16. Considerando que


   
1 5 −4 1 5 −4
A = 1 −2 1  ∼ 0 −7 5  = B
   

3 1 −1 0 0 0

y que B es una matriz escalonada con dos filas no nulas, entonces rang( A) = rang( B) = 2

Proposición 1.5.17. Sea A ∈ Km×n . Se tiene que si A es una matriz escalonada, entonces
rang( A) es el número de filas no nulas que tiene A.

Ejercicio 1.5.18. Calcular el rango de la matriz


 
1 0 −2 0
B =  1 −2 1 −1 .
 

−2 1 3 4

Ejercicio 1.5.19. Analizar el rango de la matriz C en función del parámetro α ∈ R


 
α 1 −2
C =  −1 −1 α  .
 

1 1 1
1.6. EJERCICIOS 23

1.6. Ejercicios
1. Sean
 
!2 −1
2 1 −2
A= , B = 3 4  ,
 
3 2 5
1 −2

   
2 1 3 1 1 2
C =  −1 2 4 , E =  2 −1 3  .
   

3 1 0 −3 2 −1

De ser posible, calcule las siguientes operaciones con matrices:

a) (3C − 2E)T B
b) B T C + A
c) ( B T + A)C

2. Sean ! !
3 −2 −4 5
D= y F= .
7 4 2 3
De ser posible, calcule las siguientes operaciones con matrices:

a) 3D + 2F
b) (2 + 3) D y 2D + 3D

3. Sean  
! 1 0
1 2 −5
A= y B =  −4 2 .
 
8 −3 4
3 6
De ser posible, calcule las siguientes operaciones con matrices:

a) (2A)T
b) (3B T − 2A)T
c) (3A T − 5B T )T

4. Considere la matriz B ∈ R4×4 , tal que

bij = −5 (i − j)2 .

a) Escriba explícitamente B.
b) Hallar A tal que A + 3B sea igual a la matriz nula.
!
0 0
5. Sea A = una matriz. Determine
1 1

a) A2 + A
24 CAPÍTULO 1. MATRICES

b) A4 + A3 + A2
!
1 1
6. A partir de la matriz A = , determine una matriz B ∈ R2×2 tal que AB = I2 .
0 1

7. Considere C, D ∈ Rn×n matrices conmutables, y además C es idempotente y D es involutiva


(una matriz es involutiva si D2 = I) demuestre que:

(C + D )3 + (C − D )3 = 8C.

 
0 3 4
8. Considere la matriz A ∈ R3×3 tal que A =  1 −4 −5
 

−1 3 4

a) Demuestre que A verifica A3 + I3 = 0, donde I3 es la matriz identidad de orden 3.


b) Utilizando el literal anterior hallar A10 .

9. Dadas las marices


     
1 1 0 2 1 1 0 2 1 1 0 2
     
0 −1 3 0 0 −1 3 0 0 −1 3 0
A= 0 0
, B= , C= 
 2 0
0 0
 2 0
0 0
 2 0
0 0 0 0 0 0 1 0 0 0 0 1
     
0 0 3 4 2 0 1 3 4 2 0 1 3 4 2
D = 0 0 0 1 1  , E = 0 0 0 1 1 , F = 0 0 3 1 1  .
     

0 0 0 0 −4 0 0 0 2 0 0 0 0 0 −5
Indique las que se encuentran en forma escalonada.

10. Sea A ∈ R3×3  


1 −2 1
A= 0 2 −8
 

−4 5 9
Realizar operaciones elementales hasta obtener una matriz identidad I3 .
 
! 1 !
1 1 x 0
11. Sean A = y B = 1 matrices. Si AB = , determine x y y.
 
0 y 1 0
1

12. Si A ∈ Kn×n , demuestre que:

a) AA T y A T A son matrices simétricas.


b) ( A + A T ) es simétrica.
c) ( A − A T ) es antisimétrica.

13. Considere la matriz  


0 0 0
A = 2 0 0 .
 

2 2 0
1.6. EJERCICIOS 25

Calcular An para todo n ∈ N∗ .

14. Sea A una matriz en Rm×n , y B una matriz en Rn×m . Se debe demostrar que la traza del
producto de A por B es igual a la traza del producto de B por A, es decir,

traza( AB) = traza( BA).

15. Sea Q una matriz ortonormal, es decir, QQ⊤ = I. Entonces, se cumple que

|traza( Q)| ≤ n.

16. a) Considere la matriz A que pertenece a R2×3 , donde aij = (−1)2i+ j . Hallar la matriz D
tal que 2A + 31 D = 0.
b) Hallar la traza de DD T .

17. Investigar si la suma de dos matrices idempotentes A y B es idempotente o no.

18. Si A es una matriz idempotente, determinar qué valores puede tomar un número real k para
que kA sea también idempotente.
26 CAPÍTULO 1. MATRICES
Capítulo 2

Sistemas de ecuaciones

Definición 2.0.1 (Sistema de ecuaciones). Un sistema de ecuaciones lineales es un conjun-


to de m ecuaciones lineales en las cuales figuran n incógnitas a las que notaremos por:
x1 , x2 , . . . , xn . Así, dados aij ∈ R y bi ∈ R con i ∈ I y j ∈ J, fijos, un sistema de ecuaciones se
escribe como sigue:


 a11 x1 + a12 x2 + ··· + a1n xn = b1 ,

 a21 x1 + a22 x2 + ··· + a2n xn = b2 ,

..


 .

am1 x1 + am2 x2 + · · · + amn xn = bm ,

Ejemplo 2.0.2. El siguiente sistema de ecuaciones:




 x1 + x2 + 5x3 − 4x4 = 3

x1 − 2x2 + x3 − 2x4 = 1


3x1 + x2 − 2x3 − 4x4 = −3.

Es un sistema de ecuaciones lineales de 3 ecuaciones con 4 incógnitas x1 , x2 , x3 y x4 .

27
28 CAPÍTULO 2. SISTEMAS DE ECUACIONES

2.1. Representación matricial de un sistema de ecuaciones

Definición 2.1.1 (Representación matricial). Dado un sistema de ecuaciones lineales de m


ecuaciones lineales en las cuales figuran n incógnitas:


 a11 x1 + a12 x2 + ··· + a1n xn = b1 ,

 a21 x1 + a22 x2 + ··· + a2n xn = b2 ,

..


 .

am1 x1 + am2 x2 + · · · + amn xn = bm .

donde aij ∈ R y bi ∈ R con i ∈ I y j ∈ J. A la matriz


 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
A=
 .. .. .. .. 
 . . . . 

am1 am2 · · · amn

se la llama matriz de coeficientes del sistema y a


   
b1 x1
 b2   x2 
   
b=
 .. 
 y x=
 .. 

 .  .
bm xn

se las llama columnas de constantes y de incógnitas, respectivamente. Además, se dice que

Ax = b

es la representación matricial del sistema de ecuaciones.

Ejemplo 2.1.2. Dado el siguiente sistema de ecuaciones lineales:




 x1 + 5x2 − 4x3 = 3,

x1 − 2x2 + x3 = 1,


3x1 + x2 − 2x3 = −3.

Su representación matricial es
Ax = b

siendo  
1 5 −4
A = 1 −2 1 
 

3 1 −2
2.1. REPRESENTACIÓN MATRICIAL DE UN SISTEMA DE ECUACIONES 29

su matriz de coeficientes y
  
3 x1
b= 1  y x =  x2 
   

−3 x3
sus matrices columna y de incógnitas, respectivamente.

Ejercicio 2.1.3. Dada la representación matricial de un sistema de ecuaciones lineales:

Ax = b

siendo   
1 5 −4   1
  x1  
2 −2 3   2 
A= , x =  x2  y b=
 −1 .
   
3 7 0 
x3
  
0 1 1 3
Escriba el sistema de ecuaciones lineales correspondiente.

Definición 2.1.4 (Matriz ampliada). Sean A ∈ Km×n y B ∈ Km× p , se define la matriz am-
pliada de A y B al elemento de Km×(n+ p) dado por:
 
a11 a12 ··· a1n b11 b12 ··· b1p
 a21 a22 ··· a2n b21 b22 ··· b2p 
 
.
 . .. .. .. .. .. 
 . .. ..
 . . . . . . . . 
am1 am2 · · · amn bm1 bm2 · · · bmp

y se la denota por ( A| B).

Ejemplo 2.1.5. Dadas las siguientes matrices:


! !
1 3 1 0
A= y B= .
1 2 0 1

Su matriz ampliada es: !


1 3 1 0
( A| B) = .
1 2 0 1

Definición 2.1.6. Dado el sistema de ecuaciones lineales en forma matricial

Ax = b

con A ∈ Km×n y b ∈ Km×1 , se dice que

( A|b)

es la matriz ampliada asociada al sistema.


30 CAPÍTULO 2. SISTEMAS DE ECUACIONES

Ejemplo 2.1.7. Considere el sistema de ecuaciones lineales del ejemplo 2.1.2, se tiene que su matriz am-
pliada es:
 
1 5 −4 3
1 −2 1 1 .
 

3 1 −2 −3

Ejercicio 2.1.8. Dados los siguientes sistemas de ecuaciones lineales:



 x1 + 5x2 − 4x3 = 3 (
x1 + x2 + x3 = 0


x1 − 2x2 + x3 = 1 y

 x1 − 6x2 + 2x3 = −1.
3x1 + x2 − 2x3 = −3

Determinar sus matrices asociadas.

2.2. Resolución de sistemas lineales

Definición 2.2.1 (Solución de un sistema). Dados A ∈ Km×n , b ∈ Km×1 y x ∈ Kn×1 , conside-


re la representación matricial Ax = b de un sistema de ecuaciones lineales con m ecuaciones
y n incógnitas. Se dice que una solución de este sistema es todo z ∈ Kn×1 tal que Az = b.

Teorema 2.2.2. Sean A, C ∈ Km×n y b, d ∈ Km×1 , se tiene que los sistemas de ecuaciones
lineales
Ax = b y Cx = d

tienen las mismas soluciones si y solo si

( A | b ) ∼ ( C | d ),

es decir, si las matrices aumentadas de los sistemas son equivalentes por filas.

El procedimiento de reducción de Gauss-Jordan para resolver el sistema lineal Ax = b es el si-


guiente.

Paso 1. Formar la matriz aumentada ( A|b).

Paso 2. Transformar la matriz aumentada ( A|b) a su forma escalonada reducida por filas (C |d)
mediante operaciones elementales por fila.

Paso 3. Para cada fila distinta de cero de la matriz (C |d), se despeja la incógnita correspondiente a
la entrada principal de cada fila asociada con la entrada principal de esa fila. Las filas constan
completamente de ceros se pueden ignorar, pues la ecuación correspondiente será satisfecha
por cualesquiera valores de las incógnitas.

El procedimiento de eliminación de Gauss para resolver el sistema lineal Ax = b es el siguiente.

Paso 1. Formar la matriz aumentada ( A|b).


2.2. RESOLUCIÓN DE SISTEMAS LINEALES 31

Paso 2. Transformar la matriz aumentada ( A|b) a su forma escalonada por filas (C |d) mediante
operaciones elementales por fila.

Paso 3. Resolver el sistema lineal correspondiente a (C |d). Las filas constan completamente de
ceros se pueden ignorar, pues la ecuación correspondiente será satisfecha por cualesquiera
valores de las incógnitas.

Ejemplo 2.2.3. Los sistemas de ecuaciones lineales siguientes


( (
2x1 + x2 = 2 4x1 + 2x2 = 4
y
x1 − 2x2 = 1 7x1 + x2 = 7
!
1
tienen la misma solución, esta es . En efecto, observemos que las matrices ampliadas de los sistemas
0
son ! !
2 1 2 4 2 4
y
1 −2 1 7 1 7

respectivamente, notemos también que


! !
2 1 2 2 1 2
∼ 3F1 + F2 → F2
1 −2 1 7 1 7
!
4 2 4
∼ 2F1 → F1 ,
7 1 7

es decir, las matrices ampliadas son equivalentes por filas, para obtener la solución del sistema utilizamos el
procedimiento de reducción de Gauss-Jordan desde el paso 2, dado que ya obtuvimos a la matriz ampliada,
! !
2 1 2 1 −2 1
∼ F1 ↔ F2
1 −2 1 2 1 2
!
1 −2 1
∼ − 2F1 + F2 → F2
0 5 0
!
1 −2 1 1
∼ F2 → F2
0 1 0 5
!
1 0 1
∼ 2F2 + F1 → F1 ,
0 1 0
!
1
lo que implica que la solución de los dos sistemas es .
0

Ejercicio 2.2.4. Considere a los sistemas de ecuaciones lineales siguientes:


( (
x1 + x2 = 2 2x1 − x2 = 1
y
3x1 − 5x2 = −2 x1 − 2x2 = −1.

Muestre que son sistemas equivalentes y obtenga la solución de estos.


32 CAPÍTULO 2. SISTEMAS DE ECUACIONES

Definición 2.2.5. Sean A ∈ Km×n y b ∈ Km×1 , dado el sistema de ecuaciones lineales

Ax = b,

se dice que

el sistema es inconsistente si no tiene solución;

el sistema es consistente si tiene al menos una solución.

Ejemplo 2.2.6. El sistema de ecuaciones lineales


(
x1 − x2 = 3
2x1 − 2x2 = 4

no tiene solución, es decir, es un sistema inconsistente. Analicemos la matriz ampliada del sistema
! !
1 −1 3 1 −1 3
∼ − 2F1 + F2 → F2
2 −2 4 0 0 −2

Notemos que la segunda fila de la matriz equivalente implica que

0x1 + 0x2 = −2

lo cual es falso, lo que nos permite concluir que el sistema no posee solución, es decir, es inconsistente para
cualquier valor de x1 y x2 .

Ejemplo 2.2.7. El sistema de ecuaciones lineales


(
x1 − x2 = 3
2x1 − 2x2 = 6

tiene al menos una solución, es decir, es un sistema consistente. Analicemos la matriz ampliada del sistema
! !
1 −1 3 1 −1 3
∼ − 2F1 + F2 → F2
2 −2 6 0 0 0

Notemos que la segunda fila de la matriz equivalente implica que

0x1 + 0x2 = 0

lo cual es verdadero para cualquier valor de x1 y x2 , mientras que la primera fila implica que

x1 − x2 = 3

que se verifica para todos los valores de x1 = 3 + x2 con x2 ∈ R. Por tanto, el sistema es consistente.
2.2. RESOLUCIÓN DE SISTEMAS LINEALES 33

Ejercicio 2.2.8. Dado el sistema de ecuaciones lineales


(
2x1 − x2 = 3
x1 + x2 = 0.

Muestre que es un sistema consistente.

Teorema 2.2.9. Sean A ∈ Km×n y b ∈ Km×1 , dado el sistema de ecuaciones lineales

Ax = b,

se tiene una y solo una de las siguientes

el sistema es inconsistente;

el sistema es consistente y tiene una única solución; o

el sistema es consistente y tiene infinitas soluciones.

Teorema 2.2.10 (Teorema de Rouché–Frobenius). Sean A ∈ Km×n y b ∈ Km×1 , dado el


sistema de ecuaciones lineales
Ax = b,

se tiene que

el sistema es consistente si y solo si rang( A) = rang( A|b);

en caso de que el sistema sea consistente, la solución es única si y solo si rang( A) = n.

Ejemplo 2.2.11. Considere el sistema de ecuaciones lineales




 − x1 + x2 + x3 = 1

2x1 + 3x2 − 2x3 = 1


x1 + x2 − x3 = 0

es un sistema inconsistente. En efecto, se tiene que

rang( A) = 2 ̸= rang( A|b) = 3.

Observación. Notemos que podemos determinar el tipo de solución, lo cual lo hacemos analizando el rango
de las matrices de coeficientes y ampliada, sin embargo, no hemos determinado la solución como tal.
34 CAPÍTULO 2. SISTEMAS DE ECUACIONES

2.3. Matriz Inversa

Definición 2.3.1. Sea A ∈ Kn×n es no singular o invertible si existe una matriz B ∈ Kn×n tal
que
AB = BA = In

la matriz B se denomina inversa de A y se la denota por A−1 .


Si no existe tal matriz, entonces se dice que A es singular o no invertible.

Proposición 2.3.2. Si una matriz tiene inversa, la inversa es única.

Ejemplo 2.3.3. Sean A ∈ Kn×n una matriz no singular y sean x, b ∈ Kn×1 . Si Ax = b, entonces
x = A−1 b.

Solución. Por hipótesis sobre A se tiene que A−1 existe, entonces

Ax = b ⇐⇒ A−1 ( Ax ) = A−1 b Multiplicando A−1 en ambos lados


⇐⇒ ( A−1 A) x = A−1 b Propiedad asociativa
⇐⇒ In x = A−1 b Definición de matriz inversa
⇐⇒ x = A−1 b Multiplicación por la matriz identidad

Ejercicio 2.3.4. Sean A ∈ Kn×n una matriz no singular y sean x, b ∈ Kn×1 . Si x⊺ A2 + b⊺ A = 0,


entonces x⊺ = −b⊺ A−1 .

Teorema 2.3.5. Sea A, B ∈ Kn×n .

a) Si A es una matriz no singular, entonces A−1 es no singular y

( A−1 )−1 = A.

b) Si A y B son matrices no singulares, entonces AB es no singular y

( AB)−1 = B−1 A−1 .

c) Si A es una matriz no singular, entonces


( A ⊺ ) −1 = ( A −1 ) .

Ejemplo 2.3.6. Sean A, X ∈ Kn×n matrices no singulares. Si AA⊺ X −1 = A entonces X = A⊺ .

Solución. Supongamos que A y X son matrices no singulares y que AA⊺ X −1 = A, vamos a mos-
trar que X = A⊺ . Se tiene que

AA⊺ X −1 = A ⇒ A−1 ( AA⊺ X −1 ) = A−1 A Multiplicando por A−1 en


ambos lados
⇒ ( A−1 A)( A⊺ X −1 ) = A−1 A Propiedad asociativa
2.3. MATRIZ INVERSA 35

⇒ A⊺ X −1 = In Definición de matriz inversa


⇒ (( A⊺ )−1 A⊺ ) X −1 = ( A⊺ )−1 In Multiplicando por ( A⊺ )−1 en
ambos lados y propiedad asociativa
⇒ X −1 = ( A ⊺ ) −1 Definición de matriz inversa

⇒X=A Teorema 2.3.5

Ejercicio 2.3.7. Sean A, X ∈ Kn×n matrices no singulares tales que ( A⊺ )−1 + X −1 es no singular. Si
2(( A⊺ )−1 + X −1 )−1 = A⊺ , entonces X = A⊺ .

Teorema 2.3.8. Sean p ∈ N∗ y A1 , A2 , . . . , A p ∈ Kn×n matrices no singulares. Se tiene que


A1 A2 · · · A p es no singular y

( A 1 A 2 · · · A p ) −1 = A − 1 −1 −1
p A p −1 · · · A 1 .

Teorema 2.3.9. Sean A, B ∈ Kn×n . Se tiene que si AB = In , entonces BA = In .

Ejemplo 2.3.10. Sean A, B ∈ Kn×n tales que AB = In , entonces B2 A2 = In .

Solución. Supongamos que A, B ∈ Kn×n son tales que AB = In , se tiene que

B2 A2 = ( BB)( AA) Definición de A a la r


= B(( BA) A) Propiedad asociativa
= B( In A) Hipótesis sobre AB y teorema 2.3.9
= BA Multiplicar por In
= In Hipótesis sobre AB y teorema 2.3.9

Ejercicio 2.3.11. Sean A, B ∈ Kn×n tales que AB = In , entonces B3 A3 = In .

Teorema 2.3.12. Sea A ∈ Kn×n , se tiene que A es no singular si y solo si es equivalente por
filas a In . Además,
( A| In ) ∼ ( In | A−1 ).

! !
2 1 1 −1
Ejemplo 2.3.13. Dada la matriz A = , su inversa es A−1 = .
1 1 −1 2

Solución. Supongamos que A−1 existe, escribamos A seguido de I2 en la forma de matriz aumen-
tada !
2 1 1 0
( A| I2 ) =
1 1 0 1

y después realizamos operaciones elementales por fila.


! !
2 1 1 0 1 1 0 1
∼ F1 ↔ F2
1 1 0 1 2 1 1 0
36 CAPÍTULO 2. SISTEMAS DE ECUACIONES

!
1 1 0 1
∼ − 2F1 + F2 → F2
0 −1 1 −2
!
1 1 0 1
∼ − F2 → F2
0 1 −1 2
!
1 0 1 −1
∼ − F2 + F1 → F1
0 1 −1 2

Dado que A se redujo a I2 se tiene que


!
−1 1 −1
A = .
−1 2
 
1 2 0
Ejercicio 2.3.14. Dada la matriz A = 0 1 2. Calcule A−1 si existe.
 

0 0 1

2.4. Sistemas homogéneos

Teorema 2.4.1. Sea A ∈ Kn×n , el sistema homogéneo

Ax = 0

tiene una solución no trivial si y solo si A es singular.

Teorema 2.4.2. Sea A ∈ Kn×n . Se tiene que A es no singular si y solo si el sistema lineal
Ax = b tiene una solución única para cada b ∈ Kn×1 .

Ejemplo 2.4.3. Dado el sistema de ecuaciones lineales


(
2x1 + x2 = b1
x1 + x2 = b2
! !
b1 2 1
que tiene solución única para todo ∈ R2×1 , se tiene que A = es no singular. En efecto,
b2 1 1
notemos que ! !
2 1 b1 1 1 b2

1 1 b2 0 −1 b1 − 2b2

luego, rang( A) = rang( A|b) = 2, y, por tanto, el sistema Ax = b posee solución única, que junto con el
teorema 2.4.2 implica que A es no singular.
Ejercicio 2.4.4. Considere al sistema de ecuaciones lineales


 x1 + 2x2 =1

x2 + 2x3 = 1


x3 = 1

2.5. EJERCICIOS 37

Utilizando la inversa de la matriz de coeficientes muestre que el sistema posee solución única y encuéntrela.

Proposición 2.4.5. Sea A ∈ Kn×n , se tienen que las siguientes proposiciones son equivalen-
tes:

a) A es no singular;

b) el sistema Ax = 0 solamente tiene la solución trivial;

c) A es equivalente por filas a In ;

d) rang( A) = n; y

e) el sistema lineal Ax = b tiene una solución única para cada b ∈ Kn×1 .

!
a b
Ejercicio 2.4.6. Dada la matriz A = , verificar que su inversa es
c d
!
−1 1 d −b
A = siempre que ad − bc ̸= 0.
ad − bc −c a

2.5. Ejercicios

1. Considere la matriz A ∈ R3×3 tal que


 
1 1 1
A = 2 −4 − b 
 

4 10 b2

donde b ∈ R. Estudiar el rango de la matriz A en función de b.

2. Hallar la matriz inversa de la siguiente matriz:


 
1 −3 0
0 −1 4
 

0 0 1

3. Asumiendo que la matriz A es invertible, utilizar operaciones por filas para determinar su
matriz inversa para las siguientes matrices:
!
0 21
 
0 1 −2
a) A =
1 −1 b) A =  1 0 1 
 

−1 −1 2

4. Sea A ∈ Kn×n Si A2 − A3 = In . Demostrar que A es invertible y calcular A−1 .

5. Dada las matrices A ∈ Kn×n , B ∈ K p×n , C ∈ Kn× p y D ∈ Kn× p .


38 CAPÍTULO 2. SISTEMAS DE ECUACIONES

a) Si A es no singular, encuentre la matriz B que satisface la ecuación

A( B T + C ) = D. (2.1)

b) Sean      
1 −1 0 0 1 −1 1
A = 0 1 0 , C = 3 0 y D =  2 1 .
     

0 0 3 3 1 9 0
Encuentre a la matriz B que satisface a la ecuación (2.1).

6. Demuestre o encuentre un contraejemplo: A, B ∈ Rn×n son invertibles, entonces A + B es


invertible

7. Sea A ∈ Kn×n Si A + 4A2 = 2In . Demostrar que A es invertible y calcular A−1 .

8. Considere el siguiente sistema 



 2x + y − 2z = 10

3x + 2y + 2z = 1


5x + 4y + 3z = 4.

(a) Hallar el rango de la matriz de coeficientes


(b) El sistema tienen única solución. Justifique su respuesta
(c) Obtenga la solución usando la matriz inversa.

9. Considere el siguiente sistema de ecuaciones lineales donde a es una constante:

ax + y + z = 1,
x + ay + z = 1,
x + y + az = 1.

a) Determine el valor de a para el cual el sistema tiene una solución única.


b) Encuentre el valor de a para el cual el sistema tiene infinitas soluciones.
c) Indique el valor de a que hace que el sistema sea inconsistente.

10. Considere el sistema de ecuaciones lineales donde b y c son constantes:

bx − y + 2z = 2,
2x + by − z = 2,
− x + 2y + bz = 2.

a) Determine los valores de b para los cuales el sistema tiene una solución única.
b) Encuentre los valores de b para los cuales el sistema tiene infinitas soluciones.
c) Indique los valores de b que hacen que el sistema sea inconsistente.
2.5. EJERCICIOS 39

11. Considere el siguiente sistema de ecuaciones y resuélvalo empleando el procedimiento de


eliminación de Gauss:



 x1 + 2x2 =1

3x1 − x2 + x3 = 2


x1 + x2 − 2x3 = 0.

12. Sean u, v soluciones del sistema homogéneo Ax = 0 (un sistema homogéneo es aquel con
lado derecho b = 0).

a) Demuestre que u + v es una solución del sistema homogéneo Ax = 0.


b) Demuestre que u − v es una solución del sistema homogéneo Ax = 0.
c) Demuestre que para todo r ∈ R y para todo s ∈ R, se tiene que ru + sv es una solución
del sistema homogéneo Ax = 0.

13. Considere el sistema de ecuaciones lineales en las variables x, y y z, que depende del pará-
metro k ∈ R: 

 x + y − z = 1,

2x + 3y + kz = 3,


x + ky + 3z = 2.

Determinar los valores de k tales que:

a) El sistema tenga solución única,


b) El sistema tenga infinitas soluciones,
c) El sistema no tenga solución.

14. Considere el siguiente sistema de ecuaciones:





 x −2y = 1

 2x −y +3z = 2
− x
 +( a − 1)z = a

 x −2ay +( a + 3)z = a + 2

donde a ∈ R. ¿Qué valores debe tomar a ∈ R para que el sistema tenga:

a) Solución única,
b) Infinitas soluciones,
c) No tenga solución?

Para los casos que el sistema sea consistente, expresar la solución en terminos de la variable
a.
40 CAPÍTULO 2. SISTEMAS DE ECUACIONES
Capítulo 3

Determinantes

En esta sección tomaremos n ∈ N, con n > 0, I = {1, 2, . . . , n}.

3.1. Definiciones y propiedades fundamentales

Definición 3.1.1 (Menor). Sean A ∈ Kn×n e i, j ∈ I. A la matriz de K(n−1)×(n−1) que se


obtiene al eliminar la fila i y la columna j de A se la llama el menor ij de A, denotado por
Aij .

Observación. En la literatura se puede encontrar la notación de Aij para el menor de ij de A.

Ejemplo 3.1.2.

!
1 3  
Sea A = , se tiene que A12 = 2 .
2 6

!
−3 1  
Sea A = , se tiene que A22 = −3 .
−1 3

 
−1 1 0 !
1 0
Sea A =  0 1 −2, se tiene que A21 = .
 
2 1
2 2 1

 
1 −1 −1
Ejercicio 3.1.3. Sea B = −2 1 −2. Determine los menores B11 , B23 y B31 .
 

0 2 0

41
42 CAPÍTULO 3. DETERMINANTES

Definición 3.1.4 (Determinantes). Sea A ∈ Kn×n se define el determinante de A, denotado


por det( A) (o por | A|), de manera inductiva, como sigue:

Si n = 1 y A = ( a11 ), entonces det( A) = a11 .

Si n > 1, entonces
n
det( A) = ∑ a1k (−1)1+k det( A1k )
k =1

= a11 det( A11 ) − a12 det( A12 ) + . . . + (−1)1+n a1n det( A1n ).

Ejemplo 3.1.5.

Sea A una matriz de orden 2 × 2 de la forma


!
a11 a12
A= ,
a21 a22

se tiene que
A11 = ( a22 ) y A12 = ( a21 ),

por lo tanto
det( A11 ) = a22 y det( A12 ) = a21 ,

de esta forma,

det( A) = (−1)1+1 a11 det( A11 ) + (−1)1+2 a12 det( A12 ) = a11 a22 − a12 a21 ,

es decir,
a11 a12
det( A) = = a11 a22 − a12 a21 .
a21 a22

!
1 3
Sea B = , se tiene que det( B) = 6 − 6 = 0
2 6

Sea C una matriz de orden 3 × 3 de la forma


 
c11 c12 c13
C = c21 c22 c23 
 

c31 c32 c33

el determinante de la matriz C está dado por:

det(C ) = (−1)1+1 c11 C11 + (−1)1+2 c12 C12 + (−1)1+3 c13 C13
c22 c23 c21 c23 c21 c22
= c11 − c12 + c13 .
c32 c33 c31 c33 c31 c32
3.1. DEFINICIONES Y PROPIEDADES FUNDAMENTALES 43

 
−1 1 0
Sea D =  0 1 −2, se tiene que:
 

2 2 1

1 −2 0 −2 0 1
det( D ) = −1 −1 +0 = −1(5) − 1(4) = −9.
2 1 2 1 2 2

Ejercicio 3.1.6. Calcular el determinante de las siguientes matrices:


!
−3 1
a) A =
−1 3
 
1 −1 −1
b ) B =  −2 1 −2
 

0 2 0

Definición 3.1.7 (Cofactores). Sean A ∈ Kn×n e i, j ∈ I. El cofactor ij de A, denotado Cij ,


está dado por
Cij = (−1)i+ j det( Aij )

donde Aij es el menor ij de A.

 
−2 −1 −3
Ejemplo 3.1.8. Sea A =  0 1 −1, se tiene:
 

3 3 2

−2 −3
C32 = (−1)5 = −1(2) = −2.
0 −1

0 1
C13 = (−1)4 = 1(−3) = −3.
3 3
Ejercicio 3.1.9. Dada la matriz
 
−1 0 1
A =  0 2 −1 .
 

2 2 2
Determinar a los cofactores C23 , C13 , C21 y C32 .

Teorema 3.1.10. Sea A ∈ Kn×n . Se tiene que para todo i ∈ I,

n
det( A) = ∑ aik Cik = ai1 Ci1 + ai2 Ci2 + . . . + ain Cin
k =1

y
n
det( A) = ∑ aki Cki = a1i C1i + a2i C2i + . . . + ani Cni .
k =1

Observación. El lado derecho de las igualdades toma el nombre de expansión por cofactores del determi-
nante de A, con respecto a la fila i y con respecto a la columna i.
44 CAPÍTULO 3. DETERMINANTES

 
−2 −1 −3
Ejemplo 3.1.11. Sea A =  0 1 −1. Calculemos el determinante de A mediante la expansión
 

3 3 2
por cofactores de A, con respecto a la fila 1. Se tiene

1 −1 0 −1 0 1
det( A) = −2 +1 −3 =2
3 2 3 2 3 3

Ejercicio 3.1.12. Considere a la matriz del ejemplo 3.1.11, calcule su determinante mediante la expansión
por cofactores de A, con respecto a la columna 3.

Teorema 3.1.13. Sea A ∈ Kn×n una matriz triangular superior o triangular inferior, entonces

det( A) = a11 a22 · · · ann ,

es decir, el determinante de una matriz triangular es el producto de los elementos de su


diagonal principal.

 
2 0 0 0 0 0
 
 8
 −1 0 0 0 0
 −9 6 2 0 0 0
Ejemplo 3.1.14. Consideremos la matriz A =  .
 
 4
 6 −3 −2 0 0
 −5 −2 3 5 1 0
 
2 −3 4 −6 2 2
Se sigue que det( A) = (2)(−1)(2)(−2)(1)(2) = 16

Ejercicio 3.1.15. Calcular el determinante de la siguiente matriz


 
−2 0 3 1 −1
 0 2 −1 4 0 
 
 
B=
 0 0 −1 3 −2
.
 0 0 0 3 −1
 

0 0 0 0 1

Proposición 3.1.16. Sea A ∈ Kn×n . El determinante de una matriz A y de su transpuesta


son iguales, es decir,
det( A⊺ ) = det( A).

Observación. Por esta proposición, cuando se calcula el valor de un determinante, da lo mismo trabajar
por filas que trabajar por columnas.

Teorema 3.1.17. Sean A, B ∈ Kn×n , se tiene que:

det( AB) = det( A) det( B).


3.1. DEFINICIONES Y PROPIEDADES FUNDAMENTALES 45

Ejemplo 3.1.18. Dadas las matrices


! !
−2 2 1 −1
A= y B= .
1 1 1 3
!
0 8
Se sigue que AB = y ya que det( A) = −4, det( B) = 4 y det( AB) = −16, la igualdad del
2 2
teorema 3.1.17 se verifica.
Ejercicio 3.1.19. Dadas las matrices
   
3 0 3 −2 0 −2
A = 0 3 0 y B =  0 −2 0  .
   

3 0 3 2 0 2

Calcular AB, det( AB), det( A), det( B) y compruebe la igualdad del teorema 3.1.17.

Proposición 3.1.20. Sea A ∈ Kn×n . Si una fila o columna de A contiene solo ceros, entonces
det( A) = 0.

Ejemplo 3.1.21. Sea  


3 −1 11 0
 
 9 7 −5 0
A=
 −2 −6 −8
.
 0
4 1 −5 0
Realizar el cálculo del determinante de A mediante la expansión por cofactores de A, con respecto a la
columna 4. Obtenemos det( A) = 0.

Proposición 3.1.22. Sean A, B ∈ Kn×n . Si la matriz B se obtiene intercambiando dos filas o


columnas de A entonces
det( B) = − det( A).

Ejemplo 3.1.23. Dadas las matrices


   
1 0 0 1 0 0
A = 3 −1 0  y B = 3 3 −2 .
   

3 3 −2 3 −1 0

Notemos que la matriz B se obtiene al intercambiar las filas 2 y 3 de la matriz A. Además, det( A) = 2 y
det( B) = −2, es decir, la igualdad de la proposición 3.1.22 se verifica.
Ejercicio 3.1.24. Dadas las matrices
   
1 0 0 −1 3 0
A = 3 −1 0  y B =  0 1 0 .
   

3 3 −2 3 3 −2

Comparar a sus determinantes.


46 CAPÍTULO 3. DETERMINANTES

Proposición 3.1.25. Sean A, B ∈ Kn×n . Si B se obtiene al multiplicar una fila o columna de


A por un escalar α ∈ K, entonces

det( B) = α det( A).

 
1 −1 −1
Ejemplo 3.1.26. Dada la matriz A = −2 1 −2 cuyo determinante es 8. Considere a la matriz
 

0 2 0
 
1 2 −1
B = −2 −2 −2. Notemos que B se obtiene al multiplicar la segunda columna de la matriz A por
 

0 −4 0
−2.
Luego, det( B) = −2(8) = −16.

Proposición 3.1.27. Sean A, B ∈ Kn×n , α ∈ K e i, j ∈ I, con i ̸= j. Si B se obtiene al aplicar


una operación de fila αFi + Fj → Fj , entonces

det( B) = det( A).

 
x y z
Ejercicio 3.1.28. Si det  3 0 2 = 1, calcular el determinante de la matriz:
 

1 1 1
 
x y z
3x + 3 3y 3z + 2 .
 

2 2 2

Proposición 3.1.29. Sea A ∈ Kn×n . Si dos filas o columnas de A son iguales, entonces

det( A) = 0

Ejemplo 3.1.30. Sea  


1 3 1 2
 
 −1 1 −1 3
A=
 2
,
 3 2 1
−2 1 −2 3
calculemos su determinante mediante la expansión por cofactores con respecto a la primera columna.

1 −1 3 3 1 2 3 1 2 3 1 2
det( A) =1 3 2 1 + 1 3 2 1 + 2 1 −1 3 + 2 1 −1 3
1 −2 3 1 −2 3 1 −2 3 3 2 1
= − 8 + 0 + 2(7) + 2(−3)
= 0.
3.1. DEFINICIONES Y PROPIEDADES FUNDAMENTALES 47

 
1 −1 1
Ejercicio 3.1.31. Calcular el determinante de la matriz B = 0 1 0.
 

1 −1 1

Proposición 3.1.32. Sea A ∈ Kn×n . Si una fila de A es múltiplo de otra, entonces

det( A) = 0

 
1 2 −1
Ejemplo 3.1.33. El determinante de la matriz B = −2 −2 −2 es nulo. Pues la fila 3 es múltiplo
 

3 6 −3
de la fila 1.

Proposición 3.1.34. Sean A ∈ Kn×n y α ∈ K. Se tiene que

det(αA) = αn det( A).

Ejemplo 3.1.35. Sea  


−2 −3 6 4
 
 0 2 6 − 9 
A= .
 0
 0 −1 8  
0 0 0 2

Notemos que al ser A una matriz triangular superior, det( A) = 8.


Consideremos la matriz  
4 6 −12 −8
 
0 −4 −12 18 
−2A =  
0 0
 2 −16

0 0 0 −4
y calculemos su determinante. Puesto que está también es una matriz triangular superior, se sigue que
det(−2A) = 128 = (−2)4 8.
!
1 −2
Ejercicio 3.1.36. Sea A = . ¿Cuál es el valor de det(−4A)?
−1 3

Definición 3.1.37 (Matriz de cofactores). Sea A ∈ Kn×n . La matriz de cofactores de A, que


se denota por cof( A), es la matriz de orden n × n que está formada por los cofactores de A,
es decir:  
C11 C12 . . . C1n
 C21 C22 . . . C2n 
 
cof( A) = (Cij ) =  .
 .. .. .
.. 
 .. . . . 
Cn1 Cn2 . . . Cnn

donde, Cij = (−1)i+ j det( Aij ).


48 CAPÍTULO 3. DETERMINANTES

 
0 1 3
Ejemplo 3.1.38. Sea A =  2 −1 0 , determinemos sus cofactores correspondientes a la primera
 

−1 2 −1
columna.
−1 0
C11 = (−1)2 = 1.
2 −1

1 3
C21 = (−1)3 = 7.
2 −1

1 3
C31 = (−1)4 = 3.
−1 0
Ejercicio 3.1.39. Verifique que la matriz de los cofactores de la matriz A del ejemplo 3.1.38 es:
 
1 2 3
cof( A) = 7 3 −1
 

3 6 −2

Definición 3.1.40 (Matriz adjunta). Sea A ∈ Kn×n . La matriz adjunta de A, que se denota
por adj( A), es la matriz de orden n × n igual a la transpuesta de la matriz de cofactores de
A, es decir:
adj( A) = cof( A)T .

Ejemplo 3.1.41. Consideramos la matriz A, planteada en el ejemplo 3.1.38. Se tiene:


 
1 7 3
adj( A) = cof( A)T = 2 3 6 
 

3 −1 −2
!
3 −2
Ejercicio 3.1.42. Sea B = , calcular adj( B).
−1 2

Teorema 3.1.43. Sea A ∈ Kn×n , entonces

A adj( A) = adj( A) A = det( A) In .

Ejemplo 3.1.44. Consideremos la matriz A del ejemplo 3.1.38, se tiene


    
0 1 3 1 7 3 11 0 0
A adj( A) =  2 −1 0  2 3 6  =  0 11 0  = 11I3
    

−1 2 −1 3 −1 −2 0 0 11
    
1 7 3 0 1 3 11 0 0
adj( A) A = 2 3 6   2 −1 0  =  0 11 0  = 11I3
    

3 −1 −2 −1 2 −1 0 0 11

Como el det( A) = 11 (verifique), entonces A adj( A) = adj( A) A = det( A) I3 .


3.1. DEFINICIONES Y PROPIEDADES FUNDAMENTALES 49

Ejercicio 3.1.45. Dada la matriz B del ejercicio 3.1.42, compruebe que:

B adj( B) = adj( B) B = det( B) I2 .

Corolario 3.1.45.1. Sea A ∈ Kn×n . Si det( A) ̸= 0, entonces A es invertible y

1
A −1 = adj( A).
det( A)

Ejemplo 3.1.46. Consideremos nuevamente la matriz A del ejemplo 3.1.38.


Como el det( A) ̸= 0, entonces se tiene:

1 7 3
 
 
1 7 3  11 11 11 
1   2 3 6 
A −1 = 2 3 6 = 
11  11 11 11 
3 −1 −2
3 1 2
− −
11 11 11

Ejercicio 3.1.47. Dada la matriz B del ejemplo 3.1.42, calcule su matriz inversa.

Teorema 3.1.48. Sea A ∈ Kn×n . Si A es no singular, entonces det( A) ̸= 0 y

1
det( A−1 ) = .
det( A)

Ejemplo 3.1.49. Sea A la matriz del ejemplo 3.1.38. Se tiene que:

1 1
det( A−1 ) = =
11 det( A)

Ejercicio 3.1.50. Compruebe la igualdad del teorema 3.1.48 para la matriz del ejemplo 3.1.42.

Proposición 3.1.51. Sea A ∈ Kn×n . Una matriz A es no singular si y sólo si det( A) ̸= 0.

Ejercicio 3.1.52. Hacer la demostración de la proposición 3.1.51.

Proposición 3.1.53. Sea A ∈ Kn×n . El sistema homogéneo Ax = 0 tiene solución no trivial


si y sólo si det( A) = 0.

Proposición 3.1.54. Sean A ∈ Kn×n y b ∈ Kn×1 . El sistema Ax = b tiene solución única si y


sólo si det( A) ̸= 0 y su solución es
A−1 b.
50 CAPÍTULO 3. DETERMINANTES

Teorema 3.1.55 (Equivalencias no singulares). Sea A ∈ Kn×n , los siguientes enunciados son
equivalentes.

1. A es no singular;

2. el sistema Ax = 0 tiene solamente la solución trivial;

3. A es equivalente por filas a In ;

4. rang( A) = n;

5. el sistema lineal Ax = b tiene una solución única para cada b ∈ Kn×1 ; y

6. det( A) ̸= 0.

3.2. Ejercicios
1. Sea A ∈ R2×2 dada por
 
1 1 −1
A =  0 α−3 1 .
 

−3 −3 α − 6

Determine para qué valores de α ∈ R se cumple que | A| ̸= 0.


Para α = 2 encuentre la matriz inversa de A.

2. Considere la matriz  
3 1 0
A =  −2 4 3  .
 

5 4 −2
Hallar:

a) adj A
b) adj ( A−1 )

3. Sea A ∈ Rn×n . Demuestre cada una de las siguientes proposiciones:

a) Si A2 = In , entonces det( A) = −1 o det( A) = 1.


b) Si A2 = A, entonces det( A) = 0 o det( A) = 1

4. Considere la siguiente proposición (P): Si A ∈ Rn×n es una matriz antisimétrica, entonces


det( A) = 0. El siguiente razonamiento es erróneo e intenta probar la proposición (P): Su-
pongamos que A ∈ Rn×n es antisimétrica, entonces A T = − A, y como el determinante de una
matriz es igual al determinante de su transpuesta, entonces

det( A) = det( A T ) = det(− A) = − det( A),

de donde det( A) = − det( A), con lo cual det( A) = 0.


Encuentre el error en el razonamiento precedente, justificando su respuesta.
3.2. EJERCICIOS 51

 
1 5 2
5. Sea A = 2 1 1.
 

1 2 0

a) Obtenga adj( A), la matriz adjunta de A.


b) Calcule det( A).
c) Verifique que cumple la igualdad: A(adj( A)) = (adj( A)) A = det( A) I.
d) ¿La matriz A es invertible? Si lo es, determine la inversa de A.

6. Demuestre o refute los siguientes enunciados:

a) Si A, B ∈ Rn×n son invertibles, entonces adj( AB) = adj( A) · adj( B).


b) Si A ∈ Rn×n es invertible, entonces | adj( A)| = | A|n−1 .
c) Si A ∈ Rn×n es singular y B ∈ Rn×n es no singular, entonces AB es singular.
52 CAPÍTULO 3. DETERMINANTES
Capítulo 4

Espacios vectoriales

4.1. Rn y Cn

Los números complejos nacen de la necesidad de resolver ecuaciones de la forma x2 + 1 = 0.



En efecto, si x2 + 1 = 0, entonces x2 = −1 y por lo tanto x = ± −1. Sin embargo, no existe un
número real x tal que x2 = −1. Por lo tanto, se define el número complejo i como la solución de la

ecuación x2 + 1 = 0, es decir i = −1 o equivalentemente i2 = −1.

Definición 4.1.1 (Números complejos).

Un número complejo es un par ordenado ( a, b) de números reales a y b que se denota


por a + bi.

El conjunto de todos los números complejos se denota por C y se define como:

C = { a + bi : a, b ∈ R}.

La suma y multiplicación de números complejos se definen como:

( a + bi ) + (c + di ) = ( a + c) + (b + d)i
( a + bi )(c + di ) = ( ac − bd) + ( ad + bc)i

con a, b, c, d ∈ R.

Observación. Si a ∈ R entonces a + 0i = a, por lo tanto, R ⊆ C. Usualmente 0 + bi se escribe simple-


mente bi y 0 + 1i se escribe i.

Ejercicio 4.1.2. Resuelva (2 + 3i )(4 + 5i ).

Solución.

(2 + 3i )(4 + 5i ) = (2 · 4 − 3 · 5) + (2 · 5 + 3 · 4)i
= −7 + 22i.

Al igual que en R, los números complejos satisfacen las siguientes propiedades:

53
54 CAPÍTULO 4. ESPACIOS VECTORIALES

Definición 4.1.3 (Propiedades aritméticas de los números complejos).

Conmutativa: z1 + z2 = z2 + z1 y z1 z2 = z2 z1 , para todo z1 , z2 ∈ C.

Asociativa: (z1 + z2 ) + z3 = z1 + (z2 + z3 ) y (z1 z2 )z3 = z1 (z2 z3 ), para todo z1 , z2 , z3 ∈


C.

Existencia de neutro aditivo: z + 0 = z, para todo z ∈ C.

Existencia de neutro multiplicativo: z · 1 = z, para todo z ∈ C.

Existencia de inverso aditivo: Para todo z ∈ C, existe un único w ∈ C tal que z + w =


0.

Existencia de inverso multiplicativo: Para todo z ∈ C ∖ {0}, existe un único w ∈ C


tal que zw = 1.

Distributiva: z1 (z2 + z3 ) = z1 z2 + z1 z3 , para todo z1 , z2 , z3 ∈ C.

Definición 4.1.4 (Resta y división).

Denotemos por −z1 al inverso aditivo de z1 , entonces −z1 es el único número com-
plejo tal que z1 + (−z1 ) = 0.

La resta de dos números complejos z1 y z2 se define como z1 − z2 = z1 + (−z2 ).

Para z1 ̸= 0, denotemos por 1/z1 al inverso multiplicativo de z1 , entonces 1/z1 es el


único número complejo tal que z1 (1/z1 ) = 1.

La división de dos números complejos z1 y z2 se define como z1 /z2 = z1 (1/z2 ).

Ejercicio 4.1.5. Resuelva (2 + 3i )/(4 + 5i ).

Solución. Primero calculemos el inverso multiplicativo de 4 + 5i, es decir, buscamos w = a + bi tal


que (4 + 5i )( a + bi ) = 1 + 0i. Entonces,

(4 + 5i )( a + bi ) = (4a − 5b) + (4b + 5a)i


= 1 + 0i.

Igualando las partes real e imaginaria, obtenemos el sistema de ecuaciones:



4a − 5b = 1
5a + 4b = 0

A modo de repaso de los temas anteriores (el sistema puede resolverse sin usar la inversa), obser-
vemos que la matriz asociada al sistema es
!
4 −5
A=
5 4
4.1. Rn Y Cn 55

y su determinante es det A = 4(4) − 5(−5) = 41. Por lo tanto, el sistema tiene solución única y es
tal que    
a −1 1
=A
b 0
donde !
1 1 4 5
A −1 = adj( A) = ,
det A 41 −5 4
luego, la solución es
  !     
a 1 4 5 1 1 4 4/41
= = = .
b 41 −5 4 0 41 −5 −5/41

Luego,
1 4 5
= − i.
4 + 5i 41 41
Finalmente,

2 + 3i 1
= (2 + 3i )
4 + 5i 4+ 5i 
4 5
= (2 + 3i ) − i
41 41
8 10 12 15
= − i+ i+
41 41 41 41
23 2
= + i.
41 41

Definición 4.1.6 (Conjugado de un número complejo). Sea z = a + bi ∈ C, el conjugado de


z se define como z = a − bi.

Ejercicio 4.1.7. Resuelva el ejercicio anterior utilizando el conjugado del denominador.

Solución.

2 + 3i (2 + 3i )(4 − 5i )
=
4 + 5i (4 + 5i )(4 − 5i )
8 − 10i + 12i − 15i2
=
16 − 20i + 20i − 25i2
23 + 2i
=
41
23 2
= − i.
41 41

Ejercicio 4.1.8. Calcular z z, para todo z ∈ C.

Solución. Sea z = a + bi ∈ C, entonces

zz = ( a + bi )( a − bi ) = a2 + b2 .

Definición 4.1.9 (Módulo de un número complejo). Sea z = a + bi ∈ C, el módulo de z se


√ √
define como |z| = a2 + b2 = zz.
56 CAPÍTULO 4. ESPACIOS VECTORIALES

Observación. En los capítulos anteriores, denotamos por K al campo de los números reales R o al campo
de los números complejos C. A partir de ahora, usaremos F en lugar de K. Recordemos que los elementos
del campo F se denominan escalares.
Antes de introducir a los conjuntos Rn y Cn , definamos el concepto de lista.

Definición 4.1.10 (Lista). Para un entero no negativo n. Una lista de tamaño n es una co-
lección ordenada de n elementos (que pueden ser números, otras listas u otros objetos)
separados por comas y encerrados entre paréntesis, es decir,

( x1 , x2 , . . . , x n ).

Por ejemplo, (1, 2, 3) es una lista de números reales de tamaño 3, (1, 2, (3, 4), i ) es una lista
de tamaño 4, donde los dos primeros elementos son reales, el tercero es un par ordenado y
el último, un complejo.
Comunmente, se denomina como n-upla a una lista de tamaño n.

Observación. Un objeto de la forma ( x1 , x2 , . . .) al no tener tamaño finito, no se considera como una lista.

Definición 4.1.11. Fn es el conjunto de todas las listas de tamaño n de elementos de F, es


decir,
Fn = {( x1 , x2 , . . . , xn ) : x j ∈ F para j = 1, 2, . . . , n}.

Para x = ( x1 , x2 , . . . , xn ) ∈ Fn se dice que x j es la entrada o componente j-ésima de x.

Ejemplo 4.1.12. Si F = R, para n = 2 y n = 3, tenemos que:

R2 = {( x, y) : x, y ∈ R}
R3 = {( x, y, z) : x, y, z ∈ R}.

Si F = C, para n = 4 :
C4 = {( x, y, z, w) : x, y, z, w ∈ C}.
A continuación, definiremos las operaciones de suma y producto por un escalar en Fn .

Definición 4.1.13 (Suma en Fn ). Sean x = ( x1 , x2 , . . . , xn ) e y = (y1 , y2 , . . . , yn ) dos listas de


tamaño n de elementos de F. La suma de x e y se define como:

x + y = ( x1 + y1 , x2 + y2 , . . . , x n + y n ).

Las propiedades que se han probado anteriormente para R y C se cumplen para Fn , por ejem-
plo, la propiedad conmutativa de la suma como se demuestra a continuación:

Proposición 4.1.14 (Conmutatividad de la suma en Fn ). Si x, y ∈ Fn , entonces x + y = y + x.

Demostración. Si x = ( x1 , x2 , . . . , xn ) e y = (y1 , y2 , . . . , yn ), entonces

x + y = ( x1 , x2 , . . . , x n ) + ( y1 , y2 , . . . , y n )
4.2. DEFINICIÓN DE ESPACIO VECTORIAL 57

= ( x1 + y1 , x2 + y2 , . . . , x n + y n )
= ( y1 + x1 , y2 + x2 , . . . , y n + x n )
= ( y1 , y2 , . . . , y n ) + ( x1 , x2 , . . . , x n )
= y + x.

Definición 4.1.15 (Cero de Fn ). El cero de Fn es una lista de tamaño n cuyas coordenadas


son todas ceros, es decir, 0 = (0, 0, . . . , 0). Cero es el neutro aditivo de la suma en Fn , es
decir,
x + 0 = x,

para todo x ∈ Fn .

Definición 4.1.16 (Inverso aditivo en Fn ). Sea x ∈ Fn , el inverso aditivo de x = ( x1 , . . . , xn )


es la lista − x = (− x1 , − x2 , . . . , − xn ), es decir,

x + (− x ) = 0.

Definamos ahora el producto por un escalar en Fn , como un caso particular del producto por
escalar definido para matrices.

Definición 4.1.17. El producto de un escalar λ ∈ F por x = ( x1 , . . . , xn ) ∈ Fn se define


como:
λx = (λx1 , λx2 , . . . , λxn ).

En la siguiente sección definiremos el concepto de espacio vectorial motivados en las propie-


dades que se satisfacen en Fn respecto de la suma y producto por escalar. Por ejemplo, la suma es
conmutativa, asociativa y define un elemento neutro. Todo elemento tiene un inverso aditivo. La
multiplicación por un escalar es asociativa y distributiva respecto de la suma. El escalar 1 actúa co-
mo neutro multiplicativo. La suma y producto por escalar se conectan a través de las propiedades
distributivas.

4.2. Definición de espacio vectorial

Un espacio vectorial será un conjunto V no vacío en el cual se definen dos operaciones, suma
y producto por un escalar.
58 CAPÍTULO 4. ESPACIOS VECTORIALES

Definición 4.2.1 (Operaciones sobre un conjunto V).

La suma sobre un conjunto V es una función tal que

⊕ : V × V −→ V
(u, v) 7−→ u ⊕ v,

El producto por un escalar es una función tal que

⊙ : F × V −→ V
(α, v) 7−→ α ⊙ v

Definición 4.2.2 (Espacio Vectorial). Un espacio vectorial sobre el campo F, es un conjunto


V donde se definen las operaciones suma ⊕ y producto por un escalar ⊙. En general, un
espacio vectorial se denota por (V, ⊕, ⊙, F) y satisface las siguientes propiedades:

1. Conmutativa de la suma: para todo u, v ∈ V se tiene que

u ⊕ v = v ⊕ u;

2. Asociativa de la suma: para todo u, v, z ∈ V se tiene que

( u ⊕ v ) ⊕ w = u ⊕ ( v ⊕ w );

3. Neutro aditivo: existe un elemento 0 ∈ V, tal que

u ⊕ 0 = 0 ⊕ u = u, para todo u ∈ V.

4. Inverso aditivo: para todo u ∈ V, existe un elemento de V, tal que

v ⊕ (−w) = 0;

5. Propiedades distributivas: para todo u, v ∈ V y todo α, β ∈ F se tiene que

α ⊙ (u ⊕ v) = α ⊙ u ⊕ α ⊙ v

(α + β) ⊙ u = α ⊙ u ⊕ β ⊙ u;

6. Asociativa del producto por escalar: para todo u ∈ V y todo α, β ∈ F se tiene que

( α · β ) ⊙ u = α ⊙ ( β ⊙ u );

7. Elemento neutro del producto por escalar: existe un elemento 1 ∈ F tal que

1 ⊙ u = u, para todo u ∈ V.
4.2. DEFINICIÓN DE ESPACIO VECTORIAL 59

Los elementos de un espacio vectorial V se denominan vectores o puntos.


Observación.
Un espacio vectorial con F = R se lo denomina espacio vectorial real.

Un espacio vectorial con F = C se lo denomina espacio vectorial complejo.


Ejemplo 4.2.3. Se puede demostrar que los siguientes conjuntos son espacios vectoriales, bajo las operacio-
nes usuales de suma y producto por un escalar:
Rn = {( x1 , ..., xn ) : xi ∈ R para i = 1, . . . , n} y sus operaciones están definidos mediante

( x1 , x2 , . . . , x n ) + ( y1 , y2 , . . . , y n ) = ( x1 + y1 , x2 + y2 , . . . , x n + y n ).
α( x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ).

F (S) = { f : S → F : f es una función}, siendo S un conjunto. Se define la suma usual entre dos
funciones en F (S) como

( f + g)( x ) = f ( x ) + g( x ), para todo x ∈ S,

y el producto por escalar como

(α f )( x ) = α f ( x ), para todo x ∈ S.

A este conjunto también se lo denota como FS .

C( I ) = { f : I → R : f es una función continua}, siendo I un intervalo de R. Bajo la suma y


producto por escalar usuales de funciones.

Pm (F) = { p : p( x ) = a0 + a1 x + · · · + am x m , ai ∈ F para i = 0, 1, · · · , m}, es el conjunto de


todos los polinomios de grados menor o igual a m, con m ∈ N. Pm (F) es un espacio vectorial con la
suma usual de dos polinomios, dada por

( a0 + a1 x + · · · + am x m ) + (b0 + b1 x + · · · + bm x m ) = ( a0 + b0 ) + ( a1 + b1 ) x + · · · + ( am + bm ) x m ,

y producto por escalar

α · ( a0 + a1 x + · · · + am x m ) = (αa0 ) + (αa1 ) x + · · · + (αam ) x m .

F∞ es el conjunto de todas las sucesiones de números en F, es decir,

F∞ = {( x1 , x2 , . . .) : x j ∈ F para j = 1, 2, . . .}.

Este conjunto es un espacio vectorial con la operación suma definida para x = ( x1 , x2 , . . .) e y =


(y1 , y2 , . . .) como:
x + y = ( x1 + y1 , x2 + y2 , . . . ),

y el producto por un escalar α ∈ F dado por

αx = (αx1 , αx2 , . . .).


60 CAPÍTULO 4. ESPACIOS VECTORIALES

El conjunto de todas la matrices de tamaño m × n con entradas en F, denotado por Fm×n , es un


espacio vectorial con la suma usual de matrices y producto por escalar.

Ejercicio 4.2.4. Demuestre que R3 es un espacio vectorial bajo la suma y producto por escalar usuales.

Solución. Verifiquemos las propiedades de la Definción 4.2.2:

1. Asociativa de la suma
Suponga que a = ( a1 , a2 , a3 ) ∈ R3 , b = (b1 , b2 , b3 ) ∈ R3 y c = (c1 , c2 , c3 ) ∈ R3 . Entonces:
( a ⊕ b) ⊕ c

= [( a1 , a2 , a3 ) ⊕ (b1 , b2 , b3 )] ⊕ (c1 , c2 , c3 ) Definiciones de a, b y c


= ( a1 + b1 , a2 + b2 , a3 + b3 ) ⊕ (c1 , c2 , c3 ) Definición de ⊕ en R3
= ([ a1 + b1 ] + c1 , [ a2 + b2 ] + c2 , [ a3 + b3 ] + c3 ) Definición de ⊕ en R3
= ( a1 + [b1 + c1 ], a2 + [b2 + c2 ], a3 + [b3 + c3 ]) Propiedad asociativa en R
= ( a1 , a2 , a3 ) ⊕ (b1 + c1 , b2 + c2 , b3 + c3 ) Definición de ⊕ en R3
= ( a1 , a2 , a3 ) ⊕ [(b1 , b2 , b3 ) ⊕ (c1 , c2 , c3 )] Definición de ⊕ en R3
= a ⊕ (b ⊕ c) Definiciones de a, b y c

2. Conmutativa de la suma
Suponga que a = ( a1 , a2 , a3 ) ∈ R3 y b = (b1 , b2 , b3 ) ∈ R3 . Entonces:

a ⊕ b = ( a1 , a2 , a3 ) ⊕ (b1 , b2 , b3 ) Definiciones de a y b
= ( a1 + b1 , a2 + b2 , a3 + b3 ) Definición de ⊕ en R3
= (b1 + a1 , b2 + a2 , b3 + a3 ) Conmutativa de + en R
= (b1 , b2 , b3 ) ⊕ ( a1 , a2 , a3 ) Definición de ⊕ en R3
= b⊕a Definiciones de a y b

3. Elemento neutro de la suma


Se debe probar que la siguiente proposición es verdadera:

(∃0E ∈ R3 )(∀ a ∈ R3 )( a ⊕ 0E = 0E ⊕ a = a)

Esta demostración es de existencia, por lo que se debe exhibir un elemento 0E ∈ R3 que


satisfaga la definición de elemento neutro.

Sea 0E = (0, 0, 0). Se debe probar que para todo a = ( a1 , a2 , a3 ) ∈ R3 se cumpla que:

a ⊕ 0E = 0E ⊕ a = a

En efecto:

a ⊕ 0E = ( a1 , a2 , a3 ) ⊕ (0, 0, 0) Definiciones de a y 0E
4.2. DEFINICIÓN DE ESPACIO VECTORIAL 61

= ( a1 + 0, a2 + 0, a3 + 0) Definición de ⊕ en R3
= ( a1 , a2 , a3 ) Neutro aditivo en R
=a Definición de a

por la propiedad conmutativa, se tiene que a ⊕ 0E = 0E ⊕ a. Por tanto, se ha demostrado


también que:
0E ⊕ a = a

4. Inverso de la suma

Se debe probar que la siguiente proposición es verdadera:

(∀ a ∈ R3 )(∃ â ∈ R3 )( â ⊕ a = a ⊕ â = 0E )

Esta también es una demostración de existencia, en este caso, por el orden de los cuantifica-
dores, el elemento â depende de a.

Sea a = ( a1 , a2 , a3 ) ∈ R3 . Se prueba que el vector buscado â se define del siguiente modo:

â = (− a1 , − a2 , − a3 )

donde cada − ai es el inverso aditivo de ai ∈ R, para i = 1, 2, 3.


Entonces, tenemos que:

a ⊕ â = ( a1 , a2 , a3 ) ⊕ (− a1 , − a2 , − a3 ) Definiciones de a y â
= ( a1 + (− a1 ), a2 + (− a2 ), a3 + (− a3 )) Definición de ⊕ en R3
= (0, 0, 0) Inverso aditivo en R
= 0E Definición de 0E

por la propiedad conmutativa de ⊕, se tiene también que:

â ⊕ a = 0E

5. a) Distributiva del producto I


Suponga que a = ( a1 , a2 , a3 ) ∈ R3 , b = (b1 , b2 , b3 ) ∈ R3 y λ ∈ R. Entonces:
λ ⊙ ( a ⊕ b)

= λ ⊙ (( a1 , a2 , a3 ) ⊕ (b1 , b2 , b3 )) Definiciones de a y b
= λ ⊙ ( a1 + b1 , a2 + b2 , a3 + b3 ) Definición de ⊕ en R3
= (λ · [ a1 + b1 ], λ · [ a2 + b2 ], λ · [ a3 + b3 ]) Definición de ⊙ en R3
= (λ · a1 , λ · a2 , λ · a3 ) ⊕ (λ · b1 , λ · b2 , λ · b3 ) Definición de ⊕ en R3
= λ ⊙ ( a1 , a2 , a3 ) ⊕ λ ⊙ (b1 , b2 , b3 ) Definición de ⊙ en R3
= λ⊙a⊕λ⊙b Definiciones de a y b
62 CAPÍTULO 4. ESPACIOS VECTORIALES

b) Distributiva del producto II


Suponga que a = ( a1 , a2 , a3 ) ∈ R3 y λ, β ∈ R. Entonces:
(λ + β) ⊙ a

= ( λ + β ) ⊙ ( a1 , a2 , a3 ) Definición de a
= ((λ + β) · a1 , (λ + β) · a2 , (λ + β) · a3 ) Definición de ⊙ en R3
= (λa1 + βa1 , λa2 + βa2 , λa3 + βa3 ) Distributiva del producto en R
= (λa1 , λa2 , λa3 ) ⊕ ( βa1 , βa2 , βa3 ) Definición de ⊕ en R3
= λ ⊙ ( a1 , a2 , a3 ) ⊕ β ⊙ ( a1 , a2 , a3 ) Definición de ⊙ en R3
= λ⊙a⊕β⊙a Definición de a

6. Asociativa del producto

Suponga que a = ( a1 , a2 , a3 ) ∈ R3 y λ, β ∈ R. Entonces:

( λ · β ) ⊙ a = ( λ · β ) ⊙ ( a1 , a2 , a3 ) Definición de a
= ((λ · β) · a1 , (λ · β) · a2 , (λ · β) · a3 ) Definición de ⊙ en R3
= (λ · ( β · a1 ), λ · ( β · a2 ), λ · ( β · a3 )) Asociativa · en R
= λ ⊙ ( β · a1 , β · a2 , β · a3 ) Definición de ⊙ en R3
= λ ⊙ ( β ⊙ ( a1 , a2 , a3 )) Definición de ⊙ en R3
= λ ⊙ ( β ⊙ a) Definición de a

7. Elemento neutro del producto

Se debe probar que la siguiente proposición es verdadera:

(∀ a ∈ R3 )(1 ⊙ a = a), donde 1 ∈ R

Suponga que a = ( a1 , a2 , a3 ) ∈ R3 . Entonces:

1 ⊙ a = 1 ⊙ ( a1 , a2 , a3 ) Definición de a
= (1 · a1 , 1 · a2 , 1 · a3 ) Definición de ⊙ en R3
= ( a1 , a2 , a3 ) Neutro multiplicativo en R
=a Definición de a

En vista que se satisfacen todas las propiedades de la Definición 4.2.2 se concluye que
(R3 , ⊕, ⊙, R) es un espacio vectorial.

Ejercicio 4.2.5. Verifique si el conjunto de polinomios con coeficientes reales de grado menor o igual que 2

P2 (R) = { p : p( x ) = a0 + a1 x + a2 x2 : ai ∈ R, 0 ≤ i ≤ 2}

es un espacio vectorial sobre R con las operaciones definidas anteriormente.


4.3. PROPIEDADES DE LOS ESPACIOS VECTORIALES 63

Ejercicio 4.2.6. Verifique si el conjunto V definido por:


( ! )
a b 2×2
V= ∈R : ad − cb = 0 ,
c d

junto a las operaciones usuales de suma de matrices y producto de un escalar por matriz es un espacio
vectorial real.

4.3. Propiedades de los espacios vectoriales

Proposición 4.3.1. En un espacio vectorial las siguientes afirmaciones son siempre verdade-
ras:

a) El neutro aditivo es único.

b) El inverso aditivo de un vector es único.

c) 0v = 0 para todo v ∈ V.

d) a0 = 0 para todo a ∈ F.

e) (−1)v = −v para todo v ∈ V. Por b) el inverso aditivo de v es único y se denota −v.

Demostración.

a) Sean 0 y 0′ neutros aditivos de V. Entonces,

0 = 0 + 0′ = 0′ + 0 = 0′ ,

la primera igualdad se satisface dado que 0′ es neutro aditivo, la segunda resulta de la pro-
piedad conmutativa de la suma y la tercera se cumple dado que 0 es neutro aditivo. Por lo
tanto, 0 = 0′ .

b) Sea v ∈ V y w y w′ inversos aditivos de v. Entonces,

w = w + 0 = w + (v + w′ ) = (w + v) + w′ = 0 + w′ = w′ ,

la primera igualdad se satisface dado que 0 es neutro aditivo, la segunda resulta de la pro-
piedad asociativa de la suma, la tercera se cumple pues w′ es inverso aditivo de v, la cuarta
se tiene ya que v es inverso aditivo de w y la quinta se cumple porque 0 es neutro aditivo.
Por lo tanto, w = w′ .

c) Sea v ∈ V, entonces
0v = (0 + 0)v = 0v + 0v,

la primera igualdad se satisface dado que 0 es neutro aditivo y la segunda resulta de la


propiedad distributiva. Luego, sumando −(0v) a ambos lados de la igualdad, se tiene que

0 = 0v.
64 CAPÍTULO 4. ESPACIOS VECTORIALES

d) Sea a ∈ F, entonces
a0 = a(0 + 0) = a0 + a0,

la primera igualdad se satisface dado que 0 es neutro aditivo y la segunda resulta de la


propiedad distributiva. Luego, sumando − a0 a ambos lados de la igualdad.

e) Sea v ∈ V, entonces

v + (−1)v = 1v + (−1)v = (1 + (−1))v = 0v = 0.

Hemos probado que al sumarle (−1)v a v se obtiene el neutro aditivo, por lo tanto, (−1)v es
el inverso aditivo de v, es decir, −v = (−1)v.

Observación. Utilizamos los símbolos ⊕ y ⊙ para enfatizar el hecho de que, en general, las operaciones
definidas no son la suma y el producto estándar que utilizamos. Si no existe riesgo de confusión, utilizaremos
la notación
x⊕y = x+y y α ⊙ x = αx

y diremos que el espacio vectorial es ( E, +, ·, K). En caso de que no exista ambigüedad en las operaciones
utilizadas se dirá que E es un espacio vectorial sobre K. Además, si el campo está sobre entendido diremos
que E es un espacio vectorial.

Observación. Un error común es pensar que el elemento neutro es siempre el cero, ya que, dependiendo
del espacio vectorial, se tiene un determinado elemento neutro. Por ejemplo:

Para el espacio vectorial (R, +, ·, R) tenemos que su elemento neutro es justamente el 0.

Para el espacio (R+ , ⊕, ⊙, R) donde

x ⊕ y = xy y α ⊙ x = xα

para todo x, y ∈ R+ y todo α ∈ R, el elemento neutro es 1, esto es, 0E = 1. Notemos que 0 ∈


/ R+ .

4.4. Subespacios vectoriales

Definición 4.4.1 (Subespacio Vectorial). Sea (V, ⊕, ⊙, F) un espacio vectorial y sea U un


subconjunto no vacío de V. Se dice que U es un subespacio vectorial del espacio vectorial V si
(U, ⊕ U , ⊙ U , F) es un espacio vectorial.

Teorema 4.4.2. Sean (V, ⊕, ⊙, F) un espacio vectorial y U un subconjunto no vacío de V. En-


tonces U es un subespacio vectorial de V si y solo si se cumplen las siguientes condiciones:

Neutro aditivo: 0 ∈ U

Clausura de la suma: si u, v ∈ U, entonces u + v ∈ U; y

Clausura del producto por un escalar: si α ∈ F y u ∈ U, entonces αu ∈ U.


4.4. SUBESPACIOS VECTORIALES 65

Ejemplo 4.4.3 (Subespacio trivial). Para cualquier espacio vectorial V, el subconjunto U = {0V } que
consiste únicamente del vector neutro es un subespacio vectorial y es el más pequeño de V. En efecto,

0V + 0V = 0V

y
α0V = 0V

para todo α ∈ F. Luego, a U = {0V } se lo denomina subespacio trivial de V.

Ejemplo 4.4.4. Considere el espacio vectorial F3 con sus operaciones usuales de suma y producto por un
escalar y el conjunto:
U = {( x, y, 0) ∈ F2 : x, y ∈ F}.

Para mostrar que U es un subespacio vectorial de F3 , utilizamos al Teorema 4.4.2.

Note que (0, 0, 0) ∈ U ⊆ F3

Sean u = ( x1 , y1 , 0) ∈ U y v = ( x2 , y2 , 0) ∈ U debemos probar que u + v ∈ U.


En efecto,
( x1 , y1 , 0) + ( x2 , y2 , 0) = ( x1 + x2 , y1 + y2 , 0) ∈ U.

Sean u = ( x1 , y1 , 0) y α ∈ F debemos probar que αu ∈ U.


En efecto,
α( x1 , y1 , 0) = (αx1 , αy1 , 0) ∈ U.

Ejemplo 4.4.5. Sean V = R2 y U = {( x, y) ∈ R2 : x > 0}, considerando las operaciones usuales


para la suma y producto con un escalar en V, tenemos que U no es un subespacio vectorial de V. En efecto,
notemos que (3, 1) ∈ U y que:
−2(3, 1) = (−6, −2) ∈/U

por lo tanto, U no es un subespacio vectorial de R2 , dado que no cumple la segunda propiedad del Teore-
ma 4.4.2.

Ejercicio 4.4.6. Verifique si el conjunto


n o
V = ( x, y, 3, w) ∈ R4 : 2x − y = 0

junto a las operaciones usuales de suma y producto por un escalar en R4 es un espacio vectorial real.

Intersección de subespacios vectoriales

Teorema 4.4.7. Sea V un espacio vectorial. Si U1 , U2 ⊆ V son subespacios vectoriales de V,


entonces U1 ∩ U2 es un subespacio vectorial de V.

Demostración. Observe que U1 ∩ U2 es no vacío pues contienen al 0V . Sean x1 ∈ U1 ∩ U2 y x2 ∈


U1 ∩ U2 . Dado que U1 y U2 son subespacios vectoriales de V, se sigue que

x1 + x2 ∈ U1 y x1 + x2 ∈ U2
66 CAPÍTULO 4. ESPACIOS VECTORIALES

es decir, x1 + x2 ∈ U1 ∩ U2 . De manera similar para α ∈ F y x1 ∈ U1 ∩ U2 , se tiene que

αx1 ∈ U1 y αx1 ∈ U2

es decir, αx1 ∈ U1 ∩ U2 . Por lo tanto, se verifica la clausura de la suma y producto por un escalar.
Así, U1 ∩ U2 es un subespacio vectorial de V.

Corolario 4.4.7.1. Sea V un espacio vectorial. Si U1 , U2 , . . . , Un ⊆ V son subespacios vectoriales de V,


entonces U1 ∩ U2 ∩ · · · ∩ Un es un subespacio vectorial de V.

Ejercicio 4.4.8. En el espacio vectorial R2 con las operaciones usuales de suma y producto con un escalar,
sean los subespacios vectoriales:

U1 = {( x, y) ∈ R2 : x = y} y U2 = {( x, y) ∈ R2 : x + 2y = 0}.

Se tiene que U1 ∪ U2 no es un subespacio vectorial de R2 . En efecto, notemos que (1, 1) ∈ U1 ⊆ U1 ∪ U2


y que (2, −1) ∈ U2 ⊆ U1 ∪ U2 , sin embargo, (1, 1) + (2, −1) = (3, 0) ∈ / U1 ∪ U2 , lo que implica que
U1 ∪ U2 no es un subespacio vectorial de R .
2

4.5. Ejercicios
1. Sea N, el conjunto de los números naturales, junto con las operaciones usuales de la suma y
el producto por un escalar α ∈ R, ¿es N un espacio vectorial?

2. Sea Z, el conjunto de los números enteros, junto con las operaciones usuales de la suma y el
producto por un escalar α ∈ C, ¿es Z un espacio vectorial?

3. Sea R+ , el conjunto de los números positivos, junto con las operaciones usuales de la suma
y el producto por un escalar α ∈ R, ¿es R+ un espacio vectorial?

4. Sea V el conjunto de las matrices reales n × n invertibles, junto con las operaciones usuales
de la suma y el producto por un escalar α ∈ R, ¿es V un espacio vectorial?

5. Sea (R+ , ⊕, ⊙, R) donde


x ⊕ y = xy y α ⊙ x = xα

para todo x, y ∈ R+ y todo α ∈ R. Determine el elemento neutro e inverso.

6. Sea (R2 , ⊕, ·, R) donde


x ⊕ y = ( x1 + x2 , 2)

para todo x, y ∈ R2 y todo α ∈ R ¿es un espacio vectorial?

7. Dados los siguientes subespacios vectoriales de Rn×n :

Y = { A ∈ Rn×n : A es triangular superior}


W = { A ∈ Rn×n : A es triangular inferior},

encuentre Y ∩ W y muestre que es un subespacio vectorial de Rn×n .


4.5. EJERCICIOS 67

8. Sea P3 (R) el espacio vectorial de todos los polinomios con coeficientes en R de grado me-
nor o igual a 3. Considere los conjuntos U = { p ∈ P3 (R) : p(1) = p′ (1) = 0} y W = { p ∈
P3 (R) : p′′ (0) = 0} (note que p′ y p′′ es la primera y segunda derivadas de p).

a) Demuestre que U y W son subespacios de P3 (R).


b) Calcule U ∩ W.

9. Sea V = R4 un espacio vectorial sobre R con las operaciones usuales y sean


     


 a 




 x 



   
  
b   y  
V1 =   ∈ R : a+b = 0 ,
4
V2 =   ∈ R : x, y, z ∈ R
4
 c   − x  

   
 
   


 d 
 
 z 

a) Demuestre que V1 y V2 son subespacios vectoriales de V.


b) Encuentre V1 ∩ V2 .
c) V1 ∩ V2 es un subespacio vectorial de V. Justifique su respuesta.

10. Considere en el espacio vectorial V = P2 (R), los subespacios W1 y W2

W1 = p(t) ∈ V : p′ (−1) = 0 , W2 = q(t) ∈ E : p′ (1) = 0


 

a) Demuestre que W1 y W2 son subespacios vectoriales de V.


b) Encuentre W1 ∩ W2 .
c) W1 ∩ W2 es un subespacio vectorial de V. Justifique su respuesta.
68 CAPÍTULO 4. ESPACIOS VECTORIALES
Capítulo 5

Espacios vectoriales de dimensión finita

A lo largo de esta sección se considerará un espacio vectorial V sobre un campo F. Notaremos


a las listas de elementos en un espacio vectorial cualquiera V como v1 , v2 , . . . , vm (sin paréntesis)
y se distinguirán de listas de elementos de Fn que se denotan por ( x1 , x2 , . . . , xn ).

Observación. Las listas se consideran que son siempre finitas.

Otra forma equivalente de escribir listas es como conjuntos, decir que la lista v1 , v2 , . . . , vm
satisface cierta propiedad, será equivalente a decir que el conjunto {v1 , v2 , . . . , vm } cumple dicha
propiedad. Cuando el orden sea importante, se utilizará la notación de lista, en caso contrario, se
utilizará la notación de conjunto.

5.1. Combinación lineal y espacio generado

Definición 5.1.1 (Combinación lineal). Una combinación lineal de una lista v1 , v2 , . . . , vm de


vectores de un espacio vectorial V es un vector de la forma

a1 v1 + a2 v2 + · · · + A n v m ,

donde a1 , a2 , . . . , an son escalares en F.

Ejemplo 5.1.2.

1. En R3 , (2, 3, −5) es una combinación lineal de la lista (1, 0, 0), (0, 1, 0), (0, 0, 1), pues

(2, 3, −5) = 2(1, 0, 0) + 3(0, 1, 0) + (−5)(0, 0, 1).

2. En P2 (R), p( x ) = −8 + 2x + 10x2 es una combinación lineal de la lista de polinomios: 1 + x,


2 − x2 , pues
−8 + 2x + 10x2 = 2(1 + x ) + (−5)(2 − x2 ).
!
−7 3
3. En M2×2 (R), A = es una combinación lineal de la lista de matrices:
3 7
! !
1 0 0 1
,
0 −1 1 0

69
70 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

pues ! ! !
−7 3 1 0 0 1
= (−7) +3 .
3 7 0 −1 1 0

4. En R2 , el vector (2, −3) no es una combinación lineal de la lista (1, 1), (2, 2), pues no existe a, b ∈ R
tales que
(2, −3) = a(1, 1) + b(2, 2).

En efecto, el sistema lineal asociado a la ecuación anterior es


! ! !
1 2 a 2
= ,
1 2 b −3

y no tiene solución pues el rango de la matriz de coeficientes es 1 y el rango de la matriz ampliada es


2 (Verificar).

Ejercicio 5.1.3. Verifique si el vector (17, −4, 2) es combinación lineal de los vectores (2, 1, −3), (1, −2, 4).

Definición 5.1.4 (Espacio generado por una lista). El conjunto de todas las combinaciones
lineales de la lista v1 , v2 , . . . , vm de vectores de un espacio vectorial V se llama espacio ge-
nerado por v1 , v2 , . . . , vn y se denota por ⟨v1 , . . . , vm ⟩ o gen(v1 , . . . , vm ). En otras palabras,

gen(v1 , . . . , vm ) = { a1 v1 + a2 v2 + · · · + am vm : a1 , a2 , . . . , am ∈ F}.

Ejemplo 5.1.5. Calculemos el espacio generado por la lista (1, −2), (0, 1). Para esto, utilizando la defini-
ción
gen((1, −2), (0, 1)) = { a(1, −2) + b(0, 1) : a, b ∈ R},

notemos que gen((1, −2), (0, 1)) es subconjunto de R2 tal que

gen((1, −2), (0, 1)) = {( a, −2a + b) : a, b ∈ R}.

Es natural plantearse la pregunta si gen((1, −2), (0, 1)) = R2 , para esto, consideremos un vector arbitra-
rio ( x, y) ∈ R2 y veamos si pertenece a gen((1, −2), (0, 1)). Para esto, debemos encontrar a, b ∈ R tales
que ( x, y) = ( a, −2a + b), es decir, debemos resolver el sistema lineal
! ! !
1 0 a x
= .
−2 1 b y

Utilicemos el método de Gauss-Jordan para resolver el sistema lineal anterior:


! !
1 0 | x 1 0 | x
∼ .
−2 1 | y 0 1 | 2x + y

Dado que el sistema tiene solución única para cualquier valor de x, y, concluimos que gen((1, −2), (0, 1)) =
R2 .

Ejemplo 5.1.6. Calculemos el espacio generado por la lista (2, 1, 0), (1, 1, 0), (1, 0, 0). Para esto, utilizando
5.1. COMBINACIÓN LINEAL Y ESPACIO GENERADO 71

la definición

gen((2, 1, 0), (1, 1, 0), (1, 0, 0)) = { a(2, 1, 0) + b(1, 1, 0) + c(1, 0, 0) : a, b, c ∈ R},
= {(2a + b + c, a + b, 0) : a, b, c ∈ R}.

Si buscamos ( x, y, z) ∈ R3 tales que ( x, y, z) ∈ gen((2, 1, 0), (1, 1, 0), (1, 0, 0)), debemos resolver el siste-
ma lineal

2a + b + c = x,
a + b = y,
0 = z.

Utilicemos el método de Gauss-Jordan para resolver el sistema lineal anterior:

     
2 1 1 | x 1 1 0 | y 1 1 0 | y
1 1 0 | y  ∼ 2 1 1 | x  ∼ 0 −1 1 | x − 2y
     

0 0 0 | z 0 0 0 | z 0 0 0 | z

Notemos que si z = 0 el sistema tiene infinitas soluciones y por lo tanto,

gen((2, 1, 0), (1, 1, 0), (1, 0, 0)) = {( x, y, z) ∈ R3 : z = 0} = {( x, y, 0) ∈ R3 : x, y ∈ R}.

Ejemplo 5.1.7. Calcule el espacio generado por la lista de polinomios 3, 2 − x2 en P2 (R). Para esto,
utilizando la definición

gen(3, 2 − x2 ) = { a(3) + b(2 − x2 ) : a, b ∈ R},


= {(3a + 2b) − bx2 : a, b ∈ R}.

Para analizar el subconjunto de P2 (R) generado, consideremos p( x ) = a0 + a1 x + a2 x2 y veamos si


pertenece a gen(3, 2 − x2 ). Para esto, debemos encontrar a, b ∈ R tales que p( x ) = (3a + 2b) − bx2 , es
decir, debemos resolver el sistema lineal

a0 = 3a + 2b,
a1 = 0,
a2 = −b,

es decir,
   
3 2 | a0 3 2 | a0
0 0 | a1  ∼ 0 −1 | a2  .
   

0 −1 | a2 0 0 | a1
72 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

Así, el sistema tiene al menos una solución cuando a1 = 0, por lo tanto,

gen(3, 2 − x2 ) = { a0 + a2 x2 : a0 , a2 ∈ R}.

Ejercicio 5.1.8. Calcule el espacio generado por la lista de matrices


! !
1 0 0 1
, .
0 1 1 0

Proposición 5.1.9. El espacio generado por una lista de vectores de un espacio vectorial V
es un subespacio vectorial de V.

Demostración. Sea v1 , v2 , . . . , vm una lista de vectores de V y sea W = gen(v1 , v2 , . . . , vm ). Debe-


mos verificar que W es un subespacio vectorial de V, para esto, debemos verificar que W es
cerrado bajo la suma y el producto por escalares. Sean u, v ∈ W y a ∈ F, entonces existen
a1 , a2 , . . . , am , b1 , b2 , . . . , bm ∈ F tales que

u = a1 v1 + a2 v2 + · · · + a m v m , v = b1 v1 + b2 v2 + · · · + bm vm .

Así,

u + v = ( a1 v1 + a2 v2 + · · · + am vm ) + (b1 v1 + b2 v2 + · · · + bm vm ),
= ( a1 + b1 )v1 + ( a2 + b2 )v2 + · · · + ( am + bm )vm ,

y por lo tanto, u + v ∈ W. Por otro lado,

av = a(b1 v1 + b2 v2 + · · · + bm vm ),
= ( ab1 )v1 + ( ab2 )v2 + · · · + ( abm )vm ,

y por lo tanto, av ∈ W. Finalmente, verifiquemos que 0V ∈ W. En efecto, como

0 = 0v1 + 0v2 + · · · + 0vm ,

concluimos que 0 ∈ W. Así, W es un subespacio vectorial de V.

Definición 5.1.10 (Lista generadora de V). Se dice que una lista v1 , v2 , . . . , vm de vectores de
un espacio vectorial V genera a V si gen(v1 , . . . , vm ) = V.

Ejemplo 5.1.11.

La lista (1, 0, 0), (0, 1, 0), (0, 0, 1) genera a R3 , pues gen((1, 0, 0), (0, 1, 0), (0, 0, 1)) = R3 . En gene-
ral, la lista de vectores de tamaño n con un 1 en la i-ésima coordenada y ceros en las demás coordenadas
genera a Rn :
(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)

gerera el espacio Fn con coeficientes en F.


5.2. INDEPENDENCIA LINEAL 73

La lista de matrices ! ! ! !
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

genera a R2×2 .

La lista 1, x, x2 , x3 genera a P3 (R).

Definición 5.1.12 (Espacio vectorial de dimensión finita). Un espacio vectorial V se dice de


dimensión finita si existe una lista (finita) de vectores que genera a V. En caso contrario, V
se dice de dimensión infinita.

En base al ejemplo anterior, son de dimensión finita Rn , R2×2 y P3 (R).

Definición 5.1.13 (Dimensión infinita). Un espacio vectorial V se dice de dimensión infinita


si no es de dimensión finita.

Definimos anteriormente el conjunto de polinomios hasta grado m. A continuación introdu-


ciremos el conjunto de todos los polinomios como un ejemplo de espacio vectorial de dimensión
infinita.

Definición 5.1.14 (Conjunto de polinomios). Una función p : F → F es un polinomio con


coeficientes en F si existen a0 , a1 , . . . , am ∈ F tales que

p ( x ) = a0 + a1 x + a2 x 2 + · · · + a m x m .

para todo x ∈ F. El conjunto de todos los polinomios con coeficientes en F se denota por
P (F).

Ejemplo 5.1.15 (P (F) es de dimensión infinita). Supongamos por reducción al absurdo que existe una
lista de polinomios que generan P (F), sea esta p1 , p2 , . . . , pr . Sea m el grado del polinomio de mayor grado
de la lista p1 , p2 , . . . , pr , luego este conjunto solo podrá generar polinomios hasta grado m. Pero el polinomio
x m+1 ∈ P (F) no puede ser generado por p1 , p2 , . . . , pr , lo cual es una contradicción. Por lo tanto, P (F) es
de dimensión infinita.

Ejercicio 5.1.16. Probar que el espacio de sucesiones definido en el Ejemplo 4.2.3 es de dimensión infinita.

5.2. Independencia lineal


Consideremos el conjunto de vectores en R2 ,

{(1, 0), (0, 1), (−1, 1)}. (5.1)

Nos preguntamos si el vector (0, 0) se puede representar como combinación lineal de los vectores
anteriores. La respuesta es si, y, de hecho, existen infinitas posibilidades, por ejemplo:

(0, 0) = (0)(1, 0) + (0)(0, 1) + (0)(−1, 1)


74 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

(0, 0) = (2)(1, 0) + (−2)(0, 1) + (2)(−1, 1)


(0, 0) = (−3)(1, 0) + (3)(0, 1) + (−3)(−1, 1)

Si esto ocurre, diremos que la lista en (5.2) es linealmente dependiente.


Notemos que si reducimos la lista en (5.2) a

{(1, 0), (0, 1)},

existe una única forma de representar al vector (0, 0) como combinación lineal de los vectores
anteriores, es decir,
(0, 0) = (0)(1, 0) + (0)(0, 1),

en este caso, diremos que la lista (1, 0), (0, 1) es linealmente independiente.

Definición 5.2.1 (Independencia lineal). Una lista v1 , v2 , . . . , vm de vectores de un espacio


vectorial V se dice linealmente independiente si la única forma de representar al vector 0V
como combinación lineal de los vectores anteriores es

0V = 0v1 + 0v2 + · · · + 0vm .

En otras palabras, la lista v1 , v2 , . . . , vm es linealmente independiente si la ecuación

a 1 v 1 + a 2 v 2 + · · · + a m v m = 0V ,

tiene solución única a1 = a2 = · · · = am = 0.


En caso contrario, diremos que la lista v1 , v2 , . . . , vm es linealmente dependiente. Específi-
camente, una lista v1 , v2 , . . . , vm es linealmente dependiente si existe una solución no trivial
de la ecuación
a 1 v 1 + a 2 v 2 + · · · + a m v m = 0V ,

es decir, si a1 , a2 , . . . , am ∈ F es solución y no todos son nulos.

Ejemplo 5.2.2. Consideremos la lista del ejemplo anterior, v1 = (1, 0), v2 = (0, 1), v3 = (−1, 1). Para
verificar si es linealmente independiente o dependiente, debemos resolver el sistema lineal

a1 (1, 0) + a2 (0, 1) + a3 (−1, 1) = (0, 0),

es decir,

a1 − a3 = 0,
a2 + a3 = 0.

El sistema matricial asociado es  


a1 ! !
1 0 −1   0
 a2  = .
0 1 1 0
a3
5.2. INDEPENDENCIA LINEAL 75

La matriz ampliada del sistema anterior es


!
1 0 −1 | 0
0 1 1 | 0

Notemos que al estar escalonada, por Rouché-Frobenius, el sistema tiene infinitas soluciones, pues rang( A) =
rang( A|b) = 2 < 3, dado que el número de incógnitas es 3. Por lo tanto, la lista v1 , v2 , v3 es linealmente
dependiente.

Ejercicio 5.2.3. Verifique, utilizando la definición que la lista v1 = (1, 0), v2 = (0, 1) es linealmente
independiente.

Proposición 5.2.4 (Propiedades de independencia/dependencia lineal).

1. Una lista con un solo vector v ∈ V es linealmente independiente si v ̸= 0V .

2. Una lista de dos vectores v1 , v2 ∈ V es linealmente independiente si y solo si ninguno


es múltiplo escalar del otro.

3. Si una lista contiene al vector 0V , entonces es linealmente dependiente.

4. Si una lista contiene un vector que es combinación lineal de los demás, entonces es
linealmente dependiente.

5. Si se elimina algún elemento de una lista linealmente independiente, la lista restante


sigue siendo linealmente independiente.

Ideas de demostración.

1. Si v = 0V , entonces existe infinitas formas de representar a 0V como combinación lineal de


v, por ejemplo,
0V = 0v, 0V = 1v, 0V = 2v, . . .

2. Si v1 , v2 son múltiplos escalares uno del otro, entonces existe λ ∈ F tal que λ ̸= 0 y v1 = λv2 ,
luego la ecuación
a 1 v 1 + a 2 v 2 = 0V ,

reemplazando v1 = λv2 es equivalente a

(λa1 + a2 )v2 = 0V ,

y tiene infinitas soluciones de la forma a2 = −λa1 , para a2 ∈ F. Así, la lista v1 , v2 es lineal-


mente dependiente.

Ejemplo 5.2.5. La lista (2, 3, 1), (1, −1, 2), (7, 3, 8) es linealmente dependiente en R3 . En efecto, si resol-
vemos el sistema lineal
a1 (2, 3, 1) + a2 (1, −1, 2) + a3 (7, 3, 8) = (0, 0, 0),
76 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

la matriz ampliada asociada es


   
2 1 7 | 0 1 0 2 | 0
3 −1 3 | 0 ∼ 0 1 3 | 0 ,
   

1 2 8 | 0 0 0 0 | 0

como rang( A) = rang( A|b) = 2 < 3, el sistema tiene infinitas soluciones y por lo tanto, la lista es
linealmente dependiente.
Por ejemplo,
(2)(2, 3, 1) + (3)(1, −1, 2) + (−1)(7, 3, 8) = (0, 0, 0),

y los coeficientes a1 = 2, a2 = 3, a3 = −1 son todos no nulos.

Ejemplo 5.2.6. Probar si la lista ! ! !


1 0 0 1 1 1
, ,
0 1 1 0 1 1

es linealmente independiente en R2×2 .

Solución. Planteamos la ecuación


! ! ! !
1 0 0 1 1 1 0 0
a1 + a2 + a3 = ,
0 1 1 0 1 1 0 0

para identificar si la solución a1 , a2 , a3 ∈ R es única o no. Para esto escalonamos la matriz ampliada
del sistema anterior    
1 0 1 | 0 1 0 1 | 0
   
0 1 1 | 0 0 1 1 | 0
∼
0 1 1 | 0 0 0 0 | 0 .
 
   
1 0 1 | 0 0 0 0 | 0

Notemos que el sistema tiene infinitas soluciones, pues rang( A) = rang( A|b) = 2 < 3. Por lo
tanto, la lista es linealmente dependiente.
Otra forma de probar que la lista es linealmente dependiente es notar que la tercera matriz es
combinación lineal de las dos primeras, pues
! ! !
1 1 1 0 0 1
= + .
1 1 0 1 1 0

Y por la proposición 5.2.4, la lista es linealmente dependiente.

Ejercicio 5.2.7. Probar que las listas del Ejemplo 5.1.11 son linealmente independientes.

El siguiente Teorema tiene gran importancia para los resultados que se estudiarán en la si-
guiente sección. Nos permitirá obtener listas linealmente independientes a partir de listas lineal-
mente dependientes que generan un espacio vectorial.
5.2. INDEPENDENCIA LINEAL 77

Teorema 5.2.8 (Lema de dependencia lineal). Supongamos que v1 , v2 , . . . , vm es una lis-


ta linealmente dependiente de vectores de un espacio vectorial V. Entonces existe j ∈
{1, 2, . . . , m} tal que se satisface lo siguiente:

1. v j es combinación lineal de v1 , v2 , . . . , v j−1 , es decir,

v j ∈ gen(v1 , v2 , . . . , v j−1 ).

2. Si v j se elimina de la lista inicial, se tiene que

gen(v1 , v2 , . . . , vm ) = gen(v1 , v2 , . . . , v j−1 , v j+1 , . . . , vm ).

Demostración. Como la lista v1 , v2 , . . . , vm es linealmente dependiente, existe una solución no tri-


vial (no todos nulos) de la ecuación

a 1 v 1 + a 2 v 2 + · · · + a m v m = 0V .

Sea j el índice más grande en {1, . . . , m} tal que a j ̸= 0. Entonces,

a1 a2 a j −1
vj = − v1 − v2 − · · · − v j −1 (5.2)
aj aj aj

y por lo tanto, v j es combinación lineal de v1 , v2 , . . . , v j−1 , es decir, v j ∈ gen(v1 , v2 , . . . , v j−1 ) lo que


prueba la primera parte del Teorema.
Por otro lado, para probar que

gen(v1 , v2 , . . . , vm ) = gen(v1 , v2 , . . . , v j−1 , v j+1 , . . . , vm ),

Tomemos u ∈ gen(v1 , v2 , . . . , vm ), entonces existen b1 , b2 , . . . , bm ∈ F tales que

u = b1 v1 + b2 v2 + · · · + bm vm .

Luego, reemplazando la forma de v j dada por la ecuación (5.2), se tiene que

u = b1 v1 + b2 v2 + · · · + b j−1 v j−1 + b j v j + b j+1 v j+1 + · · · + bm vm ,


a j −1
 
a a2
= b1 v1 + b2 v2 + · · · + b j−1 v j−1 + b j − 1 v1 − v2 − · · · − v j − 1 + b j + 1 v j + 1 + · · · + bm v m ,
aj aj aj
b j a1 b j a2 b j a j −1
     
= b1 − v1 + b2 − v 2 + · · · + b j −1 − v j − 1 + b j + 1 v j + 1 + · · · + bm v m .
aj aj aj

Así, u ∈ gen(v1 , v2 , . . . , v j−1 , v j+1 , . . . , vm ). La otra contenencia es trivial y se deja como ejercicio
propuesto.

Ejemplo 5.2.9. Recordemos el ejemplo del principio de esta sección, se demostró que la lista

(1, 0), (0, 1), (−1, 1)

es linealmente dependiente. Por el lema de dependencia lineal, existe j ∈ {1, 2, 3} tal que v j ∈ gen(v1 , v2 , . . . , v j−1 ).
78 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

En efecto, v3 = (−1, 1) es combinación lineal de v1 = (1, 0) y v2 = (0, 1), pues

(−1, 1) = (−1)(1, 0) + (1)(0, 1).

Además, si eliminamos v3 de la lista inicial, se tiene que

gen(v1 , v2 , v3 ) = gen(v1 , v2 ).

Además se puede probar que


gen(v1 , v2 ) = R2 .

Teorema 5.2.10. En un espacio de dimensión finita, la longitud de toda lista linealmente


independiente es menor o igual que la longitud de toda lista generadora.

La aplicación de este resultado permite identificar listas que no son linealmente independien-
tes o que no son generadoras de un espacio vectorial de dimensión finita, como se muestra en los
siguientes ejemplos.

Ejemplo 5.2.11. Demostrar que la lista (1, 2, 3), (4, 5, 8), (9, 6, 7), (−3, 2, 8) no es linealmente indepen-
diente en R3 .

Solución. Recordemos por el Ejemplo 5.1.11 que la lista

(1, 0, 0), (0, 1, 0), (0, 0, 1)

genera a R3 . Por el teorema anterior, la lista (1, 2, 3), (4, 5, 8), (9, 6, 7), (−3, 2, 8) no puede ser lineal-
mente independiente, pues tiene longitud 4 y la lista generadora tiene longitud 3.

Ejemplo 5.2.12. Demostrar que la lista (1, 2, 3, −5), (4, 5, 8, 3), (9, 6, 7, −1) no genera a R4 .

Solución. Se puede probar que la lista

(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)

es linealmente independiente, por lo tanto, por el teorema anterior, la lista

(1, 2, 3, −5), (4, 5, 8, 3), (9, 6, 7, −1)

no puede generar a R4 , pues tiene longitud 3 y heos presentado una lista linealmente indepen-
diente de longitud 4.

En la próxima sección estaremos interesados en encontrar listas linealmente independientes


que generen un espacio vectorial (bases). El siguiente ejemplo, nos permite encontrar una lista
linealmente independiente a partir de una lista generadora para el espacio P2 (R).

Ejemplo 5.2.13. Sean p1 ( x ) = −1 − x, p2 ( x ) = 2 + 2x + x2 , p3 ( x ) = x2 polinomios de P2 (R).


Notemos que esta lista es linealmente dependiente pues

p3 ( x ) = 2p1 ( x ) + p2 ( x ).
5.2. INDEPENDENCIA LINEAL 79

Por el Lema de dependencia lineal, podemos eliminar p3 de la lista y se satisface que

gen( p1 , p2 , p3 ) = gen( p1 , p2 ).

Observemos adicionalmete que por el Ejercicio 5.2.7, la lista p1 , p2 no puede generar a P2 (R), pues tiene
longitud 2 y la lista linealmente independiente 1, x, x2 tiene longitud 3.

Ejercicio 5.2.14. Explique porqué no existe una lista de 6 polinomios que sea liealmente independiente en
P4 (R).

Teorema 5.2.15. Todo subespacio de un espacio vectorial de dimensión finita es de dimen-


sión finita.

Ejemplo 5.2.16. Considere el conjunto de matrices


( ! )
a b
U= ∈R 2,2
: a+b = 0 .
c d

Asumiendo que U es subespacio vectorial de R2×2 , encuentre una lista de matrices que generen este subes-
pacio.

Solucón. Notemos que este subespacio se puede reescribir de la forma


( ! )
a b
U= ∈R 2,2
: a = −b
c d
( ! )
−b b
= ∈ R2,2 : b, c, d ∈ R
c d

Nuestro propósito es encontrar una lista de matrices que generen a U, en otras palabras, buscamos
matrices A1 , A2 , . . . , Am tales que U = gen{ A1 , . . . , Am }. Por contenencia de conjuntos, debemos
grantizar que

gen{ A1 , . . . , Am } ⊆ U.

U ⊆ gen{ A1 , . . . , Am }.

El primer punto siempre es cierto gracias a la Proposición 5.1.9. Para el segundo punto, tomamos
una matriz A ∈ U y debemos encontrar escalares a1 , . . . , am tales que

A = a1 A1 + . . . + a m A m .

Para esto, descomponemos una matriz arbitraria A de U, como sigue


! ! ! !
−b b −1 1 0 0 0 0
A= =b +c +d
c d 0 0 1 0 0 1

y, proponemos la siguiente lista de matrices


! ! !
−1 1 0 0 0 0
A1 = , A2 = , A3 = ,
0 0 1 0 0 1
80 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

de modo que a1 = b, a2 = c, a3 = d, permiten escribir a A como combinación lineal de A1 , A2 , A3 .


Por lo tanto, U = gen{ A1 , A2 , A3 }. Es importante notar que A1 , A2 , A3 ∈ U.
Notemos además que U es de dimensión finita pues hemos encontrado una lista de matrices
que generan a U. Esto es consecuente con el Teorema 5.2.15, pues U es subespacio de R2×2 , que es
de dimensión finita.

5.3. Bases

Una vez establecidos los conceptos de independencia lineal y generación de un espacio vecto-
rial, estamos en condiciones de definir una base de un espacio vectorial.

Definición 5.3.1 (Base). Una base de un espacio vectorial V es una lista de vectores de V
que es linealmente independiente y genera a V.

Ejemplo 5.3.2. 1. La lista (1, 0, 0), (0, 1, 0), (0, 0, 1) es una base de R3 .

2. La lista (1, 2), (1, 0) es una base de R2 .

3. La lista (1, 2, −3), (1, 0, 1) es linealmente independiente en R3 , pero no genera a R3 , por lo tanto, no
es una base de R3 .

4. La lista (1, 2), (1, 0), (2, 2) genera R2 , pero no es linealmente independiente, por lo tanto, no es una
base de R2 .

5. La lista (1, −1, 0), (1, 0, −1) es una base de

U = {( x, y, z) ∈ R3 : x + y + z = 0}.

6. La lista de matrices ! ! !
1 0 0 1 0 0
, ,
0 0 1 0 0 1
es una base del subespacio
( ! )
a b
U= ∈R 2,2
: a, b, c ∈ R .
b c

Ejercicio 5.3.3. Probar que las afirmaciones del ejemplo anterior son verdaderas.

Observación. Es importante notar que un espacio vectorial V puede tener diferentes bases. Sin embargo,
cada vector v ∈ V se representará de manera única en cada base, como se muestra en el siguiente resultado.

Teorema 5.3.4 (Criterio de la base). Sea V un espacio vectorial, v1 , v2 , . . . , vm es una base de


V si y solo si, para cada v ∈ V existen únicos a1 , a2 , . . . , am ∈ F tales que

v = a1 v1 + a2 v2 + · · · + a m v m .
5.3. BASES 81

Demostración. Supongamos que v1 , v2 , . . . , vm es una base de V y que existen dos formas de repre-
sentar a un vector v ∈ V como combinación lineal de esta base, es decir,

v = a1 v1 + a2 v2 + · · · + a m v m ,
v = b1 v1 + b2 v2 + · · · + bm vm .

Luego, restando ambas ecuaciones, se tiene que

0V = ( a1 − b1 )v1 + ( a2 − b2 )v2 + · · · + ( am − bm )vm .

Como la lista v1 , v2 , . . . , vm es linealmente independiente, se tiene que ai − bi = 0 para todo i ∈


{1, 2, . . . , m}, es decir, ai = bi para todo i ∈ {1, 2, . . . , m}. Por lo tanto, la representación de v en la
base es única.
Recíprocamente, supongamos que para todo v ∈ V existen únicos a1 , a2 , . . . , am ∈ F tales que

v = a1 v1 + a2 v2 + · · · + a m v m .

Nuestro objetivo es probar que la lista v1 , v2 , . . . , vm es linealmente independiente y genera a V.


Para probar la independencia lineal, buscamos una solución a la ecuación

a 1 v 1 + a 2 v 2 + · · · + a m v m = 0V .

Como 0V se puede representar de manera única en la base, se tiene que a1 = a2 = · · · = am = 0.


Por lo tanto, la lista v1 , v2 , . . . , vm es linealmente independiente. Probar que

gen(v1 , v2 , . . . , vm ) = V,

es trivial, dado que para cada v ∈ V existe una combinación lineal de v1 , v2 , . . . , vm que lo repre-
senta.

Nuestro trabajo ahora es encontrar bases de un espacio vectorial. Para esto, utilizaremos el
Lema de dependencia lineal para eliminar vectores de una lista generadora hasta obtener una lista
linealmente independiente. El siguiente teorema nos garantiza que este proceso siempre termina.

Teorema 5.3.5 (Una lista generadora contiene una base). Una lista generadora de un espacio
vectorial puede reducirse a una base del espacio vectorial.

Demostración. Este resultado se tiene gracias al Teorema de Dependencia lineal. Basta repetir el
procedimiento hasta que la lista resultante sea linealmente independiente.

El siguiente resultado es un Corolario del resultado anterior.

Corolario 5.3.5.1. Todo espacio vectorial de dimensión finita tiene una base.

El siguiente resultado es, de cierta forma, dual al Teorema 5.3.5. Nos permite encontrar una
base de un espacio vectorial a partir de una lista linealmente independiente que genera al espacio
vectorial.
82 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

Teorema 5.3.6 (Extensión de una lista linealmente independiente a una base). Toda lista
linealmente independiente de vectores de un espacio vectorial V puede extenderse a una
base de V.

Demostración. Supongamos que tenemos una lista u1 , . . . , um linealmente independiente en un es-


pacio vectorial de dimensión finita V. Consideremos una base conocida de V, sea esta w1 , . . . , wn .
Entonces, la lista
u 1 , . . . , u m , w1 , . . . , w n

es una lista generadora de V. Por el Teorema 5.3.5, podemos eliminar vectores de esta lista hasta
obtener una base de V. Como la lista u1 , . . . , um es linealmente independiente, no se puede elimi-
nar ninguno de estos vectores y podrían agregarse algunos w’s.

El siguiente ejemplo utiliza la demostración del Teorema anterior para encontrar una base a
partir de una lista linealmente independiente.

Ejemplo 5.3.7. Dada la lista linealmente independiente en R3

u1 = (1, 2, 3), u2 = (1, 0, 1),

encuentre una base de R3 que contenga a esta lista.

Solución. Conocemos que la lista w1 = (1, 0, 0), w2 = (0, 1, 0), w3 = (0, 0, 1) es una base de R3 . Por
lo tanto, podemos aplicar el algoritmo anterior a la lista u1 , u2 , w1 , w2 , w3 , esto es

(1, 2, 3), (1, 0, 1), (1, 0, 0), (0, 1, 0), (0, 0, 1).

Empecemos con j = 3 dado que los dos primeros vectores son l.i. Nos preguntamos si w3 es
combinación lineal de u1 , u2 . Para esto, resolvemos el sistema lineal

a1 (1, 2, 3) + a2 (1, 0, 1) = (1, 0, 0)

cuya matriz ampliada es


       
1 1 | 1 1 1 | 1 1 1 | 1 1 0 | 0
2 0 | 0 ∼ 0 −2 | −2 ∼ 0 1 | 1  ∼ 0 1 | 1  .
       

3 1 | 0 0 −2 | −3 0 −2 | −3 0 0 | −1

Luego, el sistema no tiene solución, por lo tanto,

w1 ̸∈ gen(u1 , u2 ).

y se mantiene en la lista. Notemos que con la lista

(1, 2, 3), (1, 0, 1), (1, 0, 0)

se obtendría la base buscada, pues por el Teorema 5.2.10, las listas l.i. no pueden ser de tamaño
mayor que las listas generadoras.
5.4. SUMA DE SUBESPACIOS 83

5.4. Suma de subespacios

Se definió anteriormente intersección y unión de subespacios. Conocemos que la intersección


de dos subespacios es un subespacio, sin embargo, la unión de dos subespacios no es, necesaria-
mente, un subespacio.
Definir la suma de subespacios permitirá obtener nuevos subespacios.

Definición 5.4.1. Suponga U1 , . . . , Um subespacios de V. La suma se nota por U1 + · · · + Um


y es el conjunto de todas las posibles sumas de elementos de U1 , . . . , Um , es decir,

U1 + · · · + Um = {u1 + · · · + um : u1 ∈ U1 , . . . um ∈ Um }.

Ejemplo 5.4.2. Consideremos los siguientes subespacios de R3 :

U1 = {( x, 0, 0) ∈ R3 : x ∈ R},
U2 = {(0, y, 0) ∈ R3 : y ∈ R},
U3 = {(0, 0, z) ∈ R3 : z ∈ R}.

Entonces, la suma de estos subespacios es

U1 + U2 + U3 = R3 .

El cálculo de la suma de subespacios podrá determinarse inmediatamente del conocimiento


de las bases de cada uno de los subespcios como se mostrará más adelante.
El siguiente resultado establece que la suma de subespacios es un subespacio vectorial.

Proposición 5.4.3. La suma de subespacios es un subespacio vectorial y es el más pequeño


que contiene a los subespacios sumados.

Demostración. Notemos que como U1 , . . . , Um son subespacios, entonces 0V ∈ U1 , . . . , 0V ∈ Um y


por lo tanto, 0V ∈ U1 + · · · + Um dado que

0V = 0V + . . . + 0V .

Por otro lado, si u, v ∈ U1 + · · · + Um , entonces existen u1 ∈ U1 , . . . , um ∈ Um y v1 ∈ U1 , . . . , vm ∈


Um tales que
u = u1 + · · · + u m , v = v1 + · · · + v m .

Luego,
u + v = ( u1 + v1 ) + · · · + ( u m + v m ),

y como u1 + v1 ∈ U1 , · · · , um + vm ∈ Um , se tiene que u + v ∈ U1 + . . . + Um . Por lo tanto,


U1 + · · · + Um es un subespacio vectorial. La cerradura del producto por escalar es análogo y se
deja como ejercicio propuesto.
Notemos además que Uj ⊆ U1 + · · · Um , para todo j ∈ {1, . . . , m}, pues si tomamos ui = 0V ∈
84 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

Ui , para todo i ̸= j entonces

u j = 0V + · · · + 0V + u j + 0V + . . . , 0V ∈ U1 + · · · + Um .

Nos enfocaremos además en sumas para las cuales, la representación de un vector en la suma
es única. Este concepto se define como sumas directas.

Suma directa de subespacios

Definición 5.4.4 (Suma directa). Suponga U1 , . . . , Um subespacios de V.

La suma U1 + · · · + Um es directa si para cada v ∈ U1 + . . . + Um existen únicos u1 ∈


U1 , . . . , um ∈ Um tales que
v = u1 + · · · + u m .

Si U1 + . . . + Um es directa, se nota por U1 ⊕ · · · ⊕ Um .

Ejemplo 5.4.5. Consideremos los siguientes subespacios de R3 :

U1 = {( x, 0, 0) ∈ R3 : x ∈ R},
U2 = {(0, y, 0) ∈ R3 : y ∈ R},
U3 = {(0, 0, z) ∈ R3 : z ∈ R}.

Entonces, la suma de estos subespacios es directa y se tiene que

U1 ⊕ U2 ⊕ U3 = R3 .

En general, demostrar que una suma es directa no es tan sencillo como en el ejemplo anterior.
A continuación, presentamos algunos resultados que permiten facilitar esta tarea.

Proposición 5.4.6. Suponga U1 , . . . , Um subespacios de V. La suma U1 + · · · + Um es directa


si y solo la única manera de escribir 0V ∈ U1 + · · · + Um es como 0V = 0V + · · · + 0V .

Proposición 5.4.7 (Suma directa entre dos subespacios). Suponga U y W son subespacios
de V. La suma U + W es directa si y solo si U ∩ W = {0V }.

Ejemplo 5.4.8. Probar si la suma de los siguientes subespacios en P2 (R) es directa:

U = { p ∈ P2 (R) : p ′ (0) = 0},


W = { p ∈ P2 (R) : p′′ (0) = 0}.

Solución. Primero, calculemos U ∩ W, para esto, notemos que si p ∈ U ∩ W, entonces p′ (0) = 0


y p′′ (0) = 0. Si p( x ) = a0 + a1 x + a2 x2 , entonces, p′ ( x ) = a1 + 2a2 x y p′′ ( x ) = 2a2 . Por lo tanto,
p′ (0) = a1 = 0 y p′′ (0) = 2a2 = 0, lo que implica que a1 = a2 = 0 y por lo tanto,

U ∩ W = { p ∈ P2 (R ) : p ( x ) = a 0 , a 0 ∈ R } ̸ = { 0v } .
5.4. SUMA DE SUBESPACIOS 85

Así, U + W no es directa.

Proposición 5.4.9. Sean U1 , U2 dos subespacios de un espacio vectorial V. Si B1 =


{v1 , . . . , vm } y B2 = {w1 , . . . , wn } son bases de U1 y U2 , respectivamente, se tiene que:

U1 + U2 = gen( B1 ∪ B2 ).

Ejemplo 5.4.10. Considere el espacio vectorial R3 , donde:

W1 = {( x, 0, 0) ∈ R3 : x ∈ R} y W2 = {(0, y, 0) ∈ R3 : y ∈ R}

son subespacios vectoriales, se tiene que:

B1 = {(1, 0, 0)} y B2 = {(0, 1, 0)}

son bases de W1 y W2 , respectivamente. Entonces:

W1 + W2 = span( B1 ∪ B2 )
= span({(1, 0, 0), (0, 1, 0)})
= {( x, y, z) ∈ R3 : ( x, y, z) = α1 (1, 0, 0) + α2 (0, 1, 0), α1 , α2 ∈ R}
= {( x, y, z) ∈ R3 : ( x, y, z) = (α1 , α2 , 0), α1 , α2 ∈ R}
= {( x, y, z) ∈ R3 : α1 = x, α2 = y, z = 0, α1 , α2 ∈ R}
= {( x, y, z) ∈ R3 : z = 0}
= {( x, y, 0) ∈ R3 : x, y ∈ R}

Ejercicio 5.4.11. Considere el espacio vectorial R2×2 y los subespacios vectoriales:


( ! )
a b
S= : a + 2c = 0
c d
( ! )
a b
T= : d−a = 0
c d
Halle S + T y su dimensión.
Ejemplo 5.4.12. En el espacio vectorial R3 considere los subespacios vectoriales:

W1 = {( x, y, z) ∈ R3 : x + y + z = 0} y W2 = {( x, y, z) ∈ R3 : x = z = 0}.

Se tiene que:

W1 = {( x, y, − x − y) : x, y ∈ R}
= { x (1, 0, −1) + y(0, 1, −1) : x, y ∈ R}
= ⟨{(1, 0, −1), (0, 1, −1)}⟩
| {z }
:= B1

con B1 un conjunto linealmente independiente, es decir, B1 = {(1, 0, −1), (0, 1, −1)} es una base de W1 .
86 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

Además,

W2 = {(0, y, 0) : y ∈ R}
= {y(0, 1, 0) : y ∈ R}
= ⟨{(0, 1, 0)}⟩
| {z }
:= B2

con B2 un conjunto linealmente independiente, es decir, B2 = {(0, 1, 0)} es una base de W2 . Por tanto:

W1 + W2 = span( B1 ∪ B2 )
= {( x, y, z) ∈ R3 : ( x, y, z) = λ1 (1, 0, −1) + λ2 (0, 1, −1) + λ3 (0, 1, 0)}
= {( x, y, z) ∈ R3 : (λ1 , λ2 + λ3 , −λ1 − λ2 ) = ( x, y, z)}
= R3

además,

W1 ∩ W2 = {( x, y, z) ∈ R3 : x + y + z = 0, x = z = 0}
= {( x, y, z) ∈ R3 : x = y = z = 0}
= (0, 0, 0)

de lo anterior se concluye:
R3 = W1 ⊕ W2 .

Ejercicio 5.4.13. En el espacio vectorial R2×2 considere los subespacios vectoriales:


n o
W1 = A ∈ R2 × 2 : A = A T
n o
W2 = A ∈ R2×2 : A = − A T

Verifique que: R2×2 = W1 ⊕ W2 .

Teorema 5.4.14 (Todo subespacio de V es parte de una suma directa que es igual a V).
Suponga que V es un espacio vectorial de dimensión finita y U es un subespacio de V.
Entonces existe un subespacio W de V tal que V = U ⊕ W.

Idea de demostración. Dado que V es de dimensión finita, lo es también U por el Teorema 5.2.15.
Por lo tanto, U tiene una base B = {u1 , . . . , um }. Extendemos esta base a una base de V, es decir,
existe una base B′ = {u1 , . . . , um , w1 , . . . , wn } de V. Definimos W = gen{w1 , . . . , wn } y probamos
que V = U ⊕ W.

Ejemplo 5.4.15. Suponga

U = {( x, y, x + y, x − y, 2x ) ∈ R5 : x, y ∈ R}.

Encuentre un subespacio W de R5 tal que R5 = U ⊕ W.


5.5. DIMENSIÓN 87

Solución. Notemos que

( x, y, x + y, x − y, 2x ) = x (1, 0, 1, −1, 2) + y(0, 1, 1, −1, 0).

Se puede probar que la lista (1, 0, 1, −1, 2), (0, 1, 1, −1, 0) es linealmente independiente, por lo tan-
to, es una base de U. Extendemos esta base a una base de R5 , para esto, notemos que la lista
(1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1) es una base de R5 . Por lo tanto, se
debe trabajar sobre la lista

(1, 0, 1, −1, 2), (0, 1, 1, −1, 0), (1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)

para obtener 5 vectores linealmente independientes.

5.5. Dimensión
Hemos definido espacios de dimensión finita como aquellos que pueden ser generados por
una lista de elementos de dicho espacio vectorial, sin embargo, no le hemos asignado un valor
numérico a esta dimensión. En esta sección, definiremos la dimensión de un espacio vectorial y
veremos algunas de sus propiedades.
Nos gustaría, por ejemplo, decir que la dimensión de Rn es n, esto tiene relación con el tamaño
de la lista
(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, . . . , 0, 1).

que es una base de Rn . Sin embargo, es importante notar que un espacio vectorial puede tener
más de una base. El siguiente resultado garantiza que todas las bases de un espacio vectorial de
dimensión finita son del mismo tamaño.

Observación. Para una lista B denotaremos por | B| al número de elementos de B.

Teorema 5.5.1 (Teorema de la dimensión). Si V es un espacio vectorial de dimensión finita,


entonces todas las bases de V tienen el mismo número de elementos.

Demostración. Sea V un espacio vectorial de dimensión finita. Y sean B1 y B2 dos bases de V.


entonces B1 es linealmente independiente y B2 genera V, entonces por el Teorema 5.2.10 se tiene
que | B1 | ≤ | B2 |. Invirtiendo los roles, B2 es linealmente independiente y B1 genera V, entonces por
el Teorema 5.2.10 se tiene que | B2 | ≤ | B1 |. Por lo tanto, | B1 | = | B2 |.

Ahora, podemos definir el concepto de dimensión, dado que éste no dependerá de la base que
se elija para el espacio vectorial.

Definición 5.5.2 (Dimensión de un espacio vectorial). La dimensión de un espacio vectorial


V de dimensión finita es el número de elementos de alguna base de V. La dimensión de V
se nota por dim(V ).

Ejemplo 5.5.3.

1. dim(Rn ) = n.
88 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

2. dim(Pm (R)) = m + 1.

3. dim(Rm×n ) = mn.

Por el Teorema 5.2.15, si U es un subespacio de V de dimensión finita, entonces U es de di-


mensión finita. El siguiente siguiente teorema garantiza que dim(U ) ≤ dim(V ).

Teorema 5.5.4 (Dimensión de un subespacio). Si V es de dimensión finita y U es subespacio


de V, entonces la dimensión de U es menor o igual a la dimensión de V, es decir, dim(U ) ≤
dim(V ).

Demostración. Supongamos V de dimensión finita y U subespacio de V. Si B1 es una base de U,


entonces B1 es linealmente independiente en V y por lo tanto, si B2 es una base de V, vista como
una lista generado de V, por el Teorema 5.2.10, | B1 | ≤ | B2 |. Por lo tanto, dim(U ) ≤ dim(V ).

Si se conoce con anterioridad la dimensión de un espacio vectorial, entonces para garantizar


que una lista sea una base bastará verificar solo una de las dos propiedades requerida, o solo
independencia lineal o solo que la lista genera el espacio. Esto se demuestra en los siguientes
resultados.

Teorema 5.5.5 (Lista l.i. de tamaño dim(V ) es base). Sea V un espacio vectorial de dimen-
sión finita. Toda lista linealmente independiente de vectores en V con tamaño dim(V ) es
una base de V.

Demostración. Sea dim V = n y sea v1 , . . . , vn una lista linealmente independiente en V. Luego, la


lista puede extenderse a una base por el Teorema 5.3.6. Pero, todas las bases de V tienen tamaño
n, por lo tanto, no puede agregarse ningún elemento y la lista resultante es una base de V.

Teorema 5.5.6 (Lista generadora de tamaño dim(V ) es base). Sea V un espacio vectorial de
dimensión finita. Toda lista generadora de vectores en V con tamaño dim(V ) es una base
de V.

Demostración. Supongamos que dim V = n y que v1 , . . . , vn genera V. Luego, la lista puede redu-
cirse a una base de V por el Teorema 5.3.5. Pero, todas las bases de V tienen tamaño n, por lo tanto,
no puede eliminarse ningún elemento y la lista resultante es una base de V.

Teorema 5.5.7 (Dimensión de la suma). Si U1 y U2 son subespacios de V de dimensión finita,


entonces
dim(U1 + U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ).

Ejemplo 5.5.8. Considere los subespacios vectoriales:

W1 = {( x, 0, 0) ∈ R3 : x ∈ R} y W2 = {(0, y, 0) ∈ R3 : y ∈ R}.

Se tiene que dim(R3 ) = 3 y que dim(W1 ) = dim(W2 ) = 1 con dim(W1 + W2 ) = 2, por el teorema
anterior, concluimos que dim(W1 ∩ W2 ) = 0, lo que implica que W1 ∩ W2 = {0R3 }.
5.6. EJERCICIOS 89

5.6. Ejercicios
1. ¿Para qué valores de c son linealmente independientes en R3 los vectores (−1, 0, −1), (2, 1, 2)
y (1, 1, c)?
! !
8 2 2 3
2. ¿Se puede escribir A0 = como combinación lineal de A1 = y A2 =
−9 5 5 −5
!
−4 −5
?
8 10

3. De las siguientes listas en R3 , determine cuáles generan todo el espacio vectorial R3 .

a) S1 = {(8, −3, 4), (0, 3, 0)}


b) S2 = {(1, −1, 1), (−1, −1, 1), (0, 1, 1)}
c) S3 = {(2, 3, 7), (−1, 5, −2), (1, 8, 5), (2, −10,4)}

4. Determine los valores de β ∈ R para que el siguiente conjunto sea linealmente dependiente
( ! ! ! !)
β −1 0 β β 0 1 1
W= , , , .
0 2 β+2 0 1 0 1 β

5. En el espacio vectorial (R2 , +, ·, R). Considere el conjunto S = {(1, 1), (−1, 0), (1, 2)}.

a) ¿S es linealmente dependiente?
b) A partir de S, obtenga una lista linealmente independiente.

6. Sea {v1 , v2 } un conjunto linealmente independiente en un espacio vectorial (V, +, ·, R). En-
cuentre todos los valores de α ∈ R tales que el conjunto {αv1 + v2 , v1 + αv2 } sea linealmente
independiente.

7. Sean v1 , v2 y v3 vectores en un espacio vectorial tales que {v1 , v2 } es una lista linealmente
independiente. Muestre que si v3 no pertenece a gen{v1 , v2 }, entonces {v1 , v2 , v3 } es lineal-
mente independiente.

8. Suponga que v1 , v2 , v3 y v4 generan V. Pruebe que la lista

v1 − v2 , v2 − v3 , v3 − v4 , v4

también genera V.

9. Pruebe que los polinomios 1, ( x − 5)2 y ( x − 5)3 son linealmente independientes.

10. Sean a, b ∈ R. En el espacio vectorial P2 (R), considere el conjunto S:

S = {7 + (4b − 6) x + (b + 4) x2 , −5 + ( a + 8) x, −2}.

Determinar los valores de a, b ∈ R, tal que

a) S sea linealmente independiente


90 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

b) S sea linealmente dependiente

11. Sean a, b ∈ R. En el espacio vectorial P2 (R), considere el conjunto S:

S = {−2 + (−7b + 3) x + (b − 7) x2 , 6 + ( a + 5) x, 3}.

Determinar los valores de a, b ∈ R, tal que

a) S sea linealmente independiente


b) S sea linealmente dependiente

12. En el espacio vectorial R2×2 , considere el conjunto S:


( ! ! !)
1 1 1 −1 0 2
S= , ,
0 0 1 0 −1 0

a) Si W =gen(S), encuentre W de forma explícita


b) S es un conjunto linealmente independiente?
c) A partir de S, hallar B tal que W =gen(B)

13. En el espacio vectorial R2×2 , considere el conjunto S:


( ! ! !)
1 1 1 −1 1 −3
S= , ,
0 0 0 1 0 2

a) Si W =gen(S), encuentre W de forma explícita


b) S es un conjunto linealmente independiente?
c) A partir de S, hallar B tal que W =gen(B)

14. Demuestre o de un contraejemplo de la siguiente afirmación: Si v1 , v2 , v3 son vectores lineal-


mente independientes en un espacio vectorial V, entonces 5v1 − 4v2 , v2 , v3 son linealmente
independientes.

15. En el espacio vectorial P2 (R), considere el conjunto T

T = a + bt + ct2 + dt3 : a − b − c = 0, a + 2b + d = 0, 3b + c + d = 0


a) Encontrar S, tal que T =gen(S).


b) Hallar una base de T.

16. Dado el subespacio vectorial

W = A ∈ R2×2 : AX = 0 .


!
1 −1
del espacio vectorial R2×2 . Donde, X =
−1 1

a) Hallar una base B, de W.


5.6. EJERCICIOS 91

b) Completar una base B1 para el subespacio de las matrices simétricas de orden 2 a partir
de la base B.

17. Demuestre que los siguientes conjuntos son base de P2 (R)

a) B1 = {t2 − 3, t − 2, t + 1};
b) B2 = { p(t), p′ (t), p′′ (t)}, donde p(t) = t2 + 2t − 5.

18. Considere
W = ( x, y, z) ∈ R3 : − x − y + 2z = 0


(a) Hallar a ∈ R, tal que u ∈ W,

u = (2, 2a, 4)

(b) Es W subespacio vectorial del espacio vectorial (R3 , +, ·, R). Justifique su respuesta
(c) Calcular dos bases diferentes para el subespacio vectorial W

19. Sea W = { p( x ) ∈ P4 (R) : p′′ (−1) = 0}

a) Calcule una base para W


b) Usando la base del literal anterior, obtenga una base para P4 (R)

20. Demuestre o de un contraejemplo de la siguiente afirmación: Existe una base { p0 , p1 , p2 , p3 }


P3 (F) tal que ninguno de los polinomios p0 , p1 , p2 , p3 tienen grado 2.

21. Sea W = { p(t) ∈ P4 (R) : p′ (0) + p(0) = 0, p′′′ (0) − p′′ (0) = 0}

a) Calcule una base para W


b) Usando la base del literal anterior, obtenga una base para P4 (R)

22. Sea W = { A = ( aij ) ∈ R2×2 : a12 − a21 = 0, a11 + a22 = 0}

a) Calcule una base para W


b) Usando la base del literal anterior, obtenga una base para R2×2

23. Explique por qué una lista de cuatro polinomios no puede generar P4 (R).
92 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
Capítulo 6

Transformaciones Lineales

Una vez definido el concepto de espacios vectoriales y, en particular, espacios vectoriales de


dimensión finita. Nos enfocaremos en funciones definidas sobre estos espacios, las mismas que
denominaremos transformaciones. Estudiaremos, especialmente, aquellas que preservan las ope-
raciones elementales de los espacios vectoriales, es decir, la suma y el producto por escalar.

6.1. Definición de Transformación lineal

Definición 6.1.1 (Transformación lineal). Sean (V, ⊕V , ⊙V , F) y (W, ⊕W , ⊙W , F) espacios


vectoriales. Una transformación lineal (o aplicación lineal) es una función T : V → W que
verifica las siguientes propiedades

1. Aditividad: T (u ⊕V v) = T (u) ⊕W T (v), para todo u, v ∈ V,

2. Homogeneidad: T (α ⊙V v) = α ⊙W T (v), para todo α ∈ F, y para todo u ∈ V.

Observación. De aquí en adelante, con el objetivo de simplificar la notación consideramos (V, +, ·, F) y


(W, +, ·, F), sin embargo, es importante notar que las operaciones de suma y producto por escalar pueden
no ser las mismas en los espacios vectoriales. Bajo esta simplificación, una transformación se dice lineal si

1. T (u + v) = T (u) + T (v) y

2. T (αv) = αT (v),

para α ∈ F y u, v ∈ V. Además, probar dichas propiedades será equivalente a demostrar que

T (αu + v) = αT (u) + T (v).

Definición 6.1.2. Al conjunto de todas las transformaciones lineales que van de un espacio
vectorial V en otro espacio vectorial W, lo denotamos por L(V, W ).

Ejemplo 6.1.3. Las siguientes funciones, son ejemplos de transformaciones lineales.

1. Transformación nula
T : V −→ V
v 7−→ T (v) = 0V

93
94 CAPÍTULO 6. TRANSFORMACIONES LINEALES

se suele notar a esta transformación por 0, tal que 0(v) = 0V , para todo v ∈ V.

2. Transformación identidad
T : V −→ V
v 7−→ T (v) = v

se suele notar a esta transformación por I, tal que I (v) = v para todo v ∈ V.

3. Transformación derivada
D : P (R) −→ P (R)
f 7−→ Dp = p′

es decir, Dp( x ) = p′ ( x ), para todo x ∈ R.

4. Transformación integral
T : C([0, 1]) −→ R
ˆ 1
f 7−→ T ( f ) = f ( x ) dx
0

5. Tranformación producto por x2


T : P (R) −→ P (R)
p 7−→ T p

donde, T p( x ) = x2 p( x ), para todo x ∈ R.

6. Transformación de traslación hacia atrás

T: F∞ −→ F∞
( x1 , x2 , x3 . . .) 7−→ T (( x1 , x2 , x3 . . . , )) = ( x2 , x3 . . .)

7.
T: R3 −→ R2
( x, y, z) 7−→ T ( x, y, z) = ( x − 2z, y − z)

8.
T : R2 −→ R3
( x, y) 7−→ T ( x, y) = ( x − y, 2y, x + y)

9.
T : R2 −→ R2×2 !
x + 2y 2x
( x, y) 7−→ T ( x, y) =
0 x−y

10.
T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2

Ejemplo 6.1.4. Considere la transformación lineal

T: R3 −→ R2
( x, y, z) 7−→ ( x − 2z, y − z)
6.1. TRANSFORMACIÓN LINEAL 95

se tiene que
T (0, 0, 0) = (0, 0) y T (−1, 2, 3) = (−7, −1).

Ejercicio 6.1.5. Dada la transformación lineal

T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2

Hallar T (0, 0, 0), T (1, −2, 3) y T (0, −6, 1).

Ejemplo 6.1.6. Demostremos que la transformación definida en el Ejemplo 6.1.3 literal 1, es lineal.

Solución. Sean u, v ∈ V, de la definición de T, se sigue que:

T ( u + v ) = 0V
= 0V + 0V , propiedad del elemento neutro
= T ( u ) + T ( v ).

Sea u ∈ V y α ∈ F, de la definición de T, se sigue que:

T (αu) = 0V
= α · 0V , propiedad: α · 0V = 0V
= αT (u).

Por lo tanto, se tiene que T es una transformación lineal.

Ejemplo 6.1.7. Demostremos que la función definida en el Ejercicio 6.1.5 es una transformación lineal.

T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2

Solución. Para todo u, v ∈ R3 , vamos a demostrar que T (u + v) = T (u) + T (v).


Sean u = ( a, b, c), v = (d, e, f ) ∈ R3 , tenemos

T (u) = a + ( a − b)t + ct2


T ( v ) = d + ( d − e ) t + f t2

luego
T (u) + T (v) = [ a + ( a − b)t + ct2 ] + [d + (d − e)t + f t2 ].

Por otra parte, u + v = ( a + d, b + e, c + f ), se sigue que

T (u + v) = ( a + d) + [( a + d) − (b + e)]t + (c + f )t2
= [ a + ( a − b)t + ct2 ] + [d + (d − e)t + f t2 ].

Por lo tanto,
T ( u + v ) = T ( u ) + T ( v ).
96 CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ahora, sean α ∈ R y u = ( a, b, c) ∈ R3 . Tenemos que αu = (αa, αb, αc), luego

T (αu) = αa + (αa − αb)t + αct2


= α( a + ( a − b)t + ct2 ).

Por otra parte


αT (u) = α( a + ( a − b)t + ct2 )

y, por lo tanto
T (αu) = αT (u)

Así, T es una transformación lineal.

Ejercicio 6.1.8. Demuestre que la siguiente función es una transformación lineal:

T: R3 −→ R2
( x, y, z) 7−→ ( x − 2z, y − z)

El siguiente teorema destaca algunas implicaciones que siempre son ciertas para funciones
lineales y que son utilizadas recurrentemente.

Teorema 6.1.9. Sea T ∈ L(V, W ). Para todo u, v, v1 , v2 , . . . , vn ∈ V y α1 , α2 , . . . , αn ∈ F, se


tiene que:

1. T (0V ) = 0W .

2. T (u − v) = T (u) − T (v).
!
n n
3. T ∑ αk vk = ∑ α k T ( v k ).
k =1 k =1

Demostración. Para la primera propiedad, realicemos la siguiente cadena de igualdades:

T ( 0V ) = T ( 0V + 0V ) = T ( 0V ) + T ( 0V ) ,

donde, la segunda igualdad se tiene de la propiedad de aditividad de T, por ser lineal. Ahora,
podemos sumar el inverso aditivio de T (0v ) en la ecuación anterior, de modo que

T (0V ) + (− T (0V )) = 0W = T (0V ),

como se desea demostrar.


La segunda propiedad, es directa al considerar que u − v = u + (−1)v. La tercera propiedad
resulta de aplicar reiterativamente las propiedades de aditividad y homogeneidad de T.
6.2. PROPIEDADES DE LAS TRANSFORMACIONES LINEALES 97

Definición 6.1.10 (Adición y multiplicación por un escalar en L(V, W )). Suponga que S, T ∈
L(V, W ) y λ ∈ F. La suma S + T y el producto por un escalar λT son transformaciones
lineales de V en W definidas por

(S + T )(v) = S(v) + T (v)


(λT )(v) = λ( T (v))

para todo v ∈ V.

Notemos que gracias a la definición anterior, L(V, W ) podría ser un espacio vectorial con di-
chas operaciones. En efecto, esto es cierto, como lo garantiza el siguiente teorema.

Teorema 6.1.11. (L(V, W ), +, ·, F) es un espacio vectorial. Siendo + la suma usual entre


funciones y · la multiplicación de un elemento del campo por una función.

Demostración. Se propone la demostración como ejercicio para el lector.

6.2. Propiedades de las transformaciones lineales

Proposición 6.2.1. Sean v1 , v2 , . . . , vn una base del espacio vectorial V y w1 , w2 , . . . , wn una


lista en W, entonces existe una única transformación lineal T ∈ L(V, W ) tal que

T ( v i ) = wi

para todo i ∈ {1, 2, . . . , n}.

Observación. Una transformación lineal está determinada cuando se conocen las imágenes de los vectores
de una base del espacio vectorial de salida. Para encontrar la transformación lineal de manera explícita, se
debe hallar la imagen de un elemento genérico del espacio vectorial de salida.

Pasos para obtener una transformación lineal de forma explícita: Si v1 , . . . , vn es un lista en V y se


busca una transformación T ∈ L(V, W ) tal que T (v1 ) = w1 , . . . , T (vn ) = wn . Entonces,

1. Comprobar que los vectores v1 , . . . , vn forman una base del espacio vectorial de salida V. Se deben
conocer las imágenes de dichos vectores.

2. Escribir la ecuación generadora. Es decir, expresar el vector genérico del espacio vectorial de salida
como combinación lineal de los vectores de su base, esto es, dado que v ∈ V se escribe de manera única
como combinación de elementos de la base, existen a1 , . . . , an ∈ F tales que

v = a1 v1 + . . . + a n v n

3. Obtener y resolver el sistema de ecuaciones lineales, es decir, determinar a1 , . . . , an .


98 CAPÍTULO 6. TRANSFORMACIONES LINEALES

4. Aplicar la transformación lineal en la ecuación generadora, esto es

T ( v ) = T ( a1 v1 + . . . + a n v n ) = a1 T ( v1 ) + . . . + a n T ( v n ).

5. Dado que se conocen los valores de T en la base, se tiene que

T ( v ) = a 1 w1 + . . . + a n w n .

Ejemplo 6.2.2. Determinar la transformación T ∈ L(R2 , R3 ), tal que T (1, −1) = (0, 2, 0) y T (−3, 2) =
(−3, 2, 0), donde B = {(1, −1), (−3, 2)} es una base de R2 .

Solución. Dado que B es una base del espacio vectorial de salida R2 y se conocen las imágenes de
los vectores de la base, entonces T está determinada de manera única por el Teorema anterior.
Sean ( x, y) ∈ R2 y α1 , α2 ∈ R. Como B es una base de R2 , existen α1 , α2 ∈ R tales que

( x, y) = α1 (1, −1) + α2 (−3, 2)


= (α1 − 3α2 , −α1 + 2α2 ).

Al igualar ambos vectores, se obtiene el siguiente sistema de ecuaciones lineales, con incógnitas
α1 y α2 :

α1 − 3α2 = x
−α1 + 2α2 = y.

La matriz ampliada de este sistema es:


! !
1 −3 | x 1 −3 | x
( A|b) = ∼ , F2 → F1 + F2 .
−1 2 | y 0 −1 | x + y

Como rang( A|b) = rang( A) = 2 es igual número de incógnitas, por el Teorema de Rouché-
Frobenius, el sistema tiene solución única dada por α2 = −( x + y) y α1 = x + 3α2 = x − 3( x + y) =
−2x − 3y.
De donde

( x, y) = α1 (1, −1) + α2 (−3, 2)


= (−2x − 3y)(1, −1) − ( x + y)(−3, 2). (6.1)

Al aplicar la transformación T a la ecuación (6.1) y de la definición de transformación lineal, se


sigue que

T ( x, y) = (−2x − 3y) T (1, −1) − ( x + y) T (−3, 2)


= (−2x − 3y)(0, 2, 0) − ( x + y)(−3, 2, 0)
= (0, −4x − 6y, 0) + (3x + 3y, −2x − 2y, 0)
= (3x + 3y, −6x − 8y, 0)
6.3. NÚCLEO E IMAGEN 99

para todo ( x, y) ∈ R2 . La transformación lineal de manera explícta está dada por

T ( x, y) = (3x + 3y, −6x − 8y, 0), para todo ( x, y) ∈ R2 .

Ejercicio 6.2.3. Determine de manera explícita T ∈ L(R2×2 , R3 ) tal que


! !
1 0 0 1
T = (1, 0, 0), T = (1, 0, 0),
0 0 0 0
! !
0 0 0 0
T = (0, 0, 0), T = (1, −1, 1).
1 0 0 1

Ejercicio 6.2.4. Determine de manera explícita f ∈ L(R3 , P2 (R)) tal que:

f (1, 0, 0) = −t + t2 , f (1, 1, 0) = 1 − 3t2 , f (1, 1, 1) = −t2 .

6.3. Núcleo e imagen

Definición 6.3.1 (Núcleo e imagen de una transformación lineal). Sea T ∈ L(V, W ).

1. El núcleo de T, denotado por N ( T ), está definida por:

N ( T ) = {v ∈ V : T (v) = 0W }.

Suele usarse la notación ker( T ) para definir al núcleo de T, o también conocido como
espacio nulo T.

2. La imagen de T, denotada por img( T ), está definida por:

img( T ) = {w ∈ W : w = T (v) para algún v ∈ V }.

Proposición 6.3.2. Sea T ∈ L(V, W ), entonces

1. N ( T ) es un subespacio vectorial del espacio vectorial V.

2. img( T ) es un subespacio vectorial del espacio vectorial W.

Demostración. Suponga que T ∈ L(V, W ), por aditividad, tenemos que

T (0) = T (0 + 0) = T (0) + T (0),

lo que implica que T (0) = 0, así 0 ∈ N ( T ).


Si u, v ∈ N ( T ) entonces

T (u + v) = T (u) + T (v) = 0 + 0 = 0,

lo que implica que u + v ∈ N ( T ), es decir, que se verifica la clausura de la suma.


100 CAPÍTULO 6. TRANSFORMACIONES LINEALES

Si u ∈ N ( T ) y λ ∈ F entonces

T (λu) = λT (u) = λ0 = 0,

lo que implica que λu ∈ N ( T ), es decir, que se verifica la clausura del producto por un escalar.
Se demostró que 0 ∈ N ( T ), la clausura de la suma y producto por un escalar , así N ( T ) es un
subespacio vectorial de V.

Se plantea como ejercicio para el lector probar que img( T ) es un subespacio vectorial del es-
pacio vectorial W.

Ejemplo 6.3.3. Para algunas de las transformaciones definidas en el Ejemplo 6.1.3, se puede verificar que
sus respectivos núcleos e imágenes están dados por:

Transformación nula 0 : V → W:

N (T ) = V
img( T ) = {0W }.

Transformación derivada:

N ( D ) = { p ∈ P (R) : p( x ) = c, c ∈ R}
img( T ) = P (R).

Notemos que el núcleo de D son todos los polinomios constantes, pues al derivarlos obtenemos el
polinomio cero.

Transformación producto por x2 :

N ( D ) = {0}
img( T ) = P (R).

Notemos que el único polinomio que satisface la condición x2 p( x ) = 0, para todo x ∈ R, es el


polinomio cero.

Transformación translación hacia atrás:

N ( T ) = {( a, 0, 0 . . .) ∈ F∞ : a ∈ F}
img( T ) = F∞

Notemos que T ( x1 , x2 , . . .) es la sucesión de ceros si y solo si x2 , x3 , . . . son cero.

Ejemplo 6.3.4. Sea T ∈ L(R3 , R2 ) definida por T ( x, y, z) = ( x − 2z, y − z) para todo ( x, y, z) ∈ R3 ,


entonces

N ( T ) = ( x, y, z) ∈ R3 : T ( x, y, z) = (0, 0)


= ( x, y, z) ∈ R3 : ( x − 2z, y − z) = (0, 0)


= ( x, y, z) ∈ R3 : x = 2z, y = z

6.3. NÚCLEO E IMAGEN 101

= (2z, z, z) ∈ R3 : z ∈ R .


Por otra parte, el conjunto imagen está dado por:

img( T ) = (u, v) ∈ R2 : T ( x, y, z) = (u, v), para algún ( x, y, z) ∈ R3




= (u, v) ∈ R2 : ( x − 2z, y − z) = (u, v), con x, y, z ∈ R




= (u, v) ∈ R2 : x − 2z = u, y − z = v, con x, y, z ∈ R .


Ahora, sea (u, v) ∈ R2 , tenemos que (u, v) ∈ img( T ) si y solo si se verifica el sistema ecuaciones lineales
en las incógnitas x, y y z: (
x − 2z = u
y − z = v.
con x, y, z ∈ R, cuya matriz ampliada es
!
1 0 −2 u
.
0 1 −1 v

Como rang( A|b) = rang( A) = 2, por el Teorema de Rouché-Frobenius, el sistema es consistente para todo
u y v ∈ R. Por lo tanto:
img( T ) = R2 .

Ejercicio 6.3.5. Considere la transformación lineal T ∈ L(R2×2 , R2 ) definida por


!
a b
T = ( a + b, −d)
c d
!
a b
para todo ∈ R2×2 . Determine los conjuntos N ( T ) e img( T ).
c d

Proposición 6.3.6. Sea T ∈ L(V, W ).

1. T es inyectiva si y solo si N ( T ) = {0V }.

2. T es sobreyectiva si y solo si img( T ) = W.

3. T es una transformación lineal biyectiva si y solo si es inyectiva y sobreyectiva.

Observación. Dado que la img( T ) ⊆ W, si dim(img( T )) = dim(W ), entonces img( T ) = W, por lo


tanto T es sobreyectiva.

Ejemplo 6.3.7. Para la transformación lineal

T: R3 −→ R2
( x, y, z) 7−→ ( x − 2z, y − z)

se tiene que N ( T ) = (2z, z, z) ∈ R3 : z ∈ R



̸= {0R3 }. Por lo tanto, T no es inyectiva. Además,
img( T ) = R2 , luego, T es sobreyectiva.
102 CAPÍTULO 6. TRANSFORMACIONES LINEALES

Ejercicio 6.3.8. Dada la transformación lineal

T : R2 −→ R3
( x, y) 7−→ ( x − y, 2x, x + y)

Indique si la transformación lineal es:


a) Inyectiva.

b) Sobreyectiva.

Teorema 6.3.9 (Teorema fundamental de las aplicaciones lineales). Si T ∈ L(V, W ) y la


dimensión del espacio vectorial V es finita, entonces img( T ) es de dimensión finita y

dim(V ) = dim(N ( T )) + dim(img( T )).

Ejemplo 6.3.10. Considerando la transformación lineal del Ejemplo 6.3.7, se tiene que dim(N ( T )) = 1
y que dim(img( T )) = 2, a partir de lo cual se verifica que

dim(R3 ) = dim(N ( T )) + dim(img( T )).

Proposición 6.3.11. Sean T ∈ L(V, W ) y V un espacio vectorial de dimensión finita. Si


dim(V ) = dim(W ), entonces los siguientes enunciados son equivalentes

T es inyectiva,

T es sobreyectiva.

Teorema 6.3.12. Sean T ∈ L(V, W ), dim(V ) = n y dim(W ) = m. Si:

1. n > m, entonces T no es inyectiva.

2. m > n, entonces T no es sobreyectiva.

Ejemplo 6.3.13. La aplicación


T: R3 −→ R2
( x, y, z) 7−→ ( x, y)

no es inyectiva, pues dim(R3 ) > dim(R2 ).


Ejemplo 6.3.14. La aplicación
T : R2 −→ R2×2 !
x 0
( x, y) 7−→
0 y

no es sobreyectiva, pues dim(R2×2 ) > dim(R2 ).

6.4. Ejercicios
1. En cada literal determine si T es transformación lineal
6.4. EJERCICIOS 103

a)
T: R4 −→ R2
( x, y, z, w) 7−→ T ( x, y, z, w) = ( xy, zw)

b)
T : R2 −→ R2×2 !
x + 2y 2x
( x, y) 7−→
0 x−y

c)
T: R3 −→ R2
( x, y, z) 7−→ T ( x, y, z) = ( x2 + y, y − z)

2. Sea la aplicación lineal T : R2 → R3 , tal que:

T (2, −1) = (−1, 0, 3) y T (1, 2) = (0, 2, −2)

Sin hallar la aplicación lineal, calcular:

a) T (4, −2)
b) T (−3, −6)
c) T (3, 1)
d) T (0, 0)

3. Considere
T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2

a) Determine si T es transformación lineal.


b) Hallar el núcleo de T.
c) Hallar la imagen de T.
d) ¿La aplicación T es inyectiva, sobreyectiva? Justifique su respuesta.

4. En (R3 , +, ·, R), considere al conjunto:

S = {(1, 0, 0), (1, 1, 0), (1, 1, 1)}

a) ¿S es una base de R3 ?
b) Determine la aplicación lineal f : R3 → R3 tal que:

f (1, 0, 0) = (1, 0, 0), f (1, 1, 0) = (0, 1, 0) y f (1, 1, 1) = (0, 0, 1).

c) Hallar la imagen de f .
d) Determine a la dimensión del núcleo de f .
e) ¿La aplicación T es inyectiva, sobreyectiva? Justifique su respuesta
104 CAPÍTULO 6. TRANSFORMACIONES LINEALES

5. Sean V = P2 (R) y W = R3 ,

T (1 + x ) = (1, 1, 1), T (1 − x ) = (−1, 1, 0), T (1 + x2 ) = (0, 2, −1)

a) ¿Existe una o varias transformaciones T : V → W? Justifique su respuesta.

b) Hallar la transformación T de forma explícita.

6. Sea T : V → F una transformación lineal. Demostrar que si u ∈ V ∖ N ( T ), entonces

V = N ( T ) ⊕ {λu : λ ∈ F}.

7. Demostrar que si T ∈ L( E, F ) es inyectiva y {v1 , v2 , . . . , vn } es linealmente independiente en


E, entonces
{ T (v1 ), T (v2 ), . . . , T (vn )}

es linealmente independientes en F.

8. Demostrar que si T ∈ L( E, F ) es sobreyectiva y {v1 , v2 , . . . , vn } genera a E, entonces

{ T (v1 ), T (v2 ), . . . , T (vn )}

genera a F.

9. Pruebe que no existe una transformación lineal de F5 en F2 tenga como núcleo el conjunto

{( x1 , x2 , x3 , x4 , x5 ) ∈ F5 : x1 = 3x2 , x3 = x4 , x3 = x5 }

10. Dada la a aplicación lineal T, tal que

T: R3 −→ R2×2 !
x+y−z x−y+z
( x, y, z) 7−→ T ( x, y, z) =
0 3x + y − z

a) Hallar el núcleo de T

b) Hallar la imagen de T

c) Verifique el teorema fundamental de Álgebra.

d) La aplicación T es inyectiva, sobreyectiva ? Justifique su respuesta.


6.5. COMPOSICIÓN DE TRANSFORMACIONES LINEALES 105

6.5. Composición de transformaciones lineales

Definición 6.5.1 (Composición de transformaciones lineales). Sean T ∈ L(U, V ) y S ∈


L(V, W ). La composición de S y T, denotada por S ◦ T, o simplemente, ST es la trans-
formación lineal de U en W definida por

(S ◦ T )(v) = S( T (v))

para todo v ∈ U. Notemos que la composición solo tiene sentido cuando img T ⊆ dom S.

En el contexto de transformaciones lineales, suele ser común el uso de la notación ST en lugar


de S ◦ T, y llamar a la composición como producto de aplicaciones lineales.

Proposición 6.5.2 (Propiedades de la composición).

Asociatividad: Sean T ∈ L(U, V ), S ∈ L(V, W ) y R ∈ L(W, Z ), entonces

R(ST ) = ( RS) T.

Elemento neutro: Si T ∈ L(V, W ), entonces

IW T = TIV = T.

Distributividad: Sean T, T1 , T2 ∈ L(U, V ), S, S1 , S2 ∈ L(V, W ), entonces

(S1 + S2 ) T = S1 T + S2 T, S( T1 + T2 ) = ST1 + sT2 .

Observación. La composición de transformaciones lineales no es conmutativa, es decir, en general ST ̸=


TS.

Ejemplo 6.5.3 (La composición no es conmutativa). Suponga D ∈ L(P (R), P (R)) la transformación
derivada y T ∈ L(P (R), P (R)) la transformación producto por x2 . Mostrar que DT ̸= TD.

Solución. Para todo p ∈ P (R), se tiene que

( DT )( p)( x ) = D ( T ( p))( x ) = D ( x2 p( x )) = 2xp( x ) + x2 p′ ( x ),

mientras que
( TD )( p)( x ) = T ( D ( p( x ))) = T ( p′ ( x )) = x2 p′ ( x ).

Por lo tanto, DT ̸= TD.

6.6. Representación de una transformación lineal mediante matrices


De lo visto anteriormente, sabemos que si v1 , v2 , . . . , vn es una base de V y dados w1 , w2 , . . . , wm
en W, entonces existe una única transformación lineal T ∈ L(V, W ) tal que T (vi ) = wi para todo
i ∈ {1, 2, . . . , n}. De este modo, podremos representar toda transformación lineal mediante una
106 CAPÍTULO 6. TRANSFORMACIONES LINEALES

matriz A ∈ Rm×n , cuyas columnas son las coordenadas de T (v1 ), T (v2 ), . . . , T (vn ) en una base de
W.

Definición 6.6.1 (Matriz de una transformación lineal, M( T )). Sea T ∈ L(V, W ),


v1 , v2 , . . . , vn una base de V y w1 , w2 , . . . , wm una base de W. La matriz de T, respecto de
estas bases, es la matriz A = M( T ) ∈ Rm×n cuyas entradas aij están dadas por

T (v j ) = a1j w1 + a2j w2 + . . . + amj wm .

Si las bases de V y W no están claras en el contexto, entonces se denota por M( T, BV , BW )


o, también [ T ] BBW
V
.

Notemos que en base a la definición, la columna j-ésima de la matriz M( T ), corresponde a las


componentes o coordenadas de T (v j ) en la base BW ,

v1 · · · v j · · · v n
 
w1 a1j
w2 a2j
 
 
..  .. 
. .
 
 
wm amj

Ejemplo 6.6.2. Dada la aplicación lineal:

T: R3 −→ R2
( x, y, z) 7−→ ( x + y, y − z).

Sean B1 = {(1, 0, 1), (0, 1, 1), (1, 1, 1)} y B2 = {(1, 2), (−1, 1)} bases de los espacios vectoriales R3 y R2 ,
respectivamente. Vamos a calcular a [ T ] BB12 .

Solución. Las imágenes de los elementos de la base de salida son T (v j ), para j = 1, 2, 3 son:

T (1, 0, 1) = (1, −1), T (0, 1, 1) = (1, 0) y T (1, 1, 1) = (2, 0).

Ahora, a estas imágenes las expresamos como combinación lineal de los elementos de la base de
llegada, esto es
T (v j ) = a1j w1 + a2j w2 , j = 1, 2, 3,

es decir,

(1, −1) = a11 (1, 2) + a21 (−1, 1) = 0(1, 2) + (−1)(−1, 1),


 
1 2
(1, 0) = a12 (1, 2) + a22 (−1, 1) = (1, 2) + − (−1, 1) y
3 3
 
2 4
(2, 0) = a23 (1, 2) + a32 (−1, 1) = (1, 2) + − (−1, 1).
3 3
6.6. REPRESENTACIÓN DE UNA TRANSFORMACIÓN LINEAL MEDIANTE MATRICES 107

Por definición, la matriz asociada será de tamaño 2 × 3 y está dada por


!
a11 a12 a13
[ T ] BB12 = ,
a21 a22 a23

es decir, !
1 2
0
[ T ] BB12 = 3 3 .
−1 − 23 − 43

Ejemplo 6.6.3. Suponga que T ∈ L(F2 , F3 ) está definida por T ( x, y) = ( x − y, 2x, x + y), entonces la
matriz de T en las bases canónicas de F2 y F3 es

1 −1
M( T ) = 2 0  ,
 

1 1

pues, T (1, 0) = (1, 2, 1) y T (0, 1) = (−1, 0, 1).

Ejemplo 6.6.4. Sea D ∈ L(P3 (R), P2 (R)) la aplicación derivada, es decir, Dp = p′ , entonces la matriz
de D en las bases canónicas de P3 (R) y P2 (R) es

0 1 0 0
M( D ) = 0 0 2 0 ,
 

0 0 0 3

pues, D (1) = 0, D (t) = 1, D (t2 ) = 2t y D (t3 ) = 3t2 .

Ejercicio 6.6.5. Dada la aplicación lineal:

T: R4 −→ R2×2 !
x1 − x2 x2 − x1
( x1 , x2 , x3 , x4 ) 7−→ .
x3 − x4 x4 − x3

Sean
B1 = {(1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)}

y ( ! ! ! !)
1 0 1 1 1 1 1 1
B2 = , , ,
0 0 0 0 1 0 1 1

bases de los espacios vectoriales R4 y R2×2 , respectivamente. Determinar [ T ] BB12 .

Proposición 6.6.6. Supongamos que S, T ∈ L(V, W ) y λ ∈ F. Entonces,

1. M(S + T ) = M(S) + M( T ).

2. M(λT ) = λM( T ).
108 CAPÍTULO 6. TRANSFORMACIONES LINEALES

Proposición 6.6.7. Si T ∈ L(U, V ) y S ∈ L(V, W ) entonces

M(ST ) = M(S)M( T ).

Demostración. Supongamos que u1 , . . . , u p es base de U, v1 , . . . , vn es base de V y w1 , . . . , wm base


de W. Notemos que la composición de ST es una transformación de U en W. Para calcular la
matriz asociada a ST, denotemos por S = A y M( T ) = C y utilicemos la definición de matriz
asociada para cada uno de los elementos de la base de U, es decir, para 1 ≤ k ≤ p, tenemos
!
n
(ST )uk =S ∑ crk vr
r =1
n
= ∑ crk S(vr )
r =1
!
n m
= ∑ crk ∑ a jr w j
r =1 j =1
!
m n
=∑ ∑ a jr crk wj.
j =1 r =1

Notemos que el producto AC para la componente jk es, precisamente,

n
(fila j de A) · (columna k de C ) = ∑ a jr crk ,
r =1

que corresponden a los coeficientes de la matriz asociada a ST.

Observación. La proposición anterior da sentido a la definición que se utiliza para la multiplicación de


matrices, que, en principio, no suele justificarse en los cursos de Álgebra Lineal.

6.7. Ejercicios

1. Sea:
f : R2 −→ R3
( x, y) 7−→ ( x − 2y, 2x + y, x + y).

una aplicación lineal de R2 en R3 . Sean C1 y C2 las bases canónicas de R2 y R3 , respectiva-


mente. Además, sean
B1 = {(1, −1), (0, 1)}

y
B2 = {(1, 1, 0), (0, 1, 1), (1, −1, 1)}

bases para R2 y R3 , respectivamente.

a) Determine [ f ]CC12 .

b) Determine [ f ] BB12 .
6.8. INVERTIBILIDAD Y ESPACIOS VECTORIALES ISOMORFOS 109

2. Sean B = {v1 , v2 } y B′ = {w1 , w2 } bases de R2 tales que

w1 = − v 2 y w2 = v 1 + v 2 .


Sea I : R2 → R2 la aplicación identidad. Encuentre [ I ] BB .

6.8. Invertibilidad y espacios vectoriales isomorfos

Definición 6.8.1 (Invertibilidad de una transformación lineal). Una transformación T ∈


L(V, W ) se dice invertible si existe una transformación S ∈ L(W, V ) tal que ST = I (iden-
tidad sobre V) y TS = I (identidad sobre W). En este caso, S se llama la inversa de T y se
denota por T −1 .

Proposición 6.8.2 (La inversa es única). Si T ∈ L(V, W ) es invertible, entonces su inversa es


única.

Demostración. Supongamos que S1 y S2 son inversas de T,

S1 = S1 I = S1 ( TS2 ) = (S1 T )S2 = IS2 = S2 .

Entonces S1 = S2 .

Ahora que sabemos que la inversa es única, podemos denotarla por T −1 , sin ambigüedad.

Teorema 6.8.3. Si T ∈ L(V, W ) es invertible, si y solo si T es inyectiva y sobreyectiva.

Demostración. Supongamos que T es invertible. Para demostrar que T es inyectiva, supongamos


u y v en V tales que T (u) = T (v). Entonces, u = T −1 ( T (u)) = T −1 ( T (v)) = v, de donde u = v.
Por otro lado, para demostrar que T es sobreyectiva, sea w ∈ W. Entonces, w = T ( T −1 w), de
donde T −1 w ∈ V, es decir, w es la imagen de T −1 w bajo T y por lo tanto, w ∈ img( T ). Así, T es
sobreyectiva.
El recíproco se plantea como ejercicio para el lector.

6.8.1. Espacios vectoriales isomorfos

La siguiente definición establece que dos espacios pueden identificarse como iguales, salvo
que sus elementos tienen nombres diferentes.

Definición 6.8.4 (Isomorfismo). Sean V y W espacios vectoriales sobre un campo F. Un


isomorfismo de V en W es una transformación lineal invertible T ∈ L(V, W ).
Se dice que los espacios V y W son isomorfos si existe un isomorfismo de V en W y suele
notarse por V ∼
= W.

Ejemplo 6.8.5.
110 CAPÍTULO 6. TRANSFORMACIONES LINEALES

1. T1 : R2 → R2 definida por T1 ( x, y) = ( x − y, 2x − y) es un isomorfismo, pues es inyectiva y


sobreyectiva.

2. T2 : R2 → R2 definida por T2 ( x, y) = ( x + y, 2x + 2y) es una transformación lineal que no es


biyectiva, por lo tanto, T2 no es un isomorfismo.

3. La transformación producto por x2 de P (R) en P (R), no es un isomorfismo, pues no es sobreyectiva,


el polinomio 1, por ejemplo, no es imagen de ningún polinomio bajo esta transformación.

El siguiente teorema establece algunas propiedades de los isomorfismos.

Teorema 6.8.6. Si T ∈ L(V, W ) es un isomorfismo y:

1. {v1 , v2 , . . . , vn } genera a V, entonces

{ T (v1 ), T (v2 ), . . . , T (vn )}

genera a W;

2. {v1 , v2 , . . . , vn } es linealmente independiente en V, entonces

{ T (v1 ), T (v2 ), . . . , T (vn )}

es linealmente independientes en W;

3. {v1 , v2 , . . . , vn } es una base de V, entonces

{ T (v1 ), T (v2 ), . . . , T (vn )}

es una base de W;

4. V es de dimensión finita, entonces W es de dimensión finita y

dim(V ) = dim(W ).

Teorema 6.8.7. Dos espacios vectoriales sobre un campo F son isomorfos si y solo si tienen
la misma dimensión.

Demostración. Supongamos que V y W son espacios vectoriales de dimensión finita que son iso-
morfos. Entonces, existe un isomorfismo T ∈ L(V, W ), es decir T es inyectiva y sobreyectiva, en
particular, N ( T ) = {0V } e img T = W. Es decir, dim N ( T ) = 0 y por el teorema fundamental de
las aplicaciones lineales, dim V = dim img T = dim W, lo cual prueba la primera implicación.
Recíprocamente, supongamos que dim V = dim W = n. Entonces, V y W tienen bases de n
elementos, digamos {v1 , v2 , . . . , vn } y {w1 , w2 , . . . , wn }, respectivamente. Definamos T ∈ L(V, W )
tal que
T ( c 1 v 1 + . . . + c n v n ) = c 1 w1 + . . . + c n w n .

T está bien definida por la Proposición 6.2.1. Notemos que T es sobreyectiva, pues img T = W,
y es inyectiva, pues N ( T ) = {0V }. En efecto, si T (v) = 0 como v = c1 v1 + . . . + cn vn y T (v) =
6.9. OPERADORES LINEALES 111

c1 w1 + . . . + cn wn = 0. Entonces, c1 w1 + . . . + cn wn = 0, lo cual implica que c1 = c2 = . . . = cn = 0,


pues {w1 , w2 , . . . , wn } es linealmente independiente. Por lo tanto, T es un isomorfismo.

Observación. El teorema anterior establece que cualquier espacio de dimensión finita, es isomorfo a Fn ,
donde n es la dimensión del espacio.

Ejemplo 6.8.8. En base a la observación, dado que Rm×n y Pm (R) son de dimensión finita, entonces

1. Rm×n ∼
= Rmn , con m, n ∈ N∗ .

2. Pm (R) ∼
= Rm+1 , con m ∈ N∗ .

Teorema 6.8.9. Supongamos que v1 , v2 , . . . , vn es una base de V y w1 , w2 , . . . , wn es una lista


en W. Entonces, L(V, W ) es isomorfo a Fm,n , donde m = dim(W ) y n = dim(V ).

Demostración. Para las bases v1 , v2 , . . . , vn de V y w1 , w2 , . . . , wn de W, sabemos que para todo


T ∈ L(V, W ), existe una matriz asociada M( T ) ∈ Fm,n . Vista como transformación lineal

M : L(V, W ) −→ Fm,n
T 7−→ M( T ).

Por la Proposición 6.6.6 sabemos que M es lineal. Si probamos que M es inyectiva y sobreyectiva,
entonces M es un isomorfismo y, podríamos concluir que L(V, W ) es isomorfo a Fm,n .
Probemos que M es inyectiva, para esto, verifiquemos que N (M) = {0}. Si M( T ) = 0 ∈
Fm,n ,entonces M( T ) es la matriz cuyas entradas son todas cero, es decir, T (v j ) = 0 para todo
j = 1, . . . , n. Como v1 , v2 , . . . , vn es una base de V, entonces T = 0. Por lo tanto, M es inyectiva.
Para probar que M es sobreyectiva, sea A = ( aij ) ∈ Fm,n , definamos T ∈ L(V, W ) tal que

m
T (v j ) = ∑ aij wi .
j =1

Así definida, T es lineal y M( T ) = A. Por lo tanto, M es sobreyectiva.

Corolario 6.8.9.1. Si V y W son espacios vectoriales de dimensión finita, entonces L(V, W ) es de dimen-
sión finita y
dim(L(V, W )) = dim(V ) dim(W ).

Demostración. Por el teorema anterior, L(V, W ) es isomorfo a Fm,n , donde m = dim(W ) y n =


dim(V ). Por lo tanto, dim(L(V, W )) = dim(Fm,n ) = mn = dim(V ) dim(W ).

6.9. Operadores lineales

Definición 6.9.1 (Operador lineal). Un operador lineal en un espacio vectorial V es una


transformación lineal T ∈ L(V, V ). Es decir, una transformación lineal que mapea V en sí
mismo. También se nota como L(V ) = L(V, V ).
112 CAPÍTULO 6. TRANSFORMACIONES LINEALES

Teorema 6.9.2. Si V es un espacio de dimensión finita y T ∈ L(V ), entonces las siguientes


afirmaciones son equivalentes:

(a) T es invertible.

(b) T es inyectiva.

(c) T es sobreyectiva.

Demostración. La implicación (a) ⇒ (b) es directa del Teorema 6.8.3. Para probar (b) ⇒ (c), supon-
gamos que T es inyectiva, es decir, dim N = 0. Entonces, por el Teorema Fundamental dim(img T ) =
dim(V ), por lo tanto, img T = V, es decir, T es sobreyectiva. La implicación (c) ⇒ (a), es direc-
ta, pues si T es sobreyectiva, entonces img T = V, es decir, dim img T = dim V, por lo tanto,
dim N ( T ) = 0, es decir, T es inyectiva. Por lo tanto, T es invertible.

6.10. Ejercicios
1. Dada la aplicación lineal:

f: R3 −→ P1 (R)
( a, b, c) 7−→ ( a + b + c) + (b + c)t.

a) Determine al núcleo de f .
b) Determine a la imagen de f .
c) Determine si f es un isomorfismo.

2. Dada la aplicación lineal f : P3 (R) → R2×2 tal que


( ! )
a b 2×2
ker( f ) = gen({1 − t, 1 + t }) 2
y img( f ) = ∈R : a = 0, b − c + d = 0 .
c d

a) Determine la dimensión del núcleo de f .


b) Determine la dimensión de la imagen de f .
c) Determine si f es un isomorfismo.

3. Dadas las aplicaciones lineales:

f: R3 −→ R2 g : R2 −→ R3
y
( a, b, c) 7−→ ( a + b, c) ( x, y) 7−→ ( x, 0, y).

a) Muestre que f ◦ g es una aplicación lineal de R2 en R2 .


b) Determine al núcleo de f ◦ g.
c) Determine la dimensión de la imagen de f ◦ g.
d) Determine si f ◦ g es un isomorfismo de R2 en R2 .
e) Muestre que g ◦ f es una aplicación lineal de R3 en R3 y determine si g ◦ f es un iso-
morfismo de R3 en R3 .
Capítulo 7

Valores y Vectores Propios

7.1. Valores y vectores propios de un operador lineal


En esta sección consideramos que V es un espacio vectorial sobre el campo F. Trabajaremos
exclusivamente sobre transformaciones lineales definidas de V en V, es decir, operadores en L(V ).

Definición 7.1.1. Sean T ∈ L(V ) y λ ∈ F. Se dice que λ es un valor propio de T si existe


v ∈ V, con v ̸= 0V , tal que
T (v) = λv.

A este vector v se lo llama vector propio de T asociado al valor propio λ.

Proposición 7.1.2. Sean T ∈ L(V ) y λ ∈ F un valor propio de T. Se tiene que el conjunto

Eλ = {v ∈ V : T (v) = λv}

es un subespacio vectorial de V. A Eλ se lo denomina el espacio propio de T asociado al


valor propio λ.

Ejemplo 7.1.3. Dada la aplicación lineal

T : R2 −→ R2
( x, y) 7−→ ( x + 2y, 4x + 3y).

Notemos que:

T (1, 2) = (1 + 2(2), 4(1) + 3(2)) = (1 + 4, 4 + 6) = (5, 10) = 5(1, 2)

Lo que nos permite concluir que 5 es un valor propio de T y que (1, 2) es un vector propio asociado a 5,
además, el espacio propio asociado a 5 es:

E5 = ( x, y) ∈ R2 : y = 2x .


Ejercicio 7.1.4. Considere a la aplicación lineal del ejemplo 7.1.3, verifique que para el valor propio −1 un
vector propio asociado es (−1, 1), ¿cuál será el espacio propio asociado a −1?

113
114 CAPÍTULO 7. VALORES Y VECTORES PROPIOS

Definición 7.1.5 (Espectro de una transformación). Supongamos que dim(V ) = n y que


T ∈ L(V ). El espectro de T es el conjunto de todos sus valores propios.

Ejemplo 7.1.6. Considere a la aplicación lineal del ejemplo 7.1.3, su espectro es el conjunto {−1, 5}.

En adelante, consideraremos a V como un espacio vectorial de dimensión finita igual a n.

Teorema 7.1.7. Sean T ∈ L(V ) y λ1 , λ2 , . . . , λn valores propios de T distintos entre sí. Si


tomamos v1 , v2 , . . . , vn vectores propios asociados a los valores propios λ1 , λ2 , . . . , λn , res-
pectivamente, entonces el conjunto {v1 , v2 , . . . , vn } es linealmente independiente.

Ejemplo 7.1.8. Considerando a la aplicación lineal del ejemplo 7.1.3 tenemos que si λ1 = −1 y λ2 = 5
con v1 = (−1, 1) y v2 = (1, 2), entonces el conjunto {v1 , v2 } es linealmente independiente.

7.2. Valores y vectores propios de una matriz

Definición 7.2.1. Sea A ∈ Fn×n , se define la aplicación lineal

TA : Fn×1 −→ Fn×1
u 7−→ Au.

A los valores propios de TA se los denomina valores propios de A, a los vectores propios de
TA se los denomina vectores propios de A y a los espacios propios de TA se los denomina
espacios propios de A. Además, se denomina espectro de A al espectro de TA .

!
1 2
Ejemplo 7.2.2. Dada la matriz A = , se tiene que TA está dada por:
4 3

TA : R2×!1 −→ R2×1 !
x x + 2y
7−→ .
y 4x + 3y
!
−1
Se tiene que los valores propios de TA son λ1 = −1 y λ2 = 5 con vectores propios asociados u1 =
1
!
1
y u2 = , respectivamente. Además, los espacios propios de TA son:
2
( ! )
v1
E−1 = ∈ R2 × 1 : v 1 + v 2 = 0
v2

y ( ! )
v1
E5 = ∈ R2×1 : −2v1 + v2 = 0 .
v2
7.2. VALORES Y VECTORES PROPIOS DE UNA MATRIZ 115

Observación. Si consideramos una aplicación lineal T ∈ L(V ), con dim(V ) = n. De este resultado,
se sigue que, para determinar los valores, vectores y espacios propios de T, basta determinar los valores,
vectores y espacios propios de una matriz de representación de esta.

Proposición 7.2.3. Sea A ∈ Fn×n , se tiene que λ ∈ F es un valor propio de A si y solo si


existe v ∈ Fn×1 , con v ̸= 0, tal que
Av = λv,

además, a v se lo denomina vector propio de A asociado al valor propio λ.

Definición 7.2.4. Sea A ∈ Fn×n . Al polinomio

p(λ) = det( A − λIn )

se lo denomina polinomio característico de A, donde In es la matriz identidad.

Proposición 7.2.5. Sean A ∈ Fn×n y λ ∈ F. Se tiene que λ es un valor propio de A si y solo


si
det( A − λIn ) = 0,

donde In es la matriz identidad.

Observación. Notemos que todo valor propio de A ∈ Fn×n , es raíz del polinomio característico de A.
!
1 2
Ejemplo 7.2.6. Dada la matriz A = , su polinomio característico es:
4 3

p(λ) = det( A − λI2 )


! !!
1 2 1 0
= det −λ
4 3 0 1
!
1−λ 2
= det
4 3−λ
= λ2 − 4λ − 5
= (λ + 1)(λ − 5).

Por lo tanto, λ1 = −1 y λ2 = 5 son los valores propios de A.

Proposición 7.2.7. Los valores propios de una matriz triangular son los elementos de la
diagonal principal de la matriz.

A LGORITMO PARA ENCONTRAR LOS VALORES Y VECTORES PROPIOS DE UNA MATRIZ .


Sea A ∈ Fn×n .

Paso 1. Hallar el polinomio característico p(λ) de A.

Paso 2. Hallar las raíces de p(λ).


116 CAPÍTULO 7. VALORES Y VECTORES PROPIOS

Paso 3. Repetir los siguientes pasos para cada valor propio λ de A:

a) Construir M = A − λIn restando λ a los elementos diagonales de A.


b) Encontrar una base para el espacio solución de Mv = 0. Los vectores de la base son
vectores propios linealmente independientes de A asociados a λ.

Ejercicio 7.2.8. Dada la aplicación lineal:

T : P1 (R) −→ P1 (R)
( a + bt) 7−→ (6a − b) + (3a + 2b)t.

Hallar los valores y vectores propios de T.

Teorema 7.2.9. Cualquier polinomio de grado n tiene exactamente n raíces (contando con
las veces que una determinada raíz se repite) en los complejos.

Definición 7.2.10. Sea λ un valor propio de la matriz A, el número de veces que un va-
lor propio λ se repite como raíz del polinomio característico ρ(λ) se llama multiplicidad
algebraica, notada m a (λ).

Definición 7.2.11. Sea λ un valor propio de la matriz A, entonces la multiplicidad geomé-


trica de λ, notada m g (λ) está dada por

m g (λ) = dim( Eλ )

Teorema 7.2.12. Sea λ valor propio de la matriz A, entonces

m g (λ) ≤ m a (λ)

Teorema 7.2.13. Contando multiplicidades, toda matriz A ∈ Fn×n tiene exactamente n va-
lores propios en los complejos.

 
1 0 0 1
 
0 2 0 0
Ejemplo 7.2.14. La matriz A =  0 0 2 0 tiene como valores propios a λ1 = 0 y λ2 = 2 con

 
1 0 0 1
m a (λ1 ) = 1, m a (λ2 ) = 3, m g (λ1 ) = 1 y m g (λ2 ) = 3.

7.3. Diagonalización de una matriz

Definición 7.3.1. Sean A, B ∈ Fn×n . Se dice que A y B son semejantes si existe una matriz
no singular C ∈ Fn×n tal que
CB = AC
7.3. DIAGONALIZACIÓN DE UNA MATRIZ 117

! !
1 −1 2 −1
Ejercicio 7.3.2. Dadas las matrices A = yC= , encontrar una matriz B semejante
0 2 1 0
a la matriz A.

Definición 7.3.3. Una matriz A ∈ Fn×n se dice diagonalizable si es semejante a una matriz
diagonal. En este caso, también diremos que A puede diagonalizarse.

Teorema 7.3.4. Matrices semejantes tienen los mismos valores propios.

Teorema 7.3.5. Una matriz A ∈ Fn×n es diagonalizable si y solo si tiene n vectores propios
linealmente independientes.

Observación. Si A ∈ Fn×n una matriz diagonalizable, entonces existe C ∈ Fn×n no singular tal que
C −1 AC = D, donde D ∈ Fn×n está dada por:
 
λ1 0 0 ··· 0
···
 
 0 λ2 0 0 
 
D =  0 0 λ3
 ··· 0 

 . .. .. .. .. 
 .. . . . . 
 
0 0 0 · · · λn

donde λ1 , λ2 , · · · , λn son los valores propios de A. Además, C es una matriz cuyas columnas son, respecti-
vamente, los n vectores propios linealmente independientes de A.
!
1 2
Ejemplo 7.3.6. Considere a la matriz A = , se tiene que:
4 3
!
−1 0
1. La matriz A es semejante a la matriz D = , para esto consideramos a la matriz no singular
0 5
!
−1 1
C= .
1 2

2. La matriz A es diagonalizable.

3. Las matrices A y D tienen los mismos valores propios.

4. Considerando al ejemplo 7.2.2 se puede mostrar que los vectores propios de A forman un conjunto
linealmente independiente.

Teorema 7.3.7. Si la matriz A ∈ Fn×n tiene n valores propios diferentes, entonces A es


diagonalizable.

Teorema 7.3.8. Sea A ∈ Fn×n . A tiene n vectores propios linealmente independientes si y


sólo si la multiplicidad geométrica de cada valor propio es igual a la multiplicidad alge-
braica.
118 CAPÍTULO 7. VALORES Y VECTORES PROPIOS

Ejemplo 7.3.9. Considere  a la matrizA del ejemplo 7.2.14, la matriz A es diagonalizable con matriz
0 0 0 0
 
0 2 0 0
diagonal semejante D =   . En efecto, para cada valor propio se tiene que la multiplicidad
 0 0 2 0 

0 0 0 2
algebraica es igual a la geométrica, lo que implica que A tiene 4 vectores propios linealmente independientes,
por tanto, A es diagonalizable, es decir, es semejante a una matriz diagonal D cuyos elementos en la diagonal
principal son los valores propios de la matriz A.

Observación. Proceso para diagonalizar una matriz A ∈ Fn×n .

Paso 1. Hallar el polinomio característico p(λ) de A.

Paso 2. Hallar las raíces de p(λ).

Paso 3. Para cada valor propio λ j de A con multiplicidad algebraica k j , determinamos una base para el
espacio solución de ( A − λ j In )v = 0 (el espacio propio asociado con λ j ).
Si la dimensión del espacio del espacio propio es menor que k j , entonces A no es diagonalizable. De
acuerdo con ello, determinamos n vectores propios linealmente independientes de A.

Paso 4. Sea C la matriz cuyas columnas son los n vectores propios linealmente independientes determina-
dos en el paso 3. Entonces,
C −1 AC = D,

es una matriz diagonal cuyos elementos de la diagonal son los valores propios de A correspondientes
a las columnas de C.
 
1 0 0
Ejemplo 7.3.10. La matriz A = 1 1 0 no es diagonalizable ya tiene a 1 como valor propio con
 

0 1 1
multiplicidad algebraica igual a 3 y multiplicidad geométrica igual a 1, es decir, solamente tiene un vector
propio asociado a 1.

7.3.1. Diagonalización de matrices simétricas

Teorema 7.3.11. Todos los valores propios de una matriz simétrica son números reales.

Teorema 7.3.12. Si A ∈ Rn×n es una matriz simétrica, los vectores propios correspondientes
a valores propios distintos de A son ortogonales.


−1
 
 0 
Ejemplo 7.3.13. Considere a la matriz A del ejemplo 7.2.14, el valor propio 0 tiene a u1 = 
 0  como

 
1
     
0 0 1
     
1 0 0
vector propio asociado mientras que el valor propio 2 tiene a u2 = 
0, u3 = 1 y u4 = 0 como
    
     
0 0 1
7.3. DIAGONALIZACIÓN DE UNA MATRIZ 119

vectores propios asociados. Notemos que con el producto interno usual se tiene que ⟨u1 , u2 ⟩ = ⟨u1 , u3 ⟩ =
⟨u1 , u4 ⟩ = 0.

Proposición 7.3.14. Una matriz A ∈ Rn×n es ortogonal (A T = A−1 ) si y solo si las columnas
(y las filas) de A forman un conjunto ortonormal de vectores en Rn .

Teorema 7.3.15. Si A ∈ Rn×n una matriz simétrica, entonces existe una matriz ortogonal
P tal que P−1 AP = D, es una matriz diagonal. Los valores propios de A están sobre la
diagonal principal de D.

Ejemplo 7.3.16. Considere a la matriz A del ejemplo 7.2.14 y a sus vectores propios asociados dados en el
 el conjunto {u1 , u2 , u
ejemplo 7.3.13, además considere a la matriz D del ejemplo 7.3.9. Considerando 3 , u4 },
1 1
formado por los vectores propios de A, obtenemos al conjunto ortonormal u , u2 , u3 , u , lue-
∥ u1 ∥ 1 ∥ u2 ∥ 4
go, la matriz P está dada por:  √ √ 
− 22 0 0 22
 
 0 1 0 0
P=  
0 0 1 0 
 √ √

2 2
2 0 0 2

que verifica ser ortogonal y que P−1 AP = D.

Teorema 7.3.17. Una matriz A ∈ Rn×n es ortogonalmente diagonalizable si y solo si A es


simétrica.

Observación. Notemos que una matriz simétrica siempre es diagonalizable, además, lo es por medio de
una matriz ortogonal, es decir, P−1 = P T . En tal caso, decimos que A es ortogonalmente diagonalizable.

Observación. Si una matriz simétrica A tiene un valor propio λ j con multiplicidad k j , el espacio propio
asociado tiene dimensión k j . Esto es, existen k j vectores propios de A linealmente independientes , asociados
al valor propio λ j . Con el proceso de Gram-Schmidt, podemos construir una base ortonormal para el espacio
propio asociado a λ j .

Observación. Proceso para diagonalizar una matriz simétrica A ∈ Fn×n mediante una matriz
ortogonal P.

Paso 1. Hallar el polinomio característico p(λ) de A.

Paso 2. Hallar las raíces de p(λ).

Paso 3. Para cada valor propio λ j de A, con multiplicidad algebraica k j , determinar una base de k j vectores
propios para el espacio solución de ( A − λ j In )v = 0 (el espacio propio asociado con λ j ).

Paso 4. Para cada espacio propio, transformamos la base obtenida en el paso 3 en una base ortonormal
mediante el proceso de Gram-Schmidt.
120 CAPÍTULO 7. VALORES Y VECTORES PROPIOS

Paso 5. Sea P la matriz cuyas columnas son los n vectores propios linealmente independientes determina-
dos en el paso 4. Entonces P es una matriz ortogonal, y

P T AP = D,

es una matriz diagonal cuyos elementos de la diagonal son los valores propios de A correspondientes
a las columnas de P.
 
1 0 1
Ejercicio 7.3.18. Diagonalizar ortogonalmente a la matriz A = 0 2 0.
 

1 0 1

7.4. Ejercicios

1. Sean E un espacio vectorial, T : E → E una aplicación lineal invertible y λ ∈ R ∖ {0}.


Demostrar que λ es valor propio de T si y solo si λ1 es valor propio de T −1
 
2 −5 0
2. Si 2 es un valor propio de la matriz A = 0 2 0
 

0 0 2
Determine el valor de y para que (1, y, 1)T sea un vector propio.

3. Si A ∈ R3×3 triangular, tal que det( A) = 6. Si λ1 = 2 es el valor propio de A y −4 es un


valor propio de la matriz A − 3I3 . Determine el segundo y tercer valor propio de A.

4. Encuentre los valores y vectores propios de la matriz

 
2 0 3
A = 0 1 0
 

0 1 2
!
a −2
5. Si A ∈ R2×2 simétrica, tal que Si λ1 = 0 es el valor propio asociado al vector
b c
! !
1 1
propio y 4 es un valor propio asociado al vector propio . Determine la matriz A.
1 −1
 
1 a b
6. Dados a, b, c, d, e, f ∈ R, considere la matriz A = 1 c d , una matriz simétrica. Deter-
 

1 e f
   
1 1
mine los valores de a, b, c, d, e, f tales que los vectores 1 y  0  sean vectores propios
   

1 −1
de A, asociados a dos valores propios distintos.

7. Sea f una aplicación lineal, hallar sus valores y vectores propios, donde:
7.4. EJERCICIOS 121

f : R2×2! −→ R2×2 !
a b a+b−d b
7−→ .
c d c −a + c + d
 
1 a a
8. Dado a ∈ R ∖ {0}, considere la matriz A =  a 1 a .
 

a a 1
 
1
a) Compruebe que 1 es un vector propio de A. Hallar el valor propio λ asociado.
 

1
Calcule una base de Eλ .
b) Compruebe que 1 − a es un valor propio de A y calcule una base del espacio propio
correspondiente.
c) Muestre que R3×1 está en suma directa con los subespacios Eλ y E1−a .

9. Sean A, B ∈ Rn×n . Pruebe que si λ es un valor propio de AB también lo es de BA.


Sugerencia: Distinga los casos λ ̸= 0 y λ = 0. Al tratar este último, considere el polinomio
característico de AB.

10. Encuentre los valores propios y el correspondiente espacio propio asociado de la matriz

 
2 2 2
A = 2 2 2
 

2 2 2

11. Sea f : Rn → Rn una aplicación lineal de manera que f ◦ f = f . Calcular los valores propios
de f .

12. Diagonalice la matriz


 
3 0 0
A =  −3 4 9.
 

0 0 3

13. Si es posible, diagonalice ortogonalmente la siguiente matriz:


 
−1 2 2
A =  2 −1 2 .
 

2 2 −1

14. Los valores propios de una matriz A ∈ R3×3 simétrica son 1, −2 y 3 con vectores propios
(1, 1, −1)T y (0, 1, 1)T asociados a los valores propios 1 y −2, respectivamente. Hallar a la
matriz A y el vector propio asociado al valor propio 3.

También podría gustarte