Apuntes Algebra
Apuntes Algebra
Apuntes Algebra
Facultad de Ciencias
Autores
Evelyn Cueva
Kateryn Herrera
Departamento de Matemática
Escuela Politécnica Nacional
2
Índice general
1. Matrices 5
1.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Operaciones entre matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4. Tipos de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5. Equivalencia por filas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2. Sistemas de ecuaciones 27
2.1. Representación matricial de un sistema de ecuaciones . . . . . . . . . . . . . . . . . . 28
2.2. Resolución de sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3. Matriz Inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3. Determinantes 41
3.1. Definiciones y propiedades fundamentales . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4. Espacios vectoriales 53
4.1. Rn y Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2. Definición de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.3. Propiedades de los espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3
4 ÍNDICE GENERAL
6. Transformaciones Lineales 93
6.1. Transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2. Propiedades de las transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . 97
6.3. Núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6.5. Composición de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.6. Representación de una transformación lineal mediante matrices . . . . . . . . . . . . 105
6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.8. Invertibilidad y espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . . . 109
6.8.1. Espacios vectoriales isomorfos . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.9. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
Matrices
1.1. Preliminares
I = {1, 2, . . . , m} ⊆ N y J = {1, 2, . . . , n} ⊆ N; y
K un cuerpo o campo (es decir, cualquier conjunto que cumpla con los axiomas de cuerpo),
puede ser R o C.
Trabajaremos de manera transversal con la definición de función entre dos espacios, la cual se
presenta a continuación:
f : A −→ B
a 7−→ b = f ( a).
5
6 CAPÍTULO 1. MATRICES
1.2. Matrices
A : I × J −→ K
(i, j) 7−→ A(i, j) = aij ,
Observación. Al conjunto de todas las matrices de orden m × n sobre el campo K se denota por Km×n .
Así, se escribe A ∈ Km×n si A es una matriz de orden m × n sobre K.
Observación. Otras notaciones usuales para el conjunto de las matrices, que se puede encontrar en la
literatura, son Mm×n (K) o Mmn (K).
aij = 2i − j
para cada i ∈ {1, 2} y j ∈ {1, 2, 3}. Escriba a la matriz con todos sus elementos.
0 3 0
es una matriz cuadrada de orden 3.
0 3 0
La 3-ésima columna de A, es
6
3 .
0
La 1-ésima fila de A es
1 0 6 .
1 2 −1 0 3
Ejercicio 1.2.8. Dada la matriz A = 1 2 0 1 3. Indique a su 2-ésima fila, 3-ésima columna y
3 3 3 3 3
5-ésima columna.
Definición 1.2.9 (Igualdad de matrices). Sean A ∈ Km×n y B ∈ K p×q . Se dice que las matri-
ces A y B son iguales, y se representa por A = B, si:
a) m = p y n = q; y
0 7 0 z
Notando que A y B tienen el mismo orden, para que sean iguales los valores de x, y y z deben ser 1, −8 y 7,
respectivamente.
para cada i, j ∈ {1, 2}. Indique cuáles matrices son iguales y cuáles no lo son.
1 1 1 1
1 8 − −
2 4 2 4
A = −2 −5 6 y B= 5 7 −8 .
7 1
0 20 −1 − 2
3 3
La suma de las matrices A y B se calcula sumando los elementos que ocupan la misma posición, es decir, si
C = A + B para calcular al elemento c12 se tiene que
1 1
c12 = a12 + b12 = + − = 0.
2 2
Finalmente,
9 0 0
A + B = 3 2 −2 .
−1 2 22
a) A + B = B + A.
b) A + ( B + C ) = ( A + B) + C.
A+0 = A
d) Para cada matriz A de orden m × n, existe una única matriz, denotada por − A, de
orden m × n tal que:
A + (− A) = 0.
Entonces, ! !
6 8 6 8
A+B = y B+A = .
10 12 10 12
Luego, A + B = B + A.
Ejemplo 1.3.6. Sea A la matriz de K2×2 dada por
!
1 2
A= .
3 4
el inverso aditivo de A es !
−1 −2
−A = .
−3 −4
En efecto, A + (− A) = 0.
Observación. Si A, B ∈ Km×n , se escribe
A + (−1) B
Ejercicio 1.3.8. Considere a la matriz A del ejemplo 1.3.2 calcular 2A y compare con A + A, el resultado
del ejercicio 1.3.3.
a) α( βA) = (αβ) A;
b) (α + β) A = αA + βA; y
c) α( A + B) = αA + αB.
Observación. El elemento cij se obtiene multiplicando elemento a elemento fila i de la matriz A por la
columna j, de B
A
z
}| {
a11 a12 ··· a1p z }|
B c11 c12 ··· c1j ··· c1n
{
··· ··· ···
a21 a22 a2p · · · b1j ··· c21 c22 c2j c2n
b11 b12 b1n
.. .. .. .. .. .. .
..
. . ··· . b
21
b22 · · · b2j ··· b2n . . . . · · · ..
= c
.. .. . .. .
··· · · · .. ··· · · · cin
a
i1 ai2 aip . . ··· . i1 ci2 cij
. .. .. . .. .. .. ..
.. . ··· . b p1 b p2
· · · b pj ··· b pn .. . ··· . . .
am1 am2 ··· amp cm1 cm2 · · · cmj · · · cmn
Por esta razón, se debe cumplir necesariamente que el número de filas de B sea igual al número de columnas
de A.
−5 0 3 −1 2 −2
3
c12 = ∑ a1k bk2
k =1
3
c33 = ∑ a3k bk3
k =1
2 −4 −11
donde AB ∈ K3×3 .
a) A( DE) = ( AD ) E;
b) A(C + D ) = AC + AD;
c) ( A + B)C = AC + BC;
d) A(αC ) = α( AC ) = (αA)C.
AB = BA,
Ejemplo 1.3.14. Considere a las matrices A y B del ejercicio 1.3.12, tenemos que
! 3 15 24
14 17
AB = y BA = −6 −5 −18 .
−7 2
3 10 18
Definición 1.3.16 (Matriz identidad de orden n). Se define la matriz identidad de orden n al
elemento A de Kn×n tal que
1 si i = j,
aij =
0 si i ̸= j,
0 0 1
Im A = AIn = A.
a) A0 = In ; y
b) Ar+1 = Ar A.
a ) Ar A s = Ar +s ; y
b) ( Ar )s = Ars .
1.3. OPERACIONES ENTRE MATRICES 13
0 −3 5
su transpuesta es
1 3 0
A⊺ = 4 7 −3 .
−2 9 5
Calcular su transpuesta.
a) ( A⊺ )⊺ = A;
b ) ( A + B )⊺ = A⊺ + B⊺ ;
c) ( AC )⊺ = C⊺ A⊺ ;
d) (αA)⊺ = αA⊺ .
( AB)⊺ = A⊺ B⊺
Ejemplo 1.3.25. Dada la matriz A ∈ Kn×n . En este ejemplo vamos a ilustrar a las propiedades de la
transpuesta. Notemos que
y que
( A( B + C ))⊺ = B⊺ A⊺ + C⊺ A⊺ .
Definición 1.3.27 (Traza de una matriz). Sea A ∈ Kn×n . La traza de una matriz A es un
escalar que notaremos como Tr( A) tal que:
n
Tr( A) = ∑ a jj .
j =1
−2 −3 8
De la definición de traza se tiene que:
−2 −3 −3
Determine la Tr( B) y la Tr( B⊺ ).
0 −6 3
Definición 1.4.3 (Matriz diagonal). Sea A ∈ Kn×n . Se dice que A es una matriz diagonal si
verifica que:
aij = 0
Notemos que en todos los casos los términos fuera de la diagonal principal son todos iguales a cero.
Definición 1.4.5 (Matriz escalar). Sea A ∈ Kn×n . Se dice que A es una matriz escalar si es
una matriz diagonal que verifica:
aii = α
para todo i ∈ J, con α ∈ K, es decir, todos los elementos de la diagonal son iguales.
Observación. Note que una matriz identidad es un tipo de matriz escalar. Además, la matriz escalar se
puede expresar como la multiplicación de un escalar por la matriz identidad.
16 CAPÍTULO 1. MATRICES
Note que la matriz escalar dada se escribe como el producto del escalar 3 con la matriz identidad.
Ejercicio 1.4.8. Demuestre que la suma de dos matrices escalares es una matriz escalar. ¿Qué se puede
decir sobre la resta?
8 −3 0
es antisimétrica, en efecto, tenemos que
A⊺ = − A.
Ar = 0.
En efecto, determinemos a A2 ,
! ! !
1 1 1 1 0 0
A2 = A · A = · = .
−1 −1 −1 −1 0 0
1.4. TIPOS DE MATRICES 17
Definición 1.4.17 (Matriz idempotente). Sea A ∈ Kn×n . Se dice que A es una matriz idem-
potente si A2 = A.
Observación. Note que si la matriz A es idempotente entonces se puede concluir que An = A, para todo
n ∈ N∗ .
Definición 1.4.19 (Matriz escalonada reducida por filas). Se dice que una matriz está en
forma escalonada reducida por filas cuando satisface las siguientes propiedades:
1. Todas las filas que constan solo de ceros, si las hay, están en la parte inferior de la
matriz.
3. Para cada fila que no consta solo de ceros, el uno principal aparece a la derecha y abajo
de cualquier uno principal en las filas que le preceden.
4. Si una columna contiene un uno principal, el resto de las entradas de dicha columna
son iguales a cero.
Se dice que una matriz está en forma escalonada por filas si satisface las primeras tres pro-
piedades.
Observación. Note que toda matriz escalonada reducida por filas es también escalonada por filas.
Definición 1.5.1 (Operaciones elementales de fila). Dada una matriz A ∈ Km×n , una opera-
ción elemental por filas sobre A es una de las siguientes:
Fi ↔ Fj ,
es reemplazar la fila
ai1 ai2 . . . ain
por la fila
a j1 a j2 . . . a jn
y viceversa.
es reemplazar la fila
ai1 ai2 . . . ain
por
αai1 αai2 . . . αain .
αFi + Fj → Fj ,
es reemplazar la fila
a j1 a j2 . . . a jn
por
αai1 + a j1 αai2 + a j2 . . . αain + a jn .
−1 2 −3
1.5. EQUIVALENCIA POR FILAS 19
0 −1 2
Ejemplo 1.5.3. Multiplicar una fila por un escalar. Considerando a la matriz A del ejemplo 1.5.2, si se
aplica la operación de fila 3F1 → F1 se tiene la siguiente matriz:
3 6 9
C = 0 −1 2
−1 2 −3
Ejemplo 1.5.4. Sumar un múltiplo de una fila con otra. Considere a la matriz A del ejemplo 1.5.2, si
se aplica la operación de fila 3F1 + F3 → F3 se tiene la siguiente matriz:
1 2 3
D = 0 −1 2
2 8 6
1. F1 ↔ F2 .
1
2. − F2 → F2 .
4
3. −5F3 + F4 → F4 .
Definición 1.5.6 (Equivalente por filas). Sean A, B ∈ Km×n , se dice que la matriz A es equi-
valente por filas a una matriz B, denotado por A ∼ B, si B se puede obtener al aplicar a la
matriz A una sucesión de operaciones elementales por fila.
Ejemplo 1.5.7. Considere a las matrices A y D del ejemplo 1.5.4, se tiene que A es equivalente por filas a
D, es decir:
1 2 3 1 2 3
A = 0 −1 2 ∼ D = 0 −1 2 .
−1 2 −3 2 8 6
Ejercicio 1.5.8. Considere a la matriz A y a las operaciones elementales de fila del ejercicio 1.5.18, escriba
a las correspondientes operaciones elementales de fila inversas.
Teorema 1.5.9. Toda matriz A ∈ Km×n es equivalente por filas a una única matriz en forma
escalonada reducida por filas.
Pasos para transformar una matriz a una matriz escalonada por filas. Dada una matriz A.
1. Determinar la primera columna (contando de izquierda a derecha), tal que no todos sus
entradas sean cero. Ésta es la columna pivote.
2. En la columna pivote, identificar al primer elemento (contando de arriba hacia abajo) distinto
de cero. A este elemento lo denominaremos pivote.
3. Intercambiar, en caso de ser necesario, la primera fila por aquella fila donde aparece el pivo-
te, de modo que éste se encuentre ahora en la primera fila.
4. Multiplicar a la primera fila por el recíproco del pivote. Así, el primer elemento de la colum-
na pivote es ahora un 1. A la matriz obtenida la llamamos A2 .
5. Sumar los múltiplos apropiados de la primera fila de A2 a las demás filas, para que los
elementos debajo del pivote sean cero.
3 1 −2
Obtengamos a la correspondiente matriz escalonada por filas, para esto, notemos que la columna pivote es
la primera columna de A y que en la posición 11 ya se encuentra el pivote, entonces
1 5 −4 1 5 −4
− F1 + F2 → F2
A = 1 −2 1 ∼ 0 −7 5
−3F1 + F3 → F3
3 1 −2 0 −14 10
1 5 −4
∼ 0 −7 5 − 2F2 + F3 → F3
0 0 0
1 5 −4
1
∼ 0 1 − 57 − F2 → F2
7
0 0 0
0 0 0
1.5. EQUIVALENCIA POR FILAS 21
0 1 −1 1
Pasos para transformar una matriz a una matriz escalonada reducida por filas. Dada una
matriz A.
1. Determinar la primera columna (contando de izquierda a derecha), tal que no todos sus
elementos sean cero. Ésta es la columna pivote.
2. En la columna pivote, identificar al primer elemento (contando de arriba hacia abajo) distinto
de cero. A este elemento lo denominaremos pivote.
3. Intercambiar, en caso necesario, la primera fila por aquella fila donde aparece el pivote, de
modo que éste se encuentre ahora en la primera fila.
4. Multiplicar a la primera fila por el recíproco del pivote. Así, el primer elemento de la colum-
na pivote es ahora un 1.
5. Realizar las operaciones elementales de fila necesarias para que los elementos de la columna
pivote sean cero, excepto el pivote.
3 1 −2
Obtengamos a la correspondiente matriz escalonada reducida por filas, para esto, notemos que de acuerdo
con el ejemplo 1.5.10, tenemos que
1 5 −4 1 5 −4
− F1 + F2 → F2
A = 1 −2 1 ∼ 0 −7 5
−3F1 + F3 → F3
3 1 −2 0 −14 10
1 5 −4
∼ 0 −7 5 − 2F2 + F3 → F3
0 0 0
1 5 −4
1
∼ 0 1 − 57 − F2 → F2
7
0 0 0
22 CAPÍTULO 1. MATRICES
1 0 − 37
∼ 0 1 − 57 − 5F2 + F1 → F1
0 0 0
1 0 − 37
0 1 − 57 .
0 0 0
0 1 −1 1
Obtenga la matriz escalonada reducida por filas a partir de A.
Definición 1.5.14. Sean A, B ∈ Km×n , donde B es una matriz escalonada por filas equiva-
lente a A. El rango de A, denotado por rang( A), es el número de filas no nulas que tiene la
matriz B.
3 1 −1 0 0 0
y que B es una matriz escalonada con dos filas no nulas, entonces rang( A) = rang( B) = 2
Proposición 1.5.17. Sea A ∈ Km×n . Se tiene que si A es una matriz escalonada, entonces
rang( A) es el número de filas no nulas que tiene A.
−2 1 3 4
1 1 1
1.6. EJERCICIOS 23
1.6. Ejercicios
1. Sean
!2 −1
2 1 −2
A= , B = 3 4 ,
3 2 5
1 −2
2 1 3 1 1 2
C = −1 2 4 , E = 2 −1 3 .
3 1 0 −3 2 −1
a) (3C − 2E)T B
b) B T C + A
c) ( B T + A)C
2. Sean ! !
3 −2 −4 5
D= y F= .
7 4 2 3
De ser posible, calcule las siguientes operaciones con matrices:
a) 3D + 2F
b) (2 + 3) D y 2D + 3D
3. Sean
! 1 0
1 2 −5
A= y B = −4 2 .
8 −3 4
3 6
De ser posible, calcule las siguientes operaciones con matrices:
a) (2A)T
b) (3B T − 2A)T
c) (3A T − 5B T )T
bij = −5 (i − j)2 .
a) Escriba explícitamente B.
b) Hallar A tal que A + 3B sea igual a la matriz nula.
!
0 0
5. Sea A = una matriz. Determine
1 1
a) A2 + A
24 CAPÍTULO 1. MATRICES
b) A4 + A3 + A2
!
1 1
6. A partir de la matriz A = , determine una matriz B ∈ R2×2 tal que AB = I2 .
0 1
(C + D )3 + (C − D )3 = 8C.
0 3 4
8. Considere la matriz A ∈ R3×3 tal que A = 1 −4 −5
−1 3 4
0 0 0 0 −4 0 0 0 2 0 0 0 0 0 −5
Indique las que se encuentran en forma escalonada.
−4 5 9
Realizar operaciones elementales hasta obtener una matriz identidad I3 .
! 1 !
1 1 x 0
11. Sean A = y B = 1 matrices. Si AB = , determine x y y.
0 y 1 0
1
2 2 0
1.6. EJERCICIOS 25
14. Sea A una matriz en Rm×n , y B una matriz en Rn×m . Se debe demostrar que la traza del
producto de A por B es igual a la traza del producto de B por A, es decir,
15. Sea Q una matriz ortonormal, es decir, QQ⊤ = I. Entonces, se cumple que
|traza( Q)| ≤ n.
16. a) Considere la matriz A que pertenece a R2×3 , donde aij = (−1)2i+ j . Hallar la matriz D
tal que 2A + 31 D = 0.
b) Hallar la traza de DD T .
18. Si A es una matriz idempotente, determinar qué valores puede tomar un número real k para
que kA sea también idempotente.
26 CAPÍTULO 1. MATRICES
Capítulo 2
Sistemas de ecuaciones
27
28 CAPÍTULO 2. SISTEMAS DE ECUACIONES
Ax = b
Su representación matricial es
Ax = b
siendo
1 5 −4
A = 1 −2 1
3 1 −2
2.1. REPRESENTACIÓN MATRICIAL DE UN SISTEMA DE ECUACIONES 29
su matriz de coeficientes y
3 x1
b= 1 y x = x2
−3 x3
sus matrices columna y de incógnitas, respectivamente.
Ax = b
siendo
1 5 −4 1
x1
2 −2 3 2
A= , x = x2 y b=
−1 .
3 7 0
x3
0 1 1 3
Escriba el sistema de ecuaciones lineales correspondiente.
Definición 2.1.4 (Matriz ampliada). Sean A ∈ Km×n y B ∈ Km× p , se define la matriz am-
pliada de A y B al elemento de Km×(n+ p) dado por:
a11 a12 ··· a1n b11 b12 ··· b1p
a21 a22 ··· a2n b21 b22 ··· b2p
.
. .. .. .. .. ..
. .. ..
. . . . . . . .
am1 am2 · · · amn bm1 bm2 · · · bmp
Ax = b
( A|b)
Ejemplo 2.1.7. Considere el sistema de ecuaciones lineales del ejemplo 2.1.2, se tiene que su matriz am-
pliada es:
1 5 −4 3
1 −2 1 1 .
3 1 −2 −3
Teorema 2.2.2. Sean A, C ∈ Km×n y b, d ∈ Km×1 , se tiene que los sistemas de ecuaciones
lineales
Ax = b y Cx = d
( A | b ) ∼ ( C | d ),
es decir, si las matrices aumentadas de los sistemas son equivalentes por filas.
Paso 2. Transformar la matriz aumentada ( A|b) a su forma escalonada reducida por filas (C |d)
mediante operaciones elementales por fila.
Paso 3. Para cada fila distinta de cero de la matriz (C |d), se despeja la incógnita correspondiente a
la entrada principal de cada fila asociada con la entrada principal de esa fila. Las filas constan
completamente de ceros se pueden ignorar, pues la ecuación correspondiente será satisfecha
por cualesquiera valores de las incógnitas.
Paso 2. Transformar la matriz aumentada ( A|b) a su forma escalonada por filas (C |d) mediante
operaciones elementales por fila.
Paso 3. Resolver el sistema lineal correspondiente a (C |d). Las filas constan completamente de
ceros se pueden ignorar, pues la ecuación correspondiente será satisfecha por cualesquiera
valores de las incógnitas.
es decir, las matrices ampliadas son equivalentes por filas, para obtener la solución del sistema utilizamos el
procedimiento de reducción de Gauss-Jordan desde el paso 2, dado que ya obtuvimos a la matriz ampliada,
! !
2 1 2 1 −2 1
∼ F1 ↔ F2
1 −2 1 2 1 2
!
1 −2 1
∼ − 2F1 + F2 → F2
0 5 0
!
1 −2 1 1
∼ F2 → F2
0 1 0 5
!
1 0 1
∼ 2F2 + F1 → F1 ,
0 1 0
!
1
lo que implica que la solución de los dos sistemas es .
0
Ax = b,
se dice que
no tiene solución, es decir, es un sistema inconsistente. Analicemos la matriz ampliada del sistema
! !
1 −1 3 1 −1 3
∼ − 2F1 + F2 → F2
2 −2 4 0 0 −2
0x1 + 0x2 = −2
lo cual es falso, lo que nos permite concluir que el sistema no posee solución, es decir, es inconsistente para
cualquier valor de x1 y x2 .
tiene al menos una solución, es decir, es un sistema consistente. Analicemos la matriz ampliada del sistema
! !
1 −1 3 1 −1 3
∼ − 2F1 + F2 → F2
2 −2 6 0 0 0
0x1 + 0x2 = 0
lo cual es verdadero para cualquier valor de x1 y x2 , mientras que la primera fila implica que
x1 − x2 = 3
que se verifica para todos los valores de x1 = 3 + x2 con x2 ∈ R. Por tanto, el sistema es consistente.
2.2. RESOLUCIÓN DE SISTEMAS LINEALES 33
Ax = b,
el sistema es inconsistente;
se tiene que
Observación. Notemos que podemos determinar el tipo de solución, lo cual lo hacemos analizando el rango
de las matrices de coeficientes y ampliada, sin embargo, no hemos determinado la solución como tal.
34 CAPÍTULO 2. SISTEMAS DE ECUACIONES
Definición 2.3.1. Sea A ∈ Kn×n es no singular o invertible si existe una matriz B ∈ Kn×n tal
que
AB = BA = In
Ejemplo 2.3.3. Sean A ∈ Kn×n una matriz no singular y sean x, b ∈ Kn×1 . Si Ax = b, entonces
x = A−1 b.
( A−1 )−1 = A.
⊺
( A ⊺ ) −1 = ( A −1 ) .
Solución. Supongamos que A y X son matrices no singulares y que AA⊺ X −1 = A, vamos a mos-
trar que X = A⊺ . Se tiene que
Ejercicio 2.3.7. Sean A, X ∈ Kn×n matrices no singulares tales que ( A⊺ )−1 + X −1 es no singular. Si
2(( A⊺ )−1 + X −1 )−1 = A⊺ , entonces X = A⊺ .
( A 1 A 2 · · · A p ) −1 = A − 1 −1 −1
p A p −1 · · · A 1 .
Teorema 2.3.12. Sea A ∈ Kn×n , se tiene que A es no singular si y solo si es equivalente por
filas a In . Además,
( A| In ) ∼ ( In | A−1 ).
! !
2 1 1 −1
Ejemplo 2.3.13. Dada la matriz A = , su inversa es A−1 = .
1 1 −1 2
Solución. Supongamos que A−1 existe, escribamos A seguido de I2 en la forma de matriz aumen-
tada !
2 1 1 0
( A| I2 ) =
1 1 0 1
!
1 1 0 1
∼ − 2F1 + F2 → F2
0 −1 1 −2
!
1 1 0 1
∼ − F2 → F2
0 1 −1 2
!
1 0 1 −1
∼ − F2 + F1 → F1
0 1 −1 2
0 0 1
Ax = 0
Teorema 2.4.2. Sea A ∈ Kn×n . Se tiene que A es no singular si y solo si el sistema lineal
Ax = b tiene una solución única para cada b ∈ Kn×1 .
luego, rang( A) = rang( A|b) = 2, y, por tanto, el sistema Ax = b posee solución única, que junto con el
teorema 2.4.2 implica que A es no singular.
Ejercicio 2.4.4. Considere al sistema de ecuaciones lineales
x1 + 2x2 =1
x2 + 2x3 = 1
x3 = 1
2.5. EJERCICIOS 37
Utilizando la inversa de la matriz de coeficientes muestre que el sistema posee solución única y encuéntrela.
Proposición 2.4.5. Sea A ∈ Kn×n , se tienen que las siguientes proposiciones son equivalen-
tes:
a) A es no singular;
d) rang( A) = n; y
!
a b
Ejercicio 2.4.6. Dada la matriz A = , verificar que su inversa es
c d
!
−1 1 d −b
A = siempre que ad − bc ̸= 0.
ad − bc −c a
2.5. Ejercicios
4 10 b2
0 0 1
3. Asumiendo que la matriz A es invertible, utilizar operaciones por filas para determinar su
matriz inversa para las siguientes matrices:
!
0 21
0 1 −2
a) A =
1 −1 b) A = 1 0 1
−1 −1 2
A( B T + C ) = D. (2.1)
b) Sean
1 −1 0 0 1 −1 1
A = 0 1 0 , C = 3 0 y D = 2 1 .
0 0 3 3 1 9 0
Encuentre a la matriz B que satisface a la ecuación (2.1).
ax + y + z = 1,
x + ay + z = 1,
x + y + az = 1.
bx − y + 2z = 2,
2x + by − z = 2,
− x + 2y + bz = 2.
a) Determine los valores de b para los cuales el sistema tiene una solución única.
b) Encuentre los valores de b para los cuales el sistema tiene infinitas soluciones.
c) Indique los valores de b que hacen que el sistema sea inconsistente.
2.5. EJERCICIOS 39
x1 + 2x2 =1
3x1 − x2 + x3 = 2
x1 + x2 − 2x3 = 0.
12. Sean u, v soluciones del sistema homogéneo Ax = 0 (un sistema homogéneo es aquel con
lado derecho b = 0).
13. Considere el sistema de ecuaciones lineales en las variables x, y y z, que depende del pará-
metro k ∈ R:
x + y − z = 1,
2x + 3y + kz = 3,
x + ky + 3z = 2.
a) Solución única,
b) Infinitas soluciones,
c) No tenga solución?
Para los casos que el sistema sea consistente, expresar la solución en terminos de la variable
a.
40 CAPÍTULO 2. SISTEMAS DE ECUACIONES
Capítulo 3
Determinantes
Ejemplo 3.1.2.
!
1 3
Sea A = , se tiene que A12 = 2 .
2 6
!
−3 1
Sea A = , se tiene que A22 = −3 .
−1 3
−1 1 0 !
1 0
Sea A = 0 1 −2, se tiene que A21 = .
2 1
2 2 1
1 −1 −1
Ejercicio 3.1.3. Sea B = −2 1 −2. Determine los menores B11 , B23 y B31 .
0 2 0
41
42 CAPÍTULO 3. DETERMINANTES
Si n > 1, entonces
n
det( A) = ∑ a1k (−1)1+k det( A1k )
k =1
= a11 det( A11 ) − a12 det( A12 ) + . . . + (−1)1+n a1n det( A1n ).
Ejemplo 3.1.5.
se tiene que
A11 = ( a22 ) y A12 = ( a21 ),
por lo tanto
det( A11 ) = a22 y det( A12 ) = a21 ,
de esta forma,
det( A) = (−1)1+1 a11 det( A11 ) + (−1)1+2 a12 det( A12 ) = a11 a22 − a12 a21 ,
es decir,
a11 a12
det( A) = = a11 a22 − a12 a21 .
a21 a22
!
1 3
Sea B = , se tiene que det( B) = 6 − 6 = 0
2 6
det(C ) = (−1)1+1 c11 C11 + (−1)1+2 c12 C12 + (−1)1+3 c13 C13
c22 c23 c21 c23 c21 c22
= c11 − c12 + c13 .
c32 c33 c31 c33 c31 c32
3.1. DEFINICIONES Y PROPIEDADES FUNDAMENTALES 43
−1 1 0
Sea D = 0 1 −2, se tiene que:
2 2 1
1 −2 0 −2 0 1
det( D ) = −1 −1 +0 = −1(5) − 1(4) = −9.
2 1 2 1 2 2
0 2 0
−2 −1 −3
Ejemplo 3.1.8. Sea A = 0 1 −1, se tiene:
3 3 2
−2 −3
C32 = (−1)5 = −1(2) = −2.
0 −1
0 1
C13 = (−1)4 = 1(−3) = −3.
3 3
Ejercicio 3.1.9. Dada la matriz
−1 0 1
A = 0 2 −1 .
2 2 2
Determinar a los cofactores C23 , C13 , C21 y C32 .
n
det( A) = ∑ aik Cik = ai1 Ci1 + ai2 Ci2 + . . . + ain Cin
k =1
y
n
det( A) = ∑ aki Cki = a1i C1i + a2i C2i + . . . + ani Cni .
k =1
Observación. El lado derecho de las igualdades toma el nombre de expansión por cofactores del determi-
nante de A, con respecto a la fila i y con respecto a la columna i.
44 CAPÍTULO 3. DETERMINANTES
−2 −1 −3
Ejemplo 3.1.11. Sea A = 0 1 −1. Calculemos el determinante de A mediante la expansión
3 3 2
por cofactores de A, con respecto a la fila 1. Se tiene
1 −1 0 −1 0 1
det( A) = −2 +1 −3 =2
3 2 3 2 3 3
Ejercicio 3.1.12. Considere a la matriz del ejemplo 3.1.11, calcule su determinante mediante la expansión
por cofactores de A, con respecto a la columna 3.
Teorema 3.1.13. Sea A ∈ Kn×n una matriz triangular superior o triangular inferior, entonces
2 0 0 0 0 0
8
−1 0 0 0 0
−9 6 2 0 0 0
Ejemplo 3.1.14. Consideremos la matriz A = .
4
6 −3 −2 0 0
−5 −2 3 5 1 0
2 −3 4 −6 2 2
Se sigue que det( A) = (2)(−1)(2)(−2)(1)(2) = 16
0 0 0 0 1
Observación. Por esta proposición, cuando se calcula el valor de un determinante, da lo mismo trabajar
por filas que trabajar por columnas.
3 0 3 2 0 2
Calcular AB, det( AB), det( A), det( B) y compruebe la igualdad del teorema 3.1.17.
Proposición 3.1.20. Sea A ∈ Kn×n . Si una fila o columna de A contiene solo ceros, entonces
det( A) = 0.
3 3 −2 3 −1 0
Notemos que la matriz B se obtiene al intercambiar las filas 2 y 3 de la matriz A. Además, det( A) = 2 y
det( B) = −2, es decir, la igualdad de la proposición 3.1.22 se verifica.
Ejercicio 3.1.24. Dadas las matrices
1 0 0 −1 3 0
A = 3 −1 0 y B = 0 1 0 .
3 3 −2 3 3 −2
1 −1 −1
Ejemplo 3.1.26. Dada la matriz A = −2 1 −2 cuyo determinante es 8. Considere a la matriz
0 2 0
1 2 −1
B = −2 −2 −2. Notemos que B se obtiene al multiplicar la segunda columna de la matriz A por
0 −4 0
−2.
Luego, det( B) = −2(8) = −16.
x y z
Ejercicio 3.1.28. Si det 3 0 2 = 1, calcular el determinante de la matriz:
1 1 1
x y z
3x + 3 3y 3z + 2 .
2 2 2
Proposición 3.1.29. Sea A ∈ Kn×n . Si dos filas o columnas de A son iguales, entonces
det( A) = 0
1 −1 3 3 1 2 3 1 2 3 1 2
det( A) =1 3 2 1 + 1 3 2 1 + 2 1 −1 3 + 2 1 −1 3
1 −2 3 1 −2 3 1 −2 3 3 2 1
= − 8 + 0 + 2(7) + 2(−3)
= 0.
3.1. DEFINICIONES Y PROPIEDADES FUNDAMENTALES 47
1 −1 1
Ejercicio 3.1.31. Calcular el determinante de la matriz B = 0 1 0.
1 −1 1
det( A) = 0
1 2 −1
Ejemplo 3.1.33. El determinante de la matriz B = −2 −2 −2 es nulo. Pues la fila 3 es múltiplo
3 6 −3
de la fila 1.
0 1 3
Ejemplo 3.1.38. Sea A = 2 −1 0 , determinemos sus cofactores correspondientes a la primera
−1 2 −1
columna.
−1 0
C11 = (−1)2 = 1.
2 −1
1 3
C21 = (−1)3 = 7.
2 −1
1 3
C31 = (−1)4 = 3.
−1 0
Ejercicio 3.1.39. Verifique que la matriz de los cofactores de la matriz A del ejemplo 3.1.38 es:
1 2 3
cof( A) = 7 3 −1
3 6 −2
Definición 3.1.40 (Matriz adjunta). Sea A ∈ Kn×n . La matriz adjunta de A, que se denota
por adj( A), es la matriz de orden n × n igual a la transpuesta de la matriz de cofactores de
A, es decir:
adj( A) = cof( A)T .
3 −1 −2
!
3 −2
Ejercicio 3.1.42. Sea B = , calcular adj( B).
−1 2
−1 2 −1 3 −1 −2 0 0 11
1 7 3 0 1 3 11 0 0
adj( A) A = 2 3 6 2 −1 0 = 0 11 0 = 11I3
3 −1 −2 −1 2 −1 0 0 11
1
A −1 = adj( A).
det( A)
1 7 3
1 7 3 11 11 11
1 2 3 6
A −1 = 2 3 6 =
11 11 11 11
3 −1 −2
3 1 2
− −
11 11 11
Ejercicio 3.1.47. Dada la matriz B del ejemplo 3.1.42, calcule su matriz inversa.
1
det( A−1 ) = .
det( A)
1 1
det( A−1 ) = =
11 det( A)
Ejercicio 3.1.50. Compruebe la igualdad del teorema 3.1.48 para la matriz del ejemplo 3.1.42.
Teorema 3.1.55 (Equivalencias no singulares). Sea A ∈ Kn×n , los siguientes enunciados son
equivalentes.
1. A es no singular;
4. rang( A) = n;
6. det( A) ̸= 0.
3.2. Ejercicios
1. Sea A ∈ R2×2 dada por
1 1 −1
A = 0 α−3 1 .
−3 −3 α − 6
2. Considere la matriz
3 1 0
A = −2 4 3 .
5 4 −2
Hallar:
a) adj A
b) adj ( A−1 )
1 5 2
5. Sea A = 2 1 1.
1 2 0
Espacios vectoriales
4.1. Rn y Cn
C = { a + bi : a, b ∈ R}.
( a + bi ) + (c + di ) = ( a + c) + (b + d)i
( a + bi )(c + di ) = ( ac − bd) + ( ad + bc)i
con a, b, c, d ∈ R.
Solución.
(2 + 3i )(4 + 5i ) = (2 · 4 − 3 · 5) + (2 · 5 + 3 · 4)i
= −7 + 22i.
53
54 CAPÍTULO 4. ESPACIOS VECTORIALES
Denotemos por −z1 al inverso aditivo de z1 , entonces −z1 es el único número com-
plejo tal que z1 + (−z1 ) = 0.
A modo de repaso de los temas anteriores (el sistema puede resolverse sin usar la inversa), obser-
vemos que la matriz asociada al sistema es
!
4 −5
A=
5 4
4.1. Rn Y Cn 55
y su determinante es det A = 4(4) − 5(−5) = 41. Por lo tanto, el sistema tiene solución única y es
tal que
a −1 1
=A
b 0
donde !
1 1 4 5
A −1 = adj( A) = ,
det A 41 −5 4
luego, la solución es
!
a 1 4 5 1 1 4 4/41
= = = .
b 41 −5 4 0 41 −5 −5/41
Luego,
1 4 5
= − i.
4 + 5i 41 41
Finalmente,
2 + 3i 1
= (2 + 3i )
4 + 5i 4+ 5i
4 5
= (2 + 3i ) − i
41 41
8 10 12 15
= − i+ i+
41 41 41 41
23 2
= + i.
41 41
Solución.
2 + 3i (2 + 3i )(4 − 5i )
=
4 + 5i (4 + 5i )(4 − 5i )
8 − 10i + 12i − 15i2
=
16 − 20i + 20i − 25i2
23 + 2i
=
41
23 2
= − i.
41 41
zz = ( a + bi )( a − bi ) = a2 + b2 .
Observación. En los capítulos anteriores, denotamos por K al campo de los números reales R o al campo
de los números complejos C. A partir de ahora, usaremos F en lugar de K. Recordemos que los elementos
del campo F se denominan escalares.
Antes de introducir a los conjuntos Rn y Cn , definamos el concepto de lista.
Definición 4.1.10 (Lista). Para un entero no negativo n. Una lista de tamaño n es una co-
lección ordenada de n elementos (que pueden ser números, otras listas u otros objetos)
separados por comas y encerrados entre paréntesis, es decir,
( x1 , x2 , . . . , x n ).
Por ejemplo, (1, 2, 3) es una lista de números reales de tamaño 3, (1, 2, (3, 4), i ) es una lista
de tamaño 4, donde los dos primeros elementos son reales, el tercero es un par ordenado y
el último, un complejo.
Comunmente, se denomina como n-upla a una lista de tamaño n.
Observación. Un objeto de la forma ( x1 , x2 , . . .) al no tener tamaño finito, no se considera como una lista.
R2 = {( x, y) : x, y ∈ R}
R3 = {( x, y, z) : x, y, z ∈ R}.
Si F = C, para n = 4 :
C4 = {( x, y, z, w) : x, y, z, w ∈ C}.
A continuación, definiremos las operaciones de suma y producto por un escalar en Fn .
x + y = ( x1 + y1 , x2 + y2 , . . . , x n + y n ).
Las propiedades que se han probado anteriormente para R y C se cumplen para Fn , por ejem-
plo, la propiedad conmutativa de la suma como se demuestra a continuación:
x + y = ( x1 , x2 , . . . , x n ) + ( y1 , y2 , . . . , y n )
4.2. DEFINICIÓN DE ESPACIO VECTORIAL 57
= ( x1 + y1 , x2 + y2 , . . . , x n + y n )
= ( y1 + x1 , y2 + x2 , . . . , y n + x n )
= ( y1 , y2 , . . . , y n ) + ( x1 , x2 , . . . , x n )
= y + x.
para todo x ∈ Fn .
x + (− x ) = 0.
Definamos ahora el producto por un escalar en Fn , como un caso particular del producto por
escalar definido para matrices.
Un espacio vectorial será un conjunto V no vacío en el cual se definen dos operaciones, suma
y producto por un escalar.
58 CAPÍTULO 4. ESPACIOS VECTORIALES
⊕ : V × V −→ V
(u, v) 7−→ u ⊕ v,
⊙ : F × V −→ V
(α, v) 7−→ α ⊙ v
u ⊕ v = v ⊕ u;
( u ⊕ v ) ⊕ w = u ⊕ ( v ⊕ w );
u ⊕ 0 = 0 ⊕ u = u, para todo u ∈ V.
v ⊕ (−w) = 0;
α ⊙ (u ⊕ v) = α ⊙ u ⊕ α ⊙ v
(α + β) ⊙ u = α ⊙ u ⊕ β ⊙ u;
6. Asociativa del producto por escalar: para todo u ∈ V y todo α, β ∈ F se tiene que
( α · β ) ⊙ u = α ⊙ ( β ⊙ u );
7. Elemento neutro del producto por escalar: existe un elemento 1 ∈ F tal que
1 ⊙ u = u, para todo u ∈ V.
4.2. DEFINICIÓN DE ESPACIO VECTORIAL 59
( x1 , x2 , . . . , x n ) + ( y1 , y2 , . . . , y n ) = ( x1 + y1 , x2 + y2 , . . . , x n + y n ).
α( x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ).
F (S) = { f : S → F : f es una función}, siendo S un conjunto. Se define la suma usual entre dos
funciones en F (S) como
(α f )( x ) = α f ( x ), para todo x ∈ S.
( a0 + a1 x + · · · + am x m ) + (b0 + b1 x + · · · + bm x m ) = ( a0 + b0 ) + ( a1 + b1 ) x + · · · + ( am + bm ) x m ,
F∞ = {( x1 , x2 , . . .) : x j ∈ F para j = 1, 2, . . .}.
Ejercicio 4.2.4. Demuestre que R3 es un espacio vectorial bajo la suma y producto por escalar usuales.
1. Asociativa de la suma
Suponga que a = ( a1 , a2 , a3 ) ∈ R3 , b = (b1 , b2 , b3 ) ∈ R3 y c = (c1 , c2 , c3 ) ∈ R3 . Entonces:
( a ⊕ b) ⊕ c
2. Conmutativa de la suma
Suponga que a = ( a1 , a2 , a3 ) ∈ R3 y b = (b1 , b2 , b3 ) ∈ R3 . Entonces:
a ⊕ b = ( a1 , a2 , a3 ) ⊕ (b1 , b2 , b3 ) Definiciones de a y b
= ( a1 + b1 , a2 + b2 , a3 + b3 ) Definición de ⊕ en R3
= (b1 + a1 , b2 + a2 , b3 + a3 ) Conmutativa de + en R
= (b1 , b2 , b3 ) ⊕ ( a1 , a2 , a3 ) Definición de ⊕ en R3
= b⊕a Definiciones de a y b
(∃0E ∈ R3 )(∀ a ∈ R3 )( a ⊕ 0E = 0E ⊕ a = a)
Sea 0E = (0, 0, 0). Se debe probar que para todo a = ( a1 , a2 , a3 ) ∈ R3 se cumpla que:
a ⊕ 0E = 0E ⊕ a = a
En efecto:
a ⊕ 0E = ( a1 , a2 , a3 ) ⊕ (0, 0, 0) Definiciones de a y 0E
4.2. DEFINICIÓN DE ESPACIO VECTORIAL 61
= ( a1 + 0, a2 + 0, a3 + 0) Definición de ⊕ en R3
= ( a1 , a2 , a3 ) Neutro aditivo en R
=a Definición de a
4. Inverso de la suma
(∀ a ∈ R3 )(∃ â ∈ R3 )( â ⊕ a = a ⊕ â = 0E )
Esta también es una demostración de existencia, en este caso, por el orden de los cuantifica-
dores, el elemento â depende de a.
â = (− a1 , − a2 , − a3 )
a ⊕ â = ( a1 , a2 , a3 ) ⊕ (− a1 , − a2 , − a3 ) Definiciones de a y â
= ( a1 + (− a1 ), a2 + (− a2 ), a3 + (− a3 )) Definición de ⊕ en R3
= (0, 0, 0) Inverso aditivo en R
= 0E Definición de 0E
â ⊕ a = 0E
= λ ⊙ (( a1 , a2 , a3 ) ⊕ (b1 , b2 , b3 )) Definiciones de a y b
= λ ⊙ ( a1 + b1 , a2 + b2 , a3 + b3 ) Definición de ⊕ en R3
= (λ · [ a1 + b1 ], λ · [ a2 + b2 ], λ · [ a3 + b3 ]) Definición de ⊙ en R3
= (λ · a1 , λ · a2 , λ · a3 ) ⊕ (λ · b1 , λ · b2 , λ · b3 ) Definición de ⊕ en R3
= λ ⊙ ( a1 , a2 , a3 ) ⊕ λ ⊙ (b1 , b2 , b3 ) Definición de ⊙ en R3
= λ⊙a⊕λ⊙b Definiciones de a y b
62 CAPÍTULO 4. ESPACIOS VECTORIALES
= ( λ + β ) ⊙ ( a1 , a2 , a3 ) Definición de a
= ((λ + β) · a1 , (λ + β) · a2 , (λ + β) · a3 ) Definición de ⊙ en R3
= (λa1 + βa1 , λa2 + βa2 , λa3 + βa3 ) Distributiva del producto en R
= (λa1 , λa2 , λa3 ) ⊕ ( βa1 , βa2 , βa3 ) Definición de ⊕ en R3
= λ ⊙ ( a1 , a2 , a3 ) ⊕ β ⊙ ( a1 , a2 , a3 ) Definición de ⊙ en R3
= λ⊙a⊕β⊙a Definición de a
( λ · β ) ⊙ a = ( λ · β ) ⊙ ( a1 , a2 , a3 ) Definición de a
= ((λ · β) · a1 , (λ · β) · a2 , (λ · β) · a3 ) Definición de ⊙ en R3
= (λ · ( β · a1 ), λ · ( β · a2 ), λ · ( β · a3 )) Asociativa · en R
= λ ⊙ ( β · a1 , β · a2 , β · a3 ) Definición de ⊙ en R3
= λ ⊙ ( β ⊙ ( a1 , a2 , a3 )) Definición de ⊙ en R3
= λ ⊙ ( β ⊙ a) Definición de a
1 ⊙ a = 1 ⊙ ( a1 , a2 , a3 ) Definición de a
= (1 · a1 , 1 · a2 , 1 · a3 ) Definición de ⊙ en R3
= ( a1 , a2 , a3 ) Neutro multiplicativo en R
=a Definición de a
En vista que se satisfacen todas las propiedades de la Definición 4.2.2 se concluye que
(R3 , ⊕, ⊙, R) es un espacio vectorial.
Ejercicio 4.2.5. Verifique si el conjunto de polinomios con coeficientes reales de grado menor o igual que 2
P2 (R) = { p : p( x ) = a0 + a1 x + a2 x2 : ai ∈ R, 0 ≤ i ≤ 2}
junto a las operaciones usuales de suma de matrices y producto de un escalar por matriz es un espacio
vectorial real.
Proposición 4.3.1. En un espacio vectorial las siguientes afirmaciones son siempre verdade-
ras:
c) 0v = 0 para todo v ∈ V.
d) a0 = 0 para todo a ∈ F.
Demostración.
0 = 0 + 0′ = 0′ + 0 = 0′ ,
la primera igualdad se satisface dado que 0′ es neutro aditivo, la segunda resulta de la pro-
piedad conmutativa de la suma y la tercera se cumple dado que 0 es neutro aditivo. Por lo
tanto, 0 = 0′ .
w = w + 0 = w + (v + w′ ) = (w + v) + w′ = 0 + w′ = w′ ,
la primera igualdad se satisface dado que 0 es neutro aditivo, la segunda resulta de la pro-
piedad asociativa de la suma, la tercera se cumple pues w′ es inverso aditivo de v, la cuarta
se tiene ya que v es inverso aditivo de w y la quinta se cumple porque 0 es neutro aditivo.
Por lo tanto, w = w′ .
c) Sea v ∈ V, entonces
0v = (0 + 0)v = 0v + 0v,
0 = 0v.
64 CAPÍTULO 4. ESPACIOS VECTORIALES
d) Sea a ∈ F, entonces
a0 = a(0 + 0) = a0 + a0,
e) Sea v ∈ V, entonces
Hemos probado que al sumarle (−1)v a v se obtiene el neutro aditivo, por lo tanto, (−1)v es
el inverso aditivo de v, es decir, −v = (−1)v.
Observación. Utilizamos los símbolos ⊕ y ⊙ para enfatizar el hecho de que, en general, las operaciones
definidas no son la suma y el producto estándar que utilizamos. Si no existe riesgo de confusión, utilizaremos
la notación
x⊕y = x+y y α ⊙ x = αx
y diremos que el espacio vectorial es ( E, +, ·, K). En caso de que no exista ambigüedad en las operaciones
utilizadas se dirá que E es un espacio vectorial sobre K. Además, si el campo está sobre entendido diremos
que E es un espacio vectorial.
Observación. Un error común es pensar que el elemento neutro es siempre el cero, ya que, dependiendo
del espacio vectorial, se tiene un determinado elemento neutro. Por ejemplo:
x ⊕ y = xy y α ⊙ x = xα
Neutro aditivo: 0 ∈ U
Ejemplo 4.4.3 (Subespacio trivial). Para cualquier espacio vectorial V, el subconjunto U = {0V } que
consiste únicamente del vector neutro es un subespacio vectorial y es el más pequeño de V. En efecto,
0V + 0V = 0V
y
α0V = 0V
Ejemplo 4.4.4. Considere el espacio vectorial F3 con sus operaciones usuales de suma y producto por un
escalar y el conjunto:
U = {( x, y, 0) ∈ F2 : x, y ∈ F}.
por lo tanto, U no es un subespacio vectorial de R2 , dado que no cumple la segunda propiedad del Teore-
ma 4.4.2.
junto a las operaciones usuales de suma y producto por un escalar en R4 es un espacio vectorial real.
x1 + x2 ∈ U1 y x1 + x2 ∈ U2
66 CAPÍTULO 4. ESPACIOS VECTORIALES
αx1 ∈ U1 y αx1 ∈ U2
es decir, αx1 ∈ U1 ∩ U2 . Por lo tanto, se verifica la clausura de la suma y producto por un escalar.
Así, U1 ∩ U2 es un subespacio vectorial de V.
Ejercicio 4.4.8. En el espacio vectorial R2 con las operaciones usuales de suma y producto con un escalar,
sean los subespacios vectoriales:
U1 = {( x, y) ∈ R2 : x = y} y U2 = {( x, y) ∈ R2 : x + 2y = 0}.
4.5. Ejercicios
1. Sea N, el conjunto de los números naturales, junto con las operaciones usuales de la suma y
el producto por un escalar α ∈ R, ¿es N un espacio vectorial?
2. Sea Z, el conjunto de los números enteros, junto con las operaciones usuales de la suma y el
producto por un escalar α ∈ C, ¿es Z un espacio vectorial?
3. Sea R+ , el conjunto de los números positivos, junto con las operaciones usuales de la suma
y el producto por un escalar α ∈ R, ¿es R+ un espacio vectorial?
4. Sea V el conjunto de las matrices reales n × n invertibles, junto con las operaciones usuales
de la suma y el producto por un escalar α ∈ R, ¿es V un espacio vectorial?
8. Sea P3 (R) el espacio vectorial de todos los polinomios con coeficientes en R de grado me-
nor o igual a 3. Considere los conjuntos U = { p ∈ P3 (R) : p(1) = p′ (1) = 0} y W = { p ∈
P3 (R) : p′′ (0) = 0} (note que p′ y p′′ es la primera y segunda derivadas de p).
Otra forma equivalente de escribir listas es como conjuntos, decir que la lista v1 , v2 , . . . , vm
satisface cierta propiedad, será equivalente a decir que el conjunto {v1 , v2 , . . . , vm } cumple dicha
propiedad. Cuando el orden sea importante, se utilizará la notación de lista, en caso contrario, se
utilizará la notación de conjunto.
a1 v1 + a2 v2 + · · · + A n v m ,
Ejemplo 5.1.2.
1. En R3 , (2, 3, −5) es una combinación lineal de la lista (1, 0, 0), (0, 1, 0), (0, 0, 1), pues
69
70 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
pues ! ! !
−7 3 1 0 0 1
= (−7) +3 .
3 7 0 −1 1 0
4. En R2 , el vector (2, −3) no es una combinación lineal de la lista (1, 1), (2, 2), pues no existe a, b ∈ R
tales que
(2, −3) = a(1, 1) + b(2, 2).
Ejercicio 5.1.3. Verifique si el vector (17, −4, 2) es combinación lineal de los vectores (2, 1, −3), (1, −2, 4).
Definición 5.1.4 (Espacio generado por una lista). El conjunto de todas las combinaciones
lineales de la lista v1 , v2 , . . . , vm de vectores de un espacio vectorial V se llama espacio ge-
nerado por v1 , v2 , . . . , vn y se denota por ⟨v1 , . . . , vm ⟩ o gen(v1 , . . . , vm ). En otras palabras,
gen(v1 , . . . , vm ) = { a1 v1 + a2 v2 + · · · + am vm : a1 , a2 , . . . , am ∈ F}.
Ejemplo 5.1.5. Calculemos el espacio generado por la lista (1, −2), (0, 1). Para esto, utilizando la defini-
ción
gen((1, −2), (0, 1)) = { a(1, −2) + b(0, 1) : a, b ∈ R},
Es natural plantearse la pregunta si gen((1, −2), (0, 1)) = R2 , para esto, consideremos un vector arbitra-
rio ( x, y) ∈ R2 y veamos si pertenece a gen((1, −2), (0, 1)). Para esto, debemos encontrar a, b ∈ R tales
que ( x, y) = ( a, −2a + b), es decir, debemos resolver el sistema lineal
! ! !
1 0 a x
= .
−2 1 b y
Dado que el sistema tiene solución única para cualquier valor de x, y, concluimos que gen((1, −2), (0, 1)) =
R2 .
Ejemplo 5.1.6. Calculemos el espacio generado por la lista (2, 1, 0), (1, 1, 0), (1, 0, 0). Para esto, utilizando
5.1. COMBINACIÓN LINEAL Y ESPACIO GENERADO 71
la definición
gen((2, 1, 0), (1, 1, 0), (1, 0, 0)) = { a(2, 1, 0) + b(1, 1, 0) + c(1, 0, 0) : a, b, c ∈ R},
= {(2a + b + c, a + b, 0) : a, b, c ∈ R}.
Si buscamos ( x, y, z) ∈ R3 tales que ( x, y, z) ∈ gen((2, 1, 0), (1, 1, 0), (1, 0, 0)), debemos resolver el siste-
ma lineal
2a + b + c = x,
a + b = y,
0 = z.
2 1 1 | x 1 1 0 | y 1 1 0 | y
1 1 0 | y ∼ 2 1 1 | x ∼ 0 −1 1 | x − 2y
0 0 0 | z 0 0 0 | z 0 0 0 | z
Ejemplo 5.1.7. Calcule el espacio generado por la lista de polinomios 3, 2 − x2 en P2 (R). Para esto,
utilizando la definición
a0 = 3a + 2b,
a1 = 0,
a2 = −b,
es decir,
3 2 | a0 3 2 | a0
0 0 | a1 ∼ 0 −1 | a2 .
0 −1 | a2 0 0 | a1
72 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
gen(3, 2 − x2 ) = { a0 + a2 x2 : a0 , a2 ∈ R}.
Proposición 5.1.9. El espacio generado por una lista de vectores de un espacio vectorial V
es un subespacio vectorial de V.
u = a1 v1 + a2 v2 + · · · + a m v m , v = b1 v1 + b2 v2 + · · · + bm vm .
Así,
u + v = ( a1 v1 + a2 v2 + · · · + am vm ) + (b1 v1 + b2 v2 + · · · + bm vm ),
= ( a1 + b1 )v1 + ( a2 + b2 )v2 + · · · + ( am + bm )vm ,
av = a(b1 v1 + b2 v2 + · · · + bm vm ),
= ( ab1 )v1 + ( ab2 )v2 + · · · + ( abm )vm ,
Definición 5.1.10 (Lista generadora de V). Se dice que una lista v1 , v2 , . . . , vm de vectores de
un espacio vectorial V genera a V si gen(v1 , . . . , vm ) = V.
Ejemplo 5.1.11.
La lista (1, 0, 0), (0, 1, 0), (0, 0, 1) genera a R3 , pues gen((1, 0, 0), (0, 1, 0), (0, 0, 1)) = R3 . En gene-
ral, la lista de vectores de tamaño n con un 1 en la i-ésima coordenada y ceros en las demás coordenadas
genera a Rn :
(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)
La lista de matrices ! ! ! !
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1
genera a R2×2 .
p ( x ) = a0 + a1 x + a2 x 2 + · · · + a m x m .
para todo x ∈ F. El conjunto de todos los polinomios con coeficientes en F se denota por
P (F).
Ejemplo 5.1.15 (P (F) es de dimensión infinita). Supongamos por reducción al absurdo que existe una
lista de polinomios que generan P (F), sea esta p1 , p2 , . . . , pr . Sea m el grado del polinomio de mayor grado
de la lista p1 , p2 , . . . , pr , luego este conjunto solo podrá generar polinomios hasta grado m. Pero el polinomio
x m+1 ∈ P (F) no puede ser generado por p1 , p2 , . . . , pr , lo cual es una contradicción. Por lo tanto, P (F) es
de dimensión infinita.
Ejercicio 5.1.16. Probar que el espacio de sucesiones definido en el Ejemplo 4.2.3 es de dimensión infinita.
Nos preguntamos si el vector (0, 0) se puede representar como combinación lineal de los vectores
anteriores. La respuesta es si, y, de hecho, existen infinitas posibilidades, por ejemplo:
existe una única forma de representar al vector (0, 0) como combinación lineal de los vectores
anteriores, es decir,
(0, 0) = (0)(1, 0) + (0)(0, 1),
en este caso, diremos que la lista (1, 0), (0, 1) es linealmente independiente.
a 1 v 1 + a 2 v 2 + · · · + a m v m = 0V ,
Ejemplo 5.2.2. Consideremos la lista del ejemplo anterior, v1 = (1, 0), v2 = (0, 1), v3 = (−1, 1). Para
verificar si es linealmente independiente o dependiente, debemos resolver el sistema lineal
es decir,
a1 − a3 = 0,
a2 + a3 = 0.
Notemos que al estar escalonada, por Rouché-Frobenius, el sistema tiene infinitas soluciones, pues rang( A) =
rang( A|b) = 2 < 3, dado que el número de incógnitas es 3. Por lo tanto, la lista v1 , v2 , v3 es linealmente
dependiente.
Ejercicio 5.2.3. Verifique, utilizando la definición que la lista v1 = (1, 0), v2 = (0, 1) es linealmente
independiente.
4. Si una lista contiene un vector que es combinación lineal de los demás, entonces es
linealmente dependiente.
Ideas de demostración.
2. Si v1 , v2 son múltiplos escalares uno del otro, entonces existe λ ∈ F tal que λ ̸= 0 y v1 = λv2 ,
luego la ecuación
a 1 v 1 + a 2 v 2 = 0V ,
(λa1 + a2 )v2 = 0V ,
Ejemplo 5.2.5. La lista (2, 3, 1), (1, −1, 2), (7, 3, 8) es linealmente dependiente en R3 . En efecto, si resol-
vemos el sistema lineal
a1 (2, 3, 1) + a2 (1, −1, 2) + a3 (7, 3, 8) = (0, 0, 0),
76 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
1 2 8 | 0 0 0 0 | 0
como rang( A) = rang( A|b) = 2 < 3, el sistema tiene infinitas soluciones y por lo tanto, la lista es
linealmente dependiente.
Por ejemplo,
(2)(2, 3, 1) + (3)(1, −1, 2) + (−1)(7, 3, 8) = (0, 0, 0),
para identificar si la solución a1 , a2 , a3 ∈ R es única o no. Para esto escalonamos la matriz ampliada
del sistema anterior
1 0 1 | 0 1 0 1 | 0
0 1 1 | 0 0 1 1 | 0
∼
0 1 1 | 0 0 0 0 | 0 .
1 0 1 | 0 0 0 0 | 0
Notemos que el sistema tiene infinitas soluciones, pues rang( A) = rang( A|b) = 2 < 3. Por lo
tanto, la lista es linealmente dependiente.
Otra forma de probar que la lista es linealmente dependiente es notar que la tercera matriz es
combinación lineal de las dos primeras, pues
! ! !
1 1 1 0 0 1
= + .
1 1 0 1 1 0
Ejercicio 5.2.7. Probar que las listas del Ejemplo 5.1.11 son linealmente independientes.
El siguiente Teorema tiene gran importancia para los resultados que se estudiarán en la si-
guiente sección. Nos permitirá obtener listas linealmente independientes a partir de listas lineal-
mente dependientes que generan un espacio vectorial.
5.2. INDEPENDENCIA LINEAL 77
v j ∈ gen(v1 , v2 , . . . , v j−1 ).
a 1 v 1 + a 2 v 2 + · · · + a m v m = 0V .
a1 a2 a j −1
vj = − v1 − v2 − · · · − v j −1 (5.2)
aj aj aj
u = b1 v1 + b2 v2 + · · · + bm vm .
Así, u ∈ gen(v1 , v2 , . . . , v j−1 , v j+1 , . . . , vm ). La otra contenencia es trivial y se deja como ejercicio
propuesto.
Ejemplo 5.2.9. Recordemos el ejemplo del principio de esta sección, se demostró que la lista
es linealmente dependiente. Por el lema de dependencia lineal, existe j ∈ {1, 2, 3} tal que v j ∈ gen(v1 , v2 , . . . , v j−1 ).
78 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
gen(v1 , v2 , v3 ) = gen(v1 , v2 ).
La aplicación de este resultado permite identificar listas que no son linealmente independien-
tes o que no son generadoras de un espacio vectorial de dimensión finita, como se muestra en los
siguientes ejemplos.
Ejemplo 5.2.11. Demostrar que la lista (1, 2, 3), (4, 5, 8), (9, 6, 7), (−3, 2, 8) no es linealmente indepen-
diente en R3 .
genera a R3 . Por el teorema anterior, la lista (1, 2, 3), (4, 5, 8), (9, 6, 7), (−3, 2, 8) no puede ser lineal-
mente independiente, pues tiene longitud 4 y la lista generadora tiene longitud 3.
Ejemplo 5.2.12. Demostrar que la lista (1, 2, 3, −5), (4, 5, 8, 3), (9, 6, 7, −1) no genera a R4 .
no puede generar a R4 , pues tiene longitud 3 y heos presentado una lista linealmente indepen-
diente de longitud 4.
p3 ( x ) = 2p1 ( x ) + p2 ( x ).
5.2. INDEPENDENCIA LINEAL 79
gen( p1 , p2 , p3 ) = gen( p1 , p2 ).
Observemos adicionalmete que por el Ejercicio 5.2.7, la lista p1 , p2 no puede generar a P2 (R), pues tiene
longitud 2 y la lista linealmente independiente 1, x, x2 tiene longitud 3.
Ejercicio 5.2.14. Explique porqué no existe una lista de 6 polinomios que sea liealmente independiente en
P4 (R).
Asumiendo que U es subespacio vectorial de R2×2 , encuentre una lista de matrices que generen este subes-
pacio.
Nuestro propósito es encontrar una lista de matrices que generen a U, en otras palabras, buscamos
matrices A1 , A2 , . . . , Am tales que U = gen{ A1 , . . . , Am }. Por contenencia de conjuntos, debemos
grantizar que
gen{ A1 , . . . , Am } ⊆ U.
U ⊆ gen{ A1 , . . . , Am }.
El primer punto siempre es cierto gracias a la Proposición 5.1.9. Para el segundo punto, tomamos
una matriz A ∈ U y debemos encontrar escalares a1 , . . . , am tales que
A = a1 A1 + . . . + a m A m .
5.3. Bases
Una vez establecidos los conceptos de independencia lineal y generación de un espacio vecto-
rial, estamos en condiciones de definir una base de un espacio vectorial.
Definición 5.3.1 (Base). Una base de un espacio vectorial V es una lista de vectores de V
que es linealmente independiente y genera a V.
Ejemplo 5.3.2. 1. La lista (1, 0, 0), (0, 1, 0), (0, 0, 1) es una base de R3 .
3. La lista (1, 2, −3), (1, 0, 1) es linealmente independiente en R3 , pero no genera a R3 , por lo tanto, no
es una base de R3 .
4. La lista (1, 2), (1, 0), (2, 2) genera R2 , pero no es linealmente independiente, por lo tanto, no es una
base de R2 .
U = {( x, y, z) ∈ R3 : x + y + z = 0}.
6. La lista de matrices ! ! !
1 0 0 1 0 0
, ,
0 0 1 0 0 1
es una base del subespacio
( ! )
a b
U= ∈R 2,2
: a, b, c ∈ R .
b c
Ejercicio 5.3.3. Probar que las afirmaciones del ejemplo anterior son verdaderas.
Observación. Es importante notar que un espacio vectorial V puede tener diferentes bases. Sin embargo,
cada vector v ∈ V se representará de manera única en cada base, como se muestra en el siguiente resultado.
v = a1 v1 + a2 v2 + · · · + a m v m .
5.3. BASES 81
Demostración. Supongamos que v1 , v2 , . . . , vm es una base de V y que existen dos formas de repre-
sentar a un vector v ∈ V como combinación lineal de esta base, es decir,
v = a1 v1 + a2 v2 + · · · + a m v m ,
v = b1 v1 + b2 v2 + · · · + bm vm .
v = a1 v1 + a2 v2 + · · · + a m v m .
a 1 v 1 + a 2 v 2 + · · · + a m v m = 0V .
gen(v1 , v2 , . . . , vm ) = V,
es trivial, dado que para cada v ∈ V existe una combinación lineal de v1 , v2 , . . . , vm que lo repre-
senta.
Nuestro trabajo ahora es encontrar bases de un espacio vectorial. Para esto, utilizaremos el
Lema de dependencia lineal para eliminar vectores de una lista generadora hasta obtener una lista
linealmente independiente. El siguiente teorema nos garantiza que este proceso siempre termina.
Teorema 5.3.5 (Una lista generadora contiene una base). Una lista generadora de un espacio
vectorial puede reducirse a una base del espacio vectorial.
Demostración. Este resultado se tiene gracias al Teorema de Dependencia lineal. Basta repetir el
procedimiento hasta que la lista resultante sea linealmente independiente.
Corolario 5.3.5.1. Todo espacio vectorial de dimensión finita tiene una base.
El siguiente resultado es, de cierta forma, dual al Teorema 5.3.5. Nos permite encontrar una
base de un espacio vectorial a partir de una lista linealmente independiente que genera al espacio
vectorial.
82 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
Teorema 5.3.6 (Extensión de una lista linealmente independiente a una base). Toda lista
linealmente independiente de vectores de un espacio vectorial V puede extenderse a una
base de V.
es una lista generadora de V. Por el Teorema 5.3.5, podemos eliminar vectores de esta lista hasta
obtener una base de V. Como la lista u1 , . . . , um es linealmente independiente, no se puede elimi-
nar ninguno de estos vectores y podrían agregarse algunos w’s.
El siguiente ejemplo utiliza la demostración del Teorema anterior para encontrar una base a
partir de una lista linealmente independiente.
Solución. Conocemos que la lista w1 = (1, 0, 0), w2 = (0, 1, 0), w3 = (0, 0, 1) es una base de R3 . Por
lo tanto, podemos aplicar el algoritmo anterior a la lista u1 , u2 , w1 , w2 , w3 , esto es
(1, 2, 3), (1, 0, 1), (1, 0, 0), (0, 1, 0), (0, 0, 1).
Empecemos con j = 3 dado que los dos primeros vectores son l.i. Nos preguntamos si w3 es
combinación lineal de u1 , u2 . Para esto, resolvemos el sistema lineal
3 1 | 0 0 −2 | −3 0 −2 | −3 0 0 | −1
w1 ̸∈ gen(u1 , u2 ).
se obtendría la base buscada, pues por el Teorema 5.2.10, las listas l.i. no pueden ser de tamaño
mayor que las listas generadoras.
5.4. SUMA DE SUBESPACIOS 83
U1 + · · · + Um = {u1 + · · · + um : u1 ∈ U1 , . . . um ∈ Um }.
U1 = {( x, 0, 0) ∈ R3 : x ∈ R},
U2 = {(0, y, 0) ∈ R3 : y ∈ R},
U3 = {(0, 0, z) ∈ R3 : z ∈ R}.
U1 + U2 + U3 = R3 .
0V = 0V + . . . + 0V .
Luego,
u + v = ( u1 + v1 ) + · · · + ( u m + v m ),
u j = 0V + · · · + 0V + u j + 0V + . . . , 0V ∈ U1 + · · · + Um .
Nos enfocaremos además en sumas para las cuales, la representación de un vector en la suma
es única. Este concepto se define como sumas directas.
U1 = {( x, 0, 0) ∈ R3 : x ∈ R},
U2 = {(0, y, 0) ∈ R3 : y ∈ R},
U3 = {(0, 0, z) ∈ R3 : z ∈ R}.
U1 ⊕ U2 ⊕ U3 = R3 .
En general, demostrar que una suma es directa no es tan sencillo como en el ejemplo anterior.
A continuación, presentamos algunos resultados que permiten facilitar esta tarea.
Proposición 5.4.7 (Suma directa entre dos subespacios). Suponga U y W son subespacios
de V. La suma U + W es directa si y solo si U ∩ W = {0V }.
U ∩ W = { p ∈ P2 (R ) : p ( x ) = a 0 , a 0 ∈ R } ̸ = { 0v } .
5.4. SUMA DE SUBESPACIOS 85
Así, U + W no es directa.
U1 + U2 = gen( B1 ∪ B2 ).
W1 = {( x, 0, 0) ∈ R3 : x ∈ R} y W2 = {(0, y, 0) ∈ R3 : y ∈ R}
W1 + W2 = span( B1 ∪ B2 )
= span({(1, 0, 0), (0, 1, 0)})
= {( x, y, z) ∈ R3 : ( x, y, z) = α1 (1, 0, 0) + α2 (0, 1, 0), α1 , α2 ∈ R}
= {( x, y, z) ∈ R3 : ( x, y, z) = (α1 , α2 , 0), α1 , α2 ∈ R}
= {( x, y, z) ∈ R3 : α1 = x, α2 = y, z = 0, α1 , α2 ∈ R}
= {( x, y, z) ∈ R3 : z = 0}
= {( x, y, 0) ∈ R3 : x, y ∈ R}
W1 = {( x, y, z) ∈ R3 : x + y + z = 0} y W2 = {( x, y, z) ∈ R3 : x = z = 0}.
Se tiene que:
W1 = {( x, y, − x − y) : x, y ∈ R}
= { x (1, 0, −1) + y(0, 1, −1) : x, y ∈ R}
= ⟨{(1, 0, −1), (0, 1, −1)}⟩
| {z }
:= B1
con B1 un conjunto linealmente independiente, es decir, B1 = {(1, 0, −1), (0, 1, −1)} es una base de W1 .
86 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
Además,
W2 = {(0, y, 0) : y ∈ R}
= {y(0, 1, 0) : y ∈ R}
= ⟨{(0, 1, 0)}⟩
| {z }
:= B2
con B2 un conjunto linealmente independiente, es decir, B2 = {(0, 1, 0)} es una base de W2 . Por tanto:
W1 + W2 = span( B1 ∪ B2 )
= {( x, y, z) ∈ R3 : ( x, y, z) = λ1 (1, 0, −1) + λ2 (0, 1, −1) + λ3 (0, 1, 0)}
= {( x, y, z) ∈ R3 : (λ1 , λ2 + λ3 , −λ1 − λ2 ) = ( x, y, z)}
= R3
además,
W1 ∩ W2 = {( x, y, z) ∈ R3 : x + y + z = 0, x = z = 0}
= {( x, y, z) ∈ R3 : x = y = z = 0}
= (0, 0, 0)
de lo anterior se concluye:
R3 = W1 ⊕ W2 .
Teorema 5.4.14 (Todo subespacio de V es parte de una suma directa que es igual a V).
Suponga que V es un espacio vectorial de dimensión finita y U es un subespacio de V.
Entonces existe un subespacio W de V tal que V = U ⊕ W.
Idea de demostración. Dado que V es de dimensión finita, lo es también U por el Teorema 5.2.15.
Por lo tanto, U tiene una base B = {u1 , . . . , um }. Extendemos esta base a una base de V, es decir,
existe una base B′ = {u1 , . . . , um , w1 , . . . , wn } de V. Definimos W = gen{w1 , . . . , wn } y probamos
que V = U ⊕ W.
U = {( x, y, x + y, x − y, 2x ) ∈ R5 : x, y ∈ R}.
Se puede probar que la lista (1, 0, 1, −1, 2), (0, 1, 1, −1, 0) es linealmente independiente, por lo tan-
to, es una base de U. Extendemos esta base a una base de R5 , para esto, notemos que la lista
(1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1) es una base de R5 . Por lo tanto, se
debe trabajar sobre la lista
(1, 0, 1, −1, 2), (0, 1, 1, −1, 0), (1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)
5.5. Dimensión
Hemos definido espacios de dimensión finita como aquellos que pueden ser generados por
una lista de elementos de dicho espacio vectorial, sin embargo, no le hemos asignado un valor
numérico a esta dimensión. En esta sección, definiremos la dimensión de un espacio vectorial y
veremos algunas de sus propiedades.
Nos gustaría, por ejemplo, decir que la dimensión de Rn es n, esto tiene relación con el tamaño
de la lista
(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, . . . , 0, 1).
que es una base de Rn . Sin embargo, es importante notar que un espacio vectorial puede tener
más de una base. El siguiente resultado garantiza que todas las bases de un espacio vectorial de
dimensión finita son del mismo tamaño.
Ahora, podemos definir el concepto de dimensión, dado que éste no dependerá de la base que
se elija para el espacio vectorial.
Ejemplo 5.5.3.
1. dim(Rn ) = n.
88 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
2. dim(Pm (R)) = m + 1.
3. dim(Rm×n ) = mn.
Teorema 5.5.5 (Lista l.i. de tamaño dim(V ) es base). Sea V un espacio vectorial de dimen-
sión finita. Toda lista linealmente independiente de vectores en V con tamaño dim(V ) es
una base de V.
Teorema 5.5.6 (Lista generadora de tamaño dim(V ) es base). Sea V un espacio vectorial de
dimensión finita. Toda lista generadora de vectores en V con tamaño dim(V ) es una base
de V.
Demostración. Supongamos que dim V = n y que v1 , . . . , vn genera V. Luego, la lista puede redu-
cirse a una base de V por el Teorema 5.3.5. Pero, todas las bases de V tienen tamaño n, por lo tanto,
no puede eliminarse ningún elemento y la lista resultante es una base de V.
W1 = {( x, 0, 0) ∈ R3 : x ∈ R} y W2 = {(0, y, 0) ∈ R3 : y ∈ R}.
Se tiene que dim(R3 ) = 3 y que dim(W1 ) = dim(W2 ) = 1 con dim(W1 + W2 ) = 2, por el teorema
anterior, concluimos que dim(W1 ∩ W2 ) = 0, lo que implica que W1 ∩ W2 = {0R3 }.
5.6. EJERCICIOS 89
5.6. Ejercicios
1. ¿Para qué valores de c son linealmente independientes en R3 los vectores (−1, 0, −1), (2, 1, 2)
y (1, 1, c)?
! !
8 2 2 3
2. ¿Se puede escribir A0 = como combinación lineal de A1 = y A2 =
−9 5 5 −5
!
−4 −5
?
8 10
4. Determine los valores de β ∈ R para que el siguiente conjunto sea linealmente dependiente
( ! ! ! !)
β −1 0 β β 0 1 1
W= , , , .
0 2 β+2 0 1 0 1 β
5. En el espacio vectorial (R2 , +, ·, R). Considere el conjunto S = {(1, 1), (−1, 0), (1, 2)}.
a) ¿S es linealmente dependiente?
b) A partir de S, obtenga una lista linealmente independiente.
6. Sea {v1 , v2 } un conjunto linealmente independiente en un espacio vectorial (V, +, ·, R). En-
cuentre todos los valores de α ∈ R tales que el conjunto {αv1 + v2 , v1 + αv2 } sea linealmente
independiente.
7. Sean v1 , v2 y v3 vectores en un espacio vectorial tales que {v1 , v2 } es una lista linealmente
independiente. Muestre que si v3 no pertenece a gen{v1 , v2 }, entonces {v1 , v2 , v3 } es lineal-
mente independiente.
v1 − v2 , v2 − v3 , v3 − v4 , v4
también genera V.
S = {7 + (4b − 6) x + (b + 4) x2 , −5 + ( a + 8) x, −2}.
T = a + bt + ct2 + dt3 : a − b − c = 0, a + 2b + d = 0, 3b + c + d = 0
W = A ∈ R2×2 : AX = 0 .
!
1 −1
del espacio vectorial R2×2 . Donde, X =
−1 1
b) Completar una base B1 para el subespacio de las matrices simétricas de orden 2 a partir
de la base B.
a) B1 = {t2 − 3, t − 2, t + 1};
b) B2 = { p(t), p′ (t), p′′ (t)}, donde p(t) = t2 + 2t − 5.
18. Considere
W = ( x, y, z) ∈ R3 : − x − y + 2z = 0
u = (2, 2a, 4)
(b) Es W subespacio vectorial del espacio vectorial (R3 , +, ·, R). Justifique su respuesta
(c) Calcular dos bases diferentes para el subespacio vectorial W
21. Sea W = { p(t) ∈ P4 (R) : p′ (0) + p(0) = 0, p′′′ (0) − p′′ (0) = 0}
23. Explique por qué una lista de cuatro polinomios no puede generar P4 (R).
92 CAPÍTULO 5. ESPACIOS VECTORIALES DE DIMENSIÓN FINITA
Capítulo 6
Transformaciones Lineales
1. T (u + v) = T (u) + T (v) y
2. T (αv) = αT (v),
Definición 6.1.2. Al conjunto de todas las transformaciones lineales que van de un espacio
vectorial V en otro espacio vectorial W, lo denotamos por L(V, W ).
1. Transformación nula
T : V −→ V
v 7−→ T (v) = 0V
93
94 CAPÍTULO 6. TRANSFORMACIONES LINEALES
se suele notar a esta transformación por 0, tal que 0(v) = 0V , para todo v ∈ V.
2. Transformación identidad
T : V −→ V
v 7−→ T (v) = v
se suele notar a esta transformación por I, tal que I (v) = v para todo v ∈ V.
3. Transformación derivada
D : P (R) −→ P (R)
f 7−→ Dp = p′
4. Transformación integral
T : C([0, 1]) −→ R
ˆ 1
f 7−→ T ( f ) = f ( x ) dx
0
T: F∞ −→ F∞
( x1 , x2 , x3 . . .) 7−→ T (( x1 , x2 , x3 . . . , )) = ( x2 , x3 . . .)
7.
T: R3 −→ R2
( x, y, z) 7−→ T ( x, y, z) = ( x − 2z, y − z)
8.
T : R2 −→ R3
( x, y) 7−→ T ( x, y) = ( x − y, 2y, x + y)
9.
T : R2 −→ R2×2 !
x + 2y 2x
( x, y) 7−→ T ( x, y) =
0 x−y
10.
T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2
T: R3 −→ R2
( x, y, z) 7−→ ( x − 2z, y − z)
6.1. TRANSFORMACIÓN LINEAL 95
se tiene que
T (0, 0, 0) = (0, 0) y T (−1, 2, 3) = (−7, −1).
T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2
Ejemplo 6.1.6. Demostremos que la transformación definida en el Ejemplo 6.1.3 literal 1, es lineal.
T ( u + v ) = 0V
= 0V + 0V , propiedad del elemento neutro
= T ( u ) + T ( v ).
T (αu) = 0V
= α · 0V , propiedad: α · 0V = 0V
= αT (u).
Ejemplo 6.1.7. Demostremos que la función definida en el Ejercicio 6.1.5 es una transformación lineal.
T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2
luego
T (u) + T (v) = [ a + ( a − b)t + ct2 ] + [d + (d − e)t + f t2 ].
T (u + v) = ( a + d) + [( a + d) − (b + e)]t + (c + f )t2
= [ a + ( a − b)t + ct2 ] + [d + (d − e)t + f t2 ].
Por lo tanto,
T ( u + v ) = T ( u ) + T ( v ).
96 CAPÍTULO 6. TRANSFORMACIONES LINEALES
y, por lo tanto
T (αu) = αT (u)
T: R3 −→ R2
( x, y, z) 7−→ ( x − 2z, y − z)
El siguiente teorema destaca algunas implicaciones que siempre son ciertas para funciones
lineales y que son utilizadas recurrentemente.
1. T (0V ) = 0W .
2. T (u − v) = T (u) − T (v).
!
n n
3. T ∑ αk vk = ∑ α k T ( v k ).
k =1 k =1
T ( 0V ) = T ( 0V + 0V ) = T ( 0V ) + T ( 0V ) ,
donde, la segunda igualdad se tiene de la propiedad de aditividad de T, por ser lineal. Ahora,
podemos sumar el inverso aditivio de T (0v ) en la ecuación anterior, de modo que
Definición 6.1.10 (Adición y multiplicación por un escalar en L(V, W )). Suponga que S, T ∈
L(V, W ) y λ ∈ F. La suma S + T y el producto por un escalar λT son transformaciones
lineales de V en W definidas por
para todo v ∈ V.
Notemos que gracias a la definición anterior, L(V, W ) podría ser un espacio vectorial con di-
chas operaciones. En efecto, esto es cierto, como lo garantiza el siguiente teorema.
T ( v i ) = wi
Observación. Una transformación lineal está determinada cuando se conocen las imágenes de los vectores
de una base del espacio vectorial de salida. Para encontrar la transformación lineal de manera explícita, se
debe hallar la imagen de un elemento genérico del espacio vectorial de salida.
1. Comprobar que los vectores v1 , . . . , vn forman una base del espacio vectorial de salida V. Se deben
conocer las imágenes de dichos vectores.
2. Escribir la ecuación generadora. Es decir, expresar el vector genérico del espacio vectorial de salida
como combinación lineal de los vectores de su base, esto es, dado que v ∈ V se escribe de manera única
como combinación de elementos de la base, existen a1 , . . . , an ∈ F tales que
v = a1 v1 + . . . + a n v n
T ( v ) = T ( a1 v1 + . . . + a n v n ) = a1 T ( v1 ) + . . . + a n T ( v n ).
T ( v ) = a 1 w1 + . . . + a n w n .
Ejemplo 6.2.2. Determinar la transformación T ∈ L(R2 , R3 ), tal que T (1, −1) = (0, 2, 0) y T (−3, 2) =
(−3, 2, 0), donde B = {(1, −1), (−3, 2)} es una base de R2 .
Solución. Dado que B es una base del espacio vectorial de salida R2 y se conocen las imágenes de
los vectores de la base, entonces T está determinada de manera única por el Teorema anterior.
Sean ( x, y) ∈ R2 y α1 , α2 ∈ R. Como B es una base de R2 , existen α1 , α2 ∈ R tales que
Al igualar ambos vectores, se obtiene el siguiente sistema de ecuaciones lineales, con incógnitas
α1 y α2 :
α1 − 3α2 = x
−α1 + 2α2 = y.
Como rang( A|b) = rang( A) = 2 es igual número de incógnitas, por el Teorema de Rouché-
Frobenius, el sistema tiene solución única dada por α2 = −( x + y) y α1 = x + 3α2 = x − 3( x + y) =
−2x − 3y.
De donde
N ( T ) = {v ∈ V : T (v) = 0W }.
Suele usarse la notación ker( T ) para definir al núcleo de T, o también conocido como
espacio nulo T.
T (u + v) = T (u) + T (v) = 0 + 0 = 0,
Si u ∈ N ( T ) y λ ∈ F entonces
T (λu) = λT (u) = λ0 = 0,
lo que implica que λu ∈ N ( T ), es decir, que se verifica la clausura del producto por un escalar.
Se demostró que 0 ∈ N ( T ), la clausura de la suma y producto por un escalar , así N ( T ) es un
subespacio vectorial de V.
Se plantea como ejercicio para el lector probar que img( T ) es un subespacio vectorial del es-
pacio vectorial W.
Ejemplo 6.3.3. Para algunas de las transformaciones definidas en el Ejemplo 6.1.3, se puede verificar que
sus respectivos núcleos e imágenes están dados por:
Transformación nula 0 : V → W:
N (T ) = V
img( T ) = {0W }.
Transformación derivada:
N ( D ) = { p ∈ P (R) : p( x ) = c, c ∈ R}
img( T ) = P (R).
Notemos que el núcleo de D son todos los polinomios constantes, pues al derivarlos obtenemos el
polinomio cero.
N ( D ) = {0}
img( T ) = P (R).
N ( T ) = {( a, 0, 0 . . .) ∈ F∞ : a ∈ F}
img( T ) = F∞
N ( T ) = ( x, y, z) ∈ R3 : T ( x, y, z) = (0, 0)
= ( x, y, z) ∈ R3 : ( x − 2z, y − z) = (0, 0)
= ( x, y, z) ∈ R3 : x = 2z, y = z
6.3. NÚCLEO E IMAGEN 101
= (2z, z, z) ∈ R3 : z ∈ R .
= (u, v) ∈ R2 : x − 2z = u, y − z = v, con x, y, z ∈ R .
Ahora, sea (u, v) ∈ R2 , tenemos que (u, v) ∈ img( T ) si y solo si se verifica el sistema ecuaciones lineales
en las incógnitas x, y y z: (
x − 2z = u
y − z = v.
con x, y, z ∈ R, cuya matriz ampliada es
!
1 0 −2 u
.
0 1 −1 v
Como rang( A|b) = rang( A) = 2, por el Teorema de Rouché-Frobenius, el sistema es consistente para todo
u y v ∈ R. Por lo tanto:
img( T ) = R2 .
T: R3 −→ R2
( x, y, z) 7−→ ( x − 2z, y − z)
T : R2 −→ R3
( x, y) 7−→ ( x − y, 2x, x + y)
b) Sobreyectiva.
Ejemplo 6.3.10. Considerando la transformación lineal del Ejemplo 6.3.7, se tiene que dim(N ( T )) = 1
y que dim(img( T )) = 2, a partir de lo cual se verifica que
T es inyectiva,
T es sobreyectiva.
6.4. Ejercicios
1. En cada literal determine si T es transformación lineal
6.4. EJERCICIOS 103
a)
T: R4 −→ R2
( x, y, z, w) 7−→ T ( x, y, z, w) = ( xy, zw)
b)
T : R2 −→ R2×2 !
x + 2y 2x
( x, y) 7−→
0 x−y
c)
T: R3 −→ R2
( x, y, z) 7−→ T ( x, y, z) = ( x2 + y, y − z)
a) T (4, −2)
b) T (−3, −6)
c) T (3, 1)
d) T (0, 0)
3. Considere
T: R3 −→ P2 (R)
( a, b, c) 7−→ a + ( a − b)t + ct2
a) ¿S es una base de R3 ?
b) Determine la aplicación lineal f : R3 → R3 tal que:
c) Hallar la imagen de f .
d) Determine a la dimensión del núcleo de f .
e) ¿La aplicación T es inyectiva, sobreyectiva? Justifique su respuesta
104 CAPÍTULO 6. TRANSFORMACIONES LINEALES
5. Sean V = P2 (R) y W = R3 ,
V = N ( T ) ⊕ {λu : λ ∈ F}.
es linealmente independientes en F.
genera a F.
9. Pruebe que no existe una transformación lineal de F5 en F2 tenga como núcleo el conjunto
{( x1 , x2 , x3 , x4 , x5 ) ∈ F5 : x1 = 3x2 , x3 = x4 , x3 = x5 }
T: R3 −→ R2×2 !
x+y−z x−y+z
( x, y, z) 7−→ T ( x, y, z) =
0 3x + y − z
a) Hallar el núcleo de T
b) Hallar la imagen de T
(S ◦ T )(v) = S( T (v))
para todo v ∈ U. Notemos que la composición solo tiene sentido cuando img T ⊆ dom S.
R(ST ) = ( RS) T.
IW T = TIV = T.
Ejemplo 6.5.3 (La composición no es conmutativa). Suponga D ∈ L(P (R), P (R)) la transformación
derivada y T ∈ L(P (R), P (R)) la transformación producto por x2 . Mostrar que DT ̸= TD.
mientras que
( TD )( p)( x ) = T ( D ( p( x ))) = T ( p′ ( x )) = x2 p′ ( x ).
matriz A ∈ Rm×n , cuyas columnas son las coordenadas de T (v1 ), T (v2 ), . . . , T (vn ) en una base de
W.
v1 · · · v j · · · v n
w1 a1j
w2 a2j
.. ..
. .
wm amj
T: R3 −→ R2
( x, y, z) 7−→ ( x + y, y − z).
Sean B1 = {(1, 0, 1), (0, 1, 1), (1, 1, 1)} y B2 = {(1, 2), (−1, 1)} bases de los espacios vectoriales R3 y R2 ,
respectivamente. Vamos a calcular a [ T ] BB12 .
Solución. Las imágenes de los elementos de la base de salida son T (v j ), para j = 1, 2, 3 son:
Ahora, a estas imágenes las expresamos como combinación lineal de los elementos de la base de
llegada, esto es
T (v j ) = a1j w1 + a2j w2 , j = 1, 2, 3,
es decir,
es decir, !
1 2
0
[ T ] BB12 = 3 3 .
−1 − 23 − 43
Ejemplo 6.6.3. Suponga que T ∈ L(F2 , F3 ) está definida por T ( x, y) = ( x − y, 2x, x + y), entonces la
matriz de T en las bases canónicas de F2 y F3 es
1 −1
M( T ) = 2 0 ,
1 1
Ejemplo 6.6.4. Sea D ∈ L(P3 (R), P2 (R)) la aplicación derivada, es decir, Dp = p′ , entonces la matriz
de D en las bases canónicas de P3 (R) y P2 (R) es
0 1 0 0
M( D ) = 0 0 2 0 ,
0 0 0 3
T: R4 −→ R2×2 !
x1 − x2 x2 − x1
( x1 , x2 , x3 , x4 ) 7−→ .
x3 − x4 x4 − x3
Sean
B1 = {(1, 0, 0, 0), (1, 1, 0, 0), (1, 1, 1, 0), (1, 1, 1, 1)}
y ( ! ! ! !)
1 0 1 1 1 1 1 1
B2 = , , ,
0 0 0 0 1 0 1 1
1. M(S + T ) = M(S) + M( T ).
2. M(λT ) = λM( T ).
108 CAPÍTULO 6. TRANSFORMACIONES LINEALES
M(ST ) = M(S)M( T ).
n
(fila j de A) · (columna k de C ) = ∑ a jr crk ,
r =1
6.7. Ejercicios
1. Sea:
f : R2 −→ R3
( x, y) 7−→ ( x − 2y, 2x + y, x + y).
y
B2 = {(1, 1, 0), (0, 1, 1), (1, −1, 1)}
a) Determine [ f ]CC12 .
b) Determine [ f ] BB12 .
6.8. INVERTIBILIDAD Y ESPACIOS VECTORIALES ISOMORFOS 109
w1 = − v 2 y w2 = v 1 + v 2 .
′
Sea I : R2 → R2 la aplicación identidad. Encuentre [ I ] BB .
Entonces S1 = S2 .
Ahora que sabemos que la inversa es única, podemos denotarla por T −1 , sin ambigüedad.
La siguiente definición establece que dos espacios pueden identificarse como iguales, salvo
que sus elementos tienen nombres diferentes.
Ejemplo 6.8.5.
110 CAPÍTULO 6. TRANSFORMACIONES LINEALES
genera a W;
es linealmente independientes en W;
es una base de W;
dim(V ) = dim(W ).
Teorema 6.8.7. Dos espacios vectoriales sobre un campo F son isomorfos si y solo si tienen
la misma dimensión.
Demostración. Supongamos que V y W son espacios vectoriales de dimensión finita que son iso-
morfos. Entonces, existe un isomorfismo T ∈ L(V, W ), es decir T es inyectiva y sobreyectiva, en
particular, N ( T ) = {0V } e img T = W. Es decir, dim N ( T ) = 0 y por el teorema fundamental de
las aplicaciones lineales, dim V = dim img T = dim W, lo cual prueba la primera implicación.
Recíprocamente, supongamos que dim V = dim W = n. Entonces, V y W tienen bases de n
elementos, digamos {v1 , v2 , . . . , vn } y {w1 , w2 , . . . , wn }, respectivamente. Definamos T ∈ L(V, W )
tal que
T ( c 1 v 1 + . . . + c n v n ) = c 1 w1 + . . . + c n w n .
T está bien definida por la Proposición 6.2.1. Notemos que T es sobreyectiva, pues img T = W,
y es inyectiva, pues N ( T ) = {0V }. En efecto, si T (v) = 0 como v = c1 v1 + . . . + cn vn y T (v) =
6.9. OPERADORES LINEALES 111
Observación. El teorema anterior establece que cualquier espacio de dimensión finita, es isomorfo a Fn ,
donde n es la dimensión del espacio.
Ejemplo 6.8.8. En base a la observación, dado que Rm×n y Pm (R) son de dimensión finita, entonces
1. Rm×n ∼
= Rmn , con m, n ∈ N∗ .
2. Pm (R) ∼
= Rm+1 , con m ∈ N∗ .
M : L(V, W ) −→ Fm,n
T 7−→ M( T ).
Por la Proposición 6.6.6 sabemos que M es lineal. Si probamos que M es inyectiva y sobreyectiva,
entonces M es un isomorfismo y, podríamos concluir que L(V, W ) es isomorfo a Fm,n .
Probemos que M es inyectiva, para esto, verifiquemos que N (M) = {0}. Si M( T ) = 0 ∈
Fm,n ,entonces M( T ) es la matriz cuyas entradas son todas cero, es decir, T (v j ) = 0 para todo
j = 1, . . . , n. Como v1 , v2 , . . . , vn es una base de V, entonces T = 0. Por lo tanto, M es inyectiva.
Para probar que M es sobreyectiva, sea A = ( aij ) ∈ Fm,n , definamos T ∈ L(V, W ) tal que
m
T (v j ) = ∑ aij wi .
j =1
Corolario 6.8.9.1. Si V y W son espacios vectoriales de dimensión finita, entonces L(V, W ) es de dimen-
sión finita y
dim(L(V, W )) = dim(V ) dim(W ).
(a) T es invertible.
(b) T es inyectiva.
(c) T es sobreyectiva.
Demostración. La implicación (a) ⇒ (b) es directa del Teorema 6.8.3. Para probar (b) ⇒ (c), supon-
gamos que T es inyectiva, es decir, dim N = 0. Entonces, por el Teorema Fundamental dim(img T ) =
dim(V ), por lo tanto, img T = V, es decir, T es sobreyectiva. La implicación (c) ⇒ (a), es direc-
ta, pues si T es sobreyectiva, entonces img T = V, es decir, dim img T = dim V, por lo tanto,
dim N ( T ) = 0, es decir, T es inyectiva. Por lo tanto, T es invertible.
6.10. Ejercicios
1. Dada la aplicación lineal:
f: R3 −→ P1 (R)
( a, b, c) 7−→ ( a + b + c) + (b + c)t.
a) Determine al núcleo de f .
b) Determine a la imagen de f .
c) Determine si f es un isomorfismo.
f: R3 −→ R2 g : R2 −→ R3
y
( a, b, c) 7−→ ( a + b, c) ( x, y) 7−→ ( x, 0, y).
Eλ = {v ∈ V : T (v) = λv}
T : R2 −→ R2
( x, y) 7−→ ( x + 2y, 4x + 3y).
Notemos que:
Lo que nos permite concluir que 5 es un valor propio de T y que (1, 2) es un vector propio asociado a 5,
además, el espacio propio asociado a 5 es:
E5 = ( x, y) ∈ R2 : y = 2x .
Ejercicio 7.1.4. Considere a la aplicación lineal del ejemplo 7.1.3, verifique que para el valor propio −1 un
vector propio asociado es (−1, 1), ¿cuál será el espacio propio asociado a −1?
113
114 CAPÍTULO 7. VALORES Y VECTORES PROPIOS
Ejemplo 7.1.6. Considere a la aplicación lineal del ejemplo 7.1.3, su espectro es el conjunto {−1, 5}.
Ejemplo 7.1.8. Considerando a la aplicación lineal del ejemplo 7.1.3 tenemos que si λ1 = −1 y λ2 = 5
con v1 = (−1, 1) y v2 = (1, 2), entonces el conjunto {v1 , v2 } es linealmente independiente.
TA : Fn×1 −→ Fn×1
u 7−→ Au.
A los valores propios de TA se los denomina valores propios de A, a los vectores propios de
TA se los denomina vectores propios de A y a los espacios propios de TA se los denomina
espacios propios de A. Además, se denomina espectro de A al espectro de TA .
!
1 2
Ejemplo 7.2.2. Dada la matriz A = , se tiene que TA está dada por:
4 3
TA : R2×!1 −→ R2×1 !
x x + 2y
7−→ .
y 4x + 3y
!
−1
Se tiene que los valores propios de TA son λ1 = −1 y λ2 = 5 con vectores propios asociados u1 =
1
!
1
y u2 = , respectivamente. Además, los espacios propios de TA son:
2
( ! )
v1
E−1 = ∈ R2 × 1 : v 1 + v 2 = 0
v2
y ( ! )
v1
E5 = ∈ R2×1 : −2v1 + v2 = 0 .
v2
7.2. VALORES Y VECTORES PROPIOS DE UNA MATRIZ 115
Observación. Si consideramos una aplicación lineal T ∈ L(V ), con dim(V ) = n. De este resultado,
se sigue que, para determinar los valores, vectores y espacios propios de T, basta determinar los valores,
vectores y espacios propios de una matriz de representación de esta.
Observación. Notemos que todo valor propio de A ∈ Fn×n , es raíz del polinomio característico de A.
!
1 2
Ejemplo 7.2.6. Dada la matriz A = , su polinomio característico es:
4 3
Proposición 7.2.7. Los valores propios de una matriz triangular son los elementos de la
diagonal principal de la matriz.
T : P1 (R) −→ P1 (R)
( a + bt) 7−→ (6a − b) + (3a + 2b)t.
Teorema 7.2.9. Cualquier polinomio de grado n tiene exactamente n raíces (contando con
las veces que una determinada raíz se repite) en los complejos.
Definición 7.2.10. Sea λ un valor propio de la matriz A, el número de veces que un va-
lor propio λ se repite como raíz del polinomio característico ρ(λ) se llama multiplicidad
algebraica, notada m a (λ).
m g (λ) = dim( Eλ )
m g (λ) ≤ m a (λ)
Teorema 7.2.13. Contando multiplicidades, toda matriz A ∈ Fn×n tiene exactamente n va-
lores propios en los complejos.
1 0 0 1
0 2 0 0
Ejemplo 7.2.14. La matriz A = 0 0 2 0 tiene como valores propios a λ1 = 0 y λ2 = 2 con
1 0 0 1
m a (λ1 ) = 1, m a (λ2 ) = 3, m g (λ1 ) = 1 y m g (λ2 ) = 3.
Definición 7.3.1. Sean A, B ∈ Fn×n . Se dice que A y B son semejantes si existe una matriz
no singular C ∈ Fn×n tal que
CB = AC
7.3. DIAGONALIZACIÓN DE UNA MATRIZ 117
! !
1 −1 2 −1
Ejercicio 7.3.2. Dadas las matrices A = yC= , encontrar una matriz B semejante
0 2 1 0
a la matriz A.
Definición 7.3.3. Una matriz A ∈ Fn×n se dice diagonalizable si es semejante a una matriz
diagonal. En este caso, también diremos que A puede diagonalizarse.
Teorema 7.3.5. Una matriz A ∈ Fn×n es diagonalizable si y solo si tiene n vectores propios
linealmente independientes.
Observación. Si A ∈ Fn×n una matriz diagonalizable, entonces existe C ∈ Fn×n no singular tal que
C −1 AC = D, donde D ∈ Fn×n está dada por:
λ1 0 0 ··· 0
···
0 λ2 0 0
D = 0 0 λ3
··· 0
. .. .. .. ..
.. . . . .
0 0 0 · · · λn
donde λ1 , λ2 , · · · , λn son los valores propios de A. Además, C es una matriz cuyas columnas son, respecti-
vamente, los n vectores propios linealmente independientes de A.
!
1 2
Ejemplo 7.3.6. Considere a la matriz A = , se tiene que:
4 3
!
−1 0
1. La matriz A es semejante a la matriz D = , para esto consideramos a la matriz no singular
0 5
!
−1 1
C= .
1 2
2. La matriz A es diagonalizable.
4. Considerando al ejemplo 7.2.2 se puede mostrar que los vectores propios de A forman un conjunto
linealmente independiente.
Ejemplo 7.3.9. Considere a la matrizA del ejemplo 7.2.14, la matriz A es diagonalizable con matriz
0 0 0 0
0 2 0 0
diagonal semejante D = . En efecto, para cada valor propio se tiene que la multiplicidad
0 0 2 0
0 0 0 2
algebraica es igual a la geométrica, lo que implica que A tiene 4 vectores propios linealmente independientes,
por tanto, A es diagonalizable, es decir, es semejante a una matriz diagonal D cuyos elementos en la diagonal
principal son los valores propios de la matriz A.
Paso 3. Para cada valor propio λ j de A con multiplicidad algebraica k j , determinamos una base para el
espacio solución de ( A − λ j In )v = 0 (el espacio propio asociado con λ j ).
Si la dimensión del espacio del espacio propio es menor que k j , entonces A no es diagonalizable. De
acuerdo con ello, determinamos n vectores propios linealmente independientes de A.
Paso 4. Sea C la matriz cuyas columnas son los n vectores propios linealmente independientes determina-
dos en el paso 3. Entonces,
C −1 AC = D,
es una matriz diagonal cuyos elementos de la diagonal son los valores propios de A correspondientes
a las columnas de C.
1 0 0
Ejemplo 7.3.10. La matriz A = 1 1 0 no es diagonalizable ya tiene a 1 como valor propio con
0 1 1
multiplicidad algebraica igual a 3 y multiplicidad geométrica igual a 1, es decir, solamente tiene un vector
propio asociado a 1.
Teorema 7.3.11. Todos los valores propios de una matriz simétrica son números reales.
Teorema 7.3.12. Si A ∈ Rn×n es una matriz simétrica, los vectores propios correspondientes
a valores propios distintos de A son ortogonales.
−1
0
Ejemplo 7.3.13. Considere a la matriz A del ejemplo 7.2.14, el valor propio 0 tiene a u1 =
0 como
1
0 0 1
1 0 0
vector propio asociado mientras que el valor propio 2 tiene a u2 =
0, u3 = 1 y u4 = 0 como
0 0 1
7.3. DIAGONALIZACIÓN DE UNA MATRIZ 119
vectores propios asociados. Notemos que con el producto interno usual se tiene que ⟨u1 , u2 ⟩ = ⟨u1 , u3 ⟩ =
⟨u1 , u4 ⟩ = 0.
Proposición 7.3.14. Una matriz A ∈ Rn×n es ortogonal (A T = A−1 ) si y solo si las columnas
(y las filas) de A forman un conjunto ortonormal de vectores en Rn .
Teorema 7.3.15. Si A ∈ Rn×n una matriz simétrica, entonces existe una matriz ortogonal
P tal que P−1 AP = D, es una matriz diagonal. Los valores propios de A están sobre la
diagonal principal de D.
Ejemplo 7.3.16. Considere a la matriz A del ejemplo 7.2.14 y a sus vectores propios asociados dados en el
el conjunto {u1 , u2 , u
ejemplo 7.3.13, además considere a la matriz D del ejemplo 7.3.9. Considerando 3 , u4 },
1 1
formado por los vectores propios de A, obtenemos al conjunto ortonormal u , u2 , u3 , u , lue-
∥ u1 ∥ 1 ∥ u2 ∥ 4
go, la matriz P está dada por: √ √
− 22 0 0 22
0 1 0 0
P=
0 0 1 0
√ √
2 2
2 0 0 2
Observación. Notemos que una matriz simétrica siempre es diagonalizable, además, lo es por medio de
una matriz ortogonal, es decir, P−1 = P T . En tal caso, decimos que A es ortogonalmente diagonalizable.
Observación. Si una matriz simétrica A tiene un valor propio λ j con multiplicidad k j , el espacio propio
asociado tiene dimensión k j . Esto es, existen k j vectores propios de A linealmente independientes , asociados
al valor propio λ j . Con el proceso de Gram-Schmidt, podemos construir una base ortonormal para el espacio
propio asociado a λ j .
Observación. Proceso para diagonalizar una matriz simétrica A ∈ Fn×n mediante una matriz
ortogonal P.
Paso 3. Para cada valor propio λ j de A, con multiplicidad algebraica k j , determinar una base de k j vectores
propios para el espacio solución de ( A − λ j In )v = 0 (el espacio propio asociado con λ j ).
Paso 4. Para cada espacio propio, transformamos la base obtenida en el paso 3 en una base ortonormal
mediante el proceso de Gram-Schmidt.
120 CAPÍTULO 7. VALORES Y VECTORES PROPIOS
Paso 5. Sea P la matriz cuyas columnas son los n vectores propios linealmente independientes determina-
dos en el paso 4. Entonces P es una matriz ortogonal, y
P T AP = D,
es una matriz diagonal cuyos elementos de la diagonal son los valores propios de A correspondientes
a las columnas de P.
1 0 1
Ejercicio 7.3.18. Diagonalizar ortogonalmente a la matriz A = 0 2 0.
1 0 1
7.4. Ejercicios
0 0 2
Determine el valor de y para que (1, y, 1)T sea un vector propio.
2 0 3
A = 0 1 0
0 1 2
!
a −2
5. Si A ∈ R2×2 simétrica, tal que Si λ1 = 0 es el valor propio asociado al vector
b c
! !
1 1
propio y 4 es un valor propio asociado al vector propio . Determine la matriz A.
1 −1
1 a b
6. Dados a, b, c, d, e, f ∈ R, considere la matriz A = 1 c d , una matriz simétrica. Deter-
1 e f
1 1
mine los valores de a, b, c, d, e, f tales que los vectores 1 y 0 sean vectores propios
1 −1
de A, asociados a dos valores propios distintos.
7. Sea f una aplicación lineal, hallar sus valores y vectores propios, donde:
7.4. EJERCICIOS 121
f : R2×2! −→ R2×2 !
a b a+b−d b
7−→ .
c d c −a + c + d
1 a a
8. Dado a ∈ R ∖ {0}, considere la matriz A = a 1 a .
a a 1
1
a) Compruebe que 1 es un vector propio de A. Hallar el valor propio λ asociado.
1
Calcule una base de Eλ .
b) Compruebe que 1 − a es un valor propio de A y calcule una base del espacio propio
correspondiente.
c) Muestre que R3×1 está en suma directa con los subespacios Eλ y E1−a .
10. Encuentre los valores propios y el correspondiente espacio propio asociado de la matriz
2 2 2
A = 2 2 2
2 2 2
11. Sea f : Rn → Rn una aplicación lineal de manera que f ◦ f = f . Calcular los valores propios
de f .
0 0 3
2 2 −1
14. Los valores propios de una matriz A ∈ R3×3 simétrica son 1, −2 y 3 con vectores propios
(1, 1, −1)T y (0, 1, 1)T asociados a los valores propios 1 y −2, respectivamente. Hallar a la
matriz A y el vector propio asociado al valor propio 3.