Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Espacios Vectoriales Por Sonia L. Rueda

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 46

Esta serie de dos cuadernillos:

• Álgebra Lineal I: Espacios Vectoriales

• Álgebra Lineal II: Aplicaciones Lineales

pretende ser una guı́a de estudio de los conceptos básicos de Álgebra Lineal que se
imparten en la asignatura Matemáticas I en la E.T.S.A.M. Han sido utilizados como
apuntes de clase durante varios cursos y recogen ejemplos y problemas resueltos,
algunos de los cuales han aparecido en las hojas de ejercicios del departamento de
Matemática Aplicada de la E.T.S.A.M. a lo largo de los años. Mi agradecimiento a
los alumnos de la asignatura que utilizando estos apuntes me han ayudado a llevarlos
hasta su forma actual.
En el primer cuadernillo de esta serie se empieza estableciendo algunos conceptos
básicos y parte de la notación que se utilizará en todo el cuadernillo. Se sigue con
un repaso de la discusión y la resolución de sistemas de ecuaciones lineales que será
aplicado al estudio de los espacios vectoriales, que es el tema central de estos apuntes.
Finalizamos con una colección de ejercicios resueltos que amplian el conjunto de
ejemplos que se presentan junto con el desarrollo de la materia.
Por limitaciones de espacio no incluimos demostraciones de los resultados que
aparecen en este cuadernillo. Recomendamos al lector interesado en dichas de-
mostraciones la lectura de alguno de los libros enumerados en la bibliografı́a.

v
Índice

1 Preliminares 1
1.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Notación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . 2
1.2 Estructuras algebraicas con operaciones internas . . . . . . . . . . . . 3
1.3 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Sistemas de ecuaciones lineales 6


2.1 Terminologı́a y definiciones básicas . . . . . . . . . . . . . . . . . . . 6
2.2 Reducción a forma escalonada . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . . . . 10

3 Espacios Vectoriales 14
3.1 Definición de espacio vectorial . . . . . . . . . . . . . . . . . . . . . . 14
3.2 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4 Ecuaciones de un subespacio . . . . . . . . . . . . . . . . . . . . . . . 24
3.4.1 Ecuaciones cartesianas . . . . . . . . . . . . . . . . . . . . . . 24
3.4.2 Ecuaciones paramétricas . . . . . . . . . . . . . . . . . . . . . 27
3.5 Operaciones con subespacios . . . . . . . . . . . . . . . . . . . . . . . 28
3.5.1 Intersección de subespacios . . . . . . . . . . . . . . . . . . . . 28
3.5.2 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . 30
3.5.3 Suma directa de subespacios . . . . . . . . . . . . . . . . . . . 31

4 Ejercicios Resueltos 35

vi
1

Preliminares

1.1 Conjuntos

1.1.1 Notación

Listamos a continuación la notación utilizada para nombrar los conjuntos que apare-
cen en estos apuntes:

1. Z conjunto de los números enteros.

2. Q conjunto de los números racionales.

3. R conjunto de los números reales.

4. C conjunto de los números complejos.

5. {a, b, c} es el conjunto formado por los elementos a, b, c.

6. Mm×n (R) conjunto de las matrices de tamaño m × n (m filas y n columnas)


y cuyos elementos son números reales.

7. Rn [x] conjunto de los polinomios en x de grado menor o igual que n con


coeficientes reales.
2

8. Sn×n conjunto de las matrices simétricas de tamaño n×n (n filas y n columnas)


y cuyos elementos son números reales.

Sea A un conjunto y a un elemento de A, se escribe a ∈ A, es decir a pertenece


a A. Si a no pertenece a A se escribe a ∈
/ A. El conjunto vacı́o es el que no tiene
elementos, se denota por ∅.
Dados dos conjuntos A y B se dice que A es un subconjunto de B si todo
elemento de A es un elemento de B. También se dice que A está incluido en B y se
escribe A ⊂ B. Se escribe A ⊆ B para denotar que A está incluido en B o es igual
a B.

Ejemplo 1.1.1. 1. A = {a, b, d} ⊂ B = {a, b, c, d, {e}} y {e} ∈ B.

2. Z ⊂ Q ⊂ R ⊂ C.

1.1.2 Operaciones con conjuntos

Definición 1.1.2. Sean A y B conjuntos. Se define:

1. La interseción de A y B como el conjunto formado por los elementos que


pertenecen a los dos conjuntos A y B. Se denota por A ∩ B.

A ∩ B = {x | x ∈ A y x ∈ B}.

2. La unión de A y B como el conjunto formado por los elementos que pertenecen


al menos a uno de los dos conjuntos A y B. Se denota por A ∪ B.

A ∪ B = {x | x ∈ A ó x ∈ B}.

3. La diferencia de A menos B como el conjunto formado por los elementos que


pertenecen a A y no pertenecen a B. Se denota por A − B.

A − B = {x | x ∈ A y x ∈
/ B}.
3

4. El producto cartesiano de A y B como el conjunto de todos los pares de la


forma (a, b) con a ∈ A y b ∈ B. Se denota por A × B.

A × B = {(a, b) | a ∈ A y b ∈ B}.

Ejemplos 1.1.3. 1. Sea K un conjunto, se define

K n = K × . . . × K = {(x1 , . . . , xn ) | x1 , . . . , xn ∈ K}.

2. R2 = R × R = {(x1 , x2 ) | x1 , x2 ∈ R}.

3. R4 = R × R × R × R = {(x1 , x2 , x3 , x4 ) | x1 , x2 , x3 , x4 ∈ R}.

1.2 Estructuras algebraicas con operaciones in-

ternas

Dado un conjunto no vacı́o A se llama ley de composición interna en A a una


aplicación ∗ del tipo
∗ : A × A −→ A
(a, b) 7→ a ∗ b.
a−b
Ejemplo 1.2.1. Sean a, b ∈ Z, si definimos a ∗ b = 2
entonces ∗ no es una
operación interna en Z, puesto que si a − b no es múltiplo de 2 entonces a ∗ b ∈
/ Z.

Un conjunto A con operaciones internas ∗, . . . , ◦ definidas sobre A recibe el nom-


bre de estructura algebraica y se denota por (A, ∗, . . . , ◦).
Existen distintos tipos de estructuras algebraicas atendiendo a las propiedades
que satisfagan las operaciones definidas sobre los elementos de A. Se enumeran
a continuación algunas propiedades que pueden verificar las operaciones internas.
Sean ∗ y ◦ operaciones internas definidas sobre A.
4

• Asociativa de ∗. Para todo a, b, c ∈ A, se verifica a ∗ (b ∗ c) = (a ∗ b) ∗ c.

• Conmutativa de ∗. Para todo a, b ∈ A, se verifica a ∗ b = b ∗ a.

• Elemento Neutro de ∗ es e si ∀a ∈ A se verifica a ∗ e = e ∗ a = a.

• Elemento Simétrico de ∗. Si existe el elemento neutro e de ∗. Para todo


a ∈ A existe a0 ∈ A tal que a ∗ a0 = a0 ∗ a = e, a0 se llama elemento simétrico
de a.

• Propiedad Distributiva de ◦ con respecto a ∗. Para todo a, b, c ∈ A se


verifica a ◦ (b ∗ c) = (a ◦ b) ∗ (a ◦ c).

Definición 1.2.2. Un conjunto G no vacı́o con operación interna ∗ es un grupo


(G, ∗) si verifica las propiedades asociativa, elemento neutro y elemento simétrico. Si
además verifica la propiedad conmutativa es un grupo conmutativo (o abeliano).

Ejemplos 1.2.3. 1. (Z, +) es un grupo conmutativo con elemento neutro 0. El


simétrico de n ∈ Z es −n. También son grupos conmutativos (Q, +), (R, +)
y (C, +).

2. (Z, ·) no es un grupo, por ejemplo 2 no tiene simétrico (inverso) ya que 1/2 ∈


/
Z. Tampoco es un grupo (Q, ·) ya que 0 no tiene simétrico (inverso).

Son grupos conmutativos, (Q − {0}, ·), (R − {0}, ·) y (C − {0}, ·).

3. (Mm×n (R), +) es un grupo conmutativo, siendo + la suma de matrices.

4. (Rn [x], +) es un grupo conmutativo siendo + la suma de polinomios.

Definición 1.2.4. Un conjunto K no vacı́o con operaciones internas ∗ y ◦ es un


cuerpo (K, ∗, ◦) si verifica:

1. (K, ∗) es una grupo conmutativo con elemento neutro e.


5

2. (K − {e}, ◦) es un grupo conmutativo.

3. La propiedad distributiva de ◦ con respecto a ∗.

Ejemplo 1.2.5. Son cuerpos (Q, +, ·), (R, +, ·) y (C, +, ·).

1.3 Matrices

Sea A una matriz con m filas y n columnas, diremos que A tiene tamaño m × n.
También escribiremos A = (aij ) con i = 1, . . . , m, j = 1, . . . , n. Es decir,
 
 a11 a12 · · · a1n 
 
 a21 a22 · · · a2n 
 
A= . . . .
 .. . .. . 
 . . . 
 
am1 am2 · · · amn

Diremos que una matriz cuadrada A es simétrica si aij = aji , i = 1, . . . , m,


j = 1, . . . , n.
Sea A es una matriz cuadrada n × n (de orden n) con n ≥ 2. Denotamos por
det(A) o | A | al determinante de A. Sea Aij la matriz que se obtiene eliminando
la fila i y la columna j de A. Para calcular el determinante de A podemos
desarrollar utilizando la fila i-ésima de A

det(A) = (−1)i+1 ai1 | Ai1 | +(−1)i+2 ai2 | Ai2 | + · · · + (−1)i+n ain | Ain | .

o la columna j-ésima de A

det(A) = (−1)1+j a1j | A1j | +(−1)2+j a2j | A2j | + · · · + (−1)n+j anj | Anj | .

Sea A es una matriz m × n. El rango de A es el orden de la mayor submatriz


cuadrada de A con determinante no nulo. Se denota por rango(A).
6

Sistemas de ecuaciones lineales

2.1 Terminologı́a y definiciones básicas

Una ecuación lineal en las variables x1 , x2 , . . . , xn es una ecuación del tipo

a1 x1 + a2 x2 + · · · + an xn = b

donde los coeficientes a1 , a2 , . . . , an y el término independiente b son números


reales.

Ejemplos 2.1.1. 1. Las ecuaciones 5x1 + x2 − x6 = 0 y 3x1 − x2 = x3 son
lineales.


2. Las ecuaciones x21 − x2 = 0 y x2 + x1 = 3 no son lineales.

Un sistema de ecuaciones lineales en las variables x1 , x2 , . . . , xn es un con-


junto de m ecuaciones lineales:


 a11 x1 + a12 x2 + · · · + a1n xn = b1





 a21 x1 + a22 x2 + · · · + a2n xn = b2
.. (2.1)

 .





 am1 x1 + a12 x2 + · · · + amn xn = bm .
7

donde m ≥ 1, los coeficientes aij y los términos independientes bi , i = 1, . . . , m,


j = 1, . . . , n son números reales.
Una solución del sistema de ecuaciones lineales (2.1) es una lista (s1 , s2 , . . . , sn )
de números reales que transforma las ecuaciones de (2.1) en identidades al sustituir
los valores x1 , x2 , . . . , xn por s1 , s2 , . . . , sn respectivamente.

Ejemplo 2.1.2. La lista (5, 5, 3) es una solución del sistema de ecuaciones lineales

 2x1 − x2 + x3 = 8
 x − 4x = −7.
1 3

La expresión matricial del sistema (2.1) es AX =b


     
 a11 a12 · · · a1n   x1   b1 
     
 a21 a22 · · · a2n   x2   b2 
     
A= . .. ..  , X= . , b =  ..  ,
 .. ...
 . . 

 ..




 . 

     
am1 am2 · · · amn xn bm

siendo A la matriz de coeficientes, b la matriz de términos independientes


y X la matriz de incógnitas. La matriz ampliada del sistema (2.1) es
 
 a11 a12 · · · a1n b1 
 
 a21 a22 · · · a2n b2 
 
A|b= . . . . .
 .. .. . .. .. .. 
 
 
am1 am2 · · · amn bm

El conjunto de soluciones del sistema (2.1) es el subconjunto de Rn dado por


 
 s1 
 
 s2 
 
{(s1 , s2 , . . . , sn ) ∈ Rn | AS = b} siendo S =  .  .
 .. 
 
 
sn

Dos sistemas de ecuaciones lineales se llaman equivalentes si tienen el mismo


conjunto de soluciones.
8

2.2 Reducción a forma escalonada

En este apartado se describe una adaptación del algoritmo de Eliminación Gaus-


siana. Las matrices obtenidas mediante dicho algoritmo se utilizarán en el análisis
y discusión de sistemas de ecuaciones lineales (ver sección 2.3).

Definición 2.2.1. Se dice que una matriz tiene forma escalonada si verifica:

1. Todas las filas no nulas están por encima de las filas nulas.

2. El primer elemento no nulo de una fila está a la izquierda del primer elemento
no nulo de la fila siguente.

3. Todos los elementos de una columna bajo el primer elemento no nulo de una
fila son cero.

Ejemplo 2.2.2. Las siguientes matrices tienen forma escalonada.


   
 2 4 0 1 0   0 −1 4 0 1 5 
   
 0 0 1 −2 8   0 0 3 1 −2 11 
   
 ,  .
 0  
0 0 3 7   0 0 0 0 0 0 
 
   
0 0 0 0 0 0 0 0 0 0 0

Dada una matriz A con m filas, llamamos Fi a la fila i-ésima y operaciones


elementales por filas a las siguientes operaciones:

1. Intercambiar la fila i por la fila j, que se denota Fi ↔ Fj .

2. Multiplicar la fila i por una constante no nula α, que se denota Fi → αFi .

3. Reemplazar la fila i por la suma de ella misma con un múltiplo de la fila j,


que se denota Fi → Fi + αFj .

Diremos que la matriz A es equivalente por filas a la matriz B si podemos


obtener B a partir de A realizando operaciones elementales por filas.
9

Algoritmo 2.2.3. Eliminación Gaussiana Dada la matriz A, este algoritmo de-


vuelve una matriz escalonada B equivalente por filas a la matriz A.

Paso 1 Nos situamos en la primera columna no nula empezando por la izquierda.

Paso 2 Si el primer elemento de dicha columna es nulo intercambiamos la primera


fila con otra que tenga ese elemento no nulo.

Paso 3 Utilizamos operaciones elementales por filas para conseguir ceros debajo de
dicho elemento.

Paso 4 Nos movemos a la siguiente fila, si hay alguna. Si es no nula, nos situamos
en el primer elemento no nulo de dicha fila y repetimos el paso 3.

Ejemplo 2.2.4. Utilizamos el algoritmo anterior para reducir la matriz M a forma


escalonada  
0 1 2 3 3
 
 
M =  2 1 0 4 1 .
 
2 3 4 0 0

Paso 1 Como la primera columna es no nula, empezamos en dicha columna.

Paso 2 Como el primer elemento de la primera columna es 0 realizamos la operación


elemental F1 ↔ F3 ,
 
2 3 4 0 0
 
 
 2 1 0 4 1 .
 
0 1 2 3 3

Paso 3 Realizamos la operación F2 → −F1 + F2 .


 
2 3 4 0 0
 
 
 0 −2 −4 4 1  .
 
0 1 2 3 3
10

Paso 4 Realizamos las operaciones F2 ↔ F3 y F3 → 2F2 + F3 .


   
2 3 4 0 0 2 3 4 0 0
   
   
 0 1 2 3 3 , E =  0 1 2 3 3 .
   
0 −2 −4 4 1 0 0 0 10 7

El resultado es una matriz E en forma escalonada y equivalente a M .

Un sistema de ecuaciones lineales es un sistema con forma escalonada si su


matriz ampliada es una matriz con forma escalonada.
Dado un sistema de ecuaciones lineales con matriz ampliada A | b, un sistema
equivalente con forma escalonada tiene por matriz ampliada una matriz escalonada
obtenida a partir de A | b utilizando el algoritmo 2.2.3.

Ejemplo 2.2.5. El sistema de ecuaciones lineales




 x + 2x3 + 3x4 = 3

 2
2x1 + x2 + 4x4 = 1




2x1 + 3x2 + 4x3 = 0

tiene matriz ampliada la matriz M del ejemplo 2.2.4 y es equivalente al sistema




 2x + 3x2 + 4x3 = 0

 1
x2 + 2x3 + 3x4 = 3




10x4 = 7

que tiene matriz ampliada la matriz escalonada E del ejemplo 2.2.4.

2.3 Existencia y unicidad de soluciones

Definición 2.3.1. Dado un sistema de ecuaciones lineales con forma escalonada y


fijado un orden en las varibles del sistema, llamamos variables libres a las variables
del sistema que no aparecen en el primer término de ninguna de las ecuaciones del
sistema.
11

Ejemplo 2.3.2. Las variables libres del sistema



 x1 + 4x2 − 3x3 + 2x4 = 5
 x3 − 4x4 = 2
son x2 y x4 .

Si un sistema de ecuaciones lineales con forma escalonada tiene variables libres


entonces una solución paramétrica del sistema se obtiene expresando todas las
variables no libres en función de las variables libres.

Ejemplo 2.3.3. La solución paramétrica del sistema del ejemplo 2.3.2 es

(x1 , x2 , x3 ) = (11 − 4a + 10b, a, 2 + 4b, b), a, b ∈ R.

El conjunto de soluciones es

{(11 − 4a + 10b, a, 2 + 4b, b) | a, b ∈ R}.

Se observa que, en este ejemplo, el sistema tiene infinitas soluciones.

Para discutir la existencia y unicidad de soluciones de un sistema de ecuaciones


lineales con matriz ampliada A | b y además hallar dichas soluciones, podemos
utilizar el siguiente método.

1. Reducimos a forma escalonada la matriz A | b, llamando E al resultado.


³ ´
2. Si E tiene una fila de la forma 0 ... 0 c con c 6= 0 entonces el sis-
tema no tiene solución ( es incompatible). En otro caso, tiene solución (es
compatible).

3. Si el sistema es compatible, analizamos si el sistema equivalente con forma


escalonada (cuya matriz ampliada es E) tiene variables libres.

(a) Si tiene variables libres, el sistema tiene infinitas soluciones (compatible


indeterminado) que se pueden expresar de forma paramétrica.
12

(b) Si no tiene variables libres entonces la solución es única (compatible


determinado).

Ejemplos 2.3.4. 1. El sistema




 x + 2x2 − 3x3 = 1

 1
2x1 + 5x2 − 8x3 = 4




3x1 + 8x2 − 13x3 = 7

es equivalente al siguiente sistema con forma escalonada



 x1 + 2x2 − 3x3 = 1
 x − 2x = 2
2 3

cuya variable libre es x3 . Por lo tanto, es compatible indeterminado y una


solución paramétrica es (x1 , x2 , x3 ) = (−3 − a, 2 + 2a, a), a ∈ R. El conjunto
de soluciones se puede escribir de la forma

{(−3 − a, 2 + 2a, a) | a ∈ R}.

2. El sistema 

 2x + y − 2z = 10


3x + 2y + 2z = 1




5x + 4y + 3z = 4
es equivalente al siguiente sistema con forma escalonada


 2x + y − 2z = 10


y + 10z = −28




−14z = 42.

Como no hay varibles libres la solución es única y se puede obtener por susti-
tución hacia atrás, (x, y, z) = (1, 2, −3).
13

3. Si reducimos a forma escalonada la matriz ampliada del sistema




 x + 2y − 3z = −1


3x − y + 2z = 7




5x + 3y − 4z = 2

obtenemos  
1 2 −3 −1
 
 
 0 −7 11 0 .
 
0 0 0 −3
Como la última fila proporciona una ecuación de la forma 0x + 0y + 0z = −3
este sistema no tiene solución.

También podemos utilizar el siguiente resultado para discutir la existencia y


unicidad de soluciones de un sistema de ecuaciones lineales.

Teorema 2.3.5. Teorema de Rouche Consideremos un sistema de ecuaciones


lineales en n incógnitas con forma matricial AX = b. Entonces, el sistema

1. tiene solución ⇔ rango(A | b) = rango(A),

2. tiene solución única ⇔ rango(A | b) = rango(A) = n.

Un sistema de ecuaciones lineales con forma matricial AX = b es homogéneo


si b es una matriz de ceros. Escribiremos AX = 0. Un sistema de ecuaciones
lineales homogéneo tiene siempre la solución nula y como consecuencia del Teorema
de Rouche tiene una solución no nula (y por tanto infinitas soluciones) si y sólo si
rango(A | b) = rango(A) < n.
14

Espacios Vectoriales

3.1 Definición de espacio vectorial

Dados dos conjuntos V y K se llama ley de composición externa en V con


respecto de operadores en K a una aplicación

K × V −→ V
(k, v) 7→ kv.
Sea (K, +, ·) un cuerpo y 0 el elemento neutro del grupo (K, +). Se llama unidad
de K al elemento neutro de (K − {0}, ·) y se denota por 1K .

Definición 3.1.1. Un conjunto no vacı́o V es un espacio vectorial sobre el cuerpo


K (también K-espacio vectorial) con las operaciones + : V × V −→ V interna y
· : K × V −→ V externa si se verifica:

1. (V, +) es un grupo conmutativo o abeliano. Se llama 0V a su elemento neutro.

2. ∀u, v ∈ V , ∀a, b ∈ K

(a) a(u + v) = au + av

(b) (a + b)u = au + bu
15

(c) (ab)u = a(bu)

(d) 1K u = u.

Se escribe (V, K, +, ·) o simplemente (V, K). Los elementos de un espacio vectorial


V se llaman vectores y los elementos del cuerpo K escalares.

Ejemplos 3.1.2. 1. Un cuerpo K es espacio vectorial sobre sı́ mismo. El con-


junto {0} es un espacio vectorial sobre K.

2. K n = {(a1 , a2 , . . . , an )|ai ∈ K, i = 1, . . . n}, n ∈ N es un espacio vectorial


sobre el cuerpo K con las operaciones:

(a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn )


α(a1 , a2 , . . . , an ) = (αa1 , αa2 , . . . , αan )
con (b1 , b2 , . . . , bn ) ∈ K n y α ∈ K, es decir, tenemos el espacio vectorial
(K n , K, +, ·). En particular, (Rn , R, +, ·) es un espacio vectorial.

3. Dado un sistema de ecuaciones lineales homogéneo con coeficientes reales




 a11 x1 + . . . + a1n xn = 0





 a21 x1 + . . . + a2n xn = 0
(∗)

 ···





 am1 x1 + . . . + amn xn = 0.

en n incógnitas. El conjunto de soluciones del sistema (∗):

W = {(a1 , a2 , . . . , an ) ∈ Rn |(a1 , a2 , . . . , an ) es solución de (∗)} ⊆ Rn

es un espacio vectorial (W, R, +, ·).

4. Mm×n (R) (véase 1.1.1 ) es un espacio vectorial sobre R con la suma de ma-
trices y el producto de matrices por escalares, (Mm×n (R), R, +, ·).

5. Rn [x] (véase 1.1.1) es un espacio vectorial sobre R con la suma de polinomios


y el producto de polinomios por escalares, (Rn [x], R, +, ·).
16

3.2 Subespacios vectoriales

Sea (V, K, +, ·) un espacio vectorial.

Definición 3.2.1. Un subconjunto no vacı́o U de V es un subespacio vectorial de


V si ∀α, β ∈ K y ∀u, v ∈ U se verifica que:

αu + βv ∈ U.

Equivalentemente, un subconjunto no vacı́o U de V es un subespacio vectorial de V


si se verifica que:

1. ∀u, v ∈ U , u + v ∈ U , es decir + es operación interna sobre U ,

2. ∀u ∈ U , ∀α ∈ K, αu ∈ U , es decir · es operación externa sobre U .

Por tanto, U es subespacio vectorial si es un K-espacio vectorial con las operaciones


de V .

Ejemplos 3.2.2. 1. Dado un espacio vectorial V , entonces los conjuntos {0V }


y V son subespacios vectoriales de V .

2. V = R3 , U = {(x, y, 0)|x, y ∈ R} es subespacio vectorial de R3 .

3. El conjunto de soluciones de un sistema de ecuaciones lineales homogéneo en


n incógnitas con coeficientes reales es subespacio vectorial de Rn .

4. Dado un vector no nulo u de un K-espacio vectorial V , el conjunto

U = {au | a ∈ K}

es un subespacio vectorial de V .

Definición 3.2.3. Se dice que un vector u ∈ V es combinación lineal de los


vectores u1 , . . . , un ∈ V si existen escalares a1 , . . . , an ∈ K tales que
n
X
u = a1 u1 + . . . + an un = ai ui .
i=1
17

Proposición 3.2.4. La intersección de dos subespacios vectoriales U1 y U2 de V


(véase 1.1.2) es un subespacio vectorial U1 ∩ U2 de V .

Proposición 3.2.5. Sea C un conjunto no vacı́o de V . Entonces el conjunto de


todas las combinaciones lineales posibles con elementos de C,
n
X
hCi = { ai ui | ai ∈ K, ui ∈ C}
i=1

es un subespacio vectorial de V que recibe el nombre de subespacio engendrado


por C.

Ejemplo 3.2.6. Sea C = {(1, 0, 0), (0, 1, 1)} ⊆ R3 . Entonces

hCi = {(a, b, b) | a, b ∈ R}.

Observaciones 3.2.7. 1. C ⊆ hCi.

2. Todo subespacio W tal que C ⊆ W verifica hCi ⊆ W .

3. El subespacio hCi coincide con la intersección de todos los subespacios que


contienen a C.

Definición 3.2.8. Se dice que un K-espacio vectorial V es finitamente generado


si existe un conjunto finito de vectores G tal que V = hGi, diremos que el conjunto
G es un sistema generador de V .

Ejemplo 3.2.9. Sea V = R3 .

1. G1 = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es un sistema generador de R3 , ya que cualquier
vector de (x1 , x2 , x3 ) ∈ R3 se puede escribir como

(x1 , x2 , x3 ) = x1 (1, 0, 0) + x2 (0, 1, 0) + x3 (0, 0, 1).


18

2. Comprobemos que G2 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es un sistema generador
de R3 . Dado (x1 , x2 , x3 ) ∈ R3 nos preguntamos si existen λ1 , λ2 , λ3 ∈ R tales
que
(x1 , x2 , x3 ) = λ1 (1, 1, 1) + λ2 (1, 1, 0) + λ3 (1, 0, 0)

equivalentemente si el siguiente sistema en las variables λ1 , λ2 y λ3 tiene


solución 

 λ + λ2 + λ3 = x1

 1
λ1 + λ2 = x2




λ1 = x3 .
Como la matriz de coeficientes tiene rango 3, el Teorema de Rouche (véase
2.3.5) nos permite afirmar que para cualquier (x1 , x2 , x3 ) ∈ R3 el sistema es
compatible determinado.

3. Comprobemos que G3 = {(1, 1, 1), (2, 1, 1), (0, 0, 1), (3, 0, 0)} también es un sis-
tema generador de R3 . Dado (x1 , x2 , x3 ) ∈ R3 nos preguntamos si existen
λ1 , λ2 , λ3 , λ4 ∈ R tales que

(x1 , x2 , x3 ) = λ1 (1, 1, 1) + λ2 (2, 1, 1) + λ3 (0, 0, 1) + λ4 (3, 0, 0)

equivalentemente si el siguiente sistema en las variables λ1 , λ2 , λ3 y λ4 tiene


solución 

 λ + 2λ2 + 3λ4 = x1

 1
λ1 + λ2 = x2




λ1 + λ2 + λ3 = x3 .
Como la matriz de coeficientes tiene rango 3, el Teorema de Rouche (véase
2.3.5) nos permite afirmar que para cualquier (x1 , x2 , x3 ) ∈ R3 el sistema es
compatible indeterminado.
19

4. G4 = {(1, 1, −3), (0, 0, 1)} no es sistema generador de R3 . Ya que el sistema




 λ1 = x1


λ2 = x2




−3λ1 + λ2 = x3

no es compatible para todo (x1 , x2 , x3 ) ∈ R3 . Por ejemplo, para (x1 , x2 , x3 ) =


(0, 1, 0) el sistema es incompatible.

Observación 3.2.10. En el ejemplo anterior se observa que R3 es un R-espacio


vectorial finitamente generado, y que el conjunto generador no es único. La pregunta
natural es, ¿cuántos vectores se necesitan para generar R3 ?

3.3 Bases y dimensión

Sea V un espacio vectorial sobre el cuerpo K.

Definición 3.3.1. Sea {u1 , . . . , un } un conjunto de n vectores de V . Se dice que


{u1 , . . . , un } es un conjunto linealmente independiente (o que los vectores
u1 , . . . , un son linealmente independientes) si la única combinación lineal de di-
chos vectores que es 0V es la que tiene todos los escalares nulos; esto es, dados
λ1 , . . . , λ n ∈ K

si λ1 u1 + . . . + λn un = 0V ⇒ λ1 = . . . = λn = 0.

En otro caso, se dice que {u1 , . . . , un } es un conjunto linealmente dependiente,


o que los vectores u1 , . . . , un son linealmente dependientes, es decir

∃λ1 , . . . , λn ∈ K no todos nulos tales que λ1 u1 + . . . + λn un = 0V .

Ejemplos 3.3.2. 1. Probemos que u1 = (1, 0, 0), u2 = (0, −3, 0), u3 = (0, 0, 5)
son linealmente independientes en (R3 , R). En efecto, si λ1 u1 + λ2 u2 + λ2 u3 =
0R3 entonces (λ1 , −3λ2 , 5λ3 ) = (0, 0, 0) y ası́ λ1 = λ2 = λ3 = 0.
20

2. {(1, 2, 0), (2, 0, 0), (0, 1, 0), (0, 0, 6)} es un conjunto linealmente dependiente ya
que (1, 2, 0) + (1/2)(2, 0, 0) + 2(0, 1, 0) + 0(0, 0, 6) = (0, 0, 0).

Observaciones 3.3.3. Sea C un conjunto de vectores de V .

1. Si 0V es un elemento de C, entonces C es un conjunto linealmente dependiente.

2. C = {u}, u 6= 0V es un conjunto linealmente independiente.

C = {u, v} es linealmente dependiente ⇔ u = αv, con α ∈ K.

3. Si C = {u1 , . . . , un } es linealmente dependiente. Dado u ∈ V cualesquiera


entonces C ∪ {u} es también linealmente dependiente.

4. Si C = {u1 , . . . , un } es linealmente independiente. Entonces C − {ui } es


linealmente independiente para cualquier i ∈ {1, . . . , n}.

Definición 3.3.4. Dos conjuntos de vectores de V , C1 y C2 son equivalentes si


hC1 i = hC2 i.

Proposición 3.3.5. Todo conjunto de vectores de V es equivalente al conjunto


obtenido al añadirle un vector de V combinación lineal de los vectores del conjunto.

A continuación enumeramos algunas propiedades de la dependencia y la inde-


pendencia lineal.

Proposición 3.3.6. Se verifican las siguientes afirmaciones.

1. {u1 , . . . , un } ⊂ V es un conjunto linealmente dependiente si y sólo si alguno


de sus vectores se puede poner como combinación lineal de los demás.

2. Dos subconjuntos C y T de V son equivalentes si y sólo si todo vector de C


depende linealmente de los vectores de T y recı́procamente.

3. Si w ∈ V depende linealmente de v1 , . . . , vn ∈ V y estos dependen a su vez de


otros vectores u1 , . . . , um ∈ V entonces w depende linealmente de u1 , . . . , um .
21

4. Si C ⊂ V es un conjunto de vectores linealmente independiente y v ∈ V es un


vector que no es combinación lineal de los vectores de C, entonces C ∪ {v} es
un conjunto linealmente independiente.

Teorema 3.3.7. Teorema fundamental de la independencia lineal Sea V un


K-espacio vectorial engendrado por G = {v1 , . . . , vn } ⊂ V . Si I = {u1 , . . . , um } es
un conjunto linealmente independiente de vectores de V entonces m ≤ n.

Definición 3.3.8. Sea V un K-espacio vectorial finitamente generado. Se dice que


un conjunto de vectores B = {v1 , . . . , vn } de V es una base de V si verifica,

1. B es sistema generador de V ,

2. B es linealmente independiente.

Ejemplos 3.3.9. 1. Sea ei el vector de Rn cuyos elementos son todos cero ex-
cepto el i-ésimo que vale 1. Entonces B = {e1 , . . . , en } es una base de Rn que
llamaremos base canónica.

2. Sea Eij la matriz m×n que tiene todos sus elementos nulos excepto el elemento
ij que vale 1.
B = {Eij |i = 1, . . . , m, j = 1, . . . , n}

es una base de Mm×n (R) y se llama base canónica de Mm×n (R).

3. La base canónica de Rn [x] es B = {1, x, . . . , xn−1 , xn }.

Teorema 3.3.10. Teorema de existencia de base Cualquier sistema generador


de un espacio vectorial finitamente generado, V 6= {0V } incluye una base de V . En
consecuencia, todo espacio vectorial V 6= {0V } finitamente generado tiene alguna
base.
22

Ejemplo 3.3.11. En el espacio vectorial V = R2 el conjunto

G = {(1, 0), (1, 1), (−1, 0), (1, 2)}

es un sistema generador de V y contiene a la base B = {(1, 0), (1, 1)} de V que se


obtiene eliminando vectores que son linealmente dependientes, en este caso (−1, 0) =
(−1)(1, 0) y (1, 2) = 2(1, 1) − (1, 0).

Proposición 3.3.12. Sea V un K-espacio vectorial finitamente generado y sea


B = {v1 , . . . , vn } una base de V . Entonces, todo vector de V se puede expresar de
forma única como combinación lineal de los vectores de B.

Definición 3.3.13. Sea V un K-espacio vectorial finitamente generado y sea B =


{v1 , . . . , vn } una base de V . Las coordenadas de un vector v ∈ V son los escalares
de la n-upla (λ1 , . . . , λn ) ∈ K n tal que v = λ1 v1 + . . . + λn vn de forma única.
Escribiremos (λ1 , . . . , λn )B para decir que son coordenadas de un vector en la base
B.

Ejemplos 3.3.14. 1. En V = R3 consideramos la base B = {v1 = (1, 0, 0), v2 =


(0, 2, 0), v3 = (0, 0, −1)}. Las coordenadas del vector v = (2, 1, 1) en la base B
son (2, 1/2, −1/2)B ya que v = 2v1 + 1/2v2 − 1/2v3 .

2. Las coordenadas de p(x) = 3−x+x3 −5x4 en la base canónica B = {1, x, x2 , x3 , x4 }


de R4 [x] son (3, −1, 0, 1, −5)B .

Observaciones 3.3.15. 1. Obsérvese que un espacio vectorial tiene infinitas bases.

2. Si V es un espacio vectorial finitamente generado entonces toda base de V


tiene un número finito de vectores.

3. El conjunto R[x] de todos los polinomios en x con coeficientes reales es un


espacio vectorial sobre R que no es finitamente generado. Una base de R[x]
tiene infinitos vectores.
23

Teorema 3.3.16. Teorema de la dimensión Todas las bases de un espacio vec-


torial V 6= {0V } finitamente generado tienen igual número de vectores.

Definición 3.3.17. Se llama dimensión de un espacio vectorial V finitamente


generado, al número de elementos de una base de V y se denota por dimV . Se
conviene en que dim{0V } = 0.

Observaciones 3.3.18. Sea C = {u1 , . . . , un } un conjunto de vectores de un K-


espacio vectorial finitamente generado V .

1. Si C es sistema generador de V , entonces n ≥ dimV .

2. Si C es linealmente independiente, entonces n ≤ dimV .

3. Si C es sistema generador de V y dimV = n, entonces C es una base de V .

4. Si C es linealmente independiente y dimV = n, entonces C es una base de V .

5. dimV es el número máximo de elementos de un conjunto de vectores de V


linealmente independiente.

6. dimV es el número mı́nimo de elementos de un sistema generador de V .

Teorema 3.3.19. Teorema de prolongación de base Sea V un K-espacio vec-


torial finitamente generado. Todo conjunto linealmente independiente de vectores
de V puede completarse hasta obtener una base de V .

Ejemplo 3.3.20. Consideremos V = R3 . El conjunto de vectores linealmente in-


dependientes I = {(1, 1, 0), (0, 2, 0)} se prolonga para obtener la base

{(1, 1, 0), (0, 2, 0), (0, 0, 1)}

de R3 añadiendo el vector (0, 0, 1).


24

Definición 3.3.21. El rango de un conjunto de vectores C = {u1 , . . . , un } de


V es la dimensión del subespacio que engendran:

rango(C) = dimhCi.

En un K-espacio vectorial V de dimensión finita, fijamos una base B. Sea M


la matriz que tiene por filas las coordenadas de los vectores de C en la base B.
Entonces,
rango(C) = rango(M ).

Proposición 3.3.22. El rango de una matriz es el mayor número de vectores fila


linealmente independientes que posee (o equivalentemente de vectores columna).

3.4 Ecuaciones de un subespacio

Sea V un K-espacio vectorial finitamente generado con dimV = n y sea B =


{v1 , . . . , vn } una base de V . Dado un subespacio U de V distinto de V y de {0V },
explicamos a continuación como obtener sus ecuaciones cartesianas y paramétricas
en la base B.

3.4.1 Ecuaciones cartesianas

Proposición 3.4.1. Existe un sistema de ecuaciones lineales homogéneo AX = 0


con dimV − dimU ecuaciones cuyo conjunto de soluciones es igual al conjunto de
25

coordenadas de todos los vectores de U en la base B, esto es

{(λ1 , . . . , λn ) ∈ Rn | λ1 v1 + . . . + λn vn ∈ U } =
 
 s1 
 
 s2 
 
= {(s1 , s2 , . . . , sn ) ∈ Rn | AS = 0} siendo S =  ..  .
 . 
 
 
sn

Todo sistema de ecuaciones lineales que verifique lo anterior recibe el nombre de


sistema de ecuaciones cartesinas de U en la base B.

Supongamos que la dimU = m (con 0 < m < n) y sea {u1 , . . . , um } una base
de U . Buscar las ecuaciones cartesianas de U significa buscar las condiciones que
deben verificar las coordenadas (x1 , x2 , . . . , xn )B de un vector v en la base B para
que v pertenezca a U .
Supongamos que las coordenadas de ui en la base B son (ui1 , . . . , uin )B . Se
construye la siguiente matriz M de tamaño (m + 1) × n :
 
 x1 x2 · · · xn 
 
 u11 u12 · · · u1n 
 
 
M =  u21 u22 · · · u2n 
.
 . .. .. 
 . 
 . . . 
 
um1 um2 · · · umn

Para que el vector v pertenezca a U tiene que ser combinación lineal de los vectores
{u1 , . . . , um } y por tanto rango(M ) = m. Esto significa que todos los menores de
order m + 1 de M tienen que ser nulos. Cada menor de orden m + 1 proporciona
una ecuación lineal homogénea pero como dimU = m podemos reducir el sistema a
26

l = n − m ecuaciones lineales


 a11 x1 + a12 x2 + · · · + a1n xn = 0





 a21 x1 + a22 x2 + · · · + a2n xn = 0
Ecuaciones cartesianas de U ..

 .





 al1 x1 + al2 x2 + · · · + aln xn = 0,

tomando l menores de orden m + 1 que contengan a un menor de orden m no nulo


prefijado.
Obsérvese que las ecuaciones cartesianas del subespacio U en la base B no son
únicas.

Ejemplos 3.4.2. Se fija en V = R4 la base canónica. Se consideran los vectores


u1 = (1, 2, 1, 0),u2 = (3, 5, 1, 1), u3 = (1, 1, 5, 6).

1. Sea U = hu1 , u2 , u3 i. Como u1 ,u2 y u3 son linealmente independientes dimU =


3. El número de ecuaciones cartesianas de U es dimV − dimU = 4 − 3 = 1.
Dicha ecuación es −27x1 + 16x2 − 5x3 + 6x4 = 0 y se obtiene calculando el
determinante de la matriz
 
 x1 x2 x3 x4 
 
 1 2 1 0 
 
 .
 3 5 1 1 
 
 
1 1 5 6

2. Sea W = hu1 , u3 i. Se tiene que dimW = 2 y el número de ecuaciones carte-


sianas es dimV − dimW = 2. Dichas ecuaciones se obtienen calculando 2
menores de orden 3 de la matriz
 
x1 x2 x3 x4
 
 
 1 2 1 0 
 
1 1 5 6
27

que contengan a un menor de orden 2 no nulo fijado. Por ejemplo,


¯ ¯ ¯ ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ ¯ x 1 x 2 x 3 ¯ ¯ x1 x2 x4 ¯
¯ 1 2 ¯ ¯ ¯ ¯ ¯
¯ ¯ 6= 0, las ecuaciones son ¯¯ 1 2 1 ¯¯ = 0, ¯¯ 1 2 0 ¯
¯ = 0,
¯ ¯ ¯ ¯ ¯ ¯
¯ 1 1 ¯ ¯ ¯ ¯ ¯
¯ 1 1 5 ¯ ¯ 1 1 6 ¯

es decir 
 9x1 − 4x2 − x3 = 0
 12x − 6x − x = 0.
1 2 4

3.4.2 Ecuaciones paramétricas

Definición 3.4.3. Las ecuaciones paramétricas de U en la base B son una


solución paramétrica de un sistema de ecuaciones cartesianas de U en la base B.

Si dimU = m las ecuaciones paramétricas son




 x1 = u11 α1 + u21 α2 + · · · + um1 αm





 x2 = u12 α1 + u22 α2 + · · · + um2 αm
Ecuaciones paramétricas de U ..

 .





 xn = u1n α1 + u2n α2 + · · · + umn αm .

siendo α1 , α2 , . . . , αm los parámetros y uij ∈ K. También se escriben de la forma

(x1 , x2 , . . . , xn ) =

= (u11 α1 + u21 α2 + · · · + um1 αm , . . . , u1n α1 + u2n α2 + · · · + umn αm ).

Esto significa que un vector v ∈ V de coordenadas (x1 , x2 , . . . , xn )B pertenece a


U si

(x1 , x2 , . . . , xn )B =

= (u11 α1 + u21 α2 + · · · + um1 αm , . . . , u1n α1 + u2n α2 + · · · + umn αm )B =

= α1 (u11 , . . . , u1n )B + α2 (u21 , . . . , u2n )B . . . + αm (um1 , . . . , umn )B


28

y si llamamos ui al vector de coordenadas (ui1 , . . . , uin )B , i = 1, . . . , m tenemos que


{u1 , u2 , . . . , um } es una base de U .

Ejemplo 3.4.4. Se fija en V = R4 la base canónica. Sea T el subespacio de V de


ecuaciones cartesianas

 2x1 − x2 + 3x3 = 0
Ecuaciones cartesianas de T
 x − 7x = 0.
4 1

Se resuelve el sistema para obtener las ecuaciones paramétricas





 x1 = α 1




 x2 = 2α1 + 3α2
Ecuaciones paramétricas de T

 x3 = α 2





 x4 = 7α1 .

Se descomponen las ecuaciones paramétricas

(α1 , 2α1 + 3α2 , α2 , 7α1 ) = α1 (1, 2, 0, 7) + α2 (0, 3, 1, 0)

para obtener una base {u1 = (1, 2, 0, 7), u2 = (0, 3, 1, 0)} de T .

3.5 Operaciones con subespacios

Sea V un espacio vectorial sobre K con base B.

3.5.1 Intersección de subespacios

La intersección de subespacios vectoriales es un subespacio vectorial (véase la proposición


3.2.4). Se explica a continuación como obtener sus ecuaciones.
Sean U1 y U2 subespacios vectoriales de V con sistemas de ecuaciones cartesianas


 a x + a12 x2 + · · · + a1n xn = 0

 11 1
..
Ecuaciones cartesianas de U1 .




al1 1 x1 + al1 2 x2 + · · · + al1 n xn = 0,
29



 b x + b12 x2 + · · · + b1n xn = 0

 11 1
..
Ecuaciones cartesianas de U2 .




bl2 1 x1 + bl2 2 x2 + · · · + bl2 n xn = 0,
es decir, U1 tiene l1 ecuaciones y U2 tiene l2 .
El subespacio intersección U1 ∩ U2 está formado por aquellos vectores de V cuyas
coordenadas (x1 , x2 , . . . , xn )B verifican el sistema de ecuaciones


 a11 x1 + a12 x2 + · · · + a1n xn = 0



 ..

 .





 al 1 x1 + al 2 x2 + · · · + al n xn = 0
1 1 1
(∗) =

 b11 x1 + b12 x2 + · · · + b1n xn = 0





 ..

 .



 b x + b x + · · · + b x = 0,
l2 1 1 l2 2 2 l2 n n

Observaciones 3.5.1. 1. El sistema de ecuaciones cartesianas de U1 ∩ U2 se


obtiene eliminando de (∗) las ecuaciones que dependan linealmente de las
demás. Esto puede conseguirse reduciendo (∗) a forma escalonada. Por tanto,
el número de ecuaciones cartesianas de U1 ∩ U2 es ≤ l1 + l2 .

2. Una solución paramétrica de (∗) proporciona las ecuaciones paramétricas de


U1 ∩ U2 y de ellas se obtiene una base de U1 ∩ U2 .

Ejemplo 3.5.2. En el R-espacio vectorial R3 , fijada la base canónica, se consideran


los subespacios U1 de ecuación cartesiana 5x2 − 3x3 − x1 = 0 y U2 de ecuación
cartesiana −x3 + x2 − x1 = 0. Como estas ecuaciones no son proporcionales, las
ecuaciones cartesianas de U1 ∩ U2 son

 5x2 − 3x3 − x1 = 0
Ecuaciones cartesianas de U1 ∩ U2
 −x + x − x = 0.
3 2 1

La solución paramétrica del sistema nos proporciona las

Ecuaciones paramétricas de U1 ∩ U2 : (x1 , x2 , x3 ) = (−a, a, 2a).


30

Ası́ dim(U1 ∩ U2 ) = 1 y {(−1, 1, 2)} es una base de U1 ∩ U2 .

3.5.2 Suma de subespacios

Dados U1 , U2 subespacios de V , en general U1 ∪U2 no es un subespacio de V . Veamos


un contraejemplo.

Ejemplo 3.5.3. Se toman los subespacios de V = R2

U1 = {(x, 0) ∈ R2 |x ∈ R}
U2 = {(0, y) ∈ R2 |y ∈ R}.

El conjunto U1 ∪ U2 no es subespacio de R2 ya que u1 = (1, 0) ∈ U1 , u2 = (0, 1) ∈ U2


pero u1 + u2 = (1, 1) ∈
/ U1 ∪ U2 .

Definición 3.5.4. Sean U1 y U2 subespacios de V . Se llama suma de U1 y U2 al


conjunto
U1 + U2 = {u1 + u2 |u1 ∈ U1 , u2 ∈ U2 }.

Proposición 3.5.5. El conjunto U1 + U2 es un subespacio vectorial de V , es el


menor subespacio que contiene a U1 ∪ U2 , es decir U1 + U2 = hU1 ∪ U2 i.

Para calcular el subespacio suma U1 + U2 es importante tener en cuenta que si


BU1 es una base de U1 y BU2 es una base de U2 entonces

U1 + U2 = hBU1 ∪ BU2 i,

es decir, BU1 ∪ BU2 es un sistema generador de U1 + U2 . Podemos obtener una


base BU1 +U2 de U1 + U2 a partir de BU1 ∪ BU2 eliminando vectores hasta obtener un
subconjunto linealmente independiente que siga siendo sistema generador.

Ejemplos 3.5.6. 1. En el ejemplo 3.5.3 el subespacio suma U1 + U2 = R2 es el


menor subespacio que contiene al conjunto U1 ∪ U2 .
31

2. En V = R3 se fija la base canónica. Se consideran los subespacios vectoriales


U1 = hv1 = (1, 1, 2), v2 = (1, 1, 0)i, U2 = hv3 = (0, 0, 1)i, U3 = hv4 = (0, 1, 1)i.
Se tiene que,

(a) U1 + U2 = hv1 , v2 , v3 i y que como v3 = (1/2)(v1 − v2 ) una base de U1 + U2


es BU1 +U2 = {v1 , v2 }. Es decir, U1 + U2 = U1 ya que U2 ⊂ U1 .

(b) U1 + U3 = hv1 , v2 , v4 i y como v1 , v2 , v4 son linealmente independientes


BU1 +U3 = {v1 , v2 , v4 } es una base de U1 +U3 . Esto significa que U1 +U3 =
R3 ya que dim(U1 + U3 ) = 3.

(c) U2 + U3 = hv3 , v4 i y como v3 , v4 son linealmente independienes BU2 +U3 =


{v3 , v4 } es una base. Ası́, dim(U2 + U3 ) = 2 y tiene ecuaciones

Ecuaciones paramétricas de U2 + U3 : (x1 , x2 , x3 ) = (0, b, a + b).

Ecuación cartesiana de U2 + U3 : x1 = 0.

3. En V = R4 se fija la base canónica. Se consideran los subespacios vectoriales

U = hv1 = (0, 0, 1, 1), v2 = (1, 0, 0, 0)i,

W = hv3 = (2, 0, 1, 1), v4 = (0, 0, 0, 1)i.

Del sistema generador {v1 , v2 , v3 , v4 } de U + W se obtiene la base BU +W =


{v1 , v2 , v4 } ya que v3 = v1 +2v2 y los restantes son linealmente independientes.
La ecuación cartesiana de U + W es x2 = 0.

3.5.3 Suma directa de subespacios

Definición 3.5.7. Sean U1 y U2 subespacios de V . Se dice que U1 + U2 es suma


directa si
U1 ∩ U2 = {0V }.

Se escribe U1 ⊕ U2 .
32

Ejemplos 3.5.8. 1. En el ejemplo 3.5.6, (2) se tiene que U2 +U3 es suma directa,
U2 ⊕ U3 . En efecto, probemos que U2 ∩ U3 = {0R3 }: si v ∈ U2 ∩ U3 entonces
v = αv3 = βv4 con α, β ∈ R, como v3 y v4 no son proporcionales se tiene que
α = β = 0 y ası́ v = 0R3 .

2. En V = R3 se fija la base canónica. Se consideran los subespacios vectoriales


U y W dados por sus ecuaciones cartesianas,

 x1 + x2 + x3 = 0
U≡ W ≡ 2x2 + x3 = 0.
 x + x = 0,
1 3

Las coordenadas (x1 , x2 , x3 ) de un vector de U ∩ W verifican el sistema de


ecuaciones 

 x + x2 + x3 = 0

 1
x1 + x3 = 0




2x2 + x3 = 0,
cuya matriz de coeficientes tiene rango 3. El Teorema de Rouche nos permite
afirmar que la única solución de dicho sistema es la nula (obsérvese que el
sistema es homogéneo). Esto demuestra que U ∩ W = {0R3 } y que por tanto
U ⊕ W.

Proposición 3.5.9. Sea B1 una base de U1 y B2 una base de U2 entonces:

U1 ∩ U2 = {0V } ⇔ B1 ∪ B2 es linalmente independiente,

es decir
U1 ⊕ U2 ⇔ B1 ∪ B2 es una base de U1 + U2 .

Proposición 3.5.10. Son equivalentes:

1. U1 + U2 es suma directa.

2. u1 + u2 = 0V ⇒ ui = 0V , i = 1, 2.
33

3. Todo vector de U1 + U2 puede expresarse de forma única como suma de un


vector de U1 y otro de U2 , esto es

si u1 + u2 = u01 + u02 , con ui , u0i ∈ Ui , i = 1, 2 ⇒ ui = u0i , i = 1, 2.

Definición 3.5.11. Suma directa de r subespacios de un espacio vectorial


Sean U1 , . . . , Ur subespacios del K-espacio vectorial V . Entonces U1 + . . . + Ur
es suma directa si dado u ∈ U1 + . . . + Ur existen unos únicos vectores ui ∈ Ui ,
i = 1, . . . , r tales que u = u1 + . . . + ur .
Equivalentemente,
X
Ui ∩ ( Uj ) = {0V }, ∀i = 1, . . . , r.
j6=i

Definición 3.5.12. Dos subespacios U1 y U2 de un K-espacio vectorial V son com-


plementarios (o suplementarios) si U1 ⊕ U2 = V .

 U1 + U2 = V
U1 ⊕ U2 = V ⇔
 U ∩ U = {0 }
1 2 V

Observaciones 3.5.13. 1. Todo subespacio tiene algún complementario.

2. Sean U1 y U2 subespacios complementarios de V . Si B1 es una base de U1 y


B2 es una base de U2 entonces B1 ∪ B2 es una base de V .

Ejemplo 3.5.14. En R2 [x] se fija la base canónica B = {1, x, x2 }. Dado el subespa-


cio U de ecuaciones paramétricas (x1 , x2 , x3 ) = (a + b, a, b) se calcula a continuación
un subespacio complementario de U . A partir de las ecuaciones paramétricas, obte-
nemos la siguiente base BU = {1 + x, 1 + x2 } de U . Un subespacio complementario
W de U tiene una base BW tal que BU ∪ BW es una base de R2 [x]. Por lo tanto,
dimW = 1 y podemos tomar BW = {w} siendo w cualquier vector de R2 [x] lineal-
mente independiente con los de BU . Por ejemplo, BW = {1} y W = h1i. También
son subespacios complementarios de U , W1 = hxi y W2 = hx + x2 i.

U ⊕ W = R2 [x], U ⊕ W1 = R2 [x], U ⊕ W2 = R2 [x].


34

Teorema 3.5.15. Fórmula de las dimensiones o de Grassman Sean U1 y U2


subespacios de V . Entonces

dimU1 + dimU2 = dim(U1 + U2 ) + dim(U1 ∩ U2 ).

Ejemplo 3.5.16. En el ejemplo 3.5.6,(3) se tiene que dimU1 = 2, dimU2 = 2 y que


dim(U1 + U2 ) = 3 por lo tanto

dim(U1 ∩ U2 ) = dimU1 + dimU2 − dim(U1 + U2 ) = 1.


35

Ejercicios Resueltos

1. Estudiar si los siguientes conjuntos son subespacios vectoriales de (R4 , R).

(a) A = {(x, y, z, t) ∈ R4 | 5x + y = 0}

(b) B = {(a, b, a, b) | a, b ∈ R}

(c) C = {(x, y, z, t) ∈ R4 | 2x + y = 0 ó z − 6t = 0}

(d) D = {(x, y, z, t) ∈ R4 | t ≤ 0}

(e) E = {(x, y, z, t) ∈ R4 | x < 0}

Solución

(a) Comprobamos que es un subespacio utilizando la definición 3.2.1. Sean


v1 = (x1 , y1 , z1 , t1 ), v2 = (x2 , y2 , z2 , t2 ) ∈ A y α, β ∈ R entonces

αv1 + βv2 = (αx1 + βx2 , αy1 + βy2 , αz1 + βz2 , αt1 + βt2 )

verifica

5(αx1 + βx2 ) + αy1 + βy2 = α(5x1 + y1 ) + β(5x2 + y2 ) = 0

ya que 5x1 + y1 = 0 y 5x2 + y2 = 0. Por tanto αv1 + βv2 ∈ A.


36

(b) Comprobamos que es un subespacio utilizando la definición 3.2.1. Sean


v1 = (a1 , b1 , a1 , b1 ), v2 = (a2 , b2 , a2 , b2 ) ∈ B y α, β ∈ R entonces

αv1 + βv2 = (αa1 + βa2 , αb1 + βb2 , αa1 + βa2 , αb1 + βb2 )

con αa1 + βa2 , αb1 + βb2 ∈ R. Por tanto αv1 + βv2 ∈ B.

(c) El vector u = (1, 1, 0, 0) verifica z − 6t = 0 por tanto u ∈ C. El vector


v = (0, 0, 1, 1) verifica 2x + y = 0 y por tanto v ∈ C. Sin embargo
u + v = (1, 1, 1, 1) no verifica ninguna de las dos ecuaciones, es decir
u+v ∈
/ C. Esto demuestra que la suma no es operación interna en C y
que por tanto C no es un subespacio vectorial de R4 .

(d) El vector v = (0, 0, 0, 1) ∈ D pero −2v = (0, 0, 0, −2) ∈


/ D lo que demues-
tra que el producto por escalares no es operación externa de R en D y
ası́ D no es un subespacio vectorial de R4 .

(e) El vector nulo (0, 0, 0, 0) no pertecene a E por lo tanto en E no existirı́a


elemento neutro para la suma en E. Esto nos permite afirmar que E no
es un subespacio vectorial de R4 .

2. Se consideran los siguientes subespacios vectoriales de (R4 , R):

(a) V1 = {(x, y, z, t) ∈ R4 | x + y − z = 0},

(b) V2 = hv1 = (1, 1, 1, 1), v2 = (1, 2, 3, 4)i,

(c) V3 = hw1 = (1, 1, 0, 1), w2 = (1, 0, 0, 0), w3 = (0, 1, 1, 0), w4 = (0, 0, 0, 1)i.

¿ Pertenece el vector v = (1, 0, 1, −2) a dichos subespacios? En caso afirmativo


calcular las coordenadas de dicho vector con respecto a alguna base de dichos
subespacios.

Solución
37

(a) El vector v pertenece a V1 ya que verifica la ecuación x + y − z = 0 de


V1 . Las ecuaciones paramétricas de V1 son (x, y, z, t) = (−a + b, a, b, c)
y una base BV1 = {u1 = (−1, 1, 0, 0), u2 = (1, 0, 1, 0), u3 = (0, 0, 0, 1)}.
Para buscar las coordenadas de v en BV1 resolvemos

(1, 0, 1, −2) = λ1 u1 + λ2 u2 + λ3 u3 = (λ2 − λ1 , λ1 , λ2 , λ3 ).

Por lo tanto las coordenadas de v son (λ1 , λ2 , λ3 ) = (0, 1, −2)BV1 .

(b) Los vectores v, v1 , v2 son linealmente independientes ya que


 
1 0 1 −2
 
 
rango  1 1 1 1  = 3.
 
1 2 3 4

Por lo tanto v no pertenece a V2 .

(c) Tenemos que BV3 = {w1 , w2 , w3 , w4 } es una base de V3 ya que


 
 1 1 0 1 
 
 1 0 0 0 
 
rango   = 4.
 0 1 1 0 
 
 
0 0 0 1

Por lo tanto V3 = R4 y las coordenadas de v en la base canónica de


R4 son (1, 0, 1, −2). Para calcular las coordenadas de v en la base BV3
resolvemos v = λ1 w1 + λ2 w2 + λ3 w3 + λ4 w4 , es decir


 1 = λ2 + λ1





 0 = λ3 + λ1

 1 = λ3





 −2 = λ4 + λ1 .

Las coordenas de v en BV3 son (λ1 , λ2 , λ3 , λ4 ) = (−1, 2, 1, −1)BV3 .


38

3. Sea R2 [x] el R-espacio vectorial de los polinomios de grado menor o igual que
2 con coeficientes reales.

(a) ¿Es B1 = {p1 (x) = x2 − 1, p2 (x) = x2 + x + 1, p3 (x) = x2 − x + 1} una


base de R2 [x]? En caso afirmativo, hállense las coordenadas de p(x) =
3 − x + 7x2 en B1 .

(b) ¿Es {q1 (x) = x + 1, q2 (x) = x2 + 1} linealmente independiente? En caso


afirmativo complétese para obtener una base B2 de R2 [x].

(c) ¿Es {s1 (x) = 1 + x + x2 , s2 (x) = 1 + x2 , s3 (x) = 3 + x, s4 (x) = 2 + x − x2 }


un sistema generador de R2 [x]? En caso afirmativo obténgase a partir de
él una base B3 de R2 [x].

Solución

Sea B = {1, x, x2 } la base canónica de R2 [x].

(a) El rango de la matriz 3 × 3 que tiene por filas las coordenadas de los
vectores de B1 en la base B es 3
 
−1 0 1
 
 
rango  1 1 1  = 3.
 
1 −1 1

Como B1 es un sistema linealmente independienete y dimR2 [x] = 3 se


tiene que B1 es una base de R2 [x]. Resolviento λ1 p1 (x) + λ2 p2 (x) +
λ3 p3 (x) = p(x) obtenemos las coordenadas (λ1 , λ2 , λ3 )B1 de p(x), es decir
resolviendo 

 λ + λ2 + λ3 = 3

 1
λ2 − λ3 = −1




λ1 + λ2 + λ3 = 7.
Se tiene que (λ1 , λ2 , λ3 )B1 = (2, 2, 3)B1 .
39

(b) Los polinomios q1 (x) y q2 (x) son linealmente independientes ya que no


son proporcionales. Completamos {q1 (x), q2 (x)} a una base de R2 [x]
añadiendo un polinomio de la base B, por ejemplo B2 = {q1 (x), q2 (x), 1}
es base ya que
 
1 1 0
 
 
rango  1 0 1  = 3.
 
1 0 0
Obsérvese que podemos añadir cualquier vector que sea linealmente in-
dependiente con q1 (x) y q2 (x). Por otra parte, uno de los de la base B
debe ser linealmente independiente con q1 (x) y q2 (x) pero existen muchas
otras posibilidades.

(c) Las coordenadas de los vectores en la base B son (1, 1, 2)B , (1, 0, 1)B ,
(3, 1, 0)B , (2, 1, −1)B respectivamente. El rango de la matriz 4 × 3 que
tiene por filas las coordenadas de dichos vectores es 3 por lo tanto tenemos
un sistema generador del que obtenemos la base B3 = {s1 (x), s2 (x), s3 (x)}
ya que {s1 (x), s2 (x), s3 (x)} es linealmente independiente.

4. Sea B la base canónica de (R4 , R). Se consideran los subespacios vectoriales


S y T de R4 cuyas ecuaciones cartesianas en la base B son
 
 x1 + x2 − x3 − x4 = 0  x1 + x2 − x4 = 0
S ,T
 x −x −x =0  2x − x = 0.
1 2 3 1 4

Hallar una base, la dimensión, las ecuaciones cartesianas y paramétricas de S,


T , S + T y S ∩ T en la base B.

Solución

Resolviendo el sistema de ecuaciones cartesianas de S obtenemos

Ecuaciones paramétricas de S : (x1 , x2 , x3 , x4 ) = (a + b, a, b, 2a).


40

De aquı́ se tiene que dimS = 2 y una base de S es BS = {v1 = (1, 1, 0, 2), v2 =


(1, 0, 1, 0)} ya que (a + b, a, b, 2a) = a(1, 1, 0, 2) + b(1, 0, 1, 0).

Resolviendo el sistema de ecuaciones cartesianas de T obtenemos

Ecuaciones paramétricas de T : (x1 , x2 , x3 , x4 ) = (a, a, b, 2a).

De aquı́ se tiene que dimT = 2 y una base de T es BT = {v1 = (1, 1, 0, 2), v3 =


(0, 0, 1, 0)} ya que (a + b, a, b, 2a) = a(1, 1, 0, 2) + b(0, 0, 1, 0).

Se verifica que S + T =< BS ∪ BT >=< v1 , v2 , v3 >. El rango de la matriz


 
1 1 0 2
 
 
 1 0 1 0 
 
0 0 1 0

es 3, por lo tanto dim(S + T ) = 3 y BS+T = {v1 , v2 , v3 } es una base de S + T .


Obtenemos las ecuaciones paramétricas de S + T calculando av1 + bv2 + cv3 ,

Ecuaciones paramétricas de S + T ≡ (x1 , x2 , x3 , x4 ) = (a + b, a, b + c, 2a).

El número de ecuaciones cartesianas de S + T es dimR4 − dim(S + T ) = 1 y


la ecuación cartesiana se obtiene calculando el determinante
¯ ¯
¯ ¯
¯ x1 x2 x3 x4 ¯¯
¯
¯ ¯
¯ 1 1 0 2 ¯¯
¯
Ecuación cartesiana de S + T : ¯ ¯ = 2x2 − x4 = 0.
¯ 1 0 1 0 ¯¯
¯
¯ ¯
¯ ¯
¯ 0 0 1 0 ¯

Los vectores de S ∩ T verifican el sistema de ecuaciones




 x1 + x2 − x3 − x4 = 0





 x1 − x2 − x3 = 0

 x1 + x2 − x4 = 0





 2x1 − x4 = 0
41

que es equivalente al siguiente sistema de ecuaciones en forma escalonada




 x + x2 − x3 − x4 = 0

 1
Ecuaciones cartesianas de S ∩ T x4 − 2x2 = 0




x3 = 0.

Resolviendo el sistema de ecuaciones cartesianas de S ∩ T obtenemos

Ecuaciones paramétricas de S ∩ T : (x1 , x2 , x3 , x4 ) = (a, a, 0, 2a).

Se sigue que dim(S ∩ T ) = 1 y que BS∩T = {(1, 1, 0, 2)}.

Observaciones

(a) Sabiendo que dimS = 2, dimT = 2 y que dim(S + T ) = 3, la fórmula de


las dimensiones nos permite afirmar que

dim(S ∩ T ) = dimS + dimT − dim(S + T ) = 1.

(b) Solución alternativa para obtener S∩T . Un vector (x1 , x2 , x3 , x4 ) pertenece


a S ∩ T si verifica

(x1 , x2 , x3 , x4 ) = av1 + bv2 = cv1 + dv3

(a − c)v1 + bv2 − dv3 = (−c + a + b, −c + a, −d + b, −2c + 2a) = 0R4 ,

resolviendo 

 −c + a + b = 0





 −c + a = 0

 −d + b = 0





 −2c + 2a = 0

se tiene que b = c = d = 0 y ası́ (x1 , x2 , x3 , x4 ) = av1 , es decir S∩T = hv1 i.


42

5. Sea S2×2 el R-espacio vectorial de las matrices simétricas de orden 2. Fijamos


la base de S2×2
      
 1 0 0 1 0 0 
B = S1 =   , S2 =   , S3 =   .
 0 0 1 0 0 1 

Determinar las ecuaciones cartesianas de un subespacio complementario del


subespacio U con base
    
 1 1 1 0 
BU = M1 =   , M2 =   .
 1 0 0 1 

Solución

Las coordenadas de las matrices de BU en la base B son (1, 1, 0)B y (1, 0, 1)B .
La matriz S1 tiene coordenas (1, 0, 0)B y como
 
1 1 0
 
 
rango  1 0 1 =3
 
1 0 0

se tiene que {M1 , M2 , S1 } es una base de S2×2 . Esto significa que W1 = hS1 i
es subespacio complementario de U .

6. Demostrar la proposición 3.2.4

Solución

Utilizamos la definición de subespacio vectorial. Sean u, v ∈ U1 ∩ U2 y α, β ∈


K. Como u, v ∈ U1 y U1 es un subespacio vectorial tenemos que αu + βv ∈ U1 .
Como u, v ∈ U2 y U2 es un subespacio vectorial tenemos que αu + βv ∈ U2 .
Por lo tanto αu + βv ∈ U1 ∩ U2 . Esto demuestra que U1 ∩ U2 es un subespacio
vectorial de V .
43

7. Sea V un K-espacio vectorial con base B = {v1 , . . . , vn }. Demostrar que las


coordenadas de un vector v ∈ V en la base B son únicas. Esto demuestra la
proposición 3.3.12.

Solución

Supongamos que las coordenadas no son únicas. Es decir que existen (λ1 , . . . , λn ),
(µ1 , . . . , µn ) ∈ K n distintas tales que

v = λ1 v1 + · · · + λn vn = µ1 v1 + · · · + µn vn .

Entonces

λ1 v1 + · · · + λn vn − µ1 v1 − · · · − µn vn = 0V

(λ1 − µ1 )v1 + · · · + (λn − µn )vn = 0V .

Como v1 , . . . , vn son linealmente independientes, se tiene que

λ1 − µ1 = · · · = λn − µn = 0

y por tanto que (λ1 , . . . , λn ) = (µ1 , . . . , µn ). Lo que demuestra que las coor-
denadas son únicas.

8. Sean U1 y U2 subespacios de un K-espacio vectorial V . Sea B1 = {v1 , . . . , vn }


una base de U1 y B2 = {w1 , . . . , wm } una base de U2 . Demostrar que U1 ∩U2 6=
{0V } ⇔ B1 ∪ B2 es linealmente dependiente. Esto demuestra la proposición
3.5.9.

Solución

Sea v 6= 0V , v ∈ U1 ∩ U2 ⇔ existen λ1 , . . . , λn ∈ K no todos nulos y existen


µ1 , . . . , µm ∈ K no todos nulos tales que v = λ1 v1 + · · · + λn vn = µ1 w1 +
· · · + µm wm ⇔ λ1 v1 + · · · + λn vn − µ1 w1 − · · · − µm wm = 0V con no todos
los λ1 , . . . , λn nulos ni todos los µ1 , . . . , µm nulos ⇔ B1 ∪ B2 es linealmente
dependiente.
44

Bibliografı́a

[1] J. de Burgos, Álgebra Lineal y Geometrı́a Cartesiana. McGraw-Hill, 1999.

[2] M. Castellet, I. Llerena, Álgebra Lineal y Geometrı́a. Ed. Reverté, 1994.

[3] D.C. Lay, Linear Algebra and Its Applications, 3a edición. Addison Wesley,
2003.

[4] J.L. Pinilla, Lecciones de Álgebra Lineal. Varicop, 1970.

También podría gustarte