Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

AB Apuntes19 PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 216

E. T. S.

de Ingenieros Industriales
Universidad Politécnica de Madrid

Grado en Ingenierı́a en Tecnologı́as Industriales


Grado en Ingenierı́a Quı́mica

Apuntes de Álgebra

(Curso 2019/2020)

Departamento de Matemática Aplicada a la Ingenierı́a


Industrial
Índice general

1 Espacios vectoriales 1
1.1 Los números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Conjugación, módulo y argumento . . . . . . . . . . . . . . . . . . 2
1.1.3 Potencias. Fórmula de De Moivre . . . . . . . . . . . . . . . . . . . 4
1.1.4 Raı́z cuadrada de un número complejo . . . . . . . . . . . . . . . . 5
1.2 Definición de espacio vectorial, propiedades y ejemplos . . . . . . . . . . . 7
1.2.1 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . 9
1.2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2 Coordenadas respecto a una base . . . . . . . . . . . . . . . . . . . 16
1.3.3 Intersección y suma de subespacios . . . . . . . . . . . . . . . . . . 17
1.3.4 La relación de Grassmann . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2 Matrices y sistemas lineales 30


2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.1.1 Aplicaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.1.2 Matriz de una aplicación lineal . . . . . . . . . . . . . . . . . . . . 34
2.1.3 Composición de aplicaciones lineales y producto matricial . . . . . . 36
2.1.4 La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2 Imagen y núcleo de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2.1 Núcleo e inyectividad . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3.1 Cálculo del rango mediante operaciones elementales . . . . . . . . . 43
2.3.2 Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . 46
2.3.3 Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . 46
2.4 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4.1 Estructura de las soluciones . . . . . . . . . . . . . . . . . . . . . . 48

i
2.4.2 El teorema de Rouché-Frobenius . . . . . . . . . . . . . . . . . . . . 49
2.4.3 Resolución de sistemas lineales por reducción gaussiana . . . . . . . 50
2.5 Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.6.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3 Producto escalar y ortogonalidad 59


3.1 Producto escalar y norma . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2 Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.1 Familias ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.2 Ortonormalización de Gram-Schmidt y factorización QR . . . . . . 66
3.3 Extensión a Cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.3.1 Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.4 Extensión a espacios vectoriales generales . . . . . . . . . . . . . . . . . . . 70
3.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4 Proyecciones ortogonales y sus aplicaciones 77


4.1 Matriz de proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.1 Propiedades de las matrices de proyección ortogonal . . . . . . . . . 80
4.2 Los problemas de mı́nimos cuadrados . . . . . . . . . . . . . . . . . . . . . 80
4.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2.2 Soluciones de mı́nimos cuadrados de un sistema . . . . . . . . . . . 81
4.3 Matriz de simetrı́a ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.3.1 Propiedades de las matrices de simetrı́a ortogonal . . . . . . . . . . 85
4.4 Giros en R2 y en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.1 Matriz de giro en R2 . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.4.2 Matriz de giro en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.5.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

5 Diagonalización 91
5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Matrices semejantes y matrices diagonalizables . . . . . . . . . . . . . . . . 92
5.3 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3.1 Polinomio caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . 95
5.3.2 Propiedades de los autovalores . . . . . . . . . . . . . . . . . . . . . 96
5.4 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.4.1 Polinomios de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.4.2 Valores propios de matrices hermiticas, antihermı́ticas y unitarias: . 102
5.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.5.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

ii
6 Diagonalización ortogonal 108
6.1 Semejanza ortogonal y diagonalización ortogonal . . . . . . . . . . . . . . . 108
6.2 Teorema espectral para matrices reales simétricas . . . . . . . . . . . . . . 109
6.2.1 Descomposición espectral . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3 Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.3.1 Cociente de Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.2 Clasificación de matrices reales simétricas . . . . . . . . . . . . . . 112
6.3.3 El criterio de Sylvester. . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.4 Número de condición espectral de una matriz . . . . . . . . . . . . . . . . 114
6.4.1 Soluciones numéricas y errores de redondeo . . . . . . . . . . . . . . 114
6.5 Clasificación de cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

7 Algunas aplicaciones del Álgebra lineal 124


7.1 Resolución de sistemas de ecuaciones diferenciales lineales . . . . . . . . . . 124
7.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
7.2 Exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7.2.1 Cálculo de la exponencial de una matriz diagonalizable . . . . . . . 128
7.3 Resolución de sistemas de ecuaciones diferenciales lineales de primer orden 129
7.3.1 Resolución mediante un cambio de variable . . . . . . . . . . . . . 129
7.3.2 Solución del sistema diferencial mediante la exponencial de una ma-
triz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.3.3 Teorema de existencia y unicidad. . . . . . . . . . . . . . . . . . . . 130
7.3.4 El caso complejo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.4 Ejemplos de aplicaciones en Ingenierı́a . . . . . . . . . . . . . . . . . . . . 133
7.4.1 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

Soluciones a los ejercicios propuestos 139


Capı́tulo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
Capı́tulo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
Capı́tulo 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
Capı́tulo 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
Capı́tulo 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
Capı́tulo 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
Capı́tulo 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

Apéndice 1: Nociones de teorı́a de conjuntos 194


1.1 Conjuntos y lógica formal . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
1.1.1 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
1.1.2 Relaciones de pertenencia e inclusión . . . . . . . . . . . . . . . . . 194
1.1.3 Los cuantificadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1.1.4 Inclusión y lógica formal . . . . . . . . . . . . . . . . . . . . . . . . 196

iii
1.2 Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
1.2.1 Unión e intersección de conjuntos . . . . . . . . . . . . . . . . . . . 196
1.2.2 Conjuntos complementarios . . . . . . . . . . . . . . . . . . . . . . 197
1.2.3 Producto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . 198
1.3 Aplicaciones entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.3.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.3.2 Composición de aplicaciones . . . . . . . . . . . . . . . . . . . . . . 200
1.3.3 La aplicación inversa . . . . . . . . . . . . . . . . . . . . . . . . . . 201

Apéndice 2: Polinomios 203


2.1 Polinomios con coeficientes en un cuerpo . . . . . . . . . . . . . . . . . . . 203
2.1.1 Operaciones con polinomios . . . . . . . . . . . . . . . . . . . . . . 204
2.2 División euclı́dea de polinomios . . . . . . . . . . . . . . . . . . . . . . . . 204
2.3 Raı́ces de un polinomio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
2.3.1 Raı́ces de polinomios con coeficientes enteros . . . . . . . . . . . . . 206

Ejercicios de polinomios 207

Apéndice 3: Determinantes 208


3.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
3.2 Cálculo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
3.3 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209

iv
Capı́tulo 1

Espacios vectoriales

1.1 Los números complejos.


1.2 Definición de espacio vectorial. Combinaciones lineales. Clausura lineal. Depen-
dencia e independencia lineal. Subespacios vectoriales.
1.3 Bases. Dimensión. Intersección y suma de subespacios. Suma directa. Subespacios
suplementarios. La relación de Grassmann.
1.4 Espacios vectoriales.
1.5 Ejercicios. Cuestiones.

1.1 Los números complejos


1.1.1 Definición y propiedades
Se pretende construir un conjunto que contenga naturalmente a los números reales, cuyas
operaciones sean coherentes con las del cuerpo real y en el cual todo elemento admita raı́z
cuadrada. Para ello, se define axiomáticamente la unidad imaginaria i como un objeto
tal que i2 = −1.
Definición 1 El conjunto de los números complejos, que se denota por C, es:
C := {x + yi, x, y ∈ R}.

Observación: Un número complejo z := x + yi queda determinado unı́vocamente por


los dos números reales (x, y) que lo definen, ası́ puede identificarse geométricamente el
conjunto de los números complejos con el plano R2 . Esta expresión del número complejo
z se denomina forma binómica.
Definición 2 Dado z = a + bi ∈ C, con a, b ∈ R, el número real a se llama parte real
de z, mientras que el número real b se denomina parte imaginaria de z. Se denotan
por
Re z = a , Im z = b.

1
2 Álgebra (2019/20)

Observación: Los números reales son los que tienen parte imaginaria nula; los números
complejos con parte real nula se llaman imaginarios puros.
Los números complejos se suman agrupando sus partes reales e imaginarias y se mul-
tiplican operando formalmente y teniendo presente que i2 = −1. Esto es:

Definición 3 Dados dos números complejos z := a + bi, w := c + di se define su suma


como
z + w := (a + c) + (b + d)i.
y su producto
zw := (ac − bd) + (ad + bc)i.

Geométricamente, la suma de vectores se corresponde con la conocida regla del paralelo-


gramo.
La suma y el producto heredan de los números reales las propiedades que se enuncian
a continuación.

Propiedades:
1. Asociativas: ∀z, w, u ∈ C, (z + w) + u = z + (w + u), (zw)u = z(wu).

2. Para la suma existe un elemento neutro que es el 0 y para el producto un elemento


unidad que es el 1.

3. Elemento opuesto (respecto de la suma): ∀z = a + bi ∈ C, ∃(−z) = −a + (−b)i ∈ C


tal que z + (−z) = 0.

4. Elemento inverso (respecto del producto): ∀z ∈ C \ {0}, ∃z −1 ∈ C tal que zz −1 =


z −1 z = 1.

5. Conmutativas: ∀z, w ∈ C, z + w = w + z, zw = wz.

6. Propiedad distributiva del producto respecto a la suma: ∀z, w, u ∈ C, se tiene que


z(w + u) = zw + zu.

Este conjunto de propiedades nos permite decir que la terna (C, +, ·) tiene estructura
de cuerpo (conmutativo).

1.1.2 Conjugación, módulo y argumento


Definición 4 Dado z = a + bi ∈ C, con a, b ∈ R, definimos su conjugado, y lo denota-
mos por z, como el complejo a − bi.

La interpretación geométrica de la conjugación es que los vectores correspondientes a


complejos conjugados entre sı́ son simétricos respecto al eje de abscisas.
Capı́tulo 1 3

Propiedades de la conjugación:

• ∀z ∈ C, z = z.

• ∀z, w ∈ C, z + w = z + w.

• ∀z, w ∈ C, zw = z w.

1 −i z−z
• ∀z ∈ C, Re z = (z + z) ; Im z = (z − z) = .
2 2 2i

Definición 5 Dado z = x + iy ∈ C, x, y ∈ R, definimos su módulo como


√ p
|z| := zz = x2 + y 2 .

Geométricamente, mide la longitud del vector que representa z en el plano.


También se cumple, evidentemente, que |z| ≥ 0 y (|z| = 0 ⇔ z = 0).

Propiedades del módulo:


• ∀z ∈ C, |Re z|, | Im z| ≤ |z| ≤ |Re z| + | Im z|.

• ∀z ∈ C, |z| = |z|.

• ∀z, w ∈ C, |zw| = |z||w|.

• Desigualdad triangular: ∀z, w ∈ C, |z + w| ≤ |z| + |w|; además, si w 6= 0,


entonces |z + w| = |z| + |w| ⇔ z = αw para algún α ∈ R, α ≥ 0.

Observación: Si |z| = 1, entonces zz = 1, es decir: z −1 = z.

Argumento de un complejo
Dados x, y ∈ R no simultáneamente nulos, existen valores de θ ∈ R tales que
x y
cos θ = p , sen θ = p .
x2 + y2 x + y2
2

Por ejemplo, si x > 0, se puede tomar θ = arctan xy ; si x = 0, se puede tomar θ = π


2
si
y > 0 y θ = − π2 si y < 0; si x < 0, puede tomarse θ = π − arctan xy .

Definición 6 Dado z ∈ C \ {0}, el argumento de z es el conjunto

Arg (z) := {θ ∈ R / z = |z|(cos θ + i sen θ)} . (1.1)


4 Álgebra (2019/20)

Habitualmente diremos un valor del argumento de z para indicar cualquier elemento


del conjunto Arg (z). Por abuso de lenguaje se simplifica y se dice simplemente un
argumento de z. En particular, se llama argumento principal de z al único de los
valores anteriores que pertenece al intervalo (−π, π]. En cada intervalo de longitud 2π
hay un único valor del argumento. El que está en el intervalo [0, 2π) se llama ángulo
polar. Geométricamente, el ángulo polar de z corresponde al ángulo, medido en sentido
positivo (esto es, contrario a las agujas del reloj), que forma con el eje de abscisas el vector
que representa a z.
La expresión z = |z|(cos θ + i sen θ) se llama forma trigonométrica de z.

Observación: Cualesquiera dos valores del argumento de un mismo número complejo


difieren en un múltiplo entero de 2π.
Si θ es un valor del argumento de un número complejo z, entonces
• −θ es un valor del argumento de z.

• π + θ es un valor del argumento de −z.

1.1.3 Potencias. Fórmula de De Moivre


Proposición 1 Dados dos complejos no nulos z = |z|(cos θ+i sen θ) y |w|(cos ϕ+i sen ϕ),
se cumple que

zw = |z||w| (cos(θ + ϕ) + i sen(θ + ϕ)) .

Es decir, que el argumento de un producto es la suma de los argumentos.

El resultado anterior motiva la siguiente notación.

Identidad de Euler
∀θ ∈ R, eiθ := cos θ + i sen θ (1.2)
Ası́ pues, la expresión general de cualquier número complejo no nulo es reiθ , θ, r ∈ R
con r > 0.
Cuando un número complejo se escribe según la expresión anterior, se dice que está
en forma exponencial.
De modo que, si tenemos dos números complejos de módulo unidad eiθ y eiϕ , su
producto vale ei(θ+ϕ) = eiθ eiϕ ; además, la unidad, que es el número de módulo 1 y argu-
mento 0, se puede expresar como 1 = ei0 ; es decir, que esta notación es coherente con las
propiedades de la exponencial.

Nota: En el contexto presente, la identidad de Euler no es más que una notación, pero
en realidad responde al concepto de exponencial de un número complejo que se estudia
en matemáticas más avanzadas.
Capı́tulo 1 5

Observación: El producto de un número z por otro de módulo unidad eiθ , se interpreta


geométricamente como el resultado de girar el vector que representa z un ángulo θ en
sentido positivo (que es el contrario a las agujas del reloj).

Fórmula de De Moivre
Dados θ ∈ R y n ∈ Z, se tiene que
(cos θ + i sen θ)n = cos nθ + i sen nθ. (1.3)
(Donde para n negativo se entiende potencia −n del inverso).
Ası́ pues, la potenciación de números complejos (para potencias enteras) consiste en
elevar el módulo a la correspondiente potencia y multiplicar el argumento por dicha po-
tencia:
n
reiθ = rn einθ . (1.4)

1.1.4 Raı́z cuadrada de un número complejo


Dado un complejo z, nos proponemos buscar sus raı́ces cuadradas. Veremos a continuación
que cada número complejo admite dos raı́ces cuadradas.

Definición 7 Sea z ∈ C. Se dice que un complejo w es una raı́z cuadrada de z si z = w2 .

Procedamos a calcular las raı́ces cuadradas en forma exponencial. Llamemos α y β


respectivamente a los argumentos principales de z y w. De este modo, z = |z|eiα y
w = |w|eiβ . De acuerdo con la definición anterior, si w es una raı́z cuadrada de z se debe
cumplir
|z|eiα = |w|2 ei2β .
La igualdad anterior se da si y solo si ambos miembros de la ecuación tienen el mismo
módulo y el mismo argumento1 Puesto que el argumento de un complejo está formado por
infinitos valores que difieren en un múltiplo entero de 2π, la igualdad anterior equivale a
(
|z| = |w|2
α + 2kπ = 2β para algún k ∈ Z.

Existen infinitos valores de β que


n α satisfacen la ecuación
o anterior; sin embargo, todos ellos
pertenecen o bien al conjunto + 2mπ, m ∈ Z o bien al conjunto
nα o 2
+ (2m + 1)π, m ∈ Z . Es decir, todos los valores de β se corresponden con tan solo
2
dos argumentos distintos. Por tanto,
( p
|w| = |z|
β = α2 + kπ, k ∈ {0, 1} ,
1
Nos referimos aquı́ no al argumento principal sino a la definición formal de argumento dada en 1.1.
6 Álgebra (2019/20)

y las dos raı́ces cuadradas de z son


α
w1 = |z|ei 2 y w2 = |z|ei( 2 +π) .
p α p


Ejemplo: Calcular las raı́ces cuadradas del número z = −2 + 2 3i.
 √ 
Solución: Puesto que |z| = 4 y α = arctan 2−23 = 2π3
, las raı́ces cuadradas de z son
√ iπ √ √ 4π √
w1 = 4e 3 = 1 + 3i y w2 = 4ei 3 = −1 − 3i.

Cálculo de la raı́z cuadrada en forma binómica


También se pueden calcular las raı́ces cuadradas de un complejo empleando la forma
binómica. Si w = a + bi es una raı́z cuadrada de z = c + di, entonces
c + di = (a + bi)2 = a2 − b2 + 2abi.
Igualando partes reales e imaginarias, se obtiene
(
c = a2 − b 2
d = 2ab.
Resolviendo el sistema anterior se llega a la fórmula
√ √
q q
sgn(d) 1
a=± √ 2
c+ c +d , 2 b = ±√ −c + c2 + d2 .
2 2
No obstante, la fórmula anterior es engorrosa y no recomendamos memorizarla. Es preferi-
ble resolver el sistema correspondiente para cada valor numérico de z, como ilustramos
en el siguiente ejemplo.


Ejemplo: Calcular de nuevo las raı́ces cuadradas del número z = −2 + 2 3i empleando
ahora la forma binómica.
Solución: Si w = a + bi es una raı́z cuadrada de z, entonces

−2 + 2 3i = (a + bi)2 = a2 − b2 + 2abi
Igualando partes reales e imaginarias, se obtiene
(
−2 = a2 − b2

2 3 = 2ab,

sustituyendo a = b3 en la primera ecuación se obtiene b4 − 2b2 − 3 = 0, cuyas raı́ces
√ √
reales son b = ± 3. Por último, a = b3 = ±1, luego recuperamos (por supuesto) el
resultado anterior: √ √
w1 = 1 + 3i y w2 = −1 − 3i.
Capı́tulo 1 7

1.2 Definición de espacio vectorial, propiedades y ejem-


plos
En el presente capı́tulo nos proponemos estudiar los espacios vectoriales Rn y Cn , que son
generalizaciones del plano y del espacio euclı́deo ordinarios ası́ como de las magnitudes
vectoriales de la fı́sica. Se trata de conjuntos cuyos elementos, denominados vectores,
pueden sumarse entre sı́ y asimismo multiplicarse por números, que denominaremos es-
calares, obteniéndose como resultado en ambos casos un nuevo vector.

Nota: En lo que sigue, la letra K denotará indistintamente el cuerpo R de los números


reales o el cuerpo C de los números complejos. Utilizamos el mismo sı́mbolo “+” para
denotar la suma en el espacio Kn (suma de vectores) y la suma en el cuerpo K. El sı́mbolo
“·” denota la ley externa en Kn (producto de escalar por vector )2 .

Definición 8 Si n es cualquier entero positivo, definimos el espacio Kn como el conjunto


de las n-uplas ordenadas de elementos de K, es decir:

Kn := {(x1 , x2 , . . . , xn ) : xj ∈ K, j = 1, 2, . . . , n}. (1.5)

Los elementos de Kn se denominan vectores. Los elementos xj ∈ K se denominan


componentes del vector.

Definición 9 (suma de vectores) En Kn definimos la operación suma mediante

(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) := (x1 + y1 , x2 + y2 , . . . , xn + yn ). (1.6)

Propiedades de la suma:
La suma de vectores de Kn es una ley de composición interna en Kn (es decir, a cada par
de vectores de Kn le asocia un nuevo vector de Kn ) que verifica las siguientes propiedades:

1. ∀x, y, z ∈ Kn , (x + y) + z = x + (y + z) (propiedad asociativa).

2. ∃0 ∈ Kn tal que, ∀x ∈ Kn , x + 0 = 0 + x = x (existencia de elemento neutro).

3. ∀x ∈ Kn , ∃ − x ∈ Kn tal que x + (−x) = −x + x = 0 (existencia de elemento


simétrico).

4. ∀x, y ∈ Kn , x + y = y + x (propiedad conmutativa).

Las cuatro propiedades enunciadas, que se deducen inmediatamente de las de la suma


de números reales o complejos, dotan a la dupla (Kn , +) de la estructura de grupo
abeliano.
2
En la práctica, tanto para producto de escalares como de escalar por vector, se yuxtaponen los
términos omitiendo el punto “·”.
8 Álgebra (2019/20)

Definición 10 (vector nulo) Llamamos vector nulo de Kn , y lo denotamos por 0, al


vector (0, 0, . . . , 0), es decir, el elemento neutro de la suma de vectores.
Definición 11 (vector opuesto) Dado un vector x = (x1 , x2 , . . . , xn ) ∈ Kn , su opuesto
es el vector −x := (−x1 , −x2 , . . . , −xn ), es decir, su elemento simétrico respecto a la
suma de vectores.
Definición 12 (producto de escalar por vector) Si α ∈ K y (x1 , x2 , . . . , xn ) ∈ Kn ,
definimos su producto mediante
α · (x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ). (1.7)
Esta operación también se denomina ley externa de Kn .

Propiedades de la ley externa:


La ley externa, en conjunción con la suma de vectores, verifica las siguiente propiedades:
5. ∀x ∈ Kn , ∀λ, µ ∈ K, (λ + µ) · x = λ · x + µ · x.
6. ∀x, y ∈ Kn , ∀λ ∈ K, λ · (x + y) = λ · x + λ · y.
7. ∀x ∈ Kn , ∀λ, µ ∈ K, (λµ) · x = λ · (µ · x).
8. ∀x ∈ Kn , 1 · x = x.
Todas estas propiedades se deducen fácilmente de las de la suma y el producto de
números reales o complejos. Las propiedades 1 a 8 dotan a la cuaterna (Kn , K, +, ·) de
la estructura de espacio vectorial cuya definición general se dará en la sección 1.4.
También se dice que Kn es un espacio vectorial sobre K.

Propiedades adicionales:
De las 8 propiedades enunciadas se deducen con facilidad las siguientes (nótese la dis-
tinción entre el escalar 0 ∈ K y el vector 0 ∈ Kn ):
• ∀x ∈ Kn , 0 · x = 0.
• Sean λ ∈ K y x ∈ Kn ; λ · x = 0 ⇔ λ = 0 ∨ x = 0.
• ∀λ ∈ K, ∀x ∈ Kn , (−λ) · x = λ · (−x) = −(λ · x).

1.2.1 Combinaciones lineales


Definición 13 (combinación lineal) Una combinación lineal de los vectores u1 , u2 , . . . , uk
de Kn es cualquier vector de la forma
u = λ1 u1 + λ2 u2 + . . . + λk uk , (1.8)
siendo λ1 , λ2 , . . . , λk ∈ K.
Capı́tulo 1 9

Ejemplo: En R3 , el vector 31 , 3, − 34 es combinación lineal de los vectores (1, 0, −1) y




(1, 3, −2), ya que  


1 4 2
, 3, − = − (1, 0, −1) + (1, 3, −2).
3 3 3

Observación: El vector nulo es combinación lineal de cualesquiera vectores. Todo


vector es combinación lineal de sı́ mismo.
Definición 14 (clausura lineal) Dado un conjunto M ⊂ Kn , se define la clausura lin-
eal de M , y se denota por L[M ], como el conjunto de todas las combinaciones lineales de
vectores de M .

Nota: Para M = ∅ se adopta el convenio L[∅] = {0}.

Ejemplo: En R3 , sea M = {(1, 0, −1), (1, 3, −2)}. L[M ] es el conjunto de vectores de


la forma α(1, 0, −1) + β(1, 3, −2) con α, β escalares reales, es decir:
L[M ] = {(α + β, 3β, −α − 2β) : α, β ∈ R}.
1 4

El vector 3
, 3, − 3 del ejemplo anterior pertenece a L[M ], pues se obtiene para α = −2/3
y β = 1.

1.2.2 Dependencia e independencia lineal


Definición 15 (independencia lineal) Los vectores u1 , u2 , . . . , uk de Kn son lineal-
mente independientes si la única combinación lineal de ellos igual al vector nulo es la que
tiene todos los coeficientes nulos, es decir,
λj ∈ K, λ1 u1 + λ2 u2 + . . . + λk uk = 0 ⇒ λ1 = λ2 = . . . = λk = 0. (1.9)
En caso contrario, se dice que los vectores anteriores son linealmente dependientes.

Observación: u1 , u2 , . . . , uk son linealmente dependientes si y sólo si


k
X
∃λ1 , λ2 , . . . , λk ∈ K, con algún λi 6= 0, tales que λj uj = 0. (1.10)
j=1

Lo anterior equivale a que se pueda despejar alguno de los vectores como combinación
lineal de los restantes, es decir,
X
ui = αj uj , αj ∈ K. (1.11)
j6=i

(Basta considerar un ui cuyo λi 6= 0 en la combinación lineal que da el vector nulo).


10 Álgebra (2019/20)

Definición 16 (familia libre y ligada) Sea S = {u1 , u2 , . . . , uk } ⊂ Kn ; se dice que S


es una familia libre si u1 , u2 , . . . , uk son linealmente independientes; en caso contrario, se
dice que S es una familia ligada.

Ejemplos:
• En R3 , {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es una familia libre, ya que
α(1, 1, 1)+β(1, 1, 0)+γ(1, 0, 0) = (0, 0, 0) ⇔ α+β+γ = α+β = α = 0 ⇔ α = β = γ = 0.
Los tres vectores son linealmente independientes.
• En el mismo espacio, (1, 0, −1), (1, 3, −2), 31 , 3, − 43
 
es ligada, ya que, como se
vio anteriormente, 13 , 3, − 43 = − 23 (1, 0, −1) + (1, 3, −2), lo que equivale a que
 
2 1 4
− (1, 0, −1) + (1, 3, −2) − , 3, − = (0, 0, 0).
3 3 3
Los tres vectores son linealmente dependientes.

Nota: Por razones que se verán más adelante en este mismo tema, adoptamos el con-
venio de considerar el conjunto vacı́o, ∅, como una familia libre.

Observación:
• S es libre si y sólo si ningún vector de S es combinación lineal de los restantes
vectores de S.
• Una familia S es ligada si y sólo si algún vector de S es combinación lineal de los
restantes vectores de S. En particular, cualquier familia que contenga al vector nulo
es ligada.
• Cualquier subconjunto de una familia libre es libre.
• Cualquier familia que contenga una subfamilia ligada es también ligada.

Ejemplo: En Kn , consideramos los n vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . ,


en = (0, . . . , 0, 1) (para cada j = 1, 2, . . . , n, ej es el vector que tiene nulas todas sus
componentes excepto la j-ésima que vale 1). Estos vectores se conocen como vectores
canónicos de Kn .
La familia formada por los vectores canónicos es libre. En efecto, si λj ∈ K,
λ1 e1 + λ2 e2 + . . . + λn en = 0 ⇔ (λ1 , λ2 , . . . , λn ) = (0, 0, . . . , 0) ⇔ λj = 0 ∀j = 1, 2, . . . , n.
Capı́tulo 1 11

1.2.3 Subespacios vectoriales


El concepto de subespacio vectorial se refiere a todo subconjunto H de Kn que, por sı́
mismo, mantenga la estructura de espacio vectorial de aquél, como por ejemplo sucede en
R3 con los planos coordenados. Esta idea se traduce en que, si se efectúan las operaciones
propias de Kn con los vectores de H, se tienen que obtener en todos los casos vectores
pertenecientes a H.
Definición 17 (subespacio vectorial) Un subespacio vectorial de Kn es cualquier sub-
conjunto no vacı́o de dicho espacio que sea cerrado para la suma y para el producto por
escalares, es decir:
H ⊂ Kn ; se dice que H es un subespacio vectorial de Kn si:
1. 0 ∈ H.
2. ∀u, v ∈ H, u + v ∈ H.
3. ∀λ ∈ K, ∀u ∈ H, λu ∈ H.
Nótese que los apartados 2. y 3. pueden escribirse conjuntamente en la forma:
∀u, v ∈ H, ∀λ, µ ∈ K, λu + µv ∈ H. (1.12)
Ası́ pues, un subespacio vectorial es un conjunto no vacı́o cerrado para las combina-
ciones lineales.

Observación: El propio espacio Kn es subespacio vectorial de sı́ mismo; además, el


conjunto {0} formado únicamente por el vector nulo, constituye un subespacio que lla-
maremos subespacio nulo. Estos dos subespacios son los llamados subespacios triviales
de Kn .

Ejemplos:
1. En R4 consideramos el subconjunto H = {x ∈ R4 : x1 = 2x3 }.
H, que obviamente contiene el (0, 0, 0, 0), es un subespacio vectorial; en efecto,
sean x, y ∈ H, es decir, que satisfacen que x1 = 2x3 e y1 = 2y3 . Para cualesquiera
λ, µ ∈ R, consideramos el vector λx+µy, cuya primera componente vale λx1 +µy1 =
λ · 2x3 + µ · 2y3 = 2(λx3 + µy3 ); como λx3 + µy3 es precisamente el valor de la tercera
componente de λx + µy, concluimos que dicho vector pertenece a H y, por tanto,
éste es subespacio.
2. En R3 , el plano de ecuación x + y − 2z = 5 no es subespacio vectorial, ya que el
vector nulo (origen de coordenadas) no pertenece a dicho plano.
3. En R3 , el paraboloide P de ecuación z = x2 + y 2 , pese a contener al (0, 0, 0), no es
subespacio vectorial. En efecto, si tomamos los puntos (1, 1, 2) y (−1, −1, 2), ambos
pertenecen a P , pero su suma (0, 0, 4) no satisface la ecuación.
12 Álgebra (2019/20)

Observación: La clausura lineal de cualquier conjunto M es un subespacio vectorial,


ya que las combinaciones lineales de vectores de L[M ] pueden reducirse a su vez a combi-
naciones lineales de vectores de M , y pertenecen por tanto a L[M ], el cual se denomina
también subespacio generado por M . Cualquier subespacio que contenga a M necesaria-
mente contiene a L[M ].

Observación: Como consecuencia de la observación anterior, en R2 los únicos subespa-


cios no triviales son las rectas que pasan por el origen, y en R3 las rectas que pasan por
el origen y los planos que contienen a dicho punto.

1.3 Bases
1.3.1 Base y dimensión
Definición 18 (sistema generador) Dados H subespacio vectorial de Kn y M ⊂ H,
se dice que M es un sistema generador (o sistema de generadores) de H si H = L[M],
es decir, si todo vector de H puede ponerse como combinación lineal de los de M.

Ejemplo: Los vectores canónicos de Kn constituyen un sistema generador de dicho


espacio, ya que ∀x = (x1 , x2 , . . . , xn ) ∈ Kn ,
x = x1 e1 + x2 e2 + . . . + xn en .

Definición 19 (base) Dado H subespacio vectorial de Kn , una base de H es un sistema


generador, libre y ordenado.

Definición 20 (base canónica) En Kn , la familia formada por los vectores canónicos


(e1 , e2 , . . . , en ), que ya se ha visto que constituye un sistema libre y generador de Kn , es
por tanto una base que denominaremos base canónica de Kn .

Ejemplo: Encontrar una base del subespacio de R4 determinado por la ecuación


x1 − x2 + 3x3 + x4 = 0.
Solución: Puesto que tenemos una única ecuación y cuatro incógnitas, podemos dar
valores arbitrarios a tres de ellas y escribir la cuarta en función de esas tres, por ejemplo:
x2 = α, x3 = β, x4 = γ, x1 = α − 3β − γ, es decir:
         
x1 α − 3β − γ 1 −3 −1
 x2   α  = α 1  + β  0  + γ  0 .
      
 =
 x3   β   0   1   0 
x4 γ 0 0 1
Capı́tulo 1 13

Los tres vectores anteriores engendran de manera evidente el subespacio y son linealmente
independientes (véanse las tres últimas componentes), constituyendo por lo tanto una base
del mismo.

Teorema 1 (existencia de bases) Todo subespacio vectorial admite una base.


Teorema 2 (equicardinalidad de bases) Todas las bases de un mismo subespacio vec-
torial tienen el mismo número de vectores.
Demostración: La demostración de estos dos teoremas no es elemental y excede el
objeto de estos apuntes. 2
Definición 21 (dimensión) Llamamos dimensión de un subespacio vectorial H, y la
denotamos por dim H, al número de elementos de cualquiera de sus bases.

Ejemplo: dim Kn = n ya que la base canónica está formada por n vectores.

Nota: Adoptamos el convenio de considerar al conjunto vacı́o, ∅, como la base del


subespacio nulo {0}. Ası́ pues, dim({0}) = 0. Con esta convención, la relación de
Grassmann que se verá más adelante ası́ como otros resultados de este curso siguen siendo
válidos cuando alguno de los subespacios involucrados es el nulo.
Recuérdese en todo caso que {0} ası́ como cualquier familia que lo contenga siempre
es una familia ligada.

Proposición 2 De todo sistema generador de un subespacio vectorial H puede extraerse


una base.
Demostración:
Damos un apunte constructivo restringido al caso en que el sistema generador es finito.
Sea G un generador finito de H. Si es libre el resultado está probado. Si es ligado, existe
un vector v ∈ G que depende linealmente de los restantes vectores de G; por tanto, al
suprimir ese vector, el conjunto resultante G \ {v} sigue engendrando el mismo subespacio
H. Se repite el argumento y, dado que G es finito, en un número finito de pasos habremos
extraı́do de G un generador libre. 2

Observación: La construcción anterior muestra que una base es un sistema generador


“minimal”, es decir, con el menor número posible de vectores. Ası́ pues, la dimensión
de un subespacio equivale al mı́nimo número de vectores para un sistema
generador de dicho subespacio.
Igualmente, puede demostrarse que en un subespacio de dimensión m no puede existir
un sistema libre con un número de vectores superior a m. Ası́, una base se caracteriza por
ser un sistema libre “maximal”, es decir, con el máximo número posible de vectores. La
dimensión es el mayor número posible de vectores linealmente independientes.
Algunas ideas afines a lo anterior se recapitulan en la siguiente proposición:
14 Álgebra (2019/20)

Proposición 3 Sea H un subespacio de Kn cuya dimensión es m:

• Si {u1 , . . . , um } es una familia libre de H, entonces es generadora (y por tanto base)


de H.

• Si {u1 , . . . , um } es un sistema generador de H, entonces es libre (y por tanto base


de H).

• Si m = n entonces H = Kn .

Observación: Si un subespacio H tiene dimensión k, el vector genérico de dicho espacio


puede escribirse como

x = α1 u1 + . . . + αk uk , αj ∈ K, (1.13)

en donde (u1 , . . . , uk ) es una base de H. La expresión anterior coincide con la de la


solución general de un sistema de n − k ecuaciones lineales homogéneas, que denominare-
mos ecuaciones implı́citas de H, que caracterizan a los vectores de dicho subespacio.
Para encontrar dichas ecuaciones basta con eliminar los parámetros de la ecuación vec-
torial anterior o, equivalentemente, forzar a que el vector genérico x = (x1 , . . . , xn ) sea
combinación lineal de los de la base de H.
Para un subespacio H de Kn , el número de ecuaciones implı́citas independientes
que lo determinan es n − dim H. Esto quedará demostrado en la proposición 14 del tema
2.

Ejemplo: En R3 , encontrar la ecuación implı́cita que determina el subespacio H =


L[(1, 0, 1), (1, 3, 2)].
Solución: El vector genérico (x, y, z) de H se expresa mediante las ecuaciones paramétricas

x = α+β
y = 3β
z = α + 2β

siendo α, β parámetros reales. Procedemos a eliminar dichos parámetros (formalmente,


esto equivale a forzar, en términos de x, y, z, a que el sistema lineal cuyas incógnitas son
α, β sea compatible): β = z − x ⇒ y = 3(z − x), de donde se concluye que la ecuación
implı́cita de H es
3x + y − 3z = 0.
Otra forma: La pertenencia a H del vector (x, y, z) equivale a que la última columna
de la matriz  
1 1 x
 0 3 y 
1 2 z
Capı́tulo 1 15

sea combinación de las dos primeras; si conocemos el concepto de rango, sabemos que
lo anterior sucede si y solo si dicha matriz tiene rango 2 (ya que (1, 0, 1) y (1, 3, 2) son
linealmente independientes). Triangulamos la matriz mediante operaciones de reducción
gaussiana e imponemos que el rango sea 2:
     
1 1 x 1 1 x 1 1 x
 0 3 y ∼ 0 3 y ∼ 0 3 y 
1 2 z 0 1 z−x 0 0 3(z − x) − y
cuyo rango será 2 si y sólo si 3x + y − 3z = 0.
Obsérvese que, puesto que la matriz es cuadrada, también podrı́amos haber procedido
forzando a que su determinante se anulase.

Teorema 3 (compleción de la base) Sea H un subespacio vectorial de dimensión m,


y sea G = {u1 , u2 , . . . , uk } una familia libre de H, con k < m. Entonces existen
uk+1 , . . . , um ∈ H, tales que (u1 , . . . , uk , uk+1 , . . . , um ) es una base de H.
Demostración constructiva:
Puesto que todo sistema generador de H tiene al menos m elementos, el conjunto G
no puede ser generador, luego existe algún vector uk+1 que no es combinación lineal de
los de G, es decir, uk+1 ∈ H \ L[u1 , u2 , . . . , uk ].
El conjunto obtenido {u1 , u2 , . . . , uk , uk+1 } es un sistema libre de H, ya que uk+1 no
depende linealmente de los k primeros vectores que, a su vez, son linealmente indepen-
dientes entre sı́.
Si k +1 = m, ya tenemos una base de H, pues el conjunto {u1 , u2 , . . . , uk , uk+1 } es una
familia libre de m vectores; en caso contrario, volvemos a aplicar el mismo razonamiento
a dicho conjunto (sea uk+2 ∈ H \ L[u1 , u2 , . . . , uk , uk+1 ], etc.); en m − k pasos, habremos
obtenido una familia libre de m vectores, es decir, una base de H. 2

Ejemplo: Encontrar una base de R4 cuyos dos primeros vectores sean (1, 2, 3, 4),
(1, 0, −1, 0).
Solución: En lugar de proceder paso a paso como en la construcción teórica anterior,
vamos a intentar encontrar los dos vectores directamente. Probamos con aquéllos que
nos pueden facilitar los cálculos, es decir, los canónicos, por ejemplo (0, 0, 1, 0), (0, 0, 0, 1)
y simplemente comprobamos si estos vectores completan la base. En efecto, la familia
obtenida es libre ya que, con una simple operación de reducción gaussiana por filas,
   
1 2 3 4 1 2 3 4
 1 0 −1 0   0 −2 −4 −4 
 ∼ 
 0 0 1 0   0 0 1 0 
0 0 0 1 0 0 0 1
de donde concluimos que las cuatro filas de la matriz son linealmente independientes. Ası́
pues, una base que satisface las condiciones pedidas es
((1, 2, 3, 4), (1, 0, −1, 0), (0, 0, 1, 0), (0, 0, 0, 1)) .
16 Álgebra (2019/20)

Si los dos vectores escogidos nos hubiesen proporcionado una matriz de rango inferior a
4, escogerı́amos otros distintos y repetirı́amos la comprobación.

1.3.2 Coordenadas respecto a una base


Definición 22 (coordenadas respecto a una base) Sea B = (u1 , . . . , un ) una base
de Kn . Si v ∈ Kn , v = x1 u1 + . . . + xn un con xj ∈ K, los escalares x1 , . . . , xn se
denominan coordenadas del vector v respecto a la base B.

Nota: De igual modo pueden definirse las coordenadas respecto a una base de un sub-
espacio de Kn de cualquier vector perteneciente a dicho subespacio.

Proposición 4 Las coordenadas de un vector respecto a una base son únicas.

Demostración: Supongamos que un vector u puede expresarse como

u = x1 u1 + . . . + xn un = x01 u1 + . . . + x0n un .

Entonces,

0 = x1 u1 + . . . + xn un − (x01 u1 + . . . + x0n un ) = (x1 − x01 )u1 + . . . + (xn − x0n )un ,

lo que implica, por la independencia lineal de los uj , que todos los escalares xj − x0j valen
0, es decir, que x0j = xj ∀j = 1, 2, . . . , n. 2

Definición 23 El vector x = (x1 , . . . , xn ) ∈ Kn se denomina vector de coordenadas


de v respecto a B, y se suele denotar por [v]B .

Observación: Las coordenadas de un vector respecto a la base canónica de Kn coinciden


con las componentes del vector, es decir, el vector de coordenadas coincide con el propio
vector.

Ejemplo: Calcular las coordenadas del vector u = (1, 2, 3) respecto a la base B =


((1, 0, 1), (1, 1, −1), (1, 2, 0)) de R3 .
Solución: Buscamos x, y, z tales que x(1, 0, 1) + y(1, 1, −1) + z(1, 2, 0) = (1, 2, 3), es
decir, tenemos que resolver el sistema de tres ecuaciones lineales cuya matriz ampliada es
 
1 1 1 1
 0 1 2 2 .

1 −1 0 3
Capı́tulo 1 17

Realizamos operaciones de reducción gaussiana por filas (es decir, ecuaciones), obteniendo:
   
1 1 1 1 1 1 1 1
 0 1 2 2  ∼  0 1 2 2  ,
0 −2 −1 2 0 0 3 6

que, despejando las incógnitas de abajo a arriba, nos da la solución z = 2, y = −2, x = 1.


El vector de coordenadas es, por tanto,

[u]B = (1, −2, 2).

1.3.3 Intersección y suma de subespacios


Recuérdese que la intersección de dos conjuntos es el conjunto formado por aquellos
elementos que pertenecen simultáneamente a ambos, es decir:

A, B conjuntos; x ∈ A ∩ B ⇔ x ∈ A ∧ x ∈ B. (1.14)

Proposición 5 La intersección de dos subespacios vectoriales de Kn es subespacio vecto-


rial de dicho espacio.

Demostración: Sean los subespacios M y N de Kn . M ∩ N contiene obviamente al


vector nulo. Sean los vectores u, v ∈ M ∩ N ; ası́ pues, u, v ∈ M y u, v ∈ N ; por ser
estos conjuntos subespacios, para cualesquiera λ, µ ∈ K, λu + µv ∈ M y λu + µv ∈ N ,
es decir, λu + µv ∈ M ∩ N . 2

Observación: La unión de subespacios vectoriales no es, en general, subespacio vec-


torial. Considérense, por ejemplo, los dos ejes coordenados de R2 , que son subespacios.
Tanto el vector e1 como el e2 pertenecen a la unión de dichos subespacios, pero su vector
suma (1, 1) no pertenece a dicha unión.
De hecho, dados dos subespacios L, M de un mismo espacio vectorial E, se tiene que

L ∪ M es subespacio ⇔ (L ⊂ M ∨ M ⊂ L). (1.15)

Definición 24 (suma de subespacios) Dados dos subespacios L y M de Kn , definimos


su suma como

L + M := {u + v : u ∈ L , v ∈ M }. (1.16)

En general, la definición anterior puede extenderse recursivamente a un número finito


de subespacios de Kn .
18 Álgebra (2019/20)

Ejemplo: En R3 , se consideran los dos ejes coordenados OX = {(x, 0, 0) : x ∈ R} y


OY = {(0, y, 0) : y ∈ R}. La suma de dichos subespacios es el plano XOY , es decir,
OX + OY = XOY = {(x, y, 0) : x, y ∈ R}.
Obsérvese que como resultado de la suma hemos obtenido un nuevo subespacio vectorial
de R3 .

Proposición 6 La suma de subespacios vectoriales de Kn es un subespacio vectorial de


Kn .
Demostración: 0 ∈ M + N ya que pertenece a ambos subespacios y 0 = 0 + 0. Sean
x, y ∈ M + N , es decir, x = u1 + v1 e y = u2 + v2 , con uj ∈ M y vj ∈ N . Entonces,
∀λ, µ ∈ K,
λx + µy = λ(u1 + v1 ) + µ(u2 + v2 ) = λu1 + λv1 + µu2 + µv2 = (1.17)

(λu1 + µu2 ) + (λv1 + µv2 ) ∈ M + N, (1.18)


ya que λu1 +µu2 pertenece a M por ser combinación lineal de vectores de M , e igualmente
le sucede al segundo sumando respecto a N . 2
Definición 25 (suma directa) Dados dos subespacios vectoriales de Kn , diremos que
su suma es directa, y escribiremos L ⊕ M , si L ∩ M = {0}.

Nota: Para más de dos subespacios, se dice que su suma es directa si lo es la de cada
subespacio con la suma de todos los demás.

Proposición 7 (Caracterización de suma directa) Sean L, M subespacios vectoria-


les de Kn ; la suma L + M es directa si y sólo si ∀u ∈ L + M , existen únicos v ∈ L, w ∈
M , tales que u = v + w.
Demostración: (no exigible)
⇒) Supongamos que se tiene L ⊕ M , es decir, L ∩ M = {0}, y sea un vector u = v1 + w1 =
v2 + w2 con vj ∈ L y wj ∈ M . Entonces v1 − v2 = w2 − w1 es un vector de L según la expresión
del primer miembro y de M como consecuencia de la del segundo, es decir, que pertenece a L∩M
y es por tanto el vector nulo. Por consiguiente, v1 = v2 y w1 = w2 y la descomposición de u es
única.
⇐) Supongamos que todo vector de L + M se descompone de manera única. Dado cualquier
vector u ∈ L ∩ M podemos escribirlo como u = u + 0 pero también como u = 0 + u, siendo
en ambos casos el primer sumando perteneciente a L y el segundo a M . La unicidad de la
descomposición obliga a que sea u = 0 y, consecuentemente, L ∩ M = {0}. 2

Definición 26 (subespacios suplementarios) Dos subespacios L y M de Kn se dicen


suplementarios si L ⊕ M = Kn .
Capı́tulo 1 19

Observación: Dados dos subespacios suplementarios L, M , todo vector de Kn se des-


compone de forma única como suma de un vector de L y otro de M .

Ejemplo: En R2 cualesquiera dos rectas distintas que pasen por el origen son suple-
mentarias. En R3 , cualquier plano que contenga al origen es suplementario a cualquier
recta que lo corte únicamente en dicho punto.

1.3.4 La relación de Grassmann


Observación: Dados dos subespacios M1 y M2 , de sistemas generadores respectivos
M1 y M2 , se tiene que M1 ∪ M2 es un sistema generador de M1 + M2 ; es decir, que
la unión de los sistemas generadores es un sistema generador de la suma; en
particular, la unión de las bases es un sistema generador (pero no necesariamente base)
de la suma.

Proposición 8 (Relación de Grassmann) Dados dos subespacios vectoriales L, M de


Kn , se tiene que
dim(L + M ) = dim L + dim M − dim(L ∩ M ). (1.19)

Demostración: (no exigible)


Llamamos l = dim L, m = dim M, k = dim(L ∩ M ); queremos demostrar que
dim(L + M ) = l + m − k.
Sea (u1 , . . . , uk ) una base de L ∩ M . Puesto que L ∩ M ⊂ L, aplicando el teorema
de compleción de la base en este subespacio, sabemos que existen v1 , . . . , vl−k ∈ L tales
que (u1 , . . . , uk , v1 , . . . , vl−k ) es una base de L; pero también, como L ∩ M ⊂ M , pode-
mos aplicar igualmente el teorema de compleción de la base en el espacio M : existen
w1 , . . . , wm−k ∈ M tales que (u1 , . . . , uk , w1 , . . . , wm−k ) es una base de M .
A continuación construimos el sistema
(u1 , . . . , uk , v1 , . . . , vl−k , w1 , . . . , wm−k ) (1.20)
y probaremos que es una base de L + M :
• Es sistema generador de L + M , pues es la unión de sendas bases de L y de M .
• Es sistema libre: supongamos que, para λj , µj , γj ∈ K,
k
X l−k
X m−k
X
λj uj + µj v j + γj wj = 0, (1.21)
j=1 j=1 j=1

es decir,
k
X l−k
X m−k
X
λj uj + µj v j = − γj wj . (1.22)
j=1 j=1 j=1
20 Álgebra (2019/20)

El primer miembro de la anterior igualdad es combinación lineal de los elementos


de la base de L; el segundo miembro lo es de algunos elementos de la base de M ;
por lo tanto, pertenece a L ∩ M , es decir:
m−k
X
γj wj ∈ L ∩ M. (1.23)
j=1

Consecuentemente, el sumatorio anterior es combinación lineal de los vectores de la


base (u1 , . . . , uk ) de L ∩ M , esto es,
m−k
X k
X
γj wj = αj uj (1.24)
j=1 j=1

para algunos escalares αj ∈ K; pero como los vectores uj , wj son linealmente in-
dependientes por constituir todos juntos una base de M , tenemos que todos los
coeficientes en la anterior igualdad son nulos; en particular,
γj = 0, j = 1, 2, . . . , m − k. (1.25)
Pero esto, sustituyendo en (1.21), nos lleva a que
k
X l−k
X
λj uj + µj vj = 0, (1.26)
j=1 j=1

que, por la independencia lineal de los uj , vj (pues todos juntos constituyen una
base de L), nos permite concluir que todos los coeficientes λj , µj son nulos. Con lo
que concluimos que todos los coeficientes λj , µj , γj de la combinación lineal (1.21)
de partida son nulos.
Recapitulando: hemos construido una base de L + M que tiene k + (l − k) + (m − k) =
l + m − k elementos, luego dim(L + M ) = l + m − k, como querı́amos demostrar. 2

Ejemplo: En R4 , se consideran los subespacios M definido mediante las ecuaciones



x1 + x2 − x3 = 0
M:
x2 − x4 = 0
y N = L[(1, 2, 1, 0), (1, 1, 0, −1)]. Encuéntrense sendas bases de los subespacios M ∩ N y
M + N , ası́ como unas ecuaciones implı́citas de los mismos.
Solución: Calcularemos primero una base de M ∩ N . El vector genérico de N es
α(1, 2, 1, 0) + β(1, 1, 0, −1) = (α + β, 2α + β, α, −β)
al cual, para que pertenezca simultáneamente a M , le imponemos las ecuaciones de este
subespacio:
α + β + 2α + β − α = 2α + 2β = 0 ⇔ β = −α;
Capı́tulo 1 21

2α + β + β = 2α + 2β = 0 ⇔ β = −α.
Ası́ pues, los vectores de M ∩N dependen de un único parámetro (es decir, dim(M ∩N ) =
1), siendo estos vectores de la forma α[(1, 2, 1, 0) − (1, 1, 0, −1)] = α(0, 1, 1, 1) y, por tanto,
una base de N ∩ M es ((0, 1, 1, 1)).
Ahora, por la relación de Grassmann, sabemos que dim(M + N ) = 2 + 2 − 1 = 3; para
construir una base de M + N , partimos de la base de la intersección y la completamos
con sendos vectores de M \ N = M \ (M ∩ N ) y de N \ M = N \ (M ∩ N ). Como ningún
vector no proporcional a (0, 1, 1, 1) puede pertenecer a N ∩ M , tomamos por ejemplo
(1, 0, 1, 0) ∈ M \ N (pues satisface las ecuaciones de M ) y (1, 1, 0, −1) ∈ N \ M . Hemos
construido, pues, una base de M + N ,
((0, 1, 1, 1), (1, 0, 1, 0), (1, 1, 0, −1))
en la que el primer vector constituye una base de M ∩ N , el primero junto al segundo
forman una base de M , y el primero más el tercero son base de N .
En cuanto a las ecuaciones implı́citas, dado que dim(M ∩ N ) = 1, sabemos que este
subespacio estará caracterizado por 4 − 1 = 3 ecuaciones independientes. Los vectores
proporcionales a (0, 1, 1, 1) se caracterizan por ser x1 = 0, x2 = x3 = x4 , ası́ que

 x1 = 0
x 2 − x3 = 0
x 3 − x4 = 0

son unas ecuaciones implı́citas de M ∩ N (resolución sistemática: se elimina el parámetro


α de las ecuaciones paramétricas (x1 , x2 , x3 , x4 ) = (0, α, α, α)).
Respecto a M + N , como su dimensión vale 3, estará caracterizado por 4 − 3 = 1
ecuación. Para calcularla, obligamos a que el vector (x1 , x2 , x3 , x4 ) sea combinación lineal
de los de la base del subespacio, por ejemplo escribiendo
 
1 1 0 x1
 1 0 1 x2 
 
 0 1 1 x3 

−1 0 1 x4
(se ha alterado el orden de los vectores de la base por comodidad en los cálculos) y
obligando a que el sistema lineal cuya matriz ampliada es la antescrita sea compatible.
Realizando operaciones de reducción gaussiana por filas,
   
1 1 0 x1 1 1 0 x1
 0 −1 1 x2 − x1   0 −1 1 x2 − x1 
 ∼ ,
 0 1 1 x 3
  0 1 1 x 3


0 1 1 x4 + x1 0 0 0 x4 + x 1 − x3
de modo que el sistema será compatible siempre que x1 − x3 + x4 = 0 y ésta es la ecuación
implı́cita de M + N .
Nótese que, puesto que la matriz es cuadrada, se obtiene el mismo resultado im-
poniendo que el determinante sea igual a 0.
22 Álgebra (2019/20)

Observación: Para cualesquiera subespacios L, M de intersección nula, dim(L ⊕ M ) =


dim L + dim M .
En particular, L y M son dos subespacios suplementarios en Kn si, y solo si, dim L +
dim M = n y su intersección es el subespacio nulo.

Ejemplo: Encuéntrese una base de un suplementario en R4 del subespacio

M = L[(1, 2, −1, −2), (1, 1, 1, 0)].

Solución: Sabemos que la dimensión del suplementario ha de ser 4 − 2 = 2. Si com-


pletamos la base de M hasta una de R4 , los vectores añadidos constituirán una base de
un subespacio N tal que M + N = R4 , pero también dim(M ∩ N ) = dim M + dim N −
dim(M + N ) = 4 − 4 = 0, luego la suma anterior será directa o, lo que es lo mismo, N
será un suplementario de M .
Ası́ pues, nos limitaremos a completar la base dada hasta una de R4 . Probamos, por
ejemplo, con los dos últimos vectores canónicos:
   
1 2 −1 −2 1 2 −1 −2
 ∼  0 −1
 1 1 1 0   2 2 
 
 0 0 1 0   0 0 1 0 
0 0 0 1 0 0 0 1
La forma escalonada de la matriz obtenida nos garantiza que la familia es libre, luego un
suplementario de M en R4 es

N = L[(0, 0, 1, 0), (0, 0, 0, 1)].

1.4 Espacios vectoriales


En esta sección se presenta la definición general de espacio vectorial.

Definición 27 Sea K un cuerpo de escalares y V un conjunto no vacı́o dotado de una


operación “+” denominada suma (∀ u, v ∈ V, u+v ∈ V ) y de un producto por un escalar
“·” (∀ λ ∈ K, u ∈ V, λ · u ∈ V ). Decimos que el conjunto V es un espacio vectorial
sobre el cuerpo K, si satisface las siguientes ocho propiedades:

• La dupla (V, +) es un grupo abeliano, esto es,

1. ∀u, v, w ∈ V , (u + v) + w = u + (v + w) (propiedad asociativa).


2. ∃0 ∈ V tal que, ∀u ∈ V , u + 0 = 0 + u = u (existencia de elemento neutro).
3. ∀u ∈ V , ∃ − u ∈ V tal que u + (−u) = −u + u = 0 (existencia de elemento
simétrico).
Capı́tulo 1 23

4. ∀u, v ∈ V , u + v = v + u (propiedad conmutativa).

• El producto por un escalar verifica:

5. ∀u ∈ V, ∀λ, µ ∈ K, (λ + µ) · u = λ · u + µ · u.
6. ∀u, v ∈ V, ∀λ ∈ K, λ · (u + v) = λ · u + λ · v.
7. ∀u ∈ V, ∀λ, µ ∈ K, (λµ) · u = λ · (µ · u).
8. ∀u ∈ V, 1 · u = u.

El primer ejemplo de espacio vectorial lo hemos visto ya en la definición 8, y es el


conjunto Kn de las n-uplas ordenadas de elementos en K. Tradicionalmente se le llama
“vectores” a los elementos del conjunto V , esto es debido a que ası́ se ha hecho con
los elementos del espacio Kn , sin embargo como veremos a continuación, la variedad de
objetos que pueden ser vectores en V puede no tener similitud alguna con el concepto de
vector que el alumno ya tenga.

Ejemplos:

i) Sea V = Km×n el espacio de las matrices de m filas y n columnas con elementos


en el cuerpo K. Definimos la suma de matrices A y B en Km×n por

(A + B)ij := aij + bij ,

y la multiplicación de un escalar λ ∈ K por la matriz A ∈ Km×n mediante

(λA)ij := λaij .

Con estas operaciones se puede demostrar que en el espacio Km×n se satisfacen las
propiedades 1 a 8, es decir es un espacio vectorial.

ii) Sean K un cuerpo de escalares y E un conjunto no vacı́o, denotemos por F(E, K)


al conjunto de las aplicaciones de E en K. Si f, g ∈ F(E, K) y λ es un escalar
en K, definimos las aplicaciones f + g y λf mediante

(f + g)(x) = f (x) + g(x) ∀ x ∈ E


(λf )(x) = λf (x) ∀ x ∈ E.

Con las operaciones ası́ definidas, V = F(E, K) es un espacio vectorial sobre K.


Para más propiedades sobre aplicaciones entre conjuntos, ver la sección 1.3 de los
apéndices.

iii) Sea V = Kn [x] el conjunto de los polinomios de grado menor o igual que
n con coeficientes en el cuerpo K = R o C . Si P ∈ Kn [x] entonces

P (x) = a0 + a1 x + a2 x2 + . . . + an xn ,
24 Álgebra (2019/20)

en donde aj ∈ K y n ∈ N. La suma de P (x) con Q(x) = b0 + b1 x + b2 x2 + . . . + bn xn


está definida de la manera usual

P (x) + Q(x) := (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + . . . + (an + bn )xn ,

ası́ como la multiplicación de un escalar λ por P (x) viene dada por

λP (x) = λa0 + λa1 x + λa2 x2 + . . . + λan xn .

Con estas operaciones, se satisfacen las propiedades 1 a 8 enunciadas a principios


de esta sección. Por tanto Kn [x] es un espacio vectorial. Para profundizar sobre el
tema de los polinomios, consúltese el apéndice 3 de estos apuntes.

En estos espacios vectoriales, los conceptos de combinaciones lineales, dependencia e in-


dependencia lineal, subespacios vectoriales (vistos en la sección 1.2), bases, coordenadas
con respecto a una base, intersección y suma de subespacios y la relación de Grassmann
(sección 1.3), siguen siendo válidos. Veamos algunos ejemplos de ello en el espacio vecto-
rial Kn [x] de los polinomios de grado menor o igual que n:

Ejemplo: Los polinomios {1, x, x2 , . . . , xn } constituyen un sistema generador de Kn [x],


ya que todo Q ∈ Kn [x] se escribe como combinación lineal suya: Q(x) = b0 1 + b1 x + b2 x2 +
· · ·+bn xn . Aún más, dichos coeficientes son únicos, por tanto la familia de polinomios B0 =
(1, x, x2 , . . . , xn ) constituye una base, que denominaremos base canónica del espacio
vectorial Kn [x]. Además, es claro que dim Kn [x] = n + 1 ya que la base canónica está
formada por n + 1 vectores.
Si P es un elemento de Kn [x], con P (x) = a0 + a1 x + a2 x2 + . . . + an xn , entonces su
vector de coordenadas respecto a la base canónica B0 es simplemente

[P ]B0 = (a0 , a1 , ..., an )t ∈ Kn+1 .

Ejemplo: Compruebe que B = (2x + 1, x2 − x, 5x2 − 3) es una base de K2 [x] y calcule


las coordenadas de P (x) = 6x2 + x − 2 respecto de la base B.
Solución: Dado que dim K2 [x] = 3, basta demostrar que los vectores de B son linealmente
independientes; para ello buscamos escalares c1 , c2 , c3 tales que c1 (2x + 1) + c2 (x2 − x) +
c3 (5x2 − 3) = 0 para todo x, entonces al ordenar los términos se obtiene

(c1 − 3c3 ) + (2c1 − c2 )x + (c2 + 5c3 )x2 = 0,

como {1, x, x2 } es una familia libre, se debe cumplir



 c1 − 3c3 = 0 3 10
2c1 − c2 = 0 ⇔ c1 = 3c3 = − c2 = − c1 ⇔ c1 = c2 = c3 = 0.
5 5
c2 + 5c3 = 0

Capı́tulo 1 25

Es decir, los tres polinomios 2x + 1, x2 − x y 5x2 − 3 son linealmente independientes


en K2 [x], y por tanto constituyen una base de dicho espacio. Para la segunda parte,
buscamos c1 , c2 , c3 tales que

c1 (2x + 1) + c2 (x2 − x) + c3 (5x2 − 3) = −2 + x + 6x2

o equivalentemente

(c1 − 3c3 ) + (2c1 − c2 )x + (c2 + 5c3 )x2 = −2 + x + 6x2 ,

por tanto, tenemos que resolver el sistema de tres ecuaciones lineales cuya matriz ampliada
es  
1 0 −3 −2
 2 −1 0 1  .
0 1 5 6
Resolvemos el sistema por cualquier método válido; por ejemplo realizando operaciones
de eliminación gaussiana por filas, obtenemos:
   
1 0 −3 −2 1 0 −3 −2
 0 −1 6 5  ∼  0 −1 6 5  ⇔ c1 = c2 = c3 = 1.
0 1 5 6 0 0 11 11

Finalmente, el vector de coordenadas es [P ]B = (1, 1, 1)t .


26 Álgebra (2019/20)

1.5 Ejercicios
1.1.– Dados los números complejos z = 3+2i y w = 4−i, exprésense en forma binómica
los siguientes números complejos:

z + w, 3z − 4w, iz + w, zw, z/w.

1.2.– Exprésese en forma binómica el número complejo


2 + 11i
.
3 + 4i
1.3.– Determı́nese el argumento principal y la forma exponencial de los números com-
plejos
√ √
1, i, 1 + i, 3 + i, −1 − 3i.

1.4.– Utilı́cese la fórmula de De Moivre para expresar cos 3θ como un polinomio en cos θ
y sen 3θ como un polinomio en sen θ. Dedúzcanse las igualdades:
3 1
cos3 θ = cos θ + cos 3θ,
4 4
3 3 1
sen θ = sen θ − sen 3θ.
4 4
1.5.– Se consideran los vectores (1, −1, 2) , (2, 0, 1) , (a, 1, 0) de R3 .

1. Determinar los valores del parámetro a para que sean linealmente independientes.

2. Para a = 3, estudiar si el vector (1, 1, −1) es combinación lineal de ellos.

1.6.– Determinar los valores de los parámetros λ y µ que hacen que los tres vectores
(1, 2, −1, 3) , (1, −1, λ, 3) y (3, 2, 5, µ) sean linealmente independientes.

1.7.– Comprobar la dependencia o independencia lineal de los vectores de C3

(1 + i, 1, 0), (1 + i, 1 − 3i, 1 − i), (−1, 1 − i, 1).

1.8.– Determinar justificadamente cuáles de los siguientes subconjuntos son subespacios


vectoriales. Para aquellos que lo sean, encontrar una base.

1. P = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 = x3 + x4 ∧ x1 − x2 = x3 − x4 }.

2. H = {(x, y, z) ∈ R3 : (x + y − z)(x − y + z) = 0}.

3. M = {(x, y, z) ∈ R3 : x + 2y − z = 1}.

4. N = {(x, y, z) ∈ R3 : (x, y, z) × (1, 2, −1) = (0, 0, 0)}.


Capı́tulo 1 27

5. S = L[(1, −2, 1), (1, −1, 0)] ∪ L[(1, −3, 2)].

6. J = L[(1, −2, 1), (1, −1, 0)] ∪ L[(2, −3, 0)].

1.9.– En R4 se considera el subespacio L generado por los vectores (1, 1, 1, 1) , (1, 2, 3, 4) ,


(5, 3, 1, −1) , (0, 1, 0, −1) . Se pide:

1. Comprobar que esos cuatro vectores son linealmente dependientes.

2. Hallar una base de L.

3. Construir una base de R4 extendiendo la base anterior con vectores cuyas tres
primeras componentes sean iguales a 2.

1.10.– Calcular las coordenadas del vector (a, b, c) de R3 respecto a la base ((1, 1, 0), (1, 0, 1),
(0, 1, 1)).

1.11.– En R3 se considera una base B = (u1 , u2 , u3 ), y el conjunto

V = (u1 + u3 , u2 − 2u1 , u3 − u2 ) .

Comprobar que V también es base de R3 y determinar las coordenadas del vector


u1 + u2 + u3 respecto a dicha base.

1.12.– En R5 se considera el subespacio M que tiene por base ((1, 0, 1, 0, 1), (0, 1, −1, 1, 0),
(1, 1, 0, −1, −1)). Se pide:
1. Hallar unas ecuaciones implı́citas de M .

2. Determinar los valores de a, b para que el vector (1, 1, a, b, 1) pertenezca a M .

3. Para esos valores, hallar las coordenadas de dicho vector respecto a la base del
enunciado.

1.13.– Se considera el subespacio de R4 H = L[(1, 2, 0, 1), (1, 0, 1, −1), (1, −2, 2, −3)]. Se
pide:
1. Hallar unas ecuaciones implı́citas de H.

2. Hallar una base y unas ecuaciones implı́citas de un suplementario de H cuyos vec-


tores tengan sus dos últimas componentes iguales pero no todas nulas.

1.14.– Sea V el subespacio de R4 definido por las ecuaciones implı́citas

x1 + x2 − x3 = 0, x1 + x4 = 0, x2 − x3 − x4 = 0.

Escribir las ecuaciones de un subespacio suplementario de V . ¿Es único este suplemen-


tario?
28 Álgebra (2019/20)

1.15.– Hallar una base de cada uno de los subespacios U + V y U ∩ V , siendo:

1. U = L[(1, 0, 2, 2), (1, 1, 0, 1)], V = L[(1, 2, −2, 0), (0, 1, 1, 2)].

2. U = L[(1, 2, 1, 0), (0, −1, 0, 1)], V = L[(0, 0, 1, 1), (1, 1, 2, 2)].

1.16.– Sean F y G dos subespacios de Rn cuyas dimensiones son p y q. Determinar


todos los posibles valores de las dimensiones de los subespacios F + G y F ∩ G.

1.17.– Se consideran los polinomios Q1 (x) = 1 + x + x2 + x3 , Q2 (x) = −1 + 2x − 2x2 + x3 ,


Q3 (x) = 1 + 4x + 3x3 y Q4 (x) = 3 + 4x2 + x3 del espacio vectorial R3 [x]. Se pide:

1. Dada la base B = (1, x, x2 , x3 ), escribir q1 = [Q1 ]B , q2 = [Q2 ]B , q3 = [Q3 ]B y


q4 = [Q4 ]B , esto es, los vectores de coordenadas de los polinomios Q1 (x), Q2 (x),
Q3 (x) y Q4 (x) en la base (1, x, x2 , x3 ).

2. Sea H = L[q1 , q2 , q3 , q4 ]. Calcular una base de H que contenga, de ser posible, los
vectores q1 y q2 .

3. Determinar una base de un suplementario T de H. Descomponer el vector v =


(3, −2, 3, 0) según la suma directa T ⊕ H.

4. Utilizar la descomposición anterior para escribir el polinomio V (x) = 3 − 2x + 3x2


como combinación lineal de una base de R3 [x] que contenga a Q1 (x) y Q2 (x).

1.5.1 Cuestiones
1.18.– Se consideran los subespacios M, N de R4 definidos por:


 x1 − x2 + x3 − x4 = 0
M = L[(0, 1, 1, 0), (−1, 1, 3, 1), (1, 1, −1, −1)] ; N = x1 + x3 + x 4 = 0
2x1 − x2 + 2x3 = 0

Determı́nese la veracidad o falsedad de las siguientes afirmaciones:

1. dim M = 3.

2. dim N = 2.

3. M + N = R4 .

4. (0, 1, 1, 0) ∈ M ∩ N .

5. (1, 2, 0, −1) ∈ M .

1.19.– Sean u, v, w tres vectores linealmente independientes de Rn . Si α, β, γ denotan


números reales, determı́nese la veracidad o falsedad de las siguientes afirmaciones:
Capı́tulo 1 29

1. Si αu + βv = 0, entonces α = β = 0.

2. No existen α, β ∈ R tales que w = αu + βv.

3. Se cumple que αu + βv + γw = 0 ⇔ α = β = γ = 0.

4. (α + β + γ)(u + v + w) = 0 ⇒ α = β = γ = 0.

5. u + v + w 6= 0.

1.20.– Se considera la familia M = {(1, 1, a), (1, a, a), (a, a, a)}, donde a es un número
real. Determı́nese la veracidad o falsedad de las siguientes afirmaciones:

1. M no puede ser base de R3 .

2. ∀a 6= 0, M es base de R3 .
π
3. Si a = , M es una familia libre.
3
4. ∀a ∈ R, M es un sistema generador de R3 .

5. Si a = 0, M es una familia libre.

1.21.– En el espacio R4 , se considera el subespacio H definido mediante la ecuación


x1 +2x2 +3x3 +4x4 = 0. Determı́nese la veracidad o falsedad de las siguientes afirmaciones:

1. dim H = 3.

2. L[(1, 1, 1, 1)] es un subespacio suplementario de H en R4 .

3. L[(1, 0, 0, 0), (1, 1, 1, 1)] + H = R4 .

4. Si M es un subespacio suplementario de H en R4 , dim M = 1.

5. L[(1, 0, 0, 0), (1, 1, 1, 1)] ∩ H = {0}.

1.22.– Se considera la base B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) de R3 . Determı́nese la
veracidad o falsedad de las siguientes afirmaciones:

1. El vector de coordenadas de (2, 0, 0) respecto a B es (1, 1, −1).

2. El vector de coordenadas de (1, 1, 0) respecto a B es (1, 1, 0).

3. El vector de coordenadas de (0, 0, 1) respecto a B es 12 (1, 1, −1).

4. (0, 1, 0) es combinación lineal de los dos primeros vectores de B.

5. Todo vector de R3 es combinación lineal de los vectores de B.


Capı́tulo 2

Matrices y sistemas lineales

2.1 Matrices. Aplicaciones lineales. Composición de aplicaciones lineales y pro-


ducto matricial.

2.2 Imagen y núcleo de una matriz. Núcleo e inyectividad.

2.3 Rango. Operaciones de reducción gaussiana. Matriz de cambio de base. Ma-


triz de una aplicación lineal respecto a una base.

2.4 Sistemas lineales. Estructura de las soluciones. Teorema de Rouché-Frobenius.


Resolución de sistemas por reducción gaussiana.

2.5 Factorización LU.

2.6 Ejercicios. Cuestiones.

2.1 Matrices
Definición 28 Sean m, n enteros positivos. Una matriz de tamaño m × n es una tabla
rectangular formada por mn escalares de K que se disponen como se indica:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
..  . (2.1)
 
 .. .. . .
 . . . . 
am1 am2 · · · amn

Cada aij se llama elemento, coeficiente o entrada de la matriz. Se dice que está situado
en la fila i y en la columna j de la matriz.

La matriz está formada por m filas que son vectores de Kn y por n columnas que
lo son de Km . Solemos utilizar letras mayúsculas para indicar una matriz A, B, M, etc.
y la correspondiente minúscula para sus entradas: aij , bij , mij . A veces expresaremos

30
Capı́tulo 2 31

aij = (A)ij . En general se intentará que la notación se explique a sı́ misma. El vector
Fi (A) = (ai1 , ai2 , . . . , ain ) constituye la fila i-ésima de la matriz y el vector
 
a1j
 a2j 
Cj (A) =  (2.2)
 
.. 
 . 
amj

es la columna j-ésima de la matriz.


El conjunto de las matrices con m filas y n columnas y coeficientes en K se denota
m×n
K . Dicho conjunto está dotado de las operaciones suma y producto por un escalar:

A, B ∈ Km×n (A + B)ij := aij + bij ,


λ ∈ K, A ∈ Km×n (λA)ij := λaij .

A los elementos aii de igual ı́ndice de fila que de columna se les llama elementos
diagonales de la matriz y constituyen la diagonal principal de la matriz.
En particular, si m = n se dice que la matriz es cuadrada de orden n. La matriz
cuadrada cuyos elementos diagonales son iguales a 1 y el resto nulos se llama matriz
identidad (o matriz unidad) y se denota con la letra I:
 
1 0 ··· 0
 0 1 ··· 0 
I =  .. .. . . ..  . (2.3)
 
 . . . . 
0 0 ··· 1

Dada una matriz A = (aij ) cuadrada de orden n, se define su traza como la suma de
los elementos de su diagonal principal, es decir:
n
X
tr (A) = akk . (2.4)
k=1

Definición 29 (matrices triangulares)

• Se dice que A es triangular superior si sus elementos por debajo de la diagonal


principal son nulos, es decir, si aij = 0 para todo i > j.

• Se dice que A es triangular inferior si sus elementos por encima de la diagonal


principal son nulos, es decir, si aij = 0 para todo i < j.

• Se dice que A es diagonal si es triangular superior e inferior simultáneamente.


32 Álgebra (2019/20)

Ejemplo: La matriz identidad I es un ejemplo de matriz diagonal: obviamente, es tanto


triangular superior como triangular inferior.

Definición 30 Para cada matriz A ∈ Km×n , se define:


• su traspuesta, que se denota por At y es la matriz de Kn×m que se obtiene a partir
de A cambiando filas por columnas, esto es:
(At )ij = aji , i = 1, 2, . . . , m, j = 1, 2, . . . , n. (2.5)

• su conjugada, que se denota por A y es la matriz de Km×n cuyos elementos son


los conjugados de los de A, (A)ij = aij .
• su traspuesta conjugada, que se denota por Ah y es la traspuesta de la conjugada
de A (o bien la conjugada de la traspuesta de A), (Ah )ij = aji .
Definición 31 (matrices simétricas y antisimétricas, hermı́ticas y antihermı́ticas)
• Una matriz cuadrada A se dice que es simétrica si At = A, es decir, si aji = aij
para todo i, j.
• Una matriz cuadrada A se dice que es antisimétrica si At = −A, es decir, si
aji = −aij para todo i, j.
• Una matriz cuadrada A se dice que es hermı́tica si Ah = A, es decir, si aji = aij
para todo i, j.
• Una matriz cuadrada A se dice que es antihermı́tica si Ah = −A, es decir, si
aji = −aij para todo i, j.
Obsérvese que los elementos diagonales de una matriz real antisimétrica deben ser
nulos.

2.1.1 Aplicaciones lineales


En numerosas ramas de la ciencia y la técnica son fundamentales las aplicaciones entre
espacios vectoriales que conservan las combinaciones lineales, es decir, aquellas para
las que el transformado de toda combinación lineal de vectores es la combinación lineal,
con los mismos coeficientes, de los transformados de los vectores originales.
Definición 32 Sea una aplicación f : Kn → Km ; se dice que f es lineal si verifica las
dos condiciones siguientes:
∀u, v ∈ Kn , f (u + v) = f (u) + f (v); (2.6)
∀u ∈ Kn , ∀λ ∈ K, f (λu) = λf (u). (2.7)
Equivalentemente, f es lineal si
∀u, v ∈ Kn , ∀λ, µ ∈ K, f (λu + µv) = λf (u) + µf (v). (2.8)
Capı́tulo 2 33

La condición (2.8) que caracteriza dichas aplicaciones se llama propiedad de lineali-


dad.
Kn se denomina espacio inicial de la aplicación lineal f , mientras que Km es el
espacio final.

Observación: La matriz I de orden n corresponde a la aplicación identidad de Kn , es


decir, la aplicación que deja invariantes todos los vectores de Kn :

∀x ∈ Kn , I(x) = Ix = x.

Observación: Toda aplicación lineal f : Kn → Km verifica:

f (0Kn ) = f (0 · 0Kn ) = 0 · f (0Kn ) = 0Km . (2.9)

Observación: Aplicando reiteradamente la definición se tiene que, cualquiera que sea


el número k de sumandos, si λj ∈ K y uj ∈ Kn ,

k
! k
X X
f λj uj = λj f (uj ). (2.10)
j=1 j=1

Proposición 9 Dada una aplicación lineal f : Kn → Km y una base B = (u1 , . . . , un )


de Kn , los vectores f (u1 ), . . . , f (un ) de Km determinan completamente f , es decir, nos
permiten conocer la imagen mediante f de cualquier vector del espacio inicial.

n
X
Demostración: En efecto, si x = xj uj con xj ∈ K, por la propiedad de linealidad
j=1
(2.10) se tiene que
n
! n
X X
f (x) = f xj uj = xj f (uj ). (2.11)
j=1 j=1

Como caso particular, si e1 , . . . , en son los vectores canónicos de Kn , los n vectores


f (e1 ), . . . , f (en ) determinan cualquier aplicación lineal f con origen en Kn . 2
34 Álgebra (2019/20)

2.1.2 Matriz de una aplicación lineal


n
X
Para cualquier vector x = (x1 , . . . , xn ) del espacio inicial, es decir, x = xj ej , sabemos
j=1
que su transformado mediante f es de la forma
n
X
y = f (x) = xj f (ej ). (2.12)
j=1

Si consideramos los n vectores f (e1 ), . . . , f (en ), pertenecientes a Km , cada uno de ellos


podrá expresarse como
Xm
f (ej ) = (a1j , . . . , amj ) = aij ẽi , (2.13)
i=1
en donde ẽ1 , . . . , ẽm denotan los vectores canónicos de Km y aij ∈ K para 1 ≤ i ≤ m, 1 ≤
j ≤ n.
Si llevamos este resultado a la ecuación (2.12) y cambiamos el orden de sumación,
obtenemos: ! !
Xn Xm Xm Xn
y = f (x) = xj aij ẽi = aij xj ẽi . (2.14)
j=1 i=1 i=1 j=1

Si ahora identificamos cada componente en la ecuación vectorial anterior, podemos


escribir las m ecuaciones n
X
yi = aij xj , 1 ≤ i ≤ m, (2.15)
j=1

que escribimos desarrolladas para mayor claridad:

y1 = a11 x1 + a12 x2 + . . . + a1n xn


y2 = a21 x1 + a22 x2 + . . . + a2n xn
.. .. (2.16)
. .
ym = am1 x1 + am2 x2 + . . . + amn xn
Es decir, que los m · n escalares aij determinan completamente la aplicación lineal,
permitiéndonos calcular las componentes del transformado de cualquier vector en función
de las componentes de este.
Este resultado sugiere que la relación entre un vector genérico de Kn y su transformado
mediante f se escriba en forma matricial como sigue:
    
y1 a11 a12 · · · a1n x1
 y2   a21 a22 · · · a2n   x2 
 ..  =  .. (2.17)
    
.. . . ..   .. 
 .   . . . .  . 
ym am1 am2 · · · amn xn
(Más adelante resultará evidente que el producto del segundo miembro corresponde al
concepto de producto matricial.)
Capı́tulo 2 35

Y abreviadamente,
y = Ax. (2.18)

Todo ello motiva la siguiente definición:

Definición 33 (matriz de una aplicación lineal) Dada una aplicación lineal f :


Kn → Km , se llama matriz de f a aquella cuyas columnas son, ordenadamente, las
imágenes mediante f de los vectores canónicos de Kn .

Observación: Se trata, por consiguiente, de una matriz de m filas (= dimensión del


espacio final) y n columnas (= dimensión del espacio inicial).
Existe, por tanto, una correspondencia biunı́voca entre aplicaciones lineales de Kn
a Km y matrices de m filas y n columnas (cada matriz determina una aplicación lineal y
viceversa).

Ejemplo: Calcúlese la matriz de la aplicación lineal f de R2 a R3 caracterizada por

f (1, −1) = (1, 2, −1); f (1, 2) = (0, 1, −1). (2.19)

Solución: Necesitamos conocer los transformados mediante f de los vectores canónicos


de R2 , para lo cual precisamos la expresión de estos últimos como combinaciones lineales
de los dos vectores cuyas imágenes conocemos:

2 1
(1, 0) = α(1, −1) + β(1, 2)(resolviendo) ⇒ α = , β = ; (2.20)
3 3
1 1
(0, 1) = α(1, −1) + β(1, 2)(resolviendo) ⇒ α = − , β = . (2.21)
3 3
Por lo tanto,
2 1 1
f (e1 ) = f (1, −1) + f (1, 2) = (2, 5, −3); (2.22)
3 3 3
1 1 1
f (e2 ) = − f (1, −1) + f (1, 2) = (−1, −1, 0). (2.23)
3 3 3
Ası́ pues, la matriz de f es la que tiene por columnas los dos vectores obtenidos, es decir:
 
2 −1
1
A =  5 −1  . (2.24)
3
−3 0

Compruébese la exactitud del resultado aplicando dicha matriz a los vectores (1, −1), (1, 2)
escritos como columnas. 
36 Álgebra (2019/20)

2.1.3 Composición de aplicaciones lineales y producto matricial


Para motivar la definición de producto matricial, consideramos la composición de dos
aplicaciones lineales. Supongamos que tenemos sendas aplicaciones lineales f, g definidas
según el siguiente esquema:
g f
Kr −→ Kn −→ Km (2.25)
r m
Consideramos ahora la aplicación f ◦ g : K → K . Veamos en primer lugar que esta
aplicación también es lineal:
Proposición 10 Toda composición de aplicaciones lineales es lineal.
Demostración: En las condiciones antes establecidas, ∀u, v ∈ Kr , ∀λ, µ ∈ K,

f ◦ g(λu + µv) = f (g(λu + µv)) = f (λg(u) + µg(v)) = λf (g(u)) + µf (g(v)) =


= λf ◦ g(u) + µf ◦ g(v). (2.26)

m×n
La aplicación f tendrá asociada una cierta matriz A ∈ K , mientras que g se
corresponderá con una cierta B ∈ Kn×r . Es razonable denotar la matriz C ∈ Km×r de
f ◦ g, resultante de aplicar primero B y a continuación A, como AB. ¿Podremos expresar
la matriz C en términos de las dos anteriores?
Si x denota un vector arbitrario de Kr , y = g(x), z = f (y) = f ◦ g(x), sabemos por
la ecuación (2.15) que cada componente de y se obtiene como
r
X
1 ≤ k ≤ n, yk = bkj xj , (2.27)
j=1

mientras que
n n r
! r n
!
X X X X X
1 ≤ i ≤ m, zi = aik yk = aik bkj xj = aik bkj xj . (2.28)
k=1 k=1 j=1 j=1 k=1

Por otro lado, los elementos de la matriz C que transforma x en z satisfacen, por la misma
ecuación (2.15),
Xr
1 ≤ i ≤ m, zi = cij xj . (2.29)
j=1

Ası́ pues, las ecuaciones (2.28) y (2.29) han de ser equivalentes. Ello sugiere el tomar
como matriz C = AB aquella de dimensiones m × r cuyo elemento genérico se calcula
mediante n
X
1 ≤ i ≤ m, 1 ≤ j ≤ r, cij = aik bkj , (2.30)
k=1
que será la definición que adoptaremos para el producto de matrices.
Capı́tulo 2 37

Definición 34 Dadas dos matrices A ∈ Km×n , B ∈ Kn×r , se define su producto AB


n
X
como aquella matriz C ∈ Km×r tal que cij = aik bkj , i = 1, 2, . . . , m , j = 1, 2, . . . , r.
k=1

• El elemento (i, j) del producto se obtiene multiplicando la fila i de la primera matriz


por la columna j de la segunda. Es preciso que el número de columnas de la primera
matriz iguale al número de filas de la segunda.
• El producto matricial NO es conmutativo: en general AB 6= BA aunque A, B sean
matrices cuadradas del mismo orden.
• El producto de matrices es distributivo respecto de la suma a izquierda y derecha,
es decir:
A (B + C) = AB + AC
(B + C) A = BA + CA
siempre y cuando las matrices tengan las dimensiones adecuadas para que dichos
productos puedan realizarse.
Proposición 11 Sean A, B dos matrices para las que el producto AB tenga sentido;
entonces
(AB)t = Bt At . (2.31)
(AB)h = Bh Ah . (2.32)
Demostración: Cada elemento (i, j) de la matriz (AB)t puede escribirse como
n
X n
X n
X
t
Bt At = B t At
   
(AB) ij
= (AB)ji = ajk bki = bki ajk = ik kj ij
. (2.33)
k=1 k=1 k=1

Ası́ pues, las matrices (AB)t y Bt At coinciden elemento a elemento, por tanto son iguales:
(AB)t = Bt At . Finalmente, para demostrar la igualdad en el caso de la traspuesta
conjugada, basta conjugar la ecuación anterior.


Producto matricial y combinaciones lineales


Sean A ∈ Km×n , B ∈ Kn×r , denotemos Ck la columna k-ésima y Fk la fila, entonces:
• Las columnas de AB son combinaciones lineales de las de A: Ck (AB) = ACk (B).
• Las filas de AB son combinaciones lineales de las de B : Fk (AB) = Fk (A)B.
• La matriz AB puede expresarse como suma de matrices “producto columna-fila”:
n
X
AB = Ck (A)Fk (B). (2.34)
k=1
38 Álgebra (2019/20)

La demostración de esta última igualdad es inmediata, teniendo en cuenta que el elemento


(i, j) de la matriz del segundo miembro es
n
X n
X
(Ck (A)Fk (B))ij = aik bkj = (AB)ij (2.35)
k=1 k=1

de donde se deduce que ambas matrices coinciden elemento a elemento, luego son iguales.

2.1.4 La inversa de una matriz


Definición 35 Una matriz cuadrada A ∈ Kn×n , se dice que es invertible (o regular) si
∃A−1 ∈ Kn×n tal que AA−1 = I o bien A−1 A = I. La matriz A−1 se denomina inversa
de A y es única.

Observación: Al ser A cuadrada, la propiedad AA−1 = I implica que A−1 A = I y


viceversa.
Definición 36 Una matriz cuadrada que no es invertible se dice que es singular.
Proposición 12 Sean A y B dos matrices cuadradas del mismo orden n, ambas invert-
ibles. Entonces AB también es invertible y
(AB)−1 = B−1 A−1 . (2.36)
Demostración: Basta comprobar que el producto de AB por la matriz B−1 A−1 da
como resultado la identidad: en efecto, (AB) (B−1 A−1 ) = A BB−1 A−1 = AA−1 = I
y también (B−1 A−1 ) (AB) = B−1 (A−1 A) B = B−1 B = I. 

2.2 Imagen y núcleo de una matriz


Recordemos que cualquier matriz A ∈ Km×n transforma vectores columna de Kn en
vectores columna de Km ; es decir, para cada x ∈ Kn se obtiene un vector
y = Ax ∈ Km (2.37)
Además se dice que y es la imagen de x por A. Si consideramos el conjunto de todos
los vectores imagen, dicho conjunto se denomina imagen de A. Ası́ pues, toda matriz
A ∈Km×n lleva asociados dos conjuntos: su imagen en Km , y su núcleo en Kn . Veamos
estas definiciones:
Definición 37 (imagen y núcleo) Dada una matriz A ∈ Km×n se define la imagen
de A como el conjunto
Im A := {Ax : x ∈ Kn }. (2.38)
Se define el núcleo de A como el conjunto
ker A := {u ∈ Kn : Au = 0}. (2.39)
Capı́tulo 2 39

Tanto el núcleo como la imagen de una matriz son subespacios vectoriales (la
demostración es sencilla y se deja al lector).
Dada la correspondencia biunı́voca entre aplicaciones lineales y matrices, pueden
definirse equivalentemente el núcleo y la imagen de una aplicación lineal:
Definición 38 Dada una aplicación lineal f : Kn → Km , se define la imagen de f
como el conjunto
Im f := {f (x) : x ∈ Kn }. (2.40)
Se define el núcleo de f como el conjunto
ker f := {u ∈ Kn : f (u) = 0}. (2.41)
Resulta evidente que, si consideramos la matriz asociada a una determinada aplicación
lineal, el núcleo y la imagen de aquella coinciden con los de esta.

Observación: El vector Ax puede escribirse como


 
x1
 x2 
Ax = A  ..  = x1 C1 (A) + ... + xn Cn (A) (2.42)
 
 . 
xn
donde Cj (A) indica la columna j-ésima de A. De ello se deduce fácilmente que un vector
es de la forma Ax si y sólo si es combinación lineal de las columnas de A. Por ello Im A
es el subespacio generado por las columnas de A :
Im A = L[C1 (A) , .., Cn (A)] (2.43)

Definición 39 El subespacio columna de una matriz A ∈ Km×n es el subespacio


de Km engendrado por las columnas de A. De igual forma, su subespacio fila es el
subespacio de Kn engendrado por las filas de A.

Observación: Como acabamos de ver, el subespacio columna de una matriz coincide


con Im A; análogamente, el subespacio fila se denota Im At .
Proposición 13 Todo subespacio es tanto el subespacio imagen de alguna matriz, como
el núcleo de otra matriz.
Demostración: Dado un subespacio M, si extraemos un sistema de generadores de M ,
y construimos la matriz A que los contiene como columnas, se tiene que
ImA =L[C1 (A) , .., Cn (A)] =M. (2.44)
De esta forma M es el subespacio imagen de alguna matriz.
Por otro lado, M es también el núcleo de alguna matriz: basta con observar las ecua-
ciones implı́citas de M, que se escriben matricialmente como Bx = 0; en otras palabras,
un vector x pertenece a M si y sólo si x ∈ ker B. Por tanto, M = ker B. 
40 Álgebra (2019/20)

Observación: Una aplicación lineal es suprayectiva si y sólo si su subespacio imagen


coincide con el espacio final, es decir:
Dada f : Kn → Km lineal, f es suprayectiva ⇔ dim(Im f ) = m.

2.2.1 Núcleo e inyectividad


Una aplicación lineal f es inyectiva si, para cualesquiera u, v del espacio inicial, se cumple
que f (u) = f (v) ⇒ u = v.
Sabemos que toda aplicación lineal transforma el vector nulo del espacio inicial en el
nulo del espacio final. Por otra parte, una aplicación lineal inyectiva es aquella para la
que ningún vector del espacio final es imagen de más de un vector del inicial. Ası́ pues,
una aplicación lineal cuyo núcleo contenga algún vector no nulo no puede ser inyectiva.
Además, como vamos a ver a continuación, la condición de que el núcleo se reduzca al
vector nulo caracteriza la inyectividad de las aplicaciones lineales.
Por simplicidad, denotamos por 0 el vector nulo tanto de Kn como de Km .

Teorema 4 Sea f : Kn → Km lineal; f es inyectiva si y sólo si ker f = {0}.

Demostración:
⇒ Si ker f 6= {0}, ∃u ∈ ker f, u 6= 0. Como 0 = f (0) = f (u), f no puede ser
inyectiva.
⇐ Supongamos que ker f = {0} y que existen u, v ∈ Kn tales que f (u) = f (v).
Entonces, por linealidad,
f (u − v) = f (u) − f (v) = 0, (2.45)
luego u − v ∈ ker f = {0}, de donde u − v = 0 ası́ que u = v y por tanto f es inyectiva.


2.3 Rango de una matriz


Definición 40 Dada una matriz A ∈ Km×n , su rango por columnas es la dimensión
del subespacio columna de A, a saber,

dim (Im A) = dim (L[C1 (A) , .., Cn (A)]) . (2.46)

Es decir, el rango por columnas es el número máximo de columnas de A linealmente


independientes. Por otro lado, el rango por filas de A es la dimensión del subespacio
fila de A; es decir, el número máximo de filas de A linealmente independientes.

Proposición 14 Para cualquier matriz A ∈ Km×n , el rango por filas y el rango por
columnas de A coinciden.
Capı́tulo 2 41

Demostración: Sea A ∈ Km×n de rango r por columnas. Consideramos una matriz


C ∈ Km×r formada por r columnas de A linealmente independientes.
Por ser las columnas de A combinaciones lineales de las de C, existirá una matriz F
(cuyos elementos serán precisamente los coeficientes de esas combinaciones lineales) tal
que A = CF.
Pero la igualdad anterior significa también que las filas de A son combinaciones lineales
de las de F; y esta matriz es de dimensiones r ×n (tiene r filas), ası́ que el máximo número
de filas de A linealmente independientes no puede exceder de r, es decir, el rango por filas
es menor o igual que el rango por columnas.
Dado que el rango por columnas de una matriz es el rango por filas de su transpuesta,
aplicando el resultado anterior a la matriz At se concluye el resultado. 

Observación: Este resultado que hemos demostrado permite que hablemos del rango
de una matriz, sin especificar si es por filas o por columnas. A dicho número se le denota
por r (A).

Observación: En esta proposición también se ha demostrado que una matriz A de


rango r puede factorizarse en producto de dos matrices A = CF, ambas de rango máximo
r ya que el número de columnas de C y el número de filas de F son ambos r. En particular,
toda matriz de rango uno puede escribirse como el producto de un vector columna por
un vector fila.

 
1 −1 2
 2 0 2 
Ejemplo: La matriz A =   1
 es de rango 2; se ve fácilmente que dos colum-
1 0 
0 −1 1
nas cualesquiera son linealmente independientes y C1 − C2 − C3 = 0; por tanto puede
tomarse como matriz C la formada por las dos primeras columnas:
 
1 −1
 2 0 
C=  1 1 .

0 −1
En cuanto a la matriz F, sus columnas reflejan las combinaciones lineales que hay que
hacer con las columnas de C para obtener las de A:
 
1 0 1
F= .
0 1 −1
Obviamente no hay unicidad, ya que la matriz C puede formarse con una base cualquiera
de Im A.
42 Álgebra (2019/20)

Proposición 15
• Si A, B ∈ Km×n entonces r (A + B) ≤ r(A) + r(B).

• Dadas dos matrices A, B para las que el producto AB tenga sentido, se tiene que

r(AB) ≤ mı́n(r(A), r(B)). (2.47)

Demostración: Para la primera desigualdad, obsérvese que la columna j-ésima de


(A + B) es Cj (A) +Cj (B) . Por ello, el subespacio columna de (A + B) es

Im (A + B) = Im[C1 (A + B) , · · · , Cn (A + B)] ⊂ ImA + ImB. (2.48)

Ası́ pues, r (A + B) , que es la dimensión del subespacio de la izquierda, no puede superar


la dimensión del subespacio ImA + ImB, que como mucho es r(A) + r(B).
Para la segunda desigualdad, basta recordar que la columnas de AB son combinación
lineal de las columnas de A, luego Im (AB) ⊂ Im (A) , de donde r (AB) ≤ r (A) . Por otro
lado, las filas de AB son combinación lineal de las filas de B, de donde r (AB) ≤ r (B) ,
concluyendo la demostración. 

Proposición 16 Si A, B, C son matrices cualesquiera para las que los productos siguien-
tes tengan sentido, entonces:
• Si A tiene rango máximo por columnas, entonces r(AB) = r(B).

• Si A tiene rango máximo por filas, entonces r(CA) = r(C).

• Para cualquier matriz A, se verifica r(Ah A) = r(AAh ) = r(A).

Teorema 5 Si A es una matriz de n columnas, entonces

dim (ker A) + r(A) = n. (2.49)

Equivalentemente: si f : Kn → Km es lineal, entonces

dim(ker f ) + dim(Im f ) = n. (2.50)

Demostración (no exigible): Como A posee n columnas, ker A es un subespacio de


Kn . Tomemos una base de ker A, (u1 , ..., uk ) , y completémosla hasta obtener una base
(u1 , ..., uk , uk+1 , ..., un ) de Kn .
Por la propiedad de linealidad, es fácil ver que ImA = L[Au1 , ..., Auk , Auk+1 , ..., Aun ]
= L[Auk+1 , ..., Aun ] ya que Au1 = ... = Auk = 0 por definición. Ası́, {Auk+1 , ..., Aun }
es un sistema de generadores de ImA constituido por n − k vectores. Si demostramos que
son linealmente independientes, entonces formarán base de ImA, y podremos garantizar
el resultado buscado:

r (A) = dim (ImA) = n − k = n − dim (ker A) . (2.51)


Capı́tulo 2 43

Basta, pues, demostrar que Auk+1 , ..., Aun son linealmente independientes. Apliquemos
la definición de independencia lineal: se considera la igualdad α1 Auk+1 + ... + αn−k Aun =
0, y el objetivo es demostrar que α1 = ... = αn−k = 0. Escribimos esta igualdad como

A (α1 uk+1 + ... + αn−k un ) = 0 (2.52)

lo cual significa que el vector α1 uk+1 + ... + αn−k un ∈ ker A. Es decir α1 uk+1 + ... + αn−k un
es combinación lineal de u1 , ..., uk : α1 uk+1 + ... + αn−k un = β1 u1 + ... + βk uk . pero
como (u1 , ..., uk , uk+1 , ..., un ) son independientes, todos los coeficientes deben ser 0, en
particular se tiene que α1 = ... = αn−k = 0. 

Del teorema anterior se desprende el siguiente resultado: para matrices cuadradas, el


rango máximo caracteriza su invertibilidad:

Corolario: Sea A matriz cuadrada de orden n. Entonces las siguientes afirmaciones


son equivalentes:

A es invertible ⇐⇒ r(A) = n ⇐⇒ ker A = {0}. (2.53)

Observación: Sea f : Kn → Km lineal.

• Si m < n, f no puede ser inyectiva.

• Si m > n, f no puede ser suprayectiva.

• Si m = n, f es inyectiva ⇔ f es suprayectiva.

2.3.1 Cálculo del rango mediante operaciones elementales


Operaciones elementales de reducción gaussiana
Definición 41 Dada una matriz A ∈ Km×n , se definen las siguientes operaciones ele-
mentales por filas (columnas) sobre la matriz A:

• 1) Suma de una fila (columna) de la matriz, multiplicada por un escalar, a otra fila
(columna) distinta.

• 2) Multiplicación de una fila (columna) de la matriz por un escalar no nulo.

• 3) Intercambio de dos filas (columnas).

Definición 42 Se llama matriz elemental por filas (columnas) a una matriz cuadrada,
resultado de efectuarle una operación elemental por filas (columnas) a la matriz identidad.
44 Álgebra (2019/20)

Ejemplos: La matriz  
1 0 0 0
 0 1 0 0 
E1 = 
 −2

0 1 0 
0 0 0 1
es una matriz elemental por filas, resultante de restarle a la tercera fila de la identidad el
doble de la primera.
Asimismo, es una matriz elemental por columnas, resultante de restarle a la primera
columna de la identidad el doble de la tercera.
La matriz  
1 0 0 0
 0 0 0 1 
E2 =  0 0 1 0 

0 1 0 0
es una matriz elemental por filas, resultante de intercambiar las filas 2 y 4 de la identidad.
También es matriz elemental por columnas, resultante de intercambiar las columnas
2 y 4 de la identidad.

Observación: Toda matriz elemental por filas lo es por columnas y viceversa (aunque
no necesariamente asociadas a la misma operación por filas que por columnas).

Observación: Toda matriz elemental es invertible, y su inversa es la matriz elemental


asociada a la operación inversa (la operación inversa de la suma es la resta, la operación
inversa de multiplicar una fila o columna por un número no nulo es dividir por él, y la
operación inversa de un intercambio de filas o columnas es ese mismo intercambio). Las
matrices inversas de las de los ejemplos son:
 
1 0 0 0
 0 1 0 0 
E−1
1 =  2 0 1 0  , E2 = E2 .
  −1

0 0 0 1

Matrices de permutación
Otro tipo de matriz de utilidad lo constituyen las matrices de permutación. Una matriz
de permutación es la que resulta de efectuar una determinada permutación de las filas
(columnas) de la matriz identidad; al premultiplicarla (posmultiplicarla) por cualquier
matriz A, se obtiene el resultado de realizar la misma permutación sobre las filas (colum-
nas) de A. Otra posible definición: P ∈ Km×m es una matriz de permutación si tiene un
sólo 1 en cada fila y cada columna, siendo el resto de elementos 0.
Capı́tulo 2 45

Como toda permutación puede expresarse como composición de intercambios, es decir,


de operaciones del tipo 3), cualquier matriz de permutación es producto de matrices
elementales de intercambio.
Toda matriz de permutación por filas lo es por columnas y viceversa. La permutación
por filas y la permutación por columnas, correspondientes a una misma matriz de per-
mutación, son inversas entre sı́. Por tanto, si P es una matriz de permutación, PT = P−1 .

Ejemplo: La matriz de permutación


 
0 1 0
P= 0 0 1 
1 0 0

se puede expresar como el producto de dos matrices elementales que intercambian la fila
1 y 3 (E1→3 ), y las filas 1 y 2 (E1→2 ):
  
0 1 0 0 0 1
P = E1→2 E1→3 =  1 0 0  0 1 0 .
0 0 1 1 0 0

Del mismo modo, P puede expresarse como el producto de dos matrices elementales de
intercambio por columnas E2→3 y E1→3 :
  
0 0 1 1 0 0
P = E1→3 E2→3 =  0 1 0  0 0 1 .
1 0 0 0 1 0

Algoritmo de cálculo del rango mediante operaciones de reducción gaussiana

Dada una matriz A ∈ Km×n , realizar operaciones elementales sobre sus filas equivale a
premultiplicar por sucesivas matrices elementales:

Ek · · · E2 E1 A. (2.54)

Cada una de estas operaciones deja invariante el rango. Si mediante este proceso llegamos
a una matriz triangular (cuyo rango se deduce inmediatamente) habremos conseguido
calcular r(A).
Igualmente puede procederse efectuando operaciones elementales sobre las columnas
(posmultiplicación por matrices elementales), e incluso combinando ambos métodos.
46 Álgebra (2019/20)

2.3.2 Algoritmo de Gauss-Jordan


Permite calcular la inversa de una matriz usando operaciones elementales. Sea A una ma-
triz cuadrada e invertible. Si, de igual modo que antes, mediante operaciones elementales
sobre sus filas, conseguimos llegar a la matriz identidad, tendremos:
Ek · · · E2 E1 A = I (2.55)
Es decir, que A−1 = Ek · · · E2 E1 I, que es el resultado de efectuar, sobre la matriz
identidad, las mismas operaciones efectuadas sobre A, lo cual nos permite calcular A−1
fácilmente.
También se puede proceder de igual modo por columnas, pero sin mezclar en ningún
caso ambos métodos.

Ejemplo: Vamos a calcular la inversa de la matriz


 
1 0 1
A= 2 4 3 
1 1 1
aplicando este algoritmo; consideramos la matriz (A|I) y mediante transformaciones ele-
mentales de filas llegaremos a (I|A−1 )
   
1 0 1 1 0 0 F2 − 2F1 1 0 1 1 0 0
 2 4 3 0 1 0  F3 − F1  0 4 1 −2 1 0  F2 ↔ F3

1 1 1 0 0 1 → 0 1 0 −1 0 1
    
1 0 1 1 0 0 1 0 1 1 0 0 1 0 0 −1 −1 4
 0 1 0 −1 0 1  F3 − 4F2  0 1 0 −1 0 1  F1 − F3  0 1 0 −1 0 1
→ →
0 4 1 −2 1 0 0 0 1 2 1 −4 0 0 1 2 1 −4
Concluimos que la inversa que buscábamos es
 
−1 −1 4
A−1 =  −1 0 1 .
2 1 −4

2.3.3 Matriz de cambio de base


Si B = (b1 , . . . , bn ) y V = (v1 , . . . , vn ) son dos bases de Kn , entonces los vectores de cada
una de ellas se pueden poner como combinaciones lineales de los de la otra, de la siguiente
forma:
v1 = p11 b1 + p21 b2 + . . . + pn1 bn (2.56)
v2 = p12 b1 + p22 b2 + . . . + pn2 bn
..
.
vn = p1n b1 + p2n b2 + . . . + pnn bn .
Capı́tulo 2 47

Estas expresiones dan lugar a la siguiente definición:

Definición 43 (matriz de cambio de base) Se llama matriz de cambio de base (o


matriz de paso) de B a V a la matriz
 
p11 p12 · · · p1n
 p21 p22 · · · p2n 
P =  .. ..  . (2.57)
 
.. . .
 . . . . 
pn1 pn2 · · · pnn

Es decir, es la matriz cuya columna j-ésima contiene las coordenadas del vector vj en la
base B.

Observación: La matriz de paso de B a V es invertible y su inversa es la que hace el


cambio inverso, es decir, la matriz de paso de V a B.

Observación: Cada vector u ∈Kn lleva asociado un vector de coordenadas respecto a


B (denotado [u]B ) y un vector de coordenadas respecto a V (denotado [u] V ). Pues bien,
la matriz P de paso de B a V transforma [u] V en [u] B (¡cuidado con el orden de los
vectores! ). Matricialmente,
[u] B = P [u] V . (2.58)

Para demostrar esta última igualdad, simplemente reescribimos la ecuación (2.56)


matricialmente como V = BP,donde V es la matriz cuyas n columnas son los vectores
v1 , v2 , . . . , vn y B es la matriz de columnas b1 , b2 , . . . , bn . A partir de ello, todo vector
u ∈Kn puede escribirse como

B [u] B = u = V [u] V = BP [u] V . (2.59)

Igualamos el primer y el último término, y multiplicamos por B−1 (que existe pues B
es cuadrada de columnas independientes); de esta forma se llega a la identidad (2.58).
Nótese que P = B−1 V, lo cual también permite calcular la matriz P de cambio de base.

2.4 Sistemas de ecuaciones lineales


Se trata de encontrar, si existen, todas las n-uplas de valores x1 , x2 , . . . , xn , en el cuerpo
K, que satisfagan simultáneamente las m ecuaciones

a11 x1 + a12 x2 + . . . + a1n xn = b1 
a21 x1 + a22 x2 + . . . + a2n xn = b2 

.. (2.60)
. 

am1 x1 + am2 x2 + . . . + amn xn = bm 
48 Álgebra (2019/20)

en donde aij y bi son elementos de K prefijados. Las ecuaciones anteriores (ecuaciones


lineales) constituyen un sistema lineal de m ecuaciones y n incógnitas x1 , . . . , xn .
Llamando
     
a11 · · · a1n x1 b1
A =  ... ... ..  x =  ..  b =  ..  (2.61)

.   .   . 
am1 · · · amn xn bm

el sistema anterior puede expresarse matricialmente como

Ax = b. (2.62)

Un vector u ∈ Kn que satisfaga que Au = b se denomina vector solución del


sistema.
La matriz A se denomina matriz de coeficientes; el vector b, vector de términos
independientes; la yuxtaposición de ambos,

(A|b) ∈ Km×(n+1) (2.63)

se llama matriz ampliada, y contiene todos los datos que determinan el sistema lineal
y, por tanto, sus soluciones.

Definición 44 Un sistema lineal se dice compatible si admite alguna solución; si, ade-
más, es única, se llama compatible determinado; si admite más de una solución, com-
patible indeterminado; si no admite ninguna solución, incompatible.

2.4.1 Estructura de las soluciones


Un sistema lineal se dice homogéneo si sus términos independientes son todos nulos.
En otras palabras, si el sistema es de la forma Ax = 0.

Observación: Todo sistema homogéneo admite como solución el vector nulo de Kn , que
constituye la llamada solución trivial. Pero el conjunto de todas las soluciones del sistema
homogéneo Ax = 0 es precisamente el núcleo de A (que se denota ker A, ya definido en
la expresión (2.39)).

Para cada sistema lineal Ax = b, que llamaremos sistema completo, su sistema


homogéneo asociado es Ax = 0.
Se tiene que cualesquiera dos soluciones del sistema completo difieren en una solución
del sistema homogéneo; en efecto: sean u1 , u2 soluciones de Ax = b; entonces

A(u1 − u2 ) = Au1 − Au2 = b − b = 0, (2.64)

luego u1 − u2 es solución del sistema homogéneo. Por otro lado, la suma de una solución
particular del sistema completo y una solución del sistema homogéneo da como resultado
Capı́tulo 2 49

una solución del sistema completo (en efecto, si Au = b y Ax = 0, entonces A (u + x) =


0 + b = b). En resumen: fijada una solución particular de Ax = b, cada solución de
ese sistema puede escribirse como suma de esa solución particular más una determinada
solución del sistema homogéneo asociado.

Proposición 17 Si el sistema Ax = b es compatible y r (A) = r, entonces todas sus


soluciones vienen dadas en función de n − r parámetros independientes (es decir, tantos
como el número de incógnitas menos el rango de la matriz de coeficientes). Más aún,
dichas soluciones se escriben como

x = x0 + α1 u1 + · · · + αn−r un−r (2.65)

donde x0 es una solución particular del sistema, (u1 , · · · , un−r ) es base de ker A, y
α1 , · · · , αn−r son los parámetros mencionados.

Demostración: Según la observación anterior, fijada una solución particular x0 del


sistema Ax = b, cualquier vector x es solución del sistema si y sólo si x − x0 ∈ ker A.
Por otro lado, la igualdad (2.49) afirma que dim (ker A) = n − r , luego cualquier base de
ker A debe poseer n − r vectores independientes. Sea (u1 , · · · , un−r ) una base de ker A;
el vector x − x0 ∈ ker A si y sólo si existen escalares α1 , · · · , αn−r tales que

x − x0 = α1 u1 + · · · + αn−r un−r (2.66)

y esta igualdad es equivalente a la expresión (2.65). 2

2.4.2 El teorema de Rouché-Frobenius


Recordando la igualdad (2.42), se tiene que todo sistema lineal Ax = b puede reescribirse
como
x1 C1 (A) + x2 C2 (A) + . . . + xn Cn (A) = b. (2.67)
En otras palabras, el vector de términos independientes debe ser combinación lineal de
las n columnas de la matriz A, cuyos coeficientes son precisamente las incógnitas.
Ası́ pues, el sistema admitirá solución cuando, y solo cuando, b sea combinación lineal
de las columnas de A, lo cual se expresa en el siguiente

Teorema 6 (Rouché-Frobenius) El sistema lineal Ax = b es compatible si y solo si


r(A|b) = r(A).
Además, si el sistema lineal Ax = b es de n incógnitas, y llamamos r al rango de A,
caben las siguientes posibilidades:

• r(A|b) = r + 1 ⇐⇒ sistema incompatible.

• r(A|b) = r ⇐⇒ sistema compatible. Y en ese caso,

– r = n ⇐⇒ compatible determinado: solución única.


50 Álgebra (2019/20)

– r < n ⇐⇒ compatible indeterminado; la solución general depende de n − r


parámetros.

Demostración: La primera parte del teorema (condición de compatibilidad) equivale


a la observación previa a dicho teorema: b es combinación lineal de las columnas de A si
y sólo si r(A|b) = r(A) = r. En ese caso el sistema es compatible; en cualquier otro caso
(r(A|b) > r) es incompatible. En los casos compatibles, las soluciones vienen dadas en
función de n − r parámetros (es lo que afirma la Proposición 5). En particular, el caso
r = n indica que la solución viene dada por n − r = 0 parámetros; ello quiere decir que
la solución es única. (Obsérvese que esto se verifica cuando r (A) = n, es decir, cuando y
sólo cuando todas las columnas de A son independientes). 

2.4.3 Resolución de sistemas lineales por reducción gaussiana


Observación: Dado un sistema lineal Ax = b, de matriz de coeficientes A ∈ Km×n y
una matriz Q ∈ Km×m invertible, el conjunto de soluciones del sistema anterior coincide
con el de
QAx = Qb (2.68)
y se dice que este último sistema es equivalente al Ax = b.
Esta observación permite pasar de un sistema inicial a otro que posee las mismas
soluciones pero que quizá es más fácilmente resoluble; el objetivo es que la nueva matriz
de coeficientes QA sea matriz triangular o escalonada. ¿Cómo conseguir que QA tenga
forma escalonada? Recuérdese el concepto de operación elemental por filas, equivalente
a premultiplicación por la correspondiente matriz elemental, que siempre es invertible.
Pues bien, aplicando operaciones elementales de reducción gaussiana convertimos A en
una matriz escalonada Ek · · · E2 E1 A; esta nueva matriz es QA, donde Q = Ek · · · E2 E1 .
Obsérvese que la matriz ampliada del sistema inicial es (A|b) y la del nuevo sistema
es (QA|Qb). Ello significa que, aplicando dichas operaciones elementales sobre las
filas completas de la matriz ampliada, obtenemos un sistema equivalente y fácilmente
resoluble. En esto consiste el método de reducción gaussiana.
Veamos este procedimiento con más detalle: a la hora de resolver un sistema lineal,
realizamos operaciones elementales por filas sobre la matriz ampliada (A|b), lo que
equivale a premultiplicar A y b por una misma matriz invertible, obteniendo un sistema
equivalente.
Nuestro propósito será llegar a una configuración de la forma (ejemplo de tamaño
4 × 6)  
 ∗ ∗ ∗ ∗ ∗ ∗
 0  ∗ ∗ ∗ ∗ ∗ 

 0 0  ∗ ∗ ∗ ∗ 
 (2.69)

0 0 0  ∗ ∗ ∗
en donde el sı́mbolo  denota elementos no nulos, y el sı́mbolo ∗ elementos cualesquiera.
Capı́tulo 2 51

En este ejemplo, el sistema será compatible indeterminado, dependiendo la solución


general de 6 − 4 = 2 parámetros; podemos dejar libres dos incógnitas, por ejemplo x5 =
λ , x6 = µ ∀λ, µ ∈ K, despejando de abajo a arriba las cuatro restantes en función de
éstas.
Si se llega a una situación de la forma
 
 ∗ ∗ ∗ ∗ ∗ ∗
 0  ∗ ∗ ∗ ∗ ∗ 
 0 0  ∗ ∗ ∗ ∗ , (2.70)
 

0 0 0 0 0 0 

entonces el sistema será incompatible (r(A) = 3 y r(A|b) = 4).


Para llegar a estas configuraciones de matrices escalonadas, se sigue el siguiente
algoritmo:
• Si es a11 6= 0, se efectúa para cada fila 2, 3, . . . , m la operación
ai1
F0i = Fi − F1 , (2.71)
a11
es decir, a cada fila le restamos el adecuado múltiplo de la primera para hacer ceros
en la primera columna, obteniendo
 
 ∗ · · · ∗ ∗
 0 ∗ · · · ∗ ∗ 
.. . . .. ..  . (2.72)
 
 ..
 . . . . . 

0 ∗ ··· ∗ ∗

Si es a11 = 0, se escoge una fila k tal que sea ak1 6= 0, y se intercambian las filas
1 y k; a continuación, se procede como se explicó antes. Si todos los elementos de
la primera columna son nulos, el valor x1 de la primera incógnita es arbitrario y se
pasa al siguiente paso.
El siguiente paso es proceder del mismo modo con la columna 2, para las ecuaciones
3, . . . , n. Si fuesen nulos todos los a02k , k = 2, . . . , n, se tendrı́a ya hecho el trabajo sobre
la columna 2 y se pasarı́a a operar con la 3. En caso contrario:
Si es a022 6= 0, se hacen las operaciones
a0i2 0
F00i = F0i − F , i = 3, 4, . . . , m, (2.73)
a022 2
y si es a022 = 0, se intercambia la fila 2 con alguna posterior cuyo elemento a0k2 sea no nulo,
haciéndose a continuación las operaciones dichas.
Reiterando el proceso, se llega a la matriz escalonada.
(i−1)
En cada paso no trivial hay que dividir por un elemento diagonal aii que se deno-
minará pivote o, eventualmente, intercambiar dos ecuaciones para obtener un pivote no
52 Álgebra (2019/20)

nulo. Ası́ pues, en muchos casos es imprescindible efectuar operaciones de intercambio de


filas. Por ejemplo, si tuviéramos
 
 ∗ ∗ ∗ ∗ ∗ ∗
 0 0  ∗ ∗ ∗ ∗ 

 0  ∗ ∗ ∗ ∗ ∗ 
 (2.74)

0 0 ∗ ∗ ∗ ∗ ∗
serı́a imposible anular el elemento a32 , por lo que se procederı́a a intercambiar las filas 2
y 3.
En ocasiones puede llegarse a configuraciones como
 
 ∗ ∗ ∗ ∗ ∗ ∗
 0  ∗ ∗ ∗ ∗ ∗ 

 0 0 0  ∗ ∗ ∗ 
 (2.75)

0 0 0 0 0  ∗
que nos obligan a tomar como variables libres algunas de las incógnitas intermedias (en
el ejemplo mostrado, la 3a y la 5a ).

2.5 Factorización LU
Como hemos visto, en la resolución por reducción gaussiana de un sistema lineal, se trata
de reducir la matriz A de coeficientes a una matriz triangular superior, que vamos a
denotar por U. Supongamos el caso particular en que todas las operaciones elmentales
por filas realizadas son del tipo 1) y en particular de la forma
F0i = Fi + αFk , con k < i, (2.76)
lo cual implica que la matriz elemental correspondiente es triangular inferior con todos
sus elementos diagonales iguales a 1. Se tiene, por tanto,
El El−1 . . . E2 E1 A = U, (2.77)
o, equivalentemente,
−1 −1
A = (El El−1 . . . E2 E1 )−1 U = E−1 −1
1 E2 . . . El−1 El U (2.78)
en donde la matriz E−1 −1 −1 −1
1 E2 . . . El−1 El , que denotaremos por L es asimismo triangular
inferior con elementos diagonales iguales a 1.
Por tanto, hemos factorizado A ∈ Km×n como
A = LU (2.79)
en donde L ∈ Km×m es triangular inferior con elementos diagonales iguales a 1 y U ∈
Km×n es triangular superior.
Obsérvese que la matriz L se obtiene efectuando sobre la matriz identidad de orden
m las inversas de las operaciones elementales por filas que condujeron a la triangular-
ización de A, realizadas en el orden inverso; mientras que U es el resultado de dicha
triangularización.
Capı́tulo 2 53
 
1 −2 1
Ejemplo: Realicemos la factorización LU de A =  4 −7 −4 .
−6 −3 1
   
1 −2 1  0  1 −2 1
F2 = F2 − 4F1
A =  4 −7 −4  ∼ 0 1 −8 
F03 = F3 + 3F1
−6 −3 1 0 −8 4
 
 00 1 −2 1
F3 = F03 + 8F02 ∼  0

1 −8  = U.
0 0 −60
Efectuando ahora sobre la matriz I3 las operaciones F03 = F3 −8F2 ; F003 = F03 −3F01 ; F002 =
F02 + 4F01 , obtenemos la matriz
 
1 0 0
L= 4 1 0 .
−3 −8 1
2
El interés de este algoritmo radica en que la resolución del sistema de ecuaciones
Ax = b se reduce a la de dos sistemas cuya solución es inmediata. En concreto,

Ly = b
Ax = b ⇔ LUx = b ⇔ (2.80)
Ux = y
y cuando se programa numéricamente, este método es más eficiente que la reducción
gaussiana propiamente dicha.
Proposición 18 Sea A ∈ Kn×n regular; si A admite factorización LU, esta es única.
Demostración: Supongamos que A = L1 U1 = L2 U2 con Lj , Uj matrices de los tipos
antes especificados. Entonces la matriz L−1 −1
1 L2 = U2 U1 es simultáneamente triangular
inferior y triangular superior, luego solo puede ser diagonal; como además sus elementos
diagonales son iguales a 1, tiene que ser la identidad. Ası́ pues, L1 = L2 y U1 = U2 . 2
Obsérvese que, puesto que la aplicación del algoritmo se basa en que todas las opera-
ciones efectuadas sean del tipo (2.76), no toda matriz es factorizable LU. En concreto,
no lo será cuando el método de Gauss requiera de algún intercambio de filas, situación
que se produce si aparece algún cero como pivote con algún elemento no nulo debajo de
él.
 
1 −1 3
Ejemplo: Intentemos la factorización LU de A =  −1 1 −2 .
1 0 5
   
1 −1 3  0  1 −1 3
F2 = F2 + F1
A =  −1 1 −2  ∼ 0 0 1 
F03 = F3 − F1
1 0 5 0 1 2
54 Álgebra (2019/20)

y no podemos continuar la triangularización mediante operaciones del tipo (2.76). 2


Sin embargo, el procedimiento puede aplicarse a cualquier sistema lineal ya que, con
una adecuada permutación de las filas de A, siempre obtendremos una matriz factorizable
LU:

Proposición 19 Sea A ∈ Km×n ; existen matrices P ∈ Km×m de permutación, L ∈


Km×m triangular inferior con elementos diagonales iguales a 1, y U ∈ Km×n triangular
superior, tales que
PA = LU. (2.81)

 
1 0 0
Ejemplo: Si A es la matriz del ejemplo anterior y P =  0 0 1 , la matriz
0 1 0
 
1 −1 3
PA =  1 0 5 
−1 1 −2

admite factorización LU (compruébese). 2


Capı́tulo 2 55

2.6 Ejercicios
2.1.– Una aplicación lineal f : R2 → R3 verifica
   
  2   −5
3 1
f =  −4  f =  3 .
5 2
1 4
 
2
Calcular la imagen por f del vector . Hallar asimismo la matriz de la aplicación
−1
lineal f .

2.2.– Hállese la matriz A que cumple:


       
3 9 2 5
A = , A = .
2 11 1 3
2.3.– Para cada número real a se considera la matriz
 
1 a −1 2
A =  2 −1 3 5 .
1 10 −6 1
Hallar unas ecuaciones paramétricas del núcleo de A y una base del subespacio imagen
de A.

2.4.– Sea A una matriz que verifica


          
1 1 1 2 1 3
A 1  =  2 , A 1  =  0 , A 0  =  2 .
1 3 0 −2 0 1
Se pide:
1. Escribir la matriz A.
2. Determinar una base de ker A y unas ecuaciones implı́citas de Im A.
3. Dado el subespacio M = L[(1, 2, 0), (2, 1, 1)] de R3 , determinar una base del su-
bespacio de los transformados de los vectores de M por la matriz A; es decir, de
{Ax, x ∈ M }.

2.5.– De una matriz A ∈ C4×4 se sabe que


   
1 4
 2   3 
A  3 =
  
2 
4 1
y que Im A ker A.
56 Álgebra (2019/20)

1. Calcúlese el rango de A.

2. Calcúlese el vector suma de las columnas de A.

2.6.– Calcular el rango de la matriz


 
a b b ··· b b

 b a b ··· b b  
 b b a ··· b b 
M=
 
.. .. .. .. .. .. 
 . . . . . . 
 
 b b b ··· a b 
b b b ··· b a

y deducir para qué valores de a y b es invertible.

2.7.– Calcular, empleando el método de Gauss-Jordan, las inversas de las matrices


 
  1 1 1 1
1 4 1
 2
 1 i −1 −i 
9 2 ; 
 1 −1
.
1 −1 
5 −2 6
1 −i −1 i

2.8.– Hallar, usando el método de Gauss-Jordan, la inversa de la matriz



1 a a 2 a3 a4

 0 1 a a 2 a3 
 
 0 0 1 a a2  .
 
 0 0 0 1 a 
0 0 0 0 1

Probar que una matriz triangular es invertible si y sólo si todos los elementos de su
diagonal principal son distintos de cero y que, en ese caso, su inversa es una matriz
triangular del mismo tipo.

2.9.– Calcular, mediante el método de Gauss-Jordan, la inversa de la matriz


 
1 −1 0 0 0 0
 −1 2 −1 0 0 0 
 
 0 −1 2 −1 0 0 
 .
 0
 0 −1 2 −1 0 

 0 0 0 −1 2 −1 
0 0 0 0 −1 2

Generalizar el resultado obtenido a una matriz de orden n que tenga la misma estructura.
Este ejemplo pone de manifiesto que una matriz dispersa (es decir, con gran número de
elementos nulos) no tiene por qué tener inversa dispersa.
Capı́tulo 2 57

2.10.– En R3 se consideran las bases

B = ((1, 0, 1) , (−1, 1, 1) , (1, −1, 0)) , V = ((2, 1, 1) , (1, 1, 1) , (1, −1, 1)) .

Se pide:

1. Hallar el vector de coordenadas de (2, 1, 1) respecto a la base B.

2. Calcular la matriz de cambio de base de B a V.

3. A partir de lo anterior, determinar la matriz de cambio de base de V a B.

4. Calcular el vector de coordenadas respecto a la base V del vector cuyas coordenadas


respecto a la base B son (1, 2, 3).

2.11.– Sea A una


 matriz compleja. Demostrar que ker Ah A = ker A y deducir la
igualdad r Ah A = r (A). Probar también que Ah A = O si, y solamente si, A = O.

2.12.– Sea B una matriz n × m y C una matriz m × n, demostrar la siguiente propiedad

tr (BC) = tr (CB) .

2.13.– Demostrar que una matriz A tiene rango 1 si y sólo si puede escribirse como
A = abt siendo a, b vectores columna no nulos. Deducir asimismo que, si A es cuadrada
de rango 1, entonces A2 = tr(A)A.

2.14.– Resolver por el método de Gauss los siguientes sistemas de ecuaciones lineales:

 
 2x + 4y + 8z = 6
2x − y + 3z + u + 4v = 2  4x + y + 9z = 12



4x + y + 8z + u + 12v = 13 x + 2y + 4z = 3
−6x + 15y + 4z − 5u + v = 27 5x − 4y + 6z = 15
 



3x + 5y + 11z = 9

2.15.– Encontrar los vértices de un triángulo cuyos lados tienen por puntos medios los
puntos de coordenadas
(4, 1), (2, 3), (6, 2).
¿Quedan determinados los vértices de un cuadrilátero si se conocen los puntos medios de
sus lados? Generalizar estos resultados al caso de un polı́gono con un número cualquiera
de lados.

2.16.– Discutir según los valores de los parámetros a y b los siguientes sistemas de
ecuaciones  
 ax + y + z = 1  ax + y + bz = 1
x + ay + z = b x + ay + bz = 1
2
x + y + az = b x + y + abz = b
 
58 Álgebra (2019/20)

2.6.1 Cuestiones
 
1 0 0
2.17.– La matriz de cambio de la base B a la base V es  1 1 0  . Si un vector
1 2 1
tiene coordenadas (1, 2, 0) respecto a B, ¿qué coordenadas tiene respecto a V ?:
(A) (3, 2, 0)
(B) (1, 3, 5)
(C) (1, 1, −3)
(D) (−1, 2, 0)
2.18.– Indicar si las siguientes afirmaciones son verdaderas (V) o falsas (F).
V F
El producto de dos matrices invertibles es una matriz invertible
El producto de dos matrices simétricas es una matriz simétrica
Si A transforma vectores linealmente independientes en vectores
linealmente independientes, entonces su rango por columnas es máximo.
Si ker (A) = {0} entonces A transforma vectores linealmente independientes
en vectores linealmente independientes.
Si A es cuadrada, entonces el rango de A2 es mayor o igual que el rango de A.
2.19.– Sean A, B, C matrices no necesariamente cuadradas. Indicar si las siguientes
afirmaciones son verdaderas (V) o falsas (F).
V F
Si AB = O, entonces o bien A = O o bien B = O.
Si A2 = O, entonces A es necesariamente nula.
Si AB = AC entonces B = C.
Si AB = AC y A es cuadrada invertible, entonces B = C.
Si A es rectangular, de columnas independientes,
y AB = AC, entonces B = C.
Si A2 = B2 entonces A = ±B.
2.20.– Indicar si las siguientes afirmaciones son verdaderas (V) o falsas (F).
V F
Si Ax = 0 tiene solución única, entonces ker (A) = {0}
Si el sistema Ax = b tiene solución única, entonces
el sistema Ax = 0 tiene como única solución la trivial.
Si el sistema Ax = 0 tiene solución única, entonces
el sistema Ax = b tiene solución única.
Si Ax = b tiene solución única, entonces Ax = v tiene solución única.
Si b, v ∈ Im (A) entonces
Ax = b es determinado ⇔ Ax = v es determinado.
Capı́tulo 3

Producto escalar y ortogonalidad

3.1 Producto escalar y norma asociada en Rn . Desigualdades de Cauchy-Schwarz y


triangular.
3.2 Ortogonalidad. El suplementario ortogonal. El teorema de la proyección ortogonal.
Familias ortogonales. Bases ortonormales. Matrices ortogonales. El método de
ortonormalización de Gram–Schmidt. Factorización QR.
3.3 Extensión a Cn .
3.4 Extensión a espacios vectoriales generales.
3.5 Ejercicios. Cuestiones.

Introducción
En los temas anteriores hemos atendido a propiedades cualitativas de los vectores: pueden
sumarse o multiplicarse por un número, etc. Ahora vamos a ver otras propiedades de tipo
cuantitativo: qué entendemos por longitud de un vector, cómo medir el ángulo que forman
dos vectores, cómo proyectar un vector (sobre un subespacio), etc. En el plano muchas
de estas cuestiones pueden resolverse de forma bastante elemental, “con regla y compás”.
Queremos extender de manera natural las ideas intuitivas de la geometrı́a elemental tanto
a Rn como a Cn .
Nota: Por razones de notación identificamos los vectores de Rn y Cn con vectores columna.

3.1 Producto escalar y norma


Definición 45 (producto escalar natural en Rn ) Dados dos vectores x, y de Rn su
producto escalar es el número real
n
X
t
hx, yi := x y = xj yj = yt x. (3.1)
j=1

59
60 Álgebra (2019/20)

De la definición se desprenden las siguientes propiedades:

1. Distributividad, es decir: ∀ u, v, w ∈ Rn , ∀ λ, µ ∈ R

hλu + µv, wi = λhu, wi + µhv, wi; hu, λv + µwi = λhu, vi + µhu, wi (3.2)

Se dice también que el producto escalar es lineal en cada componente.

2. Simetrı́a:

∀ u, v ∈ Rn hu, vi = hv, ui. (3.3)

3. Positividad:
n
X
∀ u ∈ Rn , u 6= 0 hu, ui = ut u = u2j > 0. (3.4)
j=1

Esta última propiedad es muy importante y motiva la siguiente

Definición 46 (norma euclı́dea) Para cada vector u de Rn el número


p
kuk := hu, ui (3.5)

recibe el nombre de norma o longitud del vector.

Proposición 20 La aplicación que a cada vector u le asocia su norma kuk se denomina


norma asociada al producto escalar y cumple:

1. ∀ u ∈ Rn , kuk ≥ 0, kuk = 0 ⇐⇒ u = 0.

2. ∀ λ ∈ R, ∀ u ∈ Rn kλuk = |λ| kuk.

3. ∀ u, v ∈ Rn , ku + vk2 = kuk2 + 2hu, vi + kvk2 .

Definición 47 Dados dos vectores u, v ∈ Rn se define la distancia entre ellos:

d(u, v) := ku − vk. (3.6)

Proposición 21 (desigualdades de Cauchy-Schwarz y triangular) Sean u, v dos


vectores cualesquiera de Rn . Entonces
1. La desigualdad de Cauchy-Schwarz nos da la relación entre el producto escalar
de los dos vectores y sus longitudes:

∀ u, v ∈ Rn |hu, vi| ≤ kuk kvk. (3.7)

La igualdad se da si, y solo si, los vectores son proporcionales.


Capı́tulo 3 61

2. La desigualdad triangular relaciona la suma de las longitudes con la longitud de


la suma:

∀ u, v ∈ Rn , ku + vk ≤ kuk + kvk. (3.8)

La igualdad se da si, y solo si, los vectores son proporcionales con constante de
proporcionalidad no negativa.

Demostración: En virtud de la distributividad y de la simetrı́a:

ku + λvk2 = hu + λv, u + λvi = kuk2 + 2λhu, vi + λ2 kvk2 (3.9)

cualquiera que sea λ ∈ R. Podemos suponer v 6= 0 (si v = 0 ambos miembros de (3.7)


son nulos). La expresión (3.9) es un polinomio de segundo grado en λ mayor o igual que
cero para todo λ. Su discriminante tiene que ser menor o igual que cero:

hu, vi2 − kuk2 kvk2 ≤ 0 ⇐⇒ hu, vi2 ≤ kuk2 kvk2

Al tomar raı́ces cuadradas positivas en ambos miembros queda demostrada la desigualdad.


Además, la igualdad en (3.7) equivale a ku + λvk2 = 0, es decir, u = −λv, para un
determinado valor de λ: los vectores son proporcionales.
Para probar la desigualdad triangular elevamos al cuadrado el primer miembro de la
desigualdad, desarrollamos y aplicamos la desigualdad de Cauchy-Schwarz:

ku + vk2 = kuk2 + 2hu, vi + kvk2 ≤ kuk2 + 2kuk kvk + kvk2 = (kuk + kvk)2

Al extraer raı́ces cuadradas positivas se llega al resultado deseado.


La igualdad se da si, y solo si, hu, vi = kuk kvk, entonces u y v son proporcionales,
u = −λv y además

0 ≤ kuk kvk = hu, vi = h−λv, vi = −λkvk2

por lo que la constante de proporcionalidad (−λ) es no negativa. 

Observación: La desigualdad triangular dice que la longitud de una suma de vectores


no puede exceder la suma de las longitudes de ambos vectores. Intuitivamente es muy
natural; si pensamos geométricamente, los dos vectores definen un paralelogramo de lados
de longitudes kuk y kvk, mientras que las longitudes de las diagonales son ku ± vk.

La desigualdad de Cauchy-Schwarz permite definir el ángulo entre dos vectores,

Definición 48 Sean u, v dos vectores no nulos de Rn , se define al ángulo ϕ que forman


como aquel cuyo coseno es
hu, vi
cos ϕ = , ϕ ∈ [0, π]. (3.10)
kuk kvk
62 Álgebra (2019/20)

3.2 Ortogonalidad
Definición 49 Dos vectores u, v ∈ Rn son ortogonales (o perpendiculares) si su pro-
ducto escalar es nulo: hu, vi = 0. En ese caso es frecuente escribir u ⊥ v.

Observación: Si un vector es ortogonal a sı́ mismo es nulo. Es consecuencia de la


propiedad de positividad. A veces esta propiedad se enuncia diciendo que el único vector
ortogonal a todos los del espacio es el nulo:

∀ v ∈ Rn hu, vi = 0 ⇒ u = 0. (3.11)

Teorema 7 (Pitágoras) Dos vectores u, v ∈ Rn son ortogonales si, y solamente si

ku + vk2 = kuk2 + kvk2 . (3.12)

Demostración: Es consecuencia inmediata del apartado 3. de la proposición 20. 

Proposición 22 (suplementario ortogonal) Sea M un subespacio de Rn , el conjunto

M ⊥ := {v ∈ Rn , ∀ u ∈ M, hu, vi = 0} (3.13)

es un subespacio vectorial de Rn que es suplementario de M . Es decir, Rn = M ⊕ M ⊥ .

Demostración: Sea m la dimensión de M . Identifiquemos M = Im A siendo A ∈ Rn×m


una matriz cuyas columnas son una base de M . Un vector x es de M ⊥ si, y solamente si,
es ortogonal a los vectores de una base de M , es decir si At x = 0, ası́ pues M ⊥ = ker At .
Como el rango de A es m, la dimensión del núcleo de At es n − m, luego para que M
y M ⊥ sean suplementarios basta que su intersección sea nula; pero ello es evidente dado
que el único vector ortogonal a sı́ mismo es el nulo, por lo que podemos concluir que
Rn = M ⊕ M ⊥ . 

Observación: Notemos que este razonamiento puede hacerse también considerando una
matriz A cuyas columnas sean un generador de M , no necesariamente libre, en este caso
pueden variar sus dimensiones (habrá tantas columnas como vectores posea el generador)
pero no su rango, que coincide con la dimensión.

Observación: De la relación de dimensiones y de la definición se desprende que (M ⊥ )⊥ =


M.
Capı́tulo 3 63

Corolario: Dada una matriz real cualquiera A se verifica:

(Im A)⊥ = ker At , (Im At )⊥ = ker A. (3.14)

Teorema 8 (de la proyección ortogonal) Sea M un subespacio de Rn . Entonces para


cada vector u ∈ Rn existen únicos v ∈ M , w ∈ M ⊥ de forma que u = v + w; además,
para cualquier z ∈ M se cumple d(u, z) = ku − zk ≥ ku − vk = d(u, v).

Demostración: De Rn = M ⊕ M ⊥ se desprende la descomposición u = v + w, v ∈ M ,


w ∈ M ⊥ y su unicidad. En cuanto a la distancia, sea z ∈ M cualquiera,
(∗)
ku − zk2 = k(u − v) + (v − z)k2 = ku − vk2 + kv − zk2 ≥ ku − vk2 .

La igualdad en (∗) se da en virtud del teorema de Pitágoras ya que (u − v) y (v − z) son


ortogonales (el primero es un vector de M ⊥ y el segundo es de M ). 
Los resultados de este teorema motivan las dos definiciones siguientes:

Definición 50 El vector v recibe el nombre de proyección ortogonal de u sobre M ;


lo denotaremos PM u.

Definición 51 Dado un subespacio M de Rn , para cada vector u ∈ Rn su distancia a M


se define como

d(u, M ) := mı́n{d(u, v), v ∈ M } = ku − PM uk. (3.15)

Observación: El teorema de la proyección ortogonal no solo garantiza la existencia del


mı́nimo sino que establece que se alcanza precisamente en la proyección de u sobre M .

3.2.1 Familias ortogonales


Definición 52 Un conjunto de vectores F = {u1 , . . . , um } de Rn es ortogonal si hui , uj i =
0 para i 6= j. Se dice que los vectores de F son ortogonales dos a dos.

Definición 53 Un conjunto de vectores de Rn es ortonormal si sus vectores son orto-


gonales dos a dos y unitarios (es decir de norma 1).

Proposición 23 Una familia ortogonal que no contiene el vector nulo es libre. En par-
ticular, toda familia ortonormal es libre.

Demostración: Sea {u1 , u2 , . . . , us } un conjunto de vectores tales que utj uk = 0, j 6= k.


Igualemos a cero una combinación lineal:

λ1 u1 + λ2 u2 + · · · + λs us = 0 (3.16)
64 Álgebra (2019/20)

y multipliquemos escalarmente por uk para un ı́ndice k cualquiera,

λ1 utk u1 + λ2 utk u2 + · · · + λs utk us = 0 (3.17)

la expresión queda reducida a

λk utk uk = λk kuk k2 = 0 (3.18)

como el vector uk es no nulo, tiene que ser λk = 0, haciendo variar k desde 1 hasta s
queda probada la propiedad. 

Corolario: (generalización del teorema de Pitágoras) Si los vectores u1 , . . . , um


son ortogonales dos a dos, entonces

ku1 + · · · + um k2 = ku1 k2 + · · · + kum k2 . (3.19)

Observación: El recı́proco no es cierto para m > 2 como muestran los vectores


     
1 0 1
e1 = , e2 = ,u =
0 1 −1

para los que se cumple ke1 + e2 + uk2 = ke1 k2 + ke2 k2 + kuk2 = 4 pero no son ortogonales
dos a dos ya que por ejemplo he1 , ui = 1.

Definición 54 Una base ortogonal de Rn es aquella cuyos vectores son ortogonales dos
a dos; si además son unitarios la base se llama ortonormal.

Ejemplo:
        
2 1 1 1 1 1
B1 = , Bo = √ ,√
1 −2 2 1 2 −1

B1 es una base ortogonal de R2 mientras que Bo es ortonormal.

Observación: Sea B = (u1 , . . . , un ) una base ortogonal de Rn y sea v ∈ Rn , entonces


n
X hv, uj i
v= uj . (3.20)
j=1
kuj k2
Capı́tulo 3 65

Si en la base B normalizamos cada vector qj := uj /kuj k la nueva base Bo = (q1 , . . . , qn )


es ortonormal y la expresión anterior se simplifica:
n
X
v= hv, qj iqj (3.21)
j=1

y el vector de coordenadas de v en la base ortonormal es muy sencillo:


 
hv, q1 i
[v]Bo = 
 .. 
(3.22)
. 
hv, qn i

Además, y conforme a la fórmula (3.19), podemos expresar la norma:


v
u n
uX
kvk = t hv, qj i2 . (3.23)
j=1

Mientras que el producto escalar de dos vectores v, w puede escribirse como:


n
X
hv, wi = hv, qj ihqj , wi. (3.24)
j=1

Definición 55 Una matriz Q ∈ Rn×n es ortogonal si Qt Q = I, es decir Qt = Q−1 .

Proposición 24 Sea Q ∈ Rn×n . Entonces son equivalentes:

1. Q es ortogonal.

2. Q conserva el producto escalar, es decir:

∀x, y ∈ Rn hQx, Qyi = hx, yi.

3. Q conserva la norma, es decir:

∀x ∈ Rn kQxk = kxk.

Demostración: Comprobaremos la triple equivalencia mediante un razonamiento circu-


lar: (1) ⇒ (2) ⇒ (3) ⇒ (1).

(1) ⇒ (2) Sean x, y dos vectores cualesquiera, entonces:

hQx, Qyi = (Qx)t Qy = xt Qt Qy = xt Iy = xt y = hx, yi.


66 Álgebra (2019/20)

(2) ⇒ (3) Basta tomar x = y.

(3) ⇒ (1) Sean ei , ej dos vectores canónicos,

kQ(ei + ej )k2 = kQei k2 + 2hQei , Qej i + kQej k2

kei + ej k2 = kei k2 + 2hei , ej i + kej k2

Por hipótesis los primeros miembros son iguales kQ(ei + ej )k2 = kei + ej k2 , igualemos los
segundos:

kQei k2 + 2hQei , Qej i + kQej k2 = kei k2 + 2hei , ej i + kej k2


⇐⇒ hQei , Qej i = hei , ej i ⇐⇒ eti Qt Qej = eti ej

t 1 si i = j
⇐⇒ (Q Q)ij =
0 si i 6= j

Con lo que queda probado que Qt Q = I. 

Observación: Las columnas (y filas) de una matriz ortogonal Q constituyen una base
ortonormal de Rn con el producto escalar natural. Además, el hecho de conservar el
producto escalar y la norma se traduce en que también se conservan los ángulos.

3.2.2 Ortonormalización de Gram-Schmidt y factorización QR


La base canónica en Rn es ortonormal, pero pueden encontrarse otras bases ortonormales
construidas con direcciones predeterminadas. En este apartado se demuestra este resul-
tado y se estudian algunas consecuencias importantes de este hecho.

Teorema 9 (Gram-Schmidt) Sea {u1 , u2 , . . . , um } una familia libre en Rn , entonces


existe una familia ortonormal {q1 , q2 , . . . , qm } tal que

L[u1 , u2 , . . . , uk ] = L[q1 , q2 , . . . , qk ], k = 1, 2, . . . , m. (3.25)

Demostración: Es de tipo constructivo,


u1
q1 = ,
ku1 k

q̃2
q̃2 = u2 − hu2 , q1 iq1 , q2 =
kq̃2 k
(3.26)
..
.

q̃k
q̃k = uk − huk , q1 iq1 − · · · − huk , qk−1 iqk−1 , qk = k = 3, . . . , m.
kq̃k k
Capı́tulo 3 67

2
Observemos que el procedimiento seguido consiste simplemente en restar a cada vector
su proyección ortogonal sobre el subespacio engendrado por los vectores anteriores; es
decir, en la etapa k restamos al vector uk su proyección sobre L[u1 , u2 , . . . , uk−1 ], como
puede verse en la figura 3.1.

Figure 3.1: Gram-Schmidt para tres vectores

Consecuencia importante

Sea M un subespacio de Rn de dimensión m y B = (u1 , . . . , um , um+1 , . . . , un ) una base


de Rn obtenida completando una base de M ; al ortonormalizar por Gram-Schmidt obten-
emos una base ortonormal Bo = (q1 , . . . , qm , qm+1 , . . . , qn ) de Rn . Los vectores de esta
base pueden agruparse de modo que los m primeros (q1 , . . . , qm ) constituyen una base
ortonormal de M y el resto (qm+1 , . . . , qn ) una base ortonormal de M ⊥ .

Teorema 10 (factorización QR) Sea A ∈ Rn×m de rango m, entonces existen matri-


ces Q ∈ Rn×m y R ∈ Rm×m tales que Qt Q = I, R es triangular superior con elementos
positivos en su diagonal y tales que A = QR. Además la factorización es única.

Demostración: (no exigible) Para demostrar la existencia basta con aplicar el método
de Gram-Schmidt a las columnas de A que son linealmente independientes (por hipótesis
el rango de A es m), llamemos uk a las columnas de A y denotemos por qk los vectores
68 Álgebra (2019/20)

obtenidos por Gram-Schmidt, despejemos en (3.26) los vectores uk :


u1 = ku1 kq1 ,
u2 = (ut2 q1 ) q1 + ku2 − (ut2 q1 ) q1 k q2
..
.
uk = (utk q1 ) q1 + (utk q2 ) q2 + · · · + (utk qk−1 ) qk−1 + kuk − utk qk−1 qk−1 − · · · − utk q1 q1 k qk
..
.
y escribamos matricialmente el resultado:
 
∗ ∗ ··· ∗
 0 ∗ ··· ∗ 
(u1 u2 ··· um ) = (q1 q2 ··· qm )  .. . . ..  = QR.
 
..
 . . . . 
0 0 ··· ∗
Observemos que la matriz R puede contemplarse como la matriz de paso de la base
de Im A formada por las columnas de Q a la base formada por las columnas de A. Es
evidente que R es triangular superior con elementos positivos en la diagonal.
En cuanto a la unicidad, supongamos dos factorizaciones A = QR = PT que cumplan
los requisitos, es decir Qt Q = I, Pt P = I, R y T triangulares superiores con elementos
diagonales positivos, y concluyamos que son iguales. Sı́gase atentamente la siguiente
cadena:
I = Qt Q = (PTR−1 )t PTR−1 = (TR−1 )t Pt PTR−1 = (TR−1 )t TR−1
La matriz TR−1 es triangular superior y su inversa es su traspuesta, pero la inversa de
una matriz triangular superior es triangular superior y su traspuesta es triangular inferior,
ambas cosas simultáneamente solo son posibles si TR−1 es diagonal e igual a su inversa.
Si llamamos ri > 0 a los elementos diagonales de R y ti > 0 a los de T tenemos:
   
−1 t1 tm −1 r1 rm
TR = diag ,..., , RT = diag ,...,
r1 rm t1 tm
ti r i
TR−1 = RT−1 ⇒ = ⇒ t2i = ri2 ⇒ ti = ri .
ri ti
Se concluye que TR−1 = I y por tanto T = R: la factorización es única. 

3.3 Extensión a Cn
Todo lo visto anteriormente puede extenderse al espacio Cn ; el producto escalar se define
del siguiente modo:
Definición 56 (producto escalar usual) Dados u, v ∈ Cn , su producto escalar usual
es hu, vi = ut v = vh u.
Capı́tulo 3 69

Propiedades
De forma análoga a como ocurrı́a en el caso real, se tienen las siguientes propiedades:

1. Linealidad en la primera componente, es decir:

∀ u, v, w ∈ Cn , ∀ λ, µ ∈ C hλu + µv, wi = λhu, wi + µhv, wi. (3.27)

2. Simetrı́a hermı́tica:

∀ u, v ∈ Cn hu, vi = hv, ui. (3.28)

3. Positividad:

∀ u ∈ Cn , u 6= 0 hu, ui ∈ R, hu, ui > 0. (3.29)

Observación: Las propiedades 1 y 2 conjuntamente implican una propiedad llamada


antilinealidad en la segunda componente:

∀ u, v, w ∈ Cn , ∀ λ, µ ∈ C hu, λv + µwi = λhu, vi + µhu, wi. (3.30)

Cuando una aplicación sobre Cn × Cn es lineal en la primera componente y antilineal en


la segunda se dice que es sesquilineal.

   
1+i 1 − 2i
Ejemplo: El producto escalar de u = por v = es:
2−i 2 + 3i
 
h 1+i
hu, vi = v u = (1 + 2i 2 − 3i) = (1 + 2i)(1 + i) + (2 − 3i)(2 − i) = −5i.
2−i
Observemos que el orden de los vectores es importante ya que, en virtud de la simetrı́a
hermı́tica, hv, ui = hu, vi = 5i.

Norma y propiedades relacionadas


La definición de norma es idéntica a la dada en (3.5),
v
√ u n
uX
p
u ∈ Cn h
kuk = hu, ui = u u = t |uj |2 . (3.31)
j=1


1+i p √
Ejemplo: La norma de u =  2 − i  es kuk = |1 + i|2 + |2 − i|2 + 1 = 2 2.
−1
70 Álgebra (2019/20)

Observación: Las propiedades enunciadas en Rn generalmente son válidas en el espacio


Cn ; por ejemplo, las desigualdades de Cauchy-Schwarz y triangular se cumplen en el caso
complejo si bien las demostraciones que hemos dado solo son válidas en el caso real. El
teorema de Pitágoras solo se cumple en su versión generalizada, es decir, la igualdad
ku + vk2 = kuk2 + kvk2 para vectores u, v ∈ Cn no implica la ortogonalidad (véase el
ejercicio 3.16).

3.3.1 Matrices unitarias


Definición 57 (matriz unitaria) Una matriz U ∈ Cn×n es unitaria si Uh U = I.

Enunciamos (sin demostración) el equivalente de la proposición 24 para matrices unitarias.

Proposición 25 Sea U ∈ Cn×n . Entonces son equivalentes:

1. U es unitaria.

2. U conserva el producto escalar, es decir:

∀x, y ∈ Cn hUx, Uyi = hx, yi.

3. U conserva la norma, es decir:

∀x ∈ Cn kUxk = kxk.

Observación: Como en el caso real, las columnas (y filas) de una matriz unitaria cons-
tituyen una base ortonormal de Cn con el producto escalar natural.

Ejemplo: La matriz
 
1 1 1

2 i −i

es unitaria. Sus columnas forman una base ortonormal de C2 .

3.4 Extensión a espacios vectoriales generales


En esta sección presentamos generalizaciones de los conceptos de producto escalar y norma
euclı́dea definidos en la sección 3.1 para el caso real, y en la sección 3.3 para el caso
complejo.
Capı́tulo 3 71

Definición 58 Sea V un espacio vectorial general sobre el cuerpo K (K = R o C). Una


función h·, ·i : V × V → K es un producto interior si para todo x, y, z ∈ V y todo
λ, µ ∈ K se verifican:
1) hλx + µy, zi = λhx, zi + µhy, zi. (Linealidad en la primera componente)
2) hx, yi = hy, xi (Simetrı́a Hermı́tica)
3) hx, xi ≥ 0, y hx, xi = 0 si y solo si x = 0 (No negatividad y positividad)

Observación: Si K = C, se tiene que las propiedades 1) y 2) implican la antilinealidad


en la segunda componente:

∀ x, y, z ∈ V, ∀ λ, µ ∈ K hx, λy + µzi = λhx, yi + µhx, zi.

En el caso K = R la propiedad 2) se convierte en hx, yi = hy, xi, y la antilinealidad toma


la forma
∀ x, y, z ∈ V, ∀ λ, µ ∈ K hx, λy + µzi = λhx, yi + µhx, zi.

Ejemplos:
a) Consideremos el espacio vectorial V = Rn . De las propiedades Pn que se desprenden
de la definición 45, se tiene que la función hx, yi := x y = j=1 xj yj = yt x, es un
t

producto interior sobre Rn .


b) Análogamente, se tiene que en el espacio vectorial V = Cn (definición 56) la función
hu, vi := ut v = nj=1 uj vj = vh u, define un producto interior en Cn .
P

Nota: Los productos interiores de los ejemplos a) y b) son llamados a menudo “producto escalar”.

c) Sean x = (x1 , x2 ) e y = (y1 , y2 ) elementos en el espacio vectorial R2 . Consideremos


la función definida por

hx, yi := x1 y1 − x2 y1 − x1 y2 + 4x2 y2 . (3.32)

Dado que hx, xi = (x1 − x2 )2 + 3x22 , se tiene hx, xi > 0 si x 6= 0. Las propiedades
1) y 2) se pueden demostrar de manera sencilla. Por tanto, la función definida en
(3.32) es un producto interior en R2 .
d) Sea V = C[a, b] el espacio vectorial de todas funciones reales continuas en el intervalo
[a, b]. Consideremos la función h·, ·i : C[a, b] × C[a, b] → R definida mediante
Z b
hf, gi := f (t)g(t)dt.
a

Se puede demostrar que dicha función es un producto interior en C[a, b].


72 Álgebra (2019/20)

e) Sea V = Rm×n , el espacio vectorial de la matrices reales de orden m × n. Para


A, B ∈ Rm×n , es sencillo demostrar que la función
m X
X n
t
hA, Bi := tr(B A) = aij bij ,
i=1 j=1

es un producto interior en Rm×n . Aquı́ tr(Bt A) denota la traza o suma de los


elementos diagonales de la matriz Bt A cuadrada de n × n .

Definición 59 Sea V un espacio vectorial sobre el cuerpo K (K = R o C). Una función


k · k : V → K es una norma si para todo x, y ∈ V y todo λ ∈ K se verifican:

1) kxk ≥ 0, y kxk = 0 si y solo si x = 0 (No negatividad y positividad)

2) kλxk = |λ|kxk (Homogeneidad)

3) kx + yk ≤ kxk + kyk (Desigualdad triangular)

Ejemplo: Si V es un espacio vectorial dotado de un producto interior h·, ·i, se tiene que
la función p
kxk := hx, xi,
está bien definida y es llamada norma asociada (o norma inducida) al producto interior
h·, ·i. De esta forma, la norma euclı́dea es la norma inducida por el producto escalar
natural en Rn ; no obstante, existen otros ejemplos de normas en Rn que no provienen de
ningún producto interior.
Capı́tulo 3 73

3.5 Ejercicios
3.1.– Dados los vectores (2, −1, 1) y (1, 0, 1) , hallar su producto escalar, sus normas y
el ángulo que forman.

3.2.– Sean v y w dos vectores distintos de Rn , (n ≥ 3). Utilizar la desigualdad triangular


para demostrar que si se cumple la igualdad

kx − vk + kx − wk = kv − wk

entonces x pertenece al subespacio generado por v y w.

3.3.– Hallar los valores de a, b y c para que sea ortogonal la familia

{(1, −2, 1, 0) , (1, a, 3, −7) , (b, 4, −1, c)} .

3.4.– Demostrar que dos vectores v y w tienen la misma norma si y solo si su suma
v + w y su diferencia v − w son ortogonales.

3.5.– Sean F y G subespacios vectoriales de Rn . Demostrar las siguientes igualdades:

1. (F + G)⊥ = F ⊥ ∩ G⊥ .

2. (F ∩ G)⊥ = F ⊥ + G⊥ .

3.6.– Hallar una base ortonormal del plano x + y = 5z, de forma que su primer vector
sea proporcional a (1, −1, 0) .

3.7.– Probar que los siguientes subespacios son suplementarios ortogonales en Rn :

L : x1 + · · · + xn = 0 M : x1 = · · · = xn .

Calcular la proyección ortogonal del vector (1, 0, 0, · · · , 0) sobre L.

3.8.– Determinar la proyección ortogonal del vector (1, −1, 0, 2) sobre el subespacio
generado por los dos vectores (1, 1, 0, 1) y (0, 2, −1, 1).

3.9.– En el espacio euclı́deo R4 se considera el subespacio M generado por los vectores


(1, 0, 1, 1), (1, 1, 0, 1) y (1, 1, 1, 0). Se pide:

1. Calcular una base ortonormal del subespacio M⊥ .

2. Descomponer el vector b = (7, 7, 7, 7) como suma de sendos vectores de M y de


M⊥ .

3.10.– Escribir la distancia del vector (1, 3, 2, 0) al subespacio de R4 de ecuaciones x1 =


x2 , x 3 = x4 .
74 Álgebra (2019/20)

3.11.– Dados dos vectores u y v 6= 0 de Rn , se pide:


1. Determinar la proyección ortogonal de u sobre la recta generada por v.
2. Expresar la proyección anterior como el producto de una matriz por el vector u.
3. Sea n = 3. Escribir la matriz P del apartado anterior para el vector v = (1, 1, 1)t .
¿Cuál es su rango? Determinar bases ortogonales de ker P e Im P.
4. Determinar una base ortonormal de R3 cuyo primer vector sea proporcional a v =
(1, 1, 1)t .

3.12.– Sea a el menor entero positivo para el cual


     
1 0 1
 0  ,  a  ,  1 
1 1 0

es una base de R3 . Se pide ortonormalizarla por Gram-Schmidt.

3.13.– Determinar la factorización QR de la matriz:


 
−3 0 8
 2 −1 −2 
 
 2
 2 −7 .
 2 2 −2 
2 2 −2

3.14.– Calcular todos los posibles valores reales de a, b y c para que la siguiente matriz
sea ortogonal:  
0 2b c
 a b −c  .
a −b c

3.15.– Sea Q una matriz ortogonal de segundo orden y determinante igual a 1.

1. Calcular su forma más general.


2. Interpretar el significado geométrico de la transformación x 7→ Qx.
   
1 i
3.16.– Dados los vectores complejos u = yv= , estúdiese si son orto-
i −1
gonales y compruébese que se cumple ku + vk2 = kuk2 + kvk2 .

3.17.– Sean u, v ∈ Cn tales que

ku + vk2 = kuk2 + kvk2 ∧ ku + ivk2 = kuk2 + kvk2

¿Puede concluirse que son ortogonales?


Capı́tulo 3 75

3.18.– Calcular todos los posibles valores reales de a y b para que la siguiente matriz
sea unitaria:  
a bi
.
a −bi

3.19.– Sea U = A + iB, con A y B reales, una matriz compleja unitaria. Comprobar
que la matriz  
A −B
M=
B A
es ortogonal.

3.5.1 Cuestiones
3.20.– En C3 se considera el plano P de ecuación x + (1 + i)y − 2z = 0. Decidir sobre
la veracidad o falsedad de las siguientes proposiciones.

1. Los vectores reales de P tienen segunda componente nula.

2. Si u ∈ P entonces u ∈ P.

3. El único vector real de P es el vector nulo.

4. El vector (0, 1 − i, 1) pertenece a P.

5. El vector (1, 1 + i, −2) es ortogonal a P.

3.21.– Sean F y G dos subespacios de Rn . Decidir sobre la veracidad o falsedad de las


siguientes proposiciones.

1. F ⊂ G ⇒ F ⊥ ⊂ G⊥

2. F ⊂ G ⇒ G⊥ ⊂ F ⊥

3. Rn = F ⊕ G ⇒ Rn = F ⊥ ⊕ G⊥

4. Rn = F ⊕ G⊥ ⇒ F = G

3.22.– Sea A ∈ Rn×n tal que hu, Aui = 0 cualquiera que sea u ∈ Rn . Decidir sobre la
veracidad o falsedad de las siguientes afirmaciones.

1. A es nula.

2. Los elementos diagonales de A son nulos.

3. det A = 0.

4. ∀i, j aij = −aji


76 Álgebra (2019/20)

5. A es antisimétrica.

6. Rn = Im A ⊕ ker A

3.23.– Sea A ∈ Rn×n . Decidir sobre la veracidad o falsedad de las siguientes proposi-
ciones.

1. A simétrica ⇒ Rn = Im A ⊕ ker A

2. Rn = Im A ⊕ ker A ⇒ A simétrica.

3. A antisimétrica ⇒ Rn = Im A ⊕ ker A

4. Im A = (ker A)⊥ ⇒ A simétrica.


Capı́tulo 4

Proyecciones ortogonales y sus


aplicaciones

4.1 Matriz de proyección ortogonal.


4.2 Los problemas de mı́nimos cuadrados.
4.3 Matriz de simetrı́a ortogonal.
4.4 Giros en R2 y R3 .
4.5 Ejercicios. Cuestiones.

4.1 Matriz de proyección ortogonal


En el capı́tulo anterior, se dio la definición de proyección ortogonal de un vector sobre
un subespacio (Definición 50), que a su vez se basaba en el Teorema de la proyección
ortogonal (Teorema 8). Recordémoslo aquı́: Si M es un subespacio de Rn , entonces para
cada vector u ∈ Rn existen únicos v ∈ M , w ∈ M ⊥ de forma que
u = v + w.
El vector v recibe el nombre de proyección ortogonal de u sobre M . Asimismo, w es
la proyección ortogonal de u sobre M ⊥ .
A continuación vamos a deducir que este vector proyectado puede calcularse mediante
una matriz, la llamada matriz de proyección ortogonal. Para ello, consideremos que M
es un subespacio de Rn de dimensión m, y sea BM = (u1 , . . . , um ) una base ortogonal
de M ; por otro lado, su subespacio ortogonal M ⊥ tiene dimensión n − m, y denotemos
BM ⊥ = (um+1 , . . . , un ) una base ortogonal de M ⊥ . Entonces, la reunión de dichas bases es
una base ortogonal de Rn , y según la ecuación (3.20), todo vector u ∈ Rn puede escribirse
como m n
X hu, uj i X hu, uj i
u= 2
uj + uj .
j=1
kuj k j=m+1
kuj k2

77
78 Álgebra (2019/20)

Figure 4.1: Proyección ortogonal de u sobre el subespacio M

Pues bien, esta expresión puede reescribirse como u = v+w, donde el primer sumando
v es un vector perteneciente a M (es combinación lineal de una base de M ) y el segundo
sumando w es un vector perteneciente a M ⊥ (es combinación lineal de una base de M ⊥ ).
Por tanto, v es la proyección ortogonal de u sobre M (y w es la proyección ortogonal de
u sobre M ⊥ ). En otras palabras, la proyección ortogonal de u sobre M puede calcularse
de la siguiente forma: basta encontrar una base ortogonal de M , (u1 , . . . , um ), y obtener
el vector
m
X hu, uj i
v= u.
2 j
(4.1)
j=1
ku j k

Paralelamente, la proyección ortogonal de u sobre M ⊥ es


n
X hu, uj i
w= uj ,
j=m+1
kuj k2

aunque también se puede calcular como w = u − v.


Ası́ pues, el vector proyectado puede expresarse como
m m
X hu, uj i X uj (utj u)
v = uj 2
= 2
=
j=1
ku j k j=1
ku j k
m
!
X uj uj t
= 2
u
j=1
ku j k

donde hemos utilizado que hu, uj i = utj u. Obsérvese que la última expresión es un
producto de matriz (entre paréntesis) por el vector u. Por tanto, hemos demostrado que
existe una matriz, que denotaremos PM , con
m
X uj utj
PM = (4.2)
j=1
kuj k2
Capı́tulo 4 79

tal que v = PM u. Esta matriz que proporciona el vector proyectado sobre M recibe el
nombre de matriz de proyección ortogonal sobre M . Ahora que hemos demostrado su
existencia, podemos definirla ası́:

Definición 60 (matriz de proyección ortogonal sobre un subespacio) Sea M un


subespacio de Rn ; se dice que PM ∈ Rn×n es matriz de proyección ortogonal sobre
M si, para cada u ∈ Rn , PM u es la proyección ortogonal de u sobre M .

Una forma general de calcularla es mediante la expresión (4.2). En particular, la matriz


de proyección ortogonal sobre la recta generada por un vector no nulo v es
1
PL[v] = vvt (4.3)
vt v
En general, la ecuación (4.2) indica que la proyección ortogonal de un vector sobre
un subespacio se obtiene sumando las proyecciones ortogonales de dicho vector sobre las
rectas vectoriales generadas por los vectores de una base ortogonal de dicho subespacio.
A continuación, damos otras expresiones de la matriz de proyección ortogonal:

Proposición 26
• Si Q es una matriz cuyas columnas forman base ortonormal del subespacio M,
entonces la matriz de proyección ortogonal sobre M es

PM = QQt (4.4)

• Si A es una matriz cuyas columnas forman base del subespacio M, entonces la


matriz de proyección ortogonal sobre M es
−1 t
PM = A A t A A. (4.5)

Demostración: El primer apartado se deduce de la expresión (4.2), sin más que tomar
uj
qj :=
kuj k
con lo que los vectores qj son ortogonales y unitarios:
 
qt1
m
X  qt2 
PM = qj qtj = q1 q2 · · · qm  = QQt .
 
 ..
j=1
 . 
qtm

Para el segundo apartado: dado que las columnas de A forman base de M, recordemos
que una forma de obtener una base ortonormal de M es la factorización QR de A. En
efecto, si A = QR (con Q de columnas ortonormales y R triangular superior invertible)
80 Álgebra (2019/20)

entonces las columnas de Q son base ortonormal de M, y por tanto, podemos aplicar la
expresión (4.4) tomando Q = AR−1 :
t t
PM = QQt = AR−1 AR−1 = AR−1 R−1 At

−1 t −1 t
= A Rt R A = A At A A.

En el último paso se ha utilizado que

At A = (QR)t (QR) = Rt Qt QR = Rt R

ya que Qt Q = I al tener Q columnas ortonormales. Esto concluye la demostración. 

4.1.1 Propiedades de las matrices de proyección ortogonal


Se cumplen las siguientes propiedades:

• PM es simétrica (PtM = PM ) e idempotente (P2M = PM ), como se deduce de la


anterior expresión (4.2) de PM .

• Im PM = M y ker PM = M ⊥ , por lo que Im PM y ker PM son subespacios suple-


mentarios ortogonales.

• Si PM es matriz de proyección ortogonal sobre M , PM ⊥ = I − PM lo es sobre M ⊥ .

Proposición 27 Si una matriz P ∈ Rn×n es simétrica e idempotente, entonces es matriz


de proyección ortogonal sobre su imagen.

Demostración: En efecto, para cada u ∈ Rn se tiene que u = Pu + u − Pu. Se cumplen


Pu ∈ Im P y, por las propiedades de P, u − Pu ∈ ker P = (Im P)⊥ . Por tanto, Pu es la
proyección ortogonal de u sobre Im P. 

Nótese que Im P = ker (I − P).

Todo lo anterior es similar en el caso de Cn sustituyendo la trasposición por trasposición


y conjugación, resultando la matriz de proyección ortogonal sobre un subespacio hermı́tica
e idempotente.

4.2 Los problemas de mı́nimos cuadrados


4.2.1 Introducción
Muchos de los problemas que surgen en Ingenierı́a se formulan como un sistema lineal
Ax = b del que se busca la solución x. En el caso de que dicha solución exista y sea
única, hemos visto varios métodos para calcularla. Pero... ¿y si el sistema no tiene
solución?.
Capı́tulo 4 81

En numerosas ocasiones el sistema Ax = b resulta incompatible: o bien porque


se trata de un problema con demasiadas restricciones y no tiene solución, o bien porque
el sistema pasa a ser incompatible debido a errores de medida o de redondeo de datos.
En este caso, es natural buscar aquellos valores de x que minimicen kb − Axk. A estos
valores se les denomina soluciones de mı́nimos cuadrados (o pseudosoluciones) del
sistema.

4.2.2 Soluciones de mı́nimos cuadrados de un sistema


Sea A ∈ Rm×n y b ∈ Rm . En caso de que el sistema Ax = b sea compatible, sus
soluciones coinciden con aquellos valores de x para los cuales kb − Axk = 0. En caso de
que el sistema sea incompatible, ∀x ∈ Rn : kb − Axk > 0, luego tiene sentido buscar los
vectores x que minimizan kb − Axk. Empleando la fórmula (3.15), se tiene

mı́n {kb − Axk, x ∈ Rn } = mı́n {d(b, v), v ∈ Im A} = kb − PIm A bk.

Se concluye que x0 ∈ Rn hace mı́nima la norma kb − Axk si y solo si es solución


de Ax = PIm A b (sistema siempre compatible). Esto nos lleva a adoptar la siguiente
definición.

Definición 61 (solución de mı́nimos cuadrados) Se denomina solución de mı́nimos


cuadrados o pseudosolución del sistema lineal Ax = b a cualquier solución del sis-
tema Ax = PIm A b.

Observación: Si el sistema Ax = b es compatible, entonces sus soluciones coinciden


con sus soluciones de mı́nimos cuadrados.

Definición 62 (vector residuo) Se define el vector residuo del sistema Ax = b como


r := b − PIm A b.
82 Álgebra (2019/20)

No es necesario calcular explı́citamente PIm A b para hallar las pseudosoluciones, ya


que las siguientes ecuaciones proporcionan otro método de cálculo.
Definición 63 (ecuaciones normales) Dado un sistema Ax = b, se denominan ecua-
ciones normales asociadas a él a las siguientes:
At Ax = At b. (4.6)

Observación: El sistema de ecuaciones normales At Ax = At b es siempre compatible,


ya que Im At = Im(At A).
Proposición 28 x0 es solución de mı́nimos cuadrados del sistema Ax = b si y solo si
x0 es solución de las ecuaciones normales de dicho sistema.
Demostración:
At Ax0 = At b ⇔ At (b − Ax0 ) = 0 ⇔ v := b − Ax0 ∈ ker At = (Im A)⊥ ⇔
b = v + Ax0 ∈ (Im A)⊥ ⊕ Im A ⇔ Ax0 = PIm A b.

La solución x0 de mı́nimos cuadrados es única si y solo si dim ker A = 0 si y solo si
r (A) = n. Además, en este caso r (At A) = r (A) = n, luego At A es regular y la solución
−1
de mı́nimos cuadrados es x0 = (At A) At b.
Otra forma de llegar al mismo resultado es la siguiente: puesto que r (A) = n, la
−1
matriz de proyección ortogonal sobre Im A es A (At A) At y
−1 t
Ax0 = PIm A b = A At A A b.
−1
Dado que r (A) = n, la ecuación anterior se verifica si y solo si x0 = (At A) At b.

Ejemplo: Cálculo de un área por mı́nimos cuadrados


En este ejemplo vamos a calcular de forma aproximada el área de la superficie delimitada
por la gráfica de una función no negativa que se aproximará por un polinomio, el cual a
su vez se ajustará por mı́nimos cuadrados.

Se precisa conocer el área de una determinada zona natural de difı́cil acceso. De la


imagen por satélite de googlemaps
Capı́tulo 4 83

se han tomado algunos valores de la frontera que se reflejan en la siguiente tabla:

x −2 −1 1 2
f (x) 3 1 1 2
y permiten aproximar la zona mediante una función no negativa f : [−2, 2] → R de forma
que el área de la zona coincide con el área limitada por la gráfica de f , las rectas de
ecuaciones x = 2 y x = −2 y el eje horizontal. Además, el perfil del área en su lı́mite con
el rı́o (véase la figura) se parece a una parábola. Por ello el área buscada se aproxima
mediante la fórmula
Z 2
S= p(x)dx
−2

donde p es un polinomio de grado menor o igual que 2 que aproxima a la función f . De


existir, se dice que p interpola la función en los puntos que coincide con ella.
• En primer lugar buscamos un polinomio q(x) = αx2 + βx + γ de forma que q(x) =
f (x) en los valores de la tabla, es decir:
4α − 2β + γ =3
α−β+γ =1
α+β+γ =1
4α + 2β + γ =2
que matricialmente podemos escribir ası́:
   
4 −2 1   3
 1 −1 1  α  1 
  β  =  
 1 1 1   1 
γ
4 2 1 | {z } 2
| {z } y | {z }
A b

Si este sistema fuese compatible ya tendrı́amos una aproximación polinómica de la


función f , ahora bien, aunque la matriz A es de rango máximo (es una submatriz
de una Vandermonde) es muy posible que el sistema sea incompatible, ya que un
polinomio de segundo grado queda caracterizado con 3 datos independientes; al tener
cuatro es más probable que la información lejos de ser redundante sea contradictoria.
• Se comprueba (hágalo el lector) que el sistema es incompatible, por lo tanto el
polinomio q que toma exactamente los valores de la tabla no existe. Podrı́amos
reformular el problema haciéndolo compatible escogiendo solo 3 puntos de inter-
polación en lugar de 4, pero esta aproximación tiene el inconveniente de que al
interpolar en menos puntos el polinomio obtenido se parece menos a la función f .
Otro planteamiento consistirı́a en tomar un polinomio de grado 3, pero esto presenta
algún inconveniente, en particular que no podemos asegurar que dicho polinomio
sea no negativo y por tanto su integral no representarı́a un área.
84 Álgebra (2019/20)

• Llegados a este punto optamos por resolver el sistema por mı́nimos cuadrados, en
este caso lo haremos resolviendo las ecuaciones normales At Ay = At b
    
34 0 10 α 22
 0 10 0   β  =  −2 
10 0 4 γ 7

La solución única de este sistema es (1/2, −1/5, 1/2).

• Tomamos como polinomio de aproximación a f el polinomio p(x) = x2 /2−x/5+1/2.


Es fácil comprobar que este polinomio es no negativo, o bien comprobando que no
tiene raı́ces reales o bien expresándolo como suma de términos no negativos:
 2
1 1 12
p(x) = x− +
2 5 25
Para calcular el área aproximada S que ı́bamos buscando, observamos que al ser el
intervalo simétrico respecto del origen, el sumando impar −x/5 tiene integral nula,
por lo tanto:
Z 2
1 2 2
Z Z 2
8 14
S= p(x) dx = (x + 1) dx = (x2 + 1) dx = + 2 = .
−2 2 −2 0 3 3

4.3 Matriz de simetrı́a ortogonal


Ahora, el objetivo es calcular un vector u0 ∈ R que sea imagen especular de u respecto
del subespacio M . A este elemento se conoce como el simétrico ortogonal de u y puede
calcularse con la ayuda de la proyección de u sobre M (4.2):

Figure 4.2: Vector simétrico de u respecto al subespacio M

u0 = u + 2(PM u − u) = u + 2PM u − 2u = (2PM − I)u = SM u

Ası́, se llega a la definición de una matriz SM que relaciona u con su simétrico orto-
gonal.
Capı́tulo 4 85

Definición 64 (matriz de simetrı́a ortogonal respecto a un subespacio) Sea M un


subespacio de Rn y PM la matriz de la proyección ortogonal sobre M . Entonces

SM := 2PM − I (4.7)

es la matriz de simetrı́a ortogonal respecto de M .

4.3.1 Propiedades de las matrices de simetrı́a ortogonal


Se cumplen las siguientes propiedades:

• SM es simétrica y ortogonal, es decir: S−1 t


M = SM = SM . En efecto:

StM = (2PM − I)t = 2PtM − I = SM y

S2M = (2PM − I)2 = 4P2M − 4PM + I = I.

• M = ker (SM − I) = Im (SM + I)

• En particular, si M = L [v] es la recta engendrada por un vector no nulo v, la


matriz de simetrı́a ortogonal es:
2
SL[v] = t
vvt − I. (4.8)
vv

• Si PM es la matriz de proyección ortogonal respecto a M , entonces la matriz de


simetrı́a ortogonal respecto a M ⊥ es

SM ⊥ = 2PM ⊥ − I = 2 (I − PM ) − I = I − 2PM . (4.9)

• Un caso de interés es la matriz de simetrı́a respecto a un hiperplano H de Rn , es


decir, un subespacio de dimensión n − 1. Si v 6= 0 es un vector ortogonal a H,
entonces la matriz de simetrı́a ortogonal respecto a H es, según (4.9) y (4.8),
2
SH = I − 2PL[v] = I − vvt . (4.10)
vt v
Dicha matriz de simetrı́a se denomina matriz de Householder y se denota fre-
cuentemente como Hv .

Proposición 29 Si una matriz S es simétrica y ortogonal, entonces es matriz de simetrı́a


ortogonal respecto a Im (S + I).

Demostración: Para que S sea la matriz de una simetrı́a ortogonal (véase la relación
(4.7)) es necesario y suficiente que
1
P := (S + I)
2
86 Álgebra (2019/20)

sea una proyección ortogonal; equivalentemente, por la proposición 27, P = P2 = Pt . De


la simetrı́a de S se deduce inmediatamente la simetrı́a de P, en cuanto a la idempotencia:
1 1 2  1
P2 = (S + I)2 = S + 2S + I = (S + I) = P.
4 4 2
Por último, P es matriz de proyección sobre su imagen, pero Im P = Im (S + I). 
n
Todo lo visto en este apartado es similar en el caso de C , sustituyendo la trasposición
por trasposición y conjugación, resultando las matrices de simetrı́a ortogonal hermı́ticas
y unitarias.

4.4 Giros en R2 y en R3
Un giro en el plano o en el espacio puede percibirse como una transformación geométrica
lineal que preserva tanto la forma como las distancias al origen de los puntos de la figura
transformada. La matriz de una aplicación lineal que preserva la forma tiene determinante
uno, mientras que su ortogonalidad garantiza que las normas de los vectores transformados
permanezcan invariantes (Proposición 24). Ésto motiva la siguiente definición de matriz
de giro, generalizando para espacios de dimensión n:

Definición 65 (Matriz de giro) G ∈ Rn×n es un una matriz de giro si es ortogonal y


su determinante es igual a la unidad.

4.4.1 Matriz de giro en R2


Sea G ∈ R2×2 , ortogonal y de determinante
 igual a 1. Conforme al ejercicio 3.15, dicha
cos ϕ −senϕ
matriz será de la forma G = , donde ϕ ∈ [0, 2π). Se tendrá, por
    senϕ cos  ϕ 
1 cos ϕ 0 − sen ϕ
tanto, que G = yG = . Estos resultados tienen la
0 sen ϕ 1 cos ϕ
siguiente interpretación geométrica: se trata de un giro, en sentido contrario a las agujas
del reloj, alrededor del origen de R2 de ángulo de giro igual a ϕ, tal como se indica en la
figura 4.3.

4.4.2 Matriz de giro en R3


Dada una recta L[u] en el espacio R3 , orientada según el vector director unitario u, y
dado un número ϕ ∈ [0, 2π), la aplicación G que a cada vector de R3 le asigna su girado
un ángulo ϕ alrededor del eje L[u], es lineal. Veamos cómo calcular la matriz de dicha
aplicación lineal.
A partir del vector unitario u del eje de giro, tomamos cualquier vector v unitario or-
togonal a u, y definimos w = u×v; de esta forma
 hemos completado una base ortonormal
3
de R (u, v, w). La matriz Q = u v w que contiene por columnas dichos vectores,
es matriz ortogonal y además tiene determinante 1 (puesto que w = u × v). El giro G
Capı́tulo 4 87

Figure 4.3: Giro en el plano

obviamente deja fijo el vector u del eje de giro, y en el plano ortogonal al eje de giro,
L[v, w], produce un giro de ángulo ϕ como el que acabamos de definir en R2 ; ası́ pues,
los girados de los vectores de dicha base son

 G (u) = u
G (v) = cos ϕv + sen ϕw
G (w) = − sen ϕv + cos ϕw

 
1 0 0
luego la matriz del giro G en dicha base es  0 cos ϕ −senϕ .
0 senϕ cos ϕ
Finalmente, la matriz G de dicho giro respecto a la base canónica es (tras el cambio
de base de la aplicación):
 
1 0 0
G = Q  0 cos ϕ − sen ϕ  Q−1 .
0 sen ϕ cos ϕ

Además, como Q es ortogonal, se tiene que Q−1 = Qt . Con todo ello, la matriz G del
giro en la base canónica puede calcularse como
 
 1 0 0 t
G = u v w  0 cos ϕ − sen ϕ  u v w . (4.11)
0 sen ϕ cos ϕ

Obsérvese que G es matriz ortogonal, al ser producto de tres matrices ortogonales, y


det G = 1; en otras palabras, G cumple las dos propiedades de la definición de matriz
de giro. Aún más, el recı́proco es cierto, es decir: toda matriz ortogonal de orden 3 y
determinante igual a 1, representa geométricamente un giro alrededor de algún eje de R3 .
88 Álgebra (2019/20)

4.5 Ejercicios
4.1.– Hállese la matriz de proyección ortogonal sobre la recta x = y = 2z. Calcúlese
asimismo la matriz de simetrı́a ortogonal respecto a esa misma recta.

4.2.– Escrı́banse la matriz de proyección ortogonal sobre el plano 2x + 2y + z = 0, y la


matriz de simetrı́a ortogonal respecto a dicho plano.

4.3.– Hállese la matriz de proyección ortogonal sobre el subespacio de R4 determinado


por las ecuaciones

x1 + x2 = 0,
x3 + x4 = 0.

 
b c −2
4.4.– Sea P = a  −4 5 d  una matriz no nula.
−2 −2 8

1. Calcúlense los valores reales a, b, c y d para que P sea la matriz de una proyección
ortogonal en R3 .

2. Siendo P la matriz obtenida a partir de los resultados del apartado 1, determı́nese


una base ortonormal del subespacio M de R3 sobre el que proyecta P.

3. Siendo P la matriz obtenida a partir de los resultados del apartado 1, determı́nese


la matriz de proyección ortogonal sobre M ⊥ .

4.5.– Determı́nense las matrices de Householder tales que

1. Hv (2, 2, −1)t = (3, 0, 0)t

2. Hw (2, 2, −1)t = (−3, 0, 0)t .

Estúdiese la relación que existe entre los vectores v y w.

4.6.– Dada la base ortogonal


√   √ 

1/ 2 −√ 2
B=  
√0
 , 
√2

2 1/ 2

1. Calcular la matriz de proyección ortogonal SM de R3 sobre el subespacio M engen-


drado por la base B.
Capı́tulo 4 89

2. El sistema de ecuaciones

 −x1 + x2 = 1,
x1 + x2 − x3 = 0,
ax1 − x2 + x3 = −1,

es compatible determinado para todo a real. Obtener el sistema de ecuaciones cuya


solución para cada valor de a es igual al simétrico ortogonal de la solución del sistema
original para la misma a respecto al subespacio M .

4.7.– Calcúlese la solución de mı́nimos cuadrados del sistema


   
1 0   1
 1 1  x = 2 
y
2 1 1
4.8.– Determı́nese la solución de mı́nimos cuadrados del sistema
   
1 1   0
 2 1  x =  1 .
y
2 1 2
4.9.– Una aplicación del problema de mı́nimos cuadrados encontrar la recta de regresión
que represente la relación estadı́stica entre una variable independiente x y una variable
dependiente y.
Dados los puntos del plano de coordenadas (xk , yk ) con k = 1, 2, . . . , n, la recta de
regresión de y sobre x es la recta de ecuación
Pn y = mx + p, cuyas pendiente m y ordenada
en el origen p minimizan la expresión k=1 (yk − mxk − p)2 .
1. Dedúzcase la expresión explı́cita de los coeficientes m y p.
2. Durante un experimento, se miden en instantes dados los siguientes pares de vari-
ables: (2, 1), (4, 2), (6, 3), (8, 1), (10, 2). Hállase la recta de regresión de estos puntos.

4.10.–
1. Calcúlese la proyección ortogonal del vector (1, 1, 1) sobre el subespacio

F = L [(1, 1, 0), (1, 2, 1), (0, 1, 1)]

2. Calcúlese la solución de mı́nimos cuadrados del sistema


    
1 1 0 x 1
 1 2 1  y  =  1 
0 1 1 z 1
 
1 b −8
4.11.– Sea S = a  c 7 −4  ∈ R3×3 .
d −4 1
90 Álgebra (2019/20)

1. Calcúlense los valores reales a, b, c y d para que S sea la matriz de una simetrı́a
ortogonal en R3 .

2. Siendo S la matriz obtenida a partir de los resultados del apartado 1 con a > 0,
determı́nese una base ortonormal del subespacio L de R3 respecto al que S simetriza.

3. Siendo S la matriz obtenida a partir de los resultados del apartado 1 con a < 0,
determı́nense unas ecuaciones cartesianas del subespacio M de R3 respecto al que
S simetriza.

4. Estúdiese si M es el suplemento ortogonal de L en R3 .

5. Estúdiese en cuál de los dos casos anteriores (2. o 3.) es S una matriz de Householder
y determı́nese un vector v que la defina.

4.12.– Calcúlese la matriz de giro de ángulo 3
en torno al vector (1, 1, 1).

4.5.1 Cuestiones
4.13.– Márquese la única proposición falsa.
Si P ∈ Rn×n es matriz de proyección ortogonal, entonces

1. Rn = ker P ⊕ Im P

2. Pt = P2

3. (ker P)⊥ = Im (I − P)

4. ∀u ∈ Im (I − P), Pu = 0

4.14.– Indı́quense las afirmaciones que son verdaderas y las que son falsas.
Si M es un subespacio vectorial de Rn , entonces

1. SM = I − 2PM

2. PM + PM ⊥ = I

3. SM ⊥ PM = −PM

4. PM ⊥ PM = O

5. SM ⊥ SM = −I

4.15.– Demuéstrese la siguiente proposición si es verdadera o dese un contraejemplo si


es falsa: “Si P ∈ Rn×n es matriz de proyección ortogonal y b ∈ Rn , entonces Pb es la
solución de mı́nimos cuadrados del sistema Px = b”.
Capı́tulo 5

Diagonalización

5.1 Introducción.

5.2 Matrices semejantes y matrices diagonalizables.

5.3 Valores y vectores propios. Polinomio caracterı́stico.

5.4 Diagonalización.

5.5 Ejercicios. Cuestiones.

5.1 Introducción
En este capı́tulo estudiaremos condiciones necesarias y suficientes para que una matriz sea
semejante a una matriz diagonal (o dicho de otra forma, que pueda representarse por una
matriz diagonal), lo que equivale a encontrar una base de vectores que se transforman en
proporcionales a sı́ mismos. Un vector no nulo x es vector propio de A si se transforma
en su propia dirección, es decir si se cumple que Ax = λx. El escalar λ es el valor propio
asociado a x.
En gran número de aplicaciones los valores y vectores propios tienen un claro signifi-
cado geométrico. Consideremos por ejemplo la matriz de simetrı́a respecto a un plano
en R3 . Todos los vectores de ese plano coinciden con sus transformados, luego son vectores
propios asociados con el valor propio 1 (Ax = x). Sin embargo, un vector perpendicular
al plano de simetrı́a mantiene su dirección y cambia de sentido (Ax = −x), luego es un
vector propio asociado con el valor propio −1.
Consideremos ahora la matriz de giro que represente por ejemplo la apertura de una
puerta en R3 . ¿Hay algún vector asociado a la puerta que no cambie de dirección al girar
la puerta 60o ? Sı́, los del eje de la puerta, que serán vectores propios asociados con el
valor propio 1. Es fácil ver que no hay ningún otro vector asociado a la puerta que no
cambie de dirección con ese giro.

91
92 Álgebra (2019/20)

El cálculo de valores y vectores propios tiene una gran importancia en muchas áreas
de la ingenierı́a, como por ejemplo al análisis sı́smico de estructuras. Otro ejemplo in-
teresante es el algoritmo original de Google para ordenar los resultados de las búsquedas.
Este algoritmo, denominado PageRank, está basado en el cálculo del vector propio aso-
ciado con el máximo valor propio de una matriz con tantas filas y columnas como páginas
web hay en Internet, y formada a partir de los enlaces de llegada y de salida que relacionan
cada página con las restantes.

Nota: Veremos a lo largo del tema que los valores propios están relacionados con las raı́ces
de un cierto polinomio; en virtud del teorema fundamental del Álgebra (véase el apéndice
3) los polinomios complejos admiten tantas raı́ces como su grado indica. Para garantizar
la existencia de valores propios contemplaremos únicamente matrices complejas, si bien
en los ejemplos casi siempre serán reales pero vistas como complejas con parte imaginaria
nula.

5.2 Matrices semejantes y matrices diagonalizables


Definición 66 Dos matrices cuadradas A y B se dicen semejantes si existe una matriz
invertible P tal que P−1 AP = B.

Definición 67 Una matriz cuadrada A es diagonalizable cuando es semejante a una


matriz diagonal, es decir cuando existe una matriz P invertible tal que P−1 AP es diago-
nal.

Las matrices semejantes comparten muchas propiedades, como se verá en detalle a lo


largo de este tema. Por ejemplo, a partir de la definición es fácil observar que tienen el
mismo determinante.

5.3 Valores y vectores propios


Definición 68 (valor y vector propio) Sea A una matriz cuadrada de orden n.

• Se dice que un escalar λ de C es un valor propio o autovalor de la matriz A si


existe un vector v, perteneciente a Cn , no nulo y tal que Av = λv.
• Se dice que un vector v de Cn es un vector propio o autovector de la matriz A si
v es no nulo y además existe un escalar λ en C tal que Av = λv.

Observaciones:
• Dada una matriz A cuadrada cualquiera, la ecuación Av = λv admite la solución
nula, cualquiera que sea el valor de λ; por ese motivo en la definición de vector
propio se excluye el vector nulo. Es decir, los valores de λ significativos son los que
resuelven la ecuación para vectores no nulos.
Capı́tulo 5 93

• Sin embargo, λ = 0 sı́ puede ser un valor propio de A, en concreto, asociado a los
vectores (no nulos) de ker A, es decir, cuando dim ker A ≥ 1.

• Si A es real y admite un valor propio real, los vectores propios correspondientes


pueden escogerse reales.

• Si la matriz A es una matriz diagonal, entonces los elementos diagonales son valores
propios, mientras que los vectores de la base canónica son vectores propios.

• Si la matriz A es triangular, entonces los elementos diagonales son sus valores


propios, pero los vectores canónicos ya no son, en general, sus autovectores, aunque
el que algunos puedan serlo dependerá de la estructura de la matriz triangular.

A todo valor propio corresponde, al menos, un vector propio y todos los vectores
proporcionales al mismo (con excepción del vector nulo), ya que los proporcionales no
nulos de un vector propio son vectores propios asociados al mismo valor propio.
De hecho, el conjunto de todos los vectores propios asociados a un determinado valor
propio constituye, junto con el vector nulo, un subespacio vectorial al que se denominará
subespacio caracterı́stico o propio de la matriz asociado al susodicho valor.

Definición 69 Si λ es valor propio de una matriz A, se denomina subespacio carac-


terı́stico (o subespacio propio) de A asociado a λ al conjunto de vectores propios
asociados a λ, junto con el vector nulo.

Obsérvese que dicho conjunto coincide con el subespacio ker(A − λI). En efecto, basta
observar que los vectores propios v asociados a λ verifican Av − λv = 0. Es decir, son
las soluciones no nulas del sistema lineal homogéneo (A − λI)x = 0, por consiguiente, el
subespacio caracterı́stico asociado a λ es el núcleo de la matriz A − λI.

Proposición 30 Si v1 , v2 , . . . , vr son r vectores propios de una matriz A, asociados


respectivamente a r valores propios λ1 , λ2 , . . . , λr , distintos dos a dos, entonces dichos
vectores son linealmente independientes.

Demostración: Se demostrará por inducción sobre el número r de valores propios


distintos. Está claro que el conjunto cuyo único vector propio es v1 es libre, porque
es vector propio y, por tanto, no nulo. Supóngase ahora r > 1. Como hipótesis de
inducción se establece que la proposición anterior es cierta para r − 1 vectores propios en
las condiciones del enunciado.
En base a dicha hipótesis, se parte de que los vectores v2 , v3 , . . . , vr son linealmente
independientes.
Considérese la siguiente combinación lineal nula de los r vectores:

α1 v1 + α2 v2 + . . . + αr vr = 0 (5.1)
94 Álgebra (2019/20)

Se ha de probar que los escalares αj , j = 1, . . . , r son nulos. Premultiplicando la expresión


(5.1) por A y teniendo en cuenta que Avi = λi vi se obtiene:
α1 λ1 v1 + α2 λ2 v2 + . . . + αr λr vr = 0 (5.2)
Si a la expresión (5.2) se le resta la expresión (5.1) multiplicada por λ1 se obtiene:
α2 (λ2 − λ1 )v2 + α3 (λ3 − λ1 )v3 + . . . + αr (λr − λ1 )vr = 0 (5.3)
Por la hipótesis de inducción en esta combinación lineal los vectores son linealmente
independientes, luego los coeficientes deben ser nulos. Como (λi − λ1 ) 6= 0, se sigue que
αk = 0, k = 2, . . . , r. Llevando este resultado a la expresión (5.1) y teniendo en cuenta
que v1 es no nulo, se sigue que también α1 = 0 y por tanto los r vectores v1 , v2 , . . . , vr
son independientes. 

Observación: En particular, si una matriz A de orden n tiene n valores propios distin-


tos, entonces escogiendo sendos vectores propios asociados a cada uno de ellos se construye
una base de Cn . Si se forma una matriz P con los vectores propios de esa base, entonces
la matriz P−1 AP es una matriz diagonal semejante a A y por tanto A es diagonalizable.
En efecto, las ecuaciones Avi = λi vi , i = 1, 2, . . . , n se pueden escribir conjuntamente
en la forma:
 
λ1
  λ2 
A v1 v 2 · · · v n = v1 v 2 · · · v n  (5.4)
 
. . 
 . 
λn

Si D = diag (λ1 , λ2 , . . . , λn ) y P = v1 v2 · · · vn la ecuación (5.4) se puede
escribir abreviadamente en las formas:
AP = PD (det P 6= 0) (5.5)

P−1 AP = D (5.6)
Sin embargo, la existencia de n valores propios distintos es condición suficiente pero
no necesaria para que exista tal base; por ejemplo, si se considera la matriz identidad,
con “1” como único autovalor, toda base de Cn es de vectores propios de esta matriz.
Se pueden encontrar otros ejemplos no tan triviales: matrices diagonales con elementos
repetidos, etc.

Definición 70 (espectro y radio espectral) Sea A una matriz cuadrada compleja.

• Se llama espectro de la matriz A al conjunto de todos sus valores propios.


• Se llama radio espectral de una matriz A al máximo de los módulos de los valores
propios. Se suele denotar como ρ(A).
Capı́tulo 5 95

5.3.1 Polinomio caracterı́stico


Ya se ha visto que si λ es un valor propio de una matriz A, el subespacio caracterı́stico
asociado es precisamente ker(A − λI). Para que el sistema homogéneo admita solución
no trivial es necesario que la matriz A − λI tenga rango inferior a su orden o, equiva-
lentemente, que su determinante sea nulo. He aquı́ entonces, un procedimiento para
calcular los valores y vectores propios de una matriz: una vez calculadas las raı́ces de
la ecuación det(λI − A) = 0, se resuelven los sistemas lineales homogéneos (λI − A)x = 0
para cada una de dichas raı́ces y las soluciones no nulas serán vectores propios.
Si consideramos

λ − a11 −a12 · · · −a 1n


−a21 λ − a22 · · · −a2n
|λI − A| = , (5.7)

.. .. ... ..

. . .

−an1 −an2 · · · λ − ann

observamos que el desarrollo de tal determinante nos da un polinomio en la indeterminada


λ, cuyo término de mayor grado, que se obtiene a partir del producto de los elementos de
la diagonal, es λn ; se trata, pues, de un polinomio mónico de grado igual al orden de la
matriz.

Observación: Desde un punto de vista práctico (numérico), el cálculo de valores propios


es difı́cil ya que no existe regla para calcular a mano las raı́ces de un polinomio de grado
superior a 4; incluso las fórmulas para calcular las raı́ces de polinomios de grados 3 y 4
–aunque conocidas– son poco prácticas. En este curso los ejercicios son sencillos porque
lo que se pretende es que se comprendan las ideas teóricas. En cualquier texto básico de
Álgebra Numérica se explican algoritmos para el cálculo aproximado de valores propios.

Definición 71 Dada A ∈ Cn×n , se llama polinomio caracterı́stico de A, y se denota


por χA , al polinomio mónico de grado n definido por

χA (λ) := |λI − A|, (5.8)

cuyas raı́ces son los autovalores de A.

Definición 72 Dada A ∈ Cn×n , un autovalor λ de A se dice que tiene multiplici-


dad algebraica igual a m si tiene multiplicidad m como raı́z de χA . La dimensión del
subespacio ker(A − λI) se llama multiplicidad geométrica de λ.

Proposición 31 Dos matrices semejantes tienen el mismo polinomio caracterı́stico.

Demostración: Sean A, B dos matrices semejantes, relacionadas por B = P−1 AP,


entonces:

χB (λ) = det (λI − B) = det (λI − P−1 AP)


= det [P−1 (λI − A)P] = det (λI − A) = χA (λ)
96 Álgebra (2019/20)

Como corolario se deduce que dos matrices semejantes tienen la misma traza (opuesto
del coeficiente de λn−1 en el polinomio caracterı́stico), ası́ como el mismo determinante
((−1)n por el término independiente).

5.3.2 Propiedades de los autovalores


Sea A una matriz compleja de orden n, entonces:
• En virtud del corolario del teorema fundamental del Álgebra (véase el apéndice 3),
A tiene n autovalores.
• El término independiente de χA es χA (0) = det(−A) = (−1)n det A. Por otro
lado, el término independiente de un polinomio mónico es (−1)n multiplicado por
el producto de sus raı́ces, concluimos que
det A = λ1 λ2 . . . λn , (5.9)
en donde los λj anteriores representan todos los autovalores de A, multiplicados
tantas veces como indiquen sus multiplicidades.
• El término de grado n − 1 de χA se obtiene también a partir de la suma de todos
los elementos de la diagonal principal:
χA (λ) = (λ − a11 )(λ − a22 ) . . . (λ − ann ) + · · ·
= λ − (a11 + a22 + . . . + ann )λn−1 + (términos de grado menor que n − 1) (5.10)
n

Se observa, pues, que el coeficiente de grado n − 1 de χA es el opuesto de la traza


de A. Además dicho coeficiente coincide con el opuesto de la suma de las raı́ces y,
en conclusión,
trA = λ1 + λ2 + . . . + λn , (5.11)
siendo los λj todos los autovalores de A, sumados tantas veces como indiquen sus
multiplicidades algebraicas.
• Si la matriz A es invertible, los valores propios de la inversa son los inversos de
los valores propios de A. Para comprobar la relación entre valores propios basta
observar las equivalencias:
1
Av = λv ⇐⇒ v = λA−1 v ⇐⇒ A−1 v = v (5.12)
λ
Está claro que todos los valores propios λ de esta matriz han de ser distintos de
cero, puesto que si la matriz es invertible, el sistema homogéneo asociado Ax = 0
solo admite solución trivial.
Además, cada valor propio de A y su correspondiente inverso, valor propio de A−1 ,
tienen igual multiplicidad algebraica.
Capı́tulo 5 97

• Las matrices reales de orden impar tienen, al menos, un valor propio real.

• La matriz
 
0 1
A= (5.13)
−1 0

tiene como polinomio caracterı́stico λ2 + 1. Como matriz real no admite valores


propios, mientras que como matriz compleja admite dos distintos i y −i: existe una
base de C2 (no real) formada por vectores propios de A.

• Si una matriz real (contemplada como matriz compleja) tiene un valor propio com-
plejo α, con parte imaginaria no nula, entonces α es también valor propio con la
misma multiplicidad algebraica que α. Además, los vectores propios correspondien-
tes pueden tomarse conjugados:

Av = αv ⇐⇒ Av = α v (5.14)

Como consecuencia, {v, v} es libre.

• La igualdad de los polinomios caracterı́sticos es una condición necesaria, no suficiente


de semejanza. Por ejemplo, la matriz
 
0 1
A= (5.15)
0 0

tiene por polinomio caracterı́stico λ2 , al igual que la matriz nula, sin embargo A no
es semejante a la nula ya que no tienen el mismo rango; además, la única matriz
semejante a la matriz nula es ella misma.

• Dadas dos matrices A ∈ Cm×n y B ∈ Cn×m , se verifica la siguiente relación:

λn χAB (λ) = λm χBA (λ) (5.16)

Este resultado se demuestra parcialmente en el problema 5.16.

Ejemplo: Calcular los valores y vectores propios de la matriz


 
1 0 0
A=  1 4 −1  (5.17)
−1 0 2

Calculemos en primer lugar su polinomio caracterı́stico



λ−1 0 0

χA (λ) = −1 λ − 4 1 = (λ − 1)(λ − 4)(λ − 2) (5.18)
1 0 λ−2
98 Álgebra (2019/20)

Para calcular los vectores propios asociados con λ = 1 resolvamos:


    
0 0 0 x1 0
(A − I)x =  1 3 −1   x2  =  0  (5.19)
−1 0 1 x3 0

Las soluciones son los múltiplos de v1t = (1, 0, 1). Análogamente, los vectores propios
asociados a λ = 4:
    
−3 0 0 x1 0
(A − 4I)x =  1 0 −1   x2  =  0  (5.20)
−1 0 −2 x3 0

Las soluciones son los múltiplos de v2t = (0, 1, 0). Por último, para el valor propio λ = 2
se tiene
    
−1 0 0 x1 0
(A − 2I)x =  1 2 −1   x2  =  0  (5.21)
−1 0 0 x3 0

Las soluciones son los múltiplos de v3t = (0, 1, 2).


Los vectores v1 , v2 , v3 son linealmente independientes. Si P es la matriz cuyas colum-
nas son dichos vectores,

 
 1 0 0
P= v1 v 2 vn =  0 1 1  (5.22)
1 0 2

el producto AP tiene como primera columna v1 , como segunda 4v2 y como tercera 2v3 .
Dicho de otra forma, se verifica AP = Pdiag (1, 4, 2). Equivalentemente, P−1 AP =
diag (1, 4, 2).

Ejemplo: Calcular los valores y vectores propios de la matriz


 
2 1 1
A=  1 2 1  (5.23)
1 1 2

Calculemos en primer lugar su polinomio caracterı́stico



λ−2 −1 −1

χA (λ) = −1 λ − 2 −1 = λ3 − 6λ2 + 9λ − 4 = (λ − 4)(λ − 1)2 (5.24)
−1 −1 λ − 2
Capı́tulo 5 99

Para calcular ahora los vectores propios asociados con λ = 4 resolvamos:


    
−2 1 1 x1 0
(A − 4I)x =  1 −2 1   x2  =  0  (5.25)
1 1 −2 x3 0

Las soluciones son los múltiplos de v1t = (1, 1, 1). Los vectores propios asociados al valor
propio doble λ = 1:
    
1 1 1 x1 0
(A − I)x =  1 1 1   x2  =  0  (5.26)
1 1 1 x3 0

La matriz anterior tiene rango 1 y por tanto hay un subespacio propio de dimensión 2
asociado con λ = 1. Tomando x2 y x3 como variables libres a las que se da alterna-
tivamente valor 1 ó 0 se obtienen las soluciones v2t = (−1, 1, 0) y v3t = (−1, 0, 1). Los
vectores propios correspondientes son todas las combinaciones lineales no nulas de estos
dos vectores.

5.4 Diagonalización
En el primer ejemplo se ha encontrado una matriz diagonal semejante a la matriz original
A. Los elementos de la diagonal son los valores propios de A, mientras que las columnas
de la matriz P son vectores propios. En el segundo ejemplo también se han encontrado
tres vectores propios linealmente independientes, a pesar de que uno de los valores propios
es doble.
De una forma más general, si una matriz cuadrada A es semejante a una diagonal D,
entonces la relación AP = PD significa que la columna j-ésima de P es proporcional a
la j-ésima de AP. Dicho con otras palabras, el elemento j de la diagonal D es un valor
propio de A y tiene como vector propio asociado precisamente la columna j de P. Se
tiene que las columnas de P son una base de Cn formada por vectores propios de A.

Proposición 32 Sea A una matriz cuadrada de orden n. Supóngase que el polinomio


caracterı́stico de A admite la factorización:

χA (λ) = (λ − λ1 )σ1 . . . (λ − λr )σr (5.27)

donde λj , j = 1, . . . , r son los valores propios distintos (dos a dos) de A y σj sus multi-
plicidades respectivas. Entonces, para cada j = 1, . . . , r se tiene

1 ≤ dim ker(A − λj I) ≤ σj (5.28)

Es decir, la multiplicidad geométrica es menor o igual que la algebraica.


100 Álgebra (2019/20)

Demostración: La demostración se hará construyendo una matriz semejante a A y


tal que admita λj como valor propio de multiplicidad al menos igual a la dimensión del
subespacio caracterı́stico asociado. Para ello, se considera una base B de Cn tal que los
m primeros vectores formen una base del subespacio ker(A − λj I), supuesto de dimensión
igual a m. Es obvio que m es mayor o igual que 1 puesto que λj se calcula de modo que
la matriz (A − λj I) tenga determinante nulo y, en consecuencia, rango menor que n.
Si P representa la matriz cuyas columnas son los vectores de la base B entonces P es
invertible y se verifica la igualdad
 
−1 λj Im B
P AP = (5.29)
0 C

en la cual Im representa la matriz identidad de orden m, B es una matriz m × (n − m)


y C es cuadrada de orden n − m. Es claro que el polinomio caracterı́stico de esta matriz
coincide con el de A por semejanza y es igual a (λ − λj )m χC (λ). Se tiene entonces que
λj es valor propio de A de multiplicidad por lo menos m. 

Proposición 33 (caracterización de matriz diagonalizable) Sea A una matriz com-


pleja, cuadrada de orden n. Entonces A es diagonalizable en C si, y solamente si, para
cada valor propio de A las multiplicidades algebraica y geométrica coinciden.

Obsérvese que una matriz real puede ser no diagonalizable en R, pero diagonalizable
en C, por ejemplo
 
0 1
. (5.30)
−1 0

Observaciones: Todas las propiedades siguientes se enuncian para una matriz cuadrada
de orden n:

1. Si A es diagonalizable, entonces At , Ā y Āt también lo son (y la matriz de paso


que la diagonaliza es la inversa de la transpuesta de la de A).
En efecto, si P−1 AP = D diagonal, entonces

D = Dt = (P−1 AP)t = Pt At (P−1 )t = Pt At (Pt )−1 . (5.31)

2. Si A es diagonalizable e invertible, entonces A−1 también lo es (y la matriz de


paso que la diagonaliza es la misma que la de A).
En efecto, si P−1 AP = D = diag(λ1 , . . . , λn ) con todos los λj no nulos, entonces

diag(λ−1 −1
1 , . . . , λn ) = D
−1
= (P−1 AP)−1 = P−1 A−1 P. (5.32)
Capı́tulo 5 101

3. Si A es diagonalizable, entonces cualquier potencia de A también lo es (y la matriz


que la diagonaliza es la misma).
En efecto, P−1 AP = D = diag(λ1 , . . . , λn ) implica que
k
diag λk1 , ..., λkn = Dk = P−1 AP =


= P−1 AP P−1 AP · · · P−1 AP = P−1 Ak P


  
(5.33)

El recı́proco no es 
cierto. Una
 potencia diagonalizable no implica que A lo sea. Por
0 1
ejemplo la matriz no es diagonalizable, aunque su cuadrado es la matriz
0 0
nula que es un caso particular de matriz diagonal.

5.4.1 Polinomios de matrices


Sea A una matriz compleja y sea
m
X
P (λ) = aj λ j (5.34)
j=0

un polinomio cualquiera. Se define la matriz P (A) como la que se obtiene sustituyendo


en la expresión del polinomio las potencias de λ por potencias de A, es decir:
m
X
P (A) := aj Aj = a0 I + a1 A + a2 A2 + · · · + am Am (5.35)
j=0

donde se toma por convenio, A0 = I.

Observaciones:
1. Si λ0 es valor propio de una matriz A, entonces para cualquier polinomio P , P (λ0 )
es valor propio de P (A).

2. Los vectores propios de A lo son de P (A) para cualquier polinomio P .


¡Atención! elrecı́procono es, necesariamente, cierto. Considérese por ejemplo la
1 0
matriz A = , cuyos valores propios son 1 y −1. Los correspondientes
0 −1    
1 0
vectores propios son v1 = y v2 = . Considérese el caso particular
0 1
P (A) = A2 y obsérvese que A2 = I. Ası́ como todos los vectores propios de A son
vectores propios deI, elrecı́proco no es cierto porque cualquier vector no nulo en
1
R2 , por ejemplo el , es vector propio de I, pero no tiene por qué serlo de A.
1
102 Álgebra (2019/20)

3. Si A es diagonalizable, entonces P (A) también lo es, cualquiera que sea el polinomio


P . En efecto, todas las potencias de A son diagonalizadas por la misma matriz P y
como consecuencia la matriz P (A) también es diagonalizada por P. Si P−1 AP = D,
con D diagonal, entonces
P−1 P (A)P = P (D) (5.36)

5.4.2 Valores propios de matrices hermiticas, antihermı́ticas y


unitarias:
Los autovalores de estos tipos de matrices presentan unas propiedades interesantes que
demostramos a continuación:
Proposición 34 1. Si una matriz es hermı́tica, entonces sus valores propios son reales
2. Si una matriz es antihermı́tica, entonces sus valores propios son imaginarios puros
3. Si una matriz es unitaria, entonces sus valores propios tienen módulo 1.
Demostración:
1. Sea A hermı́tica, tomemos un valor propio suyo λ y demostremos que es real: existe
un autovector x 6= 0 asociado a dicho autovalor, de forma que Ax = λx. Realicemos
el producto escalar estándar entre x y Ax :
hAx, xi = hλx, xi = λ kxk2 (5.37)
y ahora en orden inverso
hx, Axi = (Ax)h x = xh Ah x = xh Ax = λ xh x = λ kxk2


donde hemos utilizado que Ah = A. Pero por la simetrı́a hermı́tica del producto
escalar, estos dos números son conjugados el uno del otro, ası́ que debe ser λ∗ = λ
con lo que se deduce que λ es real.
2. Si A es antihermı́tica, el razonamiento es parecido: tomemos un valor propio suyo
λ y autovector asociado x. Por un lado, sigue cumpléndose la ecuación (5.37); por
otro lado, realizamos el producto escalar
hx, Axi = (Ax)h x = xh Ah x = − xh Ax = − λ xh x = −λ kxk2


donde hemos utilizado que Ah = A. Pero estos dos productos escalares son con-
jugados entre sı́, luego debe ser λ∗ = −λ con lo que se deduce que λ es imaginario
puro.
3. Si A es unitaria, se sabe que conserva la norma estándar (kxk = kAxk) luego
aplicándolo a un autovector x asociado a un autovalor λ,se tiene que
kxk = kAxk = kλxk = |λ| · kxk
de donde |λ| = 1, como se querı́a demostrar.
En el próximo tema estudiaremos las propiedades de diagonalización de algunas de
estas familias de matrices.
Capı́tulo 5 103

5.5 Ejercicios
5.1.– Calcular los valores y vectores propios de cada una de las siguientes matrices
 
    −3 −2 −1
−3 2 3 −1
A= , B= , C= 6 4 2 ,
−2 2 4 −1
−2 −1 −1
     
0 1 1 −1 −1 −1 3 1 3
D =  −1 −2 −1  , E =  4 3 2 , F =  0 1 −2 
1 1 0 −2 −1 −1 −2 −1 −1
analizando si son o no diagonalizables. Para aquellas que sean diagonalizables determinar
una matriz que las diagonalice.
5.2.– Calcular valores de a y b que hacen que (1, 1, −1)t sea un autovector de la
los 
−b 2 0
matriz  a b 1 .
0 0 a
 
1 −a + 1 −1
5.3.– Indicar los valores de a ∈ R para que  0 −2 −3  sea semejante a
0 −2 −1
diag (1, −4, 1).
 
−1 −1 0
5.4.– Hallar el valor del parámetro a que hace que la matriz  −2 −1 a  no sea
0 1 −1
diagonalizable.
5.5.– Estudiar si la matriz  
0 1 −6
A= 1 0 2 
1 0 2
es diagonalizable y diagonalizarla en caso afirmativo.
5.6.– Comprobar que una matriz y su traspuesta tienen el mismo polinomio caracterı́stico
y, por tanto, los mismos valores propios. Analizar lo que sucede con los vectores propios.
5.7.– Sea A una matriz cuyo polinomio caracterı́stico es χA (z) = (z − 3)13 (z + 4)7 .
Hallar el polinomio caracterı́stico de A − 2I.
5.8.– Dados dos vectores a y b en Rn , determı́nense los valores y vectores propios de la
matriz de rango unidad abt . Como aplicación, hállense los valores y vectores propios de
la matriz  
1 1 ··· 1
 2 2 ··· 2 
 
 .. .. . . .. 
 . . . . 
n n ··· n
104 Álgebra (2019/20)

5.9.– Establecer la relación que existe entre los valores y vectores propios de una matriz
compleja M y los de la matriz aI + bM siendo a, b números complejos no nulos arbitrarios
–se aconseja revisitar el problema ??–. Como aplicación, deducir los valores y vectores
propios de la matriz  
c d ··· d
 d c ··· d 
 .. .. . . ..  .
 
 . . . . 
d d ··· c

5.10.– Hallar los valores propios de la matriz


 
0 −c b
W= c 0 −a 
−b a 0

Interpretar el resultado geométricamente considerando el operador L(r) := w × r siendo


w = (a, b, c)t . ¿Es W diagonalizable?

5.11.– Aplicar los anteriores ejercicios para determinar los autovalores de las siguientes
matrices, sin necesidad de hacer cálculos:
   
0 −1 2 3 −1 2
A= 1 0 −2  B= 1 3 −2 
−2 2 0 −2 2 3

De cada una de ellas, determinar un autovector asociado a su autovalor real y deducir si


son diagonalizables. Por último, calcular una matriz unitaria que las diagonalice.

5.12.– Hállense los autovalores de la matriz


 
1 0 0 1
 0 1 −1 0 
 .
 0 1 1 0 
−1 0 0 1

5.13.– Sea A ∈ Cn×n con r(A) = tr(A) = 1. Hallar los valores propios de A, ası́ como
sus multiplicidades algebraicas y geométricas. Deducir si A es o no diagonalizable.

5.14.– Se dice que una matriz A es nilpotente si existe k ∈ N tal que Ak = 0. Sea A
nilpotente.

1. Calcular los valores propios de A y de A − I

2. Deducir del apartado anterior la traza y el determinante de A − I .


Capı́tulo 5 105
 
0 1 0 0
 0 0 1 0 
5.15.– Se considera el polinomio p(z) = c0 +c1 z+c2 z 2 +c3 z 3 y la matriz S = 
 0
.
0 0 1 
1 0 0 0

1. Determinar los valores y vectores propios de S.

2. Obtener explı́citamente la matriz que resulta al evaluar el polinomio p(z) en la


matriz S.

3. Determinar los valores y vectores propios de la matriz resultante, comprobando que


siempre es diagonalizable.

4. Determinar los coeficientes de p(z) para que la matriz


 
1 2 3 4
 4 1 2 3 
 
 3 4 1 2 
2 3 4 1

sea p(S). Deducir sus valores y vectores propios.

5.16.– Sean las matrices A ∈ Cm×n y B ∈ Cn×m , demostrar que los valores propios no
nulos de AB coinciden con los de BA.

5.17.– Sea la matriz


 
2 −2 0
A =  −2 1 −2 
0 −2 0

1. Calcular sus valores propios y deducir que es diagonalizable.

2. Determinar una base de vectores propios y comprobar que es una base ortogonal.

3. Deducir la existencia de una matriz ortogonal Q de forma que Qt AQ sea diagonal.

5.5.1 Cuestiones
 
0 −2 2
5.18.– Dada la matriz  0 3 0  señalar cuáles de las siguientes afirmaciones son
3 α 1
verdaderas y cuáles son falsas:

1. A es diagonalizable para todo valor de α

2. Si α = 0, entonces A tiene un subespacio propio de dimensión 2


106 Álgebra (2019/20)

3. Si A es diagonalizable, entonces α = 2

4. Para algún valor de α, A tiene tres valores propios distintos

5. Si α = −2, existen tres vectores propios de A linealmente independientes


 
−1 2 1
5.19.– Dada la matriz A =  0 3 0  ∈ R3×3 , determinar cuáles de las siguientes
2 −4 a
afirmaciones son ciertas:

1. λ = 3 es siempre un autovalor de A.

2. Si a = −2 entonces λ = 0 no es un autovalor de A.

3. Para a = 0 la matriz A no es diagonalizable.

4. Para a = 0, A es semejante a diag(1, 3, −2).


Capı́tulo 5 107
Capı́tulo 6

Diagonalización ortogonal

6.1 Semejanza ortogonal y diagonalización ortogonal.

6.2 Teorema espectral para matrices reales simétricas. Descomposición espectral.

6.3 Formas cuadráticas. Cociente de Rayleigh. Clasificación de matrices reales simétricas.


El criterio de Sylvester.

6.4 Número de condición espectral de una matriz.

6.5 Aplicación: clasificación de cónicas.

6.6 Ejercicios. Cuestiones.

6.1 Semejanza ortogonal y diagonalización ortogonal


Definición 73 (matrices semejantes ortogonalmente) Se dice que dos matrices cuadradas
complejas A y B son semejantes ortogonalmente si existe una matriz ortogonal Q
tal que B = Q−1 AQ.

Observación: Puesto que Q−1 = Qt , podemos expresar también la relación de seme-


janza ortogonal como B = Qt AQ.

Definición 74 (matriz diagonalizable ortogonalmente) Dada A ∈ Rn×n , se dice


que es diagonalizable ortogonalmente si existe una matriz ortogonal Q ∈ Rn×n tal
que D = Q−1 AQ es diagonal.

108
Capı́tulo 6 109

Observación: Los elementos diagonales de D son los autovalores de A —que son todos
reales—, mientras que las columnas de Q constituyen una base ortonormal de Rn formada
por autovectores de A.
La anterior observación nos permite concluir una primera caracterización de las ma-
trices diagonalizables ortogonalmente:

Proposición 35 Sea A ∈ Rn×n ; A es diagonalizable ortogonalmente ⇔ A es diagonal-


izable con todos sus autovalores reales, y sus subespacios propios son ortogonales dos a
dos.

6.2 Teorema espectral para matrices reales simétricas


En el tema anterior ya hemos demostrado que toda matriz real simétrica (por tanto,
hermı́tica) tiene autovalores reales. Ahora demostraremos un resultado muy importante:
que estas matrices son diagonalizables por medio de alguna matriz ortogonal, es decir,
que existe una base ortonormal de Rn formada por autovectores.

Teorema 11 (Teorema espectral) Toda matriz real simétrica es diagonalizable ortog-


onalmente en R.

Demostración:
Lo razonaremos por inducción sobre el orden n de la matriz: para n = 1, obviamente
la matriz es un número real, que ya es en sı́ mismo una matriz diagonal de orden 1 real.
Supongamos que el resultado es cierto para matrices reales simétricas de orden n −
1 y consideremos una matriz genérica A real simétrica de orden n. Sabemos que sus
autovalores son reales; tomemos uno de ellos, λ1 , y un autovector u no nulo asociado,.
Podemos elegir u real puesto que A − λ1 I es una matriz real y su núcleo ker (A − λ1 I)
no es vacı́o y contiene vectores reales, que son precisamente los autovectores asociados.
Además podemos elegir u unitario.
Pues bien, extendamos u hasta formar una base ortonormal de Rn . Llamemos U a la
matriz que contiene dicha base por columnas; de esta forma U = u u2 · · · un es
una matriz ortogonal. Obsérvese que sus columnas no son necesariamente autovectores
(sólo la primera, que es el autovector u) ası́ que podemos asegurar que
 
−1 λ1 ct
U AU =
0 An−1

donde An−1 es una matriz cuadrada de orden n − 1 y ct es un vector fila de longitud n − 1.


Obsérvese que por ser U ortogonal, se tiene que U−1 AU = Ut AU y esta última matriz
es real simétrica pues A lo es, ası́ que por simetrı́a se deduce que c = 0 y además An−1
también es real simétrica:  
t λ1 0t
U AU = .
0 An−1
110 Álgebra (2019/20)

Por hipótesis de inducción, la matriz An−1 (real simétrica de orden n − 1) es diago-


nalizable ortogonalmente con autovalores en R, luego existe una matriz Qn−1 ortogonal
de orden n − 1 tal que Q−1n−1 An−1 Qn−1 = Dn−1 diagonal.
Con todo ello, basta definir la matriz de orden n
 
1 0t
Q=U
0 Qn−1

que es ortogonal (por ser producto de matrices ortogonales) y simplemente se comprueba


que diagonaliza a A :
   
−1 t 1 0t t 1 0t
Q AQ = Q AQ = U AU =
0 Qtn−1 0 Qn−1
     
1 0t λ1 0t 1 0t λ1 0t
= = =
0 Qtn−1 0 An−1 0 Qn−1 0 Qtn−1 An−1 Qn−1
 
λ1 0t
= =D
0 Dn−1

lo cual concluye la demostración. 

Corolario: Una matriz real es diagonalizable ortogonalmente si y solo si es simétrica.

6.2.1 Descomposición espectral


Toda A ∈ Cn×n real simétrica, diagonalizable ortogonalmente a través de U = (U1 | . . . |Un ),
puede expresarse de la siguiente manera:
n
X
A = U diag(λ1 , . . . , λn )Ut = λj Uj Utj , (6.1)
j=1

es decir, como combinación lineal de matrices de rango 1, cada una de las cuales representa
la matriz de proyección ortogonal sobre su correspondiente subespacio columna, siendo
estos subespacios ortogonales entre sı́ y los autovalores de A los coeficientes de dicha
combinación lineal. Nótese que el número de sumandos no nulos es igual al rango de A.
Si ahora ordenamos los autovalores no nulos de A agrupando aquellos que sean iguales,
es decir, consideramos α1 , α2 , . . . , αp autovalores de multiplicidades respectivas m1 , m2 , . . . ,
mp , con m1 + . . . + mp = r(A), los sumandos correspondientes al autovalor αk en la ex-
presión (6.1) se agrupan como sigue:

αk (Uk1 Utk1 + . . . + Ukmk Utkm ) = αk Pker(A−αk I) (6.2)


k

en donde el subespacio propio asociado al autovalor αk se supone engendrado por las


columnas Uk1 , . . . , Ukmk de U.
En conclusión, se verifica la siguiente proposición:
Capı́tulo 6 111

Proposición 36 (Descomposición espectral) Toda matriz real simétrica A puede ex-


presarse como
p
X
A= αk Pk , (6.3)
k=1

en donde αk son los autovalores (distintos dos a dos) no nulos de A y Pk es la matriz


de proyección ortogonal sobre el subespacio propio ker(A − αk I) (estos subespacios son
ortogonales dos a dos).

6.3 Formas cuadráticas


Definición 75 (forma cuadrática) Dada una matriz real simétrica A ∈ Rn×n , se llama
forma cuadrática asociada a A a la función de Rn a R definida mediante
x 7→ xt Ax. (6.4)
Por el Teorema espectral, toda matriz hermı́tica A es diagonalizable ortogonalmente,
y sus autovalores son reales. Obsérvese que, si λ es un autovalor de A y u un autovector
asociado a λ,
ut Au = λkuk2 . (6.5)
Teorema 12 Sea A ∈ Rn×n real simética, y sean λmı́n y λmáx sus autovalores mı́nimo y
máximo, respectivamente. Entonces, para todo x ∈ Rn , se verifica que
λmı́n kxk2 ≤ xt Ax ≤ λmáx kxk2 , (6.6)
alcanzándose cada una de las igualdades en todos los vectores propios asociados, respecti-
vamente, a λmı́n y λmáx .
Demostración: Por el teorema espectral para matrices reales simétricas, existe una
matriz ortogonal Q tal que
Qt AQ = D = diag (λmı́n , · · · , λmáx ) . (6.7)
Denotando x = Qy se tiene que
xt Ax = yt Qt AQy = yt diag (λmı́n , · · · , λmáx ) y = λmı́n |y1 |2 + · · · + λmáx |yn |2 (6.8)
pero dicha cantidad puede acotarse superiormente por
λmáx |y1 |2 + · · · + |yn |2 = λmáx kyk2 = λmáx kxk2

(6.9)
(se ha usado que kyk = kQyk = kxk pues Q es ortogonal). Ası́ pues, xt Ax ≤ λmáx kxk2 .
Por la ecuación (6.5), sabemos que la igualdad se alcanza si x es un vector propio
asociado a λmáx .
Análogamente, para la acotación inferior, se observa que la expresión (6.8) es mayor
o igual que
λmı́n |y1 |2 + · · · + |yn |2 = λmı́n kyk2 = λmı́n kxk2

(6.10)
luego λmı́n kxk2 ≤ xt Ax, concluyendo la demostración. 
112 Álgebra (2019/20)

6.3.1 Cociente de Rayleigh


Definición 76 (cociente de Rayleigh) Dada A ∈ Rn×n real simétrica, el cociente de
Rayleigh es la función de Rn \ {0} a R definida por el cociente

xt Ax
R (x) = ∀x 6= 0. (6.11)
kxk2

Obsérvese que si u es autovector de A asociado al autovalor λ, en virtud de la ecuación


(6.5) se tiene que
ut Au
R (u) = = λ. (6.12)
kuk2
Por otro lado, la ecuación (6.6) garantiza que

xt Ax
λmı́n ≤ ≤ λmáx ∀x 6= 0, (6.13)
kxk2

y la continuidad de la función R en Cn \ {0} garantiza que se alcanzan todos los valores


del intervalo [λmı́n , λmáx ].
Ası́ pues, concluimos lo siguiente:

Proposición 37 Sea A real y simétrica, sean λmı́n , λmáx los autovalores mı́nimo y máximo,
respectivamente, de A; entonces

xt Ax xt Ax
mı́n = λ mı́n ; máx = λmáx , (6.14)
x6=0 kxk2 x6=0 kxk2

alcanzándose dichos valores en los correspondientes autovectores de A asociados a λmı́n y


λmáx .

6.3.2 Clasificación de matrices reales simétricas


Como hemos visto, los signos que puede tomar una forma cuadrática están determinados
por los de los autovalores de la matriz simétrica que la define. Ello motiva la siguiente
clasificación de las matrices reales simétricas:
Sea A una matriz hermı́tica; se dice que:

• A es semidefinida positiva si xt Ax ≥ 0 ∀x, lo que equivale a que sus autovalores


sean positivos o nulos (λk ≥ 0).

– En particular, A es definida positiva si xt Ax > 0 ∀x 6= 0, es decir, si sus


autovalores son positivos (λk > 0).

• A es semidefinida negativa si xt Ax ≤ 0 ∀x; equivalentemente, si sus autovalores


son negativos o nulos (λk ≤ 0).
Capı́tulo 6 113

– En particular, A es definida negativa si xt Ax < 0 ∀x 6= 0 o, lo que es lo


mismo, si sus autovalores son negativos (λk < 0).

• A es indefinida si existen vectores x, y tales que xt Ax > 0 e yt Ay < 0; ello


equivale a que A posea algún autovalor positivo y alguno negativo.

6.3.3 El criterio de Sylvester.


Este conocido criterio nos permite reconocer las matrices simétricas definidas positivas o
negativas sin necesidad de diagonalizar, en términos de los signos de los menores angulares
de la correspondiente matriz.

Teorema 1 (Criterio de Sylvester para matrices definidas positivas)


Una matriz simétrica A∈ Rn×n es definida  positiva si y solo si |Aj | > 0 para j =
a11 a12 · · · a1j
 a12 a22 · · · a2j 
1, 2, . . . , n, en donde Aj =  .. ..  .
 
.. . .
 . . . . 
a1j a2j · · · ajj

Demostración: (no exigible)


⇒ Si A es definida positiva, entonces también lo es cada Aj , puesto que, para
cualquier vector no nulo (x1 , . . . , xj ) ∈ Rj ,
 
x1
 .. 
 . 
 
x1
  x 

xj Aj  ...  = 0 A  j  > 0.

x1 · · · x1 · · · xj 0 · · ·
 
 0 
xj  . 
 .. 
0

Pero el determinante de toda matriz definida positiva es positivo por ser el producto
de los autovalores, luego los |Aj | lo son.
⇐ Supongamos ahora que los |Aj | son positivos. Demostraremos que A es definida
positiva por inducción en n, el orden de A. Para una matriz de orden 1 el resultado es
trivial.
Supongamos ahora que la matriz An−1 es definida positiva. Existirá una matriz or-
togonalmente semejante a ella con elementos diagonales positivos, digamos Λn−1 =
diag(µ1 , . . . , µn−1 ). Es decir: Qt An−1 Q = Λn−1 con Q ∈ R(n−1)×(n−1) ortogonal. Pero la
matriz A, en virtud de su simetrı́a, se escribe como
 
An−1 u
A= ,
ut a
114 Álgebra (2019/20)

en donde u ∈Rn−1 y a ∈ R. Ası́ pues, multiplicando por bloques,


 t     
Q 0 An−1 u Q 0 Λn−1 v
= .
0t 1 ut a 0t 1 vt a

En esta última matriz, los elementos diagonales 1 a n − 1 son los µj positivos. Si se


efectúan las operaciones elementales de filas F0n = Fn − (vj /µj )Fj , para j = 1, . . . , n − 1,
y a continuación las mismas operaciones por columnas, obtenemos una matriz diagonal.
Ello equivale a las siguientes operaciones matriciales, para determinada matriz invertible
H:    
t Λn−1 v Λn−1 0
H H= = diag(µ1 , . . . , µn−1 , b).
vt a 0t b
Es decir:
(QH)t AQH = diag(µ1 , . . . , µn−1 , b).
De la última expresión se desprende que el determinante de A tiene el mismo signo
que el de diag(µ1 , . . . , µn−1 , b) y, por consiguiente, b es positivo.
Ahora, cualquiera que sea el vector no nulo x ∈ Rn , y dado que QH es una matriz de
cambio de base, x = QHy, y se tiene

xt Ax = (QHy)t AQHy = yt (QH)t AQHy = yt diag(µ1 , . . . , µn−1 , b)y =

= µ1 y12 + . . . + µn−1 yn−1


2
+ byn2 > 0,
lo que nos permite concluir que A es definida positiva. 

Corolario: (Criterio de Sylvester para matrices definidas negativas)


Una matriz A ∈ Rn×n simétrica es definida negativa si y sólo si (−1)j |Aj | > 0 para
j = 1, 2, . . . , n.
Demostración: −A es definida positiva si y sólo si 0 < |−Aj | = (−1)j | Aj | para
j = 1, 2, . . . , n. 

6.4 Número de condición espectral de una matriz


6.4.1 Soluciones numéricas y errores de redondeo
El concepto de número de condición espectral de una matriz es muy útil e interesante
a la hora de resolver sistemas lineales Ax = b en Ingenierı́a. Los errores de redondeo
que se producen en los ordenadores, aunque sean pequeños, pueden propagarse hasta
llegar a proporcionarnos soluciones x con un error intolerable. El alumno seguramente
habrá observado este fenómeno al realizar las prácticas con ordenador. Pues bien, esta
magnificación del error depende precisamente del número de condición espectral de A;
por ello es crucial conocer su valor para saber en qué medida es fiable o no la solución
proporcionada por el ordenador.
Capı́tulo 6 115

Proposición 38 Para cualquier matriz A ∈ Rm×n , los autovalores de At A son no nega-


tivos. En particular, si r(A) = n (columnas linealmente independientes), los autovalores
de At A son todos positivos.
Demostración: Sea λ ∈ C un autovalor de At A de vector propio unitario u. Entonces
0 ≤ kAuk2 = (Au)t Au = ut At Au = ut λu = λkuk2 = λ. (6.15)
En particular, si r(A) = n, u 6= 0 ⇒ Au 6= 0, luego λ = kAuk2 es positivo.

Corolario: Si A ∈ Rm×n , At A es semidefinida positiva (definida positiva en caso de


ser r(A) = n).

Perturbación del término independiente de un sistema lineal


Veamos cómo varı́a la solución de un sistema cuando se modifican las componentes del
vector del término independiente.
Sean A ∈ Rm×n , de rango igual a n, y el sistema compatible y determinado Ax =
b 6= 0. Se desea estudiar la variación ∆x0 del vector solución x0 del sistema inicial ante
variaciones ∆b 6= 0 del vector b, en el supuesto de que el sistema A (x + ∆x) = b + ∆b
siga siendo compatible y determinado.
Se tiene
Ax0 = b
A (x0 + ∆x0 ) = b + ∆b
que implica que A∆x0 = ∆b.Teniendo en cuenta las propiedades del cociente de Rayleigh,
se obtiene
kAx0 k22 kbk22
λmáx (At A) ≥ = (6.16)
kx0 k22 kx0 k22
kA∆x0 k22 k∆bk22
λmı́n (At A) ≤ = . (6.17)
k∆x0 k22 k∆x0 k22
A partir de lo anterior
k∆bk22
k∆x0 k22 ≤
λmı́n (At A)
1 λmáx (At A)

kx0 k22 kbk22
Multiplicando miembro a miembro se llega a
s
k∆x0 k2 λmáx (At A) k∆bk2
≤ (6.18)
kx0 k2 λmı́n (At A) kbk2
Esta acotación motiva la definición siguiente:
116 Álgebra (2019/20)

Definición 77 (número de condición espectral) El número de condición espectral


de A ∈ Rm×n , de rango igual a n, que se denota c2 (A), se define como
s
λmáx (At A)
c2 (A) = .
λmı́n (At A)

Si A ∈ Rm×n tiene rango menor que su número de columnas, se dice que su número de
condición es infinito.

Observación: Para cualquier A ∈ Rm×n , c2 (A) ≥ 1.


Es inmediato comprobar que, si las columnas de A son ortonormales, entonces c2 (A) =
1, y dicho valor solo se alcanza cuando las columnas de la matriz son ortogonales y de
idéntica norma.
Si A ∈ Rn×n es simétrica e invertible, y dado que los valores propios de At A coinciden
con los cuadrados de los valores propios de A, se obtiene

|λ1 (A)|
c2 (A) = (6.19)
|λn (A)|

supuesto que los valores propios de A están ordenados de la forma |λ1 (A)| ≥ · · · ≥ |λn (A)|
> 0.

k∆x k
Definición 78 (error relativo del vector solución) El cociente kx00k 2 , que aparece
2
en (6.18), es el error relativo, medido por la norma euclı́dea, del vector solución del
sistema cuando el vector b se modifica.

El resultado (6.18) queda, por tanto, como

k∆x0 k2 k∆bk2
≤ c2 (A)
kx0 k2 kbk2

Por tanto, el número de condición proporciona una cota superior para la posible am-
plificación del error relativo, cuando se modifica el término independiente del sistema.
Esta cota superior es óptima (es decir, alcanzable).
Pueden obtenerse expresiones que relacionan ∆x0 , x0 y c2 (A), cuando la matriz A
pasa a ser A + ∆A o cuando se modifican conjuntamente la matriz A y el vector b.

6.5 Clasificación de cónicas


Las cónicas (o secciones cónicas) son curvas que resultan de intersecar un cono con un
plano. Los tipos más conocidos de cónicas son: elipse, hipérbola y parábola. Algunos
ejemplos sencillos son:
Capı́tulo 6 117

• Elipse de centro (x0 , y0 ) , de ejes paralelos a los ejes coordenados, con longitudes de
semiejes a, b. Dicha elipse tiene por ecuación

(x − x0 )2 (y − y0 )2
+ =1
a2 b2
Realizando una traslación X = x − x0 , Y = y − y0 , se llega a la ecuación reducida
de la elipse:
X2 Y 2
+ 2 = 1.
a2 b
Como caso particular, si a = b se le denomina circunferencia de radio a:, de ecuación
reducida x2 + y 2 = a2 .

• Hipérbola de centro (x0 , y0 ) y ejes paralelos a los ejes X e Y:

(x − x0 )2 (y − y0 )2
− =1
a2 b2
cuya ecuación reducida es, tras una traslación:

X2 Y 2
− 2 = 1.
a2 b

• Parábola, de ecuación reducida Y = aX 2 .

Estas ecuaciones son fáciles de identificar. Pero si la cónica está girada y los ejes de
simetrı́a ya no son el eje X o el eje Y, entonces la ecuación cambia (las coordenadas X, Y
varı́an según alguna matriz de giro). Ası́ pues, la ecuación general de la cónica es una
ecuación polinómica de segundo grado en (x, y) :

a11 x2 + 2a12 xy + a22 y 2 + b1 x + b2 y + c = 0.

El objetivo de esta sección es, dada la ecuación de una cónica, aprender a identificar de
qué tipo de cónica se trata.

Para ello, simplemente escribimos la ecuación en forma matricial, observando que los
tres primeros sumandos constituyen una forma cuadrática:
    
a11 a12 x  x
(x, y) + b1 b2 + c = 0.
a12 a22 y y
 
a11 a12
Como la matriz de dicha forma cuadrática, A = , es real simétrica, puede
a12 a22
diagonalizarse mediante una matriz ortogonal P de orden 2. Sea P una matriz ortogonal
de determinante igual a 1; es decir, P es una matriz de giro alrededor del origen, tal que
118 Álgebra (2019/20)

 
t λ1 0
P AP =
0 λ2
   
x X
Realizando el cambio =P , la ecuación queda
y Y
   
t X  X
(X, Y )P AP + b1 b2 P +c = 0
Y Y
    
λ1 0 X  X
(X, Y ) + c1 c2 +c = 0
0 λ2 Y Y
que se reduce sencillamente a
λ1 X 2 + λ2 Y 2 + c1 X + c2 Y + c = 0.

Una vez desacoplada la ecuación (ya sin términos cruzados) pueden presentarse los
siguientes casos:

1. Si los autovalores λ1 y λ2 son no nulos, podemos simplemente completar cuadrados


en la ecuación anterior y llegar a:
 2  2
c1 c2
λ1 X + + λ2 Y + =d
2λ1 2λ2
que con una simple traslación se transforma en la ecuación reducida
λ1 X 2 + λ2 Y 2 = d
que conduce a los siguientes casos:

(a) Si λ1 y λ2 del mismo signo, es cónica de tipo elı́ptico: si λ1 y d tienen igual


signo es una ELIPSE; si λ1 y d son de distinto signo, se trata del conjunto
vacı́o. Si d = 0, se trata de un punto.
(b) Si λ1 y λ2 de signos contrarios, es cónica de tipo hiperbólico: si d 6= 0, se
trata de una HIPÉRBOLA. Si d = 0, se trata de dos rectas que se cortan en
un punto.

2. Por último, si alguno de los valores propios λ1 , λ2 es nulo, es cónica de tipo


parabólico. Por ejemplo, siλ2 = 0, se habrá llegado a
λ1 X 2 + c1 X + c2 Y + c = 0
donde podemos completar cuadrados en X hasta llegar a
λ1 X 2 + c2 Y + d = 0
que, si c2 6= 0 es la ecuación de una PARÁBOLA, y si c2 = 0 son dos rectas paralelas
de ecuaciones X = ±e (que pueden ser dos rectas reales, o dos rectas complejas, o
dos rectas coincidentes).
Capı́tulo 6 119

Como resumen de este método general, observamos que, dada la ecuación de una
cónica, basta clasificar la matriz A de su parte cuadrática:

• Si A es definida positiva o definida negativa, entonces sus dos autovalores tienen el


mismo signo (ambos positivos o ambos negativos), luego la cónica es de tipo elı́ptico
(a su vez puede ser elipse, o un punto, o el conjunto vacı́o).
• Si A es indefinida, entonces los dos autovalores tienen distinto signo y por tanto la
cónica es de tipo hiperbólico (hipérbola o 2 rectas).
• Si A es semidefinida positiva o semidefinida negativa, con algún autovalor nulo se
tiene que es de tipo parabólico (parábola o 2 rectas paralelas)

Esta clasificación permite saber de forma sencilla el tipo de cónica; para conocer exac-
tamente la cónica de que se trata dentro de cada tipo (ası́ como calcular su centro, sus ejes
de simetrı́a, etc.), hay que diagonalizar la matriz, pues sus ejes de simetrı́a vendrán dados
por las direcciones de los autovectores, y llegar a su ecuación reducida correspondiente.
Véase el siguiente ejemplo concreto.

EJEMPLO 1: Clasificar la cónica dada por la ecuación


√ √
2x2 + 2xy + 2y 2 + 2x − 2y − 5 = 0
   
2 1 a b
La parte cuadrática viene dada por la matriz , que al ser de la forma
1 2 b a
tiene por autovalores a ± b y una base de autovectores es ((1, 1) , (1, −1)) . Como sus
autovalores son 3 y 1, ambos del mismo signo, se trata de una cónica de tipo elı́ptico. La
diagonalizamos ortogonalmente por  medio de la matriz ortogonal formada por una base
1 −1
ortonormal de autovectores P = √12 :
1 1
 
t 3 0
P AP = .
0 1
   
x X
Realizando el cambio =P se llega a
y Y
√ √ 
   
t X X
(X, Y )P AP + 2, − 2 P −5=0
Y Y
que se simplifica a:
3X 2 + Y 2 − 2Y − 5 = 0
3X 2 + (Y − 1)2 = 6
y se llega a la ecuación reducida en coordenadas (X, Y ) :

X 2 (Y − 1)2
+ = 1.
2 6
120 Álgebra (2019/20)

Esto indica que, tras un√giro √ (dado por P) y una traslación, se trata de una elipse de
longitudes de semiejes 2 y 6. Obsérvese que dichas longitudes no son modificadas
por P puesto que es una matriz ortogonal. Las direcciones de los ejes de esta elipse
son las direcciones de las columnas de P, respectivamente, ((1, 1) , (−1, 1)) ; en otras
palabras, los ejes de simetrı́a de esta elipse son paralelos a las rectas x = y y x = −y. Por
último, el centro de esta elipse tiene coordenadas (X, Y ) = (0, 1) , pero hay que cambiar
a coordenadas (x, y) luego
     
x 0 1 1
=P =√
y 1 2 1
√ √
ası́ que es una ELIPSE de centro (−1, 1) / 2, un semieje de longitud 2 a lo largo de
un eje paralelo
√ a la recta x = y que pasa √ por el centro (es decir, contenido en la recta
y = x + 2) y otro semieje de longitud 6 a lo largo de un eje paralelo a la recta x = −y
(es decir, contenido en la recta y = −x que ya pasa por el centro).

2.5

1.5

0.5

-0.5

-1

-1.5
-3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5

EJEMPLO 2: Sea ahora la cónica de ecuación


√ √
2x2 + 2xy + 2y 2 + 2x − 2y + 1 = 0.
Dado que la parte cuadrática y lineal son las mismas que en el caso anterior, se trata de
una cónica de tipo elı́ptico, y al hacer el cambio de variable se llega a
3X 2 + Y 2 − 2Y + 1 = 0
3X 2 + (Y − 1)2 = 0
Esta última ecuación sólo es cierta si X = 0, Y = 1 ası́ que se trata de un único punto.
Deshaciendo el cambio, dicho punto es
     
x 0 1 −1
=P =√
y 1 2 1
luego la cónica original está constituida por ese único punto (se trata de una cónica de
tipo elı́ptico que degenera en un punto).
Capı́tulo 6 121

6.6 Ejercicios
6.1.– Determı́nese una base ortonormal de vectores propios de la matriz
 
3 2 4
 2 0 2 .
4 2 3

6.2.– Diagonalı́cese ortogonalmente la matriz


 
1 −1 1 1
 −1 1 −1 −1 
 1 −1 −1 −1  .
 

1 −1 −1 −1

6.3.– Determı́nense los valores del parámetro a que hacen definida positiva la matriz
 
a 1 1
 1 a 1 .
1 1 a

¿Para qué valores de a es definida negativa?

6.4.– Como generalización del apartado anterior, se considera la matriz de orden n que
contiene el parámetro real a en la diagonal principal y 1 fuera de la diagonal principal.
¿Para qué valores es definida positiva?

6.5.– Clasifı́quese la siguiente matriz real y simétrica


 
a + b −a −b
 −a a + c −c  , a, b, c > 0.
−b −c b + c

6.6.– Calcúlense los valores máximo y mı́nimo de la función R definida en R3 \{(0, 0, 0)}
mediante
3(x2 + y 2 + z 2 ) + 2(xy + yz + zx)
R(x, y, z) = ,
x2 + y 2 + z 2
ası́ como los vectores en los que se alcanzan dichos valores.

6.7.– Calcúlense los valores máximo y mı́nimo que alcanza sobre R2 \{(0, 0)} el cociente
  
 5 2 x
x y
0 5 y
,
k(x, y)k2
indicando sobre qué vectores toma dichos valores.
122 Álgebra (2019/20)

6.8.– Clasifı́quese la siguiente matriz:


 
1 −2 2
 −2 4 −4  .
2 −4 4

6.9.– Calcular el número de condición de cada una de estas matrices:


     
5 10 1 1 −5 4
A= B= C= .
−11 −2 −2 −2 4 −5

6.10.– Demostrar que si las filas (o columnas) de una matriz real A son ortogonales y
de la misma norma, entonces el número de condición espectral es igual a 1. En particular,
el número de condición de una matriz ortogonal es 1.

6.11.– Determı́nense los números de condición de las siguientes matrices:


 
  7 4
8 4 −8
A= , B =  4 −8  .
6 3 −6
4 1

6.12.– Clasifı́quese cada una de las siguientes cónicas, hallar su ecuación reducida y
encontrar su centro y sus ejes de simetrı́a, si los tuviera:

1. x2 + y 2 + 4xy = 3.

2. 6x2 + 9y 2 − 4xy + 4x − 18y + 4 = 0.

6.13.– Se considera la matriz


 
1 −1 0
 2 −1 3 
A=
 0

5 1 
3 1 −2

Indı́quese la única proposición falsa:


kAxk √
1. ∀x ∈ R3 \ {0}, kxk 2 ≤ 28
2

kAxk2 √
2. mı́n = 14
x6=0 kxk2

3. El número de condición espectral de A vale 2.


 
19 a b
6.14.– Sean a, b, c números positivos. Se considera la matriz A =  a 19 c .
b c 19
Determı́nese la veracidad o falsedad de las siguientes afirmaciones:
Capı́tulo 6 123

1. A no es diagonalizable ortogonalmente.

2. A es diagonalizable ortogonalmente y todos sus autovalores son reales.

3. A es diagonalizable ortogonalmente y todos sus autovalores son positivos.

4. A es semidefinida positiva.

5. Los subespacios propios de A son ortogonales dos a dos.


Capı́tulo 7

Algunas aplicaciones del Álgebra


lineal

7.1 Resolución de sistemas de ecuaciones diferenciales lineales de primer orden ho-


mogéneos con coeficientes constantes.
7.2 Ejemplos de aplicaciones en Ingenierı́a.
7.3 Ejercicios.

7.1 Resolución de sistemas de ecuaciones diferenciales


lineales
Una de las principales aplicaciones del Álgebra lineal es la resolución de sistemas de ecua-
ciones diferenciales lineales. Sin entrar en definiciones rigurosas, se denomina ecuación
diferencial a una ecuación en la que aparecen una función y sus derivadas. Por ejemplo,
la ecuación
y 00 (t) − 3y 0 (t)y(t)2 = sen t
es una ecuación diferencial. Las ecuaciones diferenciales son relevantes en la Fı́sica y
la Ingenierı́a porque numerosı́simos fenómenos se pueden describir mediante ecuaciones
diferenciales: el electromagnetismo, la transmisión del calor, la propagación de ondas,
la difusión de un fluido en el interior de otro, etc. En este tema se pretende realizar
una breve introducción a una disciplina muy extensa que se abordará con detalle en la
asignatura de segundo curso “Ecuaciones Diferenciales” .

7.1.1 Introducción
Sea λ ∈ R. Se considera la ecuación
y 0 (t) = λy(t). (7.1)

124
Capı́tulo 7 125

Esta ecuación es la que describe, entre otros fenómenos, la desintegración de materiales ra-
dioactivos. Nos plantemos encontrar, si existen, las funciones y(t) derivables sobre la recta
real (o sobre un intervalo de la misma) que satisfacen la ecuación anterior. Multiplicando
ambos miembros de la ecuación por e−λt y reordenando llegamos a

e−λt y 0 (t) − λe−λt y(t) = 0

d −λt
e y(t) = 0 ⇔ e−λt y(t) = c ⇔ y(t) = ceλt .

dt
Por tanto, todas las soluciones de (7.1) son de la forma ceλt , con c ∈ R. Es interesante
señalar que el conjunto formado por las soluciones de (7.1)  constituye
un subespacio
1 λt
vectorial de C (R), en concreto la clausura lineal de la familia e .

Procedamos ahora a estudiar un caso más complejo; se considera un sistema formado


por varias ecuaciones diferenciales que involucran a varias funciones. En concreto, se trata
de encontrar n funciones x1 , . . . , xn derivables sobre la recta real (o sobre un intervalo de
la misma) tales que


 x01 (t) = a11 x1 (t) + a12 x2 (t) + . . . + a1n xn (t)
 x0 (t) = a21 x1 (t) + a22 x2 (t) + . . . + a2n xn (t)

2
..

 .
 x0 (t) = a x (t) + a x (t) + . . . + a x (t),

n n1 1 n2 2 nn n

donde los coeficientes aij son reales. El sistema puede escribirse en forma matricial como

X0 (t) = AX(t), (7.2)

donde  
x1 (t)
 x1 (t) 
X(t) =   , A = [aij ] .
 
..
 . 
xn (t)
A la ecuación (7.2) se la denominará en adelante “sistema homogéneo de ecuaciones
diferenciales de primer orden” o simplemente “sistema diferencial”.
Obviamente, este problema es más complejo que la ecuación escalar (7.1) porque la
derivada de cada variable depende de las otras. Informalmente se dice que las variables
x1 , . . . , xn están “acopladas”. Uno de los procedimientos que emplearemos para resolver
el sistema anterior consiste precisamente en “desacoplar” las ecuaciones, reduciendo el
sistema de partida a otro formado por n ecuaciones diferenciales escalares independientes.
Por otro lado, es fácil comprobar el siguiente resultado:

Teorema 13 Las soluciones del sistema (7.2) constituyen un espacio vectorial (que además
n
es subespacio de (C 1 (R)) ).
126 Álgebra (2019/20)

Además, y como consecuencia del teorema de existencia y unicidad que veremos más
adelante, este espacio tiene dimensión n.

Por último, hay que señalar que frecuentemente se nos presentará el problema de
buscar qué soluciones X(t) de (7.2) satisfacen la condición inicial X(t0 ) = X0 , donde X0
es un determinado vector de Rn . Es decir, se trata de buscar las soluciones, si existen, de
 0
X (t) = AX(t)
X(0) = X0 .

A este problema se le denomina problema de valores iniciales (PVI).


Para abordar el estudio tanto del sistema (7.2) como de cualquier PVI asociado, es
preciso introducir en este punto el concepto de exponencial de una matriz.

7.2 Exponencial de una matriz


Es un conocido resultado del Cálculo Infinitesimal que

x
X xn
∀x ∈ R : e = .
n=0
n!

Este resultado motiva la siguiente definición: dada una matriz A ∈ Cn×n , se define la
exponencial de A como
N
A
X 1 k 1 1
e := lim A = I + A + A2 + A 3 + . . . ,
N →∞
k=0
k! 2! 3!

N
X 1 k
expresión en la que el lı́mite se toma sobre cada uno de los elementos de la matriz A .
k=0
k!
N ∞
X 1 k X 1 k
La expresión lim A se abreviará como A .
N →∞
k=0
k! k=0
k!

Observaciones:
• Se emplearán indistintamente las notaciones eA y exp(A) para denotar la exponen-
cial de A.

• Se puede demostrar que el lı́mite


N
X 1 k
lim A
N →∞
k=0
k!

existe para cualquier A ∈ Cn×n .


Capı́tulo 7 127

• Si A y B conmutan, entonces eA+B = eA eB .

• Para cualquier A ∈ Cn×n , eA es invertible y


−1
eA = e−A .

Demostración:

I = exp 0 = exp(A − A) = exp(A) exp(−A).

• Para la resolución de sistemas de ecuaciones diferenciales lineales de primer orden,


será preciso calcular exponenciales de la forma eAt , donde A ∈ Rn×n y t es una
variable real.

d At 
• e = AeAt .
dt

Demostración:

N
! N
d X Atk X Ak d k 
= t
dt k=0
k! k=0
k! dt
N
X Ak
= tk−1
k=1
(k − 1)!
N −1
X Ak+1 k
= t
k=0
k!
N −1
X Ak k
=A t ,
k=0
k!

y tomando lı́mites cuando N tiende a infinito se obtiene el resultado.

• Si u es un vector propio de A asociado a λ, entonces

∞ ∞
A
X Ak X λk
e u= u= u = eλ u,
k=0
k! k=0
k!

es decir, todo autovector de A lo es de eA asociado al valor propio eλ .


128 Álgebra (2019/20)

7.2.1 Cálculo de la exponencial de una matriz diagonalizable


En primer lugar, calculemos la exponencial de una matriz diagonal. Si D = diag(λ1 , . . . , λn ),
entonces

X 1
D
e := [diag(λ1 , . . . , λn )]k
k=0
k!

X 1
= diag(λk1 , . . . , λkn )
k=0
k!
∞ ∞
!
X λk 1
X λk n
= diag ,...,
k=0
k! k=0
k!
λ1 λn
= diag(e , . . . , e ).

Abordemos ahora el caso de que A sea diagonalizable. En ese caso, existe Q ∈ Cn×n tal
que Q−1 AQ = D diagonal, luego A = QDQ−1 y ∀N ∈ N :
N N N
!
k −1 k k
X A X (QDQ ) X D
= =Q Q−1 .
k=0
k! k=0
k! k=0
k!

Tomando lı́mites cuando N tiende a infinito en ambos miembros de la expresión anterior


se llega a
exp(A) = Q exp(D)Q−1 .

Ejemplo: Calcular la exponencial de


 
−2 1
A := .
−20 7

Procediendo de la forma habitual, obtenemos que el polinomio caracterı́stico de A es


(λ − 2)(λ − 3), y que una matriz que diagonaliza A es
 
1 1
Q= .
4 5

Ası́, la exponencial de A es

exp(A) = Q exp(D)Q−1
  2  
1 1 e 0 5 −1
=
4 5 0 e3 −4 1
 
5e2 − 4e3 −e2 + e3
= .
20e2 − 20e3 −4e2 + 5e3
Capı́tulo 7 129

7.3 Resolución de sistemas de ecuaciones diferenciales


lineales de primer orden
En esta asignatura nos limitaremos a considerar sistemas del tipo (7.2) con A diagonaliza-
ble. El caso de A no diagonalizable se aborda en la asignatura “Ecuaciones diferenciales”.
Veamos a continuación dos métodos para de resolución de (7.2). El primero consiste
en realizar un cambio de variable que “desacoplará” el sistema estudiado. El segundo
método empleará la noción de exponencial de una matriz.

7.3.1 Resolución mediante un cambio de variable


Cuando la matriz A es diagonalizable, la solución del sistema homogéneo X0 (t) = AX(t)
se calcula de forma muy sencilla. En efecto, si
Q−1 AQ = D = diag(λ1 , . . . , λn ),
realizando el cambio de variable X(t) = QY(t) se obtiene
0
Y0 (t) = Q−1 X (t) = Q−1 X0 (t) = Q−1 AX(t) = Q−1 AQY(t) = DY(t).
Esta ecuación matricial consta de n ecuaciones diferenciales escalares independientes o
“desacopladas”:
yi0 (t) = λi y(t) , i = 1, 2, . . . , n.
Pero sabemos que cada una de estas ecuaciones tiene por solución general
yi (t) = ci eλi t ,
siendo ci cualquier constante. Es decir,
Y(t) = diag(eλ1 t , . . . , eλn t )C,
siendo C un vector de constantes arbitrarias. Deshaciendo el cambio de variable,
X(t) = QY(t) = Qdiag(eλ1 t , . . . , eλn t )C.
Nótese que no es necesario invertir la matriz Q.
Definición 79 La matriz Q diag(eλ1 t , . . . , eλn t ), cuyas columnas constituyen n soluciones
linealmente independientes del sistema homogéneo, se denomina una matriz fundamen-
tal de dicho sistema.
Finalmente, observamos que la solución obtenida satisface que X(0) = QC. Por este
motivo, si se pretende resolver el PVI
 0
X (t) = AX(t)
X(0) = X0 ,
basta tomar C = Q−1 X0 .
130 Álgebra (2019/20)

Ejemplo: Encontrar la solución general del sistema diferencial


 0    
x 1 1 −1 x
 y0  =  2 3 −4   y .
z0 4 1 −4 z
Procediendo de la forma habitual, encontramos  que la forma diagonal de la matriz es
1 1 1
diag (1, 2, −3) y que una matriz de paso es P = 1 2 7  . Ası́, la solución general

1 1 11
queda
     
x(t) 1 1 1 c 1
 y(t)  =  1 2 7  diag et , e2t , e−3t  c2 


z(t) 1 1 11 c3
 t   2t   −3t 
e e e
= c1 e
 t 
+ c2 2e
 2t 
+ c3  7e−3t  .
et e2t 11e−3t

7.3.2 Solución del sistema diferencial mediante la exponencial


de una matriz.
Sabemos que, para cualquier matriz cuadrada A, la función matricial t 7→ eAt verifica
d At
e = AeAt .
dt
Ası́, todas las columnas uj (t) de la matriz eAt satisfacen que u0j (t) = Auj (t) , es decir,
son soluciones del sistema diferencial X0 (t) = AX(t). Como además eAt es una matriz
invertible para todo valor de t, sus columnas son funciones vectoriales linealmente inde-
pendientes, lo que asegura que la dimensión del espacio de soluciones es, como mı́nimo,
n.
Vamos a ver que toda solución es combinación lineal de éstas. Para ello resolveremos
primero el problema de valores iniciales.

7.3.3 Teorema de existencia y unicidad.


Teorema 14 El problema de valores iniciales
 0
X (t) = AX(t)
X(0) = X0
tiene solución única, cualesquiera que sean la matriz A ∈ Rn×n y el vector X0 ∈ Rn .
Además, dicha solución viene dada por la expresión
X(t) = eAt X0 .
Capı́tulo 7 131

Demostración:
Como X(t) = eAt X0 es una combinación lineal de las columnas de la matriz eAt , es
solución del sistema, y puesto que X(0)= IX0 = X0 , satisface la condición inicial.
Veamos que es la única: premultiplicando ambos miembros del sistema por la matriz
−At
e , tenemos:
e−At X0 (t) = e−At Ax(t),
y, como las matrices A y e−At conmutan, podemos escribir:

e−At X0 (t) − Ae−At X(t) = 0.

La regla de Leibniz para la derivación de un producto sigue siendo válida cuando los
factores son matrices, con lo que identificamos el primer miembro con la derivada de
e−At X(t). Por lo tanto, esta última función tiene que ser constante, y como en el 0 vale
X0 , se tiene que e−At X(t) = X0 para todo t. Por consiguiente,
−1
X(t) = e−At X0 = eAt X0 .

Observación: Si las condiciones iniciales se dan en un punto arbitrario t0 , es decir,


X(t0 ) = X0 , basta cambiar t por t − t0 ; es decir, la solución es

X(t) = eA(t−t0 ) X0 .

Corolario: Si A ∈ Rn×n , el espacio de soluciones del sistema diferencial homogéneo


X0 (t) = Ax(t) tiene dimensión n, y por lo tanto la solución general es X(t) = eAt C,
siendo C un vector de constantes arbitrarias.
Demostración: Ya sabemos que la dimensión es mayor o igual que n. Por otro lado,
el problema de valores iniciales tiene solución única y, por tanto, toda solución X está
caracterizada por los valores X(0). Si tomamos la base canónica (e1 , . . . en ) de Rn y
resolvemos los n problemas de valores iniciales
 0
X (t) = Ax(t)
, i = 1, 2, . . . , n
X(0) = ei

obtenemos n soluciones Xi (t) linealmente independientes que claramente generan todas,


pues la (única) solución de

 X0 (t) = Ax(t)
n
P , αi ∈ R
 X(0) = αi ei
i=1

n
P
es αi Xi (t). 
i=1
132 Álgebra (2019/20)

7.3.4 El caso complejo.

En todo este tema se han estudiado las soluciones del sistema diferencial X0 (t) = AX(t)
con A ∈ Rn×n . Naturalmente, cabe la posibilidad de que la matriz A tenga autovalores
complejos no reales, lo que da lugar tanto a soluciones reales como a soluciones com-
plejas no reales. En esta asignatura vamos a interesarnos únicamente por las soluciones
reales. Por este motivo, es conveniente realizar en este momento una serie de comentarios.
Contemplaremos matrices de orden n = 2 y n = 3.

Caso n = 2:

Sea A ∈ R2×2 . Como se estudió en el tema 6, si A admite un autovalor λ1 = α+iβ ∈ C\R,


entonces λ2 := λ1 = α − iβ también es autovalor de A. Sea u = (ux , uy ) un autovector
de A asociado a λ1 . Como sabemos, u es autovector de A asociado a λ2 .
La solución general del sistema diferencial X0 (t) = AX(t) se puede expresar ası́:

eλ1 t 0
  
c1
X(t) = [u|u]
0 eλ1 t c2
= c1 e λ 1 t u + c2 e λ 1 t u
= c1 eλ1 t u + c2 eλ1 t u.

La expresión anterior es real (para todo valor de t) si y solo si c1 = c2 . Por este motivo,
las soluciones reales se pueden escribir de la forma X(t) = 2Re c1 eλ1 t u . Es conveniente
observar que estas soluciones son oscilatorias, afirmación que se aprecia con mayor claridad
en la siguiente expresión:

X(t) = 2Re c1 eλ1 t u



 
αt c1 ux (cos(βt) + i sen(βt))
= 2e Re .
c1 uy (cos(βt) + i sen(βt))

Caso n = 3:

Puesto que el polinomio caracterı́stico de A es de grado impar, A tiene un autovalor


real. Llamemos λ3 a dicha autovalor y λ1 , λ2 a los dos autovalores complejos no reales
(obviamente, de nuevo λ2 = λ1 ). Además, sean u, u y v autovectores de A asociados
a λ1 , λ2 y λ3 respectivamente. En este caso, la solución general del sistema diferencial
Capı́tulo 7 133

X0 (t) = AX(t) se puede expresar ası́:


eλ1 t 0
  
0 c1
X(t) = [u|u|v]  0 eλ1 t 0   c2 
0 0 e λ3 t c3
= c1 eλ1 t u + c2 eλ1 t u + c3 eλ3 t v
= c1 eλ1 t u + c2 eλ1 t u + c3 eλ3 t v.

Realizando el mismo razonamiento que en el caso n = 2 se llega a que las soluciones reales
admiten la expresión
X(t) = 2Re c1 eλ1 t u + c3 eλ3 t v.


Por supuesto esta solución también es oscilatoria.

7.4 Ejemplos de aplicaciones en Ingenierı́a


Muchos problemas en Ingenierı́a vienen asociados a matrices, de tal forma que, si encon-
tramos una expresión más sencilla de dicha matriz (respecto a alguna base), entonces el
problema será mucho más fácil de resolver, y a continuación bastará deshacer el cambio.
En numerosos ejemplos dicha “expresión más sencilla” se trata de la forma diagonal
de una matriz. Si la matriz es diagonalizable, hemos aprendido cómo diagonalizarla (o
diagonalizarla unitariamente); en caso de que la matriz no sea diagonalizable, sabemos
que existe su forma canónica de Jordan.
Por tanto, en cualquier caso, podemos pasar, mediante un cambio de base, a una
forma sencilla, que nos permite resolver fácilmente problemas en Ingenierı́a. Veamos
algunos ejemplos que se dan en la realidad.

Ejemplo: La barra estabilizadora de un vehı́culo tiene como función solidarizar el


movimiento vertical de las ruedas opuestas de un mismo eje, minimizando con ello el
balanceo que sufre la carrocerı́a de un vehı́culo cuando es sometido a la fuerza centrı́fuga,
tı́picamente en curvas. Un modelo de vehı́culo empieza a tener problemas por desajuste
de las cotas de suspensión. Se desea averiguar si reside el problema en la barra estabi-
lizadora, por lo que se somete a un ensayo en un banco de pruebas para ver las tensiones
que soporta en un recorrido determinado.
Se obtiene el siguiente resultado de tensiones máximas alcanzadas, que forman la
matriz de tensiones:  
2 0 0
T= 0 3 4 
0 4 −3
medidas en unidades MPa (megapascales). Se denominan ejes principales o direcciones
principales de las tensiones del material a los subespacios propios de T. Se pide:
134 Álgebra (2019/20)

1. Determinar la estructura de la matriz de tensiones mecánica en los ejes principales


del material.
2. Determinar las direcciones principales de las tensiones mecánicas de este material
y comprobar que mediante un cambio de base adecuado, dicha matriz se expresa
como una matriz diagonal.
p
3. La tensión máxima que se alcanza se calcula como λ21 + λ22 + λ23 . Decidir si hace
falta reforzar el material de la barra con algún tipo de recubrimiento que el confiera
mayor resistencia a tracción, sabiendo que el material tiene un valor de tensión
admisible de tracción y compresión de 20 MPa.

Solución al problema del automóvil:


1. El estado tensional, expresado en el sistema de los ejes o direcciones principales,
debe tener forma diagonal (por propia definición). Por tanto, los valores propios
nos indicarán los valores numéricos de las tensiones alcanzadas en las direcciones
principales (que vendrán determinadas por los vectores propios) Es necesario por
tanto hallar los valores propios de T, que son las raı́ces del siguiente polinomio:
 
2−λ 0 0
4  = (2 − λ) λ2 − 25

det (T − λI) = det  0 3−λ
0 4 −3 − λ

ası́ que los valores propios son 2,5 y −5. La matriz de tensiones expresada en la base
de vectores propios (que nos indican las direcciones principales de las tensiones del
material) es la matriz diagonal
 
2 0 0
 0 5 0  MPa.
0 0 −5

2. Las direcciones principales son los subespacios propios de T :


ker (T − 2I) = L[(1, 0, 0)t ]
    
−3 0 0 0
ker (T − 5I) = ker  0 −2 4  =L   2 
0 4 −8 1
   
−7 0 0 0
ker (T + 5I) = ker  0 8 4  = L  −1 
0 4 2 2
Si se considera una matriz P cuyas columnas forman base ortonormada de autovec-
tores
1 0 0
 
2 1
P =  0 √5 √5 
−2
0 √15 √ 5
Capı́tulo 7 135

al ser P−1 = Pt por ser matriz ortogonal, podemos comprobar fácilmente que

1 0 0 1 0 0
     
2 0 0 2 0 0
−1 t 2 1 2 1
P TP = P TP =  0 √
5

5
  0 3 4   0 √5 √5  =  0 5 0  .
−2 −2
0 √15 √ 5
0 4 −3 0 √15 √ 5
0 0 −5

En otras palabras, la matriz de tensiones, referida a sus direcciones principales,


resulta diagonal, como era de esperar.
√ √
3. La tensión máxima que se alcanza en valor absoluto es 52 + 52 + 22 = 54MPa<<
20 MPa por lo que está correctamente dimensionado para aguantar esfuerzos de
tracción y compresión según el estado tensional al que está sometido en el problema.

7.4.1 Ejercicios propuestos


1. Hallar la solución general del sistema de ecuaciones diferenciales x0 (t) = Fx(t) donde
F es la matriz definida en el ejercicio 5.1. Asimismo determinar la única solución
que satisface x(0) = (1, 2, 3)t .

2. El Museo de la ETSII desea contratar un nuevo sistema de seguridad basado en


detectores de movimiento y de presencia de última generación. Para ello se sinte-
tiza un nuevo material en el laboratorio del que, en las condiciones experimentales
utilizadas, se pueden obtener monocristales sin excesiva dificultad. Con el fin de
concretar esta posible aplicación del cristal para alarmas de movimiento, se realizan
varios ensayos obteniendo el siguiente resultado:
 
2 1 1
10−3  1 2 1  .
1 1 2

Se pide:

(a) Determinar la estructura de la matriz de conductividad térmica en los ejes


principales del material, para analizar si los valores son adecuados para dicho
fin.
(b) Determinar las direcciones principales del material para saber cómo debe orien-
tarse. Comprobar que se obtiene un tensor de conductividad térmica diagonal
en las direcciones principales.
(c) ¿En qué dirección orientarı́as el sensor de cara a conducir mejor el calor? ¿Por
qué?
(d) Sabiendo que la matriz de conductividades es la inversa de la de resistividades,
hallar la matriz de resistividades térmicas en las direcciones principales, y de-
ducir el valor de la resistividad térmica en los ejes originales del laboratorio de
ensayos.
136 Álgebra (2019/20)

3. Uno de los módulos de las electrónicas de control de los coches de los trenes posee
unas conexiones eléctricas en forma de trenzados hechos de un material tetragonal
(un tipo de estructura cristalina) que además es conductor (conduce electricidad).
Para un correcto funcionamiento de estas conexiones y evitar derivaciones eléctricas,
deben ofrecer resistividad solo a lo largo de sus ejes principales, por lo que debe
posicionarse de acuerdo a los mismos.
Una muestra en forma de cubo de ese material conductor tetragonal se somete
a medidas de resistividad eléctrica en un laboratorio de ensayos, y se obtiene el
siguiente resultado:  
16 0 0
 0 10 −6 
0 −6 10
en unidades µΩm. Se pide:

(a) Expresar la resistividad a lo largo de los ejes principales del material, para
poder posicionar dichos elementos de forma adecuada. Determinar a su vez las
direcciones principales del material con vectores unitarios.
(b) ¿Qué dirección escogerı́as para garantizar las condiciones óptimas de con-
ducción eléctrica?
(c) Sabiendo que la matriz de conductividades es la inversa de la de resistividades,
hallar la matriz de conductividades en las direcciones principales, y deducir el
valor de la conductividad en los ejes originales del laboratorio de ensayos.
Capı́tulo 7 137

7.5 Ejercicios
7.1.– Sean α, β ∈ R y  
α −β
C := .
β α
Hallar eCt empleando la definición de exponencial como suma infinita.

7.2.– Se considera el sistema diferencial lineal


 
0 −3 1
X (t) = X(t). (∗)
−6 2
Se pide:
a) Mediante un cambio de variable adecuado, transformar el sistema (∗) en un sistema
de la forma
Y0 (t) = DY(t)
con D diagonal.
b) Escribir la solución general de (∗).

7.3.– Resolver el sistema diferencial


 0
 x = 3x − 2y + 2z
y 0 = −x + 2y − z
 0
z = −2x + 2y − z.
7.4.– Resolver el sistema diferencial
 0
 x = x + 2y + z
y 0 = 6x − y
 0
z = −x − 2y − z.

7.5.– Sean M ∈ Rn×n idempotente y v ∈ Im (M). Resolver el PVI


(
X0 (t) = MX(t)
X(0) = 2v.

7.6.– Hállese el conjunto de funciones x, y : R → R, de clase C 1 (con primeras derivadas


continuas) solución del siguiente sistema de ecuaciones diferenciales lineales con coefi-
cientes constantes:
y 0 (t) = −ω 2 x(t)
x0 (t) = y(t)
Hállese la solución del sistema en el caso de tener condiciones iniciales x(0) = 1, y(0) = 0.
(El sistema de ecuaciones anterior es equivalente a resolver x00 (t) = −ω 2 x(t), la ecuación
diferencial del oscilador armónico.)
138 Álgebra (2019/20)

7.7.– Hallar la solución general del sistema diferencial

x01 (t) = −x1 (t) − x2 (t) + 3x3 (t)


x02 (t) = x1 (t) + x2 (t) − x3 (t)
x03 (t) = −x1 (t) − x2 (t) + 3x3 (t).

Hállese también la solución del sistema que verifica las condiciones iniciales x1 (0) = 1,
x2 (0) = 0 y x3 (0) = 0.
Soluciones a los ejercicios propuestos

Capı́tulo 1
1.1.–

z + w = 7 + i.
3z − 4w = −7 + 10i.
iz + w = 2 + 2i.
zw = 14 + 5i.
z zw 10 11
= 2
= + i.
w |w| 17 17
1.2.–
2 + 11i 2 + 11i 3 − 4i
= · = 2 + i.
3 + 4i 3 + 4i 3 − 4i
1.3.–
• 1 = 1ei·0 . Su argumento principal es 0.
π
• i = 1ei 2 . Su argumento principal es π2 .
√ π
• 1 + i = 2ei 4 . Su argumento principal es π4 .
√ π
• 3 + i = 2ei 6 . Su argumento principal es π6 .
√ 2π
• −1 − i 3 = 2e−i 3 . Su argumento principal es − 2π
3
.

1.4.– Empleando la fórmula de De Moivre para n = 3 y desarrollando obtenemos:

(cos θ + i sen θ)3 = cos 3θ + i sen 3θ


cos3 θ + 3(cos2 θ)i sen θ + 3 cos θ(i sen θ)2 + (i sen θ)3 = cos 3θ + i sen 3θ
cos3 θ − 3 sen2 θ cos θ + i 3 sen θ cos2 θ − sen3 θ = cos 3θ + i sen 3θ.
 

139
140 Álgebra (2019/20)

Identificando las partes reales e imaginarias, se llega a


(
cos 3θ = cos3 θ − 3 sen2 θ cos θ = 4 cos3 θ − 3 cos θ
sen 3θ = 3 sen θ cos2 θ − sen3 θ = 3 sen θ − 4 sen3 θ,
de donde se despejan trivialmente las identidades del enunciado.

1.5.–

1. Puesto que los tres vectores forman una matriz cuadrada de orden 3, el proced-
imiento más sencillo consiste en averiguar para qué valores del parámetro no se
anula el determinante de dicha matriz:

1 −1 2

2
0 1 = −a + 3 6= 0 ⇔ a 6= 3
a 1 0

que son los valores de a que hacen linealmente independientes dichos vectores.

2. Precisamente para este valor el vector (a, 1, 0) depende linealmente de los dos
primeros, por lo que tenemos que estudiar si el nuevo vector (1, 1, −1) depende
linealmente de aquéllos. Por el mismo procedimiento de antes,

1 −1 2

2 0 1 = 0

1 1 −1

luego el tercer vector es combinación lineal de los dos primeros. De hecho, se aprecia
a simple vista que es la diferencia entre el segundo y el primero.

1.6.–
     
1 2 −1 3 1 2 −1 3 1 2 −1 3
 1 −1 λ 3  ∼  0 −3 λ + 1 0  ∼  0 −3 λ + 1 0 
3 2 5 µ 0 −4 8 µ−9 0 0 20 − 4λ 3µ − 27

(en el último paso se ha multiplicado la tercera fila por 3 y se le ha restado la segunda


multiplicada por 4). La independencia lineal equivale a que la última fila de esta matriz
triangular tenga algún elemento no nulo, es decir, a que (λ, µ) 6= (5, 9).

1.7.– Escribimos los tres vectores como las filas de una matriz (alterando el orden para
facilitar las operaciones) y procedemos a triangular mediante operaciones gaussianas:
   
−1 1 − i 1  0
 −1 1 − i 1
F3 = F3 − F2
 1+i 1 0  0 ∼ 0 3 1+i 
F2 = F2 + (1 + i)F1
1 + i 1 − 3i 1 − i 0 −3i 1 − i
Soluciones ejercicios 141
 
−1 1 − i 1
F300 = F30 + iF20

∼ 0 3 1+i 
0 0 0
que nos permite concluir que los tres vectores son linealmente dependientes.
Otra forma: También se podrı́a haber calculado el determinante de la matriz y como da
0 (compruébese), se tiene los tres vectores son linealmente dependientes.

1.8.–

1. P está constituido por los vectores de R4 que satisfacen simultáneamente dos


ecuaciones implı́citas homogéneas, lo cual como sabemos caracteriza a un subes-
pacio.
dim P = 4 − 2 = 2 pues está caracterizado por dos ecuaciones en R4 . Si en dichas
ecuaciones tratamos (x3 , x4 ) como parámetros libres y les damos los valores (1, 0) y
(0, 1), obtenemos dos vectores de P linealmente independientes, es decir, una base
de P : ((1, 0, 1, 0), (0, 1, 0, 1)).

2. La condición de pertenencia a H equivale a x + y + z = 0 ∨ x − y + z = 0, es decir,


la unión de dos planos de R3 que (salvo que fuesen coincidentes) no es subespacio.
En efecto, los vectores (1, −1, 0) y (1, 1, 0) pertenecen a H, mientras que su suma
(2, 0, 0) no pertenece. Ası́ pues, este conjunto no es cerrado para la suma.

3. M no puede ser subespacio puesto que no contiene al vector nulo.

4. El vector nulo pertenece a N , pues su producto vectorial por cualquier vector es 0.


Sean dos vectores u, v ∈ N , es decir, u × (1, 2, −1) = 0 y v × (1, 2, −1) = 0; sean
α, β ∈ R cualesquiera escalares. Veamos si podemos concluir que la combinación
lineal αu + βv pertenece a N . En efecto, por las propiedades del producto vectorial,

(αu + βv) × (1, 2, −1) = (αu) × (1, 2, −1) + (βv) × (1, 2, −1) =

= α(u × (1, 2, −1)) + β(v × (1, 2, −1)) = α0 + β0 = 0.


Ası́ pues, N es cerrado para las combinaciones lineales, es decir, subespacio vectorial.
Otra forma: Desarrollando el producto vectorial tenemos que los vectores de N son
aquellos que cumplen que (x, y, z) × (1, 2, −1) = (−y + 2z, x + z, 2x + y) = (0, 0, 0).
Igualando coordenada a coordenada, tenemos tres ecuaciones implı́citas homogéneas
y por lo tanto es un espacio vectorial. De las tres ecuaciones solo dos son linealmente
independientes (compruébese). Por tanto, cualquier vector no nulo que cumpla las
ecuaciones será una base.
Otra forma: N está formado por los vectores cuyo producto vectorial por (1, 2, −1)
es nulo, es decir, los proporcionales a (1, 2, −1), luego N = L[(1, 2, −1)]. Ello nos
permite a su vez concluir que una base la constituye ese mismo vector.
142 Álgebra (2019/20)

5. Sabemos que la unión de subespacios no lo es salvo que uno de ellos se encuentre


contenido en el otro. Ası́ pues, nuestra tarea se reduce a comprobar si la recta está
contenida en el plano, o lo que es lo mismo, si el vector (1, −3, 2) es combinación
lineal de (1, −2, 1), (1, −1, 0). En efecto,
   
1 −2 1 1 −2 1
 1 −1 0  ∼  0 1 −1 
1 −3 2 0 −1 1

nos indica que el tercer vector depende linealmente de los dos primeros. En con-
clusión, en este caso sı́ tenemos un subespacio, que coincide con L[(1, −2, 1), (1, −1, 0)].
Ası́ pues, es obvio que una base es ((1, −2, 1), (1, −1, 0)).

6. De nuevo tenemos una unión de subespacios, pero en esta ocasión


     
1 −2 1 1 −2 1 1 −2 1
 1 −1 0  ∼  0 1 −1  ∼  0 1 −1  ,
2 −3 0 0 1 −2 0 0 −1

lo que garantiza que los tres vectores son linealmente independientes; ası́,
L[(2, −3, 0)] * L[(1, −2, 1), (1, −1, 0)] y no tenemos subespacio.
También podrı́amos haber concluido que los vectores eran linealmente independien-
tes viendo que el determinante de la matriz es distinto de 0.

1.9.–
1. El tercer vector es 7 veces el primero menos el doble del segundo. (Escrı́base la
matriz cuyas filas son dichos vectores, triangúlese mediante operaciones gaussianas
y se observará que los tres restantes vectores son linealmente independientes.)

2. Por ejemplo, ((1, 1, 1, 1) , (1, 2, 3, 4) , (0, 1, 0, −1)) (hemos suprimido el tercer vector
porque sabemos que es combinación lineal de los restantes).

3. Basta ampliar la anterior con un cuarto vector de la forma (2, 2, 2, c) y que sea
independiente de los de la base anterior. Tras los cálculos, resulta ser válido para
todo c 6= 2.

1.10.–

(a, b, c) = x1 (1, 1, 0) + x2 (1, 0, 1) + x3 (0, 1, 1) = (x1 + x2 , x1 + x3 , x2 + x3 ).

Se trata de resolver el sistema

x1 + x2 = a
x1 + x3 = b
x2 + x3 = c
Soluciones ejercicios 143

Es sencillo observar que sumando las dos primeras ecuaciones y restando la tercera, obten-
a+b−c
emos 2x1 = a + b − c, es decir, x1 = .
2
Procediendo de igual modo con x2 y x3 (o simplemente observando la simetrı́a de a, b, c
respecto a x1 , x2 , x3 ), concluimos que el vector de coordenadas es
1
(a + b − c, a − b + c, −a + b + c) .
(x1 , x2 , x3 ) =
2
1.11.– Debemos comprobar que los vectores de V son linealmente independientes. Tomamos
una combinación lineal arbitraria de dichos vectores y la igualamos a 0,
α(u1 + u3 ) + β(−2u1 + u2 ) + γ(−u2 + u3 ) = 0,
lo que equivale a
(α − 2β)u1 + (β − γ)u2 + (α + γ)u3 = 0,
lo que, en virtud de la independencia lineal de los vectores u1 , u2 , u3 , implica que los tres
coeficientes de esta última combinación lineal son nulos. Ello nos proporciona un sistema
lineal homogéneo en α, β, γ cuya matriz de coeficientes es
 
1 −2 0
 0 1 −1 
1 0 1
(obsérvese que sus columnas son los vectores de coordenadas respecto a B de los vectores
de V), que mediante operaciones gaussianas entre las filas nos conduce a
   
1 −2 0 1 −2 0
 0 1 −1  ∼  0 1 −1  .
0 2 1 0 0 3
Es decir: el sistema sólo tiene la solución nula, lo que asegura que los tres vectores de V
son linealmente independientes y, por consiguiente, V es base de R3 .
Para calcular el vector de coordenadas pedido, igualamos las dos expresiones de dicho
vector,
u1 + u2 + u3 = α(u1 + u3 ) + β(u2 − 2u1 ) + γ(u3 − u2 ) = (α − 2β)u1 + (β − γ)u2 + (α + γ)u3
y, por la unicidad de las coordenadas, nos queda el sistema
α − 2β = 1
β−γ = 1
α+γ = 1
Lo escribimos matricialmente y resolvemos por el método de eliminación de Gauss
triangularizando la matriz:
     
1 −2 0 1 1 −2 0 1 1 −2 0 1
 0 1 −1 1  ∼  0 1 −1 1  ∼  0 1 −1 1 
1 0 1 1 0 2 1 0 0 0 3 −2
144 Álgebra (2019/20)

que despejando “de abajo a arriba” nos proporciona γ = − 23 , β = − 32 + 1 = 1


3
,
α = 23 + 1 = 53 .
1
El vector de coordenadas es (5, 1, −2).
3

1.12.–

1. Dado que la base está compuesta de 3 vectores, el número de ecuaciones indepen-


dientes será 5 − 3 = 2. Si escribimos las ecuaciones paramétricas de M ,

x1 = α+γ
x2 = β+γ
x3 = α−β
x4 = β−γ
x5 = α−γ

observamos fácilmente que x3 = x1 − x2 = x5 − x4 , luego unas ecuaciones implı́citas


son

x1 − x2 − x3 = 0
x3 + x4 − x5 = 0.

2. Como ya disponemos de las ecuaciones, basta imponer que el vector dado las veri-
fique, es decir: 1 − 1 − a = 0 ⇔ a = 0; 0 + b − 1 = 0 ⇔ b = 1.

3.
(1, 1, 0, 1, 1) = λ(1, 0, 1, 0, 1) + µ(0, 1, −1, 1, 0) + ν(1, 1, 0, −1, −1)
equivale al sistema

λ+ν = 1
µ+ν = 1
λ−µ = 0
µ−ν = 1
λ−ν = 1

cuya resolución es inmediata y proporciona los valores λ = µ = 1, ν = 0.


El vector de coordenadas es, pues, (1, 1, 0). También podrı́amos haber observado
por simple inspección que el vector considerado es la suma de los dos primeros de
la base.

1.13.–
Soluciones ejercicios 145

1. Escribiendo los tres vectores como filas de una matriz y realizando dos sencillas
operaciones de reducción gaussiana,
   
1 2 0 1 1 2 0 1
 1 0 1 −1  ∼  0 −2 1 −2  ,
1 −2 2 −3 0 −4 2 −4

observamos que la dimensión del subespacio es 2, luego el número de ecuaciones


implı́citas independientes será 4 − 2 = 2. Una base es por ejemplo ((1, 2, 0, 1),
(0, −2, 1, −2)). Ası́, las ecuaciones paramétricas serán x1 = α, x2 = 2α − 2β, x3 =
β, x4 = α−2β. De ahı́ se deduce inmediatamente que x2 = 2x1 −2x3 y x4 = x1 −2x3 ,
con lo que unas ecuaciones implı́citas de H pueden ser:

x1 − 2x3 − x4 = 0
2x1 − x2 − 2x3 = 0

Otra forma: Colocamos los tres vectores como las columnas de una matriz, y forzamos,
realizando operaciones de reducción gaussiana por filas, a que un cuarto vector
columna genérico de R4 sea combinación lineal de ellos:
     
1 1 1 x1 1 1 1 x1 1 1 1 x1
 2
 0 −2 x2   0 −2 −4 x2 − 2x1   0 1 2
∼ ∼ x3 

 0 1 2 x3
  0 1 2 x3   0 0 0 2x3 + x2 − 2x1

1 −1 −3 x4 0 −2 −4 x4 − x 1 0 0 0 2x3 + x4 − x1

lo que nos permite deducir las mismas ecuaciones implı́citas obtenidas antes.
Nota: Pese a haberse obtenido casualmente las mismas ecuaciones por ambos pro-
cedimientos, existe una infinidad de pares de ecuaciones implı́citas equivalentes; se
trata en definitiva de dos ecuaciones independientes cualesquiera que sean verificadas
por los vectores que generan H.

2. La dimensión de cualquier suplementario de H vale 4 − 2 = 2. Para encontrar un


suplementario bajo los requisitos del enunciado, debemos hallar dos vectores cuyas
combinaciones lineales satisfagan dichos requisitos y sean linealmente independientes
con los dos que generan H. Probamos, por ejemplo, con (1, 0, 1, 1), (0, 0, 1, 1) (sus
combinaciones lineales tienen sus dos últimas componentes iguales, pero no todas
nulas), y comprobamos si al reunirlos con una base de H obtenemos una base de R4 .
Por comodidad en las operaciones colocamos estos dos vectores como la primera y
la última fila de una matriz, y mediante sencillas operaciones gaussianas,
     
1 0 1 1 1 0 1 1 1 0 1 1
 1
 2 0 1 
∼ 0
 2 −1 0  ∼  0 2 −1
 0 

 0 −2 1 −2   0 −2 1 −2   0 0 0 −2 
0 0 1 1 0 0 1 1 0 0 1 1
146 Álgebra (2019/20)

concluimos que los cuatro vectores son linealmente independientes y por tanto nues-
tra elección ha sido válida. Ası́, una base de un posible suplementario la constituye
((1, 0, 1, 1), (0, 0, 1, 1)), de donde se deduce inmediatamente que unas ecuaciones
implı́citas de dicho subespacio son x2 = 0, x3 − x4 = 0.
Nota: El suplementario, aun verificando la condición adicional exigida por el enun-
ciado, no es único.

1.14.– El subespacio V tiene dimensión 4 − 2 = 2 (ya que una de las ecuaciones depende
linealmente de las otras dos). Su suplementario en R4 es cualquier subespacio L de
dimensión 2 (dim L = 4 − dim V = 2) tal que L ∩ V = {(0, 0, 0, 0)}. Por tanto, dicho
suplementario no es único. Basta tomar, por ejemplo, el subespacio L de ecuaciones
x1 = x2 = 0, que son dos ecuaciones independientes de las que determinan V .

1.15.–

1. Es claro que ((1, 0, 2, 2), (1, 1, 0, 1)) es una base de U . Ası́, unas ecuaciones paramétricas
de U son x1 = α + β, x2 = β, x3 = 2α y x4 = 2α + β. De aquı́ podemos obtener
inmediatamente unas ecuaciones implı́citas de U : x1 = x2 + x3 /2 y x4 = x2 + x3 .
El vector (1, 2, −2, 0) de la base de V cumple estas ecuaciones y por tanto la dim(U ∩
V ) ≥ 1. De hecho, como el vector (0, 1, 1, 2) no cumple las ecuaciones de U tenemos
que dim(U ∩ V ) = 1 y de la relación de Grassmann dim(U + V ) = 3. Una base
de U ∩ V es la formada por el vector (1, 2, −2, 0) que ya hemos visto que pertenece
a ambos subespacios. Una manera sencilla de obtener una base de U + V es dar
3 vectores linealmente independientes que estén en U o en V . Por ejemplo, una
posible base de U + V es ((1, 0, 2, 2), (1, 2, −2, 0), (0, 1, 1, 2)) dada por un vector de
U que no está en V , un vector de U ∩ V y un vector de V que no está en U (3
vectores de U + V linealmente independientes).
Nota: Estas bases no son únicas.

2. Como antes, se tiene que ((1, 2, 1, 0), (0, −1, 0, 1)) es una base de U . Ası́, unas
ecuaciones paramétricas de U son x1 = α, x2 = 2α − β, x3 = α y x4 = β. De
aquı́ podemos obtener inmediatamente unas ecuaciones implı́citas de U : x1 = x3 y
x2 = 2x1 − x4 .
A simple vista, unas ecuaciones implı́citas de V son x1 = x2 y x3 = x4 .
Entonces U ∩ V es el conjunto de vectores que cumplen las ecuaciones de U y
V a la vez. Estos son los vectores tal que x1 = x2 = x3 = x4 , y una base de
este subespacio es la formada por el vector (1, 1, 1, 1). Aplicando la relación de
Grassmann obtenemos que dim(U + V ) = 2 + 2 − 1 = 3 y una posible base de U + V
es ((0, −1, 0, 1), (1, 1, 1, 1), (0, 0, 1, 1)) formada por un vector de U que no está en
V , un vector de U ∩ V y un vector de V que no está en U (3 vectores de U + V
linealmente independientes).
Nota: Las bases dadas no son únicas. Nótese también que ninguno de los dos vectores
de la base de V pertenece a U y sin embargo U ∩ V 6= {(0, 0, 0, 0)}.
Soluciones ejercicios 147

1.16.– Tanto F como G están contenidos en F + G, cuya dimensión no puede exceder


de la suma de las dimensiones ni de la del total Rn , luego

máx(p, q) ≤ dim (F + G) ≤ mı́n(p + q, n).

Por otro lado, F ∩ G está contenido tanto en F como en G, y como la relación de


Grassmann nos dice que dim(F ∩ G) = dim F + dim G − dim(F + G) ≥ dim F + dim G − n,

máx(0, p + q − n) ≤ dim (F ∩ G) ≤ mı́n (p, q) .

1.17.–

1. Es claro que los vectores pedidos son:

q1 = (1, 1, 1, 1), q2 = (−1, 2, −2, 1), q3 = (1, 4, 0, 3), q4 = (3, 0, 4, 1).

2. Este apartado puede hacerse de varias formas; lo más sencillo es aplicar reducción
gaussiana:

  F 0 =F +F ,  
1 1 1 1 2 2 1
F30 =F3 −F1 ,
1 1 1 1
 −1 2 −2 1  0
4 −3F1 ; 0 3 −1 2 
 F4 =F

 −→  
 1 4 0 3   0 3 −1 2 
3 0 4 1 0 −3 1 −2

Se concluye que los vectores q1 y q2 generan H y son linealmente independientes,


por tanto tomamos como base BH = (q1 , q2 ).

3. Tenemos que encontrar dos vectores que junto con q1 y q2 formen una base de R4 .
Lo más sencillo es tantear con los vectores canónicos. Si escogemos, por ejemplo,
los dos primeros e1 y e2 resulta:
 
1 1 1 1
 −1 2 −2 1 
 1 0 0 0  = 3 6= 0
det  

0 1 0 0

ası́ pues podemos tomar T como el subespacio que admite por base (e1 , e2 ). Para
hacer la descomposición que nos piden, buscamos las coordenadas de v en la base
(q1 , q2 , e1 , e2 ):

v = a1 q1 + a2 q2 + b1 e1 + b2 e2

sustituyendo:

(3, −2, 3, 0) = a1 (1, 1, 1, 1) + a2 (−1, 2, −2, 1) + b1 (1, 0, 0, 0) + b2 (0, 1, 0, 0)


148 Álgebra (2019/20)

operando llegamos a a1 = −a2 = b1 = −b2 = 1, es decir:

v = (q1 − q2 ) + (e1 − e2 ) = (2, −1, 3, 0) + (1, −1, 0, 0).

El vector (2, −1, 3, 0) pertenece a H y (1, −1, 0, 0) a T .


Nota: El suplementario no es único. De hecho, se puede elegir un suplementario T
que contenga al vector v. En dicho caso, como v ∈ T tendrı́amos que v = 0 + v
con 0 ∈ H y v ∈ T .

4. El vector v corresponde al polinomio V (x), el vector (1, 0, 0, 0) al polinomio 1 y


(0, 1, 0, 0) al x, por tanto

V (x) = 3 − 2x + 3x2 = a1 Q1 (x) + a2 Q2 (x) + b1 + b2 x = Q1 (x) − Q2 (x) + 1 − x.

Nota: Está descomposición dependerá del suplementario T escogido en el apartado


anterior y de su base.

1.18.– 1. F / 2. V / 3. F / 4. F / 5. V

1.19.– 1. V / 2. V / 3. V / 4. F / 5. V

1.20.– 1. F / 2. F / 3. V / 4. F / 5. F

1.21.– 1. V / 2. V / 3. V / 4. V / 5. F

1.22.– 1. V / 2. F / 3. F / 4. F / 5. V
Soluciones ejercicios 149

Capı́tulo 2
2.1.– Podemos escribir el vector (2, −1) como combinación lineal de los del enunciado,
de la siguiente forma:      
2 3 1
=5 − 13
−1 5 2
luego, por la propiedad de linealidad,
     
      2 −5 75
2 3 1
f = 5f − 13f = 5  −4  − 13  3  =  −59  .
−1 5 2
1 4 −47

Por otro lado, la matriz de la aplicación lineal f es aquella matriz A que verifica f (x) = Ax.
De los datos anteriores se deduce que
 
  2 −5
3 1
A =  −4 3 ,
5 2
1 4

entonces podemos hallar dicha matriz A como


   
2 −5  −1 29 −17
3 1
A =  −4 3  =  −23 13  .
5 2
1 4 −18 11

De ello también se deducirı́a que la imagen por f de (2, −1) es


   
    29 −17   75
2 2 2
f =A =  −23 13  =  −59  .
−1 −1 −1
−18 11 −47

2.2.– La matriz buscada puede calcularse ası́:


  −1     
9 5 3 2 9 5 −1 2 1 3
A= = = .
11 3 2 1 11 3 2 −3 −5 13

2.3.– Para a = 3, dim Im A = r(A) = 2 y dim ker A = 4 − 2 = 2. Unas ecuaciones


paramétricas del núcleo son 

 x1 = −8α − 17β
x2 = 5α + β


 x3 = 7α
x4 = 7β

150 Álgebra (2019/20)

y una base de la imagen es ((1, 2, 1), (2, 5, 1)).


Observación: Un procedimiento general para encontrar una base para la imagen de
una matriz A, es reducir mediante operaciones elementales por columnas a la matriz A.
Los vectores no nulos que nos queden al final del proceso, serán una base del subespacio
Im A.
Aplicando el procedimiento anterior a la matriz A (para a = 3), nos queda:
   
1 3 −1 2 1 0 0 0
A =  2 −1 3 5 ∼ 2 1 0 0 .
1 10 −6 1 1 −1 0 0
De esta manera, una base alternativa para Im A es la constituida por los vectores ((1, 2, 1), (0, 1, −1)).
Para a 6= 3, dim Im A = r(A) = 3, dim ker A = 4 − 3 = 1, la base canónica de R3 es
una base de Im A y unas ecuaciones paramétricas del núcleo son:


 x1 = 11α
x2 = 0

.

 x3 = α
x4 = −5α

2.4.–

1. La matriz pedida es
  −1     
1 2 3 1 1 1 1 2 3 0 0 1 3 −1 −1
 2 0 2  1 1 0  =  2 0 2  0 1 −1  =  2 −2 2 .
3 −2 1 1 0 0 3 −2 1 1 −1 0 1 −3 5

Otra forma: Teniendo en cuenta que el producto de cualquier matriz A ∈ Km×n


por el j-ésimo vector canónico da como resultado la j-ésima columna de A, es decir
Aej = Cj (A), nos queda:

  
1 3
C1 (A) = Ae1 = A 0
  =  2 .
0 1
Por otro lado,
   
2 1
 0  = A  1  = A(e1 + e2 ) = C1 (A) + C2 (A)
−2 0
 
−1
⇒ C2 (A) =  −2  .
−3
Soluciones ejercicios 151

Para la tercera columna de A tenemos:


   
1 1
 2  = A  1  = A(e1 + e2 + e3 ) = C1 (A) + C2 (A) + C3 (A)
3 1
 
−1
⇒ C3 (A) =  2  .
5

2. Una base del núcleo es ((1, 2, 1)) y una base de la imagen es ((3, 2, 1), (−1, −2, −3)).
Unas ecuaciones cartesianas del núcleo son 2x − y = 0; y − 2z = 0. Una ecuación
cartesiana de la imagen es x − 2y + z = 0.

3. Los transformados de los vectores de M son combinación lineal de los transformados


de los vectores que generan M , y éstos son:
       
1 1 2 4
A 2
  =  −2 ,  A 1
  =  4 .
0 −5 1 4

Dado que ((1, −2, −5), (4, 4, 4)) son vectores linealmente independientes, podemos
asegurar que forman base de dicho subespacio.

2.5.–

1. Puesto que 4 = dim(ker A) + dim(Im A) y 1 ≤ dim(Im A) < dim(ker A), la única


posibilidad es dim(Im A) = 1 y dim(ker A) = 3 , luego r(A) = 1.

2. Observamos que (1, 2, 3, 4) + (4, 3, 2, 1) = (5, 5, 5, 5) y (4, 3, 2, 1) ∈ ker A, luego el


vector suma de las 4 columnas de A es

       
1 5 1 4
 1  1  5  1  2   3 
C1 (A) + C2 (A) + C3 (A) + C4 (A) = A 
 1
= A   = A   +   =
 5  5  5  3   2 
1 5 4 1
        4 
1 4 1 5
1   2   3  1  2   3 
=  A  + A   = A   =  52  .
5   3   2  5  3   
5
1
4 1 4 5
152 Álgebra (2019/20)

2.6.– Para calcular el rango de la matriz cuadrada M de orden n, a cada columna


restamos la siguiente (empezando desde la primera columna hasta la penúltima); esto nos
lleva a la matriz  
a−b 0 ··· 0 0 b
..
 b − a a − b ...
 
. 0 b 

.. .. .. 
 0

b−a . 0 . . 

 ... 
 0
 0 a − b 0 b 

 .. .. ... 
 . . b−a a−b b 
0 0 ··· 0 b−a a
que tiene el mismo rango que M. A continuación, a la primera fila le sumamos todas las
demás, obteniendo
 
0 ···
0 0 0 (n − 1) b + a
.. ..
.
 
 b−a a−b . 0 b 

.. .. .. 

0 b−a . 0 . .

.
 
 ..

 0 0 . a−b 0 b 

 .. .. ... 
 . . b−a a−b b 
0 0 ··· 0 b−a a

Si además colocamos la primera fila en último lugar, llegamos a una matriz escalonada
que tiene el mismo rango que M :

..
 
...
 b−a a−b . 0
..
b
..
...

 0 b−a 0 . .
 

 ... 
 0
 0 a−b 0 b 

 .. .. .. 
 . . . b−a a−b b 
 
 0 0 ··· 0 b−a a 
0 0 ··· 0 0 a + (n − 1) b

luego el rango es máximo si a 6= b y a 6= (1 − n)b; en ese caso M es invertible. Además,


el rango de M es:

• n si a 6= b y a 6= (1 − n)b

• n − 1 si a = (1 − n)b 6= 0

• 1 si a = b 6= 0

• 0 si a = b = 0.
Soluciones ejercicios 153

2.7.– Las inversas son, respectivamente,


 
  1 1 1 1
58 −26 −1
 −2 1 1 −i −1 i 
1 0 ; 
4  1 −1 1 −1 
−49 22 1
1 i −1 −i

2.8.– Si a cada fila se le resta la posterior multiplicada por a, se obtiene la matriz


identidad; realizando el mismo proceso sobre las filas de la identidad se deduce la inversa:
 
1 −a 0 0 0
 0
 1 −a 0 0 

 0
 0 1 −a 0 .

 0 0 0 1 −a 
0 0 0 0 1

En general, toda matriz triangular proviene P de realizar combinaciones lineales entre las
filas de la matriz identidad, del tipo ak,k Fk + m>k ak,m Fm (para triangulares superiores,
por ejemplo), desde la primera fila (k = 1) hasta la última (k = n). La matriz es invertible
si y sólo si dichas operaciones son reversibles, y para ello es necesario y suficiente que
a1,1 , . . . , an,n (elementos de la diagonal principal)
P sean no nulos. En tal caso, la operaciones
elementales inversas son del tipo a−1 k,k (F k − m>k ak,m Fm ), desde la última fila (k = n)
hasta la primera (k = 1). Efectuadas sobre las filas de la identidad, proporcionan la
matriz inversa, que resulta ser triangular del mismo tipo (superior, en el caso del ejemplo
indicado).

2.9.– Considerando desde la última fila hasta la segunda de la matriz del enunciado, si
a cada fila se le suman todas sus anteriores, se obtiene una matriz bidiagonal (del tipo
de la del ejercicio anterior, con a = 1); si a continuación a cada fila (desde la penúltima
a la primera) se le suma su siguiente fila, se obtiene finalmente la matriz identidad. Ello
indica que este tipo de matrices son invertibles, y sus inversas se obtienen efectuando esas
mismas operaciones sobre las filas de la matriz identidad.
En el caso particular de la matriz de orden 6 del enunciado, su inversa es
 
6 5 4 3 2 1
 5 5 4 3 2 1 
 
 4 4 4 3 2 1 
 3 3 3 3 2 1 .
 
 
 2 2 2 2 2 1 
1 1 1 1 1 1
154 Álgebra (2019/20)

Para el caso general de la matriz de orden n con la misma estructura de la del enun-
ciado, realizando estas mismas operaciones entre filas se llega a que su inversa es
 
n n − 1 ··· 3 2 1
 n − 1 n − 1 ··· 3 2 1 
 
 .. .. .. .. .. 
 . . . . . 
 .
 3
 3 · · · 3 2 1 

 2 2 ··· 2 2 1 
1 1 ··· 1 1 1
Estos son ejemplos de matrices dispersas (es decir, con gran cantidad de elementos nulos)
cuyas inversas no son dispersas.

2.10.–
1. El vector de coordenadas de v = (2, 1, 1) respecto a la base B es el vector [v]B
solución del sistema    
1 −1 1 2
B
 0 1 −1 [v] =
  1 .
1 1 0 1
Resolviéndolo se obtienen las coordenadas [v]B = (3, −2, −3)t .
2. La matriz P de cambio de base de B a V tiene por columnas las coordenadas de los
vectores de V respecto de la base B. Por ejemplo, su primera columna será el vector
de coordenadas obtenido en el apartado anterior. Procediendo columna a columna
halları́amos la matriz P; de hecho, obsérvese que estarı́amos resolviendo la ecuación
matricial    
1 −1 1 2 1 1
 0 1 −1  P =  1 1 −1 
1 1 0 1 1 1
de donde se obtiene explı́citamente
 −1    
1 −1 1 2 1 1 3 2 0
P = 0 1 −1   1 1 −1  =  −2 −1 1  .
1 1 0 1 1 1 −3 −2 2
Nótese que esto coincide con la expresión P = B−1 V explicada en los apuntes (donde
B es la matriz cuyas columnas contienen los vectores de la base B, y V tiene por
columnas los vectores de la base V).
3. La matriz.de cambio de base de V a B es la inversa de la de cambio de base de de
B a V, es decir,  
0 −2 1
P−1 =  12 3 − 32  .
1 1
2
0 2
Soluciones ejercicios 155

4. Se nos dice que un vector u tiene coordenadas [u]B = (1, 2, 3)t respecto a la base B
y nos piden sus coordenadas [u]V respecto a la base V. Esto quiere decir que

u = B [u]B = V [u]V .

Despejamos la incógnita [u]V :

[u]V = V−1 B [u]B = P−1 [u]B

y simplemente operamos, aprovechando la matriz obtenida en el apartado anterior:


    
0 −2 1 1 −1
[u]V =  12 3 − 23   2  =  2  .
1 1
2
0 2
3 2

Obsérvese que desde el principio también podı́amos haber aplicado directamente la


expresión que aparece en los apuntes:

[u]B = P [u]V

de donde se deduce inmediatamente: [u]V = P−1 [u]B , llegando al mismo resultado.

2.11.– El contenido ker A ⊂ ker Ah A es trivial. El contenido ker Ah A ⊂ ker A se


deduce de

u ∈ ker Ah A ⇔ Ah Au = 0 ⇒ uh Ah Au = 0 ⇔ (Au)h (Au) = 0


Xn
⇔ |(Au)i |2 = 0 ⇔ (Au)i = 0 ∀i = 1, ..., n ⇔
i=1
⇔ Au = 0 ⇔ u ∈ ker A.

Por tanto, r(Ah A) = n − dim ker Ah A = n − dim ker A = r(A), y

Ah A = O ⇔ ker Ah A = Cn ⇔ ker A = Cn ⇔ A = O.

2.12.– Las matrices BC y CB son cuadradas de orden n y m respectivamente. Léase


atentamente la cadena de igualdades:
n
X n
X
tr(BC) = (BC)kk = Fk (B)Ck (C)
k=1 k=1
n n m
! m n
!
X X X X X
= (bk1 c1k + · · · + bkm cmk ) = bkj cjk = cjk bkj
k=1 k=1 j=1 j=1 k=1
m
X m
X
= Fj (C)Cj (B) = (CB)jj = tr(CB)
j=1 j=1
156 Álgebra (2019/20)

2.13.– En efecto, una matriz A ∈ Km×n tiene rango 1 si y sólo si es no nula, y sus
columnas son proporcionales a un vector a; por tanto puede escribirse como
   
a1 b 1 a1 b 2 · · · a1 b n a1
 a2 b 1 a2 b 2 · · · a2 b n   a2 
t

A =  .. ..  =  ..  b1 b2 · · · bn = ab
   
..
 . . .   . 
am b 1 am b 2 · · · am b n am
de donde se obtiene que todas sus filas son proporcionales al vector bt .
Además, si la matriz es cuadrada (m = n), entonces se verifica
A2 = abt abt = a(bt a)bt = (bt a)A,
donde hemos utilizado que bP t
a es un número y por tanto conmuta con la matriz A = abt .
De hecho, ese número b a = nk=1 bk ak coincide exactamente con la suma de los elementos
t

de la diagonal principal de A; es decir, es la traza de A. Por todo ello, A2 = traza (A) A.

2.14.– La solución del primer sistema es : x = 3 − z − 19 6


v, y = 52 − 32 z − 56 v, u =
3 5 3
− 2 − 2 z + 2 v ∀z, v ∈ R. La del segundo resulta x = 2y + 3, z = −y, ∀y ∈ R.

2.15.– Si denominamos (xi , yi ), i = 1, 2, 3 los tres vértices incógnita, relacionándolos


con sus puntos medios se llega a plantear los siguientes sistemas:
 
 x1 + x2 = 8  y1 + y2 = 2
x2 + x3 = 12 y2 + y3 = 4
x1 + x3 = 4 y1 + y3 = 6
 

que dan como solución los vértices (0, 2), (8, 0) y (4, 4). La solución es única puesto que
la matriz de coeficientes es invertible; sin embargo, para el problema del cuadrilátero, la
matriz de coeficientes resulta ser
 
1 1 0 0
 0 1 1 0 
 
 0 0 1 1 
1 0 0 1
que no es invertible pues no posee rango máximo, ya que la suma de las columnas pares
es igual a la suma de las impares. En general, la matriz de orden n
 
1 1 0 0 ··· 0
. . .. 
. . 

 0 1 1 0
. . .. 
 

 0 0 1 1 . . 
 . .
 .. . . . . . . . . . . . 0 

 

 0 . . . . . . . . . 1 1 

1 0 ··· ··· 0 1
Soluciones ejercicios 157

es invertible si y sólo si n es impar (lo cual puede comprobarse, por ejemplo, desarrollando
por la primera columna el determinante de dicha matriz). En resumen, el problema de
calcular los vértices de un polı́gono de n lados a partir de sus puntos medios sólo tiene
solución si n es impar.

2.16.– Aplicando el método de Gauss, el primer sistema es equivalente a


 2

1 1 a
b
 0 a−1 1−a b(1 − b) .
2
0 0 (1 − a)(a + 2) 1 + b − (a + 1)b

Por tanto, es compatible determinado si y sólo si a ∈ / {1, −2}. Si a = 1, obviamente el


sistema tiene solución (no única) sólo cuando b = 1. Si a = −2, existe solución
√ (inde-
2
terminada)√ cuando y sólo cuando 1 + b + b = 0, es decir, si b = (1 + i 3)/2 o bien
b = (1 − i 3)/2.
Las mismas operaciones entre filas llevan el segundo sistema a la forma
 
1 1 ab
b
 0 a−1 b(1 − a) 1−b .

0 0 b(1 − a)(a + 2) 2 − (a + 1)b

Se observa que tiene solución única si y sólo si a ∈


/ {1, −2} y b =
6 0 simultáneamente;
posee infinitas soluciones si a = b = 1 o bien si a = b = −2, y en el resto de los casos es
incompatible.

2.17.– La respuesta correcta es (C).

2.18.– 1. V / 2. F / 3. V / 4. V / 5. F

2.19.– 1. F / 2. F / 3. F / 4. V / 5. V / 6. F

2.20.– 1. V / 2. V / 3. F / 4. F / 5. V
158 Álgebra (2019/20)

Capı́tulo 3
3.1.– Dados los vectores (2, −1, 1) y (1, 0, 1)√ √ es h(2, −1, 1) , (1, 0, 1)i =
, su producto escalar
3, sus normas respectivas son k(2, −1, 1)k = 6, k(1, 0, 1)k = 2 y y el ángulo que forman
cumple √
3 3
cos α = √ √ =
6 2 2
ası́ que α = π/6.

3.2.– Por la desigualdad triangular se tiene


(∗)
kv − wk = kv − x + x − wk ≤ kv − xk + kx − wk.

Sabemos (véase (3.8)) que la igualdad en (∗) se da si y solo si los vectores son propor-
cionales con constante de proporcionalidad no negativa, luego existe a ≥ 0 tal que

v − x = a(x − w),

despejamos x:
1
x= (v + aw).
1+a
Obsérvese que 1 + a > 0 ya que a es no negativo.

3.3.– Si se impone que el producto escalar entre cada dos de ellos sea nulo, se llega a
a = 2, b = 9, c = 2.

3.4.– Se deduce fácilmente observando que hv + w, v − wi = kvk2 − kwk2 .

3.5.– Para demostrar la igualdad (F + G)⊥ = F ⊥ ∩ G⊥ probaremos en primer lugar


(F + G)⊥ ⊂ F ⊥ ∩ G⊥ :

x ∈ (F + G)⊥ ⇔ ∀y ∈ F + G hx, yi = 0

F ⊂ F + G ⇒ ∀y ∈ F hx, yi = 0 ⇒ x ∈ F ⊥ ; G ⊂ F + G ⇒ ∀y ∈ G hx, yi = 0 ⇒ x ∈ G⊥

⇒ x ∈ F ⊥ ∩ G⊥ .

Y ahora comprobemos que también se verifica F ⊥ ∩ G⊥ ⊂ (F + G)⊥ :

x ∈ F ⊥ ∩ G⊥ ⇒ ∀y ∈ F hx, yi = 0 ∧ ∀z ∈ G hx, zi = 0
⇒ ∀(y + z) ∈ F + G hx, y + zi = 0 ⇒ x ∈ (F + G)⊥ .

Demuéstrese el segundo apartado aplicando el primero y sabiendo que para un subes-


pacio cualquiera M ⊂ Rn se cumple (M ⊥ )⊥ = M .
Soluciones ejercicios 159
 
1 1
3.6.– √ (1, −1, 0), √ (5, 5, 2) .
2 54

3.7.– Se trata de un hiperplano L y una recta M , cuyo vector director es (1, 1, . . . , 1)t ,
precisamente el vector normal al hiperplano L. Por tanto, son subespacios suplementarios
ortogonales.
Por otro lado, cada vector x = (x1 , · · · , xn ) de Rn puede escribirse como

x = (x1 − c, · · · , xn − c) + c(1, . . . , 1)

donde c = (x1 + · · · + xn ) /n, de forma que x se ha escrito como un vector de L más otro
de M (denominados proyección ortogonal de x sobre L y M, respectivamente).
En particular, si x = (1, 0, 0, · · · , 0)t su proyección ortogonal sobre L es
1
(n − 1, −1, · · · , −1) .
n
1
3.8.– (4.0, 2, 2).
3
3.9.–
 
1
1. √ (−2, 1, 1, 1) .
7
2. 
    
7 9 −2
 7   6   1 
b=
 7 = 6
  +
  1 .

7 6 1

3.10.– La distancia entre un vector y un subespacio es la norma de la diferencia entre


el vector dado y su proyección sobre dicho subespacio. En este caso se obtiene que la
distancia es 2.

3.11.– 1. En virtud del teorema de la proyección ortogonal el vector u puede expresarse


como u = λv + w para un cierto escalar λ y hv, wi = 0, siendo Pu := λv la proyección
pedida. Determinamos λ multiplicando escalarmente por v:

hv, ui = hv, λv + wi = λkvk2 + hv, wi = λkvk2 ;

al ser v no nulo, su norma es positiva y podemos despejar λ, con lo que obtenemos:


hv, ui
Pu = v.
kvk2

vt u vvt vvt
2. Pu = v = u. La matriz pedida es P = .
kvk2 kvk2 kvk2
160 Álgebra (2019/20)

3.

 
t 1 1 1 1
vv 1  1
P= 2
=  1  1 1 1 =  1 1 1 .
kvk 3 3
1 1 1 1

El rango de P es 1, sus columnas son proporcionales a v, por lo que una base de la imagen
es (v). La matriz P es simétrica, entonces (véase fórmula (3.14)) su núcleo e imagen son
suplementarios ortogonales. Dos vectores ortogonales y ortogonales a (v) nos darán una
base ortogonal del núcleo, por ejemplo:
   
1 1
 −1  ,  1  .
0 −2

4. La reunión de bases ortonormales de núcleo e imagen de P nos proporcionan la base


pedida:
      
1 1 1
 √1  1  , √1  −1  , √1  1  .
3 1 2 0 6 −2

3.12.– Para calcular a hacemos el determinante de la matriz formada por los tres vec-
tores,

1 0 1

0 a 1 = −a − 1 6= 0 ⇔ a 6= −1.

1 1 0

El menor entero positivo es a = 1. Para ortonormalizar por Gram–Schmidt, sı́ganse las


fórmulas (3.26) con la misma notación. Entonces:
   
1 1
u1 1  
u1 =  0  ⇒ q1 = =√ 0 ,
ku1 k 2
1 1

       
0 0 1 −1
1 1
u2 =  1  ⇒ q̃2 = u2 − hu2 , q1 iq1 =  1  −  0  =  2 
2 2
1 1 1 1

 
−1
q̃2 1
⇒ q2 = = √  2 ,
kq̃2 k 6 1
Soluciones ejercicios 161
 
1
u3 =  1  ⇒ q̃3 = u3 − hu3 , q1 iq1 − hu3 , q2 iq2
0

       
1 1 −1 1
1 1 2
= 1 −  0 −  2 =  1 
2 6 3
0 1 1 −1

 
1
q̃3 1
⇒ q3 = = √  1 .
kq̃3 k 3 −1

La base pedida es:


     
1 −1 1
 √1  0  , √1  2  , √1  1  .
2 1 6 1 3 −1

3.13.– Para calcular las columnas de la matriz Q se aplica el método de Gram-Schmidt


a las columnas de la matriz propuesta, a la que llamaremos A, y se obtiene:
 
−3 2 2
 2 −3 2 
1 
Q=  2 2 −3 
.
5
 2 2 2 
2 2 2

Se tiene A = QR (∗) con R triangular superior de orden 3; observemos que para obtener
esta matriz no hace falta despejar las columnas de A en función de las de Q, basta con
multiplicar por la izquierda en (∗) por Qt y tener presente que Qt Q = I:

A = QR ⇒ R = Qt QR = Qt A.

Al efectuar este último producto se llega a:


 
5 2 −10
R= 0 3 0 
0 0 5

1 1 1
3.14.– a = ± √ , b = ± √ , c = ± √ .
2 6 3
162 Álgebra (2019/20)
 
a b
3.15.– Sea Q = una matriz ortogonal; es decir Qt Q = I. Efectuando el
c d
producto llegamos a:

a2 + c2 = 1 ⇒ ∃ θ ∈ R, a = cos θ, c = sen θ
b2 + d2 = 1 ⇒ ∃ ϕ ∈ R, b = cos ϕ, d = sen ϕ
ab + cd = 0 ⇒ cos θ cos ϕ + sen θ sen ϕ = 0
π
⇒ cos(θ − ϕ) = 0 ⇒ ϕ = θ + + kπ, k ∈ Z (3.3)
2
Por otro lado, det Q = ad − bc, pero, conforme a las fórmulas anteriores

ad − bc = cos θ sen ϕ − cos ϕ sen θ = sen(ϕ − θ) (3.4)

Si det Q = 1, combinando (3.3) y (3.4) se llega a


π
ϕ=θ+ + 2kπ ⇒ cos ϕ = − sen θ, sen ϕ = cos θ;
2
1. Por tanto, las matrices ortogonales de orden 2 y determinante 1 son de la forma:
 
cos θ − sen θ
Q= . (3.5)
sen θ cos θ

2. La aplicación x 7→ Qx transforma el primer vector canónico e1 en la primera


columna de Q, geométricamente equivale a girar e1 un ángulo θ en sentido an-
tihorario, y lo mismo vale para el segundo vector canónico que se transforma en
la segunda columna de Q. Debido a la linealidad, transformar por Q un vector
cualquiera consiste en girarlo un ángulo θ en sentido antihorario. Además, un ejer-
cicio elemental prueba xt Qx = cos θ kxk2 para cualquier vector x. Si este es no
nulo, entonces forma un ángulo con su transformado cuyo coseno es cos θ.

3.16.–
 
h
 1
hu, vi = v u = −i −1 = −2i 6= 0;
i
ku + vk2 = |1 + i|2 + | − 1 + i|2 = 4, kuk2 = 2 = kvk2

Observamos que se cumple ku + vk2 = kuk2 + kvk2 a pesar de que los vectores u y v no
son ortogonales. Este resultado no contradice el teorema de Pitágoras que solo es cierto
para espacios reales.

3.17.–

ku + vk2 = kuk2 + hu, vi + hv, ui + kvk2 ,


ku + ivk2 = kuk2 + hu, ivi + hiv, ui + kvk2 .
Soluciones ejercicios 163

Las condiciones del enunciado equivalen a

hu, vi + hv, ui = 2Re hu, vi = 0,

hu, ivi + hiv, ui = −ihu, vi + ihv, ui = 2 Imhu, vi = 0.

Pero si el número complejo hu, vi tiene partes real e imaginaria nulas es nulo, luego se
concluye que u y v son ortogonales.

1 1
3.18.– a = ± √ , b = ± √ .
2 2

3.19.– De la condición Uh U = I se obtiene que At A + Bt B = I, At B = Bt A. Por tanto


    
t At B t A −B At A + Bt B −At B + Bt A
MM= = = I.
−Bt At B A −Bt A + At B Bt B + At A

3.20.– 1. V / 2. F / 3. F / 4. V / 5. F

3.21.– 1. F / 2. V / 3. V / 4. F

3.22.– 1. F / 2. V / 3. F / 4. V / 5. V / 6. V

3.23.– 1. V / 2. F / 3. V / 4. F
164 Álgebra (2019/20)

Capı́tulo 4
4.1.– Una base de la recta x = y = 2z es ((2, 2, 1)). Por tanto, la matriz de proyección
ortogonal sobre dicha recta es
   
2 4 4 2
1  1
P=  2  2 2 1 =  4 4 2 
9 9
1 2 2 1
La matriz de simetrı́a ortogonal respecto de dicha recta es
     
4 4 2 1 0 0 −1 8 4
2 1
S = 2P − I =  4 4 2  −  0 1 0  =  8 −1 4 
9 9
2 2 1 0 0 1 4 4 −7
4.2.– La recta, subespacio suplementario ortogonal del plano 2x + 2y + z = 0 es
L [(2, 2, 1)]. Por tanto, la matriz de proyección ortogonal sobre dicho plano es
   
4 4 2 5 −4 −2
1 1
P = I −  4 4 2  =  −4 5 −2 
9 9
2 2 1 −2 −2 8
La matriz de simetrı́a ortogonal respecto a dicho plano es
     
5 −4 −2 1 0 0 1 −8 −4
2 1
S = 2P − I =  −4 5 −2  −  0 1 0  =  −8 1 −4 
9 9
−2 −2 8 0 0 1 −4 −4 7
Obsérvese que se trata de la matriz de Householder, definida por el vector v = (2, 2, 1)t ,
de modo que puede ser calculada mediante la expresión:
2
S = I − t vvt
vv
y, luego, calcular la matriz de proyección ortogonal por medio de P = 12 (I + S).
Obsérvese, también, que es igual a la matriz opuesta de la obtenida en el ejercicio 4.1,
ya que 2x + 2y + z = 0 y L [(2, 2, 1)] son suplementarios ortogonales.
4.3.– Una base del subespacio de R4 de ecuaciones

x1 + x2 = 0
x3 + x4 = 0
 
1 0
 −1 0 
es ((1, −1, 0, 0) , (0, 0, 1, −1)). Si A = 
 0
, entonces la matriz de proyección
1 
0 −1
ortogonal sobre dicho subespacio es:
 
1 −1 0 0
−1 t 1  −1 1 0 0 
P = A At A A =  
2 0 0 1 −1 
0 0 −1 1
Soluciones ejercicios 165

De modo alternativo, dado que la base obtenida es ortogonal, basta considerar los
vectores columna u1 = (1, −1, 0, 0)t , u2 = (0, 0, 1, −1)t y aplicar la fórmula
 
1 −1 0 0
u1 ut1 u2 ut2 1 −1 1 0 0 
P= + 2 =
.
ku1 k 2
ku2 k 2  0 0 1 −1 
0 0 −1 1

Un último método consiste en normalizar los dos vectores de dicha base, para obtener la
matriz de proyección ortogonal por medio de:
 1 
√ 0
 
2 ! 1 −1 0 0
 − √1 1 1
2
0   √2 − √2 0 0 1 −1 1 0 0 
P= = .

1 1 1
 0 √ 0 0 √ − √ 2 0 0 1 −1
  
2  2 2
0 − √12 0 0 −1 1

4.4.–
 
b c −2
1. Para que P = a  −4 5 d  ∈ R3×3 sea proyección ortogonal es necesario y
−2 −2 8
suficiente que P sea simétrica e idempotente (P = Pt y P2 = P). Por la simetrı́a de
P se tiene c = −4, d = −2. Introduciéndolos en la igualdad P = P2 , se obtiene:
   2 
b −4 −2 b + 20 −4b − 16 −2b − 8
a  −4 5 −2  = a2  −4b − 16 45 −18  ,
−2 −2 8 −2b − 8 −18 72

de donde se deduce a = 19 , b = 5.
 
5 −4 −2
2. El subespacio sobre el que proyecta P = 19  −4 5 −2  es su subespacio
−2 −2 8
columna (es decir, la imagen de P). Como el rango de P es igual a 2, una base de
dicho subespacio M es ((−2, −2, 8)
 , (−4, 5, −2)), o bien ((1, 1,−4) , (0, 1, −2)). Una
base ortonormal es, por ejemplo, 3√1 2 (1, 1, −4) , √12 (1, −1, 0) .
 
4 4 2
3. La matriz de la proyección ortogonal sobre M ⊥ es I − P = 19  4 4 2 .
2 2 1
166 Álgebra (2019/20)

4.5.–
1. La matriz de Householder, definida por el vector v, viene dada por Hv (2, 2, −1)t =
(3, 0, 0)t . Por tanto, puede determinarse v = (2, 2, −1) − (3, 0, 0) = (−1, 2, −1), y
dicha matriz de Householder es:
     
−1 1 −2 1 2 2 −1
2  1 1
Hv = I−  2  −1 2 −1 = I−  −2 4 −2  =  2 −1 2 
6 3 3
−1 1 −2 1 −1 2 2

Puede demostrarse que, en general, si v = u − (kuk , 0, . . . , 0) 6= 0, entonces Hv u =


t
kuk 0 · · · 0 . Además, no existe otra matriz de Householder H 6= Hv que
t
cumpla Hu = kuk 0 · · · 0 .
t
2. La matriz de Householder, definida por el vector w, viene dada por Hw 2 2 −1 =
t
−3 0 0 . Por tanto, w = (2, 2, −1) − (−3, 0, 0) = (5, 2, −1), y dicha matriz de
Householder es:
     
5 25 10 −5 −10 −10 5
2  1 1 
Hw = I−  2  5 2 −1 = I−  10 4 −2  = −10 11 2 
30 15 15
−1 −5 −2 1 5 2 14

Obsérvese que los vectores v y w (obtenidos en ambos apartados) son ortogonales


entre sı́. Este último resultado puede comprobarse de modo general: sean
t t
Hv x = kxk 0 · · · 0 Hw x = − kxk 0 · · · 0 .

Entonces v = x − kxk e1 y w = x+ kxk e1 , donde e1 es el primer vector canónico, y se


tiene que

hv, wi = hx − kxk e1 , x + kxk e1 i = kxk2 + x1 kxk − x1 kxk − kxk2 = 0.

4.6.–
1. Recordemos que dada una base de un subespacio M podemos calcular una matrix
de proyección ortogonal sobre M mediante la expresión PM = QQt , donde Q es
una matriz cuyas columnas forman una base ortonormal de ese subespacio.
Por tanto, en primer lugar debemos normalizar la base B. Ası́ obtenemos una base
ortonormal para M llamada B 0 :
r  √   √   √  


1/ 2 −√ 2 1/ 5 −2/3
2 , 2 
B0 =  √0 √2
 =  0  ,  2/3 

5 3
2 1/ 2 2/ 5 1/3

La matriz PM resulta
Soluciones ejercicios 167


1/ 5 −2/3  √ √ 
   
29/45 −4/9 8/45
1/ 5 0 2/ 5
PM = QQt =  0√ 2/3  =  −4/9 4/9 2/9 
−2/3 2/3 1/3
2/ 5 1/3 8/45 2/9 41/45

2. Escrito en formato matricial (Ax = b), el sistema de ecuaciones equivale a


    
−1 1 0 x1 1
 1 1 −1   x2  =  0 
a −1 1 x3 −1

La matriz de simetrı́a ortogonal respecto a M se calcula ası́


 
13/45 −8/9 16/45
SM = 2PM − I =  −8/9 −1/9 4/9 
16/45 4/9 37/45

El sistema que queremos encontrar tiene la forma A0 x0 = b0 , donde cada solución


x0 es el simétrico ortogonal de x. Por tanto, x = SM x0 . Sustituyendo esta relación
en el sistema original:
   0   
−1 1 0 13/45 −8/9 16/45 x1 1
 1 1 −1   −8/9 −1/9 4/9   x02  =  0  ⇒
a −1 1 16/45 4/9 37/45 x03 −1
  0   
−53/45 7/9 4/45 x1 1
⇒ −43/45 −13/9 −4/45   x02  =  0 
(13a + 56)/45 (−8a − 3)/9 (16a − 17)/45 x03 −1
El resultado es el sistema de ecuaciones buscado en formato matricial.
4.7.– La matriz de coeficientes del sistema incompatible
   
1 0   1
 1 1  x = 2 
y
2 1 1
es de rango igual a 2; por tanto, su solución de mı́nimos cuadrados es única. Dicha
solución puede obtenerse a partir de las ecuaciones normales (sistema que resulta compa-
tible determinado):
   
  1 0     1
1 1 2  x 1 1 2  
1 1  = 2 ;
0 1 1 y 0 1 1
2 1 1
    
6 3 x 5
=
3 2 y 3
resultando x = 31 , y = 1.
168 Álgebra (2019/20)

4.8.– La matriz de coeficientes del sistema incompatible


   
1 1   0
 2 1  x = 1 
y
2 1 2

es de rango igual a 2; por tanto, su solución de mı́nimos cuadrados es única. Dicha


solución puede obtenerse a partir de las ecuaciones normales (sistema que resulta compa-
tible determinado):
   
  1 1     1
1 2 2  x 1 2 2  
2 1  = 2 ;
1 1 1 y 1 1 1
2 1 1
    
9 5 x 6
=
5 3 y 3

resultando x = 32 , y = − 23 .

4.9.–
1. Obsérvese que
    2
x1 1 y
n
  1 2
x2 1  m  y2
  
m
X   
(mxk + p − yk )2 =  −  ..  = A − y
 
.. ..  p

p
k=1

. .   . 


xn 1 yn

Los valores m, p que minimizan esta expresión son las soluciones de mı́nimos cuadra-
dos del sistema de matriz de coeficientes A (de rango 2, ya que las abscisas xk se
supone que no son todas iguales) y vector de términos independientes y. Por tanto,
la solución de mı́nimos cuadrados es única y se calcula resolviendo el sistema com-
patible y determinado de ecuaciones normales:
 Pn 2
Pn    Pn 
Pnk=1 xk k=1 xk m
= P k=1
n
xk y k
k=1 xk n p k=1 yk

Para resolverlo, es cómodo utilizar las definiciones de media, que se denotará x̄, y
varianza de un vector x, que se denotará σx , a saber:
n n
1X 1X
x̄ = xk , σx = (xk − x̄)2 ;
n k=1 n k=1

y la correlación entre dos vectores σx,y = n1 nk=1 xk yk −x̄ȳ. Se obtienen finalmente


P 

las soluciones
σx,y σx,y
m= , p = ȳ − x̄.
σx σx
Soluciones ejercicios 169

2. En Estadı́stica, la recta de regresión suele escribirse como y = σσx,y


x
(x − x̄) + ȳ. En
el caso particular del enunciado, la recta de regresión es y = 0.05x + 1.5 tal y como
aparece en la siguiente figura.

3.5

2.5

1.5

0.5
1 2 3 4 5 6 7 8 9 10 11

Puntos del ejemplo y recta de regresión asociada

4.10.–
1. Se observa fácilmente que el subespacio F es un plano de ecuación x − y + z = 0. Su
subespacio ortogonal es la recta L[(1, −1, 1)]; por tanto, la proyección de v = (1, 1, 1)
sobre el plano F puede calcularse como
     
1 1 1
1 2
PF (v) =  1  −  −1  =  2  .
3 3
1 1 1

2. Las soluciones de mı́nimos cuadrados (o pseudosoluciones) del sistema Ax = v son


las soluciones del sistema
Ax =PIm(A) (v) .
En este caso, vemos que las columnas de A generan el subespacio F, luego Im (A) =
F y basta resolver el sistema Ax =PF (v) , es decir:
 
1
2
Ax =  2  .
3
1
Se obtienen fácilmente las soluciones de dicho sistema: el vector de términos in-
dependientes es igual a la segunda columna de A, multiplicada por 23 , luego una
t
solución particular es 0, 32 , 0 . Y por otro lado ker (A) = L[(1, −1, 1)t ] luego las
soluciones pedidas son  
2
x = t, − t, t , t ∈ R.
3
170 Álgebra (2019/20)

Estas son las soluciones de mı́nimos cuadrados del sistema inicial Ax = (1, 1, 1)t .
Obsérvese que las mismas pseudosoluciones se habrı́an obtenido también mediante
las ecuaciones normales, que es otro método aplicable.

4.11.–
 
1 b −8
1. Para que S = a  c 7 −4  sea simetrı́a ortogonal es necesario y suficiente que
d −4 1
S sea simétrica y ortogonal (S = St y St S = I). Por la simetrı́a de S se tiene b = c
y d = −8; y por ser S ortogonal b + 7c − 4d = 0, −8 − 4c + d = 0, −8b − 28 − 4 = 0.
Dichas ecuaciones tienen como soluciones b = −4, c = −4, d = −8. Además, por ser
S ortogonal, cada columna es un vector unitario, lo cual implica que 81a2 = 1; es
decir, a = ± 91 .
 
1 −4 −8
2. Si a = 19 , entonces S = 19  −4 7 −4 . S simetriza respecto al subespacio
−8 −4 1
L = Im (S + I) = ker (S − I) que es el plano de ecuación 2x + y + 2z = 0. Una
base de dicho plano está constituida por u1 = (1, −2, 0)t , u2 = (0, 2, −1)t ; ortogo-
nalizándolos por Gram-Schmidt, se tiene:
  * 0   1 +  1   0     4 
0 1
1  4 5
v20 =  2 − 2  ,  −2   −2  =  2 +  −2  =  25 
5 5
−1 −1 0 0 −1 0 −1
    
1 4
y normalizando, se obtiene la base ortonormal pedida:  √15  −2  , 3√1 5  2 .
0 −5
 
1 −4 −8
3. Si a = − 91 , entonces S = − 91  −4 7 −4 . S simetriza respecto al subespacio
−8 −4 1
M = Im (S + I) = ker (S − I), cuyas ecuaciones implı́citas son

5x − 2y − 4z = 0
x − 4y + z = 0

es decir, se trata de una recta vectorial, generada por el vector (2, 1, 2).

4. La recta M , subespacio de dimensión 1, obtenida en el apartado 3., está generada


por el vector (2, 1, 2), que es ortogonal al plano L de dimensión 2. Por tanto, M es
el subespacio suplementario ortogonal de L en R3 .
También puede razonarse sabiendo que si S es una simetrı́a ortogonal respecto a
un subespacio F , entonces −S es una simetrı́a ortogonal respecto a F ⊥ . En efecto,
Soluciones ejercicios 171

si P es la proyección ortogonal respecto a F , entonces S = 2P − I; de donde


−S = I − 2P = 2 (I − P) − I, y se sabe que I − P es la proyección ortogonal sobre
F ⊥.

5. Para que S sea una matriz de Householder tiene que ser una simetrı́a respecto a
un plano (hiperplano en R3 ). Dicha situación se presenta en el caso 2. En ese caso
la matriz de Householder está definida por el vector v = (2, 1, 2), o cualquier otro
vector proporcional a él, no nulo.

4.12.– Utilizamos la fórmula que proporciona la matriz del giro

G = P + (cos ϕ) (I − P) + (sen ϕ) u
e.

En este caso el ángulo de giro es ϕ = 2π 3


, el eje de giro viene dado por el vector unitario
1 t
u = 3 (1, 1, 1) , y, a partir de él se definen las matrices


  
1 1 1 1
1 1
P = uut =  1  1 1 1 =  1 1 1  ,

3 3
1 1 1 1
   
0 −u3 u2 0 −1 1
1
e =  u3
u 0 −u1  = √  1 0 −1  .
−u2 u1 0 3 −1 1 0
Introduciéndolo en la fórmula se obtiene
√ !
 
  0 0 1
−1 3
G=P+ (I − P) + e =  1 0 0 .
u
2 2
0 1 0

4.13.– La única proposición falsa es la tercera.

4.14.– 1. F / 2. V / 3. V / 4. V / 5. V

4.15.– La proposición es verdadera


En efecto, las ecuaciones normales del sistema Px = b vienen dadas por Pt Px = Pt b,
que equivale, al ser P simétrica e idempotente, a Px = Pb. x = Pb es una solución de
mı́nimos cuadrados del sistema, ya que P (Pb) = Pb.
172 Álgebra (2019/20)

Capı́tulo 5
5.1.–

• Los valores propios de A son −2, 1; una base de vectores propios es ((2, 1), (1, 2)),
por tanto es diagonalizable. Una matriz que diagonaliza a A es
 
2 1
PA =
1 2

y podemos asegurar que  


−2 0
P−1
A APA = .
0 1

• La matriz B admite como único valor propio 1 doble y el subespacio caracterı́stico


correspondiente está generado por (1, 2), por tanto no es diagonalizable.

• Los valores propios de C son 0, 1, −1 y sus vectores propios correspondientes son


(1, −1, −1), (1, −2, 0), (1, −2, 2) o cualesquiera no nulos proporcionales a ellos. Por
tanto la matriz C es diagonalizable; una matriz que la diagonaliza es
 
1 1 1
PC =  −1 −2 −2 
−1 0 2

y verifica P−1
C CPC = diag (0, 1, −1) .

• La matriz D tiene como polinomio caracterı́stico λ(λ + 1)2 . Los valores propios son
pues 0 y −1 (doble). Un vector propio asociado a λ = 0 es (1, −1, 1). El subespacio
propio asociado a λ = −1 tiene dimensión 2. Una posible base de dicho subespacio
está formada por los vectores (−1, 1, 0), (−1, 0, 1). Como hay tres vectores propios
independientes, la matriz es diagonalizable y una matriz que la diagonaliza es
 
1 −1 −1
PD =  −1 1 0 
1 0 1

puesto que P−1


D DPD = diag (0, −1, −1) .

• El polinomio caracterı́stico de la matriz E es (λ + 1)(λ − 1)2 y dos vectores propios


independientes son (1, −2, 2) asociado a −1 y (1, −2, 0) asociado a 1; como este
último valor propio es doble y su subespacio caracterı́stico es de dimensión 1, la
matriz no es diagonalizable.

• Para la matriz F, el polinomio caracterı́stico es (λ − 1)3 , el subespacio caracterı́stico


está generado por el vector (1, −2, 0), como es de dimensión 1 no existe base de
vectores propios.
Soluciones ejercicios 173

5.2.– Multiplı́quese la matriz por el vector, se obtiene (2 − b, a + b − 1, −a) al imponer


que este vector sea proporcional a (1, 1, −1) se obtiene a = b = 1.

5.3.– Cualquiera que sea el valor de a, los valores propios de la matriz son 1 doble y
−4. Para que la matriz sea diagonalizable el subespacio propio asociado a 1 tiene que
tener dimensión 2, lo cual ocurre para a = 2.

5.4.– Los valores propios de la matriz son −1, −1 ± a + 2. Si a 6= −2 son simples y
por tanto la matriz es diagonalizable, Para a = −2 la matriz tiene un valor propio triple
por lo que no es diagonalizable, ya que las matrices con un único valor propio solo son
diagonalizables si son múltiplo escalar de la identidad.

5.5.– Calculemos en primer lugar los autovalores de la matriz:



λ
−1 6
χA (λ) = −1 λ −2 = λ3 − 2λ2 + 5λ = λ(λ − 1 − 2i)(λ − 1 + 2i)
−1 0 λ−2

Al ser los valores propios distintos la matriz es diagonalizable.


Un vector propio asociado a λ1 = 0 cumple las ecuaciones:

x1 = −2x3 , x2 = 6x3
 
−2
tomamos, por ejemplo, v =  6 . Para el autovalor λ2 = 1+2i resolvemos el sistema:
1
    
1 + 2i −1 6 x1 0
 −1 1 + 2i −2   x2  =  0 
−1 0 −1 + 2i x3 0

De la tercera ecuación obtenemos x1 = (−1 + 2i)x3 y, restando a la segunda  ecuación



−1 + 2i
la tercera, x2 = x3 . Un vector que satisface estas dos ecuaciones es w =  1 .
1
Para finalizar, un vector propio asociado a λ3 = 1 − 2i = λ2 es precisamente w. La matriz
P = [v w w] diagonaliza A, es decir:

P−1 AP = diag(0, 1 + 2i, 1 − 2i).

5.6.– El determinante de una matriz es igual al de su traspuesta y como consecuencia


también tienen el mismo polinomio caracterı́stico, en efecto:

χAt (λ) = det(λI − At ) = det(λI − A)t = det(λI − A) = χA (λ)


174 Álgebra (2019/20)

Por lo que respecta a los vectores propios, en caso de que la matriz sea diagonalizable se
puede escribir

P−1 AP = D ⇒ (P−1 AP)t = Dt = D ⇒ Pt At P−t = D

de donde se deduce que los vectores propios de At son las columnas de P−t . En general,
si λ es un valor propio de A lo único que se puede afirmar es que dim ker(A − λI) =
dim ker(At −λI) pero los subespacios son distintos y por tanto los vectores propios también
serán, por lo general, distintos.

5.7.– χA−2I (z) = (z − 1)13 (z + 6)7 .

5.8.– Si n es mayor que 1, la matriz es de rango 1 y su núcleo (de ecuación bt x = 0)


es de dimensión n − 1, por tanto 0 es valor propio de multiplicidad al menos n − 1; por
otro lado (abt )a = (bt a)a, luego bt a es valor propio con vector asociado a. La matriz es
diagonalizable siempre que el valor propio bt a sea no nulo.
La matriz del enunciado puede factorizarse
 
1
 2  
 ..  1 1 ... 1 ,
 
 . 
n

admite como valor propio no nulo 1 + 2 + ... + n = n(n + 1)/2 asociado al vector propio
(1, 2, ..., n). El subespacio propio asociado a cero tiene por ecuación x1 + x2 + ... + xn = 0.

5.9.–

λ autovalor de M ⇐⇒ a + λb autovalor de aI + bM.

El polinomio caracterı́stico de la matriz dada es χ(z) = (z − (c − d))n−1 (z − (c + (n − 1)d)).


Los valores propios son pues (c − d) y (c + (n − 1)d), con multiplicidades n − 1 y 1,
respectivamente.

5.10.– Los valores propios son 0 y ±ikwk. La matriz W es la matriz de la aplicación


lineal L, que representa el producto vectorial con el vector fijo w.
Aún más, el subespacio propio asociado al autovalor 0 es la recta generada por w,
pues está constituido por aquellos vectores v tales que w̃ × v = 0.
Obsérvese que los valores propios son imaginarios puros, como era de esperar, puesto
que la matriz es real antisimétrica, y por tanto antihermı́tica (y se ha visto en teorı́a que
las matrices antihermı́ticas tienen autovalores imaginarios puros).
Si w 6= 0 entonces los tres autovalores son distintos, luego la matriz es diagonalizable.
Y si w = 0 entonces la matriz W es nula, que es obviamente diagonalizable pues ya es
diagonal.
Soluciones ejercicios 175

5.11.– Aplicando el resultado general del ejercicio anterior, la primera matriz A es real
antisimétrica de orden 3, representa un producto vectorial con el vector w = (2, 2, 1)t , y
además es diagonalizable con valores propios 0 y ±ikwk = ±3i.
Un autovector real es cualquiera asociado al autovalor 0, y como hemos visto que
ker(A) = L[w] entonces un autovector es el mismo w = (2, 2, 1)t o cualquiera proporcional
a él no nulo.
Para calcular una matriz unitaria que la diagonalice, tenemos que obtener todos los
autovectores de A, y de ellos extraer una base ortonormada. Un autovector unitario de
ker A es u1 = 13 (2, 2, 1). Calculemos autovectores asociados al autovalor complejo 3i:
 
−3i −1 2  
1 − 3i −1 − 3i 0
ker(A − 3iI) = ker  1 −3i −2  = ker ,
−2 2 −3i
−2 2 −3i
de donde obtenemos fácilmente el vector (1 + 3i, 1 − 3i, −4), que al normalizarlo nos da
u2 = 16 (1 + 3i, 1 − 3i, −4).
En cuanto a ker(A + 3iI), al tratarse de una matriz real, basta conjugar el vector
anterior: u3 = 61 (1 − 3i, 1 + 3i, −4).
Colocando estos 3 vectores como columnas de una matriz U = (u1 |u2 |u3 ), sabemos
que A queda diagonalizada por U puesto que las columnas de U son autovectores de A.
Pero además las columnas de U son ortogonales dos a dos (compruébese) y unitarias, ası́
que U es una matriz unitaria y U−1 = Uh . Con todo ello, se tiene que
Uh AU = diag(0, 3i, −3i).
La segunda matriz del enunciado puede escribirse como B = 3I + A, siendo A la
matriz antisimétrica que acabamos de estudiar. Sus vectores propios (y por tanto la
matriz unitaria que la diagonaliza) son los mismos de A, mientras que sus valores propios
son 3, 3 + 3i, 3 − 3i.

5.12.– Obsérvese que la matriz es de la forma A = I + H, en donde H es real, anti-


simétrica y ortogonal; los autovalores de H serán imaginarios puros, conjugados dos a dos
y al mismo tiempo de módulo unidad, luego forzosamente han de ser ±i (ambos dobles).
Consecuentemente, nuestra matriz A tendrá los dos autovalores dobles 1 ± i.
También es sencillo calcular los valores propios directamente:


1−λ 0 0 1 1 − λ 1 0 0

0 1 − λ −1 0 0
0 1 − λ −1
|A − λI| = = 0
=
0 1 1 − λ 0 0 1 1−λ

−1 0 0 1−λ −1 1 − λ 0 0

1−λ 1 0 0

−1 1 − λ 0 0 2 2
=
0 0 1 − λ −1 = (λ − 2λ + 2) .

0 0 1 1−λ
176 Álgebra (2019/20)

λ2 − 2λ + 2 = 0 ⇔ λ = 1 ± i, de modo que tenemos los autovalores 1 + i, 1 − i dobles.


 
−i 0 0 1
 0 −i −1 0 
ker(A − (1 + i)I) = ker 
 0 1 −i 0  ,

−1 0 0 −i
de donde fácilmente podemos tomar dos vectores ortonormales como

1 1
u1 = √ (1, 0, 0, i), u2 = √ (0, 1, −i, 0).
2 2

Ello nos permite escoger a su vez sus conjugados

1 1
u3 = √ (1, 0, 0, −i), u4 = √ (0, 1, i, 0).
2 2

como vectores propios ortonormales al autovalor 1 − i.


asociados 
1 0 1 0
 0 1 0 1 
En conclusión: si U = √12  h
 0 −i 0 i , se cumple que U es unitaria y U AU =

i 0 −i 0
diag(1 + i, 1 + i, 1 − i, 1 − i).

5.13.– En una matriz de rango 1, A = uvh , hay n − 1 valores propios nulos y solo 1 no
nulo, que será igual a la traza de la matriz, es decir, vh u. En el caso considerado en este
ejercicio los valores propios son 1 (simple) y 0 (de multiplicidades algebraica y geométrica
n − 1). La matriz es diagonalizable.

5.14.–

1. Supóngase la matriz de orden n, entonces:

χA (z) = z n , χA−I (z) = (z + 1)n .

Los valores propios de A son todos nulos, y los de A − I valen todos −1.

2. traza (A − I) = −n, det(A − I) = (−1)n .

5.15.–

1. El polinomio caracterı́stico de S es z 4 − 1, sus raı́ces son las cuartas de la unidad


1, −1, i, −i. Al ser simples la matriz es diagonalizable; como vectores propios (en el
mismo orden) se obtienen (1, 1, 1, 1), (1, −1, 1, −1), (1, i, −1, −i), (1, −i, −1, i).
Soluciones ejercicios 177

2. Las primeras potencias de la matriz S son las siguientes:


    
0 1 0 0 0 1 0 0 0 0 1 0
 0 0 1 0   0 0 1 0   0 0 0 1 
S2 = 
 0 0 0
 = ,
1  0 0 0 1   1 0 0 0 
1 0 0 0 1 0 0 0  0 1 0
 0
0 0 0 1 1 0 0 0
 1 0 0 0   , S4 =  0 1 0
 0 
S3 = 
 0

1 0 0   0 0 1 0 
0 0 1 0 0 0 0 1
Sustituyendo en p(S) se obtiene,
 
c0 c1 c2 c3
 c3 c0 c1 c2 
p (S) = c0 I + c1 S + c2 S2 + c3 S3 = 
 c2

c3 c0 c1 
c1 c2 c3 c0

3. Los valores propios son p(1), p(−1), p(i), p(−i). Los vectores propios de S lo son de
p(S). Toda matriz que sea un polinomio en una matriz diagonalizable es a su vez
diagonalizable.
4. p(z) = 1 + 2z + 3z 2 + 4z 3 . Los valores propios son p(1) = 10, p(−1) = −2, p(i) =
−2 − 2i, p(−i) = −2 + 2i, según el apartado anterior, los vectores propios son los de
S, calculados en el primer apartado.
5.16.– Sea λ 6= 0 un valor propio de AB asociado a un vector v ∈ Cm \ {0}. Entonces
ABv = λv 6= 0 ⇒ Bv 6= 0
BA(Bv) = B(λv) = λBv
se deduce que λ es valor propio de BA y un vector propio asociado es Bv.
Puede demostrarse (no trivialmente) que además las multiplicidades algebraicas y
geométricas son las mismas. Probaremos la igualdad de las geométricas.
Supóngase dim ker(AB − λI) = s y sea (v1 , . . . , vs ) una base de dicho núcleo. La
familia {Bv1 , . . . , Bvs } es libre (demuéstrese) lo cual significa que dim ker(BA − λI) ≥ s.
Intercambiando los papeles de AB y BA se concluye la igualdad.
5.17.–
1. Calculemos el polinomio caracterı́stico:

λ−2 2 0

det(λI − A) = 2 λ − 1 2
0 2 λ
= λ(λ − 1)(λ − 2) − 4(λ − 2) − 4λ = (λ + 2)(λ − 1)(λ − 4).
Dado que los valores propios son simples podemos concluir que la matriz es diago-
nalizable.
178 Álgebra (2019/20)

2. Resolvemos el sistema lineal (A + 2 I)x = 0 y obtenemos que las soluciones son


proporcionales al vector v1 = (1, 2, 2)t ; análogamente un vector propio asociado a 1
es v2 = (2, 1, −2)t y por último v3 = (2, −2, 1)t es vector propio para el autovalor
4. Observamos que la base (v1 , v2 , v3 ) es ortogonal (los vectores son ortogonales
dos a dos). Notemos que la ortogonalidad no depende de los vectores concretos que
hemos escogido, ya que cualquier otra base de vectores propios estarı́a formada por
vectores proporcionales a los anteriores, lo cual preservarı́a la ortogonalidad.

3. Si la matriz Q diagonaliza por semejanza la matriz A cada una de sus sus columnas
tiene que ser un vector propio de A, por ejemplo, si Qt AQ = diag(−2, 1, 4) entonces
su primera columna q1 tiene que ser proporcional a v1 , lo mismo para la segunda y
tercera columnas de Q. Por otro lado, que Q sea una matriz ortogonal recordemos
que significa que sus columnas son ortogonales dos a dos y de norma 1, ası́ pues
basta tomar qj = vj /kvj k, j = 1, 2, 3. Observamos que kvj k = 3 para todo j; en
definitiva, podemos tomar:
 
1 2 2
1
Q=  2 1 −2  .
3
2 −2 1

5.18.– Denótese A la matriz. El polinomio caracterı́stico es (λ − 3)2 (λ − 2).



2 α 6= 2
rango (A − 3 I) =
1 α=2

En consecuencia: 1. F / 2. F / 3. V / 4. F / 5. F

5.19.– El polinomio caracterı́stico es [λ2 + (1 − a)λ − (a + 2)](λ − 3).


1. V / 2. F / 3. F / 4. V
Soluciones ejercicios 179

Capı́tulo 6
6.1.– Los valores propios son 8 (simple) y −1 (doble); una base ortonormal de vectores
propios asociados es
  √ √ ! √ √ √ !!
2 1 2 5 −2 5 4 5 2 5 − 5
, , , , ,0 , , , .
3 3 3 5 5 15 15 3

El primero corresponde al autovalor 8 y está univocamente determinado salvo el signo.


En cuanto a los dos últimos, asociados al −1, pueden escogerse en el plano de ecuación
2x1 + x2 + 2x3 = 0, siendo válidos una infinidad de otros resultados.

6.2.– Obsérvese que r(A) = 2, luego dim(ker A) = 4 − 2 = 2 y, puesto que A es


diagonalizable, 0 ha de ser valor propio doble. La traza nula indica que los dos restantes
deben ser opuestos entre sı́. En efecto,

1 − λ −1 1 1 −λ −λ 0 0 1 1 0 0

−1 1 − λ −1 −1 0 −λ −2 − λ −2
2 0
λ λ+2 2
= 1 −1 −1 − λ −1 = λ −1 1 λ + 1 1
=
1
−1 −1 − λ −1


1 −1 −1 −1 − λ 0 0 λ −λ 0 0 1 −1


1 2 0 0


2 0 λ λ+4 2
= λ2 (λ(λ + 2) − 2(λ + 4)) = λ2 (λ2 − 8).

−1 0 λ+2 1

0 0 0 −1
√ √
Ası́ pues, los autovalores son 0 (doble), 2 2 y −2 2.
Las ecuaciones simplificadas de ker A son x1 − x2 = 0, x3 + x4 = 0. Una base ortonor-
mal del mismo es, por ejemplo, la formada por u1 = √12 (1, 1, 0, 0), u2 = √12 (0, 0, 1, −1).

Calculamos los vectores propios asociados a 2:
 √ 
1−2 2 −1√ 1 1
√  −1 1−2 2 −1 √ −1 
A − 2 2I =  ∼
 1 −1 −1 − 2 2 −1 √ 
1 −1 −1 −1 − 2 2
√ √   
−2 2 −2√2 0 √ 0 1 √1 0√ 0
∼ 0 −2 2 −2 −√2 2 −2

∼ 0 2 1+ 2 1 
0 0 −2 2 2 2 0 0 1 −1
A la vista de la primera y de la última ecuación, observamos que el vector debe ser de
la forma (α, −α, β, β) (obsérvese que esta expresión caracteriza los vectores ortogonales
a los dos vectores propios ya√ calculados). √ Introduciendo esa expresión en la segunda
ecuación, deducimos que − 2α + (2 + 2)β = 0. Tomamos, por ejemplo, β = 1 y
180 Álgebra (2019/20)
√ √ √
obtenemos el vector (1 + 2, −1 − 2, 1, 1) como vector propio asociado al autovalor 2.
Lo normalizamos:

1 √ √
u3 = p √ (1 + 2, −1 − 2, 1, 1).
2 2+ 2

De igual modo se obtiene que un vector propio unitario asociado al autovalor − 2 es
1 √ √
u4 = p √ (1 − 2, −1 + 2, 1, 1).
2 2+ 2
t
En conclusión:
√ √si Q es la matriz ortogonal (u1 |u2 |u3 |u4 ), se verifica que Q AQ =
diag(0, 0, 2 2, −2 2).

6.3.– La matriz del enunciado puede escribirse como B = (a − 1)I + A, donde A es la


matriz de orden 3 con todos los elementos iguales a 1. Como A tiene rango 1, sus valores
propios son 0 (doble) y traza(A) = 3 (simple). Por tanto, los valores propios de B son:
λ1 = a − 1 (doble) y λ2 = a + 2 (simple). Por todo ello,

• para que B sea definida positiva, sus dos autovalores deben ser positivos; se deduce
que esto ocurre si y sólo si a > 1

• para que B sea definida negativa, sus dos autovalores deben ser negativos; esto
ocurre si y sólo si a < −2.

Otra forma de realizar este ejercicio: aplicar el criterio de Sylvester para matrices
definidas positivas y definidas negativas. Para ello observamos los signos de los menores
principales de la matriz, que resultan ser a a2 − 1 = (a + 1)(a − 1) y (a + 2)(a − 1)2 :

• La matriz es definida positiva si y sólo si esos tres menores son positivos; se deduce
fácilmente que eso ocurre cuando y sólo cuando a > 1.

• La matriz es definida negativa si y sólo si el primer menor es negativo, el segundo


positivo y el tercero negativo. De esas tres condiciones se llega fácilmente a que
a < −2.

En decir, con los criterios de Sylvester llegamos al mismo resultado que mediante el
razonamiento de autovalores que acabamos de realizar.

6.4.– Se trata de una generalización del ejercicio anterior, luego se puede deducir tanto
observando los signos de los autovalores como aplicando el criterio de Sylvester:

• Mediante los autovalores: éstos resultan ser, de menor a mayor: a − 1 y a + n − 1,


ası́ que la matriz es definida positiva si y sólo si a > 1 y es definida positiva si y sólo
si a < 1 − n.
Soluciones ejercicios 181

• Mediante el criterio de Sylvester, nos fijamos en los signos de sus menores principales.
Para cada k = 1, ...n debemos hallar el determinantes de su submatriz de orden k
 
a 1 1 ··· 1 1
 1 a 1 ··· 1 1 
 
 1 1 a ··· 1 1 
Mk =  .. .. .. . . .. ..  .
 
 . . . . . . 
 
 1 1 1 ··· a 1 
1 1 1 ··· 1 a

que en este caso tienen la misma estructura que la matriz completa (y de hecho
es un tipo de matriz como la del Ejercicio ??). Para hallar su determinante, a la
primera columna le sumamos todas las demás (con lo que se saca un factor común
a + n − 1 y luego a cada fila le restamos la anterior (empezando por la última hasta
la segunda). Queda una matriz triangular cuyo determinante es

det(Mk ) = (a + k − 1)(a − 1)k−1 .

Por tanto, para ser definida positiva, todos estos determinantes deben ser positivos
luego a > 1 y a + k − 1 > 0 para todo k ≥ 1 lo cual se reduce a la condición a > 1.
En este caso ambos métodos resultan muy similares; en general debemos mencionar
que el criterio de Sylvester es más rápido puesto que calcular determinantes es en
general más fácil que calcular autovalores.

6.5.– Denotando por A a dicha matriz, se cumple que

(x, y, z)A(x, y, z)t = (a + b) x2 + (a + c) y 2 + (b + c) z 2 − 2axy − 2bxz − 2cyz =


a(x − y)2 + b(x − z)2 + c(z − y)2 ≥ 0.

A la vista de este resultado, A deberá ser o bien definida o bien semidefinida positiva.
Ahora bien, r(A) = 2 ya que la suma de sus filas vale 0, luego no puede ser definida y es,
por tanto, semidefinida positiva (r = σ = 2).
 
3 1 1
6.6.– La forma cuadrática del numerador determina la matriz simétrica A =  1 3 1 .
  1 1 3

1 1
Como la suma de los elementos de cada fila vale 5, se deduce que A 1   =5 1
 ,
1 1
es decir, 5 es valor propio que tiene por autovector a (1, 1, 1).
Por otro lado, los dos restantes autovalores satisfacen

5 + λ2 + λ3 = trA = 9 ⇒ λ2 + λ3 = 4;
182 Álgebra (2019/20)

5λ2 λ3 = det(A) = 20 ⇒ λ2 λ3 = 4,
lo que nos permite deducir que λ2 = λ3 = 2. (Obsérvese que A es una matriz de las ya
estudiadas en el ejercicio 6.9, con a = 3; ası́ que podrı́amos haber deducido directamente
que sus valores propios son a + 2 = 5 simple y a − 1 = 2 doble.)
El subespacio propio asociado al autovalor doble es
 
1 1 1
ker(A − 2I) = ker  1 1 1  = L[(1, −1, 0), (1, 0, −1)].
1 1 1
En conclusión:

• máx R(x) = 5, que se alcanza sobre los vectores de la forma (α, α, α) con α 6= 0.
x6=0

• mı́n R(x) = 2, que se alcanza sobre los vectores de la forma (α + β, −α, −β) con
x6=0
(α, β) 6= (0, 0).

6.7.– Representamos la forma cuadrática del numerador mediante una matriz simétrica:

     
 5 2 x 2 2
 5 1 x
x y = 5x + 5y + 2xy = x y .
0 5 y 1 5 y
Dicha matriz simétrica tiene por autovalores 6 y 4, de subespacios propios respectivos
L[(1, 1)] y L[(1, −1)]. Ası́, el máximo del cociente es 6, valor que se alcanza sobre los
vectores (α, α) ∀α 6= 0, mientras que el mı́nimo vale 4, que es alcanzado en los vectores
(α, −α)
∀α 6= 0.

6.8.– La matriz tiene obviamente rango r = 1, luego un valor propio es 0. Al ser


simétrica, es diagonalizable, y por tanto la multiplicidad de 0 es igual a 3 − r = 2, luego
0 es un autovalor doble. El tercer autovalor se deduce sabiendo que la suma de los tres
autovalores es igual a la traza, luego el autovalor que falta es igual a la traza, en este caso
9. Al ser sus 3 autovalores no negativos, es semidefinida positiva.

6.9.–

1. Para calcular el número de condición de A, podemos calcular los autovalores


 de At A

t t 125 −75
o los de AA , que serán los mismos al ser A cuadrada. Como AA =
−75 125
tiene autovalores 125 ± 75, éstos son 200 y 50.
Por tanto, su número de condición espectral es
s r
λmáx (At A) 200
c2 (A) = = = 2.
λmı́n (At A) 50
Soluciones ejercicios 183
 
1 1
2. Siendo B = , se trata de una matriz 2 × 2 de rango 1, es decir no
−2 −2
máximo, luego su número de condición es infinito.

3. Como C es simétrica, su número de condición espectral será el cociente entre el


máximo y el mı́nimo de sus autovalores en valor absoluto; dichos autovalores son
−5 ± 4, es decir, −1 y −9. Por tanto, su número de condición espectral es c2 =
9/1 = 9.

6.10.– Si las filas (o columnas) de A ∈ Rm×n son ortogonales dos a dos y de la misma
norma C, entonces At A = C 2 In ; por tanto, C 2 es el único valor propio de At A con
multiplicidad igual a n. Por tanto su número de condición espectral es c2 = C/C = 1.
Esto significa que este tipo de matrices están óptimamente condicionadas pues su
número de condición es mı́nimo, es decir, igual a 1.
En el caso particular de A ortogonal, su número de condición también es 1 (óptimamente
condicionada igualmente).

6.11.–

1. Puesto que la matriz A tiene más columnas que filas, su número de condición es
infinito.
 
7 4  
t 81 0
2. En cuanto a la matriz B =  4 −8  , calculamos la matriz B B = =
0 81
4 1
81I, cuyo único valor propio es 81. Su número de condición es, por consiguiente, la
unidad (obsérvese que las dos columnas de B son ortogonales y de igual norma 9).

6.12.–
2 2
1. 
La ecuación
 x + y + 4xy = 3 solamente tiene parte cuadrática, dada por la matriz
1 2
que es simétrica de determinante negativo, luego tiene 2 autovalores de
2 1
distinto signo; esto indica que se trata de una cónica de tipo hiperbólico. Además
los valores propios de dicha matriz son 3 y −1 luego la ecuación reducida de la
cónica es 3X 2 − Y 2 = 3 o equivalentemente X 2 − Y 2 /3 = 1. Los ejes de simetrı́a
X e Y corresponden exactamente a las direcciones de los subespacios propios asoci-
ados, respectivamente, a los valores propios 3 y −1: éstas son las rectas generadas
por (1, 1) y (−1, 1) respectivamente. Por todo ello, se trata de una HIPÉRBOLA
de centro (0,0) (pues no hemos tenido que realizar ninguna traslación), y de ejes
paralelos a x = y, x = −y.
 
1 1 −1
Obsérvese que una matriz de giro que diagonaliza a A es P = √2 ; ası́
1 1
que el cambio de variable (x, y)T = P(X, Y )T proporciona la ecuación reducida
184 Álgebra (2019/20)

X 2 − Y 2 /3 = 1. Deshaciendo el cambio, es decir, escribiendo (X, Y )T = PT (x, y)T


se llega a la ecuación simplificada en (x, y):
(x + y)2 (x − y)2
− = 1.
2 6
Si desarrollamos esta última expresión, se llega a la ecuación inicial; esta es una
forma de comprobar que hemos realizado correctamente este ejercicio.
2. La parte cuadrática
 de laecuación 6x2 + 9y 2 − 4xy + 4x − 18y + 4 = 0 viene dada
6 −2
por la matriz que es simétrica de determinante positivo, luego tiene 2
−2 9
autovalores de igual signo; esto indica que se trata de una cónica de tipo elı́ptico.
 Sus

1 1 2
autovalores son 10 y 5 y una matriz de giro que la diagonaliza es P = 5 √ ;
−2 1
ası́ que el cambio de variable (x, y)T = P(X, Y )T pasa a la ecuación
40 10
10X 2 + 5Y 2 + √ X − √ Y + 4 = 0
5 5
y completando cuadrados se llega a la ecuación reducida
 2  2
2 1
2 X+√ + Y −√ = 1.
5 5

Esto indica que se trata de una ELIPSE de longitudes de semiejes 1/ 2 y 1 (pues
el cambiode base ortogonal
 P no modifica dichas longitudes); su centro tiene coor-
2 1
denadas − √5 , √5 en el plano (X, Y ), pero en el plano (x, y) corresponde, desha-
ciendo el cambio, al punto
!  
− √25
 
x0 0
=P 1 = .
y0 √
5
1

En resumen, es una elipse de centro (x0 , y0 ) = (0, 1) y sus ejes de simetrı́a son
paralelos a los vectores (1, −2) y (2, 1) respectivamente. Más concretamente, sus
√ 2x + y = 1 y −x + 2y = 2, y las longitudes respectivas
ejes de simetrı́a son las rectas
de dichos semiejes son 1/ 2 y 1.
Como comprobación, deshacemos el cambio en la ecuación reducida y obtenemos la
ecuación en (x, y):
2(x − 2y + 2)2 + (2x + y − 1)2 = 5
que, al desarrollarla, queda exactamente igual a la ecuación inicial de la cónica.

6.13.– La única proposición falsa es la última.

6.14.– 1. F / 2. V / 3. F / 4. F / 5. F / 6. V
Soluciones ejercicios 185

Capı́tulo 7
7.1.– La matriz del enunciado se puede descomponer como C = αI + βJ, donde
 
0 −1
J := .
1 0
Empleando que I conmuta con cualquier matriz,
eCt = eαtI+βtJ = eαtI eβtJ = eαt eβtJ .
Dado que J2 = −I, J3 = −J y J4 = I, se verifica
1 1 1 1
eβtJ = I + βtJ + β 2 t2 J2 + β 3 t3 J3 + β 4 t4 J4 + · · ·
 1! 2! 3!  4! 
1 22 1 44 1 1 33
= I 1 − β t + β t − ··· + J βt − β t + · · ·
2! 4! 1! 3!
= cos(βt)I + sen(βt)J.
Por tanto,  
Ct αt βtJ αt cos(βt) − sen(βt)
e =e e =e .
sen(βt) cos(βt)
7.2.–

a) Llamemos  
−3 −1
A := .
−6 −2
Diagonalicemos A. En primer lugar, calculamos el polinomio caracterı́stico:
 
λ + 3 −1
χA (λ) = det (λI − A) = det = λ(λ + 1).
6 λ−2
Por tanto, A tiene dos autovalores simples y es diagonalizable. Calculemos los
subespacios propios respectivos:
– Para λ = 0, se tiene:
(A − 0 · I) u = 0
      
−3 1 x1 0 1
= ⇒ u1 = .
−6 2 x2 0 3
El subespacio propio asociado a λ = 0 es L[u1 ].
– Para λ = −1, se tiene:
(A − (−1) · I) u = 0
      
−2 1 x1 0 1
= ⇒ u2 = .
−6 3 x2 0 2
El subespacio propio asociado a λ = −1 es L[u2 ].
186 Álgebra (2019/20)

Concluimos que la matriz


 
1 1
P := [u1 |u2 ] =
3 2

diagonaliza A; en efecto,
 
−1 0 0
P AP = =: D.
0 −1

De este modo, realizando en el sistema diferencial (∗) el cambio de variable


X(t) = PY(t) se obtiene
PY0 (t) = APY(t)
Y0 (t) = P−1 APY(t)
 
0 0 0
Y (t) = Y(t), (∗∗)
0 −1
que es la expresión buscada.

b) La solución general de (∗∗) es


      
Dt K1 0 0 K1 0
Y(t) = e = = .
K2 0 e−t K2 K2 e−t

Por tanto, deshaciendo el cambio de variable realizado se obtiene la solución general


de (∗), que es

K2 e−t
 
X(t) = PY(t) = .
2K2 e−t

7.3.– Llamemos  
3 −2 2
A =  −1 2 −1  .
−2 2 −1
El polinomio caracterı́stico de la matriz A es χA (λ) = (λ − 1)2 (λ − 2). Calculemos los
autovectores asociados al autovalor λ = 1:

Au = u
 
3 −2 2
 −1 2 −1  u = u
−2 2 −1

u1 − u2 + u3 = 0
Soluciones ejercicios 187

Una base del subespacio propio correspondiente está formada por los vectores (1, 2, 1) y
(0, −1, −1).
Para λ = 2:

Au = 2u

 3u1 − 2u2 + 2u3 = 2u1
−u1 + 2u2 − u3 = 2u2
−2u1 + 2u2 − u3 = 2u3


u1 − 2u2 + 2u3 = 0
−u1 − u3 = 0.
Un autovector asociado a λ = 2 es (−2, 1, 2).
La matriz A es diagonalizable en R y la solución general del sistema diferencial es
       
x(t) 1 0 −2
 y(t)  = k1  2  et + k2  −1  et + k3  1  e2t .
z(t) 1 −1 2

7.4.– El sistema se puede escribir en la forma X0 = AX con


 
1 2 1
A =  6 −1 0  .
−1 −2 −1

El polinomio caracterı́stico de A es χA (λ) = λ(λ−3)(λ+4). Puesto que los autovalores son


simples y reales, se concluye que A es diagonalizable en R. Calculemos los autovectores
de A.
Para λ = 0:

Au = 0

u1 + 2u2 + u3 = 0
6u1 − u2 = 0.
Un vector propio asociado es (1, 6, −13).
Para λ = −4:

(A + 4I)u = 0

 5u1 + 2u2 + u3 = 0
6u1 + 3u2 = 0
−u1 − 2u2 + 3u3 = 0

Un vector propio asociado es(1, −2, −1).


Para λ = 3 :
188 Álgebra (2019/20)

(A − 3I)u = 0

 −2u1 + 2u2 + u3 = 0
6u1 − 4u2 = 0
−u1 − 2u2 − 4u3 = 0

Un vector propio asociado es (2, 3, −2).


Concluyendo, la solución general del sistema es
     
1 1 2
x(t) = c1  6  + c2  −2  e−4t + c3  3  e3t .
−13 −1 −2

7.5.– Como M2 = M, entonces ∀k ∈ N : Mk = M. Empleando la definición de la


exponencial:
1 1 1
eMt = I + Mt + (Mt)2 + ... + (Mt)n + ...
1!
 2! n! 
1 1 1
=I+ t + t2 + ... + tn + ... M
1! 2! n!
t

= I + e − 1 M.

La solución del PVI es

X(t) = eMt (2v)


= I + (et − 1)M (2v)


= 2v + 2(et − 1)Mv.

Puesto que v ∈ Im (M) , ∃w ∈ Rn tal que v = Mw. Ası́,

Mv = M2 w = Mw = v

y
X(t) = 2v + 2(et − 1)v = 2et v.
 
x(t)
7.6.– El vector que buscamos es f (t) = y satisface el sistema de ecuaciones
y(t)
 0    
0 x (t) 0 1 x(t)
f (t) = = = A f (t)
y 0 (t) −ω 2 0 y(t)

donde A es la matriz de coeficientes del sistema. Calculamos su polinomio caracterı́stico:



λ − 0 −1
χA (λ) = = λ2 + ω 2 = (λ − iω)(λ + iω).
ω2 λ − 0
Soluciones ejercicios 189

Los valores propios son iω y −iω con multiplicidad 1. Para calcular los vectores propios
asociados con λ = iω resolvemos:
    
iω −1 v1 0
(iωI − A)v = 2 =
ω iω v2 0

Las soluciones son las combinaciones lineales de p1 = (1 iω)t . Como A es matriz real,
entonces los vectores propios asociados a λ = −iω son las combinaciones lineales de
p2 = (1 − iω)t .
Por tanto A = PDP−1 , con
   
iω 0 1 1
D= y P= .
0 −iω iω −iω

Haciendo el cambio de variable


   
u(t) −1 −1 x(t)
g(t) = = P f (t) = P
v(t) y(t)

se tiene que g0 (t) = P−1 f 0 (t), ya que al derivar los coeficientes de P−1 son constantes.
Ası́, las soluciones del sistema f 0 (t) = Af (t) son los f (t) = Pg(t) con g(t) solución del
sistema Pg0 (t) = PDg(t), o lo que es lo mismo, solución del sistema

g0 (t) = Dg(t).

Este nuevo sistema de ecuaciones diferenciales g0 (t) = Dg(t) es

u0 (t) = iωu(t)
v 0 (t) = −iωv(t)

con lo que cada ecuación se puede resolver de manera independiente. La solución de cada
ecuación viene dada por la exponencial compleja. Aunque no se ha visto en clase, es
sencillo comprobar que es solución mediante la identidad de Euler, si θ ∈ R se tiene que
eiθ = cos θ + i sen θ (véase en el Apéndice 2 de los apuntes). Ası́,

(eiωt )0 = (cos(ωt) + i sen(ωt))0 = −ω sen(ωt) + iω cos(ωt)


= iω(cos(ωt) + i sen(ωt)) = iωeiωt
 
a eiωt
y la solución general es g(t) = , donde a y b son constantes. Deshaciendo el
b e−iωt
cambio de variable, las soluciones del sistema inicial f 0 (t) = Af (t) son
       
x(t) u(t) iωt 1 −iωt 1
=P = ae + be .
y(t) v(t) iω −iω
190 Álgebra (2019/20)
     
x(0) 1 a+b
Imponiendo = = y resolviendo el sistema (a = b = 21 ) se
y(0) 0 aωi − bωi
obtiene la solución que cumple las condiciones iniciales
(e + e−iωt )
   1 iωt   
x(t) 2
cos(ωt)
= = .
y(t) 2
(e − e−iωt )
iω iωt
−ω sen(ωt)

Nótese que la solución general x(t) = aeiωt +be−iωt es la solución del oscilador armónico
y es equivalente a x(t) = C1 cos(ωt) + C2 sen(ωt) y a x(t) = C cos(ωt + φ) con C1 , C2 , C
y φ constantes.

7.7.– La dificultad de resolver este sistema de ecuaciones diferenciales viene de que


tenemos expresadas las derivadas de cada una de las funciones (x01 , x02 y x03 ), en función de
todas las funciones (x1 , x2 y x3 ). Ası́, si pudiéramos expresar la derivada de cada función
solo en función de la propia función podrı́amos resolver el sistema de forma mucho más
sencilla. Para ello, expresamos el sistema en forma matricial.
 0    
x1 (t) −1 −1 3 x1 (t)
x0 (t) =  x02 (t)  =  1 1 −1   x2 (t)  = Ax(t)
0
x3 (t) −1 −1 3 x3 (t)
Los pasos que vamos a seguir son:
1. Diagonalizar la matriz A = PDP−1 .
2. Hacer el cambio de variable y(t) = P−1 x(t).
3. Resolver el sistema y0 (t) = Dy(t).
4. Obtener la solución general de x(t) deshaciendo el cambio de variable.

1
5. Obtener la solución que cumple las condiciones iniciales imponiendo x(0) =  0 .
0

Diagonalizamos la matriz de coeficientes del sistema de ecuaciones A. Calculamos su


polinomio caracterı́stico:

λ+1
1 −3
χA (λ) = −1 λ − 1 1 = λ3 − 3λ2 + 2λ = (λ − 1)(λ − 2)λ
1 1 λ−3
Por lo tanto los valores propios son 0, 1 y 2 con multiplicidad 1. Para calcular los vectores
propios asociados con λ = 1 resolvemos:
    
2 1 −3 v1 0
(I − A)v =  −1 0 1   v2  =  0 
1 1 −2 v3 0
Soluciones ejercicios 191
 
1
Las soluciones son los múltiplos de b1 =  1 . Análogamente, los vectores propios
1
asociados a λ = 0:
    
−1 −1 3 v1 0
Av =  1 1 −1   v2  =  0 
−1 −1 3 v3 0
 
1
Las soluciones son los múltiplos de b2 =  −1 . Por último, para el valor propio λ = 2
0
se tiene:
    
3 1 −3 v1 0
(2I − A)v =  −1 1 1   v2  =  0 
1 1 −1 v3 0
 
1
Las soluciones son los múltiplos de b3 =  0 . Por tanto A = PDP−1 , con
1
   
1 0 0 1 1 1
D =  0 0 0  y P =  1 −1 0  .
0 0 2 1 0 1
2. Una vez hemos diagonalizado la matriz, ahora podemos hacer el cambio de variable
y(t) = P−1 x(t). Este cambio se puede hacer porque la matriz P es invertible, es decir,
la aplicación que lleva x(t) a y(t) es biyectiva. Además, se tiene que y0 (t) = P−1 x0 (t),
ya que al derivar los coeficientes de P−1 son constantes. Ası́, las soluciones del sistema
x0 (t) = Ax(t) son x(t) = Py(t) con y(t) solución del sistema Py0 (t) = PDy(t), o lo que
es lo mismo, solución del sistema y0 (t) = Dy(t).
3. El sistema de ecuaciones diferenciales y0 (t) = Dy(t) es,
y10 (t) = y1 (t),
y20 (t) = 0,
y30 (t) = 2y3 (t).
Por tanto cada ecuación
 se puede
 resolver de manera independiente. La solución general
a et
es de la forma y(t) =  b , donde a, b y c son constantes.
c e2t
4. Deshaciendo el cambio de variable, las soluciones de x0 (t) = Ax(t) son
     
1 1 1
x(t) = Py(t) = a et  1  + b  −1  + c e2t  0  .
1 0 1
192 Álgebra (2019/20)
   
1 a+b+c
5. Imponiendo x(0) =  0  =  a − b  y resolviendo el sistema (a = 1, b = 1 y
0 a+c
c = −1) se obtiene la solución que cumple las condiciones iniciales
 t 
e + 1 − e2t
x(t) =  et − 1 .
et − e2t
Soluciones ejercicios 193
Apéndice 1: Nociones de teorı́a de
conjuntos

• 1.1 Definiciones y propiedades. Pertenencia e inclusión. Los cuantificadores. Lógica


formal.
• 1.2 Unión e intersección de conjuntos. Conjuntos complementarios. Producto carte-
siano.
• 1.3Aplicaciones. Composición. Inversa.

1.1 Conjuntos y lógica formal


1.1.1 Definiciones básicas
• Un conjunto es una colección de objetos, que se denominan elementos del con-
junto.
• Los elementos de un conjunto siempre son distintos dos a dos, y no se presupone
ningún orden entre ellos. Por ejemplo los conjuntos {a, a, b} y {b, a} son iguales.
• Se llama conjunto vacı́o y se denota por ∅ el conjunto que no tiene ningún ele-
mento.
• Un conjunto se dice finito si contiene un número finito de elementos, que en ese caso
podrán numerarse y, por tanto, todo conjunto E finito y no vacı́o puede expresarse
como E = {a1 , a2 , · · · , an }, siendo n (entero positivo) el número de sus elementos.
• En el caso anterior, diremos que E tiene cardinal n, y lo denotaremos por Card(E) =
n.
• Un conjunto se dice infinito si tiene infinitos elementos.

1.1.2 Relaciones de pertenencia e inclusión


• Relación de pertenencia: Si E es un conjunto y a es un elemento del mismo, se
denota por a ∈ E (”a pertenece a E”). En caso contrario, escribimos a ∈
/ E.

194
Apéndices 195

• Relación de inclusión: Sean E y F dos conjuntos, se dice que E está contenido


en F (y se denota por E ⊂ F ) si todo elemento de E pertenece a F. También se
puede escribir F ⊃ E (”F contiene a E”).

• Si E ⊂ F , también se dice que E es un subconjunto de F .

• Cualquiera que sea el conjunto E, se tiene que ∅ ⊂ E.

• Igualdad de conjuntos. Dos conjuntos E y F son iguales (E = F ) si y sólo si


E ⊂ F y F ⊂ E.

• Ası́ pues, E 6= F significa que existe algún elemento de E que no pertenece a F o


algún elemento de F que no pertenece a E.

1.1.3 Los cuantificadores


• Cuantificador universal: Se denota por el sı́mbolo ∀ (para todo). Sea P una
proposición que depende de los elementos a del conjunto E. Si la proposición es
verdadera para todos los elementos del conjunto, escribiremos

∀a ∈ E , P(a).

Por ejemplo, ∀a ∈ Z, a ∈ Q; es decir, todo número entero es racional.

• Cuantificador existencial: Se denota por el sı́mbolo ∃ (existe). Sea P una


proposición que depende de los elementos a del conjunto E. Si la proposición es
verdadera para algún elemento del conjunto, escribiremos

∃a ∈ E , P(a).

Por ejemplo, ∃a ∈ Q, a ∈ N; es decir, existe un número racional que es natural.

• Cuando existe un único elemento puede escribirse ∃!a ∈ E.

• Denotaremos por ¬P la negación de la proposición P (es decir, la proposición que


se cumple únicamente cuando no se cumple P, y viceversa.

• Negación de proposiciones con cuantificadores: se comprueba fácilmente que:

¬(∀a ∈ E, P(a)) si y sólo si ∃a ∈ E, ¬P(a)


¬(∃a ∈ E, P(a)) si y sólo si ∀a ∈ E, ¬P(a)

• Como ejemplo de la utilización de los cuantificadores anteriores, puede expresarse


la relación de inclusión de la forma siguiente:

E⊂F si y sólo si ∀a ∈ E, a ∈ F
196 Álgebra (2019/20)

La negación de dicha inclusión se expresa:

¬(E ⊂ F ) si y sólo si ∃a ∈ E, a ∈
/F

1.1.4 Inclusión y lógica formal


• Si una proposición P2 se cumple siempre que se cumpla otra cierta proposición P1 ,
escribiremos
P1 ⇒ P2
y diremos que ”P1 implica P2 ”, o bien que P1 es una condición suficiente para
P2 , o bien que P2 es una condición necesaria para P1 . También diremos ”si P1
entonces P2 ”.

• Si P1 ⇒ P2 y P2 ⇒ P1 , escribiremos

P1 ⇔ P2

(léase ”P1 si y sólo si P2 ”) y diremos que P1 y P2 son proposiciones equivalentes.

• La proposición P2 ⇒ P1 se llama la recı́proca de P1 ⇒ P2

• Si E es el conjunto de los elementos que satisfacen una proposición P1 , y F es el


conjunto de los elementos que satisfacen otra proposición P2 , entonces

(P1 ⇒ P2 ) ⇔ E ⊂ F.

1.2 Operaciones con conjuntos

1.2.1 Unión e intersección de conjuntos


• Dados dos conjuntos E y F , se define su unión como E ∪ F .

E ∪ F := {a : a ∈ E ∨ a ∈ F }

El sı́mbolo ∨ equivale a la disyunción ”o”.


Esta definición se extiende naturalmente a la unión de una familia finita de conjuntos
{A1 , A2 , . . . , An }:
A1 ∪ A2 ∪ . . . ∪ An = {a : ∃ j, a ∈ Aj }.

• Obsérvese que, para cualquier conjunto A, se tiene que A ∪ ∅ = A.


Apéndices 197

• Se define la intersección de dos conjuntos E y F como

E ∩ F := {a : a ∈ E ∧ a ∈ F }.

El sı́mbolo ∧ equivale a la conjunción ”y”.


Asimismo,
A1 ∩ A2 ∩ . . . ∩ An
denota la intersección de una familia finita {A1 , A2 , . . . , An }.

• Obsérvese que, para cualquier conjunto A, se tiene que A ∩ ∅ = ∅.

• Dos conjuntos A y B se dicen disjuntos (entre sı́) si A ∩ B = ∅.


Propiedades: (En todo lo que sigue, A, B, C son conjuntos).

A ∩ B ⊂ A ⊂ A ∪ B. (Igualmente para B). También es válida para uniones e


intersecciones infinitas.
A ⊂ B ⇔ A ∪ B = B ⇔ A ∩ B = A.
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) (propiedad distributiva de la intersección
respecto a la unión).
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C) (propiedad distributiva de la unión respecto
a la intersección).

1.2.2 Conjuntos complementarios


• Dados E y F conjuntos, se define la diferencia de E y F como

E \ F := {a ∈ E : a ∈
/ F }.

• Dados A y E conjuntos, con A ⊂ E se define el complementario de A respecto a


E, y se denota Ac o bien A0 o también c(A), como

Ac := E \ A = {a ∈ E : a ∈
/ A}.

Propiedades: En todo lo que sigue, suponemos A, B ⊂ E.

(Ac )c = A.
A ∪ Ac = E.
A ∩ Ac = ∅.
A ⊂ B ⇔ B c ⊂ Ac (∗); veremos después la importante traducción de esta
propiedad a la lógica formal.
A \ B = A ∩ Bc.
198 Álgebra (2019/20)

(A ∪ B)c = Ac ∩ B c .
(A ∩ B)c = Ac ∪ B c .
Estas dos últimas propiedades se conocen como Leyes de Morgan.
• Si A, subconjunto de E, está constituido por los elementos de E que satisfacen una
determinada propiedad P, entonces Ac es el conjunto de los elementos de E para
los cuales P es falsa, es decir,
Ac = {a ∈ E : ¬P(a)}.

• La propiedad (∗) antes vista, y traduciendo los conjuntos A, B a proposiciones


lógicas P1 , P2 , se convierte en
(P1 ⇒ P2 ) ⇔ (¬P2 ⇒ ¬P1 ).
La proposición que se encuentra a la derecha de la doble implicación se denomina
proposición contrarrecı́proca de la de la izquierda. Ambas son equivalentes y,
a veces, es más fácil demostrar la proposición contrarrecı́proca de una dada que la
proposición original. Este truco se emplea a menudo en razonamientos matemáticos,
y es la herramienta conocida como paso al contrarrecı́proco.
• No debe confundirse lo anterior con el método de razonamiento conocido como
reducción al absurdo (o por contradicción); en este caso, para demostrar (P1 ⇒
P2 ) se suponen simultáneamente ciertas (P1 y ¬P2 ), y se llega a una contradicción.

1.2.3 Producto cartesiano


• Dados dos conjuntos E y F , se define su producto cartesiano E × F como

E × F := {(x, y) : x ∈ E, y ∈ F }.
Los elementos (x, y) de E × F se llaman pares ordenados.
• Recursivamente, puede extenderse la definición anterior a cualquier número finito
de conjuntos: dados E1 , E2 , . . . , En , se define

E1 × E2 × · · · × En := {(x1 , x2 , . . . , xn ) : xj ∈ Ej , j = 1, 2, . . . , n}.
Los elementos (x1 , x2 , . . . , xn ) se denominan n-uplas.
• Dos n-uplas formadas por los mismos elementos son distintas si aquéllos aparecen
en cada una en un orden diferente: De otra forma, dos n-uplas son iguales si:
(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) ⇔ ∀i = 1, 2, . . . , n, xi = yi

• Cuando E1 = E2 = . . . = En = E, se denota E1 × E2 × . . . × En por E n .


Apéndices 199

1.3 Aplicaciones entre conjuntos

1.3.1 Definiciones

• Sean E y F conjuntos no vacı́os. Una aplicación f de E en F es un subconjunto


de E × F tal que:

∀x ∈ E, existe un único y ∈ F tal que (x, y) ∈ f.

Se denota por
f : E → F.

• Cuando (x, y) ∈ f , con x ∈ E, y ∈ F , se denota por

f (x) = y

y se dice que y es la imagen por f de x. También se dice que x es una contraim-


agen de y mediante f .

• Obsérvese que, a la vista de la notación anterior, una aplicación de E a F no es


más que una regla de asignación que, a cada elemento de E, le asigna un único
elemento de F .

• E se llama dominio o conjunto inicial de f ; F se denomina conjunto final de


f . Obsérvese que cada elemento del conjunto inicial tiene una única imagen.

• Dados una aplicación f : E → F , y un subconjunto A ⊂ E, se define la imagen de


A por f como
f (A) := {f (x) : x ∈ A},
que es un subconjunto de F .
Dado un subconjunto B ⊂ F , se define la contraimagen o imagen recı́proca de B
mediante f como
f −1 (B) = {x ∈ E : f (x) ∈ B},
que es un subconjunto de A.
Nota: La notación f −1 (B) no supone la existencia de la aplicación inversa de f ,
que se definirá más adelante; f −1 (B) existe cualesquiera que sean la aplicación f y
el subconjunto B del conjunto final.

• Dadas dos aplicaciones f y g, definidas entre los mismos conjuntos E y F , decimos


que f = g, si y sólo si
∀x ∈ E, f (x) = g(x).
200 Álgebra (2019/20)

• Una aplicación f : E → F se dice inyectiva si

∀x, y ∈ E, si f (x) = f (y), entonces x = y,

es decir, que cada elemento del conjunto final tiene, como máximo, una única con-
traimagen.

• Una aplicación f : E → F se dice suprayectiva si f (E) = F o, lo que es lo mismo,

∀y ∈ F, ∃x ∈ E tal que f (x) = y,

es decir, si cada elemento del conjunto final tiene, como mı́nimo, una contraimagen.

• Una aplicación se dice biyectiva si es a la vez inyectiva y suprayectiva, es decir, si


cada elemento del conjunto final tiene una única contraimagen.

• Una aplicación biyectiva de E a F también se denomina una biyección entre E y


F.

• Obsérvese que dos conjuntos finitos tienen el mismo número de elementos si y sólo
si existe una aplicación biyectiva entre ellos.

• Dado un conjunto E, se define la aplicación identidad de E, y se denota por IE ,


como aquella
IE : E → E
tal que, ∀x ∈ E, IE (x) = x, que, obviamente, es una aplicación biyectiva.

1.3.2 Composición de aplicaciones


• Dados tres conjuntos E, F, G y dos aplicaciones

f :E→F y g : F → G,

se define la composición de f y g como la aplicación g ◦ f (léase ”f compuesta con


g”) como
g◦f :E →G
tal que, ∀x ∈ E,
g ◦ f (x) = g(f (x)).
Es decir, el resultado de aplicar sucesivamente f y g. Obsérvese que la imagen de
E por f ha de estar contenida en el conjunto inicial de g.

• Propiedades de la composición:
Apéndices 201

– Dadas tres aplicaciones f : E → F, g : F → G y h : G → H, se tiene que

(h ◦ g) ◦ f = h ◦ (g ◦ f ),
es decir, la composición de aplicaciones es asociativa.
– Para toda aplicación f : E → F , se tiene que f ◦ IE = f y IF ◦ f = f.
– La composición de dos aplicaciones inyectivas es inyectiva.
– La composición de dos aplicaciones suprayectivas es suprayectiva.
– Como consecuencia de las dos anteriores, la composición de dos aplicaciones
biyectivas es biyectiva.

• Sean f : E → F y g : F → G dos aplicaciones; se cumple:

g ◦ f inyectiva ⇒ f inyectiva.
g ◦ f suprayectiva ⇒ g suprayectiva.
g ◦ f biyectiva ⇒ f inyectiva y g suprayectiva.

1.3.3 La aplicación inversa


• Construcción de la aplicación inversa: Si f : E → F es biyectiva, quiere decir
que:
∀y ∈ F, ∃!x ∈ E tal que f (x) = y.
Ası́ pues, podemos definir una nueva aplicación f −1 : F → E de la siguiente manera:

∀y ∈ F, f −1 (y) = x tal que f (x) = y.

Es obvio que, ∀x ∈ E, f −1 (f (x)) = f −1 (y) = x, y que ∀y ∈ F, f (f −1 (y)) = f (x) =


y.
• Dada una aplicación biyectiva f : E → F , existe una única aplicación g : F → E
tal que g ◦ f = IE y f ◦ g = IF ; esta aplicación se llama la inversa de f , y se denota
por f −1 .
• Por otro lado, es obvio que, dada una aplicación cualquiera f , si existe una aplicación
f −1 que satisfaga la condición anterior, entonces f es biyectiva.
• Para una aplicación f : E → E, y para cada número natural n, se usa la notación:

f 0 = IE ;
n
f n = f ◦ . `. . ◦ f si n ≥ 1.
n
Si además f es biyectiva, se denota f −n = f −1 ◦ . `. . ◦ f −1 .
202 Álgebra (2019/20)

• Propiedades:
Dadas dos aplicaciones biyectivas f : E → F y g : F → G, se cumple que:

(f −1 )−1 = f .
(g ◦ f )−1 = f −1 ◦ g −1 .
Apéndice 2: Polinomios

• 2.1 Polinomios con coeficientes en R o C. Operaciones con polinomios. Grado de


un polinomio.

• 2.2 División euclı́dea de polinomios. Teorema del resto. Máximo común divisor y
mı́nimo común múltiplo de dos polinomios.

• 2.3 Raı́ces de un polinomio: simples y múltiples. El teorema fundamental del


Álgebra.

2.1 Polinomios con coeficientes en un cuerpo


A lo largo de todo el apéndice, la letra K representa un cuerpo que será siempre el real o
el complejo.

Definición 80 Dado (K, +, ·) cuerpo, un polinomio con coeficientes en K es una ex-


presión de la forma
P (x) = a0 + a1 x + a2 x2 + . . . + an xn ,
en donde aj ∈ K y n ∈ N. Los aj son los coeficientes del polinomio P . Si an 6= 0 en
la expresión anterior, se dice que P tiene grado n; an se dice el coeficiente principal de
P , si an = 1 se dice que el polinomio es mónico. El coeficiente a0 se denomina término
independiente.

Definición 81 El conjunto de todos los polinomios con coeficientes en K se denota por


K[x]; el conjunto de los polinomios de K[x] cuyo grado es menor o igual que n ∈ N se
denota por Kn [x].

Observación: Es importante notar que lo que determina un polinomio son sus coefi-
cientes aj ; la indeterminada x puede nombrarse mediante cualquier otra letra o sı́ mbolo.
Cuando el cuerpo K es el de los complejos, a menudo se utiliza la letra z para la indeter-
minada.

203
204 Álgebra (2019/20)

2.1.1 Operaciones con polinomios


n
X m
X
Definición 82 Dados dos polinomios P (x) = aj xj y Q(x) = bj xj , se define su
j=0 j=0
suma:
max(m,n)
X
(P + Q)(x) := P (x) + Q(x) = (aj + bj )xj ,
j=0

(en donde suponemos que aj = 0 si j > n y bj = 0 si j > m) y su producto:


m+n
X X
(P Q)(x) := P (x)Q(x) = ai b j x k .
k=0 i+j=k

Es decir, que para sumar polinomios sumamos los coeficientes de términos de igual
grado. Para multiplicarlos, multiplicamos todos los términos del primero por todos los
del segundo y sumamos, agrupando los coeficientes de igual grado. El grado del producto
es la suma de los grados de los factores.

2.2 División euclı́dea de polinomios


Definición 83 Dados dos polinomios no nulos P, Q de K[x], se dice que Q divide a P
(se denota por Q|P ) si existe un polinomio C ∈ K[x] tal que P = CQ (también se dice
que Q es un divisor de P y que P es un múltiplo de Q).

Definición 84 Dados dos polinomios no nulos P, Q de K[x], se define un máximo común


divisor de P y Q como un polinomio D, de grado máximo, tal que D|P y D|Q.

Definición 85 Dados dos polinomios no nulos P, Q de K[x], se define un mı́ nimo común
múltiplo de P y Q como un polinomio M , de grado mı́nimo, tal que: P |M y Q|M .

Teorema 15 [de división de Euclides] Dados P, Q ∈ K[x], con Q 6= 0, existen únicos


C, R ∈ K[x] tales que
P = CQ + R
y grado(R) < grado(Q).

Observación: R = 0 si y solo si Q divide a P .

Proposición 39 Si P = CQ + R, entonces m.c.d.(P, Q) =m.c.d.(Q, R).

De esta proposición se deduce el Algoritmo de Euclides para el cálculo del máximo


común divisor de dos polinomios:
Dados P, Q, con grado(P ) ≥ grado(Q), hacemos la división euclı́ dea P = C1 Q+R1 ; si
R1 es no nulo, volvemos a dividir: Q = C2 R1 + R2 ; de nuevo, si R2 es no nulo, volvemos a
Apéndices 205

dividir R1 = C3 R2 + R3 , y reiteramos el proceso hasta que lleguemos a un resto Rk+1 = 0.


Como Rk−1 = Ck+1 Rk , en virtud de la proposición anterior tenemos que

m.c.d.(P, Q) = m.c.d.(Q, R1 ) = m.c.d.(R1 , R2 ) = . . . = m.c.d.(Rk−1 , Rk ) = Rk

es decir, que un máximo común divisor de P y Q es el último resto no nulo


obtenido en el proceso anterior.

Teorema 16 [del resto] Para cualquier polinomio P 6= 0, y para cualquier a ∈ K, el resto


de dividir P (x) entre x − a vale P (a).

2.3 Raı́ces de un polinomio


Dado un polinomio de segundo grado, ax2 + bx + c, la fórmula para calcular sus raı́ces

−b ± b2 − 4ac
x=
2a
es conocida desde la antigüedad; sabemos también que si el discriminante ∆ = b2 − 4ac
no es nulo, el polinomio admite dos raı́ces distintas y si es nulo tiene una raı́z doble. ¿Qué
ocurre para polinomios de grado mayor que 2? En el siglo XVI se encontraron fórmulas
para obtener explı́citamente las raı́ces de polinomios de tercer y cuarto grado y desde
entonces hasta el siglo XIX fueron muchos los esfuerzos que se hicieron por encontrar una
fórmula general. Fue un jovencı́simo matemético francés, Évariste Galois (1811-1832),
quien demostró la inexistencia de tal fórmula.
En este epı́grafe indicamos algunos resultados relacionados con raı́ces de polinomios
pero nos parece adecuado indicar la diferencia sustancial entre la existencia teórica de
raı́ces y el cálculo explı́cito de las mismas.

Definición 86 Dado P ∈ K[x], se dice que a ∈ K es una raı́z de P si P (a) = 0 (i.e. si


P es divisible entre x − a).
Se dice que a es una raı́z múltiple de orden m ≥ 2 si P (x) = (x − a)m Q(x) con
Q(a) 6= 0; para m = 1, se dice que a es una raı́ z simple.

Proposición 40 [Caracterización de las raı́ces múltiples] Dados P ∈ K[x] y a ∈ K, a es


raı́z de P múltiple de orden m si y solo si

P (a) = P 0 (a) = . . . = P (m−1) (a) = 0peroP (m) (a) 6= 0.

Teorema 17 [Fundamental del Álgebra] Todo polinomio complejo no constante posee al-
guna raı́ z.

Si P es un polinomio de grado n > 1, tiene alguna raı́ z a1 ∈ C; entonces P (z) =


(z − a1 )Q(z), donde Q es un polinomio de grado n − 1 que también tendrá alguna raı́ z
a2 ∈ C; podemos aplicar el teorema recursivamente hasta llegar a un polinomio de grado
0 (es decir, constante), lo que nos permite concluir el siguiente resultado:
206 Álgebra (2019/20)

Corolario: (factorización en C[z]) Todo polinomio complejo de grado n puede es-


cribirse como producto de factores n lineales, es decir:

P (z) = α(z − z1 )(z − z2 ) . . . (z − zn ),

en donde α ∈ C es el coeficiente principal de P y z1 , z2 , . . . , zn ∈ C son sus raı́ ces.

Observación: Otra forma de expresar la factorización es


p
Y
P (z) = α (z − αk )mk
k=1

p
X
en donde αk son las raı́ ces distintas y mk sus respectivas multiplicidades y mk = n.
k=1

Observación: (Raı́ces de polinomios reales.) Sea P (z) = a0 + a1 z + . . . + an z n ∈


C[z]; Entonces P (z) = a0 + a1 z + . . . + an z n , con lo que z0 ∈ C será raı́ z de P si y solo si
su conjugada z 0 lo es del polinomio P (el polinomio cuyos coeficientes son los conjugados
de los de P ), y ambas tienen la misma multiplicidad.
En particular, si P ∈ R[x], z0 será raı́ z de P si y solo si z 0 lo es. Ası́, las raı́ces de
un polinomio con coeficientes reales, o bien son reales, o bien aparecen como pares de
complejos conjugados, ambos de la misma multiplicidad.
Como consecuencia, todo polinomio real y de grado impar tiene alguna raı́ z real.

2.3.1 Raı́ces de polinomios con coeficientes enteros


Proposición 41 Sea P (x) = a0 + a1 x + . . . an−1 xn−1 + an xn , con aj ∈ Z ∀j y a0 6= 0; si
t
(fracción irreducible) es una raı́ z racional de P , entonces t|a0 y s|an .
s
En particular, si P es mónico, sus raı́ ces racionales tienen que ser números enteros
divisores de a0 6= 0.
Apéndices 207

Ejercicios
2.8.– Calcúlese un polinomio sabiendo que el resto de dividirlo por x + 2 es −2, el
cociente de dividirlo entre x2 − 4 es 3x y su derivada admite 1 como raı́z.

2.9.– Calcúlese un polinomio p(z) de grado 2 que verifique

p (1) = p (2) = −1 + 3i, p (i) = 0.

¿Es único?, ¿existe algún polinomio de grado 3 que cumpla esas condiciones?, ¿es único?

2.10.– Factorı́cese el polinomio P (z) = 2z 4 − z 3 − 7z 2 + 3z + 3.


Indicación: Utilı́cese la proposición 41 para establecer las raı́ces racionales.

2.11.– Factorı́cese el polinomio P (z) = 4z 4 − 12z 3 + 13z 2 − 12z + 9 sabiendo que alguna
de sus raı́ces es imaginaria pura.

2.12.– Calcúlense las dos raı́ces cuadradas del número complejo −80 − 18i.
Indicación: Resuélvase el sistema de ecuaciones que resulta al identificar las partes real e imaginaria
en la ecuación (x + iy)2 = −80 − 18i.
Como aplicación, resuélvase la ecuación de segundo grado

z 2 − (5 + i)z + (26 + 7i) = 0.

2.13.– Calcúlense las raı́ces de la ecuación z 2 + |z|2 = 1 + i.


Apéndice 3: Determinantes

• 3.1 Definición.

• 3.2 Cálculo.

• 3.3 Propiedades.

3.1 Definición
Sea A ∈ Kn×n una matriz cuadrada, expreseada como vectores columnas A = (C1 C2 · · · Cn ).
El determinante de A, det (A) ó |A| es una aplicación Kn×n → K que cumple las siguientes
propiedades (forma multilineal alternada):

1. det (C1 , · · · , λCj + βv, · · · , Cn ) = λdet (A) + βdet (C1 , · · · , v, · · · , Cn ) ∀λ, β ∈


K, ∀v ∈ Kn .

2. det (C1 , · · · , Cj , Cj+1 , · · · , Cn ) = −det (C1 , · · · , Cj+1 , Cj , · · · , Cn ) ∀j = 1, . . . , n−


1.

3. det (I) = 1.

Se puede demostrar que esta definición permite calcular el determinante de cualquier


matriz, y que éste es único. Existen definiciones alternativas que permiten calcular el
determinante de forma práctica.

3.2 Cálculo
Se define el menor Mij de una matriz A ∈ Kn×n como el determinante de la matriz
obtenida eliminando la fila i y la columna j. Entonces, el determinante |A| se puede
calcular como una combinación lineal de determinantes de matrices de tamaño n − 1 dado
por la expresión
n
X n
X
i+j
|A| = (−1) Mij aij = (−1)i+j Mij aij .
i=1 j=1

208
Apéndices 209

Nótese que se puede desarrollar eligiendo una fila cualquiera i, o una columna cualquiera
j.
En general, el determinante se calcula mediante n! sumandos, cada uno de los cuales
es el producto de n términos. Por ello, el determinante es una herramienta teórica y
no se suelen calcular para matrices grandes. Se prefieren métodos alternativos, como
descomposición LU , QR, Cholesky, etc.
El determinante de una matriz 2 × 2 se calcula de la siguiente forma:
 
a11 a12
A= ⇒ |A| = a11 a22 − a12 a21 ,
a21 a22
y el determinante de una matriz 3 × 3
 
a11 a12 a13
A =  a21 a22 a23  ⇒ |A| = a11 a22 a33 +a12 a23 a31 +a21 a32 a13 −a13 a22 a31 −a12 a21 a33 −a23 a32 a11 .
a31 a32 a33
Como método nemotécnico para recordar este desarrollo se utiliza la regla de Sarrus.

3.3 Propiedades
A continuación se enumeran (obviando la demostración) las propiedades fundamentales de
los determinantes. Sean A y B dos matrices ∈ Kn×n , y sea α ∈ K un escalar cualquiera.
Sean λi los autovalores de la matriz A y X ∈ Kn un vector arbitratio. Entonces:
1. |At | = |A|
2. |A−1 | = |A|−1
3. |AB| = |A| |B|
4. |αA| = αn |A|
n
Y
5. Si A es triangular ⇒ |A| = aii
i=1

6. Si una columna (fila) es combinación lineal de las restantes ⇒ |A| = 0. En partic-


ualr, si existe una columna (fila) nula ⇒ |A| = 0.
n
Y
7. |A| = λi (autovalores)
i=1

8. Son equivalentes los siguientes enunciados:

(a) A es invertible.
(b) AX = 0 tiene sólo la solución trivial X = 0.
(c) |A| =
6 0.
210 Álgebra (2019/20)

También podría gustarte