AB Apuntes19 PDF
AB Apuntes19 PDF
AB Apuntes19 PDF
de Ingenieros Industriales
Universidad Politécnica de Madrid
Apuntes de Álgebra
(Curso 2019/2020)
1 Espacios vectoriales 1
1.1 Los números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Conjugación, módulo y argumento . . . . . . . . . . . . . . . . . . 2
1.1.3 Potencias. Fórmula de De Moivre . . . . . . . . . . . . . . . . . . . 4
1.1.4 Raı́z cuadrada de un número complejo . . . . . . . . . . . . . . . . 5
1.2 Definición de espacio vectorial, propiedades y ejemplos . . . . . . . . . . . 7
1.2.1 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . 9
1.2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.2 Coordenadas respecto a una base . . . . . . . . . . . . . . . . . . . 16
1.3.3 Intersección y suma de subespacios . . . . . . . . . . . . . . . . . . 17
1.3.4 La relación de Grassmann . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
i
2.4.2 El teorema de Rouché-Frobenius . . . . . . . . . . . . . . . . . . . . 49
2.4.3 Resolución de sistemas lineales por reducción gaussiana . . . . . . . 50
2.5 Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.6.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5 Diagonalización 91
5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.2 Matrices semejantes y matrices diagonalizables . . . . . . . . . . . . . . . . 92
5.3 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3.1 Polinomio caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . 95
5.3.2 Propiedades de los autovalores . . . . . . . . . . . . . . . . . . . . . 96
5.4 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.4.1 Polinomios de matrices . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.4.2 Valores propios de matrices hermiticas, antihermı́ticas y unitarias: . 102
5.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.5.1 Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
ii
6 Diagonalización ortogonal 108
6.1 Semejanza ortogonal y diagonalización ortogonal . . . . . . . . . . . . . . . 108
6.2 Teorema espectral para matrices reales simétricas . . . . . . . . . . . . . . 109
6.2.1 Descomposición espectral . . . . . . . . . . . . . . . . . . . . . . . . 110
6.3 Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.3.1 Cociente de Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.3.2 Clasificación de matrices reales simétricas . . . . . . . . . . . . . . 112
6.3.3 El criterio de Sylvester. . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.4 Número de condición espectral de una matriz . . . . . . . . . . . . . . . . 114
6.4.1 Soluciones numéricas y errores de redondeo . . . . . . . . . . . . . . 114
6.5 Clasificación de cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
iii
1.2 Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
1.2.1 Unión e intersección de conjuntos . . . . . . . . . . . . . . . . . . . 196
1.2.2 Conjuntos complementarios . . . . . . . . . . . . . . . . . . . . . . 197
1.2.3 Producto cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . 198
1.3 Aplicaciones entre conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.3.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.3.2 Composición de aplicaciones . . . . . . . . . . . . . . . . . . . . . . 200
1.3.3 La aplicación inversa . . . . . . . . . . . . . . . . . . . . . . . . . . 201
iv
Capı́tulo 1
Espacios vectoriales
1
2 Álgebra (2019/20)
Observación: Los números reales son los que tienen parte imaginaria nula; los números
complejos con parte real nula se llaman imaginarios puros.
Los números complejos se suman agrupando sus partes reales e imaginarias y se mul-
tiplican operando formalmente y teniendo presente que i2 = −1. Esto es:
Propiedades:
1. Asociativas: ∀z, w, u ∈ C, (z + w) + u = z + (w + u), (zw)u = z(wu).
Este conjunto de propiedades nos permite decir que la terna (C, +, ·) tiene estructura
de cuerpo (conmutativo).
Propiedades de la conjugación:
• ∀z ∈ C, z = z.
• ∀z, w ∈ C, z + w = z + w.
• ∀z, w ∈ C, zw = z w.
1 −i z−z
• ∀z ∈ C, Re z = (z + z) ; Im z = (z − z) = .
2 2 2i
• ∀z ∈ C, |z| = |z|.
Argumento de un complejo
Dados x, y ∈ R no simultáneamente nulos, existen valores de θ ∈ R tales que
x y
cos θ = p , sen θ = p .
x2 + y2 x + y2
2
Identidad de Euler
∀θ ∈ R, eiθ := cos θ + i sen θ (1.2)
Ası́ pues, la expresión general de cualquier número complejo no nulo es reiθ , θ, r ∈ R
con r > 0.
Cuando un número complejo se escribe según la expresión anterior, se dice que está
en forma exponencial.
De modo que, si tenemos dos números complejos de módulo unidad eiθ y eiϕ , su
producto vale ei(θ+ϕ) = eiθ eiϕ ; además, la unidad, que es el número de módulo 1 y argu-
mento 0, se puede expresar como 1 = ei0 ; es decir, que esta notación es coherente con las
propiedades de la exponencial.
Nota: En el contexto presente, la identidad de Euler no es más que una notación, pero
en realidad responde al concepto de exponencial de un número complejo que se estudia
en matemáticas más avanzadas.
Capı́tulo 1 5
Fórmula de De Moivre
Dados θ ∈ R y n ∈ Z, se tiene que
(cos θ + i sen θ)n = cos nθ + i sen nθ. (1.3)
(Donde para n negativo se entiende potencia −n del inverso).
Ası́ pues, la potenciación de números complejos (para potencias enteras) consiste en
elevar el módulo a la correspondiente potencia y multiplicar el argumento por dicha po-
tencia:
n
reiθ = rn einθ . (1.4)
√
Ejemplo: Calcular las raı́ces cuadradas del número z = −2 + 2 3i.
√
Solución: Puesto que |z| = 4 y α = arctan 2−23 = 2π3
, las raı́ces cuadradas de z son
√ iπ √ √ 4π √
w1 = 4e 3 = 1 + 3i y w2 = 4ei 3 = −1 − 3i.
√
Ejemplo: Calcular de nuevo las raı́ces cuadradas del número z = −2 + 2 3i empleando
ahora la forma binómica.
Solución: Si w = a + bi es una raı́z cuadrada de z, entonces
√
−2 + 2 3i = (a + bi)2 = a2 − b2 + 2abi
Igualando partes reales e imaginarias, se obtiene
(
−2 = a2 − b2
√
2 3 = 2ab,
√
sustituyendo a = b3 en la primera ecuación se obtiene b4 − 2b2 − 3 = 0, cuyas raı́ces
√ √
reales son b = ± 3. Por último, a = b3 = ±1, luego recuperamos (por supuesto) el
resultado anterior: √ √
w1 = 1 + 3i y w2 = −1 − 3i.
Capı́tulo 1 7
Propiedades de la suma:
La suma de vectores de Kn es una ley de composición interna en Kn (es decir, a cada par
de vectores de Kn le asocia un nuevo vector de Kn ) que verifica las siguientes propiedades:
Propiedades adicionales:
De las 8 propiedades enunciadas se deducen con facilidad las siguientes (nótese la dis-
tinción entre el escalar 0 ∈ K y el vector 0 ∈ Kn ):
• ∀x ∈ Kn , 0 · x = 0.
• Sean λ ∈ K y x ∈ Kn ; λ · x = 0 ⇔ λ = 0 ∨ x = 0.
• ∀λ ∈ K, ∀x ∈ Kn , (−λ) · x = λ · (−x) = −(λ · x).
Lo anterior equivale a que se pueda despejar alguno de los vectores como combinación
lineal de los restantes, es decir,
X
ui = αj uj , αj ∈ K. (1.11)
j6=i
Ejemplos:
• En R3 , {(1, 1, 1), (1, 1, 0), (1, 0, 0)} es una familia libre, ya que
α(1, 1, 1)+β(1, 1, 0)+γ(1, 0, 0) = (0, 0, 0) ⇔ α+β+γ = α+β = α = 0 ⇔ α = β = γ = 0.
Los tres vectores son linealmente independientes.
• En el mismo espacio, (1, 0, −1), (1, 3, −2), 31 , 3, − 43
es ligada, ya que, como se
vio anteriormente, 13 , 3, − 43 = − 23 (1, 0, −1) + (1, 3, −2), lo que equivale a que
2 1 4
− (1, 0, −1) + (1, 3, −2) − , 3, − = (0, 0, 0).
3 3 3
Los tres vectores son linealmente dependientes.
Nota: Por razones que se verán más adelante en este mismo tema, adoptamos el con-
venio de considerar el conjunto vacı́o, ∅, como una familia libre.
Observación:
• S es libre si y sólo si ningún vector de S es combinación lineal de los restantes
vectores de S.
• Una familia S es ligada si y sólo si algún vector de S es combinación lineal de los
restantes vectores de S. En particular, cualquier familia que contenga al vector nulo
es ligada.
• Cualquier subconjunto de una familia libre es libre.
• Cualquier familia que contenga una subfamilia ligada es también ligada.
Ejemplos:
1. En R4 consideramos el subconjunto H = {x ∈ R4 : x1 = 2x3 }.
H, que obviamente contiene el (0, 0, 0, 0), es un subespacio vectorial; en efecto,
sean x, y ∈ H, es decir, que satisfacen que x1 = 2x3 e y1 = 2y3 . Para cualesquiera
λ, µ ∈ R, consideramos el vector λx+µy, cuya primera componente vale λx1 +µy1 =
λ · 2x3 + µ · 2y3 = 2(λx3 + µy3 ); como λx3 + µy3 es precisamente el valor de la tercera
componente de λx + µy, concluimos que dicho vector pertenece a H y, por tanto,
éste es subespacio.
2. En R3 , el plano de ecuación x + y − 2z = 5 no es subespacio vectorial, ya que el
vector nulo (origen de coordenadas) no pertenece a dicho plano.
3. En R3 , el paraboloide P de ecuación z = x2 + y 2 , pese a contener al (0, 0, 0), no es
subespacio vectorial. En efecto, si tomamos los puntos (1, 1, 2) y (−1, −1, 2), ambos
pertenecen a P , pero su suma (0, 0, 4) no satisface la ecuación.
12 Álgebra (2019/20)
1.3 Bases
1.3.1 Base y dimensión
Definición 18 (sistema generador) Dados H subespacio vectorial de Kn y M ⊂ H,
se dice que M es un sistema generador (o sistema de generadores) de H si H = L[M],
es decir, si todo vector de H puede ponerse como combinación lineal de los de M.
Los tres vectores anteriores engendran de manera evidente el subespacio y son linealmente
independientes (véanse las tres últimas componentes), constituyendo por lo tanto una base
del mismo.
• Si m = n entonces H = Kn .
x = α1 u1 + . . . + αk uk , αj ∈ K, (1.13)
x = α+β
y = 3β
z = α + 2β
sea combinación de las dos primeras; si conocemos el concepto de rango, sabemos que
lo anterior sucede si y solo si dicha matriz tiene rango 2 (ya que (1, 0, 1) y (1, 3, 2) son
linealmente independientes). Triangulamos la matriz mediante operaciones de reducción
gaussiana e imponemos que el rango sea 2:
1 1 x 1 1 x 1 1 x
0 3 y ∼ 0 3 y ∼ 0 3 y
1 2 z 0 1 z−x 0 0 3(z − x) − y
cuyo rango será 2 si y sólo si 3x + y − 3z = 0.
Obsérvese que, puesto que la matriz es cuadrada, también podrı́amos haber procedido
forzando a que su determinante se anulase.
Ejemplo: Encontrar una base de R4 cuyos dos primeros vectores sean (1, 2, 3, 4),
(1, 0, −1, 0).
Solución: En lugar de proceder paso a paso como en la construcción teórica anterior,
vamos a intentar encontrar los dos vectores directamente. Probamos con aquéllos que
nos pueden facilitar los cálculos, es decir, los canónicos, por ejemplo (0, 0, 1, 0), (0, 0, 0, 1)
y simplemente comprobamos si estos vectores completan la base. En efecto, la familia
obtenida es libre ya que, con una simple operación de reducción gaussiana por filas,
1 2 3 4 1 2 3 4
1 0 −1 0 0 −2 −4 −4
∼
0 0 1 0 0 0 1 0
0 0 0 1 0 0 0 1
de donde concluimos que las cuatro filas de la matriz son linealmente independientes. Ası́
pues, una base que satisface las condiciones pedidas es
((1, 2, 3, 4), (1, 0, −1, 0), (0, 0, 1, 0), (0, 0, 0, 1)) .
16 Álgebra (2019/20)
Si los dos vectores escogidos nos hubiesen proporcionado una matriz de rango inferior a
4, escogerı́amos otros distintos y repetirı́amos la comprobación.
Nota: De igual modo pueden definirse las coordenadas respecto a una base de un sub-
espacio de Kn de cualquier vector perteneciente a dicho subespacio.
u = x1 u1 + . . . + xn un = x01 u1 + . . . + x0n un .
Entonces,
lo que implica, por la independencia lineal de los uj , que todos los escalares xj − x0j valen
0, es decir, que x0j = xj ∀j = 1, 2, . . . , n. 2
Realizamos operaciones de reducción gaussiana por filas (es decir, ecuaciones), obteniendo:
1 1 1 1 1 1 1 1
0 1 2 2 ∼ 0 1 2 2 ,
0 −2 −1 2 0 0 3 6
A, B conjuntos; x ∈ A ∩ B ⇔ x ∈ A ∧ x ∈ B. (1.14)
L + M := {u + v : u ∈ L , v ∈ M }. (1.16)
Nota: Para más de dos subespacios, se dice que su suma es directa si lo es la de cada
subespacio con la suma de todos los demás.
Ejemplo: En R2 cualesquiera dos rectas distintas que pasen por el origen son suple-
mentarias. En R3 , cualquier plano que contenga al origen es suplementario a cualquier
recta que lo corte únicamente en dicho punto.
es decir,
k
X l−k
X m−k
X
λj uj + µj v j = − γj wj . (1.22)
j=1 j=1 j=1
20 Álgebra (2019/20)
para algunos escalares αj ∈ K; pero como los vectores uj , wj son linealmente in-
dependientes por constituir todos juntos una base de M , tenemos que todos los
coeficientes en la anterior igualdad son nulos; en particular,
γj = 0, j = 1, 2, . . . , m − k. (1.25)
Pero esto, sustituyendo en (1.21), nos lleva a que
k
X l−k
X
λj uj + µj vj = 0, (1.26)
j=1 j=1
que, por la independencia lineal de los uj , vj (pues todos juntos constituyen una
base de L), nos permite concluir que todos los coeficientes λj , µj son nulos. Con lo
que concluimos que todos los coeficientes λj , µj , γj de la combinación lineal (1.21)
de partida son nulos.
Recapitulando: hemos construido una base de L + M que tiene k + (l − k) + (m − k) =
l + m − k elementos, luego dim(L + M ) = l + m − k, como querı́amos demostrar. 2
2α + β + β = 2α + 2β = 0 ⇔ β = −α.
Ası́ pues, los vectores de M ∩N dependen de un único parámetro (es decir, dim(M ∩N ) =
1), siendo estos vectores de la forma α[(1, 2, 1, 0) − (1, 1, 0, −1)] = α(0, 1, 1, 1) y, por tanto,
una base de N ∩ M es ((0, 1, 1, 1)).
Ahora, por la relación de Grassmann, sabemos que dim(M + N ) = 2 + 2 − 1 = 3; para
construir una base de M + N , partimos de la base de la intersección y la completamos
con sendos vectores de M \ N = M \ (M ∩ N ) y de N \ M = N \ (M ∩ N ). Como ningún
vector no proporcional a (0, 1, 1, 1) puede pertenecer a N ∩ M , tomamos por ejemplo
(1, 0, 1, 0) ∈ M \ N (pues satisface las ecuaciones de M ) y (1, 1, 0, −1) ∈ N \ M . Hemos
construido, pues, una base de M + N ,
((0, 1, 1, 1), (1, 0, 1, 0), (1, 1, 0, −1))
en la que el primer vector constituye una base de M ∩ N , el primero junto al segundo
forman una base de M , y el primero más el tercero son base de N .
En cuanto a las ecuaciones implı́citas, dado que dim(M ∩ N ) = 1, sabemos que este
subespacio estará caracterizado por 4 − 1 = 3 ecuaciones independientes. Los vectores
proporcionales a (0, 1, 1, 1) se caracterizan por ser x1 = 0, x2 = x3 = x4 , ası́ que
x1 = 0
x 2 − x3 = 0
x 3 − x4 = 0
5. ∀u ∈ V, ∀λ, µ ∈ K, (λ + µ) · u = λ · u + µ · u.
6. ∀u, v ∈ V, ∀λ ∈ K, λ · (u + v) = λ · u + λ · v.
7. ∀u ∈ V, ∀λ, µ ∈ K, (λµ) · u = λ · (µ · u).
8. ∀u ∈ V, 1 · u = u.
Ejemplos:
(λA)ij := λaij .
Con estas operaciones se puede demostrar que en el espacio Km×n se satisfacen las
propiedades 1 a 8, es decir es un espacio vectorial.
iii) Sea V = Kn [x] el conjunto de los polinomios de grado menor o igual que
n con coeficientes en el cuerpo K = R o C . Si P ∈ Kn [x] entonces
P (x) = a0 + a1 x + a2 x2 + . . . + an xn ,
24 Álgebra (2019/20)
o equivalentemente
por tanto, tenemos que resolver el sistema de tres ecuaciones lineales cuya matriz ampliada
es
1 0 −3 −2
2 −1 0 1 .
0 1 5 6
Resolvemos el sistema por cualquier método válido; por ejemplo realizando operaciones
de eliminación gaussiana por filas, obtenemos:
1 0 −3 −2 1 0 −3 −2
0 −1 6 5 ∼ 0 −1 6 5 ⇔ c1 = c2 = c3 = 1.
0 1 5 6 0 0 11 11
1.5 Ejercicios
1.1.– Dados los números complejos z = 3+2i y w = 4−i, exprésense en forma binómica
los siguientes números complejos:
1.4.– Utilı́cese la fórmula de De Moivre para expresar cos 3θ como un polinomio en cos θ
y sen 3θ como un polinomio en sen θ. Dedúzcanse las igualdades:
3 1
cos3 θ = cos θ + cos 3θ,
4 4
3 3 1
sen θ = sen θ − sen 3θ.
4 4
1.5.– Se consideran los vectores (1, −1, 2) , (2, 0, 1) , (a, 1, 0) de R3 .
1. Determinar los valores del parámetro a para que sean linealmente independientes.
1.6.– Determinar los valores de los parámetros λ y µ que hacen que los tres vectores
(1, 2, −1, 3) , (1, −1, λ, 3) y (3, 2, 5, µ) sean linealmente independientes.
1. P = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 = x3 + x4 ∧ x1 − x2 = x3 − x4 }.
3. M = {(x, y, z) ∈ R3 : x + 2y − z = 1}.
3. Construir una base de R4 extendiendo la base anterior con vectores cuyas tres
primeras componentes sean iguales a 2.
1.10.– Calcular las coordenadas del vector (a, b, c) de R3 respecto a la base ((1, 1, 0), (1, 0, 1),
(0, 1, 1)).
V = (u1 + u3 , u2 − 2u1 , u3 − u2 ) .
1.12.– En R5 se considera el subespacio M que tiene por base ((1, 0, 1, 0, 1), (0, 1, −1, 1, 0),
(1, 1, 0, −1, −1)). Se pide:
1. Hallar unas ecuaciones implı́citas de M .
3. Para esos valores, hallar las coordenadas de dicho vector respecto a la base del
enunciado.
1.13.– Se considera el subespacio de R4 H = L[(1, 2, 0, 1), (1, 0, 1, −1), (1, −2, 2, −3)]. Se
pide:
1. Hallar unas ecuaciones implı́citas de H.
x1 + x2 − x3 = 0, x1 + x4 = 0, x2 − x3 − x4 = 0.
2. Sea H = L[q1 , q2 , q3 , q4 ]. Calcular una base de H que contenga, de ser posible, los
vectores q1 y q2 .
1.5.1 Cuestiones
1.18.– Se consideran los subespacios M, N de R4 definidos por:
x1 − x2 + x3 − x4 = 0
M = L[(0, 1, 1, 0), (−1, 1, 3, 1), (1, 1, −1, −1)] ; N = x1 + x3 + x 4 = 0
2x1 − x2 + 2x3 = 0
1. dim M = 3.
2. dim N = 2.
3. M + N = R4 .
4. (0, 1, 1, 0) ∈ M ∩ N .
5. (1, 2, 0, −1) ∈ M .
1. Si αu + βv = 0, entonces α = β = 0.
3. Se cumple que αu + βv + γw = 0 ⇔ α = β = γ = 0.
4. (α + β + γ)(u + v + w) = 0 ⇒ α = β = γ = 0.
5. u + v + w 6= 0.
1.20.– Se considera la familia M = {(1, 1, a), (1, a, a), (a, a, a)}, donde a es un número
real. Determı́nese la veracidad o falsedad de las siguientes afirmaciones:
2. ∀a 6= 0, M es base de R3 .
π
3. Si a = , M es una familia libre.
3
4. ∀a ∈ R, M es un sistema generador de R3 .
1. dim H = 3.
1.22.– Se considera la base B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) de R3 . Determı́nese la
veracidad o falsedad de las siguientes afirmaciones:
2.1 Matrices
Definición 28 Sean m, n enteros positivos. Una matriz de tamaño m × n es una tabla
rectangular formada por mn escalares de K que se disponen como se indica:
a11 a12 · · · a1n
a21 a22 · · · a2n
.. . (2.1)
.. .. . .
. . . .
am1 am2 · · · amn
Cada aij se llama elemento, coeficiente o entrada de la matriz. Se dice que está situado
en la fila i y en la columna j de la matriz.
La matriz está formada por m filas que son vectores de Kn y por n columnas que
lo son de Km . Solemos utilizar letras mayúsculas para indicar una matriz A, B, M, etc.
y la correspondiente minúscula para sus entradas: aij , bij , mij . A veces expresaremos
30
Capı́tulo 2 31
aij = (A)ij . En general se intentará que la notación se explique a sı́ misma. El vector
Fi (A) = (ai1 , ai2 , . . . , ain ) constituye la fila i-ésima de la matriz y el vector
a1j
a2j
Cj (A) = (2.2)
..
.
amj
A los elementos aii de igual ı́ndice de fila que de columna se les llama elementos
diagonales de la matriz y constituyen la diagonal principal de la matriz.
En particular, si m = n se dice que la matriz es cuadrada de orden n. La matriz
cuadrada cuyos elementos diagonales son iguales a 1 y el resto nulos se llama matriz
identidad (o matriz unidad) y se denota con la letra I:
1 0 ··· 0
0 1 ··· 0
I = .. .. . . .. . (2.3)
. . . .
0 0 ··· 1
Dada una matriz A = (aij ) cuadrada de orden n, se define su traza como la suma de
los elementos de su diagonal principal, es decir:
n
X
tr (A) = akk . (2.4)
k=1
∀x ∈ Kn , I(x) = Ix = x.
k
! k
X X
f λj uj = λj f (uj ). (2.10)
j=1 j=1
n
X
Demostración: En efecto, si x = xj uj con xj ∈ K, por la propiedad de linealidad
j=1
(2.10) se tiene que
n
! n
X X
f (x) = f xj uj = xj f (uj ). (2.11)
j=1 j=1
Y abreviadamente,
y = Ax. (2.18)
2 1
(1, 0) = α(1, −1) + β(1, 2)(resolviendo) ⇒ α = , β = ; (2.20)
3 3
1 1
(0, 1) = α(1, −1) + β(1, 2)(resolviendo) ⇒ α = − , β = . (2.21)
3 3
Por lo tanto,
2 1 1
f (e1 ) = f (1, −1) + f (1, 2) = (2, 5, −3); (2.22)
3 3 3
1 1 1
f (e2 ) = − f (1, −1) + f (1, 2) = (−1, −1, 0). (2.23)
3 3 3
Ası́ pues, la matriz de f es la que tiene por columnas los dos vectores obtenidos, es decir:
2 −1
1
A = 5 −1 . (2.24)
3
−3 0
Compruébese la exactitud del resultado aplicando dicha matriz a los vectores (1, −1), (1, 2)
escritos como columnas.
36 Álgebra (2019/20)
mientras que
n n r
! r n
!
X X X X X
1 ≤ i ≤ m, zi = aik yk = aik bkj xj = aik bkj xj . (2.28)
k=1 k=1 j=1 j=1 k=1
Por otro lado, los elementos de la matriz C que transforma x en z satisfacen, por la misma
ecuación (2.15),
Xr
1 ≤ i ≤ m, zi = cij xj . (2.29)
j=1
Ası́ pues, las ecuaciones (2.28) y (2.29) han de ser equivalentes. Ello sugiere el tomar
como matriz C = AB aquella de dimensiones m × r cuyo elemento genérico se calcula
mediante n
X
1 ≤ i ≤ m, 1 ≤ j ≤ r, cij = aik bkj , (2.30)
k=1
que será la definición que adoptaremos para el producto de matrices.
Capı́tulo 2 37
Ası́ pues, las matrices (AB)t y Bt At coinciden elemento a elemento, por tanto son iguales:
(AB)t = Bt At . Finalmente, para demostrar la igualdad en el caso de la traspuesta
conjugada, basta conjugar la ecuación anterior.
de donde se deduce que ambas matrices coinciden elemento a elemento, luego son iguales.
Tanto el núcleo como la imagen de una matriz son subespacios vectoriales (la
demostración es sencilla y se deja al lector).
Dada la correspondencia biunı́voca entre aplicaciones lineales y matrices, pueden
definirse equivalentemente el núcleo y la imagen de una aplicación lineal:
Definición 38 Dada una aplicación lineal f : Kn → Km , se define la imagen de f
como el conjunto
Im f := {f (x) : x ∈ Kn }. (2.40)
Se define el núcleo de f como el conjunto
ker f := {u ∈ Kn : f (u) = 0}. (2.41)
Resulta evidente que, si consideramos la matriz asociada a una determinada aplicación
lineal, el núcleo y la imagen de aquella coinciden con los de esta.
Demostración:
⇒ Si ker f 6= {0}, ∃u ∈ ker f, u 6= 0. Como 0 = f (0) = f (u), f no puede ser
inyectiva.
⇐ Supongamos que ker f = {0} y que existen u, v ∈ Kn tales que f (u) = f (v).
Entonces, por linealidad,
f (u − v) = f (u) − f (v) = 0, (2.45)
luego u − v ∈ ker f = {0}, de donde u − v = 0 ası́ que u = v y por tanto f es inyectiva.
Proposición 14 Para cualquier matriz A ∈ Km×n , el rango por filas y el rango por
columnas de A coinciden.
Capı́tulo 2 41
Observación: Este resultado que hemos demostrado permite que hablemos del rango
de una matriz, sin especificar si es por filas o por columnas. A dicho número se le denota
por r (A).
1 −1 2
2 0 2
Ejemplo: La matriz A = 1
es de rango 2; se ve fácilmente que dos colum-
1 0
0 −1 1
nas cualesquiera son linealmente independientes y C1 − C2 − C3 = 0; por tanto puede
tomarse como matriz C la formada por las dos primeras columnas:
1 −1
2 0
C= 1 1 .
0 −1
En cuanto a la matriz F, sus columnas reflejan las combinaciones lineales que hay que
hacer con las columnas de C para obtener las de A:
1 0 1
F= .
0 1 −1
Obviamente no hay unicidad, ya que la matriz C puede formarse con una base cualquiera
de Im A.
42 Álgebra (2019/20)
Proposición 15
• Si A, B ∈ Km×n entonces r (A + B) ≤ r(A) + r(B).
• Dadas dos matrices A, B para las que el producto AB tenga sentido, se tiene que
Proposición 16 Si A, B, C son matrices cualesquiera para las que los productos siguien-
tes tengan sentido, entonces:
• Si A tiene rango máximo por columnas, entonces r(AB) = r(B).
Basta, pues, demostrar que Auk+1 , ..., Aun son linealmente independientes. Apliquemos
la definición de independencia lineal: se considera la igualdad α1 Auk+1 + ... + αn−k Aun =
0, y el objetivo es demostrar que α1 = ... = αn−k = 0. Escribimos esta igualdad como
lo cual significa que el vector α1 uk+1 + ... + αn−k un ∈ ker A. Es decir α1 uk+1 + ... + αn−k un
es combinación lineal de u1 , ..., uk : α1 uk+1 + ... + αn−k un = β1 u1 + ... + βk uk . pero
como (u1 , ..., uk , uk+1 , ..., un ) son independientes, todos los coeficientes deben ser 0, en
particular se tiene que α1 = ... = αn−k = 0.
• Si m = n, f es inyectiva ⇔ f es suprayectiva.
• 1) Suma de una fila (columna) de la matriz, multiplicada por un escalar, a otra fila
(columna) distinta.
Definición 42 Se llama matriz elemental por filas (columnas) a una matriz cuadrada,
resultado de efectuarle una operación elemental por filas (columnas) a la matriz identidad.
44 Álgebra (2019/20)
Ejemplos: La matriz
1 0 0 0
0 1 0 0
E1 =
−2
0 1 0
0 0 0 1
es una matriz elemental por filas, resultante de restarle a la tercera fila de la identidad el
doble de la primera.
Asimismo, es una matriz elemental por columnas, resultante de restarle a la primera
columna de la identidad el doble de la tercera.
La matriz
1 0 0 0
0 0 0 1
E2 = 0 0 1 0
0 1 0 0
es una matriz elemental por filas, resultante de intercambiar las filas 2 y 4 de la identidad.
También es matriz elemental por columnas, resultante de intercambiar las columnas
2 y 4 de la identidad.
Observación: Toda matriz elemental por filas lo es por columnas y viceversa (aunque
no necesariamente asociadas a la misma operación por filas que por columnas).
0 0 0 1
Matrices de permutación
Otro tipo de matriz de utilidad lo constituyen las matrices de permutación. Una matriz
de permutación es la que resulta de efectuar una determinada permutación de las filas
(columnas) de la matriz identidad; al premultiplicarla (posmultiplicarla) por cualquier
matriz A, se obtiene el resultado de realizar la misma permutación sobre las filas (colum-
nas) de A. Otra posible definición: P ∈ Km×m es una matriz de permutación si tiene un
sólo 1 en cada fila y cada columna, siendo el resto de elementos 0.
Capı́tulo 2 45
se puede expresar como el producto de dos matrices elementales que intercambian la fila
1 y 3 (E1→3 ), y las filas 1 y 2 (E1→2 ):
0 1 0 0 0 1
P = E1→2 E1→3 = 1 0 0 0 1 0 .
0 0 1 1 0 0
Del mismo modo, P puede expresarse como el producto de dos matrices elementales de
intercambio por columnas E2→3 y E1→3 :
0 0 1 1 0 0
P = E1→3 E2→3 = 0 1 0 0 0 1 .
1 0 0 0 1 0
Dada una matriz A ∈ Km×n , realizar operaciones elementales sobre sus filas equivale a
premultiplicar por sucesivas matrices elementales:
Ek · · · E2 E1 A. (2.54)
Cada una de estas operaciones deja invariante el rango. Si mediante este proceso llegamos
a una matriz triangular (cuyo rango se deduce inmediatamente) habremos conseguido
calcular r(A).
Igualmente puede procederse efectuando operaciones elementales sobre las columnas
(posmultiplicación por matrices elementales), e incluso combinando ambos métodos.
46 Álgebra (2019/20)
Es decir, es la matriz cuya columna j-ésima contiene las coordenadas del vector vj en la
base B.
Igualamos el primer y el último término, y multiplicamos por B−1 (que existe pues B
es cuadrada de columnas independientes); de esta forma se llega a la identidad (2.58).
Nótese que P = B−1 V, lo cual también permite calcular la matriz P de cambio de base.
Ax = b. (2.62)
se llama matriz ampliada, y contiene todos los datos que determinan el sistema lineal
y, por tanto, sus soluciones.
Definición 44 Un sistema lineal se dice compatible si admite alguna solución; si, ade-
más, es única, se llama compatible determinado; si admite más de una solución, com-
patible indeterminado; si no admite ninguna solución, incompatible.
Observación: Todo sistema homogéneo admite como solución el vector nulo de Kn , que
constituye la llamada solución trivial. Pero el conjunto de todas las soluciones del sistema
homogéneo Ax = 0 es precisamente el núcleo de A (que se denota ker A, ya definido en
la expresión (2.39)).
luego u1 − u2 es solución del sistema homogéneo. Por otro lado, la suma de una solución
particular del sistema completo y una solución del sistema homogéneo da como resultado
Capı́tulo 2 49
donde x0 es una solución particular del sistema, (u1 , · · · , un−r ) es base de ker A, y
α1 , · · · , αn−r son los parámetros mencionados.
Si es a11 = 0, se escoge una fila k tal que sea ak1 6= 0, y se intercambian las filas
1 y k; a continuación, se procede como se explicó antes. Si todos los elementos de
la primera columna son nulos, el valor x1 de la primera incógnita es arbitrario y se
pasa al siguiente paso.
El siguiente paso es proceder del mismo modo con la columna 2, para las ecuaciones
3, . . . , n. Si fuesen nulos todos los a02k , k = 2, . . . , n, se tendrı́a ya hecho el trabajo sobre
la columna 2 y se pasarı́a a operar con la 3. En caso contrario:
Si es a022 6= 0, se hacen las operaciones
a0i2 0
F00i = F0i − F , i = 3, 4, . . . , m, (2.73)
a022 2
y si es a022 = 0, se intercambia la fila 2 con alguna posterior cuyo elemento a0k2 sea no nulo,
haciéndose a continuación las operaciones dichas.
Reiterando el proceso, se llega a la matriz escalonada.
(i−1)
En cada paso no trivial hay que dividir por un elemento diagonal aii que se deno-
minará pivote o, eventualmente, intercambiar dos ecuaciones para obtener un pivote no
52 Álgebra (2019/20)
2.5 Factorización LU
Como hemos visto, en la resolución por reducción gaussiana de un sistema lineal, se trata
de reducir la matriz A de coeficientes a una matriz triangular superior, que vamos a
denotar por U. Supongamos el caso particular en que todas las operaciones elmentales
por filas realizadas son del tipo 1) y en particular de la forma
F0i = Fi + αFk , con k < i, (2.76)
lo cual implica que la matriz elemental correspondiente es triangular inferior con todos
sus elementos diagonales iguales a 1. Se tiene, por tanto,
El El−1 . . . E2 E1 A = U, (2.77)
o, equivalentemente,
−1 −1
A = (El El−1 . . . E2 E1 )−1 U = E−1 −1
1 E2 . . . El−1 El U (2.78)
en donde la matriz E−1 −1 −1 −1
1 E2 . . . El−1 El , que denotaremos por L es asimismo triangular
inferior con elementos diagonales iguales a 1.
Por tanto, hemos factorizado A ∈ Km×n como
A = LU (2.79)
en donde L ∈ Km×m es triangular inferior con elementos diagonales iguales a 1 y U ∈
Km×n es triangular superior.
Obsérvese que la matriz L se obtiene efectuando sobre la matriz identidad de orden
m las inversas de las operaciones elementales por filas que condujeron a la triangular-
ización de A, realizadas en el orden inverso; mientras que U es el resultado de dicha
triangularización.
Capı́tulo 2 53
1 −2 1
Ejemplo: Realicemos la factorización LU de A = 4 −7 −4 .
−6 −3 1
1 −2 1 0 1 −2 1
F2 = F2 − 4F1
A = 4 −7 −4 ∼ 0 1 −8
F03 = F3 + 3F1
−6 −3 1 0 −8 4
00 1 −2 1
F3 = F03 + 8F02 ∼ 0
1 −8 = U.
0 0 −60
Efectuando ahora sobre la matriz I3 las operaciones F03 = F3 −8F2 ; F003 = F03 −3F01 ; F002 =
F02 + 4F01 , obtenemos la matriz
1 0 0
L= 4 1 0 .
−3 −8 1
2
El interés de este algoritmo radica en que la resolución del sistema de ecuaciones
Ax = b se reduce a la de dos sistemas cuya solución es inmediata. En concreto,
Ly = b
Ax = b ⇔ LUx = b ⇔ (2.80)
Ux = y
y cuando se programa numéricamente, este método es más eficiente que la reducción
gaussiana propiamente dicha.
Proposición 18 Sea A ∈ Kn×n regular; si A admite factorización LU, esta es única.
Demostración: Supongamos que A = L1 U1 = L2 U2 con Lj , Uj matrices de los tipos
antes especificados. Entonces la matriz L−1 −1
1 L2 = U2 U1 es simultáneamente triangular
inferior y triangular superior, luego solo puede ser diagonal; como además sus elementos
diagonales son iguales a 1, tiene que ser la identidad. Ası́ pues, L1 = L2 y U1 = U2 . 2
Obsérvese que, puesto que la aplicación del algoritmo se basa en que todas las opera-
ciones efectuadas sean del tipo (2.76), no toda matriz es factorizable LU. En concreto,
no lo será cuando el método de Gauss requiera de algún intercambio de filas, situación
que se produce si aparece algún cero como pivote con algún elemento no nulo debajo de
él.
1 −1 3
Ejemplo: Intentemos la factorización LU de A = −1 1 −2 .
1 0 5
1 −1 3 0 1 −1 3
F2 = F2 + F1
A = −1 1 −2 ∼ 0 0 1
F03 = F3 − F1
1 0 5 0 1 2
54 Álgebra (2019/20)
1 0 0
Ejemplo: Si A es la matriz del ejemplo anterior y P = 0 0 1 , la matriz
0 1 0
1 −1 3
PA = 1 0 5
−1 1 −2
2.6 Ejercicios
2.1.– Una aplicación lineal f : R2 → R3 verifica
2 −5
3 1
f = −4 f = 3 .
5 2
1 4
2
Calcular la imagen por f del vector . Hallar asimismo la matriz de la aplicación
−1
lineal f .
1. Calcúlese el rango de A.
Probar que una matriz triangular es invertible si y sólo si todos los elementos de su
diagonal principal son distintos de cero y que, en ese caso, su inversa es una matriz
triangular del mismo tipo.
Generalizar el resultado obtenido a una matriz de orden n que tenga la misma estructura.
Este ejemplo pone de manifiesto que una matriz dispersa (es decir, con gran número de
elementos nulos) no tiene por qué tener inversa dispersa.
Capı́tulo 2 57
B = ((1, 0, 1) , (−1, 1, 1) , (1, −1, 0)) , V = ((2, 1, 1) , (1, 1, 1) , (1, −1, 1)) .
Se pide:
tr (BC) = tr (CB) .
2.13.– Demostrar que una matriz A tiene rango 1 si y sólo si puede escribirse como
A = abt siendo a, b vectores columna no nulos. Deducir asimismo que, si A es cuadrada
de rango 1, entonces A2 = tr(A)A.
2.14.– Resolver por el método de Gauss los siguientes sistemas de ecuaciones lineales:
2x + 4y + 8z = 6
2x − y + 3z + u + 4v = 2 4x + y + 9z = 12
4x + y + 8z + u + 12v = 13 x + 2y + 4z = 3
−6x + 15y + 4z − 5u + v = 27 5x − 4y + 6z = 15
3x + 5y + 11z = 9
2.15.– Encontrar los vértices de un triángulo cuyos lados tienen por puntos medios los
puntos de coordenadas
(4, 1), (2, 3), (6, 2).
¿Quedan determinados los vértices de un cuadrilátero si se conocen los puntos medios de
sus lados? Generalizar estos resultados al caso de un polı́gono con un número cualquiera
de lados.
2.16.– Discutir según los valores de los parámetros a y b los siguientes sistemas de
ecuaciones
ax + y + z = 1 ax + y + bz = 1
x + ay + z = b x + ay + bz = 1
2
x + y + az = b x + y + abz = b
58 Álgebra (2019/20)
2.6.1 Cuestiones
1 0 0
2.17.– La matriz de cambio de la base B a la base V es 1 1 0 . Si un vector
1 2 1
tiene coordenadas (1, 2, 0) respecto a B, ¿qué coordenadas tiene respecto a V ?:
(A) (3, 2, 0)
(B) (1, 3, 5)
(C) (1, 1, −3)
(D) (−1, 2, 0)
2.18.– Indicar si las siguientes afirmaciones son verdaderas (V) o falsas (F).
V F
El producto de dos matrices invertibles es una matriz invertible
El producto de dos matrices simétricas es una matriz simétrica
Si A transforma vectores linealmente independientes en vectores
linealmente independientes, entonces su rango por columnas es máximo.
Si ker (A) = {0} entonces A transforma vectores linealmente independientes
en vectores linealmente independientes.
Si A es cuadrada, entonces el rango de A2 es mayor o igual que el rango de A.
2.19.– Sean A, B, C matrices no necesariamente cuadradas. Indicar si las siguientes
afirmaciones son verdaderas (V) o falsas (F).
V F
Si AB = O, entonces o bien A = O o bien B = O.
Si A2 = O, entonces A es necesariamente nula.
Si AB = AC entonces B = C.
Si AB = AC y A es cuadrada invertible, entonces B = C.
Si A es rectangular, de columnas independientes,
y AB = AC, entonces B = C.
Si A2 = B2 entonces A = ±B.
2.20.– Indicar si las siguientes afirmaciones son verdaderas (V) o falsas (F).
V F
Si Ax = 0 tiene solución única, entonces ker (A) = {0}
Si el sistema Ax = b tiene solución única, entonces
el sistema Ax = 0 tiene como única solución la trivial.
Si el sistema Ax = 0 tiene solución única, entonces
el sistema Ax = b tiene solución única.
Si Ax = b tiene solución única, entonces Ax = v tiene solución única.
Si b, v ∈ Im (A) entonces
Ax = b es determinado ⇔ Ax = v es determinado.
Capı́tulo 3
Introducción
En los temas anteriores hemos atendido a propiedades cualitativas de los vectores: pueden
sumarse o multiplicarse por un número, etc. Ahora vamos a ver otras propiedades de tipo
cuantitativo: qué entendemos por longitud de un vector, cómo medir el ángulo que forman
dos vectores, cómo proyectar un vector (sobre un subespacio), etc. En el plano muchas
de estas cuestiones pueden resolverse de forma bastante elemental, “con regla y compás”.
Queremos extender de manera natural las ideas intuitivas de la geometrı́a elemental tanto
a Rn como a Cn .
Nota: Por razones de notación identificamos los vectores de Rn y Cn con vectores columna.
59
60 Álgebra (2019/20)
1. Distributividad, es decir: ∀ u, v, w ∈ Rn , ∀ λ, µ ∈ R
hλu + µv, wi = λhu, wi + µhv, wi; hu, λv + µwi = λhu, vi + µhu, wi (3.2)
2. Simetrı́a:
3. Positividad:
n
X
∀ u ∈ Rn , u 6= 0 hu, ui = ut u = u2j > 0. (3.4)
j=1
1. ∀ u ∈ Rn , kuk ≥ 0, kuk = 0 ⇐⇒ u = 0.
La igualdad se da si, y solo si, los vectores son proporcionales con constante de
proporcionalidad no negativa.
ku + vk2 = kuk2 + 2hu, vi + kvk2 ≤ kuk2 + 2kuk kvk + kvk2 = (kuk + kvk)2
3.2 Ortogonalidad
Definición 49 Dos vectores u, v ∈ Rn son ortogonales (o perpendiculares) si su pro-
ducto escalar es nulo: hu, vi = 0. En ese caso es frecuente escribir u ⊥ v.
∀ v ∈ Rn hu, vi = 0 ⇒ u = 0. (3.11)
M ⊥ := {v ∈ Rn , ∀ u ∈ M, hu, vi = 0} (3.13)
Observación: Notemos que este razonamiento puede hacerse también considerando una
matriz A cuyas columnas sean un generador de M , no necesariamente libre, en este caso
pueden variar sus dimensiones (habrá tantas columnas como vectores posea el generador)
pero no su rango, que coincide con la dimensión.
Proposición 23 Una familia ortogonal que no contiene el vector nulo es libre. En par-
ticular, toda familia ortonormal es libre.
λ1 u1 + λ2 u2 + · · · + λs us = 0 (3.16)
64 Álgebra (2019/20)
como el vector uk es no nulo, tiene que ser λk = 0, haciendo variar k desde 1 hasta s
queda probada la propiedad.
para los que se cumple ke1 + e2 + uk2 = ke1 k2 + ke2 k2 + kuk2 = 4 pero no son ortogonales
dos a dos ya que por ejemplo he1 , ui = 1.
Definición 54 Una base ortogonal de Rn es aquella cuyos vectores son ortogonales dos
a dos; si además son unitarios la base se llama ortonormal.
Ejemplo:
2 1 1 1 1 1
B1 = , Bo = √ ,√
1 −2 2 1 2 −1
1. Q es ortogonal.
∀x ∈ Rn kQxk = kxk.
Por hipótesis los primeros miembros son iguales kQ(ei + ej )k2 = kei + ej k2 , igualemos los
segundos:
Observación: Las columnas (y filas) de una matriz ortogonal Q constituyen una base
ortonormal de Rn con el producto escalar natural. Además, el hecho de conservar el
producto escalar y la norma se traduce en que también se conservan los ángulos.
q̃2
q̃2 = u2 − hu2 , q1 iq1 , q2 =
kq̃2 k
(3.26)
..
.
q̃k
q̃k = uk − huk , q1 iq1 − · · · − huk , qk−1 iqk−1 , qk = k = 3, . . . , m.
kq̃k k
Capı́tulo 3 67
2
Observemos que el procedimiento seguido consiste simplemente en restar a cada vector
su proyección ortogonal sobre el subespacio engendrado por los vectores anteriores; es
decir, en la etapa k restamos al vector uk su proyección sobre L[u1 , u2 , . . . , uk−1 ], como
puede verse en la figura 3.1.
Consecuencia importante
Demostración: (no exigible) Para demostrar la existencia basta con aplicar el método
de Gram-Schmidt a las columnas de A que son linealmente independientes (por hipótesis
el rango de A es m), llamemos uk a las columnas de A y denotemos por qk los vectores
68 Álgebra (2019/20)
3.3 Extensión a Cn
Todo lo visto anteriormente puede extenderse al espacio Cn ; el producto escalar se define
del siguiente modo:
Definición 56 (producto escalar usual) Dados u, v ∈ Cn , su producto escalar usual
es hu, vi = ut v = vh u.
Capı́tulo 3 69
Propiedades
De forma análoga a como ocurrı́a en el caso real, se tienen las siguientes propiedades:
2. Simetrı́a hermı́tica:
3. Positividad:
1+i 1 − 2i
Ejemplo: El producto escalar de u = por v = es:
2−i 2 + 3i
h 1+i
hu, vi = v u = (1 + 2i 2 − 3i) = (1 + 2i)(1 + i) + (2 − 3i)(2 − i) = −5i.
2−i
Observemos que el orden de los vectores es importante ya que, en virtud de la simetrı́a
hermı́tica, hv, ui = hu, vi = 5i.
1+i p √
Ejemplo: La norma de u = 2 − i es kuk = |1 + i|2 + |2 − i|2 + 1 = 2 2.
−1
70 Álgebra (2019/20)
1. U es unitaria.
∀x ∈ Cn kUxk = kxk.
Observación: Como en el caso real, las columnas (y filas) de una matriz unitaria cons-
tituyen una base ortonormal de Cn con el producto escalar natural.
Ejemplo: La matriz
1 1 1
√
2 i −i
Ejemplos:
a) Consideremos el espacio vectorial V = Rn . De las propiedades Pn que se desprenden
de la definición 45, se tiene que la función hx, yi := x y = j=1 xj yj = yt x, es un
t
Nota: Los productos interiores de los ejemplos a) y b) son llamados a menudo “producto escalar”.
Dado que hx, xi = (x1 − x2 )2 + 3x22 , se tiene hx, xi > 0 si x 6= 0. Las propiedades
1) y 2) se pueden demostrar de manera sencilla. Por tanto, la función definida en
(3.32) es un producto interior en R2 .
d) Sea V = C[a, b] el espacio vectorial de todas funciones reales continuas en el intervalo
[a, b]. Consideremos la función h·, ·i : C[a, b] × C[a, b] → R definida mediante
Z b
hf, gi := f (t)g(t)dt.
a
Ejemplo: Si V es un espacio vectorial dotado de un producto interior h·, ·i, se tiene que
la función p
kxk := hx, xi,
está bien definida y es llamada norma asociada (o norma inducida) al producto interior
h·, ·i. De esta forma, la norma euclı́dea es la norma inducida por el producto escalar
natural en Rn ; no obstante, existen otros ejemplos de normas en Rn que no provienen de
ningún producto interior.
Capı́tulo 3 73
3.5 Ejercicios
3.1.– Dados los vectores (2, −1, 1) y (1, 0, 1) , hallar su producto escalar, sus normas y
el ángulo que forman.
kx − vk + kx − wk = kv − wk
3.4.– Demostrar que dos vectores v y w tienen la misma norma si y solo si su suma
v + w y su diferencia v − w son ortogonales.
1. (F + G)⊥ = F ⊥ ∩ G⊥ .
2. (F ∩ G)⊥ = F ⊥ + G⊥ .
3.6.– Hallar una base ortonormal del plano x + y = 5z, de forma que su primer vector
sea proporcional a (1, −1, 0) .
L : x1 + · · · + xn = 0 M : x1 = · · · = xn .
3.8.– Determinar la proyección ortogonal del vector (1, −1, 0, 2) sobre el subespacio
generado por los dos vectores (1, 1, 0, 1) y (0, 2, −1, 1).
3.14.– Calcular todos los posibles valores reales de a, b y c para que la siguiente matriz
sea ortogonal:
0 2b c
a b −c .
a −b c
3.18.– Calcular todos los posibles valores reales de a y b para que la siguiente matriz
sea unitaria:
a bi
.
a −bi
3.19.– Sea U = A + iB, con A y B reales, una matriz compleja unitaria. Comprobar
que la matriz
A −B
M=
B A
es ortogonal.
3.5.1 Cuestiones
3.20.– En C3 se considera el plano P de ecuación x + (1 + i)y − 2z = 0. Decidir sobre
la veracidad o falsedad de las siguientes proposiciones.
2. Si u ∈ P entonces u ∈ P.
1. F ⊂ G ⇒ F ⊥ ⊂ G⊥
2. F ⊂ G ⇒ G⊥ ⊂ F ⊥
3. Rn = F ⊕ G ⇒ Rn = F ⊥ ⊕ G⊥
4. Rn = F ⊕ G⊥ ⇒ F = G
3.22.– Sea A ∈ Rn×n tal que hu, Aui = 0 cualquiera que sea u ∈ Rn . Decidir sobre la
veracidad o falsedad de las siguientes afirmaciones.
1. A es nula.
3. det A = 0.
5. A es antisimétrica.
6. Rn = Im A ⊕ ker A
3.23.– Sea A ∈ Rn×n . Decidir sobre la veracidad o falsedad de las siguientes proposi-
ciones.
1. A simétrica ⇒ Rn = Im A ⊕ ker A
2. Rn = Im A ⊕ ker A ⇒ A simétrica.
3. A antisimétrica ⇒ Rn = Im A ⊕ ker A
77
78 Álgebra (2019/20)
Pues bien, esta expresión puede reescribirse como u = v+w, donde el primer sumando
v es un vector perteneciente a M (es combinación lineal de una base de M ) y el segundo
sumando w es un vector perteneciente a M ⊥ (es combinación lineal de una base de M ⊥ ).
Por tanto, v es la proyección ortogonal de u sobre M (y w es la proyección ortogonal de
u sobre M ⊥ ). En otras palabras, la proyección ortogonal de u sobre M puede calcularse
de la siguiente forma: basta encontrar una base ortogonal de M , (u1 , . . . , um ), y obtener
el vector
m
X hu, uj i
v= u.
2 j
(4.1)
j=1
ku j k
donde hemos utilizado que hu, uj i = utj u. Obsérvese que la última expresión es un
producto de matriz (entre paréntesis) por el vector u. Por tanto, hemos demostrado que
existe una matriz, que denotaremos PM , con
m
X uj utj
PM = (4.2)
j=1
kuj k2
Capı́tulo 4 79
tal que v = PM u. Esta matriz que proporciona el vector proyectado sobre M recibe el
nombre de matriz de proyección ortogonal sobre M . Ahora que hemos demostrado su
existencia, podemos definirla ası́:
Proposición 26
• Si Q es una matriz cuyas columnas forman base ortonormal del subespacio M,
entonces la matriz de proyección ortogonal sobre M es
PM = QQt (4.4)
Demostración: El primer apartado se deduce de la expresión (4.2), sin más que tomar
uj
qj :=
kuj k
con lo que los vectores qj son ortogonales y unitarios:
qt1
m
X qt2
PM = qj qtj = q1 q2 · · · qm = QQt .
..
j=1
.
qtm
Para el segundo apartado: dado que las columnas de A forman base de M, recordemos
que una forma de obtener una base ortonormal de M es la factorización QR de A. En
efecto, si A = QR (con Q de columnas ortonormales y R triangular superior invertible)
80 Álgebra (2019/20)
entonces las columnas de Q son base ortonormal de M, y por tanto, podemos aplicar la
expresión (4.4) tomando Q = AR−1 :
t t
PM = QQt = AR−1 AR−1 = AR−1 R−1 At
−1 t −1 t
= A Rt R A = A At A A.
At A = (QR)t (QR) = Rt Qt QR = Rt R
x −2 −1 1 2
f (x) 3 1 1 2
y permiten aproximar la zona mediante una función no negativa f : [−2, 2] → R de forma
que el área de la zona coincide con el área limitada por la gráfica de f , las rectas de
ecuaciones x = 2 y x = −2 y el eje horizontal. Además, el perfil del área en su lı́mite con
el rı́o (véase la figura) se parece a una parábola. Por ello el área buscada se aproxima
mediante la fórmula
Z 2
S= p(x)dx
−2
• Llegados a este punto optamos por resolver el sistema por mı́nimos cuadrados, en
este caso lo haremos resolviendo las ecuaciones normales At Ay = At b
34 0 10 α 22
0 10 0 β = −2
10 0 4 γ 7
Ası́, se llega a la definición de una matriz SM que relaciona u con su simétrico orto-
gonal.
Capı́tulo 4 85
SM := 2PM − I (4.7)
Demostración: Para que S sea la matriz de una simetrı́a ortogonal (véase la relación
(4.7)) es necesario y suficiente que
1
P := (S + I)
2
86 Álgebra (2019/20)
4.4 Giros en R2 y en R3
Un giro en el plano o en el espacio puede percibirse como una transformación geométrica
lineal que preserva tanto la forma como las distancias al origen de los puntos de la figura
transformada. La matriz de una aplicación lineal que preserva la forma tiene determinante
uno, mientras que su ortogonalidad garantiza que las normas de los vectores transformados
permanezcan invariantes (Proposición 24). Ésto motiva la siguiente definición de matriz
de giro, generalizando para espacios de dimensión n:
obviamente deja fijo el vector u del eje de giro, y en el plano ortogonal al eje de giro,
L[v, w], produce un giro de ángulo ϕ como el que acabamos de definir en R2 ; ası́ pues,
los girados de los vectores de dicha base son
G (u) = u
G (v) = cos ϕv + sen ϕw
G (w) = − sen ϕv + cos ϕw
1 0 0
luego la matriz del giro G en dicha base es 0 cos ϕ −senϕ .
0 senϕ cos ϕ
Finalmente, la matriz G de dicho giro respecto a la base canónica es (tras el cambio
de base de la aplicación):
1 0 0
G = Q 0 cos ϕ − sen ϕ Q−1 .
0 sen ϕ cos ϕ
Además, como Q es ortogonal, se tiene que Q−1 = Qt . Con todo ello, la matriz G del
giro en la base canónica puede calcularse como
1 0 0 t
G = u v w 0 cos ϕ − sen ϕ u v w . (4.11)
0 sen ϕ cos ϕ
4.5 Ejercicios
4.1.– Hállese la matriz de proyección ortogonal sobre la recta x = y = 2z. Calcúlese
asimismo la matriz de simetrı́a ortogonal respecto a esa misma recta.
b c −2
4.4.– Sea P = a −4 5 d una matriz no nula.
−2 −2 8
1. Calcúlense los valores reales a, b, c y d para que P sea la matriz de una proyección
ortogonal en R3 .
2. El sistema de ecuaciones
−x1 + x2 = 1,
x1 + x2 − x3 = 0,
ax1 − x2 + x3 = −1,
4.10.–
1. Calcúlese la proyección ortogonal del vector (1, 1, 1) sobre el subespacio
1. Calcúlense los valores reales a, b, c y d para que S sea la matriz de una simetrı́a
ortogonal en R3 .
2. Siendo S la matriz obtenida a partir de los resultados del apartado 1 con a > 0,
determı́nese una base ortonormal del subespacio L de R3 respecto al que S simetriza.
3. Siendo S la matriz obtenida a partir de los resultados del apartado 1 con a < 0,
determı́nense unas ecuaciones cartesianas del subespacio M de R3 respecto al que
S simetriza.
5. Estúdiese en cuál de los dos casos anteriores (2. o 3.) es S una matriz de Householder
y determı́nese un vector v que la defina.
2π
4.12.– Calcúlese la matriz de giro de ángulo 3
en torno al vector (1, 1, 1).
4.5.1 Cuestiones
4.13.– Márquese la única proposición falsa.
Si P ∈ Rn×n es matriz de proyección ortogonal, entonces
1. Rn = ker P ⊕ Im P
2. Pt = P2
3. (ker P)⊥ = Im (I − P)
4. ∀u ∈ Im (I − P), Pu = 0
4.14.– Indı́quense las afirmaciones que son verdaderas y las que son falsas.
Si M es un subespacio vectorial de Rn , entonces
1. SM = I − 2PM
2. PM + PM ⊥ = I
3. SM ⊥ PM = −PM
4. PM ⊥ PM = O
5. SM ⊥ SM = −I
Diagonalización
5.1 Introducción.
5.4 Diagonalización.
5.1 Introducción
En este capı́tulo estudiaremos condiciones necesarias y suficientes para que una matriz sea
semejante a una matriz diagonal (o dicho de otra forma, que pueda representarse por una
matriz diagonal), lo que equivale a encontrar una base de vectores que se transforman en
proporcionales a sı́ mismos. Un vector no nulo x es vector propio de A si se transforma
en su propia dirección, es decir si se cumple que Ax = λx. El escalar λ es el valor propio
asociado a x.
En gran número de aplicaciones los valores y vectores propios tienen un claro signifi-
cado geométrico. Consideremos por ejemplo la matriz de simetrı́a respecto a un plano
en R3 . Todos los vectores de ese plano coinciden con sus transformados, luego son vectores
propios asociados con el valor propio 1 (Ax = x). Sin embargo, un vector perpendicular
al plano de simetrı́a mantiene su dirección y cambia de sentido (Ax = −x), luego es un
vector propio asociado con el valor propio −1.
Consideremos ahora la matriz de giro que represente por ejemplo la apertura de una
puerta en R3 . ¿Hay algún vector asociado a la puerta que no cambie de dirección al girar
la puerta 60o ? Sı́, los del eje de la puerta, que serán vectores propios asociados con el
valor propio 1. Es fácil ver que no hay ningún otro vector asociado a la puerta que no
cambie de dirección con ese giro.
91
92 Álgebra (2019/20)
El cálculo de valores y vectores propios tiene una gran importancia en muchas áreas
de la ingenierı́a, como por ejemplo al análisis sı́smico de estructuras. Otro ejemplo in-
teresante es el algoritmo original de Google para ordenar los resultados de las búsquedas.
Este algoritmo, denominado PageRank, está basado en el cálculo del vector propio aso-
ciado con el máximo valor propio de una matriz con tantas filas y columnas como páginas
web hay en Internet, y formada a partir de los enlaces de llegada y de salida que relacionan
cada página con las restantes.
Nota: Veremos a lo largo del tema que los valores propios están relacionados con las raı́ces
de un cierto polinomio; en virtud del teorema fundamental del Álgebra (véase el apéndice
3) los polinomios complejos admiten tantas raı́ces como su grado indica. Para garantizar
la existencia de valores propios contemplaremos únicamente matrices complejas, si bien
en los ejemplos casi siempre serán reales pero vistas como complejas con parte imaginaria
nula.
Observaciones:
• Dada una matriz A cuadrada cualquiera, la ecuación Av = λv admite la solución
nula, cualquiera que sea el valor de λ; por ese motivo en la definición de vector
propio se excluye el vector nulo. Es decir, los valores de λ significativos son los que
resuelven la ecuación para vectores no nulos.
Capı́tulo 5 93
• Sin embargo, λ = 0 sı́ puede ser un valor propio de A, en concreto, asociado a los
vectores (no nulos) de ker A, es decir, cuando dim ker A ≥ 1.
• Si la matriz A es una matriz diagonal, entonces los elementos diagonales son valores
propios, mientras que los vectores de la base canónica son vectores propios.
A todo valor propio corresponde, al menos, un vector propio y todos los vectores
proporcionales al mismo (con excepción del vector nulo), ya que los proporcionales no
nulos de un vector propio son vectores propios asociados al mismo valor propio.
De hecho, el conjunto de todos los vectores propios asociados a un determinado valor
propio constituye, junto con el vector nulo, un subespacio vectorial al que se denominará
subespacio caracterı́stico o propio de la matriz asociado al susodicho valor.
Obsérvese que dicho conjunto coincide con el subespacio ker(A − λI). En efecto, basta
observar que los vectores propios v asociados a λ verifican Av − λv = 0. Es decir, son
las soluciones no nulas del sistema lineal homogéneo (A − λI)x = 0, por consiguiente, el
subespacio caracterı́stico asociado a λ es el núcleo de la matriz A − λI.
α1 v1 + α2 v2 + . . . + αr vr = 0 (5.1)
94 Álgebra (2019/20)
P−1 AP = D (5.6)
Sin embargo, la existencia de n valores propios distintos es condición suficiente pero
no necesaria para que exista tal base; por ejemplo, si se considera la matriz identidad,
con “1” como único autovalor, toda base de Cn es de vectores propios de esta matriz.
Se pueden encontrar otros ejemplos no tan triviales: matrices diagonales con elementos
repetidos, etc.
Como corolario se deduce que dos matrices semejantes tienen la misma traza (opuesto
del coeficiente de λn−1 en el polinomio caracterı́stico), ası́ como el mismo determinante
((−1)n por el término independiente).
• Las matrices reales de orden impar tienen, al menos, un valor propio real.
• La matriz
0 1
A= (5.13)
−1 0
• Si una matriz real (contemplada como matriz compleja) tiene un valor propio com-
plejo α, con parte imaginaria no nula, entonces α es también valor propio con la
misma multiplicidad algebraica que α. Además, los vectores propios correspondien-
tes pueden tomarse conjugados:
Av = αv ⇐⇒ Av = α v (5.14)
tiene por polinomio caracterı́stico λ2 , al igual que la matriz nula, sin embargo A no
es semejante a la nula ya que no tienen el mismo rango; además, la única matriz
semejante a la matriz nula es ella misma.
Las soluciones son los múltiplos de v1t = (1, 0, 1). Análogamente, los vectores propios
asociados a λ = 4:
−3 0 0 x1 0
(A − 4I)x = 1 0 −1 x2 = 0 (5.20)
−1 0 −2 x3 0
Las soluciones son los múltiplos de v2t = (0, 1, 0). Por último, para el valor propio λ = 2
se tiene
−1 0 0 x1 0
(A − 2I)x = 1 2 −1 x2 = 0 (5.21)
−1 0 0 x3 0
1 0 0
P= v1 v 2 vn = 0 1 1 (5.22)
1 0 2
el producto AP tiene como primera columna v1 , como segunda 4v2 y como tercera 2v3 .
Dicho de otra forma, se verifica AP = Pdiag (1, 4, 2). Equivalentemente, P−1 AP =
diag (1, 4, 2).
Las soluciones son los múltiplos de v1t = (1, 1, 1). Los vectores propios asociados al valor
propio doble λ = 1:
1 1 1 x1 0
(A − I)x = 1 1 1 x2 = 0 (5.26)
1 1 1 x3 0
La matriz anterior tiene rango 1 y por tanto hay un subespacio propio de dimensión 2
asociado con λ = 1. Tomando x2 y x3 como variables libres a las que se da alterna-
tivamente valor 1 ó 0 se obtienen las soluciones v2t = (−1, 1, 0) y v3t = (−1, 0, 1). Los
vectores propios correspondientes son todas las combinaciones lineales no nulas de estos
dos vectores.
5.4 Diagonalización
En el primer ejemplo se ha encontrado una matriz diagonal semejante a la matriz original
A. Los elementos de la diagonal son los valores propios de A, mientras que las columnas
de la matriz P son vectores propios. En el segundo ejemplo también se han encontrado
tres vectores propios linealmente independientes, a pesar de que uno de los valores propios
es doble.
De una forma más general, si una matriz cuadrada A es semejante a una diagonal D,
entonces la relación AP = PD significa que la columna j-ésima de P es proporcional a
la j-ésima de AP. Dicho con otras palabras, el elemento j de la diagonal D es un valor
propio de A y tiene como vector propio asociado precisamente la columna j de P. Se
tiene que las columnas de P son una base de Cn formada por vectores propios de A.
donde λj , j = 1, . . . , r son los valores propios distintos (dos a dos) de A y σj sus multi-
plicidades respectivas. Entonces, para cada j = 1, . . . , r se tiene
Obsérvese que una matriz real puede ser no diagonalizable en R, pero diagonalizable
en C, por ejemplo
0 1
. (5.30)
−1 0
Observaciones: Todas las propiedades siguientes se enuncian para una matriz cuadrada
de orden n:
diag(λ−1 −1
1 , . . . , λn ) = D
−1
= (P−1 AP)−1 = P−1 A−1 P. (5.32)
Capı́tulo 5 101
El recı́proco no es
cierto. Una
potencia diagonalizable no implica que A lo sea. Por
0 1
ejemplo la matriz no es diagonalizable, aunque su cuadrado es la matriz
0 0
nula que es un caso particular de matriz diagonal.
Observaciones:
1. Si λ0 es valor propio de una matriz A, entonces para cualquier polinomio P , P (λ0 )
es valor propio de P (A).
donde hemos utilizado que Ah = A. Pero por la simetrı́a hermı́tica del producto
escalar, estos dos números son conjugados el uno del otro, ası́ que debe ser λ∗ = λ
con lo que se deduce que λ es real.
2. Si A es antihermı́tica, el razonamiento es parecido: tomemos un valor propio suyo
λ y autovector asociado x. Por un lado, sigue cumpléndose la ecuación (5.37); por
otro lado, realizamos el producto escalar
hx, Axi = (Ax)h x = xh Ah x = − xh Ax = − λ xh x = −λ kxk2
donde hemos utilizado que Ah = A. Pero estos dos productos escalares son con-
jugados entre sı́, luego debe ser λ∗ = −λ con lo que se deduce que λ es imaginario
puro.
3. Si A es unitaria, se sabe que conserva la norma estándar (kxk = kAxk) luego
aplicándolo a un autovector x asociado a un autovalor λ,se tiene que
kxk = kAxk = kλxk = |λ| · kxk
de donde |λ| = 1, como se querı́a demostrar.
En el próximo tema estudiaremos las propiedades de diagonalización de algunas de
estas familias de matrices.
Capı́tulo 5 103
5.5 Ejercicios
5.1.– Calcular los valores y vectores propios de cada una de las siguientes matrices
−3 −2 −1
−3 2 3 −1
A= , B= , C= 6 4 2 ,
−2 2 4 −1
−2 −1 −1
0 1 1 −1 −1 −1 3 1 3
D = −1 −2 −1 , E = 4 3 2 , F = 0 1 −2
1 1 0 −2 −1 −1 −2 −1 −1
analizando si son o no diagonalizables. Para aquellas que sean diagonalizables determinar
una matriz que las diagonalice.
5.2.– Calcular valores de a y b que hacen que (1, 1, −1)t sea un autovector de la
los
−b 2 0
matriz a b 1 .
0 0 a
1 −a + 1 −1
5.3.– Indicar los valores de a ∈ R para que 0 −2 −3 sea semejante a
0 −2 −1
diag (1, −4, 1).
−1 −1 0
5.4.– Hallar el valor del parámetro a que hace que la matriz −2 −1 a no sea
0 1 −1
diagonalizable.
5.5.– Estudiar si la matriz
0 1 −6
A= 1 0 2
1 0 2
es diagonalizable y diagonalizarla en caso afirmativo.
5.6.– Comprobar que una matriz y su traspuesta tienen el mismo polinomio caracterı́stico
y, por tanto, los mismos valores propios. Analizar lo que sucede con los vectores propios.
5.7.– Sea A una matriz cuyo polinomio caracterı́stico es χA (z) = (z − 3)13 (z + 4)7 .
Hallar el polinomio caracterı́stico de A − 2I.
5.8.– Dados dos vectores a y b en Rn , determı́nense los valores y vectores propios de la
matriz de rango unidad abt . Como aplicación, hállense los valores y vectores propios de
la matriz
1 1 ··· 1
2 2 ··· 2
.. .. . . ..
. . . .
n n ··· n
104 Álgebra (2019/20)
5.9.– Establecer la relación que existe entre los valores y vectores propios de una matriz
compleja M y los de la matriz aI + bM siendo a, b números complejos no nulos arbitrarios
–se aconseja revisitar el problema ??–. Como aplicación, deducir los valores y vectores
propios de la matriz
c d ··· d
d c ··· d
.. .. . . .. .
. . . .
d d ··· c
5.11.– Aplicar los anteriores ejercicios para determinar los autovalores de las siguientes
matrices, sin necesidad de hacer cálculos:
0 −1 2 3 −1 2
A= 1 0 −2 B= 1 3 −2
−2 2 0 −2 2 3
5.13.– Sea A ∈ Cn×n con r(A) = tr(A) = 1. Hallar los valores propios de A, ası́ como
sus multiplicidades algebraicas y geométricas. Deducir si A es o no diagonalizable.
5.14.– Se dice que una matriz A es nilpotente si existe k ∈ N tal que Ak = 0. Sea A
nilpotente.
5.16.– Sean las matrices A ∈ Cm×n y B ∈ Cn×m , demostrar que los valores propios no
nulos de AB coinciden con los de BA.
2. Determinar una base de vectores propios y comprobar que es una base ortogonal.
5.5.1 Cuestiones
0 −2 2
5.18.– Dada la matriz 0 3 0 señalar cuáles de las siguientes afirmaciones son
3 α 1
verdaderas y cuáles son falsas:
3. Si A es diagonalizable, entonces α = 2
1. λ = 3 es siempre un autovalor de A.
2. Si a = −2 entonces λ = 0 no es un autovalor de A.
Diagonalización ortogonal
108
Capı́tulo 6 109
Observación: Los elementos diagonales de D son los autovalores de A —que son todos
reales—, mientras que las columnas de Q constituyen una base ortonormal de Rn formada
por autovectores de A.
La anterior observación nos permite concluir una primera caracterización de las ma-
trices diagonalizables ortogonalmente:
Demostración:
Lo razonaremos por inducción sobre el orden n de la matriz: para n = 1, obviamente
la matriz es un número real, que ya es en sı́ mismo una matriz diagonal de orden 1 real.
Supongamos que el resultado es cierto para matrices reales simétricas de orden n −
1 y consideremos una matriz genérica A real simétrica de orden n. Sabemos que sus
autovalores son reales; tomemos uno de ellos, λ1 , y un autovector u no nulo asociado,.
Podemos elegir u real puesto que A − λ1 I es una matriz real y su núcleo ker (A − λ1 I)
no es vacı́o y contiene vectores reales, que son precisamente los autovectores asociados.
Además podemos elegir u unitario.
Pues bien, extendamos u hasta formar una base ortonormal de Rn . Llamemos U a la
matriz que contiene dicha base por columnas; de esta forma U = u u2 · · · un es
una matriz ortogonal. Obsérvese que sus columnas no son necesariamente autovectores
(sólo la primera, que es el autovector u) ası́ que podemos asegurar que
−1 λ1 ct
U AU =
0 An−1
es decir, como combinación lineal de matrices de rango 1, cada una de las cuales representa
la matriz de proyección ortogonal sobre su correspondiente subespacio columna, siendo
estos subespacios ortogonales entre sı́ y los autovalores de A los coeficientes de dicha
combinación lineal. Nótese que el número de sumandos no nulos es igual al rango de A.
Si ahora ordenamos los autovalores no nulos de A agrupando aquellos que sean iguales,
es decir, consideramos α1 , α2 , . . . , αp autovalores de multiplicidades respectivas m1 , m2 , . . . ,
mp , con m1 + . . . + mp = r(A), los sumandos correspondientes al autovalor αk en la ex-
presión (6.1) se agrupan como sigue:
xt Ax
R (x) = ∀x 6= 0. (6.11)
kxk2
xt Ax
λmı́n ≤ ≤ λmáx ∀x 6= 0, (6.13)
kxk2
Proposición 37 Sea A real y simétrica, sean λmı́n , λmáx los autovalores mı́nimo y máximo,
respectivamente, de A; entonces
xt Ax xt Ax
mı́n = λ mı́n ; máx = λmáx , (6.14)
x6=0 kxk2 x6=0 kxk2
Pero el determinante de toda matriz definida positiva es positivo por ser el producto
de los autovalores, luego los |Aj | lo son.
⇐ Supongamos ahora que los |Aj | son positivos. Demostraremos que A es definida
positiva por inducción en n, el orden de A. Para una matriz de orden 1 el resultado es
trivial.
Supongamos ahora que la matriz An−1 es definida positiva. Existirá una matriz or-
togonalmente semejante a ella con elementos diagonales positivos, digamos Λn−1 =
diag(µ1 , . . . , µn−1 ). Es decir: Qt An−1 Q = Λn−1 con Q ∈ R(n−1)×(n−1) ortogonal. Pero la
matriz A, en virtud de su simetrı́a, se escribe como
An−1 u
A= ,
ut a
114 Álgebra (2019/20)
Si A ∈ Rm×n tiene rango menor que su número de columnas, se dice que su número de
condición es infinito.
|λ1 (A)|
c2 (A) = (6.19)
|λn (A)|
supuesto que los valores propios de A están ordenados de la forma |λ1 (A)| ≥ · · · ≥ |λn (A)|
> 0.
k∆x k
Definición 78 (error relativo del vector solución) El cociente kx00k 2 , que aparece
2
en (6.18), es el error relativo, medido por la norma euclı́dea, del vector solución del
sistema cuando el vector b se modifica.
k∆x0 k2 k∆bk2
≤ c2 (A)
kx0 k2 kbk2
Por tanto, el número de condición proporciona una cota superior para la posible am-
plificación del error relativo, cuando se modifica el término independiente del sistema.
Esta cota superior es óptima (es decir, alcanzable).
Pueden obtenerse expresiones que relacionan ∆x0 , x0 y c2 (A), cuando la matriz A
pasa a ser A + ∆A o cuando se modifican conjuntamente la matriz A y el vector b.
• Elipse de centro (x0 , y0 ) , de ejes paralelos a los ejes coordenados, con longitudes de
semiejes a, b. Dicha elipse tiene por ecuación
(x − x0 )2 (y − y0 )2
+ =1
a2 b2
Realizando una traslación X = x − x0 , Y = y − y0 , se llega a la ecuación reducida
de la elipse:
X2 Y 2
+ 2 = 1.
a2 b
Como caso particular, si a = b se le denomina circunferencia de radio a:, de ecuación
reducida x2 + y 2 = a2 .
(x − x0 )2 (y − y0 )2
− =1
a2 b2
cuya ecuación reducida es, tras una traslación:
X2 Y 2
− 2 = 1.
a2 b
Estas ecuaciones son fáciles de identificar. Pero si la cónica está girada y los ejes de
simetrı́a ya no son el eje X o el eje Y, entonces la ecuación cambia (las coordenadas X, Y
varı́an según alguna matriz de giro). Ası́ pues, la ecuación general de la cónica es una
ecuación polinómica de segundo grado en (x, y) :
El objetivo de esta sección es, dada la ecuación de una cónica, aprender a identificar de
qué tipo de cónica se trata.
Para ello, simplemente escribimos la ecuación en forma matricial, observando que los
tres primeros sumandos constituyen una forma cuadrática:
a11 a12 x x
(x, y) + b1 b2 + c = 0.
a12 a22 y y
a11 a12
Como la matriz de dicha forma cuadrática, A = , es real simétrica, puede
a12 a22
diagonalizarse mediante una matriz ortogonal P de orden 2. Sea P una matriz ortogonal
de determinante igual a 1; es decir, P es una matriz de giro alrededor del origen, tal que
118 Álgebra (2019/20)
t λ1 0
P AP =
0 λ2
x X
Realizando el cambio =P , la ecuación queda
y Y
t X X
(X, Y )P AP + b1 b2 P +c = 0
Y Y
λ1 0 X X
(X, Y ) + c1 c2 +c = 0
0 λ2 Y Y
que se reduce sencillamente a
λ1 X 2 + λ2 Y 2 + c1 X + c2 Y + c = 0.
Una vez desacoplada la ecuación (ya sin términos cruzados) pueden presentarse los
siguientes casos:
Como resumen de este método general, observamos que, dada la ecuación de una
cónica, basta clasificar la matriz A de su parte cuadrática:
Esta clasificación permite saber de forma sencilla el tipo de cónica; para conocer exac-
tamente la cónica de que se trata dentro de cada tipo (ası́ como calcular su centro, sus ejes
de simetrı́a, etc.), hay que diagonalizar la matriz, pues sus ejes de simetrı́a vendrán dados
por las direcciones de los autovectores, y llegar a su ecuación reducida correspondiente.
Véase el siguiente ejemplo concreto.
X 2 (Y − 1)2
+ = 1.
2 6
120 Álgebra (2019/20)
Esto indica que, tras un√giro √ (dado por P) y una traslación, se trata de una elipse de
longitudes de semiejes 2 y 6. Obsérvese que dichas longitudes no son modificadas
por P puesto que es una matriz ortogonal. Las direcciones de los ejes de esta elipse
son las direcciones de las columnas de P, respectivamente, ((1, 1) , (−1, 1)) ; en otras
palabras, los ejes de simetrı́a de esta elipse son paralelos a las rectas x = y y x = −y. Por
último, el centro de esta elipse tiene coordenadas (X, Y ) = (0, 1) , pero hay que cambiar
a coordenadas (x, y) luego
x 0 1 1
=P =√
y 1 2 1
√ √
ası́ que es una ELIPSE de centro (−1, 1) / 2, un semieje de longitud 2 a lo largo de
un eje paralelo
√ a la recta x = y que pasa √ por el centro (es decir, contenido en la recta
y = x + 2) y otro semieje de longitud 6 a lo largo de un eje paralelo a la recta x = −y
(es decir, contenido en la recta y = −x que ya pasa por el centro).
2.5
1.5
0.5
-0.5
-1
-1.5
-3 -2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5
6.6 Ejercicios
6.1.– Determı́nese una base ortonormal de vectores propios de la matriz
3 2 4
2 0 2 .
4 2 3
1 −1 −1 −1
6.3.– Determı́nense los valores del parámetro a que hacen definida positiva la matriz
a 1 1
1 a 1 .
1 1 a
6.4.– Como generalización del apartado anterior, se considera la matriz de orden n que
contiene el parámetro real a en la diagonal principal y 1 fuera de la diagonal principal.
¿Para qué valores es definida positiva?
6.6.– Calcúlense los valores máximo y mı́nimo de la función R definida en R3 \{(0, 0, 0)}
mediante
3(x2 + y 2 + z 2 ) + 2(xy + yz + zx)
R(x, y, z) = ,
x2 + y 2 + z 2
ası́ como los vectores en los que se alcanzan dichos valores.
6.7.– Calcúlense los valores máximo y mı́nimo que alcanza sobre R2 \{(0, 0)} el cociente
5 2 x
x y
0 5 y
,
k(x, y)k2
indicando sobre qué vectores toma dichos valores.
122 Álgebra (2019/20)
6.10.– Demostrar que si las filas (o columnas) de una matriz real A son ortogonales y
de la misma norma, entonces el número de condición espectral es igual a 1. En particular,
el número de condición de una matriz ortogonal es 1.
6.12.– Clasifı́quese cada una de las siguientes cónicas, hallar su ecuación reducida y
encontrar su centro y sus ejes de simetrı́a, si los tuviera:
1. x2 + y 2 + 4xy = 3.
kAxk2 √
2. mı́n = 14
x6=0 kxk2
1. A no es diagonalizable ortogonalmente.
4. A es semidefinida positiva.
7.1.1 Introducción
Sea λ ∈ R. Se considera la ecuación
y 0 (t) = λy(t). (7.1)
124
Capı́tulo 7 125
Esta ecuación es la que describe, entre otros fenómenos, la desintegración de materiales ra-
dioactivos. Nos plantemos encontrar, si existen, las funciones y(t) derivables sobre la recta
real (o sobre un intervalo de la misma) que satisfacen la ecuación anterior. Multiplicando
ambos miembros de la ecuación por e−λt y reordenando llegamos a
d −λt
e y(t) = 0 ⇔ e−λt y(t) = c ⇔ y(t) = ceλt .
dt
Por tanto, todas las soluciones de (7.1) son de la forma ceλt , con c ∈ R. Es interesante
señalar que el conjunto formado por las soluciones de (7.1) constituye
un subespacio
1 λt
vectorial de C (R), en concreto la clausura lineal de la familia e .
donde los coeficientes aij son reales. El sistema puede escribirse en forma matricial como
donde
x1 (t)
x1 (t)
X(t) = , A = [aij ] .
..
.
xn (t)
A la ecuación (7.2) se la denominará en adelante “sistema homogéneo de ecuaciones
diferenciales de primer orden” o simplemente “sistema diferencial”.
Obviamente, este problema es más complejo que la ecuación escalar (7.1) porque la
derivada de cada variable depende de las otras. Informalmente se dice que las variables
x1 , . . . , xn están “acopladas”. Uno de los procedimientos que emplearemos para resolver
el sistema anterior consiste precisamente en “desacoplar” las ecuaciones, reduciendo el
sistema de partida a otro formado por n ecuaciones diferenciales escalares independientes.
Por otro lado, es fácil comprobar el siguiente resultado:
Teorema 13 Las soluciones del sistema (7.2) constituyen un espacio vectorial (que además
n
es subespacio de (C 1 (R)) ).
126 Álgebra (2019/20)
Además, y como consecuencia del teorema de existencia y unicidad que veremos más
adelante, este espacio tiene dimensión n.
Por último, hay que señalar que frecuentemente se nos presentará el problema de
buscar qué soluciones X(t) de (7.2) satisfacen la condición inicial X(t0 ) = X0 , donde X0
es un determinado vector de Rn . Es decir, se trata de buscar las soluciones, si existen, de
0
X (t) = AX(t)
X(0) = X0 .
Este resultado motiva la siguiente definición: dada una matriz A ∈ Cn×n , se define la
exponencial de A como
N
A
X 1 k 1 1
e := lim A = I + A + A2 + A 3 + . . . ,
N →∞
k=0
k! 2! 3!
N
X 1 k
expresión en la que el lı́mite se toma sobre cada uno de los elementos de la matriz A .
k=0
k!
N ∞
X 1 k X 1 k
La expresión lim A se abreviará como A .
N →∞
k=0
k! k=0
k!
Observaciones:
• Se emplearán indistintamente las notaciones eA y exp(A) para denotar la exponen-
cial de A.
Demostración:
d At
• e = AeAt .
dt
Demostración:
N
! N
d X Atk X Ak d k
= t
dt k=0
k! k=0
k! dt
N
X Ak
= tk−1
k=1
(k − 1)!
N −1
X Ak+1 k
= t
k=0
k!
N −1
X Ak k
=A t ,
k=0
k!
∞ ∞
A
X Ak X λk
e u= u= u = eλ u,
k=0
k! k=0
k!
Abordemos ahora el caso de que A sea diagonalizable. En ese caso, existe Q ∈ Cn×n tal
que Q−1 AQ = D diagonal, luego A = QDQ−1 y ∀N ∈ N :
N N N
!
k −1 k k
X A X (QDQ ) X D
= =Q Q−1 .
k=0
k! k=0
k! k=0
k!
Ası́, la exponencial de A es
exp(A) = Q exp(D)Q−1
2
1 1 e 0 5 −1
=
4 5 0 e3 −4 1
5e2 − 4e3 −e2 + e3
= .
20e2 − 20e3 −4e2 + 5e3
Capı́tulo 7 129
z(t) 1 1 11 c3
t 2t −3t
e e e
= c1 e
t
+ c2 2e
2t
+ c3 7e−3t .
et e2t 11e−3t
Demostración:
Como X(t) = eAt X0 es una combinación lineal de las columnas de la matriz eAt , es
solución del sistema, y puesto que X(0)= IX0 = X0 , satisface la condición inicial.
Veamos que es la única: premultiplicando ambos miembros del sistema por la matriz
−At
e , tenemos:
e−At X0 (t) = e−At Ax(t),
y, como las matrices A y e−At conmutan, podemos escribir:
La regla de Leibniz para la derivación de un producto sigue siendo válida cuando los
factores son matrices, con lo que identificamos el primer miembro con la derivada de
e−At X(t). Por lo tanto, esta última función tiene que ser constante, y como en el 0 vale
X0 , se tiene que e−At X(t) = X0 para todo t. Por consiguiente,
−1
X(t) = e−At X0 = eAt X0 .
X(t) = eA(t−t0 ) X0 .
n
P
es αi Xi (t).
i=1
132 Álgebra (2019/20)
En todo este tema se han estudiado las soluciones del sistema diferencial X0 (t) = AX(t)
con A ∈ Rn×n . Naturalmente, cabe la posibilidad de que la matriz A tenga autovalores
complejos no reales, lo que da lugar tanto a soluciones reales como a soluciones com-
plejas no reales. En esta asignatura vamos a interesarnos únicamente por las soluciones
reales. Por este motivo, es conveniente realizar en este momento una serie de comentarios.
Contemplaremos matrices de orden n = 2 y n = 3.
Caso n = 2:
eλ1 t 0
c1
X(t) = [u|u]
0 eλ1 t c2
= c1 e λ 1 t u + c2 e λ 1 t u
= c1 eλ1 t u + c2 eλ1 t u.
La expresión anterior es real (para todo valor de t) si y solo si c1 = c2 . Por este motivo,
las soluciones reales se pueden escribir de la forma X(t) = 2Re c1 eλ1 t u . Es conveniente
observar que estas soluciones son oscilatorias, afirmación que se aprecia con mayor claridad
en la siguiente expresión:
Caso n = 3:
Realizando el mismo razonamiento que en el caso n = 2 se llega a que las soluciones reales
admiten la expresión
X(t) = 2Re c1 eλ1 t u + c3 eλ3 t v.
ası́ que los valores propios son 2,5 y −5. La matriz de tensiones expresada en la base
de vectores propios (que nos indican las direcciones principales de las tensiones del
material) es la matriz diagonal
2 0 0
0 5 0 MPa.
0 0 −5
al ser P−1 = Pt por ser matriz ortogonal, podemos comprobar fácilmente que
1 0 0 1 0 0
2 0 0 2 0 0
−1 t 2 1 2 1
P TP = P TP = 0 √
5
√
5
0 3 4 0 √5 √5 = 0 5 0 .
−2 −2
0 √15 √ 5
0 4 −3 0 √15 √ 5
0 0 −5
Se pide:
3. Uno de los módulos de las electrónicas de control de los coches de los trenes posee
unas conexiones eléctricas en forma de trenzados hechos de un material tetragonal
(un tipo de estructura cristalina) que además es conductor (conduce electricidad).
Para un correcto funcionamiento de estas conexiones y evitar derivaciones eléctricas,
deben ofrecer resistividad solo a lo largo de sus ejes principales, por lo que debe
posicionarse de acuerdo a los mismos.
Una muestra en forma de cubo de ese material conductor tetragonal se somete
a medidas de resistividad eléctrica en un laboratorio de ensayos, y se obtiene el
siguiente resultado:
16 0 0
0 10 −6
0 −6 10
en unidades µΩm. Se pide:
(a) Expresar la resistividad a lo largo de los ejes principales del material, para
poder posicionar dichos elementos de forma adecuada. Determinar a su vez las
direcciones principales del material con vectores unitarios.
(b) ¿Qué dirección escogerı́as para garantizar las condiciones óptimas de con-
ducción eléctrica?
(c) Sabiendo que la matriz de conductividades es la inversa de la de resistividades,
hallar la matriz de conductividades en las direcciones principales, y deducir el
valor de la conductividad en los ejes originales del laboratorio de ensayos.
Capı́tulo 7 137
7.5 Ejercicios
7.1.– Sean α, β ∈ R y
α −β
C := .
β α
Hallar eCt empleando la definición de exponencial como suma infinita.
Hállese también la solución del sistema que verifica las condiciones iniciales x1 (0) = 1,
x2 (0) = 0 y x3 (0) = 0.
Soluciones a los ejercicios propuestos
Capı́tulo 1
1.1.–
z + w = 7 + i.
3z − 4w = −7 + 10i.
iz + w = 2 + 2i.
zw = 14 + 5i.
z zw 10 11
= 2
= + i.
w |w| 17 17
1.2.–
2 + 11i 2 + 11i 3 − 4i
= · = 2 + i.
3 + 4i 3 + 4i 3 − 4i
1.3.–
• 1 = 1ei·0 . Su argumento principal es 0.
π
• i = 1ei 2 . Su argumento principal es π2 .
√ π
• 1 + i = 2ei 4 . Su argumento principal es π4 .
√ π
• 3 + i = 2ei 6 . Su argumento principal es π6 .
√ 2π
• −1 − i 3 = 2e−i 3 . Su argumento principal es − 2π
3
.
139
140 Álgebra (2019/20)
1.5.–
1. Puesto que los tres vectores forman una matriz cuadrada de orden 3, el proced-
imiento más sencillo consiste en averiguar para qué valores del parámetro no se
anula el determinante de dicha matriz:
1 −1 2
2
0 1 = −a + 3 6= 0 ⇔ a 6= 3
a 1 0
que son los valores de a que hacen linealmente independientes dichos vectores.
2. Precisamente para este valor el vector (a, 1, 0) depende linealmente de los dos
primeros, por lo que tenemos que estudiar si el nuevo vector (1, 1, −1) depende
linealmente de aquéllos. Por el mismo procedimiento de antes,
1 −1 2
2 0 1 = 0
1 1 −1
luego el tercer vector es combinación lineal de los dos primeros. De hecho, se aprecia
a simple vista que es la diferencia entre el segundo y el primero.
1.6.–
1 2 −1 3 1 2 −1 3 1 2 −1 3
1 −1 λ 3 ∼ 0 −3 λ + 1 0 ∼ 0 −3 λ + 1 0
3 2 5 µ 0 −4 8 µ−9 0 0 20 − 4λ 3µ − 27
1.7.– Escribimos los tres vectores como las filas de una matriz (alterando el orden para
facilitar las operaciones) y procedemos a triangular mediante operaciones gaussianas:
−1 1 − i 1 0
−1 1 − i 1
F3 = F3 − F2
1+i 1 0 0 ∼ 0 3 1+i
F2 = F2 + (1 + i)F1
1 + i 1 − 3i 1 − i 0 −3i 1 − i
Soluciones ejercicios 141
−1 1 − i 1
F300 = F30 + iF20
∼ 0 3 1+i
0 0 0
que nos permite concluir que los tres vectores son linealmente dependientes.
Otra forma: También se podrı́a haber calculado el determinante de la matriz y como da
0 (compruébese), se tiene los tres vectores son linealmente dependientes.
1.8.–
(αu + βv) × (1, 2, −1) = (αu) × (1, 2, −1) + (βv) × (1, 2, −1) =
nos indica que el tercer vector depende linealmente de los dos primeros. En con-
clusión, en este caso sı́ tenemos un subespacio, que coincide con L[(1, −2, 1), (1, −1, 0)].
Ası́ pues, es obvio que una base es ((1, −2, 1), (1, −1, 0)).
lo que garantiza que los tres vectores son linealmente independientes; ası́,
L[(2, −3, 0)] * L[(1, −2, 1), (1, −1, 0)] y no tenemos subespacio.
También podrı́amos haber concluido que los vectores eran linealmente independien-
tes viendo que el determinante de la matriz es distinto de 0.
1.9.–
1. El tercer vector es 7 veces el primero menos el doble del segundo. (Escrı́base la
matriz cuyas filas son dichos vectores, triangúlese mediante operaciones gaussianas
y se observará que los tres restantes vectores son linealmente independientes.)
2. Por ejemplo, ((1, 1, 1, 1) , (1, 2, 3, 4) , (0, 1, 0, −1)) (hemos suprimido el tercer vector
porque sabemos que es combinación lineal de los restantes).
3. Basta ampliar la anterior con un cuarto vector de la forma (2, 2, 2, c) y que sea
independiente de los de la base anterior. Tras los cálculos, resulta ser válido para
todo c 6= 2.
1.10.–
x1 + x2 = a
x1 + x3 = b
x2 + x3 = c
Soluciones ejercicios 143
Es sencillo observar que sumando las dos primeras ecuaciones y restando la tercera, obten-
a+b−c
emos 2x1 = a + b − c, es decir, x1 = .
2
Procediendo de igual modo con x2 y x3 (o simplemente observando la simetrı́a de a, b, c
respecto a x1 , x2 , x3 ), concluimos que el vector de coordenadas es
1
(a + b − c, a − b + c, −a + b + c) .
(x1 , x2 , x3 ) =
2
1.11.– Debemos comprobar que los vectores de V son linealmente independientes. Tomamos
una combinación lineal arbitraria de dichos vectores y la igualamos a 0,
α(u1 + u3 ) + β(−2u1 + u2 ) + γ(−u2 + u3 ) = 0,
lo que equivale a
(α − 2β)u1 + (β − γ)u2 + (α + γ)u3 = 0,
lo que, en virtud de la independencia lineal de los vectores u1 , u2 , u3 , implica que los tres
coeficientes de esta última combinación lineal son nulos. Ello nos proporciona un sistema
lineal homogéneo en α, β, γ cuya matriz de coeficientes es
1 −2 0
0 1 −1
1 0 1
(obsérvese que sus columnas son los vectores de coordenadas respecto a B de los vectores
de V), que mediante operaciones gaussianas entre las filas nos conduce a
1 −2 0 1 −2 0
0 1 −1 ∼ 0 1 −1 .
0 2 1 0 0 3
Es decir: el sistema sólo tiene la solución nula, lo que asegura que los tres vectores de V
son linealmente independientes y, por consiguiente, V es base de R3 .
Para calcular el vector de coordenadas pedido, igualamos las dos expresiones de dicho
vector,
u1 + u2 + u3 = α(u1 + u3 ) + β(u2 − 2u1 ) + γ(u3 − u2 ) = (α − 2β)u1 + (β − γ)u2 + (α + γ)u3
y, por la unicidad de las coordenadas, nos queda el sistema
α − 2β = 1
β−γ = 1
α+γ = 1
Lo escribimos matricialmente y resolvemos por el método de eliminación de Gauss
triangularizando la matriz:
1 −2 0 1 1 −2 0 1 1 −2 0 1
0 1 −1 1 ∼ 0 1 −1 1 ∼ 0 1 −1 1
1 0 1 1 0 2 1 0 0 0 3 −2
144 Álgebra (2019/20)
1.12.–
x1 = α+γ
x2 = β+γ
x3 = α−β
x4 = β−γ
x5 = α−γ
x1 − x2 − x3 = 0
x3 + x4 − x5 = 0.
2. Como ya disponemos de las ecuaciones, basta imponer que el vector dado las veri-
fique, es decir: 1 − 1 − a = 0 ⇔ a = 0; 0 + b − 1 = 0 ⇔ b = 1.
3.
(1, 1, 0, 1, 1) = λ(1, 0, 1, 0, 1) + µ(0, 1, −1, 1, 0) + ν(1, 1, 0, −1, −1)
equivale al sistema
λ+ν = 1
µ+ν = 1
λ−µ = 0
µ−ν = 1
λ−ν = 1
1.13.–
Soluciones ejercicios 145
1. Escribiendo los tres vectores como filas de una matriz y realizando dos sencillas
operaciones de reducción gaussiana,
1 2 0 1 1 2 0 1
1 0 1 −1 ∼ 0 −2 1 −2 ,
1 −2 2 −3 0 −4 2 −4
x1 − 2x3 − x4 = 0
2x1 − x2 − 2x3 = 0
Otra forma: Colocamos los tres vectores como las columnas de una matriz, y forzamos,
realizando operaciones de reducción gaussiana por filas, a que un cuarto vector
columna genérico de R4 sea combinación lineal de ellos:
1 1 1 x1 1 1 1 x1 1 1 1 x1
2
0 −2 x2 0 −2 −4 x2 − 2x1 0 1 2
∼ ∼ x3
0 1 2 x3
0 1 2 x3 0 0 0 2x3 + x2 − 2x1
1 −1 −3 x4 0 −2 −4 x4 − x 1 0 0 0 2x3 + x4 − x1
lo que nos permite deducir las mismas ecuaciones implı́citas obtenidas antes.
Nota: Pese a haberse obtenido casualmente las mismas ecuaciones por ambos pro-
cedimientos, existe una infinidad de pares de ecuaciones implı́citas equivalentes; se
trata en definitiva de dos ecuaciones independientes cualesquiera que sean verificadas
por los vectores que generan H.
concluimos que los cuatro vectores son linealmente independientes y por tanto nues-
tra elección ha sido válida. Ası́, una base de un posible suplementario la constituye
((1, 0, 1, 1), (0, 0, 1, 1)), de donde se deduce inmediatamente que unas ecuaciones
implı́citas de dicho subespacio son x2 = 0, x3 − x4 = 0.
Nota: El suplementario, aun verificando la condición adicional exigida por el enun-
ciado, no es único.
1.14.– El subespacio V tiene dimensión 4 − 2 = 2 (ya que una de las ecuaciones depende
linealmente de las otras dos). Su suplementario en R4 es cualquier subespacio L de
dimensión 2 (dim L = 4 − dim V = 2) tal que L ∩ V = {(0, 0, 0, 0)}. Por tanto, dicho
suplementario no es único. Basta tomar, por ejemplo, el subespacio L de ecuaciones
x1 = x2 = 0, que son dos ecuaciones independientes de las que determinan V .
1.15.–
1. Es claro que ((1, 0, 2, 2), (1, 1, 0, 1)) es una base de U . Ası́, unas ecuaciones paramétricas
de U son x1 = α + β, x2 = β, x3 = 2α y x4 = 2α + β. De aquı́ podemos obtener
inmediatamente unas ecuaciones implı́citas de U : x1 = x2 + x3 /2 y x4 = x2 + x3 .
El vector (1, 2, −2, 0) de la base de V cumple estas ecuaciones y por tanto la dim(U ∩
V ) ≥ 1. De hecho, como el vector (0, 1, 1, 2) no cumple las ecuaciones de U tenemos
que dim(U ∩ V ) = 1 y de la relación de Grassmann dim(U + V ) = 3. Una base
de U ∩ V es la formada por el vector (1, 2, −2, 0) que ya hemos visto que pertenece
a ambos subespacios. Una manera sencilla de obtener una base de U + V es dar
3 vectores linealmente independientes que estén en U o en V . Por ejemplo, una
posible base de U + V es ((1, 0, 2, 2), (1, 2, −2, 0), (0, 1, 1, 2)) dada por un vector de
U que no está en V , un vector de U ∩ V y un vector de V que no está en U (3
vectores de U + V linealmente independientes).
Nota: Estas bases no son únicas.
2. Como antes, se tiene que ((1, 2, 1, 0), (0, −1, 0, 1)) es una base de U . Ası́, unas
ecuaciones paramétricas de U son x1 = α, x2 = 2α − β, x3 = α y x4 = β. De
aquı́ podemos obtener inmediatamente unas ecuaciones implı́citas de U : x1 = x3 y
x2 = 2x1 − x4 .
A simple vista, unas ecuaciones implı́citas de V son x1 = x2 y x3 = x4 .
Entonces U ∩ V es el conjunto de vectores que cumplen las ecuaciones de U y
V a la vez. Estos son los vectores tal que x1 = x2 = x3 = x4 , y una base de
este subespacio es la formada por el vector (1, 1, 1, 1). Aplicando la relación de
Grassmann obtenemos que dim(U + V ) = 2 + 2 − 1 = 3 y una posible base de U + V
es ((0, −1, 0, 1), (1, 1, 1, 1), (0, 0, 1, 1)) formada por un vector de U que no está en
V , un vector de U ∩ V y un vector de V que no está en U (3 vectores de U + V
linealmente independientes).
Nota: Las bases dadas no son únicas. Nótese también que ninguno de los dos vectores
de la base de V pertenece a U y sin embargo U ∩ V 6= {(0, 0, 0, 0)}.
Soluciones ejercicios 147
1.17.–
2. Este apartado puede hacerse de varias formas; lo más sencillo es aplicar reducción
gaussiana:
F 0 =F +F ,
1 1 1 1 2 2 1
F30 =F3 −F1 ,
1 1 1 1
−1 2 −2 1 0
4 −3F1 ; 0 3 −1 2
F4 =F
−→
1 4 0 3 0 3 −1 2
3 0 4 1 0 −3 1 −2
3. Tenemos que encontrar dos vectores que junto con q1 y q2 formen una base de R4 .
Lo más sencillo es tantear con los vectores canónicos. Si escogemos, por ejemplo,
los dos primeros e1 y e2 resulta:
1 1 1 1
−1 2 −2 1
1 0 0 0 = 3 6= 0
det
0 1 0 0
ası́ pues podemos tomar T como el subespacio que admite por base (e1 , e2 ). Para
hacer la descomposición que nos piden, buscamos las coordenadas de v en la base
(q1 , q2 , e1 , e2 ):
v = a1 q1 + a2 q2 + b1 e1 + b2 e2
sustituyendo:
1.18.– 1. F / 2. V / 3. F / 4. F / 5. V
1.19.– 1. V / 2. V / 3. V / 4. F / 5. V
1.20.– 1. F / 2. F / 3. V / 4. F / 5. F
1.21.– 1. V / 2. V / 3. V / 4. V / 5. F
1.22.– 1. V / 2. F / 3. F / 4. F / 5. V
Soluciones ejercicios 149
Capı́tulo 2
2.1.– Podemos escribir el vector (2, −1) como combinación lineal de los del enunciado,
de la siguiente forma:
2 3 1
=5 − 13
−1 5 2
luego, por la propiedad de linealidad,
2 −5 75
2 3 1
f = 5f − 13f = 5 −4 − 13 3 = −59 .
−1 5 2
1 4 −47
Por otro lado, la matriz de la aplicación lineal f es aquella matriz A que verifica f (x) = Ax.
De los datos anteriores se deduce que
2 −5
3 1
A = −4 3 ,
5 2
1 4
2.4.–
1. La matriz pedida es
−1
1 2 3 1 1 1 1 2 3 0 0 1 3 −1 −1
2 0 2 1 1 0 = 2 0 2 0 1 −1 = 2 −2 2 .
3 −2 1 1 0 0 3 −2 1 1 −1 0 1 −3 5
2. Una base del núcleo es ((1, 2, 1)) y una base de la imagen es ((3, 2, 1), (−1, −2, −3)).
Unas ecuaciones cartesianas del núcleo son 2x − y = 0; y − 2z = 0. Una ecuación
cartesiana de la imagen es x − 2y + z = 0.
Dado que ((1, −2, −5), (4, 4, 4)) son vectores linealmente independientes, podemos
asegurar que forman base de dicho subespacio.
2.5.–
1 5 1 4
1 1 5 1 2 3
C1 (A) + C2 (A) + C3 (A) + C4 (A) = A
1
= A = A + =
5 5 5 3 2
1 5 4 1
4
1 4 1 5
1 2 3 1 2 3
= A + A = A = 52 .
5 3 2 5 3
5
1
4 1 4 5
152 Álgebra (2019/20)
Si además colocamos la primera fila en último lugar, llegamos a una matriz escalonada
que tiene el mismo rango que M :
..
...
b−a a−b . 0
..
b
..
...
0 b−a 0 . .
...
0
0 a−b 0 b
.. .. ..
. . . b−a a−b b
0 0 ··· 0 b−a a
0 0 ··· 0 0 a + (n − 1) b
• n si a 6= b y a 6= (1 − n)b
• n − 1 si a = (1 − n)b 6= 0
• 1 si a = b 6= 0
• 0 si a = b = 0.
Soluciones ejercicios 153
En general, toda matriz triangular proviene P de realizar combinaciones lineales entre las
filas de la matriz identidad, del tipo ak,k Fk + m>k ak,m Fm (para triangulares superiores,
por ejemplo), desde la primera fila (k = 1) hasta la última (k = n). La matriz es invertible
si y sólo si dichas operaciones son reversibles, y para ello es necesario y suficiente que
a1,1 , . . . , an,n (elementos de la diagonal principal)
P sean no nulos. En tal caso, la operaciones
elementales inversas son del tipo a−1 k,k (F k − m>k ak,m Fm ), desde la última fila (k = n)
hasta la primera (k = 1). Efectuadas sobre las filas de la identidad, proporcionan la
matriz inversa, que resulta ser triangular del mismo tipo (superior, en el caso del ejemplo
indicado).
2.9.– Considerando desde la última fila hasta la segunda de la matriz del enunciado, si
a cada fila se le suman todas sus anteriores, se obtiene una matriz bidiagonal (del tipo
de la del ejercicio anterior, con a = 1); si a continuación a cada fila (desde la penúltima
a la primera) se le suma su siguiente fila, se obtiene finalmente la matriz identidad. Ello
indica que este tipo de matrices son invertibles, y sus inversas se obtienen efectuando esas
mismas operaciones sobre las filas de la matriz identidad.
En el caso particular de la matriz de orden 6 del enunciado, su inversa es
6 5 4 3 2 1
5 5 4 3 2 1
4 4 4 3 2 1
3 3 3 3 2 1 .
2 2 2 2 2 1
1 1 1 1 1 1
154 Álgebra (2019/20)
Para el caso general de la matriz de orden n con la misma estructura de la del enun-
ciado, realizando estas mismas operaciones entre filas se llega a que su inversa es
n n − 1 ··· 3 2 1
n − 1 n − 1 ··· 3 2 1
.. .. .. .. ..
. . . . .
.
3
3 · · · 3 2 1
2 2 ··· 2 2 1
1 1 ··· 1 1 1
Estos son ejemplos de matrices dispersas (es decir, con gran cantidad de elementos nulos)
cuyas inversas no son dispersas.
2.10.–
1. El vector de coordenadas de v = (2, 1, 1) respecto a la base B es el vector [v]B
solución del sistema
1 −1 1 2
B
0 1 −1 [v] =
1 .
1 1 0 1
Resolviéndolo se obtienen las coordenadas [v]B = (3, −2, −3)t .
2. La matriz P de cambio de base de B a V tiene por columnas las coordenadas de los
vectores de V respecto de la base B. Por ejemplo, su primera columna será el vector
de coordenadas obtenido en el apartado anterior. Procediendo columna a columna
halları́amos la matriz P; de hecho, obsérvese que estarı́amos resolviendo la ecuación
matricial
1 −1 1 2 1 1
0 1 −1 P = 1 1 −1
1 1 0 1 1 1
de donde se obtiene explı́citamente
−1
1 −1 1 2 1 1 3 2 0
P = 0 1 −1 1 1 −1 = −2 −1 1 .
1 1 0 1 1 1 −3 −2 2
Nótese que esto coincide con la expresión P = B−1 V explicada en los apuntes (donde
B es la matriz cuyas columnas contienen los vectores de la base B, y V tiene por
columnas los vectores de la base V).
3. La matriz.de cambio de base de V a B es la inversa de la de cambio de base de de
B a V, es decir,
0 −2 1
P−1 = 12 3 − 32 .
1 1
2
0 2
Soluciones ejercicios 155
4. Se nos dice que un vector u tiene coordenadas [u]B = (1, 2, 3)t respecto a la base B
y nos piden sus coordenadas [u]V respecto a la base V. Esto quiere decir que
u = B [u]B = V [u]V .
[u]B = P [u]V
Ah A = O ⇔ ker Ah A = Cn ⇔ ker A = Cn ⇔ A = O.
2.13.– En efecto, una matriz A ∈ Km×n tiene rango 1 si y sólo si es no nula, y sus
columnas son proporcionales a un vector a; por tanto puede escribirse como
a1 b 1 a1 b 2 · · · a1 b n a1
a2 b 1 a2 b 2 · · · a2 b n a2
t
A = .. .. = .. b1 b2 · · · bn = ab
..
. . . .
am b 1 am b 2 · · · am b n am
de donde se obtiene que todas sus filas son proporcionales al vector bt .
Además, si la matriz es cuadrada (m = n), entonces se verifica
A2 = abt abt = a(bt a)bt = (bt a)A,
donde hemos utilizado que bP t
a es un número y por tanto conmuta con la matriz A = abt .
De hecho, ese número b a = nk=1 bk ak coincide exactamente con la suma de los elementos
t
que dan como solución los vértices (0, 2), (8, 0) y (4, 4). La solución es única puesto que
la matriz de coeficientes es invertible; sin embargo, para el problema del cuadrilátero, la
matriz de coeficientes resulta ser
1 1 0 0
0 1 1 0
0 0 1 1
1 0 0 1
que no es invertible pues no posee rango máximo, ya que la suma de las columnas pares
es igual a la suma de las impares. En general, la matriz de orden n
1 1 0 0 ··· 0
. . ..
. .
0 1 1 0
. . ..
0 0 1 1 . .
. .
.. . . . . . . . . . . . 0
0 . . . . . . . . . 1 1
1 0 ··· ··· 0 1
Soluciones ejercicios 157
es invertible si y sólo si n es impar (lo cual puede comprobarse, por ejemplo, desarrollando
por la primera columna el determinante de dicha matriz). En resumen, el problema de
calcular los vértices de un polı́gono de n lados a partir de sus puntos medios sólo tiene
solución si n es impar.
2.18.– 1. V / 2. F / 3. V / 4. V / 5. F
2.19.– 1. F / 2. F / 3. F / 4. V / 5. V / 6. F
2.20.– 1. V / 2. V / 3. F / 4. F / 5. V
158 Álgebra (2019/20)
Capı́tulo 3
3.1.– Dados los vectores (2, −1, 1) y (1, 0, 1)√ √ es h(2, −1, 1) , (1, 0, 1)i =
, su producto escalar
3, sus normas respectivas son k(2, −1, 1)k = 6, k(1, 0, 1)k = 2 y y el ángulo que forman
cumple √
3 3
cos α = √ √ =
6 2 2
ası́ que α = π/6.
Sabemos (véase (3.8)) que la igualdad en (∗) se da si y solo si los vectores son propor-
cionales con constante de proporcionalidad no negativa, luego existe a ≥ 0 tal que
v − x = a(x − w),
despejamos x:
1
x= (v + aw).
1+a
Obsérvese que 1 + a > 0 ya que a es no negativo.
3.3.– Si se impone que el producto escalar entre cada dos de ellos sea nulo, se llega a
a = 2, b = 9, c = 2.
x ∈ (F + G)⊥ ⇔ ∀y ∈ F + G hx, yi = 0
F ⊂ F + G ⇒ ∀y ∈ F hx, yi = 0 ⇒ x ∈ F ⊥ ; G ⊂ F + G ⇒ ∀y ∈ G hx, yi = 0 ⇒ x ∈ G⊥
⇒ x ∈ F ⊥ ∩ G⊥ .
x ∈ F ⊥ ∩ G⊥ ⇒ ∀y ∈ F hx, yi = 0 ∧ ∀z ∈ G hx, zi = 0
⇒ ∀(y + z) ∈ F + G hx, y + zi = 0 ⇒ x ∈ (F + G)⊥ .
3.7.– Se trata de un hiperplano L y una recta M , cuyo vector director es (1, 1, . . . , 1)t ,
precisamente el vector normal al hiperplano L. Por tanto, son subespacios suplementarios
ortogonales.
Por otro lado, cada vector x = (x1 , · · · , xn ) de Rn puede escribirse como
x = (x1 − c, · · · , xn − c) + c(1, . . . , 1)
donde c = (x1 + · · · + xn ) /n, de forma que x se ha escrito como un vector de L más otro
de M (denominados proyección ortogonal de x sobre L y M, respectivamente).
En particular, si x = (1, 0, 0, · · · , 0)t su proyección ortogonal sobre L es
1
(n − 1, −1, · · · , −1) .
n
1
3.8.– (4.0, 2, 2).
3
3.9.–
1
1. √ (−2, 1, 1, 1) .
7
2.
7 9 −2
7 6 1
b=
7 = 6
+
1 .
7 6 1
vt u vvt vvt
2. Pu = v = u. La matriz pedida es P = .
kvk2 kvk2 kvk2
160 Álgebra (2019/20)
3.
t 1 1 1 1
vv 1 1
P= 2
= 1 1 1 1 = 1 1 1 .
kvk 3 3
1 1 1 1
El rango de P es 1, sus columnas son proporcionales a v, por lo que una base de la imagen
es (v). La matriz P es simétrica, entonces (véase fórmula (3.14)) su núcleo e imagen son
suplementarios ortogonales. Dos vectores ortogonales y ortogonales a (v) nos darán una
base ortogonal del núcleo, por ejemplo:
1 1
−1 , 1 .
0 −2
3.12.– Para calcular a hacemos el determinante de la matriz formada por los tres vec-
tores,
1 0 1
0 a 1 = −a − 1 6= 0 ⇔ a 6= −1.
1 1 0
0 0 1 −1
1 1
u2 = 1 ⇒ q̃2 = u2 − hu2 , q1 iq1 = 1 − 0 = 2
2 2
1 1 1 1
−1
q̃2 1
⇒ q2 = = √ 2 ,
kq̃2 k 6 1
Soluciones ejercicios 161
1
u3 = 1 ⇒ q̃3 = u3 − hu3 , q1 iq1 − hu3 , q2 iq2
0
1 1 −1 1
1 1 2
= 1 − 0 − 2 = 1
2 6 3
0 1 1 −1
1
q̃3 1
⇒ q3 = = √ 1 .
kq̃3 k 3 −1
Se tiene A = QR (∗) con R triangular superior de orden 3; observemos que para obtener
esta matriz no hace falta despejar las columnas de A en función de las de Q, basta con
multiplicar por la izquierda en (∗) por Qt y tener presente que Qt Q = I:
A = QR ⇒ R = Qt QR = Qt A.
1 1 1
3.14.– a = ± √ , b = ± √ , c = ± √ .
2 6 3
162 Álgebra (2019/20)
a b
3.15.– Sea Q = una matriz ortogonal; es decir Qt Q = I. Efectuando el
c d
producto llegamos a:
a2 + c2 = 1 ⇒ ∃ θ ∈ R, a = cos θ, c = sen θ
b2 + d2 = 1 ⇒ ∃ ϕ ∈ R, b = cos ϕ, d = sen ϕ
ab + cd = 0 ⇒ cos θ cos ϕ + sen θ sen ϕ = 0
π
⇒ cos(θ − ϕ) = 0 ⇒ ϕ = θ + + kπ, k ∈ Z (3.3)
2
Por otro lado, det Q = ad − bc, pero, conforme a las fórmulas anteriores
3.16.–
h
1
hu, vi = v u = −i −1 = −2i 6= 0;
i
ku + vk2 = |1 + i|2 + | − 1 + i|2 = 4, kuk2 = 2 = kvk2
Observamos que se cumple ku + vk2 = kuk2 + kvk2 a pesar de que los vectores u y v no
son ortogonales. Este resultado no contradice el teorema de Pitágoras que solo es cierto
para espacios reales.
3.17.–
Pero si el número complejo hu, vi tiene partes real e imaginaria nulas es nulo, luego se
concluye que u y v son ortogonales.
1 1
3.18.– a = ± √ , b = ± √ .
2 2
3.20.– 1. V / 2. F / 3. F / 4. V / 5. F
3.21.– 1. F / 2. V / 3. V / 4. F
3.22.– 1. F / 2. V / 3. F / 4. V / 5. V / 6. V
3.23.– 1. V / 2. F / 3. V / 4. F
164 Álgebra (2019/20)
Capı́tulo 4
4.1.– Una base de la recta x = y = 2z es ((2, 2, 1)). Por tanto, la matriz de proyección
ortogonal sobre dicha recta es
2 4 4 2
1 1
P= 2 2 2 1 = 4 4 2
9 9
1 2 2 1
La matriz de simetrı́a ortogonal respecto de dicha recta es
4 4 2 1 0 0 −1 8 4
2 1
S = 2P − I = 4 4 2 − 0 1 0 = 8 −1 4
9 9
2 2 1 0 0 1 4 4 −7
4.2.– La recta, subespacio suplementario ortogonal del plano 2x + 2y + z = 0 es
L [(2, 2, 1)]. Por tanto, la matriz de proyección ortogonal sobre dicho plano es
4 4 2 5 −4 −2
1 1
P = I − 4 4 2 = −4 5 −2
9 9
2 2 1 −2 −2 8
La matriz de simetrı́a ortogonal respecto a dicho plano es
5 −4 −2 1 0 0 1 −8 −4
2 1
S = 2P − I = −4 5 −2 − 0 1 0 = −8 1 −4
9 9
−2 −2 8 0 0 1 −4 −4 7
Obsérvese que se trata de la matriz de Householder, definida por el vector v = (2, 2, 1)t ,
de modo que puede ser calculada mediante la expresión:
2
S = I − t vvt
vv
y, luego, calcular la matriz de proyección ortogonal por medio de P = 12 (I + S).
Obsérvese, también, que es igual a la matriz opuesta de la obtenida en el ejercicio 4.1,
ya que 2x + 2y + z = 0 y L [(2, 2, 1)] son suplementarios ortogonales.
4.3.– Una base del subespacio de R4 de ecuaciones
x1 + x2 = 0
x3 + x4 = 0
1 0
−1 0
es ((1, −1, 0, 0) , (0, 0, 1, −1)). Si A =
0
, entonces la matriz de proyección
1
0 −1
ortogonal sobre dicho subespacio es:
1 −1 0 0
−1 t 1 −1 1 0 0
P = A At A A =
2 0 0 1 −1
0 0 −1 1
Soluciones ejercicios 165
De modo alternativo, dado que la base obtenida es ortogonal, basta considerar los
vectores columna u1 = (1, −1, 0, 0)t , u2 = (0, 0, 1, −1)t y aplicar la fórmula
1 −1 0 0
u1 ut1 u2 ut2 1 −1 1 0 0
P= + 2 =
.
ku1 k 2
ku2 k 2 0 0 1 −1
0 0 −1 1
Un último método consiste en normalizar los dos vectores de dicha base, para obtener la
matriz de proyección ortogonal por medio de:
1
√ 0
2 ! 1 −1 0 0
− √1 1 1
2
0 √2 − √2 0 0 1 −1 1 0 0
P= = .
1 1 1
0 √ 0 0 √ − √ 2 0 0 1 −1
2 2 2
0 − √12 0 0 −1 1
4.4.–
b c −2
1. Para que P = a −4 5 d ∈ R3×3 sea proyección ortogonal es necesario y
−2 −2 8
suficiente que P sea simétrica e idempotente (P = Pt y P2 = P). Por la simetrı́a de
P se tiene c = −4, d = −2. Introduciéndolos en la igualdad P = P2 , se obtiene:
2
b −4 −2 b + 20 −4b − 16 −2b − 8
a −4 5 −2 = a2 −4b − 16 45 −18 ,
−2 −2 8 −2b − 8 −18 72
de donde se deduce a = 19 , b = 5.
5 −4 −2
2. El subespacio sobre el que proyecta P = 19 −4 5 −2 es su subespacio
−2 −2 8
columna (es decir, la imagen de P). Como el rango de P es igual a 2, una base de
dicho subespacio M es ((−2, −2, 8)
, (−4, 5, −2)), o bien ((1, 1,−4) , (0, 1, −2)). Una
base ortonormal es, por ejemplo, 3√1 2 (1, 1, −4) , √12 (1, −1, 0) .
4 4 2
3. La matriz de la proyección ortogonal sobre M ⊥ es I − P = 19 4 4 2 .
2 2 1
166 Álgebra (2019/20)
4.5.–
1. La matriz de Householder, definida por el vector v, viene dada por Hv (2, 2, −1)t =
(3, 0, 0)t . Por tanto, puede determinarse v = (2, 2, −1) − (3, 0, 0) = (−1, 2, −1), y
dicha matriz de Householder es:
−1 1 −2 1 2 2 −1
2 1 1
Hv = I− 2 −1 2 −1 = I− −2 4 −2 = 2 −1 2
6 3 3
−1 1 −2 1 −1 2 2
4.6.–
1. Recordemos que dada una base de un subespacio M podemos calcular una matrix
de proyección ortogonal sobre M mediante la expresión PM = QQt , donde Q es
una matriz cuyas columnas forman una base ortonormal de ese subespacio.
Por tanto, en primer lugar debemos normalizar la base B. Ası́ obtenemos una base
ortonormal para M llamada B 0 :
r √ √ √
√
1/ 2 −√ 2 1/ 5 −2/3
2 , 2
B0 = √0 √2
= 0 , 2/3
√
5 3
2 1/ 2 2/ 5 1/3
La matriz PM resulta
Soluciones ejercicios 167
√
1/ 5 −2/3 √ √
29/45 −4/9 8/45
1/ 5 0 2/ 5
PM = QQt = 0√ 2/3 = −4/9 4/9 2/9
−2/3 2/3 1/3
2/ 5 1/3 8/45 2/9 41/45
resultando x = 32 , y = − 23 .
4.9.–
1. Obsérvese que
2
x1 1 y
n
1
2
x2 1 m y2
m
X
(mxk + p − yk )2 =
− ..
=
A − y
.. .. p
p
k=1
. . .
xn 1 yn
Los valores m, p que minimizan esta expresión son las soluciones de mı́nimos cuadra-
dos del sistema de matriz de coeficientes A (de rango 2, ya que las abscisas xk se
supone que no son todas iguales) y vector de términos independientes y. Por tanto,
la solución de mı́nimos cuadrados es única y se calcula resolviendo el sistema com-
patible y determinado de ecuaciones normales:
Pn 2
Pn Pn
Pnk=1 xk k=1 xk m
= P k=1
n
xk y k
k=1 xk n p k=1 yk
Para resolverlo, es cómodo utilizar las definiciones de media, que se denotará x̄, y
varianza de un vector x, que se denotará σx , a saber:
n n
1X 1X
x̄ = xk , σx = (xk − x̄)2 ;
n k=1 n k=1
las soluciones
σx,y σx,y
m= , p = ȳ − x̄.
σx σx
Soluciones ejercicios 169
3.5
2.5
1.5
0.5
1 2 3 4 5 6 7 8 9 10 11
4.10.–
1. Se observa fácilmente que el subespacio F es un plano de ecuación x − y + z = 0. Su
subespacio ortogonal es la recta L[(1, −1, 1)]; por tanto, la proyección de v = (1, 1, 1)
sobre el plano F puede calcularse como
1 1 1
1 2
PF (v) = 1 − −1 = 2 .
3 3
1 1 1
Estas son las soluciones de mı́nimos cuadrados del sistema inicial Ax = (1, 1, 1)t .
Obsérvese que las mismas pseudosoluciones se habrı́an obtenido también mediante
las ecuaciones normales, que es otro método aplicable.
4.11.–
1 b −8
1. Para que S = a c 7 −4 sea simetrı́a ortogonal es necesario y suficiente que
d −4 1
S sea simétrica y ortogonal (S = St y St S = I). Por la simetrı́a de S se tiene b = c
y d = −8; y por ser S ortogonal b + 7c − 4d = 0, −8 − 4c + d = 0, −8b − 28 − 4 = 0.
Dichas ecuaciones tienen como soluciones b = −4, c = −4, d = −8. Además, por ser
S ortogonal, cada columna es un vector unitario, lo cual implica que 81a2 = 1; es
decir, a = ± 91 .
1 −4 −8
2. Si a = 19 , entonces S = 19 −4 7 −4 . S simetriza respecto al subespacio
−8 −4 1
L = Im (S + I) = ker (S − I) que es el plano de ecuación 2x + y + 2z = 0. Una
base de dicho plano está constituida por u1 = (1, −2, 0)t , u2 = (0, 2, −1)t ; ortogo-
nalizándolos por Gram-Schmidt, se tiene:
* 0 1 + 1 0 4
0 1
1 4 5
v20 = 2 − 2 , −2 −2 = 2 + −2 = 25
5 5
−1 −1 0 0 −1 0 −1
1 4
y normalizando, se obtiene la base ortonormal pedida: √15 −2 , 3√1 5 2 .
0 −5
1 −4 −8
3. Si a = − 91 , entonces S = − 91 −4 7 −4 . S simetriza respecto al subespacio
−8 −4 1
M = Im (S + I) = ker (S − I), cuyas ecuaciones implı́citas son
5x − 2y − 4z = 0
x − 4y + z = 0
es decir, se trata de una recta vectorial, generada por el vector (2, 1, 2).
5. Para que S sea una matriz de Householder tiene que ser una simetrı́a respecto a
un plano (hiperplano en R3 ). Dicha situación se presenta en el caso 2. En ese caso
la matriz de Householder está definida por el vector v = (2, 1, 2), o cualquier otro
vector proporcional a él, no nulo.
G = P + (cos ϕ) (I − P) + (sen ϕ) u
e.
1 1 1 1
1 1
P = uut = 1 1 1 1 = 1 1 1 ,
3 3
1 1 1 1
0 −u3 u2 0 −1 1
1
e = u3
u 0 −u1 = √ 1 0 −1 .
−u2 u1 0 3 −1 1 0
Introduciéndolo en la fórmula se obtiene
√ !
0 0 1
−1 3
G=P+ (I − P) + e = 1 0 0 .
u
2 2
0 1 0
4.14.– 1. F / 2. V / 3. V / 4. V / 5. V
Capı́tulo 5
5.1.–
• Los valores propios de A son −2, 1; una base de vectores propios es ((2, 1), (1, 2)),
por tanto es diagonalizable. Una matriz que diagonaliza a A es
2 1
PA =
1 2
y verifica P−1
C CPC = diag (0, 1, −1) .
• La matriz D tiene como polinomio caracterı́stico λ(λ + 1)2 . Los valores propios son
pues 0 y −1 (doble). Un vector propio asociado a λ = 0 es (1, −1, 1). El subespacio
propio asociado a λ = −1 tiene dimensión 2. Una posible base de dicho subespacio
está formada por los vectores (−1, 1, 0), (−1, 0, 1). Como hay tres vectores propios
independientes, la matriz es diagonalizable y una matriz que la diagonaliza es
1 −1 −1
PD = −1 1 0
1 0 1
5.3.– Cualquiera que sea el valor de a, los valores propios de la matriz son 1 doble y
−4. Para que la matriz sea diagonalizable el subespacio propio asociado a 1 tiene que
tener dimensión 2, lo cual ocurre para a = 2.
√
5.4.– Los valores propios de la matriz son −1, −1 ± a + 2. Si a 6= −2 son simples y
por tanto la matriz es diagonalizable, Para a = −2 la matriz tiene un valor propio triple
por lo que no es diagonalizable, ya que las matrices con un único valor propio solo son
diagonalizables si son múltiplo escalar de la identidad.
x1 = −2x3 , x2 = 6x3
−2
tomamos, por ejemplo, v = 6 . Para el autovalor λ2 = 1+2i resolvemos el sistema:
1
1 + 2i −1 6 x1 0
−1 1 + 2i −2 x2 = 0
−1 0 −1 + 2i x3 0
Por lo que respecta a los vectores propios, en caso de que la matriz sea diagonalizable se
puede escribir
de donde se deduce que los vectores propios de At son las columnas de P−t . En general,
si λ es un valor propio de A lo único que se puede afirmar es que dim ker(A − λI) =
dim ker(At −λI) pero los subespacios son distintos y por tanto los vectores propios también
serán, por lo general, distintos.
admite como valor propio no nulo 1 + 2 + ... + n = n(n + 1)/2 asociado al vector propio
(1, 2, ..., n). El subespacio propio asociado a cero tiene por ecuación x1 + x2 + ... + xn = 0.
5.9.–
5.11.– Aplicando el resultado general del ejercicio anterior, la primera matriz A es real
antisimétrica de orden 3, representa un producto vectorial con el vector w = (2, 2, 1)t , y
además es diagonalizable con valores propios 0 y ±ikwk = ±3i.
Un autovector real es cualquiera asociado al autovalor 0, y como hemos visto que
ker(A) = L[w] entonces un autovector es el mismo w = (2, 2, 1)t o cualquiera proporcional
a él no nulo.
Para calcular una matriz unitaria que la diagonalice, tenemos que obtener todos los
autovectores de A, y de ellos extraer una base ortonormada. Un autovector unitario de
ker A es u1 = 13 (2, 2, 1). Calculemos autovectores asociados al autovalor complejo 3i:
−3i −1 2
1 − 3i −1 − 3i 0
ker(A − 3iI) = ker 1 −3i −2 = ker ,
−2 2 −3i
−2 2 −3i
de donde obtenemos fácilmente el vector (1 + 3i, 1 − 3i, −4), que al normalizarlo nos da
u2 = 16 (1 + 3i, 1 − 3i, −4).
En cuanto a ker(A + 3iI), al tratarse de una matriz real, basta conjugar el vector
anterior: u3 = 61 (1 − 3i, 1 + 3i, −4).
Colocando estos 3 vectores como columnas de una matriz U = (u1 |u2 |u3 ), sabemos
que A queda diagonalizada por U puesto que las columnas de U son autovectores de A.
Pero además las columnas de U son ortogonales dos a dos (compruébese) y unitarias, ası́
que U es una matriz unitaria y U−1 = Uh . Con todo ello, se tiene que
Uh AU = diag(0, 3i, −3i).
La segunda matriz del enunciado puede escribirse como B = 3I + A, siendo A la
matriz antisimétrica que acabamos de estudiar. Sus vectores propios (y por tanto la
matriz unitaria que la diagonaliza) son los mismos de A, mientras que sus valores propios
son 3, 3 + 3i, 3 − 3i.
1−λ 0 0 1 1 − λ 1 0 0
0 1 − λ −1 0 0
0 1 − λ −1
|A − λI| = = 0
=
0 1 1 − λ 0 0 1 1−λ
−1 0 0 1−λ −1 1 − λ 0 0
1−λ 1 0 0
−1 1 − λ 0 0 2 2
=
0 0 1 − λ −1 = (λ − 2λ + 2) .
0 0 1 1−λ
176 Álgebra (2019/20)
−1 0 0 −i
de donde fácilmente podemos tomar dos vectores ortonormales como
1 1
u1 = √ (1, 0, 0, i), u2 = √ (0, 1, −i, 0).
2 2
1 1
u3 = √ (1, 0, 0, −i), u4 = √ (0, 1, i, 0).
2 2
i 0 −i 0
diag(1 + i, 1 + i, 1 − i, 1 − i).
5.13.– En una matriz de rango 1, A = uvh , hay n − 1 valores propios nulos y solo 1 no
nulo, que será igual a la traza de la matriz, es decir, vh u. En el caso considerado en este
ejercicio los valores propios son 1 (simple) y 0 (de multiplicidades algebraica y geométrica
n − 1). La matriz es diagonalizable.
5.14.–
Los valores propios de A son todos nulos, y los de A − I valen todos −1.
5.15.–
3. Los valores propios son p(1), p(−1), p(i), p(−i). Los vectores propios de S lo son de
p(S). Toda matriz que sea un polinomio en una matriz diagonalizable es a su vez
diagonalizable.
4. p(z) = 1 + 2z + 3z 2 + 4z 3 . Los valores propios son p(1) = 10, p(−1) = −2, p(i) =
−2 − 2i, p(−i) = −2 + 2i, según el apartado anterior, los vectores propios son los de
S, calculados en el primer apartado.
5.16.– Sea λ 6= 0 un valor propio de AB asociado a un vector v ∈ Cm \ {0}. Entonces
ABv = λv 6= 0 ⇒ Bv 6= 0
BA(Bv) = B(λv) = λBv
se deduce que λ es valor propio de BA y un vector propio asociado es Bv.
Puede demostrarse (no trivialmente) que además las multiplicidades algebraicas y
geométricas son las mismas. Probaremos la igualdad de las geométricas.
Supóngase dim ker(AB − λI) = s y sea (v1 , . . . , vs ) una base de dicho núcleo. La
familia {Bv1 , . . . , Bvs } es libre (demuéstrese) lo cual significa que dim ker(BA − λI) ≥ s.
Intercambiando los papeles de AB y BA se concluye la igualdad.
5.17.–
1. Calculemos el polinomio caracterı́stico:
λ−2 2 0
det(λI − A) = 2 λ − 1 2
0 2 λ
= λ(λ − 1)(λ − 2) − 4(λ − 2) − 4λ = (λ + 2)(λ − 1)(λ − 4).
Dado que los valores propios son simples podemos concluir que la matriz es diago-
nalizable.
178 Álgebra (2019/20)
3. Si la matriz Q diagonaliza por semejanza la matriz A cada una de sus sus columnas
tiene que ser un vector propio de A, por ejemplo, si Qt AQ = diag(−2, 1, 4) entonces
su primera columna q1 tiene que ser proporcional a v1 , lo mismo para la segunda y
tercera columnas de Q. Por otro lado, que Q sea una matriz ortogonal recordemos
que significa que sus columnas son ortogonales dos a dos y de norma 1, ası́ pues
basta tomar qj = vj /kvj k, j = 1, 2, 3. Observamos que kvj k = 3 para todo j; en
definitiva, podemos tomar:
1 2 2
1
Q= 2 1 −2 .
3
2 −2 1
En consecuencia: 1. F / 2. F / 3. V / 4. F / 5. F
Capı́tulo 6
6.1.– Los valores propios son 8 (simple) y −1 (doble); una base ortonormal de vectores
propios asociados es
√ √ ! √ √ √ !!
2 1 2 5 −2 5 4 5 2 5 − 5
, , , , ,0 , , , .
3 3 3 5 5 15 15 3
1 √ √
u3 = p √ (1 + 2, −1 − 2, 1, 1).
2 2+ 2
√
De igual modo se obtiene que un vector propio unitario asociado al autovalor − 2 es
1 √ √
u4 = p √ (1 − 2, −1 + 2, 1, 1).
2 2+ 2
t
En conclusión:
√ √si Q es la matriz ortogonal (u1 |u2 |u3 |u4 ), se verifica que Q AQ =
diag(0, 0, 2 2, −2 2).
• para que B sea definida positiva, sus dos autovalores deben ser positivos; se deduce
que esto ocurre si y sólo si a > 1
• para que B sea definida negativa, sus dos autovalores deben ser negativos; esto
ocurre si y sólo si a < −2.
Otra forma de realizar este ejercicio: aplicar el criterio de Sylvester para matrices
definidas positivas y definidas negativas. Para ello observamos los signos de los menores
principales de la matriz, que resultan ser a a2 − 1 = (a + 1)(a − 1) y (a + 2)(a − 1)2 :
• La matriz es definida positiva si y sólo si esos tres menores son positivos; se deduce
fácilmente que eso ocurre cuando y sólo cuando a > 1.
En decir, con los criterios de Sylvester llegamos al mismo resultado que mediante el
razonamiento de autovalores que acabamos de realizar.
6.4.– Se trata de una generalización del ejercicio anterior, luego se puede deducir tanto
observando los signos de los autovalores como aplicando el criterio de Sylvester:
• Mediante el criterio de Sylvester, nos fijamos en los signos de sus menores principales.
Para cada k = 1, ...n debemos hallar el determinantes de su submatriz de orden k
a 1 1 ··· 1 1
1 a 1 ··· 1 1
1 1 a ··· 1 1
Mk = .. .. .. . . .. .. .
. . . . . .
1 1 1 ··· a 1
1 1 1 ··· 1 a
que en este caso tienen la misma estructura que la matriz completa (y de hecho
es un tipo de matriz como la del Ejercicio ??). Para hallar su determinante, a la
primera columna le sumamos todas las demás (con lo que se saca un factor común
a + n − 1 y luego a cada fila le restamos la anterior (empezando por la última hasta
la segunda). Queda una matriz triangular cuyo determinante es
Por tanto, para ser definida positiva, todos estos determinantes deben ser positivos
luego a > 1 y a + k − 1 > 0 para todo k ≥ 1 lo cual se reduce a la condición a > 1.
En este caso ambos métodos resultan muy similares; en general debemos mencionar
que el criterio de Sylvester es más rápido puesto que calcular determinantes es en
general más fácil que calcular autovalores.
A la vista de este resultado, A deberá ser o bien definida o bien semidefinida positiva.
Ahora bien, r(A) = 2 ya que la suma de sus filas vale 0, luego no puede ser definida y es,
por tanto, semidefinida positiva (r = σ = 2).
3 1 1
6.6.– La forma cuadrática del numerador determina la matriz simétrica A = 1 3 1 .
1 1 3
1 1
Como la suma de los elementos de cada fila vale 5, se deduce que A 1 =5 1
,
1 1
es decir, 5 es valor propio que tiene por autovector a (1, 1, 1).
Por otro lado, los dos restantes autovalores satisfacen
5 + λ2 + λ3 = trA = 9 ⇒ λ2 + λ3 = 4;
182 Álgebra (2019/20)
5λ2 λ3 = det(A) = 20 ⇒ λ2 λ3 = 4,
lo que nos permite deducir que λ2 = λ3 = 2. (Obsérvese que A es una matriz de las ya
estudiadas en el ejercicio 6.9, con a = 3; ası́ que podrı́amos haber deducido directamente
que sus valores propios son a + 2 = 5 simple y a − 1 = 2 doble.)
El subespacio propio asociado al autovalor doble es
1 1 1
ker(A − 2I) = ker 1 1 1 = L[(1, −1, 0), (1, 0, −1)].
1 1 1
En conclusión:
• máx R(x) = 5, que se alcanza sobre los vectores de la forma (α, α, α) con α 6= 0.
x6=0
• mı́n R(x) = 2, que se alcanza sobre los vectores de la forma (α + β, −α, −β) con
x6=0
(α, β) 6= (0, 0).
6.7.– Representamos la forma cuadrática del numerador mediante una matriz simétrica:
5 2 x 2 2
5 1 x
x y = 5x + 5y + 2xy = x y .
0 5 y 1 5 y
Dicha matriz simétrica tiene por autovalores 6 y 4, de subespacios propios respectivos
L[(1, 1)] y L[(1, −1)]. Ası́, el máximo del cociente es 6, valor que se alcanza sobre los
vectores (α, α) ∀α 6= 0, mientras que el mı́nimo vale 4, que es alcanzado en los vectores
(α, −α)
∀α 6= 0.
6.9.–
6.10.– Si las filas (o columnas) de A ∈ Rm×n son ortogonales dos a dos y de la misma
norma C, entonces At A = C 2 In ; por tanto, C 2 es el único valor propio de At A con
multiplicidad igual a n. Por tanto su número de condición espectral es c2 = C/C = 1.
Esto significa que este tipo de matrices están óptimamente condicionadas pues su
número de condición es mı́nimo, es decir, igual a 1.
En el caso particular de A ortogonal, su número de condición también es 1 (óptimamente
condicionada igualmente).
6.11.–
1. Puesto que la matriz A tiene más columnas que filas, su número de condición es
infinito.
7 4
t 81 0
2. En cuanto a la matriz B = 4 −8 , calculamos la matriz B B = =
0 81
4 1
81I, cuyo único valor propio es 81. Su número de condición es, por consiguiente, la
unidad (obsérvese que las dos columnas de B son ortogonales y de igual norma 9).
6.12.–
2 2
1.
La ecuación
x + y + 4xy = 3 solamente tiene parte cuadrática, dada por la matriz
1 2
que es simétrica de determinante negativo, luego tiene 2 autovalores de
2 1
distinto signo; esto indica que se trata de una cónica de tipo hiperbólico. Además
los valores propios de dicha matriz son 3 y −1 luego la ecuación reducida de la
cónica es 3X 2 − Y 2 = 3 o equivalentemente X 2 − Y 2 /3 = 1. Los ejes de simetrı́a
X e Y corresponden exactamente a las direcciones de los subespacios propios asoci-
ados, respectivamente, a los valores propios 3 y −1: éstas son las rectas generadas
por (1, 1) y (−1, 1) respectivamente. Por todo ello, se trata de una HIPÉRBOLA
de centro (0,0) (pues no hemos tenido que realizar ninguna traslación), y de ejes
paralelos a x = y, x = −y.
1 1 −1
Obsérvese que una matriz de giro que diagonaliza a A es P = √2 ; ası́
1 1
que el cambio de variable (x, y)T = P(X, Y )T proporciona la ecuación reducida
184 Álgebra (2019/20)
En resumen, es una elipse de centro (x0 , y0 ) = (0, 1) y sus ejes de simetrı́a son
paralelos a los vectores (1, −2) y (2, 1) respectivamente. Más concretamente, sus
√ 2x + y = 1 y −x + 2y = 2, y las longitudes respectivas
ejes de simetrı́a son las rectas
de dichos semiejes son 1/ 2 y 1.
Como comprobación, deshacemos el cambio en la ecuación reducida y obtenemos la
ecuación en (x, y):
2(x − 2y + 2)2 + (2x + y − 1)2 = 5
que, al desarrollarla, queda exactamente igual a la ecuación inicial de la cónica.
6.14.– 1. F / 2. V / 3. F / 4. F / 5. F / 6. V
Soluciones ejercicios 185
Capı́tulo 7
7.1.– La matriz del enunciado se puede descomponer como C = αI + βJ, donde
0 −1
J := .
1 0
Empleando que I conmuta con cualquier matriz,
eCt = eαtI+βtJ = eαtI eβtJ = eαt eβtJ .
Dado que J2 = −I, J3 = −J y J4 = I, se verifica
1 1 1 1
eβtJ = I + βtJ + β 2 t2 J2 + β 3 t3 J3 + β 4 t4 J4 + · · ·
1! 2! 3! 4!
1 22 1 44 1 1 33
= I 1 − β t + β t − ··· + J βt − β t + · · ·
2! 4! 1! 3!
= cos(βt)I + sen(βt)J.
Por tanto,
Ct αt βtJ αt cos(βt) − sen(βt)
e =e e =e .
sen(βt) cos(βt)
7.2.–
a) Llamemos
−3 −1
A := .
−6 −2
Diagonalicemos A. En primer lugar, calculamos el polinomio caracterı́stico:
λ + 3 −1
χA (λ) = det (λI − A) = det = λ(λ + 1).
6 λ−2
Por tanto, A tiene dos autovalores simples y es diagonalizable. Calculemos los
subespacios propios respectivos:
– Para λ = 0, se tiene:
(A − 0 · I) u = 0
−3 1 x1 0 1
= ⇒ u1 = .
−6 2 x2 0 3
El subespacio propio asociado a λ = 0 es L[u1 ].
– Para λ = −1, se tiene:
(A − (−1) · I) u = 0
−2 1 x1 0 1
= ⇒ u2 = .
−6 3 x2 0 2
El subespacio propio asociado a λ = −1 es L[u2 ].
186 Álgebra (2019/20)
diagonaliza A; en efecto,
−1 0 0
P AP = =: D.
0 −1
K2 e−t
X(t) = PY(t) = .
2K2 e−t
7.3.– Llamemos
3 −2 2
A = −1 2 −1 .
−2 2 −1
El polinomio caracterı́stico de la matriz A es χA (λ) = (λ − 1)2 (λ − 2). Calculemos los
autovectores asociados al autovalor λ = 1:
Au = u
3 −2 2
−1 2 −1 u = u
−2 2 −1
u1 − u2 + u3 = 0
Soluciones ejercicios 187
Una base del subespacio propio correspondiente está formada por los vectores (1, 2, 1) y
(0, −1, −1).
Para λ = 2:
Au = 2u
3u1 − 2u2 + 2u3 = 2u1
−u1 + 2u2 − u3 = 2u2
−2u1 + 2u2 − u3 = 2u3
u1 − 2u2 + 2u3 = 0
−u1 − u3 = 0.
Un autovector asociado a λ = 2 es (−2, 1, 2).
La matriz A es diagonalizable en R y la solución general del sistema diferencial es
x(t) 1 0 −2
y(t) = k1 2 et + k2 −1 et + k3 1 e2t .
z(t) 1 −1 2
Au = 0
u1 + 2u2 + u3 = 0
6u1 − u2 = 0.
Un vector propio asociado es (1, 6, −13).
Para λ = −4:
(A + 4I)u = 0
5u1 + 2u2 + u3 = 0
6u1 + 3u2 = 0
−u1 − 2u2 + 3u3 = 0
(A − 3I)u = 0
−2u1 + 2u2 + u3 = 0
6u1 − 4u2 = 0
−u1 − 2u2 − 4u3 = 0
= 2v + 2(et − 1)Mv.
Mv = M2 w = Mw = v
y
X(t) = 2v + 2(et − 1)v = 2et v.
x(t)
7.6.– El vector que buscamos es f (t) = y satisface el sistema de ecuaciones
y(t)
0
0 x (t) 0 1 x(t)
f (t) = = = A f (t)
y 0 (t) −ω 2 0 y(t)
Los valores propios son iω y −iω con multiplicidad 1. Para calcular los vectores propios
asociados con λ = iω resolvemos:
iω −1 v1 0
(iωI − A)v = 2 =
ω iω v2 0
Las soluciones son las combinaciones lineales de p1 = (1 iω)t . Como A es matriz real,
entonces los vectores propios asociados a λ = −iω son las combinaciones lineales de
p2 = (1 − iω)t .
Por tanto A = PDP−1 , con
iω 0 1 1
D= y P= .
0 −iω iω −iω
se tiene que g0 (t) = P−1 f 0 (t), ya que al derivar los coeficientes de P−1 son constantes.
Ası́, las soluciones del sistema f 0 (t) = Af (t) son los f (t) = Pg(t) con g(t) solución del
sistema Pg0 (t) = PDg(t), o lo que es lo mismo, solución del sistema
g0 (t) = Dg(t).
u0 (t) = iωu(t)
v 0 (t) = −iωv(t)
con lo que cada ecuación se puede resolver de manera independiente. La solución de cada
ecuación viene dada por la exponencial compleja. Aunque no se ha visto en clase, es
sencillo comprobar que es solución mediante la identidad de Euler, si θ ∈ R se tiene que
eiθ = cos θ + i sen θ (véase en el Apéndice 2 de los apuntes). Ası́,
Nótese que la solución general x(t) = aeiωt +be−iωt es la solución del oscilador armónico
y es equivalente a x(t) = C1 cos(ωt) + C2 sen(ωt) y a x(t) = C cos(ωt + φ) con C1 , C2 , C
y φ constantes.
194
Apéndices 195
∀a ∈ E , P(a).
∃a ∈ E , P(a).
E⊂F si y sólo si ∀a ∈ E, a ∈ F
196 Álgebra (2019/20)
¬(E ⊂ F ) si y sólo si ∃a ∈ E, a ∈
/F
• Si P1 ⇒ P2 y P2 ⇒ P1 , escribiremos
P1 ⇔ P2
(P1 ⇒ P2 ) ⇔ E ⊂ F.
E ∪ F := {a : a ∈ E ∨ a ∈ F }
E ∩ F := {a : a ∈ E ∧ a ∈ F }.
E \ F := {a ∈ E : a ∈
/ F }.
Ac := E \ A = {a ∈ E : a ∈
/ A}.
(Ac )c = A.
A ∪ Ac = E.
A ∩ Ac = ∅.
A ⊂ B ⇔ B c ⊂ Ac (∗); veremos después la importante traducción de esta
propiedad a la lógica formal.
A \ B = A ∩ Bc.
198 Álgebra (2019/20)
(A ∪ B)c = Ac ∩ B c .
(A ∩ B)c = Ac ∪ B c .
Estas dos últimas propiedades se conocen como Leyes de Morgan.
• Si A, subconjunto de E, está constituido por los elementos de E que satisfacen una
determinada propiedad P, entonces Ac es el conjunto de los elementos de E para
los cuales P es falsa, es decir,
Ac = {a ∈ E : ¬P(a)}.
E × F := {(x, y) : x ∈ E, y ∈ F }.
Los elementos (x, y) de E × F se llaman pares ordenados.
• Recursivamente, puede extenderse la definición anterior a cualquier número finito
de conjuntos: dados E1 , E2 , . . . , En , se define
E1 × E2 × · · · × En := {(x1 , x2 , . . . , xn ) : xj ∈ Ej , j = 1, 2, . . . , n}.
Los elementos (x1 , x2 , . . . , xn ) se denominan n-uplas.
• Dos n-uplas formadas por los mismos elementos son distintas si aquéllos aparecen
en cada una en un orden diferente: De otra forma, dos n-uplas son iguales si:
(x1 , x2 , . . . , xn ) = (y1 , y2 , . . . , yn ) ⇔ ∀i = 1, 2, . . . , n, xi = yi
1.3.1 Definiciones
Se denota por
f : E → F.
f (x) = y
es decir, que cada elemento del conjunto final tiene, como máximo, una única con-
traimagen.
es decir, si cada elemento del conjunto final tiene, como mı́nimo, una contraimagen.
• Obsérvese que dos conjuntos finitos tienen el mismo número de elementos si y sólo
si existe una aplicación biyectiva entre ellos.
f :E→F y g : F → G,
• Propiedades de la composición:
Apéndices 201
(h ◦ g) ◦ f = h ◦ (g ◦ f ),
es decir, la composición de aplicaciones es asociativa.
– Para toda aplicación f : E → F , se tiene que f ◦ IE = f y IF ◦ f = f.
– La composición de dos aplicaciones inyectivas es inyectiva.
– La composición de dos aplicaciones suprayectivas es suprayectiva.
– Como consecuencia de las dos anteriores, la composición de dos aplicaciones
biyectivas es biyectiva.
g ◦ f inyectiva ⇒ f inyectiva.
g ◦ f suprayectiva ⇒ g suprayectiva.
g ◦ f biyectiva ⇒ f inyectiva y g suprayectiva.
f 0 = IE ;
n
f n = f ◦ . `. . ◦ f si n ≥ 1.
n
Si además f es biyectiva, se denota f −n = f −1 ◦ . `. . ◦ f −1 .
202 Álgebra (2019/20)
• Propiedades:
Dadas dos aplicaciones biyectivas f : E → F y g : F → G, se cumple que:
(f −1 )−1 = f .
(g ◦ f )−1 = f −1 ◦ g −1 .
Apéndice 2: Polinomios
• 2.2 División euclı́dea de polinomios. Teorema del resto. Máximo común divisor y
mı́nimo común múltiplo de dos polinomios.
Observación: Es importante notar que lo que determina un polinomio son sus coefi-
cientes aj ; la indeterminada x puede nombrarse mediante cualquier otra letra o sı́ mbolo.
Cuando el cuerpo K es el de los complejos, a menudo se utiliza la letra z para la indeter-
minada.
203
204 Álgebra (2019/20)
Es decir, que para sumar polinomios sumamos los coeficientes de términos de igual
grado. Para multiplicarlos, multiplicamos todos los términos del primero por todos los
del segundo y sumamos, agrupando los coeficientes de igual grado. El grado del producto
es la suma de los grados de los factores.
Definición 85 Dados dos polinomios no nulos P, Q de K[x], se define un mı́ nimo común
múltiplo de P y Q como un polinomio M , de grado mı́nimo, tal que: P |M y Q|M .
Teorema 17 [Fundamental del Álgebra] Todo polinomio complejo no constante posee al-
guna raı́ z.
p
X
en donde αk son las raı́ ces distintas y mk sus respectivas multiplicidades y mk = n.
k=1
Ejercicios
2.8.– Calcúlese un polinomio sabiendo que el resto de dividirlo por x + 2 es −2, el
cociente de dividirlo entre x2 − 4 es 3x y su derivada admite 1 como raı́z.
¿Es único?, ¿existe algún polinomio de grado 3 que cumpla esas condiciones?, ¿es único?
2.11.– Factorı́cese el polinomio P (z) = 4z 4 − 12z 3 + 13z 2 − 12z + 9 sabiendo que alguna
de sus raı́ces es imaginaria pura.
2.12.– Calcúlense las dos raı́ces cuadradas del número complejo −80 − 18i.
Indicación: Resuélvase el sistema de ecuaciones que resulta al identificar las partes real e imaginaria
en la ecuación (x + iy)2 = −80 − 18i.
Como aplicación, resuélvase la ecuación de segundo grado
• 3.1 Definición.
• 3.2 Cálculo.
• 3.3 Propiedades.
3.1 Definición
Sea A ∈ Kn×n una matriz cuadrada, expreseada como vectores columnas A = (C1 C2 · · · Cn ).
El determinante de A, det (A) ó |A| es una aplicación Kn×n → K que cumple las siguientes
propiedades (forma multilineal alternada):
3. det (I) = 1.
3.2 Cálculo
Se define el menor Mij de una matriz A ∈ Kn×n como el determinante de la matriz
obtenida eliminando la fila i y la columna j. Entonces, el determinante |A| se puede
calcular como una combinación lineal de determinantes de matrices de tamaño n − 1 dado
por la expresión
n
X n
X
i+j
|A| = (−1) Mij aij = (−1)i+j Mij aij .
i=1 j=1
208
Apéndices 209
Nótese que se puede desarrollar eligiendo una fila cualquiera i, o una columna cualquiera
j.
En general, el determinante se calcula mediante n! sumandos, cada uno de los cuales
es el producto de n términos. Por ello, el determinante es una herramienta teórica y
no se suelen calcular para matrices grandes. Se prefieren métodos alternativos, como
descomposición LU , QR, Cholesky, etc.
El determinante de una matriz 2 × 2 se calcula de la siguiente forma:
a11 a12
A= ⇒ |A| = a11 a22 − a12 a21 ,
a21 a22
y el determinante de una matriz 3 × 3
a11 a12 a13
A = a21 a22 a23 ⇒ |A| = a11 a22 a33 +a12 a23 a31 +a21 a32 a13 −a13 a22 a31 −a12 a21 a33 −a23 a32 a11 .
a31 a32 a33
Como método nemotécnico para recordar este desarrollo se utiliza la regla de Sarrus.
3.3 Propiedades
A continuación se enumeran (obviando la demostración) las propiedades fundamentales de
los determinantes. Sean A y B dos matrices ∈ Kn×n , y sea α ∈ K un escalar cualquiera.
Sean λi los autovalores de la matriz A y X ∈ Kn un vector arbitratio. Entonces:
1. |At | = |A|
2. |A−1 | = |A|−1
3. |AB| = |A| |B|
4. |αA| = αn |A|
n
Y
5. Si A es triangular ⇒ |A| = aii
i=1
(a) A es invertible.
(b) AX = 0 tiene sólo la solución trivial X = 0.
(c) |A| =
6 0.
210 Álgebra (2019/20)