Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Algebra Matricial Estadistica 24-01-08 PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 234

Capítulo 1

Preliminares

En este capítulo presentaremos algunos resultados que son necesarios para el


desarrollo de la temática que abordaremos a partir del segundo capítulo.

1.1. Traza
Queremos presentar la información que más nos compete con relación a la
traza de matrices n n.

Notación. Si A es una matriz m n, el símbolo Aij representará la com-


ponente de A ubicada en la intersección de su …la i ésima y su columna
j ésima.

Notación. El símbolo 0 denotará siempre una matriz nula. Es decir, una


matriz con todas sus componentes igualas a cero.

De…nición. Sea A una matriz n n. Se de…na la Traza de A como:

X
n
tr(A) = Aii .
i=1

De…nición. Sea A una matriz m n. Se de…na la Transpuesta de A como


la matriz AT n m tal que (AT )ij = Aji para todo i y todo j.

1
2 CAPÍTULO 1. PRELIMINARES

Lema 1.1.1. Sean A m ny Bn m. Entonces

tr(AB) = tr(BA).

Demostración.
!
X
m X
m X
n
tr(AB) = (AB)ii = Aik Bki
i=1 i=1 k=1

!
X
n X
m X
n
= Bki Aik = (BA)kk = tr(BA).
k=1 i=1 k=1

Lema 1.1.2. Sea A m n. Entonces A = 0 si y sólo si tr(AT A) = 0.

Demostración. Si A = 0, entonces AT A = 0 y claramente tr(AT A) = 0.


Recíprocamente, tr(AT A) = 0 implica que
!
Xm Xm X n
0 = (AAT )ii = Aik (AT )ki
i=1 i=1 k=1

! !
X
m X
n X
m X
n
= Aik Aik = (Aik )2 .
i=1 k=1 i=1 k=1

De donde se concluye que Aik = 0 para todo i y todo k. Es decir, A = 0.

Corolario 1.1.3. Sea A m n. Entonces A = 0 si y sólo si AT A = 0.

Demostración. Si A = 0, entonces es claro que AAT = 0.


Recíprocamente, si AAT = 0 se tiene que tr(AT A) = 0. Luego, por Lema
1.1.2 se sigue que A = 0.

Corolario 1.1.4. Sean A m n y B; C n p. Entonces AB = AC si y sólo


si AT AB = AT AC.
1.2. RANGO 3

Demostración. Si AB = AC, entonces es obvio que AT AB = AT AC.


Recíprocamente, si AT AB = AT AC, entonces

(AB AC)T (AB AC) = (BT AT CT AT )(AB AC)

= BT AT AB BT AT AC CT AT AB + CT AT AC

= BT (AT AB AT AC) CT (AT AB AT AC)

= (BT CT )(AT AB AT AC) = (BT CT )0 = 0.

Luego, por Corolario 1.1.3 AB AC = 0 y así AB = AC.

Corolario 1.1.5. Sean A m n y B; C p n. Entonces BAT = CAT si y


sólo si BAT A = CAT A.

Demostración. Si BAT = CAT , entonces es obvio que AT BAT = AT CAT .


Recíprocamente, si AT BAT = AT CAT , entonces

(BAT CAT )(BAT CAT )T = (BAT CAT )(ABT ACT )

= BAT ABT CAT ABT + CAT ACT BAT ACT

= (BAT A CAT A)BT (BAT A CAT A)CT

= (BAT A CAT A)(BT CT ) = 0(BT CT ) = 0.

Luego, por Corolario 1.1.3 BAT CAT = 0 y así BAT = CAT .

1.2. Rango
Nuestro propósito principal en este capítulo es el de recordar algunos de los
más importantes resultados relacionados con el rango de una matriz.

Notaciones. Si A es una matriz m n, el símbolo A j representará la


j-ésima columna de A y Ai representará la i-ésima …la de A. La matriz
4 CAPÍTULO 1. PRELIMINARES

identidad n n será representada por In . Como un caso excepcional la i-


ésima columna de In se denotará por el símbolo ei .

Notaciones y de…niciones. Si A es una matriz m n, el símbolo C(A)


denotará el subespacio generado por las columnas de A, el cual es llamado
espacio columna de A. La dimensión de C(A) se llamará rango columna
de A. Además, diremos que A tiene rango columna completo si el rango
columna de A es n.

Notaciones y de…niciones. Si A es una matriz m n, el símbolo F(A)


denotará el subespacio generado por las …las de A, el cual es llamado espacio
…la de A. La dimensión de F(A) se llamará rango …la de A. Además,
diremos que A tiene rango …la completo si el rango …la de A es m.

De…nición. Un sistema de ecuaciones lineales es consitente si tiene al


menos un a solución.

De…nición. Dos sistemas de ecuaciones lineales consistentes con igual número


de incógnitas son equivalentes si tiene exactamente las mismas soluciones.

Lema 1.2.1. Sean A m n y B r n tales que los sistemas Ax = 0 y Bx = 0


son equivalentes. Entonces los rangos columnas de A y B son iguales.

Demostración. Sea c el rango columna de A. Si las columnas k1 < < kc


de A forman un conjunto linealmente independiente. Entonces la combi-
nación lineal
s1 Bk1 + + sc Bkc = 0
(donde los si son reales) implica que el vector n dimensional que tiene a si
en la posición ki para todo i y cero en las demás posiciones es solución del
sistema Bx = 0, y por hipótesis es también solución del sistema Ax = 0.
Luego,
s1 Ak1 + + sc Akc = 0,
de donde (por la independencia lineal del conjunto fAk1 ; :::; Akc g) se sigue
que si = 0 para todo i. Así, el conjunto fBk1 ; :::; Bkc g es linealmente inde-
pendiente, y por tanto el rango columna de B es mayor o igual que el rango
columna de A.
1.2. RANGO 5

Intercambiando ahora los papeles de A y B en el argumento anterior se


demuestra que el rango columna de A es mayor o igual al rango columna de
B.

Teorema 1.2.2. Si A es una matriz m n, entonces

rango …la de A = rango columna de A.

Demostración. Sean r el rango …la de A y c el rango columna de A. A…r-


mamos que para una matriz A0 que se obtiene al reordenar algunas …las de
A, de tal manera que sus primeras r …las forman un conjunto linealmente
independiente, se tiene que r es el rango …la de A0 y c es el rango columna
de A0 . Lo a…rmado es claro para r. Mostrémoslo para las columnas: como
los sistemas Ax = 0 y A0 x = 0 son equivalentes, ya que: [a1 an ]T es
solución del sistema Ax = 0 si y sólo si

a1 A 1 + + an A n = 0,

si y sólo si

a1 Ai1 + + an Ain = 0 para todo i = 1; :::; m,

si y sólo si
a1 A0 1 + + an A0 n = 0,
si y sólo si [a1 an ]T es solución del sistema Ax = 0. Se sigue (por Lema
1.2.1) que rango columna de A es igual a rango columna de A0 .
Supongamos que particionamos A0 en la forma
B
A0 =
C

donde B es r m y C es (m r) n. Como A0 tiene rango r y sus primeras


r …las forman un conjunto linealmente independiente, entonces las últimas
(m r) …las de A0 son combinaciones lineales de las primera r, lo que implica
que C = DB para alguna matriz (n r) r D. A…rmamos ahora que A0 y
B tienen el mismo rango columna, ya que
B Bx
A0 = y A0 x = ,
DB DBx
6 CAPÍTULO 1. PRELIMINARES

implica que los sistemas A0 x = 0 y Bx = 0 son equivalentes, y por tanto


(nuevamente por Lema 1.2.1) los rangos columnas de las matrices A0 y B
son iguales.
Como las columnas de B son están en un espacio de dimensión r se tiene que
c r. Aplicando esta última desigualdad a AT tendremos también que
rango columna de AT rango …la de AT .
Es decir,
rango …la de A rango columna de A,
esto es, r c.

De…nición. Sea A una matriz m n. Se de…ne el rango de A como el


número
rk(A) = rango …la de A = rango columna de A.

Del Teorema 1.2.2 y la de…nición de rango es claro que rk(A) = rk(AT ).

Teorema 1.2.3. Sean A m n y B n p:


i) Si rk(AB) = rk(A), entonces C(AB) = C(A).
ii) Si rk(AB) = rk(B), entonces F(AB) = F(B).

Demostración. i)
AB = [AB 1 AB p ] ,
y para j = 1; :::; p se tiene que
2 3
B1j
6 7
AB j = [A 1 A n ] 4 ... 5 = B1j A 1 + + Bnj A n .
Bnj
Luego, C(AB) C(A). Ahora, rk(AB) = rk(A) implica que las dimen-
siones de C(AB) y C(A) son iguales, y como uno está contenido en el otro
se concluye que C(AB) = C(A).
ii) 2 3 2 3
A1 A1 B
6 7 6 7
AB = 4 ... 5 B = 4 ..
. 5,
Am Am B
1.2. RANGO 7

y para i = 1; :::; m se tien que


23
B1
6 7
Ai B = [Ai1 Ain ] 4 ... 5 = Ai1 B1 + + Ain Bn .
Bn
De donde, F(AB) F(B). Ahora, rk(AB) = rk(B) implica que las di-
mensiones de F(AB) y F(B) son iguales, y por la anterior contenencia se
concluye que F(AB) = F(A).

Teorema 1.2.4. Sean A una matriz m n y B una matriz n p. Entonces


rk(AB) rk(A).

Demostración. En la demostración del Teorema 1.2.3 parte i) se demuestra


que C(AB) C(A), por tanto rk(AB) rk(A).

Teorema 1.2.5. Sean A una matriz m n y B una matriz invertible m m.


Entonces rk(A) = rk(BA).

Demostración. Si rk(A) = 0 se sigue que A = 0, y por tanto BA. Luego,


rk(BA) = 0.
Supongamos que rk(A) = r > 0 y que A i1 ; :::; A ir es un conjunto li-
nealmente independiente de columnas de A. A…rmamos que las columnas
BA i1 ; :::; BA ir de BA forman un conjunto linealmente independiente. En
efecto, sean c1 ; :::; cr escalares tales que
c1 BA i1 + + cr BA ir = 0,
entonces
B(c1 A i1 + + cr A ir ) = 0
y como B es invertible se sigue que
c1 A i1 + + cr A ir = 0.
Pero el conjunto fA i1 ; :::; A ir g es linealmente independiente, por tanto
c1 = = cr = 0, y así el conjunto fBA i1 ; :::; BA ir g es linealmente in-
dependiente. Esto último implica que rk(BA) rk(A). Ahora, por Teorema
1.2.4 y comentario posterior a la de…nición de rango tenemos que
rk(A) = rk(AT ) rk(AT BT ) = rk((BA)T ) = rk(BA).
8 CAPÍTULO 1. PRELIMINARES

Corolario 1.2.6. Sean A una matriz m n y B una matriz invertible n n.


Entonces rk(A) = rk(AB).

Demostración. B invertible implica BT invertible, entonces

rk(A) = rk(AT ) = rk(BT AT ) = rk((AB)T ) = rk(AB).

Corolario 1.2.7. Sean A una matriz m n, Q una matriz invertible n n


y P una matriz invertible m m. Entonces rk(A) = rk(PAQ).

Demostración.

rk(A) = rk(PA) = rk((PA)Q) = rk(PAQ).

De…nición. Sea A m n. Se de…nen las tres operaciones elementales sobre


las …las de A como:
i) intercambio de …las: A i ! A j .
ii) multiplicar una …la por un escalar no nulo c: A i ! cA i .
iii) sumar a una …la un múltiplo de otra: A i ! cA j + A i .

Ejemplo. Si 2 3
2 1 1 0
4
A= 3 1 2 3 5,
2 0 4 1
entonces:
2 3 2 3
2 1 1 0 2 1 1 0
4 3 1 2 3 5 A2 !A3 4 2 0 4 1 5.
2 0 4 1 3 1 2 3
2 3 2 3
2 1 1 0 2 1 1 0
4 3 1 2 3 5 A 2 ! 3A 2 4 9 3 6 9 5.
2 0 4 1 2 0 4 1
1.2. RANGO 9
2 3 2 3
2 1 1 0 2 1 1 0
4 3 1 2 3 5 A 3 ! 3A 1 + A 3
4 3 1 2 3 5.
2 0 4 1 4 3 1 1

Si A es una matriz m n, entonces:


i) si B m n se obtiene al realizar la operacion elemental A i ! A j a
A y C m m es la matriz invertible que se obtiene al realizar la operación
elemental (Im ) i ! (Im ) j a Im , entonces

B = CA.

ii) si D m n se obtiene al realizar la operacion elemental A i ! cA i a


A y E m m es la matriz invertible que se obtiene al realizar la operación
elemental (Im ) i ! c(Im ) i a Im , entonces

D = EA.

iii) si F m n se obtiene al realizar la operacion elemental A i ! cA j +A i


a A y G m m es la matriz invertible que se obtiene al realizar la operación
elemental (Im ) i ! c(Im ) j + (Im ) i a Im , entonces

F = GA.

Las observaciones anteriores y el Teorema 1.2.5 nos muestran que el rango es


invariante ante operaciones elementales de …la. Luego, para hallar el rango
de una matriz dada podemos proceder de la siguiente manera: realizamos
inteligentemente un número …nito de operaciones elementales a la matriz
dada, con el …n de hallar una matriz con muchos ceros (que obviamente
tendrá el mismo rango que la dada) a la cual le podamos calcular el rango a
simple vista.

Lo que haremos en siguiente ejemplo es equivalente a lo que hemos descrito


como un método elemental para hallar el rango de una matriz.

Ejemplo. Hallemos el rango de la matriz


2 3
1 1 2 0
6 2 1 1 5 7
A=6 4 0
7.
3 3 3 5
3 2 1 5
10 CAPÍTULO 1. PRELIMINARES

En efecto,
2 3 2 3
1 1 2 0 1 1 2 0
6 2 1 5 7 6 0 5 7
6 1 7 A 2 ! 2A 1 + A 2 6 1 5 7 = B,
4 0 3 3 3 5 A 4 ! 3A 1 + A 4 4 0 3 3 3 5
3 2 1 5 0 1 5 5
2 3 2 3
1 1 2 0 1 1 2 0
6 0 5 7 6 0 5 7
6 1 5 7 B 3 ! 3B 1 + B 3 6 1 5 7 = C.
4 0 3 3 3 5 B 4 ! B 1+B 4 4 0 0 12 12 5
0 1 5 5 0 0 0 0
Los rangos de A; B y C son iguales. Pero el rango de C es claramente 3, por
tanto rk(A) = 3.

Notación. Si S es un subconjunto no vacío en un espacio vectorial, entonces


el símbolo gen(S) se utilizará para representar al subespacio generado por S.

Teorema 1.2.8. Sean A y B matrices m n. Entonces

rk(A + B) rk(A) + rk(B).

Demostración. Supongamos que rk(A) = r y rk(B) = s, y sea S un conjuto


formado al unir una base de C(A) con una base de C(B), entonces gen(S)
tiene dimensión menor o igual a r + s. Ahora, para j = 1; :::; n se tiene que
(A + B) j = (A) j + (B) j , por tanto (A) j como (B) j están en gen(S), por
tanto (A + B) j también está en gen(S). Luego, C(A + B) gen(S). Así,

rk(A + B) dim (gen(S)) r + s = rk(A) + rk(B).

Teorema 1.2.9. Sea A m n con rk(A) = r > 0. Entonces existen matrices


B m r y C r n ambas de rango r tales que

A = BC

Demostración. Supongamos que las columnas i1 ; :::; ir de A forman un


conjunto linealmente independiente, entonces una matriz E n n obtenida
1.2. RANGO 11

al reordenar las columnas de In de tal manera que tenga como primeras


columnas a ei1 ; :::; eir , es tal que AE tiene las mismas columnas de A, con
la propiedad de que las primeras r columnas de AE forman un conjunto
linealmente independiente. Sea
B = [A i1 A ir ] m r,
entonces las columnas r + 1; :::; n de AE son combinaciones lineales de las
columnas de B, por esto existen ar+1 ; :::; an r 1 tales que
(AE) r+1 = Bar+1 ; :::; (AE) n = Ban .
Luego,
AE = [Be1 Ber Bar+1 Ban ] = B [e1 er ar+1 an ]
1
y por tanto A = BC, donde C = [e1 er ar+1 an ] E r n. Nótese
que rk(B) = rk(C) = r.

Teorema 1.2.10. Sea A una matriz m n de rango r. Entonces para cua-


lesquiera r …las linealmente independientes y r columnas linealmente inde-
pendientes de A, la submatriz r r de A que se obtiene al eliminar las
otras m r …las y n r columnas de A tiene rango r. Además, A no tiene
submatrices con rango mayor que r.

Demostración. Supongamos que las columnas A j1 ; :::; A jr de A forman


un conjunto linealmente independiente y que las …las A i1 ; :::; A ir de A
forman también un conjunto linealmente independiente. Notamos primero
que la matriz
B = [A j1 A jr ] m r
tiene rango r. Ahora, eliminando de B todas las …las, excepto las …las i1 ; :::; ir ,
obtenemos la matriz
2 3
Aj1 i1 Aj2 i1 Ajr i1
6 Aj i Aj i Ajr i2 7
6 1 2 2 2 7
C = 6 .. .. .. .. 7 r r.
4 . . . . 5
Aj1 ir Aj2 ir Ajr ir

Veamos que C tiene rango r. En efecto, como rk(A) = r y fA i1 ; :::; A ir g


es linealmente independiente, se tiene que fA i1 ; :::; A ir g es una base para
12 CAPÍTULO 1. PRELIMINARES

el espacio …la de A, por tanto toda …la de A es combinación lineal de


fA i1 ; :::; A ir g, y esto implica que toda …la de B es combinación lineal de
fC 1 ; :::; C r g. Luego, fC 1 ; :::; C r g es base para el espacio …la de B y como
rk(B) = r, se sigue que fC 1 ; :::; C r g es linealmente independiente, y así
rk(C) = r.
Veamos ahora que A no tiene submatrices de rango mayor que r: supon-
gamos que A tiene una submatriz D p q con rk(D) = s > r. Entonces si
A t1 ; :::; A ts son s columnas de A tales que al elinar (si es necesario) algunas
…las de A se obtienen s …las linealmente independientes D k1 ; :::; D ks de D,
se sigue que si c1 ; :::; cs son escalares tales que

c1 A t1 + + cs A ts = 0,

entonces
c1 D k1 + + cs D ks = 0.
Luego, la independencia lineal de fD k1 ; :::; D ks g implica que c1 = =
cs = 0, de donde fA t1 ; :::; A ts g es un conjunto linealmente independiente
de s …las de A, lo cual es imposible porque s > r = rk(A). La contradicción
provien de haber supuesto la posibilidad de que A pudiera tener submatrices
con rango mayor que rk(A).

De…nición. Si A es una matriz m n, se dice que A tiene rango completo


si tiene rango columna completo o bién rango …la completo.

De…niciones. Si A es una matriz m n, entonces una inversa a izquierda


de A es una matriz L n m tal que

LA = In .

Y una inversa a derecha de A es una matriz R n m tal que

AR = Im .

Lema 1.2.11. Sea A una matriz m n. Entonces:


i) A tiene inversa a derecha si y sólo si A tiene rango …la completo.
ii) A tiene inversa a izquierda si y sólo si A tiene rango columna completo.
1.2. RANGO 13

Demostración. i) Si A m n tiene rango m, entonces n m y A tiene


m columnas linealmente independientes en el espacio m dimensional de los
vectores m 1. Luego, las columnas de A contienen una base del espacio
antes mensionado, de donde cada columna ei de Im es combinación lineal de
las columnas de A. Es decir, para cada i = 1; :::; m existe R i n 1 tal que
AR i = ei . Considerando la matriz R = [R 1 R m ] n m, tenemos que

AR = A [R 1 R m] = [AR 1 AR m] = [e1 em ] = Im .

Así, R es una inversa a derecha de A.


Recíprocamente, si existe R n m tal que AR = Im , entonces

m rk(A) rk(AR) = rk(Im ) = m.

Lo cual implica que rk(A) = m.

ii) rk(A) = n, si y sólo rk(AT ) = n, si y sólo si AT tiene inversa a derecha,


si y sólo si A tiene inversa a izquierda.

Lema 1.2.12. Sean A,B matrices m n, C r m de rango columna completo


y D n p de rango …la completo. Entonces:
i) CA = CB si y sólo si A = B.
ii) AD = BD si y sólo si A = B.

Demostración. i) Si A = B se sigue de inmediato que CA = CB.


Ahora, si C tiene rango columna completo, entonces C tiene al menos una
inversa a izquierda L m r. Luego,

A = Im A = LCA = LCB = Im B = B.

ii) Si A = B se sigue de inmediato que AD = BD.


Si D tiene rango …la completo, entonces D tiene al menos una inversa a
derecha R p n. Así,

A = AIn = ADR = BDR = BIn = B.


14 CAPÍTULO 1. PRELIMINARES

Teorema 1.2.13. Sean T una matriz m m, U una matriz m q, V una


matriz n m y W una matriz n q. Si rk(T) = m (es decir, T es invertible),
entonces
T U U T V W
rk = rk = rk
V W W V T U

W V
= rk
U T

= m + rk W VT 1 U .

Demostración.
T U U T
rk = rk (1.1)
V W W V

porque tienen exactamente las mismas columnas.

U T V W
rk = rk
W V T U

por (1.1) y porque


T U V W
y
V W T U
tienen exactamente las mismas …las.

V W W V
rk = rk
T U U T
porque tienen exactamente las mismas columnas.
Ahora, para demostrar la última igualdad, es su…ciente probar (por la tran-
sitividad de la igualdad) que

T U
rk = m + rk W VT 1 U .
V W

En efecto, consideremos la matriz invertible

Im 0
1 .
VT In
1.2. RANGO 15

Entonces
T U Im 0 T U
rk = rk 1
V W VT In V W

T U
= rk
0 W VT 1 U

= rk(T) + rk W VT 1 U

= m + rk W VT 1 U .
16 CAPÍTULO 1. PRELIMINARES
Capítulo 2

Inversas Generalizadas (I.G)

2.1. De…nición y existencia


En esta sección de…niremos inversa generalizada de una matriz y demostraremos
que toda matriz tiene al menos una inversa generalizada.

De…nición. Una inversa generalizada de una matriz A m n es una


matriz G tal que
AGA = A.

Ejemplo. Las matrices


2 3 2 3
1 0 42 1
4 0 0 5 y 4 5 3 5
0 0 2 2
son inversas generalizadas de la matriz
1 3 2
.
2 6 4

El ejemplo anterior muestra claramente que en general la inversa generalizada


no es única.

1
Lema 2.1.1. Sea A una matriz n n invertible. Entonces A es la única
inversa generalizada de A.

17
18 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

Demostración. Claramente,

AA 1 A = A.

Ahora, si G es una inversa generalizada de A, entonces

1 1
G = In GIn = A 1 AGAA = A 1 AA = A 1 In = A 1 .

Teorema 2.1.2. Sean A m r de rango columna completo y B r n de


rango …la completo. Si L es una inversa a izquierda de A y R es una inversa
a derecha de B. Entonces RL es una inversa generalizada de AB.

Demostración.

AB(RL)AB = A(BR)(LA)B

= AIr Ir B = AB.

Corolario 2.1.3. Toda matriz A m n tiene almenos una inversa genera-


lizada.

Demostración. Si A = 0 el resultado es evidente. Si A 6= 0 y tiene rango r,


entonces en virtud del Teorema 1.2.9 A se deja expresar como A = BC con B
m r de rango colunma completo y C r n de rango …la completo. Luego,
por Teorema 2.1.2, A tiene al menos una inversa generalizada G = RL,
donde R es una inversa a derecha de C y L es una inversa a izquierda de B.

Notación. Si A es una matriz m n, entonces A denotara a una inversa


generalizada cualquiera de A.

2.2. Sistemas lineales


En esta sección daremos la de…nición de sistema lineal y mostraremos algunos
resultados básicos relacionados con este tipo de sistemas.
2.2. SISTEMAS LINEALES 19

De…nición. Un sistema lineal es una expresión de la forma

AX = B,

donde A es m n, B es m p y X es una matriz incógnita n p. Una


solución del sistema lineal AX = B es cualquier matriz C n p tal que
AC = B. El sistema lineal AX = B es consistente si tiene al menos una
solución.

De…nición. Un sistema lineal AX = B es compatible si kT B = 0 para


todo vector k (de tamaño apropiado) tal que kT A = 0.

Teorema 2.2.1. Sean A m n y B m p. Un sistema lineal AX = B es


consistente si y sólo si es compatible.

Demostración. (=)) Supongamos que el sistema lineal AX = B es con-


sistente. Entonces, existe una matriz C tal que AC = B, y para todo vector
columna kT tal que kT A = 0 tenemos

kT B = kT AC = 0C = 0.

Esto es, AX = B es compatible.

((=) Supongamos que AX = B es compatible. Para esta parte es su…ciente


probar que existe una matriz C n p tal que Ai C = Bi para i = 1; :::; m.
En efecto, si r es el rango de A existen enteros positivos 1 k1 < <
kr m tales que fAk1 ; :::; Akr g es una base para el espacio …la de A. Sea
A1 la matriz cuyas …las son Ak1 ; :::; Akr y B1 la matriz cuyas …las son
Bk1 ; :::; Bkr . Como A1 tiene rango …la completo, entonces tiene al menos
una inversa a derecha R, por tanto el sistema lineal A1 X = B1 es consistente,
tiene al menos la solución X = RB1 n p. Entonces

Akj RB1 = Bkj para j = 1; :::; r.

Para i 2 f1; :::; mg fk1 ; :::; kr g Ai está en el generado de fAk1 ; :::; Akr g,
es por tanto que existen escalares ik1 ; :::; ikr tales que

ik1 Ak1 + + ikr Akr = Ai ,


20 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

de donde

i1 A1 i(i 1) A(i 1) + ii Ai i(i+1) A(i+1) im Am =0

con it = 0 cuando t 2
= fk1 ; :::; kr ; ig y ii = 1. Luego,

kT A = 0

con
kT = i1 i(i 1) ii i(i+1) im ,
y por hipótesis kT B = 0. La última igualdad implica que

i1 B1 i(i 1) B(i 1) + ii Bi i(i+1) B(i+1) im Bm =0

y como it = 0 cuando t 2
= fk1 ; :::; kr ; ig, encontramos que

ik1 Bk1 + + ikr Bkr = Bi .

Luego,
Ai RB1 = ( ik1 Ak1 + + ikr Akr )RB1

= ik1 Ak1 RB1 + + ikr Akr RB1

= ik1 Bk1 + + ikr Bkr = Bi .

Teorema 2.2.2. Sean A m n y B m p. Entonces el sistema lineal


AT AX = AT B es consistente.

Demostración. Para demostrar el teorema es su…ciente (a la luz del Teorema


2.2.1) con mostrar que el sistema lineal AT AX = AT B es compatible. Sea k
n 1 tal que kT AT A = 0, entonces kT AT A = 0AT A, luego por Corolario
1.1.5 kT AT = 0AT = 0, y así kT AT B = 0B = 0. Esto es, el sistema lineal
AT AX = AT B es compatible.

Corolario 2.2.3. Si A m n tiene rango columna completo, entonces AT A


es invertible.

Demostración. Para probar que AT A es invertible es su…ciente demostrar


que el sistema lineal AT AX = In es consistente, y esto último equivale,
2.2. SISTEMAS LINEALES 21

según Teorema 2;2;1, a demostrar que el sistema en cuestión es compatible.


En efecto, sea k n 1 tal que

kT AT A = 0,

entonces kT AT A = 0 = 0AT A, de donde (por Corolario 1.1.5) kT AT =


0AT = 0. Como A tiene rango columna completo existe L n m tal que
LA = In , por tanto

kT In = kT (In )T = kT (LA)T = kT AT LT = 0LT = 0.

Así, AT AX = In es compatible.

Teorema 2.2.4. Sea A una matriz m n. Entonces para toda matriz B


m p tal que el sistema lineal AX = B es consistente, se tiene que GB es
solución del sistema si y sólo si G es una inversa generalizada de A.

Demostración. Sean C una solución del sistema lineal AX = B (tal solu-


ción existe porque el sistema es consistente) y G una inversa generalizada de
A. Entonces

A(GB) = (AG)B = (AG)AC

= (AGA)C = AC = B.
Recíprocamente, supongamos que GB es solución de AX = B para toda
matriz B m p tal que AX = B es consistente. Para i = 1; :::; n; sea
Bi = [A i 0 0] m p. Nótese que para cada i el sistema

AX = Bi
es consitente, ya que Ci = [ei 0 0] es solución. Luego, GBi es también
solución del sistema AX = Bi para toda i. Pero

AGBi = Bi 8i
implica (AGBi ) 1 = (Bi ) 1 8i. Luego,

AGA i = A i 8i.
Así,
22 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

AGA = AG [A 1 A n ] = [AGA 1 AGA n ]

= [A 1 A n] = A.

Por tanto, G es una inversa generalizada de A.

2.3. I.G y submatrices invertibles


Lema 2.3.1. Sea
A11 A12
A=
A21 A22
una matriz particionada m n de rango r donde A11 es r r. Si rk(A11 ) = r,
entonces

A22 = A21 A111 A12 .

Demostración. Por Teorema 1.2.13

r = rk(A) = r + rk(A22 A21 A111 A12 ),

lo cual implica que


rk(A22 A21 A111 A12 ) = 0,
de donde
A22 A21 A111 A12 = 0,
o equivalentemente
A22 = A21 A111 A12 .

Teorema 2.3.2. Sea A una matriz m n de rango r, la cual se deja parti-


cionar de la forma
A11 A12
A=
A21 A22
donde A11 es invertible r r. Entonces G n m es una inversa generalizada
de A si y sólo si
2.3. I.G Y SUBMATRICES INVERTIBLES 23

A111 XA21 A111 A111 A12 Y A111 A12 ZA21 A111 X


G=
Y Z
para algunas matrices X; Y; Z de tamaños apropiadas.

Demostración.

Por Teorema 2.3.1 y propiedades del producto de matrices tenemos que


A11 A12 A11
A= = A111 [A11 A12 ] .
A21 A21 A111 A12 A21

G11 G12
Ahora, una matriz particionada G = n m, con G11 r r, es
G21 G22
una inversa generalizada de A si y sólo si AGA = A, o equivalentemente, si
y sólo si
A11 A11
A111 [A11 A12 ] G A111 [A11 A12 ]
A21 A21
(2.1)
A11
= A111 [A11 A12 ] :
A21
Como
A11
rk = r = rk [A11 A12 ] ,
A21
se sigue del Lema 1.2.12 que G satisface (2.1) si y sólo si
A11
A111 [A11 A12 ] G A111 = A111 .
A21
Pero
A11 G11 G12 Ir
A111 [A11 A12 ] G A111 = Ir A111 A12
A21 G21 G22 A21 A111

Ir
= G11 + A111 A12 G21 G12 + A111 A12 G22
A21 A111

= G11 + A111 A12 G21 + G12 A21 A111 + A111 A12 G22 A21 A111 :
24 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

Luego, G satisface (2.1) si y sólo si


G11 = A111 A111 A12 G21 G12 A21 A111 A111 A12 G22 A21 A111 .

Lema 2.3.3. Sea B una matriz m n, G una matriz n m, A una matriz


m m invertible y C una matriz invertible n n. Entonces:
i) G es una inversa generalizada de AB si y sólo si G = HA 1 para alguna
inversa generalizada H de B.
ii) G es una inversa generalizada de BC si y sólo si G = C 1 H para alguna
inversa generalizada de H de B.
iii) G es inversa generalizada de ABC si y sólo si G = C 1 HA 1 para
alguna inversa generalizada de H de B.

Demostración. i) y ii) son casos particulares de iii) (tomando C = In y


A = Im , respectivamente). Por tanto es su…ciente probar iii). En efecto, G
es una inversa generalizada de ABC si y sólo si
ABCGABC = ABC,
o, equivalentemente (porque A y C son invertibles) si y sólo si BCGAB = B.
Así, G es una inversa generalizada de ABC si y sólo si H = CGA es una
inversa generalizada de B o, equivalentemente, si y sólo si G = C 1 HA 1
para una inversa generalizada H de B.

De…nición. Una matriz de permutación es una matriz que se obtiene al


reordenar algunas …las de una matriz identidad.

De…nición. Una matriz A n n invertible es una matriz ortogonal si


A 1 = AT .

Lema 2.3.4. Toda matriz de permutación es ortogonal.

Demostración. Sea A n n una matriz de permutación. Si i1 ; :::; in es un


reordenamiento de la lista 1; 2; :::; n, tal que
2 3
(In )i1
6 .. 7
A=4 . 5,
(In )in
2.3. I.G Y SUBMATRICES INVERTIBLES 25

entonces
AT = [(In ) i1 (In ) in ] .

Así,
2 3 2 3
(In )i1 (In ) i1 (In )i1 (In ) in 1 0
T 6 .. .. .. 7 6 .. . . .. 7
AA = 4 . . . 5 = 4. . . 5 = In .
(In ) in (In ) i1 (In ) in (In ) in 0 1

Teorema 2.3.5. Sean A una matriz m n de rango r, i1 < < ir


enteros positivos en el conjunto f1; :::; mg tales que las …las i1 ; :::; ir de A
forman un conjunto linealmente independientes y sean j1 < < jr enteros
positivos en el conjunto f1; :::; ng tales que las columnas j1 ; :::; jr de A forman
un conjunto linealmente independiente. Sean P una matriz de permutación
m m cuyas primeras r …las son las …las i1 ; :::; ir de Im y Q una matriz de
permutación n n cuyas primeras r columnas son las columnas j1 ; :::; jr de
In . Sea B = PAQ y particionemos a B como

B11 B12
B= ,
B21 B22
donde B11 es r r. Entonces una matriz G n m es una inversa generalizada
de A si y sólo si

B111 XB21 B111 B111 B12 Y B111 B12 ZB21 B111 X


G=Q P (2.2)
Y Z

para ciertas matrices X; Y y Z (de tamaños apropiados).

Demostración. Como P y Q son matrices de permutación, ellas son orto-


gonales. Luego,
A = PT PAQQT = PT BQT ,
y por Lema 2.3.3 G es una inversa generalizada de A si y sólo si G = QHP
para alguna inversa generalizada H de B. Nótese que B tiene rango r, que
sus primeras r …las y r columnas son linealmente independientes y que B11
se obtiene al eliminar de B las …las r + 1; :::; m y las columnas r + 1; :::; n,
26 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

por tanto el Teorema 1.2.10 garantiza que B11 es una matriz invertible y así,
el Teorema 2.3.2 implica que H es de la forma

B111 XB21 B111 B111 B12 Y B111 B12 ZB21 B111 X


Y Z

para algunas matrices X; Y y Z de tamaños apropiados. Concluimos que G


es una inversa generalizada de A si y sólo si

B111 XB21 B111 B111 B12 Y B111 B12 ZB21 B111 X


G=Q P.
Y Z

Tomando X; Y y Z iguales a las matrices nulas de los tamaños adecuados en


la expresión (7.31), tenemos que una inversa generalizada de la A es

B111 0
G=Q P.
0 0

Nótese que esta inversa generalizada se puede hallar siguiendo los siguientes
pasos (se utiliza la notación del Teorema 2.3.5):

1) Halle r = rk(A).

2) Determine valores para i1 ; :::; ir y j1 ; :::; jr .

3) Construya B11 y encuentre B111 .

4) Construya G de la siguiente manera: Gjs it = (B111 )st para s = 1; :::; r y


t = 1; :::; r, y cero en las restantes posiciones de G.

Ejemplo. Hallemos una inversa generalizada de la matriz


2 3
(1) (2) 2 1 1
6 2 4 4 2 2 7
A=6
4 (1) (0) 1
7:
1 0 5
1 4 3 3 2
2.3. I.G Y SUBMATRICES INVERTIBLES 27

El rango de A es 2. Las …las 1 y 3 forman un conjunto linealmente inde-


pendiente y las columnas 1 y 2 también forman un conjunto linealmente
independiente. Luego, podemos tomar

1 2
B11 = ,
1 0

la cual se obtiene al eliminar las …las 2 y 4 de B, y las columnas 3; 4 y 5.


Encontramos ahora que
0 1
B111 = 1 1 .
2 2

Así, una inversa generalizada de A es


2 3
(0) 0 (1) 0
6 1 0 1
0 7
6 2 2 7
G=6 6 0 0 0 0 7.
7
4 0 0 0 0 5
0 0 0 0

Teorema 2.3.6. Sean A una matriz simétrica n n de rango r, i1 < <


ir enteros positivos en el conjunto f1; :::; mg tales que las …las i1 ; :::; ir de
A forman un conjunto linealmente independiente y sea P una matriz de
permutación n n cuyas primeras r …las son las …las i1 ; :::; ir de In . Sea
B = PAPT y particionemos a B como

B11 B12
B=
B21 B22
donde B11 es r r. Entonces una matriz G n n es una inversa generalizada
de A si y sólo si

B111 XB21 B111 B111 B12 Y B111 B12 ZB21 B111 X


G = PT P
Y Z

para ciertas matrices X; Y y Z (de tamaños apropiados).

Demostración. Se sigue inmediatamente del Teorema 2.3.5.


28 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

Lema 2.3.7. Toda matriz A n n simétrica no invertible tiene inversas


generalizadas simetricas y no simétricas.

Demostración. Ejercicio.

2.4. I.G en términos de una I.G particular


Teorema 2.4.1. Sean A m n y G una inversa generalizada particular de
A. Entonces G n m es una inversa generalizada de A si y sólo si

G =G+Z GAZAG
para alguna matriz Z n m. Además, G es una inversa generalizada de A
si y sólo si

G = G + (In GA)T + S(Im AG)


para ciertas matrices n m T y S.

Demostración. Ejercicio. Ayuda: Considere Z = S = G G y T = G AG.

2.5. I.G de matrices con rango completo


Lema 2.5.1. Sea A una matriz de rango columna completo y B una matriz
de ramgo …la completo. Entonces:
i) G es una inversa generalizada de A si y sólo si G es una inversa a
izquierda de A.
ii) G es una inversa generalizada de B si y sólo si G es una inversa a
derecha de B.

Demostración. Ejercicio.

Lema 2.5.2. Si una matriz A tiene rango columna completo, entonces

(AT A) 1 AT
2.6. ALGUNAS PROPIEDADES ELEMENTALES 29

es una inversa a izquierda de A. Similarmente, si A es de rango …la com-


pleto, entonces
T
AT (AA ) 1
es una inversa a derecha de A.

Demostración. Ejercicio.

2.6. Algunas propiedades elementales


1
Lema 2.6.1. Sean A m n y k un escalar distinto de cero. Entonces k
A
es una inversa generalizada de kA.

Demostración.

(kA)( k1 A )(kA) = (k)( k1 )(k)(AA A) = kA.

Corolario 2.6.2. Sea A m n. Entonces A es una inversa generalizada


de A.

Demostración. Tome k = 1 en el Lema 2.6.1.

Lema 2.6.3. Sea A m n. Entonces (A )T es una inversa generalizada de


AT .

Demostración.

AT (A )T AT = (AA A)T = AT .

Corolario 2.6.4. Sea A n n simétrica. Entonces (A )T es una inversa


generalizada de A.

Demostración. Ejercicio.

Lema 2.6.5. Sea A m n. Para cualquier matriz B m p, C(B) C(A) si


y sólo si B = AA B, o, equivalentemente, si y sólo si (Im AA )B = 0.
30 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

Y, para cualquier matriz C q n, F(C) F(A) si y sólo si C = CA A,


o, equivalentemente, si y sólo si C(In A A) = 0.

Demostración. Ejercicio.

Corolario 2.6.6. Sea A m n. x m 1 está en C(A) si y sólo si x = AA x.


Además, y n 1 es tal que yT 2 F(A) si y sólo si yT = yT A A.

Demostración. Ejercicio.

Lema 2.6.7. Si A es m n, entonces

F (A A ) = F(A) y C(AA ) = C(A).

Demostración. Ejercicio.

Corolario 2.6.8. Si A es m n, entonces

rk(A A) = rk(AA ) = rk(A)

Demostración. Ejercicio.

Lema 2.6.9. Si A es m n, entonces

rk(A ) rk(A).

Demostración. Ejercicio.

Lema 2.6.10. Sean A y B matrices particionadas m n de la forma

W
A= T 0 y B= .
0

G1
Una matriz particionada n m; G = (donde el número de …las de
G2
G1 es igual al número de columnas en T) es una inversa generalizada de A
2.7. INVARIANZA EN LA ESCOGENCIA DE UNA I.G 31

si y sólo si G1 es una inversa generalizada de T. Similarmente, una matriz


particionada n m, H = H1 H2 , (donde el número de columnas en H1
es igual al número de …las en W) es inversa generalizada de B si y sólo si
H1 es una inversa generalizada de W.

Demostración. Ejercicio.

A
Lema 2.6.11. Sean A m n, B m p y C q n. La matriz
B
(m + p) m es una inversa generalizada de la matriz particionada A B
si y sólo si AA B = 0 y BB A = 0. Similarmente, la matriz A C
A
n (m + q) es una inversa generalizada de la matriz particionada si
C
y sólo si CA A = 0 y AC C = 0.

Demostración. Ejercicio.

2.7. Invarianza en la escogencia de una I.G


Teorema 2.7.1. Sean A m n; B p n y C m q. Si F(B) F(A)
y C(C) C(A), entonces BA C es una invariante a la escogencia de una
inversa generalizada de A. Recíprocamente, si BA C es invariante para
cualquier A y si C es no nula, entonces F(B) F(A). Y, si BA C es
invariante para cualquier A y B es no nula, entonces C(C) C(A).

Demostración. Supongamos que F(B) F(A) y C(C) C(A). Entonces


existen matrices L y R tales que B = LA y C = AR, por tanto
BA C = LAA AR = LAR.
Esto es, BA C es invariante a la es cogencia de A .
El resto de la demostración se deja como ejercicio para el lector.

Corolario 2.7.2. Sean A q p, B p n y C m q. Si rk(CAB) = rk(C) =


rk(B), entonces B(CAB) C es invariante para cualquier inversa genera-
lizada de CAB.
32 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

Demostración. Supongamos que rk(CAB) = rk(C) = rk(B), entonces por


Teorema 1.2.3 F(B) = F(CAB) y C(C) = C(CAB). Basados en el Teorema
2.7.1 concluimos que B(CAB) C es invariante a la escogencia de cualquier
(CAB) .

2.8. Consistencia de un sistema lineal


Lema 2.8.1. Un sistema lineal AX = B es consistente si y sólo si

AA B = B.

Demostración. =)) Si C es una solución de AX = B, entonces

AA B = AA AC = AC = B.

(=) Ahora, si AA B = B, entonces D = A B es solución del sistema


AX = B.

2.9. Rango e I.G de matrices particionadas


Teorema 2.9.1. Sean T m p; U m q; V n p, W n q y de…namos
Q = W VT U. Si C(U) C(T) y F(V) F(T), entonces

T U W V
rk = rk = rk(T) + rk(Q). (2.3)
V W U T
Además, las matrices particionadas

T + T UQ VT T UQ T 0 T U
= + Q VT In
Q VT Q 0 0 Iq
y

Q Q VT 0 0 Iq
= + Q In VT
T UQ T + T UQ VT 0 T T U

T U W V
son inversas generalizadas de y , respectivamente.
V W U T
2.9. RANGO E I.G DE MATRICES PARTICIONADAS 33

Demostración. Ejercicio.

Corolario 2.9.2. Sean T m p, V n pyWn q. Si F (V) F (T) o


C (V) C(W), entonces

T O W V
rk = rk = rk (T) + rk(W),
V W O T
y matrices de bloques

T 0 W W VT
y
WVT W 0 T
T 0 W V
son inversas generalizadas de y , respectivamente.
V W 0 T

Demostración. Ejercicio.

Corolario 2.9.3. Sean T y W matrices. Entonces la matriz particionada


T 0 T 0
es una inversa generalizada de .
0 W 0 W
Demostración. Ejercicio.

Teorema 2.9.4. Si T m p, R p q, L n m, W n q y Q=W LTR,


entonces

T R W LT
rk = rk = rk(T) + rk(Q).
LT W TR T
Además, las matrices particionadas

T + RQ L RQ T 0 R
= + Q [ L In ]
Q L Q 0 0 Iq
y

Q Q L 0 0 Iq
= + Q [In L]
RQ T + RQ L 0 T R
T TR W LT
son inversa generalizada de y , respectivamente.
LT W TR T
34 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)

Demostración. Ejercicio.

Teorema 2.9.6. Sean T m p; U m q, V n p, W n q y Q =


W VT U. Si C (U) C (T) y F (V) F (T), entonces para cualquier
B11 B12 T U
inversa generalizada B = de , la submatriz B22 q
B21 B22 V W
n es una inversa generalizada de Q. Similarmente, para cualquier inversa
C11 C12 W V
generalizada C = de , la submatriz C11 q n es una
C21 C22 U T
inversa generalizada de Q.

Demostración. Ejercicio.

2.10. Sistemas de la forma AXC = B


Teorema 2.10.1. El sistema AXC = B es consistente si y sólo si

AA BC = B,

o equivalentemente, si y sólo si

AA B = B y BC C = B;

en cuyo caso A BC es una solución de AXC = B.

Demostración. Ejercicio.

Corolario 2.10.2. El sistema AXC = B es consistente si y sólo si

C (B) C (A) y F (B) F (C) .

Demostración. Ejercicio.
2.11. EJERCICIOS 35

2.11. Ejercicios
4. Use la fórmula (2.3) y encuentre la inversa generalizada de la matriz
2 3
0 0 0
6 0 4 2 7
6 7
A=6 6 0 2 1 7
7:
4 0 3 3 5
0 8 4
36 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)
Capítulo 3

Matrices Idempotentes

De…nición. Una matriz A n n es idempotente si

A2 = A.

Teorema La matriz In es la única matriz n n idempotente e invertible.

Demostración. Claramente In es idempotente e invertible. Supongamos


ahora que A n n es idempotente e invertible, entonces

A = AIn = A(AA 1 ) = (AA)A 1


= A2 A 1
= AA 1
= In .

Teorema Si A n n es idempotente, entonces Spec(A) f0; 1g :

Demostración. Sea 2Spec(A), entonces existe x n 1 no nulo tal que


Ax = x. Entonces
2
x = Ax = A2 x = A x = Ax = x,
2 2
de donde ( )x = 0, pero x 6= 0 implica = 0. Luego, =0o
= 1:

Teorema La matriz In es la única matriz n n idempotente con espectro


igual a f1g :

37
38 CAPÍTULO 3. MATRICES IDEMPOTENTES

Demostración. Es claro que el único valor propio de In es 1 y que ella es


idempotente. Ahora, sea A 6= In una matriz idempotente tal que Spec(A) =
f1g, y sea fx1 ; :::; xk g una base para EA (1). Si k = n, sea P = [x1 xk ] :
Entonces

AP = A [x1 xk ] = [Ax1 Axk ] = [x1 xk ] = P.

Así, A = PP 1 = In , lo cual es absurdo. Si k < n existe xk+1 n 1 tal que


fx1 ; :::; xk ; xk+1 g es linealmente independiente. Ahora, si Axk+1 = 0 se tiene
que 0 es un valor propio de A, lo cual es absurdo. Y si Axk+1 6= 0 se tiene
que
A(Axk+1 ) = A2 xk+1 = Axk+1 ,
de donde Axk+1 resulta ser un vector propio de A asociado al valor propio
1, por tanto existen escalares c1 ; ::::; ck tales que

Axk+1 = c1 x1 + + cn xn = c1 Ax1 + + cn Axn ;

entonces
A(xk+1 c1 x1 cn xn ) = 0.
Pero, como xk+1 no se deja generar por fx1 ; :::; xk g se tiene que xk+1 c1 x1
cn xn 6= 0, en consecuencia 0 es un valor propio de A, lo cual es absurdo.
Se concluye …nalmente que no existen matrices n n distintas de In que sean
idempotentes y tengan como único valor propio a 1.

Teorema La matriz nula n n es la única matriz n n idempotente con


espectro igual a f0g :

Demostración.

Una cuestión que debemos anotar es que las matrices nulas y las matri-
ces identidad no son las unicas matrices idempotentes, existen muchas. Por
ejemplo, la matriz
2 1 1 3
2 2
0 0
6 1 1 0 0 7
A=6 2 2
4 0 0 1 1 5
7
2 2
0 0 12 12
es idempotente.
39

Teorema Si A n n una matriz idempotente, entonces es diagonalizable.

Demostración. Sea fx1 ; :::; xk g una base para EA (0) y escojamos (si es nece-
sario) vectores xk+1 ; :::; xn tales que fx1 ; :::; xk ; xk+1 ; :::; xn g sea una base para
Cn . Entonces fAxk+1 ; :::; Axn g es un conjunto linealmente independiente de
vectores propios de A asociados al valor propio 1. Luego, por Teorema 3.4.2

fx1 ; :::; xk ; Axk+1 ; :::; Axn g

es un conjunto linealmente independiente, en consecuencia la matriz

P = [x1 xk Axk+1 Axn ] 2 Cn n

es invertible y

AP = 0 0 A2 xk+1 A2 xn = [0 0 Axk+1 Axn ]

= P diag(0; :::; 0; 1; :::; 1) (k ceros y n k unos).

Luego, P 1 AP es diagonal.

Lema 10.1.1. La única matriz idempotente n n de rango n es la matriz


identidad In .

Demostración. Supongamos que A es una matriz n n idempotente y de


rango n. Entonces

A = AIn = A(AA 1 ) = (AA)A 1


= A2 A 1
= AA 1
= In .

Lema 10.1.2. Sea A una matriz n n. Entonces:


i) AT es idempotente si y sólo si A es idempotente.
ii) In A es idempotente si y sólo A es idempotente.

Demostración. i) AT es idempotente si y sólo si (AT )2 = AT , si y sólo si


(A2 )T = AT , si y sólo si A2 = A, si y sólo si A es idempotente.
ii) In A es idempotente si y sólo si (In A)2 = In A, si y sólo si

In 2A + A2 = In A,
40 CAPÍTULO 3. MATRICES IDEMPOTENTES

si y sólo si A2 = A, si y sólo si A es idempotente.

Lema 10.1.3. Si A es una matriz n n idempotente, entonces A es una


inversa generalizada de ella misma.

Demostración. AAA = AA2 = AA = A2 = A.

3.1. Algunos resultados básicos


Teorema 10.2.1: Para alguna matriz cuadrada A tal que A2 = kA, para
algun escalar k,

tr (A) = krank (A)

Corolario 10.2.2: Para alguna matriz idempotente A,

rank (A) = tr (A)

Corolario 10.2.3: Si la traza de una matriz idempotente A es cero,


A = 0.

Lema.10.2.4: Para alguna matriz A idempotente n n,

rank (I A) = tr (I A) = n rank (A) :

Lema.10.2.5: Sea A una matriz m n. Entonces, la matirz A A n ny


la matriz AA m m son idempotentes.

Lema.10.2.6:Sea A una matriz m n. Entonces,

rank I A A = tr I A A =n rank (A) ;


3.1. ALGUNOS RESULTADOS BÁSICOS 41

rank I AA = tr I AA =m rank (A) :

Teorema 10.2.7: Sea A una matriz m n y B una matriz n m. Entonces, B


una inversa generalizada de A si y sólo si BA es idempotente y rank (BA) =
rank (A).similarmente, B una inversa generalizada de A si y sólo si AB es
idempotente y rank (AB) = rank (A).
42 CAPÍTULO 3. MATRICES IDEMPOTENTES
Capítulo 4

Matrices idempotentes

Este capítulo es dedicado a una clase especial de matrices llamadas matrices


idempotentes. Aquí se proporcionan algunas propiedades y resultados básicos
referentes a las matrices idempotentes. Las matrices idempotentes juegan un
papel importante en la teoría de los modelos lineales estadísticos (especial-
mente en lo relacionado con la teoría de los mínimos cuadrados y el análisis
de varianza) y (no es coincidencia) que aparezca frecuentemente en algunos
de los próximos capítulos de este libro (incluyendo capítulos 12 y 17). Re-
alizar matrices idempotentes es el tema de un capítulo separado (aun cuando
da lugar a un capitulo muy corto) es conveniente y sirve para acentuar su
importancia.

4.1. 10.1 De…nición Y Algunas Propiedades


Básicas
Una matriz cuadrada A se dice idempotente si

A2 = A:
Un ejemplo de matrices idempontes n n son, la matriz identidad In , la
matriz nula 0 n n y la matriz (1=n) Jn, donde cada uno de sus elementos
son iguales a 1=n:
Tal como se indica en el siguiente lema, son matrices idempotentes n n ,con
una excepción particular.

43
44 CAPÍTULO 4. MATRICES IDEMPOTENTES

Lema 10.1.1. La única matriz idempotente n n de rango n es la matriz


identidad In :

Demostración. Supongamos que A es una matriz idempotente de rango n.


Entonces,

A = In A = A 1 AA = A 1 A = In .
Si una matriz cuadrada A es idempotente, entonces

(AT )2 = (AA)T = AT
y

(I A)2 = I 2A + A2 = I 2A + A = I A:
Por lo tanto, observando que A = (AT )T y A = I (I A), se obtiene el
siguiente lema.

Lema 10.1.2 Sea A una matriz cuadrada. Entonces, (1) AT es idempotente


si y solo si A es idempotente, y (2) I A es idempotente si y solo si A es
idempotente.

Para alguna matriz idempotente A; tenemos que AAA = (AA)A = AA = A,


dando lugar al siguiente lema.

Lema10.1.3 Si una matriz (cuadrada) A es idempotente, entonces A es una


inversa generalizada de si misma (i.e., de A).

4.2. 10.2 Algunos Resultados Básicos


Supongamos que A es una matriz cuadrada tal que

A2 = kA
para alguna escalar k distinto de cero. O, equivalentemente supongamos que

[(1=k)A]2 = (1=k)A,
4.2. 10.2 ALGUNOS RESULTADOS BÁSICOS 45

esto es, (1=k)A es una matriz idempotente (de modo que, si k = 1 ó k 6= 1, A


es una matriz idempotente o un multiplo escalar de una matriz idempotente).
Entonces, a la luz del siguiente teorema,

rank(A) = (1=k)tr(A),
y por consiguiente el rango de A es determinable por la traza de A.

Teorema 10.2.1 Para alguna matriz A tal que A2 = kA para algún escalar
k,

tr(A) = k rank(A):

Prueba. Solo analizaremos el caso donde A es no nulo.[El caso donde A = 0


es trivial — si A = 0, entonces tr(A) = 0 = k rank(A)].
Sea n el orden de A , y sea r = rank(A). Entonces, de acuerdo con el teorema
4.4.8, existe una matriz B n r y una matriz L r n tal que A = BL:
Por otro lado, rank(B) = rank(L) = r: Así tenemos que

BLBL = A2 = kA = kBL = B(kI)L;


implicando (a la luz del lema 8.3.1) que

LB = kI:
De este modo, haciendo uso del lema 5.2.1, encontramos que

tr(A) = tr(BL) = tr(LB) = tr(kI) = k tr(Ir ) = kr :

En el caso especial donde k = 1, el teorema 10.2.1 puede ser expuesto en


forma modi…cada como se muestra a continuación.

Corolario 10.2.2 Para alguna matriz idempotente A,

rank(A) = tr(A):
Sobre la observación que solo una matriz nula puede tener rango cero, obten-
emos el siguiente corolario adicional (del teorema 10.2.1).
46 CAPÍTULO 4. MATRICES IDEMPOTENTES

Corolario 10.2.3 Si la traza de una matriz idempotente A es igual a 0,


entonces A = 0. Haciendo uso del lema 10.1.2 y corolario 10.2.2, encontramos
que, para alguna matriz idempotente A n n;

rank(I A) = tr(I A) = tr(In ) tr(A) = n rank(A);


de tal modo se establece el siguiente lema.

Lema 10.2.4 Para alguna matriz idempotente A n n;

rank(I A) = tr(I A) = n rank(A):


Para alguna matriz A, A AA A = A A y AA AA = AA : Así, ten-
emos el siguiente lema.

Lema 10.2.5 Sea A una matriz m n. Entonces, la matriz A A n n y la


matriz AA m m son ambas idempotentes.
Observese que este lema, junto con el corolario 9.3.8 y el corolario 10.2.2,
implican que, para alguna matriz A,

rank(A) = rank(A A) = rank(AA ) = tr(A A) = tr(AA ): (4.1)

A la luz del lema 10.2.4 [y del resultado(2.1.1)], una implicación adicional


del lema 10.2.5 seria la siguiente.

Lema 10.2.6 Sea A una matriz m n. Entonces,

rank(I A A) = tr(I A A) = n rank(A); (4.2)

rank(I AA ) = tr(I AA ) = m rank(A): (4.3)


El siguiente teorema amplia los resultados del lema 10.2.5 y el colorario 9.3.8.

Teorema 10.2.7. Sea A una matriz m n y B una matriz n m. Entonces,


B es una inversa generalizada de A si y solo si BA es idempotente y el
rank(BA) = rank(A). Similaremente, B es una inversa generalizada de A si
y solo si AB es idempotente y rank(AB) = rank(A):
4.3. EJERCICIOS 47

Prueba. En función del lema 10.2.5 y corolario 9.3.8, es su…ciente mostrar


que B es una inversa generalizada de A si BA es idempotente y rank(BA) =
rank(A) o si AB es idempotente y rank(AB) = rank(A):
Supongamos que BA es idempotente y rank(BA) = rank(A). Entonces,
según el corolario 4.4.7, R(A) = R(BA), y se sigue del lema 4.2.2 que
A = SBA para alguna matriz S: Así,

ABA = SBABA = SBA = A.


Alternativamente, supongamos que AB es idempotente y que rank(AB) =
rank(A). Entonces, según el colorario 4.4.7, C(A) = C(AB), y por lo tanto
A = ABT para alguna matriz T. Así,

ABA = ABABT = ABT = A :

4.3. Ejercicios
Sección 10.1
1. Muestre que si una matriz A n n es idempotente, entonces
(a)Para alguna matriz no singular B n n, B 1 AB es idempotente.
(b)Para algún número entero k mayor o igual que 2; Ak = A.

2. Sea P una matriz m n (donde m n) tal que PT P = In ; o equivalente-


mente una matriz m n cuyas columnas son ortonormales (con respecto al
producto interno generalmente). Muestre que la matriz simétrica PPT m m
es idempotente.

3. Muestre que, para alguna matriz A simétrica e idempotente, la matriz


I 2A es ortogonal.

4. Sea A una matriz m n: Muestre que si AT A es idempotente, entonces


AAT es idempotente.

5. Sea una matriz A simétrica y k un número entero mayor o igual que 1.


Muestre que si Ak+1 = Ak ; entonces A es idempotente.
48 CAPÍTULO 4. MATRICES IDEMPOTENTES

6. Sea A una matriz n n: Muestre que (1=2) (I + A) es idempotente si y


solo si involutory (donde involutory es como se de…nio en el ejercicio 8.2).

7. Sean A y B matrices simétricas e idempotentes n n. Muestre que si


C (A) = C (B) ; entonces A = B:

8. Sea A una matriz r m y B una matriz m n:


(a) Muestre que B A es una inversa generalizada de AB si y solo si
A ABB es idempotente.
(b) Muestre que si A tiene rango columna completo ó B tiene rango …la
completo, entonces B A es una inversa generalizada de AB.

Sección 10.2
9. Sea T una matriz m p; U una matriz m q; V una matriz n p y W
una matriz n q; y de…namos Q = W VT U: Usando la parte (a) del
ejercicio 9.8, junto con el resultado (2.1.1), muestre que si
(1) I TT U (I Q Q) = 0;
(2) I QQ V (I T T) = 0; y
(3) I TT UQ V (I T T) = 0;
entonces

T U
rank = rank (T) + rank (Q) :
V W

10.Sea T una matriz m p; U una matriz m q; V una matriz n p y W


T U
una matriz n q; tomemos A = y de…nimos Q = W VT U:
V W
Además, iet

ET = I TT ; FT = I T T; X = ET U; Y = VFT ; EY = I YY;

FX = I X X; Z = EY QFX y Q = FX Z EY :

(a) (Meyer 1973, Teorema 3.1) muestre que la matriz


4.3. EJERCICIOS 49

G = G 1 + G2 ; (4.4)
donde
2 3
T T U (I Q Q) X ET
6 FT Y (I QQ ) VT FT Y (I QQ )7
G1 = 6
4 FT Y (I QQ ) QX ET
7
5
(I Q Q) X ET 0
y

T U
G2 = Q VT ; In ;
Iq
es una inversa generalizada de A.

(b) (Meyer 1973, Teorema 4.1) muestre que

rank (A) = rank (T) + rank (X) + rank (Y) + rank (Z) : (4.5)

[Sugerencia. Utilizar la parte (a) junto con el resultado (2.1.1)].


(c) Muestre que si C (U) C (T) y R (V) R (T) ; entonces la formula
(E.2) para el rank (A) se reduce a la formula (9;61) ; y de laformula (9;62)
para una inversa generalizada de A se puede obtener como un caso especial
de la formula (E.1) :
50 CAPÍTULO 4. MATRICES IDEMPOTENTES
Capítulo 5

Formas Lineales, Biliniales y


Cuadráticas

Este capítulo está dedicado a ciertas funciones de un vector (n–dimensional)


que se de…nen en la sección 14.1 y que se conocen como formas lineales, bi-
lineales y cuadráticas. Las formas bilineales que tienen ciertas características
(conocidas, como su simetría y de…nidas positivas), son de interés (por lo
menos en parte) porque cali…can como productos internos para Rn (como se
discute en la sección 14.10). Las formas cuadráticas y bilineales son de gran
importancia en estadística; las sumas de cuadrados en un análisis de varianza
son formas cuadráticas y la suma de productos en un análisis de covarianza
son formas bilineales.

5.1. Preliminares
De…nición. Sea a = [a1 an ]T 2 Rn . Una función
Pn que asigna a cada
T n T
vector x = [x1 xn ] de R el valor a x = i=1 ai xi es llamada una
forma lineal.

Debemos hacer notar que aT x es un polinomio homogéneo de grado uno.


Nótese además que la forma lineal aT x puede ser expresada también como
xT a. a1 ; :::; an son los coe…cientes y a es el vector de coe…cientes de la
forma lineal aT x.

De…nición. Una función lineal es una función f de Rn en R tal que

51
52CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

f (cx1 + x2 ) = cf (x1 ) + f (x2 )


para todas las x1 ; x2 de Rn y toda c de R.

Proposición. Una función f : Rn ! R es una función lineal si y sólo si


es una forma lineal.

Demostración. Ejercicio.

Proposición. Dos formas lineales aT x y bT x son iguales si y sólo si a = b.

Demostración. Ejercicio.

De…nición. Sea A una matriz m n. Una función de Rm Rn en R que


asigna a cada pareja (x; y) 2 Rm Rn el valor xT Ay es llamada una forma
bilineal.

Respecto a la de…nición anterior, nótese que si x = [x1 x2 x m ]T y y =


[y1 y2 yn ]T , entonces
X
m X
n
T
x Ay = aij xi yj .
i=1 j=1

Así, una forma bilineal es una clase especial de polinomio homogéneo de


segundo grado en las m + n variables x1 ; :::; xm ; y1 ; :::; yn , en el cual, para
un x …jo, es homogéneo de primer grado en las variables y1 ; :::; yn y en el
que para un y …jo, es homogéneo de primer grado en las variables x1 ; :::; xm .
Es costumbre referirse a A, como la matriz de la forma bilineal xT Ay.
Nótese además que xT Ay = yT AT x.
RRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR
Una función, f (x; y);de x y y se dice bilineal si, para cada x …jo, esta es una
función lineal de y, y si para cada y …jo, esta es una función lineal de x. Para
cada y …jo, la forma bilineal xT Ay es una forma lineal en x–con un vector
coe…ciente Ay: (Y, para cada x …jo, xT Ay es una forma lineal en y) ya que
(según lo observado anteriormente) una forma lineal es una función lineal, una
forma bilineal es una función bilineal. Inversamente, cualquier función bilineal
es expresable como una forma bilineal par ver esto, sea f (x; y) una función
5.1. PRELIMINARES 53

bilineal arbitraria en x = (x1 ; x2 ; :::; xm )T y = (y1 ; y2 ; :::; yn )T y tomemos A


como una matriz m n con ij ésimo elemento aij = f (ei ; ui ) donde ei es la
i ésima columna de Im , y uj la j ésima columna de In . Entonces

X X
f (x; y) = f ( xi ei ; y) = xi f (ei ; y)
i i
X X
= xi f (ei ; y j ; uj )
i j
X X X
= xi yj f (ei ; uj ) = aij xi yj = xT Ay
i j i;j

Si las matrices A y B las dos de formas bilineales xT Ay y xT By (en x y y)


son iguales entonces claramente las dos formas bilineales son idénticamente
iguales (i.e., para cada x y y). Inversamente, si las dos formas bilineales son
idénticamente iguales entonces A = B como es evidente sobre la observación
que, para x = ei (la i ésima columna de In ) y y = uj (la j ésima columna
de In ) aij = xT Ay = xT By =bij ; (i = 1; :::; m; j = 1; :::; n).
Una formula bilineal xT Ay de los vectores x = (x1 :::xn )T y y = (y1 :::yn )T
(de la misma dimensión) se dice que es simétrica si xT Ay = yT Ax para
toda x y y. Dado que yT Ax = (yT Ax)T = xT Ay, la forma bilineal xT Ay es
simétrica si y solo si xT Ay = xT AT y para toda x y y y en consecuencia si
y solo si A = AT :Por lo tanto, la formula bilineal es simétrica si y solo si la
matriz de la forma bilineal es simétrica.
Finalmente, sea A = aij que representa una matriz arbitraria n n y con-
sideremos la funcion que asigna a cada vector x = (x1 ; :::; xn )T (en Rn ) el
valor
X X X
xT Ax = aij xi xj = aii x2i + aij xi xj :
i;j i i;j6=i

Una función x que se deja expresar de la forma xT Ax es llamada una forma


cuadrática en x. Así, una forma cuadrática es un polinomio homogéneo de
grado dos. Se acostumbra a referirse a A como la matriz de la forma cuadráti-
ca xT Ax. Claramente, la forma cuadrática xT Ax puede ser obtenida de la
forma bilineal xT Ay (en x y y) simplemente estableciendo y = x.
Sea B = fbij g que representa una segunda matriz n n: ¿Bajo que circunstan-
cia estas dos formas cuadráticas xT Ax y xT Bx son identicamente iguales?
Claramente una condición su…ciente para xT Ax = xT Bx es que A = B.
54CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Sin embargo, excepto en el caso especial, donde n = 1; A = B no es una


condición necesaria.
Para …nes de establecer una condición necesaria, suponga que xT Ax =
xT Bx.
Estableiendo x igual ala i–ésima columna de In encontramos que

aii = xT Ax = xT Bx = bii (i = 1; :::; n). (5.1)


Es decir, los elementos de la diagonal de A son iguales a los de B. Considere
ahora la diagonal opuesta de los elementos de A y B: Estableciendo x igual
a la columna n dimencional del vector cuyos i–ésimo y j–ésimo elementos
son iguales a uno y cuyos elementos restantes son iguales a cero, encontramos
que

aii + aij + aij + aij = xT Ax = xT Bx = bii + bij + bij + bij (j 6= i = 1; :::; n):
(5.2)
Simultáneamente, los resultados (1.1) y (1.2) implican que

aii = bij ; aij + aji = bij + bji (j 6= i = 1; :::; n)


o equivalentemente que:

A + AT = B + BT (5.3)
Así, la condición (1.3) es una condición necesaria para que xT Ax y xT Bx sean
idénticamente iguales. También es una condición su…ciente. Para comprender
esto, observe que (dado que una matriz 1 1 es simétrica) la condición (1.3)
implica que

xT Ax = (1=2)[xT Ax + (xT Ax)T ] = (1=2)(xT Ax + xT AT x)


= (1=2)xT + (A + AT )x
= (1=2)xT + (B + BT )x
= (1=2)[xT Bx + (xT Bx)T ] = xT Bx

En resumen, tenemos el siguiente lema.

Lema 14.1.1. Sean A = faij g y B = fbij g que representan matrices arbi-


trarias n n
5.2. FORMAS CUADRÁTICAS Y MATRICES NO NEGATIVAS 55

Las dos formas cuadráticas xT Ax y xT Bx (en x) son idénticamente iguales si


y solo si, para j 6= i = 1; :::; n aii = bii y aij +aji = bij +bji o, equivalentemente,
si y solo si A + AT = B + BT :
Note que el lema 14.1.1 implica en particular que xT AT x = xT Ax para toda
x.
Cuando B es simétrica, la condición A + AT = B + BT es equivalente a la
condición B = (1=2)(A + AT ), y, cuando ambas A y B son simétricas, la
condición A + AT = B + BT es equivalente a la condición A = B. De este
modo, tenemos los dos siguientes corolarios del lema 14.1.1

Corolario 14.1.2. Correspondiente a alguna forma cuadrática xT Ax, hay


una matriz simétrica B tal que xT Bx = xT Ax para toda x, es decir, la
matriz B = (1=2)(A + AT ):

Corolario 14.1.3. Para algún par de matrices simétricas A n n y B n n


, las dos formas cuadráticas xT Ax = xT Bx en x son idénticamente iguales
(i.e, xT Ax = xT Bx para toda x) si y solo si A = B.
Como un caso especial del corolario 14.1.3 (cuando B = 0), tenemos el sigu-
iente corolario adicional.

Corolario 14.1.4. Sea A n n una matriz simétrica. Si xT Ax = 0 para


todo vector x (n 1), entonces A = 0.

5.2. Formas cuadráticas y matrices no nega-


tivas
5.2.1. De…niciones
Sea xT Ax que representa una forma cuadrática arbitraria (en un vector x =
(x1 :::xn )T n dimensional). La forma cuadrática xT Ax se dice que es de…nida
no negativa si xT Ax 0 para todo x en Rn :
Note que xT Ax = 0 para al menos un valor de x, es decir, x = 0. Si xT Ax
es de…nida no negativa y si, además el vector no nulo 0 es el único valor de
x para el cual xT Ax = 0, entonces xT Ax se dice que esta de…nida positiva.
Es decir xT Ax es de…nida positiva si xT Ax > 0 para toda x excepto en
x = 0. Una forma cuadrática que es de…nida no negativa, pero no de…nida
56CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

positiva, es llamada semide…nida positiva. Así, xT Ax es semide…nida positiva


si xT Ax 0 para toda x 2 Rn y xT Ax = 0 para algún x no nulo.
Considere, por ejemplo, las dos formas cuadraticas xT Ix = x21 + x22 +; :::; x2n
y xT Jx = xT 11T x = (1T x)T 1xT = (x1 + x2 +; :::; xn )2 : Claramente, xT Ix
y xT Jx son ambas de…nida no negativa. Además, xT Ix > 0 para toda x no
nula, mientras (asumiendo que n 2) xT Jx = 0 para el vector no nulo
x = (1 n; 1; 1; :::; 1)T : Por lo tanto, xT Ix es de…nida positiva, y xT Jx es
semide…nida positiva
La forma cuadrática xT Ax se dice que es de…nida no positiva, de…nida nega-
tiva o semide…nida negativa si xT Ax es de…nida no negativa, de…nida pos-
itiva o semide…nida positiva, respectivamente. Por lo tanto xT Ax es de…nida
no positiva si xT Ax 0 para toda x en Rn ; es de…nida negativa si xT Ax < 0
para todo x no nulo en Rn ; y es semide…nida negativa si xT Ax 0 para toda
x en Rn y xT Ax = 0 para algún x no nulo.
Una forma cuadrática que no es de…nida no negativa ni de…nida no positiva
se dice que es inde…nida. Así, xT Ax es inde…nida si xT Ax < 0 para algún
x y xT Ax > 0 para algún (otro) x:
Los términos de…nida no negativa, de…nida positiva, semide…nida positiva,
de…nida no positiva, de…nida negativa, semide…nida negativa e inde…nida son
aplicadas a matrices como también a formas cuadráticas. Una matriz An n
se dice que es de…nida no negativa, de…nida positiva, o semide…nida positiva
si la forma cuadrática xT Ax (en x) es de…nida no negativa, de…nida posi-
tiva, semide…nida positiva respectivamente. Similarmente A se dice de…nida
no positiva, de…nida negativa, o semide…nida negativa si la forma cuadrática
xT Ax se dice de…nida no positiva, de…nida negativa, semide…nida negativa
o equivalentemente si A es de…nida no negativa, de…nida positiva, o semi-
de…nida positiva. Además A se dice que es inde…nida si la forma ciuadrática
xT Ax es inde…nida o equivalentemente si A ni es de…nida no negativa ni es
de…nida no positiva
(Simétrica) las matrices de…nidas no negativa son encontradas con consider-
able frecuencia en modelos lineales estadísticos y en otras áreas de la estadís-
tica. En particular, la matriz varianza— covarianza de algún vector aleatorio
es inherentemente de…nida no negativa (y simétrica).
Nuestro uso de los términos no negativa, de…nida positiva, semide…nida posi-
tiva, de…nida no positiva, de…nida negativa, semide…nida negativa e inde…ni-
da di…ere ligeramente de la que se empleó en otras presentaciones. En partic-
ular, aplicamos estos términos a ambas matrices simétricas y no simétricas,
mientras que en muchos otros casos su aplicación se limita a las matrices
5.2. FORMAS CUADRÁTICAS Y MATRICES NO NEGATIVAS 57

simétricas. Además, su uso de los términos semide…nida positiva, semide…ni-


da negativa no es completamente normal. En algunas presentaciones, estos
términos son usados de la misma manera que de…nida no negativa y de…nida
no positiva usados aquí.
Este es un instructivo, a considerar el siguiente lema, el cual caracteriza los
conceptos precisos de de…nida no negativa, de…nida positiva y semide…nida
positiva aplicado a matrices diagonales y el cual es fácil de veri…car

Lema 14.2.1 Si D = fdi g n n representa una matriz diagonal. Entonces,


(1) D es de…nida no negativa si y solo si d1 ; :::; dn son no negativos; (2) D es
de…nida positiva si y solo si d1 ; :::; dn son positivos ; y (3) D es semide…nida
positiva si y solo si di 0; para i = 1; :::; n con la igualdad contenida para
uno o mas valores de i: Suponga que una matriz simétrica A n n es a la vez
de…nida negativa y de…nida no positiva. Entonces, para cada vector x n 1;
xT Ax 0 y xT Ax 0 (ó equivalentemente xT Ax 0): Concluimos que
xT Ax = 0 para cada x y de aquí (de acuerdo con el corolario 14.14) A = 0:
Así tenemos el siguiente lema

Lema 14.2.2. La única matriz n n simétrica que es tanto de…nida no


negativa como de…nida no positiva es la matriz nula n n:

5.2.2. Algunas propiedades básicas de matrices de…nidas


no negativas
Ahora, consideremos algunas de las propiedades más elementales de las matri-
ces de…nida no negativa. No consideraremos, explícitamente las propiedades
de las matrices de…nida no positiva. Sin embargo, como A es de…nida pos-
itiva, de…nida negativa, o semide…nida negativa si y solo si A es de…nida
no negativa, de…nida positiva ó semide…nida positiva respectivamente, las
propiedades de las matrices no positivas de…nidas podrían deducirse fácil-
mente de las matrices de…nidas no negativas.
Los siguientes dos lemas dan algunos resultados básicos sobre multiplicación
y sumas de matrices de…nida no negativa

Lema 14.2.3 Sea k > 0 que representa un escalar (positivo) y An n una


matriz. Si A es de…nida positiva, entonces kA también es de…nida positiva;
Si A es semide…nida positiva, entonces kA también es semide…nida positiva
58CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Prueba Considere las formas cuadráticas xT Ax y xT (kA) x (en x). Clara-


mente, xT (kA) x = kxT Ax. Por tanto, si xT Ax es de…nida positiva, entonces
xT (kA) x es de…nida positiva; similarmente, si xT Ax es semide…nida posi-
tiva, entonces xT (kA) x es semide…nida positiva. O equivalentemente si A
es de…nida positiva, entonces kA es de…nida positiva; y si A es semide…nida
positiva, entonces kA es semide…nida positiva.

Lema 14.2.4 Sean An n y Bn n matrices. Si A y B son ambas de…nida


no negativa, entonces A + B es de…nida no negativa. Además, si A ó B
es de…nida positiva y la otra es de…nida no negativa (i.e de…nida positiva ó
semide…nida positiva), entonces A + B es de…nida positiva.

Prueba Suponga que una de las dos matrices, digamos A, es de…nida positiva
y que la otra (B) es de…nida no negativa. Entonces, para todo vector nu nulo
x en Rn ; xT Ax > 0 y xT Bx 0 y en consecuencia

xT (A + B) x = xT Ax + xT Bx > 0

Por tanto, A + B es de…nida positiva.


Un argumento similar muestra que si A y B son ambas de…nidas no negativa,
entonces A + B es de…nida no negativa.
La primera implicación del lema 14.2.4 se repite en la siguiente generalización.

Corolario 14.2.5. Sea A1 ; :::; Ak matrices n n: Si A1 ; :::; Ak son todas


de…nidas no negativa, entonces su suma A1 +; :::; +Ak es también de…nida
no negativa.
Además, si una o mas de las matrices A1 ; :::; Ak es de…nida positiva y las
otras son de…nidas no negativa,entonces A1 +; :::; +Ak es de…nida positiva.
Como una consecuencia inmediata del lema 14.1.1, tenemos el siguiente lema
y corolario.

Lema 14.2.6 Sea A una matriz n n y tomemos B alguna matriz n n


tal que B + BT = A + AT : Entonces A es de…nida positiva si y solo si B
es de…nida positiva; es semide…nida positiva si y solo si B es semide…nida
positiva, y es de…nida no negativa si y solo si B es de…nida no negativa.
5.2. FORMAS CUADRÁTICAS Y MATRICES NO NEGATIVAS 59

Corolario 14.2.7. Una matriz A n n es de…nida positiva si y solo si


AT es de…nida positiva y si y solo si (1=2) A + AT es de…nida positiva;
es semide…nida positiva si y solo si AT es semide…nida positiva y si y solo
si (1=2) A + AT es semide…nida positiva; y es de…nida no negativa si y solo
si AT es de…nida no negativa y si y solo si (1=2) A + AT es de…nida no
negativa.

Si A es una matriz simétrica entonces A = AT y (1=2) A + AT = A:


Así, solo en el caso de una matriz no simétrica de…nida positiva, semide…nia
positiva o de…nida no negativa el corolario 14.2.7 es signi…cativo.

Una propiedad básica de las matrices de…nidas positivas es descrita en el


siguiente lema.

Lema 14.2.8. Cualquier matriz de…nida positiva es no singular.

Prueba. Sea A n n una matriz de…nida positiva. Con el propósito de es-


tablecer una contradicción, supóngase que A es singular ó, equivalentemente,
que rank (A) < n: Entonces, las columnas de A son linealmente dependi-
entes, y en consecuencia de esto existe un vector no nulo x tal que Ax = 0:
encontramos que.

xT Ax = xT (Ax ) = xT 0 = 0;

con el cual (desde que A sea de…nida positiva ) establecemos la contradicción


deseada.

El lema 14.2.8 implica que las matrices de…nida no negativa singulares, son
semide…nida positiva. Sin embargo lo contrario no es necesaria mente verdad.
Es decir, que existen matrices semide…nidas positivas no singulares como
también matrices semide…nidas positiva no singulares.
Unas propiedades básicas adicionales de las matrices de…nidas no negativa
son descritas en el siguiente teorema y corolarios.

Teorema 14.2.9. Sea A una matriz n n y P una matriz n m: (1) Si


A es de…nida no negativa, entonces PT AP es de…nida no negativa. (2) Si
A es de…nida no negativa, y el rk (P) < m; entonces PT AP es semide…nida
60CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

positiva. (3) Si A es de…nida positiva, y el rk (P) = m; entonces PT AP es


de…nida positiva

Prueba. Suponga que A es de…nida no negativa (cualquiera de las dos de…ni-


da positiva o semide…nida positiva). Entonces, yT Ay 0 para toda y en Rn
y en particular para toda y que es expresable de la forma Px. Así, para cada
vector x m dimensional,

xT PT AP x = (xP)T APx 0; (5.4)


el cual establece que PT AP es de…nida no negativa, con lo cual se completa
la prueba de la parte (1) :
Si el rk (P) < m; entonces

rk PT AP rk (P) < m;
el cual (de acuerdo con el lema 14.2.8) establece que PT AP no es de…nida
positiva y por tanto (desde que PT AP es de…nida no negativa) que PT AP
es semide…nida positiva, por lo tanto se completa la prueba de la parte (2).

Si A es de…nida positiva, entonces la igualdad es obtenida en la desigualdad


(2.1) solo cuando Px = 0: Además, si el rk (P) = m; entonces (de acuerdo
con el lema 11.3.1) Px = 0 implica que x = 0: Así, si A es de…nida positiva
y el rk (P) = m; entonces la igualdad es obtenida en la desigualdad (2;1) solo
cuando x = 0; implicando (dado que PT AP es de…nida no negativa) que
PT AP es de…nida positiva

Corolario 14.2.10 Sea A una matriz n n y P una matriz n n no


singular: (1) Si A es de…nida positiva, entonces PT AP es de…nida positiva:
(2) Si A es semide…nida positiva, PT AP es semide…nida positiva

Prueba. (1) Que PT AP sea de…nida positiva si A es de…nida positiva es


una consecuencia directa de la parte (3) del teorema 14.2.9.
(2) Supóngase que A es semide…nida positiva. Entonces, de acuerdo con la
parte (1) del teorema 14.2.9, PT AP es de…nida no negativa. Además, ya que
existe un vector no nulo y tal que yT Ay = 0: Sea x = P 1 y: Entonces,
y = Px; y encontramos que x 6= 0 (de otro modo tendríamos que y = 0) y
que
5.2. FORMAS CUADRÁTICAS Y MATRICES NO NEGATIVAS 61

xT PT AP x = (xP)T APx = yT Ay = 0:
Concluimos que PT AP es semide…nida positiva.

Corolario 14.2.11. (1) Una matriz de…nida positiva es invertible, y su inver-


sa es de…nida positiva. (2) Si una matriz semide…nida positiva es no singular,
entonces esta es invertible y su inversa es semide…nida positiva.

Prueba. (1) Sea A una matriz de…nida positiva. Entonces, de acuerdo con
el lema 14.2.8, A es no singular y por lo tanto (acorde al teorema 8.14)
T T
invertible. Como (A 1 ) = (A 1 ) AA 1 ; se sigue de la parte (1) del coro-
T
lario 14.2.10 (simultáneamente con el resultado (2;5)) que (A 1 ) es de…nida
positiva y por lo tanto (a la luz del corolario 14.2.7) A 1 es de…nida posotiva
(2) Utilizando un razonamiento similar, podemos mostrar que la parte (2)
del colorario 14.2.11 desprende de la parte (2) del corolario 14.2.10.

Corolario 14.2.12. Cualquier submatriz principal de una matriz de…nida


positiva es de…nida positiva; cualquier submatriz principal de una matriz
semide…nida positiva es de…nida no negativa.

Prueba. Sea A una matriz n n; y considere la submatriz principal de A


obtenida por extender todas sus …las y columnas excepto su i1 ; i2 ; :::; im …las
y columnas (donde i1 < i2 ; ::: < im ) Esta submatriz se expresa como PT AP,
donde P es la n m matriz cuyas columnas son i1 ; i2 ; :::; im columnas de
In : Como el rk (P) = m; sigase la parte (3) del teorema 14.2.9 que PT AP
es de…nida positiva si A es de…nida positiva. Además, sigase la parte (1)
del teorema 14.2.9 que PT AP es es de…nida no negativa si A es de…nida no
negativa (y en particular si A es semide…nida positiva).

Corolario 14.2.13 Los elementos de la diagonal de una matriz de…nida


positiva son positivos; los elementos de la diagonal de una matriz semide…nida
positiva son no negativos.

Prueba. Este corolario se sigue inmediatamente del corolario 14.2.12 obser-


vando. (1) que el i— ésimo de la diagonal de la matriz A (cuadráda) es
el elemento de una submatriz principal 1 1 (que se obtiene por extender
todas las …las y columnas de A excepto la i ésima …la y columna y (2) que
62CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

el elemento de una matriz de…nida positiva 1 1 es positivo y el elemento


de una matriz de…nida no negativa 1 1 es no negativo.

Corolario 14.2.14 Sea P una matriz n m arbitraria .la matriz PT P es


de…nida no negativa.si el rk (P) = m; PT P es de…nida positiva [si rk (P) <
m]; PT P es semide…nida positiva.

Prueba. Este corolario se sigue del teorema 14.2.9 observando que PT P =


PT IP y que (como se demostró en la en la subsección a) I es de…nida positiva.

Corolario 14.2.15 Sea P una matriz n n no singular y D = fdj g n n


una matriz diagonal. Entonces (1) PT DP es de…nida no negativa si y solo si
d1 ; ::; dn son no negativos; (2) PT DP es de…nida positiva si y solo si d1 ; ::; dn
son positivos; y (3) PT DP es semide…nida positiva si y solo si di 0 para
i = 1; :::; n contenida en la igualdad para uno o mas valores de i:

Prueba. Sea PT DP: Entonces claramente D = (P 1 ) AP 1 : Así sígase de


la parte (1) del teorema 14.2.9 que A es de…nida no negativa si y solo si D
es de…nida no negativa; y sígase de las partes (1) y (2) del colorario 14.2.10
que A es de…nida positiva si y solo si D es de…nida positiva y que A es
semide…nida positiva si y solo si D es semide…nida positiva. Según el lema
14.2.1, la prueba esta completa.

Corolario 14.2.16 Sea An n una matriz simétrica y D = fdj g n n


una matriz diagonal. tal que PT DP = D para alguna matriz no singular P.
Entonces (1) A es de…nida no negativa si y solo si d1 ; ::; dn son no negativos;
(2) A es de…nida positiva si y solo si d1 ; ::; dn son positivos; y (3) A es
semide…nida positiva si y solo si di 0 para i = 1; :::; n contenida en la
igualdad para uno o mas valores de i:

Prueba. El corolario 14.2.16 se sigue del corolario 14.2.15, observando que


A = (P 1 ) DP 1 :
Note que los corolarios 14.2.15 y 14.2.16 se pueden mirar como generalización
del lema 14.2.1.
5.3. DESCOMPOSICIÓN DE MATRICES SIMÉTRICA 63

5.2.3. Matrices de…nidas no negativas simétricas e idem-


potentes
Suponga que A es una matriz simétrica idempotente. Entonces, A = AA =
AT A, y sígase del corolario 14.2.14 que A es de…nida no negativa. Así, ten-
emos el siguiente lema.

Lema 14.2.17. Toda matriz simétrica idempotente es de…nida no negativa.


Note (según los lemas 14.2.8 y 10.1.1) que la matriz identidad In es la única
matriz idempotente n n (simétrica ó de otro modo) que es de…nida positiva.

5.3. Descomposición de matrices simétrica


De acuerdo al Corolario 14.2.14, toda matriz A que se expresa de la forma
A = PT P es una matriz de…nida no negativa (simétrica). ¿Lo contrario
es cierto? Es decir, ¿toda matriz A de…nida no negativa simétrica se deja
expresar de la forma A = PT P?
En la subsección b, se estableció que la respuesta a esta pregunta es cierta.
Como un preliminar, la consideración dada esta estrechamente relacionada
con la pregunta, la cual es de algún interés en su propio derecho. Es A una
matriz simétrica que se expresa en la forma A = PT DP, donde P es una
matriz no singular y D una matriz diagonal? En la subsección a, se estableció
que la respuesta a esta pregunta es también cierta
Para seguir esto, es conveniente tener a nuestra disposición el siguiente lema

5.3.1. Descomposición de matrices simétricas


R
Lema 14.3.1 Sean A; D; P y Q matrices n n con P y Q invertibles,
tales que A = PDQ. Entonces rk (A) es igual al número de elementos no
cero sobre la diagonal principal de D.

Demostración. Haciendo uso del Teorema 1.2.5 y del Corolario 1.2.6, en-
contramos que

rk(A) = rk(PDQ) = rk(DQ) = rk(D).


Pero, rk(D) es igual al número de elementos no cero que estan en la diagonal
de D.
64CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

De…nición. Una matriz L n n es triangular inferior unitaria, si ella


es triangular inferior con Lii = 1 para toda i = 1; :::; n.

Lema 14.3.2 Sea A una matriz simétrica n n (con n 2) tal que A11 = 0
y Ak1 6= 0 para k 2 f1; :::; ng, y . De…namos B = LT AL; donde L n n
1 0
es una matriz triangular inferior unitaria L = . Particionemos A
` In 1
como
a aT
A = 11 :
a A22
Supóngase que a11 = 0 pero que a 6= 0 o, equivalentemente que a1j 6= 0
para algún j > 1, digamos j = k. Entonces, el vector ` (n 1) dimensional
puede escogerse tal que b11 6= 0; esto puede hacerse tomando el elemento
(k 1)–ésimo de ` siendo algún escalar c no cero tal que cakk 6= 2a1k y
tomando otro elemento n 2 de `, siendo cero.

Demostración. Como a1k 6= 0 en esto existe (sea o no akk = 0) un escalar


c, no cero tal que cakk 6= 2a1k . Tomando el (k 1) ésimo elemento de `
siendo algún escalar c no cero y los elemetos que sobran de `, que son cero,
encontramos que

b11 = a11 + eT a + aT e + eT A22 `


= 0 + cak1 + ca1k + c2 akk
= c(cakk + 2a1k ) 6= 0

Lema14.3.3 Sea A = faij g una matriz n n (donde n 2):De…namos


B = fbij g = UT AL; donde U n n es una unidad de la matriz triangular
1 uT
superior de la forma U = : Particionemos A y B como
0 In 1
b11 bT a11 aT
B= yA= :Supóngase que a11 6= 0. Entonces,
b B22 a A22
el vector u (n 1)-dimensional puede escogerse tal que b = 0; esto puede
hacerse tomando u = a111 a
5.3. DESCOMPOSICIÓN DE MATRICES SIMÉTRICA 65

Prueba Encontramos que.

1
b = (u; I)A = a11 u + a;
0

El cual para u = a111 a donde b = a a = 0


Ahora estamos en posición de establecer el siguiente teorema.

Teorema 14.3.4 Sea A que corresponde a alguna matriz simétrica n n,


así existe una matriz no singular Q tal que QT AQ es una matriz diagonal.

Prueba. La prueba es por inducción matemática. El teorema es claramente


valido para matrices 1 1. Supongamos ahora que esto es verdad para alguna
matriz (n 1) (n 1), y considere una matriz A = faij g n n simétrica
arbitraria. Con el propósito de establecer la existencia de una matriz
no singular Q talque QT AQ sea diagonal, es conveniente partir A como
a aT
A = 11 y procedemos por casos
a A22

Caso (1): a = 0. La submatriz A22 es una matriz simétrica (n 1) (n 1)


por tanto, por supocisión, se tiene que existe una matriz no singular Q tal
que QT A22 Q es una matriz diagonal. Tome Q = (1; Q ).Entonces Q es no
singular y QT AQ = diag(a11 ; QT A22 Q ) lo cual (igual que QT A22 Q ) es
una matriz diagonal
Caso (2):a 6= 0 y a11 6= 0. De acuerdo con el lema 14.3.3, se tiene que
existe una unidad de la matriz triangular superior U tal que UT AU =
diag(b11 ; B22 )
para algún escalar b11 y alguna matriz B22 (n 1) (n 1) Además, por
suposición existe una matriz no singular Q tal que QT B22 Q es una matriz
diagonal.
Tome Q = Udiag (1; Q ) Entonces Q; es no singular (como Q es el producto
de 2— matrices no singulares) y

QT AQ = diag 1; QT diag (b11 ; B22 ) diag (1; Q ) = diag b11 ; QT B22 Q

Lo cual (igual que QT B22 Q ) es una matriz diagonal


66CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Caso(3): a 6= 0 pero a11 = 0:Sea B = fbij g = LT AL;donde L es una unidad


de la matriz triangular inferior, escogemos que b11 6= 0 la existencia de que
esta opción es garantizada por el lema 14.3.2. Entonces de acuerdo con el
lema 14.3.3, existe una unidad de la matriz triangular superior U tal que
UT BU = diag (c11 ; C22 ) para algún escalar c11 , y alguna matriz.C22 (n 1)
(n 1). Además por suposición, se tiene que existe una matriz no singular
Q tal que QT C22 Q es una matriz diagonal. Tome Q = LUdiag(1; Q ).
Entonces, Q es no singular (como Q es el producto de tres matrices no
singulares), y

QT AQ = diag(1; Q )UT BUdiag(1; Q )


= diag(1; Q )diag (c11 ; C22 ) diag(1; Q ) = diag(c11 ; QT C22 Q )

La cual igual que QT C22 Q es una matriz diagonal


Note que si Q es una matriz no singular tal que QT AD = D para alguna
matriz diagonal D, entonces

1 T 1 1 T 1
A= Q QT AQQ = Q DQ

Por tanto tenemos el siguiente corolario del teorema 14.3.4

Corolario14.3.5 Es el primer resultado siguinete de las formas cuadráticas

Corolario14.3.6 Sea A una matriz n n, entonces existe una matriz no


singular P y n escalares d1 ; :::; dn tal que la forma cuadrática xT Ax
Xn(en un
vector x; n–dimensional) se expresa como una combinación lineal di yi2
i=1
de los cuadrados de los elementos y1 ; :::; yn del vector transformado y = Px

Prueba. De acuerdo al corolario 14.1.2 hay una única matriz simétrica B,


talque xT Ax = xT Bx para todo x además, la matriz. B = (1=2) A + AT Y
de acuerdo al corolario 14.3.5, existe una matriz no singular P y una matriz
diagonal D; tal que B = PT DP. Así, siendo d1 ; :::; dn los elementos que
representan la diagonal D y y1 ; :::; yn los elementos del vector y = Px,
tenemos que
5.3. DESCOMPOSICIÓN DE MATRICES SIMÉTRICA 67

X
xT Ax = xT PT DPx = (Px)T DPx = di yi2
i

5.3.2. Descomposición de matrices simétricas de…nida


no negativa
Ahora especi…caremos para las matrices simétricas de…nidas no negativas,
comenzando con el siguiente teorema

Teorema 14.3.7 Una matriz A n n es una matriz simétrica de…nida no


negativa de rango r > 0 si y solo si existe una matriz P de rango r tal que
A = PT P

Prueba. Supongamos que A es una matriz simétrica de…nida no negativa


de rango r.
Entonces, de acuerdo al corolario 14.3.5 existe una matriz no singular T y
una matriz diagonal D tal que A = TDT.
Sea d1 ; :::; dn que representan los primeros,. . . , n esimos elementos de la
diagonal de D y tT1 ; :::; tTn las primeras,. . . , n esimas …las de T. Se sigue del
lema 14.3.1 que r elementos de la diagonal de D es decir k1 ; :::; kr elementos
de la diagonal son distintos de cero (y por lo tanto, a la luz del corolario
14.2.15,son
p positivos). Ahora, se toma P la matriz r n cuya i ésima …la
T
es dki tki entonces

X
n X
r X
r
p p
A= dk tTk tk = dki tTki tki = dki tki dki tTki = PT P;
i=1 i=1 i=1

y rank(P) = rk PT P = rk (A) = r:
Recíprocamente si existe una matriz P r n de rango r tal que A = PT P;
entonces

rk (A) = rk PT P = rk (P) = r;
A es simétrica y (de acuerdo al corolario 14.2.14) A es de…nida no negativa.
68CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

A la luz del corolario 14.2.14 (y sobreobservando que 0 = 00 0) ;tenemos el


siguiente corolario del teorema 14.3.7.

Corolario14.3.8 Una matriz A n n es una matriz simétrica de…nida


no negativa si y solo si existe una matriz P (teniendo n columnas) tal que
A = PT P.
Como un corolario adicional del teorema 14.3.7 tenemos el siguiente resultado
de formas cuadráticas.

Corolario14.3.9 Si A representa una matriz n n (no nula) ; y sea r =


rk (A + A0 ) : Entonces, la forma cuadrática xT Ax
(en un vector x n–dimensional) es de…nida no negativa si y solo si para
alguna matriz Pr n de rango r, xT Ax = (Px)T Px para todo x (es
decir; xT Ax es expresable como la suma de los cuadrados de los elementos
del vector Px)

Prueba. De acuerdo al corolario 14.1.2 existe una única matriz B tal que
xT Ax = xT Bx para toda x, a saber, la matriz B = (1=2) A + AT :suponga
que la forma cuadrática xT Ax, ó equivalentemente la forma cuadrática
xT Bx, es de…nida no negativa, caso en el cual B es una matriz de…nida no
negativa. Entonces, se sigue del teorema 14.3.7 que existe una matriz Pr n
de rango r tal que B = PT P y por lo tanto tal que xT Bx = (Px)T Px
para todo x ó, equivalentemente, tal que xT Ax = (Px)T Px para todo
x:Recíprocamente, suponga que, para alguna matriz Pr n de rango r,
xT Ax = (Px)T Px para todo x, ó, equivalentemente, xT Ax = xT PT Px
para todo x: Dado que (de acuerdo al teorema 14.3.7 o, alternativamente,
de acuerdo 14.2.14) PT P es una matriz de…nida no negativa, xT PT Px o,
equivalentemente xT Ax; es una forma cuadrática de…nida no negativa.

Implicaciones adicionales del teorema 14.3.7 están dadas en el corolario 14.3.10


a 14.3.12

Corolario14.3.10 Si A representa una matriz n n, sea r = rk (A) ; y


tomemos m un entero positivo mayor o igual a r. Si A es simétrica y de…nida
no negativa, entonces existe una matriz Pm n tal que A = PT P

Prueba. Supongase que r > 0 (cuando r = 0; A = 0T 0): De acuerdo al


5.3. DESCOMPOSICIÓN DE MATRICES SIMÉTRICA 69

P1
teorema 14.3.7 existe una matriz P1 tal que A = PT1 P1 .Tomando P = :
0
Entonces claramente A = PT P

Corolario14.3.11 Para alguna matriz Xn m y alguna matriz simétrica


An n de…nida no negativa, AX = 0 si y solo si XT AX = 0:

Prueba. De acuerdo al corolario 14.3.8, existe una matriz P tal que A =


PT P y por lo tanto tal que XT AX = (PX)T PX. Así que, si XT AX = 0,
entonces (a luz del corolario 5.3.2) PX = 0; implica que AX = PT (PX) = 0:
Que XT AX = 0 si AX = 0 es obvio

Corolario14.3.12 Una matriz simétrica de…nida no negativa es de…ninida


positiva si y solo si esta es no singular (o, equivalentemente. es semide…nida
positiva si y solo si esta es singular).

Prueba Sea A una matriz n n simétrica de…nida no negativa.Si A es


de…nida positiva, entonces tenemos, como una consecuencia inmediata del
lema 14.2.8 que A es no singular.
Supóngase que la matriz simétrica A de…nida no negativa es no singular,
y considere la forma cuadrática xT Ax (en x). Si xT Ax = 0; entonces de
acuerdo con el corolario 14.3.11, Ax = 0, y consecuentemente x = A 1 Ax =
0: Así que, la forma cuadrática xT Ax es de…nida positiva y por lo tanto la
matriz A es de…nida positiva
Como caso un especial del teorema 14.3.7 (donde r = n); tenemos (a la luz
del corolario 14.3.12) el siguiente corolario.

Corolario14.3.13 Una matriz A n n es una matriz simétrica de…nida


positiva si y solo si existe una matriz no singular P tal que A = PT P:
El Corolario14.3.13 es una variante del teorema 14.3.7 que especi…ca las
matrices simétricas de…nidas positivas. Similarmente, el siguiente corolario
es una variante del colorario 14.3.9 que especi…ca las formas cuadráticas
de…nidas positivas.

Corolario14.3.14 Una forma cuadratica xT Ax


(en un vector x n–dimensional) es de…nido positivo si y solo si, para alguna
matriz Pn n no singular, xT Ax = (Px)T Px para todo x (esto es, xT Ax
es expresable como la suma de cuadrados de los elemntos del vector Px)
70CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Prueba. Si xT Ax es de…nida positiva, entonces (de acuerdo al corolario


14.2.7) (1=2) A + AT es de…nida positiva y por lo tanto (a la luz del lema
14.2.8 ) es de rango n, así que se sigue del corolario 14.3.9 que, para alguna
matriz Pn n no singular, xT Ax = (Px)T Px para toda x. Recíprocamente,
si para alguna matriz Pn n no singular , xT Ax = (Px)T Px para toda x,
entonces dado que (de acuerdo al corolario 14.2.14 o, corolario 14.3.13) PT P
es de…nida positiva, x0 Ax (que equivale a xT PT Px) es de…nida positiva.

5.4. I.G de matrices simétricas de…nidas no


negativas
Una matriz simétrica de…nida positiva es invertible, y esta inversa es de…nida
positiva y simétrica [corolario14.2.11y resultado (8.2.4)] :Una matriz simétri-
ca semide…nida positiva es no invertible (corolario 14.3.12).¿cual es la nat-
uraleza de una inversa generalizada de una matriz simétrica semide…nida
positiva?.En particular ,¿son algunas o todas las inversas generalizadas de
una matriz simétrica semide…nida positiva de…nidas no negativa?
Sea A una matriz n n de rango r y suponga que.

A = PDQ; (5.5)

donde P y Q son matrices n n no singulares y D = fdi g es una matriz n n


diagonal. De acuerdo con el lema 14.3.1, r de los elementos de la diagonal de
D, digamos i1 ; :::; ir esimo elementos de la diagonal, son no cero y los otros
n r elementos de la diagonal de D son iguales a cero. Sea
S = fi1 ; :::; ir g y denotamos por S el conjunto cuyos elementos consisten de
esos n r de los primeros n enteros positivos 1; :::; n no contenidos en S
Sea D que representa una matriz n n de la forma general

D = diag (d1 ; :::; dn ) ;

donde, para i 2 S, di = 1=di y para i 2 S, di es un escalar arbitrario. Note


que D es una inversa generalizada de D.
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 71

De…namos G = Q 1 D P 1 , y G = Q 1 D P 1 : De acuerdo con el lema


9.2.4 G es una inversa generalizada de A. En particular, G es una inversa
generalizada de A.
Supongase ahora que A es simétrica y que la descomposición (4;1) es tal que
P = QT ; así que la descomposición (4;1) es de la forma

A = QT DQ: (5.6)
Entonces, a la luz del resultado (8;2;3),

1 T
G = Q 1D Q : (5.7)
Por lo tanto, G es una inversa generalizada simétrica de A. Además, si
di se toma distinto de cero pra cada i en S; entonces G es una inversa
generalizada (simétrica) no singular de A:
Luego, supongase que A es de…nida no negativa, como también simètri-
ca — y continúa a suponer que P = QT y por lotanto la descomposición
(4;1) es de la forma (4;2) entonces se sigue el corolario 14.2.15 que di > 0
para toda i en S . Así, si di se toma mayor que cero para toda i en
S; entonces (a la luz del caorolario 14.2.15) G es una inversa generalizada
simétrica de…nida positiva de A: (si di se toma mayor o igual a cero para toda
i en S e igual a cero para por lo menos un i en S; entonces G es semide…nida
positiva; si di se toma menor que cero para por lo menos un i en S; entonces
– asumiendo que A es no nula – G es inde…nida): Dado qué (de acuerdo
con el corolario 14.3.5) toda matriz simétrica tiene una descomposición de la
forma (4;2) ; tenemos el siguiente lema

Lema 14.4.1. Toda matriz simétrica de…nida no negativa tiene una inversa
generalizada de…nida positiva.

5.5. Descomposiciones LDU, UT DU y de Cholesky


Fue establecido en la sección 14.3 que toda matriz de…nida no negativa A
tiene una descomposición de la forma A = PT P. Las a…rmaciones mas fuertes
de este resultado son posible. De hecho, es probado en la siguiente sección
que toda matriz A simétrica de…nida no negativa tiene una descomposición
de la forma TT T = A, donde T es una matriz triangular superior. [ y en una
72CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

secuencia del capitulo (sección 21.9), es probado que A tiene descomposición


(única) de la forma A = R2 , donde R es una matriz simétrica de…nida no
negativa].
Es conveniente empezar, considerando algunas preguntas acerca de la de-
scomposición de matrices (no necesariamente de…nidas no negativa). ¿Es
una matriz cuadrada A expresable de la forma A = LDU, donde L es
una matriz triangular inferior unitaria, D es una matriz diagonal y U es
una matriz superior triangular unitaria? Y, mas especí…camente, ¿Es una
matriz A simétrica expresable de la forma A = UT DU? Subsecuentemente,
el termino descomposición LDU es usado para cualquier descomposición de
la forma A = LDU y el termino descomposición UT DU, para cualquier
descomposición de la forma A = UT DU

5.5.1. Preliminares
El siguiente lema se re…ere a la descomposición LDU de una matriz An n
que conduce a (n 1) (n 1) una submatriz principal de A

Lema 14.5.1 Sean A una matriz n n, L una matriz triangular inferior


n n, U una matriz triangular superior unitaria n n y D una matriz
diagonal n n (donde n 2) Separando A; L; U y D como

A a L 0 U u
A= ;L = ;U =
bT c lT 1 0 1
y
D 0
D=
0 k
Donde A ; L ; U y D ;son de dimensiones (n 1) (n 1) entonces A =
LDU si y solo si

L D U =A ; (5.8)

L D u = a; (5.9)

UT D ` = b; (5.10)
y
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 73

k=c `T D u (5.11)
El Lema 14.5.1 puede ser veri…cado simplemente por la ecuación de las 4
submatrices A ,a,bT y c para las correspondientes submatrices de la matriz
producto LDU. Respecto a la condición (5.1a) notar que L es una sub-
matriz principal de una matriz triangular inferior y por tanto es la misma
triangular inferior unitaria, y similarmente que U es triangular superior uni-
taria y D es diagonal. Así la condición (5.1 a) establece que L D U es una
descomposición LDU de A
El siguiente teorema relaciona la existencia y construcción de una descom-
posición LDU ó UT DU de un a matriz n n para la existencia y construc-
ción de una descomposición LDU ó UT DU de la submatriz principal de
(n 1) (n 1) A

Teorema 14.5.2 Sea A una matriz n n (donde n 2); y la partición de


A como

A a
A=
bT c
donde A es de dimendiones (n 1) (n 1)
(1)Si A tiene descomposición LDU; es decir A = L D U y si a 2 C (A )
y bT 2 F (A ) ; entonces existen vectores ` y u tales que UT D ` y tomando
` y u para ser cualquiera de esos vectores, y tomando k = c `T D u y la
descomposición LDU de A es

L 0 D 0 U u
A= (5.12)
`T 1 0 k 0 1
(10 ) Si A es simétrica (caso en que AT = A y b = a); si AT tiene descom-
poscion UT DU; es decir A = UT D U ; y si a 2 C (A ) ; entonces existe un
vector u tal que UT D U = a; y tomando u para ser cualquier vector, y
tomando k = c uT D u y la descomposición UT DU de A es
T
U u D 0 U u
A= (5.13)
0 1 0 k 0 1
(2)la matriz A tiene descomposición LDU solamente si A tiene una de-
scomposición LDU, a 2 C (A ) y bT 2 F (A )
74CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

(20 )la matriz A tiene descomposición UT DU solamente si A es simétrica,A


tiene una descomposición UT DU; y a 2 C (A )

Prueba (1) Supongase que A tiene descomposición LDU; es decir A =


L D U y que a 2 C (A ) y bT 2 F (A ) ; entonces existen vectores s y
r tales que a = A r y bT = sA . Dado que UT D LT s = A s = b
y L D (U r) = A r = a; existen vectores ` y u tales que UT D l = b y
L D u = a. Además, (5;2) es na consecuencia inmediata del lema 14.5.1
(10 ) AT = A ; entonces a 2 C (A ) implica aT 2 F (A ) : Así la parte (10 )
puede ser obtenida como un caso especial de la parte (1) poniendo b = a y
L = UT y colocando ` = u.

(2) y (20 ) Supóngase que A tiene descomposición LDU es decir A = LDU.


Separando L; U y D como

L 0 U u D 0
L= ;U = ;y D =
`T 1 0 1 0 k
Donde L ; U y D ;son de dimensiones (n 1) (n 1) ; entonces se sigue
del lema 14.5.1 que A = L D U y por lo tanto que A tiene una descom-
posición LDU: Como una consecuencia adicional, tenemos que
a = L D u = A U 1 u 2 C (A ) y bT = `T D U = lT L 1 A 2 F (A ) :
En el caso especial donde L = UT (es decir, donde A = LDU es una descom-
posición UT DU);tenemos que L = UT y por tanto que A = UT D U :Así
que si A tiene una descomposición UT DU entonces A también tiene una
descomposición UT DU; Además si A tiene una descomposición UT DU en-
tonces claramente A es simétrica.
Notar que juntas (1) y (2) del teorema 14.5.2 implica en particular, que A
tiene una descomposición LDU si y solo si A tiene una descomposicion
LDU, a 2 C (A ) y bT 2 F (A ) : Similarmente las partes (10 ) y (20 ) implica
que A tiene una descomposición UT DU si y solo si A es simétrica, A tiene
una descomposicion UT DU, a 2 C (A )
El siguiente teorema se re…ere a la descomposición LDU de cualquier sub-
matriz principal de una matriz A n n para la misma A

Teorema 14.5.3 Sea A una matriz n n (donde n 2); y sea A11 la


submatriz k k principal de A (donde 1 k n 1) supóngase que A
tiene una descomposicion LDU es decir A = LDU; y partición L; D y U
como
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 75

L11 0 U11 U12 D1 0


L= ;U = ;y D =
L21 L22 0 U22 0 D2

Donde L11 , U11 y D1 ;son de dimensiones k k; entonces una descomposición


LDU de A11 es A11 = L11 D1 U11
El teorema 14.5.3 puede ser veri…cado simplemente igualando A11 a la sub-
matriz principal k k de la matriz producto LDU: Notar que en el caso
especial del Teorema 14.5.3 donde A = LDU es una descomposicion UT DU
(es decir donde L = UT ); L11 = UT11 y por tanto A11 = L11 D1 U11 es una
descomposición UT DU de A: El teorema 14.5.3 implica en particular que
si A tiene una descomposición LDU ó UT DU, entonces cada una de sus
submatrices principales tiene respectivamente, una descomposición LDU ó
UT DU.

5.5.2. Existencia, construcción recursiva y unicidad de


una descomposición LDU o UT DU
Es fácil ver que una matriz A tiene una (única) descomposición LDU (y
UT DU) es decir, A = (1)A(1). El siguiente teorema arroja resultados sobre
la existencia y construcción de una descomposición LDU ó UT DU de una
matriz (cuadrada) de orden dos o más.
Teorema 14.5.4 Sea A = faij g una matriz n n (donde n 2):Denotamos Ai
la submatriz principal de A de orden i (i = 1; :::; n) : Para i = 2; :::; n tomamos
ai = (a1i ; :::; ai 1;i )T y bTi = (ai1 ; :::; ai;i 1 ) ; o equivalentemente se de…ne ai y
bTi por

Ai 1 ai
A= :
bTi aii

(1) Sea L1 = (1) ; U1 = (1) y D1 = a11 ; y supóngase que para i = 2; :::; n


,ai 2 C (Ai 1 ) y bTi 2 F (Ai 1 ). Entonces para i = 2; :::; n; existe una matriz
unitaria triangular inferior Li ; una matriz Ui triangular superior unitariay
una matriz diagonal Di tales que

Li 1 0 Ui 1 ui Di 1 0
Li = ; Ui = y Di = (5.14)
`Ti 1 0 1 0 di
76CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Donde UTi 1 Di 1 `i = bi ; Li 1 Di 1 ui = ai ; y di = aii `Ti Di 1 ui ; y tomando


Li ; Ui y Di para ser cualquier matrices, una descomposición LDU de A es
A = Ln Dn Un
(10 ) Sea U1 = (1) y D1 = a11 ; y supóngase que A es simétrica (caso en el
que ATi 1 = Ai 1 y bi = ai para i = 2; :::; n) y que, para i = 2; :::; n
ai 2 C (Ai 1 ) : Entonces, para i = 2; :::; n existe una matriz triangular
superior U1 y una matriz diagonal D1 tales que

Ui 1 ui Di 1 0
Ui = y Di = (5.15)
0 1 0 di

Donde UTi 1 Di 1 ui = ai ; y di = aii uTi Di 1 ui ; y tomandoUi y Di para ser


cualquier matrices, una descomposición UT DU de Ai es Ai = UTi Di Ui : En
particular una descomposición UT DU de A es A = UTn Dn Un

(2)la matriz A tiene descomposición LDU solamente si para i = 2; :::; n; ai 2


C (Ai 1 ) y bTi 2 F (Ai 1 ) :

(20 )la matriz A tiene descomposición UT DU solamente si A es simétrica, y


para i = 2; :::; n; ai 2 C (Ai 1 )

Prueba(1) Con el …n de probar la parte (1) ; Supóngase que para.i =


2; :::; n; ai 2 C (Ai 1 ) y bTi 2 F (Ai 1 ) : La prueba es por inducción matemáti-
ca. Se sigue del teorema 14.5.2 que, para i = 2, existe una matriz Li unitaria
triangular inferior ; una matriz Ui triangular superior unitaria y una matriz
diagonal Di de la forma (5;4) y que A2 = L2 D2 U2 para cualquiera mtarices
L2 ; U2 y D2 : Supóngase ahora que para i = k 1 (donde 3 k n); existe
una matriz Li unitaria triangular inferior ; una matriz Ui triangular superior
unitaria y una matriz diagonal Di de la forma (5;4) ;tomando Lk 1 ; Uk 1 y
Dk 1 para ser cualesquiera matrices tal que A = Lk 1 Uk 1 Dk 1 : La prueba
se completa sobreobservando que para i = k; existe (como una consecuencia
del teorema 14.5.2) una matriz Li unitaria triangular inferior; una matriz Ui
triangular superior unitaria y una matriz diagonal Di de la forma (5;4) y que
Ak = Lk Dk Uk para cualesquiera Lk ; Uk y Dk :

(10 ) :Una prueba de la parte (10 ) ; analoga a la parte (1), puede ser construida
haciendo uso de la parte (10 ) del teoreama 14.5.2
(2) Supóngase que A tiene una descomposición LDU: Entonces se sigue
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 77

del teorema 14.5.3 que las submatrices principales A2; A3 ; :::; An 1 de orden
2por n 1 (también como la submatriz principal An = A de orden n) tienen
descomposición LDU: Basado en la parte (2) del teorema 14.5.2 se concluye
que para i = 2; :::; n; ai 2 C (Ai 1 ) y bTi 2 F (Ai ) :
(20 )Una prueba de la parte (20 ) ; analoga a la parte (2) ; pude ser construida
haciendo uso del teorema 14.5.3 y parte (20 ) del teorema 14.5.2
Note que, las partes (1) y (2) del teorema 14.5.4 implican en particular que
A tiene una descomposición LDU: si y solo si, para para i = 2; :::; n; ai 2
C (Ai 1 ) y bTi 2 F (Ai ) : similarmente, las partes (10 ) y (20 ) implican que
A tiene una descomposición UT DU si y solo si, A es simétrica y,para i =
2; :::; n; ai 2 C (Ai 1 ) :
Para …nes de ilustración, considere una matriz 2 2 A = faij g y suponga
que a11 = 0: Entonces, A tiene una descomposición LDU. si y solo si a21 =
a12 = 0 esto es, si y solo si A es de la forma

0 0
A= :
0 a22
Cuando A es de esta forma, una descomposición LDU de A es

1 0 0 0 1 u
A=
` 1 0 a22 0 1
Donde ` y u son escalares arbitrarios.

¿En qué medida la descomposición LDU de una matriz n n es única?. Esta


pregunta esta dirigida en el siguiente teorema

Teorema 14.5.5 Sea A una amtriz n n de rango r que tiene una descom-
posición LDU: Sea L = flij g que representa una matriz unitaria triangular
n n inferior, una matriz U = fuij g n n triangular superior unitaria y
D = fdi g una matriz n n diagonal tal que A = LDU; esto es, tal que
A = LDU es una descomposición LDU de A. (1) La matriz diagoanal D es
única.(2) Supóngase que los i1 ; :::; ir elementos de la diagonal de D (donde
i1 < ::: < ir ) son no cero ( y los elementos restantes de D son cero). En-
tonces para i 2 fi1 ; :::; ir g y j > i; uij y lji son únicos, y para i 2
= fi1 ; :::; ir g y
j > i; uij y lji son complementariamente arbritarios. Esto es, De los elementos
de U por encima de la diagonal, esos en la i1 ; :::; ir — ésima …las son únicos y
aquellos en las restantes …las son completamente arbitrarios; y similarmente,
78CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

los elementos de L de la diagonal, esos en la i i1 ; :::; ir — ésima columnas son


únicos y los otros en las restantes columnas son completamente arbitrarios.

Prueba Sea L = lij que representa una matriz unitaria triangular in-
ferior, U = uij triangular superior unitaria , y D = fdi g una matriz
diagonal tal que A = L D U ; así que A = L D U como A = LDU; es
una descomposición LDU de A: Entonces,

1 1 1 1 1 1
L LD = L (LDU)U =L (L D U )U =D U U (5.16)

Así (de acuerdo al corolario 8.5.9 ) L 1 es triangular unitaria inferior y U 1


es triangular superior unitaria se sigue del lema 1.3.1 que los elementos de
L 1 LD son d1 ; :::; dn respectivamente, y que los elementos de D U U 1 son
d1 ; :::; dn respectivamente, implicando a luz de laigualdad (5;6) que di = di
(i = 1; :::; n) ó equivalentemente que D = D; el cual se establecio en la parte
(1) del teorema 14.5.5.
A los efectos de lo probado en la parte (2) ; tomando A11 una submatriz
obtenida sacando todas las …las y columnas de A excepto las i1 ; :::; ir — ésima
…las y columnas. Sea D1 = diag(di ; :::; dir ): Denote por L1 y L1 las submatri-
ces r n obtenidas al sacar todas las …las de L y L respectivamente, excepto
las i1 ; :::; ir esimas …las y por L11 y L11 las submatrices obtenidas al sacar
todas las …las y columnas de L y L respectivamente, excepto las i1 ; :::; ir —
ésima …las y columnas. Similarmente denote por U1 y U1 las submatrices n r
obtenidas al sacar todas las columnas de U y U ; respectivamente, excepto
las i1 ; :::; ir — ésima columnas, y por U11 y U11 las submatrices n r obtenidas
al sacar todas las …las y columnas de U y U ; respectivamente, excepto las
i1 ; :::; ir — ésima …las y columnas. Entonces, A11 = L1 DU1 = L11 D1 U11 y
(de hay que D = D) A11 = L1 D U1 = L1 DU1 = L11 D1 U11 ; implicando
que

L11 D1 U11 = L11 D1 U11 (5.17)


Las matrices L11 y L11 son submatrices principales de matrices triangulares
unitarias inferiores y de hay que son en sí mismas triangulares unitarias
inferiores. similarmente U11 y U11 son triangulares superior unitarias pre-
multiplicando ambos lados de la igualdad (5;7) por L11 1 y postmultiplicando
ambos lados por U111 D1 1 , encontramos que
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 79

L11 1 L11 = D1 U11 U111 D1 1 (5.18)


De acuerdo con el corolario 8.5.9 L11 1 es triangular unitaria inferior y U111
es triangular superior unitaria. Observe que (de acuerdo con el lema 1.3.1)
L11 1 L11 es triangular unitaria inferior. De hay que D1 U11 U111 D1 1 es triangu-
lar superior, se sigue de la igualdad (5;8) que L11 1 L11 = I o equivalentemente
que

L11 = L11
y — a la luz de la igualdad (5;7) y la no singularidad de L11 y D1 — que

U11 = U11
Ahora tome A1 una submatriz n r obtenida al sacar todas las columnas
de A excepto las i1 ; :::; ir — ésima columnas, y tome A2 una submatriz r n
obtenida al sacar todas las …las de A excepto las i1 ; :::; ir — ésima …las. Denote
por L2 y L2 las submatrices n r obtenidas al sacar todas las columnas de L
y L ; respectivamente, excepto las i1 ; :::; ir — ésima columnas. Similarmente,
denote por U2 y U2 las sunmatrices r n obtenidas al sacar todas las …las
deU y U ;respectivamente excepto las i1 ; :::; ir — ésima …las. entonces A1 =
LDU1 = L2 D1 U11 y (de hay que D = D y U11 = U11 ) A1 = L D U1 =
L DU1 = L2 D1 U11 = L2 D1 U11 ; implicando que L2 D1 U11 = L2 D1 U11 ; y
por lo tanto (ya que D1 y U11 son no singulares) tenemos que

L2 = L2 (5.19)
Similarmente, A2 = L1 DU = L11 D1 U2 y A2 = L1 D U = L1 DU
= L11 D1 U2 = L11 D1 U2 ; implicando que L11 D1 U2 = L11 D1 U2 de hay
que

U2 = U2 (5.20)
los kj–esimos elementos de U2 y U2 son uik j y uik j respectivamente, y los
jk esimos elementos de L2 y L2 son `jik y `jik respectivamente (k = 1; :::; r
; j = 1; :::; n ):Así,. se sigue de las igualdades (5;9) y (5;10) que, para i 2
fi1 ; :::; ir g y para j = 1; :::; n (y en particular para j = i + 1; :::; n) tenemos
que uij = uij y `ji = `ji :
80CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Al completar la prueba de la parte (2) del teorema 14.5.5 observamos que


A = LDU = L2 D1 U2 y de hay que A = LDU; incluso si los elementos de
L (por debajo de la diagonal.) que no son elmentos de L2 y/o elementos de
U (por encima de la diagonal) que no son elementos de U2 son cambiados
arbitrariamente

¿Bajo qué circunstancias una matriz An n tiene una única descomposición


LDU?:Esta pregunta es abordada en el siguiente corolario

Corolario14.5.6. Si una matriz An n tiene una descomposición LDU y si


la primera submatriz principal de (A) de orden n 1 es no singular, entonces
la descomposición LDU de A es única.

Prueba. Sea A11 (n 1) (n 1) la primera submatriz principal de A:


Suponga que tiene una descomposición LDU; digamos A = LDU; y que
A11 es no singular. Particionemos L; D; y U como

L11 0 U11 u D1 0
L= T ;U = ;y D =
` 1 0 1 0 d
[Donde L11 ; U11 y D1 son de dimensiones (n 1) (n 1)] : De acuerdo al
lema 14.5.1, una descomposición LDU; de A11 es A11 = L11 D1 U11 : Así (ya
que A11 es no singular); se sigue del lema 14.3.1 que todos los n 1 de los ele-
mentos de la diadonal de D1 son no cero ó equivalentemente que los primeros
n 1 elemrntos de la diagonal de D son no cero. Basado en el teorema 14.5.5
se concluye que la descomposición LDU es única.

Colorario 14.5.7 Sea A una matriz n n (donde n 2) y, para i =


1; :::n 1, sea ,Ai representa la primers submatriz principal de A de orden i
.Si A1 ; :::; An 1 son no singulares, entonces A tiene una única descomposicion
LDU

Prueba. Sea aij que representan los ij ésimos elementos de A (i; j =


1; :::; n); y para i = 2; :::; n de…namos ai = (a1i ; :::; ai 1:i )T y bTi = (ai1 ; :::; ai:i 1 ).
Suponga que A1 ; :::; An 1 son no singulares. entonces, para i = 2; :::; n;
ai 2 C (Ai 1 ) y bTi 2 F (Ai 1 ) ; y se sigue de la parte (1) del teorema 14.5.4
que A tiene una descomposición LDU: Que esta descomposición se única
es una consecuencia inmediata del corolario 14.5.6 (De hay que An 1 es no
singular) :
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 81

Para una matriz simétrica, la singularidad de una descomposición LDU tiene


la siguiente implicacion.

Lema14.5.8. Si una matriz simétrica A tiene una única descomposición


LDU; digamos A = LDU; entonces L = UT así que, la única descomposi-
ción LDU es una descomposición UT DU

Prueba. Supongase que la matriz simétrica A tiene una única descomposi-


ción LDU; A = LDU: Entonces, A = AT = UT DLT ; implicando (ya que
UT es triangular unitaria inferior y L0 es triangular superior unitaria) que
A = UT DLT es una descomposición LDU de A y por lo tanto — a la luz
de la singularidad de la descomposición LDU— que L = UT (ó equivalente-
mente U = LT ):
Note que si una matriz cuadrada tiene una descomposición LDU, digamos
A = LDU; entonces, siendo L = LD y U = DU esto puede asimismo ser
descompuesto como A = L U; el cual es el producto de una matriz triangular
inferior y una matriz triangular superior unitaria, ó como A = LU ;el cual es
el producto de una matriz triangular unitaria inferior y una matriz triangular
superior.

El termino LU en la descomposición es algunas veces usado en referencia a


alguna descomposicion de la matriz cuadrada A de la forma general A = LU;
donde L es una matriz triangular inferior y U es una matriz triangular su-
perior — ver e.g, steward (1973). En el casoespecial donde L es triangular
unitaria inferior , steward re…ere una descomposicion semejante como una de-
scomposición de Doolittle, en el caso especial donde U es triangular superior
unitaria el hace referencia así a una descomposición como la descomposición
de Crout. Golub y Van Loan (1989) restringeron el uso del termino LU en la
descomposición al caso especial donde L es triangular inferior, que es segun
Steward llamado descomposición de Doolittle

5.5.3. Descomposición de matrices de…nidas positivas


Si ahora consideramos la implicación de los resultados de la subsección b
aplicados a las matrices de…nidas positivas. ¿Una matriz de…nida positiva
necesariamente tiene una descomposición LDU; y esta descomposición LDU
de una matriz de…nida positiva es única?. Estas preguntas son resueltas
en forma (a…rmativa) por elsiguiente teorema el cual también proporciona
82CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

alguna información sobre la naturaleza de la descomposición LDU de una


matriz de…ida positiva.

Teorema 14.5.9. una matriz An n de…nida positiva tiene una única


descomposición LDU; digamos A = LDU y los elementos de ladiagonal de
la matriz diagonal son positivos

Prueba. De acuerdo al corolario 14.2.12 alguna submatriz principal de una


matriz de…nida positiva es de…nida positiva y por lo tanto (de acuerdo al
14.2.8) es no singular. Así, se sigue del corolario 14.5.7 que A tiene una
única descomposición LDU; digamos A = LDU:
Se sigue para demostrar que los elemntos de la diagonal, digamos d1 ; :::dn ;
de la matriz diagonal D son positivos. Para este …n, consideremos la matriz
T T
B = DU (L 1 ) . De hay (a la luz del corolario 8.5.9) (L 1 ) (como U) es
triangular superior unitaria, se sigue del lema 1.3.1 que los elementos de la
diagonal de B son los mismo que los elementos de la diagonal d1 ; :::dn ; de
D: Por otra parte,

1 1 T 1 T
B=L (LDU) L = L 1A L ;
implicando (a la luz del corolario 14.2.10) que B es de…nida positiva. Así
concluimos (en base al corolario 14.2.13) que d1 ; :::dn son positivos

En el caso especial de una matriz simétrica de…nida positiva, la conclusión


del teorema 14.5.9 puede (como una consecuencia del lema 14.5.8) ser hecha
más especi…ca, como se describe en el siguiente corolario

Corolario 14.5.10. una matriz An n simétrica de…nida positiva tiene


una única descomposicion U0 DU digamos A = UT DU; y los elementos de
la diagonal de la matriz diagonal D son positivos.

Note que, como una consecuencia del corolario 14.2.15, tenemos lo opuesto
al corolario 14.5.10. Si una matriz An n tiene una descomposicion UT DU;
digamos A = UT DU y si los elementos de la diagonal de la matriz diagonal
D son positivos, entonces A es de…nida positiva (y simétrica).

Una descomposición alternativa de una matriz simétrica de…nida positiva es


descrita en el siguiente teorema.
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 83

Teorema 14.5.11. Para alguna matriz An n simétrica de…nida positiva


existe una única matriz triangular superior T con elementos en la diagonal
positivos tal que

A = TT T (5.21)

por otra parte, tomando U como la única matriz triangular superior unitaria
y D = fdi g como la única matriz diagonal tal que A = UT DU;

T = D1=2 U;
p p
Donde D1=2 = diag d1 ; :::; dn :
Prueba. Note que el corolario 14.5.10 garantiza la existencia y unicidad de
la matriz triangular superior unitaria U y la matriz diagonal D y también
garantiza que los elementos de la diagonal de D son positivos. note además
que D1=2 U es triangular superior, y que los elementos de la diagonal de
p p T
D1=2 U son d1 ; :::; dn , y que A = D1=2 U D1=2 U: Así existe una ma-
triz triangular superior T con los elementos de la diagonal positivos tal que
A = TT T: Le sigue para mostrar que sólo hay una matriz triangular superior
con los elementos de la diagonal positivos.
Supóngase que T = ftij g es una matriz triangular superior n n con
los elemntos de la diagonal positivos tal que A = TT T: De…namos D =
diag (t211 ; :::; t2nn ) y

1
U = [diag (t11 ; :::; tnn )] T = diag (1=t11 ; :::; 1=tnn ) T:

Entonces, U es triangular superior unitaria, y A = UT D U es una de-


scomposición UT DU de A: Así se sigue del corolario 14.5.10p que D = D o,
equivalenemente (ya que tii es positivo) se tiene que tii = di (i = 1; ::::; n)
y que U = U: Consecuentemente, T = D1=2 U = D1=2 U: Concluimos que la
unica matriz triangular superior T con los elementos de la diagonal positivos
tal que A = TT T es T = D1=2 U

La desconmposición (5;11) de la matriz simétrica de…fnda positiva A es


conocida como la descomposición de Cholesky
84CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

5.5.4. Descomposición de matrices simétricas de…nida


no negativa
Si ahora extendemos los resultados del corolario 14.5.10 y teorema 14.5.11
(los cules esta aplicadas a matrices simétricas de…nidas positivas) a matrices
simétricas de…nidas no negativas que no puedan ser de…nidas positivas. El
siguiente teorema proporciona las bases pra esta de…nición

Teorema 14.5.12. Corresponde para cualquier matriz simétrica A de…nida


no negativa entonces exite una matriz triangular superiuor unitaria U tal
que UT AU es una matriz diagonal.
Para elproposito de probar este teorema es útil establecer el siguiente lema.

Lema 14.5.13 Sea A = faij g que representa una matriz n n de…nida


no negativa.si aii = 0; entonces, para j = 1; :::; n; aij = aji ; esto es si el
i–ésimo elemento de ladiagonal de A es igual a cero, entonces (ai1 ; :::; ain ); el
cual es la i–ésima …la de A es igual a (a1i ; :::; ani ), el cual es 1 al tiempo
de transponer la i–esima columna de A (i = 1; :::; n):

Prueba. (del lema 14.5.13) supóngase que que aii = 0 y tomando x = fxk g
que es un vector columna n–dimensional tal que xi < ajj ; xj = aij + aji ;y
xk = 0; para k excepto k = i y k = j (donde j 6= i): Entonces,

xT Ax = aii x2i + (aij + aji ) xi xj + ajj x2j (5.22)


2
= (aij + aji ) (xi + ajj )
0

con la igualdad unicamente si aij + aji = 0; ó equivalentemente, unicamente


si aij = aji : Por otra parte dado que A es de…nida no negativa xT Ax
0; el cual — de acuerdo con la desigualdad (5;12)— implica que xT Ax = 0:
Concluimos que aij = aji

Si la matriz de…nida no negativa A en ellema 14.5.13 es simétrica, entonces


aij = aji () 2aij = 0 () aij = 0: Así, tenemos el siguiente corolario

Corolario 14.5.14. Sea A = faij g que representa una matriz simétrica n n


de…nida no negativa. Si aii = 0; entonces, para j = 1; :::; n; aji = aij = 0;
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 85

esto es, si el i— ésimo elemento de ladiagonal de A es igual a cero, entonces


la i— ésima columna (a1i ; :::; ani )T de A y la i–ésima …la (ai1 ; :::; ain ) de A
son nulas. Por otra parte si todos los n elementos de a diagonal a11 ; :::; ann
de A son iguales a cero, entonces A = 0:

Prueba. (Del teorema 14.5.12) la prueba es por inducción matématica y es


similar a la prueba del teorema 14.3.4. El teorema es claramente verdadero
para cualquier matriz 1 1. Ahora supongamos que que esto no es cierto
para cualquier matriz simétrica de…nida no negativa (n 1) (n 1) ; y
consideremos una matriz simétrica n n de…nida no negativa arbitraria A =
faij g : Para propositos de establecer la existencia de matriz triangular supeior
unitaria tal que UT AU es diagonal, es conveniente considerar separadamente
el caso en que a11 = 0 y el caso en que a11 6= 0:

Caso(1) : a11 = 0: Se sigue del corolario 14.5.14 que la primera …la y la


primera columna de A son nulas ó, equivalentemente,a A = diag (0; A22 )
para alguna matriz A22 (n 1) (n 1) : Además, A22 es una submatriz
principal de A; simétrica y de…nida no negativa, por lo tanto, por suposición
existe una matriz triangular superior unitaria U tal que UT A22 U es una
matriz diagonal. Tomando U = diag (1; U) : Entonces U es triangular su-
perior unitaria y UT AU = diag 0; UT A22 U ; el cual (como UT A22 U ) es
una matriz diagonal
Caso(2) : a11 6= 0: De acuerdo con el lema 14.3.3, exite una matriz triangular
superior unitaria U1 tal que UT1 AU1 = diag (b11 ; B22 ) para algun escalar
b11 y alguna matriz B22 (n 1) (n 1) : Además, U01 AU1 es (a la luz del-
teorema 14.2.9) simétrica y de…nida nonegativa. Así, por suposición existe
una matriz triangular superior unitaria U2 tal que U02 B22 U2 es unamatriz
diagonal. Tomando U = U1 diag (1; U2 ) : Entonces U es una matriz triangu-
lar superior unitaria (de hay que diag (1; U2 ) :es triangular superior unitaria
y el producto de dos matrices triangulares superior unitaria es triangular
superior unitaria) , y

UT AU = diag 1; UT2 diag (b11 ; B22 ) diag (1; U2 ) = diag b11 ; UT2 B22 U2 ;

El cual (como UT2 B22 U2 ) es una matriz diagonal.


El corolario 14.5.10 indica que, en el caso especial en que una matriz A
simétrica de…nida positiva, la matriz P no singular en el corolario 14.3.5
86CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

puede ser escogida como una matriz triangular superior unitaria en cada
caso la descomposición A = PT DP es una descomposición UT DU: En el
siguiente corolario (del teorema 14.5.12 ) indica que P puede ser esogida
como una matriz triangular superior unitaria incluso si A es (simetrica)
semide…nida positiva.

Corolario 14.5.15. Una matriz simétrica de…nida no negativa A n n tiene


una descomposición UT DU y para alguna descomposisción A = UT DU los
elementos de la diogonal de la matriz diagonal D son no negativos.

Prueba. A la luz delcorolario 14.2.15, es su…ciente probar que A tiene una


descomposición UT DU: De acuerdo al teorema 14.5.12, existe una matriz
triangular superior unitaria T tal que TT AT = D para alguna matriz diago-
nal D. Tomando U = T 1 : Entonces, A = U0 AU; y (de acuerdo al corolario
8.59).
U es una matriz triangular superior unitaria. Así, A = UT DU es una de-
scomposición UT DU de A
Note que como una consecuencia inmediata del corolario 14.2.15 tenemos lo
opuesto al corolario 14.5.15. si una matriz A n n tiene una descomposición
U T DU; digamos A = UT DU y si los elementos de la diagonal de lamatriz
diagonal D son no negativos, entonces A es de…nida nonegativa (y simétrica).
El teorema 14.5.11 establece que alguna matriz A de…nida positiva tiene una
única descomposición de la forma (5;11) y esta se re…ere a la descomposición
UT DU de A: el siguiente teorema extiende estos resultados a alguna matriz
simétrica de…nida no negativa.

Teorema 14.5.16. Sea A una matriz n n simétrica de…nida no negativa,


y sea r = rank (A) : Entonces existe una única matriz triangular superior T
con r elementos de la diagonal positivos y n r …las nulas tal que

A = TT T (5.23)
Además, tomando a U como una matriz triangular superior unitaria y D =
fdi g como la única matriz diagonal talque A = UT DU;

T = D1=2 U (5.24)
p p
Donde D1=2 = diag d1 ; :::; dn
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 87

Prueba. Note que el corolario 14.5.15 y el teorema 14.5.5 garantizan la


existencia de la matriz triangular superior unitaria U y la existencia de
la singularidad de la matriz diagonal D y también garantiza que los el-
ementos de la diagonal de D son no negativos. Adicionalmente (en base
al Lema 14.3.1), tenemos que r de los elementos de la diagonal de D dig-
amos los elementos i1 ; :::; ir (donde i1 < ::: < ir ) son no cero y por lo tan-
to positivos y los restantes n r elementos de la diagonal de D iguales a
1=2
cero. Adémas, D p U es p triangular superior y los elementos de la diagonal
1=2
de D U son d1 ; :::; dn ; (r de los cuales son positivos), n r …las de
D1=2 U son nulas (aquellas …las que no sean de las i1 ; :::; ir –esimas …las), y
T
A = D1=2 U D1=2 U: Así existe una matriz triangular superior T con r
elementos positivos en la diagonal y con n r …las nulas tal que A = TT T:
Resta probar que hay una única matriz triangular superior con r elemntos
positivos en la diagonal y con n r …las nulas. Supóngase T = ftij g es una
matriz n n triangular superior con r elementos positivos en la diagonal —
digamos los k1 ; :::; kr elementos de la diagonal (donde k1 < ::: < kr ) — y con
n r …las nulas tal que A = TT T: Tomando D como una matriz diagonal
n n cuyos k1 ; :::; kr elementos de la diagonal son t2k1 k1 ; :::; t2kr kr , respecti-
vamente, y cuyos otros n r elementos de la diagonal son iguales a cero.
Adicionalmente, si tTk1 ; :::; tTkr ; representan las k1 ; :::; kr –esimas …las de T, y
tomando U como una matriz triangular superior unitaria cuyos k1 ; :::; kr –
esimas …las son 1=tk1 k1 )tTk1 ; :::; (1=tkr kr tTkr respectivamente — claramente
tal matriz triangular superior existe. Entonces,

A = tk1 tTk1 + ::: + tkr tTkr = UT D U ;


Así que A = UT D U es una descomposición U T DU De A: Así, se sigue del
teoremap 14.5.5 que D = p D; en cuyo caso k1 = i1 ; :::; kr = ir ; y
ti1 i1 = di1 ; :::; tir ir = dir ; y que las i1 ; :::; ir — esimas …las de U son
respectivamente iguales a las i1 ; :::; ir — esimas …las de U: Consecuentemente.

T = D1=2 U = D1=2 U:
Concluimos que la única matriz triangular superior T con r elementos en la
diagonal positivos y con n r …las nulas talque A = TT T es T = D1=2 U
En alcaso especial donde la matriz simétrica de…nida no negativa A es de…ni-
da positiva, la descomposición (5.13) se simpli…ca a la descomposición (5;11)
y, como en el caso especial la descomposición es llamada la Descomposición
de Cholesky.
88CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

5.5.5. Formulas recursivas para LDU y descomposición


de Cholesky
Sea A = faij g una matriz n n: Considerese el problema de encontrar una
matriz triangular superior unitaria U = fuij g ;una matriz triangular unitaria
inferior L = flji g ; y una matriz diagonal D = fdi g tal que A = LDU
(cuando ellas existen). las formulas dadas en laparte (1) del teorema 14.5.4
pueden ser usadas para construir L; D, y U en n pasos. En cada paso una
columna adicional de U; una …la adicional de L y un elemento adicional de la
diagonal de D son obtenidos resolviendo el sistema lineal con coe…cientes de
la matriz triangular. Haciendo uso de los resultados de la sección 11.8 (una
solución del sistema lineal con matrices triangulares no singulares o bloques
de los coe…cientes de las matrices triangulares ), las formulas dadas en la
parte (1) del teorema 14.5.4 pueden ser expresedas como siguen:

d1 = a11 (5.25)
d1 u1j = a1j ;
X
i 1
di uij = aij `ik dk ukj (i = 2; :::j 1)
k=1
d1 `j1 = aj1;
X
i 1
di `ji = aji uki dk `jk (i = 2; :::j 1)
k=1
j 1
X
dj = ajj ukj dk `jk
k=1

(j = 2; :::; n) :
El primer paso en los n— pasos en el procedimiento para la construcción de
U; L y D consiste en establecer d1 = a11 : El j— ésimo paso (2 j n);
consiste en determinar secuencialmente a uij y `ji para i = 1; :::; j 1; y
entonces determinar [por medio de la formula (5;15)] dj : Si di = 0; entonces
uij y `ji pueden ser escogidas arbitrariamente; por ejemplo escogiendo uij =
`ji = 0: Si di 6= 0; entonces dependiendo si i = 1 ó i > 1; tomemos
uij = aij =di y `ji = aji =di ó
! !
Xi 1 X
i 1
uij = aij `ik dk ukj =di y `ji = aji uki dk `jk =di ;
k=1 k=1
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 89

respectivamente
Hay un procedimiento alternativo de n— pasos para construir U; L y D en
elcual U es formado …la por …la ó más bien columna por columna y L es
formada columna por columna ó …la por …la. El primer paso consiste en
establecer d1 = a11 y, dependiendo si d1 = 0 ó d1 6= 0; escogemos u12 ; :::; u1n
y `21 ; :::; `n1 arbitrariamente ó (para j = 2; :::; n); de…namos u1j = a1j =d1
y `j1 = aj1 =d1 :El i— ésimo paso (2 i n 1); consiste en determinar
[por medio de la formula (5;15)] di :y, dependiendo si di = 0 ó di 6= 0 escoge-
mos ui:i+1 ; :::; ui 1 y `i+1:i ; :::; `ni arbitrariamente ó (para j = i + 1; :::; n )
tomamos.
!
X
i 1 X
i 1
uij = aij `ik dk ukj =di y `ji = aji uki dk `jk =di
k=1 k=1
El paso …nal (n–ésimo) consiste en asignar
X
dn = an ukn dk `nk
Note que (con cualquiera de estos procedimientos )una vez d1 fue determi-
nado, ajj no es necesario (al menos no para construir una descomposición
LDU) similarmente una vez uij haya sido determinada, aij no es requerida
y, una vez `ji haya sido determinada aji no es requirida, esto tambien en
la implementación del proceso en lacomputadora esto puede ser soluciona-
do si tanto dj ; uij y `ji son determinadas, ellas son encontradas previamente
utlizando ajj ; aij y aji respectivamente.
En lo que concierne, fue asumido que A tiene una descomposición LDU; la
no existencia de una descomposición LDU puede (al menos en un principio
es determinado durante el curso del proceso incorporando siertas pruebas, si
d1 = 0; entonces — antes de la asignación de valores a u1j y `j1 — deberiamos
probar si a1j =0 y aj1 =0; similarmente si di = 0 (2 i n 1); entonces
— antes de la asignación de valores a uij y `ji — deberiamos probar que si

X
i 1 X
i 1
aji `ik dk `kj = 0 y aji uki dk `jk = 0
k=1 k=1
ó equivalentemente

X
i 1 X
i 1
aji = `ik dk `kj y aji = uki dk `jk
k=1 k=1
90CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

si el resultado de alguna prueba es negativa,terminamos el procedimiento


y concluimos (en base en el teorema 14.5.4) que A no tiene una descom-
posición LDU; si el resultado de todas las pruebas son positivas, entonces
elprocedimiento es correcto y produce una descomposición LDU:
Suponiendo que A no es simétrica y considere el problema d determinar si A
tiene una descomposición UT DU; y de construir la descomposición UT DU.
Este problema puede ser resuelto" empleando una versión simpli…cada del
procedimiento para comprobar la existencia de una descomposición LDU y
para la construcción de una descomposición LDU La simpli…cación viene de
establecer `ji = uij ; para j = 2; :::; n e i = 1; :::; j 1 y más especi…camente
del resultado de la reducción computacional y almacenamiento requerido.
Finalmente supongamos que A es una matriz simétrica de…nida no negati-
va, y considere el problema de encontrar la descomposición de Cholesky de
A: Esto es, considere el problema de encontrar la única matriz triangular
superior T = ftij g con r elementos positivos en la diagonal y n r …las
nulas
[donde r = rank(A)] tal que A = TT T.
Una aproximación es encontrar la descomposición UT DU de A y entonces
determinar T de la formula (5.14). Sin embargo, existe un método
más directo, el cual es veces llamado el método de la raíz cuadrada. Este méto-
do esta basado en las siguientes formulas, las cuales pueden ser obtenidas de
las formulas de la parte (10 )del teorema 14.5.4 por aplicación de los resultados
de la sección 11.8 y
haciendo uso de la relación (5.14)
p
t11 = a11 (5.26)

t1j = a1j =t11 ; si t11 > 0 (5.27)


=0 si, t11 = 0 (5.28)
!
X
i 1
tij = aij tki tkj tii si tii > 0 (5.29)
k=1

= 0 si tii = 0 (5.30)
(i = 2; 3::::; j 1),
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 91

!1=2
X
i 1
tjj = aij t2kj (5.31)
k=1

(j = 2; 3; :::; n)
En el método de la raíz cuadrada, T es construido …la por …la ó columna
por columna en n pasos, una …la ó columna por paso. por ejemplo, el primer
paso de la versión …la por …la consiste en la determinación de t11 ; t12 ; :::; t1n ;
[por medio de las formulas (5.16) y (5.17)] el paso i ésimo (2 i n 1)
consiste en la determinación de tii ; ti;i+1 ; :::; tin por medio de las formulas
(5.19) y (5.18) ; y el paso …nal (n ésimo) consiste en la determinación de
tnn por de la formula (5.19).
Si hay incertidumbre acerca de si A es de…nida no negativa, entonces, en
la aplicación del método de la raíz cuadrada a A. Varias modi…caciones
deben ser incorporadas. Debemos (determinar previamente a t11 ) ensayando
si a11 0; y si a11 = 0, debemos (de…nir a t1j = 0 ) ensayando si a ii –
Xi 1 X
t2ki 0, y si a ii – t2ki = 0, debemos (de…nir a tij = 0) ensayando
k=1 X
si aij tki tkj = 0. Finalmente, debemos ( determinar a tnn ) ensayando
X
si ann t2kn 0.
Si el resultado de algún ensayo es negativo, se sigue del teorema 14.5.4 y
14.5.16 que en cualquiera de los casos, A no tiene una descomposición
UT DU ó para una descomposición (de A), expresar A = UT DU, uno ó
más de los elementos de la diagonal de la matriz diagonal D son negativos.
Asi, si el resultado de algún ensayo es negativo terminamos el método de
la raíz cuadrada procediendo y concluyendo (en base al corolario 4.5.15) que
A no es de…nida no negativa. Si el resultado de cada ensayo es positivo,
entonces A es no negativa, y el procedimiento es llevado a la terminación y
producción de la descomposición de Cholesky.
Supóngase, por ejemplo que
0 1
4 2 2
A= @ 2 1 1 A
2 1 10
Si aplicamos el método de la raíz cuadrada (de la p
versión …nal …la por …la).
Observando que a11 > 0, encontramos que t11 = 2 4 = 2; t12 = 2=2 = 1 y
t13 = 2=2 = 1. Adicionalmente, sobre la observación de que a22 t212 = 0,
92CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

encontramos que t22 = 0, y después observando que a23 t12 t13X = 0, vemos
que t23 = 0. Finalmente, acerca de la observación de que a33 t2k3 = 9,
p
encontramos que t33 = 2 9 = 3. Así concluimos que A es no negativa puesto
que t22 = 0, esta es semide…nida positiva y la descomposición de Cholesky
de A es:
0 1T 0 1
2 1 1 2 1 1
A= @ 0 0 0 A @ 0 0 0 A
0 0 3 0 0 3
Note que si a23 = a32 hubieran sido igualadas a otro número diferente de 1
se hubiera dado el caso de que a23 t12 t13 6= 0; y A no hubiera sido de…nida
no negativa. O, si el valor de a 22 hubiera sido más pequeño que uno, se habría
tenido el caso de que a22 t212 < 0, y A no habría sido de…nida no negativa.

5.5.6. Factorizaciones LDU, UT DU y de Cholesky en


la obtención de una I.G
Supóngase que A es una matriz n n que tiene una factorización LDU, es
decir, A = LDU. Entonces, se sigue de lo discutido en la sección 14.4 que la
matriz

G = U 1D L 1
(5.32)
es una inversa generalizada de A y que una elección para D es la matriz
diagonal obtenida al reemplazar los elementos no cero de la diagonal D por
sus respectivos inversos multiplicativos. Así que, un camino para la obtención
de una inversa generalizada de A es obtener la descomposición LDU de A
y entonces aplicar la formula (5.32). Nótese que en el caso especial L = UT ,
la formula (5.32) se convierte en

1 T
G = U 1D U . (5.33)
Supóngase ahora que A es una matriz n n de…nida no negativa con rango r,
entonces podemos obtener una inversa generalizada de A en términos de la
descomposición UT DU usando la formula (5.33). Podemos también obtener
una inversa generalizada de A directamente en términos de la descomposición
de Cholesky. Sea A = TT T que representa la descomposición de Cholesky
de A, por de…nición, T es una matriz triangular superior con r elementos
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 93

positivos en la diagonal, digamos estos elementos i1 ; i2 ; :::; ir elementos de la


diagonal (donde i1 < i2 < < ir ), y con n r …las nulas. Tomando T1 una
matriz r n obtenida al eliminar las …las nulas de T. Entonces claramente,
A = TT1 T1 , y rk(T1 ) = rk(A) = r. Se sigue del Lema 8.1.1 que T1 tiene una
inversa a derecha, digamos R. De allí que

ARRT A = TT1 T1 R(T1 R)T T1 = TT1 T1 = A;

RRT es una inversa generalizada de A. Una inversa a derecha de T1 puede


ser obtenida haciendo uso del procedimiento descrito en la seccion 8.5d para
invertir una matriz triangular no singular. Observando esto, si T11 representa
la submatriz r r obtenida al eliminar todas las columnas de T1 excepto las
i1 ; i2 ; :::; ir columnas. Note que T11 es una submatriz principal de T y por lo
tanto (como T) es triangular superior y (se tiene que los elementos de T11
son no ceros) tal que T11 es no singular. Tomando R una matriz n r cuyas
i1 ; i2 ; :::; ir son la primera, segunda, ..., r ésima …la de T111 y cuyas otras
n r …las son nulas. Entonces, claramente, T1 R = T11 T 1 = I, asi que R
es una inversa a derecha de T1:

5.5.7. Matrices Seudo Simétricas


Una matriz n nA = faij g. Se dice que es seudo simétrica si AT = A
o equivalentemente si (aij = aij , 2aij = 0 , aij = 0), si aii = 0 para
i = 1; :::; n y aij = aij para
0 1
j 6= i = 1; 2; :::; n. Por ejemplo, la matriz 2 2 es seudo
1 0
simétrica.
Una submatriz principal de una matriz seudo simetrica es seudo simétrica
, como es fácilmente veri…cado.Otras propiedades básicas de matrices seudo
simétrica son descritas en los siguientes dos lemas.

Lema 14.6.1. La única matriz n n que es a la vez simétrica y seudo


simétrica es la matriz nula.

Prueba: Si una matriz An n es a la vez simétrica y seudo simétrica ,


entonces A = AT = A, implicando que 2A = 0 y que por lo tantoA = 0
.
94CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Lema 14.6.2. Sea A una matriz n n y P una matriz n m. Si A es seudo


simétrica , entonces PT AP es seudo simétrica .

Prueba. si A es seudo simétrica ,entonces

(PT AP)T = PT AT P = PT ( A)P = PT AP


El siguiente lema es una consecuencia inmediata del lema14.1.1, caracteriza
la seudo simétrica de una matriz cuadrada de la forma cuadrática.

Lema 14.6.3 Una matriz A n n es seudo simétrica si y solo si, para cada
vector columna x n-dimensional, xT Ax = 0.
Hay una relación entre la seudo simétrica y las de…niciones de no negatividad,
las cuales son descritas en el siguiente lema.

Lema 14.6.4 Una matriz An n, A = faij g es seudo simétrica si y solo


esta es de…nida no negativa y los elementos de la diagonal a11 ; a22 ; :::; ann son
iguales a cero.

Prueba. supóngase que A es seudo simétrica .Entonces, por de…nición, aii =


0 (i = 1; 2::::; n). Por otra parte, se sigue del lema 14.6.3 que A es de…nida
no negativa. Recíprocamente, supóngase que A es de…nida no negativa y que
sus elementos de la diagonal son iguales a cero.Entonces se sigue del lema
14.5.13 que aji = aij para i; j = 1; 2; ::::n. Asi que es seudo simétrica.

5.6. Traza de una matriz de…nida no negativa


5.6.1. Resultados básicos
Los siguientes resultados son una consecuencia inmediata del corolario 14.2.13

Teorema 14.7.1. Para alguna matriz A de…nida positiva, tr(A) > 0.

El siguiente teorema extiende el resultado del teorema 14.7.1 a matrices


de…nidas no negativas que no son de…nidas positivas, esto es, matrices semi-
de…nidas positivas.
5.6. TRAZA DE UNA MATRIZ DEFINIDA NO NEGATIVA 95

Teorema 14.7.2. Sea A = faij g una matriz n n no negativa. Entonces,


tr(A) 0, con la igualdad si y solo si los elementos de la diagonal a11 ; :::; ann
de A son iguales a cero, o equivalentemente, si y solo si A es seudo simétrica.

Prueba. De acuerdo con el corolario 14.2.13, a ii 0 (i = 1; 2; :::::n). Así


que,

tr(A) = a11 + a22 + :::: + ann 0


con tr(A) = 0 si y solo si a11 + a22 + :::: + ann 0 son iguales a cero. Que la
matriz no negativa A sea seudo simétrica es equivalente a que los elementos
de la diagonal de A sean ceros. es una consecuencia inmediata del Lema
14.6.4.

En el caso especial en que A es una matriz simetrica no negativa,el Teorema


14.7.2 ( a la luz del Lema 14.6.1) puede ser restaurado como sigue.

Corolario 14.7.3 Sea A = faij g una matriz n n simétrica no negati-


va.Entonces, tr(A) 0, con la igualdad si y solo si los elementos de la
diagonal de A, a11 ; a22 ; :::; ann son iguales a cero o equivalentemente si A = 0:

5.6.2. Extensión a productos de matrices de…nidas no


negativas
El siguiente teorema es una extensión del Teorema 14.7.1.

Teorema 14.7.4 Para alguna matriz An n de…nida positiva y alguna


matriz B n n no nula simétrica no negativa, tr(AB) > 0.

Prueba. Sea r = rk(B). Entonces,de acuerdo con el Teorema 14.3.7 B =


QT Q para alguna matriz Q r n de rango r. De allí que (de acuerdo con
el Teorema 14.2.9) QAQT es de…nida positiva, (usando el lema 5.2.1 y el
teorema 14.7.1) encontramos que

tr(AB) = tr(AQT Q) = tr(QAQT ) > 0


Como una consecuencia inmediata del teorema 14.7.4, tenemos el siguiente
corolario el cual es una extensión del corolario 14.7.3
96CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Corolario14.7.5 Sea A una matriz n n de…nida positiva y B una matriz


n n simétrica no negativa. Entonces tr(AB) 0, con la igualdad si y solo
si B = 0.

En el caso especial en que B = I,el teorema 14.7.4 se reduce al teorema 14.7.1,


y en el caso especial en que A = I, el corolario 14.7.5 se reduce a el corolario
14.7.3.
El siguiente teorema es una extensión del teorema 14.7.2.
Teorema 14.7.6 Sea A una matriz n x n no negativa y B una matriz
simétrica no negativa. Entinces tr(AB) 0, con la igualdad si y solo si
BAB es seudo simétrica.

Prueba. El teorema es verdadero en el caso especial en que B = 0, de allí


que según en el caso especial tr(AB) = 0 y BAB = 0. Así que en la prueba
del teorema es su…ciente prestar atención a la restricción en el caso en que
B 6= 0.

Supóngase que B 6= 0, y sea r = rk(B). Entonces, de acuerdo con el teorema


14.3.7, B = QT Q para alguna matriz Qr n de rango r.[a la luz del resultado
(5.2.3)] observemos que

tr(AB) = tr(AQT Q) = tr(QT AQ) (5.34)


De acuerdo al teorem a14.2.9, QAQT es de…nida no negativa.Así que, se sigue
del teorema 14.7.2 que tr(QAQT ) 0 , o equivalentemente, a que tr(AB)
0, con la igualdad si y solo si QAQT es seudo simétrica o equivalentemente,
si y solo si,

QAQT = QAQT (5.35)


De aqui que Q es de rango …la completo y que QT de rango columna com-
pleto, (como consecuencia del lema 8.3.1) tenemos que la condición (7.2) es
equivalente a la condición

QT QAT QT Q = QT QAQT Q (5.36)


Más aun,la condición (7.3) puede ser expresada como

(BAB)T = BAB
5.6. TRAZA DE UNA MATRIZ DEFINIDA NO NEGATIVA 97

Así que la condición (7.3) se sastiface si y solo si BAB es seudo simétrica.

En el caso especial en que B = I, el teorema 14.7.6 se reduce al teorema


14.7.2. Si A es simetrica (o bien de…nida no negativa), entonces los resultados
del teorema 14.7.6 pueden estar apuntados, como se describen el siguiente
corolario, el cual generaliza el corolario 14.7.3 ( en un camino diferente al
corolario 14.7.5)

Corolario 14.7.7 Si A y B representan matrices n n simétricas no nega-


tivas. Entonces, tr(AB) 0, con la igualdad si y solo si AB = 0

Prueba. Claramente, (BAB)T = BT AT BT ; el que BAB se simétrica im-


plica ( a la luz del lema 14.6.1) que BAB es seudo simétrica si y solo si
BAB = 0. Así que, se sigue del teorema 14.7.6 que tr(AB) 0, con la
igualdad si y solo si

BAB = 0 (5.37)

Para completar la prueba, es su…ciente demostrar que la condicion (7.4) es


equivalente a la condición AB = 0. En el caso especial en que A = 0 ,estas
dos condiciones son claramente equivalentes. Así que es su…ciente prestarle
atención a la restricción en el caso A 6= 0. Supóngase que A 6= 0, y sea r =
rk(A).De acuerdo con el teorema 14.3.7, A = QT Q para alguna matriz Q de
rango r. Así que, la condición (7.4) puede ser expresada como (QB)T QB = 0,
el cual ( de acuerdo con el corolario 5.3.2) es equivalente a la condición

QB = 0 (5.38)

Por otra parte, dado que QT es de rango columna completo, se sigue del lema
8.3.1 que la condición (7.5) es equivalente a la condición

QT QB = QT 0

la cual se puede expresar como AB = 0 se concluye que la condición (7.4)


es equivalente a la condición AB = 0.
En el caso especial en que A = I ó B = I, el corolario 14.7.7 se reduce al
corolario 14.7.3.
98CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

5.7. Partición de Matrices De…nidas No Neg-


ativas
5.7.1. Aplicabilidad de las formulas para rangos, de-
terminantes, inversas e inversas generalizadas
Considere una matriz A (cuadrada) particionada de la forma

T U
A=
V W
Donde T es una matriz m m (cuadrada), W es una matriz n n (cuadrada),
U de dimensiones m n y V de dimensiones n m, ó consideremos una
partición de la matriz B de la forma

W V
B=
U T
Supóngase que T es no singular. Entonces la formula (13.3.13) puede ser
usada para expresar jAj ó jBj en términos de el determinante de T y el
determinante de el complemento de Schur W VT 1 de T, y la formula
(8.5.15) puede ser usada para expresar rk(A) ó rk(B) en términos del orden
m de T y del rango de el complemento de Schur de T. Supóngase adicional-
mente que A ó B es no singular. Entonces, la formula (8.5.15) ó (8.5.16)
pueden ser usadas para expresar A 1 ó B 1 en términos de la inversa de T
y la inversa de el complemento de Schur de T.
Es A ó B no singular (y T no singular) si A ó B es de…nida no negativa ?
Si A ó B es de…nida positiva, entonces es claro por el lema 14.2.8 que A ó
B, respectivamente, es no singular y del corolario 14.2.12 T es no singular.
Si A ó B es una matriz simétrica semide…nida positiva, entonces es claro por
el corolario 14.3.12 que A ó B, respectivamente, es singular. Si A ó B es
una matriz no simétrica semide…nida positiva , es singular, entonces A ó B,
respectivamente, puede o no puede ser no singular. Además, igual si A ó B
es una matriz no singular semide…nida positiva, T puede ser singular.
Supóngase ahora que T es posiblemente singular si C(U) C(T) y R(V)
R(T) entonces la formula (9.6.2) ó (9.6.3) dan una inversa generalizada de
A ó B, respectivamente, en términos de una inversa generalizada arbitraria
T de T y una inversa generalizada arbitraria de el complemento de Schur
5.7. PARTICIÓN DE MATRICES DEFINIDAS NO NEGATIVAS 99

W VT U de T y la formula puede ser usado para expresar rk(A) ó rk(B)


en términos del rango de T y el rango de el complemento de Schur de T.
Son las condiciones C(U) C(T) y F(V) F(T) satisfechas si A ó B
son semide…nidas positivas? Si A ó B son simétricas ó bien semide…nidas
positivas. La respuesta a esta pregunta es si, como lo es evidente por el
corolario del siguiente lema.

Lema 14.8.1 Si A representa una matriz simétrica de…nida no negativa que


esta particionada asi:

T U
A=
V W
donde T (y por lo tanto W) son cuadradas.Entonces existen R y S matrices
tales que

T = RT R; U = RT S; V = ST R; W = ST S:
Prueba.De acuerdo con el corolario 14.3.8 existe una matriz X tal que A =
XT X.Particionando X como X = (R; S) (donde R tiene igual número de
columnas que T). Entonces,

RT RT R R T S
A = XT X = (R; S) =
ST ST R ST S
De allí que RT R, RT S, ST R y ST S son de igual dimensión que T, U, V y
W, respectivamente, T = RT R; U = RT S; V = ST R y W = ST S.

Corolario 14.8.2 Sea A una matriz simétrica de…nida no negativa que ha


sido particionada asi

T U
A= ;
V W
donde T ( y por supuesto W) son cuadradas. Entonces C(U) C(T) y
F(V) F(T). Similarmente, C(V) C(W) y F(U) F(W).

Prueba.De acuerdo al lema 14.8.1 existen matrices R y S tales que :

T = RT R; U = RT S; V = ST R; W = ST :
100CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Así que, haciendo uso del corolario 4.2.3 y 7.4.5, encontramos que:

C(U) C(RT ) = C(T)


y

F(V) F(R) = F(T):


Esto puede ser probado de manera similar que C(V) C(W) y R(U)
R(W)

5.7.2. Matrices Diagonales


El lema 14.2.1 caracteriza los conceptos de de…niciones no negativas, positi-
vas y semide…nidas positiva como su aplicación a las matrices diagonales.El
siguiente resultado extiende el resultado del lema 14.2.1 a matrices diagonales
.

Lema 14.8.3 Si Ai representa una matriz ni ni con (i = 1; 2; ::::::k); siendo


n = n1 + n2 + ::: + nk y se de…ne la matriz A diagonal como

A = diag(A1 ; A2 ; :::; Ak ):
Entonces,(1) A es de…nida no ngativa si y solo si A1 ; A2 ; :::; Ak son de…nidas
no negativas; (2) A es de…nida positiva si y solo si A1 ; A2 ; :::; Ak son de…nidas
positivas; (3) A es semide…nida positiva si y solo si el bloque diagonal
A1 ; A2 ; :::; Ak son de…nidas no negativas con al menos uno del bloque diag-
onal semide…nido positivo.

Prueba. Considere la forma cuadratica xT Ax ( donde x es un vector colum-


na n dimensional) y A una matriz. La partición de xT como
xT = (xT1 ; xT2 ; :::; xTk ), donde ( para i = 1; 2; :::; k) xi es un vector columna
ni dimensional. Entonces claramente,

xT Ax = xT1 Ax + xT A2 x2 + ::: + xTk Ak xk :


(1) Si A1 ; A2 ; :::; Ak son de…nidos no negativos, entonces por de…nición
xTi Ai xi 0 para cada xi con (i = 1; 2; :::; k), implicando que xT Ax 0 para
cada x y de allí que A es de…nida no negativa. Inversamente, si A es de…nida
5.7. PARTICIÓN DE MATRICES DEFINIDAS NO NEGATIVAS 101

no negativa, entonces se sigue del corolario 14.2.12 que A1 ; A2 ; :::; Ak son


de…nidas no negativas.
(2) Si A1 ; A2 ; :::; Ak son de…nido positivo, entonces, por de…nición, xTi Ai xi >
0 para cada xi no nulo con (i = 1; 2; :::; k) implicando que xT Ax > 0 para
cada x no nulo y de allí que A es de…nida positiva. Inversamente, si A es
de…nida positiva, entonces se sigue del corolario14.2.12 que A1 ; A2 ; :::; Ak
son de…nidos positivos.
(3) Supóngase que A1 ; A2 ; :::; Ak son de…nidos no negativos y que para al-
gún i, digamos i = i , Ai es semide…nido positivo. Entonces por de…nición
xTi Ai xi 0 para cada xi con (i = 1; 2; :::; k) y de allí que existe algún valor
no nulo de xi , digamos xi = xi para el cual xTi Ai xi = 0 se sigue que
T
xT Ax 0 para cada x con la igualdad para x0 (0; :::; 0; xi ;0; :::; 0). Así que,
A es semide…nida positiva.
Inversamente, supóngase que A es semide…nida positivo. Entonces se sigue
de la parte (1) que A1 ; A2 ; :::; Ak son de…nidos no negativos.Por otro lado se
sigue de la parte (2) que no todas las matrices A1 ; A2 ; :::; Ak son de…nidas
positivas y de aquí que (ellos son de…nidos no negativos) tal que al menos
una de ellas es semide…nida positiva.

5.7.3. De…niciones no negativa de un complemento de


Schur
Algunas condiciones su…cientes para las de…nidas positivas ó semide…nida
positiva de un complemento de Schur estan dadas por el siguiente teorema.

Teorema 14.8.4 Sea

T U
A=
V W
donde T es de dimensiones m m, U de dimensiones m n, V de dimensiones
n m y W de dimensiones n n.
(1) Si A es de…nida positiva, entonces el complemento de Schur W VT 1 U
de T y el complemento de Schur T UW 1 V de W son de…nidos positivos.
(2) Si A es simétrica semide…da positiva, entonces el complemento de Schur
W VT U de T y el complemento de Schur T UW V de W son
de…nidos no negativos.
102CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

(3) Si A es semide…nida positiva ( pero no necesariamente simétrica) y si


C(U) C(T) ó F(V) F(T), entonces el complemento de Schur W
VT U de T ( referente a T ) es de…nido no negativo.
(3’) Si A es semide…nida positiva y si C(V) C(W) ó F(U) F(W);
entonces el complemento de Schur T UW V de W es de…nido no negativo.

Prueba. Si centramos nuestra atención al resultado (3) y a las partes delos


resultados (1) y (2) que pertenecen a el complemento de Schur de T . El
resultado (3) y las partes de los resultados (1) y (2) que pertenecen a el com-
plemento de Schur de W pueden ser establecidos con argumentos análogos.
De…namos

Im T U
P=
0 In
De acuerdo al lema 8.5.2, P es no singular. Adicionalmente,

T I TT U
PT AP = T
V (T U) T Q

donde Q = W VT U (T U)T (I TT ) U.
Supóngase que A es de…nida positiva. Entonces de acuerdo con el corolario
14.2.10, PT AP es de…nida positiva. Así que, se sigue del corolario 14.2.12 que
Q es de…nido positivo. Una implicación adicional del corolario 14.2.12 es que
T es de…nida positiva y por lo tanto no singular, así que Q = W VT 1 U.
Concluimos que si A es de…nida positiva, entonces el complemento de Schur
de T es de…nido positivo.
Supóngase ahora que A es semide…nida positiva. Entonces de acuerdo con
el corolario 14.2.10, PT AP es semide…nida positiva. Así que se sigue del
corolario 14.2.12 que Q es de…nida no negativa.Si C(U) C(T) –el cual (a
la luz del corolario 14.8.2) debía ser el caso si A era simétrica - entonces ( de
acuerdo al lema 9.3.5) (I TT )U = 0, y por lo tanto Q = W VT U.
Concluimos que si A es simétrica semide…nida positiva, ó más generalmente,
si A es semide…nida positiva y C(U) C(T) , entonces el complemento de
Schur de T es de…nido no negativo.
Que el complemento de Schur de T es de de…nido no negativo si A es semi-
de…nida positivo y F(V) F(T) puede ser establecido en un argumento
similar
5.7. PARTICIÓN DE MATRICES DEFINIDAS NO NEGATIVAS 103

Como una çonversación"parcial del corolario 14.8.4, tenemos el siguiente re-


sultado.

Teorema 14.8.5 Sea

T U
A=
UT W
donde T es de dimensiones m m, de dimensiones m n y W de dimensiones
n n.

(1) Si T es simétrica de…nida positiva y el complemento de Schur W


UT T 1 U de T es de…nido positivo, ó si W es simétrica de…nida positiva y el
complemento de Schur T UW 1 UT de W es de…nido positivo, entonces
A es de…nida positiva.
(2) Supóngase que A es simétrica de…nida no negativa y que el complemento
de Schur W UT T U de T es de…nido no negativo .Supóngase
adicionalmente que C(U) C(T). Entonces, A es de…nida no negativa.
(2’) Supóngase que W es simétrica de…nida no negativa y que el complemento
de Schur T UW UT de W es de…nido no negativo.Supóngase adicional-
mente que F(U) F(W). Entonces, A es de…nido no negativo.

Prueba. Supóngase que T es simétrica de…nida positiva (en caso T es no


singular) ó más generalmente T es simétrica de…nida no negativa y C(U)
C(T).
De…namos

Im T U
P=
0 In
De acuerdo al lema 8.5.2, P es no singular.

PT AP = diag T; W UT T U
como puede ser veri…cado fácilmente utilizando el lema 9.3.5, ó equivalente-
mente

A = (P 1 )diag (T; W UT T U)P 1


(5.39)
Si W UT T U es de…nida no negativa, entonces se sigue del lema 14.8.3
W UT T U) es de…nida no negativa, implicando [a la luz de
que diag(T‚
104CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

la igualdad (8.1) y el corolario 14.2.10] que A es de…nida no negativa. Simi-


larmente, si T es de…nida positiva ( por lo tanto invertible) y W UT T 1 U
es de…nida positiva, entonces diag (T‚W UT T U) es de…nida positiva,
implicando que A es de…nida positiva.

Concluimos que si T es simétrica de…nida no negativa, W UT T U es no


negativa, y C(U) C(T); entonces A es de…nida no negativa, y que si T es
simétrica de…nida positiva y W UT T 1 U es de…nida positiva, entonces A
es de…nida positiva. Se puede probar, de modo similar, si W es simétrica no
negativa, T UW UT es de…nida no negativa, y F(U) F(W), entonces
A es no negativa, y que si W es simétrica de…nida positiva y T UW 1 UT
es de…nida positiva, entonces A es de…nida positiva.
En el caso especial de una matriz simétrica particionada, tenemos ( a la luz
del teorema 14.8.4 y el corolario 14.2.12) el siguiente corolario del teorema
14.8.5.

Corolario 14.8.6 Supóngase que una matriz A es simétrica es particionada


así

T U
A=
UT W
(donde T y W son cuadradas). Entonces, A es de…nida positiva si y solo
si T y el complemento de Schur W UT T 1 U de T son ambas de…nidas
positivas. Similarmente, A es de…nida positiva si y solo W y el complemento
de Schur T UW 1 UT de W son ambos de…nidos positivos.

5.8. Algunos resultados sobre determinantes


5.8.1. Determinante de una matriz de…nida no negati-
va
Lema 14.9.1. El determinante de una matriz simétrica de…nida positiva es
positivo. Además, el determinante de una matriz simétrica semide…nida pos-
itiva es igual a cero.

Demostración. Sea A una matriz n n simétrica de…nida positiva. De


acuerdo al Corolario 14.3.13 existe una matriz P invertible tal que A = PT P
5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES 105

de aquí (de acuerdo al teorema 13.3.7) det(P) 6= 0, se sigue entonces que

det(A) = det(PT P) = det(PT ) det(P) = det(P) det(P) = (det(PT ))2 > 0.

Las matrices no simétricas de…nidas no negativas que son no singular, y tienen


determinantes distintos de cero –re…riéndose al teorema 13.73.7– ¿puede
además decirse algo acerca de sus determinantes?. En particular, ¿es el de-
terminante de una matriz no singular, no simétrica y de…nida no negativa
como el de una matriz simétrica de…nida positiva, necesariamente positivo?.
Se sigue que las respuestas a estas preguntas se demostraron que son a…rma-
tivas.
Preliminarmente considerando el determinante de una posible matriz no
simétrica de…nida no negativa es conveniente establecer el siguiente resul-
tado sobre el determinante de matrices semi-simétrica recordando (el lema
14.6.4) que una matriz es semi-simétrica sí y sólo si es de…nida no negativa
y los elementos de su diagonal son ceros.

Teorema 14.9.2 Sea A una matriz n n antisimétrica. Si n es un número


impar, entonces det(A) = 0. Y, si n es un número par, entonces det(A) 0.

Demostración. Por de…nición AT = A, de modo que de acuerdo al Lema


13.2.1 y el Corolario 13.2.5

det(A) = det(AT ) = det( A) = ( 1)n det(A).


En consecuencia, si n es un numero impar det(A) = det(A), de donde
det(A) = 0.
La prueba de que det(A) 0 cuando n es un número par se hace por
inducción matemática: si n = 2

0 c
A=
c 0
para algún escalar c, luego

det(A) = c2 0.
Suponga ahora que el determinante de toda matriz antisimétrica (n 2)
(n 2) es mayor o igual a cero, donde n es un número par arbitrario (mayor o
106CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

igual a 4) para completar el argumento de inducción debemos demostrar que


el determinante de una matriz arbitraria antisimétrica A n n es mayor o
igual a cero. Para este propósito, es su…ciente restringir la atención en el caso
donde al menos uno de los n elemento de la primera …la es distinto de cero
(si la primera …la de A es nula, entonces det(A)). Asumamos que a1m 6= 0
para algún entero m (2 m n). Sea B = PT AP, donde P es una matriz
de permutación obtenida al intercambiar la segunda y la m ésima columna
de In (si m = 2, tomamos P = In ). Nótese que (de acuerdo al Teorema 13.3.4
y el Corolario 13.3.6)

det(B) = (det(P))2 det(A) = det(A).


Ahora, la partición de B como

B11 B12
B= ,
B21 B22

donde el tamaño de B11 es 2 2. De acuerdo al Lema 14.6, B es antisimétrica,


0 a1m
lo que implica que B11 = , BT12 = B21 y BT22 = B22 . Como
a1m 0
a1m 6= 0, obtenemos que

det(B11 ) = (a1m )2 > 0,


y se sigue del Teorema 13.3.8 que

det(B) = (a1m )2 det(B22 B21 B111 B12 ).


Pero,

(B22 B21 B111 B12 )T = BT22 BT12 (BT11 ) 1 BT21


= B22 ( B21 )( B111 )( B12 )
= (B22 B21 B111 B12 ).

De modo que B22 B21 B111 B12 , que tiene tamaño (n 2) (n 2), es
antisimetrica. Así, por hipótesis inductiva,

det(B22 B21 B111 B12 ) 0.


Luego, det(B) 0 y de allí que det(A) 0.
5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES 107

Estamos ahora en una posición de establecer el siguiente resultado sobre el


determinante de una matriz de…nida no negativa.

Teorema 14.9.3 Para cualquier matriz A de…nida no negativa, det(A) 0

Demostración. La prueba es por inducción matemática. Claramente el de-


terminante de cualquier matriz de…nida no negativa 1 1 es no negativa.
Suponga ahora que el determinante de toda matriz de…nida no negativa
(n 1) (n 1) es no negativo, y consideremos una matriz A n n de…nida
no negativa (para completar el argumento de inducción debemos demostrar
que det(A) 0). Es su…ciente restringirse al caso donde al menos uno de los
elementos de la diagonal de A formada por las componenetes a11 ; : : : ; ann de
A es no negativo, y por lo tanto positivo (si todas las componentes en esa di-
agonal de A son cero, entonces, de acuerdo al Lema 14.6.4, A es antisimétrica
y tenemos como consecuencia del Teorema 14.9.2 que el det(A) 0). Asum-
iendo que amm > 0 para algún entero m (1 m n). Sea B = PT AP,
donde P es una matriz de permutación obtenida al intercambiar la primera
y la m ésima columna de In (si m = 1 tomamos P = In ). Observamos (de
acuerdo al Teorema 14.2.9) que B es de…nida no negativa y que

det(B) = (det(A))2 det(A) = det(A).


Consideremos la partición de B como

B11 B12
B= ,
B21 B22

donde el tamaño de B11 es 1 1. Claramente, B11 = [amm ] y consecuente-


mente se sigue del Teorema 13.3.8 que

det(B) = amm det(B22 B21 B111 B12 ).


Además, de acuerdo a las partes (1) y (3) del Teorema 14.8.4, B22 B21 B111 B12
(que es (n 1) (n 1)) es de…nida no negativa. Luego, por hipótesis de
inducción

det(B22 B21 B111 B12 ) 0.


108CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Así,
det(A) = det(B) = amm det(B22 B21 B111 B12 ) 0.

De acuerdo al Lema 14.2.8 y al Corolario 14.3.2 tenemos como un corolario


del Teorema 14.9.3 el siguiente resultado el cual generaliza al Lema 14.9.1.

Corolario 14.9.4 El determinante de una matriz de…nida positiva o de una


matriz no singular, no simétrica y semide…nida positiva (estrictamente) posi-
tiva. El determinante de una matriz simétrica semide…nida positiva o de una
matriz singular no simétrica y semide…nida positiva es cero.

Que una matriz simétrica sea de…nida positiva puede ser averiguado desde los
determinantes de su cabecera principal de submatrices, el siguiente teorema
nos da las bases para hacer eso.

Teorema 14.9.5 Sea A una matriz simétrica n n y para k = 1; : : : ; n sea


2 3
a11 a12 a1k
6a21 a22 a2k 7
6 7
Ak = 6 .. .. .. .. 7
4 . . . . 5
ak1 ak2 akk

representan la cabecera principal de submatrices de A de orden k entonces,


A es de…nida positiva si y sólo si para k = 1; 2; : : : ; n det(Ak ) > 0; es decir, si
y sólo si los determinantes de todo n de la cabecera principal de submatrices
de A1 ; : : : ; An de A son positivos.
En la demostración del teorema 14.9.5, es conveniente hacer uso de los sigu-
ientes resultados los cuales son de interés, para ésta verdad.

Lema 14.9.6. Sea A una matriz simétrica n n (donde n 2) y la partición


de A como

A a
A= ;
aT c
Donde la dimensión de A son (n 1) (n 1): Entonces, A es de…nida
positiva si y sólo si A es de…nida positiva y det(A) > 0
5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES 109

Demostración. (Del lema 14.9.6). Si A es de…nida positiva, entonces es


evidente del corolario del 14.2.2 que A es de…nida positiva y del lema 14.9.1
que det(A) > 0.
Suponga que A es de…nida positiva (y por consiguiente no singular) y que
det(A) > 0 entonces, de acuerdo al teorema 13.3.8

det(A) = det(A ) (c aT A 1 a)
por consiguiente (de acuerdo la lema 14.9.1) det(A ) > 0 (y de ahí det(A) >
0), concluimos que el complemento Schur c aT A 1 a de A (como A misma)
es de…nida positiva y de ahí, [de acuerdo a la aparte (1) del teorema 14.8.5]
que A es de…nida positiva.

Demostración. (Del teorema 14.9.5) que los determinantes de A1 ; A2 ; : : : ; An


son positivos si A es de…nida positiva es una consecuencia inmediata del coro-
lario 14.2.12 y lema 14.9.1.Para el propósito de probar esto, suponga que los
determinantes de A1 ; A2 ; : : : ; An son positivos. La prueba consiste en estable-
cer por medio de argumentos de inducción matemática, que A1 ; A2 ; : : : ; An
son de…nidos positivos, el cual (desde A = An ), implica en particular que A
es de…nida positiva. Claramente A1 es de…nida positiva. Suponga ahora que
Ak 1 es de…nida positiva (donde 2 k n) y la partición de Ak es

Ak 1 ak
Ak =
aTk akk
Donde ak = (a1k ; a2k ; :::; ak 1;k )T . De ahí Ak 1 es (por suposición )de…nida
positiva( y de ahí jAk j > 0), se sigue del lema 14.9.6 que Ak es de…nida pos-
itiva. Concluimos, en base del argumento de inducción, que A1 ; A2 ; : : : ; An
son de…nidos positivos y que A en particular es de…nida positiva.

Podemos establecer una condición necesaria y su…ciente para la de…nición no


negativa de una matriz simétrica. Esta condición es análoga a la condición
necesaria y su…ciente para la de…nición positiva dada por el siguiente teorema
(el cual es distinto de la condición necesaria y su…ciente para de…niciones
positivas dada en el teorema 14.9.5).

Teorema 14.9.7 Sea A una matriz simétrica n n, entonces, A es de…nida


positiva si y sólo si (1) A es no singular y (2) el determinante de toda
110CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

submatriz principal de A es no negativa.


La prueba del teorema 14.9.7, requiere el siguiente resultado, el cual es im-
portante para la demostración del teorema 14.9.7.

Teorema 14.9.8 Sea A una matriz simétrica no singular n n (donde


n 3) y la partición de A es:

B a
A= ;
aT c
donde la dimensión de B es (n 1) (n 1). Entonces, B es no singular ó B
contiene una submatriz principal no singular (n 2) (n 2). Además , si B
es singular y B es cualquiera submatriz principal no singular (n 2) (n 2)
de B, entonces, jB jjAj < 0(i:e:; jB j y jAj son de signos opuestos).

Demostración: (del teorema 14.9.8) suponga que B es singular y sea A1 =


(B; a); De aquí las …las de A son linealmente independientes y las …las de A1
son también linealmente independientes y por lo tanto el rk(A1 ) = n 1:
Así, A1 contiene n 1 columnas linealmente independientes, implicando que
B contenga (por lo menos ) n 2 columnas linealmente independiente. De
allí (suponiendo) B es singular, tenemos que

rk(B) = n 2

Además B es simétrica. Concluimos (de acuerdo al teorema 4.4.11) que B


contiene una submatriz principal no singular(n 2) (n 2):
Sea B una submatriz principal no singular (n 2) (n 2) de B; esta
se obtiene sacando las k-ésimas …las y columnas (de B). Sea U =(U ; u);
donde U es la submatriz (n 1) (n 2) de In 1 obtenida por sacar las
k-ésimas columnas (de In 1 ) y u es la k-ésima columna de In 1 . Entonces,
U es una matriz de permutación, y

B UT Bu
UT BU = T
u BU uT Bu

[es decir la submatriz de la cabecera principal (n 2) (n 2) de UT BU es


B ].
Sea P una matriz n n
5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES 111

U 0
P= :
0T 1
Entonces, P es una matriz de permutación, y
0 1
T T B UT Bu UT a
U BU U a @
T
P AP = = u BUT
uT Bu uT a A :
aT U c
aT U aT u c
Asi haciendo uso del teorema 13.3.8 encontramos que

jAj = jPj2 jAj = jPT APj = jB jjFj


f11 f12
donde F = con
f21 f22

f11 = uT Bu uT BU B 1 UT Bu;
f12 = uT a uT BU B 1 UT a;
f22 = c aT U B 1 UT a:

Adicionalmente,

j B j=j U j2 j B j=j UT BU j=j B j (uT Bu uT BU B 1 UT Bu) =j B j f11

de aquí (suponiendo) B es singular y de ahí (por de…nición) B es no singu-


lar, tenemos que jBj = 0 y jB j =
6 0, implica [de acuerdo al resultado (9.8) ]
2
que f11 = 0 y por lo tanto que jF j = f12 : Haciendo uso del resultado (9.7)
obtenemos que

2
jAj = f12 jB j:
Concluimos que jB j y jAj son de signos opuestos.

Demostración: (del teorema 14.9.7). Si A es de…nida positiva, entonces, es


claro del lema 14.2.8, corolario 14.1.12 y lema 14.9.1 que A es no singular
y que el determinante de toda submatriz principal de A es positivo (y de allí
no negativa).
112CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Asi, es su…ciente probar que si A es no singular y el determinante de toda


submatriz principal de A es no negativa entonces A es de…nida positiva. La
prueba de esto es por inducción matemática.
Considere el primer caso relativamente trivial de una matriz de (1 1),
A = (a11 ) que es no singular y cuya submatriz principal solamente (de A
misma) tiene un determinante no negativo. Tenemos que a11 6= 0 y a11 0;
implica que a11 > 0 y de ahí que A es de…nida positiva.
a11 a12
Ahora considere el caso de una matriz A simétrica (2 2); A =
a21 a22
que es no singular y cuyas tres submatrices principales [(a11 ) , (a22 ) y A
misma] tienen determinantes no negativos. Tenemos que el determinante
jAj 6= 0; implica (de ahí jAj 0) que jAj > 0: Y a11 0; es decir a11 > 0
(de ahí si a11 = 0, podría ser el caso que jAj = a212 0). Basados en el
teorema 14.2.5 concluimos que A es de…nida positiva.
Ahora suponga que toda matriz simétrica (n 1) (n 1) que es no singular
y que todas submatrices principales tienen determinantes no negativos es
de…nida positiva y considere una matriz simétrica A n n que es no singular
y cuyas submatrices principal todas tienen determinantes no negativos. Para
completar el argumento de inducción debemos demostrar que A es de…nida
positiva.
Observe que j A j6= 0 (de aqui A es no singular) y que j A j 0 (de que
A es una matriz subprincipal de ella misma) y por lo tantoj A j> 0 . La
partición de A es :

B a
A=
aT c
donde la dimensión de B es (n 1) (n 1): observe que toda submatriz
principal de B es una submatriz principal de A y por lo tanto toda submatriz
principal de B tiene un determinante no negativo. Observe también que B es
no singular [ de ahi si B era singular, B podria (de acuerdo al teorema 14.9.8)
contener una submatriz principal (n 2) (n 2) cuyo determinante podría
ser en signo, opuesto a j A j, y de ahi negativo]. y por nuestra supocisión B
es de…nida positiva.
Concluimos (en base al lema 14.9.5) que A es de…nida positiva.

Para el propósito de establecer una condición necesaria y su…ciente para la


de…nición no negativa de una matriz simétrica, análogo a la condición nece-
5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES 113

saria y su…ciente dada en el teorema 14.9.7 para la de…nición positiva de una


matriz simétrica, esto ayuda a introducir los siguientes dos lemas:

Lema 14.9.9: Sea A una matriz simétrica n n de rango r. Entonces, A ,


(r r) corresponde a cualquier submatriz principal no singular de A, donde
existe una matriz Q (r n) de rango r, tal que A = QT A Q

Demostración: Suponga que A es la submatriz principal no singular r r


obtenida de sacar todas las columnas y …las de A excepto la i1 ; i2 ; i3 ; :::; ir
ésima …las y columnas (donde i1 < i2 < i3 < ::: < ir ). Tome P co-
mo cualquier matriz de permutación cuya primera, segunda, ..., r-esimas
columnas son las i1 ; i2 ; i3 ; :::; ir columnas respectivamente de In .
Sea B = PT AP, y la partición de P como P =(P1 ; P2 ); donde P1 es de
dimensión n r: Entonces, A = PT1 AP1 y de ahi

A B12
B=
BT12 B22
donde B12 = PT1 AP2 y B22 = PT2 AP2 , de ahi, rk(B) = rk(A) = r; se sigue
del lema 9.2.2 que B22 = BT12 A 1 B12 , asi:

B =(Ir ; A 1 B12 )T A (Ir ; A 1 B12 );


es decir que,

A = PBPT = QT A Q ,
donde, Q = (Ir ; A 1 B12 )PT :
Además, rk(Q) rk(A) = r, y (por lo tanto Q es de dimensión r n )
rk(Q) r: Así, rk(Q) = r.

Lema 14.9.10: Sea A una matriz simétrica n n de rk(A) = r y sea A


una submatriz principal no singular de A (r r). Entonces, A es de…nida
no negativa si y sólo si A es de…nida positiva.

Demostración: Suponga que A es de…nida no negativa. Entonces, de acuer-


do al cororario 14.2.12 A es de…nidad no negativa, por consiguiente A es
simétrica, y A es simétrica. asi, se sigue del cororario 14.3.12 que A es
de…nida positiva.
114CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Por otra parte suponga que A es de…nida positiva. Entonces, de acuerdo al


lema 14.9.9
existe una matriz Q tal que A = QT A Q: Asi, se sigue del teorema 14.2.9
que A es de…da no negativa.

El siguiente teorema da una condición necesaria y su…ciente para la de…nición


no negativa de una matriz simétrica, análoga a la condición necesaria y
su…ciente dada en el teoreama 14.9.7 para la de…nición positiva de una matriz
simétrica.

Teorema 14.9.11: Sea A una matriz simétrica n n. Entonces, A es de…nida


no negativa si y sólo si el determinante de toda submatriz principal de A es
no negativo.

Demostración: Suponga que la matriz simétrica A es de…nida no negativa.


Entonces, (de acuerdo al corolario 14.2.12) toda submatriz principal de A es
de…nida no negativa (y simétrica). Y, concluimos (en base al lema 14.9.10)
que el determinante de toda submatriz principal de A es no negativo.
De otro modo suponga que el determinante de toda submatriz A es no neg-
ativo. Sea rk(A) = r: Entonces de acuerdo al cororario 4.4.11 A contiene
una submatriz principal no singular r r llamada A . Claramente, toda sub-
matriz principal de A es submatriz principal de A, y de ahi (por suposición
) el determinante de toda submatriz principal de A es no negativo, implica
(de acuerdo al teorema 14.9.7) que A es de…nida positiva. Concluimos (en
base a el lema 14.9.10) que A es de…nida no negativa.

5.9. Ejercicios
Sección 14.1
1) Demostrar q ue una forma bilineal simetrica XT Ay (en los vectores
X y y n -dimensional) puede ser expresado en terminos de la
correspondiente forma cuadratica, que es la forma cuadratica cuya matriz es
A entonces veri…que que :
XT Ay = 1=2(x + y)T A(X + y) XT AX yT Ay
2) Demostrar que para cualquier forma cuadratica XT AX(en el vector X
n- dimensional)existe una unica matriz triangular superior B tal que XT AX
5.9. EJERCICIOS 115

y XT BX son iguales, y expresa los elementos de B en terminos de los ele-


mentos de A.
Seccion 14.2
3) Demostrara que mediante un ejemplo que la suma de dos matrices
semide…nidas pueden ser de…nidas positivas.
4) Demostrara mediante un ejemplo que existe matrices semide…nidas
positivas no singulares (no simetricas)
5) Demostrar mediante un ejemplo que existe una matriz A semi-
de…nida positiva n n y una matriz pn m ( donde m < n) tal que PT AP es
de…nida positiva.
6) Convertir los resultados 1 y 3 del teorema 14.2.9 los cuales son
matrices de…nidas no negativas(de…nidas positivas o semide…nidas positivas
), dentro de los resultados equivalentes para matrices de…nidas no positivas.
7) Sea fx1 ; : : : ; xr grepresenta un juego de matrices para un espacio
lineal V y sea A = fai;j g representa la matriz r r cuyos i; j-esimo elemento
es xi :xj - esta matriz es llamada como la matriz gram (o la gramian) del
conjunto fx1 ; : : : ; xr g y su determinanate es llamado como la gramian( o el
determinanate gram) de fx1 ; : : : ; xr g.
a) demuestre que A es simetrica y de…nida no negativa
b) demuestre que el conjunto x1 ; : : : ; xr son linealmente independientes si
y solo si A es no singular.
8) Sea A =fai;j g que representa una matriz n nde…nida simetrica
positiva, y sea B =fbi;j g= A 1 . demuestre que para i = 1 : : : n
bi;j 1=ai;j
. la igualdad se mantiene si y solo si para todo j 6= i ,ai;j = 0:
Seccion 14.3
9) sea A qu representa una matriz m n y D uan matriz diagonal tal
queA = PDQ para alguna matriz P de rango columna completo y alguna
matriz Qde rango …la completo. Extienda el resultado del lemma 14.3.1 ,
demostrando que el rk(A) es igual al numero de elementos de la diagonal no
cero en D.
10) sea A que representa una matriz n n idempotente simetrica y V
una matriz n n de…nida simetrica positiva , demustre que rk(AVA) = tr(A)
11) demostrar que una matriz An n . es tal que xT Ax 6= 0 para todo
vector Xn 1 no nulo, entonces A es otra de…nida positiva o de…nida negativa.
12) a) Sea A que representa una matriz simetrica n n de rank r .
tome P para unamatriz n n no singular y D una matriz n n diagonal
116CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

tal que A = PT DP , la existencia de tales matrices es garantizado por el


corolario 14.3.5. sea m el numero d elos elementos de la diagonal de D que
son positivos , llamados indice de inercia de A ( o de la forma cuadratica
XT AX, cuya matriz es A). de mustre que el indice de inercia esta bien
de…nido, en el sentido de que m no varia con la selección de P o D. es
decir, demostrara que si P1 Y P2 son matrices no singulares y D1 Y D2 son
matrices diagonales tal que
A = PT1 D1 P1 = PT2 D2 P2 , entonces D2 contiene el mismo nuemero pos-
itivo de elementos como D1 . demostrar que también que el numero de ele-
mentos de la diagonal de D son negativos e iguales a r m
(b) Sea A una matriz simétrica n n. mostrar que A = p` diag(. . . ..)p
para cualquier matriz p no singular y cualquier enteros m y r no negativos.
además demostrar que m es igual al índice de inercia de la matriz A y que
r = rank(A)
(c)Una matriz simétrica B se dice congruente a una matriz A si existe una
matriz P no singular tal que B = PA`P.( si B es congruente a A, entonces
A es congruente a B). Demostrar que B es congruente a A si y solo si tiene el
mismo rango e índice de inercia de A. Este resultado se llama ley de silvestre
de la inercia. Después de Joseph silvestre ()
(d)Sea A una matriz de rank r con índice de inercia m. demostrar que
A es no negativa si y solo si m = r, y es positiva si y solo si m = r = n.
13. Sea A una matriz simétrica n*n no negativa de rango r. entonces, de
acuerdo al teorema 14.3.7 existe una matriz B n*r ( de rango r ) tal que
A=BB‘. Sea x una matriz n*m (donde m r) tal que A=XX‘.
Demostrar que x=PbX
Demostrar que x=(B,0)Q para cualquier matriz ortogonal Q

Sección 14.4

14. Demostrar que si A es una matriz A que tiene una inversa generalizada
no negativa, entonces A es no negativa

Seccion14.5
15. Suponga una matriz A que tiene se descompone de la forma LDU es
decir A=LDU, Y sea d1, d2 ;....,dn que representan los elementos de la diagonal
de la matriz diagonal D , demostrar que jAj =d1 d2 ....dn
16. (a) Suponga que la matiz A n*n (con n 2) tiene una única descomposi-
ción LDU , es decir A= LDU y sea d1, d2 ;....,dn El primero, segundo,. . . . . . . . . ,
5.9. EJERCICIOS 117

n –esimo elemento de la diagonal de D, demostrar que d1 6= 0 (i=1,2,...n-1)


Y que d1 6= 0 si y solo si A es no singular.
(b)Suponga que la matiz simetriza A n*n (con n 2) tiene una única de-
scomposición U‘DU , es decir A=U‘DU y sea d1, d2 ;....,dn Que representan el
primero, segundo,. . . , n-esimo elemento de la diagonal de D. demostrar que
d1 6= 0 (i=1,2,...n-1) y que d1 6= 0 Si y solo si A es no singular.
17. Suponga que la matriz simétrica A tiene una única descomposición
U DU, es decir A=UT DU. Use el resultado de la parte (b) del ejercicio 16 y
T

demuestre que A no tiene otra descomposición LDU mas que A= UT DU.


18. demuestre que si una matriz tiene una descomposición LDU , entonces
la descomposición es única.
19. sea A una matriz n*n (con n 2). Tomando de ejemplo los resultados de
los ejercicios 16, 17 y 18. Demostrar que si A tiene una única descomposición
LDU o (en el caso que A sea simétrica) una única descomposición UT DU.
Entonces las primeras submatrices principales (de A) en el orden 1,2,. . . .
n-1 son no singulares (en relación a lo establecido en lo opuesto al corolario
14.5.7) y tiene una única descomposición LDU.
20. (a) sea A={aij } una matriz m*n no nula con rango r. demuestre que
existe una matriz de permutación m*m y una matriz de permutación Q tal
que
B11 B12
P AQ =
B21 B22
Donde B11 es una matriz no singular cuya cabecera de submatrices prin-
cipales (de orden 1, 2,. . . .r-1) son no singulares.
B11 B12
(b) sea B= Que representa cualquier matriz no nula de ran-
B21 B22
go r tal que B11 es una matriz r r no singular cuya cabecera de submatrices
principales ( de orden 1 , 2 , . . . .r-1) son no singulares. Demostrar que si
existe una única descomposición de B es de la formaB= LL12 D(U1 ,U2 )
Donde L1 es una matriz reducida, U1 es una matriz triangular superior y
D es una matriz diagonal r*r. y además demostrar que esta descomposición es
tal que B11 =L1 DU1 es la única descomposición LDU de B11 , D es no singular,
L2 =B21 U1 1 D 1 Y U2 =D 1 L1 1 B12
21. demostrar por medio de ejemplos que una matriz no simétrica semi-
de…nida positiva, no tiene descomposición LDU.
22. sea A una matriz no negativa n*n(posiblemente no simétrica) que tiene
una descomposición LDU, es decir A=LDU. Demostrar que los elementos
118CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

de la diagonal de la matriz diagonal D son no negativos (así ampliando el


teorema 14.5.9 y el corolario14.5.15)
23. sea A una matriz con rango columna completo m*k. y sea A=QR,
donde QR representan la descomposición de A.; es decir, sea Q representa la
única matriz m*k cuyas columnas son ortonormales con respecto al producto
interno usual y sea R que representa la única matriz triangular superior
k*k con los elementos de la diagonal positivos tal que A= QR. Demostrar
queAT A = RT R(de modo que AT A = RT R es la descomposición de cholesky
de AT A).
24. sea A una matriz m*k de rango r (donde r es posiblemente menor
que k). Considere la descomposición A=QR1 , donde Q es una matriz m*r
con columnas ortonormales y R1 es una submatriz n*k, cuyas …las son las r
…las no nulas de una matriz triangular superior R k*k, que tiene r elementos
positivos en la diagonal y n-r …las nulas (una descomposición semejante puede
ser obtenida usando los resultados del ejercicio 6.4, remitiéndose al ejercicio
6.5). Generalmente el resultado del ejercicio 23 puede demostrarse que si
el producto interno con respecto a las columnas ortonormales de Q es el
producto interno usual, entonces AT A = RT R(de modo que AT A = RT R es
la descomposición cholesky de AT A ).
25. sea A = faij g una matriz n*n tal que tiene una descomposición LDU .
Es decir, A = LDU:Y se de…ne G = U 1 D 1 L 1 ( el cual, fue discutido en
la sección 14.5 f , es una inversa generalizada de A)
a) demostrar que G = D 1 L 1 + (I U )G = U 1 D 1 + G(I L)
b) para i=1,. . . ,n , sea dj que representa el i-esimo elemento de la di-
agonal de la matriz diagonal D. y , para i,j=1,. . . ..,n, sea lij ,uij ,y gij que
representan la ij-esimo elemento de L,U y G respectivamente. Tome D 1 =
diag(d1 ; : : : :; dn ): Donde di = 1=di si di 0 y di es un escalar arbitrario , si
di = 0 . Demostrar que
X
n X
n
gii = di uik gki = di giklik
k=i+1 k=i+1

y que
8 9
>
> X
n
>
>
>
< giklik ; para j<i >
>
>
=
k=i+1
gij= X
n
>
> >
>
>
: uik gkj , para j>i >
>
>
;
k=i+1
5.9. EJERCICIOS 119

X
n X
n
Donde las sumas generadas giklik y uik gkj Son interpretadas como
k=n+1 k=i+1
0.
c) idear un procedimiento recursivo que use las formulas de la parte (b)
que genere una inversa generalizada de A.
Sección 14.6
26. veri…car que la submatriz principal de una matriz semi-simètrica, es
semi-simetrica
27. a) demostrar que la suma de matrices semi-simètrica es semi-simetrica.
b) demostrar que la suma A1 +A2 +,...,+AK de las matrices n*n A1 ,A2 ,. . . ,AK
es semi-simetrica si y solo si A1 ,A2 ,. . . ,AK son semi-simétricas.
c) demostrar que la suma A1 +A2 +,. . . ,+AK de las matrices n*n simétricas
A1 , A2 ,. . . , AK es una matriz nula si y solo si A1 ,A2 ,. . . ,AK son matrices
nulas.
Sección 14.7
X k
28. a) sea A1 , A2 ,..., AK matrices n*n no negativas. Demostrar que tr( Ai )
i=1
X
k
= 0 mantiene la igualdad si y solo si Ai Es semi-simetrica o equivalen-
i=1
temente si y solo si A1 , A2 ,..., AK son semi-simétricas de este modo gen-
Xk
eralizamos el teorema 14.7.2 ( nota: que sea Ai semi-simetrica o
i=1
equivalentemente para A1 , A2 ,..., AK sea semi-simetrica , es el resultado de
la parte b del ejercicio 27)
b)sea A1 , A2 ,..., AK matrices n*n no negativas simetricas. demostrar que
Xk X
k
tr( Ai ) = 0 mantiene la igualdad si y solo si Ai =0 o equivalentemente
i=1 i=1
,si y solo si A1 , A2 ,..., AK son matrices nulas , en relacion con la generalizacion
del corolario 14.7.3
29. Demostrar mediante un ejemplo que existen matrices positivas n*n
(para n>1 ) A y B (no simétricas) tal que tr(AB)>0.
30. a) demostrar con un ejemplo que existen matrices simétricas n*n (para
n >1) A y B positivas tal que, el producto AB tenga uno o mas elementos
negativos en la diagonal (y de aquí se tiene que AB es no negativa)
b) demostrar, sin embargo que el producto de dos matrices simétricas
positivas n*n no pueden ser positivas.
120CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

31. Sea A = aij y B = bij matrices n*n , y sea C una matriz n*n cuyos
ij-esimo elemento cij = aij bij , es el producto del ij-esimo elemento de A
y B. demostrar que si A es no negativa y b es no negativa y simétrica ,
entonces C es no negativa. Demostrar además que si A es positiva y B es
simétrica y positiva , entonces C es positiva ( nota: tome x = (x1 ; :::; xn )T
un vector cualquiera n*1 y F=(f1 ; ::::;fn ) una matriz tal que B = F T F ,
comience demostrando que xT Cx = tr(AH), dondeH = GT G con G =
(x1 f1 ; ::::; xn fn ):
32. sea A1 ; A2 ; :::; AK y B1 ; B2 : : : : ; Bk matrices simétricas no negativas
n*n. demostrar que. . . . . . . . . . Mantiene la igualdad si y solo si Ai Bi =0 para
i=1,.., k en relación con el corolario 14.7.7 y el resultado de la parte b del
ejercicio 28.
Sección 14.8
33. sea A una matriz simétrica no negativa que fue particionada como:
T U
A=
V W
Donde T (y por lo tanto W) es cuadrada. Demostrar que VT 1 U y
UW 1 V son simétricas y no negativas
34. demostrar mediante un ejemplo que existe una matriz A (m+n) (m+n)
T U
semide…nida positiva (no simétrica) de la forma A= , donde T es
V W
una matriz de dimensión m*m, W de dimensión n*n, U de dimensión m*n y
V de dimensión n*m , por lo cual C(U) C(T) y/o (v) (T), la expresión
(9.6.1) no necesariamente es igual al rango(A) [ rango(T) +rango(W-VT 1 U)
no es necesariamente igual al rango(A)], y la formula (9.6.2), no necesaria-
mente da una inversa generalizada de A.
35. Demuestre mediante un ejemplo que existe una matriz A (m+n)*(m+n)
T U
simétrica particionada de la forma A= , donde T es una matriz
UT W
de dimensión m*m, u de dimension m*n, W de dimensión n*n, tal que T es
de…nida no negativa (dependiendo de la elección de T ) el complemento de
schur W-UT T U de T relativo a T es de…nida no negativa , pero A es no
es de…nida no negativa.
36. una matriz A={aij } n*n y se llama dominante diagonalmente si
i=1,2. . . . n jaij j> j=1(j i) jaij j ( en el caso especial n=1, A es llamado domi-
nante diagonalmente si este es no nulo).
a) demostrar que la principal submatriz de una matriz diagonalmente
5.9. EJERCICIOS 121

dominante es diagonalmente dominante.


b) sea A= {aij } que representa una matriz diagonalmente dominante y
A11 a
la partición de A esta dada como A= [de modo que A11 es de
bT ann
dimensión (n-1)*(n-1)], y sea C=A11 -(1/ann )abT el complemento schur de
ann . Demostrar que C es una matriz diagonalmente dominante.
c) demostrar que una matriz diagonalmente dominante es una matriz no
singular.
d) demostrar que una matriz diagonalmente dominante tiene una única
descomposición LDU.
e) sea A= {aij } una matriz simétrica n*n. demostrar que si A es diago-
nalmente dominante y si los elementos de la diagonal A11 , A22 . . . , Ann de A
son todos positivos, entonces A es de…nida positiva.
Sección 14.9
37. sea A={aij } una matriz de…nida positiva simétrica n*n. demostrar
que det(A) i=1 aii, y la igualdad se mantiene si y solo si A es diagonal.
a b
38. sea A= donde a , b , c y d son escalares.
c d
a) Demostrar que A es de…nida positiva si y solo si a>0, d>0 y jb+cj/2< ad.
b) demostrar que, en el caso especial que A sea simétrica (donde c=b), A
es de…nida positiva si y solo si a>0, d>0 y jbj< ad.
39. mediante un ejemplo, usando el resultado del ejercicio 38, demostrar
que si una matriz A= {aij } n*n es semi simétrica y de…nida positiva, entonces,
para j i=1,2,. . . n, jaij j< aii ajj Max (aii ,ajj ).
40. demostrar mediante un ejemplo , que es posible para llos detrmi-
nanates de ambas cabeceras principales de submatrices de una matriz si-
metrica 2*2 sin ser no negativa, la matriz sera de…nida no negativa y que
para n= 3 , esto es posible para los determinantes de todo n de la cabecera
principal de submatrices de una matriz simetrica n*n, es no negativa y la
matriz sera no singular sin la matriz ser de…nida no negativa.
Sección 14.10
41. sea V un subespacio de n*1 de dimensión r (donde r 1). Tome
B=(b1,b2,. . . .) una matriz n*r cuyas columnas b1,b2,. . . ,br forman una base
para V, y sea L una inversa a izquierda de B. sea una función que se le
asigna el valor x*y ,para un par de vectores x e y en V.
a) sea F un producto interno arbitrario para (r*1), y s*t indica el val-
or asignado para f, por un par arbitrario de vectores s y t r-dimensional.
122CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

Demostrar que es un producto interno (para V) si y solo si existe F tal


que (para todo x e y en V) : x*y=(Lx).(Ly).
b) demostrar que es un producto interno (para V) si y solo si, allí existe
una matriz W simétrica de…nida positiva r*r , tal que ( para toda x e y en
V) x*y=x’L’WLy.
c) demostrar que es un producto interno (para V) si y solo si existe
una matriz W simétrica de…nida positiva n*n tal que (para toda x e y en V
) x*y=x’Wy.
42. sea V que representa un espacio linear de matrices m*m, sea A.B el
valor asignado por el producto cuasi interno de algún par de matrices A y B
(en V) demostrar que el conjunto U={A V:A.A=0}. El cual consta de todas
las matrices en V con una cuasi norma cero, es un espacio lineal.
43. sea W una matriz simétrica, de…nida positiva m*m, y V una matriz
simétrica de…nida positiva n*n.
a) demostrar que la función que se le asigna el valor tr (A’WBV) a un
par arbitrario de matrices A,B m*n, cumple como un producto interno para
el espacio lineal m*n.
b) demostrar que la función que se le asigna el valor tr (A’WB) , de un
par arbitrario de matrices A y B, cumple como un producto interno para
m*n.
c) demostrar que la función que asigna el valor tr(A’WBW) de un par
arbitrario de matrices A y B, cumple como un producto interno para m*n.
Sección 14.12
44. sea A una matriz q*p, B una matriz p*n, y C una matriz m*q.
demostrar que (a) CAB(CAB) C=C si y solo si rango(CAB)=rango(C) y
(b) B(CAB) CAB=B si y solo si rango(CAB)=rango(B) [así (de acuerdo
al corolario 14.11.3) extendiendo el resultado de la parte 5 y 1 del teorema
14.12.11]
45. sea U un subespacio de n 1 , sea x una matriz cuyas columnas abar-
can U, y sea W y V que representan matrices simétricas de…nidas positivas.
Demostrar que cada una de las siguientes condiciones es necesaria y su…ciente
para la proyección PX:W y de y sobre U con respecto a W es lo mismo (para
todo Ay en n ) como la proyección Px.vy de y sobre U con respecto a V:
a) V=P’x.wVPx.w+(I-Px.w)’V(I-Px.w);
b) existe un escalar c, una matriz K p*p y una matriz H n*n tal que
V=Cw+WKXT W+ (I-Px:w )T H(I-Px:w ).
46. sea y un vestor columna n-dimensional, sea U un subespacio de <n 1
y sea X una matriz n p, cuyo espacio columna es U, se sigue del corolario
5.9. EJERCICIOS 123

12.1.2 que y ?1 U si y solo si X T y = 0, y de forma mas general, se sigue del


lemma 14.12.1 que para cualquier matriz W simetrica, de…nida positiva n n,
y ?w W U, si y solo si X T W y = 0. ampliando este resultado(en la direccion
indicada, en la discusion que se sigue en el lemma 14.12.1) cuando las partes
(3) y (5) del lemma 14.12.1 demostrar que para cualquier matriz W simetrica
, de…nida no negativa n n, y ?w W U si y solo si X T W y = 0:
47. sea W una matriz simetrica de…nida no negativa n n
a) generalice el teorema 14.12.12 demostrando que , para cualquier matriz
X n n y cualquier matriz U n q tal que C(U ) C(X)
1) W PX;W U = W U y U T W PX;W = U T W:
T
2)PU;W PX;W = PU;W y PX;W W PU;W = W PX;W PU;W = W PU;W :
b)generalice el corolario 14.12.13 demostrando que para cualquier matriz
X n p y cualquier matriz U n q , tal que C(U ) = C(X); W PU;W = W PX;W :
48) sea U un subespacio de <n 1 , sea A una matriz n n y W una matriz
simetrica de…nida no negativa n n y sea X cualquier matriz n p , cuyo
espacio columna es U:
a) demostrar que A es una matriz proyeccion para U, con respecto a W
si y solo si A=PX;W + (I PX;W )Xk para alguna matriz K p n.
b) demostrar que si A es una matriz proyeccion para U con respecto a W
entonces W A = W PX;W :
49) sea A una matriz n n y y W una matriz simetrica de…nida no negativa
n n.
a) demostrar (usando el resultado del ejercicio 48) que si AT W A = W A
o equivalentemente, si (I A)T W A = 0 , entonces A es una matriz proyec-
cion con respecto a W y en particular A es una matriz proyeccion para C(A)
con respecto a W, y asi reciprocamente , demostrar que si A es una matriz
proyeccion con respecto a w , entonces AT W A = W A(en relacion con la
generalizacion del teorema 14.12.16).
b)demostrar que si A es una matriz proyeccion con respecto a W y en
particular A es una matriz proyeccion para C(A) con respecto a W.
c)demostrar que si A es una matriz proyeccion con respecto a W si y
solo si WA es simetrica y W A2 = W A (en relacion a la generalizacion del
corolario 14.12.17).
50) sea U un subespacio de <n 1 y sea X una matriz n p, cuyo espacio
columna es U, W y V matrices de…nidas no negativas simetricas n n .
demostrar (haciendo uso del resultado del ejercicio 46), que cada una de las
siguientes dos condiciones, es necesaria y su…ciente para toda proyeccionde y
124CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS

sobre U con respecto a W, es una proyeccion (para todo y en <n ) de y sobre


U con respecto a V:
a)X T V PX;W = X T V , o equivalentemente X T V (I PX;W ) = 0:
b)existe una matriz Q p p , tal que VX=WXQ, o equivalentemenye
C(VX) C(W X) (en relacion con la generalizacion de las partes 1 y 4 del
teorema 14.12.18)
51)sea X una matriz n n y y W una matriz simetrica de…nida no negativa
?
n n.como en el caso especial donde W es de…nida positiva sea: fCW (X) =
n 1
fy 2 < : y ?w C(X)g
a) mediante un ejemplo, haciendo uso del resultado del ejercicio 46 demostrar
que
?
CW (X) = N (X T W ) = C(I PX;W )
en relacion con la generalizacion del lemma 14.12.21.
b) demostrar que dim CW ?
(X) = n rank(W X) = n rank(X) =
n [C(X)] :
en relacion con la generalizacion del corolario 14.12.22.
c) mediante un ejemplo, haciendo uso del resultado del ejercicio 46, demostrar
que para cualquier solucion b* de un sistema lineal X T W Xb = X T W y (en
?
b), el vestor y -Xb* es una proyeccion de y sobre CW (X) con respecto a W(
en relacion con la extension del teorema 14.12.23).
Capítulo 6

Diferenciación de matrices

Es natural y conveniente usar terminología y notación matricial en de…ni-


ciones y discusiones de ciertas funciones de una o más variables. En el capit-
ulo ??, se uso la notación y terminología matricial en la de…nición y discusión
de formas lineales, bilinéales y cuadráticas. En algunos casos, el uso de no-
tación y terminología matricial es inevitable. Considere por ejemplo el caso
donde el determinante de una matriz n n es considerada como una función
de sus m2 componentes.
La diferenciación de matrices es el cálculo de la primera, segunda, o derivadas
parciales de orden superior de una función o funciones que han sido expre-
sadas en términos de matrices. Es natural, conveniente y en algún caso nece-
sario, emplear notación y terminología matricial. No solamente las funciones
pueden ser expresadas en términos de matrices, pero las funciones pueden
contener elemtos de un vector o matriz, como puede ser el caso, donde los
elementos de la inversa de una matriz A (invertible) n n fueran considerada
como función de los elementos de A. La diferenciación de matrices es de con-
siderable importancia en estadística, es especialmente utilizada en relación
con la estimación máxima de verosimilitud de los parámetros en un mode-
lo estadístico. La estimación máxima de verosimilitud de los parámetros de
modelos satisfacen la ecuación( conocida como la ecuación de verosimilitud)
obtenida por la ecuación en cero de la derivada de primer orden (con respecto
a los parámetros del modelo) del logaritmo de la llamada función de verosimil-
itud, en algunos casos la función de verosimilitud implica el determinante y/o
inversa de una matriz. Adicionalmente, una aproximación (conveniente para
muestras extensas) de la varianza-covarianza de una matriz de una estimación
máxima de verosimilitud, pueden obtenerse invirtiendo la matriz (conocida

125
126 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

como la matriz de información) cuyos (i; j)-ésimos elementos es 1 veces la


derivada parcial de segundo orden (con respecto a los i ésimos y j ésimos
parámetros) del logaritmo de la función de verosimilitud.

6.1. Preliminares
Sea f una función cuyo dominio es un conjunto S de Rm . Entonces f es
continua en un punto interior c de S si

lim f (x) = f (c)


x!c

Por de…nición, lim f (x) = f (c) es un escalar b tal que, para todo escalar
x!c
positivo e, existe una vecindad Ne de c tal que jf (x) bj < e para todo x en
Ne distintos de c. Una matriz F p x q de funciones, donde cada dominio de
esta, está en el mismo conjunto S de Rm 1 , diremos que esta es continua en
un punto interior c de S, si todos los elementos pq de F son continuos en c.

6.2. Derivadas parciales de primer orden


Sea f una función, de…nida en el conjunto S, de un vector x = (x1 ; :::; xm )0
de m variables. Suponga que S contiene al menos algunos puntos interiores, y
sea c = (c1 ; :::; cm )0 un punto arbitrario de estos, además , sea Uj la J esima
columna de Im.
Considere el límite
f (c+tuj ) f (c)
lim
I!0 t
Cuando este limite existe, este es llamado el j esimo (primer-orden) de
la derivada parcial de f en c y es denotada por Dj f (c). Note que c + tuj
=(c1 ; :::; cj 1 ; cj + t; cj+1 ; :::; cm )0 , así que Dj f (c) puede considerarse como
una derivada ordinaria (de cj ) de la función de una variable obtenida de f (x)
por el ajuste x1 ; :::; xj 1 ; xj+1 ; :::; xm en c1 ; :::; cj 1 ; cj + t; cj+1 ; :::; cm respec-
tivamente. El escalar Dj f (c) puede ser visto como el valor asignado por el
punto c por una función. Esta función es denotada por el símbolo Dj f ( hace
referencia a la j esima derivada parcial de f ). Su dominio consiste de estos
puntos interiores (de S) en la cual la j esima derivada parcial (de f ) esta
de…nida. El símbolo D f representa el vector …la (D1 f; : : : ; Dm f ) cuyos
elementos son la derivada parcial de f , y por consiguiente el símbolo D f (c)
6.2. DERIVADAS PARCIALES DE PRIMER ORDEN 127

es el vector …la (D1 f (c); : : : ; Dm f (c)) cuyos elementos son los valores de las
funciones D1 f; : : : ; Dm f de c - note que Df (c) es de…nida únicamente, si c
es tal que todas las m derivadas parciales de f , existen c. el vector columna
(Df )’hace referencia al gradiente (ó vector gradiente) de f .
Una notación alternativa se obtiene escribiendo @f (x)=@xj para la j
esima derivada parcial de f en x, escribiendo @f (x)=@x0 para el vector
…la [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de derivadas parciales de f en x, y escri-
biendo @f (x)=@x para el vector columna [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de
derivadas parciales de f en x, en este contexto @f (x)=@x0 puede ser llamada
la derivada f (x) con respecto a x0 , y @f =@x puede ser llamada la derivada
de f (x) con respecto a x. Los símbolos @f (x)=@xj , @f (x)=@x0 , @f (x)=@x
tienen la mismas interpretaciones como Dj f (x); Df (x),y [Df (x)]0 , respecti-
vamente y son algunas veces abreviadas a @f / @xj , @f / @x0 , y @f / @x:
En ciertas ocasiones (para ser acertados dentro del contexto), estos símbolos
pueden ser usados para representar la función Dj f y los verctores de fun-
ciones Df y (Df )0 (más que sus valores en x.) La función f (con dominio
S en Rm 1 ) será continuamente diferenciable en el punto interior c de S , sí
D1 f (x); : : : ; Dm f (x) existen y son continuas para todo punto x en alguna
vecindad de c. Y se puede demostrar, que si f es continua y diferenciable en
c entonces.

f (x) [f (c) + D f (c)(x c)]


lim = 0; (6.1)
x !c jjx cjj
Lo cual indica, que para x su…cientemente cerrada en c, la formula de Taylor
de primer orden f (c) + Df (c)(x c) aproxima a f (x) con un error que es
de un orden mas pequeño que jjx cjj (e.g, Magnus and Neudecker, 1988,
chap.5).
Si la función f es tal que el resultado (1.1) se mantiene, entonces f (x) ! f (c),
como es evidente utilizando lo anterior

f (x) [f (c) + Df (c)(x c )]


f (x) = f (c) + Df (c)(x c) + jjx cjj :
jjx cjj

Así, tenemos el siguiente lema

Lema. Si f es una función, con dominio S en Rm 1 es continuamente difer-


enciable en un punto interior c de S, entonces f es continua en c.
128 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Una función f para la cual el resultado (1.1) se mantiene, se dice que es


diferenciable en c. Es importante mencionar que mientras la función sea
continuamente diferenciable en c, es una condición su…ciente para que f sea
diferenciable en c y generalmente no es necesario demostrarlo por ejemplo a,
Magnus and Neudecker (1988, secs. 5.9 y 5.10).

6.2.1. Derivadas parciales de orden superior


Como en la subsección c, sea f una función, de…nida en el conjunto S, de un
vector x = (x1 ; : : : ; xm )0 de m variables, suponga que S contiene al menos
algunos puntos interiores y sea c que representa un punto arbitrario de es-
tos, suponga que D1 f (x); : : : ; Dm f (x) existe para todo x en alguna vecin-
dad de c (tal que c es un punto interior de los dominios de las funciones
D1 f (x); : : : ; Dm f (x). Cuando la i esima derivada parcial (de primer orden)
Dj f existe en c, esta es llamada la i; j esima derivada parcial de segundo
orden de f en c y es denotada por D2ij f (c). El escalar D2ij f (c) puede ser
considerado como el valor asignado por una función al punto c. Esta función
es denotada por el símbolo D2ij f (y hace referencia a la ij esima derivada
parcial de segundo orden de la función f ).
El símbolo Hf representa la matriz mxm cuyo i; j esimo elemento es D2ij f
y por consiguiente el símbolo Hf (c) representa el valor de Hf en el punto
c, que es, la matriz mxm cuyo i; j esimo elemento es D2ij f (c). La matriz
Hf es llamada la matriz Hessiana de f .
Una notación alternativa puede obtenerse escribiendo @ 2 f (x)=@xi xj o en el
caso especial donde j = i, @ 2 f (x)=@x2i para la i; j esima derivada par-
cial de segundo orden D2ij f (x) de f en x y escribiendo @ 2 f (x)/@x@x0 para la
matriz Hessiana Hf (x) de f en x. Los símbolos @ 2 f (x)=@xi xj , @ 2 f (x)=@x2i , y
@ 2 f (x)/@x@x0 algunas veces son abreviados a @ 2 f =@xi xj , @ 2 f =@x2i , y @ 2 f /@x@x0
respectivamente y algunas veces usan para representar las funciones D2ij f y
D2ii f ,y la matriz de funciones Hf (más que sus valores en x).
La función f será dos veces (o doblemente) continuamente diferenciable en
c si f y todas sus derivadas parciales de primer orden son continuamente
diferenciables en c ó, equivalentemente, si todas las derivadas parciales de
primer orden y segundo orden de f existen y son continuas en todo punto en
alguna vecindad de c, se puede demostrar que si f es dos veces continuamente
diferenciable en c, entonces Hf es simétrica en c, [i.e., Hf (c) es simétrica,
ó, equivalentemente, D2ji f (c) = [D2ij f (c) para todo i y j < i]- remítase para
ejemplo a, Magnus and Neudecker (1988, sec. 6.7). Puede demostrarse mas
6.2. DERIVADAS PARCIALES DE PRIMER ORDEN 129

adelante que si f es dos veces continuamente diferenciable en c, entonces

f (x) [f (c) + D f (c)(x c) + (1=2)(x c)T H f (c)(x c)]


lim = 0;
x !c jjx cjj2
(6.2)
lo cual indica que, para x su…cientemente cerrado a c, entonces la formula
de Taylor de segundo orden .

f (c) + D f (c)(x c) + (1=2)(x c)T H f (c)(x c)

Aproxima a f (x) con un error que es de orden mas pequeño que jjx cjj2 (e.g.,
Magnus and Neudecker, 1988, sec. 6.9).
Las derivadas parciales de f de orden k (donde k 2) puede ser de…nida
recursivamente. Suponga que el (k 1) esimo orden de la derivada parcial
de f en x, existe para todo x en alguna vecindad de c. para j = 1; : : : ; k,
sea i; j que representa un entero arbitrario entre 1 y m inclusive, cuando la
i1 esima derivada parcial de la i2 : : : ik esima del (k 1) esimo orden
de la derivada parcial de f en c existe es llamado el i1 i2 : : : ik esimo del
k esimo orden de la derivada parcial de f en c. La función cuyo valor en c
es el i1 i2 : : : ik esimo orden de la derivada parcial de f en c se re…ere como
el i1 i2 : : : ik del k esimo orden de la derivada parcial de f .
El símbolo @ 2 f (x)=@xi ; :::; @xik (o en forma abreviada @ 2 f =@xi ; :::; @xik )
puede ser usado para representar a la i1 ; : : : ; ik esima derivada parcial del
k esimo orden de f en x.
La función f puede ser k veces continuamente diferenciable en c si f y todas
sus primeras derivadas parciales del (k 1) esimo orden son continua-
mente diferenciables en c ó, equivalentemente si todas las primeras derivadas
parciales del k esimo orden de f existen y son continuas en todo pun-
to en alguna vecindad de c, se puede demostrar que si f es k veces con-
tinua diferenciable en c, entonces para cualquier permutación j1 ; : : : ; jk de
la secuencia i1 ; : : : ; ik , la ( j1 ; : : : ; jk y i1 ; : : : ; ik ) esima derivadas par-
ciales del k esimo orden de f son idénticas y, denotando i1 ; : : : ; is (i1 <
::: < is ) los distintos enteros representados entre i1 ; : : : ; ik y denotando por
Kj el número de enteros en la secuencia i1 ; : : : ; ik igual para ij , esto se
puede escribir @ k f (x)=@xki11 ; :::; @xkiss (o simplemente @ k f =@xki11 ; :::; @xkiss ) para
@ k f (x)=@xi1 ; :::; @xik .Se puede demostrar que si f es k veces continuamente
diferenciable en c, entonces, para x su…cientemente cerrada a c. Entonces la
130 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

formula de Taylor de k esimo orden aproxima a f (x) con un error que es


de orden mas pequeño que jjx cjjk .
Nótese que si f es k veces continuamente diferenciable en c. Entonces f es
continuamente diferenciable en c. y es también 2; : : : ; k 1 veces continua-
mente diferenciable en c. a demás si f es k veces continuamente diferenciable
en c, entonces f es k veces continuamente diferenciable en todo punto en
alguna vecindad de c, esto puede ser fácilmente veri…cable.

6.2.2. Derivadas parciales de una función de una ma-


triz sin restricción o simétrica
Suponga que el dominio de la función f es diferenciable en el conjunto Rm m
de todas las matrices m x n en o en general, en un conjunto S en Rm m
que contiene al menos algunos puntos interiores. Entonces f puede ser con-
siderada como una función de una matriz de m x n donde X = fxij g de
mn variables “independientes”. Y, para propósitos de diferenciación de f ,
los elementos de X pueden arreglarse en forma, de un vector columna X m
x n dimensional e y f puede ser reinterpretada como una función de X en
el caso en el que el dominio de f es el conjunto, llamado S obtenido por el
rearreglo de los elementos de cada matriz m x n en S, en forma de un vector
columna . (Debería notarse que un vector columna mn dimensional es un
punto interior de S si y solo si es un rearreglo de una matriz m x n que es
un punto interior de S).
Por de…nición los elementos @f =@xij (i = 1; : : : ; m; j = i; : : : ; n)del vector
columna mn dimensional @f =@x son derivadas las parciales de primer orden
de f en x,(y los elementos de la matriz mnxmn @f =@x@x0 son la derivadas
parciales de segundo orden de f en x). Sin embargo, en vez de presentar la
de la derivada parcial de primer orden de f en x (o equivalentemente, X) en
la forma del vector @f @x es natural y muchos casos conveniente presentarlos
en la de la matriz mxn cuyo ij esimo elemento es @f =@xij . Esta matriz
es denotada por el símbolo @f (X)=@X (o en forma abreviada @f = @X ) y es
llamada la derivada de f (x) con respecto a X. Mas adelante podremos escribir
@f (X)=(@X0 ) ( ó @f = (@X0 ) ) para la matriz nxm [@f (x)=@X0 ] y s referirnos
a esta matriz la derivada de f (x) con respecto a X’. Supongamos ahora
que la función f de interés es aquella cuyo dominio esta restringido a todas
las matrices simétricas mxn; o generalmente, a un subconjunto S de tales
matrices. Entonces f puede ser considerada como una función de una matriz
6.2. DERIVADAS PARCIALES DE PRIMER ORDEN 131

de mxn X, X=fxij g de m2 variables. Sin embargo, por las restricciones de las


matrices simétricas xij = xji para todo i y j > i, Así que lo m2 elementos de
X, no pueden ser considerar mas grandes que las m2 variables independientes.
Debemos tener en cuenta que S no puede contener ningún punto interior.
Como una consecuencia del desarrollo previo que deja la introducción del
símbolo @f (X)=@X y el de…nición de la derivada de f (x) con respecto X
no es aplicable. En el caso presente donde S contiene únicamente matrices
simétricas el símbolo @f (X)=@X y el termino derivada de f (x) con respecto X
van a ser de…nidas de manera distinta (cuando no se indique explícitamente,
entender la interpretación se debe acertar dentro del contexto).

Para propósitos de diferenciación de la función f de la matriz simétrica X,


si f es interpretada como un función de un vector columna x [m(m + 1)=2]-
dimensional, cuyos elementos son xij (j i = 1; :::; m) o alternativamente,
xij (j i = 1; :::; m) [i.e.,cuyos elementos son los elementos independientes
de X, los cuales están por encima y debajo (o alternativamente arriba) de
la diagonal]. Cuando f es representada de esta manera, el dominio de f es
el conjunto S de vectores columna [m(m + 1)=2]-dimensional obteniendo por
la transformación las matrices mxm en S de los valores de X dentro de los
valores de x.

Suponga que S contiene al menos algunos puntos interiores. (El conjunto


S puede contener puntos interiores, incluso sí S no puede). Por de…nición,
los elementos @f =@xij (j i = 1; : : : ; m o, alternativamente j i = 1; :::; m)
de el vector columna [m(m + 1)=2]-dimensional de @f =@x son las derivadas
parciales de primer orden de f en x {y los elementos de la matriz [m(m+1)=2]
x[m(m+1)=2] de @f =@x@x0 son las derivadas parciales de segundo orden de f
en x}. Sin embargo, en lugar de presentar de las derivadas parciales de primer
orden de f en x (o equivalentemente, X) en la forma del vector @f =@x, es
natural y en muchos casos conveniente, presentarlas en forma de la matriz
simétrica mxm cuyos ij esimos y ji esimos elementos son @f =@xij . En el
caso presente (donde el dominio S es restringido a las matrices simétricas),
esta matriz es denotada por el símbolo @f (X)= (@X0 ) (ó @f = (@X0 )) y es
llamada la derivada de f con respecto a X.
132 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

6.2.3. Diferenciación de un vector o matriz de fun-


ciones
supongamos que existe un vector (columna) f =(f1 ; :::; fp )0 de p funciones
diferenciables y que el dominio de todas esas funciones es el conjunto S en
Rm : Además supongamos que S contiene al menos algunos puntos interiores,
y sea c un punto arbitrario de estos.
El símbolo Dj f es usado para representar el vector columna p dimensional
cuyo s esimo elemento es la j esima derivada parcial Dj fs de fs , y
el símbolo Df es usado para representar la matriz pxm cuyo sj esimo
elemento es Dj fs o lo que es equivalente a, la matriz p x m cuya j
esima columna es Dj f. Por consiguiente, Dj f (c) = [Dj f1 (c); :::; Dj fp (c)]0 ;
y Df (c) = [D1 f (c); :::; Dm f (c)] (pruebe que cada una de las m derivadas
parciales de cada una de las p funciones f1 ; :::; fp en c existen). La matriz
Df es llamada la matriz jacobiana de f y su traspuesta (Df )0 es llamada el
gradiente (o matriz gradiente) de f :Note que (Df )0 = [(Df1 )0 ; :::; (Dfp )0 ]: En
el caso especial donde p = m; el determinante de Df es llamado el jacobiano
(o determinante jacobiano) de f :
Una notación alternativa se obtiene usando x = (x1 ; :::; xm )0 que representa
un vector de m variables y escribiendo @f (x)=@x0 (o @f =@x0 ) para la matriz
pxm cuyo sj esimo elemento es @fs (x)=@xj y @f 0 (x)=@x (o @f 0 =@x) para
la matriz mxp [@f (x)=@x0 ]0 cuyo js esimo elemento es @fs (x)=@xj . En este
contexto, @f (x)=@x0 puede ser llamada la derivada de f (x) con respecto a x0 ; y
@f 0 (x)=@x puede ser llamada la derivada de f 0 (x) con respecto a x: El símbolo
@f (x)=@x0 tiene la misma interpretación como Df (x) (o Df alternativamente
).
Suponga ahora que existe una matriz p x q F =ffst g de pq funciones diferen-
ciables y que el dominio de todas esas funciones es el conjunto S en Rm 1 (que
contiene al menos algunos puntos interiores). Como en el caso especial donde
q = 1 cada uno de los elementos de F puede serconsiderado como una función
de un vector x = (x1 ; :::; xm )0 de m variables "independientes".
Toda derivada parcial (de primer orden) mpq (de los elementos de F) puede
ser representada en forma de una única matriz pq x m (o m x pq) reagrupando
los elementos de F en forma de un vector columna f y por consiguiente
formando la matriz jacobiana ( o matriz gradiente) de f :Sin embargo, con
la posible excepción del caso especial donde p = 1 o q = 1 (i.e., donde F es
un vector …la o columna), algunas veces es preferible presentar el j esimo
(primer orden) de la derivada parcial de los elementos de F en una matriz
6.3. DIFERENCIACIÓN DE FUNCIONES 133

separada p x q cuyo st esimo elemento es @fst (x)=@xj (j = 1; :::; m):


Esta matriz es denotada por el símbolo @F(x)=@xj (o, en forma abreviada,
@F=@xj ) y hace referencia a la j esima derivada parcial de F –en el caso
especial donde q = 1 (i.e., donde F es un vector columna), @F=@xj tiene la
misma interpretación de Dj F(x):y, la matriz p x q cuyo st esimo elemento
es @ k fst (x)=@xkj11 :::@xkjrr esto se denota por el símbolo @ k F(x)=@xkj11 :::@xkjrr
o @ k F=@xkj11 :::@xkjrr (donde j1 ; :::; jr es una subsecuencia de los primeros m
enteros positivos; k1 ; :::; kr son enteros positivos; y k = k1 + ::: + kr ).
La matriz F será continuamente diferenciable en un punto interior c (de S
) si todos sus elementos pq son continuamente diferenciables en c, y serán
doblemente (o dos veces) continuamente diferenciables en c.si todos sus el-
ementos pq son dos veces continuamente diferenciables en c. Más general-
mente, F se dice que es k veces continua diferenciable en c.

6.3. Diferenciación de funciones


La técnica empleada en la diferenciación de matrices puede considerarse co-
mo generalizaciones o extensiones de esas empleadas en la diferenciación no
matricial. Algunos resultados elementales en la diferenciación no matricial
son indicadas (sin prueba) en los siguientes dos lemas.
Lema. Sea f una función, de…nida en un conjunto S; de un vector x =
(x1 ; :::; xm )0 de m variables, y suponga que (para x 2 S) f (x) es constante ó
(mas generalmente) no varia con xj ;entonces, para cualquier punto interior
c de S; Dj f (c) = 0:
Lema. Sean f y g funciones, de…nidas en un conjunto S; de un vector x =
(x1 ; :::; xm )0 de m variables. Y, sean a y b constantes (o mas generalmente)
funciones (de…nidas en S) que son continuas en todo punto interior de S y
son tales que a(x) y b(x) no varia con xj : De…ne

` = af + bg; h = f g; y r = f =g;
Tal que ` y h son funciones, cuyo dominio es S, y r es una función cuyo
dominio es S = fx 2 S : g(x) 6= 0g: Si f y g son continuamente diferencia-
bles en un punto interior c de S, entonces ` y h también son continuamente
diferenciables en c, y

Dj `(c) = a(c)Dj f (c) + b(c)Dj g(c) (6.3)


134 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

y
Dj h(c) = f (c)Dj g(c) + g(c)Dj f (c): (6.4)
y, si f y g son continuamente diferenciables en un punto interior c de S ,
entonces r también es continuamente diferenciable en c, y

Dj r(c) = [g(c)Dj f (c) f (c)Dj g(c)]=[g(c)]2 : (6.5)


Las formulas (2.1) –(2.3) pueden ser expresada de una manera menos formal
y mas sencilla como:

@(af + bg) @f @g
=a +b ; (6.6)
@xj @xj @xj
@f g @g @f
=f +g ; (6.7)
@xj @xj @xj
y

@(f =g) @f dg
= [g f ]=g 2 : (6.8)
@xj @xj @xj
Casos especiales de la formula (2.4) incluyen:

@(af ) @f @(f + g) @f @g @(f g) @f @g


=a ; = + ; = : (6.9)
@xj @xj @xj @xj @xj @xj @xj @xj

y, como un caso especial de la formula(2.6), nosotros tenemos (a la luz del


lemma 15.2.1) que

@(1=g) @g
= (1=g 2 ) : (6.10)
@xj @xj
Los resultados .....pueden ser extendidos (por aplicación repetida) a una
combinación lineal o a un producto de un numero arbitrario de funciones.
Sean f1 ; :::; fk k funciones, de…nidas en un conjunto S, de un vector x =
(x1 ; :::; xm )0 de m variables, y sean a1 ; a2 ; :::; ak constantes o (mas generalem-
nte) funciones (de…nidas en S) continuas en cada punto de S y son tal que
a1 (x); a2 (x); :::; ak (x) no varia con xj :De…ne

` = a1 f1 + a2 f2 + ::: + fk ak y h = f1 ; f2 ; :::; fk
6.3. DIFERENCIACIÓN DE FUNCIONES 135

Si f1 ; f2 ; :::; fk son continuamente diferenciable en un punto interior c de S,


entonces ` y h también son continuamente diferenciables en c, y

Dj `(c) = a1 (c)Dj f1 (c) + a2 (c)Dj f2 (c) + ::: + ak (c)Dj fk (c) (6.11)


y

X
k
Q
Dj h(c) = [ fs (c)]Dj fi (c) (6.12)
i=1 s6=i

Las formulas (2.9) y (2.10) pueden ser reescritas como:

@(a1 f1 + a2 f2 + + fk ak ) @f1 @f2 @fk


= a1 + a2 + + ak (6.13)
@xj @xj @xj @xj
y
!
@(f1 ; f2 ; :::; fk ) X
k Y @fi
= fs (6.14)
@xj i=1 s6=i
@xj
Note que las formulas .......para las derivadas parciales de un cociente de dos
funciones o para un producto de dos o mas funciones se puede reescribir en
notación vectorial como:

@(f =g) @f @g
= g 2 [g f ] (6.15)
@x @x @x
y
!
@(f1 ; f2 ; :::; fk ) X Y
k
@fi
= fs (6.16)
@x i=1 s6=i
@x
Similarmente, la formula... puede (en el caso especial donde a1 ; a2 ; :::; ak son
costantes ) reescribirse como:

@(a1 f1 + a2 f2 + ::: + fk ak ) @f1 @f2 @fk


= a1 + a2 + ::: + ak : (6.17)
@x @x @x @x
Note tambien, que …jando una de las k funciones f1 ; f2 ; :::; fk en laformula ...
igual a la misma función, dicha f , la obtenemos el resultado de que (para
cualquier entero positivo k)
136 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

@f k @f
= kf k 1
: (6.18)
@xj @xj
Claramente

@xj
= 1;
@xj
tenemos en particular [tomando f (x) = xkj ] que:

@xkj
= k xkj 1
(6.19)
@xj

6.4. Diferenciación de formas lineales y cuadráti-


cas
Los resultados de la seccion 15.2 se pueden utilizar para derivar las formulas
para las derivadas parciales de una forma lineal a0 x o una forma cuadrática
x0 Ax (en un vector columna x sin restricción m dimensional). Sean ai y xi
los i esimos elementos de a y x, respectivamente, y sea aik el ik esimo
elemento de A: Entonces,
X X
a0 x = ai x i y x0 Ax = aik xik :
i i;k

A la luz del lemma 15.2.1 y de los resultados (2.17) y (2.7) tenemos que

@xi 1; si i = j;
=
@xj 0; si i 6= j;
y que
8
> 2xj ;
> si i = k = j;
@(xi xj ) < xi ; si k = j pero i 6= j;
=
xj >
> xk ; si i = j pero k 6= j;
:
0; de otro modo (i.e., si i 6= j y k 6= j)

Usando estos resultados conjuntamente con el resultado (2.11), encontramos


que
6.4. DIFERENCIACIÓN DE FORMAS LINEALES Y CUADRÁTICAS137

P
@(a0 x) @( i ai xi ) X @xi
= = ai = aj (6.20)
@xj @xj i
@xj
y

@(a0 x)
@xj
P
@( i;k aik xi xk )
=
@xj

P P P
@(ajj x2j + i6=j aij xi xj + k6=j ajk xj xk + i6=j;k6=j aik xi xk )
=
@xj

@x2j X @(xi xj ) X @(xj xk ) X @(xi xk )


= ajj + aij + ajk + aik
@xj i6=j
@xj k6=j
@xj i6=j;k6=j
@xj

X X
= 2ajj xj + aij xi + ajk xi + 0
i6=j k6=j
X X
= aij xi + ajk xk : (6.21)
i k

El resultado puede ser reescrito en notación vectorial como:

@(a0 x)
=a (6.22)
@x
o alternativamente como:

@(a0 x)
= a0 (6.23)
@x0
y el resultado (3.4) se puede modi…ca a la notación matricial como:

@(x0 Ax)
= (A + A0 )x; (6.24)
@x
P
Como es evidente observar
P sobre que k ajk xk es el j esimo elemento del
0
vector columna Ax y i aij xi es el j esimo de A x. La sj esima derivada
138 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

parcial de segundo orden de x0 Ax puede obtenerse al encontrar la st esima


derivada parcial de la expresión (3.4), dando

@ 2 (x0 Ax) X @xi X @xk


= aij + ajk = asj + ajs : (6.25)
@xs @xj i
@xs k
@xs

El resultado (3.8) puede ser reescrito en notación matricial como:

@ 2 (x0 Ax)
= A + A0 : (6.26)
@x
Note que todas las derivadas parciales de a0 x de orden superior a uno son cero,
y que todas las derivadas parciales x0 Ax de orden superior a dos son cero.
Note también que, en el caso especial donde A es simétrica los resultados ...
y ... se simpli…can a:

@(x0 Ax) @ 2 (x0 Ax)


= 2Ax; = 2A.
@x @x@x0
Las formulas y para la derivida parcial a0 x de la forma lineal con respecto
a x ó x0 puede extenderse a un vector de forma lineal. Sea B = fbij gque
representa a una matriz p x q de constantes, y cosidere el vector columna
Bx. El i esimo elemento de Bx es la forma lineal b0i x;cuyo vector de
coe…ciente es b0i = (bi1 ; :::; bim ):Segun el resultado..., la j esima derivada
parcial de esta forma lineal es bij :Así, la derivada parcial de Bx con respecto
a x0 (La cual es la matriz jacobiana de Bx) es:

@(Bx)
= B; (6.27)
@x0
y la derivada parcial de (Bx)0 con respecto a x (La cual es la matriz gradiente
de Bx) es:

@(Bx)0
= B0 : (6.28)
@x
Note que, en el caso especial donde B = Im , Los resultados ... y .... se reducen
a:

@x @x0
= = Im : (6.29)
@x0 @x
6.5. DIFERENCIACIÓN DE SUMAS DE MATRICES, PRODUCTOS, Y TRASPUESTAS139

6.5. Diferenciación de sumas de matrices, pro-


ductos, y traspuestas
Los resultados presentados en la sección 15.2 (sobre la diferenciación de fun-
ciones) se pueden extender a la diferenciación de matrices de funciones el
siguiente lemma generaliza (y se sigue de) el lemma 15.2.1
Lema. Sea F = ffis g una matriz p x q de funciones, de…nidas en un conjunto
S; de un vector x = (x1 ; :::; xm )0 de m variables; y suponga que (para x 2
S) F(x) es constante o (mas generalmente) no varia con xj : Entonces, en
cualquier punto interior c de S, @F=@xj = 0:

Una generalización de la formula (2.4) es dada por el siguiente lemma.

Lema. Sean F = ffis g y G = fgis g matrices p x q de funciones, de…nidas


en un conjunto S; de un vector x = (x1 ; :::; xm )0 de m variables. Y , sea a y b
que representan constantes o (mas generalmente) funciones (de…nidas en S)
que son continuas en cada punto interior de S y son tal que a(x) y b(x) no
varia con xj : Entonces, en cualquier punto interior c (de S) en el cual F y G
son continuamente diferenciable , aF + bG es continuamente diferenciable y

@(aF + bG) @F @G
=a +b : (6.30)
@xj @xj @xj
Sea L=aF + bG: El is esimo elemento de L es

`is = afis + bgis :

La función fis y gis son continuamente diferenciables en c, implicando (a


la luz de lemma 15.2.2) que `is es continuamente diferenciable en c y que (en
x=c)

@`is @fis @gis


=a +b :
@xj @xj @xj

Se sigue que L es continuamente diferenciable en c, y (desde @`is =@xj ; @fis =@xj


y @gis =@xj son los is esimos elementos de @Lis =@xj ; @Fis =@xj y @Gis =@xj ;
respectivamente)que (en x=c)
140 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Lemma 1
@L @F @G
=a +b :
@xj @xj @xj

Obtenemos, como caso especial de la formula (4.1), la siguiente generalización


del resultado (2.7):

@(aF) @F @(F + G) @F @G @(F G) @F @G


=a ; = + ; = : (6.31)
@xj @xj @xj @xj @xj @xj @xj @xj

La formula (2.5) es generalizada en el siguiente lemma:


Lema Sea F = ffis g y G = fgis g matrices p x q de funciones, de…nidas
en un conjunto S; de un vector x = (x1 ; :::; xm )0 de m variables. Entonces,
en cualquier punto interior c (de S) en el cual F y G son continuamente
diferenciables, FG es continuamente diferenciable y

@FG @G @F
=F + G: (6.32)
@xj @xj @xj

Demostración. Sea H = FG: El it esima de H es


q
X
hit = fis gis :
s=1

La función fis y gst son continuamente diferenciales en c, (por el Lemma


15.2.2) implicando que fis gst es continuamente diferenciable en c y que (x =
c)

@fis gst @gst fis


= fis +@ gst :
@xj @xj @xj
así que hit es continuamente diferenciable en c, y (en x = c)
q q q
@hit X @(fis gst ) X @gst X @fis
= = fis + gst :
@xj s=1
@x j s=1
@x j s=1
@x j

podemos
Pq concluir que PqH es continuamente diferenciable en c y [ ya que
f
s=1 is (@g st =@x j ) y s=1 (@fis =@xj )gst están en el it elemento de F(@G=@xj )
y (@F=@xj )G, respectivamente] que ( en x = c)
6.5. DIFERENCIACIÓN DE SUMAS DE MATRICES, PRODUCTOS, Y TRASPUESTAS141

@FG
= F(@G=@xj ) + (@F=@xj )G:
@xj
en especial el caso donde (x 2 S) F(x) es constante o (más general) no varia
con respecto a xj , fórmula (4.3) simpli…cando nos queda:
@FG
= F(@G=@xj ): (6.33)
@xj
y en especial el caso donde (x 2 S) G(x) es constante o (mas general) no
varia con respecto a xj , formula (4.3) simpli…cando nos queda:
@FG
= (@F=@xj )G: (6.34)
@xj
los resultados del Lemma15.4.3 puede ser extendido (repitiendo varias veces
la aplicación) al producto de 3 o mas matrices.sea F,G y H de p q; q r
y r v matrices de funciones, de…nidas sobre un conjunto S de vectores
0
x =(x1 ; :::; xm ) de m-variables.entonces para algún punto interior (de S) en
el cual F,G y H son continuamente diferenciables,FGH tambien lo son y:
@FGH @H @G @F
= FG +F H+ GH: (6.35)
@xj @xj @xj @xj
en especial el caso donde (x 2 S) F(x) y H(X) son constante o (mas general)
no varia con respecto a xj , formula (4.6) simpli…cando nos queda:
@FGH @G
=F H: (6.36)
@xj @xj
más general sea F1 ; F2 ,...,Fk matrices de funciones de…nidas sobre un con-
0
junto S de vectores x = (x1 ; :::; xm ) de m-variables. entonces algún punto
interior (de S) en la cual F1 ; F2 ; :::; Fk son continuamente diferenciables,
F1 F 2 Fk también lo son y
@(F1 F2 Fk ) @Fk @Fk 1
= F1 Fk 1 @xj + F1 Fk 2 @xj Fk
@xj
(6.37)
@F1
+ + F
@xj 2
Fk

(asumiendo que las dimensiones de F1 F2 Fk son tal que el producto F1 F2 Fk


esta de…nido).nótese que si g es una funciones de…nidas sobre un conjunto
142 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

0
S de vectores x = (x1 ; :::; xm ) de m-variables. y si F de p q matriz de
funciones (de…nidas sobre S) de x entonces un punto interior (de S) en el
cual g y F son continuamente diferenciables, gF tambièn lo es y

@(gF) @g @F
= F+g : (6.38)
@xj @xj @xj

Es claro que por el Lema 15.4.3 podemos tomar G = gI. Nótese también que
si F es una matriz de funciones de p q, de…nidas sobre el conjunto S de
0
vectores x = (x1 ; :::; xm ) de m-variables, entonces en algún punto interior en
el cual F es continuamente diferenciable, F0 es continuamente diferenciable
y
0
@F0 @F
= : (6.39)
@xj @xj

6.6. Diferenciación de matrices simétricas


Sean x = fxs g un vector columna m-dimensional y uj la j-ésima columna
de la matriz identidad (de dimensiones no especi…cadas) los elementos de x
pueden ser considerados como una función de…nida sobre Rm , de x la j-ésima
derivada parcial de esa función (dada por el resultado 3.1) ese resultado puede
estar expresado en una matriz notada como:
@x
= uj : (6.40)
@xj
El resultado (5.1) puede estar generalizado por una matriz X = fxst g de m n
los elementos de X pueden considerarse como funciones de…nidas sobre Rm n ,
de X:
Para propósitos de diferenciar xst , los elemento de X pueden ser ordenados en
forma de un vector columna x mn-dimensional y xst puede ser interpretada
como una función (de…nida sobre Rmn ) de x (como se discutió en la sección
15.1e).entonces (por el resultado 3.1),

@xst 1; si s = i y t = j
=
@xij 0; en otra parte

o en una matriz notada


@X
= ui u0j : (6.41)
@xij
6.7. DIFERENCIACIÓN DE LA TRAZA DE UNA MATRIZ 143

Supóngase ahora que X = fxst g es una matriz simétrica de m n ( pero no


restringida en otra parte).entonces los elementos de X pueden seguirse con-
siderando comofunciónes de X, en cualquier forma el dominio de esa funcion
comprende ahora toda la matriz simétrica de m n la cual es un subconjun-
to propio de Rm m (a menos que m = 1). para propósitos de diferenciosion
xst ,xst es interpretada (por conveniencia) como una función (de…nida sobre
Rm(m+1)=2 ) de un vector columna x de [m(m + 1)=2]-dimensiones cuyos el-
ementos son xij (j i = 1; :::; m) o alternativamente xij (j i = 1; :::; m)
aprovechando esto obtenemos:

@xst 1; si s = t = i
=
@xii 0; en otra parte
y para j < i o (j > i) obtenemos:

@xst 1; si s = i y t = j o si s = j y t = i
=
@xij 0; en otra parte
o en notación matricial:

@X
= ui u0i (6.42)
@xii
y para j < i o j > i se tiene:

@X
= ui u0j : + uj u0i : (6.43)
@xij

6.7. Diferenciación de la traza de una matriz


Sea F =ffis g una matriz de funciones p p, de…nida sobre un conjunto
0
S, de un vector x = (x1 ; :::; xm ) de m-variables, entonces en algún punto
interior en el cual F es continuamente diferenciable, tr(F) es continuamente
diferenciable y

@tr (F) @F
= tr : (6.44)
@xj @xj
Podemos ver que tr(F) = f11 + f22 + + fpp [en el cual se puede observar
que tr(F) es continuamente diferenciable en c] y que (en x = c)
144 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

@tr (F) @f11 @f22 @fpp @F


= + + + = tr :
@xj @xj @xj @xj @xj
Supóngase ahora que F es una matriz de funciones p q, de…nida sobre
0
un conjunto S, de un vector x = (x1 ; :::; xm ) de m-variables, y supóngase
que A es una matriz constante q p o (más generalmente) una matriz de
funciones q p (de…nida sobre S) que es continua en cada punto interior
de S y que A(x) no varía con respecto a xj . Entonces, haciendo uso de los
resultados (6.1) y (4.5) (a lo largo del lema 5.2.1), encontramos que, en algún
punto interior (de S) en el cual F es continuamente diferenciable tr(AF) o
equivalentemente, tr(FA) es continuamente diferenciable y

@tr (AF) @FA @F @F


= tr = tr A = tr A : (6.45)
@xj @xj @xj @xj
El resultado (6.2) se puede generalizar para la traza del producto de dos
matrices de funciones cualesquiera. Sea F y G matrices de funciones p q
y q p respectivamente de…nidas sobre un conjunto S, de un vector x =
0
(x1 ; :::; xm ) de m-variables. Entonces, en combinación con el resultado (6.1)
y el lema 5.2.1, Lema 15.4.3 implica que, en algún punto interior en el cual
F y G son continuamente diferenciables, tr(FG) o equivalentemente tr(GF)
son continuamente diferenciables y

@tr (FG) @GF @G @F


= tr = tr F + tr G : (6.46)
@xj @xj @xj @xj
Nótese que las versiones alternativas de la fórmula (6.3) pueden ser obtenidas
haciendo uso de alguna o ambas de las dos sustituciones

@G @G @F @F
tr F = tr F y tr G = tr G :
@xj @xj @xj @xj
Ahora consideremos un caso especial del resultado (6.2). Tomando X = fxst g
como una matriz m n de variables independientes, y supóngase que el rango
de X comprende todo Rm n . De…namos A = fats g una matriz de constantes
n m, y sea uj la j-ésima columna de la matriz identidad (de dimensiones
no especi…cadas). Entonces,

@tr (AX) @tr (XA)


= = aji : (6.47)
@xij @xij
6.7. DIFERENCIACIÓN DE LA TRAZA DE UNA MATRIZ 145

Como es evidente en el resulto (6.2), podemos observar [usando el resultado


(5.3)] que

@X
tr A = tr(Aui u0j ) = tr(u0i Auj ) = u0j Aui = aji
@xij
El resultado (6.4) se puede reescribir como

@tr (AX) @tr (XA)


= = A0 : (6.48)
@X @X
Supóngase ahora que X es una matriz simétrica m n (pero no restringida
en otro lado) . Entonces para propósito de la diferenciación de una función
de X, la función es rescrita como una función de un vector columna x de
[m(m + 1)=2] dimensiones, en el cual los elementos son xij (j i = 1; :::; m).
Por consiguiente con el resultado (6.4), no se puede aplicar más. En vez de
eso, tenemos que

@tr(AX) @tr(XA) aii , si j = i


= =
@xij @xij aij + aji , si j < i
Para veri…car esto, aplicamos el resultado (6.2) y observamos [teniendo en
cuenta los resultados (5.6) y (5.7)] que

@X
tr A = tr(Aui u0i ) = u0i Aui = aii
@xii
y para j < i

@X
tr A = tr(Aui u0j ) + tr (Auj u0i ) = u0j Aui + u0i Auj = aji + aij :
@xij
El resultado (6.6) se puede rescribir como

@tr(AX) @tr(XA)
= = A + A0 diag(a11 ; a22 ; :::; amm ): (6.49)
@X @X
Nótese que sin tener en cuenta si X
/ es no-restringida (pero cuadrada) o
simétrica, tenemos que

@tr(X) 1, si j = i
=
@xij 0, si j =
6 i
146 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

o equivalentemente,

@tr(X)
= I,
@X
Como es evidente, se pueden obtener los resultados (6.4) - (6.7), tomando
A = I.

6.8. Regla de la Cadena


La regla de la cadena puede ser muy útil en la derivación de derivadas par-
ciales de una función f que es la composición de una función g y un vector de
funciones h, que es de una función f cuyos valores en un punto arbitrario x
están dados por la fórmula f (x) = g[h(x)]. La regla de la cadena es estudiada
(sin demostración) en el siguiente teorema.

Teorema 15.7.1 (regla de la cadena).Sea h = fhi g un vector de funciones


0
de n 1, de…nida sobre un conjunto S, de un vector x = (x1 ; :::; xm ) de m-
variables. Sea g una función, de…nida sobre un conjunto T/ , de un vector
y = (y1 ; :::; yn )0 de n-variables. Supóngase que h(x) 2 T para todo x en S, y
tomando f como la función compuesta f (x) = g[h(x)]. Si h es continuamente
diferenciable en un punto interior c de S y si [asumimos que h(c) es un punto
interior de T ] y si g es continuamente diferenciable en h(c), entonces f es
continuamente diferenciable en c y

X
n
Dj f (c) = Di g [h(c)] Dj hi (c)= Dg [h(c)] Dj h(c): (6.50)
i=1

La fórmula (7.1) se puede escribir de otra forma como

@f X @g @hi
n
@g @h
= = 0 @x
, (6.51)
@xj i=1
@y i @x j @y j

@g @g
Donde @yi
y @y 0 se interpretan siendo evaluadas en y = h(x).

Las fórmulas (7.1) o (7.2) pueden reescribirse como

X
n
Df (c) = Di g [h(c)] Dhi (c) = Dg [h(c)] Dh(c): (6.52)
i=1
6.8. REGLA DE LA CADENA 147

@f X @g @hi
n
@g @h
0
= 0
= 0 @x0
. (6.53)
@x i=1
@y i @x @y
El resultado del teorema 15.7.1 se puede generalizar tomando g = fgs g un
vector p 1 de funciones de y (de…nida sobre T) y f = ffs g un vector p 1 de
funciones compuestas de…nida (sobre S), fs (x) = gs [h(x)], (para s = 1; :::; p)
o equivalentemente, f (x) = g[h(x)]. Si (en un contexto más general) h es
continuamente diferenciable en un punto interior c de S y g es continuamente
diferenciable en h(c), entonces f es continuamente diferenciable en c y
X
n
Dj f (c) = Di g [h(c)] Dj hi (c) = Dg [h(c)] Dj h(c): (6.54)
i=1

o equivalentemente,

@f X @g @hi
n
@g @h
= = 0 @x
. (6.55)
@xj i=1
@y i @x j @y j

@g @g
[Donde @y i
y @y 0 son interpretadas siendo evaluadas en y = h(x)]. Las fór-

mulas (7.5) o (7.6) pueden reescribirse como


X
n
Df (c) = Di g [h(c)] Dhi (c) = Dg [h(c)] Dh(c) (6.56)
i=1

@f X @g @hi
n
@g @h
= = , (6.57)
@x0 i=1
@y i @x0 @y 0 @x0

Ahora consideremos una generalización diferente del resultado del teorema


15.7.1
- uno donde H = fhis g es una matriz de funciones n r de…nida sobre S,
de x ; donde g es una función de…nida sobre un conjunto T , de una matriz
Y = fyis g de nr variables; donde H(x) 2 T , para todo x en S; y donde f es
una función compuesta de…nida sobre S, f (x) = g[H(x)]. Supóngase que los
elementos de H y Y están arreglados en forma de vectores columna h y y
respectivamente, y para propósitos de diferenciación, g es interpretada como
una función de y. Si h, o equivalentemente, H es continuamente diferenciable
148 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

en un punto interior c de S y si [asumiendo que H(c) es un punto interior


de T ] g es continuamente diferenciable en h(c) o, equivalentemente H(c),
entonces f es continuamente diferenciable en c y (en x = c)

@f X X @g @his
n r
= : (6.58)
@xj i=1 s=1
@yis @xj

(como es claro en el teorema 15.7.1). La fórmula (7.9) puede ser reescrita


como
0
@f @g @H
= tr : (6.59)
@xj @Y @xj
[Las cantidades @y@gis y @Y
@g
que aparecen en las fórmulas (7.9) y (7.10), son
interpretadas teniendo en cuenta la evaluación de Y = H(x)]

6.9. Derivadas parciales de primer orden de


Determinantes e Inversas y Matrices Ad-
juntas
Sea X = fxij g una matriz de m m de variables independientes (donde
m 2) y supóngase que el rango de X comprende todo de Rm m . Denotemos
m m
ij como el cofactor de xij . Entonces la función f de X (de…nida sobre R )
por f (X) = det(X) es continuamente diferenciable en todo X y

@det(X)
= ij . (6.60)
@xij
Para ver esto, arreglemos los elementos de X en forma de un vector colum-
na x de m2 dimensiones, y f como una función de x. Como cada elemento
de X es una función continuamente diferenciable de x, (de acuerdo al lema
15.2.2) luego la suma y el producto de dichas funciones también son contin-
uamente diferenciables, de la de…nición de determinante se sigue [dada por
la expresión (13.1.2)] que f es continuamente
Pm diferenciable. Más aún, expan-
diendo det(X) como det(X)= t=1 xit it [en concordancia con el resultado
(13.5.1)], observemos que i1 ; :::; im no varía con respecto a xij y recalcando
el resultado (5.2), encontramos que
6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR

@det(X) X
m
@xit
= it = ij : (6.61)
@xij t=1
@xij

El resultado (8.1) indica que la derivada de det(X) con respecto a X es la


matriz de cofactores (de X) o es equivalente a,

@det(X)
= [adj(X)]0 : (6.62)
@X
Ahora extendamos los resultados de la diferenciación del determinante de una
matriz F = ffis g de p p de funciones de…nidas sobre un conjunto S de un
0
vector x = (x1 ; :::; xm ) de m-variables. Así, la función a ser diferenciada es la
función h de x de…nida sobre S por h(x) = det[ F(x)]. Es conveniente (para
propósitos de diferenciación de h) introducir una función g de una matriz
Y = fyis g de p p y p2 variables, de…nida sobre Rp p por g(Y) = det(Y),
y expresemos h como la composición de g y F. así que h(x) = g[F(x)].
Claramente g es continuamente diferenciable para todo Y y

@g
= [adj(Y)]0 :
@Y
Por consiguiente, se sigue de la regla de la cadena [y en particular del resul-
tado (7.10)] que si F es continuamente diferenciable en un punto interior c
de S, entonces h es continuamente diferenciable en c y (en x = c)

@det(F) @F
= tr adj(F) : (6.63)
@xj @xj
Mas aún, si F es no singular también es continuamente diferenciable en c,
entonces [teniendo en cuenta el resultado (13.5.6)]

@det(F) 1 @F
=j F j tr(F ): (6.64)
@xj @xj
Supóngase ahora que S es el conjunto de todos los valores de x para los
cuales det[F(x)] > 0 o es un subconjunto de ese conjunto, y considere la
diferenciación de la función ` de x de…nida sobre S por `(x) =log(det[F(x))].
Para facilitar la diferenciación, sea g una función de una variable y de…nida
(para y > 0) por g(y) = log(y), y expresemos a ` como una composición de
g y h, así que `(x) = g[h(x)].Recalquemos (del calculo de una sola variable)
150 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

que g es continuamente diferenciable (en todos los puntos del dominio) y que
(para y > 0)
@logy 1
= .
@y y
Aplicando la regla de la cadena encontramos [teniendo en cuenta los resulta-
dos (8.4) y (8.5)] que si F es continuamente diferenciable en un punto interior
c de S (en cualquier caso h es continuamente diferenciable en c), entonces `
es continuamente diferenciable en c y (en x = c)

@ log(det(F)) 1 @det(F) 1 @F @F
1
= = tr adj(F) = tr(F ):
@xj j F j @xj jFj @xj @xj
(6.65)
Ahora consideremos el resultado (8.6) en el caso especial donde x es un vector
columna m2 dimensional cuyos elementos son los mismos que la matriz X =
fxij g de m m de m2 variables independientes y donde F (x) = X. Sea c un
punto interior de S [donde S consta de algunos o todos los valores de x para
los cuales det(X) > 0], y sea uj la j-ésima columna de Im .Del resultado (5.3)
@X
se sigue que X es continuamente diferenciable en c y (en x = c), @x ij
= ui u0j .
Concluimos que la función ` de…nida sobre S por `(x) = log(det(X)) es
continuamente diferenciable en c y (en x = c)

@ log(det(X))
= tr(X 1 ui u0j )= u0j X 1 ui = yji , (6.66)
@xij
Donde yji es el ji-ésimo elemento de X 1 o equivalentemente, el ij-ésimo
elemento de (X 1 )0 . El resultado (8.7) se puede escribir como

@ log(det(X))
= (X 1 )0 (6.67)
@X
Las fórmulas (8.3) y (8.8) o [(8.2) y (8.7)] son aplicables cuando los m2 el-
ementos de X son variables independientes.supóngase ahora que X = fxij g
es una matriz simetrica de m m en los cuales los casos de la formula (8.3)
y (8.4) no son aplicables.para propósitos de diferenciación, la función f de
X de…nida (sobre un conjunto S comprendida sobre alguna o todas las ma-
trices simétricas de m m) por f (X) = det(X) y la función ` de X de…nida
(de…nidas sobre un conjunto S comprendidas sobre algunas o todas las ma-
trices simétricas m m con determinantes positivos) por `(X) = log(det(X))
6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR

por conveniencia para interpretarlas como funciones de los vectores columnas


de x , de [m(m + 1)=2] dimensiones cuyos elementos xij (j i = 1; :::; m) son
independientes de los elementos de X:Sea c un punto interior de S y c un
punto interior de S . Entonces se sigue del resultado de la sección 15.5 que
X es continuamente diferenciable en c y c , implicando que f es continua-
mente diferenciable en c y que ` es continuamente diferenciable en c . Mas
aún tenemos [como un caso especial del resultado (8.4)] que (en x = c)

@det(X) @X
= tr adj(X) :
@xij @xij
Haciendo uso de los resultados (5.6) y (5.7) y denotando la j-ésima colum-
na de Im por uj , encontramos que

@X
tr adj(X) = tr [adj(X)ui u0i ] = u0i adj(X)ui
@xii
y (para j < i)

@X
tr adj(X) = tr adj(X)ui u0j + tr[adj(X)uj u0i ]
@xij
= u0j adj(X)ui + u0i adj(X)uj .

Así, denotando el cofactor de xij , por ij (y recordando que la matriz de


cofactores de una matriz simétrica, es simétrica) obtenemos que

@det(X) ii , si j = i
=
@xij 2 ij , si j < i
o equivalentemente,

@det(X)
= 2adj(X) diag( 11 ; 22 ; :::; mm ). (6.68)
@X
Sea yij el ij-ésimo elemento de X 1 , encontramos [usando el resultado
(8.6) y (13.5.7)] que (en x = c )

@ log(det(X)) yii , si j = i
=
@xij 2yij , si j < i
O equivalentemente,
152 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

@ log(det(X))
= 2X 1 diag(y11 ; y22 ; :::; ymm ): (6.69)
@X
la diferenciacion de una matriz adjunta F = ffis g de p p de funciones,de…nidas
0
sobre un conjunto S de un vector x = (x1 ; :::; xm ) de m-variables. sea Fsi una
submatriz de (p 1) (p 1) obtenidas de F sacando la s-esima …la, y la i-
esima columna (de F), y sea si = ( 1)s+i det(Fsi ). entonces por de…nición,
si es el cofactor fsi , y de aquí el is-esimo elemento de adj(F):discutamos
sobre la diferenciación de los determinantes (incluido el resultado (8.4)), si
F es continuamente diferenciable en un punto interior c de S;entonces si es
continuamente diferenciable en un punto interior c (en x = c).

@ si @Fsi
= ( 1)s+i tr adj(Fsi ) : (6.70)
@xj @xj
Si F es continuamente diferenciable en un punto interior c, entonces adj(F) es
continuamente diferenciable en c y el is-esimo elemento de matriz adj(F)/@xj
es obtenido por la expresión (8.13).supóngase ahora que S es el conjunto de
todos los valores de x para el cual F(x) es no singular o un subconjunto
del conjunto anterior ,y consideremos la diferenciación de la matriz inversa
F 1 :denotado por algún punto interior c(de S),en el cual F es continua-
mente diferenciable.entonces si y det(F) son continuamente diferenciable
en c; implicando (teniendo en cuenta el lema 15.2.2) que det(F)
si
es continua-
mente diferenciable en c, de esta ecuación podemos sacar el is-esimo elemento
de F 1 (teniendo en cuenta el corolario 13.5.4),podemos concluir que F 1 es
continuamente diferenciable en c, mas aun, FF 1 = I, implicando que (te-
niendo en cuenta el lema15.4.3 y 15.4.1), (en x = c):

@F 1 @F 1 @I
F + F = = 0:
@xj @xj @xj
y de aqui

@F 1 @F 1
F = F (6.71)
@xj @xj
1
multiplicando por F obtenemos:

@F 1 1 @F 1
= F F : (6.72)
@xj @xj
6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR

1
Como una formula para @F @xj
:
Una expresión alternativa para los elementos de @adj(F)/@xj puede ser obteni-
da [donde S esta restringida para los valores de x en el cual F(x) es no-
singular usando la formula(4.9)].(teniendo presente el corolario13.5.4) la adj(F ) =
j F j F 1 ,podemos obtener:

@adj(F) @j F j 1 @F 1
= F +jFj (6.73)
@xj @xj @xj
@F 1 @F
= j F jtr F F 1+jFj F 1 F 1
@xj @xj
@F @F 1
= j F j tr F 1 F 1 F 1 F :
@xj @xj

Formula (8.15) se puede generalizar usando el resultado (4.6).Sea A y B ma-


trices de funciones de x de tamaños k p y p r respectivamente (de…nidas
sobre el conjunto S como los elementos de F). supongase que A y B son
continuamente diferenciable en c:entonces AF 1 B es continuamente diferen-
ciable en c y (en x = c):

@(AF 1 B) 1 @B 1 @F 1 @A 1
= AF AF F B+ F B (6.74)
@xj @xj @xj @xj
En el caso especial donde A(x) y B(x) son constantes (para x 2 S) o no
varia con respecto a xj , simpli…cando la formula (8.17) obtenemos:

@(AF 1 B) 1 @F 1
= AF F B: (6.75)
@xj @xj

1 @F 1 @F @F 1 @F 1 @F 1
= jFj tr F + tr F tr FF tr F
@xi @xj @xi @xi @xj @xj
(6.76)
Y, haciendo uso del resultado (4.6), nos damos cuenta que (en x = c)

@2F 1 @[ F 1
(@F=@xj ) F 1 ]
=
@xi @xj @xi
1 @F @F 1 1 @F 1 @F 1 @F 1
= F F F F
@xj @xi @xi @xj @xi @xj
154 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

1 @F 1 @F 1 1 @F 1 1 @F 1 @F 1
= F F F F F F F F
@xj @xi @xi @xj @xi @xj
1 @F 1 1 @F 1 @F 1 1 @F 1 @F 1
= F F +F F F +F F F (6.77)
@xi @xj @xi @xj @xj @xi
Supongamos ahora que det[F(x)] > 0 para cada x en S entonces en vista de
nuestros previos resultados logdet(F) es continuamente diferenciable en cada
punto de N y (para x 2 N )

@ 2 logdet(F ) 1 @F
= tr F
@xj @xj
Por consiguiente (puesto que F 1 y @F=@xj son continuamente diferenciables
en c ) @logdet(F )=@xj )
Es continuamente diferenciable en c, y por lo tanto logdet(F) dos veces con-
tinuamente diferenciable en c: Adémas, haciendo uso del resultado (6.3), nos
damos cuenta que (en x = c)

@ 2 logdet(F ) @tr [F 1 (@F=@xj )]


=
@xi @xj @xi
1 @F 1 @F 1 @F
= tr F + tr F F
@xi @xj @xi @xj
1 @F 1 @F 1 @F
= tr F + tr F F (6.78)
@xi @xj @xi @xj

6.10. Diferenciación de Inversas Generalizadas


Supongamos que Fp q matriz de la función de…nida en un conjunto de S, de
un vector x=(x1 ; :::; xm ) consideremos Gp q matriz de funciones de…nidas
(en S) tomando G(x) para ser inversas generalizada de F(x).
En el caso especial donde q = p y S es compuesta de matrices no singu-
lares (y por lo tanto donde (G = F 1 ). G es continuamente diferencia-
ble en el punto interior de S en el cual F es continuamente diferenciable y
@G=@xj = G(@F=@xj )G(como se discutió en la sección 15.8). En esta sec-
ción consideramos la extensión para las cuales estos resultados (y otros varios
resultados en la diferenciación de la inversa común) puede ser extendido en
el caso donde F no es necesariamente in singular (y q no es necesariamente
igual a p). Una extensión semejante es dada en el siguiente teorema:
6.10. DIFERENCIACIÓN DE INVERSAS GENERALIZADAS 155

Teorema 15.10.1. Supongamos que Fp q matriz de funciones, de…nida en


0
un conjunto de S, de un vector x=(x1 ; :::; xm ) de m variables, supongamos
que c representa cualquier punto interior de S en la cual F es continuamente
diferenciable. Supongamos que F tiene rango constante ,es decir r , en algún
aproximado de c. toma i1 ; :::; ir para ser el numero entero escogido de p ,
enteros positivos, 1; :::; p, de tal manera que la i1 ; :::; ir sucesión de F(c) están
linealmente independiente, y toman j1 ; :::; jr para ser enteros escogidos desde
los primeros q enteros positivos, 1; :::; q, en la forma que j1 ; :::; jr , columnas
de F(c) que están linealmente independientemente. Otro mas alejado de p
para ser alguna pxp matriz de permutación la cual las primeras r columnas
son de j1 ; :::; jr , columnas de 1; :::; q. Supongamos que B = PFQ, y partición
de B como:

B11 B12
B
B21 B22
Donde B11 es de dimensiones rxr, entonces, rango (B11 )= rango (F)= r en
alguna aproximación N de c y, existe una inversa generalizada de G de F
tales como:
B 111 0
G= Q P
0 0
En N además, G es continuamente diferenciable en c, y (en x = c)

1 1
@G B 11
(@B11 =@xj )B 11
0 @F
= Q P= G G:
@xj 0 0 @xj

Con la referencia al Teorema 15.10.1. nota (en la línea de discusión de la


sección 9.2a) que F(c) necesariamente contiene r linealmente independiente
en …las y linealmente en columnas, la cual B11 es la submatriz de F excep-
to i1 ; :::; ir , …la y al j1 ; :::; jr , columna (o es una rxr matriz obtenida de la
submatriz alterando las …las y las columnas), y que B11 (c) no es singular,
provocando el teorema 15.10.1, es conveniente para el uso del siguiente lema.

Lema 15.10.2. supongamos que Fp p matriz de funciones, de…nidas en un


conjunto S, de una m- columna dimensional del vector x. imaginemos que F
no es singular en un punto interior c de S y que F es continua en c luego,F
no es singular en todos los puntos alrededor de c.
156 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Demostración (del lema 15.10.2). Continua la de…nición de un determinante


[dadoporlasformulas(13.1.2)] y de resultados estándares, en la continuidad de
la función.
Lo que det (F) es una función continua de x (en x = c) y por lo tanto el

lim det [F (c)] = det [F (c)]


x!c

Desde el det [F (c)] o, S contenidos alrededor de N de c tales que jdet [F (x)] det [F (c)]j <
jdet:[F (c)]j para x 2 N o, equivalente, tal que jdet:[F(c)]j jdet:[F(c)] det:[F(x)]j
> 0 para x 2 N , y desde jdet[F(c)]j jdet[F(x)]j+jdet[F(c)]-det[F(x)]j o
equivalente jdet:[F(x)]j jdet:[F(c)]j jdet[F(c)]-det[F(x)]j, tenemos que
jdet:[F(x)]j > 0 para x 2 N ,concluimos que F(x) no es singular para x 2 N .

Demostración (del Teorema 15.10.1) desde que (una línea del lema 15.1.1)
F es continua en c (in…riendo que B11 es continua en c), siguiendo del Lema
15.10.2 el cual B11 no es singular en todos los puntos en algunos alrededor
de N1 de c supongamos N2 representa una vecindad de c en la cual rango
(F) = r, y toma N cualquiera de los dos alrededor de N1 y N2 tiene el radio
mas pequeño. Luego claramente el rango (B11 ) = rango (F) = r para x 2 N .
La existencia de una inversa generalizada G de F tal que
1
B 11
0
G= Q P
0 0

En N sigue desde el teorema 9.2.3 tal que G es continuamente diferenciable


en c y que (en x = c)
1 1
@G B 11
(@B11 =@xj )B 11
0
= Q P
@xj 0 0
Siguiendo desde los resultados de la sección 15.4 y15.8 completa la prueba
observe que @B=@xj = P(@F=@xj )Q implica que

@F 0 @B 0 0 @B11 =@xj @B12 =@xj 0


=P Q =P Q
@xj @xj @B21 =@xj @B22 =@xj

Y por lo tanto
1 1
@F B 11
0 @B11 =@xj @B12 =@xj B 11
0
G G=Q P
@xj 0 0 @B21 =@xj @B22 =@xj 0 0
6.10. DIFERENCIACIÓN DE INVERSAS GENERALIZADAS 157

1 1
B 11
(@B11 =@xj )B 11
0
=Q P
0 0
De acuerdo con el teorema 15.10.1 una condición su…ciente para la existencia
de una inversa generalizada de F la cual es continuamente diferenciable en
c (donde c es un punto interior en el cual F es continuamente diferenciable)
es que F tiene un rango constante en algunos alrededores de c.
Es esta condición necesaria tanto como su…ciente? esta pregunta es respon-
dida (en la a…rmación)
Por el resultado del siguiente lema.

Lema15.10.3 supongamos que Fp q matriz de función de…nida en un con-


junto S la columna de vectores m-dimensional de x.y ,supongamos que c
representa algún punto interior de S en la cual F es continua .si existe
Una inversa generalizada de F que es continua en x = c, luego F tiene rango
constante en alguna aproximación de c.

Demostración. supongamos que existe una inversa generalizada , digamos


G de F es continua en x = c luego desde que sumas y productos de funciones
continuas son continuas tr (FG) es continua en x = c: además deacuerdo
al resultado (10.2.1), tr (FG)=rango(F) de esta manera, el rango (F) es
continuo en x = c, desde que rango (F) es el valor de un numero entero
concluimos que el rango(F) en alguna vecindad de c:

Corolario 15.10.4. Supongamos que Fp q matriz de funciones, de…nida en


un conjunto S, de una columna de vectores m-dimensional de x. Supongamos
que c representa algún punto interior de S en el cual
F continuamente diferenciable, si existe una inversa generalizada de F la cual
es continuamente diferenciable en x = c, luego F tiene rango constante en
alguna vecindad de c.

Demostración. Supongamos que existe una inversa generalizada, dada en


G de F la cual es continuamente diferenciaible en c desde que (de acuerdo
al lema 15.1.1) funciones continuamente diferenciables son
continuas, F y G son ambas continuas en x = c de esta manera le sigue el
lema 15.10.3 F tiene un rango constante en la vecindad de c.
158 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Supongamos que Fp q matriz de funciones de…nidas en un conjunto S de


un vector x=(x1 ; :::; xm ) de m variables alejadas, supongamos que c repre-
senta un punto interior de S en la cual F es continuamente diferenciable, y
supongamos que F tiene un rango constante en alguna vecindad de c luego
de acuerdo al Teorema 15.10.1 existe una inversa generalizada G de F que
es continuamente diferenciable
En c y cuya derivada parcial en x = c son dados por la formula
@G @F
= G G
@xj @xj
Es la formula (10.1) aplicable para todas las inversas generalizadas G (de
F) que es continuamente diferenciable en c? excepto en casos especiales la
respuesta es no supongamos por ejemplo que F = 0 para toda x en algunos
vecindades de N de c y que G escogido de tal forma que G es continuamente
diferenciable en c y @G=@xj no es nulo desde cualquier q p matriz es una
inversa generalizada de p q matriz nula en x = c, mientras el lado izquierdo
no es nulo.
El siguiente lema es relacionado a la derivada parcial en (x = c) de una
inversa generalizada de F de la derivada parcial de F estimada esto lo hace
en una forma menos de…nitiva que en la formula (10.1) sino en una forma la
cual sea aplicable a alguna inversa generalizada (de F) que es continuamente
diferenciable
en c:

Lema 15.10.5 supongamos que Fp q matriz de funciones de…nida en un


conjunto S, de un vector x=(x1 ; :::; xm ) de m variables lejanas supongamos
que c representa un punto interior de S en el cual F es continuamente difer-
enciable, y (asumiendo que F tiene un rango constante en alguna vecindad
de c) supongamos que G representa una inversa generalizada de F que es
continuamente diferenciable (en x = c)
@G @F
F F= FG GF:
@xj @xj

Demostración diferenciando ambos lados de la igualdad F = FGF [con la ayuda del resultad
que (en x = c)
@F @F @G @F
= FG +F F+ GF
@xj @xj @xj @xj
6.10. DIFERENCIACIÓN DE INVERSAS GENERALIZADAS 159

Premultiplicando ambos lados de la igualdad (10.3) por FG y GF respecti-


vamente dados
@F @F @G @F
FG GF = FGFG GF + FGF FGF + FG GFGF
@xj @xj @xj @xj

@F @G @F
= FG GF + F F + FG GF
@xj @xj @xj
O equivalente,
@G @F
F F= FG GF
@xj @xj
El siguiente teorema generaliza el resultado (10.1).

Teorema 15.10.6supongamos que Fp q ,A k q y Bp r matrices de funciones


de…nidas en un conjunto S
De un vector x=(x1 ; :::; xm ) de m variables. Supongamos que c representa
un punto interior, de S en el cual F,A;y B son continuamente diferencia-
bles. Supongamos que existe una vecindad de N de c talque (1)=F tiene un
rango constante en N y (2) R(A) R (F) y C(B) C(F) para todo x
2 N luego para alguna inversa generalizada G de F,AGB es continuamente
diferenciable en c, y (en x = c)

@(AGB) @B @F @A
= AG AG GB + GB
@xj @xj @xj @xj

El teorema 15.10.6 indica que aun si la inversa generalizada G es no contin-


uamente diferenciable (en x = c) o la formula

@G @F
=G G
@xj @xj
No es aplicable para G podemos para el propósito de obtener la derivada par-
cial de AGB (en x = c) continua aunque G es continuamente diferenciable
y por formula (10.5) es valido. en el caso especial
donde (para x 2 S) A(x) y B(x) son constantes o (mas generalmente) no
varia con xj formula (10.4) simpli…camos para

@(AGB) @F
= AG GB
@xj @xj
160 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Preliminar para probar el teorema 15.10.6 es conveniente establecer el sigu-


iente teorema el cual es de mucho mas interés el echo propio.

Teorema 15.10.7 supongamos que Fp q matriz de funciones de…nida en un


conjunto S de columna de vectores de x m-dimensional y supongamos que
G representa una inversa generalizada de F. supongamos que c. representa
algún punto interior (de S) en el cual F es continuamente diferenciable, y
suponte que F tiene un rango constante en algunas vecindade de c. luego
existe alguna inversa generalizada de G (de F) tal que G es continuamente
diferenciable (en c) y G (c) = G(c).

Demostración (del teorema15.10.7). de acuerdo al teorema , existe una


inversa generalizada, digamos H, de F la cual es continuamente diferenciable
en c. supongamos
G = H + Z HFZFH
Donde Z = G(c) H(c). Luego sigue del teorema 9.2.7. Donde G es una
inversa generalizada, de F y del resultado de la sección 15.4 la cual G es
continuamente diferenciable (en c). Además,

G (c) = H(c) + Z H(c)F(c) [G(c) H(c)] F(c)H(c)

= H(c) + Z H(c)F(c)H(c) + H(c)F(c)H(c)

= H(c) + Z

G(c)
Demostración del teorema 15.10.6 de acuerdo con el teorema 15.10.7 existe
una inversa generalizada G de F tal que G es continuamente diferenciable
(en c) y G (c) = G(c). Además, de acuerdo al teorema 9.4.1, AGB=AG B
para toda x en N de esta manera sigue del resultado de la sección 15.4 que
AGB es continuamente diferenciable en c y que (en x = c)

@(AGB) @(AG B) @B @G @A
= = AG +A B+ GB
@xj @xj @xj @xj @xj

@B @G @A
= AG +A B+ GB
@xj @xj @xj
6.11. DIFERENCIACIÓN DE MATRICES DE PROYECCIÓN. 161

Para completar la prueba , observa que A(c) = LF(c) y B(c) = F(c)R para
algunas matrices L Y R y por lo tanto (en la linea del lema 15.10.5) que (en
x = c)
@G @G @F
A B = LF FR = LFG G FR
@xj @xj @xj

@F @F
= AG G B= AG GB
@xj @xj

6.11. Diferenciación de matrices de proyec-


ción.
0 0
Recordemos (de la sección 14.12 d) que Px;w representa la matriz X(X WX) X W
(donde X n p y Wn n ) y que , por una matriz W de…nida simétrica pos-
itiva , Px;w es la proyección de la matriz por C(X) con respecto a W. si
los elementos de W y los de X , son funciones de un vector , decimos que
z, de variables , entonces la diferenciación( con respecto a los elementos de
z) de Px;w pueden ser de interés. El siguiente teorema da algunos resulta-
dos en la diferenciación de Px;w y también en la difrenciación de WPx;w y
W WPx;w .

Teorema15.11.1 Supongamos que Xn p y Wn n matriz de…nida simétrica


positiva, y supongamos que los elementos de X y W son funciones, de…nidas
0
en un conjunto S, de un vector z = (z1 ; :::; zm ) de m variables. Mas, supong-
amos que c representa algún punto interior (de S) en el cual X y W son
continuamente diferenciable, y supongamos que X tiene rango constante en
alguna vecindad de c. luego, Px;w , WPx;w , y W WPx;w son continua-
mente diferenciables en c, y (en z = c)

@Px;w @X 0 0
= (I Px;w ) X WX XW (6.79)
@zj @zj
0
0 @X
+X(X WX) W (I Px;w )
@zj
0 0 @W
+X(X WX) X W (I Px;w ) ;
@zj
162 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

@(WPx;w ) @W 0 @W
= I Px;w (I Px;w )
@zj @zj @zj
@X 0 0
+W (I Px;w ) X WX XW (6.80)
@zj
0
0 @X
+WX(X WX) W (I Px;w ) ;
@zj

@(W WPx;w ) 0 @W
= I Px;w (I Px;w ) (6.81)
@zj @zj
@X 0 0
W (I Px;w ) X WX XW
@zj
0
0 @X
WX(X WX) W (I Px;w ) :
@zj
Los resultados el teorema 15.11.1 son casos especiales de varios resultados
rodeados en el siguiente teorema (como es evidente sobre recordar (de el
0
resultado 14.11.3) el rango(X WX)=rango(X) y (del teorema 14.12.11) que
h 0 i0 0 0 0 0
X (X WX) = X(X WX) X y por lo tanto WX(X WX) X = Px;w :

Teorema 15.11.2 supongamos que Wr n , Xn q y Yq r matrices de fun-


0
ciones, de…nidas en un conjunto S, de un vector z = (z1 ; :::; zm ) de m vari-
ables. Supongamos que c representa cualquier punto interior de S en el cual
W,X y Y son continuamente diferenciables. Supongamos que existe una
vecindad N de c la cual (1) YWX tiene un rango constante en N y (2) rango
(X) = rango (Y) =rangoYWX para todo z en N . de…ne K = X(YWX) Y.
luego K, KW, WKW, y W WKW son continuamente diferenciables en
c, y (en z = c)

@K @X @Y @W
= (I KW) (YWX) Y + X(YWX) (I WK) K K;
@zj @zj @zj @zj
(6.82)

@(WK) @X
= (I KW) (YWX) Y (6.83)
@zj @zj
@Y @W
+X(YWX) W(I WK) + K (I KW) ;
@zj @zj
6.11. DIFERENCIACIÓN DE MATRICES DE PROYECCIÓN. 163

@(WKW) @W @W
= (I WK) (I KW) (6.84)
@zj @zj @zj
@X
+W(I KW) (YWX) YW
@zj
@Y
+WX(YWX) W(I KW) ;
@zj

@(W WKW) @W
= (I WK) (I KW) (6.85)
@zj @zj
@W
W(I KW) (YWX) YW
@zj
@Y
WX(YWX) W(I KW)
@zj
Demostración. En la linea de resultados de la seccion 15.4, tenemos que
YWX es continuamente diferenciable en c y, una linea de resultados 4.4.7
tenemos que R(X) = R(YWX) y C(Y) = C(YWX) para toda z en N . apli-
cando el teorema 15.10.6 (con F = YWX, A = X, y B = Y), encontramos
que K es continuamente diferenciable en c y que (en z = c)

@K @Y
= X(YWX) (6.86)
@zj @zj
@(YWX) @X
X(YWX) (YWX) Y+ (YWX) Y :
@zj @zj
además,

@(YWX) @X @W @Y
= YW +Y X+ WX : (6.87)
@zj @zj @zj @zj
Sobresustituyendo la expresión (11.9) para@(YWX)=@zj en la expresión
(11.8) obtenemos

@K @Y @X @W
= X(YWX) KW (YWX) Y K K
@zj @zj @zj @zj
@Y @X
X(YWX) WK+ (YWX) Y
@zj @zj
@X @Y @W
= (I KW) (YWX) Y + X(YWX) (I WK) K K;
@zj @zj @zj
164 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Por medio de esto validamos la formula (11.4)


Más, puesto que K es continuamente diferenciable en c, sigue de los resulta-
dos de la sección 15.4 que KW, WKW, y W WKW son continuamente
diferenciables (en z = c).

@(KW) @W @K
=K + W; (6.88)
@zj @zj @zj

@(WKW) @(KW) @W
=W + KW ; (6.89)
@zj @zj @zj
@(W WKW) @W @(WKW)
= ; (6.90)
@zj @zj @zj
Sobresustituimos la expresión (11.4) por @K=@zj , en expresiones
(11.10). Obtenemos (después de una pequeña simpli…cación) expresión (11.5)
similarmente sobresustituir expresiones (11.5) por @(KW)=@zj , en la expre-
sión (11.11) obtenemos la expresión (11.6), la cual cuando se sustituye por
@(WKW)=@zj en expresiones (11.12) dando expresiones (11.7).
De acuerdo al teorema 15.11.1., una condición su…ciente para Px;w para ser
continuamente diferenciable en c (donde c es un punto interior en el cual X y
W son continuamente diferenciables) tal que X tiene un rango constante en
alguna vecindad de c. esta condición es tan necesaria como su…ciente? Esta
pregunta es respondida (en lo a…rmativo) por el resultado de el siguiente
lema.

Lema 15.11.3 Supongamos que Xn p y Wn n de…nida simétrica positiva


continua, y suponte que los elementos de X y W son funciones de…nidas en un
conjunto S, de una columna de vectores de z m-dimensional. y supongamos
que c representa algún punto interior de S en la cual X y W son continuos.
Si Px;w es continua en z = c, luego X tiene un rango constante sobre alguna
vecindad de c.

Demostración Suponemos que Px;w es continuo en z = c, luego tr(Px;w ) es


continuo en z = c, además, puesto que (de acuerdo con el teorema 14.12.11)
Px;w es idempotente y un rango(X)=rango(Px;w ), tenemos en una parte
importante del resultado 10.2.2) este rango(X)=tr(Px;w ), de esta manera,
el rango(X) es continuo en z = c. puesto que el rango(X) es constante en
algunas aproximaciones en c
6.11. DIFERENCIACIÓN DE MATRICES DE PROYECCIÓN. 165

corolario 15.11.4 Supongamos que Xn p y Wn n de…nida positiva simétri-


ca, y supongamos que los elementos de X y W son funciones de…nidas en
un conjunto S de una columna de vectores z dimensional m-dimensionales,
supongamos que c representa algún punto interior de S en la cual X y Wson
continuamente diferenciable en c, luego X tiene un rango constante en alguna
vecindad de c.

Demostración. Suponemos que Px;w es continuamente diferenciable en c.


puesto que (de acuerdo con el lema 15.11) las funciones continuamente difer-
enciable, X,W, y Px;w son todos continuos en z = c, de esta manera, sigue
del lema 15.11.3 el cual X tiene un rango constante en alguna vecindad de c.
En el caso especial donde X es una matriz de constantes, o mas generalmente,
donde (para z 2 S) X(z) no varia con zj , formulas (11.1)-(11.3) se reduce a

@Px;w 0 0 @W
= X(X WX) X (I Px;w ) ; (6.91)
@zj @zj

@(WPx;w ) @W 0 @W
= (I Px;w ) (I Px;w ) ; (6.92)
@zj @zj @zj
@(W WPx;w ) 0 @W
= (I Px;w ) (I Px;w ) ; (6.93)
@zj @zj
Las formulas (11.1)-(11.3) puede ser expresado en una forma mas general
haciendo uso del siguiente lema.

Lema 15.11.5 Supongamos que Xn p y Wn n de…nida simétrica positiva,


y suponte que los elementos de X y W son funciones, de…nidas en un con-
0
junto S, de un vector z = (z1 ; :::; zm ) de m variables. Supongamos que c
representa cualquier punto interior (de S) en la cual W y X son continu-
amente diferenciable, y suponte que X tiene un rango constante en alguna
vecindad de c. mas, supongamos que B representa cualquier matriz p n tal
0 0
que X WXB = X W. Luego, en z = c.

@Px;w 0 @W @X
WPx;w = (I Px;w ) Px;w + W(I Px;w ) B (6.94)
@zj @zj @zj
166 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Demostración. recordemos del teorema (14.12.11)

Px;w WX = WX

(para toda z en S) y (del teorema 15.11.1 )quePx;w es continuamente difer-


enciable en c de esta manera (en z = c)
0 0
@(WX) @(Px;w WX) 0 @(WX) @(Px;w )
= = Px;w + WX ;
@zj @zj @zj @zj
Entonces esto
0
@(Px;w ) 0 @(WX)
WX = (I Px;w )
@zj @zj
0 @W 0 @X
= (I Px;w ) X+(I Px;w )W ;
@zj @zj
Implica que

0
@(Px;w ) 0 @W 0 @X
WXB =(I Px;w ) XB+(I Px;w )W B: (6.95)
@zj @zj @zj
Además haciendo uso de la parte (2) y(3) del teorema 14.12.11,igual que
(11.17) puede ser re expresada como la igualdad (11.16)
0 0
Puesto que ningún (@Px;w =@zj) WPx;w ,ni (I Px;w )(@W=@zj)Px;w in-
volucra B, sigue del lema 15.11.5 que W(I Px;w )(@w=@zj )B es invariante
de la selección de B, de esta manera puesto que la selección de B incluye
0
h 0 i0
0 0
(X WX) X W y (X WX) X W, tenemos que

@X 0 0 @X
W(I Px;w ) (X WX) X W = W(I Px;w ) B (6.96)
@zj @zj
Y
@X h 0 i0 0 @X
W(I Px;w ) (X WX) X W = W(I Px;w ) B;
@zj @zj
Lo cual[puesto W(I Px;w ) es simétrica] es equivalente a
0 0
0 @X @X
WX(X WX) W(I Px;w ) = W(I Px;w ) B ; (6.97)
@zj @zj
6.12. EVALUACIÓN DE ALGUNAS INTEGRALES MÚLTIPLES 167

Además , sobre premultiplicar ambos lados de las igualdades (11.18) y (11.19)


por W 1 encontramos que
@X 0 0 @X
(I Px;w ) (X WX) X W = (I Px;w ) B (6.98)
@zj @zj
Y
0
0 @X 1 @X
(X WX) W(I Px;w ) = W W(I Px;w ) B : (6.99)
@zj @zj
h 0
i
1 0
Usando los resultados (11.18) - (11.21) y escribir Px;w W para X(X WX) X
,formulas (11.1) - (11.3) puede ser re expresada como
0
@Px;w @X @X
= (I Px;w ) B + W 1 W(I Px;w ) B (6.100)
@zj @zj @zj
@W
+Px;w W 1 (I Px;w ) ;
@zj

@(WPx;w ) @W 0 @W
= (I Px;w ) (I Px;w ) (6.101)
@zj @zj @zj
0
@X @X
+W(I Px;w ) B+ W(I Px;w ) B
@zj @zj

@(W WPx;w ) 0 @W
= (I Px;w ) (I Px;w ) (6.102)
@zj @zj
@X
W(I Px;w ) B
@zj
0
@X
W(I Px;w ) B
@zj
0 0
(donde Bp n tal que X WXB = X W).

6.12. Evaluación de Algunas Integrales Múlti-


ples
Sean x = (x1 ; :::; xn )0 un vector (columna) de n variables x1 ; :::; xn , W una
matriz simétrica n n de…nida positiva, A una matriz n n y c; k vectores
n 1. Considere la evaluación de las siguientes 3 integrales:
168 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Z
exp (1=2) (x c)0 W (x c) dx;
Rn
Z
(k0 x) exp (1=2) (x c)0 W (x c) dx;
Rn
Z
(x c)0 A(X C) exp (1=2) (x c)0 w (x c) dx
Rn
R
[Donde el símbolo Rn f (z)dz es usado para denotar la integral de una función
f (z) de un vector z (columnas) de n variables sobre todo Rn ]
Estas 3 integrales son de importancia considerables en probabilidad y estadís-
tica„donde ellas hacienden en conexión con la distribución normal multivari-
able (e.g.,Searle 1971,capitulo 2)ellas pueden ser evaluadas, introduciendo un
cambio apropiado de variables y recordando (Desde el calculo integral de una
variable sencilla )que.
Z 1
2=2
e x dx = (2 )1=2 ;
1
Z 1
x2=2
xe dx = 0;
1
Z 1
x2=2
x2 e dx = (2 )1=2 ;
1

Acorde al corolario 14.3.13 halla existe una matriz P no singular n n tal


que W=P0 P .de…ne

Z = P(x c);
Así que x = p 1 z+c: Además, sea J que representa al Jacoviano de P 1 Z+C
(Donde p 1 z + c es considerado como un vector de funciones de Z ) luego,
observar [considerando el resultado (3.10)] que

@ (p 1 z + c)
= p 1;
@z0
Nosotros encontramos que
1 1
J= p = jpj ;
6.12. EVALUACIÓN DE ALGUNAS INTEGRALES MÚLTIPLES 169

y desde jWj = jp0 pj = jpj2 ; nosotros tenemos que


1=2
J= jwj :
De esta manera hacer uso de manera estándar sobre cambio de variables (e.g.,
Batle 1976 sección 46) encontramos que
Z
exp (1=2) (x c)0 W (x c) dx
Rn
Z
= exp [ (1=2) z0 z] jJj dz
Rn
Z 1 Z 1
1=2 2 2
= jWj eZ1 =2dz1 ::: eZn =2dzn
1 1

1=2
= (2 )n=2 jWj : (6.103)
Además supongamos que di representa elR elemento i esimo de el vector
1 2
KP 1 1 n [y observar que (para i = 1::: 1 e Zi =2dzi = 0)],encontramos
que
Z
exp (1=2) (w c)0 W (x c) dx
Rn
Z
(k c)0
exp (1=2) (x c)0 W (x c) dx
Rn
Z
+ k0 (x c) exp (1=2) (x c)0 W (x c) dx
Rn

1=2
(k0 c) (2 )n=2 jWj
Z
+ k0 p 1 z exp [ (1=2) z0 z] jJj dz
Rn

1=2
(k0 c) (2 )n=2 jWj

X
n Z 1 Z 1 Z 1
1=2 Zi2 =2 Zs2 =2 Zs2 =2
+ jWj di zi e dzi e dzi e dzs
1 s 6= i 1 1
i=1
170 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

1=2
= (k0 c) (2 )n=2 jWj : (6.104)
0 1
Y supongamos que bij representa el elemento ij esimo de la matriz (P 1 ) AP
0 1
n n y recordando el lema 5.21[y observa que (P 1 ) = (P 1 ) ], encon-
tramos que
Z
(x c)0 A (x c) exp (1=2) (x c)0 W (x c) dx
Rn
Z
1 0
z0 P AP 1 z exp [ (1=2) z0 z] jJj dz
Rn
X Z
1=2
jWj bij zi zj exp [ (1=2) z0 z] jJj dz
i;j Rn

X Z 1 Z 1
1=2 2 Zs2 =2
jWj f bij zi2 e Zi =2 dzi e dzs
1 s 6= i 1
i=1

X Z 1 Z 1 Z 1
Zi2 =2 Zj2 =2 Zs2 =2
+ bij zi e dzi zj e dzj e dzs g
1 1 s 6= i; j 1
i;j6=i

1=2
X
jWj bij (2 )1=2 (2 )(n 1)=2

i;j
h i
n=2 1=2 1 0 1
(2 ) jWj tr P AP
h i
n=2 1=2 1 1 0
(2 ) jWj tr AP P

(2 )n=2 jWj 1=2


tr AW 1
: (6.105)
Formulas (12.1)-(12.3) puede ser considerada como casos especiales de la
formula dada por el siguiente teorema.
TEOREMA15.12.1 Sea B que representa una matriz de…nida n n, sea
b que representa un vector de n columnas y sea b0 y a0 que representa los
escalares, luego,
Z
(a0 + a0 x + x0 Ax) exp [ (b0 + b0 x + x0 Bx)] dx
Rn
6.12. EVALUACIÓN DE ALGUNAS INTEGRALES MÚLTIPLES 171

n=2 1=2
= (1=2) jBj exp (1=4) b0 B 1 b b0

1
tr AB a0 B 1 b + (1=2) b0 B 1 AB 1 b + 2a0 (6.106)
DEMOSTRACION. Esto …nalmente muestra que

b0 + b0 x + x0 Bx = (1=2) (x c)0 w (x c) + f;
Donde W = 2B; c = (1=2) B 1 b; y f = b (1=4) b0 B 1 b: esto también
fácilmente muestra que

(a0 + a0 x + x0 Ax) = (x c)0 A (x c) + K0 x + g;


Donde k = a (1=2) (A + A0 ) B 1 b y g = a0 (1=4) b0 B 1 AB 1 b:De esta
manera hacer uso del resultado (12.1)-(12.3)[y observar que b0 B 1 AB 1 b =
0
b0 B 1 AB 1 b = b0 B 1 AB 1 b]
Z
(a0 + a0 x + x0 Ax) exp [ (b0 + b0 x + x0 Bx)] dx
Rn

Z
=e f
g + k0 x + (x c)0 A (x c) exp (1=2) (x c)0 w (x c) dx
Rn

h i
f n=2 1=2 0 n=2 1=2 n=2 1=2 1
=e g (2 ) jWj + (k c) (2 ) jwj + (2 ) jWj tr AW

1=2
= (2 )n=2 jWj e f
g + (k0 c) + tr AW 1

1=2
= (2 )n=2 2 n=2
jBj exp (1=4) b0 B 1 b b0 [a0 (1=4) b0 B 1 AB 1 b

1
(1=2) a0 B 1 b + (1=4) b0 B 1
(A + A0 ) B 1 b+ (1=2) tr AB ]
n=2 1=2 1
= (1=2) jBj exp (1=4) b0 B 1 b b0 [tr AB a0 B 1 b

+ (1=2) b0 B 1 AB 1 b + 2a0 ]
172 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

6.13. Ejercicios
Seccion15.1
1. Usando el resultado de la parte (c) del ejercicio 6.2, muestra que toda bola
abierta de un punto x en Rmx1 es un conjunto abierto.
2. Sea f que representa una función de…nida sobre un conjunto de un vector
x = (x1 ::::::xn )0 de m variables, supongamos que s contiene al menos algunos
puntos interiores, y sea c que representa un punto un punto arbitrario de esos,
veri…car si f en tiempos k diferenciables, continuamente en c; luego f es k
veces diferenciable continuamente en cada punto de algunas bolas abiertas
de c:
3. Sea X = fxij g que representa alguna matriz m n derivables mn; y sea
x que representa un vector columna dimensional mn obtenido por cambio
de elemento de X (en la forma de un vector columnas).Además sea S que
representa un conjunto de valores de X; y sea S que representa un conjun-
to correspondientes de valores de x (i:e:;la serie obtenida por cambiar los
elementos de cada matriz m n en S en la forma de un vector columna).
Veri…car que un vector de columna dimensional mn en un punto interior de
S si y solo si existe un nuevo arreglo de una matriz m n que un punto
interior de S.
4. Sea f que representa una función cuyo dominio es un conjunto S en
Rmx1 (que contiene al menos unos puntos interiores). Muestra que la matriz
H f hessian de f es la matriz inclinación de del vector (Df )0 inclinación
de f .
Sección 15.2
5.Sea g que representa una función de…nida sobre un conjunto S de un vector
x = (x1 ; :::; xn )0 de m variables, sea S (x 2 s : g (x) 6= 0) y se c que represen-
ta cualquier punto interior de S en el cual g es diferenciable continuamente
(incluir formulas (2.16) y (2.8)para mostrar que cualquier numero entero k
positivo)g k es diferenciable continuamente en c y

@g k k 1 @g
= kg ;
@xj @xj
Por medio de eso generalizar formula (2.8) y establecer que la formula (2.16)
es valido para los valores negativos (así como positivo) de k
Sección 15.4
6. Sea F que representa una matriz p p de funciones de…nida sobre un
0
conjunto S de un vector x = (x1 ; :::; xn ) de m variables, sea c que representa
6.13. EJERCICIOS 173

cualquier punto interior de S en el cual F es diferenciable continuamente.


Muestra que si F es idempotent en todos los puntos de alguna bola abierta
de c; luego (en x = c)

@F
F F=0
@xj
7. Sea g que representa una función de…nida sobre un conjunto S de un
vector x = (x1 ; :::; xn )0 de m variables, sea f que representa cualquier vector
p 1 de funciones (de…nida en S)de x: Sea c que representa cualquier punto
interior (de S) en el cual g y f son diferenciable continuamente. Muestra que
gf es diferenciable continuamente en c y que (en x = c)

@ (gf ) @g @f
0
= f 0 + 0:
@x @x @x
Sección 15.6
8. (a) Sea X = fxij g que representa alguna matriz m n derivables
independientes y suponga que X recorre sobre todo Rmxn
(1)Muestre que para cualquiera de las matrices m p y n p de constante
AyB

@ tr (AXB)
= A0 B0 :
@X
[surg: Observa que tr(AXB) =tr(BAX)]
(2)Muestre que para cualquier vector a y b de columnas dimensiónales
myn

@ (a0 Xb)
= ab0 :
@X
[surg: Observar que a0 Xb = tr(a0 Xb) :]
(b) Suponga que X es una matriz simétrica (pero de otro modo libre) de
dimensiones m n
(1)Muestre que para cualquier de las matrices p m y m p de constante
AyB

@ tr (AXB)
= C + C0 diag (c11 ; c22 :::cmm ) ;
@X
Donde C = fcij g = AB:
(2)Muestre que para cualquier vectores columnas a = fai g y b = fbi g ;
174 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

@ (a0 Xb)
= ab0 + ba diag (a1 b1 ; a2 b2 ::::am bm ) :
@X
9.(a)Sea X = fxst g que representa alguna matriz m n derivables independi-
entes y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que para cualquier matriz n m de constante A

@ tr (AX)2
= 2 (AXA)0 :
@X
(b) Sea X = fxst g que representa alguna matriz de variables simétrica m
m(perodeotromodolibre):M uestrequeparacualquiermatrizm m de con-
stante A

@ tr (AX)2
= 2 [B + B diag (b11 ; b22 :::bmm )] ;
@X
Donde B = fbst g = AXA:
10. Sea X = fxij g que representa una matriz m n derivables independi-
entes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que, para k = 2; 3; ::::;

@ tr Xk k 1
= k (X0 ) ;
@X
Por medio de eso generalice el resultado (2.17)
11. Sea X = fxst g que representa una matriz m n derivables independi-
entes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :
(a)Demuestre que para cualquier matriz de constante A m m

@ tr (X0 AX)
= (A + A0 ) X:
@X
(b)Demuestre que para cualquier matriz de constante A n n

@tr (XAX0 )
= X (A + A0 ) :
@X
(c)Demuestre (en el caso especial donde n = m) que para cualquier matriz
de constante A m m

@ tr (XAX)
= (AX)0 + (AX)0 :
@X
6.13. EJERCICIOS 175

(d)Use la formula de la parte (a)-(c) para idear o concebir simples formu-


las @tr(X0 X) =@X;@tr(XX0 ) =@X; y (en el caso especial donde n = m)@ tr(X2 ) =@X:
Sección 15.7
12. Sea X = fxij g que representa una matriz m m: Sea f que representa
una función de X de…nida sobre un conjunto S comprender o incluir algunas
o todas las matrices simétricas m m.
Supón que para propósito de diferenciación, f esta interpretada como una
función del vector x columna dimensional [m (m + 1) =2] ; cuyos elementos
son xij (j i = 1; ::::; m) :Supón además que allí existe una función g; cuyo
dominio es un conjunto T de matrices simétricas no necesariamente que
contiene S como un subconjunto propia tal que g (X) = f (X) para X 2 S;
así que g es una función de X y f es la función obtenida por limitar el
dominio de g a S: De…ne S = (x : X 2 S) :sea c que representa un punto
interior de S ;y sea C que representa el valor correspondiente de X: Muestra
que si C es un punto interior de T y si g es diferenciable continuamente en
C; luego f es diferenciable continuamente en C:y que (en x = c)
0
@f @g @g @g @g @g
= + diag ; ; :::; :
@X @X @X @X11 @X22 @Xmm
13. Sea h = fhi g que representa un vector de funciones n x 1; de…nida sobre
un conjunto S; de un vector x = (x1; :::; xn )0 de m variables, sea g que
representa una función de…nida sobre un conjunto T; de un vector y =
(y1; :::; yn )0 de n variables. Supón que h (X) 2 T para todo x en S; y toma
f para ser la función compuesta de…nida (en S)por f (x) = g [h (x)] : Muestra
que si h es dos veces diferenciable continuamente en un punto interior c de S
y si g es dos veces diferenciable continuamente en h (c)[asumir que h (c) es
un punto interior de T], luego si f es dos veces diferenciable continuamente
en c y

X
n
Hf (c) = [Dh (c)]0 Hg [h (c)] Dh (c) + Di g[h (c) Hhi (c) :
i=1

Sección 15.8
14. Sea X = fxij g que representa una matriz m m de variables indepen-
dientes m2 (donde m 2) y Supón que el rango de X comprende todo
Rmxn :Muestra que (para cualquier numero entero k positivo)la función f
176 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

de…nida (en Rmxn )por f (x) = jXjk es diferenciable continuamente en todo


X y que

@ jXjk
= k jXjk 1
[adj (X)]0 :
@X
15. Sea F = fxis g que representa una matriz de funciones p p; de…nida
sobre un conjunto S; de un vector x = (x1 ::::::xm )0 de m variables. Sea c
que representa cualquier punto interior (de S) en el cual F es diferenciable
continuamente. Use los resultado del ejercicio 13.10 para mostrar que (a) si
el rango [F (c)] = p 1; luego (en x = c)

@ det (F) @F
= ky 0 z;
@xj @xj
Donde z = fzs g y y = fyi g son vectores dimensiónales-p no nulos tal que
F (c) z = 0 y [F (c)] y = 0 y donde [supongamos is ;representa el cofactor
de f is (c)] k es un escalar que se puede expresar como k = is = (yi zs )para
cualquier i y s tal que yi 6= 0 y zs 6= 0; y (b)si el rango [F (c)] p 2;luego
(en x = c)

@ det (F)
= 0:
@xj
16.Sea X = fxst g que representa una matriz de variables independientes m
n, sea A que representa una matriz de constantes m m; y supón que el
rango de X es un conjunto S comprendiendo algún o todos los valores de X
para el cual det (X0 AX) > 0 ,Muestra que log(det (X0 AX))es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)

@ log(det (X0 AX)) h i0


1 1
= AX (X0 AX) + (X0 AX) X0 A :
@X
17.(a)Sea X que representa una matriz de variables independientes m n;
sea A y B que representa matrices de constantes q m; y n q; y supón que
el rango de X es un conjunto S comprendiendo algún o todos los valores de X
para el cual det (X0 AX) > 0 ,Muestra que log(det (X0 AX))es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)

@ log(det (AXB)) 1 0
= B (AXB) A :
@X
6.13. EJERCICIOS 177

(b)supón ahora que X es una matriz simétrica m m; que A y B son


matrices de constantes q m; y m q que, para propósito de diferenciar
cualquier función de X, la función es para ser interpretada como una función
del x columnas cuyos elementos son xij (j i = 1; :::; m) y que el rango de
x es un conjunto S comprendiendo algún o todos los valores de x para el
cual det (X0 AX) > 0 ,Muestra que log(det (X0 AX))es diferenciable continu-
amente en cualquier punto interior c de S y que (en x = c)

@ log(det (AXB))
= K + K0 diag (k11 ; k22 :::kqq ) ;
@X
Donde K = fkij g = B (AXB) 1 A:
18. Sea F = fxis g que representa una matriz de funciones p p; de…nida
sobre un conjunto S; de un vector x = (x1; :::; xm )0 de m variables, y sea
A y B que representa matrices de constantes q p; y p q: Supón que S
es el conjunto de todos los valores de x para el cual F (x)es no singular y
det AF 1 (x) B > 0, o es un subconjunto de de ese conjunto.
Muestra que F es diferenciable continuamente en un punto interior c de S;
luego log(det(AF 1 B)) es diferenciable continuamente en c y (en x = c)

@ log(det AF 1 B ) 1 @F
= tr F 1 B AF 1 B AF 1
:
@Xj @Xj

19. Sea A y B que representa matrices de constantes q m; y m q:


(a)Sea X que representa una matriz m m de variables independientes
2
m y supón que el alcance o extensión de X es un conjunto de S com-
prendido algunos o todos los valores de X para el cual X es no singular
y det(AX 1 B) > 0;use el resultado del ejercicio 18 para demostrar que
log(det(AX 1 B)) es diferenciable continuamente en cualquier punto interior
c de S y que (en x = c)

@ log(det AX 1 B) h i0
1 1 1 1
= tr X B AX B AX :
@Xj
(b)supón ahora que X es una matriz simétrica m m; eso para propósito
para diferenciar cualquier función de X; la función es para ser interpretada co-
mo una función del vector x columnas cuyos elementos son xij (j i = 1; :::; m)
y que el alcance o extensión de x es un conjunto de S comprendiendo algún o
178 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

todos los valores de x para el cual det AX 1 B > 0 use el resultado del ejer-
cicio 18 para demostrar que log(det(AX 1 B)) es diferenciable continuamente
en cualquier punto interior c de S y que (en x = c)

@ log(det AX 1 B)
K + K0 diag (k11 ; k22 :::kqq ) ;
@Xj
1
Donde K = fkij g = X 1 B AX 1 B AX 1 :
20.Sea F = ff is gque representa matrices de funciones p p de…nida sobre un
conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Sea c que representa
cualquier punto interior de S en el cual es diferenciable continuamente por
ejemplo usar el resultado de la parte (b) del ejercicio 13.10.Muestre que si el
rank [F (c)] p 3;luego

@adj (F)
= 0:
@Xj
21. (a) Sea X que representa una matriz m m de variables independi-
entes m2 ;supón que el rango de X es un conjunto S comprendiendo algún o
todos los valores de X para el cual X es no singular. Muestre que (cuando
los elementos son considerados como funciones de X) X 1 es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)

@X 1
= yi z0j ;
@xij
Donde yi representa la columna i esima y z0j la …la j esima de X 1
(b)supón ahora que X es una matriz simétrica m m; eso para propósito de
diferenciar una función de X; la función va ser interpretada como una función
del vector x columnas cuyos elementos son xij (j i = 1; :::; m) y que el rango
de x es un conjunto comprendiendo algún o todos los valores de x para el
cual X es no singular. Mostrar que X 1 es diferenciable continuamente en
cualquier punto interior c de S y que (en x = c)

@X 1 yi yj0 ; si j = i;
= 0 0
@xij yi yj yi yj ; si j‹i
Donde yi representa la columna i esimo de X 1
Sección 15.9
22. Sea X que representa una matriz m m de variables independientes
2
m ; supón que el rango de X es un conjunto S comprendiendo algún o todos
6.13. EJERCICIOS 179

los valores de X para el cual X es no singular, y C que representa un punto


interior de S: Denotar el elemento ij esimo de X 1 por yij ;la columna
j esima de X 1 por yj ; y la …la i esima de X 1 por zi0
(a)Muestre que X 1 es dos veces diferenciable continuamente en C que (en
x = c)

@2X 1
= yjs yi z0t + yti ys z0j :
@xij @xst
(b)Supón que det(X) > 0 para todo X en S: Muestre log(det (X)) es dos
veces diferenciable continuamente en C y que (en x = c)

@ 2 log(det (X))
= yti yjs :
@xij @xst
23.Sea F = ff is gque representa matrices de funciones p p de…nida sobre
un conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Para cualquier
conjunto no vació T = ft1; :::; tm g ;cuyos miembros son números enteros entre
1 y m; de…nida D(T ) = @F=@xt1 :::@xts :Sea k que representa un número
entero positivo, para i = 1; :::; k; sea ij que representa un número entero
arbitrario entre 1 y m inclusive.
(a)Supón que F es no singular para todo x en S: y denotar por c cualquier
punto interior (de S) en el cual F es k veces diferenciable continuamente en
c y que (en x = c)
@F 1
@xji :::@xjk
X
k X
= ( 1)r F 1 D(T1 )F 1 D(T2 ):::F 1 D(Tr )F 1 ; (E;1)
r=1 T1 :::Tr
Donde T1; :::; Tm son mutuamente exclusivo y exhaustivo subconjuntos r no
vacíos de fj1; :::; jm g (y donde la segunda recapitulación es sobre todos posi-
bles opciones para T1; :::; Tr ).
(b)Supón que Fdet (X) > 0 para todo X en S; y denota por c cualquier
punto interior (de S) en el cual F es k veces diferenciable continuamente.
Muestre que log (det (F)) es k veces diferenciable continuamente en c de S
y que (en x = c)
@ log (det (F))
@xji :::@xjk
X X
k
= ( 1)r+1 tr[F 1 D(T1 )F 1 D(T2 ):::F 1 D(Tr )F 1 ]; (E;2)
r=1 T1 :::Tr
180 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES

Donde T1; :::; Tm son mutuamente exclusivo y exhaustivo subconjuntos r no


vacíos de fj1; :::; jm g conjk 2 Tr (y donde la segunda recapitulación es sobre
todos posibles opciones para T1; :::; Tr ).
Sección 15.10
24.Sea X = fxij g que representa una matriz simétrica m m; y sea x que
representa un vector columna dimensional [m (m + 1) =2] ; cuyos elementos
son xij (j i = 1; ::::; m) :De…na S para que sea el conjunto de todos los
valores de x para el cual X es no singular y S para ser el conjunto de todos
los valores de x por el cual X es de…nida positiva. Muestre que S y S son
ambas conjuntos abiertos.
Sección 15.11
Sea X que representa una matriz de constante h p: Sea W que representa
una matriz de…nida simétrica positiva n n cuyos elementos son funciones
de…nida sobre un conjunto S de un vector z = (z1; :::; zm )0 de m variables.
Además sea c que representa cualquier punto interior de S en el cual W
es dos veces diferenciable continuamente. Muestre que W WPx;w es dos
veces diferenciable continuamente en c y que (en x = c)

@ 2 (w wpx;w ) @w @w
= (I px:w ) (I p0x:w ) x(xwx)x (I px:w )
@zi @zj @zi @zj

@w @w
[(I p0x:w ) x(xwx)x (I px:w )]
@zi @zj
Suministre una derivación alternativa de la formula (11.23) para @(wpx:w )=@zj
por uso de la parte (60 ) del teorema 14.1211 para obtener la representación

@(wpx:w ) @wpx:w @w
= px:w w + px:w px:w
@zj @zj @zj
0
@px:w
wpx:w
@zj
Capítulo 7

El producto kronecker

Muchas de las matrices particionadas encontradas en estadísticas son ex-


presables en términos de 2 (o más) matrices (de dimensiones relativamente
pequeñas) en forma de algo llamado un producto kronecker. En la Sección
16.1, la de…nición de un producto kronecker de matrices es dada, y se presenta
un buen número de resultados en los productos kronecker. Estos resultados
pueden ser aplicados para los propósitos computacionales (y otros).
En las secciones subsecuentes a este capítulo, la noción introducida en el
Capítulo 15 (en relación con la diferenciación de una función de una matriz)
de reestructurar (no redundante) los elementos de una matriz en la forma
de un vector columna es formalizado introduciendo algo llamado el operador
vec o vech. Se presenta un número de resultados en el operador vec o vech.
Los productos kronecker aparecen en muchos de estos resultados.

7.1. 16.1. Producto Kronecker


De…nición. El producto kronecker de las matrices A m ny Bp q
se de…ne como la matriz particionada mp nq
2 3
a11 B a12 B a1n B
6 a21 B a22 B anB 7
6 7
A B = 6 .. .. .. 7 .
4 . . . 5
am1 B am2 B amn B
Cada componente de A B es el producto de un elemento de A y un elemento
de B. Especí…camente, para 1 r p, 1 s q, 1 i m y 1 j n,

181
182 CAPÍTULO 7. EL PRODUCTO KRONECKER

el elemento que aparece en la [p (i 1) + r]-ésimo …la y [q (j 1) + s]-ésima


columna de A B es aij brs .

Nótese que a diferencia del producto ordinario de matrices AB de A y B


(el cual se de…ne sólo en el caso p = n), el producto Kronecker A B se
de…ne para cualesquier par de matrices A y B, sin depender de sus tamaños.
Nótese además que el producto Kronecker B A de B y A es del mismo
tamaño, (mp nq), que A B, pero la igualdad A B = B A se obtiene
sólo en casos muy especiales, por tanto es más factible que la igualda no se
dé. Por ejemplo, si m = n = q = 2 y p = 3, entonces
2 3
a11 b11 a11 b12 a12 b11 a12 b12
6a11 b21 a11 b22 a12 b21 a12 b11 7
6 7
6a11 b31 a11 b32 a12 b31 a12 b11 7
A B=6
6a21 b11
7,
6 a21 b12 a22 b11 a22 b12 7
7
4a21 b21 a21 b22 a22 b21 a22 b22 5
a21 b31 a21 b32 a22 b31 a22 b32
2 3
b11 a11 b11 a12 b12 a11 b12 a12
6b11 a21 b11 a22 b12 a21 b12 a22 7
6 7
6b21 a11 b21 a12 b22 a11 b22 a12 7
B A=6
6b21 a21
7.
6 b21 a22 a22 b21 a22 b22 7
7
4b31 a11 b31 a12 b32 a11 b32 a12 5
b31 a21 b31 a22 b32 a21 b32 a22
En algunas presentaciones, A B es llamada el producto directo o producto
tensorial de A y B, el lugar de producto Kronecker.

Para un escalar k y una matriz m n

k A=A k = kA, (7.1)


como es evidente a partir de la de…nición de producto Kronecker.

Si
a = [a1 an ]T 2 Rn y b = [b1 bm ]T 2 Rm ,
entonces
7.1. 16.1. PRODUCTO KRONECKER 183

2 3
a1 b
6 a2 b 7
6 7
a b = 6 .. 7 (7.2)
4 . 5
an b
es un vector columna particionado de Rnm . Además,

aT bT = a1 bT an bT (7.3)
es un vector …la particionado de Rnm y

a bT = bT a = abT (7.4)
es la matriz n m que tiene en la posición (i; j) a ai bj .

Sea B una matriz p q. Claramente,

0 B=B 0 = 0. (7.5)
Más aún, si D es la matriz diagonal diag(d1 ; :::; dm ) m m

D B = diag(d1 B; :::; dm B). (7.6)


En el caso especial D = Im , (7.6) se convierte en

I B = diag(B; :::; B), (7.7)


y si además B = Ip , entonces

Im Ip = Imp . (7.8)

Siendo k representa un escalar arbitrario y A y B matrices arbitrarias, es


fácil ver que el efecto sobre el producto Kronecker A B de reemplazar uno
de los dos A o B por el multiplo escalar kA o kB es como sigue:

(kA) B=A (kB) = k(A B) (7.9)


Otra propiedad fácil de veri…car de los productos Kronecker es que, para
algunas matrices A y B m n y alguna matriz C p q,
184 CAPÍTULO 7. EL PRODUCTO KRONECKER

(A + B) C = (A C) + (B C), (7.10)

C (A + B) = (C D) + (C B). (7.11)
Los resultados (1.11) y (1.12) pueden usarse para mostrar que, para algunas
matrices A y B m n y algunas matrices C y D p q,

(A + B) (C + D) = (A D) + (A D) + (B C) + (B D). (7.12)

Más generalmente, los resultados (1.11) y (1.12) pueden usarse para mostrar
que, para algunas matrices A1 ; A2 ; :::; Ar m n y matrices B1 ; B2 ; :::; Bs
p q.
X X XX
( Ai ) ( Bj ) = (Ai Bj ) , (7.13)
i

Nótese que, en el caso especial donde r = s = 2, el resultado (1.14) reduce


esencialmente al resultado (1.13).
Considere ahora la transpuesta (A B)T del producto Kronecker de una
matriz A = faij g m n y una matriz B p q. Se sigue del resultado (2.2.3)
(junto con la misma de…nición de un producto Kronecker) que (A B)T es
una matriz particionada, comprendiendo n …las y m columnas de bloques
dimensionales q p, el ij-ésimo del cual es aji BT . Como aji BT es también
el ij-ésimo bloque de AT BT ,

(A B)T = AT BT . (7.14)
T T T
Nótese que, en constraste [(AB) = B A ] para la transpuesta del producto
de 2 matrices .ordinarias", (A B)T en general no es igual a BT AT . Nótese
que si A y B son ambas simétricas, entonces se sigue del resultado (1.15) que

(A B)T = A B;
que es, el producto Kronecker de matrices simétricas es simétrica.
El lema siguiente proporciona una base para extender la de…nición de un
producto kronecker de tres o más matrices.

Lema 16.1.1. Para alguna matriz A = faij g m n, matriz B = fbij g p q,


una matriz C u v,
7.1. 16.1. PRODUCTO KRONECKER 185

A (B C) = (A B) C. (7.15)

Demostración. Sea G = A (B C) y H = (A B) C. podemos


mostrar que G = H. La partición G entre m …las y n columnas de bloques
dimensionales pu qv, y denote el ij-ésimo de esos bloques por Gij = aij (B
C). Para cada i y j, la partición Gij entre p …las y q columnas de bloques
dimensionales u v, por eso de…nimos una partición de G entre mp …las y
nq columnas de bloques (u v dimensional). Denote el rs-ésimo bloque de
Gij por Grs
ij y el xz-ésimo de los bloques (u v dimensional) de G por Gxz .
Entonces,

Gp(i 1)+r:q(j 1)+s = aij brs C. (7.16)


Ahora, observe que H = F C, donde F = ffxz g = A B. La partición
H entre mp …las y nq columas de bloques dimensionales u v, y denote
el xz-ésimo de esos bloques por Hxz . Entonces, fp(i 1)+r:q(j 1)+s = aij brs , y
consecuentemente

Hp(i 1)+r:q(j 1)+s = fp(i 1)+r:q(j 1)+s C = aij brs C, (7.17)


juntos los resultados (1.17) y (1.18) implica que ( para i,j,r y s arbitrarios)

Gp(i 1)+r:q(j 1)+s = Hp(i 1)+r:q(j 1)+s .

Concluimos que G = H.

El símbolo A B C se usa para representar el valor de los lados izquierdo


y derecho de la igualdad (1.16), y este valor es llamado como el producto
kronecker de A, B, y C. Esta notación y terminología se extiende en forma
obvia a algún número …nito de matrices.

El siguiente lema establece una conexión entre el producto .ordinario"de pro-


ductos kronecker y el producto Kronecker de productos ordinarios.

Lema 16.1.2. Para cualesquier matriz A = faij g m n, matriz B = fbij g


n u, matriz C = fcij g, y matriz D = fdij g,

(A B) (C D) = (AC) (BD) . (7.18)


186 CAPÍTULO 7. EL PRODUCTO KRONECKER

Demostración. Por de…nición A B es una matriz particionada, compren-


diendo m n columnas de bloques dimensionales p q, el ij-ésimo del cual
es aij B; y C D es una matriz particionada, comprendiendo n …las y u
columas de bloques dimensionales q v, el jr-ésimo del cual es cjr D. Esto
es, (A B) (C D) es una matriz particionada, comprendiendo m …las y u
columnas de bloques dimensionales p v, el ir-ésimo del cual es la matriz
X
n X
(aij B) (cjr D) = aij cjr BD.
j

Por el camino de comparación, (A B) (C D) es una matriz particionada,


comprendiendo m …las y u columnas de bloques dimensionales p v, el ir-
ésimo del cual es la matriz

fir BD,
donde fir es elPir-ésimo elemento de AC. La prueba es completada observan-
do que fir = aij cjr y así que el ir-ésimo bloque de (AC) (BD) es igual
al ir-ésimo bloque de
(A B) (C D).

Una implicación del resultado (1.19) es que el producto de Kronecker A B


de matriz A m n, y una matriz B p q puede ser descompuesta en cada
dos de las siguientes maneras:

A B = (A Ip ) (In B) = (Im B) (A Iq ) . (7.19)


Y, a la luz del resultado (1.4), una implicación más es que, para alguna matriz
A m n, matriz C p q, vector b p 1, y vector d n 1,

A bT (d C) = bT A (C d) = AdbT C. (7.20)
El resultado (1.19) puede ser extendido (por la aplicación repetida) al pro-
ducto ordinario de un número ordinario del producto de Kronecker. Tenemos
que

(A1 B1 ) (A2 B2 ) (Ak Bk ) = (A1 A2 Ak ) (B1 B2 Bk ) ,


(7.21)
7.1. 16.1. PRODUCTO KRONECKER 187

donde (para i = 1; 2; ::::; k) Ai es una matriz dimensional mi mi+1 y Bi es


una matriz dimensional pi pi+1 .
El producto de Kronecker A B de alguna matriz A m m no singular y
alguna matriz B p p no singular es invertible, y
1 1
(A B) =A B 1, (7.22)
como es evidente observar [a la luz de los resultados (1.19) y (1.8)] que

1 1 1 1
(A B) A B = AA BB = Im In = Imp .

Más generalmente, A 1 B 1 es una inversa generalizada del producto kro-


necker A B de alguna matriz A m n y alguna B p q, como es evidente
observar que

(A B) A 1
B 1
(A B) = AA 1 A BB 1 B = A B. (7.23)

Considere ahora la traza del producto Kronecker A B de una matriz


A =faij g m m y una matriz B p p. Haciendo uso de la fórmula (5.1.7),
encontramos que

tr(A B) = tr (a11 B) + tr (a22 B) + + tr (amm B)


= (a11 + a22 + amm ) tr(B).

Esto es,

tr(A B) = tr(A)tr(B). (7.24)


Ahora, considere el rango del producto Kronecker de una matriz A m n
y una matriz B p q. Entonces A 1 B 1 es una inversa generalizada de
A B, se sigue de los resultados (10.2.1), (1.19), y (1.25) que

1 1 1
rk (A B) = tr[(A B) (A B 1 )] = tr[ AA BB ] = tr(AA )tr(BB ),

y [de nuevo haciendo uso del resultado (10.2.1) concluimos que

rk (A B) = rk(A)rk(B). (7.25)
188 CAPÍTULO 7. EL PRODUCTO KRONECKER

Nótese que el resultado (1.26) implica que el producto Kronecker A B


dimensional mp nq de una matriz A m n y una matriz B p q tiene rango
…la completo si y sólo si ambas A y B tienen rango …la completo, tiene rango
columna completo si y sólo si ambas A y B tienen rango columna completo,
y además es no singular si y sólo si ambas A y B son no singulares.
El producto Kronecker de una matriz particionada m n
2 3
A11 A12 : : : A1c
6A21 A22 : : : A2c 7
6 7
A = 6 .. .. .. 7
4 . . . 5
Ar1 Ar2 : : : Arc
Y una matriz B p q igual a la matriz mp nq obtenida por reemplazar
cada bloque Aij de A con el producto Kronecker de Aij y B; que es,

2 3 2 3
A11 A12 : : : A1c A11 B A12 B : : : A1c B
6A21 A22 : : : A2c 7 6A21 B A22 B : : : A2c B7
6 7 6 7
6 .. .. .. 7 B=6 .. .. .. 7 (7.26)
4 . . . 5 4 . . . 5
Ar1 Ar2 : : : Arc Ar1 B Ar2 B : : : Arc B

Como es fácil veri…carlo. Y el producto Kronecker de un vector columna


a = faij g una matriz B que ha sido particionada como B = (B1 ; B2 ; :::; Bk )
es la matriz mp q obtenida por reemplazar cada bloque (B1 ; B2 ; :::; Bk ) de
B con el producto Kronecker de a y Bj ; que es,

A (B1 ; B2 ; :::; Bk ) = (a B1 ; a B2 ; :::; a Bk ) , (7.27)


como es fácil veri…carlo.
Suponga ahora que
2 3
A11 A12 : : : A1c
6A21 A22 : : : A2c 7
6 7
A = 6 .. .. .. 7
4 . . . 5
Ar1 Ar2 : : : Arc
Es una matriz particionada cuyos rc bloques A11 ; A12 ; :::; Arc son todos del
mismo tamaño, diga (en cual caso A es de dimensiones rm cn) m n. Sea
Uij que representa una matriz r c cuyo ij-ésimo elemento es 1 y cuyo rc 1
elementos restantes son 0. Entonces,
7.2. 16.2. EL OPERADOR VEC 189

X
r X
c
A= Uij Aij , (7.28)
i=1 j=1

como es evidente observe que Uij Aij es una matriz particionada rm cn


comprendiendo r …las y c columnas de bloques dimensionales m n, el pq-
ésimo del cual es igual Apq , si i = p y j = q, e iguales a 0, si i 6= p o
j 6= q.

7.2. 16.2. El operador Vec


Algunas veces es conveniente (como en la discusión de la matriz diferen-
ciación en el capítulo 15) ordenar los elementos de una matriz A = faij g
m n en la forma de un vector columna mn-dimensional. Es la manera
convencional de hacerlo, sucesivamente en …las las primeras, segundas,..., n-
ésimas columnas a1 ; a2 ; :::; an de A una bajo la otra, dando el vector columna
mn-dimensional

2 3
a1
6 a2 7
6 7
6 .. 7 , (7.29)
4.5
an

esto es, dando un vector columna particionado comprendiendo n subvectores


de dimensión m, el i-ésimo del cual es ai .

El vector columna (2.1) mn-dimensional es llamado como el Vec de A –piense


de vec como la abreviación para el vector. Es denotado por el símbolo vec(A)
o algunas veces (cuando los paréntesis no son necesitados para clari…car)
por vec A. V ec(A) puede ser considerado como el valor asignado a A por
una función vector-valor o operador cuyo dominio es Rmxn - este operador es
conocido como el operador vec. Por de…nición, suponga, por ejemplo, que
m = 2 y n = 3. Entonces
190 CAPÍTULO 7. EL PRODUCTO KRONECKER

2 3
a11
6a21 7
6 7
6a12 7
vec(A) = 6 7
6a22 7 .
6 7
4a13 5
a23
Para algún vector columna a,

vec(aT ) = vec(a) = a, (7.30)

como es evidente de la misma de…nición del operador vec. Y, para algún


vector columna a = fai g y un vector columna b n-dimensional,

vec(baT ) = a b. (7.31)

Como es evidente del resultado (1.2) observe que la i-ésima (de las columnas
m) de baT es ai b.
Claramente, para algún escalar c y una matriz A,

vec(cA) = cvec(A), (7.32)

y, para algunas matrices A Y B (del mismo tamaño),

vec (A + B) = vec(A) + vec(B). (7.33)

Más generalmente, para algunos escalares c1 ; c2 ; :::; ck y para algunas matri-


ces k A1 ; A2 ; :::; Ak (del mismo tamaño),
!
X
k X
k
vec ci Ai = ci vec(Ai ), (7.34)
i=1 i=1

como puede ser fácilmente establecido por la aplicación repetida de los resul-
tados (2.59) y (2.4).
Sea A que representa una matriz m n B una matriz n p, y denote las
primeras, segundas,..., p-ésimas columnas de B por b1 ; b2 ; :::; bp respectiva-
mente. Entonces,
7.2. 16.2. EL OPERADOR VEC 191

2 3
Ab1
6Ab2 7
6 7
vec(AB) = 6 .. 7 , (7.35)
4 . 5
Abp

como es evidente observar que la j-ésima de AB es Abj .Nótese que el resul-


tado (2.7) implica que

vec(AB) = diag(A; A; :::; A)vec(B). (7.36)

o equivalentemente [a la luz del resultado (1.7)] que

vec(AB) = (Ip B)vec(B). (7.37)

El resultado (2.9) es generalizado en el siguiente teorema.

Teorema 16.2.1. Para alguna matriz A m n, una matriz B n p y una


matriz C p q,

vec(ABC) = (CT A)vec(B). (7.38)

Demostración. De acuerdo al resultado (2.4.2), B se deja expresar como

p
X
B= bj uTj ,
j=1

donde (para j = 1; :::; p) bj es la j-ésima columna de B y uTj es la j-ésima


…la de Ip .
Esto es, haciendo uso de los resultados (2.3) y (1.19), encontramos que
192 CAPÍTULO 7. EL PRODUCTO KRONECKER

" ! #
X
vec(ABC) = vec A bj uTj C
j
X
= vec Abj uTj C
j
X
= [ CT uj (Abj )]
j
X
= CT A (uj bj )
j
X
= CT A vec bj uTj
j
X
= CT A vec bj uTj
j
T
= C A vecB.

Tres expresiones alternativas para el vec del producto AB de una matriz A


m n y una matriz B n p puede ser obtenida como en los casos especiales
del resultado (2.10). Una de esas expresiones es dada por el resultado (2.9).
Los otros dos son

vec(AB) = (BT Im )vec(A), (7.39)

vec(AB) = (BT A)vec(Im ). (7.40)


Considere ahora el producto ABx de una matriz A m n, una matriz B
n p, y un vector x p 1. De acuerdo al resultado (2.2)

ABx = vec(ABx) = vec(xT BT AT ).


Así, se sigue del resultado (2.10) que

ABx = (xT A)vec(B) = A xT vec BT . (7.41)


Para cualesquiera matrices A y B m n,

tr AT B = (vecA)T vecB. (7.42)


7.2. 16.2. EL OPERADOR VEC 193

para ver esto, sean aj y bj que representan las j-ésimas columnas de A y


B, respectivamente, y observe que el j-ésimo elemento diagonal de AT B es
igual a aTj bj , entonces que

2 3 2 3T 2 3
b1 a1 b1
X
n 6 b2 7 6 a2 7 6 b2 7
T 6 7 6 7 6 7
tr A B = aTj bj = aT1 ; aT2 ; :::; aTn 6 .. 7 = 6 .. 7 6 .. 7
j=1
4 . 5 4.5 4 . 5
bn an bn
= (vecA)T vecB.

Nótese que el resultado (2.14) implica que el producto interno (usual) de


cualesquiera 2 matrices m n es igual al producto interno (usual) de sus
vecs. Nótese además que, subsiguiente [ de acuerdo al resultado (5.2.8)]
tr AT B = tr BT A = BAT = ABT , las versiones alternativas de la
fórmula (2.14) puede ser obtenida reemplazando tr AT B con tr BT A ; BAT ;
o ABT .
El resultado (2.14) es generalización del siguiente teorema.

Teorema 16.2.2. Para cualesquiera matrices A m n, B m p, C p q,


y una matriz D n q,

tr AT BCDT = (vecA)T (D B) vecC. (7.43)

Demostración. Haciendo uso de los resultados (2.14) y (2.10), encontramos


que

tr AT BCDT = (vecA)T vec(BCDT ) = (vecA)T (D B) vecC.

Nótese [a la luz de los resultados (5.2.39 y (5.1.5)] que


tr AT BCDT = tr DT AT BC = tr CDT AT B = tr BCDT AT y que
T
tr AT BCDT = tr[ AT BCDT ] = tr DCT BT A = tr(ADCT BT ) =
tr(BT ADCT ) = tr(CT BT AD). Así, de las versiones alternativas de la fór-
mula (2.15) puede obtenerse reemplazando tr(AT BCDT ) con tr(DT AT BC),
tr(CDT AT B), tr(BCDT AT ), tr(DCT BT A), tr(ADCT BT ), tr(BT ADCT ),
194 CAPÍTULO 7. EL PRODUCTO KRONECKER

o tr(CT BT AD). Nótese además [a la luz del resultado (1.7)] que, en el caso
especial donde q = n y D = In , el resultado (2.15) se reduce en efecto a

tr(AT BC) = (vecA)T diag(B; B; :::; B)vecC. (7.44)

Sea A = (A1 ; A2 ; : : : ; Ak ) que representa una matriz particionada m n que


comprende una sola …la de bloques k. Y sea el nj que representa el número
de columnas en Aj . Entonces,
2 3
vecA1
6vecA2 7
6 7
V ec(A1 ; A2 ; : : : ; Ak ) = 6 .. 7 ; (7.45)
4 . 5
vecAk

que es, V ec(A1 ; A2 ; : : : ; Ak ) que es igual a un vector columna mn-dimensional,


comprendiendo k subvectores, el j-ésimo de que es el vector columna vec(Aj )
mn-dimensional. Para ver esto, observe que ambos V ec(A1 ; A2 ; : : : ; Ak ) y
2 3
vecA1
6 vecA2 7
6 7
6 .. 7 .
4 . 5
vecAk

Es igual a un vector columna particionado mn-dimensional comprendiendo


Pj 1
subvectores nm-dimensional la s=1 ns + r -ésimo de que es la columna
P0
del r-ésima de Aj (donde s=1 ns = 0).

7.2.1. 16.3. Matríz de la Vec-permutación


a. De…nición y algunas descripciones alternativas.

Sea A = faij g que representa una matriz m n, y denote la primera,...,n-


ésima columnas de A por a1 ; :::; an respectivamente, y la primera,. . . ,m-
ésima-…las de A por r1T ; : : : ; rm
T
respectivamente. Entonces, r1 ; : : : ; rm son
T
las m columnas de A , y, por de…nición,
7.2. 16.2. EL OPERADOR VEC 195

2 3 2 3
a1 r1
6 a2 7 6 r2 7
6 7 6 7
(vecA) = 6 .. 7 y (vecAT ) 6 .. 7 .
4.5 4 . 5
an rm
Ambos (vecAT ) y (vecA) se obtiene reestructurando los elementos de A en
la forma de un vector columna mn-dimensional; sin embargo, ellos se ordenan
…la por …la en el (vecAT ) en lugar de columna por columna [como en (vecA)].
Por ejemplo, cuando m = 2 y n = 3,
2 3 2 3
a11 a11
6a21 7 6a12 7
6 7 6 7
6a12 7 6 7
(vecA) = 6 7 y (vecAT ) = 6a13 7 .
6a22 7 6a21 7
6 7 6 7
4a13 5 4a22 5
a23 a23
Claramente, (vecAT ) puede obtenerse permutando los elementos de (vecA).
De acuerdo a esto existe una matriz permutación mn mn, para ser denotada
por el símbolo Kmn tal que

vec(AT ) = Kmn vec(A). (7.46)


(Esta matriz depende de m y n, pero no en los valores de (a11 ; a12 ; : : : ; amn ).
Por ejemplo,
2 3
1 0 0 0 0 0
60 0 1 0 0 07
6 7
60 0 0 0 1 07
K23 = 6
60 1 0 0 0 07 .
7
6 7
40 0 0 1 0 05
0 0 0 0 0 1
La matriz Kmn es llamada una matriz de la vec-permutación (e.g., Henderson
y Searle 1979) o, más normalmente y por razones que llegarán a ser evidente
en la Subseción c, como una matriz de conmutación (ej., Magnus y Neudecker
1979).
Como se discutió en la Sección 16.2, el ij-ésimo elemento de la matriz A
m n es el [(j 1)m + i]-ésímo elemento dce vec(A). Y, el es el ij-ésimo
196 CAPÍTULO 7. EL PRODUCTO KRONECKER

elemento de A es ji-ésimo elemento de la matriz AT n m y de acuerdo a


esto es el [(i 1)n + j]-ésimo elemento de vec(AT ). Así, el[(i 1)n + j]-ésima
…las de la matriz vec-permutación Kmn es el [(j 1)m + i]-ésima …la de Imn
(i = 1; : : : ; m; j = 1; : : : ; n).
Nótese que la transpuesta de AT de la matriz A m n es de dimensiones
n m. Se sigue de la misma de…nición de una matriz de la vec-permutación
que

vec(A) = vec[(AT )T ] = Kmn vec(AT ). (7.47)


El teorema siguiente da una representación útil e informativa para la matriz
de la vec-permutación Kmn .

Teorema 16.3.1. Sea m y n que representan enteros positivos, y (para


i = 1; : : : ; m y j = 1; : : : :; n) sea Uij = ei uTj dónde ei es la i-ésima columna
de Im y uj la i-ésima columna de In (en cual caso Uij es una matriz m n
cuyo ij-ésimo elemento es 1 y cuyos los elementos restantes son 0. Entonces,
X
m X
n
Kmn = Uij UTij . (7.48)
i=1 j=1

Demostración. Usando los resultados (3.1), (2.4.3), (2.4.5), y (2.10), encon-


tramos que, para cualquier matriz A m n,

!
X
Kmn vec(A) = vec(AT ) = vec aij UTij
i;j
X
= vec aij uj eTi
i;j
X
= vec uj aij eTi
i;j
X
= vec[uj eTi Auj eTi ]
i;j
X
= vec UTij AUTij
i;j
X
= Uij UTij vec(A)
i;j
7.2. 16.2. EL OPERADOR VEC 197

y de que, para cualquier vector columna a mn-dimensional,


!
X
Kmn a = Uij UTij a.
i;j

Basado en el Lema 2.3.2, concluimos que


X
Kmn = Uij UTij .
i;j

A la luz del resultado (1.29), el resultado (3.3) pueden ser reexpresados como
2 3
UT11 UT12 UT1n
6 UT UT22 UT2n 7
6 21 7
Kmn = 6 .. .. .. 7 . (7.49)
4 . . . 5
UTm1 UTm2 UTmn
Es decir, puede considerarse como una matriz particionada mn mn, com-
prendiendo m …las y n columnas de bloques dimensionales nxm, el ij-ésimo
de que es la matriz UTij = uj eTi (cuyo ij-ésimo elemento es 1 y cuyos otros
mn 1 elementos son 0). Por ejemplo,
2 3
1 0 0 0 0 0
60 0 1 0 0 07
6 7
UT11 UT12 UT13 60 0 0 0 1 07
K23 = =6
60
7.
UT21 UT22 UT23 6 1 0 0 0 07
7
40 0 0 1 0 05
0 0 0 0 0 1
Sea a que representa un vector columna m-dimensional. Entonces, al colocar
A = a en la igualdad (3.1) y resultado (3.2), encontramos [a la luz del
resultado (2.2)] que

a = Km1 a; a = K1m a.
Sigue (a la luz del Lema 2.3.2) que

Km1 = K1m = Im, (7.50)


198 CAPÍTULO 7. EL PRODUCTO KRONECKER

b. Algunas propiedades básicas.

Se sigue del resultado (3.2) que, para cualquier matriz A mxn,

vec(A) = Knm vec(AT ) = Knm Kmn vec(A)

y de que, para cualquier vector columna a mn-dimensional,

a = Knm Kmn a,

implicando (a la luz del Lema 2.3.2) que


Imn = Knm Kmn .
1
Así (a la luz del Lema 8.1.3), Kmn es no singular y Kmn = Knm . Es más,
que Kmn es una matriz permutación, es ortogonal, y por consiguiente KTmn =
1
Kmn . En resumen, tenemos que Kmn es el no singular y que

KTmn = Kmn
1
= Knm . (7.51)

Nótese que el resultado (3.6) implica que

KTmm = Kmm ; (7.52)

es decir, Kmm es simétrica (así como el ortogonal).


Como un caso especial de una fórmula para el tr(Kmm ) dado por, por ejemplo,
Magnus y Neudecker (1979, pág. 383), tenemos que

tr(Kmm ) = m. (7.53)

Para veri…car la fórmula (3.8), sea ei que representa la i-ésima columna Im ,sea
Uij = ei eTj , y observa que eTj ei iguales a 1, si j = i, e igual a 0, si j 6= i.
Entonces, haciendo uso de los resultados (3.3), (1.25), y (5.2.6). Encontramos
que
7.2. 16.2. EL OPERADOR VEC 199

!
X
tr(Kmm ) = tr Uij UTij
i;j
X
= tr Uij UTij
i;j
X
= tr (Uij ) tr UTij
i;j
X
= [tr (Uij )]2
i;j
X 2
= tr ei eTj
i;j
X 2
X 2
X
m
= tr eTj ei = eTi ei = (1)2 = m.
i;j i;j i=1

7.2.2. c. El producto de Kronecker de dos matrices.


Como se discutió en la Sección 16.1, el producto de Kronecker de dos matrices
B y A no es en general igual al producto de Kronecker de A B de A y B.
Sin embargo, B A puede hacerse igual a A B permutando las columnas
de B A y las …las de A B, como es indicado por el teorema siguiente.

Teorema 16.3.2. Para cualquier matriz A m n y la matriz B p q,

(B A) kqn = kpm (A B) , (7.54)

B A = kpm (A B) kqn . (7.55)

Demostración. Haciendo uso del teorema 16.2.1, encontramos que, para


cualquier matriz X q n,
200 CAPÍTULO 7. EL PRODUCTO KRONECKER

(B A) kqn vecX = (B A) vecXT = vec AXT BT


h T
i
= vec BXAT
= kpm vec BXAT
= kpm (A B) vecX.

Así,

(B A) kqn x = kpm (A B) x
para cada vector x nq 1, implicando (a la luz del Lema 2.3.2) que

(B A) kqn = kpm (A B) .
Más aún, kqn1 = kqn tenemos que

B A = (B A) kqn knq = kpm (A B) kqn .

Como indicamos por el resultado (3.10), el efecto en A B de premultipli-


cación y postmultiplicación por las matrices de la vec-permutación kpm y knp ,
respectivamente, es intercambiar o çonmutar"A y B. por que es debido a este
efecto que las matrices de vec-permutación son a menudo llamado matrices
de conmutación.
En los varios casos especiales dónde A ó B es una …la o vector columna. el re-
sultado (3.9) o (3.10) del Teorema 16.3.2 más simplemente puede declararse,
como indicado por el corolario siguiente.

Corolario 16.3.3. Para cualquier matriz A m n y vector b m n,

b A = kpm (A b) , (7.56)

A b = kmp (b A) , (7.57)

bT A= A bT knp , (7.58)

A bT = bT A kpn . (7.59)
7.2. 16.2. EL OPERADOR VEC 201

Nótese que en el caso especial dónde B es un vector …la, diga bT y A es un


vector columna, diga a, la igualdad (3.13) o (3.14) reduce a la igualdad

bT a=a bT ,
dado previamente en el resultado (1.4).
La traza de la matriz obtenida por premultiplicación o postmultiplicación de
un producto Kronecker (de una matriz m n y una matriz n m) por una
matriz de la vec-permutación se da por el teorema siguiente.

Teorema 16.3.4. Para cualesquiera matrices A y B m n.

tr AT B Kmn = tr Kmn AT B = tr AT B = (vecAT )T Kmn vecB.


(7.60)

Demostración. Sea ei que representa i-ésimo columna Im y uj la j-ésima


columna de In , y de…na Uij = ei uTj que tr AT B Kmn = tr Kmn AT B
es una consecuencia inmediata del Lema 5.2.1. Más aún, haciendo uso de los
resultados (3.3), (1.19), (1.25), (5.2.6), (2.4.5), y (5.2.4), encontramos que

" #
X
T
tr[Kmn (A B)] = tr Uij UTij A T
B
i;j
X
= tr Uij UTij AT B
i;j
X
= tr Uij AT UTij B
i;j
X
= tr Uij AT tr UTij B
i;j
X
= tr ei uTj AT tr uj eTi B
i;j
X
= uTj AT ei eTi Buj
i;j
X
= bij aij
i;j

= tr AT B :
202 CAPÍTULO 7. EL PRODUCTO KRONECKER

Y a la luz de los resultados (2.14),(3.2) y (3.6), tenemos que

tr AT B = (vecA)T vecB = (Knm vecAT )T vecB


= (vecAT )T KTnm vecB
= (vecAT )T Kmn vecB.

7.2.3. d. Relación entre el vec del producto de Kro-


necker de dos matrices y el producto de Kro-
necker de su vecs.

El teorema siguiente relaciona el vec del producto de Kronecker de dos ma-


trices A y B al producto de Kronecker del vecs de A y B.
Teorema 16.3.5. Para cualquier matriz A m n y una matriz B p q,

vec (A B) = (In Kqm Ip ) [vec (A) vec (B)] . (7.61)

Demostración. Sea ai que representa la i-ésima columna de A y ei la i-


ésima columna de In , (i = 1; :::; n). y, sea bj que representa j-ésima columna
de B,Py uj el j-ésimo P de Iq (j = 1; : : : ; q). Entonces, escribiendo A y B como
A = i ai eTi y B = i bj uTj y haciendo uso de los resultados (1.14), (2.6),
(1.15), (1.19), (2.3), (1.16), y (3.11), encontramos que
7.2. 16.2. EL OPERADOR VEC 203

" #
X
vec (A B) = vec ai eTi bj uTj
i;j
X
= vec[ ai eTi bj uTj ]
i;j
X
= vec[(ai bj ) (ei uj )T ]
i;j
X
= (ei uj ) (ai bj )
i;j
X
= ei (uj ai ) bj
i;j
X
= (In Kqm Ip ) (ej ai uj bj )
i;j
X
= (In Kqm Ip ) [vec ai eTi bj uTj ]
i;j
" #
X X
= (In Kqm Ip ) vec ai eTi vec bj uTj
i j
" ! !#
X X
= (In Kqm Ip ) vec ai eTi vec bj uTj
i j
= (In Kqm Ip ) [vec (A) vec (B)] .

7.2.4. e. Determinante de un producto de Kronecker.


Preliminarmente para derivar una fórmula para el determinante de un pro-
ducto de Kronecker de dos matrices, observe [a la luz de los resultados (1.20)
y (3.10) que, para cualquier
matriz A m n y cualquier matriz B p p,

A B = (A Ip ) (In B) (7.62)
= Kmp (Ip A) Kpm (In B)
= Kmp diag (A; A; :::; A) Kpm diag (B; B; :::; B) .
204 CAPÍTULO 7. EL PRODUCTO KRONECKER

Considere ahora el determinante del producto de Kronecker A B de una


matriz A m m y una matriz B p p. Aplicando el resultado (3.17) (en el
caso especial dónde n = m y q = p), encontramos [a la luz de los resultados
(13.3.9) y (13.3.5)] que

jA Bj = jKmp j jAjp jKpm j jBjm .


Y, a la luz del resultado (3.6), tenemos que

jKmp j jKpm j = jKmp Kpm j = jIj = 1.


Concluimos que (para cualquier matriz A m n y cualquier matriz B p p)
jA Bj = jAjp jBjm .

7.2.5. 16.4. El Operador Vech.


a. De…nición y características básicas.
Los valores de los n2 elementos de una matriz simétrica A n n pueden ser
determinados de los valores de n(n + 1)=2 elementos que están debajo de la
diagonal [o alternativamente de n(n+1)=2 elementos que están por encima de
la diagonal]. Reordenando los elementos de A en un vector, podemos excluir
los n(n + 1)=2 "duplicados"elementos. Este sería el caso sí, por ejemplo, sea
A una matriz (simétrica) de variables y sus objetivos será la diferenciación
de una función A.
Sea A = faij g que representa una matriz n n (simétrica o no simétrica).
Para obtener el vec de A, sucesivamente agrupamos la primera, segunda,...,n-
ésima columnas a1 ; a2 ; :::; an de A una debajo de la otra. Consideremos una
modi…cación de estos procesos en el cual (antes o después del agrupamiento)
los n(n 1)=2 elementos "supradiagonal"de A son eliminados de a1 ; a2 ; :::; an .
EL resultado es el vector [n(n 1)=2]-dimensional
2 3
a1
6a 7
6 27
6 .. 7 , (7.63)
4.5
an
donde (para i = 1; 2; :::; n) ai = (aii ; ai+1;i ; :::; ani )T es el subvector de ai
obtenido por la agrupación de sus primeros i 1 elementos. Así, por de…nición,
el vector (4.1) es un subvector del vector A obtenido por la agrupación de
7.2. 16.2. EL OPERADOR VEC 205

un conjunto en particular, en especial el caso donde A es simétrica, duplica


los elementos.
Siguiendo Henderson y Searle (1979), nos referimos al vector (4.1) como
vech(A) _ pensar de vech como inicio de una abreviación para "vector
medio , se denota este vector por el símbolo vech(A) o simplemente por
vech A. lo mismo que vec A, vech A. puede ser estimado como el valor asig-
nado para A por una función evaluada en un vector operador— –el dominio
de esta función es Rnxn .
Para n = 1; n = 2, y n = 3,

2 3
a11
2 3 6a21 7
a11 6 7
6a31 7
vechA = (a11 ) ; vechA = 4a21 5 , y vechA = 6 7
6a22 7 , respectivamente.
a22 6 7
4a32 5
a33

Por el camino de comparación,

2 3
a11
6a21 7
6 7
6a31 7
2 3 6 7
a11 6a12 7
6 7
vecA = (a11 ) ; vecA = a21 ,y vecA = 6
4 5 7
6a22 7 , respectivamente.
a22 6a32 7
6 7
6a13 7
6 7
4a23 5
a33

Observe que el número total de elementos en los j-ésimos vectores a1 ; a2 ; a3 ; :::; aj


es

n + (n 1) + (n 2) + ::: + n (j 1) = nj (0 + 1 + 2 + ::: + j 1)
= nj j(j 1)=2

y que, de los n (j 1) = n j +1 elementos de aj , hay (para i j) n i ele-


mentos que llegan después de aij . Como nj j(j 1)=2 = (j 1) (n j=2)+
206 CAPÍTULO 7. EL PRODUCTO KRONECKER

i,se sigue que (para i j) el ij-ésimo elemento de A es el [(j 1) (n j=2) + i]-


ésimo elemento de vech A. Por camino de comparación , el ij-ésimo elemen-
to de A es (como se discutió en la sección 16.2), así que (para i j) el
[(j 1) n + i]-ésimo elemento de vec A es el [(j 1) (n j=2) + i]-ésimo el-
emento de vech A.
Por ejemplo, cuando n = 8, encontramos
[siendo i = 7 y j = 5 y observando que (j 1) n + i = 39 y que (j 1) (n j=2) + i = 29]
que a75 es el 39-ésimo elemento de vec A y el 29-ésimo elemento de vech A.
Sea c1 ; c2 ; :::; ck que representa cualesquiera k escalares, y sea A1 ; A2 ; :::; Ak
que representa cualesquiera k matrices cuadradas (de el mismo orden). En-
tonces,

!
X
k X
k
vech ci Ai = ci vech(Ai ), (7.64)
i=1 i=1

como es evidente del resultado (2.6) observando que el vech de cualquier


matriz(cuadrada) es un subvector de ese vec.

7.2.6. b. La matriz Duplicación.

Cada elemento de la matriz simétrica A n n, y cada elemento de vec A,


es un elemento de vech A o un "duplicado"de un elemento de vech A. Así,
existe una única matriz f[n2 n (n + 1) =2]g-dimensional, denotada por el
símbolo Gn , tal que

vecA = Gn vechA (7.65)

Para cada matriz simétrica A n n. Esta matriz es llamada la matriz dupli-


cación.
Claramente,
7.2. 16.2. EL OPERADOR VEC 207

2 3
1 0 0 0 0 0
60 1 0 0 0 07
6 7
2 3 60 0 1 0 0 07
1 0 0 6 7
60 1 0 0 0 07
60 1 07 6 7
G1 = (1) ; G2 = 6
40
7 , y G3 = 60
6 0 0 1 0 07
7.
1 05 60
6 0 0 0 1 07
7
0 0 1 60
6 0 1 0 0 07
7
40 0 0 0 1 05
0 0 0 0 0 1

Más generalmente (para un entero positivo arbitrario n), la matriz Gn puede


ser descrita en términos de esas …las o columnas. Para i j; el [(j 1) n + i]-
ésimo y [(i 1) n + j]-ésimas …las de Gn igual a la [(j 1) (n j=2) + i]-
ésima …la de In(n+1)=2, que es, ellos iguales a la [n(n + 1)=2]- dimensional
vector …la cuyo [(j 1) (n j=2) + i]-ésimo elemento es 1 y permaneciendo
cuyos elementos son 0. Y (para i j), la [(j 1) (n j=2) + i]-ésima colum-
na de Gn es un vector columna n2 -dimensional cuyo [(j 1) n + i]-ésimo y
[(i 1) n + j]-ésimo elementos son 1 y cuyos n2 1 (si i = j) o n2 2 (si
i > j) elementos son 0.
La matriz Gn es de rango columna completo, que es,

rk (Gn ) = n (n + 1) =2. (7.66)

Para ver esto, observe que las columnas de Gn son ortogonales (desde que
cada …la de Gn contiene sólo un elemento no cero) y son no nulos. O, alter-
nativamente, observe que cada …la de In(n+1)=2 es una …la de Gn y que Gn
contiene n(n + 1)=2 …las linealmente independientes.
Ahora, para propósitos de derivar una fórmula recursiva para Gn , sea B que
representa una matriz arbitraria (n + 1) (n + 1), y B particionada como

c bT
B=
a A

(donde A n n es). Entonces existe una matriz de permutación (n + 1)2


(n + 1)2 , denotada por el símbolo Qn+1 , tal que (para cada elección de B)
208 CAPÍTULO 7. EL PRODUCTO KRONECKER

2 3
c
6 b 7
QTn+1 vecB = 6 7
4 a 5.
vecA
Además, sea u que representa la primera columna de In+1 y sea U que rep-
resenta la submatriz (n + 1) n de In+1 obtenida por agrupación de u, Qn+1
se puede expresar como
(1) (2)
Qn+1 = Qn+1 ; Qn+1 , donde

(1)
Qn+1 = diag (u; u; :::u) = In+1 u,
(2)
Qn+1 = diag (U; U; :::U) = In+1 U.

Claramente,
2 3
c
vechB = 4 a 5 .
vechA
Así, si B es simétrica (en cual caso A es simétrica y b = a), tenemos que
2 3
2 3 1 0 0
c 60
4 a 5=6 In 0 7 7 vechB
40 In 0 5
vechA
0 0 Gn
o, equivalentemente, que
2 3
1 0 0
60 In 0 7
QTn+1 vecB = 6
40
7 vechB.
In 0 5
0 0 Gn
Concluimos que si B es simétrica, entonces
2 3
1 0 0
60 In 0 7
vecB = Qn+1 6 7
40 In 0 5 vechB.
0 0 Gn
7.2. 16.2. EL OPERADOR VEC 209

Esta conclusión da lugar a la fórmula recursiva


2 3
1 0 0
60 In 0 7
Gn+1 = Qn+1 6 40 In 0 5 .
7 (7.67)
0 0 Gn
Como la matriz duplicación Gn es de rango columna completo, tiene una
inversa a izquierda. De hecho. Excepto en el caso especial donde n = 1,Gn
tiene un número in…nito de inversas a izquierda. (G1 es no singular y como
consecuencia tiene una única inversa a izquierda.)
En lo que sigue. El símbolo Hn se usa para representar una inversa izquierda
arbitraria de Gn . Así, por de…nición, Hn ,es la matriz n(n + 1)=2 n2 tal que

Hn Gn = I.
Una elección para, Hn es

Hn = (GTn Gn ) 1 GTn .
(Gn es de rango columna completo, GTn Gn es no singular.)
La premultiplicación de vech de una matriz simétrica A n n por la matriz
de duplicación Gn transforman vech A a vec A. En la premultiplicación a
ambos lados de la igualdad (4.3) por Hn , encontramos que

vechA = Hn vecA (7.68)


para toda matriz simétrica A n n: Así, la premultiplicación de vec de una
matriz simétrica A n n por la inversa a izquierda Hn transforma vec A a
vech A.
¿Hay otras matrices que tienen inversas a izquierda de (Gn ) que tienen esta
propiedad? Es decir, existe una matriz L n(n + 1)=2 n2 tal que

vechA = LvecA (7.69)


para toda matriz simétrica A n n que no satisface la condición LGn = I?
La respuesta es no, como es evidente al observar que, junto con la igualdad
(4.3), y la igualdad (4.7) implica que

vechA = LGn vechA


210 CAPÍTULO 7. EL PRODUCTO KRONECKER

Para toda matriz simétrica A n n, o, equivalentemente, que a = LGn a


para cada [n(n + 1)=2] dimensional vector columna a, por lo tanto

LGn = I.
Así, como una alternativa para caracterizar la matriz Hn ,como una inversa
a izquierda de Gn , podría caracterizarse como una matriz L n(n + 1)=2
n2 tal que la igualdad (4,7) sostiene que para toda matriz simétrica A
n n. de hecho, como notado por Henderson y Searle (1979), es la última
caracterización que mantiene la motivación para denotar esta matriz por un
h capital- agrega h vec da el vech. Encontramos que
2 3
1 0 0 0
H1 = (1) ; H2 = 40 c c 1 05 , (7.70)
0 0 0 1
2 3
1 0 0 0 0 0 0 0 0
60 c1 0 1 c1 0 0 0 0 07
6 7
60 0 c2 0 0 0 1 c 0 07
H3 = 660 0 0
2 7.
7 (7.71)
6 0 1 0 0 0 07
40 0 0 0 0 c3 0 1 c3 05
0 0 0 0 0 0 0 0 1
Donde c; c1 ; c2 ; y c3 son los escalares arbitrarios. Más generalmente (para
cualquier entero n positivo), la matriz Hn puede describirse en términos de
sus …las. El [(i 1)(n i=2) + i]-ésimo …la de Hn , es la [(i 1)n + i]-ésimo …la
de In2 , y (para i > j) la [(j 1)(n j=2) + i]-ésimo …la de Hn es cualquier
vector …la n2 -dimensional cuyo [(j 1)n + i]-ésimo y [i 1)n + j]-ésimo
elementos suman 1 y cuyos n2 2 elementos permanecen siendo 0.
Nótese que Hn es de rango …la completa, es decir,

rk (Hn ) = n (n + 1) =2 (7.72)
(como es evidente del Lema 8.1.1 observando que Gn , es una inversa a derecha
de Hn ).
Notamos también que

vecA = Gn Hn vecA (7.73)


para cualquier matriz simétrica A n n [como es evidente por la sustitución
en la expresión (4.6) al lado derecho de la igualdad (4.3)].
7.2. 16.2. EL OPERADOR VEC 211

1
Considerando la nueva matriz GTn Gn Gn , (la cual es una opción para
T
Hn ). La matriz Gn Gn n(n + I)=2 n(n + 1)=2 es la diagonal (como las
columnas de Gn son ortogonales). Además, el [(i 1)(n i=2) + i]-ésimo
elemento diagonal de GTn Gn iguales a 1, y (para i > j) el [(j 1)(n
j=2) + i]-ésimo elemento diagonal de GTn Gn iguales 2. Por consiguiente, la
[(i 1)(n i=2) + i]-ésimo …la de GTn Gn 1 Gn es la [i 1)n + i]-ésimo …la de In2
1
, (para i > j) el [(j 1(n j=2) + i]-ésima …la de GTn Gn Gn es un vector
…la n2 -dimensional cuyo [(j 1)n + i]-ésimo y [(i 1)n + j]-ésimo elementos
igual a 1/2 y cuyos restantes n2 2 elementos son iguales a 0.
Por ejemplo, GT1 G1 = (1), GT2 G2 = diag(l; 2; l), y GT3 G3 = diag (1; 2; 2; 1; 2; 1);
1 1 1
y GT1 G1 GT1 , GT2 G2 GT2 , GT3 G3 GT3 son casos especiales de H1 ,
H2 ,y H3 , respectivamente, obtenido c = c1 = c2 = c3 = 1=2 en el resultado
(4.8).
Las fórmulas recursivas para GTn Gn y Hn puede obtenerse de la fórmula
(4.5). Recordando que Qn+1 , es ortogonal, encontramos que
2 3
1 0 0
GTn+1 Gn+1 = 40 2In 0 5 (7.74)
T
0 0 G n Gn
1 1
y que, para Hn+1 = GTn+1 Gn+1 GTn+1 y Hn = GTn Gn GTn ,
2 3
1 0 0 0
Hn+1 = 40 (1=2) In (1=2) In 0 5 QTn+1 . (7.75)
0 0 0 Hn
1
Nótese que, para Hn = GTn Gn GTn ,
1
Gn Hn = GTn Gn GTn = PGn (7.76)

7.2.7. c. Algunas relaciones involucrando la duplicación


y matrices de permutación vec.
Para cada matriz simétrica matriz A n n,

Gn vechA = vecA = vec(AT ) = knn vecA = knn Gn vechA.


Así, Gn a = knn Gn a, para cada [n(n + 1)=2]-dimensional vector columna a,
llegando a la conclusión que
212 CAPÍTULO 7. EL PRODUCTO KRONECKER

knn Gn = Gn (7.77)
Además, desde kTnn = knn ,

1 1 1
GTn Gn GTn knn = GTn Gn (knn Gn )T = GTn Gn GTn ,
1
entonces que, para Hn = GTn Gn GTn ,

Hn knn = Hn . (7.78)
Nótese que el resultado (4.14) implica que

(1=2)(In2 + Knn )Gn = Gn (7.79)


1
Similarmente, el resultado (4.15) implica que, para Hn = GTn Gn GTn ,

Hn [(1=2)(In2 + Knn )] = Hn . (7.80)


Se considera ahora (para referencia futura) algunas de las propiedades de la
matriz (1=2)(In2 +Knn ),el cual entra en los resultados (4.16) y (4.17).entonces
K2nn = I, tenemos que

(1=2)(In2 + Knn )Knn = (1=2)(In2 + Knn ) = Knn [(1=2)(In2 + Knn )] . (7.81)

Además recordando que Knn , es simétrica [y usando el resultado (4.18)],


tenemos que

[(1=2)(In2 + Knn )]T = (1=2)(In2 + Knn ) = [(1=2)(In2 + Knn )]2 .

Es decir,(1=2) (In2 + Knn ) es simétrica e idempotente. Y, a la luz del resul-


tado (3.8), tenemos que

tr[(1=2) (In2 + Knn )] = n(n + 1)=2 (7.82)


o, equivalentemente [desde que (1=2)(In2 + Knn ) es idempotente], que

rk [(1=2)(In2 + Knn )]T = n (n + 1) =2. (7.83)


7.2. 16.2. EL OPERADOR VEC 213

Ahora, observe [a la luz de los resultados (4.19), (4.16), y (4.17)] que, para
1
Hn = GTn Gn GTn ,
[(1=2)(In2 + Knn ) Gn Hn ]2

= [(1=2)(In2 + Knn )]2 (1=2)(In2 + Knn )Gn Hn


Gn Hn [(1=2)(In2 + Knn )] + Gn Hn Gn Hn
= (1=2)(In2 + Knn ) Gn Hn Gn Hn + Gn Hn
= (1=2)(In2 + Knn ) Gn Hn .
Es más, como consecuencia de los resultados (5.2.3) y (4.20), tenemos que

tr [(1=2)(In2 + Knn ) Gn Hn ] = tr [(1=2)(In2 + Knn )] tr (Gn Hn )


= tr [(1=2)(In2 + Knn )] tr (Hn Gn )
= tr [(1=2)(In2 + Knn )] tr In(n+1)=2
= n (n + 1) =2 n (n + 1) =2 = 0.
1
Así, para Hn = GTn Gn GTn , la matriz (1=2)(In2 + Knn ) Gn Hn es idem-
potente y su traza es igual a 0, concluimos (en base a Corolario 10.2.3) que,
para
1
Hn = GTn Gn GTn ,

(1=2)(In2 + Knn ) Gn Hn = 0
1
o. equivalentemente, que [para Hn = GTn Gn GTn ]

Gn Hn = (1=2)(In2 + Knn ). (7.84)

7.2.8. d. Vech de un producto de matrices.


Sea A que representa una matriz n n yX n n una matriz simétrica.
Observe (a la luz del Teorema I6.2.I) que

vec(AXAT ) = (A A)vecX = (A A)Gn vechX. (7.85)


También observe que (desde que AXAT es simétrica)

vech(AXAT ) = Hn vec(AXAT ). (7.86)


214 CAPÍTULO 7. EL PRODUCTO KRONECKER

Juntos, los resultados (4.23) y (4.24) implican que

vech(AXAT ) = Hn (A A) Gn vechX. (7.87)


El resultado (4.25) puede considerarse como la contraparte del vech de la
fórmula (2.10) para el vec de un producto de matrices. Según este resultado,
la premultiplicación del vech X por la matriz Hn (A A) Gn n(n + 1)=2
n(n + 1)=2 que transforma el vech X en vech(AXAT ). Ahora considerando
varias propiedades de la matriz Hn (A A) Gn .
Observe [a la luz de los resultados (4.23) y (4.I0)] que (para cualquier matriz
simétrica Xn n)

(A A) Gn vechX = vec(AXAT ) = Gn Hn vec(AXAT )


= Gn Hn (A A) Gn vechX.

Así. (A A) Gn x = Gn Hn (A A) Gn x para cada vector columna x [n(n+


1)=2]-dimensionaI llegando a la conclusión que

Gn Hn (A A) Gn = (A A) Gn . (7.88)
1
Y. Para Hn = GTn Gn GTn ,

Gn Hn (A A) = (A A) Gn Hn , (7.89)
como es evidente del resultado (4.22) al observar [a la luz del resultado (3.9)]
que

(1=2)(In2 + Knn ) (A A) = (1=2) [(A A) + Knn (A A)]


= (1=2) [(A A) + (A A) Knn ]
= (A A) [(1=2)(In2 + Knn )] .

Más aún, premultiplicando ambos lados de la igualdad (4.27) por Hn , (y


1
recordando que Hn Gn = I) encontramos que [para Hn = GTn Gn GT ]

Hn (A A) Gn Hn = Hn (A A) , (7.90)
análogo al resultado (4.26).
Varias propiedades de la matriz, Hn (A A) Gn se dan en el teorema sigu-
iente.
7.2. 16.2. EL OPERADOR VEC 215

Teorema 16.4.1. Para cualquier matriz A n n,


(1) Hn (A A) Gn es invariante a la elección de Hn ,
(2) Hn (A A ) Gn ,es una inversa generalizada de Hn (A A) Gn ;
(3) tr [Hn (A A) Gn ] = (1=2) [tr (A)]2 + (1=2) tr (A2 );
(4) rk [Hn (A A) Gn ] = (1=2) [rk (A)]2 + (1=2) rk (A);
(5) Hn (A A) Gn es no singular si y sólo si A es no singular.
(1) (2)
Demostración (1). Sea Hn y Hn que representa dos elecciones cualesquiera
para Hn , es decir, dos inversas a izquierda cualesquiera de Gn . Entonces, us-
ando el resultado (4.26), encontramos que

H(2)
n (A A) Gn = H(2) (1)
n Gn Hn (A A) Gn = H(1)
n (A A) Gn .

(2) Usando el resultado (4.26) y observando (a la luz de la discusión en la


Sección 16.1) que A A es una inversa generalizada de A A, encontramos
que

Hn (A A) Gn Hn A A Gn Hn (A A)Gn
= Hn (A A) A A Gn Hn (A A)Gn
= Hn (A A) A A (A A)Gn = Hn (A A)Gn .
1
(3) Fijando Hn = GTn Gn GTn a la luz de la Parte (1), es su…ciente veri…car
la Parte (3) para una sola elección de Hn . Entonces, usando los resultados
(5.2.3), (4.22), (1.25), y (3.15). Encontramos que

tr [Hn (A A) Gn ] = tr [(A A) Gn Hn ]
= trf(A A) [(1=2)(In2 + Knn )]g
= (1=2)tr (A A) + (1=2)tr [(A A) Knn ]
= (1=2) [tr (A)]2 + (1=2) tr A2 .

(4) Dado que [según la Parte (2)] Hn (A A ) Gn es una inversa general-


izada de Hn (A A) Gn ,se sigue del resultado (10.2.1) que

rk [Hn (A A) Gn ] = tr[Hn (A A) Gn Hn A A Gn ].
216 CAPÍTULO 7. EL PRODUCTO KRONECKER

Más aún, usando el resultado (4.26), la Parte (3). y resultado (10.2.1). En-
contramos que

tr[Hn (A A) Gn Hn A A Gn ]
= tr[Hn (A A) A A Gn ]
= trfHn [ AA AA Gn g
2
= (1=2) tr AA + (1=2) tr AA AA
2
= (1=2) tr AA + (1=2) trAA )
= (1=2) [rk (A)]2 + (1=2) rk (A) .

(5) Dado que Hn (A A) Gn , es una matriz cuadrada de orden n(n + 1)=2,


la parte (5) es una consecuencia inmediata de la parte(4).

Para los propósitos de derivar una fórmula recursiva para Hn (A A) Gn ,


sea B que representa una matriz (n + 1) (n + 1),arbitraria, la partición B
como

c bT
B=
a A

(1) (2)
(donde A es n n), y se de…ne Qn+1 = Qn+1 Qn+1 , u, y U como en la
Subsección b. Entonces,

" #
(1)T (1) (1)T (2)
Qn+1 (B B) Qn+1 Qn+1 (B B) Qn+1
QTn+1 (B B) Qn+1 = (2)T (1) (2)T (2)
.
Qn+1 (B B) Qn+1 Qn+1 (B B) Qn+1

Más aún, dado que

c bT uT Bu uT BU
= ITn+1 BIn+1 = (u; U)T B (u; U) = .
a A UT Bu UT BU

encontramos que
7.2. 16.2. EL OPERADOR VEC 217

(1)T (1)
Qn+1 (B B) Qn+1 = In+1 uT (B B) (In+1 u)
T
= B u Bu = B c = cB,
T
(1) (2)
Qn+1 (B B) Qn+1 = In+1 uT (B B) (In+1 U)
T T
= B u BU = B b ,
T
(2) (1)
Qn+1 (B B) Qn+1 = In+1 UT (B B) (In+1 u)
T
= B U Bu = B a,
(2)T (2)
Qn+1 (B B) Qn+1 = In+1 UT (B B) (In+1 U)
T
= B U BU = B A.

Así, a la luz de los resultados (1.27), (1.4), (3.14), y (3.12), tenemos que

2 3
c2 cbT cbT bT bT
6 ca cA abT bT A Knn 7
QTn+1 (B B) Qn+1 6
=4 7.
ca abT cA bT A 5
a a Knn (a A) a A A A

Y a la luz de los resultados (4.12), (4.5), (4.15), y (4.16) [así como la Parte
1
(1) del Teorema 16.4.1],se sigue que, para Hn = GTn Gn GTn ,
Hn+1 (B B) Gn+1

2 3
2 3 1 0 0
1 0 0 0 60 In 0 7
= 0 (1=2) In (1=2) In 0 5 QTn+1 (B
4 B) Qn+1 6
40
7
In 0 5
0 0 0 Hn
0 0 Gn
2 3
c2 cbT cbT bT bT
= 4 ca (1=2) cA + abT
(1=2) cA + abT bT A [(1=2)(In2 + Knn )]5
Hn (a a) Hn (a A) Hn (a A) Hn (A A)
2 3
1 0 0
60 In 0 7
6 7
40 In 0 5
0 0 Gn
218 CAPÍTULO 7. EL PRODUCTO KRONECKER

2 3
c2 2cbT bT bT G n
=4 ca cA + abT bT A G n 5 (7.91)
Hn (a a) 2Hn (a A) Hn (A A) Gn
El resultado (4.29) proporciona lo que es en efecto una fórmula recursiva para
Hn (A A) Gn Sea
c2 2cbT bT bT
S= T Gn Hn (A A ) Gn Hn [a a; 2 (a A)]
ca cA + ab bT A
1
[donde Hn = GTn Gn GTn ]. Y observa [a la luz de la parte (2) del Teorema
16.4.1) que S es un complemento de Schur de la submatriz Hn (A A) Gn
n(n+1)=2 n(n+1)=2, en la esquina inferior derecha de la matriz particionada
(4.29). Además, usando los resultados (4.26), (4.22), y (3.12), encontramos
que

Gn Hn A A Gn Hn [a a; 2 (a A)]
= A A Gn Hn [a a; 2 (a A)]
= A A [(1=2)(In2 + Knn )] [a a; 2 (a A)]
= A A [a a; (a A) + (A a)] .

Así,

2 2 3
c bT A a bT A a 2cbT bT A a bT A a
6 bT A A bT A a 7
S=6
4 ca
7
bT A a AA a cA + abT bT A a A 5
bT A A AA a

2
c2 bT A a 2cbT bT A a bT A A
= ,
ca T
b A a AA a c b A a A + abT
T
AA abT A A

Y, en el caso especial donde A es no cuadrada,

c + bT A 1 a 2bT
S= c bT A 1 a . (7.92)
a A
Considere ahora el determinante de la matriz Hn+1 (B B) Gn+1 . Aplicando
el resultado (13.3.13) para la matriz particionada (4.29), podemos decir que
7.2. 16.2. EL OPERADOR VEC 219

si A es no singular [en este caso se sigue de la Parte (5) de Teorema 16.4.1


que Hn (A A) Gn también es no-singular], entonces

jHn+1 (B B) Gn+1 j = jHn (A A) Gn j jSj . (7.93)


Más aún, usando el resultado (4.30), Corolario13.2.4, y resultado (13.3.13).
encontramos que si A es no-singular, entonces,

n+1 c + bT A 1 a 2bT
jSj = c bT A 1 a
a A
n+1
= c bT A 1 a jAj c + bT A 1 a 2bT A 1 a
n+2
= c bT A 1 a jAj . (7.94)

Juntos, resultados (4.31) y (4.32) implica (en el caso especial dónde A es


no-singular)

n+2
jHn+1 (B B) Gn+1 j = c bT A 1 a jAj jHn (A A) Gn j . (7.95)

El resultado (4.33) el cual proporciona en su efecto una fórmula recursiva para


el determinante de Hn (A A) Gn ;puede usarse para establecer el siguiente
teorema.

Teorema 16.4.2. Para cualquier matriz A n n,

jHn (A A) Gn j = jAjn+1 (7.96)

Demostración. La prueba es por inducción matemática. Claramente, la


igualdad (4.34) se cumple para toda matriz A1x1 . Suponga que la igualdad
(4.34) se cumple para toda matriz A n n: Sea B que representa una matriz
arbitraria (n + 1) (n + 1) y la matriz partición B como

c bT
B=
a A
(donde A es n n). Para completar el argumento de la inducción, es su…ciente
mostrar que
220 CAPÍTULO 7. EL PRODUCTO KRONECKER

jHn+1 (B B) Gn+1 j = jBjn+2 . (7.97)


Estableciendo la validez de esta igualdad, es conveniente considerar tres casos
diferentes consecutivamente.
Caso (1): B singular. En este caso, ambos lados derecho e izquierdo de la
igualdad (4.35) es igual a 0- re…érase a la parte (5) del teorema 16.4.1.Caso (2)
Ambos A y B no-singular. Subsecuentemente (por suposición) jHn (A A) Gn j =
jAjn+1 , se sigue del resultado (4.33) [junto con el resultado(13.3.13) que

n+2
jHn+1 (B B) Gn+1 j = c bT A 1 a jAjn+2 jBjn+2 .
Caso (3): B no-singular; pero A singular. Denote la primera,. . . ,n-ésima
columnas de A por a1 ; :::an , respectivamente. Dado que B es no-singular,
las …las de B son Iinealmente independiente, implicando que rk(a; A) = n
y también (dado que A es singular) que el rk(A) = n 1. Por con-
siguiente, A contiene n 1 columnas linealmente independientes, digamos
a1 ; :::; ai 1 ; ai+1 ; :::; an , y a que no se puede expresar como una combinación
lineal de las columnas de A.
Sea e que representa la i-ésima columna de In . Entonces. la matriz A + aeT ,
cuyas columnas son a1 ; :::; ai 1 +a; ai+1 ; :::; an respectivamente, es no-singular
(dado que porP otro lado podrían existir escalares. c1 ; :::; ci 1 ; ci+1 ; :::; cn tales
que ai + a = j6=i cj aj , lo cual implicaría que a se deja expresar como una
combinación lineal de las columnas de A).
Ahora, sea

1 eT
T= .
0 In
Entonces,

c bT + ceT
BT = .
a A + aeT
Más aún jTj = 1.
Dado que In y A + aeT son no-singulares, tenemos [del mismo razonamiento
como en caso (2)] que

jHn+1 (T T) Gn+1 j = jTjn+2 = 1 (7.98)


7.2. 16.2. EL OPERADOR VEC 221

jHn+1 [(BT) (BT)] Gn+1 j = jBTjn+2 = jBjn+2 jTjn+2 = jBjn+2 (7.99)

Y, usando el resultado (4.26), tenemos que

jHn+1 [(BT) (BT)] Gn+1 j


= jHn+1 [(B B)(T T)] Gn+1 j
= jHn+1 [(B B)Gn+1 Hn+1 (T T)] Gn+1 j
= jHn+1 B B)Gn+1 j jHn+1 (T TGn+1 j ,

En el cual [con la combinación de los resultados (4.36) y (4.37) implican que

jHn+1 B B)Gn+1 j = jBjn+2 .

7.2.9. 16.5 Reformulación de un Sistema Lineal


Considere un sistema lineal

AX = B (7.100)
Con una matriz coe…ciente A m n al lado derecho de B m p y una matriz
desconocida X n p. Este sistema lineal puede ser reformulado como un
sistema lineal cuyo lado derecho es un vector mp 1 y de cuyos desconocidos
se colocan en un vector np 1. Este proceso se facilita por el uso del operador
vec (y el uso de productos de Kronecker).
Especí…camente, aplicando al operador vec a cada lateral de la ecuación (5.1)
y recordando el resultado (2.9), obtenemos el sistema lineal equivalente

(Ip A) x = b, (7.101)
donde b = vecB y donde x = vecX es un vector desconocido np 1 la
equivalencia está en el sentido que X es una solución al sistema lineal (5.1) si
y sólo si el vecX es una solución al sistema lineal (5.2). Nótese que el sistema
lineal (5.2) puede ser escrito como

diag (A; A; :::; A) x = b.


Sea ahora la generalización del sistema lineal (5.1) para el sistema
222 CAPÍTULO 7. EL PRODUCTO KRONECKER

AXC = B, (7.102)
donde A m n es una matriz , C p q una matriz, B m q una matriz y
X n p una matriz desconocida. Al aplicar al operador vec a cada lateral
de la ecuación (5.3) y recordando el resultado (2.10), obtenemos el sistema
(lineal) equivalente

CT A x = b,
donde b = vecB y donde x = vecX es un vector desconocido np 1.
Una extensa generalización es posible. Considere el sistema

X
r X
s
Ai XCi + Lj XT Tj = B, (7.103)
i=1 j=1

donde A1 ; :::; Ar son matrices m n, C1 ; :::; Cr son matrices p q; L1 ; :::; Ls


matrices m p; T1 ; :::; Ts son matrices n q , B es una matriz m q , y X una
matriz desconocida n p. Usando los resultados (2.6) y (2.10), encontramos
que
X X
vec Ai XCi + Lj XT Tj
i j

X X
= vec (Ai XCi ) + vec Lj XT Tj
i j
X X
= CTi Ai vecX + TTj Lj vecXT
i j
( " # )
X X
= CTi Ai + TTj Lj Knp vecX. (7.104)
i j

Por consiguiente, el sistema (5.4) es equivalente al sistema (lineal)


( " # )
X X
CTi Ai + TTj Lj Knp x = b, (7.105)
i j

donde b = vecB y donde x = vecX es un vector desconocido np 1. Como


un caso especial ( dónde "s = 0"), tenemos que el sistema
7.2. 16.2. EL OPERADOR VEC 223

X
r
(Ai XCi ) = B (7.106)
i=1

es equivalente al sistema (lineal)


" #
X
CTi Ai x = b. (7.107)
i

En nuestra consideración del sistema (5.4) [y de los sistemas (5.1), (5.3),


y (5.7)], ha sido implícitamente supuesto que no hay ninguna restricción
en X (de otra manera que aquéllos impuestos por el sistema) - si había
restricciones en X, el sistema (5.4) sería equivalente al sistema (5.6) si y sólo
si se impusieran las restricciones equivalentes en x. Suponga ahora que X
se restringe para ser simétrica [en el caso p = n y sistema (5.4) no es más
general que el sistema (5.7)]. Entonces, dado que el vecX = Gn vechX, el
sistema (5.7) es equivalente al sistema (lineal)
" #
X
CTi Ai Gn x = b. (7.108)
i

Ahora donde x = vechX es un vector desconocido (sin restricción) n(n +


1)=2 1 [y donde b = vecB] - la equivalencia está en el sentido que una
matriz simétrica X es una solución al sistema (5.7) sí y solo sí vechX es una
solución al sistema (5.9).

7.2.10. 16.6. Algunos resultados en Matrices Jacobianas.


En esta sección, se presta atención a algunas matrices Jacobianas de un tipo
encontrado en análisis estadístico multivariado.
Sea F p q que representa una matriz de funciones, de…nida sobre un conjunto
S, de un vector x = (x1 ; :::; xm )T de m variables . Entonces, vecF es un vector
columna pq-dimensional obtenido por la reordenación de los elementos de F
(de una manera particular). Por la de…nición, la matriz Jacobiana de vecF
es la matriz @vec (F) =@xT pq m cuya j-ésima columna de @vec (F) =@xj .
Nótese que

@vec (F) @F
= vec (7.109)
@xj @xj
224 CAPÍTULO 7. EL PRODUCTO KRONECKER

(como es evidente de la misma de…nición del operador vec). Así. la matriz


Jacobiana de vecF es la matriz pq m cuya j-ésima columna es vec (@F=@xj ).
Considere el caso especial ahora dónde q = p.Sí F es simétrica (para x en S),
entonces p(p 1)=2 de los elementos de vecF son redundantes. En contraste,
vechF no contiene las redundancias (que son atribuidas a la simetría). Por
de…nición, la matriz Jacobiana de vechF es la matriz @vech (F) =@xT p(p +
1)=2 m cuya j-ésima columna de @vech (F) =@xj . Nótese que [análogo al
resultado (6.1)]

@vech (F) @F
= vech . (7.110)
@xj @xj
Así, la matriz de Jacobiana de vechF es la matriz p(p+1)=2 m cuya j-ésima
columna es el x = (x1 ; :::; xm )T de m vech (@F=@xj ).
Si F es simétrica, entonces claramente [a la luz del resultado (4.6)]

@vecF @vechF @vechF @vecF


= Gp ; = Hp . (7.111)
@xj @xj @xj @xj
(j = 1; :::; m): y por consiguiente

@vecF @vechF @vechF @vecF


T
= Gp T
; T
= Hp . (7.112)
@x @x @x @xT
Luego, considere la matriz Jacobiana de vec(AFB), dónde F p q es una
matriz de funciones, de…nida en un conjunto S, de un vector x = (x1 ; :::; xm )T
de m variables y donde A y B son r p y q s matrices de constantes.
Haciendo uso de la fórmula (2.10). Encontramos que

@vec (AFB) @vecF


= BT A (7.113)
@xj @xj
(j = 1; :::; m) y de que

@vec (AFB) @vecF


T
= BT A . (7.114)
@x @xT
La fórmula (6.6) relaciona la matriz Jacobiana de vec(AFB) al vecF.
Cuando s = q; r = p, y m = pq se sigue de los resultados (6.6) y (3.18) que

@vec (AFB) @vecF


T
= jAjq jBjp , (7.115)
@x @xT
7.2. 16.2. EL OPERADOR VEC 225

que relaciona el Jacobiano de vec(AFB) al de vecF.


En el caso especial dónde x = vecXy F (x) = X para alguna matriz X p q
de variables. El resultado (6.6) simpli…ca [a la luz del resultado (15.3.12)] a

@vec (AXB)
= BT A, (7.116)
@ (vecX)T
y (cuando s = q y r = p) el resultado (6.7) simpli…ca a
@vec (AXB)
T
= jAjq jBjp .
@ (vecX)
Suponga ahora que F es simétrica y que A es cuadrada (en cual caso ambos
F y A son p p). Entonces,

@vech AFAT @vechF


= H p (A A) G p , (7.117)
@xT @xT
como es evidente del resultado (6.6) al colocar B = AT y observando [A la
luz de resultado (4.6)] que

@vech AFAT @vec AFAT @vecF @vechF


T
= Hp T
; T
= Gp .
@x @x @x @xT
Cuando m = p(p + 1)=2, se sigue de los resultados (6.10) y (4.34) que

@vech AFAT @vechF


= jAjp+1 . (7.118)
@xT @xT
En el caso especial dónde x = vecX y F (x) = X para alguna matriz simétrica
X p q, los resultados (6.10) y (6,1l) simpli…ca a

@vech AXAT
= Hp (A A) Gp ,
@ (vechX)T
@vech AXAT
T
= jAjp+1 .
@ (vechX)
Finalmente, considere la matriz Jacobiana de vec(F 1 ), donde F p p es una
matriz de funciones, de…nida en un conjunto S , de un vector x = (x1 ; :::; xm )T
de m variables [con F(x) no singular para cada x en S]. Haciendo uso de los
resultados (15.8.15) y (2.10) [así como el resultado (6.1)], encontramos que
226 CAPÍTULO 7. EL PRODUCTO KRONECKER

@vec (F 1 ) @F 1 @F 1 1
= vec = vec F F
@xj @xj @xj
h i @F
T
= F 1 F 1 vec
@xj
h i @vecF
1 T
= F F 1 . (7.119)
@xj

(j = 1; :::; m), lo cual implica que

@vec (F 1 ) h i
1 T 1 @vecF
= F F . (7.120)
@xT @xT
Relacionando la matriz Jacobiana de vec(F 1 ) es decir de vecF. Sin embargo,
cuando m = p2 , se sigue del resultado (6.13). Junto con Corolario 13.2.5, del
2
resultado (3.18), y el Teorema 3.3,7 [y del hecho que ( 1)p = ( 1)p ] que

@vec (F 1 ) @vecF
T
= ( 1)p jFj 2p
. (7.121)
@x @xT
Los cuales relacionan el Jacobiano de vec (F 1 ) al vecF.
En el caso especial donde x = vecX y F (x) = X para alguna matriz X p p
no singular de variables, los resultados (6.13) y (6.14) simpli…ca a

@vec (X 1 ) 1
T
= X X 1. (7.122)
@ (vecX)
@vec (X 1 )
T
= ( 1)p jXj 2p
. (7.123)
@ (vecX)
Suponga ahora que la matriz F (pxp) es simétrica. Entonces

@vech (F 1 ) @vechF
T
= Hp F 1 F 1 Gp . (7.124)
@x @xT
Como es evidente del resultado (6.13) al observar [a a la luz del resultado
(4.6)] que

@vech (F 1 ) @vec (F 1 ) @vecF @vechF


= Hp ; = G p .
@xT @xT @xT @xT
7.3. EJERCICIOS. 227

Cuando m = p(p + 1)=2, se sigue del Corolario 13.2.5., el resultado (4.34). y


del Teorema 13.3.7 que

@vech (F 1 ) @vechF
= ( 1)p(p+1)=2 jFj (p+1)
. (7.125)
@xT @xT
En el caso especial dónde x = vechX y F(x) = X para alguna matriz X
simétrica no singular p p, los resultados (6.17) y (6.18) simpli…can a

@vech (X 1 ) 1 1
T
= Hp X X Gp , (7.126)
@vech (X)
@vech (X 1 )
T
= ( 1)p(p+1)=2 jXj (p+1)
. (7.127)
@vech (X)

7.3. Ejercicios.
Sección 16.1.
1. (Ricardo) Dé ejemplo de una matriz A y una matriz identidad I tales que

A I 6= I A.

Muestre también una matriz B y una matriz identidad I tales que

B I=I B.

1. (a) Veri…que el resultado (1.13): es decir, veri…que que, para cualesquiera


matrices A y B m n y cualesquiera matrices C y D p q,

(A + B) (C + D) = (A C) + (A D) + (B C) + (B D).

(b) Veri…que el resultado (1.14): es decir, veri…que que, para cualesquiera


matrices A1 ; A2 ; :::; Ar m n y matrices B1 ; B2 ; :::; Bs p q
.
! !
X r Xs Xr X s
Ai Bj = (Ai Bj ) .
i=1 j=1 i=1 j=1
228 CAPÍTULO 7. EL PRODUCTO KRONECKER

2. Muestra que, para cualquier A es una matriz m n y una matriz B p q,

A B = (A Ip )diag(B; B; :::; B).


3. Muestre que, para cualquier vector a m 1 y un vector b p 1, (1) a b
= (a Ip )b y (2) aT bT = bT (aT Ip ).
4 Sea A y B que representan matrices cuadradas.
(a) Muestre que Si A y B son ortogonales, entonces A B es ortogonal.
(b) Muestre que Si A y B son idempotentes, entonces A B es idempotente.
5.Siendo m,n,p y q, que representan enteros positivos arbitrarios, mostrar (a)
que, para cualquier matriz Bp q (teniendo p > 1 o q > 1), existe una matriz
Am n tal que A B tiene una inversa generalizada que se puede expresar
en la forma A B ; y (b) que, para cualquier matriz A m n (teniendo
m > 1 o n > 1), existe una matriz B p q tal que A B tiene una inversa
generalizada que no se puede expresar en la forma A B .
6. Sea X = A B, donde A es una matriz m n y una matriz B p q.
Muestra que PX = PA PB .
7. Muestra que el producto Kronecker A B de una matriz A m m y
una matriz A B n n es (a) de…nida simétrica no-negativa si A y B
son ambas de…nidas simétricas no-negativa o ambas de…nidas simétricas no-
positivas, y (b) de…nida positiva simétrica si A y B son ambas de…nidas
positiva simétricas o ambas de…nidas negativas simétrica.
8. Sea A y B que representan matrices simétricas m m y C y D matrices
simétricas n n. Usando el resultado de Ejercicio 7 (o en otro caso), muestre
que si A B, C D, B, y C están de…nidas no-negativas, entonces A C
B D es de…nida simétricas no-negativas.
9. Sea A que represente una matriz m n y una matriz B p q. Muestre
que, en el caso de la norma usual,

kA Bk = kAk kBk .
10. Veri…que el resultado (1.27).
11. Muestre que (a) si T y U son ambas matrices triangulares superiores,
entonces T U es una matriz triangular superior, y (b) si T y L son matrices
triangular inferior, entonces T L es una matriz triangular inferior.
12. Sea A que representa una matriz m n y una matriz B n n. Suponga que
A y B tienen descomposiciones LDU , diga A = L1 D1 U1 y B = L2 D2 U2 .
Usando los resultados de Ejercicio11, muestra que A B tiene descomposición
LDU A B = LDU dónde L = L1 L2 , D = :D1 D2 , y U = U1 U2 .
7.3. EJERCICIOS. 229

Sección 16.2.
13. Sea A1 ; A2; :::; Ak que representa k matrices (del mismo tamaño). Muestre
que A1 ; A2 ; :::; Ak son linealmente independientes si y sólo si el vec(Ai ); vec(A2 ); :::; vec(Ak )
son linealmente independiente.
14. Sea m que representa un entero positivo, sea ei que represente la i-ésima
columna de Ii (i = 1; :::; rn), y(para i; j = l; :::; m) sea Uij = ei eTj (en cual
caso Uij es una matriz m m cuyo ij-ésimo elemento es 1 y cuyos m2 1
elementos restante son 0).
(a) Muestre que
X
m
vec(Im ) = ei ei .
i=1

(b) Muestre que (para i; j; r; s = 1; :::; m)

vec(Uri ) [vec(Usj )]T = Uij Usr .


(c) Muestre que
X
m X
m
Uij Uij = vec (Im ) [vec (Im )]T .
i=1 j=1

15. Sea A que representa una matriz n n.


(a) Muestre que si A es el ortogonal, entonces (vecA)T vecA = n.
T
(b) Muestre que si A es el idempotente, entonces vec AT vecA = rk (A).
16. Muestre que para cualquier A matriz m n, X una matriz p n, B una
matriz p p y C una matriz n m,

tr(AXT BXC) = (vecX)T [(AT CT ) B]vecX = (vecX)T [(CA) BT ]vecX.


17. (a) Sea V que representa un espacio lineal de matrices m n, y sea g que
representa una función que asigna el valor A B a cada par de matrices A
y B en V. Tome U para el espacio lineal de vectores mn 1 de…nidos por

U = x 2 Rmn 1
: x = vec (A) para alguna A 2 V ,
y sea x y que representa el valor asignado a cada par de vectores x e y en U
por un producto interno arbitrario f . Muestre que g es un producto interno
(para V) Si y sólo si existe un f tal que (para todos A y B en V)
230 CAPÍTULO 7. EL PRODUCTO KRONECKER

A B = vec (A) vec (B) .


(b) Sea g que representa una función que asigna el valor A B a un par de
matrices arbitrarias A y B en Rm n . Muestre que g es un producto interno
(para Rm n ) si y sólo si existe una matriz particionada de…nida positiva
simétrica mn mn.
2 3
W11 W12 : : : W1n
6 W21 W22 : : : W2n 7
6 7
W = 6 .. .. . . .. 7
4 . . . . 5
Wn1 Wn2 : : : Wnn
(donde cada submatriz es de dimensiones m m) tal que (para toda A y B
en Rm n )
X
A B= aTi Wij bj ,
i;j

donde a1 ; a2; :::; an y b1 ; b2; :::; bn que representa la primera, segunda,....,n-


ésimas columnas de A y B, respectivamente.
(c) Sea g una función que representa que asigna valor xT yT para un par
de vectores (…la) arbitrarios en R1 n . Muestre que g es un producto interno
(para R1 n ) si y sólo si existe una matriz W n n de…nida positiva simétrica
tal que (para cada par de vectores …la xT y yT n-dimensionales)

xT yT = xT Wy.
Sección 16.3.
18. (a) De…na (para m 2) P para ser la matriz permutación tal que, para
cada matriz A m n,

vecA
= PvecA.
r
Donde A es la matriz (m 1) n cuyas …las son respectivamente la primero,...,(m
A
1)-ésimas …las de A y rT es la m-ésima …la de A [donde A = Y
rT
AT = AT ; r ].
Km 1 :n 0
(1) Muestre que Kmn = P.
0 In
7.3. EJERCICIOS. 231

(2) Muestre que jPj = ( 1)(m 1)n(n 1)=2 .


(3) Muestre que jKmn j = ( 1)(m 1)n(n 1)=2 jKm 1 :n j.
(b) Muestre que jKmn j = ( 1)m(m 1)n(n 1)=4 .
(c) Muestre que jKmn j = ( 1)m(m 1)=2 .
19. Muestre que, para cualquier matriz A m n, a un vector p 1 y b un
vector q 1,
(1) bT A a = Kmp abT A ;
T T
(2) a A b = Kpm A ab .
20. Sea m y n que representan los enteros positivos. y sea ei , que representa la
i-ésima columna de Im , (i = 1; :::; m) y uj que representa la j-ésima columna
de In , (j = 1; :::; n).
Muestre que

X
n X
m
Kmn = uTj Im uj = ei In eTi .
j=1 i=1

21. Sea m, n, y p que representan los enteros positivos. Usando el resultado


del Ejercicio 20, muestre que
(a) Kmp :n = Kp:mn Km:np ;
(b) Kmp :n Knp:m Kmn:p = I;
(c) Kn:mp = Knp:m Kmn:p ;
(d) Kp:mn Km:np = Km:np Kp:mn ;
(e) Knp:m Kmn:p = Kmn:p Knp:m ;
(f) Km:np Kmp :n = Kmp :n Km:np .
[Hint. Empieza siendo
P ujT, que representa la j-ésima columna de In , y mostran-
do que Kmp :n = ;j uj Ip (Im uj ) y haciendo uso entonces del re-
sultado (3.10).]
22. Sea A que representa una matriz m n. y de…na B = Kmn AT A .
Muestre (a) que B es simétrico, (b) que rk(B) = [rk(A)]2 , (c) que B2 =
(AAT ) (AT A), y (d) que tr(B) = tr(AT A).
23. Muestre que, para cualquier matriz A m n y cualquier matriz B p q,

vec (A B) = (In G) vecA = (H Ip ) vecB,


donde G = (Kqm Ip ) (Im vecB) y H = (In Kqm ) [vec (A) Im Iq ].

Sección 16.4.
1
24. Muestre que, para Hn = GTn Gn GTn ,
232 CAPÍTULO 7. EL PRODUCTO KRONECKER

Gn Hn HTn = HTn .
25. Existe una única matriz Ln tal que

vechA = Ln vecA
para cada matriz A n n (simétrico o no). (La matriz Ln , es una opción
para la matriz Hn , discutido en la Sección 16.4b. Es referida por Magnas
y Neudecker (1980) como la matriz de eliminación - el efecto de premulti-
plicando el vec de una matriz A n n por Ln , es eliminar (del vec A) los
elementos del A "supradiagonal")
(a) Escriba los elementos de L1 , L2 , y L3 .
(b) Para un entero positivo arbitrario n, describa Ln en términos de sus …las.
26. Sea A que representa una matriz n n y b un vector n 1,
(a) Muestre que (1=2) (A bT ) + (bT A) Gn = (A bT )Gn .
1
b) Muestre que, para Hn = GTn Gn GTn ,
(1) (1=2)Hn [(b A) (A b)] = Hn [(b A),
(2) (A bT )Gn Hn = (1=2) (A bT ) + (bT A) ,
(3) Gn Hn (b A) = (1=2) [(b A) + (A b)].
27. Sea A = faij g que representa una matriz n n (posiblemente no-
simétrica).
1
(a) Muestre que. para Hn = GTn Gn GTn

Hn vecA = (1=2)vech A + AT .
(b) Muestre que

GTn Gn vechA = vech [2A diag (a11 ; a22 ; :::; ann )]


(c) Muestre que

GTn vecA = vech A + AT diag (a11 ; a22 ; :::; ann ) .


1
28. Sea A que representa una matriz n n. Muestre que, para Hn = GTn Gn GTn .

Gn Hn (A A)HTn = (A A)HTn .
29. Muestre que si una matriz A = faij g es triangular superior, triangular
inferior, o diagonal. Entonces Hn (A A)Gn , es respectivamente triangular
7.3. EJERCICIOS. 233

superior, triangular inferior, o diagonal con los elementos diagonales aii ajj
(i = 1; :::; n; j = i; :::; n).

Sección 16.5.
30. Sea A1 ; :::; Ak , yB que representan matrices
Pk m n, y sea b = vecB.
(a) Muestre que la ecuación de la matriz i=1 xi Ai = B (en desconocidos
x1 ; :::; xk ) es equivalente a un sistema lineal de la forma dónde Ax = b donde
x = (x1 ; :::; xm )T es un vector desconocido.
(b) Muestre P que si A1 ; :::; Ak , y B son simétricos, entonces la matriz de la
ecuación ki=1 xi Ai = B (en los desconocidos x1 ; :::; xk ) es equivalente a un
sistema lineal de la forma A x = b , dónde b = vechB y x = (x1 ; :::; xk )T
es un vector desconocido.

Sección 16.6
31. Sea F que representa una matriz de funciones p q, de…nida sobre un
conjunto S, de un vector, x = (x1 ; :::; xm )T de m variables. Muestre que, para
k = 2; 3; :::;

@vec Fk Xh i @vecF
1 T
= Fs Fk s
@xT @xT
(donde F0 = Ip ).
32. Sea F = ffis g y G que representa una matriz de funciones p q y r s,
de…nida sobre un conjunto s, de un vector, x = (x1 ; :::; xm )T de m variables
(a) Muestre que (para j = 1; :::; m)

@ (F G) @G @F
= F + G .
@xj @xj @xj
(b) Muestre que (para j = 1; :::; m)

@ (F G) @vecG @vecF
= (Iq Ksp Ir ) (vecF) + (vecG) .
@xj @xj @xj

(c) Muestre que

@ (F G) @vecG @vecF
= (Iq Ksp Ir ) (vecF) + (vecG) .
@xT @xT @xT
234 CAPÍTULO 7. EL PRODUCTO KRONECKER

(d) Muestre que, en el caso especial dónde xT = ((vecX); :(vecY)T ], F (x) =


X. y G(x) = Y para algunas matrices de variables X y Y p q y r s, la
fórmula en parte la (c) simpli…ca a

@vec (X Y)
= (Iq Ksp Ir ) (Ipq (vecY) ; (vecX) Irs ).
@xT

También podría gustarte