Algebra Matricial Estadistica 24-01-08 PDF
Algebra Matricial Estadistica 24-01-08 PDF
Algebra Matricial Estadistica 24-01-08 PDF
Preliminares
1.1. Traza
Queremos presentar la información que más nos compete con relación a la
traza de matrices n n.
X
n
tr(A) = Aii .
i=1
1
2 CAPÍTULO 1. PRELIMINARES
tr(AB) = tr(BA).
Demostración.
!
X
m X
m X
n
tr(AB) = (AB)ii = Aik Bki
i=1 i=1 k=1
!
X
n X
m X
n
= Bki Aik = (BA)kk = tr(BA).
k=1 i=1 k=1
! !
X
m X
n X
m X
n
= Aik Aik = (Aik )2 .
i=1 k=1 i=1 k=1
= BT AT AB BT AT AC CT AT AB + CT AT AC
1.2. Rango
Nuestro propósito principal en este capítulo es el de recordar algunos de los
más importantes resultados relacionados con el rango de una matriz.
a1 A 1 + + an A n = 0,
si y sólo si
si y sólo si
a1 A0 1 + + an A0 n = 0,
si y sólo si [a1 an ]T es solución del sistema Ax = 0. Se sigue (por Lema
1.2.1) que rango columna de A es igual a rango columna de A0 .
Supongamos que particionamos A0 en la forma
B
A0 =
C
Demostración. i)
AB = [AB 1 AB p ] ,
y para j = 1; :::; p se tiene que
2 3
B1j
6 7
AB j = [A 1 A n ] 4 ... 5 = B1j A 1 + + Bnj A n .
Bnj
Luego, C(AB) C(A). Ahora, rk(AB) = rk(A) implica que las dimen-
siones de C(AB) y C(A) son iguales, y como uno está contenido en el otro
se concluye que C(AB) = C(A).
ii) 2 3 2 3
A1 A1 B
6 7 6 7
AB = 4 ... 5 B = 4 ..
. 5,
Am Am B
1.2. RANGO 7
Demostración.
Ejemplo. Si 2 3
2 1 1 0
4
A= 3 1 2 3 5,
2 0 4 1
entonces:
2 3 2 3
2 1 1 0 2 1 1 0
4 3 1 2 3 5 A2 !A3 4 2 0 4 1 5.
2 0 4 1 3 1 2 3
2 3 2 3
2 1 1 0 2 1 1 0
4 3 1 2 3 5 A 2 ! 3A 2 4 9 3 6 9 5.
2 0 4 1 2 0 4 1
1.2. RANGO 9
2 3 2 3
2 1 1 0 2 1 1 0
4 3 1 2 3 5 A 3 ! 3A 1 + A 3
4 3 1 2 3 5.
2 0 4 1 4 3 1 1
B = CA.
D = EA.
F = GA.
En efecto,
2 3 2 3
1 1 2 0 1 1 2 0
6 2 1 5 7 6 0 5 7
6 1 7 A 2 ! 2A 1 + A 2 6 1 5 7 = B,
4 0 3 3 3 5 A 4 ! 3A 1 + A 4 4 0 3 3 3 5
3 2 1 5 0 1 5 5
2 3 2 3
1 1 2 0 1 1 2 0
6 0 5 7 6 0 5 7
6 1 5 7 B 3 ! 3B 1 + B 3 6 1 5 7 = C.
4 0 3 3 3 5 B 4 ! B 1+B 4 4 0 0 12 12 5
0 1 5 5 0 0 0 0
Los rangos de A; B y C son iguales. Pero el rango de C es claramente 3, por
tanto rk(A) = 3.
A = BC
c1 A t1 + + cs A ts = 0,
entonces
c1 D k1 + + cs D ks = 0.
Luego, la independencia lineal de fD k1 ; :::; D ks g implica que c1 = =
cs = 0, de donde fA t1 ; :::; A ts g es un conjunto linealmente independiente
de s …las de A, lo cual es imposible porque s > r = rk(A). La contradicción
provien de haber supuesto la posibilidad de que A pudiera tener submatrices
con rango mayor que rk(A).
LA = In .
AR = Im .
AR = A [R 1 R m] = [AR 1 AR m] = [e1 em ] = Im .
A = Im A = LCA = LCB = Im B = B.
W V
= rk
U T
= m + rk W VT 1 U .
Demostración.
T U U T
rk = rk (1.1)
V W W V
U T V W
rk = rk
W V T U
V W W V
rk = rk
T U U T
porque tienen exactamente las mismas columnas.
Ahora, para demostrar la última igualdad, es su…ciente probar (por la tran-
sitividad de la igualdad) que
T U
rk = m + rk W VT 1 U .
V W
Im 0
1 .
VT In
1.2. RANGO 15
Entonces
T U Im 0 T U
rk = rk 1
V W VT In V W
T U
= rk
0 W VT 1 U
= rk(T) + rk W VT 1 U
= m + rk W VT 1 U .
16 CAPÍTULO 1. PRELIMINARES
Capítulo 2
1
Lema 2.1.1. Sea A una matriz n n invertible. Entonces A es la única
inversa generalizada de A.
17
18 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)
Demostración. Claramente,
AA 1 A = A.
1 1
G = In GIn = A 1 AGAA = A 1 AA = A 1 In = A 1 .
Demostración.
AB(RL)AB = A(BR)(LA)B
= AIr Ir B = AB.
AX = B,
kT B = kT AC = 0C = 0.
Para i 2 f1; :::; mg fk1 ; :::; kr g Ai está en el generado de fAk1 ; :::; Akr g,
es por tanto que existen escalares ik1 ; :::; ikr tales que
de donde
con it = 0 cuando t 2
= fk1 ; :::; kr ; ig y ii = 1. Luego,
kT A = 0
con
kT = i1 i(i 1) ii i(i+1) im ,
y por hipótesis kT B = 0. La última igualdad implica que
y como it = 0 cuando t 2
= fk1 ; :::; kr ; ig, encontramos que
Luego,
Ai RB1 = ( ik1 Ak1 + + ikr Akr )RB1
kT AT A = 0,
Así, AT AX = In es compatible.
= (AGA)C = AC = B.
Recíprocamente, supongamos que GB es solución de AX = B para toda
matriz B m p tal que AX = B es consistente. Para i = 1; :::; n; sea
Bi = [A i 0 0] m p. Nótese que para cada i el sistema
AX = Bi
es consitente, ya que Ci = [ei 0 0] es solución. Luego, GBi es también
solución del sistema AX = Bi para toda i. Pero
AGBi = Bi 8i
implica (AGBi ) 1 = (Bi ) 1 8i. Luego,
AGA i = A i 8i.
Así,
22 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)
= [A 1 A n] = A.
Demostración.
G11 G12
Ahora, una matriz particionada G = n m, con G11 r r, es
G21 G22
una inversa generalizada de A si y sólo si AGA = A, o equivalentemente, si
y sólo si
A11 A11
A111 [A11 A12 ] G A111 [A11 A12 ]
A21 A21
(2.1)
A11
= A111 [A11 A12 ] :
A21
Como
A11
rk = r = rk [A11 A12 ] ,
A21
se sigue del Lema 1.2.12 que G satisface (2.1) si y sólo si
A11
A111 [A11 A12 ] G A111 = A111 .
A21
Pero
A11 G11 G12 Ir
A111 [A11 A12 ] G A111 = Ir A111 A12
A21 G21 G22 A21 A111
Ir
= G11 + A111 A12 G21 G12 + A111 A12 G22
A21 A111
= G11 + A111 A12 G21 + G12 A21 A111 + A111 A12 G22 A21 A111 :
24 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)
entonces
AT = [(In ) i1 (In ) in ] .
Así,
2 3 2 3
(In )i1 (In ) i1 (In )i1 (In ) in 1 0
T 6 .. .. .. 7 6 .. . . .. 7
AA = 4 . . . 5 = 4. . . 5 = In .
(In ) in (In ) i1 (In ) in (In ) in 0 1
B11 B12
B= ,
B21 B22
donde B11 es r r. Entonces una matriz G n m es una inversa generalizada
de A si y sólo si
por tanto el Teorema 1.2.10 garantiza que B11 es una matriz invertible y así,
el Teorema 2.3.2 implica que H es de la forma
B111 0
G=Q P.
0 0
Nótese que esta inversa generalizada se puede hallar siguiendo los siguientes
pasos (se utiliza la notación del Teorema 2.3.5):
1) Halle r = rk(A).
1 2
B11 = ,
1 0
B11 B12
B=
B21 B22
donde B11 es r r. Entonces una matriz G n n es una inversa generalizada
de A si y sólo si
Demostración. Ejercicio.
G =G+Z GAZAG
para alguna matriz Z n m. Además, G es una inversa generalizada de A
si y sólo si
Demostración. Ejercicio.
(AT A) 1 AT
2.6. ALGUNAS PROPIEDADES ELEMENTALES 29
Demostración. Ejercicio.
Demostración.
Demostración.
AT (A )T AT = (AA A)T = AT .
Demostración. Ejercicio.
Demostración. Ejercicio.
Demostración. Ejercicio.
Demostración. Ejercicio.
Demostración. Ejercicio.
rk(A ) rk(A).
Demostración. Ejercicio.
W
A= T 0 y B= .
0
G1
Una matriz particionada n m; G = (donde el número de …las de
G2
G1 es igual al número de columnas en T) es una inversa generalizada de A
2.7. INVARIANZA EN LA ESCOGENCIA DE UNA I.G 31
Demostración. Ejercicio.
A
Lema 2.6.11. Sean A m n, B m p y C q n. La matriz
B
(m + p) m es una inversa generalizada de la matriz particionada A B
si y sólo si AA B = 0 y BB A = 0. Similarmente, la matriz A C
A
n (m + q) es una inversa generalizada de la matriz particionada si
C
y sólo si CA A = 0 y AC C = 0.
Demostración. Ejercicio.
AA B = B.
AA B = AA AC = AC = B.
T U W V
rk = rk = rk(T) + rk(Q). (2.3)
V W U T
Además, las matrices particionadas
T + T UQ VT T UQ T 0 T U
= + Q VT In
Q VT Q 0 0 Iq
y
Q Q VT 0 0 Iq
= + Q In VT
T UQ T + T UQ VT 0 T T U
T U W V
son inversas generalizadas de y , respectivamente.
V W U T
2.9. RANGO E I.G DE MATRICES PARTICIONADAS 33
Demostración. Ejercicio.
T O W V
rk = rk = rk (T) + rk(W),
V W O T
y matrices de bloques
T 0 W W VT
y
WVT W 0 T
T 0 W V
son inversas generalizadas de y , respectivamente.
V W 0 T
Demostración. Ejercicio.
T R W LT
rk = rk = rk(T) + rk(Q).
LT W TR T
Además, las matrices particionadas
T + RQ L RQ T 0 R
= + Q [ L In ]
Q L Q 0 0 Iq
y
Q Q L 0 0 Iq
= + Q [In L]
RQ T + RQ L 0 T R
T TR W LT
son inversa generalizada de y , respectivamente.
LT W TR T
34 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)
Demostración. Ejercicio.
Demostración. Ejercicio.
AA BC = B,
o equivalentemente, si y sólo si
AA B = B y BC C = B;
Demostración. Ejercicio.
Demostración. Ejercicio.
2.11. EJERCICIOS 35
2.11. Ejercicios
4. Use la fórmula (2.3) y encuentre la inversa generalizada de la matriz
2 3
0 0 0
6 0 4 2 7
6 7
A=6 6 0 2 1 7
7:
4 0 3 3 5
0 8 4
36 CAPÍTULO 2. INVERSAS GENERALIZADAS (I.G)
Capítulo 3
Matrices Idempotentes
A2 = A.
37
38 CAPÍTULO 3. MATRICES IDEMPOTENTES
entonces
A(xk+1 c1 x1 cn xn ) = 0.
Pero, como xk+1 no se deja generar por fx1 ; :::; xk g se tiene que xk+1 c1 x1
cn xn 6= 0, en consecuencia 0 es un valor propio de A, lo cual es absurdo.
Se concluye …nalmente que no existen matrices n n distintas de In que sean
idempotentes y tengan como único valor propio a 1.
Demostración.
Una cuestión que debemos anotar es que las matrices nulas y las matri-
ces identidad no son las unicas matrices idempotentes, existen muchas. Por
ejemplo, la matriz
2 1 1 3
2 2
0 0
6 1 1 0 0 7
A=6 2 2
4 0 0 1 1 5
7
2 2
0 0 12 12
es idempotente.
39
Demostración. Sea fx1 ; :::; xk g una base para EA (0) y escojamos (si es nece-
sario) vectores xk+1 ; :::; xn tales que fx1 ; :::; xk ; xk+1 ; :::; xn g sea una base para
Cn . Entonces fAxk+1 ; :::; Axn g es un conjunto linealmente independiente de
vectores propios de A asociados al valor propio 1. Luego, por Teorema 3.4.2
es invertible y
Luego, P 1 AP es diagonal.
In 2A + A2 = In A,
40 CAPÍTULO 3. MATRICES IDEMPOTENTES
Matrices idempotentes
A2 = A:
Un ejemplo de matrices idempontes n n son, la matriz identidad In , la
matriz nula 0 n n y la matriz (1=n) Jn, donde cada uno de sus elementos
son iguales a 1=n:
Tal como se indica en el siguiente lema, son matrices idempotentes n n ,con
una excepción particular.
43
44 CAPÍTULO 4. MATRICES IDEMPOTENTES
A = In A = A 1 AA = A 1 A = In .
Si una matriz cuadrada A es idempotente, entonces
(AT )2 = (AA)T = AT
y
(I A)2 = I 2A + A2 = I 2A + A = I A:
Por lo tanto, observando que A = (AT )T y A = I (I A), se obtiene el
siguiente lema.
A2 = kA
para alguna escalar k distinto de cero. O, equivalentemente supongamos que
[(1=k)A]2 = (1=k)A,
4.2. 10.2 ALGUNOS RESULTADOS BÁSICOS 45
rank(A) = (1=k)tr(A),
y por consiguiente el rango de A es determinable por la traza de A.
Teorema 10.2.1 Para alguna matriz A tal que A2 = kA para algún escalar
k,
tr(A) = k rank(A):
LB = kI:
De este modo, haciendo uso del lema 5.2.1, encontramos que
rank(A) = tr(A):
Sobre la observación que solo una matriz nula puede tener rango cero, obten-
emos el siguiente corolario adicional (del teorema 10.2.1).
46 CAPÍTULO 4. MATRICES IDEMPOTENTES
4.3. Ejercicios
Sección 10.1
1. Muestre que si una matriz A n n es idempotente, entonces
(a)Para alguna matriz no singular B n n, B 1 AB es idempotente.
(b)Para algún número entero k mayor o igual que 2; Ak = A.
Sección 10.2
9. Sea T una matriz m p; U una matriz m q; V una matriz n p y W
una matriz n q; y de…namos Q = W VT U: Usando la parte (a) del
ejercicio 9.8, junto con el resultado (2.1.1), muestre que si
(1) I TT U (I Q Q) = 0;
(2) I QQ V (I T T) = 0; y
(3) I TT UQ V (I T T) = 0;
entonces
T U
rank = rank (T) + rank (Q) :
V W
ET = I TT ; FT = I T T; X = ET U; Y = VFT ; EY = I YY;
FX = I X X; Z = EY QFX y Q = FX Z EY :
G = G 1 + G2 ; (4.4)
donde
2 3
T T U (I Q Q) X ET
6 FT Y (I QQ ) VT FT Y (I QQ )7
G1 = 6
4 FT Y (I QQ ) QX ET
7
5
(I Q Q) X ET 0
y
T U
G2 = Q VT ; In ;
Iq
es una inversa generalizada de A.
rank (A) = rank (T) + rank (X) + rank (Y) + rank (Z) : (4.5)
5.1. Preliminares
De…nición. Sea a = [a1 an ]T 2 Rn . Una función
Pn que asigna a cada
T n T
vector x = [x1 xn ] de R el valor a x = i=1 ai xi es llamada una
forma lineal.
51
52CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
Demostración. Ejercicio.
Demostración. Ejercicio.
X X
f (x; y) = f ( xi ei ; y) = xi f (ei ; y)
i i
X X
= xi f (ei ; y j ; uj )
i j
X X X
= xi yj f (ei ; uj ) = aij xi yj = xT Ay
i j i;j
aii + aij + aij + aij = xT Ax = xT Bx = bii + bij + bij + bij (j 6= i = 1; :::; n):
(5.2)
Simultáneamente, los resultados (1.1) y (1.2) implican que
A + AT = B + BT (5.3)
Así, la condición (1.3) es una condición necesaria para que xT Ax y xT Bx sean
idénticamente iguales. También es una condición su…ciente. Para comprender
esto, observe que (dado que una matriz 1 1 es simétrica) la condición (1.3)
implica que
Prueba Suponga que una de las dos matrices, digamos A, es de…nida positiva
y que la otra (B) es de…nida no negativa. Entonces, para todo vector nu nulo
x en Rn ; xT Ax > 0 y xT Bx 0 y en consecuencia
xT (A + B) x = xT Ax + xT Bx > 0
xT Ax = xT (Ax ) = xT 0 = 0;
El lema 14.2.8 implica que las matrices de…nida no negativa singulares, son
semide…nida positiva. Sin embargo lo contrario no es necesaria mente verdad.
Es decir, que existen matrices semide…nidas positivas no singulares como
también matrices semide…nidas positiva no singulares.
Unas propiedades básicas adicionales de las matrices de…nidas no negativa
son descritas en el siguiente teorema y corolarios.
rk PT AP rk (P) < m;
el cual (de acuerdo con el lema 14.2.8) establece que PT AP no es de…nida
positiva y por tanto (desde que PT AP es de…nida no negativa) que PT AP
es semide…nida positiva, por lo tanto se completa la prueba de la parte (2).
xT PT AP x = (xP)T APx = yT Ay = 0:
Concluimos que PT AP es semide…nida positiva.
Prueba. (1) Sea A una matriz de…nida positiva. Entonces, de acuerdo con
el lema 14.2.8, A es no singular y por lo tanto (acorde al teorema 8.14)
T T
invertible. Como (A 1 ) = (A 1 ) AA 1 ; se sigue de la parte (1) del coro-
T
lario 14.2.10 (simultáneamente con el resultado (2;5)) que (A 1 ) es de…nida
positiva y por lo tanto (a la luz del corolario 14.2.7) A 1 es de…nida posotiva
(2) Utilizando un razonamiento similar, podemos mostrar que la parte (2)
del colorario 14.2.11 desprende de la parte (2) del corolario 14.2.10.
Demostración. Haciendo uso del Teorema 1.2.5 y del Corolario 1.2.6, en-
contramos que
Lema 14.3.2 Sea A una matriz simétrica n n (con n 2) tal que A11 = 0
y Ak1 6= 0 para k 2 f1; :::; ng, y . De…namos B = LT AL; donde L n n
1 0
es una matriz triangular inferior unitaria L = . Particionemos A
` In 1
como
a aT
A = 11 :
a A22
Supóngase que a11 = 0 pero que a 6= 0 o, equivalentemente que a1j 6= 0
para algún j > 1, digamos j = k. Entonces, el vector ` (n 1) dimensional
puede escogerse tal que b11 6= 0; esto puede hacerse tomando el elemento
(k 1)–ésimo de ` siendo algún escalar c no cero tal que cakk 6= 2a1k y
tomando otro elemento n 2 de `, siendo cero.
1
b = (u; I)A = a11 u + a;
0
1 T 1 1 T 1
A= Q QT AQQ = Q DQ
X
xT Ax = xT PT DPx = (Px)T DPx = di yi2
i
X
n X
r X
r
p p
A= dk tTk tk = dki tTki tki = dki tki dki tTki = PT P;
i=1 i=1 i=1
y rank(P) = rk PT P = rk (A) = r:
Recíprocamente si existe una matriz P r n de rango r tal que A = PT P;
entonces
rk (A) = rk PT P = rk (P) = r;
A es simétrica y (de acuerdo al corolario 14.2.14) A es de…nida no negativa.
68CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
Prueba. De acuerdo al corolario 14.1.2 existe una única matriz B tal que
xT Ax = xT Bx para toda x, a saber, la matriz B = (1=2) A + AT :suponga
que la forma cuadrática xT Ax, ó equivalentemente la forma cuadrática
xT Bx, es de…nida no negativa, caso en el cual B es una matriz de…nida no
negativa. Entonces, se sigue del teorema 14.3.7 que existe una matriz Pr n
de rango r tal que B = PT P y por lo tanto tal que xT Bx = (Px)T Px
para todo x ó, equivalentemente, tal que xT Ax = (Px)T Px para todo
x:Recíprocamente, suponga que, para alguna matriz Pr n de rango r,
xT Ax = (Px)T Px para todo x, ó, equivalentemente, xT Ax = xT PT Px
para todo x: Dado que (de acuerdo al teorema 14.3.7 o, alternativamente,
de acuerdo 14.2.14) PT P es una matriz de…nida no negativa, xT PT Px o,
equivalentemente xT Ax; es una forma cuadrática de…nida no negativa.
P1
teorema 14.3.7 existe una matriz P1 tal que A = PT1 P1 .Tomando P = :
0
Entonces claramente A = PT P
A = PDQ; (5.5)
A = QT DQ: (5.6)
Entonces, a la luz del resultado (8;2;3),
1 T
G = Q 1D Q : (5.7)
Por lo tanto, G es una inversa generalizada simétrica de A. Además, si
di se toma distinto de cero pra cada i en S; entonces G es una inversa
generalizada (simétrica) no singular de A:
Luego, supongase que A es de…nida no negativa, como también simètri-
ca — y continúa a suponer que P = QT y por lotanto la descomposición
(4;1) es de la forma (4;2) entonces se sigue el corolario 14.2.15 que di > 0
para toda i en S . Así, si di se toma mayor que cero para toda i en
S; entonces (a la luz del caorolario 14.2.15) G es una inversa generalizada
simétrica de…nida positiva de A: (si di se toma mayor o igual a cero para toda
i en S e igual a cero para por lo menos un i en S; entonces G es semide…nida
positiva; si di se toma menor que cero para por lo menos un i en S; entonces
– asumiendo que A es no nula – G es inde…nida): Dado qué (de acuerdo
con el corolario 14.3.5) toda matriz simétrica tiene una descomposición de la
forma (4;2) ; tenemos el siguiente lema
Lema 14.4.1. Toda matriz simétrica de…nida no negativa tiene una inversa
generalizada de…nida positiva.
5.5.1. Preliminares
El siguiente lema se re…ere a la descomposición LDU de una matriz An n
que conduce a (n 1) (n 1) una submatriz principal de A
A a L 0 U u
A= ;L = ;U =
bT c lT 1 0 1
y
D 0
D=
0 k
Donde A ; L ; U y D ;son de dimensiones (n 1) (n 1) entonces A =
LDU si y solo si
L D U =A ; (5.8)
L D u = a; (5.9)
UT D ` = b; (5.10)
y
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 73
k=c `T D u (5.11)
El Lema 14.5.1 puede ser veri…cado simplemente por la ecuación de las 4
submatrices A ,a,bT y c para las correspondientes submatrices de la matriz
producto LDU. Respecto a la condición (5.1a) notar que L es una sub-
matriz principal de una matriz triangular inferior y por tanto es la misma
triangular inferior unitaria, y similarmente que U es triangular superior uni-
taria y D es diagonal. Así la condición (5.1 a) establece que L D U es una
descomposición LDU de A
El siguiente teorema relaciona la existencia y construcción de una descom-
posición LDU ó UT DU de un a matriz n n para la existencia y construc-
ción de una descomposición LDU ó UT DU de la submatriz principal de
(n 1) (n 1) A
A a
A=
bT c
donde A es de dimendiones (n 1) (n 1)
(1)Si A tiene descomposición LDU; es decir A = L D U y si a 2 C (A )
y bT 2 F (A ) ; entonces existen vectores ` y u tales que UT D ` y tomando
` y u para ser cualquiera de esos vectores, y tomando k = c `T D u y la
descomposición LDU de A es
L 0 D 0 U u
A= (5.12)
`T 1 0 k 0 1
(10 ) Si A es simétrica (caso en que AT = A y b = a); si AT tiene descom-
poscion UT DU; es decir A = UT D U ; y si a 2 C (A ) ; entonces existe un
vector u tal que UT D U = a; y tomando u para ser cualquier vector, y
tomando k = c uT D u y la descomposición UT DU de A es
T
U u D 0 U u
A= (5.13)
0 1 0 k 0 1
(2)la matriz A tiene descomposición LDU solamente si A tiene una de-
scomposición LDU, a 2 C (A ) y bT 2 F (A )
74CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
L 0 U u D 0
L= ;U = ;y D =
`T 1 0 1 0 k
Donde L ; U y D ;son de dimensiones (n 1) (n 1) ; entonces se sigue
del lema 14.5.1 que A = L D U y por lo tanto que A tiene una descom-
posición LDU: Como una consecuencia adicional, tenemos que
a = L D u = A U 1 u 2 C (A ) y bT = `T D U = lT L 1 A 2 F (A ) :
En el caso especial donde L = UT (es decir, donde A = LDU es una descom-
posición UT DU);tenemos que L = UT y por tanto que A = UT D U :Así
que si A tiene una descomposición UT DU entonces A también tiene una
descomposición UT DU; Además si A tiene una descomposición UT DU en-
tonces claramente A es simétrica.
Notar que juntas (1) y (2) del teorema 14.5.2 implica en particular, que A
tiene una descomposición LDU si y solo si A tiene una descomposicion
LDU, a 2 C (A ) y bT 2 F (A ) : Similarmente las partes (10 ) y (20 ) implica
que A tiene una descomposición UT DU si y solo si A es simétrica, A tiene
una descomposicion UT DU, a 2 C (A )
El siguiente teorema se re…ere a la descomposición LDU de cualquier sub-
matriz principal de una matriz A n n para la misma A
Ai 1 ai
A= :
bTi aii
Li 1 0 Ui 1 ui Di 1 0
Li = ; Ui = y Di = (5.14)
`Ti 1 0 1 0 di
76CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
Ui 1 ui Di 1 0
Ui = y Di = (5.15)
0 1 0 di
(10 ) :Una prueba de la parte (10 ) ; analoga a la parte (1), puede ser construida
haciendo uso de la parte (10 ) del teoreama 14.5.2
(2) Supóngase que A tiene una descomposición LDU: Entonces se sigue
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 77
del teorema 14.5.3 que las submatrices principales A2; A3 ; :::; An 1 de orden
2por n 1 (también como la submatriz principal An = A de orden n) tienen
descomposición LDU: Basado en la parte (2) del teorema 14.5.2 se concluye
que para i = 2; :::; n; ai 2 C (Ai 1 ) y bTi 2 F (Ai ) :
(20 )Una prueba de la parte (20 ) ; analoga a la parte (2) ; pude ser construida
haciendo uso del teorema 14.5.3 y parte (20 ) del teorema 14.5.2
Note que, las partes (1) y (2) del teorema 14.5.4 implican en particular que
A tiene una descomposición LDU: si y solo si, para para i = 2; :::; n; ai 2
C (Ai 1 ) y bTi 2 F (Ai ) : similarmente, las partes (10 ) y (20 ) implican que
A tiene una descomposición UT DU si y solo si, A es simétrica y,para i =
2; :::; n; ai 2 C (Ai 1 ) :
Para …nes de ilustración, considere una matriz 2 2 A = faij g y suponga
que a11 = 0: Entonces, A tiene una descomposición LDU. si y solo si a21 =
a12 = 0 esto es, si y solo si A es de la forma
0 0
A= :
0 a22
Cuando A es de esta forma, una descomposición LDU de A es
1 0 0 0 1 u
A=
` 1 0 a22 0 1
Donde ` y u son escalares arbitrarios.
Teorema 14.5.5 Sea A una amtriz n n de rango r que tiene una descom-
posición LDU: Sea L = flij g que representa una matriz unitaria triangular
n n inferior, una matriz U = fuij g n n triangular superior unitaria y
D = fdi g una matriz n n diagonal tal que A = LDU; esto es, tal que
A = LDU es una descomposición LDU de A. (1) La matriz diagoanal D es
única.(2) Supóngase que los i1 ; :::; ir elementos de la diagonal de D (donde
i1 < ::: < ir ) son no cero ( y los elementos restantes de D son cero). En-
tonces para i 2 fi1 ; :::; ir g y j > i; uij y lji son únicos, y para i 2
= fi1 ; :::; ir g y
j > i; uij y lji son complementariamente arbritarios. Esto es, De los elementos
de U por encima de la diagonal, esos en la i1 ; :::; ir — ésima …las son únicos y
aquellos en las restantes …las son completamente arbitrarios; y similarmente,
78CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
Prueba Sea L = lij que representa una matriz unitaria triangular in-
ferior, U = uij triangular superior unitaria , y D = fdi g una matriz
diagonal tal que A = L D U ; así que A = L D U como A = LDU; es
una descomposición LDU de A: Entonces,
1 1 1 1 1 1
L LD = L (LDU)U =L (L D U )U =D U U (5.16)
L11 = L11
y — a la luz de la igualdad (5;7) y la no singularidad de L11 y D1 — que
U11 = U11
Ahora tome A1 una submatriz n r obtenida al sacar todas las columnas
de A excepto las i1 ; :::; ir — ésima columnas, y tome A2 una submatriz r n
obtenida al sacar todas las …las de A excepto las i1 ; :::; ir — ésima …las. Denote
por L2 y L2 las submatrices n r obtenidas al sacar todas las columnas de L
y L ; respectivamente, excepto las i1 ; :::; ir — ésima columnas. Similarmente,
denote por U2 y U2 las sunmatrices r n obtenidas al sacar todas las …las
deU y U ;respectivamente excepto las i1 ; :::; ir — ésima …las. entonces A1 =
LDU1 = L2 D1 U11 y (de hay que D = D y U11 = U11 ) A1 = L D U1 =
L DU1 = L2 D1 U11 = L2 D1 U11 ; implicando que L2 D1 U11 = L2 D1 U11 ; y
por lo tanto (ya que D1 y U11 son no singulares) tenemos que
L2 = L2 (5.19)
Similarmente, A2 = L1 DU = L11 D1 U2 y A2 = L1 D U = L1 DU
= L11 D1 U2 = L11 D1 U2 ; implicando que L11 D1 U2 = L11 D1 U2 de hay
que
U2 = U2 (5.20)
los kj–esimos elementos de U2 y U2 son uik j y uik j respectivamente, y los
jk esimos elementos de L2 y L2 son `jik y `jik respectivamente (k = 1; :::; r
; j = 1; :::; n ):Así,. se sigue de las igualdades (5;9) y (5;10) que, para i 2
fi1 ; :::; ir g y para j = 1; :::; n (y en particular para j = i + 1; :::; n) tenemos
que uij = uij y `ji = `ji :
80CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
L11 0 U11 u D1 0
L= T ;U = ;y D =
` 1 0 1 0 d
[Donde L11 ; U11 y D1 son de dimensiones (n 1) (n 1)] : De acuerdo al
lema 14.5.1, una descomposición LDU; de A11 es A11 = L11 D1 U11 : Así (ya
que A11 es no singular); se sigue del lema 14.3.1 que todos los n 1 de los ele-
mentos de la diadonal de D1 son no cero ó equivalentemente que los primeros
n 1 elemrntos de la diagonal de D son no cero. Basado en el teorema 14.5.5
se concluye que la descomposición LDU es única.
1 1 T 1 T
B=L (LDU) L = L 1A L ;
implicando (a la luz del corolario 14.2.10) que B es de…nida positiva. Así
concluimos (en base al corolario 14.2.13) que d1 ; :::dn son positivos
Note que, como una consecuencia del corolario 14.2.15, tenemos lo opuesto
al corolario 14.5.10. Si una matriz An n tiene una descomposicion UT DU;
digamos A = UT DU y si los elementos de la diagonal de la matriz diagonal
D son positivos, entonces A es de…nida positiva (y simétrica).
A = TT T (5.21)
por otra parte, tomando U como la única matriz triangular superior unitaria
y D = fdi g como la única matriz diagonal tal que A = UT DU;
T = D1=2 U;
p p
Donde D1=2 = diag d1 ; :::; dn :
Prueba. Note que el corolario 14.5.10 garantiza la existencia y unicidad de
la matriz triangular superior unitaria U y la matriz diagonal D y también
garantiza que los elementos de la diagonal de D son positivos. note además
que D1=2 U es triangular superior, y que los elementos de la diagonal de
p p T
D1=2 U son d1 ; :::; dn , y que A = D1=2 U D1=2 U: Así existe una ma-
triz triangular superior T con los elementos de la diagonal positivos tal que
A = TT T: Le sigue para mostrar que sólo hay una matriz triangular superior
con los elementos de la diagonal positivos.
Supóngase que T = ftij g es una matriz triangular superior n n con
los elemntos de la diagonal positivos tal que A = TT T: De…namos D =
diag (t211 ; :::; t2nn ) y
1
U = [diag (t11 ; :::; tnn )] T = diag (1=t11 ; :::; 1=tnn ) T:
Prueba. (del lema 14.5.13) supóngase que que aii = 0 y tomando x = fxk g
que es un vector columna n–dimensional tal que xi < ajj ; xj = aij + aji ;y
xk = 0; para k excepto k = i y k = j (donde j 6= i): Entonces,
UT AU = diag 1; UT2 diag (b11 ; B22 ) diag (1; U2 ) = diag b11 ; UT2 B22 U2 ;
puede ser escogida como una matriz triangular superior unitaria en cada
caso la descomposición A = PT DP es una descomposición UT DU: En el
siguiente corolario (del teorema 14.5.12 ) indica que P puede ser esogida
como una matriz triangular superior unitaria incluso si A es (simetrica)
semide…nida positiva.
A = TT T (5.23)
Además, tomando a U como una matriz triangular superior unitaria y D =
fdi g como la única matriz diagonal talque A = UT DU;
T = D1=2 U (5.24)
p p
Donde D1=2 = diag d1 ; :::; dn
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 87
T = D1=2 U = D1=2 U:
Concluimos que la única matriz triangular superior T con r elementos en la
diagonal positivos y con n r …las nulas talque A = TT T es T = D1=2 U
En alcaso especial donde la matriz simétrica de…nida no negativa A es de…ni-
da positiva, la descomposición (5.13) se simpli…ca a la descomposición (5;11)
y, como en el caso especial la descomposición es llamada la Descomposición
de Cholesky.
88CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
d1 = a11 (5.25)
d1 u1j = a1j ;
X
i 1
di uij = aij `ik dk ukj (i = 2; :::j 1)
k=1
d1 `j1 = aj1;
X
i 1
di `ji = aji uki dk `jk (i = 2; :::j 1)
k=1
j 1
X
dj = ajj ukj dk `jk
k=1
(j = 2; :::; n) :
El primer paso en los n— pasos en el procedimiento para la construcción de
U; L y D consiste en establecer d1 = a11 : El j— ésimo paso (2 j n);
consiste en determinar secuencialmente a uij y `ji para i = 1; :::; j 1; y
entonces determinar [por medio de la formula (5;15)] dj : Si di = 0; entonces
uij y `ji pueden ser escogidas arbitrariamente; por ejemplo escogiendo uij =
`ji = 0: Si di 6= 0; entonces dependiendo si i = 1 ó i > 1; tomemos
uij = aij =di y `ji = aji =di ó
! !
Xi 1 X
i 1
uij = aij `ik dk ukj =di y `ji = aji uki dk `jk =di ;
k=1 k=1
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 89
respectivamente
Hay un procedimiento alternativo de n— pasos para construir U; L y D en
elcual U es formado …la por …la ó más bien columna por columna y L es
formada columna por columna ó …la por …la. El primer paso consiste en
establecer d1 = a11 y, dependiendo si d1 = 0 ó d1 6= 0; escogemos u12 ; :::; u1n
y `21 ; :::; `n1 arbitrariamente ó (para j = 2; :::; n); de…namos u1j = a1j =d1
y `j1 = aj1 =d1 :El i— ésimo paso (2 i n 1); consiste en determinar
[por medio de la formula (5;15)] di :y, dependiendo si di = 0 ó di 6= 0 escoge-
mos ui:i+1 ; :::; ui 1 y `i+1:i ; :::; `ni arbitrariamente ó (para j = i + 1; :::; n )
tomamos.
!
X
i 1 X
i 1
uij = aij `ik dk ukj =di y `ji = aji uki dk `jk =di
k=1 k=1
El paso …nal (n–ésimo) consiste en asignar
X
dn = an ukn dk `nk
Note que (con cualquiera de estos procedimientos )una vez d1 fue determi-
nado, ajj no es necesario (al menos no para construir una descomposición
LDU) similarmente una vez uij haya sido determinada, aij no es requerida
y, una vez `ji haya sido determinada aji no es requirida, esto tambien en
la implementación del proceso en lacomputadora esto puede ser soluciona-
do si tanto dj ; uij y `ji son determinadas, ellas son encontradas previamente
utlizando ajj ; aij y aji respectivamente.
En lo que concierne, fue asumido que A tiene una descomposición LDU; la
no existencia de una descomposición LDU puede (al menos en un principio
es determinado durante el curso del proceso incorporando siertas pruebas, si
d1 = 0; entonces — antes de la asignación de valores a u1j y `j1 — deberiamos
probar si a1j =0 y aj1 =0; similarmente si di = 0 (2 i n 1); entonces
— antes de la asignación de valores a uij y `ji — deberiamos probar que si
X
i 1 X
i 1
aji `ik dk `kj = 0 y aji uki dk `jk = 0
k=1 k=1
ó equivalentemente
X
i 1 X
i 1
aji = `ik dk `kj y aji = uki dk `jk
k=1 k=1
90CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
= 0 si tii = 0 (5.30)
(i = 2; 3::::; j 1),
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 91
!1=2
X
i 1
tjj = aij t2kj (5.31)
k=1
(j = 2; 3; :::; n)
En el método de la raíz cuadrada, T es construido …la por …la ó columna
por columna en n pasos, una …la ó columna por paso. por ejemplo, el primer
paso de la versión …la por …la consiste en la determinación de t11 ; t12 ; :::; t1n ;
[por medio de las formulas (5.16) y (5.17)] el paso i ésimo (2 i n 1)
consiste en la determinación de tii ; ti;i+1 ; :::; tin por medio de las formulas
(5.19) y (5.18) ; y el paso …nal (n ésimo) consiste en la determinación de
tnn por de la formula (5.19).
Si hay incertidumbre acerca de si A es de…nida no negativa, entonces, en
la aplicación del método de la raíz cuadrada a A. Varias modi…caciones
deben ser incorporadas. Debemos (determinar previamente a t11 ) ensayando
si a11 0; y si a11 = 0, debemos (de…nir a t1j = 0 ) ensayando si a ii –
Xi 1 X
t2ki 0, y si a ii – t2ki = 0, debemos (de…nir a tij = 0) ensayando
k=1 X
si aij tki tkj = 0. Finalmente, debemos ( determinar a tnn ) ensayando
X
si ann t2kn 0.
Si el resultado de algún ensayo es negativo, se sigue del teorema 14.5.4 y
14.5.16 que en cualquiera de los casos, A no tiene una descomposición
UT DU ó para una descomposición (de A), expresar A = UT DU, uno ó
más de los elementos de la diagonal de la matriz diagonal D son negativos.
Asi, si el resultado de algún ensayo es negativo terminamos el método de
la raíz cuadrada procediendo y concluyendo (en base al corolario 4.5.15) que
A no es de…nida no negativa. Si el resultado de cada ensayo es positivo,
entonces A es no negativa, y el procedimiento es llevado a la terminación y
producción de la descomposición de Cholesky.
Supóngase, por ejemplo que
0 1
4 2 2
A= @ 2 1 1 A
2 1 10
Si aplicamos el método de la raíz cuadrada (de la p
versión …nal …la por …la).
Observando que a11 > 0, encontramos que t11 = 2 4 = 2; t12 = 2=2 = 1 y
t13 = 2=2 = 1. Adicionalmente, sobre la observación de que a22 t212 = 0,
92CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
encontramos que t22 = 0, y después observando que a23 t12 t13X = 0, vemos
que t23 = 0. Finalmente, acerca de la observación de que a33 t2k3 = 9,
p
encontramos que t33 = 2 9 = 3. Así concluimos que A es no negativa puesto
que t22 = 0, esta es semide…nida positiva y la descomposición de Cholesky
de A es:
0 1T 0 1
2 1 1 2 1 1
A= @ 0 0 0 A @ 0 0 0 A
0 0 3 0 0 3
Note que si a23 = a32 hubieran sido igualadas a otro número diferente de 1
se hubiera dado el caso de que a23 t12 t13 6= 0; y A no hubiera sido de…nida
no negativa. O, si el valor de a 22 hubiera sido más pequeño que uno, se habría
tenido el caso de que a22 t212 < 0, y A no habría sido de…nida no negativa.
G = U 1D L 1
(5.32)
es una inversa generalizada de A y que una elección para D es la matriz
diagonal obtenida al reemplazar los elementos no cero de la diagonal D por
sus respectivos inversos multiplicativos. Así que, un camino para la obtención
de una inversa generalizada de A es obtener la descomposición LDU de A
y entonces aplicar la formula (5.32). Nótese que en el caso especial L = UT ,
la formula (5.32) se convierte en
1 T
G = U 1D U . (5.33)
Supóngase ahora que A es una matriz n n de…nida no negativa con rango r,
entonces podemos obtener una inversa generalizada de A en términos de la
descomposición UT DU usando la formula (5.33). Podemos también obtener
una inversa generalizada de A directamente en términos de la descomposición
de Cholesky. Sea A = TT T que representa la descomposición de Cholesky
de A, por de…nición, T es una matriz triangular superior con r elementos
5.5. DESCOMPOSICIONES LDU, UT DU Y DE CHOLESKY 93
Lema 14.6.3 Una matriz A n n es seudo simétrica si y solo si, para cada
vector columna x n-dimensional, xT Ax = 0.
Hay una relación entre la seudo simétrica y las de…niciones de no negatividad,
las cuales son descritas en el siguiente lema.
(BAB)T = BAB
5.6. TRAZA DE UNA MATRIZ DEFINIDA NO NEGATIVA 97
BAB = 0 (5.37)
QB = 0 (5.38)
Por otra parte, dado que QT es de rango columna completo, se sigue del lema
8.3.1 que la condición (7.5) es equivalente a la condición
QT QB = QT 0
T U
A=
V W
Donde T es una matriz m m (cuadrada), W es una matriz n n (cuadrada),
U de dimensiones m n y V de dimensiones n m, ó consideremos una
partición de la matriz B de la forma
W V
B=
U T
Supóngase que T es no singular. Entonces la formula (13.3.13) puede ser
usada para expresar jAj ó jBj en términos de el determinante de T y el
determinante de el complemento de Schur W VT 1 de T, y la formula
(8.5.15) puede ser usada para expresar rk(A) ó rk(B) en términos del orden
m de T y del rango de el complemento de Schur de T. Supóngase adicional-
mente que A ó B es no singular. Entonces, la formula (8.5.15) ó (8.5.16)
pueden ser usadas para expresar A 1 ó B 1 en términos de la inversa de T
y la inversa de el complemento de Schur de T.
Es A ó B no singular (y T no singular) si A ó B es de…nida no negativa ?
Si A ó B es de…nida positiva, entonces es claro por el lema 14.2.8 que A ó
B, respectivamente, es no singular y del corolario 14.2.12 T es no singular.
Si A ó B es una matriz simétrica semide…nida positiva, entonces es claro por
el corolario 14.3.12 que A ó B, respectivamente, es singular. Si A ó B es
una matriz no simétrica semide…nida positiva , es singular, entonces A ó B,
respectivamente, puede o no puede ser no singular. Además, igual si A ó B
es una matriz no singular semide…nida positiva, T puede ser singular.
Supóngase ahora que T es posiblemente singular si C(U) C(T) y R(V)
R(T) entonces la formula (9.6.2) ó (9.6.3) dan una inversa generalizada de
A ó B, respectivamente, en términos de una inversa generalizada arbitraria
T de T y una inversa generalizada arbitraria de el complemento de Schur
5.7. PARTICIÓN DE MATRICES DEFINIDAS NO NEGATIVAS 99
T U
A=
V W
donde T (y por lo tanto W) son cuadradas.Entonces existen R y S matrices
tales que
T = RT R; U = RT S; V = ST R; W = ST S:
Prueba.De acuerdo con el corolario 14.3.8 existe una matriz X tal que A =
XT X.Particionando X como X = (R; S) (donde R tiene igual número de
columnas que T). Entonces,
RT RT R R T S
A = XT X = (R; S) =
ST ST R ST S
De allí que RT R, RT S, ST R y ST S son de igual dimensión que T, U, V y
W, respectivamente, T = RT R; U = RT S; V = ST R y W = ST S.
T U
A= ;
V W
donde T ( y por supuesto W) son cuadradas. Entonces C(U) C(T) y
F(V) F(T). Similarmente, C(V) C(W) y F(U) F(W).
T = RT R; U = RT S; V = ST R; W = ST :
100CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
Así que, haciendo uso del corolario 4.2.3 y 7.4.5, encontramos que:
A = diag(A1 ; A2 ; :::; Ak ):
Entonces,(1) A es de…nida no ngativa si y solo si A1 ; A2 ; :::; Ak son de…nidas
no negativas; (2) A es de…nida positiva si y solo si A1 ; A2 ; :::; Ak son de…nidas
positivas; (3) A es semide…nida positiva si y solo si el bloque diagonal
A1 ; A2 ; :::; Ak son de…nidas no negativas con al menos uno del bloque diag-
onal semide…nido positivo.
T U
A=
V W
donde T es de dimensiones m m, U de dimensiones m n, V de dimensiones
n m y W de dimensiones n n.
(1) Si A es de…nida positiva, entonces el complemento de Schur W VT 1 U
de T y el complemento de Schur T UW 1 V de W son de…nidos positivos.
(2) Si A es simétrica semide…da positiva, entonces el complemento de Schur
W VT U de T y el complemento de Schur T UW V de W son
de…nidos no negativos.
102CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
Im T U
P=
0 In
De acuerdo al lema 8.5.2, P es no singular. Adicionalmente,
T I TT U
PT AP = T
V (T U) T Q
donde Q = W VT U (T U)T (I TT ) U.
Supóngase que A es de…nida positiva. Entonces de acuerdo con el corolario
14.2.10, PT AP es de…nida positiva. Así que, se sigue del corolario 14.2.12 que
Q es de…nido positivo. Una implicación adicional del corolario 14.2.12 es que
T es de…nida positiva y por lo tanto no singular, así que Q = W VT 1 U.
Concluimos que si A es de…nida positiva, entonces el complemento de Schur
de T es de…nido positivo.
Supóngase ahora que A es semide…nida positiva. Entonces de acuerdo con
el corolario 14.2.10, PT AP es semide…nida positiva. Así que se sigue del
corolario 14.2.12 que Q es de…nida no negativa.Si C(U) C(T) –el cual (a
la luz del corolario 14.8.2) debía ser el caso si A era simétrica - entonces ( de
acuerdo al lema 9.3.5) (I TT )U = 0, y por lo tanto Q = W VT U.
Concluimos que si A es simétrica semide…nida positiva, ó más generalmente,
si A es semide…nida positiva y C(U) C(T) , entonces el complemento de
Schur de T es de…nido no negativo.
Que el complemento de Schur de T es de de…nido no negativo si A es semi-
de…nida positivo y F(V) F(T) puede ser establecido en un argumento
similar
5.7. PARTICIÓN DE MATRICES DEFINIDAS NO NEGATIVAS 103
T U
A=
UT W
donde T es de dimensiones m m, de dimensiones m n y W de dimensiones
n n.
Im T U
P=
0 In
De acuerdo al lema 8.5.2, P es no singular.
PT AP = diag T; W UT T U
como puede ser veri…cado fácilmente utilizando el lema 9.3.5, ó equivalente-
mente
T U
A=
UT W
(donde T y W son cuadradas). Entonces, A es de…nida positiva si y solo
si T y el complemento de Schur W UT T 1 U de T son ambas de…nidas
positivas. Similarmente, A es de…nida positiva si y solo W y el complemento
de Schur T UW 1 UT de W son ambos de…nidos positivos.
0 c
A=
c 0
para algún escalar c, luego
det(A) = c2 0.
Suponga ahora que el determinante de toda matriz antisimétrica (n 2)
(n 2) es mayor o igual a cero, donde n es un número par arbitrario (mayor o
106CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
B11 B12
B= ,
B21 B22
De modo que B22 B21 B111 B12 , que tiene tamaño (n 2) (n 2), es
antisimetrica. Así, por hipótesis inductiva,
B11 B12
B= ,
B21 B22
Así,
det(A) = det(B) = amm det(B22 B21 B111 B12 ) 0.
Que una matriz simétrica sea de…nida positiva puede ser averiguado desde los
determinantes de su cabecera principal de submatrices, el siguiente teorema
nos da las bases para hacer eso.
A a
A= ;
aT c
Donde la dimensión de A son (n 1) (n 1): Entonces, A es de…nida
positiva si y sólo si A es de…nida positiva y det(A) > 0
5.8. ALGUNOS RESULTADOS SOBRE DETERMINANTES 109
det(A) = det(A ) (c aT A 1 a)
por consiguiente (de acuerdo la lema 14.9.1) det(A ) > 0 (y de ahí det(A) >
0), concluimos que el complemento Schur c aT A 1 a de A (como A misma)
es de…nida positiva y de ahí, [de acuerdo a la aparte (1) del teorema 14.8.5]
que A es de…nida positiva.
Ak 1 ak
Ak =
aTk akk
Donde ak = (a1k ; a2k ; :::; ak 1;k )T . De ahí Ak 1 es (por suposición )de…nida
positiva( y de ahí jAk j > 0), se sigue del lema 14.9.6 que Ak es de…nida pos-
itiva. Concluimos, en base del argumento de inducción, que A1 ; A2 ; : : : ; An
son de…nidos positivos y que A en particular es de…nida positiva.
B a
A= ;
aT c
donde la dimensión de B es (n 1) (n 1). Entonces, B es no singular ó B
contiene una submatriz principal no singular (n 2) (n 2). Además , si B
es singular y B es cualquiera submatriz principal no singular (n 2) (n 2)
de B, entonces, jB jjAj < 0(i:e:; jB j y jAj son de signos opuestos).
rk(B) = n 2
B UT Bu
UT BU = T
u BU uT Bu
U 0
P= :
0T 1
Entonces, P es una matriz de permutación, y
0 1
T T B UT Bu UT a
U BU U a @
T
P AP = = u BUT
uT Bu uT a A :
aT U c
aT U aT u c
Asi haciendo uso del teorema 13.3.8 encontramos que
f11 = uT Bu uT BU B 1 UT Bu;
f12 = uT a uT BU B 1 UT a;
f22 = c aT U B 1 UT a:
Adicionalmente,
2
jAj = f12 jB j:
Concluimos que jB j y jAj son de signos opuestos.
B a
A=
aT c
donde la dimensión de B es (n 1) (n 1): observe que toda submatriz
principal de B es una submatriz principal de A y por lo tanto toda submatriz
principal de B tiene un determinante no negativo. Observe también que B es
no singular [ de ahi si B era singular, B podria (de acuerdo al teorema 14.9.8)
contener una submatriz principal (n 2) (n 2) cuyo determinante podría
ser en signo, opuesto a j A j, y de ahi negativo]. y por nuestra supocisión B
es de…nida positiva.
Concluimos (en base al lema 14.9.5) que A es de…nida positiva.
A B12
B=
BT12 B22
donde B12 = PT1 AP2 y B22 = PT2 AP2 , de ahi, rk(B) = rk(A) = r; se sigue
del lema 9.2.2 que B22 = BT12 A 1 B12 , asi:
A = PBPT = QT A Q ,
donde, Q = (Ir ; A 1 B12 )PT :
Además, rk(Q) rk(A) = r, y (por lo tanto Q es de dimensión r n )
rk(Q) r: Así, rk(Q) = r.
5.9. Ejercicios
Sección 14.1
1) Demostrar q ue una forma bilineal simetrica XT Ay (en los vectores
X y y n -dimensional) puede ser expresado en terminos de la
correspondiente forma cuadratica, que es la forma cuadratica cuya matriz es
A entonces veri…que que :
XT Ay = 1=2(x + y)T A(X + y) XT AX yT Ay
2) Demostrar que para cualquier forma cuadratica XT AX(en el vector X
n- dimensional)existe una unica matriz triangular superior B tal que XT AX
5.9. EJERCICIOS 115
Sección 14.4
14. Demostrar que si A es una matriz A que tiene una inversa generalizada
no negativa, entonces A es no negativa
Seccion14.5
15. Suponga una matriz A que tiene se descompone de la forma LDU es
decir A=LDU, Y sea d1, d2 ;....,dn que representan los elementos de la diagonal
de la matriz diagonal D , demostrar que jAj =d1 d2 ....dn
16. (a) Suponga que la matiz A n*n (con n 2) tiene una única descomposi-
ción LDU , es decir A= LDU y sea d1, d2 ;....,dn El primero, segundo,. . . . . . . . . ,
5.9. EJERCICIOS 117
y que
8 9
>
> X
n
>
>
>
< giklik ; para j<i >
>
>
=
k=i+1
gij= X
n
>
> >
>
>
: uik gkj , para j>i >
>
>
;
k=i+1
5.9. EJERCICIOS 119
X
n X
n
Donde las sumas generadas giklik y uik gkj Son interpretadas como
k=n+1 k=i+1
0.
c) idear un procedimiento recursivo que use las formulas de la parte (b)
que genere una inversa generalizada de A.
Sección 14.6
26. veri…car que la submatriz principal de una matriz semi-simètrica, es
semi-simetrica
27. a) demostrar que la suma de matrices semi-simètrica es semi-simetrica.
b) demostrar que la suma A1 +A2 +,...,+AK de las matrices n*n A1 ,A2 ,. . . ,AK
es semi-simetrica si y solo si A1 ,A2 ,. . . ,AK son semi-simétricas.
c) demostrar que la suma A1 +A2 +,. . . ,+AK de las matrices n*n simétricas
A1 , A2 ,. . . , AK es una matriz nula si y solo si A1 ,A2 ,. . . ,AK son matrices
nulas.
Sección 14.7
X k
28. a) sea A1 , A2 ,..., AK matrices n*n no negativas. Demostrar que tr( Ai )
i=1
X
k
= 0 mantiene la igualdad si y solo si Ai Es semi-simetrica o equivalen-
i=1
temente si y solo si A1 , A2 ,..., AK son semi-simétricas de este modo gen-
Xk
eralizamos el teorema 14.7.2 ( nota: que sea Ai semi-simetrica o
i=1
equivalentemente para A1 , A2 ,..., AK sea semi-simetrica , es el resultado de
la parte b del ejercicio 27)
b)sea A1 , A2 ,..., AK matrices n*n no negativas simetricas. demostrar que
Xk X
k
tr( Ai ) = 0 mantiene la igualdad si y solo si Ai =0 o equivalentemente
i=1 i=1
,si y solo si A1 , A2 ,..., AK son matrices nulas , en relacion con la generalizacion
del corolario 14.7.3
29. Demostrar mediante un ejemplo que existen matrices positivas n*n
(para n>1 ) A y B (no simétricas) tal que tr(AB)>0.
30. a) demostrar con un ejemplo que existen matrices simétricas n*n (para
n >1) A y B positivas tal que, el producto AB tenga uno o mas elementos
negativos en la diagonal (y de aquí se tiene que AB es no negativa)
b) demostrar, sin embargo que el producto de dos matrices simétricas
positivas n*n no pueden ser positivas.
120CAPÍTULO 5. FORMAS LINEALES, BILINIALES Y CUADRÁTICAS
31. Sea A = aij y B = bij matrices n*n , y sea C una matriz n*n cuyos
ij-esimo elemento cij = aij bij , es el producto del ij-esimo elemento de A
y B. demostrar que si A es no negativa y b es no negativa y simétrica ,
entonces C es no negativa. Demostrar además que si A es positiva y B es
simétrica y positiva , entonces C es positiva ( nota: tome x = (x1 ; :::; xn )T
un vector cualquiera n*1 y F=(f1 ; ::::;fn ) una matriz tal que B = F T F ,
comience demostrando que xT Cx = tr(AH), dondeH = GT G con G =
(x1 f1 ; ::::; xn fn ):
32. sea A1 ; A2 ; :::; AK y B1 ; B2 : : : : ; Bk matrices simétricas no negativas
n*n. demostrar que. . . . . . . . . . Mantiene la igualdad si y solo si Ai Bi =0 para
i=1,.., k en relación con el corolario 14.7.7 y el resultado de la parte b del
ejercicio 28.
Sección 14.8
33. sea A una matriz simétrica no negativa que fue particionada como:
T U
A=
V W
Donde T (y por lo tanto W) es cuadrada. Demostrar que VT 1 U y
UW 1 V son simétricas y no negativas
34. demostrar mediante un ejemplo que existe una matriz A (m+n) (m+n)
T U
semide…nida positiva (no simétrica) de la forma A= , donde T es
V W
una matriz de dimensión m*m, W de dimensión n*n, U de dimensión m*n y
V de dimensión n*m , por lo cual C(U) C(T) y/o (v) (T), la expresión
(9.6.1) no necesariamente es igual al rango(A) [ rango(T) +rango(W-VT 1 U)
no es necesariamente igual al rango(A)], y la formula (9.6.2), no necesaria-
mente da una inversa generalizada de A.
35. Demuestre mediante un ejemplo que existe una matriz A (m+n)*(m+n)
T U
simétrica particionada de la forma A= , donde T es una matriz
UT W
de dimensión m*m, u de dimension m*n, W de dimensión n*n, tal que T es
de…nida no negativa (dependiendo de la elección de T ) el complemento de
schur W-UT T U de T relativo a T es de…nida no negativa , pero A es no
es de…nida no negativa.
36. una matriz A={aij } n*n y se llama dominante diagonalmente si
i=1,2. . . . n jaij j> j=1(j i) jaij j ( en el caso especial n=1, A es llamado domi-
nante diagonalmente si este es no nulo).
a) demostrar que la principal submatriz de una matriz diagonalmente
5.9. EJERCICIOS 121
Diferenciación de matrices
125
126 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
6.1. Preliminares
Sea f una función cuyo dominio es un conjunto S de Rm . Entonces f es
continua en un punto interior c de S si
Por de…nición, lim f (x) = f (c) es un escalar b tal que, para todo escalar
x!c
positivo e, existe una vecindad Ne de c tal que jf (x) bj < e para todo x en
Ne distintos de c. Una matriz F p x q de funciones, donde cada dominio de
esta, está en el mismo conjunto S de Rm 1 , diremos que esta es continua en
un punto interior c de S, si todos los elementos pq de F son continuos en c.
es el vector …la (D1 f (c); : : : ; Dm f (c)) cuyos elementos son los valores de las
funciones D1 f; : : : ; Dm f de c - note que Df (c) es de…nida únicamente, si c
es tal que todas las m derivadas parciales de f , existen c. el vector columna
(Df )’hace referencia al gradiente (ó vector gradiente) de f .
Una notación alternativa se obtiene escribiendo @f (x)=@xj para la j
esima derivada parcial de f en x, escribiendo @f (x)=@x0 para el vector
…la [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de derivadas parciales de f en x, y escri-
biendo @f (x)=@x para el vector columna [@f (x)/@x1 , . . . ,@f (x)=@xm ]0 de
derivadas parciales de f en x, en este contexto @f (x)=@x0 puede ser llamada
la derivada f (x) con respecto a x0 , y @f =@x puede ser llamada la derivada
de f (x) con respecto a x. Los símbolos @f (x)=@xj , @f (x)=@x0 , @f (x)=@x
tienen la mismas interpretaciones como Dj f (x); Df (x),y [Df (x)]0 , respecti-
vamente y son algunas veces abreviadas a @f / @xj , @f / @x0 , y @f / @x:
En ciertas ocasiones (para ser acertados dentro del contexto), estos símbolos
pueden ser usados para representar la función Dj f y los verctores de fun-
ciones Df y (Df )0 (más que sus valores en x.) La función f (con dominio
S en Rm 1 ) será continuamente diferenciable en el punto interior c de S , sí
D1 f (x); : : : ; Dm f (x) existen y son continuas para todo punto x en alguna
vecindad de c. Y se puede demostrar, que si f es continua y diferenciable en
c entonces.
Aproxima a f (x) con un error que es de orden mas pequeño que jjx cjj2 (e.g.,
Magnus and Neudecker, 1988, sec. 6.9).
Las derivadas parciales de f de orden k (donde k 2) puede ser de…nida
recursivamente. Suponga que el (k 1) esimo orden de la derivada parcial
de f en x, existe para todo x en alguna vecindad de c. para j = 1; : : : ; k,
sea i; j que representa un entero arbitrario entre 1 y m inclusive, cuando la
i1 esima derivada parcial de la i2 : : : ik esima del (k 1) esimo orden
de la derivada parcial de f en c existe es llamado el i1 i2 : : : ik esimo del
k esimo orden de la derivada parcial de f en c. La función cuyo valor en c
es el i1 i2 : : : ik esimo orden de la derivada parcial de f en c se re…ere como
el i1 i2 : : : ik del k esimo orden de la derivada parcial de f .
El símbolo @ 2 f (x)=@xi ; :::; @xik (o en forma abreviada @ 2 f =@xi ; :::; @xik )
puede ser usado para representar a la i1 ; : : : ; ik esima derivada parcial del
k esimo orden de f en x.
La función f puede ser k veces continuamente diferenciable en c si f y todas
sus primeras derivadas parciales del (k 1) esimo orden son continua-
mente diferenciables en c ó, equivalentemente si todas las primeras derivadas
parciales del k esimo orden de f existen y son continuas en todo pun-
to en alguna vecindad de c, se puede demostrar que si f es k veces con-
tinua diferenciable en c, entonces para cualquier permutación j1 ; : : : ; jk de
la secuencia i1 ; : : : ; ik , la ( j1 ; : : : ; jk y i1 ; : : : ; ik ) esima derivadas par-
ciales del k esimo orden de f son idénticas y, denotando i1 ; : : : ; is (i1 <
::: < is ) los distintos enteros representados entre i1 ; : : : ; ik y denotando por
Kj el número de enteros en la secuencia i1 ; : : : ; ik igual para ij , esto se
puede escribir @ k f (x)=@xki11 ; :::; @xkiss (o simplemente @ k f =@xki11 ; :::; @xkiss ) para
@ k f (x)=@xi1 ; :::; @xik .Se puede demostrar que si f es k veces continuamente
diferenciable en c, entonces, para x su…cientemente cerrada a c. Entonces la
130 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
` = af + bg; h = f g; y r = f =g;
Tal que ` y h son funciones, cuyo dominio es S, y r es una función cuyo
dominio es S = fx 2 S : g(x) 6= 0g: Si f y g son continuamente diferencia-
bles en un punto interior c de S, entonces ` y h también son continuamente
diferenciables en c, y
y
Dj h(c) = f (c)Dj g(c) + g(c)Dj f (c): (6.4)
y, si f y g son continuamente diferenciables en un punto interior c de S ,
entonces r también es continuamente diferenciable en c, y
@(af + bg) @f @g
=a +b ; (6.6)
@xj @xj @xj
@f g @g @f
=f +g ; (6.7)
@xj @xj @xj
y
@(f =g) @f dg
= [g f ]=g 2 : (6.8)
@xj @xj @xj
Casos especiales de la formula (2.4) incluyen:
@(1=g) @g
= (1=g 2 ) : (6.10)
@xj @xj
Los resultados .....pueden ser extendidos (por aplicación repetida) a una
combinación lineal o a un producto de un numero arbitrario de funciones.
Sean f1 ; :::; fk k funciones, de…nidas en un conjunto S, de un vector x =
(x1 ; :::; xm )0 de m variables, y sean a1 ; a2 ; :::; ak constantes o (mas generalem-
nte) funciones (de…nidas en S) continuas en cada punto de S y son tal que
a1 (x); a2 (x); :::; ak (x) no varia con xj :De…ne
` = a1 f1 + a2 f2 + ::: + fk ak y h = f1 ; f2 ; :::; fk
6.3. DIFERENCIACIÓN DE FUNCIONES 135
X
k
Q
Dj h(c) = [ fs (c)]Dj fi (c) (6.12)
i=1 s6=i
@(f =g) @f @g
= g 2 [g f ] (6.15)
@x @x @x
y
!
@(f1 ; f2 ; :::; fk ) X Y
k
@fi
= fs (6.16)
@x i=1 s6=i
@x
Similarmente, la formula... puede (en el caso especial donde a1 ; a2 ; :::; ak son
costantes ) reescribirse como:
@f k @f
= kf k 1
: (6.18)
@xj @xj
Claramente
@xj
= 1;
@xj
tenemos en particular [tomando f (x) = xkj ] que:
@xkj
= k xkj 1
(6.19)
@xj
A la luz del lemma 15.2.1 y de los resultados (2.17) y (2.7) tenemos que
@xi 1; si i = j;
=
@xj 0; si i 6= j;
y que
8
> 2xj ;
> si i = k = j;
@(xi xj ) < xi ; si k = j pero i 6= j;
=
xj >
> xk ; si i = j pero k 6= j;
:
0; de otro modo (i.e., si i 6= j y k 6= j)
P
@(a0 x) @( i ai xi ) X @xi
= = ai = aj (6.20)
@xj @xj i
@xj
y
@(a0 x)
@xj
P
@( i;k aik xi xk )
=
@xj
P P P
@(ajj x2j + i6=j aij xi xj + k6=j ajk xj xk + i6=j;k6=j aik xi xk )
=
@xj
X X
= 2ajj xj + aij xi + ajk xi + 0
i6=j k6=j
X X
= aij xi + ajk xk : (6.21)
i k
@(a0 x)
=a (6.22)
@x
o alternativamente como:
@(a0 x)
= a0 (6.23)
@x0
y el resultado (3.4) se puede modi…ca a la notación matricial como:
@(x0 Ax)
= (A + A0 )x; (6.24)
@x
P
Como es evidente observar
P sobre que k ajk xk es el j esimo elemento del
0
vector columna Ax y i aij xi es el j esimo de A x. La sj esima derivada
138 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@ 2 (x0 Ax)
= A + A0 : (6.26)
@x
Note que todas las derivadas parciales de a0 x de orden superior a uno son cero,
y que todas las derivadas parciales x0 Ax de orden superior a dos son cero.
Note también que, en el caso especial donde A es simétrica los resultados ...
y ... se simpli…can a:
@(Bx)
= B; (6.27)
@x0
y la derivada parcial de (Bx)0 con respecto a x (La cual es la matriz gradiente
de Bx) es:
@(Bx)0
= B0 : (6.28)
@x
Note que, en el caso especial donde B = Im , Los resultados ... y .... se reducen
a:
@x @x0
= = Im : (6.29)
@x0 @x
6.5. DIFERENCIACIÓN DE SUMAS DE MATRICES, PRODUCTOS, Y TRASPUESTAS139
@(aF + bG) @F @G
=a +b : (6.30)
@xj @xj @xj
Sea L=aF + bG: El is esimo elemento de L es
Lemma 1
@L @F @G
=a +b :
@xj @xj @xj
@FG @G @F
=F + G: (6.32)
@xj @xj @xj
podemos
Pq concluir que PqH es continuamente diferenciable en c y [ ya que
f
s=1 is (@g st =@x j ) y s=1 (@fis =@xj )gst están en el it elemento de F(@G=@xj )
y (@F=@xj )G, respectivamente] que ( en x = c)
6.5. DIFERENCIACIÓN DE SUMAS DE MATRICES, PRODUCTOS, Y TRASPUESTAS141
@FG
= F(@G=@xj ) + (@F=@xj )G:
@xj
en especial el caso donde (x 2 S) F(x) es constante o (más general) no varia
con respecto a xj , fórmula (4.3) simpli…cando nos queda:
@FG
= F(@G=@xj ): (6.33)
@xj
y en especial el caso donde (x 2 S) G(x) es constante o (mas general) no
varia con respecto a xj , formula (4.3) simpli…cando nos queda:
@FG
= (@F=@xj )G: (6.34)
@xj
los resultados del Lemma15.4.3 puede ser extendido (repitiendo varias veces
la aplicación) al producto de 3 o mas matrices.sea F,G y H de p q; q r
y r v matrices de funciones, de…nidas sobre un conjunto S de vectores
0
x =(x1 ; :::; xm ) de m-variables.entonces para algún punto interior (de S) en
el cual F,G y H son continuamente diferenciables,FGH tambien lo son y:
@FGH @H @G @F
= FG +F H+ GH: (6.35)
@xj @xj @xj @xj
en especial el caso donde (x 2 S) F(x) y H(X) son constante o (mas general)
no varia con respecto a xj , formula (4.6) simpli…cando nos queda:
@FGH @G
=F H: (6.36)
@xj @xj
más general sea F1 ; F2 ,...,Fk matrices de funciones de…nidas sobre un con-
0
junto S de vectores x = (x1 ; :::; xm ) de m-variables. entonces algún punto
interior (de S) en la cual F1 ; F2 ; :::; Fk son continuamente diferenciables,
F1 F 2 Fk también lo son y
@(F1 F2 Fk ) @Fk @Fk 1
= F1 Fk 1 @xj + F1 Fk 2 @xj Fk
@xj
(6.37)
@F1
+ + F
@xj 2
Fk
0
S de vectores x = (x1 ; :::; xm ) de m-variables. y si F de p q matriz de
funciones (de…nidas sobre S) de x entonces un punto interior (de S) en el
cual g y F son continuamente diferenciables, gF tambièn lo es y
@(gF) @g @F
= F+g : (6.38)
@xj @xj @xj
Es claro que por el Lema 15.4.3 podemos tomar G = gI. Nótese también que
si F es una matriz de funciones de p q, de…nidas sobre el conjunto S de
0
vectores x = (x1 ; :::; xm ) de m-variables, entonces en algún punto interior en
el cual F es continuamente diferenciable, F0 es continuamente diferenciable
y
0
@F0 @F
= : (6.39)
@xj @xj
@xst 1; si s = i y t = j
=
@xij 0; en otra parte
@xst 1; si s = t = i
=
@xii 0; en otra parte
y para j < i o (j > i) obtenemos:
@xst 1; si s = i y t = j o si s = j y t = i
=
@xij 0; en otra parte
o en notación matricial:
@X
= ui u0i (6.42)
@xii
y para j < i o j > i se tiene:
@X
= ui u0j : + uj u0i : (6.43)
@xij
@tr (F) @F
= tr : (6.44)
@xj @xj
Podemos ver que tr(F) = f11 + f22 + + fpp [en el cual se puede observar
que tr(F) es continuamente diferenciable en c] y que (en x = c)
144 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@G @G @F @F
tr F = tr F y tr G = tr G :
@xj @xj @xj @xj
Ahora consideremos un caso especial del resultado (6.2). Tomando X = fxst g
como una matriz m n de variables independientes, y supóngase que el rango
de X comprende todo Rm n . De…namos A = fats g una matriz de constantes
n m, y sea uj la j-ésima columna de la matriz identidad (de dimensiones
no especi…cadas). Entonces,
@X
tr A = tr(Aui u0j ) = tr(u0i Auj ) = u0j Aui = aji
@xij
El resultado (6.4) se puede reescribir como
@X
tr A = tr(Aui u0i ) = u0i Aui = aii
@xii
y para j < i
@X
tr A = tr(Aui u0j ) + tr (Auj u0i ) = u0j Aui + u0i Auj = aji + aij :
@xij
El resultado (6.6) se puede rescribir como
@tr(AX) @tr(XA)
= = A + A0 diag(a11 ; a22 ; :::; amm ): (6.49)
@X @X
Nótese que sin tener en cuenta si X
/ es no-restringida (pero cuadrada) o
simétrica, tenemos que
@tr(X) 1, si j = i
=
@xij 0, si j =
6 i
146 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
o equivalentemente,
@tr(X)
= I,
@X
Como es evidente, se pueden obtener los resultados (6.4) - (6.7), tomando
A = I.
X
n
Dj f (c) = Di g [h(c)] Dj hi (c)= Dg [h(c)] Dj h(c): (6.50)
i=1
@f X @g @hi
n
@g @h
= = 0 @x
, (6.51)
@xj i=1
@y i @x j @y j
@g @g
Donde @yi
y @y 0 se interpretan siendo evaluadas en y = h(x).
X
n
Df (c) = Di g [h(c)] Dhi (c) = Dg [h(c)] Dh(c): (6.52)
i=1
6.8. REGLA DE LA CADENA 147
@f X @g @hi
n
@g @h
0
= 0
= 0 @x0
. (6.53)
@x i=1
@y i @x @y
El resultado del teorema 15.7.1 se puede generalizar tomando g = fgs g un
vector p 1 de funciones de y (de…nida sobre T) y f = ffs g un vector p 1 de
funciones compuestas de…nida (sobre S), fs (x) = gs [h(x)], (para s = 1; :::; p)
o equivalentemente, f (x) = g[h(x)]. Si (en un contexto más general) h es
continuamente diferenciable en un punto interior c de S y g es continuamente
diferenciable en h(c), entonces f es continuamente diferenciable en c y
X
n
Dj f (c) = Di g [h(c)] Dj hi (c) = Dg [h(c)] Dj h(c): (6.54)
i=1
o equivalentemente,
@f X @g @hi
n
@g @h
= = 0 @x
. (6.55)
@xj i=1
@y i @x j @y j
@g @g
[Donde @y i
y @y 0 son interpretadas siendo evaluadas en y = h(x)]. Las fór-
@f X @g @hi
n
@g @h
= = , (6.57)
@x0 i=1
@y i @x0 @y 0 @x0
@f X X @g @his
n r
= : (6.58)
@xj i=1 s=1
@yis @xj
@det(X)
= ij . (6.60)
@xij
Para ver esto, arreglemos los elementos de X en forma de un vector colum-
na x de m2 dimensiones, y f como una función de x. Como cada elemento
de X es una función continuamente diferenciable de x, (de acuerdo al lema
15.2.2) luego la suma y el producto de dichas funciones también son contin-
uamente diferenciables, de la de…nición de determinante se sigue [dada por
la expresión (13.1.2)] que f es continuamente
Pm diferenciable. Más aún, expan-
diendo det(X) como det(X)= t=1 xit it [en concordancia con el resultado
(13.5.1)], observemos que i1 ; :::; im no varía con respecto a xij y recalcando
el resultado (5.2), encontramos que
6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR
@det(X) X
m
@xit
= it = ij : (6.61)
@xij t=1
@xij
@det(X)
= [adj(X)]0 : (6.62)
@X
Ahora extendamos los resultados de la diferenciación del determinante de una
matriz F = ffis g de p p de funciones de…nidas sobre un conjunto S de un
0
vector x = (x1 ; :::; xm ) de m-variables. Así, la función a ser diferenciada es la
función h de x de…nida sobre S por h(x) = det[ F(x)]. Es conveniente (para
propósitos de diferenciación de h) introducir una función g de una matriz
Y = fyis g de p p y p2 variables, de…nida sobre Rp p por g(Y) = det(Y),
y expresemos h como la composición de g y F. así que h(x) = g[F(x)].
Claramente g es continuamente diferenciable para todo Y y
@g
= [adj(Y)]0 :
@Y
Por consiguiente, se sigue de la regla de la cadena [y en particular del resul-
tado (7.10)] que si F es continuamente diferenciable en un punto interior c
de S, entonces h es continuamente diferenciable en c y (en x = c)
@det(F) @F
= tr adj(F) : (6.63)
@xj @xj
Mas aún, si F es no singular también es continuamente diferenciable en c,
entonces [teniendo en cuenta el resultado (13.5.6)]
@det(F) 1 @F
=j F j tr(F ): (6.64)
@xj @xj
Supóngase ahora que S es el conjunto de todos los valores de x para los
cuales det[F(x)] > 0 o es un subconjunto de ese conjunto, y considere la
diferenciación de la función ` de x de…nida sobre S por `(x) =log(det[F(x))].
Para facilitar la diferenciación, sea g una función de una variable y de…nida
(para y > 0) por g(y) = log(y), y expresemos a ` como una composición de
g y h, así que `(x) = g[h(x)].Recalquemos (del calculo de una sola variable)
150 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
que g es continuamente diferenciable (en todos los puntos del dominio) y que
(para y > 0)
@logy 1
= .
@y y
Aplicando la regla de la cadena encontramos [teniendo en cuenta los resulta-
dos (8.4) y (8.5)] que si F es continuamente diferenciable en un punto interior
c de S (en cualquier caso h es continuamente diferenciable en c), entonces `
es continuamente diferenciable en c y (en x = c)
@ log(det(F)) 1 @det(F) 1 @F @F
1
= = tr adj(F) = tr(F ):
@xj j F j @xj jFj @xj @xj
(6.65)
Ahora consideremos el resultado (8.6) en el caso especial donde x es un vector
columna m2 dimensional cuyos elementos son los mismos que la matriz X =
fxij g de m m de m2 variables independientes y donde F (x) = X. Sea c un
punto interior de S [donde S consta de algunos o todos los valores de x para
los cuales det(X) > 0], y sea uj la j-ésima columna de Im .Del resultado (5.3)
@X
se sigue que X es continuamente diferenciable en c y (en x = c), @x ij
= ui u0j .
Concluimos que la función ` de…nida sobre S por `(x) = log(det(X)) es
continuamente diferenciable en c y (en x = c)
@ log(det(X))
= tr(X 1 ui u0j )= u0j X 1 ui = yji , (6.66)
@xij
Donde yji es el ji-ésimo elemento de X 1 o equivalentemente, el ij-ésimo
elemento de (X 1 )0 . El resultado (8.7) se puede escribir como
@ log(det(X))
= (X 1 )0 (6.67)
@X
Las fórmulas (8.3) y (8.8) o [(8.2) y (8.7)] son aplicables cuando los m2 el-
ementos de X son variables independientes.supóngase ahora que X = fxij g
es una matriz simetrica de m m en los cuales los casos de la formula (8.3)
y (8.4) no son aplicables.para propósitos de diferenciación, la función f de
X de…nida (sobre un conjunto S comprendida sobre alguna o todas las ma-
trices simétricas de m m) por f (X) = det(X) y la función ` de X de…nida
(de…nidas sobre un conjunto S comprendidas sobre algunas o todas las ma-
trices simétricas m m con determinantes positivos) por `(X) = log(det(X))
6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR
@det(X) @X
= tr adj(X) :
@xij @xij
Haciendo uso de los resultados (5.6) y (5.7) y denotando la j-ésima colum-
na de Im por uj , encontramos que
@X
tr adj(X) = tr [adj(X)ui u0i ] = u0i adj(X)ui
@xii
y (para j < i)
@X
tr adj(X) = tr adj(X)ui u0j + tr[adj(X)uj u0i ]
@xij
= u0j adj(X)ui + u0i adj(X)uj .
@det(X) ii , si j = i
=
@xij 2 ij , si j < i
o equivalentemente,
@det(X)
= 2adj(X) diag( 11 ; 22 ; :::; mm ). (6.68)
@X
Sea yij el ij-ésimo elemento de X 1 , encontramos [usando el resultado
(8.6) y (13.5.7)] que (en x = c )
@ log(det(X)) yii , si j = i
=
@xij 2yij , si j < i
O equivalentemente,
152 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@ log(det(X))
= 2X 1 diag(y11 ; y22 ; :::; ymm ): (6.69)
@X
la diferenciacion de una matriz adjunta F = ffis g de p p de funciones,de…nidas
0
sobre un conjunto S de un vector x = (x1 ; :::; xm ) de m-variables. sea Fsi una
submatriz de (p 1) (p 1) obtenidas de F sacando la s-esima …la, y la i-
esima columna (de F), y sea si = ( 1)s+i det(Fsi ). entonces por de…nición,
si es el cofactor fsi , y de aquí el is-esimo elemento de adj(F):discutamos
sobre la diferenciación de los determinantes (incluido el resultado (8.4)), si
F es continuamente diferenciable en un punto interior c de S;entonces si es
continuamente diferenciable en un punto interior c (en x = c).
@ si @Fsi
= ( 1)s+i tr adj(Fsi ) : (6.70)
@xj @xj
Si F es continuamente diferenciable en un punto interior c, entonces adj(F) es
continuamente diferenciable en c y el is-esimo elemento de matriz adj(F)/@xj
es obtenido por la expresión (8.13).supóngase ahora que S es el conjunto de
todos los valores de x para el cual F(x) es no singular o un subconjunto
del conjunto anterior ,y consideremos la diferenciación de la matriz inversa
F 1 :denotado por algún punto interior c(de S),en el cual F es continua-
mente diferenciable.entonces si y det(F) son continuamente diferenciable
en c; implicando (teniendo en cuenta el lema 15.2.2) que det(F)
si
es continua-
mente diferenciable en c, de esta ecuación podemos sacar el is-esimo elemento
de F 1 (teniendo en cuenta el corolario 13.5.4),podemos concluir que F 1 es
continuamente diferenciable en c, mas aun, FF 1 = I, implicando que (te-
niendo en cuenta el lema15.4.3 y 15.4.1), (en x = c):
@F 1 @F 1 @I
F + F = = 0:
@xj @xj @xj
y de aqui
@F 1 @F 1
F = F (6.71)
@xj @xj
1
multiplicando por F obtenemos:
@F 1 1 @F 1
= F F : (6.72)
@xj @xj
6.9. DERIVADAS PARCIALES DE PRIMER ORDEN DE DETERMINANTES E INVERSAS Y MATR
1
Como una formula para @F @xj
:
Una expresión alternativa para los elementos de @adj(F)/@xj puede ser obteni-
da [donde S esta restringida para los valores de x en el cual F(x) es no-
singular usando la formula(4.9)].(teniendo presente el corolario13.5.4) la adj(F ) =
j F j F 1 ,podemos obtener:
@adj(F) @j F j 1 @F 1
= F +jFj (6.73)
@xj @xj @xj
@F 1 @F
= j F jtr F F 1+jFj F 1 F 1
@xj @xj
@F @F 1
= j F j tr F 1 F 1 F 1 F :
@xj @xj
@(AF 1 B) 1 @B 1 @F 1 @A 1
= AF AF F B+ F B (6.74)
@xj @xj @xj @xj
En el caso especial donde A(x) y B(x) son constantes (para x 2 S) o no
varia con respecto a xj , simpli…cando la formula (8.17) obtenemos:
@(AF 1 B) 1 @F 1
= AF F B: (6.75)
@xj @xj
1 @F 1 @F @F 1 @F 1 @F 1
= jFj tr F + tr F tr FF tr F
@xi @xj @xi @xi @xj @xj
(6.76)
Y, haciendo uso del resultado (4.6), nos damos cuenta que (en x = c)
@2F 1 @[ F 1
(@F=@xj ) F 1 ]
=
@xi @xj @xi
1 @F @F 1 1 @F 1 @F 1 @F 1
= F F F F
@xj @xi @xi @xj @xi @xj
154 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
1 @F 1 @F 1 1 @F 1 1 @F 1 @F 1
= F F F F F F F F
@xj @xi @xi @xj @xi @xj
1 @F 1 1 @F 1 @F 1 1 @F 1 @F 1
= F F +F F F +F F F (6.77)
@xi @xj @xi @xj @xj @xi
Supongamos ahora que det[F(x)] > 0 para cada x en S entonces en vista de
nuestros previos resultados logdet(F) es continuamente diferenciable en cada
punto de N y (para x 2 N )
@ 2 logdet(F ) 1 @F
= tr F
@xj @xj
Por consiguiente (puesto que F 1 y @F=@xj son continuamente diferenciables
en c ) @logdet(F )=@xj )
Es continuamente diferenciable en c, y por lo tanto logdet(F) dos veces con-
tinuamente diferenciable en c: Adémas, haciendo uso del resultado (6.3), nos
damos cuenta que (en x = c)
B11 B12
B
B21 B22
Donde B11 es de dimensiones rxr, entonces, rango (B11 )= rango (F)= r en
alguna aproximación N de c y, existe una inversa generalizada de G de F
tales como:
B 111 0
G= Q P
0 0
En N además, G es continuamente diferenciable en c, y (en x = c)
1 1
@G B 11
(@B11 =@xj )B 11
0 @F
= Q P= G G:
@xj 0 0 @xj
Desde el det [F (c)] o, S contenidos alrededor de N de c tales que jdet [F (x)] det [F (c)]j <
jdet:[F (c)]j para x 2 N o, equivalente, tal que jdet:[F(c)]j jdet:[F(c)] det:[F(x)]j
> 0 para x 2 N , y desde jdet[F(c)]j jdet[F(x)]j+jdet[F(c)]-det[F(x)]j o
equivalente jdet:[F(x)]j jdet:[F(c)]j jdet[F(c)]-det[F(x)]j, tenemos que
jdet:[F(x)]j > 0 para x 2 N ,concluimos que F(x) no es singular para x 2 N .
Demostración (del Teorema 15.10.1) desde que (una línea del lema 15.1.1)
F es continua en c (in…riendo que B11 es continua en c), siguiendo del Lema
15.10.2 el cual B11 no es singular en todos los puntos en algunos alrededor
de N1 de c supongamos N2 representa una vecindad de c en la cual rango
(F) = r, y toma N cualquiera de los dos alrededor de N1 y N2 tiene el radio
mas pequeño. Luego claramente el rango (B11 ) = rango (F) = r para x 2 N .
La existencia de una inversa generalizada G de F tal que
1
B 11
0
G= Q P
0 0
Y por lo tanto
1 1
@F B 11
0 @B11 =@xj @B12 =@xj B 11
0
G G=Q P
@xj 0 0 @B21 =@xj @B22 =@xj 0 0
6.10. DIFERENCIACIÓN DE INVERSAS GENERALIZADAS 157
1 1
B 11
(@B11 =@xj )B 11
0
=Q P
0 0
De acuerdo con el teorema 15.10.1 una condición su…ciente para la existencia
de una inversa generalizada de F la cual es continuamente diferenciable en
c (donde c es un punto interior en el cual F es continuamente diferenciable)
es que F tiene un rango constante en algunos alrededores de c.
Es esta condición necesaria tanto como su…ciente? esta pregunta es respon-
dida (en la a…rmación)
Por el resultado del siguiente lema.
Demostración diferenciando ambos lados de la igualdad F = FGF [con la ayuda del resultad
que (en x = c)
@F @F @G @F
= FG +F F+ GF
@xj @xj @xj @xj
6.10. DIFERENCIACIÓN DE INVERSAS GENERALIZADAS 159
@F @G @F
= FG GF + F F + FG GF
@xj @xj @xj
O equivalente,
@G @F
F F= FG GF
@xj @xj
El siguiente teorema generaliza el resultado (10.1).
@(AGB) @B @F @A
= AG AG GB + GB
@xj @xj @xj @xj
@G @F
=G G
@xj @xj
No es aplicable para G podemos para el propósito de obtener la derivada par-
cial de AGB (en x = c) continua aunque G es continuamente diferenciable
y por formula (10.5) es valido. en el caso especial
donde (para x 2 S) A(x) y B(x) son constantes o (mas generalmente) no
varia con xj formula (10.4) simpli…camos para
@(AGB) @F
= AG GB
@xj @xj
160 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
= H(c) + Z
G(c)
Demostración del teorema 15.10.6 de acuerdo con el teorema 15.10.7 existe
una inversa generalizada G de F tal que G es continuamente diferenciable
(en c) y G (c) = G(c). Además, de acuerdo al teorema 9.4.1, AGB=AG B
para toda x en N de esta manera sigue del resultado de la sección 15.4 que
AGB es continuamente diferenciable en c y que (en x = c)
@(AGB) @(AG B) @B @G @A
= = AG +A B+ GB
@xj @xj @xj @xj @xj
@B @G @A
= AG +A B+ GB
@xj @xj @xj
6.11. DIFERENCIACIÓN DE MATRICES DE PROYECCIÓN. 161
Para completar la prueba , observa que A(c) = LF(c) y B(c) = F(c)R para
algunas matrices L Y R y por lo tanto (en la linea del lema 15.10.5) que (en
x = c)
@G @G @F
A B = LF FR = LFG G FR
@xj @xj @xj
@F @F
= AG G B= AG GB
@xj @xj
@Px;w @X 0 0
= (I Px;w ) X WX XW (6.79)
@zj @zj
0
0 @X
+X(X WX) W (I Px;w )
@zj
0 0 @W
+X(X WX) X W (I Px;w ) ;
@zj
162 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@(WPx;w ) @W 0 @W
= I Px;w (I Px;w )
@zj @zj @zj
@X 0 0
+W (I Px;w ) X WX XW (6.80)
@zj
0
0 @X
+WX(X WX) W (I Px;w ) ;
@zj
@(W WPx;w ) 0 @W
= I Px;w (I Px;w ) (6.81)
@zj @zj
@X 0 0
W (I Px;w ) X WX XW
@zj
0
0 @X
WX(X WX) W (I Px;w ) :
@zj
Los resultados el teorema 15.11.1 son casos especiales de varios resultados
rodeados en el siguiente teorema (como es evidente sobre recordar (de el
0
resultado 14.11.3) el rango(X WX)=rango(X) y (del teorema 14.12.11) que
h 0 i0 0 0 0 0
X (X WX) = X(X WX) X y por lo tanto WX(X WX) X = Px;w :
@K @X @Y @W
= (I KW) (YWX) Y + X(YWX) (I WK) K K;
@zj @zj @zj @zj
(6.82)
@(WK) @X
= (I KW) (YWX) Y (6.83)
@zj @zj
@Y @W
+X(YWX) W(I WK) + K (I KW) ;
@zj @zj
6.11. DIFERENCIACIÓN DE MATRICES DE PROYECCIÓN. 163
@(WKW) @W @W
= (I WK) (I KW) (6.84)
@zj @zj @zj
@X
+W(I KW) (YWX) YW
@zj
@Y
+WX(YWX) W(I KW) ;
@zj
@(W WKW) @W
= (I WK) (I KW) (6.85)
@zj @zj
@W
W(I KW) (YWX) YW
@zj
@Y
WX(YWX) W(I KW)
@zj
Demostración. En la linea de resultados de la seccion 15.4, tenemos que
YWX es continuamente diferenciable en c y, una linea de resultados 4.4.7
tenemos que R(X) = R(YWX) y C(Y) = C(YWX) para toda z en N . apli-
cando el teorema 15.10.6 (con F = YWX, A = X, y B = Y), encontramos
que K es continuamente diferenciable en c y que (en z = c)
@K @Y
= X(YWX) (6.86)
@zj @zj
@(YWX) @X
X(YWX) (YWX) Y+ (YWX) Y :
@zj @zj
además,
@(YWX) @X @W @Y
= YW +Y X+ WX : (6.87)
@zj @zj @zj @zj
Sobresustituyendo la expresión (11.9) para@(YWX)=@zj en la expresión
(11.8) obtenemos
@K @Y @X @W
= X(YWX) KW (YWX) Y K K
@zj @zj @zj @zj
@Y @X
X(YWX) WK+ (YWX) Y
@zj @zj
@X @Y @W
= (I KW) (YWX) Y + X(YWX) (I WK) K K;
@zj @zj @zj
164 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@(KW) @W @K
=K + W; (6.88)
@zj @zj @zj
@(WKW) @(KW) @W
=W + KW ; (6.89)
@zj @zj @zj
@(W WKW) @W @(WKW)
= ; (6.90)
@zj @zj @zj
Sobresustituimos la expresión (11.4) por @K=@zj , en expresiones
(11.10). Obtenemos (después de una pequeña simpli…cación) expresión (11.5)
similarmente sobresustituir expresiones (11.5) por @(KW)=@zj , en la expre-
sión (11.11) obtenemos la expresión (11.6), la cual cuando se sustituye por
@(WKW)=@zj en expresiones (11.12) dando expresiones (11.7).
De acuerdo al teorema 15.11.1., una condición su…ciente para Px;w para ser
continuamente diferenciable en c (donde c es un punto interior en el cual X y
W son continuamente diferenciables) tal que X tiene un rango constante en
alguna vecindad de c. esta condición es tan necesaria como su…ciente? Esta
pregunta es respondida (en lo a…rmativo) por el resultado de el siguiente
lema.
@Px;w 0 0 @W
= X(X WX) X (I Px;w ) ; (6.91)
@zj @zj
@(WPx;w ) @W 0 @W
= (I Px;w ) (I Px;w ) ; (6.92)
@zj @zj @zj
@(W WPx;w ) 0 @W
= (I Px;w ) (I Px;w ) ; (6.93)
@zj @zj
Las formulas (11.1)-(11.3) puede ser expresado en una forma mas general
haciendo uso del siguiente lema.
@Px;w 0 @W @X
WPx;w = (I Px;w ) Px;w + W(I Px;w ) B (6.94)
@zj @zj @zj
166 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
Px;w WX = WX
0
@(Px;w ) 0 @W 0 @X
WXB =(I Px;w ) XB+(I Px;w )W B: (6.95)
@zj @zj @zj
Además haciendo uso de la parte (2) y(3) del teorema 14.12.11,igual que
(11.17) puede ser re expresada como la igualdad (11.16)
0 0
Puesto que ningún (@Px;w =@zj) WPx;w ,ni (I Px;w )(@W=@zj)Px;w in-
volucra B, sigue del lema 15.11.5 que W(I Px;w )(@w=@zj )B es invariante
de la selección de B, de esta manera puesto que la selección de B incluye
0
h 0 i0
0 0
(X WX) X W y (X WX) X W, tenemos que
@X 0 0 @X
W(I Px;w ) (X WX) X W = W(I Px;w ) B (6.96)
@zj @zj
Y
@X h 0 i0 0 @X
W(I Px;w ) (X WX) X W = W(I Px;w ) B;
@zj @zj
Lo cual[puesto W(I Px;w ) es simétrica] es equivalente a
0 0
0 @X @X
WX(X WX) W(I Px;w ) = W(I Px;w ) B ; (6.97)
@zj @zj
6.12. EVALUACIÓN DE ALGUNAS INTEGRALES MÚLTIPLES 167
@(WPx;w ) @W 0 @W
= (I Px;w ) (I Px;w ) (6.101)
@zj @zj @zj
0
@X @X
+W(I Px;w ) B+ W(I Px;w ) B
@zj @zj
@(W WPx;w ) 0 @W
= (I Px;w ) (I Px;w ) (6.102)
@zj @zj
@X
W(I Px;w ) B
@zj
0
@X
W(I Px;w ) B
@zj
0 0
(donde Bp n tal que X WXB = X W).
Z
exp (1=2) (x c)0 W (x c) dx;
Rn
Z
(k0 x) exp (1=2) (x c)0 W (x c) dx;
Rn
Z
(x c)0 A(X C) exp (1=2) (x c)0 w (x c) dx
Rn
R
[Donde el símbolo Rn f (z)dz es usado para denotar la integral de una función
f (z) de un vector z (columnas) de n variables sobre todo Rn ]
Estas 3 integrales son de importancia considerables en probabilidad y estadís-
tica„donde ellas hacienden en conexión con la distribución normal multivari-
able (e.g.,Searle 1971,capitulo 2)ellas pueden ser evaluadas, introduciendo un
cambio apropiado de variables y recordando (Desde el calculo integral de una
variable sencilla )que.
Z 1
2=2
e x dx = (2 )1=2 ;
1
Z 1
x2=2
xe dx = 0;
1
Z 1
x2=2
x2 e dx = (2 )1=2 ;
1
Z = P(x c);
Así que x = p 1 z+c: Además, sea J que representa al Jacoviano de P 1 Z+C
(Donde p 1 z + c es considerado como un vector de funciones de Z ) luego,
observar [considerando el resultado (3.10)] que
@ (p 1 z + c)
= p 1;
@z0
Nosotros encontramos que
1 1
J= p = jpj ;
6.12. EVALUACIÓN DE ALGUNAS INTEGRALES MÚLTIPLES 169
1=2
= (2 )n=2 jWj : (6.103)
Además supongamos que di representa elR elemento i esimo de el vector
1 2
KP 1 1 n [y observar que (para i = 1::: 1 e Zi =2dzi = 0)],encontramos
que
Z
exp (1=2) (w c)0 W (x c) dx
Rn
Z
(k c)0
exp (1=2) (x c)0 W (x c) dx
Rn
Z
+ k0 (x c) exp (1=2) (x c)0 W (x c) dx
Rn
1=2
(k0 c) (2 )n=2 jWj
Z
+ k0 p 1 z exp [ (1=2) z0 z] jJj dz
Rn
1=2
(k0 c) (2 )n=2 jWj
X
n Z 1 Z 1 Z 1
1=2 Zi2 =2 Zs2 =2 Zs2 =2
+ jWj di zi e dzi e dzi e dzs
1 s 6= i 1 1
i=1
170 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
1=2
= (k0 c) (2 )n=2 jWj : (6.104)
0 1
Y supongamos que bij representa el elemento ij esimo de la matriz (P 1 ) AP
0 1
n n y recordando el lema 5.21[y observa que (P 1 ) = (P 1 ) ], encon-
tramos que
Z
(x c)0 A (x c) exp (1=2) (x c)0 W (x c) dx
Rn
Z
1 0
z0 P AP 1 z exp [ (1=2) z0 z] jJj dz
Rn
X Z
1=2
jWj bij zi zj exp [ (1=2) z0 z] jJj dz
i;j Rn
X Z 1 Z 1
1=2 2 Zs2 =2
jWj f bij zi2 e Zi =2 dzi e dzs
1 s 6= i 1
i=1
X Z 1 Z 1 Z 1
Zi2 =2 Zj2 =2 Zs2 =2
+ bij zi e dzi zj e dzj e dzs g
1 1 s 6= i; j 1
i;j6=i
1=2
X
jWj bij (2 )1=2 (2 )(n 1)=2
i;j
h i
n=2 1=2 1 0 1
(2 ) jWj tr P AP
h i
n=2 1=2 1 1 0
(2 ) jWj tr AP P
n=2 1=2
= (1=2) jBj exp (1=4) b0 B 1 b b0
1
tr AB a0 B 1 b + (1=2) b0 B 1 AB 1 b + 2a0 (6.106)
DEMOSTRACION. Esto …nalmente muestra que
b0 + b0 x + x0 Bx = (1=2) (x c)0 w (x c) + f;
Donde W = 2B; c = (1=2) B 1 b; y f = b (1=4) b0 B 1 b: esto también
fácilmente muestra que
Z
=e f
g + k0 x + (x c)0 A (x c) exp (1=2) (x c)0 w (x c) dx
Rn
h i
f n=2 1=2 0 n=2 1=2 n=2 1=2 1
=e g (2 ) jWj + (k c) (2 ) jwj + (2 ) jWj tr AW
1=2
= (2 )n=2 jWj e f
g + (k0 c) + tr AW 1
1=2
= (2 )n=2 2 n=2
jBj exp (1=4) b0 B 1 b b0 [a0 (1=4) b0 B 1 AB 1 b
1
(1=2) a0 B 1 b + (1=4) b0 B 1
(A + A0 ) B 1 b+ (1=2) tr AB ]
n=2 1=2 1
= (1=2) jBj exp (1=4) b0 B 1 b b0 [tr AB a0 B 1 b
+ (1=2) b0 B 1 AB 1 b + 2a0 ]
172 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
6.13. Ejercicios
Seccion15.1
1. Usando el resultado de la parte (c) del ejercicio 6.2, muestra que toda bola
abierta de un punto x en Rmx1 es un conjunto abierto.
2. Sea f que representa una función de…nida sobre un conjunto de un vector
x = (x1 ::::::xn )0 de m variables, supongamos que s contiene al menos algunos
puntos interiores, y sea c que representa un punto un punto arbitrario de esos,
veri…car si f en tiempos k diferenciables, continuamente en c; luego f es k
veces diferenciable continuamente en cada punto de algunas bolas abiertas
de c:
3. Sea X = fxij g que representa alguna matriz m n derivables mn; y sea
x que representa un vector columna dimensional mn obtenido por cambio
de elemento de X (en la forma de un vector columnas).Además sea S que
representa un conjunto de valores de X; y sea S que representa un conjun-
to correspondientes de valores de x (i:e:;la serie obtenida por cambiar los
elementos de cada matriz m n en S en la forma de un vector columna).
Veri…car que un vector de columna dimensional mn en un punto interior de
S si y solo si existe un nuevo arreglo de una matriz m n que un punto
interior de S.
4. Sea f que representa una función cuyo dominio es un conjunto S en
Rmx1 (que contiene al menos unos puntos interiores). Muestra que la matriz
H f hessian de f es la matriz inclinación de del vector (Df )0 inclinación
de f .
Sección 15.2
5.Sea g que representa una función de…nida sobre un conjunto S de un vector
x = (x1 ; :::; xn )0 de m variables, sea S (x 2 s : g (x) 6= 0) y se c que represen-
ta cualquier punto interior de S en el cual g es diferenciable continuamente
(incluir formulas (2.16) y (2.8)para mostrar que cualquier numero entero k
positivo)g k es diferenciable continuamente en c y
@g k k 1 @g
= kg ;
@xj @xj
Por medio de eso generalizar formula (2.8) y establecer que la formula (2.16)
es valido para los valores negativos (así como positivo) de k
Sección 15.4
6. Sea F que representa una matriz p p de funciones de…nida sobre un
0
conjunto S de un vector x = (x1 ; :::; xn ) de m variables, sea c que representa
6.13. EJERCICIOS 173
@F
F F=0
@xj
7. Sea g que representa una función de…nida sobre un conjunto S de un
vector x = (x1 ; :::; xn )0 de m variables, sea f que representa cualquier vector
p 1 de funciones (de…nida en S)de x: Sea c que representa cualquier punto
interior (de S) en el cual g y f son diferenciable continuamente. Muestra que
gf es diferenciable continuamente en c y que (en x = c)
@ (gf ) @g @f
0
= f 0 + 0:
@x @x @x
Sección 15.6
8. (a) Sea X = fxij g que representa alguna matriz m n derivables
independientes y suponga que X recorre sobre todo Rmxn
(1)Muestre que para cualquiera de las matrices m p y n p de constante
AyB
@ tr (AXB)
= A0 B0 :
@X
[surg: Observa que tr(AXB) =tr(BAX)]
(2)Muestre que para cualquier vector a y b de columnas dimensiónales
myn
@ (a0 Xb)
= ab0 :
@X
[surg: Observar que a0 Xb = tr(a0 Xb) :]
(b) Suponga que X es una matriz simétrica (pero de otro modo libre) de
dimensiones m n
(1)Muestre que para cualquier de las matrices p m y m p de constante
AyB
@ tr (AXB)
= C + C0 diag (c11 ; c22 :::cmm ) ;
@X
Donde C = fcij g = AB:
(2)Muestre que para cualquier vectores columnas a = fai g y b = fbi g ;
174 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@ (a0 Xb)
= ab0 + ba diag (a1 b1 ; a2 b2 ::::am bm ) :
@X
9.(a)Sea X = fxst g que representa alguna matriz m n derivables independi-
entes y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que para cualquier matriz n m de constante A
@ tr (AX)2
= 2 (AXA)0 :
@X
(b) Sea X = fxst g que representa alguna matriz de variables simétrica m
m(perodeotromodolibre):M uestrequeparacualquiermatrizm m de con-
stante A
@ tr (AX)2
= 2 [B + B diag (b11 ; b22 :::bmm )] ;
@X
Donde B = fbst g = AXA:
10. Sea X = fxij g que representa una matriz m n derivables independi-
entes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :Demuestre
que, para k = 2; 3; ::::;
@ tr Xk k 1
= k (X0 ) ;
@X
Por medio de eso generalice el resultado (2.17)
11. Sea X = fxst g que representa una matriz m n derivables independi-
entes, y suponga que X tiene la libertad de recorre sobre todo Rmxn :
(a)Demuestre que para cualquier matriz de constante A m m
@ tr (X0 AX)
= (A + A0 ) X:
@X
(b)Demuestre que para cualquier matriz de constante A n n
@tr (XAX0 )
= X (A + A0 ) :
@X
(c)Demuestre (en el caso especial donde n = m) que para cualquier matriz
de constante A m m
@ tr (XAX)
= (AX)0 + (AX)0 :
@X
6.13. EJERCICIOS 175
X
n
Hf (c) = [Dh (c)]0 Hg [h (c)] Dh (c) + Di g[h (c) Hhi (c) :
i=1
Sección 15.8
14. Sea X = fxij g que representa una matriz m m de variables indepen-
dientes m2 (donde m 2) y Supón que el rango de X comprende todo
Rmxn :Muestra que (para cualquier numero entero k positivo)la función f
176 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@ jXjk
= k jXjk 1
[adj (X)]0 :
@X
15. Sea F = fxis g que representa una matriz de funciones p p; de…nida
sobre un conjunto S; de un vector x = (x1 ::::::xm )0 de m variables. Sea c
que representa cualquier punto interior (de S) en el cual F es diferenciable
continuamente. Use los resultado del ejercicio 13.10 para mostrar que (a) si
el rango [F (c)] = p 1; luego (en x = c)
@ det (F) @F
= ky 0 z;
@xj @xj
Donde z = fzs g y y = fyi g son vectores dimensiónales-p no nulos tal que
F (c) z = 0 y [F (c)] y = 0 y donde [supongamos is ;representa el cofactor
de f is (c)] k es un escalar que se puede expresar como k = is = (yi zs )para
cualquier i y s tal que yi 6= 0 y zs 6= 0; y (b)si el rango [F (c)] p 2;luego
(en x = c)
@ det (F)
= 0:
@xj
16.Sea X = fxst g que representa una matriz de variables independientes m
n, sea A que representa una matriz de constantes m m; y supón que el
rango de X es un conjunto S comprendiendo algún o todos los valores de X
para el cual det (X0 AX) > 0 ,Muestra que log(det (X0 AX))es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)
@ log(det (AXB)) 1 0
= B (AXB) A :
@X
6.13. EJERCICIOS 177
@ log(det (AXB))
= K + K0 diag (k11 ; k22 :::kqq ) ;
@X
Donde K = fkij g = B (AXB) 1 A:
18. Sea F = fxis g que representa una matriz de funciones p p; de…nida
sobre un conjunto S; de un vector x = (x1; :::; xm )0 de m variables, y sea
A y B que representa matrices de constantes q p; y p q: Supón que S
es el conjunto de todos los valores de x para el cual F (x)es no singular y
det AF 1 (x) B > 0, o es un subconjunto de de ese conjunto.
Muestra que F es diferenciable continuamente en un punto interior c de S;
luego log(det(AF 1 B)) es diferenciable continuamente en c y (en x = c)
@ log(det AF 1 B ) 1 @F
= tr F 1 B AF 1 B AF 1
:
@Xj @Xj
@ log(det AX 1 B) h i0
1 1 1 1
= tr X B AX B AX :
@Xj
(b)supón ahora que X es una matriz simétrica m m; eso para propósito
para diferenciar cualquier función de X; la función es para ser interpretada co-
mo una función del vector x columnas cuyos elementos son xij (j i = 1; :::; m)
y que el alcance o extensión de x es un conjunto de S comprendiendo algún o
178 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
todos los valores de x para el cual det AX 1 B > 0 use el resultado del ejer-
cicio 18 para demostrar que log(det(AX 1 B)) es diferenciable continuamente
en cualquier punto interior c de S y que (en x = c)
@ log(det AX 1 B)
K + K0 diag (k11 ; k22 :::kqq ) ;
@Xj
1
Donde K = fkij g = X 1 B AX 1 B AX 1 :
20.Sea F = ff is gque representa matrices de funciones p p de…nida sobre un
conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Sea c que representa
cualquier punto interior de S en el cual es diferenciable continuamente por
ejemplo usar el resultado de la parte (b) del ejercicio 13.10.Muestre que si el
rank [F (c)] p 3;luego
@adj (F)
= 0:
@Xj
21. (a) Sea X que representa una matriz m m de variables independi-
entes m2 ;supón que el rango de X es un conjunto S comprendiendo algún o
todos los valores de X para el cual X es no singular. Muestre que (cuando
los elementos son considerados como funciones de X) X 1 es diferenciable
continuamente en cualquier punto interior c de S y que (en x = c)
@X 1
= yi z0j ;
@xij
Donde yi representa la columna i esima y z0j la …la j esima de X 1
(b)supón ahora que X es una matriz simétrica m m; eso para propósito de
diferenciar una función de X; la función va ser interpretada como una función
del vector x columnas cuyos elementos son xij (j i = 1; :::; m) y que el rango
de x es un conjunto comprendiendo algún o todos los valores de x para el
cual X es no singular. Mostrar que X 1 es diferenciable continuamente en
cualquier punto interior c de S y que (en x = c)
@X 1 yi yj0 ; si j = i;
= 0 0
@xij yi yj yi yj ; si j‹i
Donde yi representa la columna i esimo de X 1
Sección 15.9
22. Sea X que representa una matriz m m de variables independientes
2
m ; supón que el rango de X es un conjunto S comprendiendo algún o todos
6.13. EJERCICIOS 179
@2X 1
= yjs yi z0t + yti ys z0j :
@xij @xst
(b)Supón que det(X) > 0 para todo X en S: Muestre log(det (X)) es dos
veces diferenciable continuamente en C y que (en x = c)
@ 2 log(det (X))
= yti yjs :
@xij @xst
23.Sea F = ff is gque representa matrices de funciones p p de…nida sobre
un conjunto S; de un vector x = (x1; :::; xm )0 de m variables. Para cualquier
conjunto no vació T = ft1; :::; tm g ;cuyos miembros son números enteros entre
1 y m; de…nida D(T ) = @F=@xt1 :::@xts :Sea k que representa un número
entero positivo, para i = 1; :::; k; sea ij que representa un número entero
arbitrario entre 1 y m inclusive.
(a)Supón que F es no singular para todo x en S: y denotar por c cualquier
punto interior (de S) en el cual F es k veces diferenciable continuamente en
c y que (en x = c)
@F 1
@xji :::@xjk
X
k X
= ( 1)r F 1 D(T1 )F 1 D(T2 ):::F 1 D(Tr )F 1 ; (E;1)
r=1 T1 :::Tr
Donde T1; :::; Tm son mutuamente exclusivo y exhaustivo subconjuntos r no
vacíos de fj1; :::; jm g (y donde la segunda recapitulación es sobre todos posi-
bles opciones para T1; :::; Tr ).
(b)Supón que Fdet (X) > 0 para todo X en S; y denota por c cualquier
punto interior (de S) en el cual F es k veces diferenciable continuamente.
Muestre que log (det (F)) es k veces diferenciable continuamente en c de S
y que (en x = c)
@ log (det (F))
@xji :::@xjk
X X
k
= ( 1)r+1 tr[F 1 D(T1 )F 1 D(T2 ):::F 1 D(Tr )F 1 ]; (E;2)
r=1 T1 :::Tr
180 CAPÍTULO 6. DIFERENCIACIÓN DE MATRICES
@ 2 (w wpx;w ) @w @w
= (I px:w ) (I p0x:w ) x(xwx)x (I px:w )
@zi @zj @zi @zj
@w @w
[(I p0x:w ) x(xwx)x (I px:w )]
@zi @zj
Suministre una derivación alternativa de la formula (11.23) para @(wpx:w )=@zj
por uso de la parte (60 ) del teorema 14.1211 para obtener la representación
@(wpx:w ) @wpx:w @w
= px:w w + px:w px:w
@zj @zj @zj
0
@px:w
wpx:w
@zj
Capítulo 7
El producto kronecker
181
182 CAPÍTULO 7. EL PRODUCTO KRONECKER
Si
a = [a1 an ]T 2 Rn y b = [b1 bm ]T 2 Rm ,
entonces
7.1. 16.1. PRODUCTO KRONECKER 183
2 3
a1 b
6 a2 b 7
6 7
a b = 6 .. 7 (7.2)
4 . 5
an b
es un vector columna particionado de Rnm . Además,
aT bT = a1 bT an bT (7.3)
es un vector …la particionado de Rnm y
a bT = bT a = abT (7.4)
es la matriz n m que tiene en la posición (i; j) a ai bj .
0 B=B 0 = 0. (7.5)
Más aún, si D es la matriz diagonal diag(d1 ; :::; dm ) m m
Im Ip = Imp . (7.8)
(A + B) C = (A C) + (B C), (7.10)
C (A + B) = (C D) + (C B). (7.11)
Los resultados (1.11) y (1.12) pueden usarse para mostrar que, para algunas
matrices A y B m n y algunas matrices C y D p q,
(A + B) (C + D) = (A D) + (A D) + (B C) + (B D). (7.12)
Más generalmente, los resultados (1.11) y (1.12) pueden usarse para mostrar
que, para algunas matrices A1 ; A2 ; :::; Ar m n y matrices B1 ; B2 ; :::; Bs
p q.
X X XX
( Ai ) ( Bj ) = (Ai Bj ) , (7.13)
i
(A B)T = AT BT . (7.14)
T T T
Nótese que, en constraste [(AB) = B A ] para la transpuesta del producto
de 2 matrices .ordinarias", (A B)T en general no es igual a BT AT . Nótese
que si A y B son ambas simétricas, entonces se sigue del resultado (1.15) que
(A B)T = A B;
que es, el producto Kronecker de matrices simétricas es simétrica.
El lema siguiente proporciona una base para extender la de…nición de un
producto kronecker de tres o más matrices.
A (B C) = (A B) C. (7.15)
Concluimos que G = H.
fir BD,
donde fir es elPir-ésimo elemento de AC. La prueba es completada observan-
do que fir = aij cjr y así que el ir-ésimo bloque de (AC) (BD) es igual
al ir-ésimo bloque de
(A B) (C D).
A bT (d C) = bT A (C d) = AdbT C. (7.20)
El resultado (1.19) puede ser extendido (por la aplicación repetida) al pro-
ducto ordinario de un número ordinario del producto de Kronecker. Tenemos
que
1 1 1 1
(A B) A B = AA BB = Im In = Imp .
(A B) A 1
B 1
(A B) = AA 1 A BB 1 B = A B. (7.23)
Esto es,
1 1 1
rk (A B) = tr[(A B) (A B 1 )] = tr[ AA BB ] = tr(AA )tr(BB ),
rk (A B) = rk(A)rk(B). (7.25)
188 CAPÍTULO 7. EL PRODUCTO KRONECKER
2 3 2 3
A11 A12 : : : A1c A11 B A12 B : : : A1c B
6A21 A22 : : : A2c 7 6A21 B A22 B : : : A2c B7
6 7 6 7
6 .. .. .. 7 B=6 .. .. .. 7 (7.26)
4 . . . 5 4 . . . 5
Ar1 Ar2 : : : Arc Ar1 B Ar2 B : : : Arc B
X
r X
c
A= Uij Aij , (7.28)
i=1 j=1
2 3
a1
6 a2 7
6 7
6 .. 7 , (7.29)
4.5
an
2 3
a11
6a21 7
6 7
6a12 7
vec(A) = 6 7
6a22 7 .
6 7
4a13 5
a23
Para algún vector columna a,
vec(baT ) = a b. (7.31)
Como es evidente del resultado (1.2) observe que la i-ésima (de las columnas
m) de baT es ai b.
Claramente, para algún escalar c y una matriz A,
como puede ser fácilmente establecido por la aplicación repetida de los resul-
tados (2.59) y (2.4).
Sea A que representa una matriz m n B una matriz n p, y denote las
primeras, segundas,..., p-ésimas columnas de B por b1 ; b2 ; :::; bp respectiva-
mente. Entonces,
7.2. 16.2. EL OPERADOR VEC 191
2 3
Ab1
6Ab2 7
6 7
vec(AB) = 6 .. 7 , (7.35)
4 . 5
Abp
p
X
B= bj uTj ,
j=1
" ! #
X
vec(ABC) = vec A bj uTj C
j
X
= vec Abj uTj C
j
X
= [ CT uj (Abj )]
j
X
= CT A (uj bj )
j
X
= CT A vec bj uTj
j
X
= CT A vec bj uTj
j
T
= C A vecB.
2 3 2 3T 2 3
b1 a1 b1
X
n 6 b2 7 6 a2 7 6 b2 7
T 6 7 6 7 6 7
tr A B = aTj bj = aT1 ; aT2 ; :::; aTn 6 .. 7 = 6 .. 7 6 .. 7
j=1
4 . 5 4.5 4 . 5
bn an bn
= (vecA)T vecB.
o tr(CT BT AD). Nótese además [a la luz del resultado (1.7)] que, en el caso
especial donde q = n y D = In , el resultado (2.15) se reduce en efecto a
2 3 2 3
a1 r1
6 a2 7 6 r2 7
6 7 6 7
(vecA) = 6 .. 7 y (vecAT ) 6 .. 7 .
4.5 4 . 5
an rm
Ambos (vecAT ) y (vecA) se obtiene reestructurando los elementos de A en
la forma de un vector columna mn-dimensional; sin embargo, ellos se ordenan
…la por …la en el (vecAT ) en lugar de columna por columna [como en (vecA)].
Por ejemplo, cuando m = 2 y n = 3,
2 3 2 3
a11 a11
6a21 7 6a12 7
6 7 6 7
6a12 7 6 7
(vecA) = 6 7 y (vecAT ) = 6a13 7 .
6a22 7 6a21 7
6 7 6 7
4a13 5 4a22 5
a23 a23
Claramente, (vecAT ) puede obtenerse permutando los elementos de (vecA).
De acuerdo a esto existe una matriz permutación mn mn, para ser denotada
por el símbolo Kmn tal que
!
X
Kmn vec(A) = vec(AT ) = vec aij UTij
i;j
X
= vec aij uj eTi
i;j
X
= vec uj aij eTi
i;j
X
= vec[uj eTi Auj eTi ]
i;j
X
= vec UTij AUTij
i;j
X
= Uij UTij vec(A)
i;j
7.2. 16.2. EL OPERADOR VEC 197
A la luz del resultado (1.29), el resultado (3.3) pueden ser reexpresados como
2 3
UT11 UT12 UT1n
6 UT UT22 UT2n 7
6 21 7
Kmn = 6 .. .. .. 7 . (7.49)
4 . . . 5
UTm1 UTm2 UTmn
Es decir, puede considerarse como una matriz particionada mn mn, com-
prendiendo m …las y n columnas de bloques dimensionales nxm, el ij-ésimo
de que es la matriz UTij = uj eTi (cuyo ij-ésimo elemento es 1 y cuyos otros
mn 1 elementos son 0). Por ejemplo,
2 3
1 0 0 0 0 0
60 0 1 0 0 07
6 7
UT11 UT12 UT13 60 0 0 0 1 07
K23 = =6
60
7.
UT21 UT22 UT23 6 1 0 0 0 07
7
40 0 0 1 0 05
0 0 0 0 0 1
Sea a que representa un vector columna m-dimensional. Entonces, al colocar
A = a en la igualdad (3.1) y resultado (3.2), encontramos [a la luz del
resultado (2.2)] que
a = Km1 a; a = K1m a.
Sigue (a la luz del Lema 2.3.2) que
a = Knm Kmn a,
KTmn = Kmn
1
= Knm . (7.51)
tr(Kmm ) = m. (7.53)
Para veri…car la fórmula (3.8), sea ei que representa la i-ésima columna Im ,sea
Uij = ei eTj , y observa que eTj ei iguales a 1, si j = i, e igual a 0, si j 6= i.
Entonces, haciendo uso de los resultados (3.3), (1.25), y (5.2.6). Encontramos
que
7.2. 16.2. EL OPERADOR VEC 199
!
X
tr(Kmm ) = tr Uij UTij
i;j
X
= tr Uij UTij
i;j
X
= tr (Uij ) tr UTij
i;j
X
= [tr (Uij )]2
i;j
X 2
= tr ei eTj
i;j
X 2
X 2
X
m
= tr eTj ei = eTi ei = (1)2 = m.
i;j i;j i=1
Así,
(B A) kqn x = kpm (A B) x
para cada vector x nq 1, implicando (a la luz del Lema 2.3.2) que
(B A) kqn = kpm (A B) .
Más aún, kqn1 = kqn tenemos que
b A = kpm (A b) , (7.56)
A b = kmp (b A) , (7.57)
bT A= A bT knp , (7.58)
A bT = bT A kpn . (7.59)
7.2. 16.2. EL OPERADOR VEC 201
bT a=a bT ,
dado previamente en el resultado (1.4).
La traza de la matriz obtenida por premultiplicación o postmultiplicación de
un producto Kronecker (de una matriz m n y una matriz n m) por una
matriz de la vec-permutación se da por el teorema siguiente.
" #
X
T
tr[Kmn (A B)] = tr Uij UTij A T
B
i;j
X
= tr Uij UTij AT B
i;j
X
= tr Uij AT UTij B
i;j
X
= tr Uij AT tr UTij B
i;j
X
= tr ei uTj AT tr uj eTi B
i;j
X
= uTj AT ei eTi Buj
i;j
X
= bij aij
i;j
= tr AT B :
202 CAPÍTULO 7. EL PRODUCTO KRONECKER
" #
X
vec (A B) = vec ai eTi bj uTj
i;j
X
= vec[ ai eTi bj uTj ]
i;j
X
= vec[(ai bj ) (ei uj )T ]
i;j
X
= (ei uj ) (ai bj )
i;j
X
= ei (uj ai ) bj
i;j
X
= (In Kqm Ip ) (ej ai uj bj )
i;j
X
= (In Kqm Ip ) [vec ai eTi bj uTj ]
i;j
" #
X X
= (In Kqm Ip ) vec ai eTi vec bj uTj
i j
" ! !#
X X
= (In Kqm Ip ) vec ai eTi vec bj uTj
i j
= (In Kqm Ip ) [vec (A) vec (B)] .
A B = (A Ip ) (In B) (7.62)
= Kmp (Ip A) Kpm (In B)
= Kmp diag (A; A; :::; A) Kpm diag (B; B; :::; B) .
204 CAPÍTULO 7. EL PRODUCTO KRONECKER
2 3
a11
2 3 6a21 7
a11 6 7
6a31 7
vechA = (a11 ) ; vechA = 4a21 5 , y vechA = 6 7
6a22 7 , respectivamente.
a22 6 7
4a32 5
a33
2 3
a11
6a21 7
6 7
6a31 7
2 3 6 7
a11 6a12 7
6 7
vecA = (a11 ) ; vecA = a21 ,y vecA = 6
4 5 7
6a22 7 , respectivamente.
a22 6a32 7
6 7
6a13 7
6 7
4a23 5
a33
n + (n 1) + (n 2) + ::: + n (j 1) = nj (0 + 1 + 2 + ::: + j 1)
= nj j(j 1)=2
!
X
k X
k
vech ci Ai = ci vech(Ai ), (7.64)
i=1 i=1
2 3
1 0 0 0 0 0
60 1 0 0 0 07
6 7
2 3 60 0 1 0 0 07
1 0 0 6 7
60 1 0 0 0 07
60 1 07 6 7
G1 = (1) ; G2 = 6
40
7 , y G3 = 60
6 0 0 1 0 07
7.
1 05 60
6 0 0 0 1 07
7
0 0 1 60
6 0 1 0 0 07
7
40 0 0 0 1 05
0 0 0 0 0 1
Para ver esto, observe que las columnas de Gn son ortogonales (desde que
cada …la de Gn contiene sólo un elemento no cero) y son no nulos. O, alter-
nativamente, observe que cada …la de In(n+1)=2 es una …la de Gn y que Gn
contiene n(n + 1)=2 …las linealmente independientes.
Ahora, para propósitos de derivar una fórmula recursiva para Gn , sea B que
representa una matriz arbitraria (n + 1) (n + 1), y B particionada como
c bT
B=
a A
2 3
c
6 b 7
QTn+1 vecB = 6 7
4 a 5.
vecA
Además, sea u que representa la primera columna de In+1 y sea U que rep-
resenta la submatriz (n + 1) n de In+1 obtenida por agrupación de u, Qn+1
se puede expresar como
(1) (2)
Qn+1 = Qn+1 ; Qn+1 , donde
(1)
Qn+1 = diag (u; u; :::u) = In+1 u,
(2)
Qn+1 = diag (U; U; :::U) = In+1 U.
Claramente,
2 3
c
vechB = 4 a 5 .
vechA
Así, si B es simétrica (en cual caso A es simétrica y b = a), tenemos que
2 3
2 3 1 0 0
c 60
4 a 5=6 In 0 7 7 vechB
40 In 0 5
vechA
0 0 Gn
o, equivalentemente, que
2 3
1 0 0
60 In 0 7
QTn+1 vecB = 6
40
7 vechB.
In 0 5
0 0 Gn
Concluimos que si B es simétrica, entonces
2 3
1 0 0
60 In 0 7
vecB = Qn+1 6 7
40 In 0 5 vechB.
0 0 Gn
7.2. 16.2. EL OPERADOR VEC 209
Hn Gn = I.
Una elección para, Hn es
Hn = (GTn Gn ) 1 GTn .
(Gn es de rango columna completo, GTn Gn es no singular.)
La premultiplicación de vech de una matriz simétrica A n n por la matriz
de duplicación Gn transforman vech A a vec A. En la premultiplicación a
ambos lados de la igualdad (4.3) por Hn , encontramos que
LGn = I.
Así, como una alternativa para caracterizar la matriz Hn ,como una inversa
a izquierda de Gn , podría caracterizarse como una matriz L n(n + 1)=2
n2 tal que la igualdad (4,7) sostiene que para toda matriz simétrica A
n n. de hecho, como notado por Henderson y Searle (1979), es la última
caracterización que mantiene la motivación para denotar esta matriz por un
h capital- agrega h vec da el vech. Encontramos que
2 3
1 0 0 0
H1 = (1) ; H2 = 40 c c 1 05 , (7.70)
0 0 0 1
2 3
1 0 0 0 0 0 0 0 0
60 c1 0 1 c1 0 0 0 0 07
6 7
60 0 c2 0 0 0 1 c 0 07
H3 = 660 0 0
2 7.
7 (7.71)
6 0 1 0 0 0 07
40 0 0 0 0 c3 0 1 c3 05
0 0 0 0 0 0 0 0 1
Donde c; c1 ; c2 ; y c3 son los escalares arbitrarios. Más generalmente (para
cualquier entero n positivo), la matriz Hn puede describirse en términos de
sus …las. El [(i 1)(n i=2) + i]-ésimo …la de Hn , es la [(i 1)n + i]-ésimo …la
de In2 , y (para i > j) la [(j 1)(n j=2) + i]-ésimo …la de Hn es cualquier
vector …la n2 -dimensional cuyo [(j 1)n + i]-ésimo y [i 1)n + j]-ésimo
elementos suman 1 y cuyos n2 2 elementos permanecen siendo 0.
Nótese que Hn es de rango …la completa, es decir,
rk (Hn ) = n (n + 1) =2 (7.72)
(como es evidente del Lema 8.1.1 observando que Gn , es una inversa a derecha
de Hn ).
Notamos también que
1
Considerando la nueva matriz GTn Gn Gn , (la cual es una opción para
T
Hn ). La matriz Gn Gn n(n + I)=2 n(n + 1)=2 es la diagonal (como las
columnas de Gn son ortogonales). Además, el [(i 1)(n i=2) + i]-ésimo
elemento diagonal de GTn Gn iguales a 1, y (para i > j) el [(j 1)(n
j=2) + i]-ésimo elemento diagonal de GTn Gn iguales 2. Por consiguiente, la
[(i 1)(n i=2) + i]-ésimo …la de GTn Gn 1 Gn es la [i 1)n + i]-ésimo …la de In2
1
, (para i > j) el [(j 1(n j=2) + i]-ésima …la de GTn Gn Gn es un vector
…la n2 -dimensional cuyo [(j 1)n + i]-ésimo y [(i 1)n + j]-ésimo elementos
igual a 1/2 y cuyos restantes n2 2 elementos son iguales a 0.
Por ejemplo, GT1 G1 = (1), GT2 G2 = diag(l; 2; l), y GT3 G3 = diag (1; 2; 2; 1; 2; 1);
1 1 1
y GT1 G1 GT1 , GT2 G2 GT2 , GT3 G3 GT3 son casos especiales de H1 ,
H2 ,y H3 , respectivamente, obtenido c = c1 = c2 = c3 = 1=2 en el resultado
(4.8).
Las fórmulas recursivas para GTn Gn y Hn puede obtenerse de la fórmula
(4.5). Recordando que Qn+1 , es ortogonal, encontramos que
2 3
1 0 0
GTn+1 Gn+1 = 40 2In 0 5 (7.74)
T
0 0 G n Gn
1 1
y que, para Hn+1 = GTn+1 Gn+1 GTn+1 y Hn = GTn Gn GTn ,
2 3
1 0 0 0
Hn+1 = 40 (1=2) In (1=2) In 0 5 QTn+1 . (7.75)
0 0 0 Hn
1
Nótese que, para Hn = GTn Gn GTn ,
1
Gn Hn = GTn Gn GTn = PGn (7.76)
knn Gn = Gn (7.77)
Además, desde kTnn = knn ,
1 1 1
GTn Gn GTn knn = GTn Gn (knn Gn )T = GTn Gn GTn ,
1
entonces que, para Hn = GTn Gn GTn ,
Hn knn = Hn . (7.78)
Nótese que el resultado (4.14) implica que
Ahora, observe [a la luz de los resultados (4.19), (4.16), y (4.17)] que, para
1
Hn = GTn Gn GTn ,
[(1=2)(In2 + Knn ) Gn Hn ]2
(1=2)(In2 + Knn ) Gn Hn = 0
1
o. equivalentemente, que [para Hn = GTn Gn GTn ]
Gn Hn (A A) Gn = (A A) Gn . (7.88)
1
Y. Para Hn = GTn Gn GTn ,
Gn Hn (A A) = (A A) Gn Hn , (7.89)
como es evidente del resultado (4.22) al observar [a la luz del resultado (3.9)]
que
Hn (A A) Gn Hn = Hn (A A) , (7.90)
análogo al resultado (4.26).
Varias propiedades de la matriz, Hn (A A) Gn se dan en el teorema sigu-
iente.
7.2. 16.2. EL OPERADOR VEC 215
H(2)
n (A A) Gn = H(2) (1)
n Gn Hn (A A) Gn = H(1)
n (A A) Gn .
Hn (A A) Gn Hn A A Gn Hn (A A)Gn
= Hn (A A) A A Gn Hn (A A)Gn
= Hn (A A) A A (A A)Gn = Hn (A A)Gn .
1
(3) Fijando Hn = GTn Gn GTn a la luz de la Parte (1), es su…ciente veri…car
la Parte (3) para una sola elección de Hn . Entonces, usando los resultados
(5.2.3), (4.22), (1.25), y (3.15). Encontramos que
tr [Hn (A A) Gn ] = tr [(A A) Gn Hn ]
= trf(A A) [(1=2)(In2 + Knn )]g
= (1=2)tr (A A) + (1=2)tr [(A A) Knn ]
= (1=2) [tr (A)]2 + (1=2) tr A2 .
rk [Hn (A A) Gn ] = tr[Hn (A A) Gn Hn A A Gn ].
216 CAPÍTULO 7. EL PRODUCTO KRONECKER
Más aún, usando el resultado (4.26), la Parte (3). y resultado (10.2.1). En-
contramos que
tr[Hn (A A) Gn Hn A A Gn ]
= tr[Hn (A A) A A Gn ]
= trfHn [ AA AA Gn g
2
= (1=2) tr AA + (1=2) tr AA AA
2
= (1=2) tr AA + (1=2) trAA )
= (1=2) [rk (A)]2 + (1=2) rk (A) .
c bT
B=
a A
(1) (2)
(donde A es n n), y se de…ne Qn+1 = Qn+1 Qn+1 , u, y U como en la
Subsección b. Entonces,
" #
(1)T (1) (1)T (2)
Qn+1 (B B) Qn+1 Qn+1 (B B) Qn+1
QTn+1 (B B) Qn+1 = (2)T (1) (2)T (2)
.
Qn+1 (B B) Qn+1 Qn+1 (B B) Qn+1
c bT uT Bu uT BU
= ITn+1 BIn+1 = (u; U)T B (u; U) = .
a A UT Bu UT BU
encontramos que
7.2. 16.2. EL OPERADOR VEC 217
(1)T (1)
Qn+1 (B B) Qn+1 = In+1 uT (B B) (In+1 u)
T
= B u Bu = B c = cB,
T
(1) (2)
Qn+1 (B B) Qn+1 = In+1 uT (B B) (In+1 U)
T T
= B u BU = B b ,
T
(2) (1)
Qn+1 (B B) Qn+1 = In+1 UT (B B) (In+1 u)
T
= B U Bu = B a,
(2)T (2)
Qn+1 (B B) Qn+1 = In+1 UT (B B) (In+1 U)
T
= B U BU = B A.
Así, a la luz de los resultados (1.27), (1.4), (3.14), y (3.12), tenemos que
2 3
c2 cbT cbT bT bT
6 ca cA abT bT A Knn 7
QTn+1 (B B) Qn+1 6
=4 7.
ca abT cA bT A 5
a a Knn (a A) a A A A
Y a la luz de los resultados (4.12), (4.5), (4.15), y (4.16) [así como la Parte
1
(1) del Teorema 16.4.1],se sigue que, para Hn = GTn Gn GTn ,
Hn+1 (B B) Gn+1
2 3
2 3 1 0 0
1 0 0 0 60 In 0 7
= 0 (1=2) In (1=2) In 0 5 QTn+1 (B
4 B) Qn+1 6
40
7
In 0 5
0 0 0 Hn
0 0 Gn
2 3
c2 cbT cbT bT bT
= 4 ca (1=2) cA + abT
(1=2) cA + abT bT A [(1=2)(In2 + Knn )]5
Hn (a a) Hn (a A) Hn (a A) Hn (A A)
2 3
1 0 0
60 In 0 7
6 7
40 In 0 5
0 0 Gn
218 CAPÍTULO 7. EL PRODUCTO KRONECKER
2 3
c2 2cbT bT bT G n
=4 ca cA + abT bT A G n 5 (7.91)
Hn (a a) 2Hn (a A) Hn (A A) Gn
El resultado (4.29) proporciona lo que es en efecto una fórmula recursiva para
Hn (A A) Gn Sea
c2 2cbT bT bT
S= T Gn Hn (A A ) Gn Hn [a a; 2 (a A)]
ca cA + ab bT A
1
[donde Hn = GTn Gn GTn ]. Y observa [a la luz de la parte (2) del Teorema
16.4.1) que S es un complemento de Schur de la submatriz Hn (A A) Gn
n(n+1)=2 n(n+1)=2, en la esquina inferior derecha de la matriz particionada
(4.29). Además, usando los resultados (4.26), (4.22), y (3.12), encontramos
que
Gn Hn A A Gn Hn [a a; 2 (a A)]
= A A Gn Hn [a a; 2 (a A)]
= A A [(1=2)(In2 + Knn )] [a a; 2 (a A)]
= A A [a a; (a A) + (A a)] .
Así,
2 2 3
c bT A a bT A a 2cbT bT A a bT A a
6 bT A A bT A a 7
S=6
4 ca
7
bT A a AA a cA + abT bT A a A 5
bT A A AA a
2
c2 bT A a 2cbT bT A a bT A A
= ,
ca T
b A a AA a c b A a A + abT
T
AA abT A A
c + bT A 1 a 2bT
S= c bT A 1 a . (7.92)
a A
Considere ahora el determinante de la matriz Hn+1 (B B) Gn+1 . Aplicando
el resultado (13.3.13) para la matriz particionada (4.29), podemos decir que
7.2. 16.2. EL OPERADOR VEC 219
n+1 c + bT A 1 a 2bT
jSj = c bT A 1 a
a A
n+1
= c bT A 1 a jAj c + bT A 1 a 2bT A 1 a
n+2
= c bT A 1 a jAj . (7.94)
n+2
jHn+1 (B B) Gn+1 j = c bT A 1 a jAj jHn (A A) Gn j . (7.95)
c bT
B=
a A
(donde A es n n). Para completar el argumento de la inducción, es su…ciente
mostrar que
220 CAPÍTULO 7. EL PRODUCTO KRONECKER
n+2
jHn+1 (B B) Gn+1 j = c bT A 1 a jAjn+2 jBjn+2 .
Caso (3): B no-singular; pero A singular. Denote la primera,. . . ,n-ésima
columnas de A por a1 ; :::an , respectivamente. Dado que B es no-singular,
las …las de B son Iinealmente independiente, implicando que rk(a; A) = n
y también (dado que A es singular) que el rk(A) = n 1. Por con-
siguiente, A contiene n 1 columnas linealmente independientes, digamos
a1 ; :::; ai 1 ; ai+1 ; :::; an , y a que no se puede expresar como una combinación
lineal de las columnas de A.
Sea e que representa la i-ésima columna de In . Entonces. la matriz A + aeT ,
cuyas columnas son a1 ; :::; ai 1 +a; ai+1 ; :::; an respectivamente, es no-singular
(dado que porP otro lado podrían existir escalares. c1 ; :::; ci 1 ; ci+1 ; :::; cn tales
que ai + a = j6=i cj aj , lo cual implicaría que a se deja expresar como una
combinación lineal de las columnas de A).
Ahora, sea
1 eT
T= .
0 In
Entonces,
c bT + ceT
BT = .
a A + aeT
Más aún jTj = 1.
Dado que In y A + aeT son no-singulares, tenemos [del mismo razonamiento
como en caso (2)] que
AX = B (7.100)
Con una matriz coe…ciente A m n al lado derecho de B m p y una matriz
desconocida X n p. Este sistema lineal puede ser reformulado como un
sistema lineal cuyo lado derecho es un vector mp 1 y de cuyos desconocidos
se colocan en un vector np 1. Este proceso se facilita por el uso del operador
vec (y el uso de productos de Kronecker).
Especí…camente, aplicando al operador vec a cada lateral de la ecuación (5.1)
y recordando el resultado (2.9), obtenemos el sistema lineal equivalente
(Ip A) x = b, (7.101)
donde b = vecB y donde x = vecX es un vector desconocido np 1 la
equivalencia está en el sentido que X es una solución al sistema lineal (5.1) si
y sólo si el vecX es una solución al sistema lineal (5.2). Nótese que el sistema
lineal (5.2) puede ser escrito como
AXC = B, (7.102)
donde A m n es una matriz , C p q una matriz, B m q una matriz y
X n p una matriz desconocida. Al aplicar al operador vec a cada lateral
de la ecuación (5.3) y recordando el resultado (2.10), obtenemos el sistema
(lineal) equivalente
CT A x = b,
donde b = vecB y donde x = vecX es un vector desconocido np 1.
Una extensa generalización es posible. Considere el sistema
X
r X
s
Ai XCi + Lj XT Tj = B, (7.103)
i=1 j=1
X X
= vec (Ai XCi ) + vec Lj XT Tj
i j
X X
= CTi Ai vecX + TTj Lj vecXT
i j
( " # )
X X
= CTi Ai + TTj Lj Knp vecX. (7.104)
i j
X
r
(Ai XCi ) = B (7.106)
i=1
@vec (F) @F
= vec (7.109)
@xj @xj
224 CAPÍTULO 7. EL PRODUCTO KRONECKER
@vech (F) @F
= vech . (7.110)
@xj @xj
Así, la matriz de Jacobiana de vechF es la matriz p(p+1)=2 m cuya j-ésima
columna es el x = (x1 ; :::; xm )T de m vech (@F=@xj ).
Si F es simétrica, entonces claramente [a la luz del resultado (4.6)]
@vec (AXB)
= BT A, (7.116)
@ (vecX)T
y (cuando s = q y r = p) el resultado (6.7) simpli…ca a
@vec (AXB)
T
= jAjq jBjp .
@ (vecX)
Suponga ahora que F es simétrica y que A es cuadrada (en cual caso ambos
F y A son p p). Entonces,
@vech AXAT
= Hp (A A) Gp ,
@ (vechX)T
@vech AXAT
T
= jAjp+1 .
@ (vechX)
Finalmente, considere la matriz Jacobiana de vec(F 1 ), donde F p p es una
matriz de funciones, de…nida en un conjunto S , de un vector x = (x1 ; :::; xm )T
de m variables [con F(x) no singular para cada x en S]. Haciendo uso de los
resultados (15.8.15) y (2.10) [así como el resultado (6.1)], encontramos que
226 CAPÍTULO 7. EL PRODUCTO KRONECKER
@vec (F 1 ) @F 1 @F 1 1
= vec = vec F F
@xj @xj @xj
h i @F
T
= F 1 F 1 vec
@xj
h i @vecF
1 T
= F F 1 . (7.119)
@xj
@vec (F 1 ) h i
1 T 1 @vecF
= F F . (7.120)
@xT @xT
Relacionando la matriz Jacobiana de vec(F 1 ) es decir de vecF. Sin embargo,
cuando m = p2 , se sigue del resultado (6.13). Junto con Corolario 13.2.5, del
2
resultado (3.18), y el Teorema 3.3,7 [y del hecho que ( 1)p = ( 1)p ] que
@vec (F 1 ) @vecF
T
= ( 1)p jFj 2p
. (7.121)
@x @xT
Los cuales relacionan el Jacobiano de vec (F 1 ) al vecF.
En el caso especial donde x = vecX y F (x) = X para alguna matriz X p p
no singular de variables, los resultados (6.13) y (6.14) simpli…ca a
@vec (X 1 ) 1
T
= X X 1. (7.122)
@ (vecX)
@vec (X 1 )
T
= ( 1)p jXj 2p
. (7.123)
@ (vecX)
Suponga ahora que la matriz F (pxp) es simétrica. Entonces
@vech (F 1 ) @vechF
T
= Hp F 1 F 1 Gp . (7.124)
@x @xT
Como es evidente del resultado (6.13) al observar [a a la luz del resultado
(4.6)] que
@vech (F 1 ) @vechF
= ( 1)p(p+1)=2 jFj (p+1)
. (7.125)
@xT @xT
En el caso especial dónde x = vechX y F(x) = X para alguna matriz X
simétrica no singular p p, los resultados (6.17) y (6.18) simpli…can a
@vech (X 1 ) 1 1
T
= Hp X X Gp , (7.126)
@vech (X)
@vech (X 1 )
T
= ( 1)p(p+1)=2 jXj (p+1)
. (7.127)
@vech (X)
7.3. Ejercicios.
Sección 16.1.
1. (Ricardo) Dé ejemplo de una matriz A y una matriz identidad I tales que
A I 6= I A.
B I=I B.
(A + B) (C + D) = (A C) + (A D) + (B C) + (B D).
kA Bk = kAk kBk .
10. Veri…que el resultado (1.27).
11. Muestre que (a) si T y U son ambas matrices triangulares superiores,
entonces T U es una matriz triangular superior, y (b) si T y L son matrices
triangular inferior, entonces T L es una matriz triangular inferior.
12. Sea A que representa una matriz m n y una matriz B n n. Suponga que
A y B tienen descomposiciones LDU , diga A = L1 D1 U1 y B = L2 D2 U2 .
Usando los resultados de Ejercicio11, muestra que A B tiene descomposición
LDU A B = LDU dónde L = L1 L2 , D = :D1 D2 , y U = U1 U2 .
7.3. EJERCICIOS. 229
Sección 16.2.
13. Sea A1 ; A2; :::; Ak que representa k matrices (del mismo tamaño). Muestre
que A1 ; A2 ; :::; Ak son linealmente independientes si y sólo si el vec(Ai ); vec(A2 ); :::; vec(Ak )
son linealmente independiente.
14. Sea m que representa un entero positivo, sea ei que represente la i-ésima
columna de Ii (i = 1; :::; rn), y(para i; j = l; :::; m) sea Uij = ei eTj (en cual
caso Uij es una matriz m m cuyo ij-ésimo elemento es 1 y cuyos m2 1
elementos restante son 0).
(a) Muestre que
X
m
vec(Im ) = ei ei .
i=1
U = x 2 Rmn 1
: x = vec (A) para alguna A 2 V ,
y sea x y que representa el valor asignado a cada par de vectores x e y en U
por un producto interno arbitrario f . Muestre que g es un producto interno
(para V) Si y sólo si existe un f tal que (para todos A y B en V)
230 CAPÍTULO 7. EL PRODUCTO KRONECKER
xT yT = xT Wy.
Sección 16.3.
18. (a) De…na (para m 2) P para ser la matriz permutación tal que, para
cada matriz A m n,
vecA
= PvecA.
r
Donde A es la matriz (m 1) n cuyas …las son respectivamente la primero,...,(m
A
1)-ésimas …las de A y rT es la m-ésima …la de A [donde A = Y
rT
AT = AT ; r ].
Km 1 :n 0
(1) Muestre que Kmn = P.
0 In
7.3. EJERCICIOS. 231
X
n X
m
Kmn = uTj Im uj = ei In eTi .
j=1 i=1
Sección 16.4.
1
24. Muestre que, para Hn = GTn Gn GTn ,
232 CAPÍTULO 7. EL PRODUCTO KRONECKER
Gn Hn HTn = HTn .
25. Existe una única matriz Ln tal que
vechA = Ln vecA
para cada matriz A n n (simétrico o no). (La matriz Ln , es una opción
para la matriz Hn , discutido en la Sección 16.4b. Es referida por Magnas
y Neudecker (1980) como la matriz de eliminación - el efecto de premulti-
plicando el vec de una matriz A n n por Ln , es eliminar (del vec A) los
elementos del A "supradiagonal")
(a) Escriba los elementos de L1 , L2 , y L3 .
(b) Para un entero positivo arbitrario n, describa Ln en términos de sus …las.
26. Sea A que representa una matriz n n y b un vector n 1,
(a) Muestre que (1=2) (A bT ) + (bT A) Gn = (A bT )Gn .
1
b) Muestre que, para Hn = GTn Gn GTn ,
(1) (1=2)Hn [(b A) (A b)] = Hn [(b A),
(2) (A bT )Gn Hn = (1=2) (A bT ) + (bT A) ,
(3) Gn Hn (b A) = (1=2) [(b A) + (A b)].
27. Sea A = faij g que representa una matriz n n (posiblemente no-
simétrica).
1
(a) Muestre que. para Hn = GTn Gn GTn
Hn vecA = (1=2)vech A + AT .
(b) Muestre que
Gn Hn (A A)HTn = (A A)HTn .
29. Muestre que si una matriz A = faij g es triangular superior, triangular
inferior, o diagonal. Entonces Hn (A A)Gn , es respectivamente triangular
7.3. EJERCICIOS. 233
superior, triangular inferior, o diagonal con los elementos diagonales aii ajj
(i = 1; :::; n; j = i; :::; n).
Sección 16.5.
30. Sea A1 ; :::; Ak , yB que representan matrices
Pk m n, y sea b = vecB.
(a) Muestre que la ecuación de la matriz i=1 xi Ai = B (en desconocidos
x1 ; :::; xk ) es equivalente a un sistema lineal de la forma dónde Ax = b donde
x = (x1 ; :::; xm )T es un vector desconocido.
(b) Muestre P que si A1 ; :::; Ak , y B son simétricos, entonces la matriz de la
ecuación ki=1 xi Ai = B (en los desconocidos x1 ; :::; xk ) es equivalente a un
sistema lineal de la forma A x = b , dónde b = vechB y x = (x1 ; :::; xk )T
es un vector desconocido.
Sección 16.6
31. Sea F que representa una matriz de funciones p q, de…nida sobre un
conjunto S, de un vector, x = (x1 ; :::; xm )T de m variables. Muestre que, para
k = 2; 3; :::;
@vec Fk Xh i @vecF
1 T
= Fs Fk s
@xT @xT
(donde F0 = Ip ).
32. Sea F = ffis g y G que representa una matriz de funciones p q y r s,
de…nida sobre un conjunto s, de un vector, x = (x1 ; :::; xm )T de m variables
(a) Muestre que (para j = 1; :::; m)
@ (F G) @G @F
= F + G .
@xj @xj @xj
(b) Muestre que (para j = 1; :::; m)
@ (F G) @vecG @vecF
= (Iq Ksp Ir ) (vecF) + (vecG) .
@xj @xj @xj
@ (F G) @vecG @vecF
= (Iq Ksp Ir ) (vecF) + (vecG) .
@xT @xT @xT
234 CAPÍTULO 7. EL PRODUCTO KRONECKER
@vec (X Y)
= (Iq Ksp Ir ) (Ipq (vecY) ; (vecX) Irs ).
@xT