CAP Sistemas Lineales2015
CAP Sistemas Lineales2015
CAP Sistemas Lineales2015
1
SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS DE PRIMER
ORDEN LINEALES
coeficientes constantes.
Fx I F x′ I LM p (t) p12 ( t ) OP
... p1n ( t ) F q (t)I
Gx J G x′ J G q (t)JJ
1 1 11 1
x=G J x′ = G J P( t ) = M P q=G
2 2 p (t)
21 p 22 ( t ) ... p 2 n ( t ) 2
GG ⋮ JJ GG ⋮ JJ MM ⋮ ⋮ ⋱ ⋮ P
P GG ⋮ JJ
Hx Kn H x′ K
n Np ( t )
n1 p n 2 ( t ) ... p (t)Q
nn H q (t)K
n
Bajo esta representación matricial, las soluciones de los sistemas lineales en un intervalo
I = (α β), x1(t), x2(t),..., xn(t), se pueden interpretar como vectores x(t) de n funciones
41
En adición a las ecuaciones diferenciales que definen el sistema general lineal, pueden
darse también unas condiciones iniciales, teniéndose un problema de valor inicial. Las
condiciones iniciales se representarán con la notación matricial por: x(t0) = x0 con x0 un
n n
vector dado de R o C pudiéndose enunciar el siguiente teorema para estos sistemas
lineales:
Teorema de existencia y unicidad:
Si P(t) y q(t) son matrices continuas en el intervalo abierto I = (α, β) que contiene al punto
t 0 , entonces existe en el intervalo I una única solución del sistema lineal de la forma
x(t) = ( x1 (t ),..., xn (t )) t, que satisface el problema de valor inicial:
x ′ ( t ) = P ( t ) ⋅ x( t ) + q( t )
x(t0) = x0
donde t0 ∈ I y x0 = ( x10 ,..., x n0 ) t ∈ R n (o en su caso C ) dado.
n
Se puede observar que la existencia y unicidad de la solución del sistema está asegurada en
todo el intervalo en que las funciones p ij (t) y q i ( t ) son continuas.
F x (t)I
G x (t)JJ
1j
Representaremos por x ( t ) = G
2j
j
GG ⋮ JJ a los vectores solución de dicha ecuación matricial.
H x (t)K
nj
42
solución forman un espacio vectorial sobre R o C. Probaremos a continuación que la
dimensión de dicho espacio es n.
Con el fin de simplificar la notación, dados n vectores x1 , x 2 , ......, x n solución del sistema
x′ = P(t) · x consideramos la matriz formada por estos vectores columna, que
representaremos por
x11 (t ) x12 (t ) ... x1n (t )
x (t ) x (t ) ... x 2 n (t )
X(t ) = 21 22
⋮ ⋮ ⋱ ⋮
x n1 (t ) x n 2 (t ) ... x nn (t )
43
La expresión W = K · e z trP·dt
recibe el nombre de Fórmula de Abel o Fórmula de
Liouville.
Como conclusión de esta proposición puede decirse que n vectores solución del
sistema homogéneo x ′ = P ( t ) · x son linealmente independientes sobre el intervalo
I=(α,β) si existe algún punto en el intervalo I en el que el wronskiano es distinto de
cero.
• Dado cualquier vector x(t) solución del sistema homogéneo x ′ = P ( t ) · x , con P(t)
matriz continua en el intervalo I=(α,β), x(t) se puede expresar como combinación
lineal de n vectores solución x1 , x 2 , ......, x n linealmente independientes sobre I.
x( t ) = C1 · x1 ( t ) + C 2 · x 2 ( t ) +... + C n · x n ( t ) ∀t ∈ I = (α , β)
Esta observación muestra definitivamente que la dimensión del espacio vectorial de las
soluciones de un sistema lineal homogéneo de ecuaciones de primer orden
x ′ = P ( t ) · x , es n.
LM x (t)
11 x12 ( t ) OP
... x1n ( t )
X( t ) = M P
x ( t)
21 x 22 ( t ) ... x 2 n ( t )
MM ⋮ ⋮ ⋱ ⋮ P
P
Nx ( t )
n1 x n 2 ( t ) ... x (t)Q
nn
FC I
GC J
1
x( t ) = X ( t ) ⋅ C C=G J
2
donde
GG ⋮ JJ
HC K n
44
• Una matriz X(t) es una matriz fundamental del sistema x ′ = P ( t ) · x si y sólo si
Sea el sistema: x ′ = P ( t ) · x + q( t )
donde P(t) es una matriz (nxn) continua ∀ t ∈ I = (α,β) y q(t) es un vector (nx1) también
continuo en el intervalo I.
Se tienen los siguientes resultados de demostración inmediata:
• Dadas x1 y x2 soluciones del sistema no homogéneo (5), la diferencia x1 - x2 es
solución del sistema homogéneo asociado x ′ = P ( t ) · x .
• Cualquier vector solución del sistema x ′ = P ( t ) · x + q( t ) se puede expresar como suma
de la solución general del homogéneo correspondiente y un vector solución particular
del no homogéneo.
45
Conocida una matriz fundamental Ψ(t) de la ecuación matricial homogénea x' = P(t)·x, se
busca una solución del sistema de la forma x = Ψ ( t ) · u donde el vector u debe ser
determinado de modo que el vector x sea solución del sistema.
Sustituyendo en la ecuación del sistema se tiene:
Ψ ′ ( t ) · u + Ψ ( t ) · u ′ = P ( t ) · Ψ ( t ) · u + q( t )
Por ser Ψ(t) matriz fundamental, Ψ ′ ( t ) = P ( t ) · Ψ ( t ) , luego
Ψ ( t ) · u ′ = q( t ) z
⇒ u ′ = Ψ −1 ( t ) · q( t ) ⇒ u = Ψ −1 ( t ) · q( t ) · dt + C
z
x = Ψ ( t ) · Ψ −1 ( t ) · q( t ) · dt + Ψ ( t ) · C
Ejemplo:
N1 −2 Q H 3t K
Una matriz fundamental del sistema homogéneo asociado es Ψ ( t ) =
LM e−3t
e−t OP por lo
N− e −3t
e −t
Q
que la solución del sistema homogéneo es x = Ψ ( t ) · C . Buscaremos la solución del sistema
no homogéneo de la forma x = Ψ ( t ) · u , donde según se ha visto en la teoría anterior u
debe verificar el sistema Ψ ( t ) · u ′ = q( t ) es decir:
OP FG IJ F I R|S
3
LM e−3 t
e−t u1′ 2e − t u1′ = e 2 t − te 3t
Q H K GH JK |T
⋅ = ⇒ 2
N−e −3 t
e −t
u 2′ 3t 3
u ′2 = 1 + te t
2
Integrando y sustituyendo en x = Ψ ( t ) · u se obtiene la solución general del sistema dado:
F te −t 1
+ e−t + t −
4 I
x = Ψ ( t ) · C + GG 2 3 JJ
GH te−t 1 −t
− e + 2t −
2
5
3
JK
A continuación, pasaremos a estudiar un tipo de sistemas para los que la solución general
se puede obtener de forma explícita. En este apartado se construye la solución general de
un sistema de ecuaciones lineales homogéneas de primer orden con coeficientes constantes.
46
Consideremos el sistema x′ = A ⋅ x donde A es una matriz n x n constante. Al ser A una
matriz continua en todo R, se satisfacen los resultados establecidos en el apartado 2 para
todo el intervalo I = (-∞,∞).
Por analogía con la forma de la solución para las ecuaciones lineales de primer orden con
r ⋅ e rt ⋅ a = ert ⋅ A ⋅ a
como e rt no es cero, se obtiene que r ⋅ a = A ⋅ a ⇔ ( A − r ⋅ I ) ⋅ a = 0 donde I es la matriz
identidad n x n. Por tanto el vector x = e rt ⋅ a solución del sistema, viene definido por los
valores r que son los autovalores de A y los vectores a que son sus autovectores asociados.
x′ =
FG 1 1IJ · x
H 4 1K
Suponiendo x = e rt · a , derivando y sustituyendo en el sistema se llega a que
FG 1 1IJ · FG a IJ = r · FG a IJ ⇔ FG1 − r
1 1 1 IJ FG a IJ = 0
1
H 4 1K H a K H a K H 4
2 2 1 − rK H a K 2
Para que este sistema de ecuaciones algebraicas homogéneo tenga solución distinta de la
trivial es necesario que
1− r 1
= 0 ⇔ r1 = 3 y r2 = −1
4 1− r
Determinemos ahora los autovectores asociados a cada uno de estos autovalores:
r1 = 3 ⇒ −2 · a 11 + a 21 = 0 ⇒ a 1 =
FG 1IJ
H 2K
r2 = −1 ⇒ 2 · a12 + a 22 = 0 ⇒ a 2
F 1I
=G J
H −2K
Por tanto las soluciones del sistema de ecuaciones diferenciales dado son:
x1 =
FG 1IJ · e 3t
x2 =
FG 1 IJ · e −t
H 2K y
H −2K
47
El wronskiano de estos vectores solución es:
1 1
W( x1 , x 2 ) = · e 2 t = −4 · e 2 t ≠ 0 ∀t ∈ R
2 −2
Se trata por tanto de soluciones linealmente independientes por lo que la solución general
es:
x = C1 · e 3t ·
FG 1IJ + C · e · FG 1 IJ
−t
H 2K 2
H −2 K
puesto de otra forma:
x 1 = C1 · e 3 t + C 2 · e − t
x 2 = 2 · C1 · e 3 t − 2 · C 2 · e − t
Puesto que según hemos visto, la determinación de soluciones del sistema se reduce a la
obtención de los autovalores de la matriz A, es decir a las raíces de su ecuación
característica det (A - r·I) = 0, y a la de sus autovectores asociados, utilizaremos los
resultados conocidos del Álgebra Lineal para obtener las soluciones del sistema en los
diferentes casos que se pueden presentar. Así, inicialmente distinguiremos dos tipos de
sistemas, hermítico y no hermítico.
Sistema hermítico:
El sistema x′ = A ⋅ x se dice que es hermítico si A es una matriz hermítica es decir, una
matriz que es igual a su transpuesta conjugada (en el caso de ser de elementos reales, una
matriz hermítica es sinónima de simétrica). Los autovalores de A, r1 , r2 ,..., rn son por tanto
todos reales y aunque haya alguno repetido, siempre hay un conjunto de n autovectores
a 1 , a 2 ,..., a n linealmente independientes, que además se pueden elegir de modo que sean
ortogonales.
Por tanto las soluciones del sistema son: x1 ( t ) = a 1 · e r1 ·t , x 2 ( t ) = a 2 · e r2 ·t ,…, x n ( t ) = a n · e rn ·t
48
Cada una de las columnas son los vectores propios a 1 , a 2 ,..., a n , que son linealmente
independientes, por consiguiente, su determinante es distinto de cero y como también lo es
el factor exponencial que aparece en la expresión anterior, entonces W ≠ 0. Luego, la
solución general es en este caso:
x = C1 · a 1 · e r1t + C 2 · a 2 · e r2 t +... + C n · a n · e rn t
Ejemplo:
F −3 I ⋅x
2
Sea el sistema: x′ = GH 2 J
−2 K
F −3 2 I ⋅ FG a IJ = −1⋅ FG a IJ ⇔ F −2 I ⋅ FG a IJ = FG 0IJ ⇔
2
GH 2 J 11
−2 K H a K
21 H a K GH 2
11
21
J 11
−1 K H a K H 0K
21
2 ⋅ a 11 − a 21 = 0
x1 =
FG 1 IJ · e −t
H 2K
razonando análogamente para el autovalor r2 = −4 , la solución correspondiente es
F − 2I · e
x2 = GH 1 JK −4 t
x = C1 ⋅ e − t ⋅
FG 1 IJ + C ⋅ e ⋅ FG − 2 IJ
−4 t
H 2K 2
H1K
que expresada en componentes quedará:
x1 = C1 · e − t − C 2 · 2 · e −4 t
x 2 = C1 · 2 · e − t + C 2 · e −4 t
Sistema no hermítico:
Consideraremos ahora el sistema x′ = A ⋅ x con la matriz A no hermítica y supongamos, en
primer lugar, la matriz A es real y por tanto no simétrica. Pueden presentarse los 3 casos
siguientes:
49
Caso I: Existen n valores propios r1 , r2 ,..., rn reales y distintos. En tal caso habrá n vectores
propios a 1 , a 2 ,..., a n linealmente independientes, por lo que la solución general del sistema
x′ = A ⋅ x adopta la forma x SG = C1 • a1 • e r1t + C 2 • a 2 • e r2t + ... + C n • a n • e rn t .
son también complejas conjugadas. Sus correspondientes partes real e imaginaria serán
también soluciones del sistema de EDO, pero no ya complejas sino reales. Pasemos a
determinarlas a continuación:
Si ri = λ + iµ y a i = c + ib , entonces
Por tanto
x1 = Re( x ) = e λt · ( c · cos µt − b · sinµt ) y x 2 = Im( x ) = e λt · ( c · sinµt + b · cos µt )
Puede demostrarse fácilmente que estas dos soluciones son linealmente independientes.
Si x es una solución compleja del sistema homogéneo x ′ = P ( t ) · x , con P(t) matriz real,
entonces los vectores Re(x) e Im(x) son también soluciones del sistema.
50
Ejemplo:
x′ =
FG − 1 2 IJ · x
1
Sea el sistema:
H −1 − 1 2K
cos t sint
1 1
− •t − •t
x SG = C1 • e 2
• + C 2 • e 2 •
− sint cos t
Caso III: Existen valores propios repetidos, tanto reales como complejos.
Supongamos que la ecuación característica de A tiene un autovalor r = λ de multiplicidad
k, entonces se pueden plantear las dos situaciones siguientes:
A. Que existan k vectores propios asociados a r = λ, a1 , a 2 ,..., a k , linealmente
51
A 2 t 2 A 3t 3 A nt n
e At ≡ I + At + + +... + +...
2! 3! n!
Se puede demostrar que esta serie infinita converge para todo t, y que se puede diferenciar
término a término. En particular
d At
( )
e = A + A 2 t + ... +
A n +1 n
• t + ... = A I + At +... +
An n
· t +... = A · e At
LM OP
dt n! n! N Q
Esto implica que e At · v es solución del sistema para cualquier vector constante v, ya que
d At
e v = A · e At v
dt
Para algunas matrices la serie infinita antes definida, se puede sumar exactamente. En
general, sin embargo, no parece posible expresar e At de una forma compacta. Ahora bien,
veremos que siempre se puede encontrar un número n de vectores v linealmente
independientes para los cuales la serie infinita e At · v se puede sumar exactamente, debido a
que se va a truncar en un número finito de términos.
b g
Teniendo en cuenta que e At · v = e A −λI t · e λIt · v para cualquier constante λ:
FG
e λIt v = I + λIt +
λ2 I 2 t 2 IJ
+... · v = 1 + λt +
λ2 t 2 FG
+... · v = e λt · v
IJ
H 2! K 2! H K
Por lo tanto, e At · v = e λt · eb A − λIgt · v
Entonces si v es un vector tal que A − λI b g m
v = 0 , para algún m entero, entonces, la serie
b g
infinita e A −λI t · v , se trunca en m términos ya que si A − λI b g m
v = 0 , entonces
b A − λI g m+l
b
v = A − λI g b A − λI g
l m
v = 0 ∀l ∈ N
consecuentemente,
t m−1
b g b
e A − λI t · v = v + t · A − λI · v +... + g ( m − 1)!
b· A − λI g m −1
·v
FG b
e At · v = e λt · eb A − λIgt · v = e λt · v + t · A − λI · v +... + g t m−1
· A − λI b g m −1 IJ
y
H ( m − 1)!
·v
K
Este razonamiento sugiere el siguiente algoritmo:
1) Se hallarán todos los vectores v linealmente independientes tales que
bA − λIg v = 0 pero bA − λIgv ≠ 0. Para cada vector v se tendrá que
2
52
b g
e At · v = e λt · e b A − λIgt · v = e λt v + t ( A − λI) v es una solución adicional de x' = A·x.
At λt A − λI tF λt I
e · v = e · eb g · v = e G v + t ( A − λI) v + · ( A − λI) v J
t 2
2
H 2! K
es una solución adicional de x' = A·x.
Ejemplo:
2 1 3 1
Resolvamos el problema de valor inicial: x′ = 0 2 − 1 ⋅ x con x(0)= 2 .
0 0 2 1
La matriz del sistema tiene por valor propio triple r = 2. El subespacio propio asociado a
este autovalor r = 2 está generado por el único vector
F 1I F 1I
v = G 0J ⇒ x = G 0J ⋅e
GH 0JK GH 0JK
2t
1 es una solución del sistema.
Se necesitan calcular otras dos soluciones. Para ello calculamos los vectores v tales que:
( A − 2 I) 2 v = 0 pero ( A − 2 I) v ≠ 0 .
1 0
El espacio de vectores v tales que ( A − 2 I) v = 0 está generado por: v 1 = 0 , v 2 = 1 .
2
0 0
53
Un vector verificando ( A − 2 I) v ≠ 0 es v2. Por lo tanto, una segunda solución linealmente
independiente del sistema es:
F te I 2t
x 2 = e At · v 2 = e 2 t bv + t ( A − 2I) v g = GG e JJ 2t
2 2
GH 0 JK
Para buscar la tercera solución, calculemos los vectores v tales que ( A − 2 I) 3 v = 0 pero
( A − 2 I) 2 v ≠ 0 . El espacio de vectores v tales que ( A − 2 I) 3 v = 0 es R3. Un vector v3 de
F 0I
= G 0J
este espacio verificando ( A − 2 I) 2 v ≠ 0 es v 3 GH 1JK por lo que la tercera solución
FG
x 3 = e At · v 3 = e 2 t v 3 + t ( A − 2 I) v 3
2
I
+ · ( A − 2 I) v J =
t
K GG −ete JJ
2 2t
H 2!
3
2t
H K
La solución general del sistema será combinación lineal de estas tres soluciones.
54
55