Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

CAP Sistemas Lineales2015

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 15

CAPITULO 3.

1
SISTEMAS DE ECUACIONES DIFERENCIALES ORDINARIAS DE PRIMER
ORDEN LINEALES

1. SISTEMAS LINEALES DE ECUACIONES DE PRIMER ORDEN


Si x1(t), x2(t), ..., xn(t) son funciones incógnitas de una variable independiente t, entonces el
sistema lineal de primer orden tiene la forma:
 x1′ = p11 (t ) ⋅ x1 + p12 (t ) ⋅ x2 + ... + p1n (t ) ⋅ xn + q1 (t )
 x′ = p (t ) ⋅ x + p (t ) ⋅ x + ... + p (t ) ⋅ x + q (t )
 2 21 1 22 2 2n n 2

 ...
 xn′ = pn1 (t ) ⋅ x1 + pn 2 (t ) ⋅ x2 + ... + pnn (t ) ⋅ xn + qn (t )

con pij (t ) y qi (t ) ∀i,j = 1,..., n, funciones reales o complejas de variable real t.

Si qi (t ) es cero en cada ecuación, el sistema se dice homogéneo; en caso contrario, se dice

no homogéneo. Cuando las funciones coeficientes pij (t ) son constantes, el sistema es de

coeficientes constantes.

Los sistemas lineales de ecuaciones diferenciales de primer orden admiten la siguiente


representación matricial:
x ′ = P ( t ) · x + q( t )
donde se denota por:

Fx I F x′ I LM p (t) p12 ( t ) OP
... p1n ( t ) F q (t)I
Gx J G x′ J G q (t)JJ
1 1 11 1

x=G J x′ = G J P( t ) = M P q=G
2 2 p (t)
21 p 22 ( t ) ... p 2 n ( t ) 2

GG ⋮ JJ GG ⋮ JJ MM ⋮ ⋮ ⋱ ⋮ P
P GG ⋮ JJ
Hx Kn H x′ K
n Np ( t )
n1 p n 2 ( t ) ... p (t)Q
nn H q (t)K
n

Bajo esta representación matricial, las soluciones de los sistemas lineales en un intervalo
I = (α β), x1(t), x2(t),..., xn(t), se pueden interpretar como vectores x(t) de n funciones

componentes diferenciables en todos los puntos t ∈ I = (α,β) y satisfaciendo las n


ecuaciones del sistema.

41
En adición a las ecuaciones diferenciales que definen el sistema general lineal, pueden
darse también unas condiciones iniciales, teniéndose un problema de valor inicial. Las
condiciones iniciales se representarán con la notación matricial por: x(t0) = x0 con x0 un
n n
vector dado de R o C pudiéndose enunciar el siguiente teorema para estos sistemas
lineales:
Teorema de existencia y unicidad:

Si P(t) y q(t) son matrices continuas en el intervalo abierto I = (α, β) que contiene al punto
t 0 , entonces existe en el intervalo I una única solución del sistema lineal de la forma
x(t) = ( x1 (t ),..., xn (t )) t, que satisface el problema de valor inicial:

x ′ ( t ) = P ( t ) ⋅ x( t ) + q( t )
x(t0) = x0
donde t0 ∈ I y x0 = ( x10 ,..., x n0 ) t ∈ R n (o en su caso C ) dado.
n

Se puede observar que la existencia y unicidad de la solución del sistema está asegurada en
todo el intervalo en que las funciones p ij (t) y q i ( t ) son continuas.

2. TEORÍA BÁSICA DE LOS SISTEMAS LINEALES DE ECUACIONES DE


PRIMER ORDEN HOMOGÉNEOS

Comenzaremos estudiando los sistemas lineales homogéneos de primer orden.


Sea el sistema lineal de ecuaciones diferenciales expresado por la ecuación diferencial
matricial: x ′ = P ( t ) · x con P(t) una matriz nxn continua en el intervalo I = (α,β).

F x (t)I
G x (t)JJ
1j

Representaremos por x ( t ) = G
2j
j
GG ⋮ JJ a los vectores solución de dicha ecuación matricial.
H x (t)K
nj

• Si x1 y x 2 son soluciones del sistema x ′ = P ( t ) · x , entonces C1 ⋅ x1 + C 2 ⋅ x 2 es también


solución, con C1 y C 2 constantes arbitrarias. Este es el principio de superposición y
se demuestra sin más que diferenciar la solución propuesta y sustituirla en la ecuación.
Como consecuencia de este principio, podemos afirmar que el conjunto de vectores

42
solución forman un espacio vectorial sobre R o C. Probaremos a continuación que la
dimensión de dicho espacio es n.

Con el fin de simplificar la notación, dados n vectores x1 , x 2 , ......, x n solución del sistema
x′ = P(t) · x consideramos la matriz formada por estos vectores columna, que
representaremos por
 x11 (t ) x12 (t ) ... x1n (t ) 
 x (t ) x (t ) ... x 2 n (t )
X(t ) =  21 22

 ⋮ ⋮ ⋱ ⋮ 
 
 x n1 (t ) x n 2 (t ) ... x nn (t ) 

• Al determinante de X(t) se le llama wronskiano de las n soluciones y se le representa


por W(t).
• Estos vectores x1, x2,…,xn evaluados en cada punto t0 del intervalo I = (α,β) serán
linealmente independientes si y sólo si el wronskiano es distinto de cero en ese punto.
Pero como son soluciones de la ecuación x ′ = P ( t ) · x se verifica el resultado más
general siguiente:
• Sean x1, x2,…,xn n soluciones del sistema homogéneo x ′ = P ( t ) · x . Entonces x1,
x2,…,xn son linealmente independientes sobre I = (α,β) ⇔ W(t) ≠ 0 ∀t ∈ I = (α,β).
• Si x1 , x 2 , ......, x n son n soluciones del sistema homogéneo x ′ = P ( t ) · x en el intervalo
I=(α,β). Entonces, el wronskiano se anula idénticamente en todo el intervalo o no se
anula nunca.
Demostración:
Este resultado es consecuencia de que el wronskiano W(t) verifica la ecuación
diferencial de primer orden siguiente
dW( t )
dt
b g
= p11 + p 22 +... + p nn · W( t ) = trP ( t ) · W( t )

Integrando se obtiene que W (t ) = K • e ∫


trP • dt
siendo K una constante de integración.

Como la función exponencial no se anula nunca resulta que:


- Si ∃ x0∈I=(α,β) / W(x0) = 0 ⇒ K=0 ⇒W(x) =0 ∀x∈I=(α,β). En cambio,

- Si ∃ x0∈I=(α,β) / W(x0) ≠ 0 ⇒ K≠0 ⇒W(x) ≠ 0 ∀x∈I=(α,β)

43
La expresión W = K · e z trP·dt
recibe el nombre de Fórmula de Abel o Fórmula de
Liouville.
Como conclusión de esta proposición puede decirse que n vectores solución del
sistema homogéneo x ′ = P ( t ) · x son linealmente independientes sobre el intervalo
I=(α,β) si existe algún punto en el intervalo I en el que el wronskiano es distinto de
cero.
• Dado cualquier vector x(t) solución del sistema homogéneo x ′ = P ( t ) · x , con P(t)
matriz continua en el intervalo I=(α,β), x(t) se puede expresar como combinación
lineal de n vectores solución x1 , x 2 , ......, x n linealmente independientes sobre I.
x( t ) = C1 · x1 ( t ) + C 2 · x 2 ( t ) +... + C n · x n ( t ) ∀t ∈ I = (α , β)

Esta observación muestra definitivamente que la dimensión del espacio vectorial de las
soluciones de un sistema lineal homogéneo de ecuaciones de primer orden
x ′ = P ( t ) · x , es n.

• A una base { x1 , x 2 , ......, x n } de este espacio vectorial se le denomina conjunto


fundamental de soluciones , y a la matriz

LM x (t)
11 x12 ( t ) OP
... x1n ( t )

X( t ) = M P
x ( t)
21 x 22 ( t ) ... x 2 n ( t )
MM ⋮ ⋮ ⋱ ⋮ P
P
Nx ( t )
n1 x n 2 ( t ) ... x (t)Q
nn

que tiene a estos x1 , x 2 , ......, x n por vectores columna se le denomina matriz

fundamental del sistema. Esta matriz es regular ∀t∈I=(α,β).


• A la combinación lineal x( t ) = C1 · x1 ( t ) + C 2 · x 2 ( t ) +... + C n · x n ( t ) , con C1 , C 2 ,...., C n
constantes arbitrarias , se le llama solución general del sistema, pudiéndose escribir
ésta en términos de la matriz fundamental como sigue:

FC I
GC J
1

x( t ) = X ( t ) ⋅ C C=G J
2
donde
GG ⋮ JJ
HC K n

44
• Una matriz X(t) es una matriz fundamental del sistema x ′ = P ( t ) · x si y sólo si

X ′ ( t ) = P ( t ) · X( t ) y det X(t0) ≠ 0, siendo t0 ∈ I.


• Sean Ω ( t ) y Θ ( t ) dos matrices fundamentales solución del sistema x ′ = P ( t ) · x .
Entonces existe una matriz constante C tal que Ω ( t ) = Θ ( t ) · C .

Como conclusión final de la teoría anterior cabe mencionar la equivalencia de las


afirmaciones siguientes:
i) Los vectores solución x1 , x 2 , ......, x n son linealmente independientes en el
intervalo I=(α,β), es decir constituyen un conjunto fundamental de soluciones
del sistema, con X(t) matriz fundamental.
ii) ∃ t0 ∈I=(α,β) / W(t0) =det X(t0) ≠ 0.

iii) ∀t∈I=(α,β) W(t) = det X(t) ≠ 0

3. SISTEMAS LINEALES NO HOMOGÉNEOS

Sea el sistema: x ′ = P ( t ) · x + q( t )
donde P(t) es una matriz (nxn) continua ∀ t ∈ I = (α,β) y q(t) es un vector (nx1) también
continuo en el intervalo I.
Se tienen los siguientes resultados de demostración inmediata:
• Dadas x1 y x2 soluciones del sistema no homogéneo (5), la diferencia x1 - x2 es
solución del sistema homogéneo asociado x ′ = P ( t ) · x .
• Cualquier vector solución del sistema x ′ = P ( t ) · x + q( t ) se puede expresar como suma
de la solución general del homogéneo correspondiente y un vector solución particular
del no homogéneo.

Se tratará de encontrar soluciones particulares de dicho sistema no homogéneo mediante el


método de Variación de los parámetros, válido para cualquier sistema lineal no
homogéneo.

45
Conocida una matriz fundamental Ψ(t) de la ecuación matricial homogénea x' = P(t)·x, se
busca una solución del sistema de la forma x = Ψ ( t ) · u donde el vector u debe ser
determinado de modo que el vector x sea solución del sistema.
Sustituyendo en la ecuación del sistema se tiene:
Ψ ′ ( t ) · u + Ψ ( t ) · u ′ = P ( t ) · Ψ ( t ) · u + q( t )
Por ser Ψ(t) matriz fundamental, Ψ ′ ( t ) = P ( t ) · Ψ ( t ) , luego

Ψ ( t ) · u ′ = q( t ) z
⇒ u ′ = Ψ −1 ( t ) · q( t ) ⇒ u = Ψ −1 ( t ) · q( t ) · dt + C

Luego la solución general del sistema x ′ = P ( t ) · x + q( t ) será:

z
x = Ψ ( t ) · Ψ −1 ( t ) · q( t ) · dt + Ψ ( t ) · C

Ejemplo:

Sea el sistema no homogéneo siguiente: x ′ =


LM−2 1 OP ⋅ x + FG 2e IJ
−t

N1 −2 Q H 3t K
Una matriz fundamental del sistema homogéneo asociado es Ψ ( t ) =
LM e−3t
e−t OP por lo
N− e −3t
e −t
Q
que la solución del sistema homogéneo es x = Ψ ( t ) · C . Buscaremos la solución del sistema
no homogéneo de la forma x = Ψ ( t ) · u , donde según se ha visto en la teoría anterior u
debe verificar el sistema Ψ ( t ) · u ′ = q( t ) es decir:

OP FG IJ F I R|S
3
LM e−3 t
e−t u1′ 2e − t u1′ = e 2 t − te 3t

Q H K GH JK |T
⋅ = ⇒ 2
N−e −3 t
e −t
u 2′ 3t 3
u ′2 = 1 + te t
2
Integrando y sustituyendo en x = Ψ ( t ) · u se obtiene la solución general del sistema dado:
F te −t 1
+ e−t + t −
4 I
x = Ψ ( t ) · C + GG 2 3 JJ
GH te−t 1 −t
− e + 2t −
2
5
3
JK

4. SISTEMA LINEAL HOMOGÉNEO CON COEFICIENTES CONSTANTES

A continuación, pasaremos a estudiar un tipo de sistemas para los que la solución general
se puede obtener de forma explícita. En este apartado se construye la solución general de
un sistema de ecuaciones lineales homogéneas de primer orden con coeficientes constantes.

46
Consideremos el sistema x′ = A ⋅ x donde A es una matriz n x n constante. Al ser A una
matriz continua en todo R, se satisfacen los resultados establecidos en el apartado 2 para
todo el intervalo I = (-∞,∞).

Por analogía con la forma de la solución para las ecuaciones lineales de primer orden con

coeficientes constantes, se busca una solución de la forma x = e rt ⋅ a donde el vector a y el


escalar r son constantes a determinar. Derivando y sustituyendo en la ecuación matricial se
llega a:

r ⋅ e rt ⋅ a = ert ⋅ A ⋅ a
como e rt no es cero, se obtiene que r ⋅ a = A ⋅ a ⇔ ( A − r ⋅ I ) ⋅ a = 0 donde I es la matriz

identidad n x n. Por tanto el vector x = e rt ⋅ a solución del sistema, viene definido por los
valores r que son los autovalores de A y los vectores a que son sus autovectores asociados.

Ejemplo: Consideremos el sistema homogéneo de coeficientes constantes:

x′ =
FG 1 1IJ · x
H 4 1K
Suponiendo x = e rt · a , derivando y sustituyendo en el sistema se llega a que
FG 1 1IJ · FG a IJ = r · FG a IJ ⇔ FG1 − r
1 1 1 IJ FG a IJ = 0
1

H 4 1K H a K H a K H 4
2 2 1 − rK H a K 2

Para que este sistema de ecuaciones algebraicas homogéneo tenga solución distinta de la
trivial es necesario que
1− r 1
= 0 ⇔ r1 = 3 y r2 = −1
4 1− r
Determinemos ahora los autovectores asociados a cada uno de estos autovalores:

r1 = 3 ⇒ −2 · a 11 + a 21 = 0 ⇒ a 1 =
FG 1IJ
H 2K
r2 = −1 ⇒ 2 · a12 + a 22 = 0 ⇒ a 2
F 1I
=G J
H −2K
Por tanto las soluciones del sistema de ecuaciones diferenciales dado son:

x1 =
FG 1IJ · e 3t
x2 =
FG 1 IJ · e −t

H 2K y
H −2K

47
El wronskiano de estos vectores solución es:
1 1
W( x1 , x 2 ) = · e 2 t = −4 · e 2 t ≠ 0 ∀t ∈ R
2 −2
Se trata por tanto de soluciones linealmente independientes por lo que la solución general
es:

x = C1 · e 3t ·
FG 1IJ + C · e · FG 1 IJ
−t

H 2K 2
H −2 K
puesto de otra forma:
x 1 = C1 · e 3 t + C 2 · e − t
x 2 = 2 · C1 · e 3 t − 2 · C 2 · e − t

Puesto que según hemos visto, la determinación de soluciones del sistema se reduce a la
obtención de los autovalores de la matriz A, es decir a las raíces de su ecuación
característica det (A - r·I) = 0, y a la de sus autovectores asociados, utilizaremos los
resultados conocidos del Álgebra Lineal para obtener las soluciones del sistema en los
diferentes casos que se pueden presentar. Así, inicialmente distinguiremos dos tipos de
sistemas, hermítico y no hermítico.

Sistema hermítico:
El sistema x′ = A ⋅ x se dice que es hermítico si A es una matriz hermítica es decir, una
matriz que es igual a su transpuesta conjugada (en el caso de ser de elementos reales, una
matriz hermítica es sinónima de simétrica). Los autovalores de A, r1 , r2 ,..., rn son por tanto
todos reales y aunque haya alguno repetido, siempre hay un conjunto de n autovectores
a 1 , a 2 ,..., a n linealmente independientes, que además se pueden elegir de modo que sean
ortogonales.
Por tanto las soluciones del sistema son: x1 ( t ) = a 1 · e r1 ·t , x 2 ( t ) = a 2 · e r2 ·t ,…, x n ( t ) = a n · e rn ·t

Estas soluciones son linealmente independientes ya que su wronskiano es:


a 11 a12 ⋯ a 1n
a 21 a 22 ⋯ a 2 n
W( t ) = ⋅ e ( r1 + r2 + r3 + ...+ rn )•t
⋮ ⋮ ⋱ ⋮
a n1 a n 2 ... a nn

48
Cada una de las columnas son los vectores propios a 1 , a 2 ,..., a n , que son linealmente
independientes, por consiguiente, su determinante es distinto de cero y como también lo es
el factor exponencial que aparece en la expresión anterior, entonces W ≠ 0. Luego, la
solución general es en este caso:
x = C1 · a 1 · e r1t + C 2 · a 2 · e r2 t +... + C n · a n · e rn t
Ejemplo:
F −3 I ⋅x
2
Sea el sistema: x′ = GH 2 J
−2 K

La ecuación característica de la matriz A es: r 2 + 5 · r + 4 = 0


y sus raíces son: r1 = −1 y r2 = −4
Para r1 = −1 :

F −3 2 I ⋅ FG a IJ = −1⋅ FG a IJ ⇔ F −2 I ⋅ FG a IJ = FG 0IJ ⇔
2
GH 2 J 11

−2 K H a K
21 H a K GH 2
11

21
J 11

−1 K H a K H 0K
21
2 ⋅ a 11 − a 21 = 0

luego la solución correspondiente a este autovalor es:

x1 =
FG 1 IJ · e −t

H 2K
razonando análogamente para el autovalor r2 = −4 , la solución correspondiente es
F − 2I · e
x2 = GH 1 JK −4 t

y la solución general es por tanto:

x = C1 ⋅ e − t ⋅
FG 1 IJ + C ⋅ e ⋅ FG − 2 IJ
−4 t

H 2K 2
H1K
que expresada en componentes quedará:
x1 = C1 · e − t − C 2 · 2 · e −4 t

x 2 = C1 · 2 · e − t + C 2 · e −4 t

Sistema no hermítico:
Consideraremos ahora el sistema x′ = A ⋅ x con la matriz A no hermítica y supongamos, en
primer lugar, la matriz A es real y por tanto no simétrica. Pueden presentarse los 3 casos
siguientes:

49
Caso I: Existen n valores propios r1 , r2 ,..., rn reales y distintos. En tal caso habrá n vectores
propios a 1 , a 2 ,..., a n linealmente independientes, por lo que la solución general del sistema
x′ = A ⋅ x adopta la forma x SG = C1 • a1 • e r1t + C 2 • a 2 • e r2t + ... + C n • a n • e rn t .

Caso II: Existen valores propios complejos conjugados dos a dos.


Supongamos que entre los valores propios de A hay alguno complejo. Por ser A real si ri es
complejo, su complejo conjugado ri también es valor propio. Los vectores propios
asociados serán también complejos conjugados. En efecto, suponiendo que ai es vector
propio asociado a ri:
( A − ri I) a i = 0 ⇔ ( A − ri I) a i = 0 ⇔ ( A − ri I) a i = 0
por lo que a i es el vector propio asociado a ri .
Las soluciones complejas correspondientes a estos valores y vectores propios:
x = e ri ·t · a i , x = e ri ·t · a i

son también complejas conjugadas. Sus correspondientes partes real e imaginaria serán
también soluciones del sistema de EDO, pero no ya complejas sino reales. Pasemos a
determinarlas a continuación:
Si ri = λ + iµ y a i = c + ib , entonces

x = e λt + iµt · ( c + ib ) = e λt · (cos µt + i · sinµt ) · ( c + ib )


= e λt · ( c · cos µt − b · sinµt ) + i · e λt · ( c · sinµt + b · cos µt )

Por tanto
x1 = Re( x ) = e λt · ( c · cos µt − b · sinµt ) y x 2 = Im( x ) = e λt · ( c · sinµt + b · cos µt )

Puede demostrarse fácilmente que estas dos soluciones son linealmente independientes.

Este resultado es un caso particular del resultado más general siguiente:

Si x es una solución compleja del sistema homogéneo x ′ = P ( t ) · x , con P(t) matriz real,
entonces los vectores Re(x) e Im(x) son también soluciones del sistema.

50
Ejemplo:

x′ =
FG − 1 2 IJ · x
1
Sea el sistema:
H −1 − 1 2K

Los valores propios son r = − 1 2 ± i y sus vectores propios:


FG 1 IJ , es decir, las soluciones
H ± iK
x1 =
FG1IJ ⋅ e ( −1/ 2 + i ) t
, x 2 = x1 =
FG 1 IJ ⋅ e ( −1/ 2 − i ) t
complejas son:
H iK H − iK
y hallando sus partes real e imaginaria la solución general del sistema dado será:

 cos t   sint 
1 1
− •t − •t
x SG = C1 • e 2
•   + C 2 • e 2 •  
 − sint   cos t 

Caso III: Existen valores propios repetidos, tanto reales como complejos.
Supongamos que la ecuación característica de A tiene un autovalor r = λ de multiplicidad
k, entonces se pueden plantear las dos situaciones siguientes:
A. Que existan k vectores propios asociados a r = λ, a1 , a 2 ,..., a k , linealmente

independientes. Entonces, asociadas a r = λ existen las k soluciones linealmente

independientes del sistema, x1 = a1 • ert , x 2 = a 2 • e rt ,..., x k = a k • e rt , que serían necesarias

para la solución general del sistema x′ = A ⋅ x .

B. Que exista un número p < k de vectores propios linealmente independientes


asociados a r = λ . En este caso sólo podremos determinar de la forma anterior p soluciones

linealmente independientes, x1 = a1 • ert , x 2 = a 2 • ert ,..., x p = a p • ert , correspondientes al

autovalor r = λ,. Nuestro problema ahora es encontrar k-p soluciones adicionales


linealmente independientes.

Teniendo en cuenta que la solución de la ecuación diferencial escalar x' = a·x es


x ( t ) = e at · c , para cualquier constante c, análogamente, nos gustaría decir que x ( t ) = e At · v
es solución del sistema de ecuación diferencial matricial x ′ = A · x , para cualquier vector
constante v.
Empecemos definiendo el término e At . Si A es una matriz nxn se tiene que:

51
A 2 t 2 A 3t 3 A nt n
e At ≡ I + At + + +... + +...
2! 3! n!
Se puede demostrar que esta serie infinita converge para todo t, y que se puede diferenciar
término a término. En particular
d At
( )
e = A + A 2 t + ... +
A n +1 n
• t + ... = A I + At +... +
An n
· t +... = A · e At
LM OP
dt n! n! N Q
Esto implica que e At · v es solución del sistema para cualquier vector constante v, ya que
d At
e v = A · e At v
dt
Para algunas matrices la serie infinita antes definida, se puede sumar exactamente. En
general, sin embargo, no parece posible expresar e At de una forma compacta. Ahora bien,
veremos que siempre se puede encontrar un número n de vectores v linealmente
independientes para los cuales la serie infinita e At · v se puede sumar exactamente, debido a
que se va a truncar en un número finito de términos.
b g
Teniendo en cuenta que e At · v = e A −λI t · e λIt · v para cualquier constante λ:
FG
e λIt v = I + λIt +
λ2 I 2 t 2 IJ
+... · v = 1 + λt +
λ2 t 2 FG
+... · v = e λt · v
IJ
H 2! K 2! H K
Por lo tanto, e At · v = e λt · eb A − λIgt · v
Entonces si v es un vector tal que A − λI b g m
v = 0 , para algún m entero, entonces, la serie
b g
infinita e A −λI t · v , se trunca en m términos ya que si A − λI b g m
v = 0 , entonces

b A − λI g m+l
b
v = A − λI g b A − λI g
l m
v = 0 ∀l ∈ N

consecuentemente,
t m−1
b g b
e A − λI t · v = v + t · A − λI · v +... + g ( m − 1)!
b· A − λI g m −1
·v

FG b
e At · v = e λt · eb A − λIgt · v = e λt · v + t · A − λI · v +... + g t m−1
· A − λI b g m −1 IJ
y
H ( m − 1)!
·v
K
Este razonamiento sugiere el siguiente algoritmo:
1) Se hallarán todos los vectores v linealmente independientes tales que
bA − λIg v = 0 pero bA − λIgv ≠ 0. Para cada vector v se tendrá que
2

52
b g
e At · v = e λt · e b A − λIgt · v = e λt v + t ( A − λI) v es una solución adicional de x' = A·x.

2) Si todavía no se tienen las k soluciones asociadas a r = λ suficientes, se calcularán todos

los vectores v linealmente independientes tales que b A − λIg v = 0,


3
pero que

bA − λIg v ≠ 0. Para cada vector v se tendrá que


2

At λt A − λI tF λt I
e · v = e · eb g · v = e G v + t ( A − λI) v + · ( A − λI) v J
t 2
2

H 2! K
es una solución adicional de x' = A·x.

3) Se procederá de la misma forma hasta obtener las k soluciones linealmente


independientes asociadas a r = λ .

Se puede demostrar que el conjunto de n soluciones que se obtengan serán linealmente


independientes.

Ejemplo:
2 1 3  1
   
Resolvamos el problema de valor inicial: x′ = 0 2 − 1 ⋅ x con x(0)=  2  .
0 0 2  1
 

La matriz del sistema tiene por valor propio triple r = 2. El subespacio propio asociado a
este autovalor r = 2 está generado por el único vector
F 1I F 1I
v = G 0J ⇒ x = G 0J ⋅e
GH 0JK GH 0JK
2t
1 es una solución del sistema.

Se necesitan calcular otras dos soluciones. Para ello calculamos los vectores v tales que:
( A − 2 I) 2 v = 0 pero ( A − 2 I) v ≠ 0 .

1  0
   
El espacio de vectores v tales que ( A − 2 I) v = 0 está generado por: v 1 =  0  , v 2 =  1  .
2

 0  0
   

53
Un vector verificando ( A − 2 I) v ≠ 0 es v2. Por lo tanto, una segunda solución linealmente
independiente del sistema es:
F te I 2t

x 2 = e At · v 2 = e 2 t bv + t ( A − 2I) v g = GG e JJ 2t
2 2
GH 0 JK
Para buscar la tercera solución, calculemos los vectores v tales que ( A − 2 I) 3 v = 0 pero
( A − 2 I) 2 v ≠ 0 . El espacio de vectores v tales que ( A − 2 I) 3 v = 0 es R3. Un vector v3 de

F 0I
= G 0J
este espacio verificando ( A − 2 I) 2 v ≠ 0 es v 3 GH 1JK por lo que la tercera solución

linealmente independiente del sistema es:


F ( 3t − 1 t ) e I
GG 2 JJ
2 2t

FG
x 3 = e At · v 3 = e 2 t v 3 + t ( A − 2 I) v 3
2
I
+ · ( A − 2 I) v J =
t
K GG −ete JJ
2 2t

H 2!
3
2t

H K
La solución general del sistema será combinación lineal de estas tres soluciones.

54
55

También podría gustarte