Ecuaciones Diferenciales PDF
Ecuaciones Diferenciales PDF
Ecuaciones Diferenciales PDF
Ecuaciones Diferenciales
II
II
Í NDICE GENERAL
III
IV ÍNDICE GENERAL
IV
C APÍTULO 1
Métodos elementales de
resolución de ecuaciones
diferenciales ordinarias
1
2
(a) x0 = et − 2t
t2 −1
(b) ( x2 + 9) y0 + xy = 0
dy
(c) dx = 2xe− y
(d) x0 = 1+t
t2 x2
(e) x0 = et+x
2
Métodos elementales 3
6
1·10
800000
600000
400000
200000
3
4
y0 x
=− 2
y x +9
C
y( x) = √ .
x2 + 9
dy
(c) Separando las variables resulta e y dx = 2x, de donde se obtiene la
solución general
y( x) = log( x2 + C ) , C ∈ R : x2 + C > 0 ,
1+t
x2 x0 = .
t2
Integrando entonces con respecto a t en ambos miembros de la ecua-
ción encontramos que la solución general de la misma viene dada
por
1
1 3
x(t) = 3 log(|t|) − +C , C ∈ R.
t
4
Métodos elementales 5
cuya única solución viene dada por x(t) = A0 eλt . Para tener com-
pletamente determinada la solución necesitamos conocer el valor de
la constante de desintegración λ, el cual puede encontrarse a través
de la relación (establecida en el enunciado del problema)
0,0043 99,9957
x(15) = 1 − A0 = A0 ,
100 100
por lo que ha de ser
99,9957 1 99,9957
A0 e15λ = A0 ⇔ λ = log .
100 15 100
A0
99,9957
1
log t0
A0 e 15 100 =
2
15 log(2)
⇔ t0 = = 241790 años .
log(100) − log(99,9957)
( f g)0 = f 0 g0
1 Tiempo necesario para que la cantidad inicial de átomos se reduzca a la mitad
5
6
3 +2x
es falsa en general. Si fijamos f ( x) = e x , determina las funciones
g que verifican dicha identidad.
Entonces ha de cumplirse
3 +2x 3 +2x
(3x2 + 1) e x g0 ( x) = (3x2 + 2) e x g( x)
o, equivalentemente,
g0 ( x) 3x2 + 2
= 2 .
g( x) 3x + 1
Resolviendo esta ecuación diferencial en variables separadas obtene-
mos √
x+ √1 arctan( 3x)
g( x) = C e 3 , C ∈ R.
(a) 3x + y − 2 + y0 ( x − 1) = 0
(c) x + ( x − t) x0 = 0
(d) 2t + 3x + ( x + 2) x0 = 0
6
Métodos elementales 7
3x + y − 2 = 0 , 1−x = 0,
X = x−1, Y = y+1.
Y + 3X Y
Y 0 = y0 = − = +3, (1.1)
X X
que es una ecuación diferencial homogénea. Haciendo ahora el cam-
Y
bio de función incógnita u = X y usando (1.1) obtenemos
Y 0 = u + Xu0 = u + 3 ,
y( x) = 3( x − 1) log(| x − 1|) + C ( x − 1) − 1 , C ∈ R.
de donde resulta
o, equivalentemente,
tz2α +1 ( z/t)2α +1
0 2 2
z =− =−
α t2 z2α − 1 α ( z/t)2α − (1/t2α +2 )
7
8
x log(| x|) + t + Cx = 0 , C ∈ R.
3x + 2t = 0 , x+2 = 0,
2u z
= t y x = zα
8
Métodos elementales 9
T = t−3, X = x+2.
3X + 2T 3X + 2
X 0 = x0 = − = − TX , (1.2)
X T
X
que es homogénea. Haciendo ahora u = T y usando (1.2) obtenemos
3u + 2
X 0 = u + Tu0 = − ,
u
de donde se deduce que
u2 + 3u + 2
0 1
u =− .
T u
( X + 2T )2
= CT 2
X+T
y después a
( x + 2t − 4)2
= C (t − 3)2 .
x+t−1
6. Encuentra la curva plana que pasa por (1, 1) y verifica que dado un
punto cualquiera ( x, y), al considerar el corte de la recta tangente a
la curva en ese punto con el eje de ordenadas y el corte de la recta
normal con el eje de abscisas, su distancia al origen es la misma.
9
10
x = xx−
0 t
+t ,
x(1) = 1
0
x = tx−+xt
,
x(1) = 1
correspondientes ambos a ecuaciones homogéneas. El primero de
ellos puede reescribirse de la siguiente forma
x
−1
(
x0 = xt +1
t .
x(1) = 1
Haciendo el cambio de variable u = xt se llega a la siguiente ecuación
diferencial con variables separadas
1 u2 + 1
0
u =− ,
t u+1
con dato inicial asociado u(1) = x(1) = 1, cuya única solución3
satisface la siguiente relación implícita:
x π
2 arctan + log( x2 + t2 ) = + log(2) .
t 2
3 Es inmediato verificar las condiciones del teorema de existencia y unicidad de solu-
ciones
10
Métodos elementales 11
(Febrero 1993)
(Febrero 1996)
11
12
15
10
-4 -2 2 4
-5
-10
-15
12
Métodos elementales 13
En efecto,
∂P ∂Q
= 2t cos(tx) − t2 x sen(tx) = .
∂x ∂t
Entonces
∂F
= P ⇒ F (t, x) = t sen(tx) + H ( x) .
∂t
Por otro lado
∂F
= Q ⇒ H0 ≡ 0 ⇒ H ≡ k ∈ R .
∂x
Por tanto, la solución general responde a la siguiente relación implí-
cita:
t sen(tx) = C ∈ R .
sen(2x) sen2 ( x)
P( x, y) = +x, Q( x, y) = y − .
y y2
En efecto,
∂P 2 sen( x) cos( x) ∂Q
=− = .
∂y y 2 ∂x
Entonces
∂F cos(2x) x2
= P ⇒ F ( x, y) = − + + H ( y) .
∂x 2y 2
Por otro lado
∂F 1 y2 1
= Q ⇒ H 0 ( y) = y − 2 ⇒ H ( y) = + .
∂y 2y 2 2y
Por tanto, la solución general responde a la siguiente relación implí-
cita:
1
y2 + x2 + 1 − cos(2x) = C ∈ R .
y
(c) La ecuación no es exacta, ya que para las funciones
13
14
Entonces resulta
o, equivalentemente,
3m + 4n = −14 , 3n + 4m = −7 ,
∂F
= y3 x−5 (3xy − 4) ⇒ F ( x, y) = − x−3 y4 + x−4 y3 + H ( y) .
∂x
Por otro lado
∂F
= x−4 y2 (3 − 4xy) = −4x−3 y3 + 3x−4 y2 + H 0 ( y) ⇒ H ≡ k ∈ R .
∂y
Consecuentemente, la solución responde al siguiente esquema im-
plícito:
x−4 y3 (1 − xy) = C ∈ R .
∂P ∂Q
≡ −1 , = y−1.
∂y ∂x
P? ( x, y) = − yµ ( y) , Q? ( x, y) = x( y − 1)µ ( y) .
14
Métodos elementales 15
Entonces ha de cumplirse
− yµ 0 ( y) − µ ( y) = ( y − 1)µ ( y) ⇒ µ ( y) = e− y .
Buscamos finalmente F ( x, y) tal que
∂F ∂F
= − ye− y , = x( y − 1)e− y .
∂x ∂y
Se tiene que
F ( x, y) = − xye− y + H ( y) y x( y − 1)e− y = − xe− y + xye− y + H 0 ( y) ,
de lo cual resulta finalmente que H ≡ k ∈ R, por lo que la solución
de la ecuación de partida responde a la siguiente relación implícita:
xye− y = C ∈ R .
(t + 1)2µ 0 (t + x) = 2tµ (t + x) + (1 + t2 )µ 0 (t + x) .
Resolviendo esta ecuación obtenemos µ (t + x) = et+x . Buscamos en-
tonces F (t, x) tal que
∂F
= (t + 1)2 et+x ⇒ F (t, x) = (1 + t2 )et+x + H ( x) .
∂t
Finalmente, la función H ( x) queda determinada sin más que impo-
ner la condición
∂F
= (1 + t2 )et+x + H 0 ( x) = Q(t, x)µ (t + x) = (1 + t2 )et+x ,
∂x
que nos conduce a H ≡ k ∈ R. Por tanto, la solución x(t) viene dada
por la ley implícita
(1 + t2 ) et+ x = C ∈ R .
15
16
P( x, y) = 1 + xy + y2 , Q( x, y) = 1 + xy + x2 ,
se tiene que
∂P ∂Q
= x + 2y 6= y + 2x = .
∂y ∂x
Buscamos un factor integrante de la forma µ ( x, y) = µ ( xy). La con-
dición suficiente y necesaria que ha de cumplirse para que en nuestro
caso µ ( xy) sea factor integrante es
∂F
= (1 + xy + y2 )e xy ⇒ F ( x, y) = ( x + y)e xy + H ( y) .
∂x
Finalmente, la función H ( y) queda determinada al imponer la con-
dición
∂F
= ( x2 + xy + 1)e xy + H 0 ( y) = Q( x, y)µ ( xy) = (1 + xy + x2 )e xy ,
∂y
P( x, y) = x + y2 , Q( x, y) = 2( y2 + y + x − 1) ,
se tiene que
∂P ∂Q
= 2y 6= 2 = .
∂y ∂x
Buscamos un factor integrante de la forma µ = µ (e ax+by ), el cual
habrá de verificar la siguiente condición suficiente y necesaria:
16
Métodos elementales 17
17
18
∂F 2xy
=− 2 + H 0 ( y)
∂y ( y − x2 + 1)2
2xy
= Q( x, y)µ ( y2 − x2 ) = − ,
( y2 − x2 + 1)2
2
2t = a(t)t2 ⇒ a(t) = ∀ t 6= 0
t
y, en cualquier caso, el coeficiente a(t) sólo estaría definido en R \ {0}
(no en R).
Sin embargo, la respuesta es SI para el caso no homogéneo x0 (t) =
a(t) x(t) + b(t). En efecto, bastaría con encontrar funciones continuas
18
Métodos elementales 19
1 + cos(2t)
cos2 (t) = .
2
19
20
Al evaluarla en t + π se obtiene
1 1 1 1
x(t + π ) = Ce(µ + 2 )(t+π )+ 4 sen(2t+2π ) = Ce(µ + 2 )(t+π )+ 4 sen(2t) ,
es decir, µ = − 12 .
(a) x0 − tx = 3t
(b) y0 = 5y + cos( x)
0 2t
(c) x = t2 +1 x + t3
(d) x0 − 2x = 4e2t
t2
luego C 0 (t) = 3te− 2 . Por tanto
t2
C (t) = −3e− 2 + K , K ∈ R.
yh = Ce5x , C ∈ R.
20
Métodos elementales 21
xh = C (t2 + 1) , C ∈ R.
xh = Ce2t , C ∈ R.
21
22
(b) x0 − x
t = 1
1+t2
, x(2) = 0
x(t) = (t + K ) e−3t , K ∈ R.
(1 + K ) e−3 = 5 ⇒ K = 5e3 − 1 ,
luego
x(t) = (t + 5e3 − 1) e−3t .
1 1
C0 t + C − C = 2
⇒ C 0 (t) =
1+t t(1 + t2 )
t
⇒ C (t) = log √ +K, K ∈ R.
1 + t2
Entonces la solución general de la ecuación completa es
t
x(t) = log √ +K t, K ∈ R.
1 + t2
22
Métodos elementales 23
xh (t) = C esenh(t) , C ∈ R.
Por tanto
x(t) = (t + K ) esenh(t) , K ∈ R.
Al imponer finalmente x(0) = 1 obtenemos K = 1 y, en consecuen-
cia, la única solución de nuestro problema de valores iniciales es
x(t) = (t + 1) esenh(t) .
x0 = − a(t) x + b(t)
23
24
− tt a(s) ds
n R o n Rt o
− t c ds
0 ≤ lı́m x0 e ≤ | x0 | lı́m e
0 0
t→∞ t→∞
n o
= | x0 | lı́m e−c(t−t0 ) = 0 .
t→∞
t3
(a) 3tx0 − 2x = x2
(b) x0 = et x7 + 2x
24
Métodos elementales 25
y log( x)
(c) y0 + x = x y2
0 2 t2 −2
x − x= x . (1.4)
3t 3
Multiplicando ahora la ecuación (1.4) por x2 llegamos a
2 3 t2
x2 x0 − x = ,
3t 3
que es equivalente a la ecuación
0 2 t2
z − z= (1.5)
t 3
3
vía el cambio de variable z = x3 . La solución general de la ecuación
(1.5) es
2 t
z(t) = t +C , C ∈ R,
3
luego deshaciendo el cambio de variable obtenemos
1
x(t) = (t3 + Ct2 ) 3 , C ∈ R.
25
26
z( x) = Cx − log( x) − 1 , C ∈ R.
(a) y0 = y2 − xy + 1 , y p ( x) = x
(b) y0 = x−4 − y2 , y p ( x) = 1
x − 1
x2
26
Métodos elementales 27
de modo que
0
u0 1 1 2 1 1 2
− 2 = = y0 + 2 − 3 = 4 − y2 + 2 − 3
u u x x x x x
1 1 1 1 2 1 2 1 2 11
= 4− + − + 2− 3 =− 2− 1−
x u x x2 x x u x x u
o, equivalentemente,
2 1
u0 = 1 + 1− u
x x
que es una ecuación diferencial lineal de primer orden cuya solución
general es
2 1
u( x) = x2 Ce x + , C ∈ R.
2
Deshaciendo el cambio de variable concluimos que la solución de la
ecuación de Riccati de partida es
!
1 1
y( x) = 2 x − 1 + 2
, C ∈ R.
x Ce x + 1 2
27
28
1 3 − x2
u( x) = .
2 x
Por tanto, deshaciendo el cambio de variable (1.7) llegamos a la so-
lución del problema de Riccati de partida:
x2 + 3
y( x) = .
x(3 − x2 )
28
Métodos elementales 29
(h) x0 = 1
x+t
y
(i) y0 = 2y log( y)+ y− x
(j) y0 = 1 + e2x
y
(k) y0 = x (log( y) − log( x))
(l) xy0 + y = 2x
(m) y0 = log( x y )
h i
C
Solución : (a) Variables separadas: x(t) = arctan (2−et )3
, C ∈ R.
3
(b) Homogénea: x0 = − 3t22t
x+ x3
2
= − 3(x/t)+( x/t)3
. La solución general
viene dada por la siguiente relación implícita7 :
y log( x)
(c) Bernoulli: y0 + x = x y2 . La solución general es8
1
y( x) = , C ∈ R.
Cx + log( x) + 1
7 El siguiente cálculo es útil:
u du 1 dv
Z Z
4 2
=
u + 3u + 2 2 v2+ 3v + 2
Z
1 dv dv 1
Z
= − = log(v + 1) − log(v + 2) .
2 v+1 v+2 2
8 La
R log( x)dx
integral x2
se resuelve por partes
29
30
En efecto,
∂P ∂Q
= cos(t + x) − t sen(t + x) = .
∂x ∂t
La solución general viene dada por9
C
x(t) = arc sen −t, C ∈ R.
t
2 3( x/t)+( x/t)2
(e) Homogénea: x0 = − 3tx +x
3tx+t2
= − 3(x/t)+1 . La solución general
viene dada por la siguiente relación implícita:
tx
= C, C ∈ R.
(t − x)4
En efecto,
∂P ∂Q
= 2t cos(tx) − t2 x sen(tx) = .
∂x ∂t
La solución general viene dada por la siguiente relación implícita10 :
e x + t2 cos(tx) = C , C ∈ R.
t 2
(g) Bernoulli: Para t 6= 0 se tiene que x0 + 3t x = − 3et x 3 . La solución
general es
C − et 3
x(t) = , C ∈ R.
t
(h) Haciendo el cambio de variable u = x + t obtenemos la siguiente
ecuación diferencial equivalente:
u+1
u0 = ,
u
9
R
t cos(t + x) dt = t sen(t + x) + cos(t + x) por partes
10
R t 1
t cos(tx) dt = x sen(tx) + x2
cos(tx) por partes
30
Métodos elementales 31
y( x) = Ce x(log(x)−1) , C ∈ R.
En particular, esta ecuación admite la solución trivial y ≡ 0.
31
32
z00 + a( x) z0 + b( x) z + c( x) = 0 ,
z0
mediante el cambio de variable y = z.
(Septiembre 2003)
z00 + z0 + e x z = 0 ,
32
C APÍTULO 2
x0 = F (t, x) , (2.1)
Solución : Se trata de probar que, bajo las condiciones (a) y (b), el se-
gundo miembro de la ecuación diferencial (2.1) ha de ser de la forma
F (t, x) = a(t) x
33
34
34
La ecuación lineal I 35
(Febrero 1990)
35
36
36
La ecuación lineal I 37
k=0 k! (1 − σ )
37
38
n−1
∑
n o
{ xn (t)} = x0 (t) + xk+1 ( t ) − xk ( t )
k=0
Z t A(s)
Z t
A(s)
D (t) =
xn (s) ds − ρ ( s ) ds
sσ sσ
0 0
Z t A(s)
=
( xn (s) − ρ(s)) ds
sσ
0
38
La ecuación lineal I 39
39
40
τ ∈ [t0 − ε, t0 + ε] ∩ [0, ∞)
tal que
kρ1 (t) − ρ2 (t)k ≤ kρ1 (τ ) − ρ2 (τ )k
para todo t ∈ [t0 − ε, t0 + ε] ∩ [0, ∞). Obsérvese que tal τ existe
porque la función
es continua. Entonces
Z τ
k A(s)k
kρ1 (τ ) − ρ2 (τ )k ≤ kρ1 (s) − ρ2 (s)k ds
t0 sσ
(t0 + ε)1−σ − t10−σ
≤ kρ1 (τ ) − ρ2 (τ )k Mε (t0 ) ,
1 −σ
donde hemos denotado
40
La ecuación lineal I 41
Luego
!
(t0 + ε)1−σ − t10−σ
kρ1 (τ ) − ρ2 (τ )k 1 − Mε (t0 ) ≤ 0 . (2.8)
1 −σ
[t0 − ε, t0 + ε] ∩ [0, ∞) ⊂ J
lo cual concluye la prueba.
det(Φ(t)) 6= 0 ∀t ∈ I.
41
42
A ( t ) = Φ0 ( t ) Φ ( t )−1 ,
Construimos la matriz
ρ1 (t) −ρ2 (t)
Φ(t) = ,
ρ2 (t) ρ1 (t)
cuyo determinante es
42
La ecuación lineal I 43
gracias a (2.9). Por tanto, si Φ(t) fuese una matriz solución entonces
ρ1 (t) −ρ2 (t)
,
ρ2 (t) ρ1 (t)
A ( t ) = Φ0 ( t ) Φ ( t )−1 =
0
ρ1 (t) −ρ02 (t)
1 ρ1 (t) ρ2 (t)
ρ02 (t) ρ01 (t) ρ (t)2 + ρ2 (t)2 −ρ2 (t) ρ1 (t)
1 0 0 0 0
ρ1 (t)ρ1 (t)+ρ2 (t)ρ2 (t) ρ1 (t)ρ2 (t)−ρ1 (t)ρ2 (t)
ρ1 (t)2 +ρ2 (t)2 ρ1 (t)2 +ρ2 (t)2
= ρ1 (t)ρ02 (t)−ρ2 (t)ρ01 (t) ρ2 (t)ρ02 (t)+ρ1 (t)ρ01 (t)
.
ρ1 (t)2 +ρ2 (t)2 ρ1 (t)2 +ρ2 (t)2
5. Se considera la matriz
e3t t+1 1
0
Φ(t) = t + 1 0 e−3t .
1 0 0
Discute los valores de t para los que Φ puede ser matriz fundamen-
tal de una ecuación diferencial lineal homogénea. Halla una matriz
fundamental principal en cero.
43
44
Ψ(t) = Φ(t)C ∀t ∈ I.
Ψ ( t ) = Φ ( t ) Φ−1 ( 0 ) ∀ t ∈ R \ {−1} ,
Entonces
1
e3t − e3t e3t − t+1 1
t+1
Ψ(t) = 0 e−3t t + 1 − e−3t .
0 0 1
6. Se considera la matriz
sen( πt ) 0
0
Φ(t) = 0 0 cos( πt ) .
0 1 0
44
La ecuación lineal I 45
A ( t ) = Φ0 ( t ) Φ ( t )−1
1
− t2 cos( πt ) 0
π
0 sen( πt )
0 0
π
= 0 0 sen( πt ) 0 0 1
t2
1
0 0 0 0 cos( πt )
0
π
− t2 cotan( πt )
0 0
π
= 0 t2
tan( πt ) 0 .
0 0 0
Por tanto, la ecuación satisfecha por Φ(t) es
π
− t2 cotan( πt )
0 0
x0 (t) = 0 π
t2
tan( πt ) 0 x(t) .
0 0 0
7. Sean
e−t
cos(t)
f 1 (t) = , f 2 (t) =
et cos(t)
dos soluciones de x0 = A(t) x. Se pide:
4 Nuevamente en virtud del Ejercicio 3
45
46
e−t
cos(t)
Φ(t) = t
e cos(t)
A ( t ) = Φ0 ( t ) Φ ( t )−1
− e−t e−t
− sen(t) 1 − cos(t)
=
et − sen(t) sen(t)2 et − cos(t)
sen(t) cos(t)−1 cos(t)−sen(t)
sen(t)2 et sen(t)2
= et (sen(t)+cos(t)) sen(t) cos(t)+1
− sen(t)2 sen(t)2
para todo t ∈ I = R \ π Z.
(b) Calculamos
Ψ ( t ) = Φ ( t ) Φ ( t0 )−1
e−t e −t0
cos(t) 1 − cos(t0 )
=
et cos(t) sen(t)2 e t0 − cos(t0 )
t −t −t −t
e0 −cos(t0 ) cos(t) e 0 cos(t)−e cos(t0 )
sen(t0 )2 sen(t0 )2
= et0 cos(t)−et cos(t0 ) et−t0 −cos(t0 ) cos(t)
.
sen(t0 )2 sen(t0 )2
46
La ecuación lineal I 47
8. Se considera el problema
0
x1 = 2x1 + x2 + cos(t)
, x1 (0) = x2 (0) = 1 .
x02 = 3x1 + 4x2 + t
Se pide:
et e5t
Φ(t) =
−et 3e5t
es una matriz solución del siguiente sistema con coeficientes cons-
tantes: 0
x1 2 1 x1
= .
x02 3 4 x2
Por otro lado, f 1 (t) y f 2 (t) son linealmente independientes ya que
47
48
Ψ ( t ) = Φ ( t ) Φ ( 0 )−1
t 3 1 t − e5t 5t − et
e e5t
2 − 2
1 3e e
= = .
et 3e5t − 12 1
2 2 3et − 3e5t 3e5t − et
Además, necesitamos calcular
3e−t − e−5t e−5t − e−t
−1 1
Ψ(t) = .
4 3e−t − 3e−5t 3e−5t − e−t
Finalmente
et
Ψ(t) x0 = ,
et
2 3et−s − e5(t−s) cos(s) − 2 et−s − e5(t−s) s
Ψ ( t ) Ψ ( s )−1 b ( s ) = ,
6 et−s − e5(t−s) cos(s) + 2 3e5(t−s) − et−s s
5 No es necesario que sea una matriz fundamental
48
La ecuación lineal I 49
luego
et
3I1 (t) − I2 (t) − I3 (t) + I4 (t)
x(t) = +2 ,
et 3I1 (t) − 3I2 (t) − I3 (t) + 3I4 (t)
donde
Z t
1 t
I1 (t) = et−s cos(s) ds = (e + sen(t) − cos(t)) ,
0 2
Z t
1
I2 (t) = e5(t−s) cos(s) ds = (5e5t + sen(t) − 5 cos(t))
0 26
Z t
I3 (t) = s et−s ds = et − t − 1 ,
0
Z t
1 5t
I4 (t) = s e5(t−s) ds = (e − 5t − 1) .
0 25
Por consiguiente,
99 5t 38 34
2et − cos(t) + 58 t + 48
325 e + 13 sen(t) − 13 25
x(t) = 99 5t 38 34 .
2et − 325 e + 13 sen(t) − 13 cos(t) + 58 t + 48
25
k A(t)k ≤ M ∀ t ∈ R .
1
−( M + λ )ϕ(t) ≤ ϕ0 (t) ≤ ( M − λ )ϕ(t) ∀ t ∈ R .
2
49
50
j
(b) Si denotamos por yλ (t), 1 ≤ j ≤ N, a las componentes del vector
yλ (t), el cuadrado de su norma puede escribirse como
N 2
∑
j
ϕ(t) = yλ (t) ,
j=1
ϕ0 (t)
≤ 2( M − λ ) ,
ϕ(t)
50
La ecuación lineal I 51
Por consiguiente:
lı́m {k yλ (t)k} = 0 .
t→∞
lı́m {k yλ (t)k} = ∞ .
t→∞
Y 0 ( t ) = A ( t )Y ( t ) , (2.12)
(a) Demuestra que cada una de estas ecuaciones admite una única
solución una vez prefijada una condición inicial en t0 ∈ I.
51
52
de modo que
N
Yi0j (t) = ∑ aik (t)Yk j (t) ∀ 1 ≤ i, j ≤ N .
k=1
Entonces el problema
Y 0 ( t ) = A ( t )Y ( t ) , Y (t0 ) = Y0 ∈ MN (R) ,
52
La ecuación lineal I 53
es equivalente a
Y11 (0)
Y12 (0)
..
.
Y1N (0)
Y21 (0)
..
X 0 (t) = B(t) X (t) , X (t0 ) = X0 = . , (2.15)
Y2N (0)
..
.
YN1 (0)
..
.
YNN (0)
Por tanto, existe una única solución del sistema lineal homogéneo
(2.15).
(b) Se tiene que
W 0 ( t ) = A ( t )W ( t ) − W ( t ) A ( t ) , W (t0 ) = IN ,
Y 0 ( t ) T = Y ( t ) T A ( t ) T = −Y ( t ) T A ( t ) ,
53
54
Y ( t )Y ( t ) T = I N ∀t∈I
(a) La matriz
1 sen(t)
Φ(t) =
sen(t) 1
t2
El cambio de variable x(t) = e 2 u(t) reduce la ecuación (2.16) a
una lineal de segundo orden con coeficientes constantes.
(Septiembre 2003)
54
La ecuación lineal I 55
55
56
56
C APÍTULO 3
57
58
* 2 + * 4 + * 5 +
E1 = 0 , E2 = −2 , E3 = −4 ,
1 1 2
2 4 5
P = 0 −2 −4 ,
1 1 2
1 0 0
D = 0 −1 0 ,
0 0 2
1
0 2 1
P−1 = 2
3 6
1
− 43 .
− 13 − 31 2
3
Entonces
Φ(t) = e At = Pe Dt P−1
t 1
2 4 5 e 0 0 0 2 1
= 0 −2 −4 0 e−t 0 23 1
6 −3
4
1 1 2 0 0 e2t − 13 − 13 2
3
8 −t 5 2t 2 −t t 5 2t 16 −t t 10 2t
3e −3e 3e +e − 3 e − 3 e +2e + 3 e
= 4 − t
−3 e + 3 e4 2t 1 − t
−3 e + 3 e 4 2t 8 −t
− 38 e2t
3e
2 −t 2 2t 1 −t 1 t 2 2t 4 −t t 4 2t
3e −3e 6e +2e −3e −3 e + e + 3 e
58
La ecuación lineal II 59
59
60
P1 ∈ Ker[( A − I )2 ] \ Ker[ A − I ] ,
de modo que
et 0 0
t
1 0 0 e 0 0
e Jt = 0 et 0 t 1 0 = tet et 0 .
0 0 e−t 0 0 1 0 0 e−t
Luego
60
La ecuación lineal II 61
Z t
A(t−t0 )
x(t) = e x0 + e A(t−s) (s, 0, 0)T ds
t0
(t − t0 + 5)et−t0 − 4et0 −t 2(et−t0 − et0 −t ) (t − t0 + 6)et−t0 − 6et0 −t
+ tet − 2e−t − 3t + 2
t − t
−(t + 2)e + 4e + 7t − 2
(2t + 9)et − 10e−t − 8t + 1
61
62
62
La ecuación lineal II 63
63
64
(Febrero 1992).
64
La ecuación lineal II 65
Por consiguiente,
cos(t) sen(t)
B2 = ,
− sen(t) cos(t)
e2t te2t
Φ(t) = .
0 e2t
luego
2t
0 e
B3 = ,
e2t te2t
es una base de soluciones.
3. Sea A : I → MN (R) continua tal que A(t) A(s) = A(s) A(t). De-
muestra los siguientes enunciados:
Rt
(a) A(t) y 0 A(s) ds conmutan.
(c) Si A ∈ C 1 ( I ) entonces
d A(t)
e = A0 ( t ) e A(t) = e A(t) A0 ( t ) .
dt
e A+ B = e A e B .
65
66
Rt
(e) Si A(t) y 0t A(s) ds conmutan, entonces F (t) = e 0 A(s) ds es una
R
Solución : (a) Sea P : 0 = t0 < t1 < . . . < tn−1 < tn = t una parti-
ción del intervalo [0, t] y denotemos por S( A, P) a la correspondiente
suma de Riemann:
n−1
S( A, P) = ∑ A(sk )|tk+1 − tk | ,
k=0
con sk ∈ (tk , tk+1 ). Como por hipótesis A(t) A(s) = A(s) A(t), se
tiene que A(t) S( A, P) = S( A, P) A(t). Haciendo entonces tender a
cero la norma de la partición 1 obtenemos
Z t
k Pk → 0 ⇒ { S( A, P)} → A(s) ds .
0
Por tanto, Z t Z t
A(t) A(s) ds = A(s) ds A(t) .
0 0
A(t + h) − A(t)
0
A (t) = lı́m ,
h→0 h
A(t + h) − A(t)
0
A(t) A (t) = A(t) lı́m
h→0 h
A(t + h) − A(t)
= lı́m A(t)
h→0 h
A(t + h) − A(t)
= lı́m A(t) = A0 (t) A(t) ,
h→0 h
1 k Pk = máx{|tk+1 − tk | , k = 0, 1, . . . , n − 1}
66
La ecuación lineal II 67
67
68
luego
Z t
| f n (t) − f (t)| ≤ | f n0 (s) − g(s)| ds + | f n (t0 ) − α |
t0
0
≤ máx{| f n (t) − g(t)|}|t − t0 | + | f n (t0 ) − α | → 0 , n → ∞.
t∈ I
Para cada t ∈ I,
∞
( )
n
A(t)n A(t)k
e A(t) = ∑ n!
= lı́m
n→∞
∑ k!
.
n=0 k=0
n
A(t)k
Sn (t) = ∑ k!
.
k=0
68
La ecuación lineal II 69
para
concluir
el ejercicio que la restricción de e A(t) a J es derivable y
d A(t) = A0 ( t ) e A(t) . Para ello estimamos
dt e
69
70
usando (c), lo cual quiere decir que Ψ(t) es una matriz solución de la
ecuación lineal homogénea x0 = Ax. Como también
t t
det(Ψ(t)) = det(Ψ(0)) e 0 traza( A(s)) ds = det(e B ) e 0 traza(sA+ B) ds
R R
Rt
= etraza( B)(1+t) e 0 traza(sA) ds = etraza( B)(1+t)+ 2 traza( A) t > 0
1 2
e B = Ψ(0) = C ,
luego ha de ser
etA+ B = e At e B .
Evaluando finalmente en t = 1 la última expresión obtenemos el
resultado esperado.
(e) Definimos B(t) := 0t A(s) ds, expresión de la cual se deduce que
R
70
La ecuación lineal II 71
Rt
Las matrices A(t) e 0 A(s) ds conmutan, por lo cual basta con calcu-
lar
t3 t2 t2
3 2 0 2
t3
!
t2 t3 2
F (t) = e − 2 3 =
e3 0
e − t2 0
t3
0 e 3
t3
! 2 2
!
e 3 0 cos( t2 ) sen( t2 )
= t3 2 2
0 e3 − sen( t2 ) cos( t2 )
t3 t3
2 2
!
e 3 cos( t2 ) e 3 sen( t2 )
= t3 2 t3 2
.
−e 3 sen( t2 ) e3 cos( t2 )
Entonces
0 0 0 h i0
(m−1)
Φ (m)
= Φ = AΦ(m−1) = AΦ(m) ,
71
72
Para ver que todos los coeficientes de Φ(t) son polinomios basta con
hacer notar que las soluciones de la ecuación son todas de la forma
x(t) = e At x0 , x0 ∈ R N ,
A2 A p−1
x(t) = x0 + ( Ax0 )t + 2
x0 t + . . . x t p−1 ,
2 ( p − 1)! 0
X 0 = AX − XA (3.3)
72
La ecuación lineal II 73
X (t) = Y (t) e− At .
(Febrero 1994).
73
74
y derivamos se obtiene
Z t
0 At At − As At − At
X (t) = Ae X0 − Ae e X (s) A ds − e e X (t) A
0
Z t
= A e At X0 − e At e− As X (s) A ds − X (t) A = AX (t) − X (t) A ,
0
74
La ecuación lineal II 75
k=0
Y 0 (t) = AY (t)
2 En efecto, se fuede comprobar fácilmente que
∞
k X0 k k Akn+1 k Akt n+1
∑ ( n + 1 ) !
e t = k X0 k e2k Akt
k=0
75
76
X (t) = e At X0 e− At .
(e) Bastará con comprobar que existe una constante M > 0 tal que
ke At k ≤ M ∀ t ∈ R .
Si llamamos J a la forma canónica de Jordan de la matriz A y P a la
correspondiente matriz de paso, es sabido que e At = Pe Jt P−1 , luego
ke At k ≤ k Pkke Jt kk P−1 k = C ke Jt k , C ≥ 1.
La cuestión entonces es: ¿Es ke Jt k acotada?
Bastaría con comprobar que los coeficientes de la matriz e Jt son aco-
tados, en cuyo caso la norma del máximo de e Jt estaría acotada y, por
equivalencia, todas las demás normas. Admitamos que la matriz J se
expresa del siguiente modo:
Λ1 0 0 ... ... 0
0 Λ2 0 . . . ... 0
. . . .
J= . ,
. .
. .
. .
. Λ N 0
2 −1
0 ... ... ... ... ΛN
2
ke Jt k∞ ≤ 2 .
Como por el apartado anterior sabemos que
X (t) = e At X0 e− At ,
se concluye que
k X (t)k∞ ≤ 4C2 k X0 k∞ .
76
La ecuación lineal II 77
donde A ∈ MN (R) y x0 ∈ R N .
(Diciembre 1993)
77
78
Como
t2
t2
k x(t)k ≤
e
k x0 k ≤ C
e J 2
k x0 k
A2
t2
basta con estudiar el comportamiento de
e J 2
. Sea λ < 0 cualquie-
luego
1 0 0 ... 0
t2 1 0 ... 0
2
t2 λt2 t4 t2 ..
e Jλ 2 = e 2
8 2 1 ... . .
.. .. .. .. ..
. . . . .
t4 t2
0 ... 8 2 1
t2
Claramente
e Jλ 2
→ 0 cuando t → ∞ por ser λ < 0. Por otro lado,
78
La ecuación lineal II 79
luego
(−1)n
sen(A) = ∑ (2n + 1)! A2n+1 .
n≥0
Prueba que
(Junio 1989).
k Ak2n+1
Solución : (b) k sen( A)k ≤ ∑n≥0 (2n+1)!
= ek Ak para toda A ∈ MN (R).
79
80
Entonces
n
(−1)k 2k+1 2k
S0n (t) = ∑ (2k)! A t ,
k=0
n−1
(−1)k+1 2k+3 2k+1
S00n (t) = ∑ (2k + 1)!
A t ,
k=0
n
(−1)k
A2 Sn (t) = ∑ (2k + 1)! A2k+3 t2k+1 ,
k =0
80
La ecuación lineal II 81
e A − e− A e A + e− A
senh( A) = , cosh( A) =
2 2
y se cumple
81
82
Se pide:
se obtiene
0
x1 0 1 0 x1 0
x2 = 0 0 1 x2 + 0 .
x3 −8 −12 −6 x3 e−2t
82
La ecuación lineal II 83
−2 0 0
J = 1 −2 0 .
0 1 −2
v ∈ Ker[( A + 2I )3 ] \ Ker[( A + 2I )2 ] ,
2 1 0 1 2
w = ( A + 2I )v = 0 2 1 0 = 0 .
−8 −12 −4 0 −8
2 1 0 2 4
u = ( A + 2I )w = 0 2 1 0 = −8 .
−8 −12 −4 −8 16
Por lo tanto
1
1 2 4 1 1 4
P= 0 0 −8 , P−1 = 0 − 14 − 18 .
0 −8 16 0 − 18 0
0 0 0
J = −2I + 1 0 0 ,
0 1 0
83
84
se puede calcular
1 0 0
Ψ(t) = e At = P e Jt P−1 −2t t
= P(e I ) 1 0 P−1 =
t 2
2 t 1
1 0 0
1
1 2 4 1 1 4
−2t 1 0 0 − 14 − 18
e 0 0 −8 t
t2
0 −8 16 2 t 1 0 − 18 0
t2
2t2 + 2t + 1 t(1 + 2t) 2
= e−2t −4t2 −4t2 + 2t + 1 t(1 − t) ,
8t(t − 1) 4t(2t − 3) 2t2 − 4t + 1
Z t
x(t) = Ψ(t) x(t0 ) + Ψ(t) Ψ(s)−1 b(s) ds ,
t0
t2
2t2 − 2t + 1 t(2t − 1) 2
Ψ ( t )−1 = e2t −4t2 −4t2 − 2t + 1 t(t + 1)
8t(t + 1) 4t(2t + 3) 2t2 + 4t + 1
84
La ecuación lineal II 85
x(t) = e−2t
2 3
2t2 + 2t + 1 + t(1 + 2t) + t2 + t6 (8t2 + 16t + 7)
× −4t2 − 4t2 + 2t + 1 + t(1 − t) − t2 (16t3 + 16t2 − 14t − 9)
6
8t(t − 1) + 4t(2t − 3) + 2t2 − 4t + 1 + 3t (16t4 − 34t2 − 6t + 3)
4t5 8t4 7t3 9t2
+ + + + 3t + 1
35 3 6 2
= e−2t − 8t3 − 8t3 + 7t3 − 15t
4 3 2
2 + 3t + 1
.
16t5 34t3
3 − 3 + 16t2 − 23t + 1
85
86
u p (t) = At + B , A, B ∈ R .
5A + At + B = 5t ,
u1 (t) = − e3it .
86
La ecuación lineal II 87
1
u2 (t) = − e3it .
5
1
v2 (t) = Re(u2 (t)) = − cos(3t) .
5
t
u3 (t) = − e2it .
4
t
v3 (t) = Im(u2 (t)) = − cos(2t) .
4
87
88
luego
1 1
v(t) = v1 (t) + v2 (t) + v3 (t) = − sen(3t) − cos(3t) − t cos(2t)
5 4
es una solución particular de la ecuación de partida. Conocida la so-
lución general de la ecuación homogénea x00 + 4x = 0,
−2A + 3( At + B) = t .
t 2
x1 (t) = +
3 9
constituye una solución particular del problema planteado en
esta etapa.
88
La ecuación lineal II 89
Por consiguiente,
1 t 2
x(t) = (sen(t) + cos(t)) + +
4 3 9
es una solución particular de la ecuación diferencial de partida.
11. Por el método de variación de las constantes, halla una solución par-
ticular de
89
90
Tenemos
90
La ecuación lineal II 91
Derivando obtenemos
x0 = 2B cos(2t) − 2A sen(2t) ,
x00 (t) = 2( B0 − 2A) cos(2t) − 2(2B + A0 ) sen(2t)
2
0 cos (2t )
= −2A + sen(2t) − 4A cos(2t) − 4B sen(2t)
sen(2t)
2A0
=− − 4x(t) .
sen(2t)
De aquí se desprende inmediatamente que para que (3.22) sea una
solución particular se ha de cumplir
2A0
− = sec(2t) ,
sen(2t)
1
es decir, A(t) = 4 log(cos(2t)). De la condición (3.23) se deduce fi-
nalmente que
t
B(t) = ,
2
luego
1 t
x(t) = log(cos(2t)) cos(2t) + sen(2t)
4 2
00
es una solución particular de x + 4x = sec(2t).
(c) Un sistema fundamental de soluciones de la ecuación homogénea
es {e3t , te3t }. Buscamos entonces una solución particular de
e3t
x00 − 6x0 + 9x = (3.24)
t2
91
92
del tipo
x(t) = ( A(t) + B(t)t) e3t . (3.25)
Derivando obtenemos
1 1 1
A0 + B0 t = 0 , B0 (1 + 3t) + 3A0 = ⇒ B 0
= − 3A 0
.
t2 1 + 3t t2
La primera de ellas (elegida libremente siempre que sea compatible
con la segunda) contribuye a simplificar los cálculos mientras que la
segunda es necesaria para que (3.25) resuelva la ecuación diferencial.
Entonces obtenemos
1
A(t) = log(|t|) , B(t) = − ,
t
por lo que
x(t) = (log(|t|) − 1) e3t
es una solución particular de (10.7).
(d) Un sistema fundamental de soluciones de la ecuación homogénea
es {e−t , et }. Buscamos entonces una solución particular de la forma
x ( t ) = A ( t ) e−t + B ( t ) et . (3.26)
Se tiene
x0 ( t ) = ( A0 − A ) e−t + ( B0 + B ) et ,
x00 (t) = ( A00 − 2A0 + A) e−t + ( B00 + 2B0 + B) et .
92
La ecuación lineal II 93
si y solamente si
1 −2t
B0 = e sen(e−t ) + et cos(e−t )
2
1 −t
⇒B= e cos(e−t ) − sen(e−t ) .
2
Por consiguiente,
x(t) = −et sen(e−t )
es una solución particular de (3.28).
93
94
x2 (t) = t(t − 1) .
Por tanto, {t2 , t(t − 1)} es una base del espacio de soluciones de la
ecuación homogénea
94
La ecuación lineal II 95
1 1 1
x1 (2) = , x01 (2) = − , x001 (2) =
,
2 4 4
x2 (2) = 2 , x02 (2) = 1 , x002 (2) = 0 .
por lo que tenemos garantizado que x1 (t), x2 (t) y x3 (t) serán lineal-
mente independientes. Para construir x3 (t) usamos nuevamente la
fórmula de Jacobi–Liouville:
8 ( t − 1 ) t−2 s2 −3 1
− 2t ( 3ss−
R
) ds
e = e (s−1) = W , t, x 3 (t)
t3 t
1
t t x 3 ( t )
2 2 2
= − t2 1 x3 (t) = x003 (t) + 2 x03 (t) − 3 x3 (t) ,
0
1
2 0 x00 (t) t t t
t3 3
B(t)
x3 (t) = A(t)t +
t
vía el método de variación de las constantes. Tenemos
B0 (t) B(t)
x03 (t) = A0 (t)t + A(t) + − 2 .
t t
95
96
λ2 2 ( t − 2 ) t−2 λ 4
x3 (t) = λ1 t + + 2 et−2 − e = λ 1 t + 2 + et−2
t t t t
con λ1 , λ2 ∈ R. De imponer x3 (2) = 0 y x03 (2) = 0 resulta finalmente
4 t−2
x3 (t) = e −t.
t
Por tanto, una base de soluciones de la ecuación
es t, 1t , 4t et−2 − t .
De este modo tenemos garantizado que las dos soluciones serán li-
nealmente independientes. En efecto,
e 0
W ( x1 , x2 )(1) =
= e 6= 0 .
e 1
96
La ecuación lineal II 97
t2 − 1 t−1
x2 (t) = e .
2
Por tanto, una base de soluciones de la ecuación homogénea es
n t2 − 1 o
B = et , et−1 .
2
Resolvemos finalmente la ecuación completa. Para ello construimos
en primer lugar una matriz fundamental del sistema:
et 1 2 t−1
Φ(t) = 2 (t − 1) e ,
et 1 2 t−1
2 ( t + 2t − 1 ) e
et−1 3 − t2 t2 − 1
Ψ(t) = .
2 3 − 2t − t2 t2 + 2t − 1
97
98
1 −4t R t 4s+5
e = e− 0 ( s+1 ) ds = W ( x1 , x2 )(t)
t+1
e−2t
x2 (t)
= = e−2t ( x02 (t) + 2x2 (t)) .
−2 e−2t x02 (t)
98
La ecuación lineal II 99
(a) Existe una ecuación del tipo y00 + a(t) y0 + b(t) y = 0 con a, b ∈
C (R) tal que y(t) = t5 es solución.
(Febrero 1989)
(b) Existe una matriz nilpotente A ∈ MN (R) tal que e A es también
nilpotente.
(Febrero 1989)
(c) Dadas Φ(t) y Ψ(t) matrices fundamentales de un mismo siste-
ma lineal homogéneo, se cumple que Φ(t)Ψ(t)−1 es constante.
(Septiembre 1989)
(d) Sea A ∈ MN (R). Si A es antisimétrica (respectivamente simé-
trica), entonces e A es antisimétrica (respectivamente simétrica).
(Febrero 1991)
(e) Existe una solución no trivial de x00 + sen(t) x0 = 0 que satisface
x(0) = x(π ) = 0.
(Febrero 1994)
(f) {et , sen(t)} es un sistema fundamental de soluciones de una
ecuación diferencial de la forma x00 + a(t) x0 + b(t) x = 0 con
a, b : R → R continuas.
(Junio 1994)
(g) Sean f 1 y f 2 dos soluciones linealmente independientes de la
ecuación x00 + a1 x0 + a2 x = 0 con a1 , a2 ∈ R. Entonces el wrons-
kiano W ( f 1 , f 2 ) es constante si y sólo si a1 = 0.
(h) Sea A ∈ M3 (R) con un valor propio α tal que
dim(Ker[ A − αI ]) = 3 .
Entonces su forma canónica de Jordan es
α 0 0
0 α 0 .
0 0 α
99
100
(Septiembre 2003)
5ta(t) + 20
b(t) = −
t2
como fruto de una verificación inmediata, función la cual resulta no
ser continua en t = 0.
(b) FALSA. En efecto, supongamos que A fuese una matriz nilpoten-
te de orden k, es decir, Ak = 0. Razonamos por reducción al absurdo.
En caso de que existiera n ∈ N tal que (e A )n = 0 se concluye que
n
A n A
0 = det (e ) = det(e ) 6= 0 ,
− 2t
1 1 t
−1 1 t 2 2 2
Φ(t)Ψ(t) = =
0 1 0 1 0 1
100
La ecuación lineal II 101
101
102
102
La ecuación lineal II 103
se deduce que r ≡ 1.
(d) En efecto,
S(t) C (t)
W ( S(t), C (t)) = 0
S (t) C 0 (t)
= S(t)C 0 (t) − S0 (t)C (t) = − S(t)2 − C (t)2 = −1
C (t ± a) = S0 (t)C ( a) ± C 0 (t) S( a)
= C (t)C ( a) ± (− S(t) S( a)) = C (t)C ( a) ∓ S(t) S( a) ,
103
104
para todo t ∈ R.
15. Sean
Z ∞ −σ Z ∞ −σ
e sen(tσ ) e cos(tσ )
u(t) = √ dσ , v(t) = √ dσ .
0 σ 0 σ
104
La ecuación lineal II 105
u
Demuestra que es solución de un sistema lineal homogéneo
v
y resuelve dicho sistema3 .
Solución : Tenemos
Z ∞√ Z ∞√
0
u (t) = σ e−σ cos(tσ ) dσ , 0
v (t) = − σ e−σ sen(tσ ) dσ ,
0 0
(Julio 2004)
luego tϕ es solución de x0 = Ax + ϕ.
R ∞ −t2 √
3 Recuérdese que 0 e dt = 2π
105
106
106
La ecuación lineal II 107
et
con x0 ∈ R3 arbitrario.
107
108
108
C APÍTULO 4
(Septiembre 1990)
109
110
es una solución de (4.2) con infinitos ceros en (t0 , ∞), luego toda
solución de (4.1) tiene infinitos ceros en (t0 , ∞).
(c) x00 − et x = 0
Claramente q(t) > λet para todo t > 0, luego podemos comparar
(4.3) con la ecuación (et x0 )0 + λet x = 0, que es equivalente a
x00 + x0 + λx = 0 . (4.4)
110
Teoría de comparación de Sturm 111
1 1
(iia) Si 0 < λ < 4, entonces 1 ≤ 4 − λ et para valores su-
ficientemente grandes de t. Por tanto, podemos afirmar que
existe t0 > 0 tal que
et
q(t) ≤ ∀t > t0 > 0 .
4
Comparamos entonces (superiormente) la ecuación (4.3)
con
x
x00 + x0 + = 0 , (4.5)
4
cuyas soluciones son de la forma
t t
x(t) = A e− 2 + Bt e− 2 , A, B ∈ R ,
o bien
t2 u00 (t) + tu0 (t) + t2 u(t) = 0 (4.6)
√
sin más que considerar la transformación λt 7→ t. Obsérvese que
esta ecuación ya no depende de λ, luego el comportamiento de las
soluciones de
t2 x00 + tx0 + λt2 x = 0 (4.7)
tampoco. La ecuación (4.6), equivalente a (4.7), es una ecuación de
Bessel de índice cero (ver Capítulo 6). Para analizarla planteamos el
cambio de variable
y(t)
u(t) = √ , (4.8)
t
111
112
3
1 3
t 2 y00 + √ + t2 y = 0 . (4.9)
4 t
3
Como t > 0, podemos dividir la ecuación anterior por t 2 y obtene-
mos
1
y00 + q(t) y = 0 , q(t) = 2 + 1 .
4t
Además, de (4.8) se deduce fácilmente que los ceros positivos de u(t)
y de y(t) son los mismos. Es obvio que q(t) → 1 cuando t → ∞, por
lo que ha de existir t0 > 0 tal que
1
q(t) > ∀ t > t0 > 0 .
2
Podemos comparar entonces la ecuación (4.9) con
y
y00 + =0
2
cuyas soluciones, las cuales responden a la forma
√2 √2
y(t) = A cos t + B sen t , A, B ∈ R ,
2 2
tienen todas infinitos ceros (positivos). Consecuentemente, la teoría
de comparación de Sturm se aplica para concluir que todas las so-
luciones de la ecuación de Bessel (4.6), y por consiguiente todas las
soluciones de (4.7), tienen infinitos ceros (positivos).
(c) Se tiene que
q(t) = −et < −1 si t > 0 .
Las soluciones no triviales de
x00 − x = 0
112
C APÍTULO 5
La ecuación periódica
113
114
Z nT
0= a(t) dt
0
Z T Z 2T Z nT
= a(t) dt + a(t) dt + · · · + a(t) dt
0 T (n−1) T
Z T
=n a(t) dt . (5.1)
0
114
La ecuación periódica 115
f ( x) − f (u + T )
0
f (u + T ) = lı́m
x→u+ T x−u−T
f (v + T ) − f (u + T )
= lı́m
v→u v−u
f (v) − f (u)
= lı́m = f 0 (u) ∀ u ∈ R .
v→u v−u
Ahora bien, si x(t) es una solución T̃–periódica no trivial se tiene que
a(t) x(t) = x0 (t) = x0 (t + T̃ ) = a(t + T̃ ) x(t + T̃ ) = a(t + T̃ ) x(t) ,
115
116
del cual
x 0
y = sen(t)
z cos(t)
es una solución 2π–periódica que no es 1–periódica.
(a) λ1 = 1 y λ2 = −1 .
(b) λ1 = i y λ2 = −i .
(c) λ1 = 1 y λ2 = 1 .
116
La ecuación periódica 117
(d) λ1 = 0 y λ2 = 1 .
det(C ) = det(Φ( T ))
T
Z
= det(Φ(0)) exp traza( A(s)) ds
0
Z T
= exp traza( A(s)) ds . (5.2)
0
el expresado en (c).
117
118
x0 ∈ Ker[C − I ] ⇒ Cx0 = x0
⇒ Φ(t) x0 = Φ(t)Cx0 = Φ(t + T ) x0 ⇒ ϕ(t + T ) = ϕ(t) .
118
La ecuación periódica 119
se anula si y solamente si
λ = cos(2π p) ± i sen(2π p) .
119
120
(Febrero 1978)
Como por hipótesis f 1 (t) y f 2 (t) son dos soluciones linealmente in-
dependientes, se tiene que
f 1 (t) f 2 (t)
Φ(t) =
f 10 (t) f 20 (t)
120
La ecuación periódica 121
pλ ( T ) = ( f 1 ( T ) − λ )( f 20 ( T ) − λ ) − f 10 ( T ) f 2 ( T )
= λ 2 − ( f 1 ( T ) + f 20 ( T ))λ + f 1 ( T ) f 20 ( T ) − f 10 ( T ) f 2 ( T )
= λ 2 − D ( a, b)λ + 1 = 0 ,
ϕ(t + (n − 1) T ) = λ0n−1ϕ(t) ,
Por tanto
121
122
λ 2 − 2λ + 1 = (λ − 1)2 = 0 .
λ 2 + 2λ + 1 = (λ + 1)2 = 0 ,
122
La ecuación periódica 123
x(t) = A + Be−ct , A, B ∈ R ,
123
124
Φ ( t + ( n − 1 ) T ) = Φ ( t )C n−1 , t ∈ R.
Entonces
124
La ecuación periódica 125
0.
(c) Discute la existencia de soluciones 2π–periódicas de la ecua-
ción y00 + λ 2 y = p(t), donde λ ∈ R y p es continua y 2π–
periódica.
(d) Sea la ecuación diferencial x0 = A(t) x, con A(t) continua y T–
periódica. Demuestra que si un multiplicador característico es
raíz n–ésima de la unidad, entonces existe una solución perió-
dica de periodo nT.
(e) Halla una condición necesaria y suficiente para que la ecuación
x0 + (sen(t)) x = f (t), con f continua y 2π–periódica, tenga so-
lución 2π–periódica.
(Septiembre 1987)
(Junio 2004)
125
126
126
La ecuación periódica 127
Sabemos que
−1 T 1 0
[Φ(t) ] =
−t 0
es una matriz fundamental de (5.7) y que sus soluciones T–periódicas
son aquellas que responden a la siguiente forma:
y ( t ) = [ Φ ( t )−1 ] T y0 ,
T 0 0 0
y0 ∈ Ker[ I − Φ( T ) ] = Ker = :u∈R .
−T 0 u
es decir, si y solamente si
Z T
f (t) dt = 0 .
0
µ 2 − 2 cos(2πλ )µ + 1 = 0 ,
(i) Si λ ∈
/ Z entonces µ = 1 no es un multiplicador característi-
co y podemos afirmar, en virtud del teorema de la alternativa
de Fredhölm, que existe una única solución 2π–periódica de la
ecuación y00 + λ 2 y = p(t).
127
128
Sabemos que
−1 T cos(λt) λ sen(λt)
[Φ(t) ] = 1
− λ sen(λt) cos(λt)
y ( t ) = [ Φ ( t )−1 ] T y0 ,
y0 ∈ Ker[ I − Φ(2π )T ]
1 − cos(2πλ ) λ sen(2πλ )
= Ker = R2 .
− λ1 sen(2πλ ) 1 − cos(2πλ )
128
La ecuación periódica 129
x(t + T ) = µx(t) ,
x(t + 2T ) = µx(t + T ) = µ 2 x(t) ,
..................
x(t + nT ) = · · · = µ n x(t) = x(t) .
luego una condición suficiente y necesaria para que x(t) sea 2π–
periódica es
Z 2π
f (t) e− cos(t) dt = 0 ,
0
ya que f es 2π–periódica por hipótesis.
(f) Sea Φ(t) una matriz fundamental principal en cero, con lo cual
C = Φ( T ) es una matriz de monodromía. Aplicando la fórmula de
Jacobi–Liouville obtenemos (cf. Ejercicio 3)
RT
det(C ) = e 0 traza( A(s)) ds > 1 ,
ya que por hipótesis traza( A(s)) > 0. Esto quiere decir que necesa-
riamente alguno de los multiplicadores característicos ha de ser ma-
yor que 1. Por consiguiente, la propiedad demostrada en el Ejercicio
9 (b) nos permite concluir que existe una solución no acotada, luego
el sistema es no acotado.
(g) La ecuación homogénea es la misma en los tres casos, x00 + 4x = 0,
cuya solución general viene dada por
129
130
130
La ecuación periódica 131
con λ1 , λ2 ∈ R.
RT 0
Si 0 a(s) ds = 0 entonces x(t) = es una solución
Rt
e 0 a(s) ds
(λ1 = 0, λ2 = 1) T–periódica, ya que claramente x(0) = x( T ).
131
132
3 λ 1
pλ (t) = (1 + λ )2 − (1 + λ ) + 1 = λ 2 + + ,
2 2 2
luego los valores propios de A(t) son de la forma
√
q
1
− 2 ± 14 − 2 −1 ± 7 i
λ= = .
2 4
t
Que e 2 (− cos(t), sen(t))T es una función no acotada es obvio. Ade-
más es solución de nuestro sistema, ya que
t
!0 t
! t
!
−e 2 cos(t) e 2 [sen(t) − 12 cos(t)] −e 2 cos(t)
t = t = A(t) t .
e 2 sen(t) e 2 [cos(t) + 12 sen(t)] e 2 sen(t)
132
La ecuación periódica 133
133
134
f (c, 0) 6= 0 ∀c ∈ R.
134
La ecuación periódica 135
(Febrero 1990)
x1 (t) = A esen(t)−t , A ∈ R.
A esen(t)−t
x1
=
x2 A esen(t)−t + B e−t
esen(t)−t
!
0
Φ(t) =
esen(t) − 1 e−t e−t
135
136
esen(t)
− Rt 0
x(t) = P(t) y(t) , P(t) = Φ(t) e = .
esen(t) − 1 1
A(t) P(t) y(t) = A(t) x(t) = x0 (t) = P0 (t) y(t) + P(t) y0 (t)
= A(t) P(t) y(t) − P(t) Ry(t) + P(t) y0 (t) ,
luego
P(t) y0 (t) = P(t) Ry(t) .
Como la matriz P(t) es regular, se concluye que
136
La ecuación periódica 137
con λ ∈ R.
x00 (t)
x(t) = − (5.11)
λa(t)
137
138
se deduce que x00 (t) no cambia de signo, es decir, que no varía la con-
cavidad de x(t). Ahora bien, el único modo de que x(t) sea continua
y 2π–periódica con curvatura de signo constante es x(t) ≡ C ∈ R, lo
cual combinado con (5.11) implica que λa(t)C = 0, es decir, C = 0 lo
cual es imposible.
(b) Que las soluciones son rectas, que sólo son periódicas si son cons-
tantes.
(c) Tómese λ = 1 y a(t) ≡ 1 ∈ C2π (R). En este caso la ecuación
que se obtiene es x00 + x = 0, de la que las funciones 2π–periódicas
sen(t) y cos(t) conforman un sistema fundamental de soluciones.
luego
C = Φ(2π ) = I2
138
La ecuación periódica 139
139
140
140
La ecuación periódica 141
141
142
142
La ecuación periódica 143
y0 = 2y1 − y2 − y3 .
20
y3 = 0
Por tanto y3 = k ∈ R y, efectuando ahora los cambios de variable
z1 = 2y1 − y2 , z2 = y2 ,
llegamos a
z01 = − z2
z02 = z1 − k
o, equivalentemente,
0
z1 0 −1 z1 0
= + . (5.14)
z2 1 0 z2 k
La matriz fundamental principal en t = 0 para la parte homogénea
del sistema (5.14) es
cos(t) − sen(t)
Φ(t) = .
sen(t) cos(t)
Empleando entonces la fórmula de variación de las constantes para
resolver (5.14) con dato inicial z(0) = z0 = ( z01 , z02 )T obtenemos
Z t
0 −1 0
z(t) = Φ(t) z + Φ(t) Φ(s) ds
0 −k
0
cos(t) − sen(t) z1 cos(t) − 1
= −k
sen(t) cos(t) z02 sen(t)
0
( z1 − k) cos(t) − z02 sen(t) + k
= .
( z01 − k) sen(t) + z02 cos(t)
Deshaciendo finalmente los cambios de variable concluimos que
k k k
x1 (t) = x02 − sen(t) + x01 − cos(t) + ,
2 2 2
k k k
x2 (t) = x02 − cos(t) − x01 − sen(t) + ,
2 2 2
k k k
x3 (t) = x02 − sen(t) + x01 − cos(t) − .
2 2 2
143
144
0 = x03 = x3 (0) = 1 − k ⇒ k = 1 .
Entonces
1 1 1
x1 (t) = − sen(t) + cos(t) + ,
2 2 2
1 1 1
x2 (t) = − sen(t) − cos(t) + ,
2 2 2
1 1 1
x3 (t) = − sen(t) + cos(t) − .
2 2 2
0 = x03 = x3 (0) = −k ⇒ k = 0 .
Entonces
1 = x03 = x3 (0) = −k ⇒ k = −1 .
Entonces
1 1 1
x1 (t) = − sen(t) + cos(t) − ,
2 2 2
1 1 1
x2 (t) = − sen(t) + cos(t) − ,
2 2 2
1 1 1
x3 (t) = sen(t) + cos(t) + .
2 2 2
144
La ecuación periódica 145
145
146
(Febrero 1990)
luego
x(t1 )2
Z t2
a(t2 )
2
a(t2 ) x(t2 ) − a(t1 ) x(t1 ) = 2
a0 (t) x2 dt ≥ 0 ⇔ ≥ .
t1 a(t1 ) x(t2 )2
Como a0 (t) ≥ 0 sabemos que a(t) es decreciente en [0, ∞), por lo que
a(t1 ) ≥ a(t2 ) y
x(t1 )2
1≥ ⇔ x(t1 )2 ≤ x(t2 )2 ⇔ | x(t1 )| ≤ | x(t2 )| .
x(t2 )2
(a) y00 + ω2 y = 0 .
146
La ecuación periódica 147
(b) y00 − ω2 y = 0 .
µ = máx{Re(λ ) : λ ∈ σ ( A)} = 0 .
Este es el caso en que hay que calcular el índice de cada uno de los
valores propios:
n o
ν (±iω) = mı́n k ∈ N : Ker [ A ∓ iωI ]k = Ker [ A ∓ iωI ]k+1 = 1,
147
148
√
Si c > ω se tiene µ = −c + c2 − ω2 < 0. Por tanto, en este
caso el sistema es también convergente.
148
La ecuación periódica 149
0 ω2
0
y = y. (5.18)
−1 0
149
150
2π
se puede comprobar fácilmente que Ker I2 − ΦT γ = R2 toda
√
ω
vez que ∈ Z \ {0}. Por consiguiente, las soluciones 2π
γ γ –periódicas
de (5.18) son
√ √ √ !
y1 cos( ωt) + ω y2 sen( ωt)
y1 √ √
[ Φ ( t )−1 ] T = y2 cos( ωt) − √1ω y1 sen( ωt)
y2
2π
Z
γ
√ F0 √
F0 y2 sen(γt) cos( ωt) − √ y1 sen(γt) sen( ωt) dt = 0
0 ω
o, equivalentemente,
2π 2π
y1
Z Z
γ γ
y2 sen(γt) cos(kγt) dt = sen(γt) sen(kγt) dt (5.19)
0 kγ 0
Z 2π Z 2π
γ γ
sen(γt) cos(kγt) dt = 0 , sen(γt) sen(kγt) dt = 0 ,
0 0
√
luego si γ = kω para algún Z 3 k 6= {−1, 0, 1} entonces existen
soluciones 2π
γ –periódicas. Usando ahora la fórmula de variación de
las constantes para resolver la ecuación x00 + ω2 x = F0 sen(γt) con
150
La ecuación periódica 151
Por consiguiente,
√
F0 γ
x(t) = sen(γt) − √ sen( ωt) .
ω − γ2 ω
151
152
152
C APÍTULO 6
153
154
c3 c 1
c6 = = 0 = 2 ,
6 3·6 3 ·2
c6 c0 1
c9 = = = 3 ,
9 3·6·9 3 · (3 · 2)
c9 c0 1
c12 = = = 4 , . . . (6.4)
12 3 · 6 · 9 · 12 3 · (4 · 3 · 2)
Razonando según el principio de inducción se puede concluir fácil-
mente que la relación de recurrencia que liga a los coeficientes de
x(t) es la expresada en (c).
154
Ecuaciones diferenciales con coeficientes analíticos 155
con
3
p−1 ( t ) = − ( 1 − t ) , q−1 ( t ) ≡ 1 .
4
Haciendo ahora el cambio de variable τ = 1 + t podemos desplazar
la singularidad al origen y aplicar, por tanto, el teorema de Fuchs.
Obtenemos entonces la ecuación
con
3
p−1 (τ ) = − (2 − τ ) , q−1 (τ ) ≡ 1 .
4
De este modo la ecuación indicial asociada a t = −1 es
155
156
√ ∞ ∞
∑ ∑ an τ n+ 2 ,
1
ϕ1 (τ ) = τ an τ n =
n=0 n=0
∞ ∞
ϕ2 (τ ) = τ 2 ∑ bn τ n = ∑ bn−2 τ n ,
n=0 n=2
1 1
s(s − 1) + q0 (0) = s(s − 1) + = s2 − s + = 0 ,
4 4
1
cuya única raíz es s = 2 (doble). Por tanto, el teorema de Fuchs ga-
rantiza que
q ∞
ϕ1 (t) = |t| ∑ cn tn con c0 = 1 ,
n=0
q ∞
ϕ2 (t) = ϕ1 (t) log(|t|) + |t| ∑ c0n tn
n=0
∞ ∞
q ( )
∑ cn tn ∑ c0n tn
= |t| log(|t|) + con c00 = 0 ,
n=0 n=0
156
Ecuaciones diferenciales con coeficientes analíticos 157
a1 (t) γ − (1 + α + β)t
t =
a0 (t) 1−t
157
158
s(s − 1) + p1 (τ = 0)s + q1 (τ = 0)
= s(s − 1) + (γ − α − β − 1)s
= s2 + (γ − α − β − 2)s = 0 ,
cuyas raíces son s = 0 y s = α + β − γ + 2.
a1 (t)
t ≡1 es analítica en t = 0 ,
a0 (t)
a2 (t)
t2 = −t2 es analítica en t = 0 ,
a0 (t)
158
Ecuaciones diferenciales con coeficientes analíticos 159
por lo que
∞ ∞ ∞
t2 x00 = ∑ n(n − 1)cn tn , tx0 = ∑ ncn tn , t2 x = ∑ cn−2 tn .
n=2 n=1 n=2
c1 = 0 ; n2 cn − cn−2 = 0 , n ≥ 2 .
159
160
cn−2
coeficientes de orden par se tiene que cn = n2
si n ≥ 2, ley que
escrita en términos de c0 resulta
c0
cn = , n par .
2n ( n2 !)2
Luego
∞
c0
x(t) = ∑ 2 (n!)2
2n
t2n
n=0
y la única solución que pasa por (0, 1) es aquella para la que c0 = 1,
es decir,
∞
1
x(t) = ∑ 2n 2
t2n .
n=0 2 ( n! )
0 β− 12 0 β f (αtβ )
x (t) = αβt f (αt ) + √ ,
2 t
3 3 1 3
x00 (t) = α 2β2 t2β− 2 f 00 (αtβ ) + αβ2 tβ− 2 f 0 (αtβ ) − t− 2 f (αtβ ) .
4
160
Ecuaciones diferenciales con coeficientes analíticos 161
Insertando las expresiones anteriores para x0 (t) y x00 (t) (en términos
√ f y sus
de derivadas) en la ecuación diferencial se tiene que x(t) =
t f (αtβ ) es solución si y solamente si
1
α 2β2 t2β+ 2 f 00 (αtβ )
1
√
+ αβ2 tβ+ 2 f 0 (αtβ ) + α 2β2 t2β − β2 p2 t f (αtβ ) = 0
o, equivalentemente,
√
2 2β 00 β β 0 2 2ββ 2
α t f (αt ) + αt f (αt ) + α t − p t f (αtβ ) = 0 . (6.5)
4
s √
16t − 3 1 + 13
2
≥ 1 ∀t ∈ , ∞ = I .
4t 8
161
162
162
C APÍTULO 7
f n : [0, 1] → R , f n ( x) = sen(nx) .
| sen(nx)| ≤ 1 ∀ x ∈ [0, 1] , ∀n ∈ N.
163
164
n o
2. Demuestra que la sucesión de funciones { f n (t)} = √(nt) con-
sen
n
verge uniformemente a cero en R. ¿Qué se puede decir acerca de la
convergencia de { f n0 (t)}?
164
Análisis local de existencia y unicidad de soluciones 165
0.5
-0.5
-1
165
166
-6 -4 -2 2 4 6
-1
-2
166
Análisis local de existencia y unicidad de soluciones 167
k f n0 ( x)k < M ∀ n ∈ N , ∀x ∈ I.
167
168
k
[
[− R, R] ⊂ B ( ai , δ ) , a1 , . . . , ak ∈ Q .
i =1
168
Análisis local de existencia y unicidad de soluciones 169
Si t ∈ (n, n + 1) y s ≤ n, entonces
| f nk (t)| < ε ∀ t ∈ R .
169
170
0.8
0.6
0.4
0.2
-1 1 2 3 4 5 6
170
Análisis local de existencia y unicidad de soluciones 171
x00 − t2 x = 0 .
t4
¿Para qué valores de la función z(t) = e 12 es una solución –
aproximada de la ecuación en el intervalo [− 12 , 12 ]?
t6 t4
t 6 t4
kΦ0 (t) − F (t, Φ(t))k =
0, e 12
= e 12 := h(t) .
9 9
171
172
φ0 (t) ≡ x0 ,
172
Análisis local de existencia y unicidad de soluciones 173
173
174
obtenemos Z
x(t) = x0 + F (s, x(s)) ds
J
y, por tanto, la existencia de soluciones de (P). Para observar la uni-
cidad supongamos que x(t) e y(t) son dos soluciones de (P), esto
es,
Z Z
x(t) = x0 + F (s, x(s)) ds , y(t) = x0 + F (s, y(s)) ds .
J J
Entonces
Z Z
k x(t) − y(t)k ≤ k F (s, x(s)) − F (s, y(s))k ds ≤ L k x(s) − y(s)k ds .
J J
174
Análisis local de existencia y unicidad de soluciones 175
(a) x0 = x + 2 , x(0) = 2.
4
(b) x0 = x 3 , x(0) = 0.
4
(c) x0 = x 3 , x(0) = 1.
(d) x0 = sen( x) , x(0) = 0.
(e) x0 = x
2 , x(1) = 1.
x0 (t) ≡ 2 ,
Z t
x1 (t) = 2 + 4 ds = 2 + 4t = 2(1 + 2t) ,
0
Z t Z t
x2 (t) = 2 + [2(1 + 2s) + 2] ds = 2 + 4 (1 + s) ds
0 0
= 2(1 + t)2 = 2(1 + 2t + t2 ) ,
Z t
2
2 1 3
x3 (t) = 2 + (4 + 4s + 4s ) ds = 2 1 + 2t + t + t ,
0 3
Z t
2 1 1
x4 (t) = 2 + 4 + 4s + 2s2 + s3 ds = 2 1 + 2t + t2 + t3 + t4 .
0 3 3 12
En este caso la solución explícita es fácilmente calculable por tratarse
de un problema lineal:
x(t) = 2(2et − 1) .
4
(b) F (t, x) = x 3 , luego
175
176
4
(c) F (t, x) = x 3 , luego
x0 (t) ≡ 1 ,
Z t
x1 (t) = 1 + ds = 1 + t ,
0
Z t
4 3 4 7
x2 (t) = 1 + (1 + s) 3 ds =
+ (1 + t) 3 ,
0 7 7
Z t
4 3 7
1 43 Z t+1 7
43
x3 (t) = 1 + + (1 + t) 3 ds = 1 + 4 + 3u 3 du ,
0 7 7 7 1
x0 (t) ≡ 1 ,
Z t
1 1
x1 (t) = 1 + ds =
(1 + t) ,
1 2 2
Z t
1 1 1 15 1
x2 (t) = 1 + (1 + s) ds = + (1 + t)2 = + t + t2 ,
0 4 2 8 4 2 2
Z t
1 5 s s 2
x3 (t) = 1 + + + ds
1 4 4 2 4
15 1 1
= 1+ (t − 1) + (t2 − 1) + (t3 − 1)
4 4 4 12
1 29
3
t
2
= + 5t + t + ,
16 3 3
Z t
2
x4 (t) = 2 + 4 + 4s + 2s2 + s3 ds
0 3
2 1 3 1 4
= 2 1 + 2t + t + t + t .
3 12
176
Análisis local de existencia y unicidad de soluciones 177
177
178
(c1) Si xn ≥ 0, entonces
n 4xn o
lı́m { f (tn , xn )} = lı́m 2tn − = 2t = f (t, 0) .
n→∞ n→∞ tn
(c2) Si xn < 0, entonces
lı́m { f (tn , xn )} = lı́m {2tn } = 2t = f (t, 0) .
n→∞ n→∞
luego
lı́m { f (tn , xn )} = 0 = f (0, 0) .
n→∞
178
Análisis local de existencia y unicidad de soluciones 179
4x 4t2
x0 = f (t, x) = 2t − = 2t − = −2t ,
t t
lo cual nos conduciría a contradicción.
(b2) Si fuese f (t, x) = −2t en algún intervalo, entonces el pro-
blema a resolver sería
0
x = −2t
x(0) = 0
179
180
0 si t ≤ 0
x(t) = t2
3 si 0 < t < 1
180
Análisis local de existencia y unicidad de soluciones 181
x0 (t) ≡ x0 = 0 ,
Z t
0 si t ≤ 0
x1 (t) = f (s, 0) ds = Rt 2 ,
0 0 2s ds = t si t > 0
Z t
x2 (t) = f (s, x1 (s)) ds
0
(
0 si t ≤ 0
= Rt Rt 4s2
,
0 f (s, s2 ) ds = 0 2s − s ds = −t2 si t > 0
Z t
0 si t ≤ 0
x3 (t) = f (s, x2 (s)) ds = Rt 2
Rt 2 .
0 0 f ( s, −s ) ds = 0 2s ds = t si t > 0
181
182
x0 = f ( x) , y0 = g( x) y
tiene una única solución para unas condiciones iniciales dadas. Cal-
cula la solución en el siguiente caso particular:
x0 = 2| x| , y0 = | x| y
p
.
x(0) = 1 , y(0) = 3
x0 = 2| x| , y0 = | x| y
p
.
x(0) = 1 , y(0) = 3
La única solución de
x0 = 2| x|
x(0) = 1
182
Análisis local de existencia y unicidad de soluciones 183
(a) x0 = | x| + (2 − x2 − t2 ) , x(t0 ) = x0 .
(b) x0 = g( x) + 1
t−2x(t0 ) = x0 ,
,
cos( x) si x ≥ 0
donde g( x) = .
1 si x < 0
F (t, x) ≤ | x| + 2
183
184
(c) f ( x) = 1
x , x ∈ [1, ∞).
(d) f ( x, y) = ( x + 2y, − y) , ( x, y) ∈ R2 .
xy
(e) f ( x, y) = 1+ x+ y , x2 + y2 < 21 .
| f ( x) − f ( y)| = || x| − | y|| ≤ | x − y| ∀ x, y ∈ R ,
184
Análisis local de existencia y unicidad de soluciones 185
(e) Se tiene
xy x̃ ỹ
| f ( x, y) − f ( x̃, ỹ)| = −
1 + x + y 1 + x̃ + ỹ
xy(1 + x̃ + ỹ) − x̃ ỹ(1 + x + y) y ỹ( x − x̃) + x x̃( y − ỹ) + xy − x̃ ỹ
= =
(1 + x + y)(1 + x̃ + ỹ) (1 + x + y)(1 + x̃ + ỹ)
y ỹ( x − x̃) + x x̃( y − ỹ) + y( x − x̃) + x̃( y − ỹ)
=
(1 + x + y)(1 + x̃ + ỹ)
y(1 + ỹ)( x − x̃) + x̃(1 + x)( y − ỹ)
=
(1 + x + y)(1 + x̃ + ỹ)
y(1 + ỹ) x̃(1 + x)
≤ | x − x̃ | + (1 + x + y)(1 + x̃ + ỹ) | y − ỹ|
(1 + x + y)(1 + x̃ + ỹ)
1 + ỹ 1+x
< | x − x̃| + | y − ỹ| < 2k( x, y) − ( x̃, ỹ)k1 ,
1 + x̃ + ỹ 1 + x + y
luego podemos tomar L = 2.
(f) NO existe. Si existiese tal constante, llamémosla L, habría de sa-
tisfacer
| x log(| x|) − y log(| y|)|
≤ L ∀ x, y ∈ [−1, 1] .
| x − y|
Para comprobar que no es posible basta con tomar y = 0 (obsérvese
que f ( y) = 0) y x = ε > 0 tan pequeño como se desee.
185
186
n =i
0 ≤ z(t) ≤ 1 ∀ t ∈ [−1, 1] .
xk+1 = T ( xk ) , k ∈ N,
1
z(t)2 + 1 − t2 = z(t)
∀ t ∈ [−1, 1] ,
2
186
Análisis local de existencia y unicidad de soluciones 187
187
188
15. Demuestra que existe una función continua en [0, 1] que satisface
Z t
1
f (t) = s2 sen( f (s)) ds ∀ t ∈ [0, 1] .
3 0
¿Es única?
Z t
1
[ T ( f )](t) = s2 sen( f (s)) ds .
3 0
188
Análisis local de existencia y unicidad de soluciones 189
Se tiene que
16. Prueba que existe una única función continua en [0, 1] que cumple
Z t
x(s)
x(t) = sen(t) + √ ds ∀ t ∈ [0, 1] .
0 s
T k ( T ( x)) = T ( T k ( x)) = T ( x) ,
189
190
x(t)
x0 (t) = cos(t) + √ := F (t, x) ∀ t ∈ [0, 1] .
t
luego T 4 es contractiva.
190
Análisis local de existencia y unicidad de soluciones 191
M ≥ 0 tal que
k F (t, x)k ≤ M ∀ (t, x) ∈ R
b
y α ≤ mı́n{ a, M }. Definimos
n o
R̃ = (t, x) ∈ R N +1 : |t − t0 | ≤ α, k x − x0 k ≤ b ⊆ R .
A = { x ∈ X : x(t0 ) = x0 , k x(t) − x0 k∞ ≤ b} .
Veamos que A es cerrado (y, por tanto, completo). Sea para ello { xn }
una sucesión de A tal que lı́mn→∞ { xn } = x (nótese que esta conver-
gencia es uniforme). Entonces
3 Esdecir: si D = I × Ω, para cada x ∈ Ω existen una bola abierta B( x, r) y una
constante L = L( x) tales que si y, z ∈ Ω ∩ B( x, r) se tiene que k f ( y) − f ( z)k ≤ Lk y − zk
191
192
x ∈ X,
luego k x(t) − x0 k ≤ b.
(ii) Tx (t0 ) = x0 .
R
t
(iii) k Tx (t) − x0 k =
t0 F (s, x(s)) ds
≤ M|t − t0 | ≤ Mα ≤ b.
luego
Z t
k Tx1 − Tx2 k ≤ L( x0 ) máx k x1 (s) − x2 (s)k ds
t∈ I t0
≤ L( x0 )k x1 − x2 k|t − t0 | ≤ L( x0 )α k x1 − x2 k .
192
Análisis local de existencia y unicidad de soluciones 193
193
194
194
C APÍTULO 8
195
196
196
Análisis global de existencia y unicidad de soluciones 197
d0 (t) = ϕ02 (t) − ϕ01 (t) = F2 (t, ϕ2 (t)) − F1 (t, ϕ1 (t)) > 0 ,
que es absurdo.
x0 = f (t, x)
x(0) = y
está definida en R.
P( y) = x(t0 ; y) .
197
198
198
Análisis global de existencia y unicidad de soluciones 199
que sabemos (por el apartado (a)) admite una única solución defini-
da en R. Denotemos por x(t; t0 , v) a dicha solución. Basta con tomar
x0 = x(0; t0 , v).
Se pide:
199
200
por lo que
Z 2
x(2) = 1 + sen(sx(s)) ds ≤ 1 + 1 = 2 .
1
200
Análisis global de existencia y unicidad de soluciones 201
(a) Probar que existe una única solución x(t) definida en (−∞, ∞).
(b) Demostrar que existen lı́mt→∞ x(t) y lı́mt→−∞ x(t).
(c) Encontrar acotaciones para dichos límites.
201
202
Entonces, al ser
1 1
< ∀ (t, x) ∈ (0, ∞) × R ,
t2 + x2 t2 + 1
podemos elegir C = x0 + ε con ε > 0 arbitrariamente pequeño y
concluir que
la posibilidad de que alcanzara en tiempo finito la frontera del dominio D en que está
definida la ecuación, lo cual impediría su prolongación hasta ∞. Esto es, podría suceder
lo siguiente:
202
Análisis global de existencia y unicidad de soluciones 203
Definimos
d(t) := ϕ2 (t) − ϕ1 (t) .
Claramente d(t1 ) = d(t2 ) = 0. Además
d0 (t1 ) = ϕ02 (t1 ) − ϕ01 (t1 ) = F2 (t1 , ϕ2 (t1 )) − F1 (t1 , ϕ1 (t1 )) > 0 ,
d0 (t2 ) = ϕ02 (t2 ) − ϕ01 (t2 ) = F2 (t2 , ϕ2 (t2 )) − F1 (t2 , ϕ1 (t2 )) > 0 ,
203
204
8. La solución de
x0 = y2 ,
x(0) = 1
0
y = sen( x), y(0) = 1
¿está definida en R?
204
Análisis global de existencia y unicidad de soluciones 205
205
206
206
Análisis global de existencia y unicidad de soluciones 207
√
11. El intervalo maximal de definición de la solución x(t) = 1 − t del
problema de valores iniciales
0
x = 2tx−2
x(0) = 1
es (−∞, 1) y lı́mt→1− x( y) = 0. ¿Hay contradicción con los resulta-
dos de prolongación conocidos?
12. (a) Prueba que toda solución de la ecuación del péndulo con roza-
miento
mg
mx00 + bx0 + sen( x) = 0
l
está definida en R.
(b) Prueba que la solución del problema de valores iniciales
00
x + µ ( x2 − 1) x0 + x = 0
x(0) = x0 ,
0
x (0) = v0
con µ > 0, está definida en [0, ∞).
207
208
Entonces
con n b go
L = máx 1 + , .
m l
Luego f es globalmente lipschitziana en ( x1 , x2 ), por lo que toda so-
lución de la ecuación del péndulo con rozamiento está definida en
R.
(b) Reescribiendo la ecuación de segundo orden en forma de sistema
obtenemos
0
x1 x2
= = f ( x1 , x2 ) .
x02 −µ ( x21 − 1) x2 − x1
Definimos la función (de energía)
Luego
E0 (t) ≤ 2µx0 (t)2 ≤ 2µE(t) .
Integrando entre 0 y t:
Z t
E(t) ≤ x20 + v20 + 2µ E(s) ds .
0
208
Análisis global de existencia y unicidad de soluciones 209
209
210
210
C APÍTULO 9
Dependencia continua y
diferenciable respecto de datos
iniciales y parámetros. Estabilidad
211
212
∂f ∂f ∂f
0 0 1
= , = , =
∂ε − x2 ∂x1 −3x21 ∂x2 −ε
son continuas ∀ ( x1 , x2 , ) ∈ R2 × R+
0 . Luego la solución general es
1
de clase C con respecto al parámetro ε y, en particular,
Veamos que xε (t) está definida en [0, ∞). Para ello definimos la si-
guiente función (energía) E : [0, ω+ ) → R,
1 0 2 1
E(t) = x (t) + x(t)4 ,
2 4
donde I = [0, ω+ ) es el intervalo maximal de existencia de x(t).
Tenemos
E0 (t) = −εx0 (t)2 ≤ 0 ,
lo que implica que E(t) es decreciente, luego
1 0 2 1 1
0< x (t) + x(t)4 ≤ E(0) = ∀t ∈ I.
2 4 4
Por tanto, x(t) y x0 (t) son acotadas y, consecuentemente,
212
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 213
pero no en t = 0.
(c) VERDADERA. La función f (t, x, ε) = −ε sen( x) es sublineal para
cualquier ε ∈ R fijo (aunque arbitrario), ya que | f (t, x, ε)| ≤ ε. Por
tanto, xε (t) está definida en R para cualquier valor de ε. Además se
tiene que
213
214
214
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 215
215
216
∂x
(b) Calcula ∂ε ( t; 1 ).
x0 = x2 , x(0) = 1 ,
∂F ∂F
(c) NO, ya que ∂x y ∂ε no están definidas en ε = 0.
216
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 217
(b) Probar que para todo T > 0 existe ε0 > 0 tal que si −ε0 < ε < 0
entonces x(t; ε) está definida en [0, T ].
∂x
(c) Calcular ∂ε ( t; 0 ).
(Junio 1995)
1 + ε ± |ε − 1|
x= .
2ε
1
x = 1, x= ∈ [2, ∞] .
ε
Por tanto, si ε > 0 se tiene que
1
1 < x(t; ε) < ∀ t ∈ (ω− , ω+ ) = I ,
ε
es decir, la solución de nuestro problema de valores iniciales está
atrapada entre dos soluciones constantes, luego I = R. Si por el con-
trario ε = 0, el problema a resolver es
0
x = x−1
x(0) = 2
F (t, x, ε) = (1 + ε) x − εx2 − 1
217
218
∂x
(c) Denotemos ξ (t) := ∂ε ( t; 0 ). El problema variacional asociado es
ξ (t) = (1 − t − et )et .
5. Se considera el sistema
0
x1 = x2 + ε( x21 + x22 ) x1
.
x02 = − x1 + ε( x21 + x22 ) x2
Solución : Denotaremos
x1 (t; x0 )
0 x1 (0)
x(t) = , x = .
x2 (t; x0 ) x2 (0)
218
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 219
1
(a) ε > 0. El denominador de (9.4) se anula en t = 2ερ20
, luego
1
ρ(t) sólo está definida en [0, 2ερ 2 ). Por tanto, si ε > 0 no puede
0
hablarse de estabilidad.2
(c) ε < 0. En este caso ρ(t) < ρ0 , luego el origen es estable. Ade-
más ρ(t) → 0 cuando t → ∞, lo cual significa que
x(t) − 0
= k x(t)k = ρ(t) → 0
0
2 Lo cual no significa que la solución trivial sea inestable, sólo que no tiene sentido
discutir la estabilidad de la misma porque no está globalmente definida
219
220
(Febrero 1989)
220
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 221
(ii) Si x0 > pn sabemos que pn < x(t; x0 ) < x0 y x0 (t; x0 ) < 0, por
lo que x(t; x0 ) es decreciente y acotada. Por consiguiente, existe
lı́mt→∞ { x(t; x0 )} y pn ≤ lı́mt→∞ { x(t; x0 )} < x0 .
(iii) Si x0 < p1 sabemos que x0 < x(t; x0 ) < p1 y x0 (t; x0 ) > 0, por
lo que x(t; x0 ) es creciente y acotada. Por consiguiente, existe
lı́mt→∞ { x(t; x0 )} y x0 < lı́mt→∞ { x(t; x0 )} ≤ p1 .
∂f
= −( x − p2 )( x − p3 ) . . . ( x − pn )
∂x
− ( x − p1 )( x − p3 ) . . . ( x − pn ) − . . . ( x − p1 )( x − p1 ) . . . ( x − pn−1 ) .
Entonces
∂f
( p ) = −( pi − p1 )( pi − p2 ) . . . ( pi − pi−1 )( pi − pi+1 ) . . . ( pi − pn ) ,
∂x i
de donde se deduce que
∂f
signo (p ) = (−1)n−i+1 .
∂x i
221
222
1 2 3 4 5
-1
-2
222
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 223
7. Se considera la ecuación
x00 + g( x) = 0
g0 ( p) = G 00 ( p) < 04 ,
luego
µ p = máx{Re(λ ) : λ ∈ σ ( J [ F ]( p, 0))} > 0
lo cual indica que el punto de equilibrio ( p, 0) es inestable en función
del primer método de Lyapunov.
4 En virtud del teorema fundamental del cálculo, ya que g es continua por hipótesis
223
224
K
x(t) = →0 cuando t → ∞ , K ∈ R,
t
por lo que la solución trivial es un atractor; luego podemos elegir
1
a(t) = − .
t
Si ahora elegimos
2
b(t) = ,
t
entonces x0 = ( a(t) + b(t)) x es exactamente x0 = xt , que es inestable.
En efecto, ahora las soluciones son de la forma
x(t) = Kt → ∞ cuando t → ∞ , K ∈ R,
lı́m b(t) = 0 .
t→∞
y la ecuación
x00 + f ( x0 ) + x = 0 .
224
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 225
2
(a) x00 − 2xe−x = 0.
(c) x0 = y + x − x3 , y0 = − x.
(d) x00 + x| x| = 0.
225
226
1 − 3x2 1
1 1
J [ F ]( p) = ( p) = ,
−1 0 −1 0
√
cuyos valores propios son λ = ± 23 i. Entonces µ = 21 > 0 y, según
1
2
el primer método de Lyapunov, el punto de equilibrio es inestable.
(d) Escrita vectorialmente la ecuación es de la forma
0
( x2 , − x21 )T si x1 ≥ 0
x1 x2
= = F ( x1 , x2 ) = ,
x2 − x1 | x1 | ( x2 , x21 )T si x1 < 0
226
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 227
Calculamos
f 0 (0) f 0 (0)
2 2
J [ F ]( p) = J [ F ](r) = ( p) = ,
− f 0 (0) f 0 (0) −2 2
f 0 (− 23 ) f 0 (− 23 )
−2 −2
J [ F ](q) = (q) = .
− f 0 (− 23 ) f 0 (− 23 ) 2 −2
227
228
3y5 3y4 ( y + 5)
x+ y
H ( f ) = −2e ,
−x 1−x
luego
1 0 0
H( f ) = .
0 2e 0
Por tanto estamos en el caso en que µ = 0, por lo que el primer
método de Lyapunov no aporta información.
Construimos la función de Lyapunov
V ( x, y) = ( x − 1)2 + y6 .
x0 = f ( x) , f ∈ C 1 (R N ; R N ) ,
es abierto.
228
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 229
x(t; y) = ϕ(t)
229
230
x00 + x3 + 3x2 + 3x + 1 = 0 .
x2 x22 ( x1 + 1)4
Z x1
V ( x1 , x2 ) = 2 + (u + 1)3 du = + ≥ 0.
2 −1 2 4
Es claro que V (−1, 0) = 0, luego V es definida positiva. Además
D E
V 0 ( x1 , x2 ) = ( x1 + 1)3 , x2 , x2 , −( x1 + 1)3 = 0,
x0 = f ( x) , f ∈ C 1 (R N , R N ) ,
230
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 231
(Febrero 1990)
(Junio 1991)
231
232
cuyo único punto de equilibrio es p = (0, 0)T . En este caso los valores
propios del sistema son λ = ±2i ⇒ µ = 0, luego el primer método
de Lyapunov no proporciona información. Podemos considerar la
función de Lyapunov
x22
E( x1 , x2 ) = 2x21 + .
2
En efecto, E( p) = 0 y E( x1 , x2 ) es definido positivo en un entorno de
p. Además
E0 ( x1 , x2 ) = (4x1 , x2 ) · ( x01 , x02 )T = (4x1 , x2 ) · ( x2 , −4x1 )T = 0 ,
luego p es estable pero no asintóticamente estable.
(c) x0 = sen( x)2 . Los puntos de equilibrio son pk = kπ con k ∈ Z.
Para ver que son todos inestables consideramos las funciones
Vk ( x) = x − kπ , k ∈ Z.
Se tiene que Vk ( pk ) = 0, Vk0 ( x) = x0 = sen( x)2 > 0 en cualquier
1
entorno reducido de pk y Vk pk + n > 0 para todo n ∈ N, luego el
teorema de inestabilidad de Cetaev nos permite concluir.
(d) Podemos usar el ejemplo del Ejercicio 5 con = −1:
0
x1 = x2 − x1 ( x21 + x22 )
.
x02 = − x1 − x2 ( x21 + x22 )
En efecto, el único punto de equilibrio es p = (0, 0)T y la matriz
jacobiana de
x2 − x1 ( x21 + x22 )
F ( x1 , x2 ) =
− x1 − x2 ( x21 + x22 )
evaluada en p es
−3x21 − x22 1 − 2x1 x2
0 1
J [ F ]( p) = ( p) = ,
−1 − 2x1 x2 − x21 − 3x22 −1 0
siendo sus valores propios λ = ±i ⇒ µ = 0. Por tanto, el primer
método de Lyapunov no aporta información.
Otro ejemplo sencillo de analizar es x0 = − x3 .
(e) Sirve el ejemplo del apartado (c).
(f) x0 = x( x − 1), ya que x ≡ 0 es estable (de hecho es asintóticamente
estable) y x ≡ 1 es inestable.
232
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 233
(Septiembre 1992)
p = log( x) , q = log( y)
obtenemos
x0 y0
p0 = = a − by = a − beq , q0 = = −c + dx = −c + de p .
x y
Si ha de ser
∂H
p0 = a − beq = − ( p, q)
∂q
hemos de elegir la función H ( p, q) de la forma
H ( p, q) = beq − aq + f ( p) ,
233
234
∂H
−c + de p = q0 = ( p, q) ,
∂p
H ( p, q) = beq − aq + de p − cp .
(b) Se tiene
V ( x, y) = by − a log( y) + bx − c log( x) .
Entonces
∂V c ∂V a
= d− , = b− ,
∂x x ∂y y
por lo que el único punto crítico de V es ( dc , ba ). Para comprobar que
se trata de un mínimo construimos la matriz Hessiana de V,
!
c
x 2 0
Hess[V ]( x, y) = 0 ya2 ,
de modo que
!
c a d2
c 0
Hess[V ]( , ) = b2
d b 0 a
es definida positiva.
(c) Se puede comprobar fácilmente que el primer método de Lya-
punov no proporciona información ya que los valores propios de
J [ F ]( dc , ba ) son ambos complejos, donde
− ∂H
!
∂q ( p, q )
F ( p, q) = ∂H
∂p ( p, q )
234
Dependencia continua y diferenciable respecto de datos iniciales y
parámetros. Estabilidad 235
Se tiene
U 0 ( x, y) = V 0 ( x, y) = ∇V ( x, y) · ( x0 , y0 )
c a
= d− ,b− · ( a − by) x, (dx − c) y
x y
= (dx − c)( a − by) + (by − a)(dx − c) = 0 ,
luego ( dc , ba ) es estable pero no asintóticamente estable.
16. Se pide:
(Diciembre 1996)
235
236
xλ
Los valores propios de H (V ) son µ1 = 1 y µ2 = λ + e xλ ,
0
xλ
ambos positivos. Por tanto, H (V ) es definida positiva y, con-
0
secuentemente, ( xλ , 0) es un mínimo de V. De hecho, ha de ser el
mínimo absoluto de V porque es único.
λ 2 y2
V ( x, y) = E( x, y) − E( xλ , 0) = x + ex + − E( xλ , 0) .
2 2
Se tiene que
V ( xλ , 0) = 0 , V ( x, y) > 0 ∀ ( x, y) 6= ( xλ , 0) , V 0 ( x, y) ≡ 0 ,
236
C APÍTULO 10
237
238
∂u
= − Au ,
∂t
∂ 22
donde A es la extensión de − ∂x 2 a L (R).
(c) ¿Qué conclusiones pueden extraerse del cálculo de ku(·, x)k L2 (R) ?
∂2
− [sen(kx)] = k2 sen(kx) .
∂x2
Para resolver (b) empleamos el proceso estándar de separación de
variables (nótese que una de las ecuaciones que se desprenden de
la separación de variables ha sido resuelta en el apartado (a)) y el
principio de superposición de soluciones (en serie de Fourier) para
la ecuación del calor, de lo que se obtiene que la solución requerida
es
∞
1
u(t, x) = ∑ e−k t sen(kx) .
2
k=1
k
Finalmente, para dar respuesta a (c) observamos en primer lugar
que, para valores t > 0, ku(·, x)k L2 ((0,∞)) es acotada. En efecto,
∞
1 −k2 t 1 ∞ 1
ku(·, x)k L2 ((0,∞)) ≤ ∑ ke k L2 ((0,∞)) = √ ∑ .
k=1
k 2 k=1 k 2
238
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 239
∞
!
sen(kx)
ku(·, x)k L2 ((−∞,0)) ≥ ∑ k ke−t k L2 ((−∞,0)) ,
k=1
que es divergente.
(Septiembre 2004)
239
240
(tx0 )0 + xt = − 1t , 1 ≤ t ≤ eπ
x0 (1) = 1 ,
x(eπ ) + x0 (eπ ) = 0
240
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 241
20
10
20 40 60 80 100
-10
-20
Figura 10.1: Las soluciones de la ecuación (10.1) son los ceros de la función re-
presentada: 0, 2,03042, 6,41195, 12,9904, 21,7629, . . .
241
242
(Septiembre 2003)
con
Z π
1
an = x cos[n( x + π )] dx , n ∈ N ∪ {0} ,
π −π
Z π
1
bn = x sen[n( x + π )] dx , n ∈ N.
π −π
(−1)n
Z π
an = x cos(nx) dx = 0 , n ∈ N.
π −π
242
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 243
t2 x00n + tx0n + nπ xn = 0 .
Pero
2n + 1 h 2n + 1 i
x0n (t) =− sen log(t) ,
2t 2
2n + 1 h 2n + 1 i
x00n (t) = sen log ( t )
2t2 2
2n + 1 2 h 2n + 1 i
− cos log(t) ,
2t 2
en cuyo caso resulta la relación
2n + 1 2
nπ =
2
que es absurda.
(e) FALSA. Es inmediato comprobar que la función
243
244
2x
4. Sea la función f ( x) = cos( x) − 1 + π definida en el intervalo [0, π ].
2x 2 sen(2kx)
cos( x) = 1 −
π
−
π ∑ k ( 1 − 4k 2)
.
k≥1
2 π 2x
Z
bn = cos( x) − 1 + sen(nx) dx =
π 0 π
2h n n
1 2 π i
1 + (−1) + (cos(nπ ) − 1) + − cos(nπ )
π n2 − 1 n π n
2 h n 2 i
n
=− 1 + (−1) + 1 + cos(nπ )
nπ 1 − n2 (
2 0 si n es impar
=− 2
1 + (−1)n = − n(1−n2 )π si n es par ,
4
n(1 − n )π
luego
∞
2 sen(2nx)
f ( x) ≈ − ∑ 2
.
π n=1 n ( 1 − 4n )
244
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 245
luego
∞
2x 2 sen(2nx)
cos( x) = 1 − − ∑ 2
.
π π n=1 n ( 1 − 4n )
1 Obsérvese que el sistema de senos es ortonormal sólo nsi sus elementos están nor-
o
sen
√ ( nx )
malizados a la unidad, es decir, si consideramos el sistema π
, por lo que los
√ n∈N
coeficientes de Fourier asociados pasan a ser de la forma π bn
245
246
(Junio 2002)
(Junio 2003)
(Julio 2003)
246
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 247
(Junio 2004)
v0 (t) w00 ( x)
v0 (t)w( x) − v(t)w00 ( x) = v(t)w( x) ⇔ = +1,
v(t) w( x)
v0 (t) w00 ( x)
= −λ = +1.
v(t) w( x)
v0 (t) + λv(t) = 0 ,
w00 ( x) + (1 + λ )w( x) = 0 .
w( x) = Ax + B , A, B ∈ R .
w( x) = A e(1+λ)x + B e(−1−λ)x , A, B ∈ R .
247
248
v0 (t)w( x) = v(t)w00 ( x) ,
v0 (t) w00 ( x)
= −λ = .
v(t) w( x)
v0 (t) + λv(t) = 0 ,
w( x) = Ax + B con A, B ∈ R si λ = 0,
248
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 249
2.8
2.6
2.4
2.2
1.8
1.6
1.4
249
250
-2
-4
250
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 251
Claramente
Z π
1
lı́m u(t, x) = 1 = (1 + 5 cos(3x)) dx ,
t→∞ π 0
w( x) = k sen(nx) , k ∈ R.
Luego
251
252
0.8
0.6
0.4
0.2
252
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 253
v( x) = sen( x) + Ax + B , A, B ∈ R .
Sólo falta por determinar la función w(t, x). Pero sabemos que w(t, x)
resuelve el siguiente problema mixto para la ecuación de ondas ho-
mogénea
wtt − w xx = 0, t ∈ R, x ∈ (0, π ),
w(0, x) = − sen( x), wt (0, x) = 0, x ∈ [0, π ],
w(t, 0) = w(t, π ) = 0, t ∈ R.
α 00 (t) β00 ( x)
= = −λ .
α (t) β( x)
Comenzamos resolviendo el problema de contorno
00
β ( x) + λβ( x) = 0 , x ∈ (0, π )
,
β(0) = β(π ) = 0
β( x) = k sen(nx) , k ∈ R.
253
254
Por tanto
w(t, x) = c1 cos(nt) sen(nx) + c2 sen(nt) sen(nx) , c1 , c2 ∈ R ,
que resuelta junto con las correspondientes condiciones iniciales pro-
porciona
w(t, x) = − cos(t) sen( x) .
Finalmente, la solución buscada es
u(t, x) = v( x) + w(t, x) = (1 − cos(t)) sen( x) .
(Junio 2004)
254
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 255
0.8
0.6
0.4
0.2
255
256
d
0= F [ y + εϕ] (ε = 0)
dε Z 1 n
= Fy ( x, y( x) + εϕ( x), y0 ( x) + εϕ0 ( x))ϕ( x)
0
o
0 0 0
+ Fp ( x, y( x) + εϕ( x), y ( x) + εϕ ( x))ϕ ( x) dx (ε = 0)
Z 1n o
= Fy ( x, y( x), y0 ( x))ϕ( x) + Fp ( x, y( x), y0 ( x))ϕ0 ( x) dx .
0
dFp
Fy − = 0, (10.4)
dx
por lo que (10.3) se traduce en
256
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 257
d
0= F [ y + t(u − y)] (t = 0)
dt
F [ y + t(u − y)] − F [ y]
= lı́m ≤ F [u] − F [ y] ,
t→0 t
luego F [ y] ≤ F [u] para todo u ∈ D , con lo que concluye la demos-
tración.
(c) Denotemos
x2 p2
F ( y, p) = 2y2 + − 4y .
2
Entonces la ecuación de Euler–Lagrange asociada al problema varia-
cional planteado es
dFp
Fy − =0
dx
con p = y0 , es decir,
d 2 0
0 = (4y − 4) − ( x y ) = 4y − 4 − 2xy0 − x2 y00 . (10.7)
dx
Claramente la función constante y ≡ 1 es una solución particular de
esta ecuación. Por tanto, para construir la solución general de la mis-
ma basta con conocer la solución general de la ecuación homogénea
257
258
∂2 u ∂2 u
− 2 = sen(2x) .
∂t2 ∂x
∂u
u(0, x) = sen(2x) , (0, x) = 0 , u(t, 0) = u(t, 2π ) = 0 .
∂t
(Sugerencia: Buscarla de la forma u(t, x) = ∑∞ nx
n=0 un ( t ) sen ( 2 )).
258
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 259
(Septiembre 2003)
F (u, q, p) = q2 − p2 + p cos(2x) .
d ∂u d ∂u
0 = −2 − − 2 + cos(2x)
dt ∂t dx ∂x
∂2 u ∂2 u
= −2 2 + 2 2 + 2 sen(2x) ,
∂t ∂x
que no es más que la ecuación del enunciado (a).
(b) Si buscamos una solución del problema planteado en (b) de la
forma u(t, x) = ∑∞ nx
n=0 un ( t ) sen ( 2 ) ha de satisfacerse (formalmente)
∞
n2 nx
∑
u00n (t) + un (t) sen = sen(2x)
n=0 4 2
259
260
Luego
3 cos(2t) + 1
u(t, x) = sen(2x)
4
resuelve el problema planteado en (b).
(c) SI. En efecto, supongamos que u1 (t, x) y u2 (t, x) resuelven ambas
el problema planteado en (b). Entonces la función
260
Series de Fourier, problemas de contorno, ecuaciones en derivadas
parciales y cálculo de variaciones 261
0.5
1 2 3 4 5 6
-0.5
-1
261