Apuntes de Ecuaciones Diferenciales I
Apuntes de Ecuaciones Diferenciales I
Apuntes de Ecuaciones Diferenciales I
apuntes de
ecuaciones
diferenciales I
Pepe Aranda
Métodos Matemáticos
Físicas Complutense
www.ucm.es/centros/webs/d215
Ecuaciones Diferenciales I (grupo C piloto) 2009–2010
Índice
Sobre las versiones de los apuntes i
Bibliografía iii
Introducción 1
4. Mapas de fases 71
4.1 Sistemas de dos ecuaciones autónomas 72
4.2 Clasificación de puntos críticos 75
4.3 Sistemas y ecuaciones exactos 84
4.4 ¿Centro o foco? 88
Problemas 1 91
Problemas 2 92
Problemas 3 93
Problemas 4 94
Problemas adicionales 1 95
Problemas adicionales 2 97
Problemas adicionales 3 99
Problemas adicionales 4 101
Sobre las versiones de los apuntes
La primera versión de estos apuntes fue la de 1999, adaptación de los apuntes de EDOs
para la asignatura Métodos Matemáticos II de un viejo plan de estudios, en los que se tra-
taban algunos temas más avanzados (la asignatura actual es de 2o curso en lugar de 3o , y
tiene 6 créditos (4 horas semanales) en lugar de 7.5 (5 horas)). Desaparecieron resultados
de prolongabilidad, estabilidad, soluciones periódicas, funciones de Lyapunov...
En la versión 2000 sobre todo se introdujeron bastantes ejemplos nuevos en muchas
secciones (en 1.1, 1.2, 2.2, 2.4, 2.5, 3.2, 3.3, 4.2, 4.3 y 4.4), pasaron a estar en ‘letra peque-
ña’ algunos temas (métodos numéricos o transformadas de Lapace de la , por ejemplo),
apareció la ecuación de Hermite,... y como todos los cursos se modificaron los problemas
incluyendo los de examen, se trasladaron otros a los adicionales...
En el año 2001 hubo pocas novedades (ligeras precisiones nuevas en un teorema, cam-
bios de problemas, corección de erratas...) y casi lo mismo en el 2002.
En la versión 2003 principalmente se modificó la introducción a los apuntes y se rees-
cribieron y se añadieron diferentes ejemplos a las secciones 1.3 y 1.4 (las que suelen tener
mayor dificultad de comprensión). En 2004 no hubo cambios apreciables en la parte de
teoría.
La versión 2005 mantuvo los contenidos de las anteriores, pero se retocaron casi to-
das las secciones (y ejemplos), algunas ligeramente y otras bastante profundamente. Los
mayores cambios fueron:
• En 1.1 se dio más sitio a las lineales. Se detallaron más las técnicas generales de dibujo
en 1.2. En 1.3 se aclararó el uso de la ecuación equivalente. En 1.4 se insistió más en las
lineales. 1.5, 1.6 y 1.7 cambiaron poco.
• 2.1 quedó casi igual. Algunos teoremas sobre sistemas en 2.2 cambiaron de sitio, se
añadieron comentarios y se extendieron ejemplos. La sección 2.3 se dividió en dos y pasó
2.4 a contener la estabilidad. El nuevo 2.3 pasó a tratar primero las ecuaciones de orden n
y luego los sistemas, y la estabilidad de 2.4 también se retocó (con nuevos ejemplos en los
tres casos). En la transformada de Laplace (nuevo 2.5) se añadieron comentarios y ejemplos
y se reordenaron otros. Las soluciones periódicas sólo tuvieron cambios cosméticos.
• 3.1 cambió poquito. 3.2 pasó a empezar por un ejemplo y se redactó de nuevo el teo-
rema. En 3.3 se pasó a trabajar desde el principio en t = 0 , introduciendo antes la [e*], y
la constante a del teorema de Frobenius pasó a llamarse d . Se sacaron del viejo 3.4 las
alusiones al punto del infinito (formando una nueva seccioncilla 3.5) y se pasó a presentar
la función gamma antes de tratar Bessel.
• 4.1, 4.3 y 4.4 casi no cambiaron. Se añadieron a 4.2 dos ejemplos lineales, la matriz de
la aproximación lineal pasó a llamarse M , se trató de argumentar de forma más sistemá-
tica dónde conviene evaluar el campo v y cómo hallar alguna solución del sistema, y se
agruparon al final los ejemplos de ecuaciones.
Las introducciones a cada capítulo fueron todas retocadas. Y también algo la bibliografía.
Los problemas se reorganizaron bastante. Pasaron a existir 4 hojas de problemas, suficien-
tes para controlar los aspectos básicos de la asignatura, y otras 8 con problemas adicionales.
Las hojas eran las viejas hojas comunes de la asignatura a las que se añadieron unos cuan-
tos problemas de temas que antes no contenían (no eran comunes a todos los grupos) y
otros de exámenes del curso previo. Los adicionales incluyeron el resto de los elaborados
a lo largo de los años: unos similares a los de las hojas y que no merece la pena incluir
en ellas y otros que tratan de temas tangenciales a la asignatura (dependencia continua,
cálculo numérico, ecuaciones con la , propiedades de funciones especiales, problemas con
puntos no elementales, aplicaciones,...].
En la versión 2007 (en el 06-07 no fui profesor de EDI) no se tocó la teoría. La porta-
da pasó a incluir la nueva página del departamento y se cambiaron de sitio y contenido
estas notas sobre las sucesivas versiones. Las ‘hojas’ de problemas pasaron a llamarse ‘pro-
blemas’, conteniendo ejercicios de examen del curso 05-06 y pasaron a estar numeradas
continuando la teoría. Los problemas retirados de las hojas se fueron a los ‘adicionales’ y de
estos (transcritos ya también a LATEX desaparecieron algunos que (junto a otros) constituye-
ron los problemas para trabajar en grupo y entregar en el grupo piloto.
i
Hacia mayo de 2007 hice la transcripcion al LATEX (utilizando letra ’palatino’) de los apun-
tes de 2007, con bastantes pequeñas modificaciones para ajustar el texto anterior a los
nuevos tipos y márgenes.
Y esta es la versión 2008, con muy abundantes pequeñas modificaciones:
• Para recuperar algo del estilo de los viejos apuntes en helvética, la letra es ahora la
similar (sans serif) bitstream vera (paquete ’arev’ en LATEX) y se han ampliado los márgenes,
intentando dar un aspecto menos denso a los apuntes. En la actualidad constan de 90
páginas de teoría, 4 de problemas y 8 de problemas adicionales.
• La sección 1.1 sólo tiene cambios de estilo, resaltando los grandes tipos de ecuaciones
resolubles. En 2.2 se reordenan los ejemplos y se sustituye uno por el 5. En 2.3 se retrasa
algún ejemplo y se añade el análisis de los de 2.2. En 2.4 se abrevia aún más la (en letra
pequeña) dependencia continua. En 2.5 se incluyen los ejemplos autónomos de evolución
de poblaciones de la sección 2.7 de 2007 (que desaparece). 2.6 permanece.
• 2.1 no cambia. En 2.2 y 2.3 se resaltan titulares de las subsecciones, se desarrolla más
algún ejemplo de 2.2 y se amplían los ejemplos de ecuaciones en 2.3. En 2.5 se reordenan
ejemplos. 2.4 y 2.6 casi igual.
• 3.1 igual. En 3.2 se retoca algún ejemplo. En 3.3 se añade el ejemplo 2 y se amplía el
(ahora) 5. 3.4 y 3.5 se mantienen.
• 4.1 tiene pocos cambios. En 4.2, aparte de algunas reordenaciones y ligeros cambios,
se resaltan las técnicas concretas de dibujo y cálculo de soluciones, y es nuevo el ejemplo
7. Son nuevos en 4.3 los ejemplos 3 y 5. En 4.4 aparece el ejemplo 4.
• Se han retocado y extendido todas las introducciones (la global y la de cada capítulo). La
bibliografía no se modifica. Los problemas sí lo hacen bastante (incluyendo nuevos inventa-
dos para los problemas y parcialillos del piloto o para los exámenes finales). Los retirados
han pasado a adicionales.
En la versión 2009 sólo cambian los problemas.
ii
Bibliografía
Bd Boyce-Di Prima. ECUACIONES DIFERENCIALES y problemas con valores en la
frontera. (Limusa)
S Simmons. ECUACIONES DIFERENCIALES, con aplicaciones y notas históricas.
(McGraw-Hill)
P Plaat. ECUACIONES DIFERENCIALES ORDINARIAS. (Reverté)
R Ross. ECUACIONES DIFERENCIALES. (Reverté)
Br Braun. ECUACIONES DIFERENCIALES Y SUS APLICACIONES. (Interamericana)
E Elsgoltz. ECUACIONES DIFERENCIALES Y CALCULO VARIACIONAL. (Mir)
H Hirsch-Smale. Ecuaciones diferenciales, sistemas dinámicos y álgebra lineal.
(Alianza)
F Fernández-Vázquez-Vegas. Ecuaciones diferenciales y en diferencias. (Thomson)
G Guzmán. Ecuaciones diferenciales ordinarias. Teoría de estabilidad y control.
(Alhambra)
Las secciones 1.1 y 1.2 se pueden encontrar en casi todos los libros anteriores.
Hay resultados de existencia y unicidad (1.3) en todos los libros y varios demuestran el
TEyU; la muy larga y avanzada demostración del TE está en G. La prolongabilidad sólo suele
ser tratada en los libros más rigurosos (como F y G); algo se dice sobre el tema en R, P y H.
La teoría general de estabilidad (1.4) es propia de libros más avanzados, como el G, y
se suele tratar en el marco más general de los sistemas de ecuaciones. La mayoría de los
libros más elementales (por ejemplo Bd y P) se suelen limitar a tratar la estabilidad de
soluciones constantes de sistemas autónomos (en los apuntes en el capítulo 4). Algunos
de ellos (como F) estudian también la estabilidad de sistemas y ecuaciones lineales con
coeficientes constantes (2.4 en los apuntes). De dependencia continua hablan R, E, H, F y
G.
La sección 1.5 sigue, en general, al P. Ideas interesantes (más avanzadas) se dan en F.
Para ampliar el cálculo numérico (1.6) está muy bien el capítulo 8 del Bd; véanse también
R y Br.
La mayoría de los libros incluyen aplicaciones de las ecuaciones diferenciales a problemas
reales; tal vez las más curiosas se encuentren en el Br.
Los teoremas generales de 2.1 se pueden estudiar en G.
Casi todos los libros empiezan estudiando directamente las ecuaciones lineales y después
se ocupan de los sistemas, lo que tal vez resulte más pedagógico (los apuntes, para ahorrar
tiempo, lo hacen al revés, pero es interesante leer alguna vez este otro camino). Además
suelen incluir repasos, más o menos detallados, de la teoría de matrices (véase, por ejemplo,
Bd, P, H o F), ocupándose algunos de la forma de Jordan.
La transformada de Laplace (2.5) se utiliza en Bd, Br, R, S y F.
Para ecuaciones con coeficientes periódicos (2.6), ver P.
La solución por medio de series (capítulo 3), tanto en torno a puntos regulares como en
torno a singulares regulares, se puede consultar en Bd, S, Br y R. En S, por ejemplo, se puede
ver alguna demostración no hecha en los apuntes. El mismo libro incluye un estudio sobre
las propiedades de diferentes funciones especiales.
Los mapas de fases (capítulo 4) se tratan con detalle y rigor en el P (incluyendo la com-
plicada demostración del teorema 1 de 4.2), aunque también son recomendables las dife-
rentes formas de estudiarlos de Bd, Br, R y H. En varios de ellos se puede leer el estudio
de las funciones de Lyapunov (para el análisis de la estabilidad de puntos críticos) y de los
ciclos límite, no incluidos en los apuntes. Para resultados más avanzados sobre sistemas
autónomos (bifurcación, caos...), consultar F.
iii
Algunos libros pueden ser útiles para parte de Ecuaciones Diferenciales II. Bd, R, Br y S
estudian los problemas de contorno para EDOs y el método de separación de variables para
la resolución de EDPs lineales de segundo orden. Las EDPs de primer orden, lineales y no
lineales, se tratan en E.
Hay un capítulo dedicado a la historia de las ecuaciones diferenciales en G, una pequeña
sección en Bd y diversos apuntes históricos en S.
Otro tema relacionado con las ecuaciones diferenciales, el cálculo de variaciones, se ve
en E y S. Y las ecuaciones en diferencias ocupan casi la mitad del libro F.
iv
Introducción
Una ecuación diferencial es una ecuación en la que aparecen derivadas de una
función incógnita. Si tal función es de una variable la ecuación se llama ordinaria
(EDO). Si es de varias variables, la ecuación es en derivadas parciales (EDP).
Ejemplos de ecuaciones diferenciales ordinarias son:
[1] y 0 (t) = y(t) [ecuación que rige la desintegración radiactiva]
[2] y 0 (t) = by(t)[M y(t)] [describe la evolución de una población animal]
[3] (1 t 2 ) 00 (t) 2t 0 (t) + p(p+1) (t) = 0 [ecuación del Legendre]
[4] 00 (t) + d sen[ (t)] = 0 [ecuación del péndulo]
[5] (t) + (t) = 0 [ecuación de las vibraciones de una viga]
Y son ecuaciones en derivadas parciales, por ejemplo:
[6] 2 + 2 = 1 , con = ( , y) [ecuación eikonal o de la óptica geométrica]
y
Se llama orden de una ecuación al orden más alto de las derivadas que aparecen
en ella. Así, [1] y [2] y la EDP [6] son de primer orden; [3] y [4] y las EDPs [7] y
[8] de segundo orden, y la ecuación [5] es de cuarto orden. Una ecuación es lineal
cuando las funciones incógnitas y sus derivadas sólo aparecen como polinomios de
grado uno. Según esto, son lineales [1], [3], [5], [7] y [8] (aunque las F de las dos
últimas sean lo complicadas que se quiera) y no lo son las otras tres, [2], [4] y [6].
Solución de una EDO de orden n es una función, n veces derivable, que al ser
llevada a la ecuación la convierte en una identidad. Así, y(t) = e t es solución de
[1] pues y 0 (t) = e t= y(t) . Más aún, también lo es toda función y(t) = Ce t
para cualquier constante C . A esta expresión, que, como veremos, recoge todas
las soluciones de la ecuación, se le llama solución general. Para precisar una
solución particular será necesario imponer además alguna condición inicial
(al conjunto de la ecuación y el dato inicial se le llama problema de valores
iniciales). Para [1], de primer orden, basta imponer el valor de la solución en un
instante t dado: por ejemplo, y(0) = 7 determina y(t) = 7e t . La solución general
de una EDO de orden n contendrá n constantes arbitrarias y deberemos dar n
datos iniciales (para [5], los valores de , 0 , 00 y 000 en t = 0 o en otro t = to ;
[5] más esos 4 datos será allí el problema de valores iniciales). [Las condiciones
para aislar una solución única de una EDP son más complicadas y variadas].
Aunque sería nuestro principal deseo ante cualquier ecuación diferencial, hallar
su solución general sólo será posible en contadas ocasiones (incluso para
las EDOs de primer orden; será más difícil cuanto mayor sea su orden, más para las
ecuaciones no lineales, y más aún para una EDP). Parte de la teoría de ecuaciones
diferenciales (la más desarrollada en estos apuntes) describe los escasos métodos
de resolución. Pero otra parte importante se dedica a obtener información sobre
las soluciones de una ecuación sin necesidad de resolverla: ¿cuándo tiene un
problema de valores iniciales solución única?, ¿qué aspecto tiene la gráfica de
las soluciones?, ¿cómo se comportan asintóticamente?, ¿cómo calcular (con un
ordenador) sus valores aproximados?, ...
1
Estos apuntes estudian las EDOs. El capítulo 1 se dedica a las ecuaciones de
primer orden y 0 = ƒ (t, y(t)) . Comienza describiendo los escasos métodos elemen-
tales de integración y pasa pronto al resto de su teoría: dibujo aproximado de las
soluciones, existencia y unicidad (si las funciones que aparecen en la ecuación son
discontinuas o no derivables puede que no haya solución o que haya más de una
satisfaciendo un dato inicial), prolongabilidad (¿en qué intervalo está definida ca-
da solución?), estabilidad (¿se parecen entre sí las soluciones con datos iniciales
próximos para t grande?), ecuaciones autónomas (las de la forma y 0 = ƒ (y(t)) ) y
cálculo numérico.
El capítulo 2 trata de los sistemas de n ecuaciones de primer orden y de
las ecuaciones de orden n sobre los que más información se puede obtener y
que más veces son resolubles: los lineales. Primero se generalizan las propiedades
vistas de las ecuaciones de primer orden. Luego se tratan, para ir fijando ideas, los
sistemas de 2 ecuaciones lineales y las ecuaciones lineales de orden 2 (siempre
resolubles si los coeficientes son constantes). Se pasa después al orden n general
(se podrán resolver ya menos veces), se estudia su estabilidad y se introduce la
técnica de resolución mediante transformadas de Laplace. Hay una breve sección
sobre soluciones periódicas de lineales.
El capítulo 3 describe cómo resolver las EDOs lineales de segundo orden con
coeficientes variables utilizando series de potencias (único método posible en
la mayoría de las ocasiones), en torno a los llamados puntos regulares y a los
singulares regulares, incluido el llamado punto del infinito. Se aplica este método
a tres ecuaciones particulares de interés físico: la de Legendre, la de Hermite y la
de Bessel.
El capítulo 4 estudia los dibujos (llamados mapas de fases) de las proyeccio-
nes sobre un plano de las soluciones de los sistemas de dos ecuaciones autónomas,
sistemas en los que casi nunca se puede hallar su solución general (pero muchas
de las propiedades de las soluciones estarán a la vista en el mapa de fases). Tras
tratar las propiedades generales, clasifica los mapas de fase en las cercanías de
los puntos proyección de soluciones constantes (basándose en los dibujos sencillos
de los sistemas lineales), trata un tipo concreto de sistemas (los exactos) y acaba
analizando casos dudosos de la clasificación citada.
2
1. Ecuaciones de primer orden
Este capítulo está dedicado a las ecuaciones diferenciales ordinarias de primer
orden con la variable despejada, es decir, a las ecuaciones
3
La sección 1.5 estudia las llamadas ecuaciones autónomas y 0 = ƒ (y) sobre las
que es posible conseguir muchísima información sin conocer su solución: haremos
fácilmente su dibujo aproximado hallando sus soluciones constantes y estudiando
el signo de ƒ (y) , y de él se deducirán inmediatamente, por ejemplo, las propie-
dades asintóticas de sus soluciones (para ecuaciones no autónomas, de un dibujo
no se deduce la estabilidad). La sección nos dará, también, algunas ideas que se
generalizarán en el estudio de los sistemas autónomos del capítulo 4.
En la sección 1.6 describiremos los más sencillos métodos numéricos progra-
mables (Euler, Euler modificado y Runge-Kutta), que (disponiendo de un ordenador)
permiten hallar con bastante aproximación los valores numéricos de soluciones de
problemas de valores iniciales. Aunque en estos apuntes ocupan un lugar secun-
dario, no olvidemos que, como la mayoría de las ecuaciones diferenciales son no
resolubles, será en el futuro necesario acudir a ellos (y a otros más precisos) en mu-
chas ocasiones. Pero antes utilizarlos, convendrá hacerse una idea cualitativa de
las soluciones (¿cómo deben ser las soluciones numéricas que nos salgan?, ¿serán
estables?, ¿se irán a infinito en tiempo finito?, ...).
4
1.1 Métodos elementales de resolución
Ecuaciones separables.
p(t)
Son las que se pueden escribir en la forma [s] y 0 = q(y) .
R R
Entonces q(y)dy = p(t)dt + C y si podemos hallar P y Q primitivas de p y q :
Q(y) = P(t) + C .
R R 1 1 2 1/ 2
Ej 1. y 0 = ty 3 ! y 3 dy = t dt + C ! 2
y 2 = 2
t + C ! y = ±[ C t2 ] ,
Pero es claro que y ⌘ 0 satisface la ecuación y esa condición inicial. No es raro que en
el proceso de cálculo desaparezca alguna solución. El teorema de existencia y unicidad
será de mucha ayuda en esos casos.
R R R
Ej 2. y 0 = ey t2 ! e y dy = e t 2 dt +C ! e y=C
2
e t dt (no calculable) !
î R 2
ó
y = ln C e t dt .
R
El símbolo designa cualquiera de las primitivas del integrando. Si queremos imponer
algún dato inicial debemos fijar una de ellas poniendo límites a la integral. Por ejemplo,
la solución que cumple y(0) = 7 es:
î Rt 2
ó î Rt 2
ó
y = ln C 0
e s ds ! 7 = ln[ C 0] ! y = ln e 7 0
e s ds ,
función perfectamente definida (no sería demasiado complicado obtener alguna infor-
mación sobre ella).
Hay ecuaciones que no son de la forma [s], pero que se convierten en ecuacio-
nes separables mediante un cambio de variable dependiente. Los dos tipos
fácilmente identificables son:
5
y
Ecuaciones homogéneas: y0 = ƒ t
.
y
Se convierten en separables haciendo z = t , pues
z0 R
y = tz ! y 0 = tz 0 + z = ƒ (z) ! ƒ (z) z
= 1t ! dz
ƒ (z) z
= ln |t|+ C
t 3 y+y 4 y y 4 3
Ej 3. y 0 = t4
= t
+ t ! tz 0 + z = z+ z 4 ! z 3 =C 3 ln |t| = yt 3 ! y = ⇥ t
⇤1/ 3 .
z=y/ t C 3 ln |t|
R z 2 dz
Ej 4. y 0 = (y+ 2t) 2 1 z = y+ 2t ! z 0 = z 2+1 ! =z rct n z = t + C !
1+z 2
La solución con y(0) = 1 viene dada implícitamente por y+ t rct n(y+ 2t) = 1 4
.
Ecuaciones lineales.
Son de la forma [l] y 0 = (t)y+ ƒ (t) .
(al sustituir eC por C hemos incluido las soluciones positivas y negativas del valor
absoluto y además la solución y ⌘ 0 que nos habíamos comido al dividir por y ).
Para [l], ecuación no homogénea, hallamos su solución sustituyendo la C de la
solución general de la homogénea por una función C(t) (es el llamado método
de variación de las constantes que es aplicable en situaciones más generales).
Llevando nuestra conjetura a [l]:
R R R R
y = C(t)e (t)dt
! C0 e + Ce = Ce +ƒ
R R R
! C(t) = C0 (t)dt = e (t)dt
ƒ (t)dt + C
R R R R
(t)dt (t)dt (t)dt
Así pues, la solución general de [l] es: y = Ce +e e ƒ (t)dt .
6
Si en vez de la solución general de [l] lo que queremos es la solución particu-
lar que satisface y(to ) = yo (aunque podríamos simplemente hallar la solución
general e imponer el dato), es inmediato comprobar que :
Rt
(t)dt
Rt
(t)dt
Rt Rs
( )d
y = yo e to +e to e to ƒ (s) ds
to
y
Ej 5. y0 = t
+ et con y(1) = 1 .
R
Para aplicar la fórmula de variación de las constantes, como e aparece 3 veces,
empezaremos siempre calculando esta exponencial:
R R
1 C et y(1)=1 et
+ 1t C 1
1
e =e ln t = eln t = ! y= tet dt = + et ! y= + et .
t t t t t t
1 t
= e ln t = 1t ! y = 1· 1t + 1t 1 ses ds = 1t + et et .
2y t
Ej 7. y0 = t + y que es de Bernouilli con p = 1 .
7
Ecuación de Riccati: y 0 = (t)y+ b(t)y 2 + ƒ (t) .
Todas las ecuaciones anteriores eran resolubles (aunque pudieran aparecer primi-
tivas no calculables). La de Riccati no lo es en general. Sólo se puede resolver si
se conoce una solución particular yp de la ecuación (y eso casi nunca será
posible).
0 = y 0 yp0 = [ (t)+ 2b(t)yp (t)] + b(t) 2 + [ (t)yp (t)+ b(t)yp2 (t)+ ƒ (t) yp0 (t)]
⇥ ⇤
0 = (t)+ 2b(t)yp (t) + b(t) 2 (ya que yp es solución),
Ej 8. (1+ t 3 ) y 0 + 2ty 2 + t 2 y+ 1 = 0 .
3t 2 2t C 1 R C+t 2
Con z = 1 se llega a la lineal z 0 = z + !z= + 2tdt = .
1+t 3 1+t 3 1+t 3 1+t 3 1+t 3
1 1 Ct
Y deshaciendo los cambios obtenemos la solución general: y = z
t= C+t 2
.
Ecuaciones exactas.
Consideremos una ecuación escrita en la forma: [e] M(t, y)+ N(t, y) y 0 = 0 .
[e] es exacta si existe una función de dos variables U(t,y) tal que M = Ut , N = Uy
[es decir, [e] lo es si existe función potencial U para el campo vectorial (M, N) ].
En ese caso la solución general de [e] es U(t, y) = C , pues para cualquier función
derivable y(t) definida implícitamente por esta expresión es:
d
0= dt
U(t, y(t)) = Ut + Uy y 0 = M+ N y 0 .
Un resultado clásico de cálculo asegura que para que U exista debe ser My ⌘ Nt .
Una vez comprobado que U existe se puede hallar como en el ejemplo siguiente.
8
3t 2 +6ty 2
Ej 9. y 0 = , o sea, (3t 2 + 6ty 2 ) + (6t 2 y+ 4y 3 )y 0 = 0 . Es exacta: My = 12ty = Nt .
6t 2 y+4y 3
Ut = 3t 2 + 6ty 2 ! U = t 3 + 3t 2 y 2 + p(y)
La U debe cumplir: ! U = t 3 + 3t 2 y 2 + y 4 .
Uy = 6t 2 y+ 4y 3 ! U = 3t 2 y 2 + y 4 + q(t)
Si [e] no es exacta podríamos intentar encontrar una función g(t, y) , factor inte-
grante de [e] , tal que gM+ gNy 0 = 0 sí sea exacta. Debería entonces cumplirse:
⇥ ⇤
[ gM] y ⌘ [ gN] t , es decir, [•] Ngt Mgy = My Nt g
Observemos que es mucha casualidad que [ My Nt ] sea idénticamente cero, o que al dividir
esa expresión por N o por M quede una función sólo de una variable; pocas ecuaciones se-
rán, pues, exactas, o admitirán factores integrantes g(t) ó g(y) . Podría pensarse en buscar
factores integrantes de la forma, por ejemplo, g(t+y) ó g(ty) (se obtendrían entonces para
la g ecuaciones ordinarias como antes), pero no merece la pena el esfuerzo, porque, como
se ha dicho, lo normal es que una ecuación sea no resoluble.
Podemos también solucionar esta ecuación (y bastantes más) de una forma diferente:
utilizando el hecho de que la derivada de la función inversa es la inversa de la derivada de
la función (si ambas son no nulas). Se observa que es complicada la expresión obtenida
al despejar la dy(t)/ dt = y/ (t t 2 y) , pero que en cambio es integrable la ecuación que se
obtiene al mirar la t como función de y :
d(t(y)) z=1/ t d(z(y)) R y
dy
= yt t 2 (Bernouilli) ! dy
= yz + 1 ! z = C
y
+ 1y y dy = C
y
+ 2 = 1t .
9
1.2 Dibujo aproximado de soluciones
Consideremos la ecuación [e] y 0 = ƒ (t, y) .
Cada una de sus soluciones es una función y(t) cuya gráfica tiene en cada uno
de sus puntos (t, y(t)) la pendiente dada por la conocida función ƒ (t, y) . Podemos
asociar a cada punto (t, y) del plano un segmento de pendiente ƒ (t, y) (a este
conjunto de segmentos se le llama campo de direcciones de [e]). Una vez dibu-
jado dicho campo (lo que se puede hacer sin resolver la ecuación), las soluciones
de [e] serán las curvas tangentes en cada punto a los segmentos del campo
de direcciones.
Para dibujar este campo de forma organizada conviene, si es posible, trazar algu-
nas isoclinas, es decir, curvas ƒ (t, y) = K en que la pendiente asignada por ƒ es
constante (si la ƒ es complicada, también lo serán las isoclinas y no las podre-
mos pintar), para unos cuantos valores de K . En particular intentaremos dibujar la
isoclina con K = 0 (segmentos horizontales, posibles máximos y mínimos de las
soluciones) y la de ‘K = ’ (segmentos verticales, en esos puntos las y(t) no se-
rán derivables). En el peor de los casos, aunque sea imposible pintar las isoclinas,
podremos ir dibujando segmentos del campo en diferentes puntos (t, y) .
Se puede dar más información sin necesidad de resolver [e]. Como las zonas de
crecimiento y decrecimiento, regiones con ƒ (t, y) > 0 y ƒ (t, y) < 0 . O las curvas
de puntos de inflexión, viendo dónde se anula y 00 , calculable a partir de ecuación:
y 00 = ƒt (t, y)+ ƒy (t, y)ƒ (t, y) = 0 . Buscaremos rectas solución de diferentes formas.
El TEyU nos dirá dónde podrán tocarse las soluciones...
Aún cuando [e] sea resoluble, las ideas anteriores suelen dar más datos sobre el
dibujo de sus soluciones que la expresión analítica (tal vez complicada, o definida
implícitamente, o en función de primitivas,...).
10
Es inmediato comprobar que las isoclinas de las ecuaciones de la forma y 0 = ƒ ( t + cy)
(la anterior es una de ellas) siempre son rectas paralelas (de la forma y = t/ c + b ).
En particular, esto ocurre para las ecuaciones autónomas y 0 = ƒ (y) , donde son las rectas
horizontales y = b . Veremos en 1.5 que dibujar a grandes rasgos las soluciones de las
autónomas será muy fácil, pero si queremos precisar más el dibujo necesitaremos las ideas
de esta sección, que son las que usaremos en el siguiente ejemplo:
4 4
Ej 2. y 0 = y y2
. Las isoclinas son las rectas: y = b ! y 0 = b b2
=K .
2t y
Ej 3. y0 = t y
= K ! y = 21 K
K
t. Son rectas pasando por el origen.
y
y
Las isoclinas de toda ecuación homogénea y0 = ƒ ( t )
son las rectas y = mt , pues ƒ (t, mt) = ƒ (m) = K .
Pintamos diferentes isoclinas para varios K :
K = 0 ! y = 2t ; K = 1 ! t = 0 ; K = 1 ! y = 32 t ; . . .
O bien, como las isoclinas son y = mt , es más cómodo t
dibujar la recta de pendiente m que queramos y trazar
sobre ella segmentos de pendiente K = ƒ (t, mt) = 21 m
m
:
m=0 ! K =2 ; m=1 ! K = ; m = 1 ! K = 32 ; . . .
Una recta con K = ƒ (m) = m sería solución (aquí no
hay). Como no parece haber inflexión, no hallamos y 00 .
Las curvas tangentes al campo parecen cerradas⇥ oy ⇤espirales
⇥ poco abiertas. Resolvemos
y⇤
para salir de dudas. Ecuación homogénea y 0 = 2 t / 1 t o exacta (2t y)+(y t)y 0 = 0 .
Por los dos caminos se llega a y 2 2ty + 2t 2 = C . Las soluciones son elipses. Con más
p p
propiedad, para cada C esta expresión define dos soluciones distintas en C, C :
p p ⇥ p p ⇤ p
2
y = t+ C t , y = t 2
C t funciones definidas en C, C y no derivables en ± C .
11
Ej 4. y 0 = y 2 t = K ! Las isoclinas son parábolas: t = y 2 K . Dibujamos algunas.
La de K = 0 da los máximos de las soluciones (como y
y 0 > 0 si t < y 2 e y 0 < 0 si t > y 2 las soluciones crecen a 1
su izquierda y decrecen a su derecha). Hallando y 00 : 3 2 0 –1
1
y 00 = 2yy 0 1= 2y 3 2ty 1 = 0 ! t = y2 2y
obtenemos la curva de puntos de inflexión (a pun- t
tos en la figura), curva en la que la t ! + ( )
cuando y ! 0 (0+ ), que se acerca a t = y 2 si
y ! ± , y cuyo mínimo local (para la t ) se pue-
de calcular. Con estos datos dibujamos las solu-
ciones aproximadas de esta ecuación (que no es
resoluble elementalmente).
p p ⇥ ⇤
Ej 5. y 0 = y + t = K ! Isoclinas: t = K y o rama decreciente de y = (t K)2 .
En el último ejemplo las isoclinas van a ser complicadas, y tendremos que dibujar segmentos
en diferentes puntos del plano tras hallar su ƒ (t, y) organizándonos de otra forma:
Ej 6. y 0 = y 2 (cos t)y .
2
La única isoclina sencilla es la de
1
K = 0 que da la solución y = 0 y la
curva y = cos t . Las soluciones de-
0 !
crecen si y(y cos t) < 0 , o sea, en -!
las zonas grises (y es y 0 > 0 fuera).
-1
Haciendo y 00 = 0 se obtiene una
curva difícil de dibujar (y, claro, la -2
recta solución y = 0 ).
Parece adecuado dibujar segmentos sobre las rectas t = k2 , k 2Z :
Ä ä
[ 2k 1]
ƒ 2
, y = y 2 ; ƒ (2k , y) = y 2 y ; ƒ [ 2k 1] , y = y 2 + y .
12
1.3 Existencia, unicidad, prolongabilidad
ß
y 0 = ƒ (t, y)
Consideremos el problema de valores iniciales [P] .
y(to ) = yo
Veamos varios ejemplos que ilustren lo que dicen (y lo que no dicen) los teoremas anteriores:
⇢
y 0 = sen t ln[ y 2 + et ]
tiene solución única (que no sabremos
Ej 1. El problema
y(to ) = yo calcular) para todo to y todo yo pues
ƒ y ƒy son continuas en un entorno de (to , yo ) (claramente son continuas en todo R2 ).
y2 1
Ej 2. y0 = t
, y(1) = 1 tiene solución única local, al ser ƒ , ƒy continuas en un entorno
de (1, 1) . Resolvemos e imponemos el dato para ver cuál es. Es separable (o Riccati):
R 2dy y 1 y 1 2 y(1)= 1
y2 1
= ln y+1 = 2 ln t + C ! y+1 = Ct 2 ! y = 1+Ct
1 Ct 2
! 1+ C = 1+ C
¡Ningún C lo satisface! Pero hay una según el TEyU (sin él pensaríamos que no). Se ve
que y ⌘ 1 es la solución perdida en el cálculo. Observemos que esta solución cumple
y(0) = 1 , a pesar de ser ƒ discontinua en (0, 1) [en rigor, y ⌘ 1 no es solución en
t = 0 pues ƒ no existe ahí, pero podríamos definir ƒ (0, y) = 0 ]. Los teoremas son sólo
condiciones suficientes: puede ser ƒ muy mala y haber solución, e incluso ser única.
Podemos observar también que todas las soluciones (excepto y ⌘ 1 ) cumplen y(0) = 1 .
13
⇢
y0 = y2
Ej 3. tiene solución única local que es y = 1 bbt ( y = C1 t + dato inicial).
y(0) = b
Existe solución to 0 . Para to > 0 esto se deduce del TEyU (pues ƒ y ƒy son continuas
en todo un entorno de (to , yo ) , pero para los puntos de la recta t = 0 hay que utilizar el
teorema 1, pues sólo son continuas en un entorno a la derecha de los puntos (0, yo ) .
La ecuación es resoluble (separable) y se puede ver cuáles son estas soluciones:
1 1 yo
y
= 2t 3/ 2 + C ! y = C 2t 3/ 2
, y(0) = yo ! y = 1 2yo t 3/ 2
.
[Que conste que los TEyU no exigen nada a la ƒt (en este ejemplo es discontinua en t = 0
pero no importa)]. [Observemos que, como en el Ej 3, aunque son continuas ƒ y ƒy en
todo el semiplano {t 0} , las soluciones no están definidas en todo [ 0, ) , pues sólo
llegan (salvo la y ⌘ 0 ) hasta la asíntota vertical de t = 1/ (2yo )2/ 3 ].
ß 0 p
y = t( y 1) t
Ej 6. ƒ es continua en {y 0} y ƒy = 2p en {y > 0} ; ƒ no existe si {y < 0} .
y(to ) = yo y
Para yo > 0 el TEyU asegura solución única, pero para yo = 0 no dice nada. El TE tampoco
nos informa sobre si al menos existe solución aunque no sea única en (0, 0) , pues exige
que ƒ sea continua en todo un entorno del punto. No basta que ƒ sea continua en el
punto, o que lo sea (como sucede aquí) en un rectángulo por encima del punto (sí basta
que lo sea en el entorno a la derecha o la izquierda del teorema 1, pero no es el caso).
Para ver qué ocurre en (0, 0) es suficiente, en este ejemplo, analizar el signo de la y 0 :
y 0 = 0 ! y = 1 (recta solución)
y 0 > 0 (crece) en (0, )⇥ (1, ) o en ( , 0)⇥ (0, 1)
y 0 < 0 (decrece) en (0, )⇥ (0, 1) o en ( , 0)⇥ (1, )
Por (0, 0) , por tanto, no puede pasar ninguna solución.
( y ⌘ 0 aquí no satisface, claramente, la ecuación).
[Comprobemos otra vez lo mentirosas que pueden ser las soluciones
generales y los errores que se cometen si uno se fía de ellas. La
ecuación es separable. Integrándola se obtiene:
p p
y + log y 1 = 14 t 2 + C
Parecería que no hay solución con y(0) = 1 (es la única y ⌘ 1 perdida) y que con y(0) = 0
! C = 0 hay una única solución (y acabamos de ver que no existe; la expresión de la
solución con C = 0 se satisfará sólo si y = t = 0 ].
14
Veamos qué conclusiones se pueden sacar de aplicar los TEyU a la
dt 1
‘ecuación equivalente’ [e*] dy = ƒ (t,y) .
Las curvas integrales eran soluciones tanto de [e] y 0 = ƒ (t, y) , como de [e*]. El
TEyU habla de existencia y unicidad de soluciones. Si por un punto pasa una única
solución y(t) de [e] evidentemente pasa también una única curva integral. Pero
por un (to , yo ) tal que en un entorno suyo ƒ ó ƒ / y no sean continuas pero tal
que 1/ ƒ y (1/ ƒ )/ t sí lo sean pasará una única solución t(y) de [e*] y, por tanto,
una única curva integral (que en muchas ocasiones no será solución de [e]). Sólo
puede pasar más de una curva integral por los puntos en que falle el TEyU
tanto para [e] como para [e*] (y en esos puntos no se sabe).
En ocasiones, el análisis de [e*], informa también sobre la existencia o no
de soluciones de nuestra ecuación inicial [e], utilizando argumentos como los
de los siguientes ejemplos.
dy 1 dt
Ej 7. [e] dt
= t 2 +y 2 cuya equivalente es [e*] dy
= t 2 + y 2 (ni una ni otra son resolubles).
El TEyU asegura que hay única solución y(t) de [e] con y(to ) = yo (to , yo ) 6= (0, 0) . Por
(0, 0) , al no tener problemas de unicidad la equivalente, pasa una única curva integral.
Como la solución t(y) de [e*] que pasa por (0, 0) es creciente y su pendiente t 0 (0) = 0
esta curva integral será de hecho también una función y(t) pero con derivada (no es
derivable en t = 0 ). Concluimos que [e] no tiene solución con el dato y(0) = 0.
dy y(y t) t
dt t R e
Ej 8. Sea [e] dt
= t
! [e*] dy
= y(y t)
. Su solución es (Bernouilli): y = .
C t 1 et dt
El TEyU dice que hay única solución y(t) de [e] con y(to ) = yo para todo to 6= 0 y todo
yo , pero no precisa si hay ninguna, una, varias o infinitas satisfaciendo y(0) = yo .
Por su parte [e*] tiene única solución t(y) con t(yo ) = to si yo 6= 0 y si
yo 6= to . En particular hay única t(y) con t(yo ) = 0 , yo 6= 0 . Por tanto, c
d
por cada punto, salvo tal vez por (0, 0) , pasa una única curva d
integral. Por (0, 0) pasan al menos 2: y = 0 y t = 0 (soluciones a ojo
de [e] y de [e*]). Como por (0, yo ) , yo 6= 0 , sólo pasa la curva t = 0 c
(que no es solución de [e]) no hay solución y(t) por esos puntos. d
c
Pero los teoremas no aclaran qué sucede en (0, 0) . Necesitamos más
información. La solución e isoclinas son complicadas. Pero basta analizar crecimiento y
decrecimiento para garantizar que pasan infinitas curvas por (0, 0) [las trazadas a
puntos], pero no podemos decir si son soluciones (podrían tener ahí pendiente infinita).
[De la solución se deduce (es difícil) que y 0 ! si t ! 0 , y así la única solución y(t) por
el origen es y ⌘ 0 , a pesar de no ser la ƒ ni continua (no estar definida) en ese punto].
dy
. ƒy = 13 y dt 1
1/ 3
Ej 9. Sea [e] = ey 2/ 3 ey 1/ 3 . Para su equivalente [e*] =e y 1/ 3 es =0 .
dt dy ƒ t
[e] tiene solución en todo R2 , única en R2 {y = 0} . Como hay solución única t(y)
en todo R2 , en y = 0 la solución es también única. A diferencia del ejemplo 4, aunque
fallaba el TEyU (no el de existencia) en y = 0 , hay solución única ahí. Y a diferencia de
los ejemplos anteriores el considerar la [e*] nos ha dado unicidad y no inexistencia.
15
Avancemos hacia el resumen de la demostración del teorema 1. En las hipótesis del
enunciado de un teorema previo que veremos aparece el término que definimos aquí:
Pedir que una ƒ sea lipschitziana es pedir algo menos que pedir que ƒ y ƒy sean continuas:
Sean (t, y), (t, y ) 2 Q . Aplicando el teorema del valor medio a ƒ , vista como función de y
se tiene que c 2 (y, y ) con: ƒ (t, y) ƒ (t, y ) = ƒy (t, c)[ y y ] L|y y | , donde L
es el valor máximo de |ƒy | en Q , que existe por ser función continua en el compacto Q .
[( no es cierta (aunque casi todas las ƒ lipschitzianas que aparezcan tengan ƒy continua):
ƒ (t, y) = |y| es lipschitziana en R2 pues |y| |y | |y y | (t, y), (t, y ) 2 R2 ( L = 1 ) ,
pero no existe ƒy cuando y = 0 ].
Para probar el teorema definimos el siguiente operador T (una función que transforma
funciones y en funciones Ty ):
Rt
Ty(t) = yo + t ƒ (s, y(s)) ds
o
o, con otras palabras, si y es punto fijo del operador T . En una rama de las matemáticas,
el análisis funcional, se prueban varios teoremas de punto fijo. Por ejemplo, el llamado
teorema de la aplicación contractiva para un espacio E de Banach (espacio vectorial en
el que hay definida una norma respecto de la cual es completo, es decir, que toda sucesión
de Cauchy con esa norma tiene límite que pertenece a E (R, por ejemplo, lo es)):
16
ƒ continua y lipschitziana respecto de la y en Q = [ to , to +h]⇥[ yo r, yo +r] ) [P]
r 1
Teor 1*. posee solución única definida al menos en = [ to , to +d] , con d = mín h, M , 2L ,
siendo M el máximo de |ƒ (t, y)| en Q y L la constante de Lipschitz.
[Probado este teorema queda probado el 1 pues vimos que sus hipótesis implican
las del 1*; por la misma razón este teorema es más fuerte que aquel (se pide menos
a la ƒ ) y es aplicable en (pocos) casos en que el 1 no funciona].
1
) k(Ty Ty )(t)k = máx{|(Ty Ty )(t) : t 2 } 2
ky y k
Ej 11. y 0 = |t 2 7y| ƒ continua en todo R2 ) existe solución para cualquier dato inicial.
ƒy es continua si 7y 6= t 2 . El teorema 1 asegura la unicidad (to , yo ) con 7yo 6= to2 . Para
las funciones definidas a trozos, como el valor absoluto, el teorema adecuado no es el 1,
sino el 1*. Veamos que ƒ es lipschitziana:
|ƒ (t, y) ƒ (t, y )| = |t 2 7y| |t 2 7y | (t 2 7y) (t 2 7y )
= 7|y y | (t, y), (t, y ) 2 R2
Por tanto también hay solución única si 7yo = to2 , y eso no nos lo decía el teorema 1.
17
El siguiente teorema, que no demostramos, resume las ideas de los dos ejemplos.
Hay dos posibilidades, que la solución única llegue a ± o que tenga una asíntota (que
‘explote’). Si y(t) explota, tanto ella como sus pendientes han de tender a . Como es
|y 0 | 1 , la solución está definida t .
⇥ ⇤ 1
El denominador se anula si t = to + (n 1)yon 1 . Por tanto, salvo y ⌘ 0 , todas
las soluciones tienen una asíntota. Para saber si la asíntota está a la derecha
o izquierda de to basta mirar crecimiento y decrecimiento, o sea, el signo de y n .
18
1.4 Estabilidad
En lenguaje usual la posición de equilibrio de un objeto o la trayectoria de un móvil se
dice estable si un pequeño cambio de sus condiciones iniciales modifica poco su evolución
desde ese instante. El concepto matemático de estabilidad da rigor a esta idea. Definamos
estabilidad para ecuaciones de primer orden (volveremos a tratarla en los capítulos 2 y 4).
ß
y 0 = ƒ (t, y)
Supongamos que [P] tiene solución única y(t) definida en [ to , ).
y(to ) = yo
¿Se parecerán a ella t to las soluciones y (t) de datos iniciales similares? Hemos visto
ya casos en que no sucedía. Por ejemplo, la solución de y 0 = y 2 con y(0) = 0 (la constante
y(0) ⌘ 0 ) está definida t 0 y sin embargo la correspondiente a un dato inicial próximo
y(0) = yo (que era y = yo / [ 1 tyo ] ) ni siquiera llega hasta cuando yo > 0 , pues tiene
una asíntota en t = 1/ yo . Y aunque todas las soluciones estén definidas en [ to , ) pueden
ser para t grande muy diferentes entre sí. Así, las de:
ß 0 ⇢ 0
y =y y =y
e que son y ⌘ 0 e y = et yo
y(0) = 0 y(0) = yo
son muy diferentes para grandes t , pues y tiende a
+ o (según el signo de yo ). En cambio, las de
y 0 = y , que con esos datos son y ⌘ 0 e y = e t yo ,
cumplen y ! y si t ! .
Si [P] tiene solución única y(t) definida en [ to , ) se dice que y(t) es es-
table si >0 > 0 tal que toda solución y (t) con |yo yo | < satisface:
1] y (t) existe y está definida en [ to , ),
2] |y(t) y (t)| < para todo t to .
Decimos que y(t) es asintóticamente estable si además y (t) satisface:
3] |y(t) y (t)| ! 0 cuando t ! .
Una solución que no es estable se dice inestable.
Gráficamente, y es estable si para
cualquier banda de altura 2 en torno
a ella existe un segmento de altura 2 y
o
en torno a yo tal que las soluciones
que parten de él permanecen para to-
to
do t to dentro de la banda.
Para las ecuaciones de primer orden se puede probar que:
1] y 3] ) 2] (falso en sistemas y ecuaciones de orden n).
Así pues, para ver que la solución de una ecuación de primer orden es asintóti-
camente estable basta comprobar que toda solución que parte cerca de ella llega
hasta y que la diferencia entre ambas tiende a 0 en el infinito, con lo que pode-
mos evitar las acotaciones de 2] que son siempre mucho más complicadas.
⇢
y0 = y2
Ej 1. Analicemos la estabilidad de las soluciones de la conocida .
y(0) = yo
19
⇢
y0 = y3 / t 3 En 1.3 la dibujamos y resolvimos: t 2 + y 2 = C . La solución que
Ej 2. ⇥ ⇤ 1/ 2
y(1) = 0 cumple y(1) = b es yb = bt b2 (t 2 1)+ t 2 .
Estamos analizando y ⌘ 0 . Todas las yb están definidas b
si t 1 , pero yb ! b[ b2 + 1] 1/ 2 6= 0 . Por tanto no es AE.
t!
Estable sí lo es:
tomando = se tiene que si |b| < es |yb | |b| < t 1.
0 1
(La estabilidad se puede probar sin hallar yb : como las
soluciones decrecen en el primer cuadrante y crecen en
el cuarto, a partir de t = 1 se mueven entre las rectas
y = 0 e y = b , luego llegan hasta y es estable y ⌘ 0 ).
Como sabemos, para todo yo , [Pl] tiene solución única definida para todo t to ,
de expresión conocida. La diferencia entre dos soluciones cualesquiera es
Rt
(s)ds
|y(t) y (t)| = |yo yo | e to y por tanto:
Rt
(s)ds
La solución de [Pl] es estable si y sólo si e to está acotada.
Teor 1. Rt
(s)ds
Es asintóticamente estable si y solo si e to ! 0.
t!
20
Podría pensarse que para una ecuación no lineal de la forma y 0 = (t)y+ b(t)y 2 + c(t)y 3 + · · ·
la estabilidad de su solución y = 0 coincidirá con la de su ‘aproximación lineal’: y 0 = (t)y
(hay teoremas que precisan esta idea y veremos uno de ese tipo en las autónomas de la
sección 1.5). El siguiente ejemplo demuestra que la conjetura anterior, en general, es falsa:
t t
[1] yb = be 2be
2t +2 b
[2] yb = 1be bt
Ambas yb ! 0 si t ! . Aunque para [1] yb está definida en [ 0, ) si b cercano a 0 ,
pero no para [2] (tiene asíntota en t = 1b ). Por tanto y ⌘ 0 es solución AE de [1] e I de [2].
Así que, en intervalos finitos, las soluciones (inestables incluidas) de toda ecuación siguen
lo próximas que queramos si partimos suficientemente cerca. La distinción entre estables
e inestables aparece al considerar intervalos infinitos. Comprobemos que se cumple la afir-
mación con de arriba para una de las soluciones inestables
⇢ 0
vistas:
ß 0
y =y y = y
Las soluciones y ⌘ 0 de e y = et yo de ,
y(0) = 0 y(0) = yo
en cualquier intervalo finito [ 0, d] satisfacen d
21
1.5 Ecuaciones autónomas
Son ecuaciones en las que la variable independiente no aparece explícitamente:
[a] y 0 = ƒ (y)
Suponemos que ƒ 0 es continua en todo R con lo que hay solución única para
cualquier condición inicial.
Como [a] es de variables separables, es fácil hallar su solución implícita:
R dy
ƒ (y)
= t + C (la primitiva puede ser no calculable o muy complicada).
Teor 3.
Cada solución de [a] es o constante, o estrictamente creciente,
o estrictamente decreciente.
Sea y solución. Si existe un to para el que y 0 (to ) = 0 ) ƒ (y(to )) = 0 ) y(t) ⌘ y(to )
es solución (teorema 2), única que pasa por ese punto. Ninguna solución puede
tener ni máximos ni mínimos si no es constante.
22
Ej 1. y 0 = y 3 y 2 . Como y 2 (y 1) = 0 ! y = 0 , y = 1 , estas son las soluciones constantes.
Como y 2 (y 1) > 0 si y > 1 e y 2 (y 1) < 0 si y < 0 ó si y 2 (0, 1) , sabemos qué soluciones
crecen o decrecen y las soluciones de equilibrio a que
tienden (sin llegar a tocarlas). Las soluciones que es-
tán por encima de y = 1 llegan hasta pues si es-
tuviesen acotadas deberían tender hacia una solución 1
constante y no la hay (según el teorema 5 lo hacen en
tiempo finito). Tampoco están acotadas las de y < 0
(también explotan). Sabiendo además que las trasla- 0
dadas a derecha e izquierda de una solución lo son
también completamos el dibujo.
(Podríamos además pintar alguna isoclina (son rectas
y = b ) y la recta de puntos de inflexión:
2
y 00 = (y 3 y 2 )(3y 2 2y) = 0 ! y = y las rectas solución).
3
R dy y 1
No es útil para el dibujo hallar la complicada solución: y3 y2 = ln | y |+ 1y = t + C ).
o ser inestable, como la solución y = 0 del ejemplo 1 (en él es, ƒ 0 (y) = 3y 2 2y , ƒ 0 (0) = 0 ).
El teorema 6 sí nos confirma la inestabilidad de la otra solución constante: ƒ 0 (1) = 1 > 0 .
23
Estudiemos ahora varias ecuaciones autónomas que describen modelos de crecimiento de
una población animal (en ellas y(t) representa la población que hay en el instante t y ,
b , M son constantes positivas). La más sencilla (es también lineal)
viene de suponer la velocidad de crecimiento de la población pro-
porcional al número de animales existentes, o sea,
[1] y 0 = y , y(to ) = yo ! y = yo e (t to ) .
Dibujamos sus soluciones sólo donde tienen sentido (en y 0 ):
En [1] está implícita la suposición de que hay alimentos y espacio vital ilimitados. Si hay una
población máxima M que admite el ecosistema, describirá mejor la evolución la llamada
ecuación logística: [2] y 0 = by(M y)
de soluciones fáciles de pintar. La solución y ⌘ M es AE y hacia ella
tienden todas las demás positivas para cualquier dato inicial: pasado M
el tiempo habrá en el ecosistema una población M . Para conocer la
población en un instante t hay que hallar la solución con y(to ) = yo :
⇥ ⇤ 1
y = Myo yo + (M yo )e bM(t to ) (la ecuación es separable o Bernouilli)
función que tiene el comportamiento asintótico previsto con las técnicas de autónomas.
Imaginemos ahora que [2] rige la población de truchas en un estanque y que una persona
pesca truchas: i] a un ritmo proporcional al número de ellas existente, ii] a ritmo constante
(independientemente de las que haya). Las técnicas de autónomas nos permiten predecir
con facilidad el número de truchas que habrá en el estanque para grandes valores de t . Las
ecuaciones que rigen la evolución de y en ambos casos son:
[2i] y 0 = by(M y) y y [2ii] y 0 = by(M y)
r
M2
Las soluciones de equilibrio son para [2i] y = 0 e y = M b
y para [2ii] y = M
2
± 4 b
.
Si es grande (pescador muy hábil) la segunda solución constante de [2i] pasa a ser nega-
tiva y las dos de [2ii] se convierten en complejas. Viendo el signo de y 0 se tiene:
i] a pequeño i] a grande ii] a pequeño ii] a grande
M M M M
Para acabar, observemos que si ƒ (y) no es tan regular como exigimos al principio,
de forma que no haya existencia y unicidad en todo el plano, también pueden fallar
algunas de las propiedades que hemos demostrado basándonos en ese hecho:
p
2 y Ecuación definida sólo si y 0 , con solución única en y > 1 e y 2 (0, 1) ,
Ej 2. y0 = y1 y problemas en y = 0, 1 .
24
1.6 Métodos numéricos
Queremos calcular aproximadamente la solución del problema de valores iniciales:
ß 0
y = ƒ (t, y)
[P]
y(t0 ) = y0
(suponemos ƒ suficientemente buena para que [P] tenga solución única y(t) cerca de t0 ).
Pocas ecuaciones de primer orden son resolubles y hacer un dibujo aproximado es difícil
si la ƒ (t, y) no es sencilla. Pero, aunque ƒ sea complicada, siempre podremos acudir a mé-
todos numéricos (iterativos y fácilmente programables), como los que vamos a describir a
continuación. En los tres iremos hallando valores y0 , y1 , y2 , . . . , yk , . . . cercanos a los de
la solución y(t) en una serie de puntos t0 < t1 < t2 < · · · < tk < · · · separados entre sí una
distancia (paso) h fija, es decir, t1 = t0 + h , t2 = t0 + 2h , . . . , tk = t0 + kh , . . .
El más sencillo (y menos preciso) de los métodos es el de Euler, que consiste en aproximar
la solución desconocida por su tangente conocida. Es decir, si h es pequeño es de esperar
que el valor de la solución y(t0 + h) = y(t1 ) sea próximo al valor de la recta tangente en ese
mismo punto: y0 + hƒ (t0 , y0 ) , que llamamos y1 . Como (t1 , y1 ) se parece al desconocido
(t1 , y(t1 )) podemos aproximar y(t2 ) por el y2 que obtendremos de (t1 , y1 ) de la misma
forma que obtuvimos el y1 a partir del (t0 , y0 ) inicial. Prosiguiendo así vamos obteniendo
los yk aproximados (más inexactos según nos alejamos de t0 ) dados por:
yk+1 = yk + h ƒ (tk , yk )
ƒk1 = ƒ (tk , yk ) , ƒk2 = ƒ (tk + 2h , yk + 2h ƒk1 ) , ƒk3 = ƒ (tk + 2h , yk + 2h ƒk2 ) , ƒk4 = ƒ (tk + h, yk + hƒk3 )
t 1
Ej 1. y0 = t 2y En la sección 1.2 hallamos su solución general: y = 2 4
+ Ce 2t .
Resolvemos numéricamente con y(0) = 1 (por los tres métodos) y comparamos con los
valores exactos (para ese dato es C = 54 ). Para h=0.1 listamos todos los resultados:
t Euler Euler-mod Runge-Kutta exacto
0 1 1 1 1
0.1 0.8 0.825 0.8234166667 0.8234134413
0.2 0.65 0.6905 0.6879053389 0.6879000575
0.3 0.54 0.58921 0.5860210311 0.5860145451
0.4 0.462 0.5151522 0.5116682856 0.5116612051
0.5 0.4096 0.463424804 0.4598565477 0.4598493015
0.6 0.37768 0.4300083393 0.4264998841 0.4264927649
0.7 0.362144 0.4116068382 0.4082530051 0.4082462049
0.8 0.3597152 0.4055176073 0.4023770104 0.4023706475
0.9 0.36777216 0.4095244380 0.4066294710 0.4066236103
1 0.384217728 0.4218100392 0.4191744355 0.4191691040
25
Se puede demostrar que el error local (cometido en cada paso) para cada uno de los tres
métodos citados es proporcional, respectivamente, a h2 , h3 y h5 , mientras que el error
acumulado en sucesivas iteraciones es de orden h , h2 y h4 . Como era de esperar los
resultados mejoran al tomar h más pequeños (pero sólo hasta un límite ya que el error de
redondeo de toda calculadora u ordenador hace que si disminuimos demasiado el paso h ,
aparte de incrementarse el tiempo de cálculo, puede aumentar el error).
El dibujo aproximado de la sección 1.2 no aclara si se trata de una de las soluciones que
van a infinito o de una de las que cruzan la isoclina de máximos. Empezamos con h=0.1 .
Los yk obtenidos por los tres métodos están en la siguiente tabla (sólo hemos escrito los
correspondientes a los t enteros para t 0 ):
t Euler Euler-mod Runge-Kutta
1 0 0 0
0,9 0.1 0.0955 0.0953100738
0,8 0.191 0.1826934847 0.1823176520
0,7 0.2746481 0.2629009594 0.2623378481
0,6 0.3521912579 0.3371304370 0.3363726607
0,5 0.4245951261 0.4061567380 0.4051902841
0,4 0.4926232282 0.4705749490 0.4693783604
0,3 0.5568909927 0.5308364662 0.5293796824
0,2 0.6179037505 0.5872727793 0.5855155255
0,1 0.6760842550 0.6401101498 0.6379997588
0 0.7317932469 0.6894770720 0.6869456018
1 1.214197534 0.9357162982 0.9176486326
2 1.988550160 –0.1256257297 –0.1884460868
3 272.5279419 –1.528819223 –1.541258296
Aunque inicialmente los números son similares, los errores acumulados del método de
Euler nos dan para t positivos unos valores de la solución ya totalmente diferentes
a los reales, que serán más parecidos a los hallados por otros métodos más exactos
(convendrá, siempre que se pueda, hacerse una idea de las soluciones que se están
tratando antes de meterse con el cálculo numérico para estar avisados sobre las posibles
anomalías). Repitiendo los cálculos con pasos más pequeños se obtiene si:
t Euler Euler-mod Runge-Kutta
h=0.05: 0 0.7100063518 0.6875612633 0.6869451577
3 –1.361623743 –1.538408604 –1.541275123
h=0.01: 0 0.6916677024 0.6869692560 0.6869451313
3 –1.526589427 –1.541165493 –1.541276176
Observemos para acabar que la demostración del teorema 1* de existencia y unicidad nos
da una forma de hallar funciones próximas a la solución de un problema de valores iniciales:
en las hipótesis del teorema, las aproximaciones de Picard convergen uniformemente (lo
hacen en norma) hacia la solución única.
Ej 2*. Hallemos las dos primeras aproximaciones de Picard para el ejemplo anterior.
(En este caso las integrales son sencillas, pero la mayo- t y1 y2
ría de las veces las cosas no van a ir tan bien, pues nos
1 0 0
pueden salir primitivas no elementales o complicadas de
0,9 0.095 0.09530883333
calcular; además, a diferencia de los métodos anteriores, 0,8 0.18 0.1822826667
éste no es programable). 0,7 0.255 0.2620965
Rt 1 0,6 0.32 0.3354453333
2
yo (t) = 0 ! y1 (t) = 0 + 1 (0 s)ds = 2 [ 1 t ] !
0,5 0.375 0.4026041667
Rt 1 2 19 t t2 t3 t5 0,4 0.42 0.463488
y2 (t) = 1 4 [ 1 s ] 2 s ds = 30 + 4 2 6 + 20 . 0,3 0.455 0.5177118333
0,2 0.48 0.5646506667
Los valores de y1 e y2 para diferentes t están a la de- 0,1 0.495 0.6034995
recha. Comparando con los números de antes se ve que 0 0.5 0.6333333333
las aproximaciones son buenas para t cercano a 1 ,
1 0 0.2666666667
pero no tienen nada que ver con la realidad para valores
2 –1.5 –0.6
grandes de t . Sin embargo, este método nos ha dado
3 –4 4.533333333
expresiones analíticas aproximadas de la solución.
26
2. Sistemas y ecuaciones lineales
Si ya se podían resolver muy pocas ecuaciones de primer orden, menos aún se
pueden resolver sistemas de tales ecuaciones o ecuaciones de orden n > 1 . Salvo
escasas excepciones, sólo en el caso lineal se puede caracterizar la estructura
de las soluciones y casi sólo si los coeficientes son constantes se pueden hallar
explícitamente tales soluciones mediante métodos elementales.
En la sección 2.1 enunciaremos las propiedades básicas (muy similares a las
de ecuaciones de primer orden) de los sistemas de n ecuaciones (lineales o no)
y de las ecuaciones de orden n , que veremos que se pueden considerar como un
caso particular de sistemas. No daremos las demostraciones (bastaría casi sustituir
en las del caso n = 1 los valores absolutos por normas). En la solución general de
un sistema o ecuación de orden n aparecerán n constantes arbitrarias (así lo
sugieren los ejemplos más sencillos de sistema: 0 = 0 , y 0 = 0 , y de ecuación:
00 = 0 ). El problema de valores iniciales consistirá en hallar la solución que cumpla
Tendremos una fórmula de variación de las constantes que nos dará las solu-
ciones de [S] si somos capaces de hallar lo que se llama una matriz fundamental
W(t) (formada por soluciones del sistema homogéneo). Esta matriz sabremos cal-
cularla (utilizando resultados de álgebra) en el caso de que las funciones , b ,
c y d sean constantes (entonces W(t) será la exponencial de una matriz). De lo
anterior deduciremos resultados para las ecuaciones de segundo orden:
Resolver [e] será especialmente sencillo para coeficientes constantes. Si son va-
riables, veremos los pocos casos (ecuaciones de Euler t 2 00 + t 0 + b = h(t) , si
b(t) ⌘ 0 y si conocemos una solución de la homogénea) en que aún se puede hallar
su solución a través de integraciones (en el resto de los casos habrá que utilizar
series, siguiendo el capítulo 3).
En la sección 2.3, y con pocas demostraciones, veremos los resultados para un
n general. Aunque la teoría sea prácticamente la misma, los cálculos prácticos
se complican y muchas veces se vuelven imposibles. Si los coeficientes son cons-
tantes seguirá siendo fácil dar la solución de ecuaciones homogéneas, en el caso
excepcional de que podamos hallar las raíces (autovalores) de un polinomio (ca-
racterístico) de grado n . Para resolver un buen número de ecuaciones no homogé-
neas tendremos el método de coeficientes indeterminados. Para los sistemas,
incluso conociendo los autovalores, aparecen dificultades algebraicas, salvo que
la matriz del sistema sea diagonalizable (daremos varias ideas de cómo proceder
aunque no sea el caso).
27
En 2.4 analizaremos la estabilidad de sistemas y ecuaciones lineales de cual-
quier orden, que se podrá precisar fácilmente en el caso de coeficientes constan-
tes: bastará casi siempre con saber si la parte real de los autovalores es negativa
o no. Y podremos decidir esto, utilizando el llamado ’criterio de Routh-Hurwitz’,
incluso aunque no se pueda resolver el sistema o la ecuación, por aparecernos
polinomios de raíces no calculables.
La sección 2.5 introduce una técnica totalmente diferente para hallar soluciones
particulares de un buen número de sistemas y ecuaciones lineales con coeficientes
constantes: la transformada de Laplace, que convierte ecuaciones diferenciales
en otras sin derivadas. Esta técnica no permite resolver nada que no pudiésemos
resolver con las secciones previas, pero a menudo nos da la solución de una for-
ma más rápida y además nos permite abordar problemas para los que nuestros
conocimientos algebraicos no nos basten. La transformada es especialmente útil
cuando los términos no homogéneos tienen diferentes expresiones en diferentes
intervalos o cuando contienen la ‘función’ (t ).
La última sección (2.6) muestra como obtener información sobre el número de
soluciones periódicas de sistemas y ecuaciones lineales de coeficientes perió-
dicos, sin necesidad de resolverlos. Cuando la única solución periódica del homo-
géneo sea la trivial, el no homogéneo tendrá una sola solución periódica, y más
complicado será decidir (no tendrá ninguna o tendrá infinitas) lo que ocurre si hay
infinitas soluciones periódicas de la ecuación o sistema homogéneos.
28
2.1 Propiedades generales
8 0
< 1 = ƒ1 (t, 1 , . . . , n )
Sea el sistema de n ecuaciones de primer orden: [S] ·····················
: 0
n
= ƒn (t, 1 , . . . , n )
En notación vectorial:
⇢ 0 ! ! ! !
x = f(t, x) 1 ƒ1 1o 1 (t)
, con x = : , f= : , xo = : . Las soluciones x(t) = :
x(to ) = xo ƒn
n no n (t)
ƒ
Si ƒ , continuas en [ to , ) ⇥ Rn o bien existe t1 tal que kx(t)k !
Teor 2. k
cuando t ! t1 o bien la solución x(t) de [P] está definida t to .
(Y si son continuas en un D ⇢ Rn+1 las soluciones llegan hasta la frontera de D ).
(pero para un sistema puede ocurrir que kx(t) x (t)k ! 0 si t ! y sin embargo
que no consigamos hacer que kx(t) x (t)k sea menor que cualquier prefijado)
⇢
0 = 3t 1/ 3 + ln y
Ej 1. Posee solución con (to ) = o, y(to ) = yo si yo > 0. Única si o 6 = 0.
y0 = y t 3
No sabemos, ni sabremos, hallar su solución general, ni ver qué soluciones están defi-
nidas t , ni precisar su estabilidad (aunque se podrían hallar los valores aproximados
para unos datos iniciales concretos por métodos numéricos). Es trivial comprobar que
una solución del sistema es
Å ã
t3
x(t) = 1
(única con (1) = y(1) = 1 , aunque tal vez haya más con (0) = 0 , y(0) = 1 ).
29
Consideremos ahora la ecuación de orden n : [E] (n) = g t, , 0, . . . , (n 1) .
g (n 1) g
, . . . , (n 1) continuas en un entorno de (to , o , 0o , . . . , (n 1) )
Teor 3. g , o
) [PE] tiene solución única definida al menos en un entorno de to .
(Escribir las soluciones del sistema equivalente a partir de las de la ecuación es muy
sencillo: basta formar un vector cuyo primer elemento sea la solución de la ecuación,
y los sucesivos de debajo sus derivadas; y si resolvemos una ecuación a partir del
equivalente (poco útil como se ha dicho) lo que obtendremos es un vector en el que
cada elemento es derivada del de arriba, y el primero es la solución de la ecuación).
30
2.2 Sistemas de 2 ecuaciones lineales y ecuaciones
lineales de orden 2
⇢ 0
= (t) + b(t)y+ ƒ (t)
Sea . O en forma vectorial:
y 0 = c(t) + d(t)y+ g(t)
Å ã Å ã Å ã
b ƒ
[S] x0 = A(t)x+ f(t) , con x = y , A = c d , f = g .
El siguiente teorema asegura que [Sh] está resuelto conocida una W(t) (pero no
nos dice cómo calcularla):
z(t) = (to )e1 (t)+y(to )e2 (t) es solución con z(to ) = x(to ) ) x(t) ⌘ z(t) t 2 .
unicidad
31
Se llama Wc (t) , matriz fundamental canónica en to , a la que satisface
Wc (to ) = I . Dada cualquier W(t) , a partir de ella se puede hallar la canónica,
pues Wc (t) = W(t)W 1 (to ) . La solución x de [Sh] que cumple x(to ) = xo es:
x = Wc (t)xo = W(t)W 1 (t
o )xo .
[Para casi todos los sistemas lineales, incluso para estos 2x2, va a ser imposi-
ble hallar ninguna W(t) (y, por tanto, tampoco las soluciones; cuando A sea
constante, pronto veremos cómo calcular una, que precisamente va a ser la
canónica). Esto es ya mucho más complicado que las lineales de primer orden
que vimos en el capítulo 1. Allí la ‘matriz fundamental’ era simplemente un
escalar,
R expresable siempre en términos de primitivas (era la exponencial de
la ), y si era constante esa ’matriz’ era e t ].
[Como en las de primer orden, a las fórmulas de ii] y iii] se les llama de
variación de las constantes].
32
Sistemas lineales de coeficientes constantes:
Å ã
b
[C] x0 = Ax+ f(t) y [Ch] x0 = Ax , con A = c d
matriz constante.
1 2
La exponencial de una matriz B se define: eB = I+ B+ 2
B +··· ,
serie convergente (sus elementos son series numéricas convergentes)
para toda B . Se tiene que eB es no singular, que su inversa es e B
y que eB+C = eB eC si BC = CB .
Y eJt es fácil de hallar en las dos posibles situaciones que ofrece Jordan para n = 2 :
Å ã ✓ ◆ Å ã Å ã
0 e 1t 0 0 1 0
i] Si J = 01 , es eJt = 2t
. ii] Si J = 1 , es eJt = t 1
e t .
2 0 e
Å ã Å ã ✓ 2 2
◆ ✓ ◆
1 0 1t 0 1 t 0 e 1t 0
i] Utilizando la definición: eJt = 0 1
+ 0
+ 2! 1
2 2 +· · · = 2t
.
2t 0 t 0 e
2
Å ã Å ã ✓ ◆î Å ã Å ãó Å ã
0 0 0 e t 0 1 0 0 0 1 0
ii] Como J = 0
+ 1 0
= D+ N , eJt = eDt eNt = 0 e t 0 1
+ t 0
= t 1
e t.
33
De lo anterior y del teorema 2 deducimos la fórmula de variación de las cons-
tantes para la solución de [C] que satisface el dato inicial x(to ) = xo :
Rt
x = P eJ(t to ) P 1 x
o +P eJ(t s) P 1 f(s) ds
to
donde todas las matrices son calculables (hallada la eJt , basta cambiar t por t to
o por t s para obtener las otras). Insistimos en que los y las matrices P , P 1 y
e pueden ser complejos, pero si A es real han de ser reales eAt y la solución x .
Jt
Para hacer los cálculos de esta fórmula es aconsejable efectuar las operaciones de
derecha a izquierda, de forma que sólo haya que multiplicar matrices por vectores
(y no matrices por matrices lo que es mucho más largo y mayor fuente de errores).
Si lo que se busca es la solución general nos podríamos ahorrar algunos cálculos,
pues no necesitamos la canónica. Por ejemplo, W(t) = P eJt es matriz fundamental
de [Ch] (es producto por la derecha de la matriz canónica por la P no singular) y
de ella deducimos que la solución general del sistema homogéneo [Ch] es simple-
mente x = P eJt c , con c arbitrario. Pero esta expresión puede ser inadecuada si los
son complejos, pues queda x expresada en términos de funciones y constantes
complejas (en ese caso mejor seguimos lo otros caminos que describiremos).
⇢ 0
=2 +y Å ã Å ã Å ã
2 1 0 0
Ej 1. Resolvamos y 0 = 3 + 4y + et , es decir, x0 = 3 x + , x(0) = .
4 et 1
con (0) = 0 , y(0) = 1
[Sabemos que dicha solución es única y que está definida para todo t 2 R ].
ã ✓ ◆ Å
2 5 0 Jt e5t 0
|A |= 6 + 5 = 0 ! 1 = 5 y 2 = 1 . Por tanto, J = 0 1 , e = .
0 et
Å ã Å ã Å ã Å ã
3 1 1 1 1 1
(A 5 )v = 3 1
v = 0 ! v1 = 3 . (A )v = 3 3 v = 0 ! v2 = 1 )
Å ã Å ã Å ã
1 1 1= 1 1 1 1 1 1
P= 3 1
) P 4 3 1
= 4 3 1
.
Si queremos la solución general, los cálculos son algo más cortos. La solución general
de la homogénea xh se escribe rápidamente una vez hallados los autovalores y vectores
propios:
✓ ◆ Å ã Å ã⇥
e5t et ⇤
xh = W(t)c = PeJt c = 5t 1 + c et 1 = c1 e 1 t v1 + c2 e 2 t v2
5t t c = c1 e3e 3 2 1 e
34
ß 0 Å ã Å ã Å ã
= y+2 (0) = 0 1 1 2 0
Ej 2. Resolvemos con ! x0 = 1 x + , x(0) = .
y0 = +y y(0) = 1 1 0 1
|A |=( 1)2 + 1 = 0 ! = 1± !
✓ ◆ ✓ ◆
et+ t 0 et [ cos t + sen t] 0
eJt = = .
0 et t 0 et [ cos t sen t]
î Rt ⇥ ⇤ ó
)(t s) t (1 ) ⇥ ⇤
0
e(1+ )(t s) ds = 1+
e(1+ 0
= 1+1
1 e(1+ )t y análoga la otra
Å ã ✓ ⇥ ⇤◆ Å ã ✓ ◆
sen t 1 [ 1+ ] 1 e(1+ )t sen t 1 2 + [ 1]e(1+ )t + [ 1]e(1 )t
= et cos t
+ 2
P ⇥
(1 )t
⇤ = et
cos t
+ 2
[1 ] 1 e 2 [ 1+ ]e(1+ )t [ 1 ]e(1 )t
✓ ◆ ✓ ◆ ✓ ◆
et sen t 1 + et [ cos t + sen t] et cos t 1
= + =
et cos t 1 + et [ cos t + sen t] et sen t + 1
Está claro que trabajar con autovalores complejos complica mucho los cálculos. Por suer-
te conoceremos otros caminos para resolver estos sistemas: pronto veremos como con-
vertirlos en ecuaciones de segundo orden (mucho más manejables) y en 2.5 dispondre-
mos de la transformada de Laplace.
Para este ejemplo concreto (con f(t) constante) podíamos haber atajado buscando una
solución del sistema no homogéneo que fuese también constante (no siempre existirá,
pues será necesario que el determinante |A| 6= 0 , o lo que es lo mismo, que = 0 no sea
autovalor). Basta resolver el sistema
ß Å ã
y+ 2 = 0 1
para obtenerla: = 1 , y = 1 ! xp = 1 .
+y=0
[Con esta matriz fundamental real podríamos hallar una xp (y no sólo en este caso
de f constante) realizando integraciones de funciones reales. Pero esto tampoco ahorra
tiempo porque, por ejemplo, es más rápido hallar una primitiva de e(1+ )t que de et cos t
(hay que utilizar dos veces partes para volver a encontrar la integral inicial)].
Dejemos ya los sistemas de dos ecuaciones lineales y pasemos a estudiar las ecua-
ciones lineales de orden dos que, como dijimos en la sección 2.1, se pueden con-
siderar como un caso particular de ellos. Será cuestión de ir viendo la forma que
adoptan los resultados anteriores para el ‘sistema equivalente’ a una ecuación,
aunque este no sea el camino más corto para estudiar las ecuaciones (sus teore-
mas se podrían probar sin necesidad de matrices).
35
Ecuaciones lineales de segundo orden:
Sabemos que hay solución única definida en todo el intervalo para cada par de
datos iniciales (to ) = o , 0 (to ) = 0o si to 2 . Haciendo 0 = y se tiene el sistema
ß 0 Å ã Å ã
=y
, cuyas soluciones serán funciones vectoriales y = .
y 0 = b(t) (t)y+ ƒ (t) 0
Este sistema está resuelto conociendo una matriz fundamental W(t) . Para ello
basta hallar dos soluciones 1 y 2 de la ecuación homogénea asociada a
[e] (pues la fila inferior de la matriz estará formada por las derivadas 01 y 02 )
tales que sea no nulo en algún s 2 el llamado
1 2
determinante wronskiano de 1 y 2: |W|(t) = 0 0 .
1 2
unas pocas operaciones nos permiten concluir de los teoremas para sistemas que:
Como los elementos del vector real PeJt P 1 c , solución general del sistema homo-
géneo, están formados por combinaciones lineales arbitrarias de los elementos de
la matriz eJt , la solución general de [ch] es, según sean las raíces de P( ) :
Si 1 6= 2 reales, = c1 e 1 t + c2 e 2 t
Si doble (real), = (c1 + c2 t) e t
Si = p± q , = (c1 cos qt + c2 sen qt) ept
✓ ◆ Å ã ✓ ◆
e 1t 0 1 0 ept [ cos qt + sen qt] 0
pues eJt es: 2t
, t 1
e t ó 0 ept [ cos qt sen qt]
0 e
[Se puede llegar a la solución por un camino directo sin pasar por el sistema equivalente:
probando en [ch] soluciones del tipo = e t se deduce que debe satisfacer la ecuación
característica de arriba; si 1 6= 2 2 R es inmediato que el |W| de e 1 t y e 2 t es no nulo;
si doble, se comprueba que te t también es solución y que es 6= 0 el |W| de ambas; y si
2 C se utiliza que la parte real y la imaginaria de una solución compleja también lo son].
36
Ej 3. Resolvemos 00 2 0 + = 6tet con (1) = 0 (1) = 0 .
2 2 +1=0 ! = 1 doble, luego la solución de la homogénea es = (c1 + c2 t) et .
h
et tet R t t R t t
2t ! t e te dt 6et te te dt = t 3 et ! = (c1 + c2 t)et + t 3 et .
|W|(t) = t
e (t + 1)e t = e p = 6te e2t e2t
™
(1) = [ c1 + c2 + 1]e = 0
De los datos iniciales: 0 (1) = [ c + 2c + 4]e = 0 ! = (2 3t + t 3 ) et , solución buscada.
1 2
37
Consideremos otros tres casos de ecuaciones lineales de segundo orden [e], ahora
con coeficientes variables, que son resolubles por métodos elementales.
Q( ) ⌘ 2+( 1) + b = 0 .
Si 1 6= 2 reales, = c1 t 1 + c2 t 2
38
iii) Si conocemos una solución 1 de la homogénea 00 + (t) 0 +b(t) = 0 , el
R
cambio = 1 dt lleva la ecuación [e] a lineal de primer orden en .
[No son, por tanto, necesarias las dos soluciones que exigía el teorema 4; basta
sólo hallar una; el problema es que en pocas ocasiones podremos encontrar
esa solución: a veces a simple vista, a veces tanteando, a veces nos aparecerá
cuando estemos resolviéndola por series].
R R
En efecto, llevando , 0= 0 dt + , 00 = 00 dt + 2 0 + 0 a [e]:
1 1 1 1 1
R 1 1
0 + (2 0 + 00 + 0 +b dt = ƒ (t) ! 0= 2 0 + ƒ (t)
1 1 1) +( 1 1 1) 1 1
+ 1
Ej 8. Resolvamos t3 00 t 0 + =1 .
Las únicas soluciones de la homogénea que pueden saltar a la vista son las rectas
= t+b (pues entonces el término de la 00 no aparece y basta mirar los otros dos).
En este caso 1 = t es solución de la homogénea.
Para resolver la ecuación dada podemos ahora seguir dos caminos diferentes:
R R
1) Efectuar explícitamente el cambio = t , 0= + t , 00 = 2 + t 0 ,
para convertir la ecuación inicial en la lineal de primer orden no homogénea:
t4 0 + (2t 3 t2 ) = 1 ! 0 = (t 2 2t 1) +t 4 .
R
Resolver esta lineal: = c2 t 2 e 1/ t + t 2 e 1/ t t 2 e1/ t dt = c2 t 2 e 1/ t t 2 .
R R
Y deshacer el cambio: = t c1 + c2 t 2 e 1/ t dt t 2 dt = c1 t + c2 te 1/ t + 1 .
[No olvidemos la constante de integración; la solución general debe conte-
ner 2 constantes arbitrarias].
39
2.3 Ecuaciones y sistemas lineales de orden n
Veamos, casi sin demostraciones, los resultados esenciales, análogos a los del caso
n = 2 . Aquí empezamos tratando, en vez de los más complicados sistemas, las:
Teor 1. |W|(t) = :
(n 1)
: es no nulo en algún s 2 y p es solución
(n 1)
1 ··· n
[Con la teoría de sistemas que veremos luego se podría hallar una p a partir de
las 1 , . . . , n (para n = 2 obtuvimos la fórmula de variación de las constantes), pero
como casi nunca se podrán hallar esas n soluciones, no nos ocuparemos de ello].
P( ) ⌘ n+ n 1 + · · ·+ + =0 (ecuación característica)
1 n 1 n
40
Ej 1. V 4 00 +3 0 =0 tiene por ecuación característica P( ) = 5 4 2+3 =0.
Las raíces son calculables. Es claro que P( ) = ( 4 + 3) . 4
1 0 0 4 3
Probando con los divisores de 3 obtenemos el autovalor = 1 , 1 1 1 1 3
es decir 4 4 +3 = ( 1)( 3 + 2 + 3) . = 1 vuelve a ser raíz 1 1 1 3 |0
1 1 2 3
del polinomio: 3 + 2 + 3=( 1)( 2 + 2 + 3) . Y lapecuación 1 2 3 |0
de segundo grado es fácilmente resoluble: = 1± 2 .
p
En resumen los 5 autovalores son: = 0 , = 1 doble y = 1± 2 , y el teorema 2 nos
da las 5 soluciones reales independientes:
p p
e0t = 1 , et , tet , e t cos 2 t y e t sen 2 t .
La solución general será una combinación lineal arbitraria de estas 5 soluciones:
p p
= c1 + (c2 + c3 t)et + c4 cos 2 t + c5 sen 2 t e t .
[Basta cambiar, por ejemplo, el 4 de la ecuación por un 5 para que no podamos resolver-
la; las fórmulas para las raíces de polinomios de grados 3 y 4 son muy poco prácticas].
! 4A+ c(At + B) = t ! A = 1c , B = 4A
c
= 4
c2
! t
p= c
4
c2
, si c 6= 0 .
No podemos hacer lo mismo c , por no saber resolver 3+2 2+4 +c = 0 . Sólo podemos
para valores elegidos de c ; por ejemplo, si c = 3 es P( ) = ( + 1)( 2 + + 3) !
Ä p p ä
= c1 e t + c2 cos 211 t + c3 sen 211 t e t/ 2 + 3t 4
9
.
41
Ej 3. Resolvamos V + 3 00 4 = et + t sen t , con (0) = 0 (0) = 00 (0) = 000 (0) = 0 .
6At + 2B+ At 3 + Bt 2 + Ct + D = t 3 ! A = 1, B = 0, C = 6A = 6, D = 2B = 0 , p =t
3 6t .
Si ƒ (t) = sen t , como ± es autovalor simple (es decir, como [ch] ya tiene soluciones
t
de esa forma): p = t(A cos t + B sen t) ! 2B cos t 2A sen t = sen t ! p= 2
cos t .
42
Sistemas de n ecuaciones lineales de primer orden.
! ! !
11 ··· 1n 1 ƒ1
[S] x0 = A(t)x+ f(t) , [Sh] x0 = A(t)x , con A = : : , x= : , f= : .
n1 ··· nn n ƒn
Suponemos A y f continuas en con lo que hay entonces solución única definida
en todo cumpliendo x(to ) = xo si to 2 . Una matriz fundamental es
!
11 (t) ··· 1n (t)
W(t) = : : , cuyas columnas son soluciones de [Sh], si |W(to )| 6= 0 .
n1 (t) · · · nn (t)
⇥ ⇤
La Wc (t) fundamental canónica = W(t)W 1 (t será la que cumple Wc (to ) = .
o)
Ahora es complicado dar eAt incluso en el caso excepcional de que podamos hallar
los autovalores de A , raíces de un polinomio de grado n (no es fácil hallar J y P ).
Sólo es sencillo si los autovalores son calculables y la J resulta ser diagonal:
Esto sucede, desde luego, si los son simples, pero también puede pasar aunque
haya múltiples. Si hay menos de n vectores propios independientes la J no será
diagonal (aparecen unos en la diagonal inferior acompañando a algún múltiple,
y, como para n = 2 , hay términos de la forma t n en eJt ). Si A es no diagonalizable,
resolveremos [C] por otros métodos que iremos viendo (convertir el sistema en
ecuación, Laplace,...). Como siempre, eAt será real, aunque haya complejos.
Como en la sección anterior, para resolver el homogéneo podemos evitar el cálculo
de la P 1 , ya que la solución general de [Ch] es simplemente:
x = PeJt c = c1 e 1t v1 + · · · + cn e nt vn .
Lleguemos esta expresión por un camino más directo, que nos dará idea de cómo
utilizar matrices incluso aunque J sea no diagonal. Comprobemos primero que:
43
0 = + 2y !
1 2 0
Ej 5. Hallemos la solución general de y 0 = 2 + 2y + 2z , o sea, de x0 = 2 2 2 x!
z 0 = 2y + 3z 0 2 3
3 6 2+3 + 10 = 0 !
! ! ! !
2 2 1 2 2 1
= 1 ! v= 2 , =2 ! v= 1 , =5 ! v= 2 . Por tanto, P = 2 1 2 .
1 2 2 1 2 2
Para fijar una solución, por ejemplo la que cumple (0) = 6 , y(0) = 0 , z(0) = 3 , podemos
imponer los datos en la solución general y resolver el sistema de 3 ecuaciones resultante,
! ! ! 0 1
2 2 1 6 1 2e t + 4e2t
o calcular P 1= 1 2 1 2 y hacer el producto PeJt P 1 0 = PeJt 2 =@ 2e t + 2e2t A
9
1 2 2 3 0 e t 4e2t
0 = 2y 3z (0) = 3
La z , ‘desacoplada’, se puede hallar primero:
Ej 6. y0 = 2 + 3y 6z con y(0) = 1 z = c1 e t + et ! z = et
z(0)=1
z 0 = 2et z z(0) = 1
Queda sistema 2x2 que convertimos en ecuación:
0
+3et
y= 2
! 00 3 0 4 = 6et ; = 1, 4 ; p = Aet , A = 1 ! = c2 e t+c
3e
4t + et
0 = 2y + 2z (0) = 1 ! ! !
2 2 2 2 0
y0 =
= 1
Ej 7. y con y(0) = 1 = 0: v1 = 2 . doble: 1 0 0 v = 0 ! v2 = 1
z0 = y 2z z(0) = 1 1 0 1 1 1
! y = z 0 + 2z = 2 e t te t ! = y0 + y = 2 e t .
44
2.4 Estabilidad de sistemas y ecuaciones lineales.
R
Para y 0 = (t)y + ƒ (t) la estabilidad la ecuación la daba la e , es decir, la ’matriz
fundamental’. En general sucede lo mismo, pero pocas veces tendremos una W(t) .
Estudiemos primero la estabilidad de las soluciones del sistema lineal general
[S] x0 = A(t)x+ f(t) , con A y f continuas en = [ to , )
con lo que todas las soluciones de [S] están definidas t to .
Definimos en 2.1 la norma de un vector, pero no la de una matriz. En los libros de
análisis matemático se ve que hay varias posibles. Nosotros elegimos, por ejemplo:
kW(t)k , norma de W(t) , será la suma de los valores absolutos de sus elementos.
[Podríamos definir y utilizar otras normas, como el supremo de los valores absolutos (el
determinante |W(t)| no es una norma); y se prueba que todas son ’equivalentes’, es
decir, que si una es grande o muy pequeña, las otras también lo son].
Si W(t) es una matriz fundamental cualquiera y x(t) , x (t) son dos soluciones
de [S] usando la fórmula de variación de las constantes, y el hecho de que en los
libros de análisis se ve que la norma de un producto de matrices es menor que una
constante por el producto de las normas de ambas, deducimos:
kx(t) x (t)k = kW(t)W 1 (t)[ x(t x (to )]k KkW(t)kkx(to ) x (to )k .
o)
Como x(t) es estable (AE), si esta norma es pequeña (tiende a 0 ) para t to
(cuando t ! ), si kx(to ) x (to )k es suficientemente pequeña, concluimos:
Todas las soluciones de [S] serán estables, asintóticamente estables
Teor 1. o inestables dependiendo de que, respectivamente, la kW(t)k esté
acotada, tienda a 0 cuando t ! o no esté acotada.
Esto significa que a partir de to todos los elementos de W(t) están acotados, que
todos tienden a 0 o que al menos uno de sus elementos no está acotado.
Como ocurría para n = 1 se puede hablar de la estabilidad del sistema [S] pues
todas sus soluciones tienen la misma estabilidad [que no depende de la f(t) ].
✓ ◆
t te 1/ t
Ej 1. t3 00 t 0 + = 1 (ej. 8 de 2.2). Una W(t) es ,
1 (1+ t 1 )e 1/ t
Para coeficientes constantes [C] x0 = Ax+ f(t) hay un resultado más directo:
[Los elementos de W(t) = eAt son exponenciales e t tal vez multiplicadas (si J
no diagonal) por polinomios en t ; si Re < 0 cada elemento, y por tanto kW(t)k ,
tiende a 0 si t ! ; si hay con Re = 0 y la parte de la J que los incluye
es diagonal hay términos que son constantes, senos o cosenos y permanecen
acotados sin tender hacia 0 ; si hay algún con Re > 0 o si los términos que
vienen de un con Re = 0 están multiplicados por polinomios, habrá algún
término de la exponencial no acotado y la norma de W(t) tampoco lo estará].
45
Así pues, conocer Re basta casi siempre para precisar la estabilidad de un
sistema de coeficientes constantes (y de una ecuación, que era estable si lo
era su sistema equivalente y ambos tienen el mismo polinomio característico). Sólo
si hay múltiples con Re = 0 habrá que hallar los v asociados para distinguir
entre estabilidad no asintótica e inestabilidad. Y esto ni siquiera será necesario en
las ecuaciones, pues siempre aparecen potencias de t con los múltiples.
Å
0 2
ã Å ã
1 2
p
Ej 3. x0 = 1 2
x+ t
2 2=0 = 1± 3 ) sistema inestable [la f(t) no influye].
1 6 7
! |A | = 0 ! = 4, = 0 doble. Hay que ver si J es o
Ej 6. x0 = 1 6 5 x no diagonal. Como el rango de A 0I es 2, sólo existe un v
1 2 1 independiente asociado a = 0 y el sistema es inestable.
46
Ej 8. La ecuación +5 +6 +7 000 + 00 2 0+3 = 4 es inestable porque un k <0 .
la ecuación es AE. De hecho sus autovalores son sencillos (aunque sea difícil encontrarlos):
2+2 2 t t
P( ) = ( + 2) ! = 1± dobles ! h = (c1 + c2 t)e cos t + (c3 + c4 t)e sen t .
(Y como p = At+B ! p =t 2 , la solución general de la no homogénea es: = h +t 2 ).
47
2.5 Transformada de Laplace
Sea ƒ (t) una función continua a trozos en [ 0, ) . Se llama transformada de
Laplace de ƒ a la función Lƒ = F definida por
R
F(s) = ƒ (t) e st dt para todo s tal que la integral converge.
0
Citamos sin demostraciones (la mayoría son simples ejercicios de integración), al-
gunas de sus propiedades.
El operador L : ƒ ! F es claramente lineal. Dada una F(s) puede que no exista
una ƒ (t) tal que L[ ƒ ] = F , pero si existe se prueba que hay una única ƒ que es
continua. Podemos, pues, definir el operador L 1 : F ! ƒ . A L 1 [ F] = ƒ le llamaremos
transformada inversa de Laplace de F . Está claro que también L 1 es lineal.
1 1 2
[En concreto, L[ 1] = s
, L[ t] = s2
, L[ t 2 ] = s3
, . . . ].
Con sólo estos resultados se pueden resolver muchos sistemas y ecuaciones li-
neales con coeficientes constantes (aquellos en que la ƒ (t) sea producto de
polinomios, exponenciales, senos y cosenos; es decir, los mismos en que se puede
aplicar coeficientes indeterminados). La L es sobre todo útil cuando hay datos
iniciales. Aplicando L convertiremos el problema diferencial en otro algebraico
(con los datos ya incorporados como se ve en el teorema 1). Resuelto éste, basta-
rá calcular alguna transformada inversa. Es muy habitual que para encontrar esta
L 1 haya que descomponer en fracciones simples (la técnica que se usa en
cálculo para hallar primitivas de funciones racionales). Sólo en contadas ocasiones
habrá que utilizar el teorema 4 (el de la convolución).
48
0 = 2y 2e2t (0) = 0
Ej 1. Aplicando L a las 2 ecuaciones:
y 0 = 4y 2 2 y(0) = 1 ® 2
sX 0 = 2L[ y] 2L[ e2t ] = 2Y s 2
2
sY 1 = 4L[ y] 2L[ ] 2L[ 1] = 4Y 2X s
Despejando, por ejemplo, Y de la 1 : Y = 2s X+ s 1 2 , que llevado a la 2 nos da: X = (s 8
2)3 s
.
Para encontrar la L 1 descomponemos en fracciones simples:
8 A B C D [resolviendo 1 1 2 4
(s 2)3 s
= s
+ s 2
+ (s 2)2
+ (s 2)3
= el sistema] = s
+ s 2
+ (s 2)2
+ (s 2)3
.
L 1 es lineal y conocemos la L 1 de cada sumando. Por tanto = 1+e2t 2te2t +2t 2 e2t .
[Podríamos haber hallado mediante una convolución pues X es el producto de
dos transformadas conocidas:
⇥ ⇤ Rt
L 1 [ X] = 4L 1 1s (s 22)3 = 4 [ 1 t 2 e2t ] = 4 0 2 e2 d = · · ·
pero usalmente este segundo camino no es viable y si lo es suele ser mejor pasar
a fracciones simples; sólo nos veremos obligados a usar la convolución cuando
haya polinomios en el denominador del tipo (s2 + s+ b)2 ].
0
Para calcular la y lo más corto es volver al sistema y sustituir: y = e2t + 2
= e2t + 2t 2 e2t .
También podríamos (aquí sale fácil, pero usualmente es más largo) hallar la Y y su L 1:
4 1 1
Y= (s 2)3
+ s 2
cuya L es esa y (normalmente habría que volver a descomponer).
[El único camino que podría competir en rapidez sería convertir el sistema en ecuación:
0 = c1 e2t + c2 te2t + 2t 2 e2t 1
y = e2t + ! 00 4 0 +4 = 4e2t 4 , p = At
2 e2t +B , · · · ].
2 (0) = 0 (0) = 0
⇢
0=y+ 2 (0) = 0 sX = X Y + 2s
Ej 2. (ej. 2 y 5 de 2.2) ! ! X = (s 1)Y 1!
y0 = + y y(0) = 1 sY 1 = X + Y
1 s2
Ej 3. 000 + 0 = 2 sen t , (0) = 0 (0) = 0 , 00 (0) = 1 ! [ s3 + s]X+ 1 = s22+1 , X =
s(s2 +1)2
.
®
1 s2 A Bs+C Ds+E A(s2 +1)2 +(Bs+C)(s2 +1)s+(Ds+E)s A+ B = 0, C = 0,
2
s(s +1) 2 = s
+ 2
s +1
+ 2
(s +1) 2 = 2
s(s +1) 2 ! 2A + B + D = 1 ,
C+ E = 0, A = 1.
⇥ 2s ⇤
! A = 1, B = 1, D = 2, C = E = 0 ! = 1 cos t L 1 (s2 +1)2 .
La última transformada no aparece en los teoremas (con mucha vista: dentro del corche-
te está la derivada cambiada de signo de L[ sen t] ). Es situación típica de convolución:
⇥ ⇤ ⇥ ⇤ ⇥ ⇤ Rt
L 1 (s22s
+1)2
= 2L 1 s21+1 L 1 s2s+1 = 2 sen t cos t = 2 0 sen(t ) cos d
Rt Rt
= sen t 0 2 cos2 d cos t 0 2 sen cos d = t sen t + sen t 12 sen 2t cos t sen2 t = t sen t .
Alternativamente se podría seguir el camino de la sección 2.3:
3+ =0 ! = c1 + c2 cos t + c3 sen t + p , p = t[ Ac+ Bs] !
0 = Ac+ Bs+ t[ As+ Bc] , 00 = 2As+ 2Bc t[ Ac+ Bs] , 000 = 3Ac 3Bs+ t[ As Bc]
p p p
000 + 0 = 2A cos t 2B sen t = 2 sen t ! A = 0 , B = 1 ! t sen t .
p p p=
Imponiendo los datos y resolviendo el sistema 3x3 se vuelve a obtener = 1 cos t t sen t .
Con la L hemos hallado la solución directamente, ahorrándonos el cálculo de la general,
de una p y la determinación de las constantes a partir de los datos; a cambio, hemos
tenido que sufrir la pesada descomposición en fracciones simples y, en este caso, el
cálculo de una integral de convolución. En ambos procesos de cálculo hemos necesitado
hallar las raíces de s3 + s = 0 (del polinomio característico que, como es fácil comprobar,
acompaña siempre a la X al trabajar con Laplace). Por tanto, si no podemos hallar los
autovalores de la ecuación (o sistema), tampoco podremos resolver nada mediante la L.
49
Ej 4. 00 2 0 + = 6tet con (1) = 0 (1) = 0 (ejemplo 3 de 2.2).
1 1
! (s 1)2 X = 6e L[ e ] + L[ e ] = 6e[ (s 1)2
+ s 1
]
1[ 1 1[ 1 1[ 6 ] 1[ 2 ]
! = 6eL (s 1)4
] + 6eL (s 1)3
] = ee L s4
+ 3ee L s3
=e +1 [ 3 + 3 2 ] = et [ t 3 3t + 2] .
Con matrices es mucho más largo. Sólo tenemos la fórmula de variación de constantes
para ecuaciones si n = 2 , así que tendremos que resolver el sistema equivalente a partir
la teoría general de sistemas, utilizando una W(t) :
1 c s
!
• • 1
! Z Ç å
0
W(t) = !W 1 (t) = • 1 (t)
0 s c • c ! p = primer elemento de W(t) W 0 dt
0 c s • • s ƒ (t)
R R R
! p= ƒ (t) dt cos t cos t ƒ (t) dt sen t sen t ƒ (t) dt , que coincide con lo de arriba.
En el ej. 10 de 2.4 dimos su solución general: = (c1 +c2 t)e t cos t+(c t sen t+t
1 +c2 t)e 2.
Imponiendo los datos y resolviendo el sistema 4x4 (largo camino): =e t cos t + t 2.
Usemos ahora la L :
4 s5 4s4 8s3 6s2 +4
s4 X+ s3 2 + 4s3 X+ 4s2 + 8s2 X+ 8s + 8sX+ 8 + 4X = s2
! X= s2 [ s4 +4s3 +8s2 +8s+4]
.
Los siguientes ejemplos son los 6 y 7 de 2.3, así que podemos seguir comparando la rapidez
de los métodos (matrices, convertir en ecuación y el actual Laplace). En el segundo de ellos
(con J no diagonal) la L evita preocupaciones matriciales.
8 1
0 = 2y 3z (0) = 3 < sX 3 = 2Y 3Z ! Y = 2 (sX+ 3Z 3) #
>
2
Ej 7. y 0 = 2 + 3y 6z y(0) = 1 sY 1 = 2X+ 3Y 6Z (s2 3s 4)X = 3s s 13s+4
1
0 t >
:
z = 2e z z(0) = 1 sZ 1 = s 2 1 Z ! Z = s 1 1 " , z = et
(s 4)(3s 1) 0
3s 1 2
X= (s+1)(s 4)(s 1)
= (s+1)(s 1)
= s+1 + s 11 ! = 2e t + et ! y= +3z
2
= 2et e t .
8
= 0 2y + 2z (0) = 1 < sX 1 = X 2Y + 2Z
Ej 8. y0 = y y(0) = 1 sY 1 = X Y X = (s+ 1)(s+ 2)Z s 2
z0 = y 2z z(0) = 1 :
sZ 1 = Y 2Z ! Y = (s+ 2)Z 1 %
s2 +s+1 A B C t
! Z= s(s+1)2
= s
+ s+1
+ (s+1)2
! A = 1 , B = 0 , C = 1 ! z = 1 te
! y = z 0 + 2z = 2 e t te t ! = y0 + y = 2 e t .
50
8
0 =2 + y+ z (0) = 1 < sX 1 = 2X+ Y + Z ! Z = (s 2)X Y 1 #
>
Ej 9. y 0 = + 2y+ z y(0) = 2 sY 2 = X+ 2Y + Z Y = X+ s 1 1 #
>
z 0 = + y+ 2z z(0) = 3 : sZ+ 3 = X+ Y + 2Z [ s2 5s+ 4]X = s 4 !
X = s 1 1 [ = et ] ! Y = s 2 1 [ y = 2et ] ! Z = s 2 2 s+1
s 1
=s 3
1
[ z = 3et ] (ó z = 0 2 y ).
[La sencillez de los cálculos se debe a que los datos iniciales están ajustados para que se
simplifiquen cosas; con otros distintos habría que descomponer en fracciones simples].
Por matrices:
! ! ! ! !
2 1 1 1 1 1 1 1 2 1 1 1
1 2 1 =0! =1 1 1 1 v=0 ! 1 , 0 . =4 : 1 2 1 v=0 ! 1 .
1 1 2 doble: 1 1 1 0 1 1 1 2 1
! ! 0 1 ! ! 0 1
1 1 1 1 2 1 et 0 0 1 2et et
P= 1 0 1 ,P 1= 1 1 1 2 , Jt
e =@ 0 et 0 A! x = PeJt P 1 2 =P 3et =@ 2et A.
3
0 1 1 1 1 1 0 0 e4t 3 0 3et
Quizás es más rápido escribir la solución general, imponer los datos y resolver un sistema:
! ! ! 0 1
1 1 1 ⇢ c1 + c2 + c3 = 1 et
x = c1 et 1 + c2 et 0 + c3 e4t 1 ! c1 + c3 = 2 ! c1 = 2, c2 = 3, c3 = 0 ! x =@ 2e A.
t
0 1 1 c2 + c3 = 3 3et
Para resolver por Laplace ecuaciones en las que aparecen funciones definidas a trozos o la
(como los dos últimos ejemplos que veremos en la sección) sólo es necesario hacer uso
de este nuevo teorema:
1 s s s F(s)
Teor 5. Si > 0 : L[ (t)] = s
e , L[ (t )] = e , L[ (t)ƒ (t )] = e
⇥ ⇤
es decir: L 1[e s F(s)] = (t)ƒ (t ) .
[Como veremos, estos últimos ejemplos se pueden resolver sin la L, pero hay que ser
bastante sutil en los argumentos para ‘empalmar’ soluciones de distintos intervalos].
51
ß
000 00 6t si 0 t < 1 0 (0) = 3 , 00 (0) =
Ej 9. + = ƒ (t) = 0 si 1 t
con (0) = 1 , 6
0= +e 1 (t 1) (0) = 0 sX = X+ e 1 e s 1 s 1 s
Ej 10. ! ! X = e s+1
e 1
, Y = s+1 + e(s+1)
e
y0 = y y(0) = 1 sY 1 = X Y 2
⇥ ⇤ s ⇥ e s ⇤
L 1[ 1 ] = e t, L 1 1
= te t !L 1[ e ] = t+1 , L 1 1)e t+1
s+1 (s+1)2 s+1 1 (t)e (s+1)2
= 1 (t)(t
ß ⇢
t 0 si t < 1 t t e t si t < 1
! = 1 (t)e = , y=e + 1 (t)(t 1)e = ,
e t si t 1 te t si t 1
(la debía ser discontinua en t = 1 para que al derivarla salga la ; en rigor no es
solución en ese punto).
Resolvamos por otros caminos. Como la matriz del sistema ya está en forma de Jordan
es fácil utilizar la fórmula de variación de las constantes (que funciona, aunque nosotros
la vimos para ƒ (t) continuas):
Å ãÅ ã Rt Å ãÅ 1 ã Å
0
ã R tÅ s t ã
x(t) = e t 1t 10 01 + 0 es t t 1 s 01 e (s 0
1)
ds = e t + e 1 0 (t es)es t (s 1) ds .
Å ã Å ã Å ã
e1 t 0 e t
Esta integral es 0 si t < 1 y vale (t 1)e1 t si t 1 ! x= e t
si t < 1 y x = te t si t 1.
52
2.6 Soluciones periódicas de ecuaciones lineales
Sean [S] x0 = A(t)x+ f(t) y [Sh] x0 = A(t)x con A , f continuas y de periodo T
[es decir, A(t+ T) = A(t) ; f(t+ T) = f(t) ] (sus soluciones son únicas y definidas t ).
Sea x(t) = W(t)c + xp (t) la solución general de [S]. x(t) es T-periódica (teorema 1)
si y sólo es [ W(0) W(T)]c = xp (T) xp (0) . Este sistema algebraico tiene solución
única si y sólo si el sistema homogéneo [ W(0) W(T)]c = 0 tiene sólo la solución
c = 0 y esto equivale a que el [Sh] tenga sólo x ⌘ 0 como solución T-periódica.
Sabemos que [c] tiene una única solución T-periódica si [ch] tiene como única
solución T-periódica la trivial, es decir, si 6= 0 o si = 0 , pero T 6= 2n . Además:
Teor 3.
Si =0 y T = 2 n
para algún n 2 N
(si todas las soluciones de [ch] son T-periódicas) entonces:
RT RT
a] Si 0
ƒ (t) cos t dt = 0 ƒ (t) sen t dt = 0 , toda solucion de [c] es T-periódica.
b] Si alguna de las integrales no es 0 , ninguna solución de [c] es T-periódica.
53
Si > 0 , es decir, si hay rozamiento, los dos autovalores tienen Re < 0 , con
lo que la ecuación [c] tiene una única solución T-periódica. Como hay estabilidad
asintótica todas las soluciones se acercarán a ella, con lo que, en la práctica, se
verá al cabo del tiempo oscilar a la masa con el periodo de la fuerza externa (mate-
máticamente, el movimiento no sería periódico, pues, salvo que los datos iniciales
proporcionen la única solución periódica, existen otros términos con exponenciales
decrecientes).
ƒ (t) = esen t . Periodo mínimo 2 . Ahora hay que ver si son 0 las integrales:
R2 R2
0
esen t sen t dt e 0 esen t cos t dt
La segunda se calcula fácilmente: es 0 . La otra no tiene primitiva elemental. Sin embar-
go analizando la gráfica del integrando (o numéricamente) es fácil ver que no se anula.
No hay por tanto soluciones 2 -periódicas (ni de otro periodo porque la segunda integral
es no nula en cualquier intervalo [ 0, 2k ] ). Y en este caso no podríamos hallar explíci-
tamente la solución (si lo intentásemos por variación de constantes nos encontraríamos
la integral de antes).
ƒ (t) = sen2 t . Periodo mínimo . Hay una única solución de [d] de periodo porque la homo-
génea no tiene soluciones no triviales de ese periodo. Como
R2 R2
0
sen3 t dt = 0 , 0 sen2 t cos t dt = 0
todas son 2 -periódicas, aunque para afirmarlo no era preciso evaluar esas integrales:
si p es de periodo todas las c1 cos t + c2 sen t + p son de periodo 2 pues p lo es.
54
3. Soluciones por medio de series
En el capítulo anterior vimos las escasas formas de resolver elementalmente la
ecuación con coeficientes variables
[e] 00 + (t) 0 + b(t) =0
Este capítulo trata una forma general de atacarla: suponer la solución desa-
rrollada en serie de potencias e introducir esta serie en la ecuación para
determinar sus coeficientes.
En la sección 3.1 recordaremos la definición de función analítica (función descri-
ta por una serie de potencias convergente) y algunas manipulaciones matemáticas
que se pueden hacer con ellas.
Cuando y b son analíticas en to (punto regular, sección 3.2) siempre
se podrán encontrar dos soluciones linealmente independientes de [e] en forma
de serie de potencias por el siguiente camino: llevando una serie a la ecuación
conseguiremos expresar sus coeficientes ck en función de los dos primeros c0 y
c1 , que serán las dos constantes arbitrarias que deben aparecer en la solución de
cualquier ecuación de segundo orden (algunas veces podremos dar la expresión
general del ck , pero otras nos deberemos limitar a ir calculando coeficiente a
coeficiente). Un teorema, que aceptaremos sin demostración, nos asegurará que
las series solución son convergentes al menos en el intervalo en que las series de
y b lo eran. Imponer datos iniciales en to será inmediato, pues tendremos que
(to ) = c0 y 0 (to ) = c1 .
Si y b son ’casi’ analíticas en to , es decir, si (t to ) (t) y (t to )2 b(t) lo son ( to
es singular regular), también se pueden utilizar series para resolver [e] de una
forma sólo algo más complicada (es el método de Frobenius de la sección 3.3).
Calcularemos
P primero una solución 1 que (si to = 0 ) será siempre de la forma
tr (siendo r una de las raíces del llamado polinomio indicial) y a continuación
otra 2 , linealmente independiente de la anterior, que unas veces (según sea la
diferencia entre las raíces del polinomio indicial) será del mismo tipo y otras con-
tendrá además un término incluyendo el ln t . De nuevo un teorema no demostrado
garantizará la convergencia de las series que vayan apareciendo.
El cálculo de los coeficientes de las series es sencillo (aunque algo pesado). El
problema básico de utilizar series para resolver ecuaciones es la dificultad de obte-
ner información sobre las soluciones que se encuentran (y más cuando no podamos
hallar su término general). Sin embargo ecuaciones del tipo [e] surgen a menudo
en problemas reales y las series son el único instrumento para resolverlas. Por eso
existen libros enteros (los de funciones especiales de la física) dedicados a estu-
diar las propiedades de las series solución de algunas de estas ecuaciones (las de
Legendre, Hermite, Bessel, Laguerre, Tchebycheff, ...). Una pequeña muestra de ta-
les estudios son las propiedades de las soluciones de las ecuaciones de Legendre,
Hermite y Bessel que se citan en la sección 3.4.
Las soluciones por serie en torno a cualquier punto (salvo que sean identificables
con una función elemental) no dan ninguna información sobre el comportamiento
de las soluciones cuando t ! . En la sección 3.5, para estudiar para grandes
valores de t las soluciones, introduciremos el llamado punto del infinito de una
ecuación, punto s = 0 de la ecuación que se obtiene haciendo t = 1/ s en la inicial.
55
3.1 Funciones analíticas
ƒ (t) es analítica en t = to si viene dada por una serie de potencias cerca de to :
X
ƒ (t) = ck (t to )k = c0 + c1 (t to )+ c2 (t to )2 + · · ·
k=0
X
A partir de ahora, t = 0 (si no, con t to = s estaríamos en ese caso): ƒ (t) = ck t k .
k=0
Propiedad básica de las series de potencias es que, para |t| < R (si R > 0 ), se
pueden derivar e integrar término a término:
X
ƒ 0 (t) = kck t k 1 =c
1 + 2c2 t + · · · ,
X
k=1
( ) ƒ (k) (0) = k!ck )
ƒ 00 (t) = k(k 1)ck t k 2 = 2c
2 + 6c3 t + · · · , . . .
RX
k=2
X ck
ck t k = C + k+1
t k+1 = C + c0 t + c21 t 2 + · · · si |t| < R
k=0 k=0
Aunque ƒ sea C (R) y su serie de Taylor converja t puede que ambas no coinci-
2
dan, como le ocurre a ƒ (t) = e 1/ t , ƒ (0) = 0 que cumple ƒ (k) (0) = 0 k , con lo que
P
su serie de Taylor es 0·t k = 0 y, por tanto, ƒ no es analítica . Para que una ƒ lo
sea, es necesario que tenga infinitas derivadas en el punto, pero no es suficiente.
56
1
Ej 1. Hallemos de varias formas (algunas nada naturales) el desarrollo de ƒ (t) = .
(1+t)2
d 1 1 d X X X
ƒ (t) = dt 1+t
! (1+t)2
= dt
( t)k = ( 1)k k t k 1 = ( 1)k (k + 1) t k si |t| < 1 .
k=0 k=1 k=0
Otra forma:
2 2( 2 1) 2 2( 2 1)( 2 2) 3
(1+ t) = 1 2t + 2!
t + 3!
t + · · · = 1 2t + 3t 2 4t 3 + · · · , |t| < 1 .
57
3.2 Puntos regulares
Si sus coeficientes son analíticos, se puede esperar que cualquier solución de [e] lo
sea también, es decir que también se pueda escribir como una serie de potencias
para |t| < R . Empecemos con un ejemplo:
2t 2
Ej 1. (1+ t 2 ) 00 + 2t 0 2 = 0 , es decir, 00 + 1+t 2
0
1+t 2
=0,
Llevemos una solución en forma de serie arbitraria (junto con sus derivadas) a la ecua-
ción inicial (mejor que a la segunda, pues deberíamos desarrollar y b ) y tratemos de
calcular sus coeficientes:
X X X
= ck t k , 0 = kck t k 1 , 00 = k(k 1)ck t k 2 !
k=0 k=1 k=2
X X X
[ k(k 1)ck t k 2 + k(k 1)ck t k ] + 2kck t k 2ck t k = 0
k=2 k=1 k=0
[No es falso poner k = 0 como índice inferior de sumación en las tres series,
pues se ve que se anularía el primer término en la de k = 1 y los dos primeros
en la de k = 2 , pero así está claro la potencia con la que empieza cada serie].
La solución final de esta lineal de segundo orden deberá contener dos constantes arbi-
trarias así que una buena estrategia puede ser intentar escribir los ck en función de
los dos primeros c0 y c1 . Como para que una serie de potencias se anule han de ser
0 los coeficientes de cada potencia de t , deducimos:
t 0 : 2·1·c2 2·c0 = 0 ! c2 = c0
t1: 3·2·c3 + [ 2 2]c1 = 0 ! c3 = 0
························
tk : (k + 2)(k + 1)ck+2 + [ k(k 1) + 2k 2]ck = 0
[Hemos escrito aparte los primeros términos porque cada serie empieza a
aportar términos para distintos k ; como potencia general hemos escogido t k
porque era la más repetida, pero también podríamos haber tomado t k 2 ].
Si preferimos tener el ck (en vez del ck+2 ) en términos de los anteriores, basta cambiar
k por k 2 en la expresión anterior:
k 3
ck = c
k 1 k 2
, k = 2, 3, . . .
58
A partir de la regla de recurrencia escribimos algunos ck más (siempre en función de
c0 o c1 ) con el objetivo de encontrar la expresión del término general de la serie (en
muchos ejemplos esto no será posible, pero aquí sí):
1 1 3 1 5 1
c4 = c
3 2
= c
3 0
, c6 = c
5 4
= c
5 0
, c8 = c
7 6
= c
7 0
, ...
c5 = 0 por estar en función de c3 que se anulaba. Análogamente c7 = c9 = · · · = 0 .
Por si no está aún clara la expresión de los c2k , usamos la recurrencia ‘desde arriba’:
k 3 k 3k 5 k 5 k 7
ck = c
k 1 k 2
= c
k 1k 3 k 4
= c
k 1 k 4
= c
k 1 k 6
= ···
Esta expresión tiene la estructura clásica de las soluciones de las lineales de segundo
orden. Pero para que lo sea de verdad, las series deben converger en un entorno de
t = 0 , y además 1 y 2 han de ser linealmente independientes. Esto es lo que sucede.
La serie de 1 (como muestra el criterio del cociente) converge para |t| < 1 y la ‘serie’
de 2 (truncada a partir de su segundo término) converge para todo t . Y además el
wronskiano de ambas soluciones en t = 0 resulta ser 1 (pues 1 (0) = 1 , 01 (0) = 0 ,
0
2 (0) = 0 , 2 (0) = 1 ).
Si, en vez de la solución general, la que queremos es la que cumple (0) = o , 0 (0) = 0o
(existe y es única por ser y b analíticas) dada la forma de las series de 1 y 2 es
inmediato que debe tomarse c0 = o , c1 = 0o .
[Esta ecuación se podía haber resuelto sin usar series. Era fácil darse cuenta de que
2 = t era una solución, y podríamos haber calculado la 1 siguiendo la sección 2.2:
R R R R 2t
R
= 2
e dt = t t 2 e 1+t 2 dt = t t 2 (1+ t 2 ) 1 dt = 1 t rct n t ,
1 2 2
Gran parte de lo visto en este ejemplo ocurre en general, como asegura el siguiente
teorema que no demostraremos.
[El desarrollo de y b , desde luego, no será necesario si esas funciones son polinomios].
59
Ej 2. 00 + (t 2) = 0 , (0) = 2 , 0 (0) = 1
(regla de recurrencia de tres términos que suele traer muchos más problemas que las de
dos). Escribimos un par de términos más en función de c0 y c1 :
1 2 1 1 1 2 1 1
c4 = c
12 1
+ c
12 2
= c
6 0
c
12 1
; c5 = c
20 2
+ c
20 3
= c
15 0
+ c
30 1
Y la particular pedida: = 2 + t + 2t 2 + 14 t 4 1 5
15
t +··· , convergente t según el teorema.
Para calcular unos pocos términos (pero no para hallar muchos o para buscar la
expresión del término general) de una serie solución cerca de un punto regular se puede
seguir el siguiente camino:
Haciendo t = 0 en la ecuación: 00 (0)+ (0 2) (0) = 0 ! 00 (0) = 4
s0 : 2c2 = 0 ; s1 : 6c3 + c0 = 0 , c3 = c0 ; . . . ;
1
sk 2: k(k 1)ck + ck 3 =0 ! ck = c
k(k 1) k 3
; k = 3, 4, . . . !
1 1 1 1 1
c5 = c8 = · · · = 0 ; c4 = c
4·3 1
; c6 = c
6·5 3
= c
6·5·3·2 0
; c7 = c
7·6 4
= c
7·6·4·3 1
!
⇥ 1 3 1 ⇤ ⇥ 1 4 1 ⇤ datos
= c0 1 6
s + 120
s6 + · · · + c1 s 12
s + 504
s7 + ··· !
1 6 1
=6 s3 + 20
s + ··· = 6 (t 2)3 + 20
(t 2)6 + · · ·
60
3.3 Puntos singulares regulares
Supondremos en esta sección que para [e] 00 + (t) 0 + b(t) = 0 es t = to un
punto singular, es decir, que o (t) o b(t) o las dos no son analíticas en t = to ,
con lo que no es aplicable el método de la sección anterior. Sin embargo, interesa
precisamente en muchas ocasiones conocer el comportamiento de las soluciones
de [e] en las cercanías de sus puntos singulares. En general se podrá decir poco so-
bre este comportamiento, salvo para un tipo particular de puntos sólo débilmente
singulares: los singulares regulares que vamos a definir.
Suponemos a partir de ahora que el punto singular que tratamos es t = 0 . Sabemos
que esto no supone pérdida de generalidad ya que en el caso de que queramos
estudiar las soluciones cerca de un to 6= 0 el cambio s = t to traslada el problema
al estudio de las soluciones cerca de 0 de la ecuación en s .
Conviene escribir [e] de otra forma. Multiplicándola por t 2 y llamando (t) = t (t)
y b (t) = t 2 b(t) obtenemos:
[En torno a t = 1 no sabremos resolver la ecuación por series (la teoría es complicada)].
(t) y b(t) no son ni continuas en t = 0 (no es punto regular). Tampoco es singular regular:
1 3
sen t t t +··· 1 2
(t) = t
= 6
t
=1 6
t +··· sí es analítica en t = 0 (con radio R = ), pero no lo
es b (t) = t 5/ 3 (es continua y derivable, pero ya no existe la derivada segunda en 0 ).
Los to 6= 0 son puntos regulares de la ecuación, por ser (t) y b(t) analíticas en t = to .
[Escribir sus desarrollos en ese punto se podría hacer con un poco de trabajo; por
⇤
ejemplo, en torno a t = 1 : t = s+1 ! 00 + cos 1 sen(s+1)
s+sen 1 cos s 0
2 + (1+s) 1/ 3 = 0 . . . .
Queremos resolver [e*] cerca de t = 0 suponiendo que (t) y b (t) son analíticas
en ese punto, es decir, que admiten desarrollo en serie válido en |t| < R (mínimo
de los radios de convergencia):
X X
(t) = k
tk = 0
+ 1
t + · · · , b (t) = bk t k = b0 + b1 t + · · · , |t| < R .
k=0 k=0
sen t
[Normalmente será 0
= (0) y b0 = b (0) salvo para funciones como t
].
61
[e*] se resolverá con el método de Frobenius, que detallaremos en el teorema de esta
sección. No lo probaremos, pero intentemos hacer creíbles sus hipótesis y conclusiones. La
ecuación más sencilla del tipo [e*] es la de Euler (en ella (t) y b (t) son ‘series’ que
se reducen a su primer término). Viendo sus soluciones está claro que no hay, en general,
soluciones analíticas de [e*]. Pero ya que hay soluciones de Euler de la forma t r se podría
pensar que [e*] posee soluciones en forma de serie que comiencen por términos t r .
X
Probemos por tanto en [e*] la solución = tr ck t k = c0 t r + c1 t r+1 + c2 t r+2 + · · · .
k=0
Debe ser entonces:
X Ä X äÄ X ä Ä X äÄ X ä
(k + r)(k + r 1)ck t k+r + k tk (k + r)ck t k+r + bk t k ck t k+r = 0
k=0 k=0 k=0 k=0 k=0
Si la serie ha de empezar por términos t r , debe ser c0 6=P0 . Por tanto, los únicos r para los
que pueden existir soluciones no triviales de la forma t r son las raíces del polinomio:
Esto es coherente con las ecuaciones de Euler. Para ellas, si Q(r) tenía dos raíces distintas
r1 y r2 , dos soluciones independientes de la ecuación eran t r1 y t r2 . Pero si la raíz era doble
sólo existía una solución de esa forma, y la segunda era la primera multiplicada por el ln t ;
por tanto, también es de esperar que en la solución general de [e*] aparezcan logaritmos.
Pero al resolver por series [e*] pueden aparecer problemas que no se presentan en el caso
particular de las de Euler. Igualando a 0 el coeficiente que acompaña a t r+k tenemos:
⇥ ⇤ ⇥ ⇤
(r + k)(r + k 1)+ (r + k) 0 + b0 ck + (r + k 1) 1 + b1 ck 1 + · · · = 0
donde los puntos representan los términos con ck 2 , ck 3 , . . . De esta expresión podemos
despejar el ck en función de los anteriores ya calculados siempre que el corchete que le
acompaña, que es Q(r+k) , no se anule. Si r1 es la mayor de las dos raíces Q(r1 + k) 6= 0 k .
Pero si r2 es la menor, y r1 r2 es un entero positivo n , el Q(r2 + k) = 0 si k = n , y, salvo
que los demás sumandos también se anulen (con lo que cn quedaría indeterminado), P no
hay forma de anular el coeficiente de t r2 +n y no pueden existir soluciones t r2 .
62
t2 2
Ej 3. 2t 00 + 0 + t = 0 , o sea, t 2 00 + t 12 0 + 2
=0 ! (t) = 12 , b (t) = t2 .
Llevando 1 a la ecuación inicial (las series se derivan como las de potencias habituales):
X X X
2(k + 12 )(k 1
)c t k 1/ 2 +
2 k
(k + 12 )ck t k 1/ 2 + ck t k+3/ 2 = 0
k=0 k=0 k=0
(ahora las 3 series empiezan por k = 0 pues no se anulan los primeros términos al derivar).
Igualando a 0 los coeficientes de las diferentes potencias de t :
⇥ ⇤
t 1/ 2 : 2( 12 )( 12 ) + 12 c0 = 0 · c0 = 0 y c0 queda indeterminado como debía.
⇥ ⇤
t 1/ 2 : 2( 32 )( 12 ) + 32 c1 = 0 ! c1 = 0 ,
⇥ ⇤
t k 1/ 2 : 2(k + 12 )(k 12 ) + (k + 12 ) ck + ck 2 = 0 ! ck = k(2k+1)
1
ck 2 , k = 2, 3, . . .
1 1 1
Por tanto: c3 = c5 = · · · = 0 , c2 = 2·5 c0 , c4 = 4·9 c2 = 2·4·5·9 c0 , ... y la primera solución es:
î X ó
1/ 2 1+ ( 1)m
1 =t 2·4···2m·5·9···(4m+1)
t 2m (eligiendo, por ejemplo, c0 = 1 ).
m=1
X X X
Para la otra raíz del polinomio indicial: 2k(k 1)bk t k 1+ kbk t k 1+ bk t k+1 = 0 !
k=0 k=0 k=0
1
t 0 : b1 = 0 , t 1 : [ 4+ 2]b2 + b0 = 0 ! b2 = b .
6 0
1
tk 1: [ 2k(k 1) + k]bk + bk 2 = 0 ! bk = b
k(2k 1) k 2
, k = 2, 3, . . . !
1 1 X ( 1)m
b3 = b5 = · · · = 0 , b4 = b
4·7 2
= b
2·4·3·7 0
, ...! 2 = 1+ 2·4···2m·3·7···(4m 1)
t 2m
m=1
El criterio del cociente prueba que, como debían, las series convergen t . La 2 valeP t ,
pero 1 sólo si t > 0 (en t = 0 no derivable). Una 1 válida t 6= 0 es 1 = |t|1/ 2 [ 1 + ] .
El último corchete es 0 por ser 1 solución (lo que acompaña a ln t siempre se anula).
! b0 = b1 = b2 = · · · = 0 ! 2 = t 1/ 2 e t ln t
63
Como se ha visto en el ejemplo anterior, son más largas las cuentas para el cálculo de la 2
en el caso b] del teorema que en el a]. Y también son más complicadas las del c], caso al
que pertenecen los tres siguientes ejemplos.
2(k+1)
! c0 indeterminado, ck = c
k(k+3) k 1
, k = 1, 2, . . .
! c1 = c0 , c2 = 35 c0 , c3 = 4
c
15 0
, ...,
2(k+1) 2k 2(k 1) ( 2)k (k+1)
ck = ( 1)k k(k+3) (k 1)(k+2) (k 2)(k+1)
· · · c0 = (k+3)!
6c0
Como siempre, el tercer corchete se anula, por ser 1 solución. Sustituyendo las series
de 1 y 01 escritas arriba en el segundo corchete y agrupando potencias de t :
⇥ ⇤
2b0 2b1 2b2 t + 2b3 + 2b2 2b3 d6 + 2d 3
t2 + · · · = 0 !
b1 = b0 , b2 = 0 , d = 0 ; b0 , b3 indeterminados.
1 1
Concluimos que: 2 = t
(1 t) = t
1 [es fácil comprobar que satisface la ecuación].
⇥ 1 t R t 2 e 2t
De esta solución 2 sacaríamos otra con: 1
= t (1 t)2
dt . La primitiva no parece
calculable, pero esto no impide desarrollar e integrar para obtener una serie solución:
Lo más corto para desarrollar el integrando (se podría hacer un cociente) es:
1 d 1
(1 t)2
= dt 1 t
! t 2 [ 1 2t + 2t 2 + 43 t 3 + · · · ][ 1+ 2t + 3t 2 4t 3 + · · · ] = t 2 + t 4 + 2 5
3
t + ···
⇥ ⇤⇥ ⇤
! 1
= 1t 1 13 t 3 + 15 t 5 + 19 t 6 + · · · = 13 t 2 13 t 3 + 15 t 4 45
4 5
t + ··· .
[En este ejemplo, si, en vez de partir de la raíz mayor de la ecuación indicial, hubiése-
mos sustituido la 2 , habríamos obtenido las dos series de un tirón; pero esto ocurriría
por que casualmente resulta ser d = 0 ; si fuera d 6= 0 sólo obtendríamos
⇤ la solución
trivial = 0 y deberíamos empezar de nuevo desde el principio .
Para distinguir en el caso c] del teorema de Frobenius si aparecen logaritmos o no (es decir,
si es o no d 6= 0 ) no es necesario hallar la expresión del término general, bastan con los
primeros términos de la 1 . Esto es lo que haremos en los dos últimos ejemplos.
64
Ej 6. Estudiemos cuántas soluciones analíticas linealmente independientes tiene:
2t 00 + (t 2) 0 + 3 = 0 , es decir, t 2 00 + t( 2t 1) 0 + 3t
2
=0.
X
t = 0 singular regular. r(r 1) r = 0 ! r1 = 2 , r2 = 0 . Es seguro analítica 1= ck t k+2
k=0
X ⇥ ⇤
! 2(k + 2)(k + 1)ck t k+1 2(k + 2)ck t k+1 + (k + 2)ck t k+2 + 3ck t k+2
k=0
X
= 2(k + 2)kck t k+1 + (k + 5)ck t k+2 ] = 0 .
k=0
Calculemos, por ejemplo, los tres primeros términos de esta primera serie:
5
t 1 : 0 c0 = 0 , c0 indeterminado ; t 2 : 6c1 + 5c0 = 0 , c1 = c
6 0
;
3 5
t3: 16c2 + 6c1 = 0 , c2 = c = 16
8 1
c0; ... !
5 3 5 4 ⇥ 5 2 5 3 ⇤
1 = t2 6
t + 16 t + ··· ! 0
1
= 2t 2
t + 4
t + ···
X
La 2 = bk t k + d 1 ln t será analítica si d = 0 y no lo será si d 6= 0 . Hay que trabajar:
k=0
X d X 2d d
0
2
= kbk t k 1 +d 0 ln t
1
+ t 1 ; 00
2
= k(k 1)bk t k 2 +d 00 ln t
1
+ t
0
1 t2 1 !
k=1 k=2
X X X 4d
k(k 1)bk t k 1+ [ kbk t k 2kbk t k 1] + 3bk t k + 4d 0
1 t 1 +d 1 =0 !
k=2 k=1 k=0
0= 0 2et
Resolvamos la ecuación ahora sin series: ! = t
!
R R
1 t 2 2 3
2t e dt ( 2/ t 2 t t / 3+··· )dt 2 e 2t t / 2 t / 9+···
= Ce = Ce = Ct =
⇥ 1 2 1 3 1 1 2 2 1 ⇤
= Ct 2 1 + ( 2t 2
t 9
t ···)+ 2
( 2t 2
t ···) + 6
( 2t · · · )3 + · · · !
R⇥ 3 4 ⇤ ⇥ 1 3 2 2 ⇤
=K+C t 2 2t 1 + t + · · · dt = K C 2 ln t + t + t + ··· .
2 9 t 2 9
65
3.4 Ecuaciones de Legendre, Hermite y Bessel
La ecuación de Legendre es [L] (1 t 2 ) 00 2t 0 + p(p+ 1) = 0 , p 0.
(p k+2)(p+k 1) p(p+1)
ck = k(k 1)
ck 2 , k = 2, 3, . . . ! c2 = 2·1
c0 ,
(p 1)(p+2) p(p 2)(p+1)(p+3) (p 1)(p 3)(p+2)(p+4)
c3 = 3·2
c1 , c4 = 4!
c0 , c5 = 5!
c1 , ...!
X p(p 2)···(p 2n+2)(p+1)(p+3)···(p+2n 1) 2n
1 = 1+ ( 1)n (2n)!
t
k=1
–1 1
Como Pn ( t) = ( 1)n Pn (t) , los P2m tienen simetría par y
los P2m+1 impar. Observemos que los P2m+1 y las deriva-
das P02m se anulan en 0 . Se pueden probar además las
siguientes propiedades de los Pn :
1 dn n
Pn (t) = 2n n! dt n (t 2 1) , fórmula de Rodrigues.
Pn tiene n ceros reales, todos en ( 1, 1) . Los Pn son ortogonales:
R1 R1 2
P P dt = 0 , si m 6= n ;
1 n m
P2 dt = 2n+1
1 n
Para las aplicaciones de la ecuación [L] a las EDPs se necesitará saber cuáles de
sus soluciones están acotadas en [ 1, 1] . Se demuestra que, salvo constantes,
las únicas soluciones de [L] acotadas a la vez en t = 1 y t = 1 son los
polinomios de Legendre.
Para intentar comprobar esto resolvemos la ecuación en torno a t = 1 , haciendo s = t 1 :
[L1 ] s(s+ 2) 00 + 2(s+ 1) 0 p(p+ 1) = 0
2(s+1) p(p+1)s
Para [L1 ] es s = 0 singular regular, y (s) = s+2
, b (s) = s+2
analíticas para |s| < 2 .
Es r = 0 doble p . Por tanto sus soluciones linealmente independientes son:
X X
1 = ck sk y 2 = |s| bk sk + 1 ln |s| , c0 = 1
k=0 k=0
y las series convergen al menos si |s| < 2 . Sin hallar ningún coeficiente podemos ya afirmar
que 1 siempre está acotada en s = 0 ( t = 1 ), mientras que 2 no lo está ( ! si s ! 0 ).
66
Calculemos 1 y comprobemos que si p = n obtenemos los Pn [pues 1 (1) = 1 ]. Debe ser:
X⇥ ⇤ X⇥ ⇤ X
k(k 1)ck sk + 2k(k 1)ck sk 1 + 2kck sk + 2kck sk 1 p(p+ 1)ck sk = 0
k=2 k=1 k=0
(p+1)p k(k 1)
! ck = 2k 2
ck 1 , k = 1, 2, . . . !
(p+1)p (p+1)p[ (p+1)p 2·1] 2 (p+1)p[ (p+1)p 2·1]···[ (p+1)p n(n 1)] n
1 (s) = 1+ 2
s+ 16
s + · · ·+ 2n (n!)2
s +···
Los polinomios de Hermite Hn (t) son las soluciones polinómicas de [H] tales que
los términos que contienen la potencia más alta de t son de la forma 2n t n , es decir:
H0 = 1 ; H1 = 2t ; H2 = 4t 2 2 ; H3 = 8t 3 12t ; . . .
Citemos, también sin prueba, algunas propiedades de los Hn que serán útiles, por
ejemplo, cuando aparezcan en física cuántica. Una forma de generarlos todos es:
X 1
e2ts s2 = Hn (t) sn (a esa exponencial se le llama función generatriz de los Hn ).
n!
k=0
⇥
Nos limitamos a comprobarlo para los 4 que ya hemos calculado:
3 3 ⇤
1+ 2ts+ 2t 2 s2 + 4t3 s3 + · · · 1 s2 + 12 s4 · · · = 1+ 2ts+ (2t 2 1)s2 + ( 4t3 2t s3 + · · · .
2 dn 2
De la función generatriz sale otra fórmula de Rodrigues: Hn (t) = ( 1)n et dt n
e t .
⇥ e2ts s
2
2 e (t s)
2
2 dn 2 ⇤
Pues Hn (t) = sn s=0 = et sn s=0 = ( t s = z, s
= s
) = ( 1)n et d n e z=t .
2
En cuántica no aparece [H], sino 00 +(2p+1 t 2 ) = 0 . Haciendo = e t / 2 en ella
se llega a [H]. Se prueba (no es fácil hacerlo), que las únicas soluciones de la
2
inicial que ! 0 si |t| ! son las de la forma n (t) = e t / 2 Hn (t) , llamadas
funciones de Hermite de orden n . Sólo estas n interesan físicamente.
Como los Pn , se puede ver que también las n son ortogonales, ahora en ( , ):
R R 2 R R 2 p
n m dt = Hn Hm e t dt = 0 , si m 6= n ; 2 dt =
n
H2n e t dt = 2n n! .
67
Para expresar en forma compacta las soluciones de la última 6
ecuación de interés físico que vamos a tratar (la de Bessel) !
utilizaremos las propiedades de la función gamma (función
que generaliza el factorial para números no enteros) definida
por la siguiente integral impropia convergente: 2
R 1
(s) = 0 e s 1d si s > 0 ,
–2 –1 1 2 3 4
y extendida a s < 0 mediante:
(s+n)
(s) = (s+n 1)···(s+1)s
si n < s < n+ 1 , n 2 N .
es una solución definida por una serie que converge en todo R. Llevándola a [B]:
X⇥ ⇤ ck 2
k(2p+ k)ck t p+k + ck t p+k+2 = 0 ; ck = k(2p+k) , k = 2, 3, . . . ; c1 = 0 ! c3 = · · · = 0
k=0
î X ó
c0 c0 p ( 1)m t 2m
c2 = 22 (p+1)
; c4 = 24 2(p+1)(p+2) ; ...! 1 = c0 t 1+ 22m m!(p+1)···(p+m)
m=1
J0
cuyas gráficas son las de la izquierda. Se prue-
0.8
ba que, al igual que J0 y J1 , todas las Jp son
0.6
oscilatorias y que para t grande se parecen a:
J1 ⇥ ⇤
0.4
Jp ⇠ cos t (2p+ 1) 4
0.2
Cada Jp tiene un infinitos ceros en (0, ) [que
0
5 10 15 20 deben conocerse para resolver algunas EDPs]:
–0.2
los de J0 son: 2.4048, 5.5201, 8.6532, . . . ;
–0.4 los de J1 : 3.8317, 7.0156, 10.1735, . . . .
/ N, pero 2p 2 N ( p = 12 ,
Si p 2 3 5
, , . . . ),
2 2
podría 2 contener un ln t pero no es así
(caso c] de Frobenius con d = 0 ). De hecho, haciendo p = 12 en J±p se tiene:
« « «
2 X ( 1)m t 2m+1 2 2
J 1 (t) = = sen t , J 1 (t) = · · · = cos t ,
2 t
m=0 2
2m+1 m!(m+ 1 1 1
2 )··· 2 ( 2 )
t 2 t
68
Para p = n 2 N el atajo anterior no sirve, pues es fácil ver que cambiando n por
n la J n que aparece no es independiente de Jn [es J n = ( 1)n Jn ]. Tendríamos
que hallar las 2 de Frobenius (y obtendríamos un ln t en su larga expresión). Por
ejemplo, para p = 0 (que seguro contiene logaritmos) se acaba obteniendo:
X ( 1)m+1 ⇥ 1 ⇤⇥ t ⇤2m
2 (t) = (m!)2
1+ 12 + · · ·+ m 2
+ J0 (t) ln t ⌘ K0 (t) , t > 0
m=0
Pero en muchos problemas físicos en los que surge la ecuación [B] es necesario
que las soluciones estén acotadas, y para ellos no servirá de nada el conocimiento
de estas complicadas segundas soluciones.
Lo que sí puede ser útil en el futuro será conocer las siguientes propiedades de las
derivadas de las Jp :
d⇥ p ⇤ d⇥ p ⇤ [ tJ1 ] 0 = J0
t Jp (t) = t p Jp 1 (t) , dt t Jp (t) = t pJ
p+1 (t) En particular, .
dt [ J0 ] 0 = J1
d X ( 1)m t 2m+2p X ( 1)m t 2m+2p 1
(Son inmediatas: dt 22m+p m! (p+m+1)
= tp 22m+p 1 m! (p+m+1)
y similar la otra).
m=0 m=0
relación de recurrencia citada, que expresa cada Jp+1 en función de las anteriores.
69
3.5 El punto del infinito
Nos preocupamos por el comportamiento de las soluciones de una lineal de se-
gundo orden para grandes valores de t . Pocas ecuaciones son resolubles elemen-
talmente. Por otra parte, las soluciones en forma de serie (salvo que se puedan
identificar con funciones elementales) no dan ninguna información para grandes
t , incluso aunque converjan t . Si queremos ver qué sucede cuando t ! , la
idea natural es efectuar el cambio de variable t = 1/ s y estudiar el compor-
tamiento de las soluciones de la nueva ecuación cuando s ! 0+ , que será fácil
de precisar si s = 0 , llamado punto del infinito de la ecuación inicial, es punto
regular o singular regular de esta ecuación.
A diferencia del cambio s = t to que no modifica las derivadas, hacer t = 1/ s exige
usar la regla de la cadena. Denotando las derivadas respecto a s con puntos:
t = 1s ! 0 = ˙ ds
dt
= 1
t2
˙; 00 = 1
t4
¨+ 2
t3
˙! 0 = s2 ˙ , 00 = s4 ¨ + 2s3 ˙
Para esta ecuación s = 0 es singular regular, con r = ±1 . Sus soluciones para s > 0 son:
X X
1 = ck sk+1 = c0 s+ c1 s2 + · · · , c0 6= 0 ; 2 = bk sk 1+d
1 ln s , b0 6= 0 .
k=0 k=0
Para Hermite y Bessel este camino parece adecuado para estudiar sus soluciones para t
gordo, pero por desgracia, se comprueba que s = 0 en ambos casos es singular no regular.
Aunque para Legendre lo interesante físicamente es lo que sucede en [ 1, 1] , vamos a
analizar su punto del infinito. En 3.4 obtuvimos sus series solución en torno a t = 0 [que
hablan sólo de lo que ocurre en |t| < 1 ] y en torno a t = 1 [hablan de t 2 ( 1, 3) ].
t=1/ s
[L] (1 t 2 ) 00 2t 0 + p(p+ 1) = 0 ! [L ] s2 (s2 1) + 2s3 + p(p+ 1) = 0 .
Para [L ] es s = 0 singular regular, con (s) = 2s2 / (s2 1) , b (s) = p(p+1)/ (s2 1) analíticas
en |s| < 1 . Las series solución de [L ] convergerán al menos en ese intervalo y de ellas
podremos extraer información, por tanto, sobre las soluciones de [L] para |t| > 1 . Como el
polinomio indicial de [L ] tiene por raíces 1+p y p y como para todo p 0 es r1 = 1+p > 0
deducimos, por ejemplo, que siempre hay soluciones de [L] que tienden a 0 si t ! .
î X X ó
Pues 1 (s) = s1+p ck sk ! 0 si s ! 0+ ; o sea, 1 (t) = t (1+p) ck t k ! 0 .
k=0 k=0 t!
X
Resolvamos por series [L ] si p = 0 (único p para el que s = 0 es regular): = ck sk !
k=0
k 2
ck = k
ck 2 , k = 2, 3, . . . ! = c0 + c1 [ s+ 13 s3 + 15 s5 + · · · ] = c0 + c1 [ t 1+ 1t 3+ 1t 5+· · · ]
3 5
,
serie (no de potencias) que describe las soluciones para |t| > 1 , que es donde converge.
c1
De otra forma: (1 t 2 ) 00 +2t 0 = 0 ! 0=
1 t2
! = c0 +c1 ln | 1+t
1 t
| = c0 +c1 ln | 1+s
1 s
| , t, s 6= ±1 .
70
4. Mapas de fases
Los sistemas de ecuaciones no lineales casi nunca se pueden resolver. Pero para
los sistemas autónomos en el plano, es decir, para los sistemas de la forma
ß 0
= ƒ ( , y)
[S]
y 0 = g( , y)
71
4.1 Sistemas de dos ecuaciones autónomas
ß 0 Å ã Å ã
= ƒ ( , y) ƒ
Sea el sistema [S] , es decir, x0 = f(x) , con x0 = yf= .
y 0 = g( , y) y g
Cada solución x(t) de [S] es una curva en el espacio t y, pero también podemos
mirarla como una curva en el plano y (que llamaremos plano de fases) descrita
paramétricamente en función de t . Esta segunda curva, a la que llamaremos órbi-
ta de la solución, es la proyección de la primera sobre el plano de fases. El objetivo
de este capítulo es representar lo más aproximadamente posible el conjunto de
órbitas de [S], es decir, el mapa de fases de [S]. Comencemos con un ejemplo:
ß 0
=y 00 + y
Ej 1. Sea (es decir = 0 ).
y0 =
Å ã Å ã
0 0
La solución que cumple x(0) = 0 es x(t) ⌘ 0
Å ã Å ã x
0 sen t
y la que satisface x(0) = 1 es x(t) = cos t .
72
Normalmente no conoceremos las soluciones del sistema [S]. Para dibujar su mapa
de fases trataremos de buscar información a partir de las propias funciones ƒ y
g. Intentemos primero hallar explícitamente las órbitas de [S]. Eliminando la t del
sistema obtenemos la ecuación diferencial de las órbitas:
dy g( ,y)
[o] d = ƒ( ,y)
dy dy dt
(pues d
= dt d
, si lo permite el teorema de la función inversa).
Las curvas integrales de [o], quizás resoluble por los métodos de la sección 1.1 y
dibujables por los de la 1.2, serán las órbitas de [S] (y al revés: una ecuación como
[o] se puede mirar como un sistema y usar las ideas de esta sección para trazar
sus curvas integrales). Como se ha eliminado la t , si dibujamos las órbitas sólo a
partir de [o] éstas carecerán en principio de sentido de recorrido, pero será fácil
orientarlas utilizando el campo v que pronto introduciremos.
Resolviendo la ecuación [o] para el ejemplo 1 (lo que en este caso es posible)
obtenemos de forma mucho más rápida sus órbitas:
dy 2 + y2
d
= y
! =C
Por tanto, las órbitas de [S] serán curvas tangentes a (y recorridas en el sentido
que indican) los vectores del campo v (como se ve, este campo sólo se anula
en los puntos críticos). Generalmente usaremos el campo v para completar otras
informaciones, pero aunque fallen todas las demás técnicas del capítulo siempre
podremos dibujar algunos vectores de v y hacernos una idea del mapa de fases.
Ej 2. Repasemos lo visto con un ejemplo poco práctico por ser el sistema resoluble:
⇢ 0 ✓ ◆
= dy y2 y y
, = , v( , y) =
y0 = y2 d y2
73
Demostremos otras propiedades generales de las órbitas:
Por cada punto del plano de fases pasa una única órbita de [S]. Si
Teor 2. una órbita se corta a sí misma corresponde a una solución periódica
y dicha órbita es una curva cerrada simple.
74
4.2 Clasificación de puntos críticos
La mejor información sobre un mapa de fases nos la dará el conocimiento de la
forma de sus órbitas cerca de un punto crítico. Tratamos primero los sistemas
lineales (siempre resolubles y con mapas de fases fácilmente dibujables) y des-
pués, basándonos en ellos, los no lineales.
ß 0 Å ã Å ã
= + by b
Sea: [L] 0 , o sea, x0 = Ax , con x = y , A = c d .
y = c + dy
75
Si es doble y A no es diago- nodos de una tangente
nal la solución general es ! doble
A no diagonal
x(t) = [ c1 w+ (c1 t + c2 )v] e t , L
con v único vector propio aso- estable
!<0
ciado a .
inestable
Si c1 = 0 estamos sobre la recta ! >0
L generada por v . Se ve, calcu- L
lando el t , que todas las demás
órbitas entran en el origen sien-
do tangentes a una u otra de las
semirrectas que forman L.
Si < 0 ( > 0 ) sobre cada órbita nos acercamos (alejamos) al punto crítico, que se
llama nodo de una tangente estable (inestable). En los dos casos las órbitas
pueden ser como en el dibujo pequeño (se distingue entre las dos posibilidades
fácilmente mirando el campo v ).
Dibujar las órbitas de sistemas lineales es muy sencillo con la clasificación anterior.
Bastará (para nodos y sillas) con trazar las semirrectas órbitas orientadas y precisar
el campo v sobre algunas rectas que pasen por el origen, que son isoclinas de
dy c +dy
[o] d
= +by
, ecuación homogénea.
Por ejemplo, sobre los ejes, o sobre las rectas que nos proporcionen pendiente
horizontal o vertical. Con esto (también en caso de centro o foco) basta para pintar
el mapa de fases en todo el plano. Aunque, por ser [o] homogénea, sabemos que
las órbitas son siempre calculables, normalmente no merecerá la pena cálcularlas
(pueden además salirnos expresiones no sencillas de dibujar).
Los sistemas que se han visto son homogéneos. Si hay términos no homogéneos
(constantes para ser autónoma) y |A| 6= 0 seguirá habiendo un punto crítico xo ,
que haciendo el cambio = x xo se trasladaría al origen manteniendo la matriz
A , con lo que, para analizarlo, basta hallar sus autovalores. Las isoclinas serán las
rectas que pasen por xo .
76
ß 0 Å ã Å ã
=3 2y 1 2
Ej 1. = 1! 2 , = 2 ! 1 : punto silla.
y0 = 2 2y
v es vertical ( 0 =0 ) si y = 32 y horizontal ( y 0 = 0 ) si y = .
Å ã Å ã
3 1
Sobre los ejes: v( , 0) = 2
, v(0, y) = 2y 1
.
Como Rƒ y Rg son pequeños esperamos que (cerca del origen que es ahora punto
crítico) sean similares las órbitas de este sistema y las de la aproximación lineal
obtenida ignorando los términos no lineales. El siguiente teorema precisará que
esto es cierto si el lineal es de cualquiera de los tipos clasificados anteriormente,
salvo en el caso de los centros.
Å ã Å ã
0 =M ƒ ( o , yo ) ƒy ( o , yo )
Llamemos [L] al sistema , con = y M= .
g ( o , yo ) gy ( o , yo )
77
La demostración del teorema es complicada y no la damos. No es extraño que sean los cen-
tros los únicos puntos críticos elementales que no se conservan pues los pequeños términos
no lineales pueden hacer que las órbitas dejen de cerrarse sobre sí mismas. De otra forma:
una pequeña perturbación puede apartar los = ±q del eje imaginario. Por la misma razón
podría pensarse que también puede separar dos iguales, pero si ƒ y g son regulares esto
no sucede (si no lo son puede cambiar el nodo en uno de otro tipo o en un foco).
78
⇢
0 =8 y2 (8 3) = 0 Å ã Å ã
0
Å ã Å ã
Ej 3. 2 ! , 24 . M= ƒ ƒy
= 8 2y
en cada punto es:
y0 = 6y+ 6 y= 2 " 0 g gy 12 6
Å ã Å ã Å ã Å ã
0 8 0 1
0
! 0 6
es silla con = 8 ! 0
, = 6 ! 01 .
Å ã
2
Å
8 8
ã p
4
! 24 6
es foco inestable ( = 1± 143 ).
Los vectores dibujados precisan también el sentido en el que se abre el foco y con todo
ello tenemos un mapa de fases más o menos como el de arriba. No sabemos resolver el
sistema, pero están a la vista propiedades básicas de las soluciones (por ejemplo, que
las soluciones constantes son inestables, lo que estaba claro desde que hallamos los ).
ß 0 Å ã Å ã Å ã
= y( 2) 0
Ej 4. ! , 22 críticos. Aproximación lineal M = y 2
en cada uno:
y 0 = (y 2) 0 y 2
Å ã Å ã Å ã Å ã
0
0
! 02 02 ! = 2 ! 11 , = 2! 1
1
: silla.
Å ã Å ã
2
2
! 20 02 ! = 2 doble y nodo estelar inestable.
79
ß 0 Puede describir la evolución de la población de dos especies en
= (2 y)
Ej 5. competición. En ausencia de la otra especie cada una de ellas sigue
y 0 = y(3 y 2 )
una ecuación logística, y además la presencia de cada una influye
negativamente en el crecimiento de la otra (términos en y de cada ecuación); dibujamos
sólo en el primer cuadrante, que es donde las órbitas tienen sentido.
ß Å ã Å ã Å ã Å ã
= 0 ! y = 0, 3 0 0 2 1
(2 y) = 0 ! y = 2 ! = 2, 1 ! y = 0, 1
! 0 , 3 , 0 , 1 puntos críticos.
Å ã
2 2
2y
La aproximación lineal 2y 3 2y 2
en cada punto:
Å ã Å ã Å ã Å ã
0 2 0 1 (captura la 1
0
! 0 3
! nodoI: = 2 ! 0 tangencia) , = 3 ! 3 .
Å ã Å ã Å ã Å ã
0 1 0 1 0
3
! 6 3
! nodoE: = 1 ! 3 (tangencia), = 3 ! 1 .
Å ã Å ã Å ã Å ã
2 2 2 2 1
0
! 0 1
! nodoE: = 1 ! 1 (tangencia), = 2 ! 0 .
Å ã Å ã ✓ ◆
1 1 1 p 1
1
! 2 1
! = 1± 2 ! p ! punto silla.
⌥ 2
v es vertical si = 0 o si y = 2 () = 0 órbita).
v es horizontal si y = 0 , y = 3 2 () y = 0 órbita).
Valores de v sobre rectas que contienen puntos críticos:
Å ã Å ã Å ã Å ã
+1 2 1
v( , 3) = 6
, v(2, y) = y y+ 1 , v( , 1) = (1 ) 2 , v(1, y) = (1 y) 3y .
Si los datos iniciales están por encima de la separatriz estable de la silla, la especie y
tiende hacia su tope logístico y la se extingue; lo contrario sucede si están por debajo.
Si los términos de competición (los y ) fuesen más pequeños las dos especies podrían
coexistir (los nodos estables se vuelven sillas y pasa a existir un nodo estable en , y > 0
hacia el que tienden todas las soluciones del primer cuadrante; esto sucede, por ejemplo,
en el sistema 0 = (2 y/ 2) , y 0 = y(3 y ) , para el que = 1 , y = 2 es nodo estable).
Las únicas soluciones calculables serían las asociadas a = 0 o a y = 0 , es decir, a
la ausencia de una de las dos especies. Aparece entonces la ecuación logística cuyas
soluciones son coherentes con las órbitas sobre los ejes.
Un ejemplo con punto no elemental (como no tenemos teoría para ver como son las órbitas
cerca del punto, nos tendremos que basar en la ecuación de sus órbitas y en el campo v ):
⇢ 0
=3 y Å ã Å ã
0
Ej 6. Único punto crítico: ! 00 0
.
y 0 = 4y 2 4 2 0 0
d
= 3 y
es resoluble (homogénea o Bernouilli) !
Orientamos las órbitas viendo que v(0, y) apunta hacia arriba (esto además nos da las
órbitas verticales no recogidas en la solución general). Hay órbitas (llamadas elípticas)
que salen y llegan al punto crítico, situación imposible en uno elemental.
[Un punto no elemental aislado es o un centro o un foco o hay en torno a él sectores
formados por órbitas elípticas, parabólicas (las de un nodo o las demás del ejemplo)
o hiperbólicas (como las de un punto silla)].
Alguna conclusión sobre las soluciones: 0 es inestable (viendo el dibujo); la solución con
(0) = 1, y(0) = 2 (de órbita y = 2 ) no está definida t > 0 , pues para ella se tiene
0 = 6 2 , y 0 = 3y 2 ; la que cumple (0) = 1 , y(0) = 0 (no calculable) sí lo está por ser
acotada, pero ¿será estable? (su diferencia con las soluciones cercanas tiende a 0 si
t ! , pero esto no basta en sistemas).
80
Todo lo dicho sobre sistemas se puede, desde luego, aplicar al caso particular de
las ecuaciones autónomas (su mapa de fases es el del sistema equivalente):
ß 0
00 0) =
Sea [e] = g( , , o escrita en forma de sistema: [SE] 0 = g( , )
Los dos ejemplos siguientes (a diferencia del anterior), pueden describir sistemas físicos.
Dibujaremos su mapa de fases e interpretaremos algunas de sus órbitas. Incluso aunque la
ecuación sea lineal (como el primero que veremos) y, por tanto, resoluble, se pueden sacar
conclusiones muy rápidas sobre las soluciones a partir de las órbitas.
81
Ej 8. 00 + 2 0+ = 0 , con 0 [sistema muelle-masa con rozamiento (si > 0 )].
ß 0 Å ã p
= 0 2+2 2
0 . único punto crítico . +1=0 : = ± 1 !
= 2 0
Con alguna información más (el campo v sobre = 0 y los puntos en que es horizontal
= 2 ) podemos ya dibujar los mapas de fases. Como en todo sistema lineal se pueden
hallar las órbitas, pero son complicadas y dicen poco. Un pequeño dato adicional es que
no hay puntos de inflexión (se ve que esto ocurre para todo sistema lineal):
p
d2 2
+2 + 2 2 1
d 2
= 3 =0 ! = ± , órbitas rectas.
Sabemos ya como se curvan las rectas del nodo. Evaluando v( , ) se ve, tras unos
cálculos, que las separatrices se deforman de la forma indicada y completamos el dibujo.
El sentido de las fuerzas es: ! 3 0 ! (por eso –3 es estable y 0 inestable). Su-
pongamos la partícula inicialmente entre –3 y 0 y discutamos su movimiento según su
velocidad o inicial. Si o < 0 , tiende hacia el equilibrio estable. Si o > 0 y pequeño, no
puede superar la fuerza que se opone, llega a un máximo, regresa y tiende hacia –3 .
Si o > 0 y gordo consigue cruzar = 0 y, ayudado por la fuerza, tiende a (¿en tiempo
finito?) mientras aumenta su velocidad. Si o > 0 es tal que estamos sobre la separa-
triz del punto silla tenemos un movimiento imposible en la práctica: acercarse sin cesar
al equilibrio inestable. El problema (las órbitas no son calculables) es que es imposible
hallar exactamente este último o (y sería importante porque para valores superiores e
inferiores de la velocidad los movimientos son radicalmente diferentes).
82
Ej 10. Discutamos, según los valores de b , la estabilidad de la solución = 0 de la ecuación
00 =b 2 0 +( 0 )2 .
Como asegura el teorema 2, la estabilidad de una solución constante hereda (salvo las
excepciones de los centros o los puntos no elementales), la de su aproximación lineal,
dada por la parte real de sus autovalores. En nuestro caso tenemos:
⇢ 0 Å ã
= 0 1
0 =b 2 ! b 2
, aproximación lineal en el origen.
2 +
2+2
p
b=0 ! = 1± 1+ b !
Si b > 0 el origen es inestable, pues hay > 0 (y el otro es < 0 ; es un punto silla).
Si b < 0 , los dos autovalores tienen parte real negativa, con lo que = 0 es asintó-
ticamente estable (de hecho, si b < 1 es un foco E, si b = 1 es un nodo de una
tangente E y si 1 < b < 0 es un nodo E).
[Que conste que el criterio de Routh-Hurwitz aplicado a 2 + + b = 0 dice que sus
raíces tienen Re < 0 si y sólo si ambos coeficientes son estrictamente positivos, con
lo que nos podíamos haber ahorrado hasta el cálculo de los ].
83
4.3 Sistemas y ecuaciones exactos
ß 0 = ƒ ( , y)
Un sistema del tipo [S] se llama exacto si ƒ ( , y)+ gy ( , y) ⌘ 0 .
y0 = g( , y)
en cualquier punto xo crítico vienen dados por 2 +|M| = 0 , con lo que o bien
(si |M| < 0 ) tiene dos raíces reales de distinto signo y xo es un punto silla
(tanto del sistema lineal como del no lineal) o bien (si |M| > 0 ) las raíces son
imaginarias puras y se tiene un centro en la aproximación lineal. Además es
fácil ver, por ser H continua, que H( , y) = H( o , yo ) contiene además del
punto xo todas las órbitas que tienden a dicho punto cuando t tiende a +
o , con lo que el sistema [S] no puede tener focos (pues sería H ⌘ cte y
M ⌘ 0 en todo un entorno y el punto no sería aislado) y los centros del lineal
lo son también en el no lineal.
⇢ 0 Å ã
= 2 y =0 ! = 0 ; y = 12 # 1 2y 2
Ej 1. M= en cada punto:
y0 = y + y2 y = 0, 1 ; = 14 . 1 2y 1
Å ãÅ ã Å ã Å ã ✓ 1
◆
0 0 ±1 0 1/ 4 0
0
, 1
! 1 ⌥1
! = ±1 : sillas; 1/ 2
! 2 ! = ± p : centro de la
1 0 2
aproximación lineal.
Como sabemos este centro podría conservarse o ser un foco E o I de nuestro sistema.
Pero como es exacto: ƒ + gy = 1 2y 1+ 2y ⌘ 0 , sigue siendo centro del no lineal.
2
H = + y y 2 , Hy = 2 y ! H( , y) = y y2 2
= C son las órbitas.
Dibujar todas las curvas H = C es complicado (aunque
se podría despejar la o la y de la ecuación de segundo
grado). Pero para C = 0 obtenemos dos muy sencillas
= 0 y = 2(y y 2 ) , cada una de ellas formada por cin-
co órbitas distintas, entre ellas todas las separatrices.
El campo v es horizontal sobre = y y 2 y vertical en
la órbita = 0 y en la recta y = 1/ 2 .
Podemos dibujar ya las órbitas, si bien aún no están
orientadas. Para ello basta dar algún valor a v o fijarse
en algún vector propio de los puntos sillas. Por ejemplo,
podemos hallar:
Å ã Å ã
1 1
v( , 0) = 1
ó v( , 1) = 1
.
84
⇢ 0
=y Dibujemos su mapa de fases y estudiemos si
Ej 2. 2
y0 = y es periódica la solución con (0) = y(0) = 2 .
Å ã 2 =0
1 1 y= !
M= 2 1
. Puntos críticos: .
! = y = 0, 1
Å ã î Å ã Å ãó Å ã
0 1
0
es silla = ±1 ! 2
, 10 y 1
1
es centro del
lineal. Como ƒ +gy = 1+1 = 0 , el sistema es exacto
y el centro se conserva.
H = 2 y 3 y2
Las órbitas son: ! 3
y+ 2
= C.
Hy = y
v es horizontal sobre y = 2 y vertical en y = .
Las separatrices (curvas por (0, 0) ! C = 0 ) son:
«
y 2 2 y + 23 3 = 0 ! y = ± 1 23 ,
definidas para 32 (para = 32 se juntan en y = ).
Como la órbita que pasa por (2, 2) está fuera del lazo que forma la separatriz, la solución
de la que es proyección no es periódica.
[Como siempre, la información que se obtiene de la aproximación lineal es sólo lo-
cal: en un entorno del centro hay seguro órbitas cerradas, pero lejos de él dejarán
normalmente de serlo, como en este ejemplo (y el anterior)].
0 Å ã Å ã
=2 y 0 2y 2
Ej 3. 2 Puntos críticos: . Aproximación lineal M = 6 .
y0 = 1+ 3 y2 ±1 2y
Å ã Å ã Å ã Å ã
0 2 0 1 0
M en 1
es 0 2
! = ±2 ! 0
,
1
, silla.
Å ã Å ã Å ã Å ã
0
M en 1
es 02 20 ! = ±2 ! 01 , 10 , silla.
5/4
Las órbitas se hallan fácilmente por ser exacto: 1
H = y2 3 + p(y)
! y2 3 = C.
H = y 2 + q( ) 3/4
⇥
También es de Bernouilli (más largo): –1
y2 1+3 2 z=y 2 0 z 1+3 2 " C ⇤
2yy 0 = + ! z = 2+ , z= + 1+ 2 .
Las separatrices se obtienen para C = 0 con lo que
son = 0 y la hipérbola y 2 2 =1.
⇥ Å
±2
ã ⇤
v( ,±1) = 3 2
confirma la deformación de las separatrices .
Hallemos alguna solución. Para los sistemas exactos el primer paso hacia la solución
general (tener las órbitas) siempre se puede dar (salvo primitivas no calculables). En
este caso se puede también despejar alguna de las variables, pero de ahí no pasamos:
« «
y = ± C + 1+ 2 ! ddt = ±2 C
+ 1+ 2 , no integrable.
Como en otras muchas ocasiones, se puede intentar hallar alguna solución asociada a
órbitas sencillas. Por ejemplo busquemos la que cumple (0) = 3/ 4 , y(0) = 5/ 4 :
3 5
Por ,
4 4
pasa la órbita de C = 34 25
16
9
16
1 = 0 ! y2 =1 !2
p Ry
3 5 ds
0 =2 1+ 2, (0) = 4
, o mejor y 0 = 2y 2 2 , y(0) = 4
! 2t = 5/ 4 s2 1
.
85
Caso particular son las ecuaciones exactas:
ß 0
00 = d
= g( ) ! 0 = g( ) ! [o] d
= g( ) !
A la vista de la solución está claro que las órbitas son simétricas respecto al eje
y que la órbita u órbitas asociadas a cada valor de C son curvas definidas en los
intervalos del eje para los que V( ) C y que cortan dicho eje en los tales
que V( ) = C . Con esto y el teorema siguiente podremos dibujar el mapa de
fases conociendo simplemente la gráfica de la función potencial V( ) .
Å ã
entonces xo = 0o es un centro del mapa
Si V tiene un mínimo en o
Teor 2.
de fases. Si V tiene un máximo, xo es un punto silla.
00 2 1 3.
Ej 4. =1 ! V( ) = + 3
V(x)
Usando sólo la gráfica de V( ) del dibujo superior 1
deducimos el mapa de fases del inferior: como V
posee un máximo en = 1 y un mínimo en = 1 –1 1
el mapa de fases tiene el punto silla y el centro di- x
Como para una ecuación exacta tenemos unas órbitas bastante sencillas, parece que se
podría conseguir hallar su solución general:
p p R
= ± 2 C V( ) = ddt ! ± p pd = t+K ,
2 C V( )
pero es muy raro que esta primitiva se pueda hallar. Por ejemplo, en este caso aparece
R⇥ 2 3 ⇤ 1/ 2
la ‘integral elíptica’ no calculable ± 2 3
+ 2C d = t+K .
86
Ej 5. Dibujemos las órbitas de 00 = 3 7 2 + 10 y precisemos cuáles de sus
soluciones son periódicas.
El mapa de fases se deduce de la función potencial:
g( ) = 0 ! = 0, = 2, =5 .
4 3
7 2
V( ) = 4
+ 3
5 .
10
V( ) = 0 ! = 0, = 3
, =6 .
16
V(0) = 0 , V(2) = 3
, V(5) = 125
12
.
Las soluciones periódicas no triviales corresponden a
órbitas cerradas del mapa de fases (asociadas a seg-
mentos entre las paredes del potencial). En nuestro
mapa se ve que lo son todas las órbitas que están
dentro de la separatriz que entra y sale del origen.
Preocupémonos en concreto para qué valores es
periódica la solución con (0) = , 0 (0) = 0 (dónde
hay que dejar en reposo la partícula para que oscile).
10
Se ve que esto ocurre si 2 0, 3
.
[Además, si = 0 , = 2 , = 5 , la solución es periódica trivialmente, pues es
constante, pero si atinamos a dejar la partícula en los inestables = 0 ó = 5 ,
un pequeño soplo nos va a convertir el movimiento en uno no periódico].
Intentemos calcular el periodo T de una solución, por ejemplo, si = 3 . Su órbita es:
2 4
p
7 3 3 4 28 3 +60 2 27
C = 81
4
+ 63 45 = 9
4
! 2
= 4 3
+ 5 2 9,
4
= ± p = ddt
6
Además de en 3 la órbita cerrada corta = 0 en otro punto que exige ordenador:
Ä <0 ä
3 4 28 3 + 60 2 27 = ( 3)(3 3 19 2 + 3 + 9) = 0 ! = 3, 1 ⇡ 0.835 y 2 > 6 .
3
Por simetría el periodo será el doble de lo que tarda en ir de 1 a 3 :
p R3 d
T=2 6 p ⇡ 2.85 (de nuevo usando el ordenador).
41 3
3 228 +60 27
87
4.4 ¿Centro o foco?
Vimos en la sección 4.2 que el único caso en que no basta el estudio de la aproxi-
mación lineal para clasificar un punto crítico elemental xo de un sistema no lineal
ß 0 = ƒ ( , y)
[S]
y0 = g( , y)
es el caso en que el lineal posea un centro, ya que entonces el punto de [S] pue-
de también ser un centro o bien ser un foco estable o inestable. Tratamos en la
sección anterior una situación en la que el centro del lineal se conservaba: si [S]
era exacto. En esta sección veremos otras técnicas para atacar el problema: el
estudio de las posibles simetrías y la utilización de las coordenadas polares.
Desde luego se conservará un centro si las órbitas de [S] poseen simetría respec-
to a alguna recta que pase por xo (las órbitas en torno a un centro pueden ser
asimétricas y hay puntos críticos con simetría especular (los focos, claramente no
la tienen) que no son centros, pero si un punto con esta simetría es o centro o foco,
necesariamente será centro). El análisis de las simetrías se podrá hacer a la vista
de las propias órbitas, en el caso excepcional de que la ecuación diferencial de las
órbitas sea resoluble, o a partir del propio campo v . Un ejemplo de esto último lo
da el siguiente teorema:
(x,y) (x,y)
a]
(–x,y)
(x,–y) b]
Por tanto, si k es par son puntos silla (del lineal y no lineal como siempre) y si k es
impar son centros de la aproximación lineal. Como g es par en , estos centros lo son
también del sistema no lineal (y las órbitas son simétricas respecto al eje ).
88
⇢ 0
= Å ã Å ã
00 = 3 0 )2 0 ±1
Ej 2. ( ! 0= 3 2 ! 0
silla ( = ±1 ), 0
centros del lineal.
¿Seguirá el centro siendo un centro del sistema no lineal? Podríamos trasladarlo al origen
haciendo = 1 , = y 1 e intentar aplicar el teorema 1, pero el sistema en que
resulta no satisface ninguna de las dos parejas de condiciones. Sin embargo, podemos
calcular las órbitas (ecuación separable) y obtener:
ln y y+ ln =C .
Como esta expresión no varía al cambiar los papeles de e y , las órbitas son simétricas
respecto a la recta y = , con lo que el centro se mantiene en el no lineal.
[En el teorema 1 nos hemos limitado a localizar las posibles simetrías respecto a los
ejes, pero se podrían dar condiciones sobre v que asegurasen la simetría respecto
a y = u otras rectas].
⇢
r 0 = cos ƒ (r cos , r sen ) + sen g(r cos , r sen )
⇥ ⇤
0 = 1 cos g(r cos , r sen ) sen ƒ (r cos , r sen )
r
89
⇢
0 = 2y + 3
Ej 5. Clasifiquemos el origen para todo valor de .
y0 = 2 + y + 2 2 y + y3
Å ã
2
La matriz de la aproximación lineal 2
tiene por autovalores = ± 2 , con lo que:
90
Ecuaciones Diferenciales I (C) - 2009/10
Problemas 1.
1.1. Integrar las ecuaciones siguientes:
2ty y 2 2 t 2 +y
a) y 0 = y (2+2 cos t)y 2 ; b) y 0 = ; c) y 0 = 1 ; d) y 0 = ;
t2 t+y t
y
e) (5 +2y 3)y 0 = 9 12 5y ; f) y 0 = + y ; g) y 0 = y + sen ; h) y 0 = ;
+y 3
y+2t 1 1 2ty 3
i) y 0 = y 2 t(t 2) ; j) y 0 = y ; k) y 0 = ; l) (y 0 )2 = 9y 4 .
t+y 3t 2 y 2
dy +by+m dy +2y+2
1.2. Integrar mediante cambios de variables: d
=ƒ c +dy+n
. Resolver en particular d
=y 2 +6
.
i) y(1) = 0
1.3. Sea y 0 = 3y+3ty 2/ 3 . Hallar su solución general y una o dos soluciones (si hay) con:
ii) y(0) = 1 .
y
1.4. Imponer un dato inicial para el que y 0 = t +sen t tenga: i) solución única, ii) infinitas soluciones.
dy y 2 +2 y
1.5. Sea d = 2 +2y2 . Probar que tiene un factor integrante que sólo depende de y. Hallar todas las
soluciones que sean rectas. Hallar la o las soluciones (si hay) que satisfacen i) y(1) = 0 , ii) y(1) = 1.
p
1.6. Dibujar aproximadamente las soluciones de y 0 = y/ y determinar cuántas de ellas satisfacen
cada uno de los siguientes datos iniciales: i) y( 1) = 1 , ii) y(1) = 0 , iii) y(1) = 1 .
t y2
1.7. Resolver y 0 = 2y hallando un factor integrante g(t) y por otro camino diferente. Hallar la(s)
solución(es), si existe(n), con: i) y(0) = 1 , ii) y(1) = 0 .
dy (y t)2
1.8. Sea dt = t 2 +1 . Hallar sus rectas solución y resolverla como: i) homogénea, ii) Riccati. Discutir
cuántas soluciones hay con: i) y(0) = 2, ii) y(1) = 2, iii) y(2) = 2, hallándolas si existen.
3(y y 2/ 3 )
1.9. Resolver y 0 = . Precisar cuántas soluciones cumplen: i) y( 1) = 1 , ii) y(0) = 1 , iii) y(1) = 0 .
1.10. Sea y 0 = [y+t]2 . Dibujar aproximadamente sus soluciones. Resolverla como Riccati y por otro
camino diferente. Hallar la solución (si existe) con i) y(0) = 1 , ii) y(0) = 1 .
1.11. Sea y 0 = |t| y . Precisar cuántas soluciones cumplen y(0) = 0. Dibujar aproximadamente sus
soluciones. Escribir la solución con y(0) = 1 para todos los valores de t para los que esté definida.
y2
1.12. Sea y 0 = t . Dibujar aproximadamente sus curvas integrales. Hallar (si existen) todas las solu-
ciones que cumplen: i) y( 1) = 1 , ii) y(1) = 0 , iii) y(0) = 1 .
1.13. Estudiar existencia y unicidad, resolver si se puede y dibujar isoclinas y curvas integrales:
2 +y 2 2 1
a) y 0 = cos( y) b) y 0 = c) y 0 = y2 d) y 0 = y 2/ 3 y e) y 0 = y
2 2 2
p
y y +2 y y
f) y 0 = 1+ 2 g) y 0 = 2 2 y y2
h) y 0 = y i) y 0 = 1 + y 2/ 3 j) y 0 = |y|
1.14. Sea y 0 = et y . Hallar la solución con y(0) = 0 y precisar su estabilidad. Dibujar isoclinas, puntos
de inflexión y aproximadamente las soluciones.
1.15. Sea y 0 = y y 3 . Hallar su solución general. Precisar cuántas soluciones cumplen: i) y(0) = 0 ,
ii) y(0) = 1 . Dibujar aproximadamente sus soluciones. Ver si es estable la que cumple y(0) = 1 .
by+t
1.16. Sea y 0 = t . a] Si b = 13 , hallar su solución general y dibujar isoclinas y curvas integrales.
b] Discutir la estabilidad de la solución con y(1) = 0 según los valores de b .
1.17. Dibujar aproximadamente las soluciones y precisar la estabilidad de la que cumple y(1) = 1 :
y
a) y 0 = 1 ty ; b) y 0 = t 2 ; c) y 0 = y 2 2y 3 ; d) y 0 = 1+2y ey ; e) y 0 = et y
1.18. Sea y 0 = y 2 2t 2 . Estudiar existencia y unicidad de curvas integrales y hallar las que pasen por
el origen. Probar que hay soluciones de la forma y = At . Determinar en qué intervalo está definida
la solución con y(1) = 0 y estudiar su estabilidad.
1.19. Sea la familia de circunferencias 2 + y 2 = 2C . Escribir la ecuación diferencial de la que son
curvas integrales. Hallar las trayectorias ortogonales a ellas (las curvas que las cortan perpendicu-
larmente). Resolver el mismo problema para las parábolas y 2 +2C = C2 .
91
Ecuaciones Diferenciales I (C) - 2009/10
Problemas 2.
2.1. Resolver los problemas de valores iniciales:
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
2 1 2 3 4 1 1 1 1
a) x0 = 1 2
x , x(0) = 0
; b) x0 = 1 1
x , x(0) = 0
; c) x0 = 2 1
x , x(0) = 2
.
2.7. Hallar la solución que se indica de los siguientes sistemas y precisar su estabilidad:
8 0 = 2z
8 0 8 0 8 0
= 4y + 2z =y = y 2z
< y0 = < y0 = 3y + z < 0
y =4 +z < y0 = z
a) b) c) d)
: z0 = 2z : z0 = 2y + 1 : z 0 = z + 4e 2t : z0 = 4 5z
(0) = z(0) = 1, y(0) = 0 (0) = 2, y(0) = z(0) = 1 (0) = 1, y(0) = 1, z(0) = 4 (0) = y(0) = 0, z(0) = 1
92
Ecuaciones Diferenciales I (C) - 2009/10
Problemas 3.
3.1. Hallar la solución en forma de serie en torno a t = 0 :
a) 00 +t =0 , b) (1+t 2 ) 00 2 =0, c) cos t 00 + (2 sen t) 0 =0.
3.2. Sea 00+[2
2t] 0+[1 2t] = 0 . Hallar el desarrollo hasta t4 de la solución con (0) = 0 , 0 (0) = 1 .
Sabiendo que = e t es otra solución, hallar esta solución en términos de una integral y comparar.
3.3. Hallar el desarrollo en torno a t = 0 de la solucion de (1 t)(1 2t) 00 + 2t 0 2 = 0 con
(0) = 0 (0) = 1 . ¿Dónde converge la serie solución? Hallar las raíces del polinomio indicial para
cada punto singular regular. Estudiar cuántas soluciones satisfacen (1) = 0, 0 (1) = 1 .
p
3.4. Sea 2 t y 00 y 0 = 0 . Precisar si t = 0 es punto singular regular de la ecuación. Calcular, hasta
tercer orden, el desarrollo en serie en torno a t = 1 de la solución que cumple (1) = 0 (1) = 1 .
3.5. Sea 4t 2 00 3 = t 2 . a) Calcular el desarrollo hasta orden 4 en torno a t = 1 de la solución de la
homogénea que cumple (1) = 0, 0 (1) = 1. b) Hallar la solución general de la no homogénea.
3.6. Sea 3(1+t 2 ) 00 + 2t 0 = 0 . Hallar los 3 primeros términos no nulos del desarrorro de una solución
que se anule en t = 0 . Estudiar si todas las soluciones están acotadas cuando t ! .
3.7. Sea 2t 2 00 + t(t+1) 0 (2t+1) = 0 . Hallar una solución no nula de la ecuación que sea analítica
en t = 0 . ¿Están acotadas todas las soluciones de dicha ecuación en un entorno del origen?
3.8. Sea 3t 00 +(2 6t) 0 +2 = 0 . Hallar una solución que no sea analítica en t = 0 . Hallar 4 términos
del desarrollo de una solución no trivial que sea analítica en t = 0 .
3.9. Hallar el desarrollo de una solución analítica en t = 0 de 4t 00 +2 0 + = 0 y la solución general
en términos de funciones elementales para t > 0 . Comprobar con un cambio de la forma s = t r .
3.10. Sea t 00 2 0 + 4et = 0 . Hallar los 3 primeros términos no nulos del desarrollo en serie de una
solución que se anule en t = 0 . ¿Están acotadas en t = 0 todas las soluciones?
3.11. Hallar la solución general de t 2 00 + t(4 t) 0 + 2(1 t) = 0 , desarrollando en torno a t = 0 e
identificar las series solución con funciones elementales.
3.12. Sea t(1+t) 00 +(2+3t) 0 + = 0 . Hallar el desarrollo de una solución no nula acotada en t = 0 y
probar que hay soluciones no analíticas en t = 1 . Comprobarlo utilizando que = 1t es solución.
3.13. Sea t 00 + (2t 2 1) 0 4 t = 0 . a] Precisar para qué valores de hay soluciones que son
polinomios que se anulan en t = 0 . b] Para = 1 , hallar una solución analítica en t = 0 y determinar
si todas las soluciones lo son. c] Para = 0 , hallar la solución general sin utilizar series.
3.14. Sea t 00 + (1 t 2 ) 0 + pt = 0 . Precisar, resolviendo por series en torno a t = 0 , todos los valores
de p para los que hay soluciones polinómicas y escribir uno de estos polinomios para p = 4 .
1
3.15. Resolver t 2 y 00 + ty 0 + t 2 4
y = 0 i) mediante un cambio de la forma y = t r , ii) por series.
3.16. Sea t 2 (1+t) 00 + t(3+2t) 0 + = 0. Hallar, trabajando por series en t = 0 , una solución no trivial
que no contenga el ln t . Probar que todas sus soluciones están acotadas cuando t ! .
3.17. Sea [t 4+t 2 ] 00 + [5t 3+t] 0 + [3t 2 1] = 0 . Escribir la ecuación para su punto del infinito. Probar
que posee soluciones no triviales que tienden a 0 cuando i) t ! 0 , ii) t ! . ¿Existen soluciones
que tiendan a 0 tanto cuando t ! 0 como cuando t ! ?
3.18. Sea t 4 00 +2t 3 0 = 1 . Determinar si t = 0 y t = son puntos regulares o singulares regulares
de la homogénea. Hallar la solución que satisface (1) = 0, 0 (1) = 1 .
3.19. Hallar una solución linealmente independiente de P1 para la ecuación de Legendre con p = 1 ,
sin recurrir a series. Comparar su desarrollo con el de la teoría. Hacer t = 1s , resolver y comparar.
93
Ecuaciones Diferenciales I (C) - 2009/10
Problemas 4.
⇢ 0 ⇢ 0 ⇢ 0
= +y = +y =y
4.1. Dibujar el mapa de fases de los sistemas lineales: a) ; b) ; c) .
y0 = y y0 = y y0 = +1
⇢ 0 = 4 + 2y Dibujar el mapa de fases de (S). Hallar la solución de (S) que satisface
4.2. Sea (S) .
y0 = + 5y (0) = 2, y(0) = 1 . Hallar la expresión de las órbitas de (S).
⇢ 0
= +2y 3 Hallar sus órbitas y dibujar su mapa de fases. ¿Para qué valores de la
4.3. Sea [S] .
y0 = 4 y 3 y(t) de la solución de [S] con (7) = 0 , y(7) = tiende a si t ! ?
dy
4.4. Resolver [e] (1+ 3 y) + ( 4 + 3 y) d = 0 . Precisar cuántas soluciones de [e] cumplen y(1) = 1 y
dar su expresión explícita. Dibujar el mapa de fases de 0 = 4 + 3 y , y 0 = 1 3y .
⇢ 0
= Hallar la expresión de sus órbitas y dibujar su mapa de fases.
4.5. Sea .
y 0 = 2y y 2 + 4 [Ayuda: y = ± 2 son soluciones de la ecuación de las órbitas].
4.6. Dibujar el mapa de fases de los sistemas:
⇢ 0 ⇢ 0 ® ⇢
= y( +1) =4 2y 0 = 2y 0 = y
a) b) c) d)
0 3
y = (y +1) y0 = 2 y y0 =y 3 y0 = 2y 3
⇢ 0 ⇢ 0 ® ⇢
= y2 = + 2y 0 = 2 2 y 0 = y
e) f) g) h)
y0 = 4 1 y0 = 4 y 3 2
y = y2
0 2 y y0 =y
4.14. Dibujar el mapa de fases de 00 =( 0 )2 y hallar la solución que cumple (2) = 12 , 0 (2) = 1 .
4.15. Dibujar el mapa de fases de (E) 00 = 2 3 2 . ¿Para qué valores de b es periódica la solución
(t) de (E) que cumple (0) = 0 , 0 (0) = b ? Hallar la solución (t) de (E) con (0) = 0 , 0 (0) = 1 .
4.16. a) ¿Para qué y b podemos asegurar que 00 + + 2 +b 0 = 0 tiene un centro en el origen?
b) Si = b = 1 , dibujar el mapa de fases. ¿Qué sugiere el dibujo sobre la estabilidad de = 0 ?
4.17. Dibujar el mapa de fases tras escribir el sistema en coordenadas polares:
® ⇢ 0 ®
0 = y + (1 2 y2 ) = 2 0 = 2 y 2y
a) 2 2 ; b) 0 2 2 ; c) .
0
y = + y(1 y ) y = +y 2y 0
y = y y2 + 2
4.18. Precisar la estabilidad de las soluciones constantes de:
⇢ 0 ® ⇢ 0
0 = y + 3 + y2
= = 2 y
a) 2 ; b) ; c) .
y =0 y 0
y = 2
+ y+y 3 y = ey
0
⇢ 0
=y y Dibujar su mapa de fases. Estudiar la estabilidad de sus puntos críticos.
4.19. Sea .
y0 = 2 Precisar las órbitas asociadas a soluciones periódicas y calcular su periodo.
94
Ecuaciones Diferenciales I (C) - 2009/10
Problemas adicionales 1
1. Hallar las soluciones particulares que cumplen los datos que se indican:
3y 2 t 2
y0 =2ty
, y(1) = 2 y 0 = 1+cos2 (y t) , y(0) = ey 2t + t ey y 0 = 0 , y(1) = 0
y sen t sen t
0
y = ln y , y(0) = e t 2 +y 2 +t +tyy 0 = 0 , y(1) = 1 y 0 = cos t y cos2 t
y 2 , y(0) = 0
2. Probar que la ecuación lineal admite un factor integrante que sólo depende de t y utilizarlo para
deducir la expresión de la solución general de dicha ecuación.
3. Comprobar que y 0 = t n 1 ƒ (y+ t n ) se convierte en una ecuación de variables separadas haciendo
z = y+ t n y utilizarlo para resolver y 0 = 2t(y+t 2 )2 . Resolverla después mirándola como Riccati.
dy
4. Resolver 3y 2 t + 2y(y 2 3t) dt = 0 , sabiendo que tiene factor integrante de la forma g(t +y 2 ) .
q q
2 2
5. Sea y 0 = y+ t2 . Dibujar isoclinas, inflexión y soluciones. Resolverla haciendo = y+ t2 .
2
dy +y 2
9. Sea d = 2 y
. Resolverla como homogénea, como exacta y como Bernouilli. Precisar dónde
crecen y decrecen sus soluciones y si alguna recta es solución. Hallar la expresión explícita de la o
las soluciones (si es que existen) que satisfacen: i) y(1) = 3 , ii) y(1) = 0 .
10. Sea y 0 = 1 + y 2 . Hallar su solución general y la o las soluciones (si existen) que satisfagan
y(1) = 1 . Dibujar aproximadamente sus curvas integrales.
y
11. Sea y 0 = (y 1) t 1 . Calcular su solución general y la o las soluciones (si existen) con: i) y(1) = 2 ,
ii) y(1) = 1 , iii) y(0) = 1 . Dibujar las isoclinas con K = 0 , K = 1 y K = , estudiar dónde las soluciones
crecen y decrecen, hallar los puntos de inflexión y dibujar aproximadamente las soluciones.
dy 2+t y
12. Sea dt = ey t +1 . Hallar su solución general (en forma implícita) calculando un factor integrante
g(t) y por otro método. ¿Cuántas soluciones hay con y(0) = 0 ? Dar su forma explícita si existen.
2t(1 y)
13. Sea y 0 = y+t 2
. Hallar la solución (simplificada al máximo) con i) y(0) = 1 , ii) y(0) = 1 . Estudiar
si existe solución satisfaciendo y(1) = 1 .
i) la o las soluciones (si existen) con y(0) = 1 .
14. Sea y 0 = 3ty 1/ 3 . Escribir las expresiones t de:
ii) 9 soluciones distintas que cumplan y(0) = 0 .
p
0 2
15. Sean y = 4 y y los datos iniciales: i) y(0) = 2 , ii) y( ) = 0 . Hallar la única solución que
cumple uno de los datos anteriores y encontrar dos soluciones distintas que satisfagan el otro.
⇢
t si y t Estudiar existencia y unicidad de soluciones. Dibujar estas soluciones.
16. Sea y 0 = .
y si y t Hallar para todo t la que satisface y( 3) = 3 .
dy 2 y
17. Sea d = y2 2 . Para todo , resolverla y precisar el número de curvas integrales que pasan
por cada punto del plano. Dibujar sus soluciones para = 3 .
t 2y
18. Sea y 0 = t . Resolverla, estudiar existencia y unicidad y dibujar sus curvas integrales. Precisar
la estabilidad de la solución con i) y(1) = 0 , ii) y( 3) = 1 . Hallar una recta que corte perpendicu-
larmente a las soluciones de la ecuación.
2y t a] Resolverla hallando un factor integrante y por otro camino diferente.
19. Sea y 0 = t 2 .
b] Dibujar sus soluciones y precisar la estabilidad de la que cumple y(e) = .
20. a] Estudiar la estabilidad de solución con y(0) = 0 de y 0 = y sen( y) , según los valores .
⇥ ⇤
b] Dibujar las isoclinas, los puntos de inflexión y las soluciones para = 2 rc cos 2 ⇡ 0.28 .
95
t 2 +y 2
21. Resolver y 0 = 2ty . Dibujar isoclinas y curvas integrales. Determinar cuántas curvas integrales
pasan por cada punto del plano. Estudiar la estabilidad de la solución que cumple y(1) = 1 .
22. Estudiar la estabilidad de la solución que satisface y(1) = , según los valores de :
3 y+cos3 t y y2 y
a) y 0 = sen y b) y 0 = 2t c) y 0 = 1 ey d) y 0 = 2t
+t 3 e) y 0 = t
f) y 0 = y 2 y cos t
23. Dibujar aproximadamente las soluciones de las siguientes ecuaciones y estudiar la estabilidad de
la solución que satisface la condición inicial que se indica :
2y y2 y
y0 = t
+4t y 0 = y 3 +2y 2 y0 = t2 2 y 0 = yt ty y 0 = 2t + y 3
a) b) c) d) e)
y(1) = 1 y(0) = 2 y(1) = 1 y(1) = 1 y(1) = 0
28. Sea y 0 = y 1t . Estudiar existencia y unicidad y dibujar las curvas integrales. Sea y la solución
con y(1) = . ¿Para algún está y acotada t 1 ? Aproximar este con métodos numéricos.
29. Sea y 0 = 2ty + t 2 y 2 . Resolverla y dibujar aproximadamente sus soluciones. Aproximar las que
cumplen y(0) = 1 , y(0) = 1 , y(10) = 0.2 con diferentes métodos numéricos y diferentes pasos.
30. Un cuerpo de masa m es lanzado con velocidad inicial o a gran altura en la atmósfera terrestre.
Suponemos que cae en línea recta y que las únicas fuerzas que actúan sobre él son la de la gra-
vedad terrestre mg (suponemos g constante) y otra fuerza k debida a la resistencia del aire.
Hallar la velocidad límite del cuerpo cuando t ! . Modificar el ejemplo anterior suponiendo que la
resistencia del aire es proporcional a 2 .
31. Supongamos que tenemos un gramo de un extraño material radiactivo que se desintegra con una
velocidad proporcional a la raíz cuadrada de la cantidad existente. Si al cabo de un año sólo queda
1/4 de gramo, ¿al cabo de cuántos años tendremos 0.1 gramos? Comprobar que este material se
desintegra totalmente en un tiempo finito y calcular ese tiempo.
32. Un cuerpo a 80o de temperatura se coloca en el instante t = 0 en un medio cuya temperatura se
mantiene a 20o y al cabo de 5 minutos el cuerpo se ha enfriado hasta los 50o . Suponiendo que su
enfriamiento sigue la ley de Newton (su temperatura varía proporcionalmente a la diferencia entre
la temperatura del cuerpo y la del medio) determinar: a) la temperatura del cuerpo al cabo de 10
minutos; b) el instante en que dicha temperatura será de 30o .
33. Un cuerpo se coloca en un medio con temperatura T(t) = sen t en el instante t . Comprobar que,
si sigue la ley de Newton, la temperatura del cuerpo tiende a oscilar periódicamente.
34. Supongamos que la ecuación y 0 = y[1 h(t)y] , h(t) > 0 , describe la evolución de una pobla-
ción animal con tope logístico variable. Estudiar el comportamiento de las soluciones para grandes
valores de t si: i] h(t) ! cuando t ! , ii] h(t) ! cte cuando t ! . Interpretar el resultado.
35. y 0 = y(1 esen t y) puede describir una población de truchas con tope periódico. Estudiar dónde
crecen y decrecen sus soluciones y dibujarlas a grandes rasgos. Encontrar, utilizando métodos
numéricos, el valor del dato inicial y(0) para el que se tiene una solución periódica ( y(0 = y(2 ) ).
Si suponemos que hay un pescador que pesca truchas a velocidad constante y 0 = y(1 esen t y) ,
estudiar utilizando Runge-Kutta con h = 0.01 : i) si = 0.1 , para qué valores iniciales las truchas se
extinguen; ii) si y(0) = 3 , para qué valores de se extinguen.
96
Ecuaciones Diferenciales I (C) - 2009/10
Problemas adicionales 2
1. Estudiar la existencia y unicidad de las soluciones de
n 0 = t + ln t n 0 = + sen y
000 0 00 2 2= t nt (1 t 2 ) 00 2t 0 + =0 p
y0 = t y y 0 = t 2/ 3 y
2. i) Utilizando matrices y ii) convirtiendo los sistemas en ecuaciones de segundo orden, resolver:
0 =2 0 =2 +y
0 = + 2y 3y 0 = 2y + 2et 0 = + 2y
a) y 0 = 2 + y b) y 0 = 2y 2e t c) y 0 = 5 y + 2et d) y 0 = 4 y + 9t e) y 0 = 3 + 4e3t
(0) = y(0) = 1 (0) = 0, y(0) = 1 (0) = 0, y(0) = 1 (0) = 3, y(0) = 2 (0) = y(0) = 0
7. Hallar la matriz fundamental canónica en t = 0 del sistema asociado a las siguientes ecuaciones:
00 +2 0 + =0 000 + 00 + 0 + =0 2(t +1)2 00 +3(t +1) 0 =0 (1 t) 00 + t 0 =0
8. Sean 00 + 0 +b(t)
1, 2 soluciones de [e] (t) = 0 y llamemos (t) a su wronskiano
R
|W|(t) .
0 (t) 0 (t) (s)ds
Comprobar que 2
= 2 . Hallar y utilizando [e] concluir que (t) = (0) e .
1
1
Deducir la fórmula para 2 en función de 1 hallada en teoría mediante reducción de orden.
9. Resolver t 2 (t+3) 000 3t(t+2) 00+6(t+1) 0 6 = 0 sabiendo que 1 =t
2 es solución de la ecuación.
10. Sea t 3 000 3t 2 00 + 6t 0 6 = ƒ (t) . Hallar una matriz fundamental del sistema equivalente y
utilizarla para encontrar una fórmula para la solución general de la ecuación no homogénea.
⇢ 0
= y
11. Resolver con (0) = 0 , y(0) = 1 . ¿Es estable esta solución?
y0 = 2 y+t
12. Calcular la solución particular que se indica y precisar si es estable o no:
00 2 0 +2 = et cos t + 0 10 = 36te t
000 16 = 8t 2
(0) = 0 (0) = 0 (0) = 0, 0 (0) = 3, 00 (0) = 2 (0) = 1, 0 (0) = 2, 00 (0) = 3, 000 (0) = 8
c = 6 , hallar la solución con (0) = 00 (0) = 0 , 0 (0) = 000 (0) = 2 . c] Hallar una solución para cada c .
21. Sea [e] V +4 000 + 6 00 +4 0 + = 4e 2t , 2 R . a] Hallar una solución de [e] para todo valor de
. b] Para = 0 , hallar la solución general de [e]. c] Precisar un para el que [e] sea: i) inestable,
ii) asintóticamente estable. d] Si = 65 , razonar si toda solución de [e] tiende a 0 cuando t ! .
97
® 0 =2 +y
33. Hallar la ’solución’ de 000 + 6 0 + 20 = 18 (t ) con (0) = 0 (0) = 00 (0) = 0 y escribir su valor
13
para t = 2 y t = 12 . ¿Cuántas derivadas posee dicha ’solución’ en t = ?
34. Resolver los sistemas:
® 0 = + ƒ (t) n ® 0 = y+ƒ (t) n 1 , 0t< ® 0=
2et , 0 t < 1 +y
y0 = + y , ƒ (t) = , ƒ (t) = y0 =
a) 0, t 1 , b) y 0 = +ƒ (t) 0, t , c) y+2 (t 1)
(0) = 2, y(0) = 1 (0) = y(0) = 0 (0) = y(0) = 0
98
Ecuaciones Diferenciales I (C) - 2009/10
Problemas adicionales 3
1. Estudiar si las siguientes ecuaciones tienen puntos singulares o no y clasificarlos:
(2t t2 ) 00 + 0 =0 t2 00 +2 0 +4 =0 t 00 + et 0 + 3 cos t = 0 t sen t 00 +3 0 +t =0
2. Hallar las raíces del polinomio indicial en los puntos singulares regulares de las ecuaciones:
) (2t 2 +t 3 ) 00 0 + = 0, b) t(t 1)2 00 + ln |t| = 0, c) sen t 00 +t 0 = 0.
3. Escribir una ecuación que: i) tenga un punto singular regular en t = 0 y en él las raíces de su
polinomio indicial sean 13 y 13 , ii) tenga en t = 1 un punto singular que no sea regular.
4. Resolver por medio de series en torno a t = 0 :
(1+t 2 ) 00 2t 0+ 2 =0 00 et = 0 t2 00 5t 0 + 3(t +3) = 0 t 00 +(1 t) 0+ =0
(t 2 t) 00 t 0+ =0 00 + t 2 =0 3t 2 (1+t) 00 +t(5+2t) 0 =0 (t 2 1) 00 2 =0
(t 2 1) 00 +3t 0 +t =0 2t 00 + 0 =0 t2 00 t(t +2) 0 +(t + 2) = 0 (1 cos 3t) 00 2 =0
5. Discutir para qué valores de es t = 0 punto singular regular de t 00 + 4t 0 + 2 = 0 . Si = 2 ,
hallar el desarrollo en serie de la solución con (1) = 1 , 0 (1) = 1 en t = 1 hasta tercer orden.
6. Hallar los tres primeros términos no nulos del desarrollo en t = 1 de la solución de 00 ln |t| 0 =0
con (1) = 0 , 0 (1) = 1 . Determinar qué puntos son regulares o singulares regulares.
7. Sean las ecuaciones t 2 00 + 0 = 0 y t 3 00 + t 0 = 0 . Hallar la solución general por métodos
elementales y estudiar la estabilidad. ¿Se podrían resolver por series en torno a t = 0 ? Calcular
hasta orden 3 el desarrollo en serie de potencias en torno a t = 1 de la solución con (1) = 0 (1) = 1 .
8. Hallar el desarrollo en serie de una solución no trivial de t 00 0 + 4t 3 = 0 que se anule en t = 0
12. Sea t 2 00 + t 2 0 + (t 2) = 0. Comprobar que = 1t es solución. Hallar los tres primeros términos
no nulos del desarrollo en serie de una solución que se anule en t = 0 .
13. Sea t 2 00 + (1 et ) 0 + t = 0 . Hallar los dos primeros términos no nulos del desarrollo en serie
de una solución que se anule en t = 0 .
14. Sabiendo que = t es solución de t 00 t 0 + = 0 , determinar si es posible escribir el desarrollo
en torno a t = 0 de otra solución linealmente independiente sin que aparezcan logaritmos.
15. Sea 2t 2 00+t(1+t 2 ) 0 = 0 . Hallar los 3 primeros términos no nulos del desarrollo de una solución
no analítica en t = 0 . ¿Cuántas soluciones satisfacen: i) (0) = 0 (0) = 3 ; ii) (3) = 0 (3) = 0 ?
16. Hallar el desarrollo hasta orden 5 de una solución de t 2 00 3t 4 0 (3t 3 + 2) = 0 que esté
acotada en t = 0 [puede ser útil saber que = 1/ t es solución].
17. Estudiando las vibraciones de una molécula diatómica se llega a 00 + 0 (e 1)2 = 0 . Hallar
hasta 4 el desarrollo en serie de una solución. ¿Están todas las soluciones acotadas en = 0 ?
18. Probar que 2 ln t 00 + 0 + 2 = 0 tiene un punto singular regular en t = 1 . Hallar los tres primeros
términos del desarrollo de una solución. ¿Dónde converge, al menos, la serie obtenida?
19. Dar un valor de b para el que la solución general por series de t 00 + besen t 0 = 0 en torno a
t = 0 no contenga logaritmos y otro valor para el que sí.
20. Determinar si contiene logaritmos la solución general por series en t = 0 de t 00 + 2 cos t 0 = 0.
99
22. Sea ty 00 + y = 0 . Hallar el término general del desarrollo de una solución no trivial que se anule
en t = 0 . Calcular el valor de la constante del término que contiene el ln t en la segunda solución.
2
23. Sea t 00 0 4t 3 = 0 . Comprobar que = et es solución. Hallar el desarrollo en serie de
potencias de una solución que se anule en t = 0 .
24. Sea (t 1)2 00 + (1 t 2 ) 0 + 2 = 0 . Hallar el desarrollo hasta t 4 de la solución con (0) = 1 ,
0 (0) = 1 . Hallar el desarrollo de una solución analítica en t = 1 e identificarla con una función
34. Cualquier polinomio Qn (t) de grado n se puede escribir como combinación R lineal de los n + 1
primeros polinomios de Legendre: Qn = c0 P0 + · · · + cn Pn . Probar que ck = Qn (t)Pk (t)dt . Escribir
Q4 (t) = t 4 como combinación lineal de P0 , . . . , P4 .
p
35. Sea (1 t 2 ) 00 2t 0 + = 0 Legendre con p = 52 1 . Hallar 3 términos no nulos del desarrollo de la
solución que cumple (0) = 0 , 0 (0) = 1 . Ver si hay soluciones no triviales que tiendan a 0 cuando
i) t ! 1 , ii) t ! .
36. Obtener los polinomios H4 y H5 de Hermite a partir de: i) la serie general de los apuntes, ii) la
función generatriz, iii) la fórmula de Rodrigues.
1 1
37. Calcular la solución de t 2 00 +t 0 + (t 2 4
) = t 3/ 2 con (1) = 1 , 0 (1) =
2
.
38. Hallar las funciones de Bessel J3/ 2 y J5/ 2 .
R R R
39. Calcular las siguientes primitivas: J0 ( ) d , 3J )d , [J0 ( )]2 d .
0(
40. Comprobar que las ecuaciones de Hermite y Bessel tienen un punto singular en el infinito.
41. Sea [e] t 3 00 +[At 2 +B] 0 +[Ct 2 +D] = 0 . Determinar para qué valores de A, B, C y D son tanto
t = 0 como t = puntos singulares regulares de [e]. Para estos valores, precisar cuándo existen
soluciones de [e] que tienden hacia 0 cuando t ! .
42. Hallar una solución de la forma t r nt
n de t 2 00 + (3t 1) 0 + = 0 y discutir su validez.
43. Adaptar la teoría de este capítulo a la resolución por series de las ecuaciones lineales de primer
orden con coeficientes analíticos (o ’poco’ no analíticos). Hallar por este camino la solución de
algunas ecuaciones de los problemas del tema 1 resolubles por series y comparar resultados.
100
Ecuaciones Diferenciales I (C) - 2009/10
Problemas adicionales 4
1. Dibujar el mapa de fases:
00 + 0 = 2 00 = 1 00 3 00 =
⇥ 0 )2
⇤ 00 = 3 2
a) 2 + b) c) = d) ( 1 e)
⇢ 0 ⇢ 0 ⇢ 0 ⇢ 0 ⇢ 0
= y y = y = y y2 = 2y + 2 y = ye
f) g) h) i) j)
y0 = y y 0 = +y 2 y0 = 2 y0 = 2 2 y2 y0 = e 1
d
12. a) Resolver (E) d
=2 y dibujar sus curvas integrales.
00 = 3 0. [Ayudas: Hay órbitas que son parábolas. Haciendo en
b) Dibujar el mapa de fases de
la ecuación de las órbitas = [ 2 1]/ 2 se obtiene (E)].
13. Sea 00 =( 0 )(2+ 0 ) . a) Clasificar sus puntos críticos elementales según los valores de .
b) Para = 3/ 2 , dibujar el mapa de fases y hallar la solución (t) con (1) = 0, 0 (1) = 2 .
14. Estudiar, según los valores de , la estabilidad de la solución = 0 de las ecuaciones:
00 = sen cos 00 + 0 +e =1 00 + = sen( 0) 00 + n = 0 , n2N
101
®
= 2
0 Resolver la ecuación diferencial [o] de sus órbitas.
19. Sea [S] .
y0
= y+ 2 Dibujar isoclinas y curvas integrales de [o] y el mapa de fases de [S].
Precisar si es estable el origen de [S] y si lo es la solución y( ) de [o] que satisface y(1) = 1 .
⇢ 0
= 2 +3y 2
20. Sea [S] . Resolver la ecuación diferencial [o] de sus órbitas.
y0 = 2 y
Dibujar isoclinas y curvas de puntos de inflexión de [o] y el mapa de fases de [S]. ¿Está definida t
la solución de [S] con (2) = 1 , y(2) = 0 ? ¿Es estable la solución de [S] con (2) = y(2) = 0 ?
® a) Hallar sus órbitas, escribirlo en polares y dibujar su mapa de fases.
0 = y+ 2 y
21. Sea . b) Hallar la solución del sistema que cumple (0) = , y(0) = 1 .
y0 = + y2
c) Estudiar qué soluciones están definidas t .
®
0 =( y)(1 2 y2 )
22. Dibujar el mapa de fases de 2 tras escribir el sistema en polares.
0
y = ( +y)(1 y2 )
a) 3 0 00 = 1 0 (0) = 1
23. Sean: . Hallar la solución general y la particular con (0) = .
b) 2 00 = 0 ( 0 2)
⇢ 0 ⇢ 0
=y = y( 2 +y 2 )
24. Comparar las órbitas y las soluciones de los sistemas y .
y0 = 0
y = ( 2 +y 2 )
102