Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Apuntes de Ecuaciones Diferenciales I

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 108

2009

apuntes de
ecuaciones
diferenciales I

Pepe Aranda

Métodos Matemáticos
Físicas Complutense
www.ucm.es/centros/webs/d215
Ecuaciones Diferenciales I (grupo C piloto) 2009–2010

Índice
Sobre las versiones de los apuntes i
Bibliografía iii

Introducción 1

1. Ecuaciones de primer orden 3


1.1 Métodos elementales de resolución 5
1.2 Dibujo aproximado de soluciones 10
1.3 Existencia, unicidad, prolongabilidad 13
1.4 Estabilidad 19
1.5 Ecuaciones autónomas 22
1.6 Métodos numéricos 25

2. Sistemas y ecuaciones lineales 27


2.1 Propiedades generales 29
2.2 Sistemas de 2 ecuaciones lineales y ecuaciones lineales de orden 2 31
2.3 Ecuaciones y sistemas lineales de orden n 40
2.4 Estabilidad de sistemas y ecuaciones lineales 45
2.5 Transformada de Laplace 48
2.6 Soluciones periódicas de ecuaciones lineales 53

3. Soluciones por medio de series 55


3.1 Funciones analíticas 56
3.2 Puntos regulares 58
3.3 Puntos singulares regulares 61
3.4 Ecuación de Legendre, Hermite y Bessel 66
3.5 El punto del infinito 70

4. Mapas de fases 71
4.1 Sistemas de dos ecuaciones autónomas 72
4.2 Clasificación de puntos críticos 75
4.3 Sistemas y ecuaciones exactos 84
4.4 ¿Centro o foco? 88

Problemas 1 91
Problemas 2 92
Problemas 3 93
Problemas 4 94
Problemas adicionales 1 95
Problemas adicionales 2 97
Problemas adicionales 3 99
Problemas adicionales 4 101
Sobre las versiones de los apuntes
La primera versión de estos apuntes fue la de 1999, adaptación de los apuntes de EDOs
para la asignatura Métodos Matemáticos II de un viejo plan de estudios, en los que se tra-
taban algunos temas más avanzados (la asignatura actual es de 2o curso en lugar de 3o , y
tiene 6 créditos (4 horas semanales) en lugar de 7.5 (5 horas)). Desaparecieron resultados
de prolongabilidad, estabilidad, soluciones periódicas, funciones de Lyapunov...
En la versión 2000 sobre todo se introdujeron bastantes ejemplos nuevos en muchas
secciones (en 1.1, 1.2, 2.2, 2.4, 2.5, 3.2, 3.3, 4.2, 4.3 y 4.4), pasaron a estar en ‘letra peque-
ña’ algunos temas (métodos numéricos o transformadas de Lapace de la , por ejemplo),
apareció la ecuación de Hermite,... y como todos los cursos se modificaron los problemas
incluyendo los de examen, se trasladaron otros a los adicionales...
En el año 2001 hubo pocas novedades (ligeras precisiones nuevas en un teorema, cam-
bios de problemas, corección de erratas...) y casi lo mismo en el 2002.
En la versión 2003 principalmente se modificó la introducción a los apuntes y se rees-
cribieron y se añadieron diferentes ejemplos a las secciones 1.3 y 1.4 (las que suelen tener
mayor dificultad de comprensión). En 2004 no hubo cambios apreciables en la parte de
teoría.
La versión 2005 mantuvo los contenidos de las anteriores, pero se retocaron casi to-
das las secciones (y ejemplos), algunas ligeramente y otras bastante profundamente. Los
mayores cambios fueron:
• En 1.1 se dio más sitio a las lineales. Se detallaron más las técnicas generales de dibujo
en 1.2. En 1.3 se aclararó el uso de la ecuación equivalente. En 1.4 se insistió más en las
lineales. 1.5, 1.6 y 1.7 cambiaron poco.
• 2.1 quedó casi igual. Algunos teoremas sobre sistemas en 2.2 cambiaron de sitio, se
añadieron comentarios y se extendieron ejemplos. La sección 2.3 se dividió en dos y pasó
2.4 a contener la estabilidad. El nuevo 2.3 pasó a tratar primero las ecuaciones de orden n
y luego los sistemas, y la estabilidad de 2.4 también se retocó (con nuevos ejemplos en los
tres casos). En la transformada de Laplace (nuevo 2.5) se añadieron comentarios y ejemplos
y se reordenaron otros. Las soluciones periódicas sólo tuvieron cambios cosméticos.
• 3.1 cambió poquito. 3.2 pasó a empezar por un ejemplo y se redactó de nuevo el teo-
rema. En 3.3 se pasó a trabajar desde el principio en t = 0 , introduciendo antes la [e*], y
la constante a del teorema de Frobenius pasó a llamarse d . Se sacaron del viejo 3.4 las
alusiones al punto del infinito (formando una nueva seccioncilla 3.5) y se pasó a presentar
la función gamma antes de tratar Bessel.
• 4.1, 4.3 y 4.4 casi no cambiaron. Se añadieron a 4.2 dos ejemplos lineales, la matriz de
la aproximación lineal pasó a llamarse M , se trató de argumentar de forma más sistemá-
tica dónde conviene evaluar el campo v y cómo hallar alguna solución del sistema, y se
agruparon al final los ejemplos de ecuaciones.
Las introducciones a cada capítulo fueron todas retocadas. Y también algo la bibliografía.
Los problemas se reorganizaron bastante. Pasaron a existir 4 hojas de problemas, suficien-
tes para controlar los aspectos básicos de la asignatura, y otras 8 con problemas adicionales.
Las hojas eran las viejas hojas comunes de la asignatura a las que se añadieron unos cuan-
tos problemas de temas que antes no contenían (no eran comunes a todos los grupos) y
otros de exámenes del curso previo. Los adicionales incluyeron el resto de los elaborados
a lo largo de los años: unos similares a los de las hojas y que no merece la pena incluir
en ellas y otros que tratan de temas tangenciales a la asignatura (dependencia continua,
cálculo numérico, ecuaciones con la , propiedades de funciones especiales, problemas con
puntos no elementales, aplicaciones,...].
En la versión 2007 (en el 06-07 no fui profesor de EDI) no se tocó la teoría. La porta-
da pasó a incluir la nueva página del departamento y se cambiaron de sitio y contenido
estas notas sobre las sucesivas versiones. Las ‘hojas’ de problemas pasaron a llamarse ‘pro-
blemas’, conteniendo ejercicios de examen del curso 05-06 y pasaron a estar numeradas
continuando la teoría. Los problemas retirados de las hojas se fueron a los ‘adicionales’ y de
estos (transcritos ya también a LATEX desaparecieron algunos que (junto a otros) constituye-
ron los problemas para trabajar en grupo y entregar en el grupo piloto.

i
Hacia mayo de 2007 hice la transcripcion al LATEX (utilizando letra ’palatino’) de los apun-
tes de 2007, con bastantes pequeñas modificaciones para ajustar el texto anterior a los
nuevos tipos y márgenes.
Y esta es la versión 2008, con muy abundantes pequeñas modificaciones:
• Para recuperar algo del estilo de los viejos apuntes en helvética, la letra es ahora la
similar (sans serif) bitstream vera (paquete ’arev’ en LATEX) y se han ampliado los márgenes,
intentando dar un aspecto menos denso a los apuntes. En la actualidad constan de 90
páginas de teoría, 4 de problemas y 8 de problemas adicionales.
• La sección 1.1 sólo tiene cambios de estilo, resaltando los grandes tipos de ecuaciones
resolubles. En 2.2 se reordenan los ejemplos y se sustituye uno por el 5. En 2.3 se retrasa
algún ejemplo y se añade el análisis de los de 2.2. En 2.4 se abrevia aún más la (en letra
pequeña) dependencia continua. En 2.5 se incluyen los ejemplos autónomos de evolución
de poblaciones de la sección 2.7 de 2007 (que desaparece). 2.6 permanece.
• 2.1 no cambia. En 2.2 y 2.3 se resaltan titulares de las subsecciones, se desarrolla más
algún ejemplo de 2.2 y se amplían los ejemplos de ecuaciones en 2.3. En 2.5 se reordenan
ejemplos. 2.4 y 2.6 casi igual.
• 3.1 igual. En 3.2 se retoca algún ejemplo. En 3.3 se añade el ejemplo 2 y se amplía el
(ahora) 5. 3.4 y 3.5 se mantienen.
• 4.1 tiene pocos cambios. En 4.2, aparte de algunas reordenaciones y ligeros cambios,
se resaltan las técnicas concretas de dibujo y cálculo de soluciones, y es nuevo el ejemplo
7. Son nuevos en 4.3 los ejemplos 3 y 5. En 4.4 aparece el ejemplo 4.
• Se han retocado y extendido todas las introducciones (la global y la de cada capítulo). La
bibliografía no se modifica. Los problemas sí lo hacen bastante (incluyendo nuevos inventa-
dos para los problemas y parcialillos del piloto o para los exámenes finales). Los retirados
han pasado a adicionales.
En la versión 2009 sólo cambian los problemas.

ii
Bibliografía
Bd Boyce-Di Prima. ECUACIONES DIFERENCIALES y problemas con valores en la
frontera. (Limusa)
S Simmons. ECUACIONES DIFERENCIALES, con aplicaciones y notas históricas.
(McGraw-Hill)
P Plaat. ECUACIONES DIFERENCIALES ORDINARIAS. (Reverté)
R Ross. ECUACIONES DIFERENCIALES. (Reverté)
Br Braun. ECUACIONES DIFERENCIALES Y SUS APLICACIONES. (Interamericana)
E Elsgoltz. ECUACIONES DIFERENCIALES Y CALCULO VARIACIONAL. (Mir)
H Hirsch-Smale. Ecuaciones diferenciales, sistemas dinámicos y álgebra lineal.
(Alianza)
F Fernández-Vázquez-Vegas. Ecuaciones diferenciales y en diferencias. (Thomson)
G Guzmán. Ecuaciones diferenciales ordinarias. Teoría de estabilidad y control.
(Alhambra)

Las secciones 1.1 y 1.2 se pueden encontrar en casi todos los libros anteriores.
Hay resultados de existencia y unicidad (1.3) en todos los libros y varios demuestran el
TEyU; la muy larga y avanzada demostración del TE está en G. La prolongabilidad sólo suele
ser tratada en los libros más rigurosos (como F y G); algo se dice sobre el tema en R, P y H.
La teoría general de estabilidad (1.4) es propia de libros más avanzados, como el G, y
se suele tratar en el marco más general de los sistemas de ecuaciones. La mayoría de los
libros más elementales (por ejemplo Bd y P) se suelen limitar a tratar la estabilidad de
soluciones constantes de sistemas autónomos (en los apuntes en el capítulo 4). Algunos
de ellos (como F) estudian también la estabilidad de sistemas y ecuaciones lineales con
coeficientes constantes (2.4 en los apuntes). De dependencia continua hablan R, E, H, F y
G.
La sección 1.5 sigue, en general, al P. Ideas interesantes (más avanzadas) se dan en F.
Para ampliar el cálculo numérico (1.6) está muy bien el capítulo 8 del Bd; véanse también
R y Br.
La mayoría de los libros incluyen aplicaciones de las ecuaciones diferenciales a problemas
reales; tal vez las más curiosas se encuentren en el Br.
Los teoremas generales de 2.1 se pueden estudiar en G.
Casi todos los libros empiezan estudiando directamente las ecuaciones lineales y después
se ocupan de los sistemas, lo que tal vez resulte más pedagógico (los apuntes, para ahorrar
tiempo, lo hacen al revés, pero es interesante leer alguna vez este otro camino). Además
suelen incluir repasos, más o menos detallados, de la teoría de matrices (véase, por ejemplo,
Bd, P, H o F), ocupándose algunos de la forma de Jordan.
La transformada de Laplace (2.5) se utiliza en Bd, Br, R, S y F.
Para ecuaciones con coeficientes periódicos (2.6), ver P.
La solución por medio de series (capítulo 3), tanto en torno a puntos regulares como en
torno a singulares regulares, se puede consultar en Bd, S, Br y R. En S, por ejemplo, se puede
ver alguna demostración no hecha en los apuntes. El mismo libro incluye un estudio sobre
las propiedades de diferentes funciones especiales.
Los mapas de fases (capítulo 4) se tratan con detalle y rigor en el P (incluyendo la com-
plicada demostración del teorema 1 de 4.2), aunque también son recomendables las dife-
rentes formas de estudiarlos de Bd, Br, R y H. En varios de ellos se puede leer el estudio
de las funciones de Lyapunov (para el análisis de la estabilidad de puntos críticos) y de los
ciclos límite, no incluidos en los apuntes. Para resultados más avanzados sobre sistemas
autónomos (bifurcación, caos...), consultar F.

iii
Algunos libros pueden ser útiles para parte de Ecuaciones Diferenciales II. Bd, R, Br y S
estudian los problemas de contorno para EDOs y el método de separación de variables para
la resolución de EDPs lineales de segundo orden. Las EDPs de primer orden, lineales y no
lineales, se tratan en E.
Hay un capítulo dedicado a la historia de las ecuaciones diferenciales en G, una pequeña
sección en Bd y diversos apuntes históricos en S.
Otro tema relacionado con las ecuaciones diferenciales, el cálculo de variaciones, se ve
en E y S. Y las ecuaciones en diferencias ocupan casi la mitad del libro F.

iv
Introducción
Una ecuación diferencial es una ecuación en la que aparecen derivadas de una
función incógnita. Si tal función es de una variable la ecuación se llama ordinaria
(EDO). Si es de varias variables, la ecuación es en derivadas parciales (EDP).
Ejemplos de ecuaciones diferenciales ordinarias son:
[1] y 0 (t) = y(t) [ecuación que rige la desintegración radiactiva]
[2] y 0 (t) = by(t)[M y(t)] [describe la evolución de una población animal]
[3] (1 t 2 ) 00 (t) 2t 0 (t) + p(p+1) (t) = 0 [ecuación del Legendre]
[4] 00 (t) + d sen[ (t)] = 0 [ecuación del péndulo]
[5] (t) + (t) = 0 [ecuación de las vibraciones de una viga]
Y son ecuaciones en derivadas parciales, por ejemplo:
[6] 2 + 2 = 1 , con = ( , y) [ecuación eikonal o de la óptica geométrica]
y

[7] t k[ + yy ] = F( , y, t) , = ( , y, t) [ecuación del calor en el plano]


[8] tt c2 = F( , t) , con = ( , t) [ecuación de la cuerda vibrante]
(en las ecuaciones anteriores, , b , M , p , d , , k y c son constantes
y las funciones F son conocidas).

Se llama orden de una ecuación al orden más alto de las derivadas que aparecen
en ella. Así, [1] y [2] y la EDP [6] son de primer orden; [3] y [4] y las EDPs [7] y
[8] de segundo orden, y la ecuación [5] es de cuarto orden. Una ecuación es lineal
cuando las funciones incógnitas y sus derivadas sólo aparecen como polinomios de
grado uno. Según esto, son lineales [1], [3], [5], [7] y [8] (aunque las F de las dos
últimas sean lo complicadas que se quiera) y no lo son las otras tres, [2], [4] y [6].
Solución de una EDO de orden n es una función, n veces derivable, que al ser
llevada a la ecuación la convierte en una identidad. Así, y(t) = e t es solución de
[1] pues y 0 (t) = e t= y(t) . Más aún, también lo es toda función y(t) = Ce t
para cualquier constante C . A esta expresión, que, como veremos, recoge todas
las soluciones de la ecuación, se le llama solución general. Para precisar una
solución particular será necesario imponer además alguna condición inicial
(al conjunto de la ecuación y el dato inicial se le llama problema de valores
iniciales). Para [1], de primer orden, basta imponer el valor de la solución en un
instante t dado: por ejemplo, y(0) = 7 determina y(t) = 7e t . La solución general
de una EDO de orden n contendrá n constantes arbitrarias y deberemos dar n
datos iniciales (para [5], los valores de , 0 , 00 y 000 en t = 0 o en otro t = to ;
[5] más esos 4 datos será allí el problema de valores iniciales). [Las condiciones
para aislar una solución única de una EDP son más complicadas y variadas].
Aunque sería nuestro principal deseo ante cualquier ecuación diferencial, hallar
su solución general sólo será posible en contadas ocasiones (incluso para
las EDOs de primer orden; será más difícil cuanto mayor sea su orden, más para las
ecuaciones no lineales, y más aún para una EDP). Parte de la teoría de ecuaciones
diferenciales (la más desarrollada en estos apuntes) describe los escasos métodos
de resolución. Pero otra parte importante se dedica a obtener información sobre
las soluciones de una ecuación sin necesidad de resolverla: ¿cuándo tiene un
problema de valores iniciales solución única?, ¿qué aspecto tiene la gráfica de
las soluciones?, ¿cómo se comportan asintóticamente?, ¿cómo calcular (con un
ordenador) sus valores aproximados?, ...

1
Estos apuntes estudian las EDOs. El capítulo 1 se dedica a las ecuaciones de
primer orden y 0 = ƒ (t, y(t)) . Comienza describiendo los escasos métodos elemen-
tales de integración y pasa pronto al resto de su teoría: dibujo aproximado de las
soluciones, existencia y unicidad (si las funciones que aparecen en la ecuación son
discontinuas o no derivables puede que no haya solución o que haya más de una
satisfaciendo un dato inicial), prolongabilidad (¿en qué intervalo está definida ca-
da solución?), estabilidad (¿se parecen entre sí las soluciones con datos iniciales
próximos para t grande?), ecuaciones autónomas (las de la forma y 0 = ƒ (y(t)) ) y
cálculo numérico.
El capítulo 2 trata de los sistemas de n ecuaciones de primer orden y de
las ecuaciones de orden n sobre los que más información se puede obtener y
que más veces son resolubles: los lineales. Primero se generalizan las propiedades
vistas de las ecuaciones de primer orden. Luego se tratan, para ir fijando ideas, los
sistemas de 2 ecuaciones lineales y las ecuaciones lineales de orden 2 (siempre
resolubles si los coeficientes son constantes). Se pasa después al orden n general
(se podrán resolver ya menos veces), se estudia su estabilidad y se introduce la
técnica de resolución mediante transformadas de Laplace. Hay una breve sección
sobre soluciones periódicas de lineales.
El capítulo 3 describe cómo resolver las EDOs lineales de segundo orden con
coeficientes variables utilizando series de potencias (único método posible en
la mayoría de las ocasiones), en torno a los llamados puntos regulares y a los
singulares regulares, incluido el llamado punto del infinito. Se aplica este método
a tres ecuaciones particulares de interés físico: la de Legendre, la de Hermite y la
de Bessel.
El capítulo 4 estudia los dibujos (llamados mapas de fases) de las proyeccio-
nes sobre un plano de las soluciones de los sistemas de dos ecuaciones autónomas,
sistemas en los que casi nunca se puede hallar su solución general (pero muchas
de las propiedades de las soluciones estarán a la vista en el mapa de fases). Tras
tratar las propiedades generales, clasifica los mapas de fase en las cercanías de
los puntos proyección de soluciones constantes (basándose en los dibujos sencillos
de los sistemas lineales), trata un tipo concreto de sistemas (los exactos) y acaba
analizando casos dudosos de la clasificación citada.

2
1. Ecuaciones de primer orden
Este capítulo está dedicado a las ecuaciones diferenciales ordinarias de primer
orden con la variable despejada, es decir, a las ecuaciones

[e] y 0 (t) = ƒ (t, y(t)) , o como usualmente se escriben, [e] y 0 = ƒ (t, y)

(utilizaremos en la teoría la notación y(t) , intermedia entre las más usuales y( ) ó


(t) , pues la y siempre aparece como variable dependiente y la t como variable
independiente).
Primero intentaremos resolver [e]. Esto se consigue en muy escasas ocasiones,
incluso para estas ecuaciones de primer orden, las más sencillas de todas. En la
sección 1.1 hallaremos la solución de los pocos tipos de ecuaciones resolubles:
separables, lineales, exactas y otras que se pueden reducir a ellas mediante cam-
bios de variable (homogéneas y 0 = ƒ (y/ t) , de la forma y 0 = ƒ ( t+ by) , de Bernouilli,
de Riccati, factores integrantes...).
Dedicaremos el resto del capítulo a obtener información sobre las soluciones de
[e] sin necesidad de resolverla. Como cada una de ellas es una función y(t) , el
conjunto de las soluciones de [e] describirá una familia de curvas en el plano ty
(una para cada constante arbitraria C ). En la sección 1.2 veremos como hacer un
dibujo aproximado de estas curvas a partir del ’campo de direcciones’, conjunto
de segmentos con pendiente proporcionada por la ƒ (t, y) . Describiremos, en varios
ejemplos, cómo dibujar este campo a través de las llamadas ’isoclinas’, cómo hallar
posibles rectas solución y localizar los puntos de inflexión..., e introduciremos el
concepto de ’curva integral’.
En la sección 1.3 veremos la teoría de existencia y unicidad. Para un problema
de valores iniciales (es decir, para una ecuación y un dato inicial dados):
ß
y 0 = ƒ (t, y)
[P]
y(to ) = yo

el teorema de existencia y unicidad (TEyU) asegurará que si la ƒ y la derivada


parcial ƒy son continuas en un entorno del punto (to , y0 ) existirá una única so-
lución y(t) de [P], definida al menos en un pequeño intervalo que contiene a to
(gráficamente, por ese punto pasará una única curva solución). Si la ƒ no es tan
regular, podría no haber solución o existir más de una. Por ejemplo, las funciones
y ⌘ 0 e y = t 3 son soluciones distintas de la ecuación y 0 = 3y 2/ 3 que cumplen el
dato inicial y(0) = 0 ( ƒy no es continua en y = 0 ). Más complicado será determi-
nar si el máximo intervalo en que dicha solución está definida es finito o infinito
(prolongabilidad). Es posible, incluso para ecuaciones en las que ƒ tenga mu-
chas derivadas en todo el plano, que una solución no esté definida para todo t .
Por ejemplo, la solución única de y 0 = y 2 con y( 1) = 1 , que es y = 1/ t , sólo está
definida en ( , 0) [ y = 1/ t define otra solución distinta para (0, ) ].
En la 1.4 veremos que si ƒ es buena la solución de [P] se parecerá siempre,
cerca de to , a la de los problemas obtenidos variando un poco el dato inicial yo .
Pero no siempre las soluciones con datos próximos siguen cerca de ella en todo
(to , ) [cuando lo hacen, la solución de [P] se dirá estable, y asintóticamente
estable si además la diferencia entre soluciones tiende a 0 cuando t ! ]. Por
ejemplo, las soluciones y ⌘ 0 e y = yo et de y 0 = y , con yo muy pequeño, que
son muy próximas cerca de t = 0 , son muy distintas para grandes valores de t . Al
estudio de la estabilidad (en general complicado), en especial para las ecuaciones
lineales (para ellas es fácil), está dedicada principalmente la sección.

3
La sección 1.5 estudia las llamadas ecuaciones autónomas y 0 = ƒ (y) sobre las
que es posible conseguir muchísima información sin conocer su solución: haremos
fácilmente su dibujo aproximado hallando sus soluciones constantes y estudiando
el signo de ƒ (y) , y de él se deducirán inmediatamente, por ejemplo, las propie-
dades asintóticas de sus soluciones (para ecuaciones no autónomas, de un dibujo
no se deduce la estabilidad). La sección nos dará, también, algunas ideas que se
generalizarán en el estudio de los sistemas autónomos del capítulo 4.
En la sección 1.6 describiremos los más sencillos métodos numéricos progra-
mables (Euler, Euler modificado y Runge-Kutta), que (disponiendo de un ordenador)
permiten hallar con bastante aproximación los valores numéricos de soluciones de
problemas de valores iniciales. Aunque en estos apuntes ocupan un lugar secun-
dario, no olvidemos que, como la mayoría de las ecuaciones diferenciales son no
resolubles, será en el futuro necesario acudir a ellos (y a otros más precisos) en mu-
chas ocasiones. Pero antes utilizarlos, convendrá hacerse una idea cualitativa de
las soluciones (¿cómo deben ser las soluciones numéricas que nos salgan?, ¿serán
estables?, ¿se irán a infinito en tiempo finito?, ...).

4
1.1 Métodos elementales de resolución

Ecuaciones separables.
p(t)
Son las que se pueden escribir en la forma [s] y 0 = q(y) .
R R
Entonces q(y)dy = p(t)dt + C y si podemos hallar P y Q primitivas de p y q :

Q(y) = P(t) + C .

Si pudiésemos despejar y de la última ecuación obtendríamos explícitamente la


solución general; en caso contrario se diría que la solución viene dada implícita-
mente. Se dice que una ecuación es resoluble si se puede expresar su solución
en términos de primitivas (aunque sean no calculables; según esto, una ecuación
separable, siempre es resoluble). Para determinar la constante arbitraria C que
aparece en la solución general necesitaríamos imponer una condición inicial.

R R 1 1 2 1/ 2
Ej 1. y 0 = ty 3 ! y 3 dy = t dt + C ! 2
y 2 = 2
t + C ! y = ±[ C t2 ] ,

solución general (hemos llamado C = 2C ; a partir de ahora, como se hace normal-


mente por comodidad en la escritura, no cambiaremos el nombre de las constantes
arbitrarias que nos vayan apareciendo: todas ellas serán C ).
Hallemos las soluciones que cumplen dos datos iniciales distintos (mientras no estudie-
mos existencia y unicidad, nos preocuparemos poco de si las funciones obtenidas son las
únicas que los satisfacen):
⇥ ⇤ 1/ 2
y(0) = 1 ! 1 = ±[ C ] 1/ 2 ! C = 1 ! y = 1 t 2
1/ 2
pues, evidentemente, sólo nos sirve el signo + de la raíz y(0) = 1 ! y = [ 1 t2 ] .
Observemos que esta solución sólo está definida en el intervalo ( 1, 1) .

y(0) = 0 ! 0 = ±[ C ] 1/ 2 que no se satisface para ningún C .

Pero es claro que y ⌘ 0 satisface la ecuación y esa condición inicial. No es raro que en
el proceso de cálculo desaparezca alguna solución. El teorema de existencia y unicidad
será de mucha ayuda en esos casos.

R R R
Ej 2. y 0 = ey t2 ! e y dy = e t 2 dt +C ! e y=C
2
e t dt (no calculable) !
î R 2
ó
y = ln C e t dt .
R
El símbolo designa cualquiera de las primitivas del integrando. Si queremos imponer
algún dato inicial debemos fijar una de ellas poniendo límites a la integral. Por ejemplo,
la solución que cumple y(0) = 7 es:
î Rt 2
ó î Rt 2
ó
y = ln C 0
e s ds ! 7 = ln[ C 0] ! y = ln e 7 0
e s ds ,

función perfectamente definida (no sería demasiado complicado obtener alguna infor-
mación sobre ella).

Hay ecuaciones que no son de la forma [s], pero que se convierten en ecuacio-
nes separables mediante un cambio de variable dependiente. Los dos tipos
fácilmente identificables son:

5
y
Ecuaciones homogéneas: y0 = ƒ t
.

y
Se convierten en separables haciendo z = t , pues

z0 R
y = tz ! y 0 = tz 0 + z = ƒ (z) ! ƒ (z) z
= 1t ! dz
ƒ (z) z
= ln |t|+ C

t 3 y+y 4 y y 4 3
Ej 3. y 0 = t4
= t
+ t ! tz 0 + z = z+ z 4 ! z 3 =C 3 ln |t| = yt 3 ! y = ⇥ t
⇤1/ 3 .
z=y/ t C 3 ln |t|

[Las homogéneas típicas son aquellas en que ƒ (t, y) es un cociente de polinomios


homogéneos del mismo grado].

Ecuaciones del tipo: y 0 = ƒ ( t + cy) , con y c constantes.


R dz
Se hace z = t + cy y se tiene: z 0 = + cy 0 = + cƒ (z) ! +cƒ (z)
= t+C .

R z 2 dz
Ej 4. y 0 = (y+ 2t) 2 1 z = y+ 2t ! z 0 = z 2+1 ! =z rct n z = t + C !
1+z 2

y+ t rct n(y+ 2t) = C . No se puede despejar y .

La solución con y(0) = 1 viene dada implícitamente por y+ t rct n(y+ 2t) = 1 4
.

Ecuaciones lineales.
Son de la forma [l] y 0 = (t)y+ ƒ (t) .

Si ƒ (t) ⌘ 0 la ecuación se dice homogénea: [h] y 0 = (t)y ,


y la sabemos resolver por ser separable:
R R R
ln |y| = (t)dt + C ! |y| = eC e (t)dt
! y = Ce (t)dt

(al sustituir eC por C hemos incluido las soluciones positivas y negativas del valor
absoluto y además la solución y ⌘ 0 que nos habíamos comido al dividir por y ).
Para [l], ecuación no homogénea, hallamos su solución sustituyendo la C de la
solución general de la homogénea por una función C(t) (es el llamado método
de variación de las constantes que es aplicable en situaciones más generales).
Llevando nuestra conjetura a [l]:
R R R R
y = C(t)e (t)dt
! C0 e + Ce = Ce +ƒ
R R R
! C(t) = C0 (t)dt = e (t)dt
ƒ (t)dt + C

R R R R
(t)dt (t)dt (t)dt
Así pues, la solución general de [l] es: y = Ce +e e ƒ (t)dt .

Esta es la llamada fórmula de variación de las constantes. Nos irán apare-


ciendo en el capítulo 2 otras con el mismo nombre y de aspecto similar (allí las
exponenciales serán matrices). Aunque para resolver una ecuación lineal concreta
se podría repetir el proceso de variar constantes, es conveniente memorizar esta
fórmula ya que se utiliza muy a menudo.
Observemos que la solución general de una ecuación lineal no homogénea resulta
ser la suma de la solución general de la homogénea y de una solución
particular de la no homogénea (lo mismo sucederá en las lineales de mayor
orden). Si de alguna forma somos capaces de encontrar una solución cualquiera
de [l], nos ahorramos el cálculo de alguna integral.

6
Si en vez de la solución general de [l] lo que queremos es la solución particu-
lar que satisface y(to ) = yo (aunque podríamos simplemente hallar la solución
general e imponer el dato), es inmediato comprobar que :
Rt
(t)dt
Rt
(t)dt
Rt Rs
( )d
y = yo e to +e to e to ƒ (s) ds
to

es la solución del problema de dicho problema de valores iniciales.

Si (t) ⌘ , [l] se llama ecuación lineal con coeficientes constantes y su solución


general adopta la forma:
R
y = Ce t+ e t e t ƒ (t) dt .

y
Ej 5. y0 = t
+ et con y(1) = 1 .
R
Para aplicar la fórmula de variación de las constantes, como e aparece 3 veces,
empezaremos siempre calculando esta exponencial:
R R
1 C et y(1)=1 et
+ 1t C 1
1
e =e ln t = eln t = ! y= tet dt = + et ! y= + et .
t t t t t t

O si queremos aplicar la fórmula para el problema de valores iniciales:


R t dt Rt t

1 t
= e ln t = 1t ! y = 1· 1t + 1t 1 ses ds = 1t + et et .

Ej 6. Hallemos la solución general de y 0 = 2y 6 .

Hay una solución que salta a la vista: yp = 3 .

Como la general de la homogénea es Ce2t , la solución general buscada es y = Ce2t + 3 .


R
O bien, con la fórmula de variación de las constantes: y = Ce2t e2t 6e 2t dt = Ce2t + 3 .

[En el capítulo 2 describiremos cómo buscar soluciones particulares de las


ecuaciones lineales de cualquier orden con coeficientes constantes tanteando
de forma adecuada a la forma del ‘término independiente’ ƒ (t) ].

Hay otras ecuaciones que se pueden reducir a lineales:

Ecuación de Bernouilli: y 0 = (t)y+ ƒ (t)y p , p 6= 1

( p cualquier real, entero o no; si p = 1 , es lineal).

O sea, y p y0 = (t)y 1 p + ƒ (t) . Haciendo z = y1 p se convierte en

z 0 = (1 p) (t)z + (1 p)ƒ (t) , que es lineal y ya hemos visto cómo resolverla.

2y t
Ej 7. y0 = t + y que es de Bernouilli con p = 1 .

Mejor que recordar las expresiones de arriba escribamos:

2yy 0 = 4t y 2 + 2t , para que aparezcan explícitamente la z y la z 0 . Haciendo z = y 2 :


R R 2dt p
4z
z0 = t
+ 2t lineal, con e = e4 ln t = t 4 ! z = Ct 4 + t 4 t3
= Ct 4 t 2 ! y = ±t Ct 2 1 .
î z=y/ t R 2z R 2dt ó
También es homogénea: ! tz 0 + z = 2z+ 1z ! = + C ! z 2 = Ct 2 1 =
y 2 " .
z 2 +1 t t

7
Ecuación de Riccati: y 0 = (t)y+ b(t)y 2 + ƒ (t) .

Todas las ecuaciones anteriores eran resolubles (aunque pudieran aparecer primi-
tivas no calculables). La de Riccati no lo es en general. Sólo se puede resolver si
se conoce una solución particular yp de la ecuación (y eso casi nunca será
posible).

En ese caso, el cambio = y yp la convierte en una Bernouilli con p = 2 :

0 = y 0 yp0 = [ (t)+ 2b(t)yp (t)] + b(t) 2 + [ (t)yp (t)+ b(t)yp2 (t)+ ƒ (t) yp0 (t)]
⇥ ⇤
0 = (t)+ 2b(t)yp (t) + b(t) 2 (ya que yp es solución),

y sabemos que esta ecuación para la se convierte en lineal con z=y 1 .

No hay métodos sistemáticos de búsqueda de soluciones particulares de ecuacio-


nes de Riccati. Si en la ecuación aparecen polinomios, se puede intentar tantear
con polinomios; si funciones trigonométricas, podemos probar con senos y cose-
nos... pero lo normal es que estos tanteos no conduzcan a nada.

Ej 8. (1+ t 3 ) y 0 + 2ty 2 + t 2 y+ 1 = 0 .

Es de Riccati ya que hay término en y , término en y 2 y una ƒ (t) . Soluciones constantes


salta a la vista que no tiene. Lo siguiente que podemos tantear en este caso son las
rectas más sencillas y = At , pues vemos que quedarán potencias t 3 y constantes:
y = At ! A+ At 3 + 2A2 t 3 + At 3 + 1 = 0 ! debe ser a la vez A+ 1 = 0 y 2A+ 2A2 = 0 .
Casualmente se dan ambas igualdades si A = 1 , con lo que y = t es solución particular.
[Si en vez del último 1 de la ecuación hubiese, por ejemplo, un 2 , ya no sería resoluble].
Haciendo = y+ t debe desaparecer el término independiente y convertirse en Bernouilli:
2t t2 1 3t 2 2t
0 = y0 + 1 = 1+t 3
( t)2 1+t 3
( t) 1+t 3
+1 = 1+t 3 1+t 3
2

3t 2 2t C 1 R C+t 2
Con z = 1 se llega a la lineal z 0 = z + !z= + 2tdt = .
1+t 3 1+t 3 1+t 3 1+t 3 1+t 3

1 1 Ct
Y deshaciendo los cambios obtenemos la solución general: y = z
t= C+t 2
.

Impongamos datos iniciales y veamos cuántas soluciones los satisfacen:


1
y(1) = 1 ! C = 0 , y = t2
(podíamos haber impuesto (1) = 2 ó z(1) = 12 ).
y( 1) = 1 ! 1+ C = 1+ C , toda solución lo cumple (ya estudiaremos existencia y unicidad).

Ecuaciones exactas.
Consideremos una ecuación escrita en la forma: [e] M(t, y)+ N(t, y) y 0 = 0 .

[e] es exacta si existe una función de dos variables U(t,y) tal que M = Ut , N = Uy

[es decir, [e] lo es si existe función potencial U para el campo vectorial (M, N) ].

En ese caso la solución general de [e] es U(t, y) = C , pues para cualquier función
derivable y(t) definida implícitamente por esta expresión es:
d
0= dt
U(t, y(t)) = Ut + Uy y 0 = M+ N y 0 .

Un resultado clásico de cálculo asegura que para que U exista debe ser My ⌘ Nt .

Una vez comprobado que U existe se puede hallar como en el ejemplo siguiente.

8
3t 2 +6ty 2
Ej 9. y 0 = , o sea, (3t 2 + 6ty 2 ) + (6t 2 y+ 4y 3 )y 0 = 0 . Es exacta: My = 12ty = Nt .
6t 2 y+4y 3

Ut = 3t 2 + 6ty 2 ! U = t 3 + 3t 2 y 2 + p(y)
La U debe cumplir: ! U = t 3 + 3t 2 y 2 + y 4 .
Uy = 6t 2 y+ 4y 3 ! U = 3t 2 y 2 + y 4 + q(t)

Y la solución general en forma implícita es t 3 + 3t 2 y 2 + y 4 = C .

Si [e] no es exacta podríamos intentar encontrar una función g(t, y) , factor inte-
grante de [e] , tal que gM+ gNy 0 = 0 sí sea exacta. Debería entonces cumplirse:
⇥ ⇤
[ gM] y ⌘ [ gN] t , es decir, [•] Ngt Mgy = My Nt g

ecuación en derivadas parciales bastante más complicada que la inicial. Encontrar


la g es, pues, un problema irresoluble en general, pero posible en ciertos casos
especiales. Por ejemplo, si resulta ser [ My Nt ]/ N una función que sólo depende
de t , [e] admite un factor integrante g(t) que es únicamente función de la
variable t , pues [•] pasa a ser una ecuación ordinaria (lineal homogénea) que
sabemos resolver :
R
My Nt [ My Nt ]/ N
g0 (t) = N
g(t) ! g(t) = e (eligiendo C = 1 ).

Análogamente se ve que si [ My Nt ]/ M es función de y hay factor integrante


g(y) que depende de y .

Observemos que es mucha casualidad que [ My Nt ] sea idénticamente cero, o que al dividir
esa expresión por N o por M quede una función sólo de una variable; pocas ecuaciones se-
rán, pues, exactas, o admitirán factores integrantes g(t) ó g(y) . Podría pensarse en buscar
factores integrantes de la forma, por ejemplo, g(t+y) ó g(ty) (se obtendrían entonces para
la g ecuaciones ordinarias como antes), pero no merece la pena el esfuerzo, porque, como
se ha dicho, lo normal es que una ecuación sea no resoluble.

Ej 10. (t t 2 y)y 0 y = 0 M = y , N = t t 2 y , My Nt = 2ty 2 6⌘ 0 . No es exacta.


My Nt 2 2 ln t 1 1 y
Sin embargo, N
= t
! g(t) = e = t2
! t
y y0 t2
= 0 es exacta.
y 1 2
Siguiendo como en el ejemplo anterior se tiene la solución general: t 2
y =C .

Podemos también solucionar esta ecuación (y bastantes más) de una forma diferente:
utilizando el hecho de que la derivada de la función inversa es la inversa de la derivada de
la función (si ambas son no nulas). Se observa que es complicada la expresión obtenida
al despejar la dy(t)/ dt = y/ (t t 2 y) , pero que en cambio es integrable la ecuación que se
obtiene al mirar la t como función de y :
d(t(y)) z=1/ t d(z(y)) R y
dy
= yt t 2 (Bernouilli) ! dy
= yz + 1 ! z = C
y
+ 1y y dy = C
y
+ 2 = 1t .

9
1.2 Dibujo aproximado de soluciones
Consideremos la ecuación [e] y 0 = ƒ (t, y) .

Cada una de sus soluciones es una función y(t) cuya gráfica tiene en cada uno
de sus puntos (t, y(t)) la pendiente dada por la conocida función ƒ (t, y) . Podemos
asociar a cada punto (t, y) del plano un segmento de pendiente ƒ (t, y) (a este
conjunto de segmentos se le llama campo de direcciones de [e]). Una vez dibu-
jado dicho campo (lo que se puede hacer sin resolver la ecuación), las soluciones
de [e] serán las curvas tangentes en cada punto a los segmentos del campo
de direcciones.
Para dibujar este campo de forma organizada conviene, si es posible, trazar algu-
nas isoclinas, es decir, curvas ƒ (t, y) = K en que la pendiente asignada por ƒ es
constante (si la ƒ es complicada, también lo serán las isoclinas y no las podre-
mos pintar), para unos cuantos valores de K . En particular intentaremos dibujar la
isoclina con K = 0 (segmentos horizontales, posibles máximos y mínimos de las
soluciones) y la de ‘K = ’ (segmentos verticales, en esos puntos las y(t) no se-
rán derivables). En el peor de los casos, aunque sea imposible pintar las isoclinas,
podremos ir dibujando segmentos del campo en diferentes puntos (t, y) .
Se puede dar más información sin necesidad de resolver [e]. Como las zonas de
crecimiento y decrecimiento, regiones con ƒ (t, y) > 0 y ƒ (t, y) < 0 . O las curvas
de puntos de inflexión, viendo dónde se anula y 00 , calculable a partir de ecuación:
y 00 = ƒt (t, y)+ ƒy (t, y)ƒ (t, y) = 0 . Buscaremos rectas solución de diferentes formas.
El TEyU nos dirá dónde podrán tocarse las soluciones...
Aún cuando [e] sea resoluble, las ideas anteriores suelen dar más datos sobre el
dibujo de sus soluciones que la expresión analítica (tal vez complicada, o definida
implícitamente, o en función de primitivas,...).

Ej 1. Dibujemos aproximadamente las soluciones de y 0 = t 2y = K ! y = 2t K


2
.
1 t
Las isoclinas son, pues, rectas de pendiente 2
, es decir, de la forma y = 2
+b .

Dibujamos algunas de estas isoclinas rectas


y
para diferentes K y sobre cada una pintamos 1/2
segmentos de pendiente K :
1 1 3
K= 1, 2
, 0, 2
, 1, 2
(cortan t = 0 respectivamente en
1 1 1 1 3 t
y= 2
, 4
, 0, 4
, 2
, 4
).
[O bien tenemos esas rectas dando los valores
b = 12 , 1
4
, 0, 1
4
, 1
2
, 3
4
].
1
–1/2
Para K = , la recta y los segmentos sobre ella
2
tienen la misma pendiente y por tanto esa iso-
clina es recta solución de la ecuación (pues,
desde luego, es tangente al campo de direcciones en cada punto). Aunque parece que
las soluciones no cambian de concavidad, hallamos:
y 00 = 1 2y 0 = 1 2t + 4y = 0 ! y = 2t 1
4
, que es la recta solución ya calculada.
Si [e] tiene rectas solución, aparecerán al hacer y 00= 0 , pues (mt + b)00= 0 .
Basándonos en los segmentos dibujados podemos hacernos una idea de las soluciones.
Parece que todas tienden hacia la recta solución. Por ser t 2y una función tan buena, el
TEyU nos asegurará que, sin embargo, dos soluciones distintas nunca llegarán a tocarse.
Podemos en este caso resolver la ecuación (es lineal) y comprobar (este ejemplo no es
muy práctico, más interés tiene el dibujo aproximado de ecuaciones no resolubles). Bas-
tará sumar la solución general de la homogénea a la particular que hemos encontrado:
R
y = 2t 14 + Ce 2t (a lo mismo llegaríamos con la fórmula: y = Ce 2t + e 2t te2t dt ).

10
Es inmediato comprobar que las isoclinas de las ecuaciones de la forma y 0 = ƒ ( t + cy)
(la anterior es una de ellas) siempre son rectas paralelas (de la forma y = t/ c + b ).
En particular, esto ocurre para las ecuaciones autónomas y 0 = ƒ (y) , donde son las rectas
horizontales y = b . Veremos en 1.5 que dibujar a grandes rasgos las soluciones de las
autónomas será muy fácil, pero si queremos precisar más el dibujo necesitaremos las ideas
de esta sección, que son las que usaremos en el siguiente ejemplo:

4 4
Ej 2. y 0 = y y2
. Las isoclinas son las rectas: y = b ! y 0 = b b2
=K .

Si K = 0 ( b = 41/ 3 ⌘ b ) tenemos una solución 3 k=23/9


constante. Por encima de ella crecen ( y 0 > 0 ) y
2 k=1
por debajo decrecen. Sobre y = 0 ( K = ) las
k=0
y(t) no serán soluciones (no son derivables). k=–3
1
(y 3 +8)(y 3 4)
y 00 = [ 1+ y83 ]y 0 = y3 k=!
0
da la concavidad: las soluciones son [ en las k=–5
–1
regiones del plano con y > b ó y 2 ( 2, 0) , y
k=–3
son \ si y 2 (0, b ) o si y < 2 . Además, como –2
debía ocurrir, y 00 = 0 nos da la solución y = b . k=–31/9
–3
La solución es también calculable (ecuación separable):
R 3y2 dy 1/ 3
y3 4
= 3t + C ! y = [ 4+ Ce3t ]
Esto aporta poco al dibujo aproximado, pero da datos que no se deducen de él: las
soluciones con y > b están definidas t , las soluciones tienden hacia b si t ! ,...

2t y
Ej 3. y0 = t y
= K ! y = 21 K
K
t. Son rectas pasando por el origen.
y
y
Las isoclinas de toda ecuación homogénea y0 = ƒ ( t )
son las rectas y = mt , pues ƒ (t, mt) = ƒ (m) = K .
Pintamos diferentes isoclinas para varios K :
K = 0 ! y = 2t ; K = 1 ! t = 0 ; K = 1 ! y = 32 t ; . . .
O bien, como las isoclinas son y = mt , es más cómodo t
dibujar la recta de pendiente m que queramos y trazar
sobre ella segmentos de pendiente K = ƒ (t, mt) = 21 m
m
:
m=0 ! K =2 ; m=1 ! K = ; m = 1 ! K = 32 ; . . .
Una recta con K = ƒ (m) = m sería solución (aquí no
hay). Como no parece haber inflexión, no hallamos y 00 .
Las curvas tangentes al campo parecen cerradas⇥ oy ⇤espirales
⇥ poco abiertas. Resolvemos
y⇤
para salir de dudas. Ecuación homogénea y 0 = 2 t / 1 t o exacta (2t y)+(y t)y 0 = 0 .
Por los dos caminos se llega a y 2 2ty + 2t 2 = C . Las soluciones son elipses. Con más
p p
propiedad, para cada C esta expresión define dos soluciones distintas en C, C :
p p ⇥ p p ⇤ p
2
y = t+ C t , y = t 2
C t funciones definidas en C, C y no derivables en ± C .

Ampliando el concepto de solución, llamaremos curva integral de [e] a una curva


tangente en cada punto al campo de direcciones, aunque no esté descrita por una
única función y(t) o tenga tangente vertical en algún punto (como las elipses de
antes). De forma más precisa, llamemos:
dt 1
[e*] dy = ƒ (t,y)

a la ecuación obtenida mirando la t como función de y . Una curva integral de


[e] será una curva formada por soluciones y(t) de [e], por soluciones t(y)
de [e*] o por ambas. Como la derivada de la función inversa es la inversa de la
derivada es claro que [e] y [e*] tienen las mismas curvas integrales, aunque puede
haber soluciones de una que no lo sean de la otra. Las elipses del ejemplo son
funciones derivables t(y) (soluciones, por tanto de [e*]) cerca de la isoclina y = t
de pendiente ; cerca de y = 2t , donde hay buenas soluciones y(t) , no se puede
poner la t como función derivable de y .

11
Ej 4. y 0 = y 2 t = K ! Las isoclinas son parábolas: t = y 2 K . Dibujamos algunas.
La de K = 0 da los máximos de las soluciones (como y
y 0 > 0 si t < y 2 e y 0 < 0 si t > y 2 las soluciones crecen a 1
su izquierda y decrecen a su derecha). Hallando y 00 : 3 2 0 –1
1
y 00 = 2yy 0 1= 2y 3 2ty 1 = 0 ! t = y2 2y
obtenemos la curva de puntos de inflexión (a pun- t
tos en la figura), curva en la que la t ! + ( )
cuando y ! 0 (0+ ), que se acerca a t = y 2 si
y ! ± , y cuyo mínimo local (para la t ) se pue-
de calcular. Con estos datos dibujamos las solu-
ciones aproximadas de esta ecuación (que no es
resoluble elementalmente).

p p ⇥ ⇤
Ej 5. y 0 = y + t = K ! Isoclinas: t = K y o rama decreciente de y = (t K)2 .

Ecuación definida sólo en el semiplano y 0 .


p
Las soluciones crecen si t y y decrecen
en el resto de y 0 .
p
y +t p
y 00 = 2py + 1 ! t = 3 y inflexión.
La ecuación no es de ninguno de los tipos re-
p
solubles de 1.1, pero hacemos z = y a ver
qué pasa (en general los ‘cambios ingeniosos’
no nos llevan a nada, pero aquí sí):
p =z/ t
z = y ! z 0 = z+t
2z
(ecuación homogénea) ! ( 1)2 (2 + 1) = tC3
p
p 2 p t= y
! (z t)2 (2z+ t) = C = t y t+2 y =0 ! p
t= 2 y

t2 , t 0
De aquí sale una solución que pasa por (0, 0) : y = .
t2 / 4 , t  0
Los dibujos aproximados de ecuaciones homogéneas son sencillos:
m+1 m+1 1
ƒ (t, mt) = 2m
! m = 1 horizontal, m = 0 vertical, 2m
= m ! m = 1, 2
soluciones.
Como la y es el cuadrado de la z , el dibujo de la izquierda corrobora el dibujo de arriba.

En el último ejemplo las isoclinas van a ser complicadas, y tendremos que dibujar segmentos
en diferentes puntos del plano tras hallar su ƒ (t, y) organizándonos de otra forma:

Ej 6. y 0 = y 2 (cos t)y .
2
La única isoclina sencilla es la de
1
K = 0 que da la solución y = 0 y la
curva y = cos t . Las soluciones de-
0 !
crecen si y(y cos t) < 0 , o sea, en -!
las zonas grises (y es y 0 > 0 fuera).
-1
Haciendo y 00 = 0 se obtiene una
curva difícil de dibujar (y, claro, la -2
recta solución y = 0 ).
Parece adecuado dibujar segmentos sobre las rectas t = k2 , k 2Z :
Ä ä
[ 2k 1]
ƒ 2
, y = y 2 ; ƒ (2k , y) = y 2 y ; ƒ [ 2k 1] , y = y 2 + y .

Con todo lo anterior podemos ya esquematizar las soluciones.


La ecuación es de Bernouilli y resoluble:
R R 1
y=z 1 ! z 0 = (cos t)z 1 , z = esen t C e sen t dt , y=e sen t C e sen t dt ,
pero, al ser la primitiva no calculable, es complicado obtener información a partir de
esta solución sobre el dibujo.

Seguiremos haciendo dibujos aproximados en las secciones posteriores.

12
1.3 Existencia, unicidad, prolongabilidad
ß
y 0 = ƒ (t, y)
Consideremos el problema de valores iniciales [P] .
y(to ) = yo

Supondremos la ƒ definida en un determinado subconjunto D ⇢ R2 y que (to , yo ) 2 D .


Precisamos con detalle la definición imprecisa de solución utilizada hasta ahora:
Una solución de [P] es una función y(t) derivable en un intervalo 3 to tal que
y(to ) = yo y tal que para todo t 2 se cumple que (t, y(t)) 2 D e y 0 (t) = ƒ (t, y(t)) .
Nuestro objetivo es estudiar en qué condiciones hay una única solución de [P]. El
siguiente teorema (de existencia y unicidad, cuyas hipótesis serán, casi siempre,
comprobables a simple vista y cuya larga demostración describiremos más adelan-
te sin demasiados detalles) nos lo va a precisar para casi todas las ecuaciones que
consideremos y para casi todos los datos iniciales que impongamos:
yo+r
Sean ƒ y ƒy continuas en Q = [ to , to +h]⇥[ yo r, yo +r] . Q
Teor 1. Entonces el problema [P] posee una única solución de- yo
finida al menos en un intervalo = [ to , to +d] con d  h .
(o lo mismo para la izquierda de to , sustituyendo yo –r
[ to , to + h] y [ to , to + d] por [ to h, to ] y [ to d, to ] ) to to+d to +h
Observemos que el teorema asegura que existe solución única definida al menos
en un intervalo (lo que se llama solución local) aunque este intervalo podría ser
pequeño (aún menor que la base [ to , to +h] del Q en el que es continua ƒ ). Al final
de la sección nos preocuparemos de cuál es el intervalo máximo de definición de
las soluciones. Uniendo los resultados a izquierda y derecha, podemos abreviar el
teorema y escribir el resultado que aplicaremos en la práctica casi todas las veces:

ƒ y ƒy continuas en un entorno de (to , yo ) ) [P] posee solución única


TEyU.
definida al menos en un intervalo que contiene a to .
Mucho más larga es la demostración (que no daremos, puesto que exige resultados
aún más avanzados de matemáticas) del teorema siguiente (de existencia), que
asegura que si a ƒ se le exige sólo la continuidad se garantiza que hay solución
aunque puede fallar la unicidad:
ƒ continua en un entorno de (to , yo ) ) tiene [P] al menos una solución en
TE.
un entorno de to .

Veamos varios ejemplos que ilustren lo que dicen (y lo que no dicen) los teoremas anteriores:

y 0 = sen t ln[ y 2 + et ]
tiene solución única (que no sabremos
Ej 1. El problema
y(to ) = yo calcular) para todo to y todo yo pues
ƒ y ƒy son continuas en un entorno de (to , yo ) (claramente son continuas en todo R2 ).

y2 1
Ej 2. y0 = t
, y(1) = 1 tiene solución única local, al ser ƒ , ƒy continuas en un entorno
de (1, 1) . Resolvemos e imponemos el dato para ver cuál es. Es separable (o Riccati):
R 2dy y 1 y 1 2 y(1)= 1

y2 1
= ln y+1 = 2 ln t + C ! y+1 = Ct 2 ! y = 1+Ct
1 Ct 2
! 1+ C = 1+ C

¡Ningún C lo satisface! Pero hay una según el TEyU (sin él pensaríamos que no). Se ve
que y ⌘ 1 es la solución perdida en el cálculo. Observemos que esta solución cumple
y(0) = 1 , a pesar de ser ƒ discontinua en (0, 1) [en rigor, y ⌘ 1 no es solución en
t = 0 pues ƒ no existe ahí, pero podríamos definir ƒ (0, y) = 0 ]. Los teoremas son sólo
condiciones suficientes: puede ser ƒ muy mala y haber solución, e incluso ser única.
Podemos observar también que todas las soluciones (excepto y ⌘ 1 ) cumplen y(0) = 1 .

13

y0 = y2
Ej 3. tiene solución única local que es y = 1 bbt ( y = C1 t + dato inicial).
y(0) = b

El Q = [ 0, h] ⇥ [ b r, b + r] del teorema 1 puede ser lo


gordo que queramos [pues ƒ y ƒy son continuas en todo
R2 ]. Sin embargo el d resultante, para b > 0 , puede ser
muy pequeño [por grande que sea h ], pues la solución b
está sólo definida en , 1b [la expresión de la solución 1/b
1 1
0
es válida t 6= b
, pero para t > b
define una solución
1
distinta, definida en ,
]. Si nos fijamos en los b < 0
b
tenemos algo totalmente similar: las soluciones sólo
llegan a la izquierda hasta la asíntota de 1b . Sólo si b = 0 se tiene una solución definida
t : la y ⌘ 0 . Recordemos que el teorema solamente garantiza solución única local.

y 0 = 3y 2/ 3 ƒ = 3y 2/ 3 continua en todo R2 ) existe solución (to , yo ) por el TE.
Ej 4.
y(to ) = yo ƒy = 2y 1/ 3 continua en R2 {y = 0} ) la solución es única si yo 6= 0 .
Cuando yo = 0 , al no estar definida ƒy , puede fallar la
unicidad. Resolviendo e imponiendo y(to ) = 0 obtenemos
y = (t to )3 . Como puede haberla (sin el teorema no se
nos ocurriría), buscamos otra solución con ese dato y la
hallamos sin dificultad: y ⌘ 0 también lo cumple (a las so-
luciones formadas por puntos en los que falla la unicidad
(como esta y ⌘ 0 ) se les llama soluciones singulares y no
suelen estar recogidas por las soluciones generales).
⇢ p
y0 = 3 t y2 p
Ej 5. ( ƒ no existe si t < 0 ). ƒ y ƒy = 6 t y continuas en {t 0} .
y(to ) = yo

Existe solución to 0 . Para to > 0 esto se deduce del TEyU (pues ƒ y ƒy son continuas
en todo un entorno de (to , yo ) , pero para los puntos de la recta t = 0 hay que utilizar el
teorema 1, pues sólo son continuas en un entorno a la derecha de los puntos (0, yo ) .
La ecuación es resoluble (separable) y se puede ver cuáles son estas soluciones:
1 1 yo
y
= 2t 3/ 2 + C ! y = C 2t 3/ 2
, y(0) = yo ! y = 1 2yo t 3/ 2
.

[Que conste que los TEyU no exigen nada a la ƒt (en este ejemplo es discontinua en t = 0
pero no importa)]. [Observemos que, como en el Ej 3, aunque son continuas ƒ y ƒy en
todo el semiplano {t 0} , las soluciones no están definidas en todo [ 0, ) , pues sólo
llegan (salvo la y ⌘ 0 ) hasta la asíntota vertical de t = 1/ (2yo )2/ 3 ].

ß 0 p
y = t( y 1) t
Ej 6. ƒ es continua en {y 0} y ƒy = 2p en {y > 0} ; ƒ no existe si {y < 0} .
y(to ) = yo y

Para yo > 0 el TEyU asegura solución única, pero para yo = 0 no dice nada. El TE tampoco
nos informa sobre si al menos existe solución aunque no sea única en (0, 0) , pues exige
que ƒ sea continua en todo un entorno del punto. No basta que ƒ sea continua en el
punto, o que lo sea (como sucede aquí) en un rectángulo por encima del punto (sí basta
que lo sea en el entorno a la derecha o la izquierda del teorema 1, pero no es el caso).
Para ver qué ocurre en (0, 0) es suficiente, en este ejemplo, analizar el signo de la y 0 :
y 0 = 0 ! y = 1 (recta solución)
y 0 > 0 (crece) en (0, )⇥ (1, ) o en ( , 0)⇥ (0, 1)
y 0 < 0 (decrece) en (0, )⇥ (0, 1) o en ( , 0)⇥ (1, )
Por (0, 0) , por tanto, no puede pasar ninguna solución.
( y ⌘ 0 aquí no satisface, claramente, la ecuación).
[Comprobemos otra vez lo mentirosas que pueden ser las soluciones
generales y los errores que se cometen si uno se fía de ellas. La
ecuación es separable. Integrándola se obtiene:
p p
y + log y 1 = 14 t 2 + C
Parecería que no hay solución con y(0) = 1 (es la única y ⌘ 1 perdida) y que con y(0) = 0
! C = 0 hay una única solución (y acabamos de ver que no existe; la expresión de la
solución con C = 0 se satisfará sólo si y = t = 0 ].

14
Veamos qué conclusiones se pueden sacar de aplicar los TEyU a la
dt 1
‘ecuación equivalente’ [e*] dy = ƒ (t,y) .

Las curvas integrales eran soluciones tanto de [e] y 0 = ƒ (t, y) , como de [e*]. El
TEyU habla de existencia y unicidad de soluciones. Si por un punto pasa una única
solución y(t) de [e] evidentemente pasa también una única curva integral. Pero
por un (to , yo ) tal que en un entorno suyo ƒ ó ƒ / y no sean continuas pero tal
que 1/ ƒ y (1/ ƒ )/ t sí lo sean pasará una única solución t(y) de [e*] y, por tanto,
una única curva integral (que en muchas ocasiones no será solución de [e]). Sólo
puede pasar más de una curva integral por los puntos en que falle el TEyU
tanto para [e] como para [e*] (y en esos puntos no se sabe).
En ocasiones, el análisis de [e*], informa también sobre la existencia o no
de soluciones de nuestra ecuación inicial [e], utilizando argumentos como los
de los siguientes ejemplos.

dy 1 dt
Ej 7. [e] dt
= t 2 +y 2 cuya equivalente es [e*] dy
= t 2 + y 2 (ni una ni otra son resolubles).

El TEyU asegura que hay única solución y(t) de [e] con y(to ) = yo (to , yo ) 6= (0, 0) . Por
(0, 0) , al no tener problemas de unicidad la equivalente, pasa una única curva integral.
Como la solución t(y) de [e*] que pasa por (0, 0) es creciente y su pendiente t 0 (0) = 0
esta curva integral será de hecho también una función y(t) pero con derivada (no es
derivable en t = 0 ). Concluimos que [e] no tiene solución con el dato y(0) = 0.

dy y(y t) t
dt t R e
Ej 8. Sea [e] dt
= t
! [e*] dy
= y(y t)
. Su solución es (Bernouilli): y = .
C t 1 et dt
El TEyU dice que hay única solución y(t) de [e] con y(to ) = yo para todo to 6= 0 y todo
yo , pero no precisa si hay ninguna, una, varias o infinitas satisfaciendo y(0) = yo .
Por su parte [e*] tiene única solución t(y) con t(yo ) = to si yo 6= 0 y si
yo 6= to . En particular hay única t(y) con t(yo ) = 0 , yo 6= 0 . Por tanto, c
d
por cada punto, salvo tal vez por (0, 0) , pasa una única curva d
integral. Por (0, 0) pasan al menos 2: y = 0 y t = 0 (soluciones a ojo
de [e] y de [e*]). Como por (0, yo ) , yo 6= 0 , sólo pasa la curva t = 0 c
(que no es solución de [e]) no hay solución y(t) por esos puntos. d
c
Pero los teoremas no aclaran qué sucede en (0, 0) . Necesitamos más
información. La solución e isoclinas son complicadas. Pero basta analizar crecimiento y
decrecimiento para garantizar que pasan infinitas curvas por (0, 0) [las trazadas a
puntos], pero no podemos decir si son soluciones (podrían tener ahí pendiente infinita).
[De la solución se deduce (es difícil) que y 0 ! si t ! 0 , y así la única solución y(t) por
el origen es y ⌘ 0 , a pesar de no ser la ƒ ni continua (no estar definida) en ese punto].

dy
. ƒy = 13 y dt 1
1/ 3
Ej 9. Sea [e] = ey 2/ 3 ey 1/ 3 . Para su equivalente [e*] =e y 1/ 3 es =0 .
dt dy ƒ t

[e] tiene solución en todo R2 , única en R2 {y = 0} . Como hay solución única t(y)
en todo R2 , en y = 0 la solución es también única. A diferencia del ejemplo 4, aunque
fallaba el TEyU (no el de existencia) en y = 0 , hay solución única ahí. Y a diferencia de
los ejemplos anteriores el considerar la [e*] nos ha dado unicidad y no inexistencia.

Ej 10. Estudiemos la unicidad de los seis ejemplos dibujados aproximadamente en 1.2.


1, 4 y 6, no presentan problemas: solución y(t) única para cualquier (to , yo ) 2 R2 .
No hay solución y(t) para 2 por (to , 0) y para 3 por (to , to ) , to 6= 0 , por razones como
las del ejemplo 7: por esos puntos pasa una única curva integral de pendiente vertical.
Para 3, por (0, 0) , donde ni ƒ ni 1/ ƒ eran continuas, no pasa ninguna curva integral.
Para 5 hay problemas en (to , 0) (no podemos aplicar ni el TE), pe-
ro [e*] tiene solución única t(y) a la derecha de cada (to , 0) , to 6= 0
(con pendiente 6= 0) y, por tanto, hay solución única y(t) (a la de-
recha o izquierda) de ellos. De (0, 0) los TEyU no informan, pero
del dibujo y solución de z(t) se puede concluir que la única solu-
ción que pasa por el origen es la allí calculada.

15
Avancemos hacia el resumen de la demostración del teorema 1. En las hipótesis del
enunciado de un teorema previo que veremos aparece el término que definimos aquí:

Diremos que una ƒ (t, y) es lipschitziana respecto de la y en D ⇢ R2 si existe L


(constante de Lipschitz) tal que |ƒ (t, y) ƒ (t, y )|  L|y y | para todo (t, y), (t, y ) 2 D .

Pedir que una ƒ sea lipschitziana es pedir algo menos que pedir que ƒ y ƒy sean continuas:

ƒ y ƒy continuas en Q ⇢ R2 compacto ) ƒ lipschitziana respecto de la y en Q

Sean (t, y), (t, y ) 2 Q . Aplicando el teorema del valor medio a ƒ , vista como función de y
se tiene que c 2 (y, y ) con: ƒ (t, y) ƒ (t, y ) = ƒy (t, c)[ y y ]  L|y y | , donde L
es el valor máximo de |ƒy | en Q , que existe por ser función continua en el compacto Q .

[( no es cierta (aunque casi todas las ƒ lipschitzianas que aparezcan tengan ƒy continua):
ƒ (t, y) = |y| es lipschitziana en R2 pues |y| |y |  |y y | (t, y), (t, y ) 2 R2 ( L = 1 ) ,
pero no existe ƒy cuando y = 0 ].

Para probar el teorema definimos el siguiente operador T (una función que transforma
funciones y en funciones Ty ):
Rt
Ty(t) = yo + t ƒ (s, y(s)) ds
o

Del teorema fundamental del cálculo integral se deduce fácilmente que:


Rt
y es solución de [P] , y(t) = yo + t ƒ (s, y(s)) ds , Ty = y ,
o

o, con otras palabras, si y es punto fijo del operador T . En una rama de las matemáticas,
el análisis funcional, se prueban varios teoremas de punto fijo. Por ejemplo, el llamado
teorema de la aplicación contractiva para un espacio E de Banach (espacio vectorial en
el que hay definida una norma respecto de la cual es completo, es decir, que toda sucesión
de Cauchy con esa norma tiene límite que pertenece a E (R, por ejemplo, lo es)):

Sea T : E ! E , E de Banach, tal que y, y 2 E es kTy Ty k  ky y k ,


con 0  < 1 ) existe un único punto fijo de T .

A partir de cualquier y0 2 E definimos la sucesión: y1 = Ty0 , y2 = Ty1 , . . . , yn+1 = Tyn , . . .


Probamos que {yn } es de Cauchy:
kyn yn+1 k = kTyn Tyn k  kyn yn k  2 ky yn
1 1 n 2 1k  ···
) kyn yn+1 k  n ky y1 k )
0

kyn yn+k k = kyn yn+1 + yn+1 · · · yn+k 1 + yn+k 1 yn+k k


 kyn yn+1 k+ · · ·+ kyn+k yn+k k  [ n+ n+1 + · · ·+ n+k 1 ]ky y1 k
1 0
n n+k n
= 1
ky0 y1 k  1
ky0 y1 k  dado, si n suficientemente grande.

Puesto que E es completo {yn } ! y 2 E . Veamos que y es el punto fijo buscado.


Como T es continuo ( kTy Ty k es lo pequeño que queramos si ky y k es pequeño):
T(y) = T( lı́m yn ) = lı́m T(yn ) = lı́m yn+1 = y
n! n! n!

Falta ver que y es único. Si y también cumple Ty =y entonces:


ky y k = kTy Ty k  ky y k ! y = y

E = {y : ! R/ y continua} es un espacio de Banach con la norma kyk = máx{|y(t)| : t 2 }

E es espacio vectorial (combinaciones lineales de continuas son continuas).


kyk tiene las propiedades de una norma. Además:
{yn } de Cauchy ! {yn (t)} de Cauchy t ) {yn (t)} ! y(t) t
) en norma, {yn } ! y continua (el límite es uniforme).

Para demostrar un teorema de existencia y unicidad bastará determinar un intervalo que


defina un E de estos, de modo que el operador T de arriba transforme funciones de E en
funciones de E y tal que T sea contractivo.

16
ƒ continua y lipschitziana respecto de la y en Q = [ to , to +h]⇥[ yo r, yo +r] ) [P]
r 1
Teor 1*. posee solución única definida al menos en = [ to , to +d] , con d = mín h, M , 2L ,
siendo M el máximo de |ƒ (t, y)| en Q y L la constante de Lipschitz.

[Probado este teorema queda probado el 1 pues vimos que sus hipótesis implican
las del 1*; por la misma razón este teorema es más fuerte que aquel (se pide menos
a la ƒ ) y es aplicable en (pocos) casos en que el 1 no funciona].

El que define E es = [ to , to + d] . Probemos primero que la T de arriba es contractiva.


Si y, y 2 E entonces:
Rt Rt
|(Ty Ty )(t)|  to
|ƒ (s, y(s)) ƒ (s, y (s))| ds  L to
|y(s) y (s)| ds
Rt 1
 L t ky y k ds  Ldky y k  2
ky y k t2
o

1
) k(Ty Ty )(t)k = máx{|(Ty Ty )(t) : t 2 }  2
ky y k

Como la ƒ sólo la suponemos continua en Q , dada y 2 E en principio Ty podría no ser


continua. Pero si la gráfica de y se mueve en [ to , to +d]⇥[ yo r, yo +r] sí podemos asegurar
que lo es pues entonces ƒ (t, y(t)) es continua y Ty , primitiva de continua, también lo será.
Además Ty tiene también su gráfica contenida en Q , pues para todo t 2 se tiene que:
Rt Rt
|Ty(t) yo |  t |ƒ (s, y(s))| ds  M t ds  M(t to )  Md  r si t 2 ,
o o

es decir, (t, Ty(t)) 2 Q


Así pues, son elementos de E las funciones de la sucesión {yn } obtenida aplicando
indefinidamente T a la función constante yo (t) ⌘ yo , es decir, la sucesión de funciones
(llamadas aproximaciones sucesivas de Picard):
Rt Rt
yo (t) ⌘ yo , y1 (t) = yo + t ƒ (s, yo ) ds , y2 (t) = yo + t ƒ (s, y1 (s)) ds , . . .
o o

Esta {yn } , entonces, converge hacia el único punto fijo de T en E ,


es decir, hacia la solución única de [P].

Ej 11. y 0 = |t 2 7y| ƒ continua en todo R2 ) existe solución para cualquier dato inicial.
ƒy es continua si 7y 6= t 2 . El teorema 1 asegura la unicidad (to , yo ) con 7yo 6= to2 . Para
las funciones definidas a trozos, como el valor absoluto, el teorema adecuado no es el 1,
sino el 1*. Veamos que ƒ es lipschitziana:
|ƒ (t, y) ƒ (t, y )| = |t 2 7y| |t 2 7y |  (t 2 7y) (t 2 7y )
= 7|y y | (t, y), (t, y ) 2 R2
Por tanto también hay solución única si 7yo = to2 , y eso no nos lo decía el teorema 1.

Tratemos ahora de la prolongablidad de las soluciones de [P]. Supongamos ƒ


y ƒy continuas en D ⇢ R2 y que (to , yo ) es interior a D . Entonces hay una única
solución local y(t) definida al menos en [ to d, to+d] . Pero, ¿hasta dónde se puede
prolongar?, es decir, ¿cuál es el máximo intervalo en el que está definida? Sobre
todo queremos saber si y(t) llega hacia la derecha hasta + y si lo hace hacia la
izquierda hasta (en otras palabras, si está definida en [ to , ) y en ( , to ] ).
Aunque sea D = R2 esto puede no suceder como vimos en el ejemplo 3 de esta
sección. La solución de y 0 = y 2 con y(0) = b , sólo podía si b > 0 prolongarse (hacia
la derecha) al intervalo [ 0, 1/ b) , pues en t = 1/ b tenía una asíntota y no llegaba
hasta . Si b < 0 , aunque llegaba hasta no llegaba a , pues sólo estaba
definida en (1/ b, ) .
Otra forma en que una solución y(t) está definida sólo en un
intervalo finito viene ilustrada por:
t
y0 = y
, de curvas integrales: t 2 + y 2 = C ,
y con problemas de existencia y unicidad sobre y = 0 que es
precisamente donde van a morir cada una de las semicircun-
ferencias solución.

17
El siguiente teorema, que no demostramos, resume las ideas de los dos ejemplos.

Si ƒ y ƒy son continuas en D la grá-


D yo D
fica de la solución y(t) de [P] no se
para en el interior de D .
to
Teor 2. En particular, si D es el semiplano
to
t1
{t to } o bien y(t) está definida en no!
todo [ to , ) o bien existe t1 > to tal
que |y(t)| ! .
t!t1

(resultado enteramente análogo a la izquierda de to )


La gráfica no para en un punto interior ya que, por el TEyU, existiría una solución
local partiendo de dicho punto. Podríamos describir el teorema con otras palabras:
la gráfica de las soluciones tienden hacia la frontera de D, entendiendo que si D
es no acotado ‘el infinito’ pertenece a dicha frontera. El problema práctico (compli-
cado en general) es distinguir entre las posibilidades que ofrece el teorema 2 si la
ecuación no es resoluble (que, como sabemos, es lo normal). Demos alguna idea
con ejemplos:
®
y3 Es fácil hallar su solución t 2+y 2 = C , pero veamos qué podemos decir
y0 = t3
Ej 12. basándonos sólo en dibujos aproximados (que en otras ocasiones será
y(1) = 1 lo único que tendremos). Las isoclinas de esta homogénea son rectas.
Los TEyU aseguran solución única en R2 {t = 0} y curva integral
única para R2 {(0, 0)} , y el crecimiento-decrecimiento prueba que
por el origen sólo pasan las curvas integrales y = 0 y t = 0 . Como la
solución por (1, 1) decrece para t 1 y no puede tocar (por unicidad)
la solución y = 0 , no puede irse a ± en tiempo finito y según el
Teor2 está definida t 1 . Por la izquierda no puede tocar t = 0 , con lo
que debe tener una asíntota en un t1 2 (0, 1) . Necesitamos la soluciónp
y = t/ [ 2t 2 1] 1/ 2 para ver que exactamente la tiene en t1 = 1/ 2 .

y 0 = sen(t + y 2 )
Ej 13. La ecuación no es resoluble. ƒ y ƒy son continuas en R2 .
y(0) = 1

Hay dos posibilidades, que la solución única llegue a ± o que tenga una asíntota (que
‘explote’). Si y(t) explota, tanto ella como sus pendientes han de tender a . Como es
|y 0 |  1 , la solución está definida t .

Identifiquemos dos problemas cuya prolongabilidad se reconoce a simple vista:


ß 0
y = (t)y+ ƒ (t)
[Pl] , y ƒ continuas en un intervalo 3 to
y(to ) = yo
( finito o infinito, cerrado o abierto).
Como tanto el segundo miembro de la ecuación como su derivada con respecto a
y son continuas en un entorno del punto (to , yo ) , [Pl] tiene solución única. Ade-
más, como vimos en la sección 1.1, esta solución viene dada por exponenciales e
integrales de las funciones y ƒ , con lo que se tiene que:
La solución única de [Pl] está definida (al menos) para todo t de .
ß
y 0 = y n , 6= 0, n = 2, 3, . . . yo
Su solución es: y = ⇥ ⇤1/ (n .
y(to ) = yo 1 (n 1)yon 1 (t to )
1)

⇥ ⇤ 1
El denominador se anula si t = to + (n 1)yon 1 . Por tanto, salvo y ⌘ 0 , todas
las soluciones tienen una asíntota. Para saber si la asíntota está a la derecha
o izquierda de to basta mirar crecimiento y decrecimiento, o sea, el signo de y n .

18
1.4 Estabilidad
En lenguaje usual la posición de equilibrio de un objeto o la trayectoria de un móvil se
dice estable si un pequeño cambio de sus condiciones iniciales modifica poco su evolución
desde ese instante. El concepto matemático de estabilidad da rigor a esta idea. Definamos
estabilidad para ecuaciones de primer orden (volveremos a tratarla en los capítulos 2 y 4).
ß
y 0 = ƒ (t, y)
Supongamos que [P] tiene solución única y(t) definida en [ to , ).
y(to ) = yo
¿Se parecerán a ella t to las soluciones y (t) de datos iniciales similares? Hemos visto
ya casos en que no sucedía. Por ejemplo, la solución de y 0 = y 2 con y(0) = 0 (la constante
y(0) ⌘ 0 ) está definida t 0 y sin embargo la correspondiente a un dato inicial próximo
y(0) = yo (que era y = yo / [ 1 tyo ] ) ni siquiera llega hasta cuando yo > 0 , pues tiene
una asíntota en t = 1/ yo . Y aunque todas las soluciones estén definidas en [ to , ) pueden
ser para t grande muy diferentes entre sí. Así, las de:
ß 0 ⇢ 0
y =y y =y
e que son y ⌘ 0 e y = et yo
y(0) = 0 y(0) = yo
son muy diferentes para grandes t , pues y tiende a
+ o (según el signo de yo ). En cambio, las de
y 0 = y , que con esos datos son y ⌘ 0 e y = e t yo ,
cumplen y ! y si t ! .

Si [P] tiene solución única y(t) definida en [ to , ) se dice que y(t) es es-
table si >0 > 0 tal que toda solución y (t) con |yo yo | < satisface:
1] y (t) existe y está definida en [ to , ),
2] |y(t) y (t)| < para todo t to .
Decimos que y(t) es asintóticamente estable si además y (t) satisface:
3] |y(t) y (t)| ! 0 cuando t ! .
Una solución que no es estable se dice inestable.
Gráficamente, y es estable si para
cualquier banda de altura 2 en torno
a ella existe un segmento de altura 2 y
o
en torno a yo tal que las soluciones
que parten de él permanecen para to-
to
do t to dentro de la banda.
Para las ecuaciones de primer orden se puede probar que:
1] y 3] ) 2] (falso en sistemas y ecuaciones de orden n).
Así pues, para ver que la solución de una ecuación de primer orden es asintóti-
camente estable basta comprobar que toda solución que parte cerca de ella llega
hasta y que la diferencia entre ambas tiende a 0 en el infinito, con lo que pode-
mos evitar las acotaciones de 2] que son siempre mucho más complicadas.

y0 = y2
Ej 1. Analicemos la estabilidad de las soluciones de la conocida .
y(0) = yo

Como las soluciones con yo > 0 explotan no tiene sentido


hablar de su estabilidad. La y = 0 es claramente inestable
pues las que parten cerca de ella por arriba ni siquiera están
definidas t 0 (las que parten por debajo sí se parecen a
ella, pero esto debe suceder para toda solución que parta
cerca). Cualquier solución con yo < 0 (definida t 0 ) es AE:
si |yo yo | es pequeño y llega hasta y además:
yo yo
|y y | = 1 tyo 1 tyo
! 0.
t!

19

y0 = y3 / t 3 En 1.3 la dibujamos y resolvimos: t 2 + y 2 = C . La solución que
Ej 2. ⇥ ⇤ 1/ 2
y(1) = 0 cumple y(1) = b es yb = bt b2 (t 2 1)+ t 2 .
Estamos analizando y ⌘ 0 . Todas las yb están definidas b
si t 1 , pero yb ! b[ b2 + 1] 1/ 2 6= 0 . Por tanto no es AE.
t!
Estable sí lo es:
tomando = se tiene que si |b| < es |yb |  |b| < t 1.
0 1
(La estabilidad se puede probar sin hallar yb : como las
soluciones decrecen en el primer cuadrante y crecen en
el cuarto, a partir de t = 1 se mueven entre las rectas
y = 0 e y = b , luego llegan hasta y es estable y ⌘ 0 ).

El estudio de la estabilidad es, en general, bastante difícil. Como se pueden re-


solver muy pocas ecuaciones no será posible normalmente usar las soluciones.
Pero en otros casos se podrán obtener conclusiones estudiando la propia ecuación.
Veamos resultados en ese sentido para las ecuaciones lineales:
ß 0
y = (t)y+ ƒ (t)
Sea [Pl] , con y ƒ continuas en [ to , ).
y(to ) = yo

Como sabemos, para todo yo , [Pl] tiene solución única definida para todo t to ,
de expresión conocida. La diferencia entre dos soluciones cualesquiera es
Rt
(s)ds
|y(t) y (t)| = |yo yo | e to y por tanto:
Rt
(s)ds
La solución de [Pl] es estable si y sólo si e to está acotada.
Teor 1. Rt
(s)ds
Es asintóticamente estable si y solo si e to ! 0.
t!

Observemos que la estabilidad no depende de yo ni de ƒ (t) [ni de to si y ƒ


son continuas a partir de ese punto]. Para una lineal (no para otras tipos) tiene pues
sentido hablar de la estabilidad de la ecuación pues o todas las soluciones son
estables, o todas son asintóticamente estables, o todas son inestables. Esto era
esperable pues las soluciones son suma de una solución particular más la general
de la homogénea y es ésta la que nos dice si todas las soluciones se acercan o no a
una dada. De hecho tenemos que una ecuación lineal es estable [asintóticamente
estable] si y sólo si lo es la solución y ⌘ 0 de la homogénea.
En particular, para las ecuaciones de coeficientes constantes, se deduce inme-
diatamente del teorema:
y 0 = y+ƒ (t) es AE, EnoA o I, según sea, respectivamente, <0 , =0 ó >0 .

(pues e t tiende a 0 , está acotada o no está acotada en cada caso).


R
y
Ej 3. y0 = t
+ cos[ ln(1+ t 2 )] Para t > 0 es e dt/ t
= 1t acotada y ! 0 cuando t ! .
Por tanto, la solución que satisface cualquier dato inicial y(to ) = yo con to > 0 es asintóti-
camente estable. (Si to < 0 las soluciones y = C/ t+yp sólo llegan hasta t = 0 ; el teorema
se ha enunciado para el caso en que los coeficientes son continuos a partir de t o ).
R
y rct n t
Ej 4. y 0 = 1+t 2 Todas sus soluciones son EnoA: e =e es acotada, pero 6! 0 si t ! .

(Si no hay discontinuidades de o ƒ ni nos preocuparemos del to , pues es claro que


el límite de la exponencial no depende de cual sea el límite inferior de la integral).
ß 0
y = t 2y (ecuación resuelta
Ej 5. Estudiemos la estabilidad de la solución de
y(1/ 2) = 0 y dibujada en 1.2).
Por ser lineal con coeficientes constantes, basta mirar el 2 para concluir que todas las
soluciones (y esa en concreto) son AE. La solución particular con el dato inicial es y = 2t 14
(que aunque ! es AE).

20
Podría pensarse que para una ecuación no lineal de la forma y 0 = (t)y+ b(t)y 2 + c(t)y 3 + · · ·
la estabilidad de su solución y = 0 coincidirá con la de su ‘aproximación lineal’: y 0 = (t)y
(hay teoremas que precisan esta idea y veremos uno de ese tipo en las autónomas de la
sección 1.5). El siguiente ejemplo demuestra que la conjetura anterior, en general, es falsa:

Ej 6. Para las dos ecuaciones de Bernouilli: [1] y 0 = y+ e t y2 y [2] y 0 = y+ et y 2 ,


la parte lineal de ambas ( y 0 = y ) es AE. Sus dibujos y soluciones yb con y(0) = b son:

t t
[1] yb = be 2be
2t +2 b
[2] yb = 1be bt
Ambas yb ! 0 si t ! . Aunque para [1] yb está definida en [ 0, ) si b cercano a 0 ,
pero no para [2] (tiene asíntota en t = 1b ). Por tanto y ⌘ 0 es solución AE de [1] e I de [2].

Para acabar introducimos el concepto de dependencia continua (de datos y parámetros).


ß 0
y = ƒ (t, y)
Supongamos que el problema [P] describe un sistema físico.
y(to ) = yo
Midiendo experimentalmente el dato inicial yo cometeremos errores. Nuestra ecuación no
sería útil para describir el sistema si a valores iniciales yo parecidos no correspondiesen
soluciones semejantes. Pero, por suerte, se puede demostrar (es largo y no lo haremos) que
si ƒ es buena hay siempre dependencia continua de datos iniciales, es decir, que la
solución es función continua de yo . Antes de precisarlo con teoremas veamos un ejemplo:

y0 = y2 Su solución es, como sabemos, y(t, b) = 1 bbt .
Ej 7. Sea
y(0) = b [La podemos ver como función de t y además de b ].
Sea, por ejemplo, b > 0 . Mirando sólo la solución para t 0 vemos que está
definida hasta t1 = b 1 . Para b próximos la solución tendrá un intervalo de
definición similar. En un intervalo en el que estén definidas todas estas y(t, b) cercanas
(en que el denominador no se anule) es claro que y(t, b) es continua en ambas variables.
Sean ƒ , ƒy continuas en un entorno de (to , yo ). Sabemos que entonces la solución de [P]
y(t, yo ) está definida al menos en un intervalo = [ to , to + d]. En estas condiciones se tiene:

Si |yo yo | es suficientemente pequeño, y(t, yo ) está también definida en ese


Teor 2.
mismo y además si yo ! yo se tiene que y(t, yo ) ! y(t, yo ) para todo t 2 .

Se puede escribir esto de otra forma para compararlo con la estabilidad:


>0 > 0 tal que si |yo yo | < entonces |y(t) y (t)| < para todo t 2 [ to , to + d] .

Así que, en intervalos finitos, las soluciones (inestables incluidas) de toda ecuación siguen
lo próximas que queramos si partimos suficientemente cerca. La distinción entre estables
e inestables aparece al considerar intervalos infinitos. Comprobemos que se cumple la afir-
mación con de arriba para una de las soluciones inestables
⇢ 0
vistas:
ß 0
y =y y = y
Las soluciones y ⌘ 0 de e y = et yo de ,
y(0) = 0 y(0) = yo
en cualquier intervalo finito [ 0, d] satisfacen d

|y y| = et |yo |  ed |yo | < si |yo 0| < = e d t 2 [ 0, d] .


ß 0
y = ƒ (t, y, )
En nuestro sistema físico podría aparecer también un parámetro : [P ] .
y(to ) = yo
Para que la ecuación sea útil a valores de próximos deben corresponder soluciones simila-
res. Se demuestra que si ƒ (t, y, ) es buena la solución es también función continua de (es
decir, hay dependencia continua de parámetros). Veamos un ejemplo para corroborarlo:
⇢ ⇢
y0 = t 1 y 1 Rt (t t )/ (1 ) si 6= 1
Ej 8. ! y(t, ) = t s ds =
y(1) = 0 1 t ln t si = 1

ƒ buena cerca de (1, 0) ) dependencia continua de . Aunque no lo parezca es y(t, )


también continua para = 1 : si ! 1 la expresión de arriba tiende a t ln t (L’Hôpital).

21
1.5 Ecuaciones autónomas
Son ecuaciones en las que la variable independiente no aparece explícitamente:

[a] y 0 = ƒ (y)

Suponemos que ƒ 0 es continua en todo R con lo que hay solución única para
cualquier condición inicial.
Como [a] es de variables separables, es fácil hallar su solución implícita:
R dy
ƒ (y)
= t + C (la primitiva puede ser no calculable o muy complicada).

Pero muchas características importantes de las soluciones se deducen fácilmente


del estudio de la propia ƒ . En particula, será muy fácil hacer dibujos aproximados
y precisar la estabilidad de sus soluciones, gracias a los siguientes teoremas:

Teor 1. y(t) solución de [a] ) y(t + C) es también solución de [a].

Sea z(t) = y(t + C) ; entonces z 0 (t) = y 0 (t + C) = ƒ (y(t + C)) = ƒ (z(t)) .

Teor 2. Si 2 R es tal que ƒ ( ) = 0 ) y(t) ⌘ es solución de [a].


(A estas soluciones constantes se les llama también soluciones de equilibrio).
La prueba es realmente trivial: y 0 (t) = 0 = ƒ ( ) = ƒ (y(t)) .

Teor 3.
Cada solución de [a] es o constante, o estrictamente creciente,
o estrictamente decreciente.
Sea y solución. Si existe un to para el que y 0 (to ) = 0 ) ƒ (y(to )) = 0 ) y(t) ⌘ y(to )
es solución (teorema 2), única que pasa por ese punto. Ninguna solución puede
tener ni máximos ni mínimos si no es constante.

Toda solución acotada a la derecha de un to tiende hacia una solución de


Teor 4.
equilibrio cuando t ! [si lo está a la izquierda lo hace cuando t ! ].

Probémoslo si t ! (análogo a la izquierda). Si y(t) es constante, es evidente.


Sea y(t) monótona y acotada para t to (por el teorema de prolongabilidad
y(t) está definida en [ to , ) pues no puede irse a infinito en tiempo finito).
Un resultado elemental de cálculo asegura que y(t) tiende hacia un límite a
si t ! . Probemos que ƒ ( ) = 0 . Como ƒ es continua, y 0 (t) = ƒ (y(t)) también
tiene límite si t ! y ese límite es ƒ ( ) . Aplicando el teorema del valor medio a
la y(t) en [ t, t+1] tenemos que existe un c 2 (t, t+1) tal que y 0 (c) = y(t+1) y(t) .
lı́m y 0 (c) = lı́m [ y(t + 1) y(t)] =
Por tanto: ƒ ( ) =c! =0 .
t!

Si ƒ (y)/ g(y) ! cte> 0 cuando y ! las soluciones no acotadas


de y 0 = ƒ (y) tienen asíntotas si sólo si las tienen las de y 0 = g(y) .
Teor 5.
En particular, explotan todas las soluciones no acotadas de
y 0 = P(y) si P es un polinomio de grado mayor que 1 .
R y ds
Como la solución de [a] es t + C = ƒ (s)
, decir que y ! ± para t finito
R ± ds
equivale a decir que ƒ (s)
es una integral impropia convergente y esta
1
lo es (por los criterios de impropias) si y sólo si lo es la integral de la g
.
El caso particular es consecuencia de que explotan las soluciones no nulas
de y 0 = y n , n > 1 (lo vimos al final de 1.3).

22
Ej 1. y 0 = y 3 y 2 . Como y 2 (y 1) = 0 ! y = 0 , y = 1 , estas son las soluciones constantes.
Como y 2 (y 1) > 0 si y > 1 e y 2 (y 1) < 0 si y < 0 ó si y 2 (0, 1) , sabemos qué soluciones
crecen o decrecen y las soluciones de equilibrio a que
tienden (sin llegar a tocarlas). Las soluciones que es-
tán por encima de y = 1 llegan hasta pues si es-
tuviesen acotadas deberían tender hacia una solución 1
constante y no la hay (según el teorema 5 lo hacen en
tiempo finito). Tampoco están acotadas las de y < 0
(también explotan). Sabiendo además que las trasla- 0
dadas a derecha e izquierda de una solución lo son
también completamos el dibujo.
(Podríamos además pintar alguna isoclina (son rectas
y = b ) y la recta de puntos de inflexión:
2
y 00 = (y 3 y 2 )(3y 2 2y) = 0 ! y = y las rectas solución).
3
R dy y 1
No es útil para el dibujo hallar la complicada solución: y3 y2 = ln | y |+ 1y = t + C ).

El estudio de la estabilidad de una ecuación cualquiera (incluso de primer orden)


es difícil en general, pero en las autónomas, por los teoremas vistos, pasa a ser
trivial: el dibujo basta para precisar la estabilidad.
Para el ejemplo 1 es inmediato ver que y = 0 es inestable, pues las soluciones cercanas
de abajo se van a (no se necesita siquiera su prolongabilidad). y = 1 también es I:
las de arriba van a + y las de abajo a y = 0 . Cualquier solución entre 0 y 1 es AE: las
soluciones cercanas están definidas t y la diferencia entre ellas tiende a 0 si t !
pues todas ellas tienden a la misma solución de equilibrio, según asegura el teorema 4.
Observemos que este teorema 4 no es cierto para ecuaciones no autónomas (por eso no
es trivial la estabilidad) y que pueden existir soluciones que se aproximen a una solución
constante y que no tiendan a ella, u otras que se alejen de ella, pero manteniéndose
cerca (como muestran los ejemplos 2 y 4 de la sección anterior).

Damos un criterio de estabilidad de soluciones constantes que, aunque aquí


no diga nada nuevo, es la versión sencilla del que veremos en el capítulo 4 cuando
estudiemos los sistemas autónomos:

Si ƒ 0 ( ) < 0 , y(t) ⌘ es asintóticamente estable.


Teor 6. Sea ƒ ( ) = 0 .
Si ƒ 0 ( ) > 0 , y(t) ⌘ es inestable.

Si ƒ 0 ( ) < 0 , ƒ decrece en , luego ƒ (y) , cerca de , pasa de ser positivo a ne-


gativo al aumentar y ; las soluciones pasan de ser crecientes a ser decrecientes,
lo que unido al teorema 4 nos da la estabilidad asintótica. Si ƒ 0 ( ) > 0 pasan de
ser decrecientes a ser crecientes; las primeras se van a o hacia otra solución
constante y las segundas a o hacia otra constante; hay inestabilidad.
Este es uno de los casos en que sí hereda una ecuación no lineal la estabilidad de su
aproximación lineal. En efecto, desarrollando por Taylor la ƒ (y) en torno a y = tenemos:
y 0 = ƒ 0 ( )(y )+ o(|y |) , es decir z 0 = ƒ 0 ( )z+ o(|z|) , si z = y ,
y el signo de ƒ 0(
) , como sabemos, da la estabilidad de la lineal z0 = ƒ 0 (
)z . No se puede
afirmar nada sobre la no lineal si la lineal es simplemente estable, es decir, si ƒ 0 ( ) = 0 .
En ese caso la solución constante puede ser estable o asintóticamente estable como
sucede con la solución y = 0 de y 0 = 0 y de y 0 = y 3 :
y'=0 y'=–y3

o ser inestable, como la solución y = 0 del ejemplo 1 (en él es, ƒ 0 (y) = 3y 2 2y , ƒ 0 (0) = 0 ).
El teorema 6 sí nos confirma la inestabilidad de la otra solución constante: ƒ 0 (1) = 1 > 0 .

23
Estudiemos ahora varias ecuaciones autónomas que describen modelos de crecimiento de
una población animal (en ellas y(t) representa la población que hay en el instante t y ,
b , M son constantes positivas). La más sencilla (es también lineal)
viene de suponer la velocidad de crecimiento de la población pro-
porcional al número de animales existentes, o sea,
[1] y 0 = y , y(to ) = yo ! y = yo e (t to ) .
Dibujamos sus soluciones sólo donde tienen sentido (en y 0 ):
En [1] está implícita la suposición de que hay alimentos y espacio vital ilimitados. Si hay una
población máxima M que admite el ecosistema, describirá mejor la evolución la llamada
ecuación logística: [2] y 0 = by(M y)
de soluciones fáciles de pintar. La solución y ⌘ M es AE y hacia ella
tienden todas las demás positivas para cualquier dato inicial: pasado M
el tiempo habrá en el ecosistema una población M . Para conocer la
población en un instante t hay que hallar la solución con y(to ) = yo :
⇥ ⇤ 1
y = Myo yo + (M yo )e bM(t to ) (la ecuación es separable o Bernouilli)
función que tiene el comportamiento asintótico previsto con las técnicas de autónomas.
Imaginemos ahora que [2] rige la población de truchas en un estanque y que una persona
pesca truchas: i] a un ritmo proporcional al número de ellas existente, ii] a ritmo constante
(independientemente de las que haya). Las técnicas de autónomas nos permiten predecir
con facilidad el número de truchas que habrá en el estanque para grandes valores de t . Las
ecuaciones que rigen la evolución de y en ambos casos son:
[2i] y 0 = by(M y) y y [2ii] y 0 = by(M y)
r
M2
Las soluciones de equilibrio son para [2i] y = 0 e y = M b
y para [2ii] y = M
2
± 4 b
.
Si es grande (pescador muy hábil) la segunda solución constante de [2i] pasa a ser nega-
tiva y las dos de [2ii] se convierten en complejas. Viendo el signo de y 0 se tiene:
i] a pequeño i] a grande ii] a pequeño ii] a grande

M M M M

Si el pescador es poco hábil el número de truchas se estabiliza en torno a un valor algo


inferior al tope logístico M (salvo en ii] si inicialmente son muy pocas). Si es hábil las truchas
siempre se extinguen (en tiempo finito en el caso ii] ).

Para acabar, observemos que si ƒ (y) no es tan regular como exigimos al principio,
de forma que no haya existencia y unicidad en todo el plano, también pueden fallar
algunas de las propiedades que hemos demostrado basándonos en ese hecho:
p
2 y Ecuación definida sólo si y 0 , con solución única en y > 1 e y 2 (0, 1) ,
Ej 2. y0 = y1 y problemas en y = 0, 1 .

y = 0 es la única solución de equilibrio. Las soluciones son


crecientes en y > 1 y decrecientes en y 2 (0, 1) . Por cada
punto de y = 1 pasa una única curva integral de pendiente
vertical. Resolviendo la ecuación se obtiene: 1
R y 1 p
t = 2py dy+ C = 13 y (y 3)+ C ,
lo que completa el dibujo.
Hay soluciones que no son estrictamente monótonas (primero decrecen y luego son
constantes) y soluciones acotadas a la izquierda que mueren en y = 1 y que por tanto
no tienden hacia ninguna solución de equilibrio.

24
1.6 Métodos numéricos
Queremos calcular aproximadamente la solución del problema de valores iniciales:
ß 0
y = ƒ (t, y)
[P]
y(t0 ) = y0
(suponemos ƒ suficientemente buena para que [P] tenga solución única y(t) cerca de t0 ).
Pocas ecuaciones de primer orden son resolubles y hacer un dibujo aproximado es difícil
si la ƒ (t, y) no es sencilla. Pero, aunque ƒ sea complicada, siempre podremos acudir a mé-
todos numéricos (iterativos y fácilmente programables), como los que vamos a describir a
continuación. En los tres iremos hallando valores y0 , y1 , y2 , . . . , yk , . . . cercanos a los de
la solución y(t) en una serie de puntos t0 < t1 < t2 < · · · < tk < · · · separados entre sí una
distancia (paso) h fija, es decir, t1 = t0 + h , t2 = t0 + 2h , . . . , tk = t0 + kh , . . .
El más sencillo (y menos preciso) de los métodos es el de Euler, que consiste en aproximar
la solución desconocida por su tangente conocida. Es decir, si h es pequeño es de esperar
que el valor de la solución y(t0 + h) = y(t1 ) sea próximo al valor de la recta tangente en ese
mismo punto: y0 + hƒ (t0 , y0 ) , que llamamos y1 . Como (t1 , y1 ) se parece al desconocido
(t1 , y(t1 )) podemos aproximar y(t2 ) por el y2 que obtendremos de (t1 , y1 ) de la misma
forma que obtuvimos el y1 a partir del (t0 , y0 ) inicial. Prosiguiendo así vamos obteniendo
los yk aproximados (más inexactos según nos alejamos de t0 ) dados por:
yk+1 = yk + h ƒ (tk , yk )

Es previsible que se mejore la aproximación si tomamos:


⇥ ⇤
yk+1 = yk + 2h ƒ (tk , yk ) + ƒ (tk + h, yk + hƒ (tk , yk )) (método de Euler modificado)
es decir, si en cada paso elegimos, en vez de la pendiente en un extremo, el valor medio de
las pendientes asociadas a dos puntos: el de partida y el previsto por el método de Euler.
El tercer método, muy utilizado y bastante más exacto, es el de Runge-Kutta, que exige
un mayor número de operaciones (aunque a un ordenador no le llevará mucho más tiempo
realizarlas) y que en cada paso toma el promedio ponderado de cuatro pendientes, cuyo
significado geométrico ya no es fácil de intuir:
⇥ ⇤
yk+1 = yk + 6h ƒk1 + 2ƒk2 + 2ƒk3 + ƒk4 , donde

ƒk1 = ƒ (tk , yk ) , ƒk2 = ƒ (tk + 2h , yk + 2h ƒk1 ) , ƒk3 = ƒ (tk + 2h , yk + 2h ƒk2 ) , ƒk4 = ƒ (tk + h, yk + hƒk3 )

t 1
Ej 1. y0 = t 2y En la sección 1.2 hallamos su solución general: y = 2 4
+ Ce 2t .
Resolvemos numéricamente con y(0) = 1 (por los tres métodos) y comparamos con los
valores exactos (para ese dato es C = 54 ). Para h=0.1 listamos todos los resultados:
t Euler Euler-mod Runge-Kutta exacto
0 1 1 1 1
0.1 0.8 0.825 0.8234166667 0.8234134413
0.2 0.65 0.6905 0.6879053389 0.6879000575
0.3 0.54 0.58921 0.5860210311 0.5860145451
0.4 0.462 0.5151522 0.5116682856 0.5116612051
0.5 0.4096 0.463424804 0.4598565477 0.4598493015
0.6 0.37768 0.4300083393 0.4264998841 0.4264927649
0.7 0.362144 0.4116068382 0.4082530051 0.4082462049
0.8 0.3597152 0.4055176073 0.4023770104 0.4023706475
0.9 0.36777216 0.4095244380 0.4066294710 0.4066236103
1 0.384217728 0.4218100392 0.4191744355 0.4191691040

Comparamos ahora el resultado para t = 1 con diferentes pasos:


paso Euler Euler-mod Runge-Kutta exacto
h=0.1 0.3842177280 0.4218100392 0.4191744355 0.4191691040
h=0.05 0.4019708182 0.4197780719 0.4191694105 0.4191691040
h=0.01 0.4157744449 0.4191920025 0.4191691045 0.4191691040
h=0.001 0.4188306531 0.4191693299 0.4191691040 0.4191691040
h=0.0001 0.4191352691 0.4191691063 0.4191691040 0.4191691040
(obsérvese, por ejemplo, como Runge-Kutta con h=0.1 da un valor más exacto que Euler
con h=0.0001 [y son 40 frente a 10000 evaluaciones de la función ƒ (t, y) ] ).

25
Se puede demostrar que el error local (cometido en cada paso) para cada uno de los tres
métodos citados es proporcional, respectivamente, a h2 , h3 y h5 , mientras que el error
acumulado en sucesivas iteraciones es de orden h , h2 y h4 . Como era de esperar los
resultados mejoran al tomar h más pequeños (pero sólo hasta un límite ya que el error de
redondeo de toda calculadora u ordenador hace que si disminuimos demasiado el paso h ,
aparte de incrementarse el tiempo de cálculo, puede aumentar el error).

Ej 2. y0 = y2 t Hallemos numéricamente entre 1 y 3 la solución con y( 1) = 0 .

El dibujo aproximado de la sección 1.2 no aclara si se trata de una de las soluciones que
van a infinito o de una de las que cruzan la isoclina de máximos. Empezamos con h=0.1 .
Los yk obtenidos por los tres métodos están en la siguiente tabla (sólo hemos escrito los
correspondientes a los t enteros para t 0 ):
t Euler Euler-mod Runge-Kutta
1 0 0 0
0,9 0.1 0.0955 0.0953100738
0,8 0.191 0.1826934847 0.1823176520
0,7 0.2746481 0.2629009594 0.2623378481
0,6 0.3521912579 0.3371304370 0.3363726607
0,5 0.4245951261 0.4061567380 0.4051902841
0,4 0.4926232282 0.4705749490 0.4693783604
0,3 0.5568909927 0.5308364662 0.5293796824
0,2 0.6179037505 0.5872727793 0.5855155255
0,1 0.6760842550 0.6401101498 0.6379997588
0 0.7317932469 0.6894770720 0.6869456018
1 1.214197534 0.9357162982 0.9176486326
2 1.988550160 –0.1256257297 –0.1884460868
3 272.5279419 –1.528819223 –1.541258296

Aunque inicialmente los números son similares, los errores acumulados del método de
Euler nos dan para t positivos unos valores de la solución ya totalmente diferentes
a los reales, que serán más parecidos a los hallados por otros métodos más exactos
(convendrá, siempre que se pueda, hacerse una idea de las soluciones que se están
tratando antes de meterse con el cálculo numérico para estar avisados sobre las posibles
anomalías). Repitiendo los cálculos con pasos más pequeños se obtiene si:
t Euler Euler-mod Runge-Kutta
h=0.05: 0 0.7100063518 0.6875612633 0.6869451577
3 –1.361623743 –1.538408604 –1.541275123
h=0.01: 0 0.6916677024 0.6869692560 0.6869451313
3 –1.526589427 –1.541165493 –1.541276176

Observemos para acabar que la demostración del teorema 1* de existencia y unicidad nos
da una forma de hallar funciones próximas a la solución de un problema de valores iniciales:
en las hipótesis del teorema, las aproximaciones de Picard convergen uniformemente (lo
hacen en norma) hacia la solución única.

Ej 2*. Hallemos las dos primeras aproximaciones de Picard para el ejemplo anterior.
(En este caso las integrales son sencillas, pero la mayo- t y1 y2
ría de las veces las cosas no van a ir tan bien, pues nos
1 0 0
pueden salir primitivas no elementales o complicadas de
0,9 0.095 0.09530883333
calcular; además, a diferencia de los métodos anteriores, 0,8 0.18 0.1822826667
éste no es programable). 0,7 0.255 0.2620965
Rt 1 0,6 0.32 0.3354453333
2
yo (t) = 0 ! y1 (t) = 0 + 1 (0 s)ds = 2 [ 1 t ] !
0,5 0.375 0.4026041667
Rt 1 2 19 t t2 t3 t5 0,4 0.42 0.463488
y2 (t) = 1 4 [ 1 s ] 2 s ds = 30 + 4 2 6 + 20 . 0,3 0.455 0.5177118333
0,2 0.48 0.5646506667
Los valores de y1 e y2 para diferentes t están a la de- 0,1 0.495 0.6034995
recha. Comparando con los números de antes se ve que 0 0.5 0.6333333333
las aproximaciones son buenas para t cercano a 1 ,
1 0 0.2666666667
pero no tienen nada que ver con la realidad para valores
2 –1.5 –0.6
grandes de t . Sin embargo, este método nos ha dado
3 –4 4.533333333
expresiones analíticas aproximadas de la solución.

26
2. Sistemas y ecuaciones lineales
Si ya se podían resolver muy pocas ecuaciones de primer orden, menos aún se
pueden resolver sistemas de tales ecuaciones o ecuaciones de orden n > 1 . Salvo
escasas excepciones, sólo en el caso lineal se puede caracterizar la estructura
de las soluciones y casi sólo si los coeficientes son constantes se pueden hallar
explícitamente tales soluciones mediante métodos elementales.
En la sección 2.1 enunciaremos las propiedades básicas (muy similares a las
de ecuaciones de primer orden) de los sistemas de n ecuaciones (lineales o no)
y de las ecuaciones de orden n , que veremos que se pueden considerar como un
caso particular de sistemas. No daremos las demostraciones (bastaría casi sustituir
en las del caso n = 1 los valores absolutos por normas). En la solución general de
un sistema o ecuación de orden n aparecerán n constantes arbitrarias (así lo
sugieren los ejemplos más sencillos de sistema: 0 = 0 , y 0 = 0 , y de ecuación:
00 = 0 ). El problema de valores iniciales consistirá en hallar la solución que cumpla

n condiciones en un instante t = to (si los datos se dan en t distintos, el ’problema


de contorno’ tiene otras propiedades que se suelen estudiar en los cursos de EDPs).
Será fácil ver cuando este problema tiene solución única local. También daremos un
resultado de prolongabilidad y la definición de estabilidad. No generalizaremos, sin
embargo, dos secciones del capítulo anterior: el dibujo aproximado y los métodos
numéricos. En el primer caso, porque no se puede: las soluciones de un sistema son
curvas en un espacio de dimensión mayor que dos (en el capítulo 4, para sistemas
autónomos de segundo orden, sí nos preocuparemos del dibujo de las proyecciones
de las soluciones sobre el plano t = 0 ). Los métodos numéricos son tan parecidos
al caso n = 1 que no merece la pena tratarlos de nuevo.
La 2.2 trata ya en el caso lineal y, para ir fijando ideas, en el más sencillo n = 2 :
⇢ 0
= (t) + b(t)y + ƒ (t)
[S] 0
y = c(t) + d(t)y + g(t)

Tendremos una fórmula de variación de las constantes que nos dará las solu-
ciones de [S] si somos capaces de hallar lo que se llama una matriz fundamental
W(t) (formada por soluciones del sistema homogéneo). Esta matriz sabremos cal-
cularla (utilizando resultados de álgebra) en el caso de que las funciones , b ,
c y d sean constantes (entonces W(t) será la exponencial de una matriz). De lo
anterior deduciremos resultados para las ecuaciones de segundo orden:

[e] 00 + (t) 0 + b(t) = ƒ (t)

Resolver [e] será especialmente sencillo para coeficientes constantes. Si son va-
riables, veremos los pocos casos (ecuaciones de Euler t 2 00 + t 0 + b = h(t) , si
b(t) ⌘ 0 y si conocemos una solución de la homogénea) en que aún se puede hallar
su solución a través de integraciones (en el resto de los casos habrá que utilizar
series, siguiendo el capítulo 3).
En la sección 2.3, y con pocas demostraciones, veremos los resultados para un
n general. Aunque la teoría sea prácticamente la misma, los cálculos prácticos
se complican y muchas veces se vuelven imposibles. Si los coeficientes son cons-
tantes seguirá siendo fácil dar la solución de ecuaciones homogéneas, en el caso
excepcional de que podamos hallar las raíces (autovalores) de un polinomio (ca-
racterístico) de grado n . Para resolver un buen número de ecuaciones no homogé-
neas tendremos el método de coeficientes indeterminados. Para los sistemas,
incluso conociendo los autovalores, aparecen dificultades algebraicas, salvo que
la matriz del sistema sea diagonalizable (daremos varias ideas de cómo proceder
aunque no sea el caso).

27
En 2.4 analizaremos la estabilidad de sistemas y ecuaciones lineales de cual-
quier orden, que se podrá precisar fácilmente en el caso de coeficientes constan-
tes: bastará casi siempre con saber si la parte real de los autovalores es negativa
o no. Y podremos decidir esto, utilizando el llamado ’criterio de Routh-Hurwitz’,
incluso aunque no se pueda resolver el sistema o la ecuación, por aparecernos
polinomios de raíces no calculables.
La sección 2.5 introduce una técnica totalmente diferente para hallar soluciones
particulares de un buen número de sistemas y ecuaciones lineales con coeficientes
constantes: la transformada de Laplace, que convierte ecuaciones diferenciales
en otras sin derivadas. Esta técnica no permite resolver nada que no pudiésemos
resolver con las secciones previas, pero a menudo nos da la solución de una for-
ma más rápida y además nos permite abordar problemas para los que nuestros
conocimientos algebraicos no nos basten. La transformada es especialmente útil
cuando los términos no homogéneos tienen diferentes expresiones en diferentes
intervalos o cuando contienen la ‘función’ (t ).
La última sección (2.6) muestra como obtener información sobre el número de
soluciones periódicas de sistemas y ecuaciones lineales de coeficientes perió-
dicos, sin necesidad de resolverlos. Cuando la única solución periódica del homo-
géneo sea la trivial, el no homogéneo tendrá una sola solución periódica, y más
complicado será decidir (no tendrá ninguna o tendrá infinitas) lo que ocurre si hay
infinitas soluciones periódicas de la ecuación o sistema homogéneos.

28
2.1 Propiedades generales
8 0
< 1 = ƒ1 (t, 1 , . . . , n )
Sea el sistema de n ecuaciones de primer orden: [S] ·····················
: 0
n
= ƒn (t, 1 , . . . , n )

Sus soluciones son conjuntos de n funciones 1 (t), . . . , n (t) , definidas y deriva-


bles en un intervalo común , que convierten cada ecuación de [S] en una identi-
dad. Llamaremos [P] al problema de valores iniciales formado por [S] y las n
condiciones:
1 (to ) = 1o , ..., n (to ) = no

En notación vectorial:
⇢ 0 ! ! ! !
x = f(t, x) 1 ƒ1 1o 1 (t)
, con x = : , f= : , xo = : . Las soluciones x(t) = :
x(to ) = xo ƒn
n no n (t)

las podemos mirar entonces como funciones vectoriales de en Rn .


«
Llamaremos kxk = 21 + · · ·+ 2n (norma euclídea) y bola de centro a y radio r al
conjunto B( , r) = x 2 Rn : kx k < r (círculo en el plano, esfera en el espacio, ...).

Los TEyU y prolongabilidad son muy parecidos a los de n = 1 :


ƒ
ƒ y , , k = 1, . . . , n continuas en [ to h, to + h] ⇥ B(xo , r) )
Teor 1. k
[P] tiene solución única definida al menos en un entorno de to .
(Y si sólo las ƒ son continuas existe solución, aunque podría no ser única).

ƒ
Si ƒ , continuas en [ to , ) ⇥ Rn o bien existe t1 tal que kx(t)k !
Teor 2. k
cuando t ! t1 o bien la solución x(t) de [P] está definida t to .
(Y si son continuas en un D ⇢ Rn+1 las soluciones llegan hasta la frontera de D ).

También hay dependencia continua de parámetros y datos iniciales y la definición


de estabilidad es como la de primer orden, sustituyendo los valores absolutos por
normas:
Una solución x(t) definida en [ to , ) es estable si >0 > 0 tal que
toda solución x (t) con kx(to ) x (to )k < existe, está definida en [ to , )
y verifica kx(t) x (t)k < para todo t to . Si además kx(t) x (t)k ! 0
cuando t ! , se dice que x(t) es asintóticamente estable.

(pero para un sistema puede ocurrir que kx(t) x (t)k ! 0 si t ! y sin embargo
que no consigamos hacer que kx(t) x (t)k sea menor que cualquier prefijado)

0 = 3t 1/ 3 + ln y
Ej 1. Posee solución con (to ) = o, y(to ) = yo si yo > 0. Única si o 6 = 0.
y0 = y t 3

No sabemos, ni sabremos, hallar su solución general, ni ver qué soluciones están defi-
nidas t , ni precisar su estabilidad (aunque se podrían hallar los valores aproximados
para unos datos iniciales concretos por métodos numéricos). Es trivial comprobar que
una solución del sistema es
Å ã
t3
x(t) = 1
(única con (1) = y(1) = 1 , aunque tal vez haya más con (0) = 0 , y(0) = 1 ).

29
Consideremos ahora la ecuación de orden n : [E] (n) = g t, , 0, . . . , (n 1) .

Sus soluciones son funciones (t) derivables n veces en un intervalo que


llevadas a [E] la convierten en una identidad. Llamamos [PE] al problema de
valores iniciales consistente en hallar la solución de [E] que satisface las n con-
diciones:
0 (t 0 (n 1) (t (n 1)
(to ) = o, o) = o
, ..., o) = o
.

Toda ecuación de orden n se puede convertir en un sistema (sistema equi-


valente):
Haciendo: 0= (n 1) =
= 1, 2, ... , n !
8
0 =
>
> 2 ! ! 0 1
< 10 = 1 o
3
[SE] 2 . Llamando x = : = : , x o =@ : A,
> ···············
> (n 1) (n 1)
: 0 = g(t, , . . . , ) n o
n 1 n

es claro que es solución de [E] si y sólo si x lo es de [SE].


Si además x cumple x(to ) = xo , es solución de [PE].

Gracias a esto, de cualquier resultado que obtengamos para sistemas podremos


deducir consecuencias inmediatas para ecuaciones (aunque iremos viendo que
éstas tendrán formas de resolverse más directas, con lo que casi nunca acudiremos
al sistema equivalente para hallar soluciones). Por ejemplo, los teoremas 1 y 2 se
pueden aplicar a ecuaciones. Veamos la forma particular que adopta el TEyU:

g (n 1) g
, . . . , (n 1) continuas en un entorno de (to , o , 0o , . . . , (n 1) )
Teor 3. g , o
) [PE] tiene solución única definida al menos en un entorno de to .

Por último, se dice que (t) es solución estable o asintóticamente estable


de [PE] si lo es la solución x(t) del sistema equivalente (y por lo tanto se
han de parecer tanto (t) y (t) como las n 1 primeras derivadas de las dos
soluciones).

Ej 2. t2 00 2t 0+2 =0 . Posee solución única con (to ) = , 0 (t


o) = b si to 6= 0 .

En la próxima sección veremos que su solución general es: = c1 t + c2 t 2 .


La única solución que satisface (1) = , 0 (1) = b es = (2 b)t + (b )t 2 (que,
como debía, es función continua de los datos iniciales). Las infinitas soluciones = c2 t 2
satisfacen (0) = 0 , 0 (0) = 0 , pero no hay ninguna satisfaciendo (0) = 1 , 0 (0) = 0 .
La solución con (1) = 0 (1) = 1 (o sea, = t ) es I pues para el sistema equivalente
⇢ 0= Å ã Å ã Å ã
y t t (2 b)t + (b )t 2
2 1y es inestable x(t) = , pues ! ,
y 0 = 2t + 2t 1 1 (2 b)+ 2(b )t

para infinitos y b tan cercanos como queramos a 1 .

(Escribir las soluciones del sistema equivalente a partir de las de la ecuación es muy
sencillo: basta formar un vector cuyo primer elemento sea la solución de la ecuación,
y los sucesivos de debajo sus derivadas; y si resolvemos una ecuación a partir del
equivalente (poco útil como se ha dicho) lo que obtendremos es un vector en el que
cada elemento es derivada del de arriba, y el primero es la solución de la ecuación).

30
2.2 Sistemas de 2 ecuaciones lineales y ecuaciones
lineales de orden 2
⇢ 0
= (t) + b(t)y+ ƒ (t)
Sea . O en forma vectorial:
y 0 = c(t) + d(t)y+ g(t)
Å ã Å ã Å ã
b ƒ
[S] x0 = A(t)x+ f(t) , con x = y , A = c d , f = g .

Suponemos , b , c , d , ƒ , g funciones de R en R continuas (o sea, la matriz


A(t) y la función vectorial f(t) lo son) en un intervalo (finito o infinito, abierto o
cerrado) y sea to 2 . El teorema de existencia y unicidad asegura que entonces una
única solución de [S] cumple cualquier par de datos iniciales (to ) = o , y(to ) = yo .
Como ocurría en las lineales de primer orden, se puede probar que la solución
única está definida t 2 .

Consideremos primero el sistema homogéneo: [Sh] x0 = A(t)x .


Å ã Å ã Å ã
(t) (t)
Una matriz W(t) = y 1 (t) y 2 (t) cuyas columnas x1 = y 1 y x2 = y 2
1 2 1 2

son soluciones de [Sh] y tal que el determinante |W|(to )| 6= 0


se llama matriz fundamental de [Sh].

El siguiente teorema asegura que [Sh] está resuelto conocida una W(t) (pero no
nos dice cómo calcularla):

El conjunto V de soluciones de [Sh] es un espacio vectorial de dimensión


2 . Una base de V es el conjunto {x1 , x2 } , soluciones que constituyen
Teor 1. una matriz fundamental W(t) . Por tanto, la solución general de [Sh] es:
Å ã
c1
x = c1 x1 + c2 x2 = W(t)c , con c = c2
arbitrario.

Es muy fácil comprobar que cualquier combinación lineal de soluciones de [Sh]


es también solución.
Además probamos que son base Å ã
de
Å ã
V las soluciones e1 (t) y e2 (t) de [Sh] de
1 0
valores iniciales respectivos 0 y 1 :

Son linealmente independientes:


c1 e1 (t)+ c2 e2 (t) ⌘ 0 ) c1 e1 (to )+ c2 e2 (to ) = 0 ) c1 = c2 = 0 .
Å ã
(t)
Toda solución x(t) = y(t) se puede escribir como combinación lineal de ellas:

z(t) = (to )e1 (t)+y(to )e2 (t) es solución con z(to ) = x(to ) ) x(t) ⌘ z(t) t 2 .
unicidad

Sean ahora x1 y x2 soluciones cualesquiera satisfaciendo |W|(to )| 6= 0 . Dichas


soluciones son linealmente independientes:
c1 x1 (t)+ c2 x2 (t) = W(t)c ⌘ 0 ) W(to )c = 0 ) c1 = c2 = 0 .

Un sistema tiene infinitas matrices fundamentales W(t) . A partir de cualquier de


ellas podríamos calcular la solución de [Sh] con el dato inicial x(to ) = xo simple-
mente resolviendo el sistema de dos ecuaciones con dos incógnitas W(to )c = xo ,
que tiene solución única por ser el determinante |W|(to )| 6= 0 . Pero lo podemos
hacer también directamente a partir de la llamada ‘matriz fundamental canónica’:

31
Se llama Wc (t) , matriz fundamental canónica en to , a la que satisface
Wc (to ) = I . Dada cualquier W(t) , a partir de ella se puede hallar la canónica,
pues Wc (t) = W(t)W 1 (to ) . La solución x de [Sh] que cumple x(to ) = xo es:
x = Wc (t)xo = W(t)W 1 (t
o )xo .

Es claro que W(t)W 1 (to ) es la matriz unidad I en t = to y además el producto


de W(t) por la derecha por cualquier matriz constante no singular sigue siendo
fundamental (sus columnas, como es fácil comprobar, son combinaciones lineales
de soluciones, y por tanto son soluciones, y su determinante sigue siendo no nulo).
Que la última expresión satisface x(to ) = xo es evidente.

[Para casi todos los sistemas lineales, incluso para estos 2x2, va a ser imposi-
ble hallar ninguna W(t) (y, por tanto, tampoco las soluciones; cuando A sea
constante, pronto veremos cómo calcular una, que precisamente va a ser la
canónica). Esto es ya mucho más complicado que las lineales de primer orden
que vimos en el capítulo 1. Allí la ‘matriz fundamental’ era simplemente un
escalar,
R expresable siempre en términos de primitivas (era la exponencial de
la ), y si era constante esa ’matriz’ era e t ].

Consideremos ahora el sistema no homogéneo: [S] x0 = A(t)x+ f(t) .

i] Si xp es cualquier solución de [S] y W(t) es una matriz fundamental


de [Sh], la solución general de [S] viene dada por x = W(t)c+ xp .
R
1
Teor 2. ii] Una solución particular de [S] es xp = W(t) W (t) f(t) dt .
iii] Si Wc (t) es la canónica en to la solución de [S] con x(to ) = xo es
Rt
x = Wc (t)xo + Wc (t) Wc 1 (s) f(s) ds
to

[Como en las de primer orden, a las fórmulas de ii] y iii] se les llama de
variación de las constantes].

i] Sea x solución de [S]. Entonces [ x xp ] 0 = Ax+ f Axp f = A[ x xp ]


Por tanto x xp = W(t)c para algún c , pues satisface [Sh].
Así pues, toda solución se puede escribir así.

ii] Veamos que W 1 existe, es decir, que la W(t) es no singular t2 :


Si fuera |W|(t) = 0 para algún s 2 existirían b1 , b2 no ambos nulos tales
que b1 x1 (s)+ b2 x2 (s) = 0 . Entonces x(t) = b1 x1 (t)+ b2 x2 (t) sería solución
con x(s) = 0 . Por unicidad sería x(t) ⌘ 0 y por tanto sería |W|(t) = 0 para
todo t 2 , en particular para to .
Y como matrices y vectores se derivan como las funciones de una variable:
R
x0p = W0 W 1 (t) f(t) dt + WW 1 f = Axp + f ,
pues W0 = AW por ser solución cada columna.

iii] Por i] y ii] es solución de [S]. Y además cumple el dato:


x(to ) = Wc (to )xo = xo = xo .

Así pues, hallada cualquier W(t) está resuelto el sistema homogéneo y el


no homogéneo (y también el problema de valores iniciales). Pero sólo tendremos
un método para calcular la W(t) en el caso que tratamos a continuación: si la
matriz A es constante. Para ese cálculo necesitaremos algunas definiciones y
resultados algebraicos previos cuya demostración se puede encontrar en los libros
de álgebra.

32
Sistemas lineales de coeficientes constantes:
Å ã
b
[C] x0 = Ax+ f(t) y [Ch] x0 = Ax , con A = c d
matriz constante.

1 2
La exponencial de una matriz B se define: eB = I+ B+ 2
B +··· ,
serie convergente (sus elementos son series numéricas convergentes)
para toda B . Se tiene que eB es no singular, que su inversa es e B
y que eB+C = eB eC si BC = CB .

La exponencial de una matriz no se calcula directamente, sino a partir de su forma


J de Jordan (la forma más sencilla en que se puede escribir la matriz haciendo
cambios de base). Aunque en general sea complicado hallar la J asociada a una
A , en el caso n = 2 que estamos tratando es fácil dar tanto J como la matriz P del
cambio de base:
⇥ ⇤
Sea A una matriz 2x2 y sean 1 , 2 sus autovalores raíces de |A |=0 .
Entonces hay una matriz no singular P tal que A = PJP 1 donde:
i] Si 1 6= 2 y v1 , v2 son vectores propios asociados [o sea, (A )vi = 0 ],
Å ã Ä ä
0
J= 0
1
2
y P = v1 v2 , matriz cuyas columnas son v1 y v2 .
ii] Si 1= 2= y sólo existe un vector propio v linealmente independiente
Å ã Ä ä
0
asociado, J = 1
y P = w v , w cualquier vector con (A )w = v .
iii] Si 1 = 2 = y existen dos vectores propios linealmente independientes
asociados a , entonces A es ya diagonal.

[Los autovalores de una A real pueden ser reales o complejos conjugados;


en este último caso la J y la P serán complejas, pero PJP 1 será real].

Teor 3. Wc (t) = eA(t to ) es la matriz fundamental canónica en to de [Ch].


d At d X (At)k X d (At)k X (At)k 1
En efecto, dt
e = dt k!
= dt k!
=A (k 1)!
= AeAt , admitiendo que se
k=0 k=0 k=1

puede derivar la serie término a término (se puede justificar) y tomando to = 0


por comodidad en la escritura. Es, pues, eA(t to ) matriz fundamental pues cada
una de sus columnas cumple también [Ch]. Como eA(to to ) = , es la canónica.

Hemos reducido el problema de resolver [C] al de hallar la exponencial de At (del


producto del escalar t por la matriz A ). Usando la J asociada a la A es fácilmente
calculable, pues eAt está relacionada con eJt de la misma forma que la A con la J :

eAt = P eJt P 1 , ya que


X Ak t k X PJk P 1 t k X Jk t k
= =P P 1 = PeJt P 1 , pues Ak = PJP 1 · · · PJP 1 = PJk P 1 .
k! k! k!
k=0 k=0 k=0

Y eJt es fácil de hallar en las dos posibles situaciones que ofrece Jordan para n = 2 :
Å ã ✓ ◆ Å ã Å ã
0 e 1t 0 0 1 0
i] Si J = 01 , es eJt = 2t
. ii] Si J = 1 , es eJt = t 1
e t .
2 0 e

Å ã Å ã ✓ 2 2
◆ ✓ ◆
1 0 1t 0 1 t 0 e 1t 0
i] Utilizando la definición: eJt = 0 1
+ 0
+ 2! 1
2 2 +· · · = 2t
.
2t 0 t 0 e
2

Å ã Å ã ✓ ◆î Å ã Å ãó Å ã
0 0 0 e t 0 1 0 0 0 1 0
ii] Como J = 0
+ 1 0
= D+ N , eJt = eDt eNt = 0 e t 0 1
+ t 0
= t 1
e t.

33
De lo anterior y del teorema 2 deducimos la fórmula de variación de las cons-
tantes para la solución de [C] que satisface el dato inicial x(to ) = xo :
Rt
x = P eJ(t to ) P 1 x
o +P eJ(t s) P 1 f(s) ds
to

donde todas las matrices son calculables (hallada la eJt , basta cambiar t por t to
o por t s para obtener las otras). Insistimos en que los y las matrices P , P 1 y
e pueden ser complejos, pero si A es real han de ser reales eAt y la solución x .
Jt

Para hacer los cálculos de esta fórmula es aconsejable efectuar las operaciones de
derecha a izquierda, de forma que sólo haya que multiplicar matrices por vectores
(y no matrices por matrices lo que es mucho más largo y mayor fuente de errores).
Si lo que se busca es la solución general nos podríamos ahorrar algunos cálculos,
pues no necesitamos la canónica. Por ejemplo, W(t) = P eJt es matriz fundamental
de [Ch] (es producto por la derecha de la matriz canónica por la P no singular) y
de ella deducimos que la solución general del sistema homogéneo [Ch] es simple-
mente x = P eJt c , con c arbitrario. Pero esta expresión puede ser inadecuada si los
son complejos, pues queda x expresada en términos de funciones y constantes
complejas (en ese caso mejor seguimos lo otros caminos que describiremos).
⇢ 0
=2 +y Å ã Å ã Å ã
2 1 0 0
Ej 1. Resolvamos y 0 = 3 + 4y + et , es decir, x0 = 3 x + , x(0) = .
4 et 1
con (0) = 0 , y(0) = 1

[Sabemos que dicha solución es única y que está definida para todo t 2 R ].
ã ✓ ◆ Å
2 5 0 Jt e5t 0
|A |= 6 + 5 = 0 ! 1 = 5 y 2 = 1 . Por tanto, J = 0 1 , e = .
0 et
Å ã Å ã Å ã Å ã
3 1 1 1 1 1
(A 5 )v = 3 1
v = 0 ! v1 = 3 . (A )v = 3 3 v = 0 ! v2 = 1 )
Å ã Å ã Å ã
1 1 1= 1 1 1 1 1 1
P= 3 1
) P 4 3 1
= 4 3 1
.

(Escribir la inversa de una matriz 2x2 es casi inmediato:


Å ã Å ã
b 1= 1 d b
P= c d
) P |P| c
se cambian y d de sitio, b y c de signo y se divide por el determinante).
Å ãÅ ã Zt Å ãÅ ã
1 1 1 0 1 1 1 0
Por tanto: x(t) = 4
P eJt 3 1 1
+ 4
P eJ(t s) 3 1 es
ds
0
✓ ◆Å ã Z t✓ ◆Å ã Å ã✓ ◆ ÇR t å
1 e5t 0 1 e5(t s) 0 es 1 1 1 e5t e5t 4s ds
= P + 14 P s ds = 1
+4 P 0 Rt
4 0 et 1
0
0 et s e 4 3 1 et et ds 0
✓ ◆ Å ã✓ 1 ◆ ✓ ◆
1 e5t et 1 1 1 4
[ e5t et ] 1 5e5t 5et 4tet
= 4 3e5t + et
+ 4 3 1
= 16 15e5t + et + 4tet
tet

Si queremos la solución general, los cálculos son algo más cortos. La solución general
de la homogénea xh se escribe rápidamente una vez hallados los autovalores y vectores
propios:
✓ ◆ Å ã Å ã⇥
e5t et ⇤
xh = W(t)c = PeJt c = 5t 1 + c et 1 = c1 e 1 t v1 + c2 e 2 t v2
5t t c = c1 e3e 3 2 1 e

Para la solución particular de la no homogénea sí necesitamos hallar alguna inversa:


✓ ◆ Å ã ✓ ◆
5t 5t R e 4t e 4te t t
W 1 (t) = 1 e e
, xp = W(t) W 1 (t) f(t) dt = 1
W(t) = 1
.
4 3e t e t 16 4t 16 3et + 4tet

Englobando los términos con et de la xp en la constante c2 , obtenemos esta solución


general del sistema:
Å ã Å ã Å ã
1 1 1 1
x = xh + xp = c1 e5t 3 + c2 et 1
+ 4
t e t
1

34
ß 0 Å ã Å ã Å ã
= y+2 (0) = 0 1 1 2 0
Ej 2. Resolvemos con ! x0 = 1 x + , x(0) = .
y0 = +y y(0) = 1 1 0 1

|A |=( 1)2 + 1 = 0 ! = 1± !
✓ ◆ ✓ ◆
et+ t 0 et [ cos t + sen t] 0
eJt = = .
0 et t 0 et [ cos t sen t]

[Recordemos que e ±b = e [ cos b ± sen b] y que, por tanto,


e b +e b = 2 cos b , e b e b = 2 sen b ].
Å ã Å ã Å ã
± 1 1 1
(A [ 1± ] )v = 0 ! v± = 1 ) P= 1 1
) P = 2 1
✓ ◆
î 1 22 0 ó
comprobamos: P P 1 = .
2 0 2
Å ãÅ ã Zt Å ãÅ ã ✓ ◆ Z t✓ ◆
1 1 0 1 1 2 1 t et e(1+ )(t s)
x(t) = 2
P eJt 1 1
+ 2
P e J(t s)
1 0
ds = 2
e P t + P s) ds
0
e 0 e (1 )(t

î Rt ⇥ ⇤ ó
)(t s) t (1 ) ⇥ ⇤
0
e(1+ )(t s) ds = 1+
e(1+ 0
= 1+1
1 e(1+ )t y análoga la otra
Å ã ✓ ⇥ ⇤◆ Å ã ✓ ◆
sen t 1 [ 1+ ] 1 e(1+ )t sen t 1 2 + [ 1]e(1+ )t + [ 1]e(1 )t
= et cos t
+ 2
P ⇥
(1 )t
⇤ = et
cos t
+ 2
[1 ] 1 e 2 [ 1+ ]e(1+ )t [ 1 ]e(1 )t

✓ ◆ ✓ ◆ ✓ ◆
et sen t 1 + et [ cos t + sen t] et cos t 1
= + =
et cos t 1 + et [ cos t + sen t] et sen t + 1

Está claro que trabajar con autovalores complejos complica mucho los cálculos. Por suer-
te conoceremos otros caminos para resolver estos sistemas: pronto veremos como con-
vertirlos en ecuaciones de segundo orden (mucho más manejables) y en 2.5 dispondre-
mos de la transformada de Laplace.
Para este ejemplo concreto (con f(t) constante) podíamos haber atajado buscando una
solución del sistema no homogéneo que fuese también constante (no siempre existirá,
pues será necesario que el determinante |A| 6= 0 , o lo que es lo mismo, que = 0 no sea
autovalor). Basta resolver el sistema
ß Å ã
y+ 2 = 0 1
para obtenerla: = 1 , y = 1 ! xp = 1 .
+y=0

Nos falta ya sólo sumar a xp la solución general del homogéneo ( c1 e 1t v+ + c2 e 2t v


como vimos en ejemplo anterior), e imponer los datos:
✓ ◆
c1 et+ t c2 et t 1 d. . c1 c2 = 1
x= ! ! c1 = 21 , c2 = 1
2
!
c1 et+ t + c2 et t + 1 c1 + c2 = 0
Ç1 å ✓ t ◆
2
et [ e t + e t] 1 e cos t 1
x= 1 = t
et [ e t e t] + 1 e sen t + 1
2

Si queremos la solución general en términos de funciones reales podemos hallar P 1 y


calcular hasta el final la matriz canónica:
Å ã✓ ◆Å ã ✓ t ◆ Å ã Å ã
1 et+ t 0 1 e cos t et sen t c 1
eAt = = ! x = eAt c1 + .
2 1 1 0 et t 1 et sen t et cos t 2 1

[Con esta matriz fundamental real podríamos hallar una xp (y no sólo en este caso
de f constante) realizando integraciones de funciones reales. Pero esto tampoco ahorra
tiempo porque, por ejemplo, es más rápido hallar una primitiva de e(1+ )t que de et cos t
(hay que utilizar dos veces partes para volver a encontrar la integral inicial)].

Dejemos ya los sistemas de dos ecuaciones lineales y pasemos a estudiar las ecua-
ciones lineales de orden dos que, como dijimos en la sección 2.1, se pueden con-
siderar como un caso particular de ellos. Será cuestión de ir viendo la forma que
adoptan los resultados anteriores para el ‘sistema equivalente’ a una ecuación,
aunque este no sea el camino más corto para estudiar las ecuaciones (sus teore-
mas se podrían probar sin necesidad de matrices).

35
Ecuaciones lineales de segundo orden:

Consideremos [e] 00 + (t) 0 + b(t) = ƒ (t) , con , b y ƒ continuas en .

Sabemos que hay solución única definida en todo el intervalo para cada par de
datos iniciales (to ) = o , 0 (to ) = 0o si to 2 . Haciendo 0 = y se tiene el sistema
ß 0 Å ã Å ã
=y
, cuyas soluciones serán funciones vectoriales y = .
y 0 = b(t) (t)y+ ƒ (t) 0

Este sistema está resuelto conociendo una matriz fundamental W(t) . Para ello
basta hallar dos soluciones 1 y 2 de la ecuación homogénea asociada a
[e] (pues la fila inferior de la matriz estará formada por las derivadas 01 y 02 )
tales que sea no nulo en algún s 2 el llamado

1 2
determinante wronskiano de 1 y 2: |W|(t) = 0 0 .
1 2

La solución general de [e] será entonces la primera componente del vector:


R Å ã ✓ 0 ◆
0 1 (t) 2 (t)
W(t)c + W(t) W 1 (t) ƒ (t) dt , y como W 1 (t) = |W|(t) 2
0 (t) (t)
,
1 1

unas pocas operaciones nos permiten concluir de los teoremas para sistemas que:

i] Si 1 y 2 son dos soluciones de la homogénea tales que |W|(s) 6= 0


para algún s 2 y p es cualquier solución particular de [e], la solución
Teor 4. general de [e] es: = c1 1 + c2 2 + p .
R 1ƒ R 2ƒ
ii] Una solución particular de [e] es: p = 2 |w| dt 1 |w|
dt .
[Fórmula de variación de las constantes].
La expresión de las dos soluciones en términos de funciones elementales se
podrá dar sólo en los pocos casos que vamos a describir (en el capítulo 3
resolveremos las ecuaciones del tipo [e] por medio de series).

Resolvamos la ecuación con coeficientes constantes: [c] 00 + 0+ b = ƒ (t) .

Llamemos [ch] a la ecuación homogénea ( ƒ ⌘ 0 ). La matriz del sistema asociado:


Å ã
0 1 2+
A= b
, tiene por ecuación característica P( ) ⌘ +b=0 .

Como los elementos del vector real PeJt P 1 c , solución general del sistema homo-
géneo, están formados por combinaciones lineales arbitrarias de los elementos de
la matriz eJt , la solución general de [ch] es, según sean las raíces de P( ) :

Si 1 6= 2 reales, = c1 e 1 t + c2 e 2 t
Si doble (real), = (c1 + c2 t) e t
Si = p± q , = (c1 cos qt + c2 sen qt) ept
✓ ◆ Å ã ✓ ◆
e 1t 0 1 0 ept [ cos qt + sen qt] 0
pues eJt es: 2t
, t 1
e t ó 0 ept [ cos qt sen qt]
0 e

[Se puede llegar a la solución por un camino directo sin pasar por el sistema equivalente:
probando en [ch] soluciones del tipo = e t se deduce que debe satisfacer la ecuación
característica de arriba; si 1 6= 2 2 R es inmediato que el |W| de e 1 t y e 2 t es no nulo;
si doble, se comprueba que te t también es solución y que es 6= 0 el |W| de ambas; y si
2 C se utiliza que la parte real y la imaginaria de una solución compleja también lo son].

Para hallar la solución particular de la no homogénea [c] disponemos siempre de


la fórmula de variación de las constantes, pero en muchas ocasiones será pre-
ferible utilizar el método de los coeficientes indeterminados que precisaremos
en la próxima sección e iremos introduciendo en los ejemplos.

36
Ej 3. Resolvemos 00 2 0 + = 6tet con (1) = 0 (1) = 0 .
2 2 +1=0 ! = 1 doble, luego la solución de la homogénea es = (c1 + c2 t) et .
h

et tet R t t R t t
2t ! t e te dt 6et te te dt = t 3 et ! = (c1 + c2 t)et + t 3 et .
|W|(t) = t
e (t + 1)e t = e p = 6te e2t e2t

(1) = [ c1 + c2 + 1]e = 0
De los datos iniciales: 0 (1) = [ c + 2c + 4]e = 0 ! = (2 3t + t 3 ) et , solución buscada.
1 2

[Se puede hallar p con el método de coeficientes indeterminados que veremos;


la idea es buscar una p ‘similar’ a ƒ (t) ; parece que una buena candidata a p es un
polinomio multiplicado por et pues sus derivadas son del mismo tipo; como et y tet ya
figuran en h , el polinomio debe contener términos t 2 et ; la próxima sección dirá que la
buena candidata es p = t 2 et [ At + B] , para A y B adecuados; para fijarlos llevamos p
y sus derivadas 0p = et [ At 3 + (B+ 3A)t 2 + 2Bt] y 00
p
= et [ At 3 + (B+ 6A)t 2 + (4B+ 6A)t+ 2B]
a la ecuación, obteniendo [ 6At + 2B]et = 6tet y por tanto deben ser B = 0 , A = 1 ; así
hallamos de nuevo la p = t 3 et ; en este ejemplo parece más largo este camino que la
variación de constantes, pero en muchos otros ahorra el cálculo de largas primitivas].
Aunque sea muy mal camino, repasemos las matrices resolviendo el sistema equivalente:
ß 0 =y Å ã Å ã Å ã Å ã
0
, o sea, x0 = 01 1
+ , x(1) = 0
. = 1 doble ! eJt = 1 0
et
y0 = + 2y+ 6tet 2 6tet 0 1 1

(nunca la matriz de un sistema proveniente de una ecuación puede ser diagonal).


Å ã
1
El único (salvo producto por un escalar) vector v asociado al = 1 doble es v = 1
.
Å ã Å ã Å ã Å ã
1 1 0 0 1 1 1 1
Escogemos w tal que 1 1
w = v , por ejemplo w = 1
!P= 1 1
, P = 1 0
Å ãR Å ãÅ ãÅ ã ✓ ◆
0 1 t t s 1 0 1 1 0 t 3 3t + 2 (su es la de antes
! x= 1 1 1
e t s 1 1 0 6ses
ds = t + 3t 2 3t 1
3 et y su y es la 0 ).

Ej 4. Hallemos la solución general de las dos ecuaciones: a) 00 + = et y b) 00 + =t n t .

En ambos casos es: 2+1=0 ! = ± ! solución general: = c1 cos t + c2 sen t + .


p
Å ã
cos t sen t
Para hallar la p con variación de las constates: |W|(t) = sen t cos t
= 1 , de dónde:
R R
a) p = sen t et cos t dt cos t et sen t dt = · · · = s 12 et [ c+s] c 12 et [ s c] = 12 [ s2 +c2 ]et = 12 et .
[Mucho más corto será probar p = Aet ! 2Aet = et ! A = 12 , 1 t
p= 2e ].
R R sen2 t R dt =s R d 1+sen t
b) p = sen t sen t dt cos t cos t dt = – sc + sc – c c = 1 2
= ··· = cos t ln cos t
.
[En esta ecuación ni el método de coeficientes determinados ni Laplace serían aplicables].

Aunque es perder el tiempo pasar de ecuaciones a sistemas, en cambio, sí es


práctico convertir un sistema dado en una ecuación de mayor orden, sobre
todo si los autovalores son complejos:
ß 0
= y+ 2 (0) = 0
Ej 5. Pasando a una ecuación, volvamos a resolver el ejemplo 2 , .
y0 = + y y(0) = 1

Despejemos la de la segunda ecuación (más corta que la otra): = y0 y.


Sustituyendo en la primera: y 00 y0 = y0 y y+2 , y 00 2y 0 + 2y = 2 .
La solución general de la homogénea la obtenemos de la ecuación característica (la
misma que la de la matriz) y la solución particular en este caso salta a la vista p = 1
(con la fórmula de variación de las constantes sería largo y el método de coeficientes
indeterminados lo que sugerirá es probar una constante). Así pues:
2 2 +2=0! = 1 ± ! y = (c1 cos t + c2 sen t) et + 1
Imponiendo los datos iniciales: y(0) = 1 , y 0 (0) = (0)+y(0) = 1 , obtenemos la y de antes:
y = et sen t + 1 .
Y simplemente sustituyendo esta y obtenemos la : = y0 y = et cos t 1.

37
Consideremos otros tres casos de ecuaciones lineales de segundo orden [e], ahora
con coeficientes variables, que son resolubles por métodos elementales.

i) Ecuaciones de Euler: [u] t2 00 + t 0 + b = h(t) , t > 0 .


d d2 ⇥ d2 d ⇤
Haciendo el cambio de variable independiente t = es : dt
= 1t dds , dt 2
= t12 ds2 ds
,

[u] se convierte en la siguiente ecuación lineal con coeficientes constantes:


d2
ds2
+( 1) dds + b = h(es ) , de ecuación característica

Q( ) ⌘ 2+( 1) + b = 0 .

Como conocemos las soluciones de la ecuación homogénea para esta segunda


ecuación, deshaciendo el cambio ( s = ln t ), tenemos que la solución general de
una ecuación de Euler homogénea es:

Si 1 6= 2 reales, = c1 t 1 + c2 t 2

Si doble (real), = (c1 + c2 ln t)t


Si = p± q , = [ c1 cos(q ln t)+ c2 sen(q ln t)]t p

(observemos que la ’ecuación característica’ de una ecuación de Euler sería la


que obtendríamos probando en la homogénea soluciones de la forma t ).

Para hallar la solución particular de la no homogénea dispondremos siempre de la


fórmula de variación de las constantes con ƒ (t) = h(t)/ t 2 (y para la ecuación
de coeficientes constantes en s del método de coeficientes indeterminados de
2.3, si h(es ) es del tipo adecuado).

Ej 6. Hallemos la solución general de t2 00 +t 0 =t .

La ’ecuación característica’ es 2 + (1 1) 1=0 ! = ±1 !


la homogénea tiene por solución general 1
h = c1 t + c2 t (válida en este caso t 6= 0 ).
t t 1 R 1 R 1 t 1 dt
|W|(t) = = 2t 1 y ƒ (t) = t 1 ! =t 1 tt dt t t 2t = 2t ln t t
!
2 p 1 1 4
1 t 2t

la solución general de la no homogénea es = c1 t+c2 t 1+ t ln t (englobado el t


en c1 t ).
2 4

[La p se podría calcular utilizando coeficientes indeterminados en la ecuación 00 = es


a la que conduce el cambio t = es ; veremos que la p que deberíamos probar en la
ecuación en s es p = Ases , o lo que es lo mismo, podríamos probar p = At ln t en la de
Euler inicial); si lo hiciésemos, comprobaríamos que debe ser A = 12 como antes].

ii) Si en la ecuación [e] es b(t) ⌘ 0 : 00 + (t) 0 = ƒ (t) ,


el cambio 0 = y convierte dicha ecuación en una lineal de primer orden
en y , resoluble con la fórmula del capítulo 1. Integrando y obtendremos la .
(Observemos que el cambio anterior reduce también una ecuación no lineal en la que no
aparece la en una de primer orden, tal vez resoluble: 00 = g(t, 0 ) ! y 0 = g(t, y) ; este es
uno de los pocos casos de ecuaciones no lineales que se pueden resolver elementalmente).

Ej 7. Calculemos la solución general de t 00 2 0 = t cos t .


R R⇥ R ⇤
0 = y ! y 0 = 2y + cos t ! y = Ct 2 + t 2 cos t dt ! = K + Ct 3 + t2 cos t
dt dt
t t2 t2
(primitivas que no son calculables elementalmente).
Es también de Euler ( = 2 , b = 0 , h(t) = t 2 cos t ) y se puede resolver como el ejemplo 6:
2 3 =0 ! = 0, 3 ! h = c1 + c2 t 3 , solución de la homogénea. |W|(t) = 3t 2 !
R R cos t
= c1 + c2 t 3 + t 3 cos
3t 2
t
dt 3t
dt , que debe poderse hacer coincidir con la de antes.

38
iii) Si conocemos una solución 1 de la homogénea 00 + (t) 0 +b(t) = 0 , el
R
cambio = 1 dt lleva la ecuación [e] a lineal de primer orden en .

[No son, por tanto, necesarias las dos soluciones que exigía el teorema 4; basta
sólo hallar una; el problema es que en pocas ocasiones podremos encontrar
esa solución: a veces a simple vista, a veces tanteando, a veces nos aparecerá
cuando estemos resolviéndola por series].
R R
En efecto, llevando , 0= 0 dt + , 00 = 00 dt + 2 0 + 0 a [e]:
1 1 1 1 1
R 1 1
0 + (2 0 + 00 + 0 +b dt = ƒ (t) ! 0= 2 0 + ƒ (t)
1 1 1) +( 1 1 1) 1 1
+ 1

pues 1 satisface la homogénea. El conocimiento de la 1 permite hallar también


(sin necesidad de hacer el cambio) una segunda solución 2 de la homogénea,
pues integrando la ecuación en con ƒ (t) = 0 :
R
R
2
R e dt
dt
=e 1 ! 2 = 1 2 dt
1

[El de la fórmula, desde luego, es el que queda cuando se escribe la ecuación


en la forma de arriba 00 + 0 + · · · ; utilizaremos bastantes veces esta fórmula
en el capítulo 3, en el que trabajaremos, sobre todo, con homogéneas].

Ej 8. Resolvamos t3 00 t 0 + =1 .

Las únicas soluciones de la homogénea que pueden saltar a la vista son las rectas
= t+b (pues entonces el término de la 00 no aparece y basta mirar los otros dos).
En este caso 1 = t es solución de la homogénea.
Para resolver la ecuación dada podemos ahora seguir dos caminos diferentes:
R R
1) Efectuar explícitamente el cambio = t , 0= + t , 00 = 2 + t 0 ,
para convertir la ecuación inicial en la lineal de primer orden no homogénea:
t4 0 + (2t 3 t2 ) = 1 ! 0 = (t 2 2t 1) +t 4 .
R
Resolver esta lineal: = c2 t 2 e 1/ t + t 2 e 1/ t t 2 e1/ t dt = c2 t 2 e 1/ t t 2 .
R R
Y deshacer el cambio: = t c1 + c2 t 2 e 1/ t dt t 2 dt = c1 t + c2 te 1/ t + 1 .
[No olvidemos la constante de integración; la solución general debe conte-
ner 2 constantes arbitrarias].

2) Hallar una segunda solución de la homogénea por la fórmula deducida antes:


R
R e t 2 dt
=t dt = te 1/ t
2
t2
y calcular una pde la no homogénea con la fórmula de variación de constantes:
R R
|W|(t) = e 1/ t ! p = te 1/ t t 2 e1/ t dt t t 2 dt = t + 1 ! = c1 t + c2 te 1/ t + 1

(El trabajo con la no homogénea ha sido absolutamente inútil y podíamos perfecta-


mente habérnoslo ahorrado, porque la p = 1 se veía también a simple vista).

39
2.3 Ecuaciones y sistemas lineales de orden n
Veamos, casi sin demostraciones, los resultados esenciales, análogos a los del caso
n = 2 . Aquí empezamos tratando, en vez de los más complicados sistemas, las:

Ecuaciones lineales de orden n .


Sea [e] (n) + (n 1) + · · ·+ 0+ = ƒ (t) , ƒ continuas en .
1 (t) n 1 (t) n (t)

Tiene solución única, definida en todo el intervalo , satisfaciendo:


(n 1) (t (n 1) ,
(to ) = o, ..., o) = o
si to 2 .

Si 1, ..., n son n soluciones de la homogénea, su wronskiano


1 ··· n

Teor 1. |W|(t) = :
(n 1)
: es no nulo en algún s 2 y p es solución
(n 1)
1 ··· n

de [e], la solución general de [e] es: = c1 1 + · · ·+ cn n + p.

[Con la teoría de sistemas que veremos luego se podría hallar una p a partir de
las 1 , . . . , n (para n = 2 obtuvimos la fórmula de variación de las constantes), pero
como casi nunca se podrán hallar esas n soluciones, no nos ocuparemos de ello].

Nos vamos a centrar ya en las ecuaciones con coeficientes constantes:

Sea [c] L[ ] ⌘ (n) + (n 1) + · · ·+ 0+ = ƒ (t) ,


1 n 1 n

y llamemos [ch] a la homogénea L[ ] = 0 .

Para resolver [ch] basta hallar las raíces de un polinomio P( ) de orden n


(llamadas autovalores de la ecuación). Como se sabe, eso en general es impo-
sible para n 3 con lo que sólo se podrá dar la solución exacta en casos excep-
cionales. Como para n = 2 , el polinomio característico P( ) es el que aparece al
probar soluciones del tipo e t en [ch]:

P( ) ⌘ n+ n 1 + · · ·+ + =0 (ecuación característica)
1 n 1 n

P( ) tendrá m raíces reales 1 , ..., m , de multiplicidades r1 , .., rm , y 2k comple-


jas p1± q1 , ..., pk± qk de multiplicidades s1 , .., sm [será r1+· · ·+rm+2(s1+· · ·+sk ) = n ].
Desde luego, todas podrían ser reales, o todas complejas; y perfectamente puede
ser rk = 1 ó sk = 1 (autovalores simples). Necesitamos n soluciones, tantas como
raíces de P( ) . Este teorema dice cómo conseguirlas:

Las r funciones e t , te t , . . . , t r 1 e t son soluciones linealmente


independientes de L[ ] = 0 , si es raíz real de P( )=0 de multiplici-
Teor 2. dad r . Lo mismo sucede con las 2s funciones ept cos qt , ept sen qt ,
tept cos qt , tept sen qt , . . . , t s 1 ept cos qt , t s 1 ept sen qt , si p ± q
son raíces complejas de multiplicidad s .

[No es difícil ver que te t , . . . , t r 1 e t son también soluciones de [ch] utilizando


que es raíz de las primeras derivadas de P( ) y que si z es solución compleja
de [ch] lo son también sus partes real e imaginaria; y hallando su wronskiano
en t = 0 se comprueba que son independientes].
[Si r = 1 , sólo hay la solución e t , claro; y si s = 1 , sólo ept cos qt y ept sen qt ].

40
Ej 1. V 4 00 +3 0 =0 tiene por ecuación característica P( ) = 5 4 2+3 =0.
Las raíces son calculables. Es claro que P( ) = ( 4 + 3) . 4
1 0 0 4 3
Probando con los divisores de 3 obtenemos el autovalor = 1 , 1 1 1 1 3
es decir 4 4 +3 = ( 1)( 3 + 2 + 3) . = 1 vuelve a ser raíz 1 1 1 3 |0
1 1 2 3
del polinomio: 3 + 2 + 3=( 1)( 2 + 2 + 3) . Y lapecuación 1 2 3 |0
de segundo grado es fácilmente resoluble: = 1± 2 .
p
En resumen los 5 autovalores son: = 0 , = 1 doble y = 1± 2 , y el teorema 2 nos
da las 5 soluciones reales independientes:
p p
e0t = 1 , et , tet , e t cos 2 t y e t sen 2 t .
La solución general será una combinación lineal arbitraria de estas 5 soluciones:
p p
= c1 + (c2 + c3 t)et + c4 cos 2 t + c5 sen 2 t e t .
[Basta cambiar, por ejemplo, el 4 de la ecuación por un 5 para que no podamos resolver-
la; las fórmulas para las raíces de polinomios de grados 3 y 4 son muy poco prácticas].

Para la no homogénea [c] no dispondremos como dijimos de una fórmula como


la de variación de constantes del caso n = 2 para el cálculo de la p a partir de
las soluciones de la homogénea (como largo último recurso podremos resolver el
sistema equivalente mediante matrices). Pero si la ƒ (t) está formada por sumas y
productos de polinomios, exponenciales, senos y cosenos podemos acudir al mé-
todo de los coeficientes indeterminados (del tanteo organizado) del próximo
teorema. La idea, como comentamos en la sección anterior, es probar en [c] una
p similar a ƒ (t) con constantes arbitrarias que se determinan resolviendo simple-
mente sistemas algebraicos lineales:

i] Si ƒ (t) = e t pk (t) , con pk polinomio de grado k , y no es autova-


lor de [ch] existe solución particular de [c] de la forma p = e t Pk (t) ,
donde Pk es otro polinomio de grado k cuyos coeficientes se precisan
llevando p a [c]. Si es autovalor de multiplicidad r , p = t r e t Pk (t) .
Teor 3. ii] Si ƒ (t) = ept [ pj (t) cos qt + qk (t) sen qt] , pj y qk de grados j y k , y
p± q no es autovalor hay p = ept [ Pm (t) cos qt+Qm (t) sen qt] , con Pm
y Qm de grado m =máx{j, k} . Si p± q es autovalor de multiplicidad
s existe p = t s ept [ Pm (t) cos qt + Qm (t) sen qt] .
iii] Si ƒ (t) = ƒ1 (t)+ · · ·+ ƒm (t) y L[ ] = ƒ (t) ) L[ 1 + · · ·+ m ] = ƒ (t) .

[En particular, si = 0 , o sea, si ƒ (t) es un polinomio, bastará probar se-


gún i] un polinomio adecuado, y desde luego entendemos una constante
como un polinomio de grado 0 ].

Ej 2. Hallemos una de 000 + 2 00 + 4 0 + c = t para todos los valores de la constante c .


p

Hay solución particular de la forma p = At+ B , si = 0 no es autovalor (es decir, si c 6= 0 )

! 4A+ c(At + B) = t ! A = 1c , B = 4A
c
= 4
c2
! t
p= c
4
c2
, si c 6= 0 .

Si c = 0 , hay que ‘engordar’ la p con una t ( = 0 es simple):


2 + Bt t2 t
p = At ! p= 8 8
, si c = 0 .

En este caso podemos además dar la solución general:


p p t t2 t
= c1 + c2 cos 3t + c3 sen 3t e + 8 8
.

No podemos hacer lo mismo c , por no saber resolver 3+2 2+4 +c = 0 . Sólo podemos
para valores elegidos de c ; por ejemplo, si c = 3 es P( ) = ( + 1)( 2 + + 3) !
Ä p p ä
= c1 e t + c2 cos 211 t + c3 sen 211 t e t/ 2 + 3t 4
9
.

U otro ejemplo, si c = 8 (valor que nos sugerirá, en el futuro, el estudio de la estabilidad):


2 + 4) 2t t 1
P( ) = ( + 2)( ! = c1 e + c2 cos 2t + c3 sen 2t + 8 16
.

41
Ej 3. Resolvamos V + 3 00 4 = et + t sen t , con (0) = 0 (0) = 00 (0) = 000 (0) = 0 .

Los autovalores son calculables por tratarse de una ecuación bicuadrada:


p
4+3 2 2 3± 9+16
4=0 ! = 2
= 1, 4 ! = ±1, ±2 .
La solución general de la no homogénea será entonces:
= c1 et + c2 e t + c3 cos 2t + c4 sen 2t + p .
Los dos sumandos de nuestra ƒ (t) están incluidos en los casos i] y ii] del teorema.
Como 1 es autovalor de multiplicidad 1, hay que ‘engordar’ la Aet con una t , y, aunque
t sen t sólo es un polinomio de grado 1 junto al seno, en la p también deben aparecer
los cosenos. Lo anterior, unido al apartado iii], nos lleva a probar en la ecuación:
t
p = Ate + (Bt + C) cos t + (Dt + E) sen t .
Derivándola con paciencia 4 veces y sustituyéndola en la ecuación obtenemos:
10Aet + (2D 6C 6Bt) cos t (2B+ 6E+ 6Dt) sen t = et + t sen t !
8
> 2D 6C = 0
<
1 6B = 0 1 1 t t 1 t
A= y ! B=E=0 , D= , C= ! p = e cos t sen t .
10 > 2B+ 6E = 0
:
6 18 10 18 6
6D = 1

Sustituyendo esa p en la solución general e imponiendo en ella (ahora, no en la solu-


ción de la homogéna) los datos iniciales y resolviendo el sistema 4x4 resultante (todo
esto también es bastante largo) se tiene
8 1
> c1 + c2 + c3 18 =0
>
>
<c 1
c2 + 2c4 + 10 =0
1 1 1 1 1
7 ! c1 = 25
, c2 = 10
, c3 = 225
, c4 = 50
.
>
> c1 + c2 4c3 =0
>
:
90
3
c1 c2 8c4 + 10
=0

Resumiendo, la solución particular buscada es:


1 1 t 1 1 t t 1 t
= 10
e t 25
e 225
cos 2t + 50
sen 2t + 10
e 18
cos t 6
sen t .

Ej 4. Calculemos ahora una de 00 + = ƒ (t) para diferentes ƒ (t) .


p

Su solución general es = c1 cos t + c2 sen t + p .


(polinomio arbitrario de grado 3,
Si ƒ (t) = t 3 , hay p = At
3 + Bt 2 + Ct + D
pues = 0 no es autovalor) !

6At + 2B+ At 3 + Bt 2 + Ct + D = t 3 ! A = 1, B = 0, C = 6A = 6, D = 2B = 0 , p =t
3 6t .

Si ƒ (t) = tet , existe p =e


t (At + B) , 0 = et (At + B+ A) ,
p
00 = et (At + B+ 2A)
p
!

et [ (At + B + 2A)+ (At + B)] = tet ! A = 12 , B = A = 1


2
! p =e
t( t
2
1
2
).

Si ƒ (t) = et cos t , hay p =e


t (A cos t + B sen t) [hay = ± , no 1± , y debe estar sen t ]
ß
A+ 2B = 1 t( 1
! (A+ 2B) cos t + (B 2A) sen t = cos t ! B 2A = 0
! p =e 5
cos t + 15 sen t) .

Si ƒ (t) = sen t , como ± es autovalor simple (es decir, como [ch] ya tiene soluciones
t
de esa forma): p = t(A cos t + B sen t) ! 2B cos t 2A sen t = sen t ! p= 2
cos t .

Si ƒ (t) = cos2 t , aparentemente no podemos utilizar coeficientes indeterminados,

pero como cos2 t = 12 (1+ cos 2t) ! existe p = A+ B cos 2t + C sen 2t ! 1


p= 2
1
6
cos 2t .

Si ƒ (t) = (cos t) 1 , tenemos que acudir a la fórmula de variación de las constantes:


R cos t R
|W|(t) = 1 ! p = sen t cos t dt cos t sen t
cos t
dt = t sen t + cos t ln(cos t) .

Pasemos ahora ya a tratar el caso general de los sistemas:

42
Sistemas de n ecuaciones lineales de primer orden.
! ! !
11 ··· 1n 1 ƒ1
[S] x0 = A(t)x+ f(t) , [Sh] x0 = A(t)x , con A = : : , x= : , f= : .
n1 ··· nn n ƒn
Suponemos A y f continuas en con lo que hay entonces solución única definida
en todo cumpliendo x(to ) = xo si to 2 . Una matriz fundamental es
!
11 (t) ··· 1n (t)
W(t) = : : , cuyas columnas son soluciones de [Sh], si |W(to )| 6= 0 .
n1 (t) · · · nn (t)
⇥ ⇤
La Wc (t) fundamental canónica = W(t)W 1 (t será la que cumple Wc (to ) = .
o)

De nuevo conocida cualquier W(t) el sistema homogéneo, el no homogéneo y el


problema de valores iniciales están resueltos:
Teor 4.
La solución general de [Sh] es x = W(t)c . La de [S] es x = W(t)c+ xp , si xp es
R
cualquier solución de [S]. Una xp viene dada por: xp = W(t) W 1 (t) f(t) dt. La
Rt
solución de [S] que cumple x(to ) = xo es x = Wc (t)xo + Wc (t) Wc 1 (s) f(s) ds .
to

Pero hallar W(t) en general es imposible, incluso para coeficientes constantes,


a pesar de que la matriz fundamental canónica la sigue dando una exponencial:

[C] x0 = Ax+ f(t) , [Ch] x0 = Ax , A matriz constante.

Teor 5. Wc (t) = eA(t to ) es la matriz fundamental canónica en to de [Ch].

Ahora es complicado dar eAt incluso en el caso excepcional de que podamos hallar
los autovalores de A , raíces de un polinomio de grado n (no es fácil hallar J y P ).
Sólo es sencillo si los autovalores son calculables y la J resulta ser diagonal:

Si hay n vectores propios v1 , ..., vn linealmente independientes


(asociados a 1 , ..., n ) entonces:
0 1
e 1t 0 ··· 0
Teor 6. B 0 e 2t ··· 0 C Ä ä
eAt = PeJt P 1 = PB
B .. .. .. ..
C
CP
1, con P = v1 ... vn .
@ . . . . A
0 0 ··· e nt

Esto sucede, desde luego, si los son simples, pero también puede pasar aunque
haya múltiples. Si hay menos de n vectores propios independientes la J no será
diagonal (aparecen unos en la diagonal inferior acompañando a algún múltiple,
y, como para n = 2 , hay términos de la forma t n en eJt ). Si A es no diagonalizable,
resolveremos [C] por otros métodos que iremos viendo (convertir el sistema en
ecuación, Laplace,...). Como siempre, eAt será real, aunque haya complejos.
Como en la sección anterior, para resolver el homogéneo podemos evitar el cálculo
de la P 1 , ya que la solución general de [Ch] es simplemente:
x = PeJt c = c1 e 1t v1 + · · · + cn e nt vn .
Lleguemos esta expresión por un camino más directo, que nos dará idea de cómo
utilizar matrices incluso aunque J sea no diagonal. Comprobemos primero que:

autovalor de A , y v vector propio asociado ) x = e t v es solución de [Ch].


Esto es cierto, ya que x0 = e t v = Ae t v = Ax y se cumple que v = Av .
Así pues, si conseguimos hallar n vectores propios linealmente independientes,
tendremos n soluciones de esa forma, que constituirán una matriz fundamental
Ä ä
W(t) = e 1 t v1 · · · e n t vn , pues |W|(t) 6= 0 por ser los vk independientes.
Basta entonces escribir x = W(t)c para obtener el resultado de arriba.

43
0 = + 2y !
1 2 0
Ej 5. Hallemos la solución general de y 0 = 2 + 2y + 2z , o sea, de x0 = 2 2 2 x!
z 0 = 2y + 3z 0 2 3
3 6 2+3 + 10 = 0 !
! ! ! !
2 2 1 2 2 1
= 1 ! v= 2 , =2 ! v= 1 , =5 ! v= 2 . Por tanto, P = 2 1 2 .
1 2 2 1 2 2

Para la solución general no necesitamos P 1 [sí para la xp , si fuese no homogénea]:


0 1 ! ! !
t
e 0 0 2 2 1
x = PeJt c = P@ 0 e2t 0 Ac = c1 e t 2 + c2 e2t 1 + c3 e5t 2 .
0 0 e5t 1 2 2

Para fijar una solución, por ejemplo la que cumple (0) = 6 , y(0) = 0 , z(0) = 3 , podemos
imponer los datos en la solución general y resolver el sistema de 3 ecuaciones resultante,
! ! ! 0 1
2 2 1 6 1 2e t + 4e2t
o calcular P 1= 1 2 1 2 y hacer el producto PeJt P 1 0 = PeJt 2 =@ 2e t + 2e2t A
9
1 2 2 3 0 e t 4e2t

También podemos convertir el sistema en una ecuación, como hacíamos para n = 2 .


Por desgracia, si n = 3, 4, ... , los cálculos dejan de ser tan sistemáticos. No se puede dar
ideas generales de qué ecuaciones conviene derivar, por dónde empezar a sustituir, no
es raro que tras unos cálculos haya que volver a empezar... Pero, a pesar de estas dificul-
tades, muchas veces sigue siendo mejor que utilizar matrices ( complejos, sistemas no
homogéneos, J no diagonal, ...). En este caso, por ejemplo, podemos proceder así:
0 00
3 0 2
De la 1 ecuación y = 2
, que llevado a la 2 y despejando z = 4
.
Sustituyendo ambas en la 3 : 6 =0 ! = c1 e 5t 000 00 + 3 0 + 10 t+c e2t + c
2 3e .
(el polinomio característico de la ecuación es el mismo que el de la matriz)
Hallemos directamente la particular. Debe ser:
(0) = 6 , 0 (0) = (0)+ 2y(0) = 6 , 00 (0) = 0 (0)+ 4 (0)+ 4y(0)+ 4z(0) = 18
0 00
t + 4e2t 3 0 2
! = 2e ! y= 2
= 2e2t 2e t ! z= 4
=e t 4e2t .

0 = 2y 3z (0) = 3
La z , ‘desacoplada’, se puede hallar primero:
Ej 6. y0 = 2 + 3y 6z con y(0) = 1 z = c1 e t + et ! z = et
z(0)=1
z 0 = 2et z z(0) = 1
Queda sistema 2x2 que convertimos en ecuación:
0
+3et
y= 2
! 00 3 0 4 = 6et ; = 1, 4 ; p = Aet , A = 1 ! = c2 e t+c
3e
4t + et

(0) = 3, 0 (0) = 1 ! = 2e t + et ! y = 2et e t .


Mucho más largo: = 1 doble tiene 2 vectores propios linealmente independientes:
! ! ! ! ! 0 1
3 2 1 3 2 1 0 0 5 e t 0 0
1 1 Jt
v1,2 = 0 , 1 ; = 4, v3 = 2 . P= 0 1 2 . P = 5 2 1 6 . e =@ 0 e t
0 A
1 0 0 1 0 0 1 2 3 0 0 e4t
! Zt ! 0 1 0 1 ! !
5 10 13e t + 2e4t 5et 3e t 2e4t 1 2
1
x= 5
PeJt 1 + 15 P e J(t s) 12 es ds = 1@
5
t
e + 4e 4t A 1@ t t
+ 5 10e 6e 4e = 4t A 2 t
e + 1 e t
2 0 6 5e t 5et 5e t 1 0

0 = 2y + 2z (0) = 1 ! ! !
2 2 2 2 0
y0 =
= 1
Ej 7. y con y(0) = 1 = 0: v1 = 2 . doble: 1 0 0 v = 0 ! v2 = 1
z0 = y 2z z(0) = 1 1 0 1 1 1

único vector propio. A no es diagonalizable. Para hallar la solución general necesitamos


3 soluciones linealmente independientes. Como x = e t v con autovalor y v vector
propio es solución, ya tenemos 2. ¿Y la tercera? Lo que hemos visto de ecuaciones y
Jordan para n = 2 hace creíble probar en x0 = Ax soluciones de la forma:
t t = (Aw+ tA t (A+ ) = 0
x = (w+ t )e !( w t )e )e ! (A+ )w = ! vector propio ( v2 )
!
1
y w tal que (A+ )w = v2 , por ejemplo w = 1 ! x = c1 v1 + c2 e t v2 + c3 e t (w+ tv2 )
0
es la solución general.
⇢c +c =1 0 1
1 3 2 e t
Imponiendo los datos: 2c1 + c2 + c3 = 1 ! c1 = 1 , c2 = 0 , c3 = 1 ! x =@2 e t te t A .
c1 + c3 = 1 1 te t

O bien, con una de las muchas formas de convertir el sistema en ecuaciones:


y = z 0 + 2z ! = z 00 + 3z 0 + 2z ! z 000 + 2z 00 + z 0 = 0 ! z = c1 + c2 e t + c3 te t

con z(0) = 1 , z 0 (0) = 1, z 00 (0) = (0) y(0) 2z 0 (0) = 2 ! z = 1 te t

! y = z 0 + 2z = 2 e t te t ! = y0 + y = 2 e t .

44
2.4 Estabilidad de sistemas y ecuaciones lineales.
R
Para y 0 = (t)y + ƒ (t) la estabilidad la ecuación la daba la e , es decir, la ’matriz
fundamental’. En general sucede lo mismo, pero pocas veces tendremos una W(t) .
Estudiemos primero la estabilidad de las soluciones del sistema lineal general
[S] x0 = A(t)x+ f(t) , con A y f continuas en = [ to , )
con lo que todas las soluciones de [S] están definidas t to .
Definimos en 2.1 la norma de un vector, pero no la de una matriz. En los libros de
análisis matemático se ve que hay varias posibles. Nosotros elegimos, por ejemplo:
kW(t)k , norma de W(t) , será la suma de los valores absolutos de sus elementos.
[Podríamos definir y utilizar otras normas, como el supremo de los valores absolutos (el
determinante |W(t)| no es una norma); y se prueba que todas son ’equivalentes’, es
decir, que si una es grande o muy pequeña, las otras también lo son].
Si W(t) es una matriz fundamental cualquiera y x(t) , x (t) son dos soluciones
de [S] usando la fórmula de variación de las constantes, y el hecho de que en los
libros de análisis se ve que la norma de un producto de matrices es menor que una
constante por el producto de las normas de ambas, deducimos:
kx(t) x (t)k = kW(t)W 1 (t)[ x(t x (to )]k  KkW(t)kkx(to ) x (to )k .
o)
Como x(t) es estable (AE), si esta norma es pequeña (tiende a 0 ) para t to
(cuando t ! ), si kx(to ) x (to )k es suficientemente pequeña, concluimos:
Todas las soluciones de [S] serán estables, asintóticamente estables
Teor 1. o inestables dependiendo de que, respectivamente, la kW(t)k esté
acotada, tienda a 0 cuando t ! o no esté acotada.
Esto significa que a partir de to todos los elementos de W(t) están acotados, que
todos tienden a 0 o que al menos uno de sus elementos no está acotado.
Como ocurría para n = 1 se puede hablar de la estabilidad del sistema [S] pues
todas sus soluciones tienen la misma estabilidad [que no depende de la f(t) ].
✓ ◆
t te 1/ t
Ej 1. t3 00 t 0 + = 1 (ej. 8 de 2.2). Una W(t) es ,
1 (1+ t 1 )e 1/ t

pues h = c1 t + c2 e 1/ t era la solución de la homogénea. Como kW(t)k es no acotada


(2 de los elementos de W(t) no lo están), la ecuación es inestable.
✓ ◆
t 1 t 2
Ej 2. t2 00 + 4t 0 + 2 = t4 ( 1)+ 4 + 2 = 0, h = c1 t
1+c
2t
2 ! W(t) = 2 3 .
t 2t
t4
Como kW(t)k ! 0 , todas las soluciones para t > 0 son AE la p= 30
no influye nada .
t!

Para coeficientes constantes [C] x0 = Ax+ f(t) hay un resultado más directo:

Si todos los autovalores de A tienen Re < 0 , el sistema [C] es


asintóticamente estable. Si todos los autovalores de A tienen Re  0
y para cada de multiplicidad m con Re = 0 existen m vectores
Teor 2.
propios linealmente independientes, [C] es estable. Si existe algún
con Re > 0 o si existe de multiplicidad m con Re = 0 y menos de
m vectores propios linealmente independientes, [C] es inestable.

[Los elementos de W(t) = eAt son exponenciales e t tal vez multiplicadas (si J
no diagonal) por polinomios en t ; si Re < 0 cada elemento, y por tanto kW(t)k ,
tiende a 0 si t ! ; si hay con Re = 0 y la parte de la J que los incluye
es diagonal hay términos que son constantes, senos o cosenos y permanecen
acotados sin tender hacia 0 ; si hay algún con Re > 0 o si los términos que
vienen de un con Re = 0 están multiplicados por polinomios, habrá algún
término de la exponencial no acotado y la norma de W(t) tampoco lo estará].

45
Así pues, conocer Re basta casi siempre para precisar la estabilidad de un
sistema de coeficientes constantes (y de una ecuación, que era estable si lo
era su sistema equivalente y ambos tienen el mismo polinomio característico). Sólo
si hay múltiples con Re = 0 habrá que hallar los v asociados para distinguir
entre estabilidad no asintótica e inestabilidad. Y esto ni siquiera será necesario en
las ecuaciones, pues siempre aparecen potencias de t con los múltiples.
Å
0 2
ã Å ã
1 2
p
Ej 3. x0 = 1 2
x+ t
2 2=0 = 1± 3 ) sistema inestable [la f(t) no influye].

Ej 4. 000 +3 00 +3 0 + = et ! 3+3 2+3 +1=0 , = 1 triple ) ecuación AE.


[Todas las soluciones se van a infinito, por la p = Aet , pero esto no tiene que ver con la
EA; lo importante es que todas se parezcan entre sí; insistimos en que ƒ (t) no influye].
0 = +y (0) = 1
Ej 5. Hallemos la solución de y0 = 5 y+ z con y(0) = 2 y precisemos su estabilidad.
z0 = z z(0) = 5

z desacoplada: z = Ce t = 5e t , y= 0 ! 00 +4 = 5e t ! = c1 cos 2t+c2 sen 2t+e t;


z(0)=5 p =Ae
t

imponiendo (0) = 1, 0 (0) = (0)+ y(0) = 1 ! =e t ! y= e t e t= 2e t .


La estabilidad de esta solución (y la de todo el sistema) viene dada por |A |=0 !
= 1,±2 . Como Re  0 y los = ±2 son simples, esta solución (y todas) es EnoA.
[Que la x ! 0 no importa nada; EA no significa que tienda a 0 una solución dada, sino
que lo haga la diferencia entre dos cualesquiera que partan cerca (todas en las lineales)].

1 6 7
! |A | = 0 ! = 4, = 0 doble. Hay que ver si J es o
Ej 6. x0 = 1 6 5 x no diagonal. Como el rango de A 0I es 2, sólo existe un v
1 2 1 independiente asociado a = 0 y el sistema es inestable.

Ej 7. 000 + 4 00 = et ! = 4 , = 0 doble como en el ejemplo anterior. Pero podemos


ahora decir directamente que la ecuación es I pues aparece seguro una t en la solución
(y en cualquier W(t) ). Para ecuaciones siempre es fácil analizar el caso Re = 0 .

El problema es que para n > 2 , y a diferencia de los ejemplos anteriores, normal-


mente los no son calculables (sin métodos numéricos). Pero este hecho no
nos va a impedir estudiar la estabilidad. El siguiente teorema nos permitirá pre-
cisar, sin necesidad de hallar los autovalores, cuándo hay estabilidad asintótica y
muchas situaciones de inestabilidad:
Sea P( ) = n+ n 1 + · · ·+ + .
1 n 1 n
i] Si algún  0 ( < 0 ) ) existen raíces de P( ) con Re 0 ( >0 ).
ii] (Criterio de Routh-Hurwitz). Consideremos la matriz n x n :
0 1
1 1 0 0 0 ·· 0
B 3 2 1 1 0 ·· 0C
B C
B= B 5 4 3 2 1 ·· 0C
Teor 3. @ ·· ·· ·· ·· ·· ·· ·· A
0 0 0 0 0 ·· n

Entonces todos los ceros de P( ) tienen Re < 0 , son estrictamente


1 1 0
1 1
positivos los n determinantes: 1 , , 3 2 1 , . . . , |B| .
3 2
5 4 3

Y si alguno de esos n determinantes es < 0 ) con Re > 0 .


i] es fácil: si todos los , reales o complejos, tienen Re < 0 el polinomio tiene
s
la forma: P( ) = ( + )r · · · ( 2+b + c) · · · , con , . . . , b, c, . . . > 0 ) >0
(y análogamente Re  0 ) 0 ).
ii] es de muy complicada demostración y lo admitimos sin ella.
[Observemos que el coeficiente de n debe ser 1 ; que la parte de Re < 0
de ii] es un , pero no el resto; que en B la diagonal está formada por los
coeficientes 1 , ..., n ; que |B| es simplemente el anterior por n ].

46
Ej 8. La ecuación +5 +6 +7 000 + 00 2 0+3 = 4 es inestable porque un k <0 .

0 = z ! 3 + 2 + 3 = 0 (sin raíces enteras) no es AE porque es


Ej 9. El sistema y0 = 3 y 0 el coeficiente de . Será estable no asintóticamente o
z0 = + y z inestable. Veamos si hay con Re = 0 : = q .
Debe ser (3 q2 ) q3 = 0 . Esto no es posible para ningún q y sabemos que hay
con Re 0 ) hay con Re > 0 ) es inestable.
!
1 1 0
1 1
[O de otra forma (Routh-Hurwitz): B = 3 0 1 ! 1>0 , 3 0
< 0 , |B| < 0 ) inestable].
0 0 3

Ej 10. +4 000 + 8 00 + 8 0 + 4 = 4t P( ) = 4 +4 3 +8 2 + 8 +4 = 0 puede ser AE ( k > 0 ).


0 1
4 1 0 0
4 1 0
8 8 4 1C 4 1
B =B
@0 4 8 8A
. Como todos los menores: 4 > 0 , 8 8
= 24 > 0 , 8 8 4 = 128 > 0 , |B| > 0
0 4 8
0 0 0 4

la ecuación es AE. De hecho sus autovalores son sencillos (aunque sea difícil encontrarlos):
2+2 2 t t
P( ) = ( + 2) ! = 1± dobles ! h = (c1 + c2 t)e cos t + (c3 + c4 t)e sen t .
(Y como p = At+B ! p =t 2 , la solución general de la no homogénea es: = h +t 2 ).

Ej 11. +2 000 +5 00 +4 0 +6 =7 puede ser AE ( k > 0 ).


0 1
2 1 0 0
2 1 0
4 5 2 1C 2 1
B =B
@0 6 4 5A
! 2>0 , 4 5
= 6, 4 5 2 = 0 , |B| = 0 ! no es AE.
0 6 4
0 0 0 6

Probamos = q ! q4 5q2 + 6 + 2(2 q2 )q = 0 ! q2 = 2 ! P( ) = ( 2 + 2)( 2 + 2 + 3) .


Como dos autovalores tienen Re < 0 y los otros dos Re = 0 y son simples, es EnoA.

Ej 12. +6 +7 000 + 00 =e t . No es AE y no sabemos hallar todos sus .


Pero hay = 0 doble ! la solución de la homogénea es de la forma
c1 + c2 t + c3 3 + c4 4 + c5 5 ! la ecuación es inestable
pues no está acotada la W(t) formada por esas 5 soluciones y sus derivadas.

Ej 13. Discutamos la estabilidad de 000 + 2 00 + 4 0 + c =t ! P( ) = 3+2 2+4 +c=0 .


Si c < 0 es inestable, porque es un k <0 . Si c = 0 no es AE por el k 0 .
Sólo podría ser AE si c > 0 . Veamos que nos dice Routh-Hurwitz:
!
2 1 0
2 1
B= c 4 2 !2, c 4
= 8 c , |B| = c(8 c) ! es AE , 0 < c < 8 y es I también si c > 8 .
0 0 c
Por ahora no sabemos si c = 0 y si c = 8 (¿estabilidad no asintótica? ¿inestabilidad?).
o bien q = 0 (y c = 0 )
Probamos = q ! q(4 q2 )+ (c 2q2 ) = 0 !
o bien q = ±2 (y c = 8 ).
p 2 + 4)(
Para c = 0 además de = 0 es = 1± 3 ; para c = 8 , P( ) = ( + 2) !
si c = 0, 8 la ecuación es EnoA.

[En el ejemplo 3 de 2.4 hallamos una solución particular de la no homogénea c (que


una vez más decimos que no influye en la estabilidad) y la solución general para tres
valores de c ( 0 , 3 y 8 ). Por ejemplo, la de c = 3 era:
Ä p p ä
= c1 e t + c2 cos 211 t + c3 sen 211 t e t/ 2 + 3t + 49 ,

donde, mirando la homogénea, se comprueba la EA que nos aseguraba R-H. Se ve


además que para grandes valores de t , todas las soluciones se parecerán a una recta,
pues los términos de la homogénea tienden a 0 . Y esto mismo podemos decirlo para
todos los c entre 0 y 8 (¡aunque no podamos calcular la solución!)].

47
2.5 Transformada de Laplace
Sea ƒ (t) una función continua a trozos en [ 0, ) . Se llama transformada de
Laplace de ƒ a la función Lƒ = F definida por
R
F(s) = ƒ (t) e st dt para todo s tal que la integral converge.
0

Citamos sin demostraciones (la mayoría son simples ejercicios de integración), al-
gunas de sus propiedades.
El operador L : ƒ ! F es claramente lineal. Dada una F(s) puede que no exista
una ƒ (t) tal que L[ ƒ ] = F , pero si existe se prueba que hay una única ƒ que es
continua. Podemos, pues, definir el operador L 1 : F ! ƒ . A L 1 [ F] = ƒ le llamaremos
transformada inversa de Laplace de F . Está claro que también L 1 es lineal.

Lo básico para resolver ecuaciones diferenciales y sistemas lineales es el hecho


de que la L transforma las derivadas de una (t) en una expresión en la que no
aparecen las derivadas de X(s) :
⇥ ⇤
Teor 1. L (n) (t) = sn X(s) sn 1 (0) sn 2 0 (0) · · · (n 1) (0) .

[En particular: L[ 0 (t)] = sX(s) (0) ].

Necesitaremos también conocer la transformadas de las siguientes funciones:


⇥ ⇤ n! ⇥ ⇤ 1 ⇥ ⇤ ⇥ ⇤ s
Teor 2. L t n = n+1 ; L e t = s ; L sen t = ; L cos t = .
s s2 + 2 s2 + 2

1 1 2
[En concreto, L[ 1] = s
, L[ t] = s2
, L[ t 2 ] = s3
, . . . ].

Y las siguientes reglas para calcular otras transformadas a partir de ellas:


⇥ ⇤ ⇥ ⇤
Teor 3. L e t ƒ (t) = F(s ) ; L t n ƒ (t) = ( 1)n F (n) (s) .

Con este teorema podemos calcular, por ejemplo:


3t s 3 d 4s
L[ e cos 2t] = (s 3)2 +4
ó L[ t sen 2t] = ds
L[ sen 2t] = (s2 +4)2

La primera de las expresiones podría escribirse: L 1 [ F(s )] = e t L 1 [ F(s)] .


Esto nos permite hallar otras transformadas inversas que aparecerán, como:
î ó î ó k 1
1 tL 1 1 =e t t
L 1 k = e k (k 1)!
.
(s ) s

La transformada de un producto de dos funciones no es el producto de sus trans-


formadas. Pero se tiene:
Rt
Se llama convolución de ƒ y g a la función ƒ g(t) = 0 ƒ (t ) g( ) d .
Teor 4.
Se tiene que ƒ g = g ƒ y que L[ ƒ g] = L[ ƒ ]L[ g] .

Con sólo estos resultados se pueden resolver muchos sistemas y ecuaciones li-
neales con coeficientes constantes (aquellos en que la ƒ (t) sea producto de
polinomios, exponenciales, senos y cosenos; es decir, los mismos en que se puede
aplicar coeficientes indeterminados). La L es sobre todo útil cuando hay datos
iniciales. Aplicando L convertiremos el problema diferencial en otro algebraico
(con los datos ya incorporados como se ve en el teorema 1). Resuelto éste, basta-
rá calcular alguna transformada inversa. Es muy habitual que para encontrar esta
L 1 haya que descomponer en fracciones simples (la técnica que se usa en
cálculo para hallar primitivas de funciones racionales). Sólo en contadas ocasiones
habrá que utilizar el teorema 4 (el de la convolución).

48
0 = 2y 2e2t (0) = 0
Ej 1. Aplicando L a las 2 ecuaciones:
y 0 = 4y 2 2 y(0) = 1 ® 2
sX 0 = 2L[ y] 2L[ e2t ] = 2Y s 2
2
sY 1 = 4L[ y] 2L[ ] 2L[ 1] = 4Y 2X s
Despejando, por ejemplo, Y de la 1 : Y = 2s X+ s 1 2 , que llevado a la 2 nos da: X = (s 8
2)3 s
.
Para encontrar la L 1 descomponemos en fracciones simples:
8 A B C D [resolviendo 1 1 2 4
(s 2)3 s
= s
+ s 2
+ (s 2)2
+ (s 2)3
= el sistema] = s
+ s 2
+ (s 2)2
+ (s 2)3
.

L 1 es lineal y conocemos la L 1 de cada sumando. Por tanto = 1+e2t 2te2t +2t 2 e2t .
[Podríamos haber hallado mediante una convolución pues X es el producto de
dos transformadas conocidas:
⇥ ⇤ Rt
L 1 [ X] = 4L 1 1s (s 22)3 = 4 [ 1 t 2 e2t ] = 4 0 2 e2 d = · · ·
pero usalmente este segundo camino no es viable y si lo es suele ser mejor pasar
a fracciones simples; sólo nos veremos obligados a usar la convolución cuando
haya polinomios en el denominador del tipo (s2 + s+ b)2 ].
0
Para calcular la y lo más corto es volver al sistema y sustituir: y = e2t + 2
= e2t + 2t 2 e2t .
También podríamos (aquí sale fácil, pero usualmente es más largo) hallar la Y y su L 1:
4 1 1
Y= (s 2)3
+ s 2
cuya L es esa y (normalmente habría que volver a descomponer).

[El único camino que podría competir en rapidez sería convertir el sistema en ecuación:
0 = c1 e2t + c2 te2t + 2t 2 e2t 1
y = e2t + ! 00 4 0 +4 = 4e2t 4 , p = At
2 e2t +B , · · · ].
2 (0) = 0 (0) = 0

0=y+ 2 (0) = 0 sX = X Y + 2s
Ej 2. (ej. 2 y 5 de 2.2) ! ! X = (s 1)Y 1!
y0 = + y y(0) = 1 sY 1 = X + Y

(s2 2s+2)Y = s 1+ 2s [el polinomio que acompaña a la Y es precisamente el característico].


s2 s+2 A [ A+B]s2+[ C 2A]s+2A
Pasamos a fracciones simples: s[ s2 2s+2]
= + Bs+C
s s2 2s+2
= s[ s2 2s+2]
= 1
+ 1
s s2 2s+2
.
El segundo denominador no tiene raíces reales. Para hallar la inversa completaremos el
cuadrado y utilizaremos el teorema 3:
⇥ 1 ⇤ ⇥ ⇤
y = 1 + L 1 (s 1) 2 +1 = 1 + et L 1 s21+1 = 1 + et sen t ! = y 0 y = et cos t 1 .
(s 1)(s2 s+2 s2 +2s 2 s 1 1
O bien: X = s3 2s2 +2s
1= s[ s2 2s+2]
= ··· = (s 1)2 +1 s
, llegando a lo mismo.

1 s2
Ej 3. 000 + 0 = 2 sen t , (0) = 0 (0) = 0 , 00 (0) = 1 ! [ s3 + s]X+ 1 = s22+1 , X =
s(s2 +1)2
.
®
1 s2 A Bs+C Ds+E A(s2 +1)2 +(Bs+C)(s2 +1)s+(Ds+E)s A+ B = 0, C = 0,
2
s(s +1) 2 = s
+ 2
s +1
+ 2
(s +1) 2 = 2
s(s +1) 2 ! 2A + B + D = 1 ,
C+ E = 0, A = 1.
⇥ 2s ⇤
! A = 1, B = 1, D = 2, C = E = 0 ! = 1 cos t L 1 (s2 +1)2 .
La última transformada no aparece en los teoremas (con mucha vista: dentro del corche-
te está la derivada cambiada de signo de L[ sen t] ). Es situación típica de convolución:
⇥ ⇤ ⇥ ⇤ ⇥ ⇤ Rt
L 1 (s22s
+1)2
= 2L 1 s21+1 L 1 s2s+1 = 2 sen t cos t = 2 0 sen(t ) cos d
Rt Rt
= sen t 0 2 cos2 d cos t 0 2 sen cos d = t sen t + sen t 12 sen 2t cos t sen2 t = t sen t .
Alternativamente se podría seguir el camino de la sección 2.3:
3+ =0 ! = c1 + c2 cos t + c3 sen t + p , p = t[ Ac+ Bs] !
0 = Ac+ Bs+ t[ As+ Bc] , 00 = 2As+ 2Bc t[ Ac+ Bs] , 000 = 3Ac 3Bs+ t[ As Bc]
p p p
000 + 0 = 2A cos t 2B sen t = 2 sen t ! A = 0 , B = 1 ! t sen t .
p p p=

Imponiendo los datos y resolviendo el sistema 3x3 se vuelve a obtener = 1 cos t t sen t .
Con la L hemos hallado la solución directamente, ahorrándonos el cálculo de la general,
de una p y la determinación de las constantes a partir de los datos; a cambio, hemos
tenido que sufrir la pesada descomposición en fracciones simples y, en este caso, el
cálculo de una integral de convolución. En ambos procesos de cálculo hemos necesitado
hallar las raíces de s3 + s = 0 (del polinomio característico que, como es fácil comprobar,
acompaña siempre a la X al trabajar con Laplace). Por tanto, si no podemos hallar los
autovalores de la ecuación (o sistema), tampoco podremos resolver nada mediante la L.

49
Ej 4. 00 2 0 + = 6tet con (1) = 0 (1) = 0 (ejemplo 3 de 2.2).

Como Laplace pide datos en t = 0 hacemos: t = + 1 !


00 2 0+ = 6( + 1)e +1 , (0) = 0 (0) = 0

1 1
! (s 1)2 X = 6e L[ e ] + L[ e ] = 6e[ (s 1)2
+ s 1
]
1[ 1 1[ 1 1[ 6 ] 1[ 2 ]
! = 6eL (s 1)4
] + 6eL (s 1)3
] = ee L s4
+ 3ee L s3
=e +1 [ 3 + 3 2 ] = et [ t 3 3t + 2] .

Ej 5. Otra utilidad de la convolución. Hallemos la solución general de 000 + 0 = ƒ (t) .

La solución general es de la forma (ejemplo 3): = c1 + c2 cos t + c3 sen t + p .


Hallamos una p.
Como sólo queremos una, escogemos los datos más sencillos para L :
F(s) ⇥ s ⇤
(0) = 0 (0) = 00 (0) = 0 ! s3 X+ sX = L[ ƒ (t)] = F(s) ! X = s(s2 +1) = 1s s2 +1
F(s)
Rt
! p = [ 1 cos t] ƒ (t) = 0 [ 1 cos(t )] ƒ ( ) d .

Con matrices es mucho más largo. Sólo tenemos la fórmula de variación de constantes
para ecuaciones si n = 2 , así que tendremos que resolver el sistema equivalente a partir
la teoría general de sistemas, utilizando una W(t) :
1 c s
!
• • 1
! Z Ç å
0
W(t) = !W 1 (t) = • 1 (t)
0 s c • c ! p = primer elemento de W(t) W 0 dt
0 c s • • s ƒ (t)
R R R
! p= ƒ (t) dt cos t cos t ƒ (t) dt sen t sen t ƒ (t) dt , que coincide con lo de arriba.

Ej 6. +4 000 +8 00 +8 0 + 4 = 4t con (0) = 1, 0 (0) = 0, 00 (0) = 0, 000 (0) = 2

En el ej. 10 de 2.4 dimos su solución general: = (c1 +c2 t)e t cos t+(c t sen t+t
1 +c2 t)e 2.
Imponiendo los datos y resolviendo el sistema 4x4 (largo camino): =e t cos t + t 2.
Usemos ahora la L :
4 s5 4s4 8s3 6s2 +4
s4 X+ s3 2 + 4s3 X+ 4s2 + 8s2 X+ 8s + 8sX+ 8 + 4X = s2
! X= s2 [ s4 +4s3 +8s2 +8s+4]
.

Para descomponer en fracciones simples necesitamos factorizar el denominador. En 2.4


observamos que el corchete es el cuadrado de un polinomio de segundo grado (si se
sabe como hallar raíces múltiples de polinomios este era el momento de utilizarlo):
s5 4s4 8s3 6s2 +4 A
s2 [ s2 +2s+2] 2
= s
+ sB2 + s2Cs+D
+2s+2
Es+F
+ [ s2 +2s+2] 2 = [largo sistema] =
2
s
+ 1
s2
+ s+1
s2 +2s+2
.
⇥ s+1 ⇤ ⇥ s+1 ⇤ ⇥ s ⇤
L 1 =L 1 =e tL 1 =e t cos t ! =L 1 [ X] = 2+t+e t cos t .
s2 +2s+2 (s+1)2 +1 s2 +1

Los siguientes ejemplos son los 6 y 7 de 2.3, así que podemos seguir comparando la rapidez
de los métodos (matrices, convertir en ecuación y el actual Laplace). En el segundo de ellos
(con J no diagonal) la L evita preocupaciones matriciales.
8 1
0 = 2y 3z (0) = 3 < sX 3 = 2Y 3Z ! Y = 2 (sX+ 3Z 3) #
>
2
Ej 7. y 0 = 2 + 3y 6z y(0) = 1 sY 1 = 2X+ 3Y 6Z (s2 3s 4)X = 3s s 13s+4
1
0 t >
:
z = 2e z z(0) = 1 sZ 1 = s 2 1 Z ! Z = s 1 1 " , z = et
(s 4)(3s 1) 0
3s 1 2
X= (s+1)(s 4)(s 1)
= (s+1)(s 1)
= s+1 + s 11 ! = 2e t + et ! y= +3z
2
= 2et e t .
8
= 0 2y + 2z (0) = 1 < sX 1 = X 2Y + 2Z
Ej 8. y0 = y y(0) = 1 sY 1 = X Y X = (s+ 1)(s+ 2)Z s 2
z0 = y 2z z(0) = 1 :
sZ 1 = Y 2Z ! Y = (s+ 2)Z 1 %
s2 +s+1 A B C t
! Z= s(s+1)2
= s
+ s+1
+ (s+1)2
! A = 1 , B = 0 , C = 1 ! z = 1 te
! y = z 0 + 2z = 2 e t te t ! = y0 + y = 2 e t .

50
8
0 =2 + y+ z (0) = 1 < sX 1 = 2X+ Y + Z ! Z = (s 2)X Y 1 #
>
Ej 9. y 0 = + 2y+ z y(0) = 2 sY 2 = X+ 2Y + Z Y = X+ s 1 1 #
>
z 0 = + y+ 2z z(0) = 3 : sZ+ 3 = X+ Y + 2Z [ s2 5s+ 4]X = s 4 !

X = s 1 1 [ = et ] ! Y = s 2 1 [ y = 2et ] ! Z = s 2 2 s+1
s 1
=s 3
1
[ z = 3et ] (ó z = 0 2 y ).

[La sencillez de los cálculos se debe a que los datos iniciales están ajustados para que se
simplifiquen cosas; con otros distintos habría que descomponer en fracciones simples].
Por matrices:
! ! ! ! !
2 1 1 1 1 1 1 1 2 1 1 1
1 2 1 =0! =1 1 1 1 v=0 ! 1 , 0 . =4 : 1 2 1 v=0 ! 1 .
1 1 2 doble: 1 1 1 0 1 1 1 2 1
! ! 0 1 ! ! 0 1
1 1 1 1 2 1 et 0 0 1 2et et
P= 1 0 1 ,P 1= 1 1 1 2 , Jt
e =@ 0 et 0 A! x = PeJt P 1 2 =P 3et =@ 2et A.
3
0 1 1 1 1 1 0 0 e4t 3 0 3et

Quizás es más rápido escribir la solución general, imponer los datos y resolver un sistema:
! ! ! 0 1
1 1 1 ⇢ c1 + c2 + c3 = 1 et
x = c1 et 1 + c2 et 0 + c3 e4t 1 ! c1 + c3 = 2 ! c1 = 2, c2 = 3, c3 = 0 ! x =@ 2e A.
t

0 1 1 c2 + c3 = 3 3et

Y ahora, derivando. Lo más corto, con un poco de vista:


[ + y+ z] 0 = 4[ + y+ z] , [ + y+ z](0) = 1+ 2 3 = 0 ! + y+ z = 0 , z = y !

0 = , (0) = 1 ! = et
! z = 3et . O con menos vista:
y = y , y(0) = 2 ! y = 2et
0
0
(0)=1 (0)=1
00 = 2 0 + y 0 + z 0 = 2 0 + 2 + 3[ y+ z] = 5 0+4 ! = c1 et + c2 e4t ! = et
y(0)=2
! z= y et ! y 0 = et + 2y y et = y ! y = cet ! y = 2et ! z = 3et .
[Para soluciones generales (de homogéneos con reales) conviene usar matrices o
derivar. Con la L se hace (0) = , y(0) = b , z(0) = c y quedan las 3 constantes arbitrarias
(trabajando de más: no sólo hallamos la general, sino la particular que cumple unos datos
iniciales dados)].

La L simplifica los cálculos si aparecen ƒ (t) que tienen varias expresiones 1


ß u a(t)
0 si t <
o son discontinuas, como la función paso: (t) = 1 si t
0 a
o la ‘función’ delta (t ) , cuya definición rigurosa exige la
‘teoría de distribuciones’, pero que es fácil de manejar formal- !
mente. La (t ) se puede definir intuitivamente como el
⇢ 1 1 "(t–a)
n si t 2 [ , + 2n ]
‘límite’ cuando n ! de ƒn (t) = 2n
0 en el resto

Para utilizar la (t ) necesitaremos sólo estas propiedades: a a



d Rc ƒ ( ) si 2 [ b, c]
(t ) = 0 si t 6= ; dt
(t) = (t ); ƒ (t) (t ) dt =
b 0 si 62 [ b, c]
R
[En particular, se tiene que (t ) dt = 1 ;
el rectángulo ‘de base 0 y altura ’ definido por la tiene ‘área=1’,
lo mismo que las ƒn de las que es ‘límite’].

Para resolver por Laplace ecuaciones en las que aparecen funciones definidas a trozos o la
(como los dos últimos ejemplos que veremos en la sección) sólo es necesario hacer uso
de este nuevo teorema:

1 s s s F(s)
Teor 5. Si > 0 : L[ (t)] = s
e , L[ (t )] = e , L[ (t)ƒ (t )] = e
⇥ ⇤
es decir: L 1[e s F(s)] = (t)ƒ (t ) .

[Como veremos, estos últimos ejemplos se pueden resolver sin la L, pero hay que ser
bastante sutil en los argumentos para ‘empalmar’ soluciones de distintos intervalos].

51
ß
000 00 6t si 0  t < 1 0 (0) = 3 , 00 (0) =
Ej 9. + = ƒ (t) = 0 si 1  t
con (0) = 1 , 6

Lo primero es escribir ƒ (t) en términos de funciones conocidas y de funciones paso.


⇥ ⇤
ƒ (t) = 6 t t 1 (t) (pues vale 6t hasta t = 1 y después se anula).
Para calcular la L[ ƒ (t)] = 6L[ t] 6L[ t 1 (t)] podemos aplicar el teorema 3 o el 5:
s
d d e s[ 1 + 1 ] ó
L[ t 1] = ds
L[ 1 ] = ds
[ s ] =e s s2
s L[ t] + L[ s 1 1
L[ (t 1) 1+ 1] = e 1 ] = e [ s + s2 ]
4 3 2
y por tanto: s3 X+ s2 3s+ 6 + s2 X+ s 3 = s62 6e s [ 1 + 1 ] ! X = s +2s 3s +6
s s2 (s+1)s4
e s 6
s4
.
1
La descomposición del primer sumando es: s
+ s32 6
s3
+ s64 .
Para invertir el otro, usamos el teorema 5: L 1 [ 6 ] = t3 ! L 1 [ e s 6 ] = 1)3 .
s4 s4 1 (t)(t
ß
(t 1)3 si t  1
! = 1+ 3t 3t 2 + t 3 1 (t)(t 1)3 =
0 si 1  t

Resolvamos el problema de forma totalmente diferente. Hallamos la solución general 1


para t  1 [ ƒ (t) = 6t ] y 2 para t 1 [ ƒ (t) = 0 ] y utilizamos el hecho de que, como ƒ es
una función integrable, la solución va a tener dos (pero no tres) derivadas continuas en
t = 1 (resolver una ecuación diferencial de tercer orden viene a equivaler a integrar tres
veces; no será pues, estrictamente hablando, solución en t = 1 ):
2 + Bt 3 t datos en t=0
Para t  1 , p = At ! 1 = c1 + c2 t + c3 e + t3 3t 2 ! 1 = (t 1)3 .

A partir de t = 1 es 2 = c4 + c5 t + c6 e t . No tiene sentido aplicarle los datos de t = 0 .


Pero al ser la solución una función de clase 2 los valores de , 0 y 00 a la derecha de
t = 1 han de coincidir con los que proporciona 1 a la izquierda. Imponemos pues a 2
que 2 (1) = 1 (1) = 0 , 02 (1) = 01 (1) = 0 , 00
2
(1) = 00
1
(1) = 0 ! 2 ⌘ 0 , si t 1 .

0= +e 1 (t 1) (0) = 0 sX = X+ e 1 e s 1 s 1 s
Ej 10. ! ! X = e s+1
e 1
, Y = s+1 + e(s+1)
e
y0 = y y(0) = 1 sY 1 = X Y 2

⇥ ⇤ s ⇥ e s ⇤
L 1[ 1 ] = e t, L 1 1
= te t !L 1[ e ] = t+1 , L 1 1)e t+1
s+1 (s+1)2 s+1 1 (t)e (s+1)2
= 1 (t)(t
ß ⇢
t 0 si t < 1 t t e t si t < 1
! = 1 (t)e = , y=e + 1 (t)(t 1)e = ,
e t si t 1 te t si t 1
(la debía ser discontinua en t = 1 para que al derivarla salga la ; en rigor no es
solución en ese punto).
Resolvamos por otros caminos. Como la matriz del sistema ya está en forma de Jordan
es fácil utilizar la fórmula de variación de las constantes (que funciona, aunque nosotros
la vimos para ƒ (t) continuas):
Å ãÅ ã Rt Å ãÅ 1 ã Å
0
ã R tÅ s t ã
x(t) = e t 1t 10 01 + 0 es t t 1 s 01 e (s 0
1)
ds = e t + e 1 0 (t es)es t (s 1) ds .
Å ã Å ã Å ã
e1 t 0 e t
Esta integral es 0 si t < 1 y vale (t 1)e1 t si t 1 ! x= e t
si t < 1 y x = te t si t 1.

O bien. Resolvemos la ecuación en : es = c1 e t si t < 1 y si t > 1 y la debe dar en


t = 1 un salto de altura e 1 para que al derivarla aparezca e 1 (t 1) :
(0) = 0 ! ⌘ 0 si t < 1 ! (1 ) = 0 ! (1+ ) = e 1 ! =e t si t > 1 .
Llevando esta a la otra ecuación: y0 = y+ t, que podemos resolver por ejemplo:
1 (t)e
Si t < 1 : y = c1 e t , y(0) = 1 ! y = e t .
Si t 1 : yp = Ate t ! y = c2 e t + te t ! y = te t , pues y(1+ ) = y(1 ) = e 1 .
O también:
Rt Rt
y=e t+e t es e s t+ t+ t t
0 1 (s) ds ! y=e 0 si t < 1 , y = e e 1
1 ds = te si t 1.

52
2.6 Soluciones periódicas de ecuaciones lineales
Sean [S] x0 = A(t)x+ f(t) y [Sh] x0 = A(t)x con A , f continuas y de periodo T

[es decir, A(t+ T) = A(t) ; f(t+ T) = f(t) ] (sus soluciones son únicas y definidas t ).

Teor 1. x(t) , solución de [S], es de periodo T , x(0) = x(T)

La ) es trivial. La ( no es cierta, evidentemente, para funciones cualesquiera,


pero esa condición es suficiente para las soluciones del sistema [S]:
Sea
⇥ x(t) solución con x(0) = x(T) . Entonces z(t) = x(t + T) es también solución ⇤
pues z0 (t) = x0 (t+ T) = A(t+ T)x(t+ T)+ f(t+ T) = A(t)x(t+ T)+ f(t) = A(t)z(t)+ f(t) y
satisface z(0) = x(T) = x(0) . Por unicidad, z(t) = x(t + T) = x(t) para todo t.

El sistema [S] tiene una única solución T-periódica , el sistema [Sh]


Teor 2.
tiene como única solución T-periódica la trivial x ⌘ 0 .

Sea x(t) = W(t)c + xp (t) la solución general de [S]. x(t) es T-periódica (teorema 1)
si y sólo es [ W(0) W(T)]c = xp (T) xp (0) . Este sistema algebraico tiene solución
única si y sólo si el sistema homogéneo [ W(0) W(T)]c = 0 tiene sólo la solución
c = 0 y esto equivale a que el [Sh] tenga sólo x ⌘ 0 como solución T-periódica.

Si [Sh] tiene más soluciones periódicas la situación se complica. Para precisar lo


que ocurre hay que conocer las soluciones del homogéneo, lo que, en general, no
se puede. Sólo tratamos un caso particular de interés físico: las
oscilaciones de un sistema muelle-masa con o sin rozamien-
to proporcional a la velocidad, sometido a fuerzas externas de
periodo T . Es decir:
[c] 00 + 0+ 2 = ƒ (t) , 0, 6= 0 , ƒ continua y T-periódica.
El representa entonces la separación de la masa de la posición de f(t)
equilibrio. ¿En qué condiciones es el movimiento de periodo T ?
En 2.2 vimos que la homogénea [ch] tiene soluciones periódicas no triviales si y
sólo si hay autovalores de la forma = ±q . Esto sólo ocurre cuando = 0 . Entonces
la solución general de [ch] es:
2 (No tienen que ser
= c1 cos t+c2 sen t , todas periódicas de periodo mínimo . de periodo T ).

Sabemos que [c] tiene una única solución T-periódica si [ch] tiene como única
solución T-periódica la trivial, es decir, si 6= 0 o si = 0 , pero T 6= 2n . Además:
Teor 3.

Si =0 y T = 2 n
para algún n 2 N
(si todas las soluciones de [ch] son T-periódicas) entonces:
RT RT
a] Si 0
ƒ (t) cos t dt = 0 ƒ (t) sen t dt = 0 , toda solucion de [c] es T-periódica.
b] Si alguna de las integrales no es 0 , ninguna solución de [c] es T-periódica.

La fórmula de variación de las constantes nos da la solución general de [c] :


Rt Rt
= c1 cos t + c2 sen t + 1 sen t 0 ƒ (s) cos s ds+ 1 cos t 0 ƒ (s) sen s ds
RT R
Entonces (T) (0) = 1 0 ƒ (s) sen s ds y 0 (T) 0 (0) = T ƒ (s) cos s ds .
0
El teorema 1 asegura que si las dos integrales son 0 cualquier es T-periódica.
Si alguna no es 0 , no hay soluciones T-periódicas.

53
Si > 0 , es decir, si hay rozamiento, los dos autovalores tienen Re < 0 , con
lo que la ecuación [c] tiene una única solución T-periódica. Como hay estabilidad
asintótica todas las soluciones se acercarán a ella, con lo que, en la práctica, se
verá al cabo del tiempo oscilar a la masa con el periodo de la fuerza externa (mate-
máticamente, el movimiento no sería periódico, pues, salvo que los datos iniciales
proporcionen la única solución periódica, existen otros términos con exponenciales
decrecientes).

Si = 0 (no hay rozamiento), la situación puede ser más complicada.


Suponemos por comodidad que b = 1 , es decir, que la ecuación es
[d] 00 + = ƒ (t) ! = c1 cos t + c2 sen t + p
es su solución general. Impongamos fuerzas externas periódicas de diferentes tipos:

ƒ (t) = sen5 ( t) . Su periodo mínimo es 2. Como la homogénea no tiene soluciones de ese


periodo (salvo, como siempre, ⌘ 0 ) hay una única solución 2-periódica de [d]. Sólo
para aquellos datos iniciales que nos den c1 = c2 = 0 obtendremos esa solución de
periodo 2. Las demás soluciones serán sumas de funciones de diferentes periodos y no
serán periódicas (ni siquiera asintóticamente).
ƒ (t) = cos t . De periodo mínimo 2 . Como las soluciones de la homogénea son todas de ese
mismo periodo es necesario evaluar las integrales:
R2 R2
0
sen t cos t dt = 0 , 0 cos2 t dt 6= 0
con lo que [d] no tiene soluciones 2 -periódicas. Podemos, en este caso, hallar una p
por coeficientes indeterminados: p = t sen t / 2 , y comprobar que todas las soluciones
oscilan con creciente amplitud (resonancia).

ƒ (t) = esen t . Periodo mínimo 2 . Ahora hay que ver si son 0 las integrales:
R2 R2
0
esen t sen t dt e 0 esen t cos t dt
La segunda se calcula fácilmente: es 0 . La otra no tiene primitiva elemental. Sin embar-
go analizando la gráfica del integrando (o numéricamente) es fácil ver que no se anula.
No hay por tanto soluciones 2 -periódicas (ni de otro periodo porque la segunda integral
es no nula en cualquier intervalo [ 0, 2k ] ). Y en este caso no podríamos hallar explíci-
tamente la solución (si lo intentásemos por variación de constantes nos encontraríamos
la integral de antes).

ƒ (t) = sen2 t . Periodo mínimo . Hay una única solución de [d] de periodo porque la homo-
génea no tiene soluciones no triviales de ese periodo. Como
R2 R2
0
sen3 t dt = 0 , 0 sen2 t cos t dt = 0
todas son 2 -periódicas, aunque para afirmarlo no era preciso evaluar esas integrales:
si p es de periodo todas las c1 cos t + c2 sen t + p son de periodo 2 pues p lo es.

ƒ (t) = sen(2t) si t 2 [ 2k , (2k + 1) ] , k 2 Z y 0 en el resto. Tiene periodo mínimo 2 .


R2 R R2 R
0
ƒ (t) sen t dt = 0 sen 2t sen t dt = 0 , 0 ƒ (t) cos t dt = 0 sen 2t cos t dt = 0 .
Por tanto la masa se mueve periódicamente para cualquier posición y velocidad iniciales
a pesar de aplicarle una fuerza del mismo periodo que el libre del muelle.

54
3. Soluciones por medio de series
En el capítulo anterior vimos las escasas formas de resolver elementalmente la
ecuación con coeficientes variables
[e] 00 + (t) 0 + b(t) =0

Este capítulo trata una forma general de atacarla: suponer la solución desa-
rrollada en serie de potencias e introducir esta serie en la ecuación para
determinar sus coeficientes.
En la sección 3.1 recordaremos la definición de función analítica (función descri-
ta por una serie de potencias convergente) y algunas manipulaciones matemáticas
que se pueden hacer con ellas.
Cuando y b son analíticas en to (punto regular, sección 3.2) siempre
se podrán encontrar dos soluciones linealmente independientes de [e] en forma
de serie de potencias por el siguiente camino: llevando una serie a la ecuación
conseguiremos expresar sus coeficientes ck en función de los dos primeros c0 y
c1 , que serán las dos constantes arbitrarias que deben aparecer en la solución de
cualquier ecuación de segundo orden (algunas veces podremos dar la expresión
general del ck , pero otras nos deberemos limitar a ir calculando coeficiente a
coeficiente). Un teorema, que aceptaremos sin demostración, nos asegurará que
las series solución son convergentes al menos en el intervalo en que las series de
y b lo eran. Imponer datos iniciales en to será inmediato, pues tendremos que
(to ) = c0 y 0 (to ) = c1 .
Si y b son ’casi’ analíticas en to , es decir, si (t to ) (t) y (t to )2 b(t) lo son ( to
es singular regular), también se pueden utilizar series para resolver [e] de una
forma sólo algo más complicada (es el método de Frobenius de la sección 3.3).
Calcularemos
P primero una solución 1 que (si to = 0 ) será siempre de la forma
tr (siendo r una de las raíces del llamado polinomio indicial) y a continuación
otra 2 , linealmente independiente de la anterior, que unas veces (según sea la
diferencia entre las raíces del polinomio indicial) será del mismo tipo y otras con-
tendrá además un término incluyendo el ln t . De nuevo un teorema no demostrado
garantizará la convergencia de las series que vayan apareciendo.
El cálculo de los coeficientes de las series es sencillo (aunque algo pesado). El
problema básico de utilizar series para resolver ecuaciones es la dificultad de obte-
ner información sobre las soluciones que se encuentran (y más cuando no podamos
hallar su término general). Sin embargo ecuaciones del tipo [e] surgen a menudo
en problemas reales y las series son el único instrumento para resolverlas. Por eso
existen libros enteros (los de funciones especiales de la física) dedicados a estu-
diar las propiedades de las series solución de algunas de estas ecuaciones (las de
Legendre, Hermite, Bessel, Laguerre, Tchebycheff, ...). Una pequeña muestra de ta-
les estudios son las propiedades de las soluciones de las ecuaciones de Legendre,
Hermite y Bessel que se citan en la sección 3.4.
Las soluciones por serie en torno a cualquier punto (salvo que sean identificables
con una función elemental) no dan ninguna información sobre el comportamiento
de las soluciones cuando t ! . En la sección 3.5, para estudiar para grandes
valores de t las soluciones, introduciremos el llamado punto del infinito de una
ecuación, punto s = 0 de la ecuación que se obtiene haciendo t = 1/ s en la inicial.

55
3.1 Funciones analíticas
ƒ (t) es analítica en t = to si viene dada por una serie de potencias cerca de to :
X
ƒ (t) = ck (t to )k = c0 + c1 (t to )+ c2 (t to )2 + · · ·
k=0
X
A partir de ahora, t = 0 (si no, con t to = s estaríamos en ese caso): ƒ (t) = ck t k .
k=0

A cada serie de potencias está asociado un radio de convergencia R tal que:


Si R = 0 , la serie sólo converge en t = 0 . Si R = , converge para todo t .
Si 0 < R < , converge si |t| < R y diverge si |t| > R (en t = ±R no sabemos).
Además, si 0 < to < R , la serie converge uniformemente en [ to , to ] .
El R se puede calcular en muchas ocasiones aplicando el criterio del cociente:
X | k+1 | P
Sea k y p = lı́m | | . Entonces si p < 1 la converge, y si p > 1 diverge.
k! k
k=0

Propiedad básica de las series de potencias es que, para |t| < R (si R > 0 ), se
pueden derivar e integrar término a término:
X
ƒ 0 (t) = kck t k 1 =c
1 + 2c2 t + · · · ,
X
k=1
( ) ƒ (k) (0) = k!ck )
ƒ 00 (t) = k(k 1)ck t k 2 = 2c
2 + 6c3 t + · · · , . . .
RX
k=2
X ck
ck t k = C + k+1
t k+1 = C + c0 t + c21 t 2 + · · · si |t| < R
k=0 k=0

También pueden sumarse, multiplicarse,. . . estas series como si fuesen polinomios:


X X
ƒ (t) = k bk t k si |t| < Rg ) Si |t| <mín{Rƒ , Rg } ,
kt si |t| < Rƒ y g(t) =
k=0 k=0
X
ƒ (t)+g(t) = k , ƒ (t)g(t) = 2+· · ·
[ k +bk ]t 0 b0+( 0 b1+ 1 b0 )t+( 0 b2+ 1 b1+ 2 b0 )t
k=0

(también ƒ / g es analítica si tiene límite en t = 0 ;


ya veremos en ejemplos como hacer su desarrollo).

Caso importante de estas series son las de Taylor:


X ƒ (k)
k!
t k , para ƒ con infinitas derivadas en 0 .
k=0

La mayoría de las funciones elementales coinciden con su serie de Taylor (y por


tanto son analíticas) en todo el intervalo de convergencia de la serie. Por ejemplo:
X tk X ( 1)k t 2k+1 X ( 1)k t 2k
et = k!
, sen t = (2k+1)!
, cos t = (2k)!
,
k=0 k=0 k=0
X t 2k+1 X (t 2k
sh t = (2k+1)!
, ch t = (2k)!
, t 2 R.
k=0 k=0

1 X X ( 1)k t k+1 X ( 1)k t 2k+1


1 t
= t k , ln(1+ t) = k+1
, rct n t = 2k+1
,
k=0 k=0 k=0
( 1) 2
[ 1+ t] = 1+ t + 2!
t + · · · , si |t| < 1 .

Aunque ƒ sea C (R) y su serie de Taylor converja t puede que ambas no coinci-
2
dan, como le ocurre a ƒ (t) = e 1/ t , ƒ (0) = 0 que cumple ƒ (k) (0) = 0 k , con lo que
P
su serie de Taylor es 0·t k = 0 y, por tanto, ƒ no es analítica . Para que una ƒ lo
sea, es necesario que tenga infinitas derivadas en el punto, pero no es suficiente.

56
1
Ej 1. Hallemos de varias formas (algunas nada naturales) el desarrollo de ƒ (t) = .
(1+t)2

d 1 1 d X X X
ƒ (t) = dt 1+t
! (1+t)2
= dt
( t)k = ( 1)k k t k 1 = ( 1)k (k + 1) t k si |t| < 1 .
k=0 k=1 k=0

Otra forma:
2 2( 2 1) 2 2( 2 1)( 2 2) 3
(1+ t) = 1 2t + 2!
t + 3!
t + · · · = 1 2t + 3t 2 4t 3 + · · · , |t| < 1 .

Multiplicando: ƒ (t) = [ 1 t + t 2 · · · ][ 1 t + t 2 ···]


1)t + (1+ 1+ 1)t 2 + · · · ] = 1 2t + 3t 2 · · · si |t| < 1 .
=[1+( 1
P
También podemos ‘dividir’: buscar una serie ck t k tal que:
[ c0 + c1 t + c2 t 2 + c3 t 3 + · · · ] [ t 2 + 2t + 1] = 1 ;
así se va obteniendo:
c0 = 1 ; 2c0 + c1 = 0 ! c1 = 2c0 = 2 ; c0 + 2c1 + c2 = 0 ! c2 = c0 2c1 = 3 ; . . .

[El radio R del desarrollo de un cociente P/ Q , con P y Q polino-


mios, simplificados los factores comunes, y Q(0) 6= 0 es la distan-
cia al origen de la raíz (real o compleja) de Q más próxima].

Y con un caso sencillo de ‘composición’ de series:


1 2 3
1+(2t+t 2 )
=1 (2t + t 2 ) + (2t + t 2 ) (2t + t 2 ) + · · · = 1 2t + ( 1+ 4)t 2 + · · ·

57
3.2 Puntos regulares

Sea la ecuación [e] 00 + (t) 0 + b(t) = 0 .

Se dice que t = to es un punto regular de [e] si y b son analíticas


en t = to . En caso contrario se dice que t = to es punto singular de [e].

Sea t = 0 regular y llamemos R al menor de los radios de convergencia de y b.


Se podrá, pues, escribir:
X X
k bk t k para |t| < R .
(t) = kt , b(t) =
k=0 k=0

Si sus coeficientes son analíticos, se puede esperar que cualquier solución de [e] lo
sea también, es decir que también se pueda escribir como una serie de potencias
para |t| < R . Empecemos con un ejemplo:

2t 2
Ej 1. (1+ t 2 ) 00 + 2t 0 2 = 0 , es decir, 00 + 1+t 2
0
1+t 2
=0,

(t) y b(t) analíticas en t = 0 (regular) con R = 1 ( t = ± ceros del denominador).

Llevemos una solución en forma de serie arbitraria (junto con sus derivadas) a la ecua-
ción inicial (mejor que a la segunda, pues deberíamos desarrollar y b ) y tratemos de
calcular sus coeficientes:
X X X
= ck t k , 0 = kck t k 1 , 00 = k(k 1)ck t k 2 !
k=0 k=1 k=2

X X X
[ k(k 1)ck t k 2 + k(k 1)ck t k ] + 2kck t k 2ck t k = 0
k=2 k=1 k=0

[No es falso poner k = 0 como índice inferior de sumación en las tres series,
pues se ve que se anularía el primer término en la de k = 1 y los dos primeros
en la de k = 2 , pero así está claro la potencia con la que empieza cada serie].

La solución final de esta lineal de segundo orden deberá contener dos constantes arbi-
trarias así que una buena estrategia puede ser intentar escribir los ck en función de
los dos primeros c0 y c1 . Como para que una serie de potencias se anule han de ser
0 los coeficientes de cada potencia de t , deducimos:

t 0 : 2·1·c2 2·c0 = 0 ! c2 = c0
t1: 3·2·c3 + [ 2 2]c1 = 0 ! c3 = 0
························
tk : (k + 2)(k + 1)ck+2 + [ k(k 1) + 2k 2]ck = 0

[Hemos escrito aparte los primeros términos porque cada serie empieza a
aportar términos para distintos k ; como potencia general hemos escogido t k
porque era la más repetida, pero también podríamos haber tomado t k 2 ].

De la última expresión deducimos la regla de recurrencia que expresa un coeficiente


en función de los anteriores ya conocidos (en este ejemplo, queda el ck+2 en función sólo
de ck , pero en otros pueden aparecer varios); para facilitar los cálculos, factorizamos
los polinomios que aparecen calculando sus raíces:
(k+2)(k 1) k 1
ck+2 = c =
(k+2)(k+1) k
c , k = 0, 1, . . .
k+1 k

Si preferimos tener el ck (en vez del ck+2 ) en términos de los anteriores, basta cambiar
k por k 2 en la expresión anterior:
k 3
ck = c
k 1 k 2
, k = 2, 3, . . .

58
A partir de la regla de recurrencia escribimos algunos ck más (siempre en función de
c0 o c1 ) con el objetivo de encontrar la expresión del término general de la serie (en
muchos ejemplos esto no será posible, pero aquí sí):
1 1 3 1 5 1
c4 = c
3 2
= c
3 0
, c6 = c
5 4
= c
5 0
, c8 = c
7 6
= c
7 0
, ...
c5 = 0 por estar en función de c3 que se anulaba. Análogamente c7 = c9 = · · · = 0 .

Por si no está aún clara la expresión de los c2k , usamos la recurrencia ‘desde arriba’:
k 3 k 3k 5 k 5 k 7
ck = c
k 1 k 2
= c
k 1k 3 k 4
= c
k 1 k 4
= c
k 1 k 6
= ···

El numerador de c2k es 1 , el denominador es 2k 1 y el signo va alternando, así que:

c2k = ( 1)k+1 2k1 1 c0 , k = 2, 3, . . .

Agrupamos los términos que acompañan a c0 y c1 (que quedan indeterminados)


y obtenemos por fin:
⇥ ⇤ î X 2k ó
= c0 1 + t 2 13 t 4 + 15 t 6 + · · · + c1 t = c0 1+ ( 1)k+1 2kt 1 + c1 t = c0 1 + c1 2
k=0

Esta expresión tiene la estructura clásica de las soluciones de las lineales de segundo
orden. Pero para que lo sea de verdad, las series deben converger en un entorno de
t = 0 , y además 1 y 2 han de ser linealmente independientes. Esto es lo que sucede.
La serie de 1 (como muestra el criterio del cociente) converge para |t| < 1 y la ‘serie’
de 2 (truncada a partir de su segundo término) converge para todo t . Y además el
wronskiano de ambas soluciones en t = 0 resulta ser 1 (pues 1 (0) = 1 , 01 (0) = 0 ,
0
2 (0) = 0 , 2 (0) = 1 ).

Si, en vez de la solución general, la que queremos es la que cumple (0) = o , 0 (0) = 0o
(existe y es única por ser y b analíticas) dada la forma de las series de 1 y 2 es
inmediato que debe tomarse c0 = o , c1 = 0o .

[Esta ecuación se podía haber resuelto sin usar series. Era fácil darse cuenta de que
2 = t era una solución, y podríamos haber calculado la 1 siguiendo la sección 2.2:
R R R R 2t
R
= 2
e dt = t t 2 e 1+t 2 dt = t t 2 (1+ t 2 ) 1 dt = 1 t rct n t ,
1 2 2

cuyo desarrollo, salvo el signo, coincide con el obtenido anteriormente].

Gran parte de lo visto en este ejemplo ocurre en general, como asegura el siguiente
teorema que no demostraremos.

Si t = 0 es regular, la solución general de [e] es


⇥ P⇤ ⇥ P⇤
= c0 1 + c1 2 = c0 1 + + c1 t + ,
con c0 , c1 arbitrarios, y las series, que contienen potencias t k
con k 2 , convergen, al menos, para |t| < R . Los coeficientes
Teor 1.
de estas series se determinan de forma única probando una serie
de potencias arbitraria en la ecuación (con las funciones (t) y
b(t) desarrolladas) y expresando sus coeficientes ck , para k 2 ,
en función de c0 y c1 . La solución única de [e] con (0) = o ,
0 (0) = 0 se obtiene simplemente sustituyendo c = 0
o 0 o , c1 = o .

[El desarrollo de y b , desde luego, no será necesario si esas funciones son polinomios].

Para estudiar las soluciones de [e] en un entorno de otro to regular, el cambio


de variable s = t to lleva a una ecuación en s para la que s = 0 es regular.
Probaríamos entonces para hallar su solución la serie:
X ⇥ X ⇤
= ck sk es decir, = ck (t to )k .
k=0 k=0

59
Ej 2. 00 + (t 2) = 0 , (0) = 2 , 0 (0) = 1

t = 0 regular puesto que (t) = 0 y b(t) = t 2 son analíticas en todo R.


El primer ejemplo era demasiado sencillo. En general, y como en este, las cosas serán
más complicadas. Llevando una serie arbitraria y sus derivadas a la ecuación e igualando
a 0 los coeficientes de cada t k :
X X X⇥ ⇤
= ck t k ! k(k 1)ck t k 2 + ck t k+1 2ck t k = 0 !
k=0 k=2 k=0
1
t0: 2·1·c2 2·c0 = 0 ! c2 = c0 ; t1: 3·2·c3 + c0 2·c1 = 0 ! c3 = c + 1c
6 0 3 1
; ...
1
tk 2: k(k 1)ck + ck 3 2ck 2 =0 ! ck = c + 2 c
k(k 1) k 3 k(k 1) k 2
, k = 3, 4, . . .

(regla de recurrencia de tres términos que suele traer muchos más problemas que las de
dos). Escribimos un par de términos más en función de c0 y c1 :
1 2 1 1 1 2 1 1
c4 = c
12 1
+ c
12 2
= c
6 0
c
12 1
; c5 = c
20 2
+ c
20 3
= c
15 0
+ c
30 1

No hay forma de encontrar la expresión del término general, aunque paso a


paso podemos ir calculando el número de términos que queramos.

La solución general es entonces:


⇥ ⇤ ⇥ ⇤
= c0 1 + t 2 16 t 3 + 16 t 4 1 5
15
t + · · · + c1 t + 1 3
3
t 1 4
12
t + 1 5
30
t + ···

Y la particular pedida: = 2 + t + 2t 2 + 14 t 4 1 5
15
t +··· , convergente t según el teorema.

Para calcular unos pocos términos (pero no para hallar muchos o para buscar la
expresión del término general) de una serie solución cerca de un punto regular se puede
seguir el siguiente camino:
Haciendo t = 0 en la ecuación: 00 (0)+ (0 2) (0) = 0 ! 00 (0) = 4

Derivando la ecuación y volviendo a hacer t = 0 :


000 + (t 2) 0+ =0! 000 (0) = 2 0 (0) (0) = 0
Derivando otra vez: 0000 + (t 2) 00 + 2 0 = 0 ! 0000 (0) = 2 00 (0) 2 0 (0) = 6 , ......
00 000
0 (0)t (0) 2 (0) 3 4 2 0 3 6 4
Por tanto: (t) = (0) + + 2
t + 6
t + ··· = 2+ t + 2
t + 6
t + 24
t + ···

Si ahora queremos unos términos de la solución de la ecuación con (2) = 6 , 0 (2) = 0 ,


la solución general de arriba, dada por series en t = 0 , claramente no sirve para imponer
datos en t = 2 . Debemos resolver en torno a este punto:
d2 X X X
s=t 2 ! ds2
+ s = 0 , s = 0 regular ! = ck sk ! k(k 1)ck sk 2+ ck sk+1 = 0 !
k=0 k=2 k=0

s0 : 2c2 = 0 ; s1 : 6c3 + c0 = 0 , c3 = c0 ; . . . ;
1
sk 2: k(k 1)ck + ck 3 =0 ! ck = c
k(k 1) k 3
; k = 3, 4, . . . !
1 1 1 1 1
c5 = c8 = · · · = 0 ; c4 = c
4·3 1
; c6 = c
6·5 3
= c
6·5·3·2 0
; c7 = c
7·6 4
= c
7·6·4·3 1
!
⇥ 1 3 1 ⇤ ⇥ 1 4 1 ⇤ datos
= c0 1 6
s + 120
s6 + · · · + c1 s 12
s + 504
s7 + ··· !

1 6 1
=6 s3 + 20
s + ··· = 6 (t 2)3 + 20
(t 2)6 + · · ·

(Aquí sí podemos expresar el término general, aunque no nos queda


tan compacto como en el ejemplo 1:
î X ó î X ó
( 1)k (t 2)3k ( 1)k (t 2)3k+1
= c0 1 + 2·5···(3k 1)·3·6···(3k)
+ c1 t + 3·6···(3k)·4·7···(3k+1)
).
k=1 k=1

60
3.3 Puntos singulares regulares
Supondremos en esta sección que para [e] 00 + (t) 0 + b(t) = 0 es t = to un
punto singular, es decir, que o (t) o b(t) o las dos no son analíticas en t = to ,
con lo que no es aplicable el método de la sección anterior. Sin embargo, interesa
precisamente en muchas ocasiones conocer el comportamiento de las soluciones
de [e] en las cercanías de sus puntos singulares. En general se podrá decir poco so-
bre este comportamiento, salvo para un tipo particular de puntos sólo débilmente
singulares: los singulares regulares que vamos a definir.
Suponemos a partir de ahora que el punto singular que tratamos es t = 0 . Sabemos
que esto no supone pérdida de generalidad ya que en el caso de que queramos
estudiar las soluciones cerca de un to 6= 0 el cambio s = t to traslada el problema
al estudio de las soluciones cerca de 0 de la ecuación en s .
Conviene escribir [e] de otra forma. Multiplicándola por t 2 y llamando (t) = t (t)
y b (t) = t 2 b(t) obtenemos:

[e*] t2 00 +t (t) 0 + b (t) = 0

t = 0 es punto singular regular de [e] - [e*] si


(t) = t (t) y b (t) = t 2 b(t) son analíticas en t = 0 .

Ej 1. t(t 1)2 00 t 0 + (t 1) = 0 , es decir,


1 1 t t
[e] 00
(t 1)2
0 + t(t 1)
= 0 , [e*] t 2 00 t (t 1)2
0 + t 1
=0.

t = 0 y t = 1 son puntos singulares de la ecuación (todos los demás son regulares).


t
Como (t) = (t 1)2
y b (t) = t t 1 son analíticas en t = 0 , el punto es singular regular.

Con t 1 = s obtenemos: s2 (s+ 1) 00 (s+ 1) 0 + s = 0 , es decir, s2 00 s 1s 0 + s


s+1
= 0
ds
(estas derivadas son con respecto a s , pero las hemos dejado tal cual, pues dt
= 1 ).
1 s
Como s
no es analítica en 0 (aunque s+1
sí lo sea), t = 1 ( s = 0 ) es singular no regular.

[En torno a t = 1 no sabremos resolver la ecuación por series (la teoría es complicada)].

Ej 2. t2 00 + sen t 0 + t 5/ 3 = 0 ! 00 + sen t 0 + t 1/ 3 = 0 ó t2 00 + t sen t 0 + t 5/ 3 = 0.


t2 t

(t) y b(t) no son ni continuas en t = 0 (no es punto regular). Tampoco es singular regular:
1 3
sen t t t +··· 1 2
(t) = t
= 6
t
=1 6
t +··· sí es analítica en t = 0 (con radio R = ), pero no lo
es b (t) = t 5/ 3 (es continua y derivable, pero ya no existe la derivada segunda en 0 ).

Los to 6= 0 son puntos regulares de la ecuación, por ser (t) y b(t) analíticas en t = to .
[Escribir sus desarrollos en ese punto se podría hacer con un poco de trabajo; por

ejemplo, en torno a t = 1 : t = s+1 ! 00 + cos 1 sen(s+1)
s+sen 1 cos s 0
2 + (1+s) 1/ 3 = 0 . . . .

Queremos resolver [e*] cerca de t = 0 suponiendo que (t) y b (t) son analíticas
en ese punto, es decir, que admiten desarrollo en serie válido en |t| < R (mínimo
de los radios de convergencia):
X X
(t) = k
tk = 0
+ 1
t + · · · , b (t) = bk t k = b0 + b1 t + · · · , |t| < R .
k=0 k=0

sen t
[Normalmente será 0
= (0) y b0 = b (0) salvo para funciones como t
].

61
[e*] se resolverá con el método de Frobenius, que detallaremos en el teorema de esta
sección. No lo probaremos, pero intentemos hacer creíbles sus hipótesis y conclusiones. La
ecuación más sencilla del tipo [e*] es la de Euler (en ella (t) y b (t) son ‘series’ que
se reducen a su primer término). Viendo sus soluciones está claro que no hay, en general,
soluciones analíticas de [e*]. Pero ya que hay soluciones de Euler de la forma t r se podría
pensar que [e*] posee soluciones en forma de serie que comiencen por términos t r .
X
Probemos por tanto en [e*] la solución = tr ck t k = c0 t r + c1 t r+1 + c2 t r+2 + · · · .
k=0
Debe ser entonces:
X Ä X äÄ X ä Ä X äÄ X ä
(k + r)(k + r 1)ck t k+r + k tk (k + r)ck t k+r + bk t k ck t k+r = 0
k=0 k=0 k=0 k=0 k=0

El coeficiente que acompaña a la potencia de menor orden ( t r ) debe anularse:


⇥ ⇤
r(r 1)+ 0 r + b0 c0 = 0 .

Si la serie ha de empezar por términos t r , debe ser c0 6=P0 . Por tanto, los únicos r para los
que pueden existir soluciones no triviales de la forma t r son las raíces del polinomio:

Q(r) ⌘ r(r 1)+ 0


r + b0 , llamado polinomio indicial de [e*].

Esto es coherente con las ecuaciones de Euler. Para ellas, si Q(r) tenía dos raíces distintas
r1 y r2 , dos soluciones independientes de la ecuación eran t r1 y t r2 . Pero si la raíz era doble
sólo existía una solución de esa forma, y la segunda era la primera multiplicada por el ln t ;
por tanto, también es de esperar que en la solución general de [e*] aparezcan logaritmos.
Pero al resolver por series [e*] pueden aparecer problemas que no se presentan en el caso
particular de las de Euler. Igualando a 0 el coeficiente que acompaña a t r+k tenemos:
⇥ ⇤ ⇥ ⇤
(r + k)(r + k 1)+ (r + k) 0 + b0 ck + (r + k 1) 1 + b1 ck 1 + · · · = 0

donde los puntos representan los términos con ck 2 , ck 3 , . . . De esta expresión podemos
despejar el ck en función de los anteriores ya calculados siempre que el corchete que le
acompaña, que es Q(r+k) , no se anule. Si r1 es la mayor de las dos raíces Q(r1 + k) 6= 0 k .
Pero si r2 es la menor, y r1 r2 es un entero positivo n , el Q(r2 + k) = 0 si k = n , y, salvo
que los demás sumandos también se anulen (con lo que cn quedaría indeterminado), P no
hay forma de anular el coeficiente de t r2 +n y no pueden existir soluciones t r2 .

Enunciamos ya el teorema de Frobenius (aunque se podría considerar el caso


de raíces complejas del Q , nos limitamos, por sencillez, a los casos reales):

Supongamos que el polinomio indicial Q(r)= r(r 1) + 0 r + b0


tiene raíces reales r1 , r2 con r1 r2 .
Entonces siempre existe una solución 1 de [e*] de la forma
X
1 = t r1 ck t k , c0 6= 0 .
k=0
La segunda solución 2 linealmente independiente es, según los casos:
X
Teor 1. a] Si r1 r2 no es cero ni entero positivo: 2= t r2 bk t k , b0 6= 0 .
k=0
X
b] Si r1 = r2 , 2= t r1 +1 bk t k + 1 ln t .
k=0
X
c] Si r1 r2 = 1, 2, 3, . . . , 2= t r2 bk t k + d 1 ln t , b0 6= 0 , d 2 R .
k=0
Todas las soluciones están definidas al menos para 0 < t < R y los coe-
ficientes ck , bk y la constante d se pueden determinar sustituyendo
cada una de las soluciones en la ecuación.

Se comprueba sin dificultad que a partir de las soluciones anteriores obtenemos


otras válidas en R < t < 0 sin más que sustituir ln t por ln |t| y las expresiones de
la forma t r que preceden a las series por |t|r . En el caso c] la constante d puede
ser perfectamente 0 (como ocurre en las ecuaciones de Euler), P con lo que, a pesar
de todo, hay dos soluciones independientes de la forma t r .

62
t2 2
Ej 3. 2t 00 + 0 + t = 0 , o sea, t 2 00 + t 12 0 + 2
=0 ! (t) = 12 , b (t) = t2 .

(t) y b (t) analíticas ( R = ) ) t = 0 singular regular. Como 0


= 12 y b0 = 0 ,
el polinomio indicial es r(r 1)+ 21 r + 0 = r(r 1
2
) ! r1 = 12 , r2 = 0 , con r1 r2 2
/ N.

Las dos series solución linealmente independientes son, pues:


X X
1= ck t k+1/ 2 , c0 6= 0 y 2= bk t k , b0 6= 0 (convergen t 2 R, según el teorema).
k=0 k=0

Llevando 1 a la ecuación inicial (las series se derivan como las de potencias habituales):
X X X
2(k + 12 )(k 1
)c t k 1/ 2 +
2 k
(k + 12 )ck t k 1/ 2 + ck t k+3/ 2 = 0
k=0 k=0 k=0

(ahora las 3 series empiezan por k = 0 pues no se anulan los primeros términos al derivar).
Igualando a 0 los coeficientes de las diferentes potencias de t :
⇥ ⇤
t 1/ 2 : 2( 12 )( 12 ) + 12 c0 = 0 · c0 = 0 y c0 queda indeterminado como debía.
⇥ ⇤
t 1/ 2 : 2( 32 )( 12 ) + 32 c1 = 0 ! c1 = 0 ,
⇥ ⇤
t k 1/ 2 : 2(k + 12 )(k 12 ) + (k + 12 ) ck + ck 2 = 0 ! ck = k(2k+1)
1
ck 2 , k = 2, 3, . . .
1 1 1
Por tanto: c3 = c5 = · · · = 0 , c2 = 2·5 c0 , c4 = 4·9 c2 = 2·4·5·9 c0 , ... y la primera solución es:
î X ó
1/ 2 1+ ( 1)m
1 =t 2·4···2m·5·9···(4m+1)
t 2m (eligiendo, por ejemplo, c0 = 1 ).
m=1

X X X
Para la otra raíz del polinomio indicial: 2k(k 1)bk t k 1+ kbk t k 1+ bk t k+1 = 0 !
k=0 k=0 k=0
1
t 0 : b1 = 0 , t 1 : [ 4+ 2]b2 + b0 = 0 ! b2 = b .
6 0
1
tk 1: [ 2k(k 1) + k]bk + bk 2 = 0 ! bk = b
k(2k 1) k 2
, k = 2, 3, . . . !
1 1 X ( 1)m
b3 = b5 = · · · = 0 , b4 = b
4·7 2
= b
2·4·3·7 0
, ...! 2 = 1+ 2·4···2m·3·7···(4m 1)
t 2m
m=1

El criterio del cociente prueba que, como debían, las series convergen t . La 2 valeP t ,
pero 1 sólo si t > 0 (en t = 0 no derivable). Una 1 válida t 6= 0 es 1 = |t|1/ 2 [ 1 + ] .

Ej 4. t 2 00 + 2t 2 0 + (t 2 + 1 ) =0 (t) = 2t , b (t) = t 2 + 41 analíticas en R.


4

t = 0 singular regular; r(r 1)+ 14 = 0 ! r = 12 doble !


X X ⇥ ⇤
1 = ck t k+1/ 2 ! k 2 ck t k+1/ 2 + (2k + 1)ck t k+3/ 2 + ck t k+5/ 2 = 0 ,
k=0 k=0
2k 1 1
! c1 = c0 , ck = k2
ck 1 c
k2 k 2
, k = 2, 3, . . .
! c2 = 12 c0 , c3 = 1
c
6 0
, . . . , ck = ( 1
1)k k! c0 ! 1 = t 1/ 2 e t

Como la raíz es doble, la otra solución necesariamente contiene un logaritmo:


X X
2 = t 3/ 2 bk t k + 1 ln t ! 0
2
= (k + 32 )bk t k+1/ 2 + 1
t 1 + 0 ln t
1
,
k=0 k=0
X
00
2
= (k + 32 )(k + 12 )bk t k 1/ 2 1
t2 1 + 2
t
0
1
+ 00 ln t
1
!
k=0
X ⇥ ⇤ ⇥ ⇤
(k 2 + 2k+ 1)bk t k+3/ 2 + (2k+ 3)bk t k+5/ 2 + bk t k+7/ 2 + ln t t 2 00 + 2t 2 0 + (t 2 + 1 ) 0
1 1 4 1 =
k=0

El último corchete es 0 por ser 1 solución (lo que acompaña a ln t siempre se anula).
! b0 = b1 = b2 = · · · = 0 ! 2 = t 1/ 2 e t ln t

[Para comprobarlo podemos hacer y = ret ! t 2 y 00 + 14 y = 0 (Euler) ! y = c1 t 1/ 2 +c2 t 1/ 2 ln t ;


o también, una vez hallada la 1, se puede calcular otra solución con la fórmula de 2.2:
R 2t
1/ 2 e t e dt = t 1/ 2 e t
2 =t te 2t
ln t , exactamente la misma 2 hallada con las series].

63
Como se ha visto en el ejemplo anterior, son más largas las cuentas para el cálculo de la 2
en el caso b] del teorema que en el a]. Y también son más complicadas las del c], caso al
que pertenecen los tres siguientes ejemplos.

Ej 5. t 2 00 + 2t 2 0 2 =0 t = 0 singular regular, (t) = 2t , b (t) = 2 analíticas en R.

El polinomio indicial r(r 1)+ 0 r 2 tiene por raíces r1 = 2 y r2 = 1 . Así pues:


X X X X
1 = ck t k+2 , c0 6= 0 ! (k + 2)(k + 1)ck t k+2 + 2(k + 2)ck t k+3 2ck t k+2 = 0
k=0 k=0 k=0 k=0

2(k+1)
! c0 indeterminado, ck = c
k(k+3) k 1
, k = 1, 2, . . .

! c1 = c0 , c2 = 35 c0 , c3 = 4
c
15 0
, ...,
2(k+1) 2k 2(k 1) ( 2)k (k+1)
ck = ( 1)k k(k+3) (k 1)(k+2) (k 2)(k+1)
· · · c0 = (k+3)!
6c0

X ( 2)k (k+1) X ( 2)k (k+1)(k+2)


Por tanto, eligiendo c0 = 16 , 1= (k+3)!
t k+2 ! 0 =
1 (k+3)!
t k+1
k=0 k=0

La segunda solución (caso c] del teorema) es


X
2 = bk t k 1 +d 1 ln t , b0 6= 0 , d constante (quizás nula) !
k=0
X ⇥ ⇤
(k 1)(k 2)bk t k 1 + 2(k 1)bk t k
2bk t k 1
k=0 ⇥ ⇤ ⇥ ⇤
+ d ( 1+ 2t) 1 + 2t 01 + d ln t t 2 00 + 2t 2 0
1 1
2 1 =0

Como siempre, el tercer corchete se anula, por ser 1 solución. Sustituyendo las series
de 1 y 01 escritas arriba en el segundo corchete y agrupando potencias de t :
⇥ ⇤
2b0 2b1 2b2 t + 2b3 + 2b2 2b3 d6 + 2d 3
t2 + · · · = 0 !
b1 = b0 , b2 = 0 , d = 0 ; b0 , b3 indeterminados.

Como d = 0 , en la expresión de 2 no aparece el ln t . Sabíamos que debía ser b0 6= 0 .


El hecho de que también b3 quede indeterminado se debe a que proporciona potencias
t 2 , comienzo de la serie de 1 . Elegimos b0 = 1 y b3 = 0 (para no volver a calcular
1 ). Como en la regla de recurrencia cada bk depende de bk 1 es b4 = b5 = · · · = 0 .

1 1
Concluimos que: 2 = t
(1 t) = t
1 [es fácil comprobar que satisface la ecuación].
⇥ 1 t R t 2 e 2t
De esta solución 2 sacaríamos otra con: 1
= t (1 t)2
dt . La primitiva no parece
calculable, pero esto no impide desarrollar e integrar para obtener una serie solución:
Lo más corto para desarrollar el integrando (se podría hacer un cociente) es:
1 d 1
(1 t)2
= dt 1 t
! t 2 [ 1 2t + 2t 2 + 43 t 3 + · · · ][ 1+ 2t + 3t 2 4t 3 + · · · ] = t 2 + t 4 + 2 5
3
t + ···
⇥ ⇤⇥ ⇤
! 1
= 1t 1 13 t 3 + 15 t 5 + 19 t 6 + · · · = 13 t 2 13 t 3 + 15 t 4 45
4 5
t + ··· .

Aunque no lo pareciese, la primitiva sí se puede hallar: = t 2 e 2t , d = (1 1t)2 !


R t 2 e 2t 2 2t R
(1 t)2
dt = t 1e t 2te 2t dt = 12 1+t
1 t
e 2t ! •1 = (1 + 1
t
) e 2t .
no es exactamente ni ni • (es 3 y una combinación lineal de y • )].
1 1 1 1 2 1

[En este ejemplo, si, en vez de partir de la raíz mayor de la ecuación indicial, hubiése-
mos sustituido la 2 , habríamos obtenido las dos series de un tirón; pero esto ocurriría
por que casualmente resulta ser d = 0 ; si fuera d 6= 0 sólo obtendríamos
⇤ la solución
trivial = 0 y deberíamos empezar de nuevo desde el principio .

Para distinguir en el caso c] del teorema de Frobenius si aparecen logaritmos o no (es decir,
si es o no d 6= 0 ) no es necesario hallar la expresión del término general, bastan con los
primeros términos de la 1 . Esto es lo que haremos en los dos últimos ejemplos.

64
Ej 6. Estudiemos cuántas soluciones analíticas linealmente independientes tiene:

2t 00 + (t 2) 0 + 3 = 0 , es decir, t 2 00 + t( 2t 1) 0 + 3t
2
=0.
X
t = 0 singular regular. r(r 1) r = 0 ! r1 = 2 , r2 = 0 . Es seguro analítica 1= ck t k+2
k=0
X ⇥ ⇤
! 2(k + 2)(k + 1)ck t k+1 2(k + 2)ck t k+1 + (k + 2)ck t k+2 + 3ck t k+2
k=0
X
= 2(k + 2)kck t k+1 + (k + 5)ck t k+2 ] = 0 .
k=0

Calculemos, por ejemplo, los tres primeros términos de esta primera serie:
5
t 1 : 0 c0 = 0 , c0 indeterminado ; t 2 : 6c1 + 5c0 = 0 , c1 = c
6 0
;
3 5
t3: 16c2 + 6c1 = 0 , c2 = c = 16
8 1
c0; ... !
5 3 5 4 ⇥ 5 2 5 3 ⇤
1 = t2 6
t + 16 t + ··· ! 0
1
= 2t 2
t + 4
t + ···
X
La 2 = bk t k + d 1 ln t será analítica si d = 0 y no lo será si d 6= 0 . Hay que trabajar:
k=0

X d X 2d d
0
2
= kbk t k 1 +d 0 ln t
1
+ t 1 ; 00
2
= k(k 1)bk t k 2 +d 00 ln t
1
+ t
0
1 t2 1 !
k=1 k=2

X X X 4d
k(k 1)bk t k 1+ [ kbk t k 2kbk t k 1] + 3bk t k + 4d 0
1 t 1 +d 1 =0 !
k=2 k=1 k=0

t0: 2b1 + 3b0 = 0 ! b1 = 32 b0 ;


3
t 1 : 4b2 + b1 4b2 + 3b1 + 8d 4d = 0 ! d = b1 = b 6= 0 .
2 0

Por tanto, la segunda solución contiene el ln t y no es analítica en t = 0 :


3 3
2 =1+ 2
t + ··· 2 1 ln t .
⇥ ⇤
No es analítica, pero sí es continua en t = 0 , pues 1 ln t ! 0 (si > 0 , t ln t ! 0 ) .
t!0 t!0

Ej 7. t 00 + 2et 0 = 0 . Sabemos resolverla siguiendo 2.2, pero utilicemos Frobenius:

t = 0 es singular regular [ (t) = 2et y b (t) ⌘ 0 analíticas en todo R]. r1 = 0 , r2 = 1 .


X X
La 1 = ck t k se ve (¡a ojo!) que es 1 ⌘1 . La otra es: 2 = bk t k 1 + d ln t !
k=0 k=0
X d X d
0
2
= (k 1)bk t k 2 + t
, 00
2
= (k 1)(k 2)bk t k 3
t2
!
k=0 k=0
⇥ ⇤⇥ ⇤
2b0 t 2 + 2b
3t + · · · dt 1 + 2+ 2t + t 2 + 13 t 3 + · · · dt 1 b0 t 2+b
2 + 2b3 t + · · · =0!

t 2: 2b0 2b0 = 0 ! b0 indeterminado como debía.


t 1: d+ 2d 2b0 = 0 ! d = 2b0 (aparecen, pues, logaritmos).
t 0 : 2d b0 + 2b2 = 0 ! b2 = 12 b0 d = 3
2 0
b .
1
t 1 : 2b3 + d b + 2b2 + 4b3 = 0
3 0
! b3 = 29 b0 .
·········
1 3 2 2
! 2 = 2 ln t + t 2
t + 9
t + ···

0= 0 2et
Resolvamos la ecuación ahora sin series: ! = t
!
R R
1 t 2 2 3
2t e dt ( 2/ t 2 t t / 3+··· )dt 2 e 2t t / 2 t / 9+···
= Ce = Ce = Ct =
⇥ 1 2 1 3 1 1 2 2 1 ⇤
= Ct 2 1 + ( 2t 2
t 9
t ···)+ 2
( 2t 2
t ···) + 6
( 2t · · · )3 + · · · !
R⇥ 3 4 ⇤ ⇥ 1 3 2 2 ⇤
=K+C t 2 2t 1 + t + · · · dt = K C 2 ln t + t + t + ··· .
2 9 t 2 9

65
3.4 Ecuaciones de Legendre, Hermite y Bessel
La ecuación de Legendre es [L] (1 t 2 ) 00 2t 0 + p(p+ 1) = 0 , p 0.

Resolvemos primero en torno a t = 0 que es punto regular. Como (t) = 2t/ (1 t 2 )


y b(t) = p(p+ 1)/ (1 t 2 ) son analíticas en |t| < 1 la ecuación tiene series solución
que convergen al menos en ese intervalo. Probamos pues:
X X⇥ ⇤ X X
= ck t k ! k(k 1)ck t k 2 k(k 1)ck t k 2kck t k + p(p+ 1)ck t k = 0 !
k=0 k=2 k=1 k=0

(p k+2)(p+k 1) p(p+1)
ck = k(k 1)
ck 2 , k = 2, 3, . . . ! c2 = 2·1
c0 ,
(p 1)(p+2) p(p 2)(p+1)(p+3) (p 1)(p 3)(p+2)(p+4)
c3 = 3·2
c1 , c4 = 4!
c0 , c5 = 5!
c1 , ...!
X p(p 2)···(p 2n+2)(p+1)(p+3)···(p+2n 1) 2n
1 = 1+ ( 1)n (2n)!
t
k=1

X (p 1)(p 3)···(p 2n+1)(p+2)(p+4)···(p+2n) 2n+1


2 = t+ ( 1)n (2n+1)!
t
k=1

Si p es un entero par positivo, p = 2m , 1 se reduce a un polinomio de grado 2m :


p=0 ! 1 =1 , p=2 ! 1 =1 3t 2 , p = 4 ! 1 =1 10t 2 + 35
3
t4 , . . .

Si p impar, p = 2m+1 , es 2 quien se convierte en un polinomio de grado 2m+1 :


5 3 14 3 21 5
p=1 ! 2 =t , p=3 ! 2 =t 3
t , p=5 ! 2 =t 3
t + 5t , ...

Se llama polinomio de Legendre de grado n al polinomio Pn solución de [L]


con p = n 2 N , Pn (1) = 1 , es decir:
P2 P0
3 2 1 5 3 3
P0 = 1 , P1 = t , P2 = 2
t 2
, P3 = 2
t 2
t ,
P3 P1
P4 = 35
8
t4 15 2 3
4
t +8 , P5 = 63 5
8
t 35 3 15
4
t + 8t , ...

–1 1
Como Pn ( t) = ( 1)n Pn (t) , los P2m tienen simetría par y
los P2m+1 impar. Observemos que los P2m+1 y las deriva-
das P02m se anulan en 0 . Se pueden probar además las
siguientes propiedades de los Pn :
1 dn n
Pn (t) = 2n n! dt n (t 2 1) , fórmula de Rodrigues.
Pn tiene n ceros reales, todos en ( 1, 1) . Los Pn son ortogonales:
R1 R1 2
P P dt = 0 , si m 6= n ;
1 n m
P2 dt = 2n+1
1 n

Para las aplicaciones de la ecuación [L] a las EDPs se necesitará saber cuáles de
sus soluciones están acotadas en [ 1, 1] . Se demuestra que, salvo constantes,
las únicas soluciones de [L] acotadas a la vez en t = 1 y t = 1 son los
polinomios de Legendre.
Para intentar comprobar esto resolvemos la ecuación en torno a t = 1 , haciendo s = t 1 :
[L1 ] s(s+ 2) 00 + 2(s+ 1) 0 p(p+ 1) = 0
2(s+1) p(p+1)s
Para [L1 ] es s = 0 singular regular, y (s) = s+2
, b (s) = s+2
analíticas para |s| < 2 .
Es r = 0 doble p . Por tanto sus soluciones linealmente independientes son:
X X
1 = ck sk y 2 = |s| bk sk + 1 ln |s| , c0 = 1
k=0 k=0

y las series convergen al menos si |s| < 2 . Sin hallar ningún coeficiente podemos ya afirmar
que 1 siempre está acotada en s = 0 ( t = 1 ), mientras que 2 no lo está ( ! si s ! 0 ).

66
Calculemos 1 y comprobemos que si p = n obtenemos los Pn [pues 1 (1) = 1 ]. Debe ser:
X⇥ ⇤ X⇥ ⇤ X
k(k 1)ck sk + 2k(k 1)ck sk 1 + 2kck sk + 2kck sk 1 p(p+ 1)ck sk = 0
k=2 k=1 k=0

(p+1)p k(k 1)
! ck = 2k 2
ck 1 , k = 1, 2, . . . !

(p+1)p (p+1)p[ (p+1)p 2·1] 2 (p+1)p[ (p+1)p 2·1]···[ (p+1)p n(n 1)] n
1 (s) = 1+ 2
s+ 16
s + · · ·+ 2n (n!)2
s +···

Si p = n la regla de recurrencia nos dice que cn+1 y lo siguientes se anulan. En particular:


6[ 6 2] 2
p=0 ! 1 =1 ; p=1 ! 1 = 1+ s = t ; p=2 ! 1 = 1+ 3s+ 16
s = 32 t 2 1
2
; ...

Faltaría probar que si p 6= n la 1 no está acotada cuando s ! 2 ( t ! 1 ) para comprobar


que no hay más soluciones de [L] acotadas en t = ±1 que los Pn .

Otra ecuación ligada a problemas físicos es la de Hermite: [H] 00 2t 0 + 2p =0 .

Tiene solución analítica ( t = 0 regular), convergente en todo R. Resolvemos:


X X X X k 2 p
= ck t k ! k(k 1)ck t k 2 2kck t k + 2pck t k = 0 ! ck = 2 k(k c
1) k 2
,
k=0 k=2 k=1 k=0
k = 2, 3, . . .
î X ó î X ó
( p)(2 p)···(2n 2 p) 2n (1 p)(3 p)···(2n 1 p) 2n+1
! = c1 1+ 2n (2n)!
t + c2 t + 2n (2n+1)!
t
n=1 n=1

Como para Legendre, [H] posee solución polinómica cuando p = n 2 N . Si p = 2m ,


la primera solución 1 pasa a ser un polinomio de grado 2m , y si p = 2m + 1 es la
otra 2 la que se convierte en un polinomio de ese mismo grado:
2 3
p=0 ! 1 =1 ; p=1 ! 2 =t ; p=2 ! 1= 1 2t 2 ; p = 3 ! 2 =t 3
t ; ...

Los polinomios de Hermite Hn (t) son las soluciones polinómicas de [H] tales que
los términos que contienen la potencia más alta de t son de la forma 2n t n , es decir:

H0 = 1 ; H1 = 2t ; H2 = 4t 2 2 ; H3 = 8t 3 12t ; . . .

Citemos, también sin prueba, algunas propiedades de los Hn que serán útiles, por
ejemplo, cuando aparezcan en física cuántica. Una forma de generarlos todos es:
X 1
e2ts s2 = Hn (t) sn (a esa exponencial se le llama función generatriz de los Hn ).
n!
k=0

Nos limitamos a comprobarlo para los 4 que ya hemos calculado:
3 3 ⇤
1+ 2ts+ 2t 2 s2 + 4t3 s3 + · · · 1 s2 + 12 s4 · · · = 1+ 2ts+ (2t 2 1)s2 + ( 4t3 2t s3 + · · · .

2 dn 2
De la función generatriz sale otra fórmula de Rodrigues: Hn (t) = ( 1)n et dt n
e t .
⇥ e2ts s
2
2 e (t s)
2
2 dn 2 ⇤
Pues Hn (t) = sn s=0 = et sn s=0 = ( t s = z, s
= s
) = ( 1)n et d n e z=t .

2
En cuántica no aparece [H], sino 00 +(2p+1 t 2 ) = 0 . Haciendo = e t / 2 en ella
se llega a [H]. Se prueba (no es fácil hacerlo), que las únicas soluciones de la
2
inicial que ! 0 si |t| ! son las de la forma n (t) = e t / 2 Hn (t) , llamadas
funciones de Hermite de orden n . Sólo estas n interesan físicamente.

Como los Pn , se puede ver que también las n son ortogonales, ahora en ( , ):
R R 2 R R 2 p
n m dt = Hn Hm e t dt = 0 , si m 6= n ; 2 dt =
n
H2n e t dt = 2n n! .

[Lo comprobamos exclusivamente cuando n = 0, 1 :


R R R R p R R
2
2te t = 0 , 2= 2
e t = , 2 = 2te t 2 2e t 2 = 2p ].
0 1= 0 1
+

67
Para expresar en forma compacta las soluciones de la última 6
ecuación de interés físico que vamos a tratar (la de Bessel) !
utilizaremos las propiedades de la función gamma (función
que generaliza el factorial para números no enteros) definida
por la siguiente integral impropia convergente: 2
R 1
(s) = 0 e s 1d si s > 0 ,
–2 –1 1 2 3 4
y extendida a s < 0 mediante:
(s+n)
(s) = (s+n 1)···(s+1)s
si n < s < n+ 1 , n 2 N .

Se cumplen para la las siguientes igualdades:


R R p
( 12 ) = 2 0 e
2 s
(1) = 0 e d = 1 ; d = ; (s+ 1) = e 0
+ s (s) = s (s)
! (s+ n) = (s+ n 1) · · · (s+ 1) s (s) ! (n+ 1) = n! , n 2 N

La ecuación de Bessel es: [B] t2 00 + t 0 + t 2 p2 ] = 0 , p 0.

t = 0 es singular regular con polinomio indicial r 2 p2 , r1 = p , r2 = p . Entonces


X
1 = tp ck t k , t > 0 , (acotada en t = 0 p )
k=0

es una solución definida por una serie que converge en todo R. Llevándola a [B]:
X⇥ ⇤ ck 2
k(2p+ k)ck t p+k + ck t p+k+2 = 0 ; ck = k(2p+k) , k = 2, 3, . . . ; c1 = 0 ! c3 = · · · = 0
k=0
î X ó
c0 c0 p ( 1)m t 2m
c2 = 22 (p+1)
; c4 = 24 2(p+1)(p+2) ; ...! 1 = c0 t 1+ 22m m!(p+1)···(p+m)
m=1

1 ⇥ t ⇤p X ( 1)m ⇥ t ⇤2m [función de Bessel


Eligiendo c0 = 2p (p+1)
! Jp (t) ⌘ 2 m! (p+m+1) 2
de primera especie
m=0 y orden p ]

X ( 1)m ⇥ t ⇤2m X ( 1)m ⇥ t ⇤2m+1


En particular son: J0 (t) = (m!)2 2
, J1 (t) = m!(m+1)! 2
,
m=0 m=0
1

J0
cuyas gráficas son las de la izquierda. Se prue-
0.8
ba que, al igual que J0 y J1 , todas las Jp son
0.6
oscilatorias y que para t grande se parecen a:
J1 ⇥ ⇤
0.4
Jp ⇠ cos t (2p+ 1) 4
0.2
Cada Jp tiene un infinitos ceros en (0, ) [que
0
5 10 15 20 deben conocerse para resolver algunas EDPs]:
–0.2
los de J0 son: 2.4048, 5.5201, 8.6532, . . . ;
–0.4 los de J1 : 3.8317, 7.0156, 10.1735, . . . .

Para hallar una solución linealmente independiente de [B] (necesariamente no aco-


tada en t = 0 ), Frobenius nos dice que si r1 r2 = 2p 6= 0, 1, . . . la 2 es de la forma:
p
X ⇥t⇤ p X ( 1)m ⇥ t ⇤2m
2= t bk t k , t > 0 llevándola a [B] se tiene J p (t) ⌘ 2 m! (p+m+1) 2
.
k=0 m=0

/ N, pero 2p 2 N ( p = 12 ,
Si p 2 3 5
, , . . . ),
2 2
podría 2 contener un ln t pero no es así
(caso c] de Frobenius con d = 0 ). De hecho, haciendo p = 12 en J±p se tiene:
« « «
2 X ( 1)m t 2m+1 2 2
J 1 (t) = = sen t , J 1 (t) = · · · = cos t ,
2 t
m=0 2
2m+1 m!(m+ 1 1 1
2 )··· 2 ( 2 )
t 2 t

soluciones que son linealmente independientes (la expresión asintótica es exacta


2p
para p = 12 ). Como veremos que Jp+1 = t Jp Jp 1 , todas las J 2n+1 , n 2 Z , son
2
funciones elementales (las demás Jp no lo son).

68
Para p = n 2 N el atajo anterior no sirve, pues es fácil ver que cambiando n por
n la J n que aparece no es independiente de Jn [es J n = ( 1)n Jn ]. Tendríamos
que hallar las 2 de Frobenius (y obtendríamos un ln t en su larga expresión). Por
ejemplo, para p = 0 (que seguro contiene logaritmos) se acaba obteniendo:
X ( 1)m+1 ⇥ 1 ⇤⇥ t ⇤2m
2 (t) = (m!)2
1+ 12 + · · ·+ m 2
+ J0 (t) ln t ⌘ K0 (t) , t > 0
m=0

[función de Bessel de segunda especie y orden 0 ]

Pero en muchos problemas físicos en los que surge la ecuación [B] es necesario
que las soluciones estén acotadas, y para ellos no servirá de nada el conocimiento
de estas complicadas segundas soluciones.
Lo que sí puede ser útil en el futuro será conocer las siguientes propiedades de las
derivadas de las Jp :
d⇥ p ⇤ d⇥ p ⇤ [ tJ1 ] 0 = J0
t Jp (t) = t p Jp 1 (t) , dt t Jp (t) = t pJ
p+1 (t) En particular, .
dt [ J0 ] 0 = J1
d X ( 1)m t 2m+2p X ( 1)m t 2m+2p 1
(Son inmediatas: dt 22m+p m! (p+m+1)
= tp 22m+p 1 m! (p+m+1)
y similar la otra).
m=0 m=0

Derivando y despejando la J0p en ambas:


p p 2p
J0p = Jp 1 J
t p
= Jp+1 + t Jp ) Jp+1 = J
t p
Jp 1 ,

relación de recurrencia citada, que expresa cada Jp+1 en función de las anteriores.

69
3.5 El punto del infinito
Nos preocupamos por el comportamiento de las soluciones de una lineal de se-
gundo orden para grandes valores de t . Pocas ecuaciones son resolubles elemen-
talmente. Por otra parte, las soluciones en forma de serie (salvo que se puedan
identificar con funciones elementales) no dan ninguna información para grandes
t , incluso aunque converjan t . Si queremos ver qué sucede cuando t ! , la
idea natural es efectuar el cambio de variable t = 1/ s y estudiar el compor-
tamiento de las soluciones de la nueva ecuación cuando s ! 0+ , que será fácil
de precisar si s = 0 , llamado punto del infinito de la ecuación inicial, es punto
regular o singular regular de esta ecuación.
A diferencia del cambio s = t to que no modifica las derivadas, hacer t = 1/ s exige
usar la regla de la cadena. Denotando las derivadas respecto a s con puntos:

t = 1s ! 0 = ˙ ds
dt
= 1
t2
˙; 00 = 1
t4
¨+ 2
t3
˙! 0 = s2 ˙ , 00 = s4 ¨ + 2s3 ˙

Ej 1. (1+ t 2 ) 00 + t 0 =0 . Estudiemos su comportamiento para grandes valores de t :


1 1 s2
t= s
! (1+ s2
)s4 ¨ + (1+ s12 )2s3 ˙ s
˙ = s2 (1+ s2 ) ¨ + s(1+ 2s2 ) ˙ =0.

Para esta ecuación s = 0 es singular regular, con r = ±1 . Sus soluciones para s > 0 son:
X X
1 = ck sk+1 = c0 s+ c1 s2 + · · · , c0 6= 0 ; 2 = bk sk 1+d
1 ln s , b0 6= 0 .
k=0 k=0

Si s ! 0+ , la solución 1 ! 0 , mientras que la 2 ! (si b0 > 0 , sea d = 0 ó d 6= 0 ), con


lo que deducimos, sin necesidad de resolver nada, que hay soluciones de la ecuación
inicial que, cuando t ! , tienden a 0 , mientras que otras tienden a .
Como la ecuación es resoluble elementalmente pues 1 = t es solución que salta a la
vista, podemos en este caso concreto hallar su solución general y comprobar:
R R R p p
2 =t t
2e dt
dt = t 2 pdt 2 = 1+ t 2 ! = c1 t + c2 1+ t 2 .
t 1+t
p
Hay soluciones que claramente ! y las de la forma C(t 1+ t 2 ) = pC ! 0.
t+ 1+t 2 t!
1
De paso observemos que 1 =t= s
es la 2 que obtendríamos arriba (es d = 0).

Para Hermite y Bessel este camino parece adecuado para estudiar sus soluciones para t
gordo, pero por desgracia, se comprueba que s = 0 en ambos casos es singular no regular.
Aunque para Legendre lo interesante físicamente es lo que sucede en [ 1, 1] , vamos a
analizar su punto del infinito. En 3.4 obtuvimos sus series solución en torno a t = 0 [que
hablan sólo de lo que ocurre en |t| < 1 ] y en torno a t = 1 [hablan de t 2 ( 1, 3) ].
t=1/ s
[L] (1 t 2 ) 00 2t 0 + p(p+ 1) = 0 ! [L ] s2 (s2 1) + 2s3 + p(p+ 1) = 0 .

Para [L ] es s = 0 singular regular, con (s) = 2s2 / (s2 1) , b (s) = p(p+1)/ (s2 1) analíticas
en |s| < 1 . Las series solución de [L ] convergerán al menos en ese intervalo y de ellas
podremos extraer información, por tanto, sobre las soluciones de [L] para |t| > 1 . Como el
polinomio indicial de [L ] tiene por raíces 1+p y p y como para todo p 0 es r1 = 1+p > 0
deducimos, por ejemplo, que siempre hay soluciones de [L] que tienden a 0 si t ! .
î X X ó
Pues 1 (s) = s1+p ck sk ! 0 si s ! 0+ ; o sea, 1 (t) = t (1+p) ck t k ! 0 .
k=0 k=0 t!

X
Resolvamos por series [L ] si p = 0 (único p para el que s = 0 es regular): = ck sk !
k=0
k 2
ck = k
ck 2 , k = 2, 3, . . . ! = c0 + c1 [ s+ 13 s3 + 15 s5 + · · · ] = c0 + c1 [ t 1+ 1t 3+ 1t 5+· · · ]
3 5
,
serie (no de potencias) que describe las soluciones para |t| > 1 , que es donde converge.
c1
De otra forma: (1 t 2 ) 00 +2t 0 = 0 ! 0=
1 t2
! = c0 +c1 ln | 1+t
1 t
| = c0 +c1 ln | 1+s
1 s
| , t, s 6= ±1 .

70
4. Mapas de fases
Los sistemas de ecuaciones no lineales casi nunca se pueden resolver. Pero para
los sistemas autónomos en el plano, es decir, para los sistemas de la forma
ß 0
= ƒ ( , y)
[S]
y 0 = g( , y)

es posible obtener las principales propiedades de sus soluciones a partir de su


dibujo o, con más precisión, del dibujo de las proyecciones (llamadas órbitas) de
estas soluciones sobre el plano y o plano de fases (para dimensiones mayores
las cosas se complican notablemente y pueden aparecer las llamadas soluciones
caóticas). Este capítulo está dedicado a describir las diferentes técnicas destinadas
a dibujar el conjunto de las órbitas de un sistema dado de la forma [S] sobre el
plano de fases (su mapa de fases).
En la sección 4.1 se estudian las propiedades básicas de las soluciones y ór-
bitas de estos sistemas autónomos. Se introduce la ecuación diferencial de las
órbitas (que a veces es resoluble y da la expresión de dichas órbitas) y el campo
vectorial v tangente a las órbitas (que siempre nos ayudará al pintar los mapas).
Se llaman puntos críticos de un mapa de fases a las proyecciones de las solu-
ciones constantes del sistema (obtenidas haciendo ƒ = g = 0 ). La sección 4.2 cla-
sifica estos puntos en diferentes tipos (nodos, puntos silla, focos, centros,...)
de acuerdo con la forma de las órbitas a su alrededor. Esta forma será en casi to-
dos los casos similar a la de la aproximación lineal, sistema lineal (de órbitas
fácilmente dibujables una vez hallados sus autovalores) obtenido despreciando los
términos no lineales en el desarrollo de Taylor en torno al punto crítico del sistema
inicial [S]. Las únicas excepciones se darán, tal vez, si la matriz de la aproxima-
ción lineal tiene autovalores imaginarios puros (centros) o si algun = 0 (puntos
no elementales). En la sección se estudiarán además las propiedades particulares
que poseen los mapas de fases de los sistemas que provienen de ecuaciones au-
tónomas de segundo orden 00 = g( , 0 ) . En diversos ejemplos se mostrará como
organizar adecuadamente toda la información anterior para dibujar las órbitas de
sistemas concretos (clasificar los puntos críticos, intentar hallar las órbitas, locali-
zar las curvas de pendiente horizontal y vertical, determinar los valores del campo
adecuados, analizar como se deforman las ’separatrices’ de los puntos silla...). Se
verá también en esta sección que la estabilidad de las soluciones constantes es
fácil de precisar (la de las no constantes es complicada) y se comprobará cómo
(excepcionalmente) se pueden hallar algunas soluciones del sistema [S].
Un tipo particular de sistemas [S] que poseen propiedades adicionales que fa-
cilitan el dibujo de su mapa de fases son los exactos (aquellos con ƒ + gy ⌘ 0 ),
tratados en la sección 4.3. Para ellos siempre se podrá hallar la expresión de sus
órbitas y sus puntos críticos elementales sólo podrán ser puntos silla o centros
(lo que evita las dudas de la última situación). En el caso particular de las ecuacio-
nes exactas 00 = g( ) veremos que podemos dibujar su mapa de fases a partir,
simplemente, del conocimiento de la llamada función potencial.
En la sección 4.4 daremos algunas otras ideas sobre cómo abordar el problema
de ver si en el sistema no lineal sigue o no siendo un centro un punto crítico cuya
aproximación lineal lo sea (análisis de simetrías de las órbitas y utilización de las
coordenadas polares).

71
4.1 Sistemas de dos ecuaciones autónomas
ß 0 Å ã Å ã
= ƒ ( , y) ƒ
Sea el sistema [S] , es decir, x0 = f(x) , con x0 = yf= .
y 0 = g( , y) y g

Suponemos que ƒ y g y sus derivadas parciales son continuas en todo R2 . Sabe-


mos que entonces existe una única solución de [S] que satisface cualquier par de
datos iniciales (to ) = o , y(to ) = yo (es decir x(to ) = xo ).
Los siguientes resultados, semejantes a los de las autónomas de primer orden, se
prueban fácilmente:
Å ã
Si ƒ ( o , yo ) = g( o , yo ) = 0 entonces x(t) ⌘ y o es solución (constante o
o
Å ã
(t)
Teor 1. de equilibrio) de [S]. Si x(t) ⌘ y(t) es solución de [S] y k 2 R entonces
Å ã
(t + k)
x(t + k) = y(t + k) es también solución de [S].

[Otros de los teoremas de 1.5 no se pueden trasladar directamente; por ejemplo


las soluciones, en general, no son monótonas y las soluciones acotadas no tienden
necesariamente hacia soluciones constantes].

Cada solución x(t) de [S] es una curva en el espacio t y, pero también podemos
mirarla como una curva en el plano y (que llamaremos plano de fases) descrita
paramétricamente en función de t . Esta segunda curva, a la que llamaremos órbi-
ta de la solución, es la proyección de la primera sobre el plano de fases. El objetivo
de este capítulo es representar lo más aproximadamente posible el conjunto de
órbitas de [S], es decir, el mapa de fases de [S]. Comencemos con un ejemplo:
ß 0
=y 00 + y
Ej 1. Sea (es decir = 0 ).
y0 =
Å ã Å ã
0 0
La solución que cumple x(0) = 0 es x(t) ⌘ 0
Å ã Å ã x
0 sen t
y la que satisface x(0) = 1 es x(t) = cos t .

Estas soluciones describen en el espacio la


recta y la hélice del dibujo, y sus proyeccio- t
nes sobre y son el punto y la circunferencia
del inferior [a un punto del mapa de fases,
proyección de solución constante, se le llama punto crítico o punto singular].
y t=0,2!,...
Obtenemos las mismas órbitas si dibujamos en cada caso la
curva trazada, al aumentar el parámetro t , por el punto de
coordenadas = (t) , y = y(t) . La flecha nos orienta la órbita,
x
indicando el sentido en que se recorre.
Å ã Å ã Å ã
0 sen t sen(t )
Si imponemos x( )= 1 obtenemos x(t) = cos t
= cos(t )
.
t=!,3!,...
La órbita de esta solución (cuya gráfica en el espacio es una
traslación paralela al eje t de la hélice anterior) es la misma circunferencia de an-
tes, si bien sus puntos son alcanzados para diferentes valores de t . Esta situación
se da en cualquier sistema autónomo (pero no en un sistema cualquiera) y por eso
tiene sentido dibujar su mapa de fases: si = (t) , y = y(t) son las ecuaciones de
una órbita, otra parametrización de la misma órbita es = (t+k) , y = y(t+k) para
cualquier k (aunque para un mismo t se obtengan valores de e y diferentes).
Dicho de otra forma: como las traslaciones de una solución hacia adelante y hacia
atrás son también soluciones, las proyecciones de todas estas curvas del espacio
son la misma órbita.

72
Normalmente no conoceremos las soluciones del sistema [S]. Para dibujar su mapa
de fases trataremos de buscar información a partir de las propias funciones ƒ y
g. Intentemos primero hallar explícitamente las órbitas de [S]. Eliminando la t del
sistema obtenemos la ecuación diferencial de las órbitas:

dy g( ,y)
[o] d = ƒ( ,y)
dy dy dt
(pues d
= dt d
, si lo permite el teorema de la función inversa).

Las curvas integrales de [o], quizás resoluble por los métodos de la sección 1.1 y
dibujables por los de la 1.2, serán las órbitas de [S] (y al revés: una ecuación como
[o] se puede mirar como un sistema y usar las ideas de esta sección para trazar
sus curvas integrales). Como se ha eliminado la t , si dibujamos las órbitas sólo a
partir de [o] éstas carecerán en principio de sentido de recorrido, pero será fácil
orientarlas utilizando el campo v que pronto introduciremos.
Resolviendo la ecuación [o] para el ejemplo 1 (lo que en este caso es posible)
obtenemos de forma mucho más rápida sus órbitas:
dy 2 + y2
d
= y
! =C

Una información parecida a la que nos proporciona el campo de direcciones de [o]


se obtiene tratando el campo vectorial v dado en cada punto del plano por
Å ã
ƒ ( , y)
v( , y) = g( , y)
⇥ Å 0ã ⇤
coincide con y0 , vector tangente a la órbita en el punto ( , y) .

Por tanto, las órbitas de [S] serán curvas tangentes a (y recorridas en el sentido
que indican) los vectores del campo v (como se ve, este campo sólo se anula
en los puntos críticos). Generalmente usaremos el campo v para completar otras
informaciones, pero aunque fallen todas las demás técnicas del capítulo siempre
podremos dibujar algunos vectores de v y hacernos una idea del mapa de fases.

Ej 2. Repasemos lo visto con un ejemplo poco práctico por ser el sistema resoluble:
⇢ 0 ✓ ◆
= dy y2 y y
, = , v( , y) =
y0 = y2 d y2

El origen es el único punto crítico. Al-


gunos vectores de v (pintados con el x x
mismo módulo pues nos interesa su
dirección y sentido) son los del dibu-
jo de la izquierda. Podemos también
resolver la ecuación [o] :
y = [ c ln | |] 1 , o sea, = ce 1/ y .

Con ello completamos el mapa de fases de la de-


y
recha. Cada órbita nos da los valores que toman
la y la y de la solución de la que es proyección,
pero no nos dice en qué instante t los toman.
Por ejemplo, la (t) de la solución con (0) = 0 ,
y(0) = 1 es 0 para todo t y podemos afirmar que
la y(t) = 29 para un t > 0 , pero sólo podemos x
hallar este t calculando y(t) ( y(t) ! pues si
tendiese a un valor constante se tendría, como t
en las autónomas de primer orden, que (t) ⌘ 0 ,
y(t) ⌘ sería una solución constante, lo que es imposible por no existir más puntos críti-
cos). Tampoco podemos saber si esta y(t) está definida para todo t 0 . Pero resolviendo
se tiene y(t) = 1/ (1 t) , que explota en t = 1 (sin embargo la solución (t) = et , y(t) = 0 ,
con otra órbita recta similar a la anterior, está definida para todo valor de t ).

73
Demostremos otras propiedades generales de las órbitas:

Por cada punto del plano de fases pasa una única órbita de [S]. Si
Teor 2. una órbita se corta a sí misma corresponde a una solución periódica
y dicha órbita es una curva cerrada simple.

(las órbitas no pueden cruzarse unas a otras,


ni a sí mismas; sólo pueden ser de 3 tipos:
NO
puntos críticos, curvas cerradas simples y ar-
SI
cos simples (asociadas a soluciones constan-
tes, periódicas y no periódicas); varias órbitas
pueden confluir en un punto crítico, lo que no
viola la unicidad: corresponderán a soluciones que tienden a la solución constante
cuando t tiende a + o – , pero que no la alcanzan en tiempo finito).
Dado un xo , sea x(t) la solución con x(0) = xo . Si para otra x (t) su órbita
pasa por el mismo punto, debe ser x (t ) = xo para algún t . Como x (t + t )
es también solución y toma en t = 0 el mismo valor que x(t) es, por unicidad,
x(t) = x (t + t ) , o sea, x(t t ) = x (t) t . Por tanto, x (t) es trasladada de x(t)
y sus órbitas coinciden.
Sea x(t) solución no constante. Si su órbita se corta a sí misma ello significa que
existe un primer T > 0 en el que vuelve a ser x(T) = x(0) . Utilizando la unicidad
en t = 0 se tiene que para todo t es x(t+ T) = x(t) y la solución es T-periódica y su
órbita se repite cada T unidades de tiempo, formando una curva cerrada simple.
Hemos visto que la órbita de un sistema autónomo que pasa por un punto xo del plano
y no depende del to en el que la solución x(t) de la que es proyección satisface
x(to ) = xo (es decir, que la evolución del sistema es independiente del momento en
que empecemos a contar el tiempo, como era esperable al no depender ƒ y g de
t ). Insistimos en que para un sistema no autónomo esto es falso, y no tiene sentido
hablar de su mapa de fases.

74
4.2 Clasificación de puntos críticos
La mejor información sobre un mapa de fases nos la dará el conocimiento de la
forma de sus órbitas cerca de un punto crítico. Tratamos primero los sistemas
lineales (siempre resolubles y con mapas de fases fácilmente dibujables) y des-
pués, basándonos en ellos, los no lineales.
ß 0 Å ã Å ã
= + by b
Sea: [L] 0 , o sea, x0 = Ax , con x = y , A = c d .
y = c + dy

Supondremos |A| 6= 0 (con lo que x = 0 será el único punto


crítico de [L] y = 0 no será autovalor). Clasificamos el L2 L1
origen según los autovalores 1 y 2 de la matriz A :

Si 1 y 2 son reales y distintos, la solución general es:

x(t) = c1 e 1t v1 + c2 e 2t v2 , vi vector propio asociado a . nodo


estable
Llamemos L1 y L2 a las rectas que contienen a v1 y v2 . !2 < !1 <0

Cada L está formada por tres órbitas (obtenidas hacien-


do la otra c = 0 ): el punto crítico y dos semirrectas orien-
tadas según sea el signo del . L2
L1
⇥ x0 (t) ⇤
El vector unitario tangente a las órbitas t = ||x0 (t)|| es:
t t
c1 1 e 1 v1 +c2 2 e 2 v2
t= ⇥ ⇤1/ 2
c2 2 2 1t
1 1e ||v1 ||2 +c2 2 2 2t
2 2e ||v2 ||2 +2c1 c2 1 2 e2( 1 + 2 )t v1 ·v2
nodo
inestable
Si 2 < 1 < 0 , todas las soluciones tienden a 0 y el vector !2 > ! 1>0
t ! v1 / ||v1 || (si c1 6= 0 ) cuando t ! . Todas las órbitas
(menos dos) entran en el origen con la pendiente dada
por el vector propio asociado al más cercano a 0 y
el punto crítico se llama nodo estable.
Si 2 > 1 > 0 , se tiene la misma situación cambian-
do + por y el origen se llama nodo inestable.
L2
L1
Si 2 < 0 < 1 , las órbitas sobre L2 se aproximan al
origen y se alejan sobre L1 . Las demás tienden asin-
tóticamente a L1 o L2 según tienda t a + ó
adoptando la forma hiperbólica del dibujo de la dere-
punto silla
cha (no tienen por qué ser exactamente hipérbolas) ! 2<0< !1
y tenemos un punto silla.

Si es doble y A diagonal la solución nodo estelar estable nodo estelar inestable


es: Å ã
! doble < 0, A diagonal ! doble > 0, A diagonal
c t
x(t) = c1 e .
2

Entonces, si < 0 ( > 0 ) para ca-


da par de constantes nos acercamos
(alejamos) a 0 según una recta dife-
rente y se dice que el punto es un no-
do estelar estable (inestable).

En este caso hubiera sido muy sencillo hallar las órbitas utilizando la ecuación [o]:
ß 0 ⇤
= dy y
0 ! d = ! y=C .
y = y

75
Si es doble y A no es diago- nodos de una tangente
nal la solución general es ! doble
A no diagonal
x(t) = [ c1 w+ (c1 t + c2 )v] e t , L
con v único vector propio aso- estable
!<0
ciado a .
inestable
Si c1 = 0 estamos sobre la recta ! >0
L generada por v . Se ve, calcu- L
lando el t , que todas las demás
órbitas entran en el origen sien-
do tangentes a una u otra de las
semirrectas que forman L.
Si < 0 ( > 0 ) sobre cada órbita nos acercamos (alejamos) al punto crítico, que se
llama nodo de una tangente estable (inestable). En los dos casos las órbitas
pueden ser como en el dibujo pequeño (se distingue entre las dos posibilidades
fácilmente mirando el campo v ).

Si los autovalores son complejos = p±q , la solución es


Å ã centro
c cos qt + c sen qt
x(t) = c1 cos qt + c2 sen qt ept , c constantes ! =±qi
3 4

reales de las cuales sólo dos son arbitrarias.

Si p = 0 , todas las soluciones son periódicas y las órbi-


tas son curvas cerradas rodeando el origen, que se llama
(o bien )
centro (el sentido de giro lo da el campo v ).

Si p < 0 , la exponencial decreciente


obliga a las órbitas a cerrarse en espi-
ral cuando t ! hacia el origen, que se
llama foco estable. Si p > 0 , las espi-
rales corresponden a soluciones que se
foco estable foco inestable
alejan del punto crítico que es un foco !=p±qi , p<0 ! =p±qi , p>0
inestable.
La forma de las espirales podría ser también la del dibujo pequeño (como siempre
esto se precisará a la vista del campo v ).

Dibujar las órbitas de sistemas lineales es muy sencillo con la clasificación anterior.
Bastará (para nodos y sillas) con trazar las semirrectas órbitas orientadas y precisar
el campo v sobre algunas rectas que pasen por el origen, que son isoclinas de
dy c +dy
[o] d
= +by
, ecuación homogénea.

Por ejemplo, sobre los ejes, o sobre las rectas que nos proporcionen pendiente
horizontal o vertical. Con esto (también en caso de centro o foco) basta para pintar
el mapa de fases en todo el plano. Aunque, por ser [o] homogénea, sabemos que
las órbitas son siempre calculables, normalmente no merecerá la pena cálcularlas
(pueden además salirnos expresiones no sencillas de dibujar).

Los sistemas que se han visto son homogéneos. Si hay términos no homogéneos
(constantes para ser autónoma) y |A| 6= 0 seguirá habiendo un punto crítico xo ,
que haciendo el cambio = x xo se trasladaría al origen manteniendo la matriz
A , con lo que, para analizarlo, basta hallar sus autovalores. Las isoclinas serán las
rectas que pasen por xo .

A pesar de su facilidad, la teoría de mapas de fases no es de especial interés para


los sistemas lineales, pues podemos hallar sus soluciones. Pero la gran importancia
de lo anterior es que nos permitirá deducir la forma de las órbitas cerca de los
puntos críticos de los no lineales. Pero antes de hacer esto, dibujemos dos mapas
de fases de lineales para ir practicando y dando algunos nombres:

76
ß 0 Å ã Å ã
=3 2y 1 2
Ej 1. = 1! 2 , = 2 ! 1 : punto silla.
y0 = 2 2y

Completamos esta información con el campo v :

v es vertical ( 0 =0 ) si y = 32 y horizontal ( y 0 = 0 ) si y = .
Å ã Å ã
3 1
Sobre los ejes: v( , 0) = 2
, v(0, y) = 2y 1
.

[Resolviendo [o] se obtiene: (2y )2 (y 2 ) = C , órbitas de


aspecto hiperbólico, pero que no son hipérbolas].
A las órbitas que entran y salen de un punto silla se les llama separatrices,
nombre natural, pues ‘separan’ comportamiento de las soluciones totalmente distintos.
Por ejemplo, aquí las soluciones cuyas órbitas parten por debajo de y = 2 cumplen que
su (t) ! si t ! , mientras que (t) ! si parten por encima de la separtriz
(sobre ella (t) ! 0 ). Y algo análogo sucede con la otra separtriz y = / 2 . Del mapa
de fases (sin resolver el sistema) podríamos deducir también, por ejemplo, que para la
solución que cumple (7) = 1 , y(7) = 0 tanto su como su y tienden hacia cuando
t! y tienden hacia cuando t ! : basta observar la forma de su órbita.
ß 0 Å ã
=2 y 1
Ej 2. El punto crítico es =1 ! y=2 ! .
y0 = 2 2 2
Å ã
2 1
Como A = 2 0
, con = 1± , es un foco inestable.
v es vertical si y = 2 y horizontal si =1 .
Å ã Å ã
Además: v( , 2) = 2( 1) 11 , v( , 3 )=( 1) 3
2
.
[O, si se prefiere, es el mapa de x0 = Ax trasladado al punto].
ß 0 Å ã
= ƒ ( , y)
Consideremos ya el sistema no lineal [S] 0 y sea xo = y o punto crítico.
y = g( , y) o

Desarrollando por Taylor ƒ y g en torno a xo y llevando luego este punto al origen


con el cambio = o , = y yo (o lo que es lo equivalente, haciendo primero el
cambio y desarrollando después en = = 0 ) se tiene:
ß 0 p
= ƒ ( o , yo ) + ƒy ( o , yo ) + Rƒ ( , ) 2 + 2 si , ! 0
0 =g ( con Rƒ , Rg = o
o , yo ) + gy ( o , yo ) + Rg ( , )

Como Rƒ y Rg son pequeños esperamos que (cerca del origen que es ahora punto
crítico) sean similares las órbitas de este sistema y las de la aproximación lineal
obtenida ignorando los términos no lineales. El siguiente teorema precisará que
esto es cierto si el lineal es de cualquiera de los tipos clasificados anteriormente,
salvo en el caso de los centros.
Å ã Å ã
0 =M ƒ ( o , yo ) ƒy ( o , yo )
Llamemos [L] al sistema , con = y M= .
g ( o , yo ) gy ( o , yo )

Suponemos |M| 6= 0 . Diremos entonces que xo es punto crítico elemental de


[S]. El teorema de la función implícita asegura que xo es aislado (hay un entorno
de xo en el que no hay más puntos críticos; un punto con |M| = 0 puede no ser
aislado y si lo es no se parece al origen de [L], no aislado).

Si el origen es nodo, punto silla o foco de [L] entonces xo es un punto


crítico del mismo tipo y la misma estabilidad de [S]. Si el origen es nodo
estelar o de una tangente de [L] y las funciones ƒ y g tienen derivadas
parciales de segundo orden continuas entonces xo es nodo del mismo
tipo (y estabilidad) del sistema no lineal [S]. Las órbitas rectas que en
Teor 1.
los nodos y puntos sillas de [L] llegan o salen del origen se deforman, en
general, en curvas de [S] que llegan o salen de xo , pero manteniendo la
tangencia dada por los vectores propios de [L]. Si el origen es centro de
la aproximación lineal y las funciones ƒ y g son analíticas entonces xo es
o un centro, o un foco estable o un foco inestable en el sistema no lineal.

77
La demostración del teorema es complicada y no la damos. No es extraño que sean los cen-
tros los únicos puntos críticos elementales que no se conservan pues los pequeños términos
no lineales pueden hacer que las órbitas dejen de cerrarse sobre sí mismas. De otra forma:
una pequeña perturbación puede apartar los = ±q del eje imaginario. Por la misma razón
podría pensarse que también puede separar dos iguales, pero si ƒ y g son regulares esto
no sucede (si no lo son puede cambiar el nodo en uno de otro tipo o en un foco).

Así pues, analizando sistemas lineales sabemos, v y


casi siempre, cómo son las órbitas de uno no li-
neal en un entorno de cada punto crítico (lejos u
de él serán totalmente diferentes de las del li-
neal). Este es el paso principal hacia el dibujo
x
del mapa de fases de [S]. En muchos problemas
aproximación sistema
físicos, además, precisamente lo que se busca lineal no lineal
es el comportamiento de sus soluciones cerca
de las de equilibrio. Para ver en cada caso cómo se deforman las órbitas de la
aproximación lineal en el no lineal (por ejemplo, el sentido en el que se doblan las
separatrices de un punto silla) y obtener datos sobre el mapa global habrá que
utilizar el campo v (y las órbitas en el caso excepcional de que sean calculables).
En los ejemplos iremos viendo cómo organizar este trabajo.

Es fácil extraer del teorema conclusiones sobre la estabilidad de las solucio-


nes de equilibrio, muy parecidas a las vistas para las ecuaciones autónomas
de primer orden. El significado geométrico sobre el
plano de fases de esta estabilidad es claro: xo es
estable si las órbitas que parten suficientemente
cerca no se salen de cualquier círculo de radio prefi-
jado. Es asintóticamente estable si además tienden
a xo cuando t ! .

Si los autovalores de M tienen Re < 0 , xo es solución de equili-


Teor 2. brio asintóticamente estable de [S]. Si alguno de los autovalores
tiene parte real positiva, xo es inestable.
Como siempre queda la duda de qué pasa si Re = 0 (para un punto con un =0
y otro > 0 se prueba que es inestable, aunque esto no se deduzca del teorema
1). La inestabilidad de algunas soluciones no constantes es clara a la vista de un
mapa de fases: si las órbitas se alejan, también lo hacen las soluciones de las que
son proyección. Pero la estabilidad no se ve en el dibujo: órbitas próximas pueden
corresponder a soluciones muy diferentes (por ejemplo las órbitas de un sistema lineal
con un punto silla se pegan entre sí y sin embargo todas las soluciones son inestables).

Pasemos ya a hacer ejemplos de dibujo de mapas de fases de sistemas no lineales


(los de centros de la aproximación lineal se verán en las dos secciones siguientes).
Primero hallaremos los posibles puntos críticos resolviendo ƒ ( , y) = g( , y) = 0
(en los ejemplos que siguen se podrá hacer, pero podría ser sistema no resoluble).
Evaluaremos la matriz M en cada punto para clasificarlo y dibujaremos en torno a
cada silla o nodo rectas con la pendiente dada por los vectores propios.
Si podemos resolver la ecuación diferencial de las órbitas, dibujaremos algunas
de ellas (al menos las más sencillas y nos esforzaremos con las separatrices).
Utilizaremos el campo v para completar la información anterior. Habitualmente:
• Buscaremos las curvas en que v es horizontal o vertical ( g = 0 y ƒ = 0 ).
• Evaluaremos v en los ejes (es muy fácil hacer = 0 ó y = 0 ) y en rectas que
pasan por los puntos críticos (no es raro que adopten formas sencillas, pues
en los puntos críticos es donde se anulan tanto ƒ como g ).
• Para ver cómo se deforman las separatrices miraremos v sobre las rectas
que indica la aproximación lineal.
• Por último, daremos valores sueltos de v en zonas en que haya pocos datos.

78

0 =8 y2 (8 3) = 0 Å ã Å ã
0
Å ã Å ã
Ej 3. 2 ! , 24 . M= ƒ ƒy
= 8 2y
en cada punto es:
y0 = 6y+ 6 y= 2 " 0 g gy 12 6

Å ã Å ã Å ã Å ã
0 8 0 1
0
! 0 6
es silla con = 8 ! 0
, = 6 ! 01 .
Å ã
2
Å
8 8
ã p
4
! 24 6
es foco inestable ( = 1± 143 ).

Completamos la información local con el campo v (las


órbitas no son calculables). El campo es horizontal y
vertical en este caso en
y = 2 , 8 = y 2 , respectivamente.
Para las separatrices hallamos v sobre las rectas da-
das por la aproximación lineal, que aquí son los ejes:
Å ã Å ã
4 y
v( , 0) = 2 3
, v(0, y) = y 6
.
Según esto, la separatriz estable se deforma ⇢ y la inestable [.
El v sobre los ejes en este ejemplo ya lo hemos hallado. En
rectas que pasan por (2, 4) y en un punto con pocos datos:
Å ã Å ã Å ã
4 4+ y 5
v( , 4) = 2( 2) 3 +6
, v(2, y) = (4 y) 6
, v( 2, 2) = 4 6
.

Los vectores dibujados precisan también el sentido en el que se abre el foco y con todo
ello tenemos un mapa de fases más o menos como el de arriba. No sabemos resolver el
sistema, pero están a la vista propiedades básicas de las soluciones (por ejemplo, que
las soluciones constantes son inestables, lo que estaba claro desde que hallamos los ).

ß 0 Å ã Å ã Å ã
= y( 2) 0
Ej 4. ! , 22 críticos. Aproximación lineal M = y 2
en cada uno:
y 0 = (y 2) 0 y 2

Å ã Å ã Å ã Å ã
0
0
! 02 02 ! = 2 ! 11 , = 2! 1
1
: silla.
Å ã Å ã
2
2
! 20 02 ! = 2 doble y nodo estelar inestable.

Usamos ahora v (órbitas calculables, pero complicadas): 2

v es vertical si y = 0 o si = 2 () = 2 órbita recta


(más exactamente: está formada por tres órbitas)).
v es horizontal si = 0 , y = 2 () y = 2 órbita). Además:
Å ã ã Å
1 y= 2 2
v( , ) = ( 2) 1 órbita v( ,
+2
(se curva))=
Å ã ã Å Å ã Å ã
0 2y 3 1
v( , 0) = 2 , v(0, y) = 0 , v(1, 3) = 1 , v(3, 1) = 3 ,
Å ã Å ã Å ã Å ã
9 1 4 6
v( 1, 3) = 1 , v(3, 1) = 9 , v(3, 4) = 6 , v(4, 3) = 4 .

Excepcionalmente, la separatriz y = del lineal se conserva, aunque la otra se deforma.


Veamos algunas propiedades de las soluciones que se deducen del mapa de fases:
El segmento que une los puntos críticos corresponde a una solución definida t
(ya que está acotada y no puede irse a infinito en tiempo finito). Esta solución es
inestable, pues mientras ella tiende a 0 la o la y de algunas cercanas ! .
No podemos saber de casi todas las soluciones no constantes si están o no definidas
t ni precisar su estabilidad, pues no tenemos la solución general.
Sí podemos hallar soluciones asociadas a órbitas sencillas. Por ejemplo, si
buscamos la que cumple (0) = 1 , y(0) = 2 , empezamos encontrando la órbita que
pasa por (1, 2) (o sea, que cumple y( = 1) = 2 ). Es claro aquí que esa órbita es
y = 2 , que llevada a la primera ecuación nos da 0 = 2 4 , (0) = 1 ! = 2 e2t ,
y = 2 , definida t , aunque no sabemos si es estable por no conocer las cercanas.
En cambio, la solución con (0) = y(0) = 3 ! y = ! 0 = 2 2 , explota en tiempo
finito (por la potencia 2 ; podríamos hallarla).
[La solución general de un sistema no lineal casi nunca se tendrá pues han de
darse muchas casualidades: que las órbitas sean calculables, que se pueda
despejar de ellas la o la y, y que se pueda hallar explícitamente la solución
de la autónoma que queda al sustituir].

79
ß 0 Puede describir la evolución de la población de dos especies en
= (2 y)
Ej 5. competición. En ausencia de la otra especie cada una de ellas sigue
y 0 = y(3 y 2 )
una ecuación logística, y además la presencia de cada una influye
negativamente en el crecimiento de la otra (términos en y de cada ecuación); dibujamos
sólo en el primer cuadrante, que es donde las órbitas tienen sentido.
ß Å ã Å ã Å ã Å ã
= 0 ! y = 0, 3 0 0 2 1
(2 y) = 0 ! y = 2 ! = 2, 1 ! y = 0, 1
! 0 , 3 , 0 , 1 puntos críticos.
Å ã
2 2
2y
La aproximación lineal 2y 3 2y 2
en cada punto:
Å ã Å ã Å ã Å ã
0 2 0 1 (captura la 1
0
! 0 3
! nodoI: = 2 ! 0 tangencia) , = 3 ! 3 .
Å ã Å ã Å ã Å ã
0 1 0 1 0
3
! 6 3
! nodoE: = 1 ! 3 (tangencia), = 3 ! 1 .
Å ã Å ã Å ã Å ã
2 2 2 2 1
0
! 0 1
! nodoE: = 1 ! 1 (tangencia), = 2 ! 0 .
Å ã Å ã ✓ ◆
1 1 1 p 1
1
! 2 1
! = 1± 2 ! p ! punto silla.
⌥ 2

v es vertical si = 0 o si y = 2 () = 0 órbita).
v es horizontal si y = 0 , y = 3 2 () y = 0 órbita).
Valores de v sobre rectas que contienen puntos críticos:
Å ã Å ã Å ã Å ã
+1 2 1
v( , 3) = 6
, v(2, y) = y y+ 1 , v( , 1) = (1 ) 2 , v(1, y) = (1 y) 3y .

Si los datos iniciales están por encima de la separatriz estable de la silla, la especie y
tiende hacia su tope logístico y la se extingue; lo contrario sucede si están por debajo.
Si los términos de competición (los y ) fuesen más pequeños las dos especies podrían
coexistir (los nodos estables se vuelven sillas y pasa a existir un nodo estable en , y > 0
hacia el que tienden todas las soluciones del primer cuadrante; esto sucede, por ejemplo,
en el sistema 0 = (2 y/ 2) , y 0 = y(3 y ) , para el que = 1 , y = 2 es nodo estable).
Las únicas soluciones calculables serían las asociadas a = 0 o a y = 0 , es decir, a
la ausencia de una de las dos especies. Aparece entonces la ecuación logística cuyas
soluciones son coherentes con las órbitas sobre los ejes.

Un ejemplo con punto no elemental (como no tenemos teoría para ver como son las órbitas
cerca del punto, nos tendremos que basar en la ecuación de sus órbitas y en el campo v ):
⇢ 0
=3 y Å ã Å ã
0
Ej 6. Único punto crítico: ! 00 0
.
y 0 = 4y 2 4 2 0 0

Por tanto es un punto no elemental. La ecuación [o]:


dy 4y 2 4 2

d
= 3 y
es resoluble (homogénea o Bernouilli) !

y2 = 4 2 + C 8/ 3 (si C = 0 se tienen las rectas y = ±2 ).


Mejor que dibujar estas curvas, usamos las isoclinas, que
son (ecuación homogénea) rectas y = m pasando por el
origen. La pendiente de las órbitas sobre ellas es:
4m2 4
K= 3m
! para m = 0, ± 12 , ±1, ±2, ±4 es K = , ±2, 0, ±2, ±5 .

Orientamos las órbitas viendo que v(0, y) apunta hacia arriba (esto además nos da las
órbitas verticales no recogidas en la solución general). Hay órbitas (llamadas elípticas)
que salen y llegan al punto crítico, situación imposible en uno elemental.
[Un punto no elemental aislado es o un centro o un foco o hay en torno a él sectores
formados por órbitas elípticas, parabólicas (las de un nodo o las demás del ejemplo)
o hiperbólicas (como las de un punto silla)].
Alguna conclusión sobre las soluciones: 0 es inestable (viendo el dibujo); la solución con
(0) = 1, y(0) = 2 (de órbita y = 2 ) no está definida t > 0 , pues para ella se tiene
0 = 6 2 , y 0 = 3y 2 ; la que cumple (0) = 1 , y(0) = 0 (no calculable) sí lo está por ser
acotada, pero ¿será estable? (su diferencia con las soluciones cercanas tiende a 0 si
t ! , pero esto no basta en sistemas).

80
Todo lo dicho sobre sistemas se puede, desde luego, aplicar al caso particular de
las ecuaciones autónomas (su mapa de fases es el del sistema equivalente):
ß 0
00 0) =
Sea [e] = g( , , o escrita en forma de sistema: [SE] 0 = g( , )

(usamos la variable porque en muchos problemas físicos será una velocidad).


Å ã
0 1
La matriz de la aproximación lineal es M = g g
, evaluada en cada punto crítico.

La ecuación de las órbitas y el campo v tienen la forma:


Å ã
d
[o] d
= g( , ) , v( , ) = g( , )

Las propiedades particulares de los mapas de fases de ecuaciones son inmediatas:

• Los puntos críticos de [e] están sobre el eje = 0


[y las de esos puntos son los ceros de g( , 0) ].
• Las órbitas se dirigen hacia la derecha en el semiplano superior
y hacia la izquierda en el inferior.
• Las órbitas que cortan el eje = 0 lo hacen perpendicularmente.
• Las ecuaciones no poseen nodos estelares.
Å ã
1
• Un vector propio asociado a un autovalor es .

Ej 7. Dibujemos el mapa de fases de la ecuación: 00 = 3 0 .


⇢ 0
= =0
0= 3 . Puntos críticos .
= 0, ±1
⇥ p ⇤ focoE
✓ ◆
±1 % = 12 ⌥ 1± 7 focoI
0 1 0 1
1 3 2 0 & 1 C
= ±1 !B@ A silla
±1

El campo es horizontal si: =1 2 o si =0 .


[Es vertical si = 0 (como en toda ecuación)].
Å ã
v será sencillo sobre = ±1 : v(±1, ) = ± ,

Para analizar la deformación de las separatrices:


✓ ◆
±1
v( , ± ) = 2 (los v con pequeño indican que se curvan según el dibujo).
1⌥
[La parábola de pendiente horizontal ya nos lo aseguraba para las separatrices de > 0 ].
3
d
La ecuación de las órbitas d
= no es de ningún tipo resoluble conocido.
Los vectores del campo v son simétricos respecto al eje (por ser g impar en , sus
pendientes en ( , ) y en ( , ) tienen signo opuesto). Entonces sus órbitas también
serán simétricas respecto a = 0 . Esta simetría obliga a las órbitas a cerrarse.
Gracias al mapa de fases deducimos que hay dos tipos esenciales de soluciones de esta
ecuación no resoluble: unas son periódicas y otras tienden a ±1 cuando t ! ± . Pero
sin las órbitas no podemos, por ejemplo, decir exactamente para qué datos iniciales son
de uno u otro tipo, o dar una expresión que nos permita calcular los periodos.

Los dos ejemplos siguientes (a diferencia del anterior), pueden describir sistemas físicos.
Dibujaremos su mapa de fases e interpretaremos algunas de sus órbitas. Incluso aunque la
ecuación sea lineal (como el primero que veremos) y, por tanto, resoluble, se pueden sacar
conclusiones muy rápidas sobre las soluciones a partir de las órbitas.

81
Ej 8. 00 + 2 0+ = 0 , con 0 [sistema muelle-masa con rozamiento (si > 0 )].
ß 0 Å ã p
= 0 2+2 2
0 . único punto crítico . +1=0 : = ± 1 !
= 2 0

Si = 0 , el origen es un centro ( = ± y el sistema es lineal).


Si 0 < < 1 , es un foco estable (autovalores complejos con Re < 0 ).
Si = 1 , es un nodo de una tangente estable
p (con = 1 doble). p
Si > 1 , es un nodo estable 2=
2 1 < 1 < 1= + 2 1<0 .

Con alguna información más (el campo v sobre = 0 y los puntos en que es horizontal
= 2 ) podemos ya dibujar los mapas de fases. Como en todo sistema lineal se pueden
hallar las órbitas, pero son complicadas y dicen poco. Un pequeño dato adicional es que
no hay puntos de inflexión (se ve que esto ocurre para todo sistema lineal):
p
d2 2
+2 + 2 2 1
d 2
= 3 =0 ! = ± , órbitas rectas.

a=0 0<a<1 a=1 a>1

En cada caso el origen representa la solución trivial asociada a la posición de equilibrio


estable de la masa en reposo en = 0 . Si = 0 (no hay rozamiento), cada órbita cerrada
describe un movimiento oscilatorio no amortiguado en torno a = 0 : si, por ejemplo, la
masa está inicialmente en = 0 con velocidad > 0 , empieza a aumentar hasta su
valor máximo en el instante en que = 0 ; disminuye después la (el valor absoluto | |
tiene un máximo y luego decrece cuando el movimiento es contra la fuerza del muelle);
avanza hasta llegar a = 0 con la misma velocidad inicial y repite indefinidamente el mo-
vimiento. Si 0 < < 1 (rozamiento escaso), pasa infinitas veces por = 0 , pero la amplitud
de la oscilación va tendiendo a 0 con el tiempo. Si 1 (fuerte rozamiento), las órbitas
describen movimientos que tienden hacia = 0 , pero no son posibles las oscilaciones.
Dependiendo de su posición y velocidad iniciales, o la masa tiende indefinidamente hacia
la posición de equilibrio sin llegar a superarla, o la cruza una sola vez.

Puede describir el movimiento de una partícula sobre el eje ,


Ej 9. 00 = 2 +3 4 0
sometido a una fuerza 2 +3 que sólo depende de su posición
y con un rozamiento 4 0 proporcional a su velocidad. En forma de sistema:
⇢ 0 Å ã
= 0 1
0 = 2+3 ! M= 2 + 3 4
.
4
Evaluando la aproximación lineal en los
dos puntos críticos que hay se tiene:
Å ã Å ã
3 0 1
! ! = 1, 3
0 3 4
Å ã Å ã
nodo E. –3
0 0 1 p
! ! = 2± 7 , silla.
0 3 4
2
+3
v horizontal sobre la parábola = 4
.
Más valores de v (rectas con puntos críticos y puntos sobre rectas del nodo lineal):
Å ã Å ã Å ã Å ã Å ã
1 1 3 1 3
v( 3, ) = 4
, v( 4, 1) = 0 , v( 4, 3) = 8 , v( 2, 1) = 2
, v( 2, 3) = 10

Sabemos ya como se curvan las rectas del nodo. Evaluando v( , ) se ve, tras unos
cálculos, que las separatrices se deforman de la forma indicada y completamos el dibujo.
El sentido de las fuerzas es: ! 3 0 ! (por eso –3 es estable y 0 inestable). Su-
pongamos la partícula inicialmente entre –3 y 0 y discutamos su movimiento según su
velocidad o inicial. Si o < 0 , tiende hacia el equilibrio estable. Si o > 0 y pequeño, no
puede superar la fuerza que se opone, llega a un máximo, regresa y tiende hacia –3 .
Si o > 0 y gordo consigue cruzar = 0 y, ayudado por la fuerza, tiende a (¿en tiempo
finito?) mientras aumenta su velocidad. Si o > 0 es tal que estamos sobre la separa-
triz del punto silla tenemos un movimiento imposible en la práctica: acercarse sin cesar
al equilibrio inestable. El problema (las órbitas no son calculables) es que es imposible
hallar exactamente este último o (y sería importante porque para valores superiores e
inferiores de la velocidad los movimientos son radicalmente diferentes).

82
Ej 10. Discutamos, según los valores de b , la estabilidad de la solución = 0 de la ecuación
00 =b 2 0 +( 0 )2 .

Como asegura el teorema 2, la estabilidad de una solución constante hereda (salvo las
excepciones de los centros o los puntos no elementales), la de su aproximación lineal,
dada por la parte real de sus autovalores. En nuestro caso tenemos:
⇢ 0 Å ã
= 0 1
0 =b 2 ! b 2
, aproximación lineal en el origen.
2 +
2+2
p
b=0 ! = 1± 1+ b !
Si b > 0 el origen es inestable, pues hay > 0 (y el otro es < 0 ; es un punto silla).
Si b < 0 , los dos autovalores tienen parte real negativa, con lo que = 0 es asintó-
ticamente estable (de hecho, si b < 1 es un foco E, si b = 1 es un nodo de una
tangente E y si 1 < b < 0 es un nodo E).
[Que conste que el criterio de Routh-Hurwitz aplicado a 2 + + b = 0 dice que sus
raíces tienen Re < 0 si y sólo si ambos coeficientes son estrictamente positivos, con
lo que nos podíamos haber ahorrado hasta el cálculo de los ].

Si b = 0 aparece un = 0 y el teorema 2 no nos dice nada. Intentamos verlo haciendo el


dibujo de sus órbitas:
⇢ 0
=
Para 0 = 2 + 2 la recta = 0 está formada por puntos críticos
(no elementales, claro, pues los elementales son aislados).
d
Pero sus órbitas son muy sencillas: d
= 2! = 2+Ce .
De ellas, del sentido de las ecuaciones (hacia la derecha arri- v=2
ba, hacia la izquierda abajo) y de los puntos crt́icos hallados
se deduce el dibujo de su mapa de fases. Y como se puede
v=0
observar en él, el origen (y cualquiera de los otros) es punto
crítico estable no asintóticamente (las órbitas que parten
lo suficientemente cerca no se salen de un entorno, pero no
tienden [salvo 2] hacia el punto).

83
4.3 Sistemas y ecuaciones exactos
ß 0 = ƒ ( , y)
Un sistema del tipo [S] se llama exacto si ƒ ( , y)+ gy ( , y) ⌘ 0 .
y0 = g( , y)

(suponemos que ƒ y g son de clase 1 en todo R2 como hicimos en la sección 4.1).

Si [S] es exacto, la ecuación diferencial de sus órbitas


dy g( ,y) dy
[o] d
= ƒ ( ,y)
, es decir, g( , y)+ ƒ ( , y) d = 0

es también exacta, y por tanto resoluble:

Existe H( , y) tal que ƒ = Hy y g = H , y las


órbitas de [S] vienen dadas por H( , y) = C .

Además se tiene el siguiente resultado sobre sus puntos críticos:

Los puntos críticos elementales de un sistema exacto sólo


Teor 1.
pueden ser centros o puntos silla.
Å ã
ƒ ƒy
Como ƒ + gy ⌘ 0 , los de la matriz de la aproximación lineal M = g gy x
o

en cualquier punto xo crítico vienen dados por 2 +|M| = 0 , con lo que o bien
(si |M| < 0 ) tiene dos raíces reales de distinto signo y xo es un punto silla
(tanto del sistema lineal como del no lineal) o bien (si |M| > 0 ) las raíces son
imaginarias puras y se tiene un centro en la aproximación lineal. Además es
fácil ver, por ser H continua, que H( , y) = H( o , yo ) contiene además del
punto xo todas las órbitas que tienden a dicho punto cuando t tiende a +
o , con lo que el sistema [S] no puede tener focos (pues sería H ⌘ cte y
M ⌘ 0 en todo un entorno y el punto no sería aislado) y los centros del lineal
lo son también en el no lineal.

⇢ 0 Å ã
= 2 y =0 ! = 0 ; y = 12 # 1 2y 2
Ej 1. M= en cada punto:
y0 = y + y2 y = 0, 1 ; = 14 . 1 2y 1

Å ãÅ ã Å ã Å ã ✓ 1

0 0 ±1 0 1/ 4 0
0
, 1
! 1 ⌥1
! = ±1 : sillas; 1/ 2
! 2 ! = ± p : centro de la
1 0 2
aproximación lineal.
Como sabemos este centro podría conservarse o ser un foco E o I de nuestro sistema.
Pero como es exacto: ƒ + gy = 1 2y 1+ 2y ⌘ 0 , sigue siendo centro del no lineal.
2
H = + y y 2 , Hy = 2 y ! H( , y) = y y2 2
= C son las órbitas.
Dibujar todas las curvas H = C es complicado (aunque
se podría despejar la o la y de la ecuación de segundo
grado). Pero para C = 0 obtenemos dos muy sencillas
= 0 y = 2(y y 2 ) , cada una de ellas formada por cin-
co órbitas distintas, entre ellas todas las separatrices.
El campo v es horizontal sobre = y y 2 y vertical en
la órbita = 0 y en la recta y = 1/ 2 .
Podemos dibujar ya las órbitas, si bien aún no están
orientadas. Para ello basta dar algún valor a v o fijarse
en algún vector propio de los puntos sillas. Por ejemplo,
podemos hallar:
Å ã Å ã
1 1
v( , 0) = 1
ó v( , 1) = 1
.

84
⇢ 0
=y Dibujemos su mapa de fases y estudiemos si
Ej 2. 2
y0 = y es periódica la solución con (0) = y(0) = 2 .
Å ã 2 =0
1 1 y= !
M= 2 1
. Puntos críticos: .
! = y = 0, 1
Å ã î Å ã Å ãó Å ã
0 1
0
es silla = ±1 ! 2
, 10 y 1
1
es centro del
lineal. Como ƒ +gy = 1+1 = 0 , el sistema es exacto
y el centro se conserva.
H = 2 y 3 y2
Las órbitas son: ! 3
y+ 2
= C.
Hy = y
v es horizontal sobre y = 2 y vertical en y = .
Las separatrices (curvas por (0, 0) ! C = 0 ) son:
«
y 2 2 y + 23 3 = 0 ! y = ± 1 23 ,
definidas para  32 (para = 32 se juntan en y = ).
Como la órbita que pasa por (2, 2) está fuera del lazo que forma la separatriz, la solución
de la que es proyección no es periódica.
[Como siempre, la información que se obtiene de la aproximación lineal es sólo lo-
cal: en un entorno del centro hay seguro órbitas cerradas, pero lejos de él dejarán
normalmente de serlo, como en este ejemplo (y el anterior)].

0 Å ã Å ã
=2 y 0 2y 2
Ej 3. 2 Puntos críticos: . Aproximación lineal M = 6 .
y0 = 1+ 3 y2 ±1 2y

Å ã Å ã Å ã Å ã
0 2 0 1 0
M en 1
es 0 2
! = ±2 ! 0
,
1
, silla.
Å ã Å ã Å ã Å ã
0
M en 1
es 02 20 ! = ±2 ! 01 , 10 , silla.
5/4
Las órbitas se hallan fácilmente por ser exacto: 1
H = y2 3 + p(y)
! y2 3 = C.
H = y 2 + q( ) 3/4

También es de Bernouilli (más largo): –1
y2 1+3 2 z=y 2 0 z 1+3 2 " C ⇤
2yy 0 = + ! z = 2+ , z= + 1+ 2 .
Las separatrices se obtienen para C = 0 con lo que
son = 0 y la hipérbola y 2 2 =1.
⇥ Å
±2
ã ⇤
v( ,±1) = 3 2
confirma la deformación de las separatrices .

Pendiente horizontal en la hipérbola y 2 3 2 =1 . Vertical en la separatriz = 0 y en y = 0 .


[Simetría respecto a ambos ejes: H depende de y2 y cambiando por sale la órbita H = C ].

Hallemos alguna solución. Para los sistemas exactos el primer paso hacia la solución
general (tener las órbitas) siempre se puede dar (salvo primitivas no calculables). En
este caso se puede también despejar alguna de las variables, pero de ahí no pasamos:
« «
y = ± C + 1+ 2 ! ddt = ±2 C
+ 1+ 2 , no integrable.
Como en otras muchas ocasiones, se puede intentar hallar alguna solución asociada a
órbitas sencillas. Por ejemplo busquemos la que cumple (0) = 3/ 4 , y(0) = 5/ 4 :
3 5
Por ,
4 4
pasa la órbita de C = 34 25
16
9
16
1 = 0 ! y2 =1 !2
p Ry
3 5 ds
0 =2 1+ 2, (0) = 4
, o mejor y 0 = 2y 2 2 , y(0) = 4
! 2t = 5/ 4 s2 1
.

Hallado la primitiva y despejando obtendríamos la y(t) [y de ella y la órbita, la (t) ].


Pero no olvidemos que hay propiedades de las autónomas de primer orden que se ven
sin necesidad de integrar: y(t) ! 1 si t ! , y(t) explota para un t1 > 0 ...

85
Caso particular son las ecuaciones exactas:
ß 0
00 = d
= g( ) ! 0 = g( ) ! [o] d
= g( ) !

Sus órbitas vienen dadas por:


2 R 2 R
H( , ) = 2 g( ) d = C , o sea, 2
+ V( ) = C , si V( ) = g( ) d

(si la ecuación describe el movimiento (sin rozamiento) sobre el eje de una


partícula sometida a una fuerza que sólo depende de su posición, H es la
energía total, 2 / 2 es la cinética y V( ) es la potencial).

A la vista de la solución está claro que las órbitas son simétricas respecto al eje
y que la órbita u órbitas asociadas a cada valor de C son curvas definidas en los
intervalos del eje para los que V( )  C y que cortan dicho eje en los tales
que V( ) = C . Con esto y el teorema siguiente podremos dibujar el mapa de
fases conociendo simplemente la gráfica de la función potencial V( ) .
Å ã
entonces xo = 0o es un centro del mapa
Si V tiene un mínimo en o
Teor 2.
de fases. Si V tiene un máximo, xo es un punto silla.

Si V tiene un extremo en o es V 0 ( o ) = g( o ) = 0 y xo es punto crítico.


La ecuación de autovalores en xo es 2 + V 00 (
o ) = 0 y así se trata de un centro
si V 00 ( o ) > 0 (mínimo de V ) o de un punto silla si V 00 ( o ) < 0 (máximo de V ).

[El teorema es válido también aunque xo sea no elemental ( V 00 ( o ) = 0 )].

00 2 1 3.
Ej 4. =1 ! V( ) = + 3
V(x)
Usando sólo la gráfica de V( ) del dibujo superior 1
deducimos el mapa de fases del inferior: como V
posee un máximo en = 1 y un mínimo en = 1 –1 1
el mapa de fases tiene el punto silla y el centro di- x

bujados abajo. Trazamos ahora diferentes rectas


V = C y las órbitas asociadas:p 2 / 2 + V( ) = C .
Para C = 0 , V( )  0 si 0   3 (y la órbita, que
es una curva simétrica definida en ese intervalo y
que corta = 0 en sus extremos, se trata de una p v
curva cerrada rodeando al mínimo) p o si  3
(la órbita sólo corta = 0 en = 3 y por tanto
es abierta). Similares son las dos órbitas dibujadas
para un C < 0 . La V = C que pasa por el máximo
de V nos da una curva del mapa de fases que
x
corta = 0 en dos puntos uno de los cuales es el
punto silla (nos proporciona, pues, cuatro órbitas:
el punto, la órbita que sale y entra en él y las se-
paratrices de la izquierda). Para un C mayor se
tiene la otra órbita.
La orientación es la de toda ecuación (hacia la derecha arriba, hacia la izquierda abajo).
Podríamos precisar el dibujo usando las técnicas generales de las secciones anteriores
(vectores propios del punto silla, puntos de pendiente horizontal (serán siempre las rec-
tas verticales que contienen a los puntos críticos, pues se obtienen de g( ) = 0 ), . . . ),
pero las principales características de las órbitas ya se ven en el dibujo anterior.

Como para una ecuación exacta tenemos unas órbitas bastante sencillas, parece que se
podría conseguir hallar su solución general:
p p R
= ± 2 C V( ) = ddt ! ± p pd = t+K ,
2 C V( )
pero es muy raro que esta primitiva se pueda hallar. Por ejemplo, en este caso aparece
R⇥ 2 3 ⇤ 1/ 2
la ‘integral elíptica’ no calculable ± 2 3
+ 2C d = t+K .

86
Ej 5. Dibujemos las órbitas de 00 = 3 7 2 + 10 y precisemos cuáles de sus
soluciones son periódicas.
El mapa de fases se deduce de la función potencial:
g( ) = 0 ! = 0, = 2, =5 .
4 3
7 2
V( ) = 4
+ 3
5 .
10
V( ) = 0 ! = 0, = 3
, =6 .
16
V(0) = 0 , V(2) = 3
, V(5) = 125
12
.
Las soluciones periódicas no triviales corresponden a
órbitas cerradas del mapa de fases (asociadas a seg-
mentos entre las paredes del potencial). En nuestro
mapa se ve que lo son todas las órbitas que están
dentro de la separatriz que entra y sale del origen.
Preocupémonos en concreto para qué valores es
periódica la solución con (0) = , 0 (0) = 0 (dónde
hay que dejar en reposo la partícula para que oscile).
10
Se ve que esto ocurre si 2 0, 3
.
[Además, si = 0 , = 2 , = 5 , la solución es periódica trivialmente, pues es
constante, pero si atinamos a dejar la partícula en los inestables = 0 ó = 5 ,
un pequeño soplo nos va a convertir el movimiento en uno no periódico].
Intentemos calcular el periodo T de una solución, por ejemplo, si = 3 . Su órbita es:
2 4
p
7 3 3 4 28 3 +60 2 27
C = 81
4
+ 63 45 = 9
4
! 2
= 4 3
+ 5 2 9,
4
= ± p = ddt
6
Además de en 3 la órbita cerrada corta = 0 en otro punto que exige ordenador:
Ä <0 ä
3 4 28 3 + 60 2 27 = ( 3)(3 3 19 2 + 3 + 9) = 0 ! = 3, 1 ⇡ 0.835 y 2 > 6 .
3
Por simetría el periodo será el doble de lo que tarda en ir de 1 a 3 :
p R3 d
T=2 6 p ⇡ 2.85 (de nuevo usando el ordenador).
41 3
3 228 +60 27

[A diferencia de los sistemas lineales, el periodo de cada solución es distinto.


Se puede probar que el T de las oscilaciones de pequeña amplitud ( ⇠ 3 ) se
parece al de la aproximación lineal, y que T ! cuando ! 0 (ó 10/ 3 )].
«
2
Ej 6. 00 = 2 Sus órbitas son = 2 C
! =± C+ 2 .
v
Sin puntos críticos. Puede describir, para > 0 , el mo- C=1
vimiento bajo un campo gravitatorio en unidades ade-
cuadas. La interpretación física del mapa es sencilla: C=–1 C=0

Si (0) = 2 (por ejemplo), 0 (0) = o y o < 1 , la par- 1 x


tícula cae al origen; o = 1 es la llamada velocidad de
escape: para velocidades iniciales mayores que ella
la partícula se aleja del origen indefinidamente (a una
velocidad que tiende a cte).
Determinemos el tiempo T que tardaría una partícula, inicialmente en reposo en =2,
en llegar hasta el origen. Su órbita [ ( = 2) = 0 ] es la de C = 1 . Así pues:
RT R0 p d îp p « ó0
T = 0 dt = 2
p = 2 + 2 rct n 2 1 = .
2 2

87
4.4 ¿Centro o foco?
Vimos en la sección 4.2 que el único caso en que no basta el estudio de la aproxi-
mación lineal para clasificar un punto crítico elemental xo de un sistema no lineal
ß 0 = ƒ ( , y)
[S]
y0 = g( , y)

es el caso en que el lineal posea un centro, ya que entonces el punto de [S] pue-
de también ser un centro o bien ser un foco estable o inestable. Tratamos en la
sección anterior una situación en la que el centro del lineal se conservaba: si [S]
era exacto. En esta sección veremos otras técnicas para atacar el problema: el
estudio de las posibles simetrías y la utilización de las coordenadas polares.
Desde luego se conservará un centro si las órbitas de [S] poseen simetría respec-
to a alguna recta que pase por xo (las órbitas en torno a un centro pueden ser
asimétricas y hay puntos críticos con simetría especular (los focos, claramente no
la tienen) que no son centros, pero si un punto con esta simetría es o centro o foco,
necesariamente será centro). El análisis de las simetrías se podrá hacer a la vista
de las propias órbitas, en el caso excepcional de que la ecuación diferencial de las
órbitas sea resoluble, o a partir del propio campo v . Un ejemplo de esto último lo
da el siguiente teorema:

Si xo es punto crítico de [S], la aproximación lineal posee un centro y


o bien a] xo está sobre el eje , ƒ ( , y) = ƒ ( , y) , g( , y) = g( , y) ,
Teor 1.
o bien b] xo está sobre el eje y , ƒ ( , y) = ƒ ( , y) , g( , y) = g( , y) ,
entonces xo es un centro del sistema no lineal [S].

(x,y) (x,y)
a]
(–x,y)

(x,–y) b]

Las hipótesis sobre ƒ y g aseguran en el caso a] que las órbitas son


simétricas respecto a y = 0 y en el b] que lo son respecto a = 0 (y que
se recorren en sentidos opuestos a cada lado del eje, como debe ocurrir
en un centro). De ello se deduce el resultado.
Observemos que en el caso particular de las ecuaciones las condiciones
sobre ƒ se satisfacen automáticamente, con lo que basta comprobar las
condiciones sobre g : debe ser par en y o, si xo es el origen, impar en .
[Conocer las simetrías de un sistema no sólo es útil para distinguir entre centro y foco.
Nos da bastante información sobre un mapa de fases, según vimos en algún ejemplo
de secciones anteriores (como el 7 de 4.2, el 3 de 4.3 o las ecuaciones exactas)].
⇢ 0
00 0]2 =
Ej 1. = sen +[ , es decir, 0 = sen( + 2 ) .

Clasifiquemos sus puntos críticos. Estos resultan ser


Å ã ✓ ◆ ✓ ◆
k 0 1 0 1
, con aproximación lineal 2) 2) ! .
0 cos( + 2 cos( + ( 1)k 0

Por tanto, si k es par son puntos silla (del lineal y no lineal como siempre) y si k es
impar son centros de la aproximación lineal. Como g es par en , estos centros lo son
también del sistema no lineal (y las órbitas son simétricas respecto al eje ).

88
⇢ 0
= Å ã Å ã
00 = 3 0 )2 0 ±1
Ej 2. ( ! 0= 3 2 ! 0
silla ( = ±1 ), 0
centros del lineal.

Los centros se conservan, pues también se cumple el


apartado a] del teorema 1. Pero aquí no era necesario,
pues podemos hallar sus órbitas explícitamente:
3
d 2 2
2
d
= + (Bernouilli) ! = Ce +2
y comprobar su simetría respecto de ambos ejes.
Con las órbitas podemos hacer un preciso mapa de fases.
La separatriz ( C = 2 ) corta y = 0 , además de en = 0 ,
en los tales que:
2
2e =2 2 ( ⇡ ±1.26 con ordenador)
y para C > 2 todas las órbitas son cerradas (si C = 0
circular). El campo es horizontal sobre 2 + 2 = 1 y sobre
= 0 (y vertical como en toda ecuación sobre y = 0 ).
Así se genera el dibujo de la portada de los apuntes.

ß 0 [Este sistema es, para unos parámetros muy concretos, el de


= (1 y)
Ej 3. Lotka-Volterra que rige la evolución de la población de dos
y 0 = y( 1)
especies animales en relación predador-presa].
Å ã Å ã
0 1
Sus puntos críticos son 0
punto silla y 1
centro de la aproximación lineal.

¿Seguirá el centro siendo un centro del sistema no lineal? Podríamos trasladarlo al origen
haciendo = 1 , = y 1 e intentar aplicar el teorema 1, pero el sistema en que
resulta no satisface ninguna de las dos parejas de condiciones. Sin embargo, podemos
calcular las órbitas (ecuación separable) y obtener:
ln y y+ ln =C .
Como esta expresión no varía al cambiar los papeles de e y , las órbitas son simétricas
respecto a la recta y = , con lo que el centro se mantiene en el no lineal.
[En el teorema 1 nos hemos limitado a localizar las posibles simetrías respecto a los
ejes, pero se podrían dar condiciones sobre v que asegurasen la simetría respecto
a y = u otras rectas].

En algunas ocasiones podremos precisar que el centro se transforma en un foco es-


table o inestable analizando el sistema escrito en coordenadas polares (aunque
en la mayoría de los casos aparezca un sistema más complicado que el inicial).
Derivando las relaciones = r cos , y = r sen se obtiene
ß 0 0 r sen = ƒ (r cos , r sen )
r cos
!
r sen + 0 r cos = g(r cos , r sen )
0


r 0 = cos ƒ (r cos , r sen ) + sen g(r cos , r sen )
⇥ ⇤
0 = 1 cos g(r cos , r sen ) sen ƒ (r cos , r sen )
r

En vez de seguir con resultados generales pasamos a analizar ejemplos concretos:



0 = 3 y
Ej 4. Precisemos la estabilidad de las soluciones constantes de .
y0 = + y3
Å ã Å ã
3 8) = 0 0 0 1
y= ! (1+ ! = 0 ! y = 0 . El único punto crítico es 0 con M = 1 0
.

Hay, pues, un centro en la aproximación lineal, y todavía no conocemos su estabilidad.


Como no es exacto ni presenta simetrías (a pesar de ello, aún podría ser un centro)
pasamos a polares y obtenemos:
⇢ 0
r = r 3 (cos4 + sen4 )
0 = 1+ sen cos (sin2 . Como cos4 + sen4 > 0 ,
cos2 )
r crece con el tiempo y, por tanto, el origen (la solución trivial) es (foco) inestable.

89

0 = 2y + 3
Ej 5. Clasifiquemos el origen para todo valor de .
y0 = 2 + y + 2 2 y + y3
Å ã
2
La matriz de la aproximación lineal 2
tiene por autovalores = ± 2 , con lo que:

si < 0 es foco estable, si > 0 es foco inestable y si = 0 es centro del lineal.


Como no es exacto ni simétrico hacemos el trabajo de pasar a polares, obteniendo:

r0 = r + r3 a<0 r
0 = 2 + r 2 cos sen a!0 r

Por suerte hemos obtenido una sencilla


ecuación independiente de para la r
fácil de dibujar. Como crece la distancia t t
al origen con t podemos asegurar para
= 0 que el origen, que no sabíamos si era centro o foco, es un foco inestable.
Utilicemos la expresión en polares para dibujar el mapa de fases para un valor de
concreto: = 1 . La ecuación autónoma r 0 = r + r 3 tiene entonces la única solución de
equilibrio r = 1 en r > 0 (además tiene la r = 0 que nos da otra vez el punto crítico y la
r = 1 carece de sentido en coordenadas polares).
Para r = 1 se tiene 0 = 2 + sen 2 / 2 > 0 . Hay x'<0 x'>0
por tanto una órbita (la circunferencia uni-
dad) tal que r = 1 para todo t y tal que su
crece con el tiempo [a una órbita cerrada !'<0
aislada como esta se le llama ciclo límite].
Como se ve en la ecuación autónoma todas
las demás órbitas tienden hacia ella cuando
t! .
Podemos también asegurar que no hay más
puntos críticos que el origen (es difícil verlo
con la expresión cartesiana) pues no tiene
otras soluciones r 0 = 0 = 0 (para una solu-
ción constante tanto la r como la deben
permanecer constantes). !'<0
Dibujando además la curva de puntos con
0 =0 y 0 = 0 (y = ( 3 )/ 2 y y = 2 ,
respectivamente) se puede ya dar el mapa
de fases.
Es fácil precisar qué soluciones del sistema están definidas para todo t : las periódicas
asociadas al ciclo límite y las asociadas a las órbitas contenidas en su interior, por estar
acotadas; llegan a infinito en tiempo finito aquellas cuya proyección cae fuera del ciclo
límite, pues lo hace su distancia al origen, como se deduce de la ecuación para r 0 .

90
Ecuaciones Diferenciales I (C) - 2009/10

Problemas 1.
1.1. Integrar las ecuaciones siguientes:
2ty y 2 2 t 2 +y
a) y 0 = y (2+2 cos t)y 2 ; b) y 0 = ; c) y 0 = 1 ; d) y 0 = ;
t2 t+y t
y
e) (5 +2y 3)y 0 = 9 12 5y ; f) y 0 = + y ; g) y 0 = y + sen ; h) y 0 = ;
+y 3
y+2t 1 1 2ty 3
i) y 0 = y 2 t(t 2) ; j) y 0 = y ; k) y 0 = ; l) (y 0 )2 = 9y 4 .
t+y 3t 2 y 2
dy +by+m dy +2y+2
1.2. Integrar mediante cambios de variables: d
=ƒ c +dy+n
. Resolver en particular d
=y 2 +6
.

i) y(1) = 0
1.3. Sea y 0 = 3y+3ty 2/ 3 . Hallar su solución general y una o dos soluciones (si hay) con:
ii) y(0) = 1 .
y
1.4. Imponer un dato inicial para el que y 0 = t +sen t tenga: i) solución única, ii) infinitas soluciones.
dy y 2 +2 y
1.5. Sea d = 2 +2y2 . Probar que tiene un factor integrante que sólo depende de y. Hallar todas las
soluciones que sean rectas. Hallar la o las soluciones (si hay) que satisfacen i) y(1) = 0 , ii) y(1) = 1.
p
1.6. Dibujar aproximadamente las soluciones de y 0 = y/ y determinar cuántas de ellas satisfacen
cada uno de los siguientes datos iniciales: i) y( 1) = 1 , ii) y(1) = 0 , iii) y(1) = 1 .
t y2
1.7. Resolver y 0 = 2y hallando un factor integrante g(t) y por otro camino diferente. Hallar la(s)
solución(es), si existe(n), con: i) y(0) = 1 , ii) y(1) = 0 .
dy (y t)2
1.8. Sea dt = t 2 +1 . Hallar sus rectas solución y resolverla como: i) homogénea, ii) Riccati. Discutir
cuántas soluciones hay con: i) y(0) = 2, ii) y(1) = 2, iii) y(2) = 2, hallándolas si existen.
3(y y 2/ 3 )
1.9. Resolver y 0 = . Precisar cuántas soluciones cumplen: i) y( 1) = 1 , ii) y(0) = 1 , iii) y(1) = 0 .

1.10. Sea y 0 = [y+t]2 . Dibujar aproximadamente sus soluciones. Resolverla como Riccati y por otro
camino diferente. Hallar la solución (si existe) con i) y(0) = 1 , ii) y(0) = 1 .
1.11. Sea y 0 = |t| y . Precisar cuántas soluciones cumplen y(0) = 0. Dibujar aproximadamente sus
soluciones. Escribir la solución con y(0) = 1 para todos los valores de t para los que esté definida.
y2
1.12. Sea y 0 = t . Dibujar aproximadamente sus curvas integrales. Hallar (si existen) todas las solu-
ciones que cumplen: i) y( 1) = 1 , ii) y(1) = 0 , iii) y(0) = 1 .
1.13. Estudiar existencia y unicidad, resolver si se puede y dibujar isoclinas y curvas integrales:
2 +y 2 2 1
a) y 0 = cos( y) b) y 0 = c) y 0 = y2 d) y 0 = y 2/ 3 y e) y 0 = y
2 2 2
p
y y +2 y y
f) y 0 = 1+ 2 g) y 0 = 2 2 y y2
h) y 0 = y i) y 0 = 1 + y 2/ 3 j) y 0 = |y|

1.14. Sea y 0 = et y . Hallar la solución con y(0) = 0 y precisar su estabilidad. Dibujar isoclinas, puntos
de inflexión y aproximadamente las soluciones.
1.15. Sea y 0 = y y 3 . Hallar su solución general. Precisar cuántas soluciones cumplen: i) y(0) = 0 ,
ii) y(0) = 1 . Dibujar aproximadamente sus soluciones. Ver si es estable la que cumple y(0) = 1 .
by+t
1.16. Sea y 0 = t . a] Si b = 13 , hallar su solución general y dibujar isoclinas y curvas integrales.
b] Discutir la estabilidad de la solución con y(1) = 0 según los valores de b .
1.17. Dibujar aproximadamente las soluciones y precisar la estabilidad de la que cumple y(1) = 1 :
y
a) y 0 = 1 ty ; b) y 0 = t 2 ; c) y 0 = y 2 2y 3 ; d) y 0 = 1+2y ey ; e) y 0 = et y

1.18. Sea y 0 = y 2 2t 2 . Estudiar existencia y unicidad de curvas integrales y hallar las que pasen por
el origen. Probar que hay soluciones de la forma y = At . Determinar en qué intervalo está definida
la solución con y(1) = 0 y estudiar su estabilidad.
1.19. Sea la familia de circunferencias 2 + y 2 = 2C . Escribir la ecuación diferencial de la que son
curvas integrales. Hallar las trayectorias ortogonales a ellas (las curvas que las cortan perpendicu-
larmente). Resolver el mismo problema para las parábolas y 2 +2C = C2 .

91
Ecuaciones Diferenciales I (C) - 2009/10

Problemas 2.
2.1. Resolver los problemas de valores iniciales:
✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆
2 1 2 3 4 1 1 1 1
a) x0 = 1 2
x , x(0) = 0
; b) x0 = 1 1
x , x(0) = 0
; c) x0 = 2 1
x , x(0) = 2
.

2.2. Hallar la solución de:


® 0= 2y t ® 0=y 2 ® 0= 3 + 2y ® 0=2 y
0
a) y = 2 3y t b) y 0 = 2 y c) y0 = 6 4y+t cos t d) y0= + |2 t|
(0) = y(0) = 1 (0) = 0, y(0) = 4 (0) = y(0) = 0 (0) = 0, y(0) = 1
2.3. Hallar la solución general de las ecuaciones:
a) 00 = e2t , b) 00 + = t et cos t , c) 000 +2 00 +5 0 = 5t , d) V+4 = t et cos t ,
e) 00 + = cos3 t , f) t 2 00 3t 0 +3 = 9 ln t, g) (t +1) 00 0 = (t +1) 2 , h) t 2 00 t(t +2) 0 +(t +2) = t3.
y
2.4. Resolver t 00 + 2 0 = t : i) como ecuación de Euler, ii) haciendo 0 = y , iii) haciendo = t
.
Discutir cuántas soluciones de la ecuación satisfacen (to ) = , 0 (to ) = b .
2.5. Resolver:
⇢ 00 ⇢ 00 ⇢ 000
+ = 2 cos 3 t + 2 0 + 2 = ƒ (t) + 5 00 + 8 0 + 4 = 8e 2t
a) ; b) ; c) ;
(0) = 0 (0) = 0 (0) = 0 (0) = 0 (0) = 1, 0 (0) = 1, 00 (0) = 9
⇢ 00 ⇢ 2 00 ⇢ 3 000
+ 2t 0 = 2t t + 4t 0 + 2 = et t + t 2 00 2t 0 + 2 = t 3
d) ; e) ; f) .
(1) = 0 (1) = 1 (1) = 0 (1) = 0 (1) = 0 (1) = 00 (1) = 1
0 1 0 1 0 1
1 0 0 0 1 1 1 1 1
B C B C B C
2.6. Hallar la solución general de x0 = Ax , si A es: a) @1 2 0 A; b) @1 0 1A; c) @2 1 1 A.
1 0 1 1 1 0 0 1 1

2.7. Hallar la solución que se indica de los siguientes sistemas y precisar su estabilidad:
8 0 = 2z
8 0 8 0 8 0
= 4y + 2z =y = y 2z
< y0 = < y0 = 3y + z < 0
y =4 +z < y0 = z
a) b) c) d)
: z0 = 2z : z0 = 2y + 1 : z 0 = z + 4e 2t : z0 = 4 5z
(0) = z(0) = 1, y(0) = 0 (0) = 2, y(0) = z(0) = 1 (0) = 1, y(0) = 1, z(0) = 4 (0) = y(0) = 0, z(0) = 1

2.8. Hallar una solución de 000 + 00 + 2 0 +8 =e t para i) = 1 , ii) = 2 , y precisar la estabilidad


de la solución hallada en cada caso.
2.9. Sea 000 + 5 00 + 4 0 + c = t . a] Hallar una solución particular para todo valor de c . b] Hallar la
solución general para c = 10 . c] Discutir la estabilidad de la ecuación según los valores de c .
2.10. Sea 000 + 2 00 + 0 = 4et + 2t . a] Para = 1 , hallar su solución con (0) = 2 , 0 (0) = 00 (0) = 0 .

b] Discutir la estabilidad de la ecuación según los valores de .


2.11. Sea V +2 000 + 6 00 + 0 +5 = 4 cos t , 2 R . Discutir la estabilidad. Hallar una solución para
cada 6= 2 . Si = 10 , hallar la solución general. Si = 14 , escribir dos soluciones distintas. Si
= 6 , describir las soluciones para t grande. Si = 2 , precisar el número de soluciones periódicas.
2.12. Sea (n) +6 0 + 20 = et . a] Resolverla si n = 3 . b] Estudiar su estabilidad para n = 2, 3, 4 .
2.13. Estudiar la estabilidad de (n) + = cos t según los valores de n 2 N. Para n = 2010 , precisar si
la homogénea y la no homogénea poseen alguna solución periódica.
® 0 =2 y
a] Discutir la estabilidad del sistema según los valores de la constante c .
2.14. Sea y 0 = 2y+cz
z0 = 2 y b] Para c = 1 hallar la solución con (0) = y(0) = 0, z(0) = 4 .
® 0 = 3 +4y+cz a] Para c = 2 , hallar la solución con (0) = 0 , y(0) = 1 , z(0) = 2 .
2.15. Sea y0 = +y z
z0 = 2y b] Discutir la estabilidad del sistema según los valores de c 2 R.
8
0 =z t2 a] Si = 0 , hallar la matriz fundamental Wc (t) con Wc (0) = y la
< y0 = 2 y solución del sistema con (0) = 1 , z(0) = 2 , y(0) = (0) = 0 .
2.16. Sea : 0
z = + y b] Hallar una solución del sistema homogéneo para = 2 .
0 =y+ z
c] Estudiar para qué el sistema es AE. ¿Es estable si = 0 ?
2.17. Hallar y dibujar las soluciones con (0) = ˙ (0) = 0 de: i) ¨ + = | sen t| , ii) ¨ + 4 = | sen t| .
Estudiar si tienen o no soluciones periódicas.

92
Ecuaciones Diferenciales I (C) - 2009/10

Problemas 3.
3.1. Hallar la solución en forma de serie en torno a t = 0 :
a) 00 +t =0 , b) (1+t 2 ) 00 2 =0, c) cos t 00 + (2 sen t) 0 =0.
3.2. Sea 00+[2
2t] 0+[1 2t] = 0 . Hallar el desarrollo hasta t4 de la solución con (0) = 0 , 0 (0) = 1 .
Sabiendo que = e t es otra solución, hallar esta solución en términos de una integral y comparar.
3.3. Hallar el desarrollo en torno a t = 0 de la solucion de (1 t)(1 2t) 00 + 2t 0 2 = 0 con
(0) = 0 (0) = 1 . ¿Dónde converge la serie solución? Hallar las raíces del polinomio indicial para
cada punto singular regular. Estudiar cuántas soluciones satisfacen (1) = 0, 0 (1) = 1 .
p
3.4. Sea 2 t y 00 y 0 = 0 . Precisar si t = 0 es punto singular regular de la ecuación. Calcular, hasta
tercer orden, el desarrollo en serie en torno a t = 1 de la solución que cumple (1) = 0 (1) = 1 .
3.5. Sea 4t 2 00 3 = t 2 . a) Calcular el desarrollo hasta orden 4 en torno a t = 1 de la solución de la
homogénea que cumple (1) = 0, 0 (1) = 1. b) Hallar la solución general de la no homogénea.
3.6. Sea 3(1+t 2 ) 00 + 2t 0 = 0 . Hallar los 3 primeros términos no nulos del desarrorro de una solución
que se anule en t = 0 . Estudiar si todas las soluciones están acotadas cuando t ! .
3.7. Sea 2t 2 00 + t(t+1) 0 (2t+1) = 0 . Hallar una solución no nula de la ecuación que sea analítica
en t = 0 . ¿Están acotadas todas las soluciones de dicha ecuación en un entorno del origen?
3.8. Sea 3t 00 +(2 6t) 0 +2 = 0 . Hallar una solución que no sea analítica en t = 0 . Hallar 4 términos
del desarrollo de una solución no trivial que sea analítica en t = 0 .
3.9. Hallar el desarrollo de una solución analítica en t = 0 de 4t 00 +2 0 + = 0 y la solución general
en términos de funciones elementales para t > 0 . Comprobar con un cambio de la forma s = t r .
3.10. Sea t 00 2 0 + 4et = 0 . Hallar los 3 primeros términos no nulos del desarrollo en serie de una
solución que se anule en t = 0 . ¿Están acotadas en t = 0 todas las soluciones?
3.11. Hallar la solución general de t 2 00 + t(4 t) 0 + 2(1 t) = 0 , desarrollando en torno a t = 0 e
identificar las series solución con funciones elementales.
3.12. Sea t(1+t) 00 +(2+3t) 0 + = 0 . Hallar el desarrollo de una solución no nula acotada en t = 0 y
probar que hay soluciones no analíticas en t = 1 . Comprobarlo utilizando que = 1t es solución.

3.13. Sea t 00 + (2t 2 1) 0 4 t = 0 . a] Precisar para qué valores de hay soluciones que son
polinomios que se anulan en t = 0 . b] Para = 1 , hallar una solución analítica en t = 0 y determinar
si todas las soluciones lo son. c] Para = 0 , hallar la solución general sin utilizar series.
3.14. Sea t 00 + (1 t 2 ) 0 + pt = 0 . Precisar, resolviendo por series en torno a t = 0 , todos los valores
de p para los que hay soluciones polinómicas y escribir uno de estos polinomios para p = 4 .
1
3.15. Resolver t 2 y 00 + ty 0 + t 2 4
y = 0 i) mediante un cambio de la forma y = t r , ii) por series.

3.16. Sea t 2 (1+t) 00 + t(3+2t) 0 + = 0. Hallar, trabajando por series en t = 0 , una solución no trivial
que no contenga el ln t . Probar que todas sus soluciones están acotadas cuando t ! .
3.17. Sea [t 4+t 2 ] 00 + [5t 3+t] 0 + [3t 2 1] = 0 . Escribir la ecuación para su punto del infinito. Probar
que posee soluciones no triviales que tienden a 0 cuando i) t ! 0 , ii) t ! . ¿Existen soluciones
que tiendan a 0 tanto cuando t ! 0 como cuando t ! ?
3.18. Sea t 4 00 +2t 3 0 = 1 . Determinar si t = 0 y t = son puntos regulares o singulares regulares
de la homogénea. Hallar la solución que satisface (1) = 0, 0 (1) = 1 .
3.19. Hallar una solución linealmente independiente de P1 para la ecuación de Legendre con p = 1 ,
sin recurrir a series. Comparar su desarrollo con el de la teoría. Hacer t = 1s , resolver y comparar.

3.20. Sea (t 2 1) 00 4t 0 +6 = 0 . Hallar la solución con (0) = 1 , 0 (0) = 3 . Utilizando Frobenius,


hallar una solución que se anule en t = 1 . ¿Hay soluciones no triviales que tiendan a 0 para t ! ?
3.21. Sea t(t 1) 00 + 0 p = 0 . Deteminar para qué valores de p posee solución polinómica. Probar
que si p = 2 existen soluciones que tienden a 0 cuando t ! .

93
Ecuaciones Diferenciales I (C) - 2009/10

Problemas 4.
⇢ 0 ⇢ 0 ⇢ 0
= +y = +y =y
4.1. Dibujar el mapa de fases de los sistemas lineales: a) ; b) ; c) .
y0 = y y0 = y y0 = +1
⇢ 0 = 4 + 2y Dibujar el mapa de fases de (S). Hallar la solución de (S) que satisface
4.2. Sea (S) .
y0 = + 5y (0) = 2, y(0) = 1 . Hallar la expresión de las órbitas de (S).
⇢ 0
= +2y 3 Hallar sus órbitas y dibujar su mapa de fases. ¿Para qué valores de la
4.3. Sea [S] .
y0 = 4 y 3 y(t) de la solución de [S] con (7) = 0 , y(7) = tiende a si t ! ?
dy
4.4. Resolver [e] (1+ 3 y) + ( 4 + 3 y) d = 0 . Precisar cuántas soluciones de [e] cumplen y(1) = 1 y
dar su expresión explícita. Dibujar el mapa de fases de 0 = 4 + 3 y , y 0 = 1 3y .
⇢ 0
= Hallar la expresión de sus órbitas y dibujar su mapa de fases.
4.5. Sea .
y 0 = 2y y 2 + 4 [Ayuda: y = ± 2 son soluciones de la ecuación de las órbitas].
4.6. Dibujar el mapa de fases de los sistemas:
⇢ 0 ⇢ 0 ® ⇢
= y( +1) =4 2y 0 = 2y 0 = y
a) b) c) d)
0 3
y = (y +1) y0 = 2 y y0 =y 3 y0 = 2y 3
⇢ 0 ⇢ 0 ® ⇢
= y2 = + 2y 0 = 2 2 y 0 = y
e) f) g) h)
y0 = 4 1 y0 = 4 y 3 2
y = y2
0 2 y y0 =y

4.7. Dibujar el mapa de fases de las ecuaciones:


a) 00 = 4 0 4 ; b) 00 = (1 0) ; c) 00 =1 2 ( 0 )2 ; d) 00 = (1 2) 0 .
4.8. Dibujar el mapa de fases y estudiar qué soluciones están definidas para todo t 2 R:
⇢ 0 ⇢ 0 ⇢ 0 ⇢ 0
=1 + 3y = sen y =2 y = +2 y
a) 0 ; b) 0 ; c) 2 2 ; d) .
y = +y 1 y = sen 0
y =1 +y y0 = y2 1
4.9. Clasificar los puntos críticos de 00 = sen( + 0 ), > 0 , y dibujar el mapa de fases para =2 .
4.10. a) Sea 00 =( 0 )2 .
Discutir la estabilidad de su solución ⌘ 0 [para = 0 dibujar el mapa
de fases]. b) Hallar para = 0 la solución de la ecuación que satisface (1) = 0 , 0 (1) = 1 .
4.11. Clasificar, en función de los valores de k 0 , los puntos críticos de ¨ = 1 2 k ˙ . Dibujar el

mapa de fases para k = 0 , k = 1 y k = 3 y dar una interpretación física de las órbitas.


4.12. Una partícula se mueve por el eje según ¨ = ( 2 + 9) 2 . Dibujar e interpretar el mapa de
fases. Si la partícula pasa por el origen con velocidad = 13 , ¿qué velocidad tiene cuando pasa por
= 4 ?, ¿cuánto tiempo tarda en llegar a = 4 ?
⇢ 0
= y Dibujar el mapa de fases y decidir si es periódica la solución del sistema
4.13. Sea .
y0 = 2 +y 2 que satisface (0) = , y(0) = 0 , para: i) = 1 , ii) = 1 , iii) = 3 .

4.14. Dibujar el mapa de fases de 00 =( 0 )2 y hallar la solución que cumple (2) = 12 , 0 (2) = 1 .

4.15. Dibujar el mapa de fases de (E) 00 = 2 3 2 . ¿Para qué valores de b es periódica la solución
(t) de (E) que cumple (0) = 0 , 0 (0) = b ? Hallar la solución (t) de (E) con (0) = 0 , 0 (0) = 1 .
4.16. a) ¿Para qué y b podemos asegurar que 00 + + 2 +b 0 = 0 tiene un centro en el origen?
b) Si = b = 1 , dibujar el mapa de fases. ¿Qué sugiere el dibujo sobre la estabilidad de = 0 ?
4.17. Dibujar el mapa de fases tras escribir el sistema en coordenadas polares:
® ⇢ 0 ®
0 = y + (1 2 y2 ) = 2 0 = 2 y 2y
a) 2 2 ; b) 0 2 2 ; c) .
0
y = + y(1 y ) y = +y 2y 0
y = y y2 + 2
4.18. Precisar la estabilidad de las soluciones constantes de:
⇢ 0 ® ⇢ 0
0 = y + 3 + y2
= = 2 y
a) 2 ; b) ; c) .
y =0 y 0
y = 2
+ y+y 3 y = ey
0

⇢ 0
=y y Dibujar su mapa de fases. Estudiar la estabilidad de sus puntos críticos.
4.19. Sea .
y0 = 2 Precisar las órbitas asociadas a soluciones periódicas y calcular su periodo.

94
Ecuaciones Diferenciales I (C) - 2009/10

Problemas adicionales 1
1. Hallar las soluciones particulares que cumplen los datos que se indican:
3y 2 t 2
y0 =2ty
, y(1) = 2 y 0 = 1+cos2 (y t) , y(0) = ey 2t + t ey y 0 = 0 , y(1) = 0
y sen t sen t
0
y = ln y , y(0) = e t 2 +y 2 +t +tyy 0 = 0 , y(1) = 1 y 0 = cos t y cos2 t
y 2 , y(0) = 0

2. Probar que la ecuación lineal admite un factor integrante que sólo depende de t y utilizarlo para
deducir la expresión de la solución general de dicha ecuación.
3. Comprobar que y 0 = t n 1 ƒ (y+ t n ) se convierte en una ecuación de variables separadas haciendo
z = y+ t n y utilizarlo para resolver y 0 = 2t(y+t 2 )2 . Resolverla después mirándola como Riccati.
dy
4. Resolver 3y 2 t + 2y(y 2 3t) dt = 0 , sabiendo que tiene factor integrante de la forma g(t +y 2 ) .
q q
2 2
5. Sea y 0 = y+ t2 . Dibujar isoclinas, inflexión y soluciones. Resolverla haciendo = y+ t2 .

6. Dibujar el campo de direcciones y la forma aproximada de las curvas integrales de:


t 1 3ty+2y 2 t2 y
a) y 0 = 1 y2 b) y 0 = t 2 + y c) y 0 = 1 4y
d) y 0 = 2
(y t)3 e) y 0 = t 2 +ty
f) y 0 = t+y 2

7. Estudiar existencia y unicidad de soluciones y curvas integrales y dibujar aproximadamente:


y t 1 1 1
a) y 0 = y+t
b) y 0 = |y t| c) y 0 = 1 y2
d) y 0 = (t 4y)2
e) y 0 = t
1 y+t f) y 0 = y ln |t|

8. Estudiar existencia, unicidad, prolongabilidad y hacer el dibujo aproximado de las soluciones de


y 1 y2 y
a) y 0 = y t
b) y 0 = t 2 +y 2
c) y 0 = y 4 +y d) y 0 = ye e) y 0 = sen t
f) y 0 = e y/ t

2
dy +y 2
9. Sea d = 2 y
. Resolverla como homogénea, como exacta y como Bernouilli. Precisar dónde
crecen y decrecen sus soluciones y si alguna recta es solución. Hallar la expresión explícita de la o
las soluciones (si es que existen) que satisfacen: i) y(1) = 3 , ii) y(1) = 0 .

10. Sea y 0 = 1 + y 2 . Hallar su solución general y la o las soluciones (si existen) que satisfagan
y(1) = 1 . Dibujar aproximadamente sus curvas integrales.
y
11. Sea y 0 = (y 1) t 1 . Calcular su solución general y la o las soluciones (si existen) con: i) y(1) = 2 ,
ii) y(1) = 1 , iii) y(0) = 1 . Dibujar las isoclinas con K = 0 , K = 1 y K = , estudiar dónde las soluciones
crecen y decrecen, hallar los puntos de inflexión y dibujar aproximadamente las soluciones.
dy 2+t y
12. Sea dt = ey t +1 . Hallar su solución general (en forma implícita) calculando un factor integrante
g(t) y por otro método. ¿Cuántas soluciones hay con y(0) = 0 ? Dar su forma explícita si existen.
2t(1 y)
13. Sea y 0 = y+t 2
. Hallar la solución (simplificada al máximo) con i) y(0) = 1 , ii) y(0) = 1 . Estudiar
si existe solución satisfaciendo y(1) = 1 .
i) la o las soluciones (si existen) con y(0) = 1 .
14. Sea y 0 = 3ty 1/ 3 . Escribir las expresiones t de:
ii) 9 soluciones distintas que cumplan y(0) = 0 .
p
0 2
15. Sean y = 4 y y los datos iniciales: i) y(0) = 2 , ii) y( ) = 0 . Hallar la única solución que
cumple uno de los datos anteriores y encontrar dos soluciones distintas que satisfagan el otro.

t si y t Estudiar existencia y unicidad de soluciones. Dibujar estas soluciones.
16. Sea y 0 = .
y si y  t Hallar para todo t la que satisface y( 3) = 3 .
dy 2 y
17. Sea d = y2 2 . Para todo , resolverla y precisar el número de curvas integrales que pasan
por cada punto del plano. Dibujar sus soluciones para = 3 .
t 2y
18. Sea y 0 = t . Resolverla, estudiar existencia y unicidad y dibujar sus curvas integrales. Precisar
la estabilidad de la solución con i) y(1) = 0 , ii) y( 3) = 1 . Hallar una recta que corte perpendicu-
larmente a las soluciones de la ecuación.
2y t a] Resolverla hallando un factor integrante y por otro camino diferente.
19. Sea y 0 = t 2 .
b] Dibujar sus soluciones y precisar la estabilidad de la que cumple y(e) = .
20. a] Estudiar la estabilidad de solución con y(0) = 0 de y 0 = y sen( y) , según los valores .
⇥ ⇤
b] Dibujar las isoclinas, los puntos de inflexión y las soluciones para = 2 rc cos 2 ⇡ 0.28 .

95
t 2 +y 2
21. Resolver y 0 = 2ty . Dibujar isoclinas y curvas integrales. Determinar cuántas curvas integrales
pasan por cada punto del plano. Estudiar la estabilidad de la solución que cumple y(1) = 1 .
22. Estudiar la estabilidad de la solución que satisface y(1) = , según los valores de :
3 y+cos3 t y y2 y
a) y 0 = sen y b) y 0 = 2t c) y 0 = 1 ey d) y 0 = 2t
+t 3 e) y 0 = t
f) y 0 = y 2 y cos t
23. Dibujar aproximadamente las soluciones de las siguientes ecuaciones y estudiar la estabilidad de
la solución que satisface la condición inicial que se indica :
2y y2 y
y0 = t
+4t y 0 = y 3 +2y 2 y0 = t2 2 y 0 = yt ty y 0 = 2t + y 3
a) b) c) d) e)
y(1) = 1 y(0) = 2 y(1) = 1 y(1) = 1 y(1) = 0

y y3 a) Estudiar existencia y unicidad.


24. Sea la ecuación y 0 = + .
t t3 b) Resolver por dos métodos diferentes para todo .
1
c) Dibujar el campo de direcciones y las soluciones para = 1 , = 0 , = 2
y =1.
d) Estudiar la estabilidad de todas las rectas solución que tenga para todo .
25. Comprobar que las soluciones y(t, ) de i) y 0 = y+e t , ii) y 0 = cos2 y que satisfacen y(0) = 0
son funciones continuas del parámetro .
26. Calcular el valor aproximado en t = 0.2 de la solución de i) y 0 = y 2 , y(0) = 1 ; ii) y 0 = t 2+y 2 , y(0) = 0
a partir de la segunda aproximación de Picard. Comparar con Euler y Runge-Kutta para h = 0.1 .
27. Integrar numéricamente entre 0 y 1 los problemas y 0 = t + y , y(0) = 2 ; y 0 = t y , y(0) = 2 ,
mediante los métodos de Euler, Euler modificado y Runge-Kutta, para h = 0.2 , h = 0.1 y h = 0.05 .
Resolver las ecuaciones y comparar con los valores exactos.

28. Sea y 0 = y 1t . Estudiar existencia y unicidad y dibujar las curvas integrales. Sea y la solución
con y(1) = . ¿Para algún está y acotada t 1 ? Aproximar este con métodos numéricos.
29. Sea y 0 = 2ty + t 2 y 2 . Resolverla y dibujar aproximadamente sus soluciones. Aproximar las que
cumplen y(0) = 1 , y(0) = 1 , y(10) = 0.2 con diferentes métodos numéricos y diferentes pasos.
30. Un cuerpo de masa m es lanzado con velocidad inicial o a gran altura en la atmósfera terrestre.
Suponemos que cae en línea recta y que las únicas fuerzas que actúan sobre él son la de la gra-
vedad terrestre mg (suponemos g constante) y otra fuerza k debida a la resistencia del aire.
Hallar la velocidad límite del cuerpo cuando t ! . Modificar el ejemplo anterior suponiendo que la
resistencia del aire es proporcional a 2 .
31. Supongamos que tenemos un gramo de un extraño material radiactivo que se desintegra con una
velocidad proporcional a la raíz cuadrada de la cantidad existente. Si al cabo de un año sólo queda
1/4 de gramo, ¿al cabo de cuántos años tendremos 0.1 gramos? Comprobar que este material se
desintegra totalmente en un tiempo finito y calcular ese tiempo.
32. Un cuerpo a 80o de temperatura se coloca en el instante t = 0 en un medio cuya temperatura se
mantiene a 20o y al cabo de 5 minutos el cuerpo se ha enfriado hasta los 50o . Suponiendo que su
enfriamiento sigue la ley de Newton (su temperatura varía proporcionalmente a la diferencia entre
la temperatura del cuerpo y la del medio) determinar: a) la temperatura del cuerpo al cabo de 10
minutos; b) el instante en que dicha temperatura será de 30o .
33. Un cuerpo se coloca en un medio con temperatura T(t) = sen t en el instante t . Comprobar que,
si sigue la ley de Newton, la temperatura del cuerpo tiende a oscilar periódicamente.
34. Supongamos que la ecuación y 0 = y[1 h(t)y] , h(t) > 0 , describe la evolución de una pobla-
ción animal con tope logístico variable. Estudiar el comportamiento de las soluciones para grandes
valores de t si: i] h(t) ! cuando t ! , ii] h(t) ! cte cuando t ! . Interpretar el resultado.
35. y 0 = y(1 esen t y) puede describir una población de truchas con tope periódico. Estudiar dónde
crecen y decrecen sus soluciones y dibujarlas a grandes rasgos. Encontrar, utilizando métodos
numéricos, el valor del dato inicial y(0) para el que se tiene una solución periódica ( y(0 = y(2 ) ).
Si suponemos que hay un pescador que pesca truchas a velocidad constante y 0 = y(1 esen t y) ,
estudiar utilizando Runge-Kutta con h = 0.01 : i) si = 0.1 , para qué valores iniciales las truchas se
extinguen; ii) si y(0) = 3 , para qué valores de se extinguen.

96
Ecuaciones Diferenciales I (C) - 2009/10

Problemas adicionales 2
1. Estudiar la existencia y unicidad de las soluciones de
n 0 = t + ln t n 0 = + sen y
000 0 00 2 2= t nt (1 t 2 ) 00 2t 0 + =0 p
y0 = t y y 0 = t 2/ 3 y
2. i) Utilizando matrices y ii) convirtiendo los sistemas en ecuaciones de segundo orden, resolver:
0 =2 0 =2 +y
0 = + 2y 3y 0 = 2y + 2et 0 = + 2y

a) y 0 = 2 + y b) y 0 = 2y 2e t c) y 0 = 5 y + 2et d) y 0 = 4 y + 9t e) y 0 = 3 + 4e3t
(0) = y(0) = 1 (0) = 0, y(0) = 1 (0) = 0, y(0) = 1 (0) = 3, y(0) = 2 (0) = y(0) = 0

3. Estudiar existencia, unicidad y prolongabilidad y hallar la solución general de:


t 1
00 + = t sen 2t 1 00 +2 0 +2 = te 00 = 2(1+et ) V +2 000 + 0 =t
+ = sen t t 2 00 2 = t2 t 2 00 + 3t 0 =t 1 (1+t 2 ) 00 +2t 0 = 2t 3
i) hallando la p con la fórmula de variación de las constantes,
R
4. Resolver t 2 00 +3t 0 + = ln t :
ii) probando una p adecuada, iii) haciendo = t 1 dt .
5. Hallar la solución general sabiendo que la 1 que se indica es solución de la homogénea:
t 00 (t +1) 0+ = t 2 et (t 2 1) 00 2 =0 t2 00 2t 0 +(2 t 2 ) = 2t 3 ch t
1 = et 1 =t
2 1 1 = t sh t
6. Hallar la solución de t 00 + 0 =1 con (1) = 0 (1) = 0 . ¿Es función continua de ?

7. Hallar la matriz fundamental canónica en t = 0 del sistema asociado a las siguientes ecuaciones:
00 +2 0 + =0 000 + 00 + 0 + =0 2(t +1)2 00 +3(t +1) 0 =0 (1 t) 00 + t 0 =0
8. Sean 00 + 0 +b(t)
1, 2 soluciones de [e] (t) = 0 y llamemos (t) a su wronskiano
R
|W|(t) .
0 (t) 0 (t) (s)ds
Comprobar que 2
= 2 . Hallar y utilizando [e] concluir que (t) = (0) e .
1
1
Deducir la fórmula para 2 en función de 1 hallada en teoría mediante reducción de orden.
9. Resolver t 2 (t+3) 000 3t(t+2) 00+6(t+1) 0 6 = 0 sabiendo que 1 =t
2 es solución de la ecuación.
10. Sea t 3 000 3t 2 00 + 6t 0 6 = ƒ (t) . Hallar una matriz fundamental del sistema equivalente y
utilizarla para encontrar una fórmula para la solución general de la ecuación no homogénea.
⇢ 0
= y
11. Resolver con (0) = 0 , y(0) = 1 . ¿Es estable esta solución?
y0 = 2 y+t
12. Calcular la solución particular que se indica y precisar si es estable o no:
00 2 0 +2 = et cos t + 0 10 = 36te t
000 16 = 8t 2
(0) = 0 (0) = 0 (0) = 0, 0 (0) = 3, 00 (0) = 2 (0) = 1, 0 (0) = 2, 00 (0) = 3, 000 (0) = 8

13. Determinar si son estables las soluciones de la ecuación + 000 +3 00 +2 0 +3 =0 .


14. Hallar una solución de 000 + 0 + = cos t + te t y determinar si dicha solución es estable.
15. Sea 000 + 00 +3 0 +9 = e3t . Resolverla si = 5 y si = 3 . Discutir su estabilidad.
16. Sea 000 +2 00 +2 0 +
= 5 cos t . Hallar una solución de la ecuación para todo valor de . Hallar
la solución general para los para los que sea estable no asintóticamente.
17. Sea 000 + 4 00 + (4+ ) 0 + 2 2 = 10 cos t . Si = 1 , resolverla con (0) = 1 , 0 (0) = 0 , 00 (0) = 5 .

Discutir la estabilidad según los valores de .


18. Sea 000 + 00 + b 0 + b = 1 . Discutir su estabilidad según los valores de las constantes y b.
Para = 1 , b = 1 , hallar la solución con (0) = 0 (0) = 0 , 00 (0) = 1 .
Determinar para qué valores de y b ninguna solución está acotada en todo ( , ).
19. Sea V + 00 + 4 = et . i) Hallar una solución particular para todo y la solución general si
= 5 . ii) Dar un valor de , si existe, para el que sea: a) inestable, b) asintóticamente estable.
20. Sea V + 4 000 + c 00 + 4 0 + = 16 et . a] Discutir su estabilidad según los valores de c . b] Para

c = 6 , hallar la solución con (0) = 00 (0) = 0 , 0 (0) = 000 (0) = 2 . c] Hallar una solución para cada c .
21. Sea [e] V +4 000 + 6 00 +4 0 + = 4e 2t , 2 R . a] Hallar una solución de [e] para todo valor de
. b] Para = 0 , hallar la solución general de [e]. c] Precisar un para el que [e] sea: i) inestable,
ii) asintóticamente estable. d] Si = 65 , razonar si toda solución de [e] tiende a 0 cuando t ! .

97
® 0 =2 +y

22. Hallar la solución de y 0 = 4 + 2z con (0) = 0, y(0) = 1, z(0) = 2 .


z 0 = 4 2z
® 0 =z 2y (0) = 1
23. Hallar la solución de y0 = 1 y , con y(0) = 0 , y precisar su estabilidad.
z0 = 2y z(0) = 1
® 0 =y 3 a] Discutir la estabilidad. b] Si = 1 , hallar la solución con (0) = 0 , y(0) = 3 ,
24. Sea y0 = + z .
0
z = 1 3y z(0) = 4 y escribir una matriz fundamental del sistema homogéneo.
® 0 = 2 +y i) asintóticamente estable
25. Determinar un para el que el sistema y0 = 2y + z sea ii) estable no asintóticamente
z0 = y z iii) inestable
8
0 =z
< y0 = 4 3 a) Discutir, en función del parámetro real , la estabilidad del sistema.
26. Sea : z 0 = 4 .
0 =t b) Para = 5 , hallar la solución con (0) = y(0) = z(0) = (0) = 0 .
y
⇢ 00 + c 0 + 2 +y=0
27. Sea 2y . Determinar para qué valores de y c es asintóticamente estable.
y 00 + cy 0 + + =0
Hallar para = 1 y c = 0 la solución con (0) = y(0) = 1 , 0 (0) = y 0 (0) = 0 . ¿Es estable esta solución?
28. Sea t 2 00 6 = ( 3)t , con (1) = 0 , 0 (1) = 1 .
Hallar su solución para todos los valores de la constante y determinar su estabilidad.
0 00 = ( 0 ) 2 00 = 4t
p
29. Estudiar existencia y unicidad y resolver las ecuaciones no lineales 2t 1, 0.
Determinar la estabilidad de la solución con (1) = 0 (1) = 1 .
30. Hallar utilizando transformadas de Laplace las soluciones particulares pedidas en los problemas
2 , 11 , 12 , 18 , 19 , 20 , 23 , 24 , 26 y 27 .

t, t  2
31. Resolver y 0 = y + 2, t > 2
con y(0) = 1 . ¿Cuántas derivadas tiene la solución en t = 2 ?
⇢ 00 ⇢ 00 n ⇢ 00
t +1, t  1
+ = (t) + 0 = 3 t, t 1 = 2 (t 1)
32. Resolver: a) 0 (0) = 0 b) c) 0 (0) = 0
(0) = 1, 0
(0) = 1, (0) = 0 (0) = 1,

33. Hallar la ’solución’ de 000 + 6 0 + 20 = 18 (t ) con (0) = 0 (0) = 00 (0) = 0 y escribir su valor
13
para t = 2 y t = 12 . ¿Cuántas derivadas posee dicha ’solución’ en t = ?
34. Resolver los sistemas:
® 0 = + ƒ (t) n ® 0 = y+ƒ (t) n 1 , 0t< ® 0=
2et , 0  t < 1 +y
y0 = + y , ƒ (t) = , ƒ (t) = y0 =
a) 0, t 1 , b) y 0 = +ƒ (t) 0, t , c) y+2 (t 1)
(0) = 2, y(0) = 1 (0) = y(0) = 0 (0) = y(0) = 0

35. Determinar si existen soluciones 2 -periódicas:


00 + = cos3 t 00 0 +2 = sen t 4 00 + = cos t 00 = sen t| cos t| 00 + = sen(t +1)
00 2 4
36. Sea + = ƒc (t) (c > 0) donde i) ƒc (t) = sen ct , ii) ƒc (t) = (t c
) + (t c
)+···
Hallar la solución general para todo c . Si c = 1 y c = 2 , estudiar si hay soluciones 2 -periódicas y
dibujar la solución con (0) = 0 (0) = 0 , comparando con ƒ1 (t) y ƒ2 (t) . Interpretar físicamente.
37. Sea 00 + 0 + = sen ct , c > 0 . Hallar la solución periódica y (t, c) a la que tienden a acercarse
todas las soluciones y escribirla para cada c en la forma y = A sen(ct+B) . Estudiar como varía A
en función de c . ¿Para qué valor de c se obtiene la amplitud máxima? Interpretarlo físicamente.

98
Ecuaciones Diferenciales I (C) - 2009/10

Problemas adicionales 3
1. Estudiar si las siguientes ecuaciones tienen puntos singulares o no y clasificarlos:
(2t t2 ) 00 + 0 =0 t2 00 +2 0 +4 =0 t 00 + et 0 + 3 cos t = 0 t sen t 00 +3 0 +t =0
2. Hallar las raíces del polinomio indicial en los puntos singulares regulares de las ecuaciones:
) (2t 2 +t 3 ) 00 0 + = 0, b) t(t 1)2 00 + ln |t| = 0, c) sen t 00 +t 0 = 0.
3. Escribir una ecuación que: i) tenga un punto singular regular en t = 0 y en él las raíces de su
polinomio indicial sean 13 y 13 , ii) tenga en t = 1 un punto singular que no sea regular.
4. Resolver por medio de series en torno a t = 0 :
(1+t 2 ) 00 2t 0+ 2 =0 00 et = 0 t2 00 5t 0 + 3(t +3) = 0 t 00 +(1 t) 0+ =0
(t 2 t) 00 t 0+ =0 00 + t 2 =0 3t 2 (1+t) 00 +t(5+2t) 0 =0 (t 2 1) 00 2 =0
(t 2 1) 00 +3t 0 +t =0 2t 00 + 0 =0 t2 00 t(t +2) 0 +(t + 2) = 0 (1 cos 3t) 00 2 =0
5. Discutir para qué valores de es t = 0 punto singular regular de t 00 + 4t 0 + 2 = 0 . Si = 2 ,
hallar el desarrollo en serie de la solución con (1) = 1 , 0 (1) = 1 en t = 1 hasta tercer orden.
6. Hallar los tres primeros términos no nulos del desarrollo en t = 1 de la solución de 00 ln |t| 0 =0
con (1) = 0 , 0 (1) = 1 . Determinar qué puntos son regulares o singulares regulares.
7. Sean las ecuaciones t 2 00 + 0 = 0 y t 3 00 + t 0 = 0 . Hallar la solución general por métodos
elementales y estudiar la estabilidad. ¿Se podrían resolver por series en torno a t = 0 ? Calcular
hasta orden 3 el desarrollo en serie de potencias en torno a t = 1 de la solución con (1) = 0 (1) = 1 .
8. Hallar el desarrollo en serie de una solución no trivial de t 00 0 + 4t 3 = 0 que se anule en t = 0

y expresarla en términos de funciones elementales. Hallar la solución general de la ecuación. Hacer


un cambio de variable de la forma s = t n y comprobar el resultado.
9. Hallar una solución no trivial de t 00 (3t +1) 0 + 9 = 0 .
¿Es cierto que todas las soluciones de la ecuación tienden a 0 cuando t tiende a 0 ?
10. Sea (t 1) 00 + 2t 0 + (t+1) = 0 . a) Comprobar que tiene una solución de la forma e t y escribir
la solución con (0) = 1 , 0 (0) = 0 en términos de funciones elementales. b) Hallar los tres primeros
términos no nulos del desarrollo en torno a 0 de esta solución utilizando directamente el método de
series. c) ¿Es estable la solución que satisface ( ) = 0 ( ) = 1 ?
11. Sea 2t 2 (1+t 2 ) 00 t(3+7t 2 ) 0 + 2(1+2t 2 ) = 0 . Hallar una solución que no sea analítica en t = 0 .
Calcular la solución general de la ecuación en términos de funciones elementales.

12. Sea t 2 00 + t 2 0 + (t 2) = 0. Comprobar que = 1t es solución. Hallar los tres primeros términos
no nulos del desarrollo en serie de una solución que se anule en t = 0 .
13. Sea t 2 00 + (1 et ) 0 + t = 0 . Hallar los dos primeros términos no nulos del desarrollo en serie
de una solución que se anule en t = 0 .
14. Sabiendo que = t es solución de t 00 t 0 + = 0 , determinar si es posible escribir el desarrollo
en torno a t = 0 de otra solución linealmente independiente sin que aparezcan logaritmos.
15. Sea 2t 2 00+t(1+t 2 ) 0 = 0 . Hallar los 3 primeros términos no nulos del desarrollo de una solución
no analítica en t = 0 . ¿Cuántas soluciones satisfacen: i) (0) = 0 (0) = 3 ; ii) (3) = 0 (3) = 0 ?
16. Hallar el desarrollo hasta orden 5 de una solución de t 2 00 3t 4 0 (3t 3 + 2) = 0 que esté
acotada en t = 0 [puede ser útil saber que = 1/ t es solución].
17. Estudiando las vibraciones de una molécula diatómica se llega a 00 + 0 (e 1)2 = 0 . Hallar
hasta 4 el desarrollo en serie de una solución. ¿Están todas las soluciones acotadas en = 0 ?
18. Probar que 2 ln t 00 + 0 + 2 = 0 tiene un punto singular regular en t = 1 . Hallar los tres primeros
términos del desarrollo de una solución. ¿Dónde converge, al menos, la serie obtenida?
19. Dar un valor de b para el que la solución general por series de t 00 + besen t 0 = 0 en torno a
t = 0 no contenga logaritmos y otro valor para el que sí.
20. Determinar si contiene logaritmos la solución general por series en t = 0 de t 00 + 2 cos t 0 = 0.

21. Sea t 2 00 + t 0 + (t 14 ) = 0 . Hallar el desarrollo de una solución acotada en t = 0 . Determinar si


hay soluciones linealmente independientes de la anterior que no contengan el ln t .

99
22. Sea ty 00 + y = 0 . Hallar el término general del desarrollo de una solución no trivial que se anule
en t = 0 . Calcular el valor de la constante del término que contiene el ln t en la segunda solución.
2
23. Sea t 00 0 4t 3 = 0 . Comprobar que = et es solución. Hallar el desarrollo en serie de
potencias de una solución que se anule en t = 0 .
24. Sea (t 1)2 00 + (1 t 2 ) 0 + 2 = 0 . Hallar el desarrollo hasta t 4 de la solución con (0) = 1 ,
0 (0) = 1 . Hallar el desarrollo de una solución analítica en t = 1 e identificarla con una función

elemental. ¿Hay soluciones linealmente independientes de la anterior que sean analíticas en t = 1 ?


2
25. Hallar la solución general de (t 3 +1) 00 3t 2 0 + 3t = (t 3 +1) .
26. Sean t 2 00 2t 0 + [2 + t 2 ] = t 3 cos t , t2 x” – 4tx’ + [t2 +6]x = t4 .
Hallar la solución general de la homogénea en forma de series en torno a t = 0 .
Hallar la solución general en términos de funciones elementales.
27. Sea t 2 00 3t 0 +3 = t 3 . Hallar la solución general de la no homogénea. Hallar la solución general
de la homogénea utilizando series de potencias centradas en i] t = 0 , ii] t = 1 .
28. Hallar la solución general de la ecuación sen t 00 3 cos t 0 = 2 sen t cos t . Determinar qué puntos
t son regulares o singulares regulares, y hallar los dos primeros términos no nulos del desarrollo en
torno a t = 0 de una solución de la homogénea que no sea constante.
29. Sea t(1 t) 00 + (1 2t) 0 + = 0 . Hallar todos los valores de para los que su solución analítica
en t = 0 es un polinomio. Calcular para = 20 una solución acotada en t = 0 .
30. Calcular las soluciones en el punto t = 0 de la ecuación (1 t 2 ) 00 t 0 + p2 = 0 (Chebyshev), y
determinar para qué valores de p las soluciones son polinomios.
31. Estudiar las soluciones en t = 0 de la ecuación de Laguerre t 00 + (1 t) 0 +p = 0 , precisar para
qué valores de p hay soluciones que son polinomios y escribir los 4 primeros polinomios.
y
32. Hallar una solución de t 00 +2 0 + p2 t = 0 que esté acotada en t = 0 . Hacer = t
y comprobar.
33. Deducir de la fórmula de Rodrigues: nPn = tPn P0n 1 , (n+1)Pn+1 = (2n+1)tPn nPn 1 .

34. Cualquier polinomio Qn (t) de grado n se puede escribir como combinación R lineal de los n + 1
primeros polinomios de Legendre: Qn = c0 P0 + · · · + cn Pn . Probar que ck = Qn (t)Pk (t)dt . Escribir
Q4 (t) = t 4 como combinación lineal de P0 , . . . , P4 .
p
35. Sea (1 t 2 ) 00 2t 0 + = 0 Legendre con p = 52 1 . Hallar 3 términos no nulos del desarrollo de la
solución que cumple (0) = 0 , 0 (0) = 1 . Ver si hay soluciones no triviales que tiendan a 0 cuando
i) t ! 1 , ii) t ! .
36. Obtener los polinomios H4 y H5 de Hermite a partir de: i) la serie general de los apuntes, ii) la
función generatriz, iii) la fórmula de Rodrigues.
1 1
37. Calcular la solución de t 2 00 +t 0 + (t 2 4
) = t 3/ 2 con (1) = 1 , 0 (1) =
2
.
38. Hallar las funciones de Bessel J3/ 2 y J5/ 2 .
R R R
39. Calcular las siguientes primitivas: J0 ( ) d , 3J )d , [J0 ( )]2 d .
0(

40. Comprobar que las ecuaciones de Hermite y Bessel tienen un punto singular en el infinito.
41. Sea [e] t 3 00 +[At 2 +B] 0 +[Ct 2 +D] = 0 . Determinar para qué valores de A, B, C y D son tanto
t = 0 como t = puntos singulares regulares de [e]. Para estos valores, precisar cuándo existen
soluciones de [e] que tienden hacia 0 cuando t ! .
42. Hallar una solución de la forma t r nt
n de t 2 00 + (3t 1) 0 + = 0 y discutir su validez.
43. Adaptar la teoría de este capítulo a la resolución por series de las ecuaciones lineales de primer
orden con coeficientes analíticos (o ’poco’ no analíticos). Hallar por este camino la solución de
algunas ecuaciones de los problemas del tema 1 resolubles por series y comparar resultados.

100
Ecuaciones Diferenciales I (C) - 2009/10

Problemas adicionales 4
1. Dibujar el mapa de fases:
00 + 0 = 2 00 = 1 00 3 00 =
⇥ 0 )2
⇤ 00 = 3 2
a) 2 + b) c) = d) ( 1 e)
⇢ 0 ⇢ 0 ⇢ 0 ⇢ 0 ⇢ 0
= y y = y = y y2 = 2y + 2 y = ye
f) g) h) i) j)
y0 = y y 0 = +y 2 y0 = 2 y0 = 2 2 y2 y0 = e 1

⇢ 0 Hallar sus órbitas y estudiar la estabilidad de sus soluciones .


= (y )+1
2. Sea [S] . Para = 1 , = 0 y = 1 dibujar el mapa de fases de [S].
y 0 = (y )+
Para = 1 , calcular la solución de [S] que satisface (0) = y(0) = 0 .
3. Estudiar los mapas de fases de los sistemas lineales autónomos que tienen algún autovalor 0 .
⇢ 0
=2 y
4. Dibujar el mapa de fases del sistema 2 4 .
y0 = y2
Identificar la órbita asociada a la solución con (0) = 2, y(0) = 0 y describir la (t) de esta solución.
⇢ 0
= (1 y) a) Dibujar el mapa de fases de [S]
5. Sea [S] 3 .
y0 = y b) Calcular la solución de [S] que cumple (0) = 0 , y(0) = 1 .
⇢ 0
=9 3y a) Dibujar su mapa de fases.
6. Sea .
y0 = 6 2 y b) Hallar la solución del sistema que cumple (0) = 2 , y(0) = 3 .

00 = 3 2 0 a) Dibujar su mapa de fases.


7. Sea la ecuación: . 0 (0) =
b) Hallar su solución con (0) = 1 , 1.

8. Sea 00 = [ 2 +( 0 )2 ] . Hallar la órbita de su mapa de fases que pasa por el punto ( 1, 0) .


¿Es periódica la solución de la ecuación que satisface ( ) = 1 , 0 ( ) = 0 ?
2 2
9. Hallar las órbitas y dibujar el mapa de fases de las ecuaciones: (i) 00 = e , (ii) 00 = e .
Precisar en cada caso si es periódica la solución que verifica (1) = 0 , 0 (1) = 2 .
⇢ 0 ⇢ 0 2
⇢ 0
= ( 2) = 1+y =2 y
10. Sean: a) , b) , c) 2 y2 .
y0 = ( 2y)( 1) y0 = 2 y y0 = 1
Hallar sus órbitas, dibujar el mapa de fases y precisar si están definidas t las soluciones cuyas
proyecciones sean semirrectas. Hallar para cada sistema la solución que p cumple los datos iniciales
que se indican: i) (1) = 2 , y(1) = 0 , ii) , (0) = 3 , y(0) = 0 , iii) (0) = 3 , y(0) = 0 .
⇢ 0
= + 2 a) Precisar la estabilidad de la solución de 0 = + 2 con (0) = 2 .
11. Sea [S] 0 .
y = 2 +y b) Hallar órbitas y dibujar el mapa de fases de [S]. c) Hallar la solución de
✓ ◆ ✓ ◆
(t) 2
[S] con (0) = y(0) = 1 . d) Hallar lı́m (t) y lı́m y(t) , si y(t)
es la solución de [S] con x(0) = 3
.
t! t!

d
12. a) Resolver (E) d
=2 y dibujar sus curvas integrales.
00 = 3 0. [Ayudas: Hay órbitas que son parábolas. Haciendo en
b) Dibujar el mapa de fases de
la ecuación de las órbitas = [ 2 1]/ 2 se obtiene (E)].

13. Sea 00 =( 0 )(2+ 0 ) . a) Clasificar sus puntos críticos elementales según los valores de .
b) Para = 3/ 2 , dibujar el mapa de fases y hallar la solución (t) con (1) = 0, 0 (1) = 2 .
14. Estudiar, según los valores de , la estabilidad de la solución = 0 de las ecuaciones:
00 = sen cos 00 + 0 +e =1 00 + = sen( 0) 00 + n = 0 , n2N

00 = 2) e 2 a) Dibujar su mapa de fases. b) Estudiar la estabilidad de las soluciones


15. Sea ( .
que satisfacen i) (0) = 0 (0) = 0 , ii) (0) = 1 , 0 (0) = e 1 .
®
0= y+b 3 i) Discutir según los valores de y b la estabilidad de la solución = y = 0 .
16. Sea .
y0 = +by 3 ii) Discutir si existen soluciones no triviales que tiendan a 0 cuando t ! .
⇢ 0 3 +by 2 Elegir y b (no ambos cero) para los que haya un centro en
=2 4y+
17. Sea . el origen y dibujar el mapa de fases. Identificar en él órbitas
y0 = 2 2y
asociadas a soluciones i] inestables, ii] definidas para todo t .
⇢ 0
= i] Hallar sus órbitas, localizar sus puntos de inflexión y dibujar el mapa
18. Sea [S] .
y 0 = 2y y 2 de fases. ii] Hallar la solución de [S] con (0) = y(0) = 2 . ¿Es estable?
¿Lo es la órbita y( ) que define, vista como solución de la ecuación diferencial de las órbitas?

101
®
= 2
0 Resolver la ecuación diferencial [o] de sus órbitas.
19. Sea [S] .
y0
= y+ 2 Dibujar isoclinas y curvas integrales de [o] y el mapa de fases de [S].
Precisar si es estable el origen de [S] y si lo es la solución y( ) de [o] que satisface y(1) = 1 .
⇢ 0
= 2 +3y 2
20. Sea [S] . Resolver la ecuación diferencial [o] de sus órbitas.
y0 = 2 y
Dibujar isoclinas y curvas de puntos de inflexión de [o] y el mapa de fases de [S]. ¿Está definida t
la solución de [S] con (2) = 1 , y(2) = 0 ? ¿Es estable la solución de [S] con (2) = y(2) = 0 ?
® a) Hallar sus órbitas, escribirlo en polares y dibujar su mapa de fases.
0 = y+ 2 y
21. Sea . b) Hallar la solución del sistema que cumple (0) = , y(0) = 1 .
y0 = + y2
c) Estudiar qué soluciones están definidas t .
®
0 =( y)(1 2 y2 )
22. Dibujar el mapa de fases de 2 tras escribir el sistema en polares.
0
y = ( +y)(1 y2 )

a) 3 0 00 = 1 0 (0) = 1
23. Sean: . Hallar la solución general y la particular con (0) = .
b) 2 00 = 0 ( 0 2)
⇢ 0 ⇢ 0
=y = y( 2 +y 2 )
24. Comparar las órbitas y las soluciones de los sistemas y .
y0 = 0
y = ( 2 +y 2 )

25. Sea [e] la ecuación: a) 00 = 4 3 0 , b) 00 = [1 ( 0 )2 ] , c) 00 = 2 3 . Para los tres casos:


i] Hallar las órbitas y dibujar el mapa de fases. ii] Si en t = 0 es = 0 = 1 , ¿en que instante es
= 1010 ? iii] Estudiar la prolongabilidad de la solución (t) de [e] que satisface (0) = 0 , 0 (0) = 2 .
26. Clasificar los puntos críticos de la ecuación del péndulo rotatorio 00 = sen ( 1 + 2pcos ) ,
según los valores de . Dibujar el mapa de fases para = 0 (péndulo simple) y para = 2.
27. Un péndulo se desplaza un ángulo 2 (0, ) de su posición de equilibrio estable y se abandona.
Hallar el periodo de la oscilación en función de una integral (se supone g/ = 1 ).
⇢ 0
= (2 y)
28. Supongamos que describe la evolución de una población de truchas ( ) y
y 0 = y(3 y 2 )
salmones ( y ) en un mismo estanque y que un pescador pesca sólo truchas a una velocidad pro-
porcional al número de ellas existente. Indicar, dibujando varios mapas de fases, como influye en la
evolución de ambas poblaciones su mayor o menor habilidad pescadora.
⇢ 0
= (5 y)
29. El sistema , > 0 , puede describir la evolución de las poblaciones e y de
y 0 = y(5 y )
dos especies animales iguales en competición. Clasificar los puntos críticos elementales para > 0 .
Dibujar los mapas de fases si = 23 , = 1 y = 4 , e interpretarlos comparando los resultados.
⇢ 0
= (3 y)
30. a) Supongamos que describe la evolución de dos poblaciones animales en re-
y 0 = y( 1+ )
lación preadadora: moscas, y murciélagos, por ejemplo. Dibujar e interpretar el mapa de fases.
Comprobar que (según este modelo) es contraproducente emplear insecticida si éste mata también
una proporción fija de los murciélagos existentes.
b) Si suponemos que hay un tope de población para las moscas la primera ecuación se convierte
en 0 = (3 y) . Dibujar e interpretar ahora el mapa de fases para = 1 , = 2 y = 4 .

102

También podría gustarte