Ecuaciones Diferenciales Ordinarias
Ecuaciones Diferenciales Ordinarias
Ecuaciones Diferenciales Ordinarias
x00 + 2x = f0 cos(t)
Prof. Ral P. Castro Vidal
Callao, 2014
Ecuaciones Diferenciales
Prof.
Indice
Programa de la asignatura
1. Introducci
on a las EDOs: la EDO lineal de primer
1.1. Ecuaciones diferenciales ordinarias . . . . . . . .
1.2. La EDO lineal de primer orden . . . . . . . . . . .
1.3. Algunas aplicaciones de las EDOs lineales de primer
1.4. Problemas . . . . . . . . . . . . . . . . . . . . . . .
orden
. . . . .
. . . . .
orden .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
2
3
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
10
11
12
13
14
18
23
3. Sistemas de EDOs
3.1. La ecuacion lineal Y 0 = A(x)Y + B(x) . . . .
3.2. Los SEDO lineales con coeficientes constantes
3.3. La exponencial matricial exp(xA) . . . . . . .
3.4. El caso de autovalores m
ultiples . . . . . . . .
3.5. El SEDO lineales no homogeneo . . . . . . . .
3.6. Problemas . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
26
27
28
29
31
34
35
4. La ecuaci
on lineal de orden n
4.1. Solucion de la ecuacion lineal homogenea . . . . . . . . . . . . . . . . . . .
4.2. La EDO lineal de segundo orden no homogenea con coeficientes constantes
4.3. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
38
39
41
43
49
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
51
52
53
55
56
polinomios ortogonales cl
asicos
La ecuacion diferencial hipergeometrica. . . .
Los Polinomios de Hermite, Laguerre y Jacobi.
Los momentos de los polinomios clasicos . . .
Las funciones generatrices . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
58
58
60
64
65
.
.
.
.
6.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
67
69
70
8. La transformada de Laplace
8.1. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
72
73
A. Anexo: C
alculo de primitivas
A.1. Metodos de integracion. . . . . . .
A.2. Integracion de funciones racionales.
A.3. Integrales trigonometricas. . . . . .
A.4. Integrales irracionales. . . . . . . .
.
.
.
.
75
76
78
80
81
.
.
.
.
.
.
.
.
83
83
84
85
86
90
94
97
102
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
B. Anexo: Algebra
lineal
B.1. Sistemas lineales y matrices. . . . . . . . . . . . . . . . .
B.2. Formas escalonadas y el algoritmo de reduccion por filas.
B.3. Solucion de un sistema de ecuaciones lineales. . . . . . .
B.4. Vectores y ecuaciones matriciales. . . . . . . . . . . . . .
B.5. Algebra
de matrices. . . . . . . . . . . . . . . . . . . . .
B.6. Determinantes. . . . . . . . . . . . . . . . . . . . . . . .
B.7. Espacios Vectoriales. . . . . . . . . . . . . . . . . . . . .
B.8. El problema de autovalores de una matriz. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ECUACIONES DIFERENCIALES
Prof. Ral P.Castro Vidal
Programa de la asignatura: EDO 2014-B
Captulo 1: Introducci
on a las ecuaciones diferenciales ordinarias. La EDO lineal
de primer orden.
Motivacion de las ecuaciones diferenciales ordinarias (EDO). La EDO lineal de primer
orden. Teorema de existencia y unicidad para la EDO lineal de orden 1. Aplicaciones.
Captulo 2: Ecuaciones diferenciales ordinarias de primer orden.
Ecuaciones diferenciales de primer orden. Ecuaciones separables. Ecuaciones lineales.
Ecuaciones de Bernoulli y de Ricati. Ecuaciones diferenciales exactas. Aplicaciones. Metodos
en diferencias para resolver EDOs de primer orden: El metodo de Euler.
Captulo 3: Sistemas de ecuaciones diferenciales ordinarias de primer orden.
Sistemas de ecuaciones diferenciales ordinarias de primer orden. Sistemas lineales con
coeficientes constantes. La matriz exponencial eA y sus propiedades. Ejemplos y aplicaciones.
Captulo 4: Ecuaciones diferenciales de orden n.
EDOs de orden n. Relacion con los sistemas de ecuaciones de primer orden. Ecuaciones
lineales. EDOs lineales de orden 2. Metodo de variacion de coeficientes. Reduccion de orden.
Captulo 5: M
etodo de las series de potencias.
Metodo de integracion por series. Puntos regulares y singulares. La ecuacion hipergeometrica de Gauss. La ecuacion de Bessel. Aplicaciones.
Captulo 6: Polinomios ortogonales cl
asicos.
La ecuacion de tipo hipergeometrico y sus soluciones polinomicas. Los polinomios clasicos. Ortogonalidad y relacion de recurrencia. Formula de Rodrigues. Los momentos de las
distribuciones continuas de probabilidad. Funciones generatrices.
Captulo 7: EDOs: Existencia y unicidad de las soluciones.
Metodo de Picard. Teorema de existencia y unicidad para una ecuacion diferencial ordinaria de primer orden. Los sistemas lineales y la EDO de orden n.
Captulo 8: Ecuaciones en diferencias finitas.
Introduccion a las ecuaciones en diferencias finitas: Ejemplos. Existencia de la solucion.
La ecuacion de segundo orden de tipo hipergeometrico. Polinomios clasicos discretos. La
ecuacion de Pearson y los momentos de las distribuciones discretas de probabilidad. Funciones generatrices.
Bibliografa
Bibliografa b
asica
C. H. Edwards, Jr y David E. Penney, Ecuaciones diferenciales elementales. Pearson
Educacion
Nagle R.K. y Saff E.B. Fundamentos de ecuaciones diferenciales. Pearson Educacion.
Colecciones de problemas
A. K. BOIARCHUK y G. P. GOLOVACH, Matematica Superiores. Problemas Resuetos: Ecuaciones diferenciales (Anti-Demidovich) Vol 8, 9 y 10 (URSS, 2002).
Bibliografa complementaria
Braun M. Differential Ecuations and their Applications. Springer Verlag.
Bugrov Ya.S., Nikolski S.M. Ecuaciones diferenciales. Integrales mltiples. Series. Funciones de variable compleja. MIR.
Elsgoltz L. Ecuaciones diferenciales y c
alculo variacional. MIR.
Kisilev A., Krasnov M. y Makarenko G. Problemas de Ecuaciones diferenciales ordinarias. Ed. MIR.
Marcellan, F., Casas
us, L. y Zarzo, A., Ecuaciones diferenciales: Problemas lineales y
aplicaciones. McGraw-Hill.
Rainville E.D., Bedient P.E. y Bedient R.E. Ecuaciones diferenciales. Prentice Hall.
Simmons, G.F. Ecuaciones diferenciales : con aplicaciones y notas hist
oricas. McGrawHill.
Renato Alvarez
Nodarse. Facultad de Matematicas. Despacho: 1er piso, Mod 15, No. 15-06
1.
Introducci
on a las EDOs: la EDO lineal de primer
orden
Todos sabemos que es una ecuacion. Por ejemplo
3x + 2 = 5,
x2 + 4x = 3,
x2 + 1 = 0,
x2 2x + 1
= 0.
x2 1
Estas ecuaciones, quiza las mas sencillas, son ecuaciones algebraicas ya que involucran solo
las operaciones suma, resta, multiplicaci
on y divisi
on. La incognita en este caso es una u
nica
variable x que puede ser real o compleja. Por ejemplo, para la primera ecuacion es facil ver
que x = 1 es la u
nica solucion posible, mientras que la segunda tiene dos soluciones reales
x = 1 y x = 3. La tercera sin embargo no tiene soluciones reales, pero si complejas x = i.
Finalmente la u
ltima no tiene ninguna solucion pues la u
nica posible sera x = 1 que no
puede ser solucion ya que la propia ecuacion no esta definida en x = 1 (division por cero).
Hasta ahora hemos visto ecuaciones sencillas en el sentido que su solucion es un conjunto de n
umeros determinado. Existen ecuaciones mas complicadas, las ecuaciones funcionales donde las incognitas son funciones. En ejemplo de estas son las ecuaciones diferenciales
ordinarias. Estas
son ecuaciones que involucran tanto a las funciones buscadas como sus
derivadas ordinarias. Por ejemplo,
y 0 (x) = sen x,
y 0 (x) = y,
Estas ecuaciones son el objetivo del presente curso. Es facil entender que el problema de
encontrar la solucion de las ecuaciones diferenciales es mas complicado que el de los casos
anteriores. En primer lugar por que estamos buscando funciones de x y no simples valores
de x. En segundo, porque tarde o temprano tendremos que calcular primitivas lo cual es
bastante complicado en general.
1.1.
(1.1)
x A.
y 0 (x0) = y00 ,
...,
(n1)
y (n1) (x0) = y0
1.2.
Definici
on 1.1 La ecuaci
on
d y(x)
+ a(x)y(x) = b(x),
dx
a(x), b(x) CI .
(1.2)
(como inc
ognita tenemos a la funci
on derivable y(x)) se denomina ecuaci
on diferencial lineal
de primer orden. Si b(x) 0 la ecuaci
on se denomina ecuaci
on homogenea y si b(x) 6= 0,
ecuaci
on no homogenea.
La solucion general de (1.2) se expresa de la forma
y(x) = Ce
a(x) dx
+e
a(x) dx
a(x) dx
b(x) dx
(1.3)
dy
+ x y = 2x.
dx
Tenemos
2
y = Ce
x2
+e
x2
x2
x2
x2
x2
x2
e 2 2x dx = Ce 2 + 2e 2 e 2 = Ce 2 + 2.
Definici
on 1.3 El problema de encontrar una soluci
on de la ecuaci
on (1.2) con la condici
on
que y(x) tome cierto valor y0 cuando x = x0 se denomina problema de valores iniciales PVI
para la EDO lineal de primer orden, o sea,
d y(x)
+ a(x)y(x) = b(x),
dx
a(x), b(x) CI ,
y(x0) = y0.
(1.4)
y y(x) = 2 e 2 .
x0
exp
x0
Z
a(s) ds b(t) dt .
x0
(1.5)
1.3.
Ejemplo 1.6 Encontrar una familia de curvas y(x) tal que el segmento de la tangente t a
la curva y en un punto cualquiera P (x, y) dibujado entre P y el eje 0y quede bisecado por el
eje Ox.
y 0 = 2y/x
Ejemplo 1.7 Encontrar una familia de curvas y(x) tal que la pendiente de la tangente t a
la curva y en cada punto sea la suma de las coordenadas del punto. Encuentra adem
as la
curva que pasa por el origen.
Ejemplo 1.8 Se sabe que la intensidad i del circuito electrico representado en la figura 1
est
a gobernada por la ecuaci
on diferencial
L
di
+ Ri = U,
dt
P(x,y)
0
(x/2,0)
Figura 1: Curva del ejemplo 1.6 (derecha) y circuito electrico del ejemplo 1.8 (izquierda)
> 0,
donde p es la presi
on en funci
on de la altura h. Si h = 0, la presi
on al nivel del mar (1 atm).
C
omo vara la presi
on con la altura?
Ejemplo 1.10 La descomposici
on radioactiva
Si N es el n
umero de atomos de una substancia radioactiva, entonces
N (t + h) N (t) = N (t)h
N (t + h) N (t)
= N (t).
h
Grazalema (Cadiz)
Picos de Europa (Cantabria)
Sierra Nevada (Granada)
Teide (tenerife)
Everest (Himalaya)
1654
2648
3478
3710
8848
0.81
0.71
0.64
0.62
0.32
N (t0) = N0.
(1.6)
Elemento
Radio 226 Plomo 214
Plomo 214 Plomo 210
Plomo 210 Polonio 210
Polonio 210 Plomo 206
Carbono 14 Nitrogeno 14
Uranio 238 Torio 234
log 2
0,693147
=
.
T
T
Perodo T
1600 a
nos
0.000433217 1/a
nos
47 min
0.0147478 1/min
22 a
nos
0.0315067 1/a
nos
138 das
.00502281 1/dias
5568 a
nos
0.000124488 1/a
nos
9
10
4,5110 a
nos 1,5101210
1/a
nos
En muchos casos un elemento radioactivo puede obtenerse a partir de otros mediante una
cadena radioactiva. E.g.
Uranio 238
Plomo 206
Torio 234
Polonio 210
Uranio 234
Radio 226
Plomo 210
Plomo 214
As, por ejemplo, si estudiamos la cantidad de Plomo 210 que hay en una muestra tenemos
que tener en cuenta no solo la cantidad que se desintegra sino la que aporta cualquiera de los
elementos que aparecen por encima de el en la cadena radioactiva. Por ejemplo, practicamente
en cualquier muestra que tomemos siempre hay una determinada cantidad de Radio 226, lo
que implica una aportacion a la cantidad de Plomo 210 despues de varias desintegraciones.
Si llamamos a esa aportacion r(t), entonces la ecuacion que gobierna la desintegracion del
Plomo 210 es la siguiente
N 0 (t) = N (t) + r(t),
N (t0) = N0,
(1.7)
1.4.
Problemas
Problema 1.11 Decide si las funciones y(x) definidas explcitamente o implcitamente son
soluciones de la EDO F (x, y, y) = 0 dada y determina la regi
on de R donde dicha soluci
on
est
a definida:
1. f (x, y) = y ex + 2 = 0,
2. f (x, y) = y
2
2+x
= 0,
F (x, y, y 0 ) = y 0 y 00 = 0
F (x, y, y 0 ) = xy 0 + y y 2 = 0
3. f (x, y) = x2 + y 2 25 = 0,
F (x, y, y 0 ) = yy 0 + x = 0
4. f (x, y) = x3 + y 3 3xy = 0,
F (x, y, y 0 ) = (y 2 x)y 0 y + x2 = 0
5. f (x, y) = x2 + y 2 25 = 0,
6. f (x, y) = 1 + x2 y = 0,
F (x, y, y 0 ) = yy 0 + x = 0
F (x, y, y 0 ) = (1 + x2)y 0 xy = 0
2. y 0 + y x = 0
3. y 0 + 2xy = x
4. y 0 + y = xex
5. y 0 + x2y = x2
6. x y 0 + y = x3
7. y 0 = (y + ex ) tan x
8. y 0 + 2y = f (x), f (x) = 3e2x ,
9. y 0 + xy = f (x), f (x) = 3/4e2x , f (x) = sen x
10. x y 0 + y cos x = 1/2 sin(2x)
11. x y 0 + y = x sen x
Problema 1.13 Encontrar la soluci
on general de las siguientes ecuaciones diferenciales y
la soluci
on correspondiente a las condiciones iniciales indicadas:
1. y 0 = 3y + e5x ,
y(1) = 0.
2. y 0 = 6y + x2,
y(0) = 2.
3. y 0 = y + ex sen(2x), y(0) = 1.
4. (1 + x2)y 0 + 4xy = x,
y(1) = 1/4.
2, 0 t 1
0
5. y + y = g(x), y(0) = 0, g(x) =
0, t > 1
0
(x/2,0)
y(x)
x
t
P(x,y)
Q
a, c (0, ),
b R,
a(x) c > 0,
x R,
lm b(x) = 0,
a(x), b(x) CR ,
2.
2.1.
Ecuaciones separables
y 2 = x2 + C.
Aplicaciones
x(0) = 0,
(2.2)
log
ax
= (a b)t + C,
bx
1 e(ab)t
.
b ae(ab)t
ax
= Ce(ab)t ,
bx
gR2
dv
= 2 .
dr
r
2gR
+ v02 2gR.
r
v(0) = v0,
(2.3)
t t0 =
v
v0
dv
1
=
g v r
g
v
v0
dv
,
1 2 vr
2 =
.
g
> 0.
g
Como > 0, entonces si t el cuerpo solo podra alcanzar la velocidad lmite vmax = 1/
independiente del valor v0 inicial.
Ejercicio 2.5 Resolver el caso r = 3.
Imaginemos que tenemos una poblacion de cierta especie (consideraremos que tenemos
un n
umero bastante alto de individuos) y sea p(t) el n
umero de individuos de dicha especie en
el momento t (evidentemente p(t) N). Sea r(t, p) la diferencia entre en ndice de natalidad
y mortalidad de la poblacion. Supongamos que la poblacion esta aislada (o sea, no hay
emigracion ni inmigracion). Entonces la variacion p(t + h) p(t) es proporcional a p(t)h y
el coeficiente de proporcionalidad es r(t, p). Luego
p(t + h) p(t) = r(t, p)p(t)h,
h 0,
p(t0) = p0 ,
r > 0,
(2.4)
cuya solucion p(t) = p0 er(tt0) . El modelo anterior se conoce como modelo de Malthus o
modelo maltusiano pues fue propuesto por el economista ingles Thomas R. Malthus (1766
1834). Si r < 0 la especie esta condenada a la extincion y si r > 0 esta crece en proporcion
geometrica.
Aunque el modelo funciona razonablemente bien para poblaciones grandes, hay que hacer
varias correcciones pues si p(t) empieza a crecer demasiado habra muchos otros factores como
la falta de espacio o de alimentos que frenara el crecimiento. Por tanto varios a
nos despues en
1837 un matematico y biologo holandes, P. F. Verhulst, propuso un modelo algo mas realista
conocido como el modelo logstico. Verhulst razono que como estadsticamente el encuentro
de dos individuos es proporcional a p2 (por que?) entonces tendremos que sustraerle al
termino rp un termino cp2 , de forma que la EDO que modeliza una poblacion sera
p0 (t) = r p(t) cp2 (t),
p
p(t0) = p0,
r, c > 0.
(2.5)
r/c
p(t) =
rp0er(tt0)
.
r cp0 + cp0 er(tt0)
(2.6)
t0
Este modelo se ha comprobado con varias especies y ha dado muy buenos resultados, en particular, el hecho de que la poblacion se
estabilice ha sido comprobado en distintos experimentos con paramecios obteniendose una
gran concordancia entre los resultados teoricos y experimentales.
2.2.
10
Problemas
Problema 2.6 Encuentra a ser posible todas las soluciones y(x) definidas explcitamente si
se puede o implcitamente de las EDOs siguientes
1. (1 + x2)y 0 = 1 + y 2
2. y 0 = xy(y + 2)
3. y(1 + x2)y 0 + x(1 + y 2 ) = 0
4. y 0 = 1 x + y 2 xy 2
5. cotg(y)y 0 = x2 + 2
p
6. (x log x)y 0 + 1 + y 2 = 0
11
2.3.
2.3.1.
n 6= 0, 1.
(2.7)
z 0 = (1 n)y n y 0 ,
z 0 + (1 n)a(x)z = (1 n)b(x),
que es lineal y por tanto podemos usar la formula (1.3) para resolverla.
Ejemplo 2.8 Resolver la EDO y 0 1/(3x)y = y 4 log x.
Esta ecuacion es una EDO de Bernoulli con n = 4. Hacemos el cambio z = y 3 , y tenemos
y 0 = y 4 y 0 /3, y = y 4 z, luego la EDO se transforma en
1
z 0 + z = 3 log x,
x
de donde obtenemos
z=
C 3
3
x log x + x,
x
2
4
1/3
C
3
3
y = x log x + x
.
x
2
4
Pasemos a estudiar la EDO de Riccati. En 1724 Jacopo Francesco Riccati estudio la EDO
y 0 + p(x)y + q(x)y 2 = f (x),
(2.8)
1
z0
,
x2 z 2
2
z 0 + z = 1.
x
y=
3x2
1
+
.
x C x3
12
Sea la EDO
y 0 = F (x + y),
(2.9)
1
.
xy+2
por tanto y = 2 + x 1 + Cex . Notese que hemos dividido por (z 2)2 1 por lo que
podemos haber perdido soluciones. En efecto, como (z 2)2 1 = 0 se anula en z = 1 y 3,
podemos perder las soluciones y = x + 1 e y = x + 3.
2.4.
Un tipo especial de EDOs resolubles son las denominadas EDOs homogeneas. Una funcion
f (x, y) se denomina homogenea de orden k si para todo x, y y para todo t R, f (tx, ty) =
tk f (x, y). Ademas, si f es homogenea de orden 0, entonces f (tx, ty) = f (x, y). Sea f una
funcion homogenea de orden 0. Sea y = u x. Entonces
f (x, y) = f (x, ux) = x0f (1, u) = g(u) = g(y/x),
o sea, toda funcion homogenea de orden 0 es una funcion de y/x.
Supongamos que tenemos la EDO y 0 = f (x, y) y f es una funcion homogenea de orden
0, entonces la EDO anterior se transforma en la EDO
y 0 = f (y/x).
(2.10)
u = y/x,
13
p
Sea f (x, y) = (y + x2 y 2 )/x, es facil comprobar que f (tx, ty) = f (x, y), as que hacemos
el cambio y = u x y obtenemos, si u 6= 1,
xu0 =
1 u2 ,
dx
du
=
,
x
1 u2
Ahora bien, como hemos visto u 6= 1, lo que puede hacernos perder las soluciones y = x.
Sustituyendo y = 1 en la EDO inicial comprobamos que y = x e y = x son tambien dos
soluciones de la EDO original.
2.5.
La EDO
y = xy 0 + f (y 0 ),
(2.11)
se denomina EDO de Clairaut en honor a Alexis Clairaut que las estudio en 1734. Vamos a
intentar encontrar alguna solucion de la EDO Clairaut para lo cual derivamos (2.11)
y 0 = xy 00 + y 0 + f 0 (y 0 )y 00
[x + f 0(y)]y 00 = 0,
x = f 0 (t),
y = xt + f (t).
x = 2t
1
y = xt + t2
x
t= ,
2
y=
x2
.
4
La envolvente de una familia de rectas (curvas en general) es una curva que es tangente a todas dichas
rectas (curvas).
14
2.6.
Sea una EDO del tipo y 0 = f (x, y). Esta claro que si la EDO anterior la podemos
d
reescribir en la forma dx
((x, y)) = 0, para cierta funcion (x, y), entonces la solucion de la
EDO sera (x, y) = C.
Nuestro objetivo en este apartado es estudiar cuando una EDO se puede escribir de la
forma anterior. Por conveniencia reescribiremos la EDO y 0 = f (x, y) en la forma equivalente
N (x, y)y 0 + M (x, y) = 0.
(2.12)
La EDO (2.12) tendra una solucion en cuadraturas del tipo (x, y) = C si y solo si (2.12)
d
es equivalente a la expresion dx
((x, y)) = 0, o lo que es lo mismo, (x, y) = C es una
d
((x, y)) = 0.
solucion de (2.12) si y solo si (2.12) se puede reescribir de la forma dx
Como
0=
d
(x, y) (x, y) y
(x, y) (x, y) 0
((x, y)) =
+
=
+
y,
dx
x
y x
x
y
d
entonces la EDO (2.12) se puede escribir de la forma dx
((x, y)) = 0 si y solo si, dadas dos
funciones M (x, y) y N (x, y) existe una funcion (x, y) tal que
(x, y)
= M (x, y),
x
(x, y)
= N (x, y).
y
(2.13)
d
Por ejemplo, la EDO x + yy 0 = 0 se puede escribir en la forma dx
[x2 + y 2 ] = 0 y la EDO
d
2
0
2x exp(x + y) + [2y + exp(x + y)]y = 0 se puede escribir como dx [x + y 2 exp(x + y)] = 0.
En general no es trivial deducir si una EDO del tipo (2.12) se puede expresar de la forma
d
((x, y)) = 0. Por ejemplo, no es facil intuir que la EDO
dx
y 3 + yey cos(xy)
se puede escribir como
3
+ [3xy 2 + ey sen(xy) + xey cos(xy)]y 0 = 0
x2
3
d
3
y
xy + e sen(xy) +
= 0.
dx
x
d
((x, y))
dx
d
((x, y))
dx
= 0,
Teorema 2.13 Sean M (x, y) y N (x, y) dos funciones tales que existan todas las derivadas
, N
, M
y N
y sean funciones continuas en cierto dominio2 R2 . Entonces,
parciales M
x
x
y
y
para que exista una funci
on (x, y) tal que se cumpla la condici
on (2.13)
(x, y)
= M (x, y),
x
(x, y)
= N (x, y),
y
(x, y) .
(2.14)
15
Definici
on 2.14 Una EDO del tipo (2.12) se llama exacta si N y M son funciones tales
(x,y)
(x,y)
que Nx
= My
.
Corolario 2.15 Para que la EDO (2.12) sea exacta es necesario y suficiente que se cumpla
la condici
on (2.14) en cierto dominio R2. Adem
as, toda EDO exacta tiene una soluci
on
en cuadraturas en , es decir existe una funci
on (x, y) tal que (x, y) = C, define la
soluci
on de (2.12) en .
Ejemplo 2.16 Decidir si la EDO
(2x + y sen x) + (3y 2 + cos y + x)y 0 = 0,
es exacta, y encontrar su soluci
on.
(x,y)
(x,y)
En este caso M (x, y) = 2x + y sen x y N (x, y) = 3y 2 + cos y + x, luego My
= 1 = Nx
,
luego seg
un el corolario 2.15 es exacta. Vamos a resolverla. Como la EDO es exacta entonces
existe (x, y) tal que se cumple (2.13), o sea,
(x, y)
= 2x + y sen x,
x
(x, y)
= 3y 2 + cos y + x.
y
De la primera deducimos
(x, y) = x2 + xy + cos x + h(y).
Para calcular h(y) usamos que (x, y) = C, luego
(x, y)
= x+h0 (y) = 3y 2 +cos y +x,
y
h0(y) = 3y 2 +cos y,
h(y) = y 3 +sen y,
(x,y)
y
= 3y 2 +cos y +x,
pero
(x, y)
= y + g 0 (x) = 2x + y sen x,
x
as (x, y) = y 3 + sen y + xy + x2 + cos x = C.
g(x) = x2 + cos x,
M (x,y)
y
6=
N (x,y)
.
x
16
Factores integrantes
Definici
on 2.19 En general, dada la EDO (2.12), se dice que (x, y) 6 0 es un factor
integrante de (2.12) si la EDO (x, y)M (x, y) + (x, y)N (x, y)y 0 es exacta.
Ahora bien, una EDO es exacta si y solo si se tiene la condicion (2.14), luego (x, y) ha
de satisfacer la ecuacion
(x, y)M (x, y)
(x, y)N (x, y)
=
y
x
si y solo si
M (x, y)
(x, y)
M (x, y)
(x, y)
N (x, y)
+ (x, y)
= N (x, y)
+ (x, y)
.
y
y
x
x
(2.15)
Es decir, una ecuacion inexacta tiene un factor integrante (x, y) si y solo si (x, y) cumple
con la condicion (2.15).
Por ejemplo consideremos la EDO x2 sen y + xey y 0 = 0. Obviamente no es exacta. Entonces, para que admita un factor integrante (x, y) este debe satisfacer la ecuacion
x2 sen y
(x, y)
(x, y)
+ (x, y)x2 cos y = xey
+ (x, y)ey ,
y
x
(x)
N (x, y)
M (x, y)
= N (x, y)
+ (x)
,
y
x
x
luego
M (x, y) N (x, y)
1 d(x)
y
x
=
= R(x, y).
(x) dx
N (x, y)
La expresion anterior es sencilla de resolver
si la funcion R(x, y) de la derecha es una funcion
R
solo de x, en cuyo caso (x) = exp( R(x)dx).
En el segundo caso tenemos
M (x, y)
M (x, y)
N (x, y)
(y)
+ (y)
= (y)
,
y
y
x
luego
N (x, y) M (x, y)
1 d(y)
x
y
=
= S(x, y).
(y) dy
M (x, y)
La expresion anterior es sencilla de resolver
si la funcion S(x, y) de la derecha es una funcion
R
solo de y, en cuyo caso (y) = exp( S(y)dy).
17
= 2 sen(2y), =
/N (x, y) = = ,
y
x
y
x
x
luego (x) = 1/x2. Multiplicando la EDO por 1/x2 obtenemos la EDO exacta
sen2 y
sen(2y)
1
y 0 = 0,
+
2
x
x
as
(x, y)
sen2 y
=1
,
x
x2
(x, y) = x +
sen2 y
+ h(y),
x
y
(x, y)
sen(2y)
sen(2y)
=
+ h0 (y) = N (x, y) =
,
y
x
x
y la solucion es, por tanto, (x, y) = x +
sen2 y
x
h0 (y) = 0,
h(y) = C,
= C.
= (x2 + y 2 ),
y
x
y
3
0
N (x, y) M (x, y)
/M (x, y) = = ,
y
x
x
(x, y) =
x3 y 3
+ xy 5 + h(x),
3
y
(x, y)
= x3y 2 + 5xy 4 = N (x, y) = x3y 2 + 5xy 4 ,
y
h0(x) = 0,
h(x) = C,
18
2.7.
Aproximaciones num
ericas: el m
etodo de Euler
2.7.1.
El m
etodo de Euler
Como ya hemos visto son pocas las EDOs que se pueden resolver analticamente, es por
ello que se necesita de metodos fiables para obtener la solucion de una EDO numericamente.
Supongamos que queremos resolver el problema de valores iniciales
d y(x)
= f (x, y),
dx
y(x0 ) = y0 .
(2.16)
Obviamente usando un ordenador solo podremos resolver el problema en un intervalo acotado, digamos [x0 , x0 + l]. Para ello vamos a dividir el intervalo en N subintervalos
[x0 , x1] [x1 , x2 ] [xN 1 , xN ], xN = x0 + l. Supongamos que hemos encontrado los
valores de y en los puntos x0 , x1, . . . , xN , que denotaremos por y0 , y1 , . . . , yN . Entonces, para
encontrar una solucion aproximada yb(x) podemos unir los puntos (x i , yi ), i = 0, 1, . . . , N
mediante lneas rectas (ver figura 3). Es evidente que si el valor yi es bastante cercano al
valor real y(xi ) para todos los i = 0, 1, . . . , N , entonces, al ser yb e y funciones continuas, la
solucion aproximada yb(x) estara muy cercana a la solucion real y(x) en cada uno de los
intervalos [xi , xi+1 ].
y
^y(x)
y(x)
x0
x1
x2
xk
y 00 (xk ) 2
h + .
2!
(2.17)
19
2
f
f
h
y(xk+1 ) = y(xk ) + hf (xk, y(xk )) +
(xk , y(xk )) + f (xk , y(xk )) (xk , y(xk ))
+ .
x
y
2!
La aproximacion mas sencilla es por tanto cuando nos quedamos en la serie anterior con
el termino de primer orden, o sea, cuando tenemos el esquema n
umerico
y1 = y0 + hf (x0, y0 ),
y2 = y1 + hf (x1, y1 ),
...,
yk+1 = yk + hf (xk , yk ),
(2.18)
y(0) = 1,
x [0, 1],
0.4
0.6
0.8
0.2
0.95
0.95
0.9
0.9
0.85
0.85
0.8
0.8
0.75
0.75
0.7
0.7
0.4
0.6
0.8
20
xk
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
0.6
0.65
0.7
0.75
0.8
0.85
0.9
0.95
1.
yb(xk )
1.
0.95
0.905
0.86475
0.829012
0.797562
0.770184
0.746675
0.726841
0.710499
0.697474
0.6876
0.68072
0.676684
0.67535
0.676582
0.680253
0.686241
0.694429
0.704707
0.716972
y(xk )
1.
0.952459
0.909675
0.871416
0.837462
0.807602
0.781636
0.759376
0.74064
0.725256
0.713061
0.7039
0.697623
0.694092
0.693171
0.694733
0.698658
0.70483
0.713139
0.723482
0.735759
yb(xk ) y(xk )
0
-0.00245885
-0.00467484
-0.00666595
-0.00844901
-0.0100397
-0.0114527
-0.0127016
-0.0137992
-0.0147575
-0.0155874
-0.0162994
-0.0169031
-0.0174074
-0.0178206
-0.0181506
-0.0184046
-0.0185892
-0.0187107
-0.0187748
-0.018787
Tabla 1: Solucion n
umerica de la ecuacion y 0 + y = x, y(0) = 1 con N = 20.
Comparemos ahora la solucion n
umerica con la exacta (ver figura 4). Para ello primero
resolvemos la ecuacion exactamente y(x) = x 1 + 2ex .
Si hacemos un simple cambio como aumentar en n
umero de subintervalos hasta 40 (el
doble) vemos que la precision mejora notablemente. Los resultados se pueden apreciar en la
grafica 4 (derecha).
Consideremos ahora el problema
y 0 1 y 2 = 0,
y(0) = 0,
40
x 0.
60
40
30
20
20
0.5
1.5
-20
10
-40
0.5
1.5
21
El m
etodo de Euler mejorado
y(xk+1 ) = y(xk ) +
f (x, y(x))dx.
(2.19)
xk
y
k
xk
x k+1
Figura 6: Regla del rectangulo (izquierda) y del trapecio (derecha) para aproximar una
integral
Esta aproximacion es muy burda. Una mejor aproximacion es usar la regla de los trapecios
(ver figura 6 derecha) para aproximar la integral, es decir
Z xk +h
h
f (x, y(x))dx [f (xk, yk ) + f (xk+1 , yk+1 )] ,
2
xk
de donde se deduce el esquema implcito
h
[f (xk , yk ) + f (xk+1, yk+1 )] ,
k = 0, 1, . . . , N, y0 = y(x0 ).
2
Obviamente este esquema es muy incomodo pues hay que resolver la ecuacion implcita para
hallar yk+1 . Una forma de obviar esta dificultad es usar la prediccion que da el metodo de
Euler yk+1 = yk + hf (xk , yk ), de esta forma obtenemos el metodo de Euler mejorado
yk+1 = yk +
yk+1 = yk +
h
[f (xk , yk ) + f (xk+1 , yk + hf (xk , yk ))] ,
2
k = 0, 1, . . . , N,
y0 = y(x0 ).
(2.20)
22
y(0) = 1,
x [0, 1],
cuya solucion exacta es y(x) = 2ex 1 + x. Escogeremos una discretizacion equidistante con
paso h = 1/20 (20 subintervalos iguales). Los resultados los vemos en la grafica 7 izquierda)
k
0
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
xk
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
0.55
0.6
0.65
0.7
0.75
0.8
0.85
0.9
0.95
1.
yb(xk )
1.
0.95125
0.907314
0.867958
0.832957
0.8021
0.775186
0.75202
0.732422
0.716216
0.703238
0.69333
0.686343
0.682134
0.680567
0.681515
0.684853
0.690467
0.698244
0.708079
0.719873
y(xk )
1.
0.952459
0.909675
0.871416
0.837462
0.807602
0.781636
0.759376
0.74064
0.725256
0.713061
0.7039
0.697623
0.694092
0.693171
0.694733
0.698658
0.70483
0.713139
0.723482
0.735759
yb(xk ) y(xk )
0
-0.00120885
-0.00236077
-0.00345845
-0.00450443
-0.00550115
-0.00645092
-0.00735595
-0.00821835
-0.00904012
-0.00982318
-0.0105693
-0.0112803
-0.0119578
-0.0126034
-0.0132186
-0.0138047
-0.0143632
-0.0148955
-0.0154026
-0.0158858
Tabla 2: Solucion n
umerica de la ecuacion y 0 + y = x, y(0) = 1 con N = 20 usando el metodo
de Euler mejorado.
0.2
0.95
0.9
0.85
0.8
0.4
0.6
0.8
0.0175
0.015
0.0125
0.01
0.0075
0.005
0.75
0.0025
0.7
5
10
15
20
23
2.8.
Problemas
n 6= 1, n + k 6= n,
7. x3 sen yy 0 +2y = x (resolverla respecto a x y no a y, para ello usar que y 0 (x) = dy/dx =
1/(dx/dy) = 1/x0(y)).
Problema 2.23 Resolver las EDOs de Riccati
1. y 0 = x3 + 2y/x y 2 /x, yp = x2,
2. y 0 = 1 + y/x + (y/x)2, yp = x,
3. 3y 0 + y 2 + 2/x2 = 0,
4. y 0 + 2yex y 2 = e2x + ex ,
5. y 0 2xy + y 2 = 5 x2.
Problemas de EDOs reducibles a EDOs lineales o separables
Problema 2.24 Supongamos que tenemos la EDO y 0 = f (y/x). Prueba que esta ecuaci
on
es equivalente a la EDO separable
xv 0 + v = f (v),
v = y/x.
A la ecuaci
on y 0 = f (y/x) se le suele denominar EDO homogenea. Resuelve las siguientes
EDOs
1. y 0 = 2(y/x) + (y/x)2
2. (x x y)y 0 = y
3. y 0 = y/x + tan(y/x),
4. (x + y + 2)y 0 = 3x y 6,
5. (4x 3y 6)y 0 + x 2y + 1 = 0,
6. (2x + 4y + 3)y 0 + 2 + 2y + 3 = 0.
7. y 0 = (ax + by)/(cx + ey). Considerar los casos ae 6= cb y ab = cd. Como caso particular
resolver la EDO y 0 = (x + y)/(x y).
24
8. Resolver la EDO y 0 = (ax + by + m)/(cx + ey + n). Para ello prueba que existe un
cambio de variable y = Ay + B y x = Cx + D que transforma la EDO en la EDO
del apartado anterior y 0 = (ax + by)/(cx + ey). Como caso particular resolver la EDO
y 0 = (x + y + 1)/(x y + 2).
Problema 2.25 Resolver las EDOs del tipo y 0 = F (ax + by)
1. y 0 = x + y 1,
2. y 0 = (x y + 5)2,
3. y 0 = 2(y x) + (y x)2,
4. y 0 = sen(x y).
Problema 2.26 Haciendo un cambio de variables o derivando transforma las siguientes
EDOs en EDOs lineales y resuelvelas.
1. (x2 2y + 1)y 0 = x,
2. x(ey y 0 ) = 2,
3. y(x) = x + 1 +
4.
x
0
y(t)dt,
0
(x t)y(t)dt = 2x +
y(t)dt.
0
25
5. y = xy 0 ey .
Problemas del m
etodo de Euler
Problema 2.30 Encuentra las soluciones y(x) de los siguientes problemas de valores iniciales usando el metodo de Euler y el de Euler mejorado.
2
1. y 0 = ex y, y(2) = 1,
2
2. y 0 = ex y 2 , y(0) = 1,
26
3 SISTEMAS DE EDOS
3.
Sistemas de EDOs
y1 (x) = f1(x, y1 , y2 , . . . , yn ),
y 0 (x) = f2(x, y1 , y2 , . . . , yn ),
2
(3.1)
..
y 0 (x) = f (x, y , y , . . . , y ),
n
1 2
n
n
donde y1 ,. . . yn son funciones de x desconocidas y f1, . . . fn son ciertas funciones conocidas.
Por comodidad vamos a usar la forma vectorial del sistema anterior, o sea, vamos a denotar
por Y , Y 0 y F son los vectores
y1 (x)
y10 (x)
f1(x, y1 , y2 , . . . , yn )
y2 (x)
y 0 (x)
f2(x, y1 , y2 , . . . , yn )
.
yn (x)
yn0 (x)
fn (x, y1, y2 , . . . , yn )
es decir la derivada de un vector Y la definiremos como el vector que tiene como componentes
las derivadas de cada una de las componentes del vector original. Usando lo anterior podemos
reescribir (3.1) en la forma vectorial
d
Y (x) = Y 0(x) = F (x, Y ).
dx
(3.2)
n
X
k = 1, . . . , n,
j=1
(3.3)
(3.4)
donde
A(x) =
,
..
..
..
..
...
.
.
.
.
an1(x) an2 (x) an3(x) ann (x)
B(x) =
b1 (x)
b2 (x)
..
.
bn (x)
Cuando B(x) = 0, o sea cuando todas las componentes del vector B son cero, diremos
que SEDO es homogeneo, y si al menos una componente de B es no nula, no homogeneo.
27
3 SISTEMAS DE EDOS
3.1.
La ecuaci
on lineal Y 0 = A(x)Y + B(x)
(3.5)
Teorema 3.2 Sea A(x) Rnn . Si Y1 e Y2 son soluciones del sistema Y 0 = A(x)Y , entonces
cualquiera de sus combinaciones lineales son tambien soluci
on.
Teorema 3.3 Sean Y1 (x), . . . , Yk (x) soluciones del sistema Y 0 = A(x)Y . Para que los
vectores (funciones) Y1 (x), . . . , Yk (x) sean linealmente dependientes para todo x R es
necesario y suficiente que lo sean para alg
un t R.
Corolario 3.4 Para que las soluciones Y1 (x), . . . , Yk (x) del PVI, Y 0 = A(x)Y , Yi (x0) =
Y0,i , i = 1, . . . , k sean linealmente independientes es suficiente que las condiciones iniciales,
o sea los vectores, Y0,1 , . . . Y0,k sean linealmente independientes.
son vectores linealmente independientes (lo son los polinomios x y x2) ya que es imposible
obtener una de otro al multiplicar por constantes, no obstante, para x = x0, obviamente son
dependientes pues
2
x0
x0
.
= x0
x0
x20
Teorema 3.6 Sea A(x) Rnn . Entonces, el conjunto de todas las soluciones del sistema
homogeneo Y 0 = A(x)Y es un espacio vectorial de dimensi
on n.
Corolario 3.7 Si Y1 (x), . . . , Yn (x) son soluciones linealmente independientes del sistema
Y 0 = A(x)Y , entonces toda soluci
on de Y 0 = A(x)Y se puede expresar como una u
nica
combinaci
on lineal de dichas soluciones. O sea, existen unos u
nicos coeficientes c1 , . . . cn
tales que
Y (x) = c1 Y1 (x) + c2 Y2 (x) + + ck Yn (x).
En particular, la soluci
on del PVI, Y 0 = A(x)Y , Y (x0) = Y0 se expresa de manera u
nica
como una combinaci
on lineal de las soluciones del sistema homogeneo correspondiente.
Nota 3.8 Juntando los teoremas 3.3 y 3.6 tenemos un criterio para encontrar una base del
espacio S de todas las soluciones de Y 0 = AY : Para que las soluciones Y1 (x), . . . , Yn (x) del
sistema Y 0 = A(x)Y sean linealmente dependientes para todo x R es necesario y suficiente
que para alg
un x0 R
det |Y1 (x0) Y2 (x0) . . . Yn (x0)| 6= 0.
Nota 3.9 Todos estos resultados son ciertos para toda matriz A cuyos elementos son funciones continuas en todo R.
28
3 SISTEMAS DE EDOS
3.2.
Y 0(x) = AY (x),
3.2.1.
(3.6)
Autovalores simples
(3.7)
exv = A ex v.
1 = 5,
2 = 7.
6 12
3 6
x1
x2
2
1
=0
x1 = 2x2,
v2 =
5x
+ c2 e
7x
2
1
2
1
29
3 SISTEMAS DE EDOS
Ejemplo 3.11 Encontrar la soluci
on general del SEDO
2 5
0
Y =
Y.
2 4
Calculamos los autovalores y autovectores
det(A I) = 2 + 2 + 2 = 0
1 = 1 i,
2 = 1 + i.
sen x +
cos x ,
3
1
3
1
por tanto
Y (x) = c1 e
3.3.
5
3
cos x +
0
1
sen x + c2 e
5
0
sen x +
cos x .
3
1
X
xk Ak
k=0
k!
= In + xA +
x2 A2
xn An
+ +
+ ,
2
n!
(3.9)
d
dx
30
3 SISTEMAS DE EDOS
6. Para todo x R, exp(xIn) = ex In.
Dado cualquier vector constante v Rn se cumple
d
[exp(xA)v] = A[exp(xA)v],
dx
k
k
k
X
X
X
kx
k 1 x
kx
=
=P
D
P 1 = P [exp(xD)]P 1,
PD P
exp(xA) =
A
k!
k!
k!
k=0
k=0
k=0
pero, como
D=
1 0 0
0 2 . . . 0
..
.. . .
.
. ..
.
.
..
0 0
. n
exp(xD) =
e 1 x 0 0
0 e 2 x . . . 0
..
..
..
..
.
.
.
.
..
0
0
. exn
de donde se deducen nuevamente las soluciones del sistema. Notese que el caso de n autovalores distintos se puede resolver por este metodo.
Como ejemplo calculemos la matriz exponencial de la matriz
1 6
A=
.
1 2
Ante todo tenemos que el polinomio caracterstico de A es
1 6
2
1 2 = 4 3 + = 0, = 1 = 1, 2 = 4.
31
3 SISTEMAS DE EDOS
Calculamos los autovectores. Para 1 = 1 tenemos
x1
0
2 6
, = x1 = 3x2,
=
0
1 3
x2
v1 =
3.4.
4x
3
+ 2 e5
5 ex
4x
1
e5
5 ex
6
5 ex
2
5 ex
6 e4 x
5
3 e4 x
5
3
1
2
5
3
5
El caso de autovalores m
ultiples
pero
exp(Ix)v = ex v
Es decir,
exp(xA)v = e
x2
xk
2
k
v + x(A In)v + (A In) v + . . . + (A In ) v + . . . .
2
k!
En el caso de un autovalor simple tenemos obviamente (A In)v = 0 si v es el correspondiente autovector, luego exp(xA)v = ex v que es lo mismo que tenamos antes. Si tenemos
entonces n autovectores v1 , . . . vn linealmente independiente entonces encontramos n soluciones linealmente independientes Yi = ek x vk , k = 1, . . . , n.
Que hacer cuando hay una raz m
ultiple, o mas exactamente si la matriz A no es diagonalizable?
Supongamos, por ejemplo, que el autovalor es doble y que tiene asociado un u
nico
autovector (el autoespacio asociado es de dimension 1). Una solucion es por tanto e x v1,
donde v1 es el autovector asociado a . El otro vector v2 que necesitaremos lo buscaremos
de forma que (A In)v2 6= 0 pero (A In)2v2 = 0. Entonces otra solucion, independiente
de la anterior es
xk
x2
2
k
x
(A In) v2 + . . . +
(A In ) v + . . .
exp(xA)v2 = e v2 + x(A In )v2 +
{z
}
{z
}
2 |
k! |
= ex v + ex x(A In)v2 .
=0
=0
En el caso que la multiplicidad de sea de orden mayor seguimos el siguiente procedimiento para resolver el sistema homogeneo
1.) Calculamos todos los autovalores i y los correspondientes autovectores vi , i = 1, 2, . . . , k
y formamos k soluciones linealmente independientes de nuestro sistema Y i (x) = eix vi ,
i = 1, . . . , k. Si k = n entonces las Yi (x) generan a todo el espacio solucion.
2.) Si k < n entonces hay autovalores m
ultiples. Sea uno de tales autovalores y sea m a
la multiplicidad algebraica de dicho autovalor y mg la multiplicidad geometrica (o sea la
32
3 SISTEMAS DE EDOS
1 1 0
Y 0 = 0 1 0 Y.
0 0 2
0 ,
0 ,
Y1 (x) = e
Y2 (x) = e
1
0
y necesitamos una tercera solucion. Aplicando el metodo antes descrito buscamos un tercer
vector v3 que no sea autovector de A asociado a 2 = 1 y tal que (A I3 )2v = 0, es decir
x1
0 0 0
(A I)2 v = 0, 0 0 0 x2 = 0, = x1 = 0, x2 , x3 R,
x3
0 0 1
o sea
0
1
v3 = 0 + 1 ,
0
0
1 .
=e
= e [I3 + x(A I3 )] 1
Y3 (x) = e exp(A I3 ) 1
0
0
0
As pues
x
1
0
x
x
2x
1 .
0
0
+ c3 e
+ c2 e
Y (x) = c1 e
0
0
1
El metodo anterior nos indica un procedimiento general para resolver el SEDO (3.6) en
general conocido como metodo de Euler que consiste en lo siguiente:
1. Calculamos los autovalores k de la matriz A Rnn del sistema Y 0 = AY y sea mk
la multiplicidad algebraica del autovalor.
2. Para cada autovalor, buscamos la solucion del correspondiente subespacio (o sea, la
solucion generada por el autovalor) en la forma
Yk (x) = e
k x
m
k 1
X
Aj xj ,
j=0
Aj Rn ,
(3.10)
33
3 SISTEMAS DE EDOS
donde puede ocurrir que alguno de los vectores Aj , j = 0, 1, . . . , mk 1 sean nulos.
Veamos como funciona este metodo en el
1
0
Y = 0
0
ejemplo anterior.
1 0
1 0 Y.
0 2
a1
a4
Y2 (x) = ex a2 + a5 x .
a3
a6
a1 + a2 + (a4 + a5)x
a4
a4
a1
.
a2 + a 5 x
Y20(x) = ex a2 + a5 x + a5 =
2a3 + 2a6x
a6
a6
a3
Igualando componentes
a4
a5
a6
tenemos el sistema
= a2 + a5
= 0
= a3 + a6 x
a3 = a5 = a6 = 0, a4 = a2 ,
x
1
a2
a1
Y2 (x) = a2 + 0 x ex = ex a1 0 + a2 1 x ,
0
0
0
0
que coincide con la solucion encontrada por el metodo anterior.
3.4.1.
(3.12)
34
3 SISTEMAS DE EDOS
3.5.
(0) =
1 5x
e
+ 21 e7x
2
41 e5x + 14 e7x
2e5x 2e7x
e5x
e7x
e5x + e7x
1 5x
e
+ 12 e7x
2
2 2
1 1
1
2e5x 2e7x
e5x
e7x
41
1
4
1
2
1
2
(3.13)
1)
2
2
12
!
1 5x 1 7x
e5x + e7x
5x
7x
0
e
+
e
e
+
e
2
2
=
,
exp[(x x0)A]Y0 =
1 5x
1
41 e5x + 14 e7x 12 e5x + 21 e7x
e
+ 1 e7x
2
56 e5x 31 ex + 67 e7x
5 5x
e
12
7 7x
e .
12
35
3 SISTEMAS DE EDOS
3.6.
Problemas
1 1 4
1 0 0
1
3 2 1 ,
0 1 1 , Y (0) =
1 ,
3. a) A =
b) A =
2 1 1
0 1 1
1
1 2 1
1
1 1 0
4. a) A = 0 1 2 , Y (0) = 2 ,
b) A = 0 1 0 .
0 1 2
1
0 0 2
Problema 3.20 Prueba las siguientes propiedades de la matriz exA con A Rnn :
1. e0A = In , In es la matriz identidad n n.
2.
d xA
e
dx
= AexA .
0 1
1 0
B=
0 1
1 0
2 1 3
1 1 0
2. Y 0 = AY , con a) A = 0 1 0 , b) A = 0 2 1 ,
0 0 2
0 0 2
36
3 SISTEMAS DE EDOS
1 12
2 5
1. a) A =
,
b) A =
,
c) A =
,
3 1
2 4
1 1 4
1 1 1
1 0 0
2. a) A = 3 2 1 ,
b) A = 0 3 2 ,
c) A = 2 1 2 .
2 1 1
0 0 5
3 2 1
1 5
0 1
1 1 4
0
2
3. A = 3 2 1 , B(x) = 0 , Y (0) = 1
2 1 1
ex
1
1 0 0
0
0
4. A =
2 1 2 , B(x) =
0
, Y (0) =
1
x
3 2 1
e cos(2x)
1
Problema 3.26 Resuelve los sistemas lineales
( 0
y1 = 2y1 + y2 7xex 3
1.
, sabiendo que su soluci
on es acotada si x +.
y20 = y1 + 2y2 1
0
x =v
2.
, con x(0) = x0, v(0) = 0, < . Este sistema modeliza el
v 0 = 2 x 2v + f (t)
movimiento de un pendulo con rozamiento y una fuerza externa f .
3. Se considera el siguiente circuito electrico
L
Uc
i1
+
L
1
i2
10
0 20
i1
V
i1
i02 =
0 10
20 i2 + 20 0 .
0
Uc
50 50 50
Uc
0
Se pide determinar i1, i2, Uc en los siguientes casos:
(a) V (t) = 0, i1(0) = i2(0) = 0, Uc(0) = 10.
37
3 SISTEMAS DE EDOS
(b) V (t) = 10, i1(0) = i2(0) = 0 = Uc(0) = 0.
Problema 3.27 Demuestra que si la matriz A(x) es tal que
Z x
Z x
A(t)dt A(x),
A(t)dt =
A(x)
0
0
entonces, la soluci
on del
R x SEDO Y = A(x)Y , Y (0) = Y0 se puede expresar mediante la
on calcula la soluci
on general del sistema
expresi
on Y (x) = exp( 0 A(t)dt)Y0. Como aplicaci
R
,
A
Rnn es la
k
k=0 k
Pm
suma k=0 Yk de las soluciones Yk de las ecuaciones Yk0 = A(x)Yk + fk (x), k = 1, 2, . . . , m.
LINEAL DE ORDEN N
4 LA ECUACION
4.
38
La ecuaci
on lineal de orden n
Vamos a continuacion a aplicar los resultados obtenidos a un grupo de EDOs muy importante: las EDOs lineales con coeficientes constantes de orden mayor que 1 definida por la
ecuacion:
y (n) (x) + an1 (x)y (n1)(x) + + a1(x)y 0 (x) + a0(x)y(x) = f (x).
(4.1)
Cuando f (x) 0, diremos que la EDO (4.1) es homogenea, en caso contrario es no homogenea.
Si ademas imponemos que la solucion y sea tal que
y(x0 ) = y0 ,
y 0 (x0) = y00 ,
...
(n1)
y (n1) (x0) = y0
(4.2)
Usando esta notacion podemos escribir (4.1) como L[y] = f (x) y el correspondiente problema
homogeneo sera L[y] = 0.
Proposici
on 4.1 La EDO
y (n) (x) + an1 (x)y (n1) (x) + + a1(x)y 0(x) + a0(x)y(x) = 0,
(4.3)
dzn
z1(x) = y(x)
dx
z2(x) = y (x)
dzn1
z3(x) = y 00 (x)
= zn ,
dx
..
..
dz1
= z2 .
zn(x) = y (n1) (x)
dx
Es decir, una EDO del tipo (4.1) es equivalente al siguiente sistema lineal de ecuaciones
0
1
0
0
0
0
z
z1
1
0
1
0
0
z2 0
z2 0
..
..
..
..
..
d . ...
.. ..
.
.
.
.
.
.
. + . , (4.4)
=
dx . 0
0
0
0
1
zn1 0
zn1
0
0
0
0
1
f (x)
zn
zn
a0 a1 a2 an2 an1
o en forma matricial Z 0 (x) = AZ(x) + F (x). Notese que cuando f (x) 0, el sistema anterior
se transforma en un sistema homogeneo. Lo anterior tiene una implicacion evidente: toda la
teora de las ecuaciones lineales (4.1) se puede construir a partir de la teora de los sistemas
lineales que estudiamos antes.
LINEAL DE ORDEN N
4 LA ECUACION
39
Teorema 4.2 Sean a0 (x), . . . , an1 (x) funciones continuas en R. Entonces el P.V.I. asociado a (4.1) siempre tiene soluci
on y es u
nica cualquiera sean las las condiciones iniciales
(n1)
0
0
(n1)
y(x0 ) = y0 , y (x0) = y (0), . . . , y
(x0) = y0
que escojamos.
Teorema 4.3 El conjunto de soluciones de la EDO homogenea (4.3) es un espacio vectorial
de dimensi
on n.
Teorema 4.4 Dadas n soluciones y1 , . . . , yn de la EDO (4.3), estas son linealmente independientes si y s
olo si el wronskiano W [y1 , . . . , yn ](x), definido por
y1 (x)
y2 (x)
yn (x)
y10 (x)
y20 (x)
yn0 (x)
(4.5)
W [y1 , . . . , yn ](x) =
6= 0 x,
..
..
..
...
.
.
.
(n1)
(n1)
(n1)
y1
(x) y2
(x) yn
(x)
es distinto de cero para alg
un x R, en cuyo caso el Wronskiano es distinto de cero para
todo x R.
Finalmente, notemos que conocida la solucion general yh(x) de la EDO homogenea podemos dar la solucion general de la EDO (4.1) en la forma y(x) = yh(x) + yp (x), siendo yp
una solucion particular de (4.1).
4.1.
Soluci
on de la ecuaci
on lineal homog
enea
Para resolver la EDO (4.3) con coeficientes constantes seguiremos la misma idea que
para los sistemas, es decir buscaremos la solucion en la forma y(x) = e x . Sustituyendo esta
funcion en la EDO (4.3) obtenemos que debe satisfacer la ecuacion
n + an1 n1 + a1 + a0 = 0.
(4.6)
c1 , c2 , . . . , cm R.
Obviamente si k es complejo, tenemos que tomar partes reales y complejas que nos
generan todo el espacio solucion.
LINEAL DE ORDEN N
4 LA ECUACION
40
p, q R.
(4.8)
(4.9)
y2 (x) = e2x .
A, B R.
Caso de dos races reales iguales. Sea p2 = 4q, entonces la ecuacion caracterstica (4.9)
tiene una u
nica solucion real = p/2. Esto significa que aparentemente solo tenemos una
funcion que genera al espacio solucion de la EDO homogenea, sin embargo dicho espacio es
de dimension 2 como nos asegura el teorema 4.3 y la ecuacion homogenea (4.8) tendra dos
soluciones linealmente independientes de la forma y1(x) = ex y y2(x) = xex . En efecto,
usando (4.7) tenemos que la solucion generada por es, en este caso,
y(x) = ex p1 (x) = ex (c1 + c2 x) = c1 ex + c2 xex ,
como se pretenda probar.
Caso de races complejas. Sea p2 < 4q, entonces la ecuacion caracterstica (4.9) tiene dos
soluciones complejas:
p
p
p i 4q p2
p + i 4q p2
,
, i = 1,
1 =
2
2
y la ecuacion homogenea (4.8) tendra dos soluciones linealmente independientes
y1 (x) = e1x ,
y2 (x) = e2x .
A, B R.
(4.10)
2 = i,
, R.
A, B R,
o, equivalentemente,
y(x) = A ex cos (x + ) ,
A, R.
LINEAL DE ORDEN N
4 LA ECUACION
4.2.
41
f (x)
continua,
p, q R.
(4.11)
4.2.1.
q 6= 0,
(4.12)
an 6= 0.
siendo pn un polinomio de grado n. Entonces el metodo anterior no funciona pues si sustituimos yp (x) = a0 + a1x + + anxn , obtenemos que L[yp ] es un polinomio de grado n 1
mientras que el derecho es de grado n. Para resolver el problema buscamos la solucion de la
forma
yp (x) = a0 + a1x + + anxn + an+1 xn+1 .
Ahora bien, como la EDO homogenea es y 00 + py 0 = 0, entonces cualquier constante es
solucion, por tanto a0 en la expresion anterior puede ser cualquiera, as que sin perdida de
generalidad la tomaremos igual a cero, luego la solucion particular la podemos buscar en la
forma yp (x) = xrn(x) y los coeficientes de rn los encontramos sustituyendo dicha solucion
en (4.13) e igualando coeficientes.
4.2.2.
(4.14)
siendo pn un polinomio de grado n. Para resolverlo hacemos el cambio y(x) = ecx v(x), que
nos conduce a
L[y] = ecx {v 00 + (2c + p)v 0 + (q + pc + c2 )v},
luego
LINEAL DE ORDEN N
4 LA ECUACION
4.2.3.
42
y 00 + py 0 + qy = pn (x)ecx cos(x),
(4.15)
El m
etodo de los coeficientes indeterminados
Sea la EDO lineal no homogena (4.11) y 00 (x) + py 0 (x) + qy(x) = f (x) y sean y1(x) e y2 (x)
dos soluciones linealmente independientes. Entonces vamos a buscar la solucion de la EDO
en la forma
yp (x) = c1 (x)y1(x) + c2 (x)y2(x),
con c1 y c2 tales que
c01 y1 + c02 y2 = 0,
c01 y10
c02 y20
(4.16)
= f (x).
(4.17)
De esa forma tenemos que resolver dos EDOs de primer orden. Para ello multiplicamos la
primera por y10 , la segunda por y1 y las restamos lo que nos da c02 [y1 y20 y10 y2 ] = f y1 , o bien,
la primera por y20 y la segunda por y2 , para obtener c01 [y1 y20 y10 y2 ] = f y2 . Ahora bien,
[y1 y20 y10 y2 ] = W [y1 , y2 ](x) 6= 0 cualquiera sea x R pues el Wronskiano de dos soluciones
linealmente independientes de la EDO homogenea nunca se anula (ver el teorema 4.4), de
donde obtenemos que c1 y c2 satisfacen las EDOs
c01 (x) =
f (x)y2(x)
,
W [y1 , y2 ](x)
c02 (x) =
f (x)y1(x)
.
W [y1 , y2 ](x)
(4.18)
La solucion general del problema homogeneo es yh (x) = c1 ex + c2 ex , entonces buscamos la solucion particular en la forma5 yp (x) = c1 (x)ex + c2 (x)ex. Como W [y1 , y2 ](x) =
W [ex , ex ] = 2, la formula (4.18) nos da
ex
e3x
, c02 =
=
2
2
Por tanto, la solucion general es
c01 =
c1 (x) =
ex
,
2
c3 (x) =
y(x) = c1 ex + c2 ex +
5
ex
,
6
yp (x) =
e2x
.
3
e2x
.
3
LINEAL DE ORDEN N
4 LA ECUACION
4.3.
43
Aplicaciones
a
k
F (t)
> 0, 2 = , f (t) =
.
2m
m
m
(4.19)
m
k
F
PSfrag replacements
= arctan(x0 /v0).
A=
a2 + b2, = arctan(b/a),
(4.20)
cuya demostracion es inmediata, basta aplicar la formula para el coseno de una suma e
identificar los coeficientes del seno y el coseno.
x
PSfrag replacements
2 2 x
+ c2 ex
2 2 x
LINEAL DE ORDEN N
4 LA ECUACION
2a. Si > , entonces, llamando =
44
f0eit
2 2 + i2
xp (t) = <[yp ] =
( 2 2) cos(t) + 2 sen(t)
f0 ,
( 2 2 )2 + 42 2
|A()|
( 2 2 ) cos(t) + 2 sen(t)
f0 .
( 2 2)2 + 42 2
(4.21)
Notese que en todos los casos xh(t) tiende exponencialmente a cero por lo que si t es suficiente
grande x(t) xp(t). Si usamos la identidad (4.20)
obtenemos para t suficientemente grande la solucion
f0
x(t) xp(t) = p
cos(t ),
2
Sfrag replacements
( 2 )2 + 42 2
2
.
donde
=
arctan
2
2
Como se ve en la formula anterior, las osciFigura 10: Amplitud de las vibraciones laciones tienen una amplitud que depende de la
propia frecuencia de oscilacion. Obviamente para
forzadas: resonancia.
= la amplitud es maxima, es decir cuando la
frecuencia de la fuerza exterior es igual a
como solo depende de las caractersticas de sistema, en este caso m y k, se suele denominar
LINEAL DE ORDEN N
4 LA ECUACION
45
PSfrag replacements
f0
cos(t).
2 2
f0
t sen(t).
2
Notese que a diferencia del caso con rozamiento, en este, si t , la solucion es no acotada pues f0t/(2) , es decir nuestro sistema presenta un movimiento oscilatorio con
frecuencia fija pero con amplitud que aumenta linealmente con el tiempo.
El fenomeno de la resonancia es conocido desde hace muchos a
nos y es el causante de
mas de un desastre en sistemas mecanicos. Por ejemplo, en 1831, un grupo de soldados
intento cruzar marchando en puente de Broughton (cerca de Manchester, Inglaterra). La
fuerza periodica que ejercieron al marchar entro en resonancia con la frecuencia propia del
puente y este se vino abajo. A partir de ese momento se prohibio a los soldados marchar
cuando fuesen a cruzar un puente.
LINEAL DE ORDEN N
4 LA ECUACION
46
el puente comenzaba a oscilar (ver figura 12 izquierda) lo que lo convirtio en una atracci
on
turstica local pues cientos de conductores iban solo para disfrutar de este extra
no fenomeno.
El puente pareca aguantar bien, es mas varios expertos aseguraban que todo estaba bajo
control, pero el 7 de noviembre de 1940 las oscilaciones empezaron a hacerse mayores y sobre
las 10:00 am alcanzaban los 7 metros. Obviamente el puente haba entrado en resonancia
con el aire debido a un fenomeno aerodinamico y termino por derrumbarse a las 11:10am
(ver figura 12 derecha), afortunadamente sin ninguna vctima humana (solo murio el perrito
de un periodista que hasta u
ltima hora estuvo sobre el puente y logro escapar de milagro
pero olvido su perro en el interior de su coche atrapado en el medio del puente).
Ejemplo 4.7 Vibraciones electricas
Consideremos ahora el circuito electrico representado el la figura 13 donde R es una
resistencia, L una inductancia y C un capacitor conectados en seria a una fuente de corriente
U (t).
Denotemos por q(t) la carga que hay en
L
el capacitor en el momento de tiempo y por
0
i(t) = q (t) la corriente, o sea, la carga por
unidad de tiempo. Entonces, la Ley de Kirchov nos da la siguiente ecuacion que determina la carga q(t)
C
R
U(t)
siendo =
( 2 2 ) cos(t) + 2r sen(t)
u0 ,
( 2 2)2 + 4r 22
(4.22)
c1 e()t + c2 e(+)t ,
r>
(c1t + c2 )et ,
r=
qh (t) =
t
e [c1 cos(t) + c2 sen(t)] , r <
p
|r 2 2 |.
LINEAL DE ORDEN N
4 LA ECUACION
47
En el ejemplo anterior hemos estudiado el movimiento de un oscilador armonico y hemos descubierto que este se puede describir facilmente con
una EDO lineal de orden dos. Vamos a ver a
continuacion el caso de varios osciladores acoplados.
k
m
m
k
k
En la figura 14 vemos dos osciladores acoplados. Figura 14: Dos osciladores acoplados.
Obviamente si no existiera el resorte k3 que los une
cada uno oscilara seg
un la ley que hemos visto antes. Veamos que ocurre al incluir este
resorte. Llamemos x1 y x2 a los desplazamientos de la posicion de equilibrio de los carros m1
y m2 respectivamente, entonces la segunda Ley de Newton nos da
m1 x001 = k1 x1 + k3 (x2 x1) = (k1 + k3 )x1 + k3 x2 ,
m2 x002
(4.23)
x1 = 0.
(4.24)
+
x1 +
m1
m2
m1
m2
m1 m2
Por simplicidad escojamos m1 = m2 y k1 = f2 = k3 . Entonces (4.24) nos da
(4)
x1 + 4 2 x001 + 3 4 x1 = 0,
2 =
k
.
m
La ecuacion caracterstica es
4 + 4 2 2 + 3 4 = 0
= 3i, i,
= A1 cos( 3t 1 ) + A2 cos(t 2 ).
De la solucion podemos ver que en funcion de las condiciones iniciales puede ocurrir que A 1
o
A2 se anulen. En este caso el sistema tiene un movimiento oscilatorio con frecuencias
y 3, conocidas como frecuencias propias del sistema. Analogamente se puede obtener la
expresion para x2.
x2(t) = c1 (2 2 ) cos(t) + c3 (2
3 2 ) cos( 3t) +
2c2 sen(t)
2
2
c2 sen(t) + 2c4 sen( 3t) 3c4 sen( 3t)
Escojamos k = m = 1 de forma que = 1. Entonces
x2(t) = cos t.
LINEAL DE ORDEN N
4 LA ECUACION
48
,
+
+
+
x1(t) =
4
4
4
4 3
,
x2(t) =
4
4
4
4 3
es decir, es una combinacion de las frecuencias.
LINEAL DE ORDEN N
4 LA ECUACION
4.4.
49
Problemas
Problema 4.9
Encontrar la solucion general de las siguientes ecuaciones diferenciales y la solucion correspondiente a las condiciones iniciales indicadas:
1. y 00 y 0 6y = 0, y(2) = 0, y 0 (2) = 1.
2. y 00 + 12y 0 + 36y = 0, y(0) = y 0 (0) = 2.
3. y 00 4y 0 + 13y = 0, y(0) = 1, y 0 (0) = 0.
Problema 4.10
Resolver las EDOs
1. y 00 4x = 4x2 + 2x.
2. y 00 + y 0 + y = 1 + 2x + 3x3.
3. y 00 y = x2ex con y(0) = y 0 (0) = 0.
4. y 00 + 2y + 1 = xex sen(2x) con y(0) = 1, y 0 (0) = 0.
5. y 00 + 2y 0 = 1 + x2 + e2x .
6. y 00 + y 0 6y = sen x + xe2x .
Problema 4.11
El oscilador armonico simple y el pendulo simple se representan esquematicamente en la
grafica 18 a la izquierda y derecha respectivamente.
ky
h
mg
l 00 + g = 0,
LINEAL DE ORDEN N
4 LA ECUACION
50
Problema 4.13
Encuentra la EDO que gobierna un sistema de dos osciladores acoplados como el del ejemplo
4.8 incluyendo rozamiento. Haga el estudio analogo si sobre el primer carro act
ua una fuerza
externa del tipo F (t) = F0 cos(t).
En ambos casos resuelva la EDO correspondiente. Analice los casos: 1.) m1 = m2 y
k1 = k2 = k3 , 2.) m1 = m2 y k1 = k2 , k3 = 2k1 y 3.) m1 = 2m2 y k1 = k2 = k3 .
Problema 4.14
Encuentra la EDO que gobierna un sistema de tres osciladores como el que se muestra en la
figura 19 y resuelvela.
k1
m1
k4
m2
k2
m3
k
Figura 19: Tres osciladores acoplados.
51
5.
(5.1)
El objetivo es resolver la EDO anterior cuando las funciones p(x), q(x) y f (x) dependen de x.
Para ello vamos a suponer que dichas funciones son razonablemente buenas en un entorno
de cierto punto x0 de la recta real y buscaremos la solucion como una serie de potencias, es
decir en la forma
X
y(x) =
ak (x x0)k ,
ak R.
(5.2)
k=0
Las funciones que se pueden expresar mediante una serie de potencias convergentes en todo
un entorno de x = x0 como la anterior se denominan funciones analticas en x = x0. Por
sencillez supondremos x0 = 0, ya que en caso que x0 6= 0 siempre podemos realizar el cambio
de variable z = x x0 de forma que en la nueva variable z0 = 0.
La idea del metodo es sustituir la serie y(x) (5.2) en (5.1) e igualar los coeficientes de
las potencias. De esta forma obtenemos un sistema de ecuaciones para los coeficientes a n en
(5.2). Es importante que la serie converja en todo un entorno de x0, de esta forma tenemos
asegurada la existencia de la solucion al menos en cierta region. Antes de enunciar nuestros
primeros resultados veamos un ejemplo:
Ejemplo 5.1 Resolver la EDO y 00 2x0 2y = 0.
Buscamos la solucion y(x) =
k=0
X
X
X
d X
k1
k 0
k
y (x) =
(n + 1)an+1 xn ,
kak x
=
(ak x ) =
ak x =
dx k=0
n=0
k=0
k=0
X
X
X
d 0
d
00
k2
k1
y (x) =
(n + 1)(n + 2)an+2 xn
k(k 1)ak x
=
kak x
=
y (x) =
dx
dx k=0
n=0
k=0
0
lo que nos da
X
k=0
que equivale a
k(k 1)ak x
X
n=0
k1
X
k=0
kak x 2
ak xk = 0,
k=0
2
an ,
n+2
n 0.
52
2
2n
2
2
a2n+1 =
a2n3 = =
a2n1 =
a1 ,
2n + 1
2n + 1
2n 1
(2n + 1)(2n 1) 3 1
es decir 2n /(2n + 1)!! a1, donde (2n + 1)!! = 1 3 5 (2n + 1). De esta forma obtenemos dos
soluciones linealmente independientes (una tiene solo potencias pares y la otra solo impares)
y(x) = a0
X
2n x2n+1
+ a1
.
n!
(2n + 1)!!
n=0
X
x2n
n=0
X
k=0
de donde se deduce
a0 = 0,
k(k 1)ak xk +
(n 1)(n + 2)an = 0,
X
k=0
2kak xk
nN
2ak xk = 0
k=0
an = 0,
n N,
n 6= 1
es decir, solo podemos encontrar una solucion: y1(x) = x. Ello es facil de entender pues la
otra solucion de esta EDO es y2 (x) = 1/x2 que obviamente no esta definida en x = 0.
5.1.
El m
etodo de reducci
on de orden
Supongamos que conocemos una solucion y1(x) no nula de la EDO y 00 +p(x)y 0 +q(x)y = 0.
Busquemos la segunda solucion independiente y2 (x) en la forma y2(x) = v(x)y1(x). Sustituyendo y2 en la EDO y usando que y100 + p(x)y10 + q(x)y1 = 0 tenemos para v la EDO
y1v 00 + (2y10 + p(x)y1)v 0 = 0
de donde deducimos
u(x) = C
y1 u0 + (2y10 + p(x)y1)u,
p(x)dx
y12
v(x) = C
u = v0 ,
p(x)dx
y12
+ D.
Como y(x) = c1 y1 (x) + c2y2 (x) podemos escoger, sin perdida de generalidad C = 1 y D = 0.
Ejemplo 5.2 Encontrar la segunda soluci
on linealmente independiente de la ED y 00 +p0 /xy 0 +
(p0 1)2/(4x2)y = 0 si una soluci
on es y1 (x) = xp0/2+1/2.
Como y1 (x) = xp0/2+1/2 y p(x) = p0 /x, entonces
R
C
e p0/xdx
u(x) = v 0 (x) = C p0+1 = Cep0 log x xp01 =
x
x
v(x) = log x
53
5.2.
Definici
on 5.3 Dada la EDO (5.1), el punto x0 se denomina punto regular de (5.1) si
p(x), q(x) y f (x) son funciones analticas en x = x0, o sea, si p(x), q(x) y f (x) admiten
una representaci
on en serie de potencias en un entorno de x0 . En caso contrario se dice que
x0 es un punto singular.
Por ejemplo, el punto x0 = 0 es un punto regular de la EDO xy 00 + (sen x)y 0 + x3y = 0,
mientras que x0 = 0 es un punto singular de y 00 + x2y 0 + x2/3y = 0.
Teorema 5.4 Sea x0 un punto regular de la EDO y 00 + p(x)y 0 + q(x)y = f (x). Entonces:
1. Para f (x) = 0 (problema homogeneo) la EDO anterior tiene como soluciones linealmente independientes dos funciones analticas.
2. La soluci
on del problema de valores iniciales y(x0) = y0 , y 0 (x0) = y00 existe y es u
nica
y se expresa mediante una serie de potencias (es decir es una funci
on analtica).
Es posible, ademas, probar que el radio de convergencia de la solucion de la EDO (5.1)
es el menor de los radios de convergencia de p, q y f .
Esta claro que el punto x = 0 es singular para la EDO y 00 + x2y 0 + x2/3y = 0. Una opcion
es resolver entonces la ecuacion usando una serie en torno a otro punto, por ejemplo x = 1.
No obstante muchas veces es necesario ver lo que ocurre en el entorno del punto singular.
Ello no siempre es posible, aunque en algunos casos, si lo es.
Definici
on 5.5 Un punto x0 se denomina punto singular regular de la EDO (5.1), si las
funciones (x x0)p(x) y (x x0)2 q(x) son analticas en x = x0 .
Lo anterior equivale a que
(xx0)p(x) =
X
k=0
pk (xx0) = p0+p1 x+ ,
(xx0) q(x)
X
k=0
qk (xx0)k = q0 +q1 x+ .
luego, en general, an = 0 lo cual indica que la EDO anterior no tiene como solucion ninguna
serie de potencias. Es facil ver que la solucion se puede buscar en la forma y(x) = x r , para
x > 0. El caso x < 0 se deduce facilmente de este sin mas que hacer el cambio x = z,
54
.
2
2
Entonces se tienen los siguientes casos para x > 0
1. Caso (p0 1)2 4q0 > 0, r1 < r2 R (dos races reales y distintas)
y(x) = c1 xr1 + c2 xr2 ,
x > 0.
(5.5)
x > 0.
(5.6)
3. Caso (p0 1)2 4q0 < 0, r1, r2 C (dos races complejas). Sea r1 = a + bi, entonces
la solucion es
y(x) = c1 xa cos(b log x) + c2 xa sen(b log x),
x > 0.
(5.7)
Si queremos tener la solucion tambien para x < 0 basta sustituir en las expresiones el valor
de x por |x|.
Veamos que ocurre en el caso general. En este caso la l
ogica indica que quiza la solucion
6
tenga la forma
X
y(x) = xr
ak x k .
k=0
X
n=0
n1
X
k=0
c1 xr1
X
k=0
ak x +
c2 xr2
X
k=0
bk x k ,
x > 0.
(5.8)
55
2. Caso (p0 1)2 4q0 < 0, r1, r2 C,r2 r1 6 Z (dos races complejas que no difieran
en un entero). Sea r1 = a + bi, entonces la soluci
on es
a
ak x + c2 x sen(b log x)
k=0
bk x k ,
(5.9)
k=0
X
X
X
bk x k ,
y(x) = c1 xr1
x r1
ak x k + c 2
ak xk log x + xr1
k=0
x > 0.
x > 0. (5.10)
k=0
k=0
X
X
X
y(x) = c1 xr1
ak x k + c 2 A x r 1
x > 0,
ak xk log x + xr1+N
bk x k ,
k=0
k=0
k=0
(5.11)
5.3.
La ecuaci
on hipergeom
etrica de Gauss
(5.12)
p(x) =
,
q(x) =
,
x(1 x)
x(1 x)
luego
xp(x) = (1 + + )x + ,
x2q(x) = x + ,
X
X
y1 (x) =
an x n ,
y2 (x) = x1
bn x n .
n=0
n=0
por tanto,
an =
(n + 1)(n + 1)
an1 ,
n(n + 1)
n 1.
56
entonces obtenemos
an =
por tanto
y(x) = 2 F1
n 1,
(5.13)
()n ()n
,
()nn!
X
()k ()k xk
,
,
x
=
()k k!
(5.14)
k=0
(n + )(n + )
an1 ,
n(n + 1)
de donde tenemos
y2 (x) = x
2 F1
=
an =
( + 1)n( + 1)n
, n 1.
(2 )n n!
+ 1, + 1
2
x .
Noese que si Z entonces una de las soluciones deja de estar definida. En este caso
hay que buscar la solucion incluyendo el correspondiente termino logartmico.
5.4.
Problemas
Problema 5.8 Resuelve las EDOs siguientes usando series de potencias, si es posible, e
indica la regi
on de convergencia de las mismas
1. x2y 0 = y + x2 + 1,
2. xy 0 = 2y + xex,
3. y 00 + 2y 0 + y = x,
4. (x4 4)y 00 + 3xy 0 + y = 0.
Problema 5.9 Sea la EDO (1 + x)y 0 = py, y(0) = 1, p R.
P
n
1. Busca su soluci
on en serie de potencias
n=0 an x , y prueba que an = p(p 1)(p
2) (p n + 1)/n!.
2. Encuentra la regi
on de validez de la doluci
on anterior.
3. Comprueba que la funci
on y(x) = (1 + x)p es soluci
on de la misma.
Como consecuencia del teorema de existencia y unicidad, en la regi
on de convergencia de la
serie tendremos
p
(1 + x) =
X
p(p 1)(p 2) (p n + 1)
n=0
n!
xn ,
que no es m
as que el teorema del binomio encontrado por Newton.
p R,
57
a, b, c R
a, b, c R
se denomina ecuaci
on hipergeometrica de Gauss (aunque fue introducida por Euler en 1769).
Encuentra dos soluciones linealmente independientes de la misma. Usando un cambio apropiado de variables demuestra que las soluciones de las EDO de Chebyshev y Legendre se
pueden expresar en funci
on de las soluciones de la EDO hipergeometrica de Gauss.
Problema 5.15 Encuentra dos soluciones linealmente independientes de la EDO hipergeometrica confluente definida por
xy 00 + [c x]y 0 ay = 0,
a, c R.
6 LOS POLINOMIOS ORTOGONALES CLASICOS
6.
6.1.
58
Nuestro objetivo sera estudiar los polinomios ortogonales clasicos definidos sobre el eje
real los cuales vamos a definir como las soluciones polinomicas de la siguiente EDO
(x)y 00 + (x)y 0 + y = 0,
(6.1)
m = +
m1
X
(6.2)
i0(x)
= + m (x) +
m(m1) 00
(x)
2
i=0
0 0
[(x)m (x)ym
] + m m (x)ym = 0,
(6.3)
(6.4)
Anm Bn dnm
[n (x)],
m (x) dxnm
Anm = Am () |=n
Adem
as, el autovalor n de (6.1) es
(n)
Bn =
Pn
,
Ann
m1
Y
n!
[ 0 + 21 (n + k 1) 00 ].
=
(n m)! k=0
n = n 0
n(n 1) 00
.
2
(6.5)
(6.6)
(6.7)
6 LOS POLINOMIOS ORTOGONALES CLASICOS
Teorema 6.3 Supongamos que xk (x)(x)
x=a,b
59
ciones polin
omicas Pn de la ecuaci
on (6.1) constituyen una SPO respecto a la funci
on peso
0
definida por la ecuaci
on [(x)(x)] = (x)(x), o sea, se cumple que:
Z
b
a
Pn (x)Pm(x)(x)dx = nm d2n ,
(6.9)
Para calcular d2n , podemos utilizar la formula de Rodrigues que, sustituyendola en (6.9)
e integrando por partes, nos da:
Z b
2
n
n (x)(x)dx.
(6.10)
dn = Bn (1) n!an
a
an
,
an+1
n =
bn
bn+1
,
an an+1
n =
cn n cn+1
bn
an1 d2n
n =
,
an1
an1
an d2n1
(6.12)
n1
Y
Bn Ann
= Bn
[ 0 + 21 (n + k 1) 00 ],
n!
k=0
bn =
nn1 (0)
an .
0
n1
(6.13)
n 1.
(6.14)
6 LOS POLINOMIOS ORTOGONALES CLASICOS
60
n
X
Pm2 (x)
n 0
(x)Pn(x) Pn+1 (x)Pn0 (x)]
= 2 [Pn+1
2
d
d
m
n
m=0
n 1.
(6.15)
nBn
n1 Pn1 (x),
B
(6.16)
donde Pn1 denota al polinomio ortogonal respecto a la funcion peso 1 (x) = (x)(x).
3. Si escribimos la formula (6.5) para el polinomio de grado n + 1 obtenemos una formula
de diferenciacion
n
Bn
0
(x)Pn(x) =
Pn+1 (x) .
(6.17)
n (x)Pn(x)
nn0
Bn+1
de la cual se deduce una relacion de estructura
n Pn+1 (x) + n Pn (x) + n Pn1 (x),
(x)Pn0 (x) =
n 0,
(6.18)
donde
Bn
n
0
n n
,
n =
nn0
Bn+1
P0
n
n = 0 [n n0 + n (0)] ,
nn
n =
n n
.
n
(6.19)
(x)
6.2.
6.2.1.
Par
ametros Principales.
(6.20)
xn + bn xn1 + . Estos
se pueden clasificar en tres grandes familias en funcion del grado del
polinomio ( siempre es un polinomio de grado 1). Cuando es un polinomio de grado
cero los polinomios correspondientes se denominan Polinomios de Hermite H n(x), cuando
es de grado 1, Polinomios de Laguerre Ln (x) y cuando es de grado 2, Polinomios de Jacobi
Pn, (x), respectivamente. En las tablas 3 y 4 estan representados los principales parametros
de dichas familias, en las cuales (a)n denota al smbolo de Pochhammer (6.30).
6 LOS POLINOMIOS ORTOGONALES CLASICOS
61
Hn(x)
Ln (x)
Pn, (x)
(x)
1 x2
(x)
2x
2n
(x)
ex
x + + 1 ( + + 2)x +
n(n + + + 1)
x ex
(1 x) (1 + x)
> 1
n (x)
6.2.2.
ex
, > 1
xn+ ex
(1 x)n+ (1 + x)n+
Representaci
on hipergeom
etrica.
X
(a1)k (a2)k (ap)k xk
a1, a2 , ..., ap
x
=
F
.
(6.21)
p q
b1 , b2 , ..., bq
(b
1 )k (b2 )k (bq )k k!
k=0
De esta manera encontramos que:
1
m
m
H2m (x) = (1)
1 F1
1
2 m
2
2
m 2
x , H2m+1 (x) = (1)m 3
x 1 F1
3
x ,
2 m
2
(6.22)
n
(1)
(n
+
+
1)
n
x ,
(6.23)
Ln (x) =
1 F1
+1
( + 1)
2n ( + 1)n
n, n + + + 1 1 x
,
Pn (x) =
.
(6.24)
2 F1
2
+1
(n + + + 1)n
6.2.3.
Casos particulares.
Tn(x) = Pn
(x) =
1
2n1
Gn (x) = Pn
(x),
> 12 .
6 LOS POLINOMIOS ORTOGONALES CLASICOS
62
Hn (x)
L
n (x)
Pn, (x)
Bn
(1)n
2n
(1)n
(1)n
(n + + + 1)n
bn
n(n + )
n( )
2n + +
d2n
n!
2n
(n + + 1)n!
2n + + 1
2 2
(2n + + )(2n + 2 + + )
n
2
n(n + )
2( )n(n + + + 1)
(2n + + )(2n + 2 + + )
n(n + )
2n( )
(2n + + )(2n + 2 + + )
n
6.2.4.
Otras caractersticas.
Como consecuencia de las formulas anteriores podemos obtener los valores de los polinomios en los extremos del intervalo de ortogonalidad.
H2m (0) =
(1)m (2m)!
,
22m m!
H2m+1 = 0,
2n ( + 1)n
Pn, (1) =
,
(n + + + 1)n
Ln (0) =
(1)n(n + + 1)
,
( + 1)
(1)n 2n ( + 1)n
Pn, (1) =
.
(n + + + 1)n
(6.25)
n!
Hn (x),
(n )!
(Pn, (x))() =
(Ln (x))() =
n!
L+ (x),
(n )! n
n!
+,+
Pn
(x),
(n )!
(6.26)
(6.27)
6 LOS POLINOMIOS ORTOGONALES CLASICOS
63
Directamente a partir de las correspondientes EDOs se puede probar que los polinomios de
Hermite y Gegenbauer se relacionan con los de Hermite y Jacobi, respectivamente mediante
las siguientes relaciones:
1
2
H2m+1 (x) = xLm
(x2) ,
(x) =
1 21 , 12
(2x2 1),
Pm
2m
(6.28)
1
21 , 21
x
P
(2x2 1).
m
2m
Ademas, de la formula de Rodrigues se puede encontrar la siguiente propiedad de simetra
para los polinomios de Jacobi:
1 , 21
2
G2m+1 (x) = P2m+1
(x) =
(6.29)
Ap
endice: La funci
on Gamma de Euler
Una de las funciones que con mas frecuencia encontraremos es la funcion Gamma de
Euler o , definida, en general, mediante la integral de Euler
Z
et tz1 dt, <(z) > 0.
(z) =
0
Esta funcion fue definida por Euler en 1729 como lmite de un producto de donde se puede
deducir la integral anterior (considerada tambien por Euler en 1772) aunque su nombre
y notacion se deben a Legendre quien la estudio en detalle en 1814. En particular, Euler
probo que
z
z 1
1 2 (n 1)
1
1Y
1+
= lm
zn.
1+
(z) =
n z(z + 1) (z + n 1)
z n=1
n
n
Dicha funcion satisface las ecuaciones funcionales
(z + 1) = z(z),
(1 z)(z) =
,
sen z
12z
2
(2z).
(n + 1) = n! = n(n 1) (2)(1),
n N.
1
(ax + b) 2eax (ax)ax+b 2 , x >> 1,
a(x)
= 1. Otra funci
on muy relacionada con la
x b(x)
funcion es el smbolo de Pochhammer (a)k (5.13)
donde por a(x) b(x) entenderemos lm
(a + k)
.
(a)
Finalmente, definiremos los coeficientes binomiales
n
(1)k (n)k
n!
=
.
=
(n k)!k!
k!
k
(a)k =
(6.30)
6 LOS POLINOMIOS ORTOGONALES CLASICOS
6.3.
64
En este apartado vamos a considerar brevemente una forma de obtener una relacion para
los momentos.
Teorema 6.7 Sea C. Se definen los momentos como
Z b
C, (z) =
(s z) (s)ds.
(6.31)
Si se cumple la condici
on de frontera
b
(s) (s)(s z) = 0,
(6.32)
sp (s)ds.
a
(2m 1)!!
(2m)!
=
,
2m
22m m!
C2m+1 = 0.
6 LOS POLINOMIOS ORTOGONALES CLASICOS
6.4.
65
(x, t) =
An Pn (x)tn.
(6.35)
n=0
Obviamente la serie anterior puede no converger prefijado un valor cualquiera del parametro
t, por ello asumiremos que t es lo suficientemente peque
no para que la serie converja en una
region de las x lo suficientemente amplia.
Para los polinomios clasicos se tienen las siguientes identidades.
X
2n
n=0
n!
Hn (x)t = e
2xtt2
X
(1)n
n!
n=0
X
(1)n ( + + 1)n
n!
n=0
Pn, (x)tn =
p
con R = 1 + 4t(t + x).
tx
Ln (x)tn
e 1t
=
,
(1 t)+1
2+
,
R(1 2t + R) (1 + 2t + R)
(6.36)
(6.37)
Para probar las mismas usualmente se hace uso del teorema integral de Cauchy. No obstante daremos la prueba de las mismas usando metodos mas elementales.
Comenzaremos con los polinomios de Hermite al ser estos los mas sencillos. Daremos tres
pruebas distintas para mostrar los distintos trucos que se suelen usar.
Caso Hermite Hn (x): Primera prueba
2
Sea (x, t) = e2xtt . Al ser esta funcion analtica en R podemos usar la serie de Taylor
X
1 n
(x, t) =
tn .
n! tn
k=0
t=0
Pero
tn
n
luego
=e
t=0
x2
n (xt)2
e
tn
=
t=0
= xt
d = dx
2xtt2
X
2n
n=0
n!
n x2
(1) e
e
n
Hn(x)tn.
n 2
n
Hn1 (x) xHn(x) = 0.
2
=x
(1)n
=
Hn(x),
Bn
6 LOS POLINOMIOS ORTOGONALES CLASICOS
66
X
X
X 2n+1
2n1
2n
Hn+1 (x)tn+1 + 2t
Hn1 (x)tn1 2x
Hn(x)tn = 0.
t n=0 (n + 1)!
(n
1)!
n!
n=1
n=0
2n
n
n=0 n! Hn (x)t ,
obtenemos la ecuacion
X
2n
n=0
n!
gn (x)tn,
(6.38)
2
(x, t) = (2x 2t)e2xtt = 2(x t)(x, t).
t
De aqu deducimos que (x, 0) = 1 y t(x, 0) = 2x, por tanto, usando el desarrollo en serie
de Taylor en t para (x, t) y comparandolo con (6.38) deducimos que g0(x) = 1 y g1(x) = x.
Ahora sustituimos (6.38) en la ecuacion diferencial anterior lo que nos da
X
2n
n=0
n!
gn(x)nt
n1
2(x t)
X
2n
n=0
n!
gn(x)tn = 0,
o, equivalentemente,
X
n=1
X
X
2n
2n+1
2n
n1
n
gn(x)t
2x
gn(x)t +
gn(x)tn+1 = 0.
(n 1)!
n!
n!
n=0
n=0
6 LOS POLINOMIOS ORTOGONALES CLASICOS
67
2g1(x) 2xg0(x) = 0,
t1 :
tn :
Ahora bien, como g0(x) = 1 = H0(x) y g1(x) = x = H1(x), entonces comparando las relaciones anteriores con la relacion de recurrencia a tres terminos para los polinomios monicos
de Hermite obtenemos que gn (x) = Hn(x) que era lo que pretendamos probar.
6.5.
Problemas
C0 =
(1 x) (1 + x) dx =
.
( + + 2)
1
H
agase lo mismo pero para los momentos Cn0 := C0,n (1), es decir, si en vez de sustituir
en (6.33) z = 0 sustituimos el valor z = 1.
Un caso de especial relavancia son los polinomios de Gegenbauer que corresponden al caso
= = 1/2. Encontrar la relaci
on de recurrencia para los momentos Cn := C0,n (0) en
este caso y resuelvela. A partir de esta encuentra los momentos de los polinomios de Legendre
1 , 1
Pn(x) = Pn0,0(x), los polinomios de Chebyshev de primera especie Tn(x) = Pn 2 2 (x) y los
1 1
(6.41)
donde ()n es el smbolo de Pocchamer. Como casos particulares deducir la de los polinomios
de Chebychev de primera y segunda especie y la de los polinomios de Legendre.
6 LOS POLINOMIOS ORTOGONALES CLASICOS
68
(6.42)
+1,
Pn1
(x) =
(6.43)
Usando la f
ormula de Christoffel-Darboux (6.14), los valores en los extremos (6.25) y las
f
ormulas de diferenciaci
on (6.17), prueba las siguentes f
ormulas:
N
ucleos de los polinomios de Hermite:
0
1
(1)m1 H2m
(1)m1
(x)
2
2
(x
)
=
KerH
(x,
0)
=
L
,
m1
2m1
(m 1)!
2 (m 1)!
x
1
(1)m H2m (x)
(1)m
2
2
(x
)
=
,
L
KerH
(x,
0)
=
m
2m
(m)!
(m)! x
KerH
2m1 (0, 0) =
2 (m + 32 )
2 (m + 21 )
(2m 1)!
(2m + 1)!
H
,
Ker
(0,
0)
=
.
= 2m2
= 2m
2m
2
(m)
(m + 1)
2
(m 1)!
2
m!2
N
ucleos de los polinomios de Laguerre:
KerLn1 (x, 0) =
(1)n1
(Ln )0 (x),
( + 1)n!
KerLn1 (0, 0) =
( + 1)n
.
( + 2)(n 1)!
N
ucleos de los polinomios de Jacobi:
,+1
, d
1,
KerJ,,
(x) = nn, Pn1
(x),
n1 (x, 1) = n dx Pn
+1,
n+1 , d
(x),
n dx Pn,1 (x) = n(1)n+1 n, Pn1
KerJ,,
n1 (x, 1) = (1)
(1)n1 (2n + + )
,
2++n n!( + n)( + 1)
n,
(1)n1 (2n + + )
.
2++n n!( + 1)( + n)
( + n + 1)( + + n + 1)
,
2++1 (n 1)!( + 1)( + 2)( + n)
KerJ,,
n1 (1, 1) =
(1)n1 ( + + n + 1)
.
2++1 (n 1)!( + 1)( + 1)
Utilizando la relaci
on de simetra (6.29) para los polinomios de Jacobi prueba que
J,,
KerJ,,
n1 (1, 1) = Kern1 (1, 1).
(6.44)
(6.45)
7.
69
Vamos a resolver uno de los problemas pendientes mas importantes: la existencia y unicidad de soluciones para una EDO de primer orden. Sea el problema de valores iniciales
y 0 = f (x, y),
y(x0 ) = y0 .
(7.1)
(7.3)
x0
Definici
on 7.2 Diremos que una funci
on f (x, y) es de la clase de Lipschitz o lipschitziana
(en la variable y) en R si existe cierta constante positiva K > 0 tal que para todos (x, y) R
y (x, z) R se cumple
|f (x, y) f (x, z)| K|y z|.
(7.4)
(7.5)
70
Proposici
on 7.5 Sea y0(x) una funci
on continua definida en Id = {x : |x x0| < d =
mn(a, b/M )} tal que su imagen este contenida en R. Entonces, para todo n 0, las im
agenes
de yn (x) est
an contenidas en R.
Proposici
on 7.6 (Teorema de existencia local de soluciones)
Sea y0 (x) una funci
on continua definida en Id = {x : |x x0| < d = mn(a, b/M, 1/K)} tal
que su imagen este contenida en R, i.e., |y0 (x) y0 | b. Entonces, la sucesi
on de Picard
(7.6) converge cuando n tiende a infinito a una funci
on y(x) que es soluci
on del PVI (7.1)
en Id .
Corolario 7.7 (Teorema local de existencia y unicidad)
Sea el PVI (7.1) con f lipschitziana de constante K en R (7.2), y M = max(x,y)R |f (x, y)|.
Entonces, el PVI (7.1) tiene soluci
on u
nica en el intervalo Id = {x : |x x0 | < d =
mn(a, b/M, 1/K)}, es decir existe una u
nica funci
on y(x) tal que y 0 (x) = f (x, y(x)) e
y(x0 ) = y0 .
Los teoremas anteriores son solo condiciones suficientes. Por ejemplo si consideramos la
EDO lineal y 0 = y sabemos que su solucion existe y es u
nica en todo R (es la exponencial)
sin embargo si escogemos x R cualquiera y tomamos b > 0 cualquiera tenemos f (x, y) = y,
luego f es lipschitziana con constante K = 1, M = b, y el teorema anterior nos garantiza
solo la solucion en el intervalo Id = {x : |x x0| < d = mn(a, b/b, 1/1) = 1}.
Como u
ltimo ejemplo veamos el caso de la EDO y 0 = 1 + y 2 con y(0) = 0. En este caso
la solucion es y = tan x definida solo en [0, /2). Como f (x, y) = 1 + y 2 , entonces
|f (x, y) f (x, z)| = y 2 z 2 = |y + z||y z|.
Sea x R por ejemplo. Escojamos un valor cualquiera para y, digamos que |y| b > 0.
Entonces K = 2b y M = 1 + b2 , por tanto d = mn(a, b/M, 1/K) = mn(a, b/(1 + b2 ), 1/b).
Ahora bien, max b/(1 + b2) = 1/2 y se alcanza en b = 1, por lo que como mucho asegurar
que la solucion existe en el intervalo |x| < 1/2. Notese que en este caso el teorema es u
til
pues para x > 1/2 no nos garantiza la existencia de la solucion como ocurre en la practica.
El procedimiento anterior es facilmente extensible a sistemas. Para ello basta definir una
norma enP
RN y el valor absoluto de un vector. Para este u
ltimo podemos usar la definicion
|y
|.
Si
ahora
usamos,
por
ejemplo,
la
norma
|Y (x)| = N
k=1 k
kY k =
N
X
k=1
kyk k,
entonces las demostraciones anteriores se adaptan perfectamente para el caso general. Notese
que con esta eleccion se tiene que si |Y (x)| M entonces kY k N M . Las correspondientes
demostraciones se dejan como ejercicio.
7.1.
Problemas
71
72
8 LA TRANSFORMADA DE LAPLACE
8.
La transformada de Laplace
Definici
on 8.1 Sea f una funci
on definida en [0, ). La transformada de Laplace [f ] o
F(t) es la transformada integral
Z
F(t) = [f ](t) =
etx f (x)dx,
(8.1)
0
Definici
on 8.2 Diremos que una funci
on f es de orden exponencial si existen dos constantes
no negativas c y M tales que |f (x)| M ecx para todo x 0.
Teorema 8.3 Si f es una funci
on continua a trozos de orden exponencial entonces f tiene
transformada de Laplace para todo t suficientemente grande.
En la siguiente tabla incluimos algunas de las transformadas de Laplace mas comunes incluida
la de la funcion escalon c (s) definida como 1 si x [0, c] y 0 en el resto.
f (x)
F(t) = [f ](t)
c
t
n!
c
xn
eax
sen(ax)
cos(ax)
senh(ax)
cosh(ax)
x1/2
c (x)
tn+1
1
, t>a
ta
a
t2 + a 2
t
2
t + a2
a
, t>a
t2 a 2
t
, t>a
t2 a 2
r
, t>0
t
ect
, t>0
t
Pn1
k=0
tk f (nk1) (0)
73
8 LA TRANSFORMADA DE LAPLACE
3. [xf (x)](t) = F 0(t) y en general,
8.1.
Problemas
(t2
1
+ 2 )2
Problema 8.7 Usando los resultados del problema anterior encuentra, usando la transformada de Laplace la soluci
on de la EDO
y 00 + 2 y = f0 sen(x),
y(0) = y 0 (0) = 0.
X
(1)n (2n)! 1
.
2n (n!)2 t2n+1
2
n=0
8 LA TRANSFORMADA DE LAPLACE
74
Problema 8.10 Usar la transformada de Laplace para resolver los siguientes PVI de SEDO:
0
1 3
0
,
Y,
Y (0) =
Y =
5
2 2
2
1
1 4
x
0
,
e ,
Y (0) =
Y +
Y =
1
1
1 1
0
1 (x)
3 2
0
.
,
Y (0) =
Y +
Y =
0
0
2 2
A ANEXO: CALCULO
DE PRIMITIVAS
A.
75
Anexo: C
alculo de primitivas
Definici
on A.1 Se dice que una funci
on F (x) es una primitiva de otra funci
on f (x) sobre un
intervalo (a, b) si para todo x de (a, b) se tiene que F 0 (x) = f (x).
Por ejemplo, la funci
on F (x) = x2 es una primitiva de f (x) = 2x en todo R pues (x2 )0 = 2x.
El siguiente teorema es una consecuencia trivial del teorema del valor medio de Lagrange.
Teorema A.2 Sean F1 (x) y F2 (x) dos primitivas de la funci
on f (x) en (a, b). Entonces, para todo
x de (a, b), F1 (x) F2 (x) = const. Es decir dada una funci
on f (x) sus primitivas difieren en una
constante (en adelante denotaremos por C a una constante cualquiera).
Definici
on A.3 El conjunto de todas las primitivas Zde una funci
on f (x) definida en (a, b) se
denomina integral indefinida de f (x) y se denota por
f (x) dx. De manera que, si F (x) es una
primitiva de f (x),
f (x) dx = F (x) + C
[f (x) g(x)] dx =
[A f (x)] dx = A
f (x) dx
g(x) dx
f (x) dx
1 dx = x + C
x dx =
x+1
+ C,
+1
R,
6= 1
1
dx = log |x| + C
x
ax dx =
ax
+ C,
log a
sen x dx = cos x + C
cos x dx = sen x + C
1
dx = tan x + C
cos2 x
a > 0, a 6= 1
(A.1)
A ANEXO: CALCULO
DE PRIMITIVAS
9.
10.
11.
12.
13.
14.
15.
16.
17.
76
1
dx = cotan x + C
sen2 x
1
arc sen x + C
dx =
arc cos x + C
1 x2
1
arctan x + C
dx
=
arcctg x + C
1 + x2
p
1
dx = log x + x2 1 + C
2
x 1
x + 1
1
1
+C
dx = log
1 x2
2
x 1
sinh x dx = cosh x + C
cosh x dx = sinh x + C
1
dx = tanh x + C
cosh2 x
1
dx = coth x + C
sinh2 x
A.1.
M
etodos de integraci
on.
A.1.1.
Integraci
on por cambio de variable.
Demostraci
on: Basta notar que (G[(x)])0 = G0 [(x)]0 (x) = g[(x)]0 (x).
Ejemplo A.7
Z
a) Calcular
cos(2x) dx. Como la integral no es de la tabla es necesario convertirla en una de la
tabla. Para ello hacemos:
Z
Z
1
1
dy
y = 2x
= sen y + C = sen(2x) + C
cos(2x) dx =
= cos(y)
dy = 2 dx
2
2
2
Z
b) Calcular
ecos x sen x dx. Como la integral no es de la tabla es necesario convertirla en una de
la tabla:
cos x
sen x dx =
t = cos x
dt = sen dx
ey dy = ey + C = ecos x + C
A ANEXO: CALCULO
DE PRIMITIVAS
A.1.2.
77
Integraci
on por partes.
Supongamos que las funciones u(x) y v(x) son derivables en un intervalo (a, b) y existe la
primitiva de la funci
on v(x)u0 (x) en (a, b). Entonces, sobre (a, b) existe la primitiva de u(x)v 0 (x) y
se cumple que
Z
Z
0
u(x)v (x) dx = u(x)v(x) v(x)u0 (x) dx,
(A.2)
o en forma diferencial
u(x)dv(x) = u(x)v(x)
v(x)du(x).
(A.3)
Demostraci
on: Para probarlo es suficiente notar que [u(x)v(x)] 0 = u0 (x)v(x) + u(x)v 0 (x) y la
propiedad 1 del teorema A.4.
Ejemplo A.8
Z
a) Calcular
xn log x dx. Como la integral no es de la tabla es necesario convertirla en una de la
tabla. Utilicemos la integraci
on por partes:
(
)
Z
Z
1
u(x)
=
log
x,
du(x)
=
dx
xn
xn+1
n
x
x log x dx =
log
x
dx =
=
n+1
dv(x) = xn dx, v(x) = xn+1
n+1
n+1
xn+1
=
n+1
b) Calcular I =
1
log x
n+1
+C
=
dv(x) = cos bx dx, v(x) = 1b sen bx
b
b
Z
La integral
eax sen bx dx es de la misma forma que la original as que volveremos a aplicar
integraci
on por partes:
Z
Z
eax cos bx a
u(x) = eax ,
du(x) = aeax dx
ax
=
eax cos bx dx.
+
e sen bx dx =
dv(x) = sen bx dx, u(x) = 1b cos bx
b
b
Juntando las dos f
ormulas anteriores concluimos que
eax sen bx
a
a2
+ 2 eax cos bx 2 I,
b
b
b
de donde, resolviendo la ecuaci
on respecto a I obtenemos:
Z
b sen bx + a cos bx ax
e + C.
I = eax cos bx dx =
a2 + b 2
Algunas de las integrales que pueden ser calculadas utilizando la integraci
on por partes son:
I=
1.
2.
3.
Las integrales donde aparezcan las funciones log x, arc sen x, arc cos x, log (x), potencias
enteras de las funciones anteriores, entre otras donde tendremos que escoger como funci
on
u(x) a alguna de las funciones anteriores (ver ejemplo a).
Z
Z
Z
n
n
Las integrales (ax + b) sen cx dx, (ax + b) cos cx dx y (ax + b)n ecx dx. Donde para
encontrar las primitivas hay que utilizar la f
ormula de integraci
on por partes n veces tomando
cada vez u(x) = (ax + b)n , u(x) = (ax + b)n1 , ...., respectivamente.
Z
Z
Z
Z
Las integrales de la forma eax sen bx dx, eax cos bx dx, sen(log x) dx y cos(log x) dx.
Para encontrar las primitivas hay que denotar por I a cualquiera de las integrales anteriores,
aplicar dos veces integraci
on por partes y resolver la ecuaci
on resultante respecto a I (ver
ejemplo b).
A ANEXO: CALCULO
DE PRIMITIVAS
A.2.
78
Integraci
on de funciones racionales.
Pn (x)
es simple si el grado del poliQm (x)
nomio Pn (x) es menor que el del polinomio Qm (x), o sea, si n < m.
Definici
on A.9 Diremos que una funci
on racional f (x) =
Si n > m entonces podemos dividir los polinomios Pn (x) y Qm (x) de tal forma que
Pn (x)
Rk (x)
= pnm (x) +
,
Qm (x)
Qm (x)
donde
k < m.
Pn (x)
es una fracci
on simple, y que el polinomio denominador
Qm (x)
se puede factorizar de la siguiente forma
(A.4)
donde x1 , ..., xp son las races reales de Qm (x), y los factores x2 + pi x + qi , i = 1, .., k no tienen
Pn (x)
races reales. Entonces, la fracci
on simple
se puede descomponer en las siguientes fracciones
Qm (x)
elementales simples:
Pn (x)
=
Qm (x)
A n1
An1 1
A1
+
+ +
+ +
(x x1 )n1
(x x1 )n1 1
(x x1 )
+
Bn p
Bnp 1
B1
+
+
+
+ +
n
n
1
(x xp ) p
(x xp ) p
(x xp )
(A.5)
M1 x + N 1
Mm x + N m1
+ + 2
+ +
+ 2 1
m
1
(x + p1 x + q1 )
(x + p1 x + q1 )
+
L1 x + K 1
L mk x + K mk
,
+ + 2
m
k
+ pk x + q k )
(x + pk x + qk )
(x2
xxi
Pn (x)(x xi )ni
= A ni .
Qm (x)
(A.6)
Como consecuencia de lo anterior, si Qm (x) tiene m ceros reales y simples, o sea, si su factorizaci
on
es de la forma
Qn (x) = (x x1 )(x x2 ) (x xm1 )(x xm ),
(A.7)
entonces,
Pn (x)
se puede descomponer en las fracciones elementales simples:
Qm (x)
Pn (x)
A1
A2
Am1
Am
=
+
+ +
+
,
Qm (x)
(x x1 ) (x x2 )
(x xm1 ) (x xm )
(A.8)
A ANEXO: CALCULO
DE PRIMITIVAS
79
xxk
Pn (x)(x xk )
,
Qm (x)
k = 1, 2, ..., m.
(A.9)
(A.10)
Ejemplo A.12
Z
x
dx. Primero encontraremos las fracciones simples mas elementales:
a) Calcular
2
x 3x + 2
x2
x
x
A
B
=
=
+
.
3x + 2
(x 1)(x 2)
x1 x2
x1
x(x 1)
= 1,
(x 1)(x 2)
B = lm
x2
x(x 2)
= 2.
(x 1)(x 2)
=
=
A
B
Cx + D
+
+ 2
(x 1)2 x 1
x +1
:
B+C =0
: A B 2C + D = 0
:
B + C 2D = 1
:
AB +D = 0
cuya soluci
on es
A = 21
B=0
C=0
D = 12
Tambien es posible utilizar otra propiedad de los polinomios: dos polinomios de grado n que toman
n 1 valores iguales en n + 1 puntos dados son identicamente iguales, es decir, si P n (xk ) = Qn (xk )
para ciertos x1 , ..., xn+1 (distintos entre si), entonces Pn (x) Qn (x) para todo x R. En nuestro
7
A ANEXO: CALCULO
DE PRIMITIVAS
80
ejemplo es conveniente tomar como los xk los ceros de los polinomios denominadores y luego el
resto de los valores tomarlos los m
as sencillos posibles:
x=1:
A = 21
x = 1 : 2A 4B 4C + 4D = 1
x=2:
5A + 5B + 2C + D = 2
x=0:
AB +D = 0
cuya soluci
on es
A = 12
B=0
C=0
D = 21
arctan x + C.
(x 1)2 (x2 + 1)
2
(x 1)2 x2 + 1
2(x 1) 2
A.3.
Integrales trigonom
etricas.
f (sen x, cos x) dx =
t = tan x2
sen x =
2t
1 + t2
2dt
1 + t2
1 t2
cos x =
1 + t2
dx =
2t 1 t2
,
1 + t2 1 + t2
2
dt,
1 + t2
Ejemplo A.13
Calcular la integral
Z
dx
=
sen x
dx
.
sen x
t = tan x2
2t
sen x = 1+t
2
2dt
dx = 1+t
2
2
cos x = 1t
1+t2
x
dt
= log |t| + C = log tan + C.
t
2
Existen varios tipos de integrales trigonometricas que se pueden racionalizar con cambios m
as
sencillos. Ellas son las siguientes:
Z
1.
f (sen x, cos x) dx, donde f ( sen x, cos x) = f (sen x, cos x), cambio t = cos x
2.
3.
f (sen x, cos x) dx, donde f (sen x, cos x) = f (sen x, cos x), cambio t = sen x
f (sen x, cos x) dx, donde f ( sen x, cos x) = f (sen x, cos x), cambio t = tan x
Ejemplo A.14
Z
dx
. Esta integral es del tipo 1. Luego,
sen x
(
)
Z
Z
dt
1 + t
t = cos x
dx = 1t
1
dt
dx
2
+C = log tan x +C.
=
=
log
=
1 t
sen x
1 t2
2
2
sen x = 1 t2 cos x = t
a) Calcular la integral
x
2
A ANEXO: CALCULO
DE PRIMITIVAS
b) Calcular la integral
Z
cos x dx =
dt
t = sen x
dx = 1t
2
cos x = 1 t2 sen x = t
c) Calcular la integral
(
81
sen3 x
1
+C.
1 t2 dt = t t3 +C = sen x
3
3
Z
t
t
dt =
1 + t2
tan x dx =
t2 1
tan2 x 1
tan2 x
log(1 + t2 ) + C =
log(1 + tan2 x) + C =
+ log | cos x| + C.
2
2
2
2
2
A.4.
t = tan x
1
cos x = 1+t
2
dt
dx = 1+t
2
t
sen x = 1+t
2
t3
dt =
1 + t2
Integrales irracionales.
A.4.1.
Las integrales
R
f (x, x2 a2 ) dx, f (x, a2 x2 ) dx
f (x, x2 a2) dx y
f (x, a2 x2) dx.
f (x,
f (x,
p
x2 a2 ) dx, cambio x =
a
sen t
Ejemplo A.15
Z p
a2 x2 dx. Esta integral es del tipo 1. Luego,
a) Calcular la integral
Z p
a2
x2 dx
x = a sen t
dx = a cos tdt
=a
2x
a2
cos2 tdt =
a2
a2
t+
sen 2t + C,
2
4
a2 x2 , por tanto
Z p
a2
x xp 2
a2 x2 dx =
a x2 + C.
arc sen +
2
a 2
Z p
b) Calcular la integral
x2 a2 dx. Esta integral es del tipo 2. Luego,
)
(
a
Z
Z p
x=
y = cos t
dt = dy 2
cos2 t
2
sen
t
2
2
1y
= a
x a dx =
dt =
p
dx = a cos t dt
sen3 t
1 y 2 cos t = y
sen
t
=
sen2 t
Z
Z
y1
a2
1
1
1
a2
1
2y
y2
2
+ C,
dt =
+log
dt =
=a
(1y 2 )2
4
(1y)2 (1y) (1+y)2 (1+y)
4 1y 2
y+1
A ANEXO: CALCULO
DE PRIMITIVAS
pero, y = cos t =
1 sen2 t =
82
x2 a2
,
x
por tanto
Z p
x x 2 a 2
2
p
p
xp 2
x
a
a2
+C =
x2 a2 dx =
x2 a2 log
x a2 log x + x2 a2 +C.
2
2
x + x a
2
4
2
2
Z p
x2 + a2 dx. Esta integral es del tipo 3. Luego,
c) Calcular la integral
(
)
(
)
Z p
Z
x = a tan t
dy
y
=
sen
t
dt
=
1
2
1y
dt =
= a2
x2 + a2 dx =
dt
p
3t
2 sen t = y
cos
dx =
cos
t
=
1
y
cos2 t
Z
Z
y + 1
2y
a2
a2
1
1
1
1
1
2
+ C,
dt =
dt =
+
+
+
+ log
=a
(1 y 2 )2
4
(1y)2 (1y) (1+y)2 (1+y)
4 1y 2
y 1
pero, y = sen t =
tan t
1+tan2 t
x
,
x2 +a2
por tanto
Z p
x + x 2 + a 2
2
p
p
x
a
a2
xp 2
2
2
2
x2 + a2 dx =
x2 + a2 + log
x
+
a
+
x
+
a
+C
=
x
+
log
+C.
x x 2 + a2
2
4
2
2
A.4.2.
Las integrales
x,
r
n
ax + b
cx + d
r
n
x,
ax+b
cx+d .
dx.
ax + b
cx + d
dx,
dx
Z
Z
Z
Z 2
dx
3
dt
t dt
t= 3x+1
= 3 (t1)dt+3
= t(t2)+3 log(1+t)+C,
=3
=
2 dt
3
dx
=
3t
1+t
t+1
2
1+ x+1
Calcular la integral
3
3
x + 1( 3 x + 1 2) + 3 log(1 + 3 x + 1) + C.
2
El c
alculo de primitivas es necesario para calcular integrales definidas de funciones continuas.
Teorema A.17 Teorema fundamental del c
alculo y F
ormula de Newton-Leibniz. Sea f : [a, b] 7 R
continua en [a, b]. Entonces f tiene primitiva en [a, b] y una de ellas es la funci
on
Z x
F (x) =
f (t) dt,
c (a, b).
(A.11)
c
Adem
as, f (x) es integrable en [a, b] y
Z
b
a
b
f (x) dx = (x) = (b) (a),
(A.12)
B ANEXO: ALGEBRA
LINEAL
B.
B.1.
83
Anexo: Algebra
lineal
Sistemas lineales y matrices.
(B.2)
..
..
..
.. ,
..
..
.
.
.
.
.
.
an1 an2 an3 anm bn
a11 a12
a21 a22
..
..
.
.
an1 an2
la matriz
a13 a1m
a23 a2m
..
..
..
.
.
.
an3 anm
(B.3)
Un sistema lineal de la forma (B.1) es compatible si existen los valores de x 1 , x2 , ..., xm tales que
se cumplan todas y cada una de las ecuaciones del sistema (B.1). Si existen dichos valores diremos
que el sistema tiene soluci
on. Si un sistema lineal de la forma (B.1) no tiene soluci
on decimos que es
un sistema incompatible. Un sistema compatible que tiene una u
nica soluci
on se llama determinado
y si tiene infinitas soluciones indeterminado.
Dos sistemas de ecuaciones se denominan equivalentes si tienen el mismo conjunto de soluciones.
Un sistema de ecuaciones lineales se puede transformar en otro sistema equivalente mediante
las siguientes operaciones elementales:
1.
2.
3.
Dada la equivalencia de los sistemas lineales con sus matrices asociadas (las matrices ampliadas)
las operaciones anteriores tienen su an
alogo al operar con las matrices. De forma que a cada una
le corresponden las siguientes operaciones por filas
1.
2.
B ANEXO: ALGEBRA
LINEAL
3.
84
B.2.
En adelante diremos que una fila es una fila no nula si tiene al menos un elemento diferente
de cero. Definiremos elemento gua de una fila al primer elemento (por la izquierda) no nulo de la fila.
Diremos que una matriz est
a en forma escalonada si:
1.
2.
El elemento gua de cada fila se encuentra siempre en una columna a la derecha del elemento
gua de la fila anterior.
3.
0 0 0
0 0 0
0 0 0
tpicamente la forma:
0
,
0 0
0 0 0 0
0
0
0
0
0
0
0
0
0
(B.4)
denota a los elementos guas de cada fila. Si exigimos ahora que los elementos guas
donde
sean todos iguales a 1, y que adem
as sean los u
nicos elementos diferentes de cero de la columna
entonces diremos que la matriz escalonada est
a en forma reducida. Utilizando las formas escalonadas
anteriores (B.4) tenemos que sus correspondientes formas reducidas son:
1 0 0 0 0
1 0 0 0
0 1 0 0 0
0 1 0 0
0 0 0 0 1 0 , 0 0 1 0 0 .
(B.5)
0 0 0 1 0
0 0 0 0 0 1
0 0 0 0 1
0 0 0 0 0 0 0
Cualquier matriz puede ser transformada mediante transformaciones elementales de fila en una
matriz con forma escalonada no teniendo siempre esta u
ltima una forma u
nica. Por el contrario las
formas escalonadas reducidas son u
nicas, es decir se cumple el siguiente teorema:
Teorema B.1 Cualquier matriz es equivalente por filas a una u
nica matriz con forma escalonada
reducida.
Una consecuencia del teorema anterior es que los elementos guas est
an siempre en la misma
posici
on en cualquiera de las formas escalonadas obtenidas de una matriz dada mediante transformaciones elementales de fila. Dichas posiciones se denominan pivotes y las columnas donde se
B ANEXO: ALGEBRA
LINEAL
85
0 0 0 0
0 0 0 0 0
0 0 0 0 0 0
columnas pivote
(B.6)
Algoritmo de reducci
on por filas.
El algoritmo de reducci
on por filas consta de dos fases (partes). La primera consiste en transformar una matriz cualquiera en una equivalente por filas con forma escalonada. Esta fase se le
denomina fase hacia abajo o subproceso hacia abajo. La segunda parte consiste en transformar la
forma escalonada en la forma reducida. A la segunda parte se le denomina fase hacia arriba o
subproceso hacia arriba.
Para obtener la matriz en forma escalonada realizamos lo siguiente:
Subproceso hacia abajo. Este proceso consta de cuatro pasos:
1.
2.
3.
Utilizando las operaciones elementales de filas crear ceros debajo del pivote.
4.
Para obtener la matriz en forma escalonada reducida a partir de la forma reducida obtenida mediante los pasos 1-4 debemos realizar lo siguiente:
Subproceso hacia arriba. Este proceso consta del siguiente paso:
5. Comenzando por el primer pivote de la derecha creamos, mediante operaciones elementales
de filas, ceros encima del mismo. Si el pivote no es uno dividimos por su valor para que lo sea.
Continuamos el proceso hacia la izquierda hasta terminar con el primer pivote de la izquierda.
B.3.
Soluci
on de un sistema de ecuaciones lineales.
La soluci
on de un sistema de ecuaciones lineales la podemos encontrar a partir de la matriz
asociada al sistema. Para ello primero transformamos la matriz en una equivalente por filas que
tenga forma escalonada o escalonada reducida. Las variables correspondientes a las columnas pivote
se denominan variables principales o b
asicas. El resto de las variables se denominan variables libres.
El significado de una variable libre es que dicha variable puede tomar cualquier valor. La soluci
on
de un sistema viene dada al escribir el valor de las variables principales, las cuales pueden venir
expresadas en funci
on de las variables libres.
B ANEXO: ALGEBRA
LINEAL
86
Por ejemplo, consideremos la matriz del sistema (B.6). Dicha matriz representa un sistema de
5 ecuaciones con 6 inc
ognitas. Las variables principales ser
an x 1 , x2 , x5 , x6 y las libres x3 , x4 . De
la forma de la matriz observamos que x5 , x6 est
an completamente determinados por los terminos
independientes (recordar que la u
ltima columna est
a compuesta por los terminos independientes
de las ecuaciones) pero x1 , x2 dependen tanto de los terminos independiente como de las variables
libres x3 , x4 . Es decir fijando diferentes valores de x3 , x4 obtenemos diferentes valores de x1 , x2 . Por
ejemplo, el sistema (x1 depende de la variable libre x3 )
1 0 5 1
x1 = 1 + 5x3
0 1 0 4 tiene la soluci
on
x2 = 4
(B.7)
x3 es libre
0 0 0 0
De todo lo anterior deducimos el siguiente teorema de existencia y unicidad:
0 0 0 0
(B.8)
,
0 0 0 0 0 0
0 0 0 0 0 0 0
es incompatible al ser la u
ltima columna una columna pivote, o lo que es igual, al tener la fila
(0 0 0 0 ) (recordar que denotaba al elemento gua que por definici
on es diferente de cero).
B.4.
B.4.1.
Vectores de Rn
Un vector de Rn no es m
as que un conjunto de n n
umeros ordenados de la forma
x1
x2
x = . ,
donde x1 , ..., xn son n
umeros reales.
..
xn
x1
x2
x=y
..
.
xn
y1
y2
..
.
yn
x1 = y1 , ..., xn = yn .
Llamaremos vector nulo 0 al vector cuyas componentes son todas iguales a cero.
B ANEXO: ALGEBRA
LINEAL
B.4.2.
87
Sean x, y, z, w vectores de Rn y , n
umeros reales. Definiremos la suma de dos vectores
x e y al vector z de Rn cuyas coordenadas son la suma de las coordenadas de x e y, o sea,
x1 + y1
y1
x1
z1
z2 x 2 y 2 x 2 + y 2
z = x+y
=
,
.. = .. + .. =
..
. . .
.
xn
zn
yn
xn + yn
y definiremos la multiplicaci
on de un vector x por un escalar (n
umero) al vector w cuyas componentes se obtienen al multiplicar las componentes de x por , o sea,
w1
x1
w2 x2
w = x
=
.. = .. .
. .
wn
xn
x+y = y+x
2.
(x + y) + z = x + (y + z)
3.
x+0 = 0+x = x
4.
5.
(x + y) = x + y
6.
( + )x = x + x
7.
(x) = ()x
8.
1x = x
B ANEXO: ALGEBRA
LINEAL
B.4.3.
88
La ecuaci
on Ax = b.
x1
x2
z = Ax = [a1 a2 an ] . = x1 a1 + x2 a2 + + xn an .
..
xn
Teorema B.3 Sea A una matriz mn con columnas a1 , a2 , ..., an y b un vector de Rm . La ecuaci
on
matricial
Ax = b
..
..
..
.. .. =
..
.
.
.
.
.
.
. .
.
am1 am2 am3 amn
xn
am1 x1 + am2 x2 + + amn xn
2) A( x) = (A x)
B ANEXO: ALGEBRA
LINEAL
B.4.4.
89
Conjunto soluci
on de los sistemas lineales.
1.
1
x1
x 21 x3
2
2 2
2
, entonces x2 = x2 1 +x3 0
x2
x3
x3
0
1
| {z }
| {z }
s1
2.
s2
(B.9)
donde xh es la soluci
on general del sistema homogeneo correspondiente A x h = 0.
B.4.5.
B ANEXO: ALGEBRA
LINEAL
90
Algebra
de matrices.
B.5.
Vamos a estudiar las operaciones elementales de las matrices. El elemento a ij de una matriz
A es el que se encuentra situado en la intercepci
on de la fila i con la columna j:
a11
a21
..
.
a12
a22
..
.
fila i
ai1 ai2
.
..
..
.
am1 am2
B.5.1.
columna j
a1j a1n
a2j a2n
..
..
..
..
.
.
.
.
aij ain
..
..
..
..
.
.
.
.
amj amn
(B.10)
A + B = B + A.
2.
(A + B) + C = A + (B + C).
3.
4.
(A + B) = A + B.
5.
( + )A = A + A.
6.
( A) = ( ) A.
B ANEXO: ALGEBRA
LINEAL
B.5.2.
91
Multiplicaci
on de matrices.
n
X
(B.11)
aik bkj .
k=1
N
otese que cada columna de A B es una combinaci
on lineal de las columnas de A:
A B = [Ab1 Ab2 Abp ] = [
n
X
k=1
bk1 ak
n
X
k=1
bk2 ak
n
X
bkp ak ].
k=1
Una interpretaci
on de la multiplicaci
on de matrices se puede dar a partir de la composici
on de las
n
m
aplicaciones lineales: Sea T : R R una aplicaci
on lineal con matriz A de mn y S : Rp Rn
una aplicaci
on lineal con matriz B de n p, entonces a la aplicaci
on Q : R p Rm definida por
Q(x) = T (S(x)) (composici
on de T y S) le corresponde la matriz A B de m p.
Teorema B.11 Sean A de m n, B y C matrices de dimensiones apropiadas para que esten
definidas las operaciones y , n
umeros reales. Entonces:
1.
(A B) C = A (B C).
2.
3.
A (B + C) = A B + A C.
4.
(B + C) A = B A + C A.
5.
(A B) = ( A) B.
6.
B.5.3.
Ak = A
| A{z A} In ,
k veces
donde A0 In .
Transposici
on de matrices.
(AT )T = A.
2.
(A + B)T = AT + B T .
3.
( A)T = AT .
4.
(A B)T = B T AT .
B ANEXO: ALGEBRA
LINEAL
B.5.4.
92
C A = In ,
entonces a C se le denomina matriz inversa de A y se le denota A 1 . Las matrices A para las cuales
existe la inversa A1 se denominan invertibles. Si A es invertible entonces A1 es u
nica.
Teorema B.13 Sea A una matriz cuadrada de 2 2 invertible
1
a b
d b
1
,
entonces
A =
A=
.
c d
ad bc c a
El n
umero ad bc se llama determinante de la matriz A de 2 2 y se le denota por det A. N
otese
que una matriz A de 2 2 tiene inversa si y s
olo si det A 6= 0.
Teorema B.14 Sea A una matriz cuadrada de n n invertible. Entonces el sistema A x = b es
compatible determinado para cualquiera sea b vector de R n , y su soluci
on se expresa por la f
ormula
1
x = A b.
Teorema B.15 Sean A y B matrices cuadradas de n n invertibles. Entonces:
1.
(A1 )1 = A.
2.
(A B)1 = B 1 A1 .
3.
B.5.5.
Matrices elementales.
0 1 0
1 0 0 ,
E1 =
0 0 1
la que corresponde a cambiar la 3 fila por la 3 m
as
1 0
0 1
E2 =
0
0
0 ,
1
1 0 0
E3 = 0 0 .
0 0 1
B ANEXO: ALGEBRA
LINEAL
93
An
alogamente, E2 A coincide con la matriz que se obtiene de A al cambiar la 3 fila por la 3 m
as
veces la 1 fila y E3 A coincide con la matriz que se obtiene al multiplicar por la 2 fila. Es decir al
multiplicar una matriz elemental E de m m por A de m n se obtiene una nueva matriz E A que
coincide con la matriz que se se obtiene al realizar la operaci
on elemental sobre A y dicha matriz
E se obtiene realizando sobre la matriz identidad Im de m m la misma operaci
on elemental que
se quiere realizar sobre A. Puesto que todas las operaciones elementales son invertibles ello implica
que las matrices elementales son invertibles y la inversa de E se obtiene realizando sobre la matriz
identidad Im la operaci
on inversa. Por ejemplo, la inversa de E1 es E1 . La inversa de E2 es
1 0 0
E21 = 0 1 0 ,
0 1
y la de E3 es
E31 = 0
0
1
0 .
Construimos la matriz [A In ].
2.
N
otese que encontrar la inversa de la matriz A equivale a encontrar una matriz B tal que
A B = I, o sea, A[b1 bn ] = [A b1 A bn ] = [e1 en ] = In . Es decir es equivalente a resolver
las n ecuaciones
A b 1 = e1 , A b 2 = e2 , A b n = en ,
donde e1 , ..., en son las columnas de la matriz identidad.
A es invertible.
2.
3.
4.
La ecuaci
on A x = 0 solo tiene la soluci
on trivial. (Las columnas de A son linealmente
independientes.)
5.
La ecuaci
on A x = b tiene al menos una soluci
on para cada b vector de R n , o sea, b es un
elemento del subespacio generado por las columnas de A (la soluci
on de A x = b es u
nica).
6.
7.
B ANEXO: ALGEBRA
LINEAL
8.
94
AT es invertible.
B.6.
Determinantes.
B.6.1.
Definici
on de determinante de una matriz cuadrada.
a11
a21
..
.
a12
a22
..
.
ai11 ai12
ai2
fila i
ai1
a
i+11 ai+12
.
..
..
.
an1
an2
..
.
ai1j1 ai1j
aij1
aij
ai+1j1 ai+1j
..
..
..
.
.
.
anj1
anj
a11
a12
..
..
.
.
ai11 ai12
Aij =
ai+11 ai+12
..
..
.
.
an1
columna j
a1j1
a1j
a2j1
a2j
..
..
.
.
an2
a1j+1
a2j+1
..
.
..
.
a1n
a2n
..
.
ai1j+1 ai1n
aij+1 ain
ai+1j+1 ai+1n
..
..
..
.
.
.
anj+1 ann
(B.12)
a1n
..
..
.
.
ai1n
ai+1n
..
..
.
.
ann
Sea A una matriz nn (n 2). El determinante det A de la matriz A es la suma de los terminos
a1j det A1j donde a1j son los elementos de la primera fila de A y A1j son las correspondientes
submatrices obtenidas eliminando la fila 1 y la columna j. M
as exactamente:
det A = a11 det A11 a12 det A12 + + a1n (1)n+1 det A1n ,
(B.13)
Usualmente a la cantidad (1)i+j det Aij se le conoce como cofactor (o menor) asociado al
elemento aij . Utilizando esta notaci
on tenemos que la definici
on anterior se puede reescribir de la
forma:
det A = a11 C11 + a12 C12 + + a1n C1n ,
que se conoce como desarrollo del determinante de A por su primera fila.
B ANEXO: ALGEBRA
LINEAL
95
Las dos f
ormulas anteriores se conocen como desarrollo del determinante de A por su iesima fila
y desarrollo del determinante de A por su jesima columna, respectivamente.
Teorema B.19 Si A es una matriz triangular (inferior o superior) entonces det A es el producto
de los elementos de la diagonal, o sea, det A = a11 a22 ann
B.6.2.
2.
Si E2 es la matriz que multiplica por una constante r no nula una fila cualquiera, la matriz
B = E2 A se obtiene al multiplicar por r la correspondiente fila de A.
3.
1 si E es del tipo E1
r
si E es del tipo E2 Adem
as, si
Entonces, det B = det(E A) = det A donde =
1
si E es del tipo E3
A = I es la matriz identidad y por tanto det I = 1, entonces det E = , es decir el determinante
de cualquier matriz elemental vale o 1 o
ro
1 en dependencia si dicha matriz es del tipo E 1 , E2
o E3 , respectivamente.
Como consecuencia
entonces tenemos:
a12
..
.
r ai1 r ai2
..
..
.
.
an1 an2
a1n
..
..
.
.
r ain
..
..
.
.
ann
=r
a11 a12
..
..
.
.
ai1 ai2
..
..
.
.
an1 an2
a1n
..
..
.
.
ain
..
..
.
.
ann
En particular si una fila de A es nula, det A = 0 y si una fila de A es proporcional a otra det A = 0.
Teorema B.21 Sea A una matriz n n y sea AT su traspuesta, entonces det A = det AT .
Este segundo teorema nos permite enunciar todos los apartados del teorema anterior cambiando la
palabra filas por columnas.
Es conocido de apartados anteriores que cualquier matriz A se puede, mediante transformaciones
elementales, transformar en una matriz triangular superior U (forma escalonada). Adem
as si resulta
que la matriz A tiene n filas pivote entonces el determinante de A ser
a proporcional al det U . Luego,
si tenemos n filas pivote todos los pivotes son distintos de cero y det A 6= 0. Pero si A tiene n filas
pivote entonces A es invertible. Este razonamiento nos conduce al siguiente teorema.
B ANEXO: ALGEBRA
LINEAL
96
B.6.3.
Regla de Kramer.
b1
a11 a1j1 a1j a1j+1 a1n
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
A=
ai1 aij1 aij aij+1 ain , b = bi ,
..
.
.
.
.
.
.
.
..
..
..
..
..
..
..
.
bn
an1 anj1 anj anj+1 ann
entonces Aj (b) es la matriz
a11
..
.
ai1
..
.
an1
|
.
.
.
.
.
.
.
.
.
.
.
.
..
..
..
..
..
..
..
.
.
anj1 anj anj+1 ann
xn
{z
} | {z
x
det A1 (b)
,
det A
x2 =
det A2 (b)
,
det A
b de R n el sistema
b1
..
.
= bi ,
..
.
bn
} | {z }
xn =
det An (b)
.
det A
Es importante tener en cuenta que este metodo es ineficiente para calcular la soluci
on de sistemas
de m
as de 3 ecuaciones pues en el est
an involucrados determinantes. Es recomendable resolver los
sistemas por el metodo de reducci
on de filas descrito en la primera parte del curso (ver Algoritmo
de reducci
on por filas).
Finalmente, recordemos que invertir una matriz es equivalente a resolver n sistemas de ecuaciones de la forma:
A b 1 = e1 , A b 2 = e2 , A b n = en ,
donde e1 , ..., en son las columnas de la matriz identidad. Por tanto para calcular la jesima columna
de A1 tenemos que resolver el sistema A x = ej cuya soluci
on es, seg
un la regla de Kramer,
det A1 (ej )
det An (ej )
x1 =
, , xn =
, pero
det A
det A
det A1 (ej ) = (1)1+j det Aj1 = Cj1 , , det An (ej ) = (1)n+j det Ajn = Cjn ,
B ANEXO: ALGEBRA
LINEAL
luego la columna j de A1 es
97
det A
Cj1
Cj2
..
.
Cjn
.
..
..
..
..
..
..
.
.
.
.
.
1
1
A =
.
.. C
det A C1i C2i Cji
ni
..
..
.
..
.
.
.
.
.
.
.
.
.
.
.
C1n C2n Cjn Cnn
donde Clm = (1)l+m det Alm son los cofactores (menores) del elemento alm de la matriz A y
Alm es la submatriz que se obtiene al eliminar la fila l y la columna m de A. La matriz ||C lm || se
denomina matriz adjunta de A.
Es importante notar que este metodo es ineficiente para calcular inversas (recurre a la regla de
Kramer que es ineficiente es si misma) por lo que es recomendable para encontrar A 1 aplicar el
algoritmo descrito en el teorema B.16 del captulo anterior.
Para concluir esta parte dedicada a determinantes veamos una propiedad interesante que satisfacen los determinantes y que es consecuencia de los teoremas B.18 y B.20:
Sea A = [a1 a2 an ] una matriz de n n con columnas a1 , ..., an . Definamos la aplicaci
on
lineal:
T (x) = det([a1 x an ]) = det Ak (x),
x de Rn , k = 1, 2, ..., n.
La aplicaci
on anterior es lineal pues para todo de R y x, y de R n :
B.7.
Espacios Vectoriales.
En esta secci
on vamos a definir los espacios vectoriales que son la generalizaci
on de los espacios Rn ya estudiados.
B.7.1.
Definici
on y ejemplos.
B ANEXO: ALGEBRA
LINEAL
2.
98
a)
x+y =y+x
b)
(x + y) + z = x + (y + z)
c)
d)
Existe el elemento (x) opuesto a x, tal que x + (x) = (x) + x = 0 donde (x)
es vector opuesto de x
(x + y) = x + y
( + ) x = x + x
( x) = () x
1x=x
Ejemplos.
1.) El conjunto de los vectores de Rn cuando la suma de dos vectores y la multiplicaci
on por un
escalar es la definida en la secci
on 2.
2.) El conjunto de las matrices m n cuando la suma de dos matrices y la multiplicaci
on por un
escalar es la definida en la secci
on 3. Dicho espacio lo denotaremos por R mn
3.) El conjunto de los polinomios de grado a lo sumo n, que denotaremos por P n , o sea,
Pn = {pn (t) = a0 + a1 t + + an tn ,
a0 , ..., an n
umeros reales.},
B.7.2.
( f )(t) f (t).
Subespacios vectoriales.
Sea V un espacio vectorial. Diremos que un subconjunto H de elementos de V es un subespacio vectorial de V si H es a su vez un espacio vectorial respecto a las mismas operaciones suma
+ y multiplicaci
on que V .
Ejemplos.
1.) Dado un espacio vectorial V , son subespacios vectoriales triviales los subespacios H = {0}
(conjunto que tiene como u
nico elemento, el nulo) y H = V (el mismo espacio vectorial).
2.) Para V = C[a,b] , H = Pn es un subespacio vectorial, para cualquier n = 0, 1, 2, ... entero.
3.) Para V = Pn , H = Pk es un subespacio vectorial para todo k < n.
Teorema B.26 Un subconjunto H de elementos de V es un subespacio vectorial de V si y s
olo si
se cumplen las siguientes tres condiciones.
1.
2.
B ANEXO: ALGEBRA
LINEAL
3.
99
Teorema B.27 Dado un conjunto de vectores {v1 , v2 , ..., vp } de un espacio vectorial V , el conjunto span (v1 , v2 , ..., vp ) es un subespacio vectorial de V . Dicho subespacio vectorial com
unmente se
denomina subespacio generado por los vectores v1 , v2 , ..., vp .
B.7.3.
2.
3.
B ANEXO: ALGEBRA
LINEAL
100
1 , H = Span [v1 , v2 , v3 ] .
1 , v3 =
v1 =
0 , v2 =
0
0
0
B.7.4.
Sistemas de coordenadas.
x1
1
0
0
x2
0
1
0
x = . = x 1 . + x 2 . + + x n . = x 1 e1 + x n en .
.
.
.
.
.
.
..
0
0
1
xn
Adem
as, es evidente que dado un vector x de R n sus coordenadas, es decir los valores x1 , ..., xn ,
son u
nicos. El siguiente teorema generaliza este resultado para cualquier espacio vectorial V .
Teorema B.30 Sea B = {b1 , b2 , ..., bn } una base del espacio vectorial V . Entonces para todo x de
V existe un u
nico conjunto de valores {1 , ..., n } tal que
x = 1 b1 + 2 b2 + + n bn .
Este teorema nos permite definir las coordenadas de un vector cualquiera de un espacio vectorial V .
Supongamos que B = {b1 , b2 , ..., bn } es una base del espacio vectorial V . Denominaremos coordenadas del vector x de V en la base B al conjunto de los valores { 1 , ..., n } tales que
x = 1 b1 + 2 b2 + + n bn ,
B ANEXO: ALGEBRA
LINEAL
y lo denotaremos por
1
2
..
.
n
101
[x]B .
1
2
donde PCB es la matriz de cambio de base B en C que pasa las coordenadas de un vector en la
base B a las escritas en C. N
otese que las columnas de la matriz P CB coinciden con los vectores de
la nueva base escritos en la base can
onica. Es evidente que la matriz P CB es invertible (todas sus
1
columnas son independientes y por tanto el det PCB 6= 0) por tanto la matriz inversa PCB
ser
a la
matriz de cambio de base de base can
onica a la base B, o sea
1
[x]C = PBC [x]C .
[x]B = PCB
B.7.5.
La dimensi
on de un espacio vectorial.
Hemos visto que cualquier espacio V con una base de n elementos es isomorfo a R n . Resulta
que dicho n
umero n es una propiedad intrnseca de V , su dimensi
on.
Teorema B.31 Si un espacio vectorial V tiene una base de n vectores B = {b 1 , b2 , ..., bn }, entonces
cualquier conjunto con m
as de n vectores de V es linealmente dependiente.
Este teorema es una generalizaci
on del teorema B.8.
Teorema B.32 Si un espacio vectorial V tiene una base de n vectores B = {b 1 , b2 , ..., bn }, entonces
cualquier otra base de V tendr
a que tener n vectores de V .
Un espacio vectorial es de dimensi
on finita n si V est
a generado por una base de n elementos,
es decir si V = Span(b1 , ..., bn ), donde B = {b1 , ..., bb } es una base de V y lo escribiremos de la
forma dim V = n. En el caso que V = {0} sea el espacio vectorial nulo, dim{0} = 0. Si V no puede
ser generado por una base finita de vectores, entonces diremos que V es de dimensi
on infinita y lo
denotaremos por dim V = .
Por ejemplo, dim Rn = n, dim Pn = n + 1, dim C[a,b] = .
Teorema B.33 Sea H un subespacio vectorial de un espacio vectorial de dimensi
on finita V ,
(dim V = n < ). Entonces todo conjunto de vectores linealmente independientes de H se puede
ampliar hasta convertirlo en una base de H. Adem
as dim H dim V .
Teorema B.34 Sea V un espacio vectorial n-dimensional (dim V = n < ) y sea S = {b 1 , b2 , ..., bn }
un conjunto de exactamente n vectores. Entonces:
a) Si S es un conjunto de vectores linealmente independientes, S es una base de V .
b) Si S genera a todo V , es decir si V = Span(b1 , b2 , ..., bn ), S es una base de V .
B ANEXO: ALGEBRA
LINEAL
B.7.6.
102
Cambio de base.
b1 =
a11
a12
..
.
a1n
,
b
=
an1
an2
..
.
ann
x1
.
D
en la base
y1
.. ,
.
yn D
x1
a11 ak1 an1
y1
a12 ak2 an2 x2
y2
=
.. .
..
..
.
.
.
yn
xn
Adem
as, PDB es una matriz invertible (sus columnas son linealmente independientes), luego existe
1
la inversa PDB
la cual es la matriz de cambio de base D en B, o sea,
1
[x]B = PDB
[x]D .
B.8.
x 6= 0.
(B.14)
Es f
acil comprobar que si x es un autovector asociado al autovalor , entonces el sistema
(A I)x = 0,
donde I
es la matriz identidad n n,
(B.15)
tiene soluciones no triviales. Por tanto, dado un autovalor de A, el conjunto de los autovectores
asociados a , que coincide con una base del n
ucleo de A, es un subespacio vectorial de R n . Dicho
espacio se denomina autoespacio de A correspondiente al autovalor . Es importante destacar que
conocido el autovalor , encontrar el autoespacio consiste en encontrar las soluciones de un sistema
homogeneo de ecuaciones, o sea, resolver (A I)x = 0.
Teorema B.35 Sea A una matriz triangular de n n. Entonces los autovalores de A coinciden
con los elementos de la diagonal principal = aii , i = 1, 2, .., n.
B ANEXO: ALGEBRA
LINEAL
103
Es importante destacar que las operaciones elementales de filas cambian los autovalores de una
matriz. Es decir si U es la forma escalonada de A los autovalores de A y U son, en general,
distintos.
Teorema B.17 (Teorema de inversi
on de matrices, conclusi
on.) Sea A una matriz cuadrada A de
n n. Las siguientes expresiones son equivalentes:
1.
A es invertible.
2.
= 0 no es un autovalor de A
B.8.1.
La ecuaci
on caracterstica.
C
omo calcular los autovalores? La respuesta a esta pregunta no es difcil pues los autovalores
son tales que el sistema (B.15), (A I)x = 0, tiene soluciones no triviales. Pero un sistema
homogeneo tiene soluciones no triviales si y s
olo si
det(A I) = 0.
(B.16)
La ecuaci
on anterior se denomina ecuaci
on caracterstica de A. Lo anterior lo podemos resumir
como:
Un n
umero es un autovalor de la matriz A de n n si y s
olo si satisface la ecuaci
on caracterstica de A (B.16), det(A I) = 0.
Es f
acil comprobar que la expresi
on det(A I) = 0 es un polinomio de grado n en . Por tanto
el polinomio pn () = det(A I) se denomina polinomio caracterstico de A y los autovalores de
A ser
an las races de dicho polinomio. O sea, es un autovalor de A si y s
olo si p n () = 0.
Matrices similares.
Sean A y B dos matrices n n. Diremos que A es similar a B si existe
una matriz invertible P , tal que
A = P B P 1 ,
B = P 1 A P.
(B.17)
B.8.2.
Diagonalizaci
on de matrices.
B ANEXO: ALGEBRA
LINEAL
104
2.
3.
4.
Construimos la matriz diagonal D cuyos elementos de la diagonal coinciden con los autovalores de A. Es importante colocar en cada columna de D el autovalor asociado al autovector
de la correspondiente columna de P .
dim(B) = n1 + n2 + + np .
105
C.
Definici
on C.1 Dada una sucesi
on de n
umeros complejos (a n )n y z0 C definiremos serie
n=0
an (z z0 )n ,
(C.1)
X
zk
xk ,
k=0
k=0
k!
X
zk
k=1
etc. Si la serie converge para todos los valores de z de cierto conjunto A C, entonces podemos
definir la funci
on suma f (z) de la serie.
C.1.
Sin perdida de generalidad vamos a considerar las series del potencias del tipo
an z n ,
(C.2)
n=0
es decir, cuando z0 = 0. Obviamente si tenemos una serie de potencias del tipo (C.1), la podemos
reducir a a la anterior (C.2) haciendo el cambio de variables = z z 0 y viceversa.
Teorema C.2 Primer Teorema de Abel para las series de potencias
X
an z n , an , z C. Si la serie converge para cierto w C, entonces la
Sea la serie de potencias
n=0
La regi
on de convergencia de una serie de potencias siempre son crculos en el plano complejo
que, en el caso de las series de la forma (C.2) est
an centrados en el origen y en el de las series (C.1),
en z0 (ver la figura 20). N
otese que se obtiene una de la otra al hacer una traslaci
on en el plano
X
complejo del crculo mediante el vector z0 . Adem
as, cualquiera sea la serie de potencias
an z n ,
n=0
an , z C, existe un n
umero real no negativo R 0 o
R = + tal que para todo z con |z| < R la
serie converge y si |z| > R la serie diverge. Dicho n
umero se denomina radio de convergencia de la
serie de potencias.
Consideremos ahora en caso real, es decir cuando (an )n es una sucesi
on de n
umeros reales y
z = x R. En este caso hay que trasladar los resultados a la recta real. El primer teorema de Abel
quedara entonces de la siguiente forma
Teorema C.3 Sea la serie de potencias
n=0
n=0
106
Im z
| z z 0 | <| wz0 |
| z | < | w|
R
w
R
z0
0
Re z
Re z
anz (izquierda) y
n=0
cha).
X
n=0
an (z z0)n (dere-
X
1
Dada una serie de potencias
an xn , an , x R. Entonces R = lm p
, si dicho lmite existe.
n
n
|an |
n=0
p
Una condici
on suficiente para que exista lmn n |an | es que exista el lmite lmn |an+1 /an |,
en cuyo caso
p
an
an+1
n
= lm
= lm p1 .
|an |, =
lm
lm
n
n n |a |
n an+1
n an
n
Para las series de potencias en R tienen lugar las siguientes propiedades.
n=0
En otras palabras, toda serie de potencias con radio de convergencia no nulo define una funci
on
continua.
Teorema C.7 Derivaci
on e integraci
on termino a termino de una serie de potencias real
X
an xn , an , x R con radio de convergencia R > 0. Entonces
Sea la serie de potencias f (x) =
n=0
1.
La serie se puede integrar termino a termino y la serie resultante tiene el mismo radio de
convergencia, o sea, se cumple que
Z
2.
xX
0 n=0
X
an n+1
an x =
x .
n+1
n
n=0
La serie se puede derivar termino a termino y la serie resultante tiene el mismo radio de
convergencia, o sea, se cumple que
!0
X
X
n
nan xn1 .
an x
=
n=0
n=0
107
ex
X
xk
su derivada.
k!
k=0
Que es continua y derivable en R es evidente de los dos teoremas anteriores a tener, como ya hemos
calculado antes, radio de convergencia +. Para calcular la derivada usamos el teorema anterior,
as pues
"
#
X
kxk1 X xk1
d X xk
0
=
=
= f (x).
f (x) =
dx
k!
k!
(k 1)!
k=0
k=0
k=1
Adem
as, f (0) = 1. La funci
on que cumple lo anterior es la funci
on e x .
X
(1)n+1 xn
n=1
n=0
n=0
Esta serie converge en (1, 1), as que integrando termino a termino tenemos
!
Z t X
Z t
X
X
tn+1
tn
1
(1)n
(1)n xn dx =
(1)n+1 .
dx =
=
log(1 + t) =
n+1
n
0
0 1+x
n=0
n=0
n=1
X
xk
k=0
sen x =
X
(1)k x2k+1
k=0
(2k + 1)!
(1 + x) = 1 +
X
1
xk ,
=
1x
k=0
x R.
cos x =
(C.3)
X
(1)k x2k
(2k)!
k=0
X
k=1
en particular
k!
()k k
x ,
k!
x R.
x (1, 1),
X
1
(1)k xk ,
=
1+x
x (1, 1).
k=0
(C.4)
(C.5)
(C.6)
Aplicando la integraci
on termino a termino en [0, x] tenemos
log(1 + x) =
X
(1)n+1 xn
n=1
(C.7)
x (1, 1),
(C.8)
k=0
108
X
(1)n x2n+1
2n + 1
n=0
x (1, 1).
(C.9)
X ( 1 )k
1
2
xk ,
=
1 x2 k=0 k!
x (1, 1),
(C.10)
X
k=0
( 21 )k
x2k+1 ,
k!(2k + 1)
x (1, 1),
(C.11)