MONOGRAFÍA
MONOGRAFÍA
MONOGRAFÍA
I. INTRODUCCIÓN:........................................................................................................................................................1
II. OBJETIVOS:..................................................................................................................................................................2
1. UNIDIRECCIONAL:................................................................................................................................................3
1.1. Teoría:..............................................................................................................................................................3
1.1.1. Acotación del Óptimo:................................................................................................................................4
1.1.2. Métodos directos:........................................................................................................................................4
1.1.3. METODO DE NEWTON:.........................................................................................................................4
1.1.4. MÉTODO DE NEWTON EN DIFERENCIAS FINITAS.......................................................................5
1.1.5. MÉTODO DE SECANTE..........................................................................................................................5
1.1.6. MÉTODO DE ELIMINACIÓN DE REGIÓN.........................................................................................6
1.1.7. MÉTODOS DE APROXIMACIÓN POLINÓMICA...............................................................................6
1.2. APLICACIONES EN MÉTODOS UNIDIRECCIONALES.............................................................................9
1.2.1. Método de Newton......................................................................................................................................9
1.2.2. Método de la secante.................................................................................................................................10
2. MULTIDIMENSIONAL.........................................................................................................................................17
2.1. Teoría:................................................................................................................................................................... 17
2.1.1 MÉTODOS DIRECTOS.................................................................................................................................17
2.1.2. MÉTODOS DE BÚSQUEDA ALEATORIA...............................................................................................17
2.1.3. MÉTODOS DE BÚSQUEDA EN REJILLA................................................................................................17
2.1.4. BUSQUEDA UNIVARIANTE......................................................................................................................18
2.1.5. MÉTODO SIMPLEX FLEXIBLE................................................................................................................18
2.1.6. DIRECCIONES CONJUGADAS. MÉTODO DE POWELL.....................................................................23
2.1.7. MÉTODOS INDIRECTOS: MÉTODOS DE PRIMER ORDEN...............................................................27
2.1.8. MÉTODO DEL GRADIENTE (MÁXIMO DESCENSO)..........................................................................27
2.1.9. MÉTODO DEL GRADIENTE CONJUGADO...........................................................................................30
2.1.10. MÉTODOS INDIRECTOS: MÉTODOS DE SEGUNDO ORDEN.........................................................31
2.1.11. EL MÉTODO DE NEWTON......................................................................................................................32
2.2. APLICACIONES EN METODOS MULTIDIRECIONALES:.................................................................37
2.2.1. MÉTODOS DE BÚSQUEDA ALEATORIA..........................................................................................37
2.2.2. MÉTODOS DE BÚSQUEDA EN REJILLA..........................................................................................39
2.2.3. DIRECCIONES DE BÚSQUEDAS CONJUGADAS............................................................................43
2.2.4. MÉTODO DE POWELL.........................................................................................................................44
2.2.5. MÉTODOS INDIRECTOS:....................................................................................................................45
2.2.6. MÉTODO DE GRADIENTE:.................................................................................................................46
2.2.7. METODO HESSIANO:...........................................................................................................................47
III. CONCLUSIONES..............................................................................................................................................48
IV. REFERENCIAS BIBLIOGRÁFICAS:............................................................................................................49
I. INTRODUCCIÓN:
1
II. OBJETIVOS:
2
OPTIMIZACIÓN NUMÉRICA: UNIDIRECCIONAL Y MULTIDIMENSIONAL
1. UNIDIRECCIONAL:
1.1. Teoría:
Una buena técnica de optimización de funciones de una única variable es fundamental
por al menos tres razones:
3
1.1.1. Acotación del Óptimo: Casi todos los procedimientos de búsqueda
unidimensional requieren que el óptimo esté acotado dentro de un intervalo
conocido como primer punto de la estrategia de búsqueda. Existen varias
estrategias que se pueden usar para acotar el óptimo, la más sencilla consiste en
fijar un punto y comenzar a movernos una distancia fija en una dirección.
[ CITATION sim11 \l 10250 ].
‖x k−1−x ¿‖
Súper lineal lim k
→0 (habitualmente rápido)
k → ∝ ‖ x −x ‖
¿
4
Aseguramos que en la etapa k .f(xk+1)<f(xk), para minimización. Realmente lo que hace el
método de newton es aproximar la función por una función cuadrática en xk.
1
f ( x )=f ( x k ) +f ' ( x k ) ( x−x k+1 ) + f ' ' (x)( x−x k )2
2
Las desventajas
Se debe calcular tanto f’(x) como f’’(x)
Si f ' ' ( x)→ 0 el método converge muy lentamente
Si existe más de un extremo, el método podría no converger al extremo deseado.
5
1.1.6. MÉTODO DE ELIMINACIÓN DE REGIÓN Los métodos de
eliminación de región para una búsqueda unidimensional se basan en eliminar
una región, en cada etapa, del intervalo en el que está comprendido el mínimo.
Cuando la región posible es suficientemente pequeña la búsqueda termina. El
elemento básico dentro del sistema de eliminación de regiones es la
comparación de valores de f(x) en dos o más puntos dentro del intervalo de x.
Debemos asumir que f(x) es unimodal, y que tiene un mínimo (es convexa)
dentro de [a, b].[ CITATION sim11 \l 10250 ]
Según la [ CITATION uni \l 10250 ].Si partimos de dos puntos de test sean x1, x2
deberíamos elegirlos de tal manera que la búsqueda fuera lo más eficiente
posible. Si usamos un espaciado igual, esto es x a b x x x 1 − = − 2 = 2 − 1 el
método de búsqueda se llama ‘búsqueda de dos puntos a intervalos iguales’. El
intervalo de incertidumbre se reduce en 1/3 en cada iteración. Así si L0 es la
longitud del intervalo original (b-a) y Lk es el intervalo después de k
iteraciones, como en cada iteración se llevan a cabo dos evaluaciones de la
función objetivo, entonces Lk tras k iteraciones viene dado por:
k 1 k 0
L =( ) L
2
la estrategia empleada en el método de la sección aurea es localizar dos
puntos interiores del intervalo eliminando en cada iteración de tal manera
que se cumpla la relación
6
f(x). Se han propuesto tanto aproximaciones cuadráticas como cúbicas usando tanto
los valores de la función solamente como los de sus derivadas primeras. Se ha
comprobado que los métodos de interpolación polinómica son normalmente
ligeramente mejores que el método de la sección áurea.[ CITATION uni \l 10250 ]
A) ITERPOLACION CAUDRTICA Nos basamos en la [ CITATION uni \l 10250 ] Si
comenzamos con tres puntos, por ejemplo x1, x2, x3 en orden creciente, y no
necesariamente igualmente espaciados, pero contenidos dentro de la zona de
búsqueda (a,b), podemos aproximarlos a un polinomio de grado 2,
f(X)=a+bx+cx2 de tal manera que dicho polinomio pasa exactamente por esos
tres puntos y debe presentar un mínimo en:
−b
x ¿=
2c
Si suponemos que f(x) se evalúa en los 3 puntos, podríamos obtener los
valores de a,b,c resolviendo el sistema de ecuaciones
Con f 1 ≡ f ( x 1 ) ; f 2 ≡( x ¿¿ 2); f 3 ≡ ¿ ¿ ¿
7
La primera etapa del procedimiento está representado de la siguiente manera:
8
1.2. APLICACIONES EN MÉTODOS UNIDIRECCIONALES
Sea f : [a, b] -> R función derivable definida en el intervalo real [a, b]. Empezamos con un
valor inicial x0 y definimos para cada número natural n
9
Nótese que el método descrito es de aplicación exclusiva para funciones de una sola
variable con forma analítica o implícita cognoscible. Existen variantes del método
aplicables a sistemas discretos que permiten estimar las raíces de la tendencia, así como
Ilustración de una iteración del método de Newton (la función f se demuestra en azul y la
línea de la tangente está en rojo). Vemos que xn + 1 es una aproximación mejor que xn
para la raíz x de la función f.
10
En otras palabras, el método de la secante es un algoritmo de la raíz de investigación
que utiliza una serie de raíces de las líneas secantes para aproximar mejor la raíz de
una función f. El método de la secante se puede considerar como una aproximación
en diferencias finitas del método de Newton-Raphson. Sin embargo, este método
fue desarrollado independientemente de este último.
El método se define por la relación de recurrencia:
Como se puede ver, este método necesitará dos aproximaciones iniciales de la raíz
para poder inducir una pendiente inicial.
11
Para λ 16 , t=12, v=48, h=0.4h0, (40% de la altura inicial)
Movimiento de las moléculas de agua, en la zona superficial del mar, provocado por
la acción del viento. En este movimiento, que es originariamente circular, no hay
desplazamiento horizontal de dichas moléculas ni de la masa de agua por ellas
constituida, aunque sí lo hay del movimiento ondulatorio generado por ese
movimiento molecular. Este tipo de olas, que se originan en alta mar, se conocen
con el nombre de 'olas libres' u 'olas estacionarias'.
Cuando una ola se aproxima a la costa, el movimiento típico del mar libre,
movimiento circular, se transforma, por rozamiento con el fondo, en un movimiento
elíptico; la cresta de la ola avanza por este motivo más deprisa que su punto opuesto
en la vertical y se produce un desplazamiento horizontal de la masa de agua que
provoca la ruptura de la ola al llegar a la costa.
Para nuestro caso nos dan la ecuación respectiva de la ola junto con varios
parámetros de esta tales como la longitud de onda, las alturas respectivas, la
velocidad, el tiempo y nos piden hallar la distancia donde rompe la ola dada por x.
12
C) DESCRIPCIÓN DE LA SOLUCIÓN:
Para hallar la solución dada se pueden aplicar varios métodos enseñados en el
curso de Análisis Numérico, tales como de Aproximaciones Sucesivas, El
método de Newton, Método de la secante, etc. Para hallar nuestra solución se
uso el método de Newton debido a su rápida convergencia en hallar la solución,
así como el más fácil de entender y aplicar, se comprobaron dichos resultados
con el método de la secante obteniéndose los mismos valores de x.
13
Usando el método de la secante:
14
D) RESULTADOS
En el problema de la onda estacionaria se tiene una ecuación periódica debido a la
presencia de la variable independiente x dentro de una función seno, por lo tanto vamos
a tener múltiples respuestas debido a la periodicidad de esta función.
La solución a la ecuación de la ola estacionaria estará dada en los puntos donde f(x) tienen a
cero. Para valores de x donde la función periódica f(x) es igual a cero se tendrán las
soluciones para x. De la gráfica se observa para valores negativos o pequeños de x e-x tiene
un efecto considerable mientras que cuando x tiende a valores mayores e-x tiende a cero por
lo que no influye mayor en la solución, mientras que por lo tanto la función quedaría de la
forma:
f(x) = A*sin(K*x) - 0.4
15
Donde se ve claramente que van a ver infinitas soluciones de x para lo cual f(x) = 0.
Se tendrán infinitas soluciones de x para f(x) = 0, ya que la función seno desplazada 0.4
hacia abajo corta al eje horizontal cada π radianes, donde 2π es el período de la onda.
16
2. MULTIDIMENSIONAL
2.1. Teoría:
2.1.1 MÉTODOS DIRECTOS
- Los métodos directos no hacen uso de la información proporcionada para las
derivadas. Bajo estas circunstancias, estos métodos se pueden usar con bastante
efectividad, pero son muy ineficientes comparados con los métodos discutidos
anteriormente (Optimización Numérica Unidimensional).
- Tienen ventaja de que estos métodos son muy simples de entender y muy fáciles
de ejecutar.
17
seleccionar una serie de puntos alrededor de un punto base de referencia, de
acuerdo a algunos de los diseños del tipo que se muestra en la siguiente figura.
Después se pasa al punto que más mejora la función objetivo y se continua la
búsqueda. Sin embargo, el sistema es muy ineficaz, por ejemplo, con n=10 y
una búsqueda factorial a tres niveles deberíamos realizar 310-1=59048
evaluaciones de la función objetivo, lo cual es obviamente prohibitivo.
18
cada uno de los vértices que forman la figura geométrica. Los valores de la
función objetivo obtenida en cada uno de los vértices se comparan entre sí
rechazando el peor valor de todos formando una nueva figura geométrica por
reflexión del peor de los puntos respecto a los que no han sido rechazados. En el
simplex original se mantiene la figura geométrica, mientras que la modificación
de Neadler y Mead permite distorsiones de ésta para acelerar el proceso de
búsqueda. Veamos de forma sistemática cada uno de los pasos del simplex:
procediendo de tal manera las distancias entre dos puntos vendrán dadas por una
expresión similar.
2 3!
como tenemos tres puntos podemos hacer C 3= =3 , así en dos dimensiones
2! 1 !
(3 vértices) podemos definir tres distintas entre vértices (todas ellas iguales). Por
lo tanto, especificando un punto base x1 el punto x2 estará localizado en un punto
cualquiera de una circunferencia de radio “a” centrada en x1. Una vez elegido el
punto x2, el punto x3 deberá estar en la intersección entre las circunferencias de
radio “a” centradas en x1 y en x2 respectivamente. Existen dos posibilidades.
19
De forma similar en n dimensiones tenemos n+¿1 puntos. La tabla siguiente es
una
Si en lugar del origen se toma cualquier otro punto x1 basta realizar una
traslación.
Se puede encontrar otra serie de puntos, pero este es uno de los más simples
para hallar p y q y la condición de que formen parte de la figura simplex, se
puede aplicar a cada par de puntos; así entre los puntos 1 y 2:
20
Resolviendo el sistema:
Una vez fijada la figura inicial del simplex, se sigue una búsqueda secuencial,
en la que en cada paso se eliminará un vértice y se incluirá otro nuevo.
(supondremos que queremos minimizar).
Paso 0:
Paso 1:
21
Después de la reflexión pueden ocurrir tres posibilidades:
(b) Si
22
(c) Si Q*>Qi excepto de Qmáx se lleva a cabo una “Contracción” obteniéndose un
nuevo punto Q***.
23
2.1.6. DIRECCIONES CONJUGADAS. MÉTODO DE POWELL
- La experiencia ha demostrado que las direcciones llamadas conjugadas son
mucho más efectivas como direcciones de búsqueda que otras como pueden ser
la búsqueda univariante o las direcciones ortogonales.
Dos direcciones si y sj se dice que son conjugadas una con respecto a la otra si:
¿Cómo se puede calcular las direcciones conjugadas sin usar derivadas? Este es
un concepto básico que lo referiremos a la siguiente figura. Comenzamos con el
punto x0. Localizamos el punto xa que es el mínimo en una dirección cualquiera
s. Elegimos otro punto cualquiera (distinto del primero) x1, y localizamos el
punto xb que es el mínimo partiendo del punto x1 en la misma dirección s. Los
24
puntos xa y xb se obtienen minimizando f(x0+ λs) con respecto a λ admitiendo
que f(x) es una función cuadrática:
Se puede demostrar que el óptimo de una función cuadrática cae en la línea que
une a xa co xb. Sim embargo esta última afirmación no es válida para otro tipo de
funciones.
Paso 1:
- El método comienza realizando una búsqueda en n direcciones linealmente
independientes que suelen tomarse paralelos a los ejes
coordenados.
Partiendo del punto base x0 se lleva a cabo una búsqueda unidimensional en la
dirección s01 para llegar al puntox 01 . Este punto (x 01) se toma como punto de
partida para una nueva búsqueda unidireccional, en este caso en la dirección s02,
Paso 2:
- Buscamos el punto particular x 0k para el cual se ha obtenido una mejoría mayor
25
Paso 3:
- Determinamos:
26
2.1.7. MÉTODOS INDIRECTOS: MÉTODOS DE PRIMER ORDEN.
- Los métodos indirectos, en contraste con los métodos descritos en las secciones
previas hacen uso de las derivadas en la determinación de la dirección de
búsqueda. Sim embargo, nuestra calificación en métodos directos e indirectos,
podría no estar clara del todo debido a la aproximación de las derivadas por
diferencias finitas, lo que estrictamente hablando hace a estos métodos “libres
de derivadas”. Una buena dirección de búsqueda debería reducir (para
minimización) la función objetivo, de tal manera que si x0 es el punto inicial y x1
es un nuevo punto:
Donde:
27
El gradiente negativo da la dirección de movimiento, pero no la longitud de
dicho movimiento. Por lo tanto, existen varios procedimientos posibles
dependiendo de la elección de λ k. Entre los diversos métodos que existen para la
selección de la longitud de paso, dos merecen una mención especial. El primero
de ellos emplea una búsqueda unidireccional en la dirección del gradiente. El
segundo especifica a priori la longitud del paso para cada iteración. Claramente
la principal dificultad con la segunda aproximación es que a menudo no se sabe
a priori la longitud de paso adecuada. ¿Cómo se debería cambiar esta longitud
de paso y como debería reducirse a medida que nos aproximamos al mínimo
para conseguir la convergencia? Una ilustración nos indicará el problema:
Supongamos una función cuadrática de dos variables como de la figura
siguiente:
28
En el paso final de la búsqueda queremos que y, por lo tanto
En la práctica, por lo tanto, no es deseable llevar a cabo suboptimizaciones con
demasiada precisión. Mientras que el método del gradiente puede producir
progresos muy satisfactorios en la reducción de f(x) en las primeras iteraciones
tiende a hacerse muy lento en las últimas. Alargando excesivamente los
cálculos.
29
oscilaciones. Desde este punto de vista el método del gradiente no es muy
efectivo.
30
Para la Función cuadrática se puede demostrar que dos direcciones de búsqueda
son conjugadas. Después de n iteraciones conviene comenzar otra vez desde el
principio tomando el último punto k=n como nuevo punto de partida.
Donde H(x) es la matriz Hessiana evaluada en el punto x k. Por lo tanto, es posible tener en
cuenta la curvatura de la función en las proximidades del punto de forma análoga a como se
hacía en el método de Newton.
31
2.1.11. EL MÉTODO DE NEWTON
- El método de Newton hace uso de la aproximación de segundo orden de la
función utilizando las derivadas segundas con respecto a cada una de las
variables independientes. De esa forma es posible tener en cuenta la curvatura
de la función en el punto e identificar las mejores direcciones de búsqueda.
El mínimo de f(x) se obtiene diferenciando la aproximación cuadrática de f(x)
con respecto a cada una de las variables e igualando a cero. Así:
32
posible, que puedan aparecer como consecuencia del proceso de inversión de
matrices.
33
cuadrática de contornos circulares o elipsoidales que tienen un mínimo. Pero si
al menos dos valores propios presentan signos opuestos podríamos movernos en
dirección a un punto de silla en lugar de hacia el mínimo.
El método de Newton tiene la ventaja de la convergencia cuadrática sólo en la
vecindad del óptimo, donde la función objetivo puede ser aproximada bastante
bien por una función cuadrática. Pero en zonas más alejadas otros métodos
pueden presentar velocidades de convergencia mayores.
Donde β es una constante positiva para asegurar que H(x) sea definida positiva
cuando H(x) no lo es. También es posible usar.
Donde y es una escalar de suficiente valor para el mismo propósito. Para estar
seguro de que valor β usar se debe calcular el valor propio más pequeño (más
negativo) de la matriz Hessiana en el punto y hacer , donde
es un valor propio de H(x).
Remarcar que si el valor de β es demasiado grande la diagonal principal se hace
tan dominante que el método se convierte en el de máximo descenso. El
problema que aparece ahora es que en cada paso se deben calcular los valores
propios de la matriz Hessiana. Se han desarrollado algunos algoritmos que
utilizan valores arbitrarios de dicho parámetro que se modifican en cada paso de
acuerdo a los valores previos obtenidos.
Aunque el método más común consiste en utilizar una factorización de
Cholesky de la matriz Hessiana.
34
2.1.12. MÉTODOS DE LA SECANTE
- Los métodos de secante comienzan con la misma ecuación usada en el método
de Newton:
35
Debido a que tenemos solamente n ecuaciones y un total de n 2 incógnitas (cada
uno de los elementos de la matriz Hessiana a actualizar) aparece un número
infinito de posibles soluciones a las ecuaciones anteriores. Se debería elegir una
matriz H(x) lo más parecida posible a Hk en algún determinado sentido. Se han
hecho muchas sugerencias al respecto, a continuación, se muestran las dos
actualizaciones más utilizadas y que han demostrado dar los mejores resultados
en la práctica. Ambas mantienen la matriz Hessiana definida positiva y
simétrica. Son las actualizaciones de Devidon-Fletcher-Powell(DPF) y la de
Broyden-Fletcher-Goldfard y Shanno (BFGS).
DFP:
BFGS:
36
2.2. APLICACIONES EN METODOS MULTIDIRECIONALES:
2.2.1. MÉTODOS DE BÚSQUEDA ALEATORIA
37
máquina C. Estas son las relaciones de precedencia mencionadas anteriormente.
Una de las características que hace que la programación de producción en
ambientes job-shop sea tan compleja de resolver es precisamente que estas
restricciones de precedencia cambian de un trabajo a otro, como se puede apreciar
en la tabla 1.
38
2.2.2. MÉTODOS DE BÚSQUEDA EN REJILLA
iris = sns.load_dataset("iris")
y = iris.pop("species")
X = iris
del(iris)
39
oob_score=False, random_state=0, verbose=0, warm_start=False),
fit_params=None, iid='warn', n_jobs=None,
param_grid={'max_depth': range(1, 11, 2), 'min_samples_split': range(2, 21, 2)},
pre_dispatch='2*n_jobs', refit=True, return_train_score='warn',
scoring=None, verbose=0)
Una vez entrenado, podemos acceder al mejor modelo, a la mejor puntuación y a los
mejores parámetros encontrados a través de los atributos best_estimator_, best_score_ y
best_params_ respectivamente:
clf.best_estimator_
RandomForestClassifier(bootstrap=True, class_weight=None, criterion='gini',
max_depth=5, max_features='auto', max_leaf_nodes=None,
min_impurity_decrease=0.0, min_impurity_split=None,
min_samples_leaf=1, min_samples_split=4,
min_weight_fraction_leaf=0.0, n_estimators=100, n_jobs=None,
oob_score=False, random_state=0, verbose=0, warm_start=False)
clf.best_score_
0.9666666666666667
clf.best_params_
{'max_depth': 5, 'min_samples_split': 4}
El mayor inconveniente que ofrece este método es que se prueban de forma exhaustiva
todas las combinaciones indicadas, lo que puede exigir un tiempo más que notable y
difícilmente estimable. Esto significa que si queremos aprovechar un equipo para que
realice una búsqueda durante la noche, es muy fácil que el proceso termine a las 4 de la
madrugada -y estemos desperdiciando varias horas de posible búsqueda adicional- o que no
termine hasta las 11 de la mañana, retrasando otras tareas que estén pendientes.
Además, no es posible acceder a los mejores valores encontrados hasta que no termina el
entrenamiento. Fijar el argumento "verbose" a 3 o más muestra en pantalla el detalle del
proceso, pero la única forma de encontrar en la información mostrada los mejores valores
es a través de una inspección visual, poco recomendable y muy pesada.
MÉTODO SIMPLEX
Minimizar la siguiente función:
40
Si observamos detenidamente las iteraciones realizadas podemos percibir que en las últimas
cuatro (M = 4) permanece invariante uno de los vértices del simplex, punto x6 , en este
momento se debe reducir el tamaño del simplex, de acuerdo a un factor de reducción, es la
etapa de “ciclado”. Se comienza nuevamente con las iteraciones tomando como punto base
aquel en el cual se obtuvo el menor valor de función, en nuestro caso el punto de partida
será x6 . Reducimos ahora el tamaño de nuestro simplex original, x 0 =[5.7954,1.5528]T y
α=0.5, entonces:
41
El método se continua hasta que el tamaño del simplex o la desviación estándar entre los
valores de función en los vértices sea lo suficientemente pequeña
42
2.2.4. MÉTODO DE POWELL
43
44
2.2.5. MÉTODOS INDIRECTOS:
El punto inicial, de igual manera que en los ejemplos anteriores es x 0 =[0,0]T , entonces el
nuevo punto es: x1 =[5,1]T . El método de Newton trabaja con una aproximación de
segundo orden de la función, al ser la función objetivo cuadrática el valor óptimo se obtiene
en una sola iteración, y este valor es el único punto crítico de la función.
45
Resolveremos el problema utilizando el método del gradiente, comenzando con el
punto xT 1 = (0.00, 3.00). La tabla 5.5 muestra un resumen de los cálculos. Después
de 7 iteraciones, alcanzamos el punto xT 8 = (2.28, 1.15). El algoritmo termina
puesto que ||∇f(x8)|| = 0.09 es pequeño. Podemos observar la evolución del método
en la figura 5.7. Notar que la solución de este problema es (2.00, 1.00).
46
2.2.7. METODO HESSIANO:
47
III. CONCLUSIONES
Debido a la naturaleza oscilatoria de las ondas del mar, se tendrán múltiples respuestas sin
embargo se considerará a la solución fundamental a la solución más pequeña positiva.
Se tienen infinitos cruces de la función por cero debido a que para grandes valores de x la
función exponencial tiene a cero, quedando solo la ecuación seno multiplicada por una
constante y desplazada para abajo en 0.4, por lo tanto, corta al eje horizontal 2 veces en
cada periodo.
Al hallar las 2 primeras soluciones, se puede ver que las demás soluciones son simplemente
soluciones iguales desplazadas en 2π radianes. Esto se da debido a que sen(x)=sen(x+2π).
48
IV. REFERENCIAS BIBLIOGRÁFICAS:
49
Recuperado de:
file:///C:/Users/PROPIE~1/AppData/Local/Temp/Rar$DIa9516.38363/leer_desde_
pag_10_a_la_18.pdf
50