TSP-Caso 01
TSP-Caso 01
TSP-Caso 01
ELABORADO POR:
XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX
ASESOR
XXXXXXXXXXXXXXXXXXXXXXX
LIMA – PERÚ
2020
RESUMEN
El presente trabajo de investigación tiene como base el estudio de las redes neuronales
recurrentes y su aplicación en la predicción de la producción de una línea de conversión
de rollos de papel de una empresa papelera para la mejora de eficiencia.
Los sistemas biológicos son base de todo tipo de redes neuronales porque poseen
interconexiones entre todas las neuronas de las que forman parte. Esta característica se
evidencia en el comportamiento de las redes neuronales recurrentes; las cuales tienen
la capacidad, debido a su tipo de procesamiento, de predecir valores en base a
información pasada.
La simulación del sistema predictivo se realiza en KERAS, librería de alto nivel de Python,
y el motor que entrena la red neuronal es la implementación de Google, denominada
TENSORFLOW. Éste brinda el porcentaje de error de las predicciones de producción y
las reales, el cual es mínimo y tiende hacia el valor de cero. Al ser así, además de
corroborar la confiabilidad de la predicción, se incrementa la producción, la eficiencia de
la línea de conversión y se produce un impacto positivo en los ingresos económicos de
la empresa papelera.
ABSTRACT
The present research work is based on the study and application of recurrent neural
networks in predicting the production of a paper roll conversion line in a paper company
to improve efficiency.
Biological systems are the basis of all kinds of neural networks, since they have
interconnections between all the neurons of which they are part. This characteristic is
reflected in the behavior of the recurrent neural networks; which have the ability, due to
their type of processing, to predict values based on past information.
The volume of paper roll production is the variable to predict because it is the result of
control variables such as cleaning time, change of base paper, change of format,
scheduled, routine stops, quality defects, etc. The variables are the inputs and outputs of
the red neuronal. Once the reliability of the prediction is obtained, new values of
production line stop times are entered to predict the increase in production of the paper
roll converting line.
The simulation of the predictive system is carried out in KERAS, a high-level Python
library, and the engine that trains the neural network is the Google implementation, called
TENSORFLOW. This provides the percentage of error of the production predictions and
the real ones, which is minimal and tends towards the value of zero. As this is the case,
in addition to corroborating the reliability of the prediction, production is increased, the
efficiency of the line conversion and there is a positive impact on the economic income of
the paper company.
PRÓLOGO
El segundo capítulo tiene como título marco teórico y conceptual, los cuales
describen los fundamentos básicos de definición, clasificación y tipos de aprendizaje de
las redes neuronales artificiales. Asimismo, se detallan las redes neuronales recurrentes
y su tipo especial de red, LSTM, el cual es clave en la predicción de sistemas temporales.
RESUMEN ...................................................................................................................... 2
ABSTRACT ..................................................................................................................... 3
PRÓLOGO ...................................................................................................................... 4
ÍNDICE DE TABLAS ....................................................................................................... 7
ÍNDICE DE FIGURAS ..................................................................................................... 8
CAPÍTULO I. INTRODUCCIÓN ...................................................................................... 9
1.1 GENERALIDADES............................................................................................. 9
1.2 DESCRIPCIÓN DEL PROBLEMA DE INVESTIGACIÓN ................................ 10
OBJETIVO DEL ................................................................................................... 13
1.3 ESTUDIO ......................................................................................................... 13
1.4 ANTECEDENTES INVESTIGATIVOS ............................................................. 14
1.4.1 INVESTIGACIONES INTERNACIONALES ............................................... 14
1.4.2 INVESTIGACIONES NACIONALES .......................................................... 16
CAPÍTULO II. MARCO TEÓRICO Y CONCEPTUAL .................................................... 19
2.1. MARCO TEÓRICO .......................................................................................... 19
2.1.1. NEURONA BIOLÓGICA ............................................................................ 19
2.1.2. NEURONA ARTIFICIAL ............................................................................ 20
2.1.3. RED NEURONAL ARTIFICIAL .................................................................. 20
2.1.4. ENTRENAMIENTO DE UNA RED NEURONAL ARTIFICIAL ................... 24
2.1.5. CLASIFICACIÓN DE REDES NEURONALES ARTIFICIALES ................. 29
2.1.5.1. SEGÚN APRENDIZAJE ......................................................................... 29
2.1.5.2. SEGÚN TOPOLOGÍA ............................................................................ 29
2.1.6. REDES NEURONALES RECURRENTES ................................................ 30
2.1.6.1. DEPENDENCIA A LARGO PLAZO ........................................................ 32
2.1.6.2. REDES LSTM ........................................................................................ 33
2.1.6.3. CLAVE DE LAS REDES LSTM .............................................................. 35
2.2. MARCO CONCEPTUAL .................................................................................. 39
CAPÍTULO III. HIPÓTESIS Y OPERACIONALIZACIÓN DE VARIABLES .................... 41
3.1 HIPÓTESIS ...................................................................................................... 41
3.2 VARIABLES E INDICADORES ........................................................................ 41
CAPÍTULO IV. METODOLOGÍA DE LA INVESTIGACIÓN ........................................... 42
4.1 TIPO Y DISEÑO DE LA INVESTIGACIÓN ...................................................... 42
4.2 UNIDAD DE ANÁLISIS .................................................................................... 42
4.3 MATRIZ DE CONSISTENCIA .......................................................................... 43
CAPÍTULO V. DESARROLLO DEL TRABAJO DE SUFICIENCIA ............................... 44
5.1 IDENTIFICACIÓN DE VARIABLES ................................................................. 45
5.2 PREPARACIÓN DE BASE DE DATOS ........................................................... 46
5.3 DESARROLO DE PRONÓSTICO MULTIVARIABLE ...................................... 50
5.3.1 PRE PROCESADO DE INFORMACIÓN LSTM ........................................ 50
5.3.2 DEFINICIÓN Y AJUSTE DE MODELO ..................................................... 53
5.4 EVALUACIÓN DEL MODELO.......................................................................... 56
5.5 EVALUACIÓN DEL MODELO CON UNA PREDICCIÓN ................................. 58
CAPÍTULO VI. ANÁLISIS Y DISCUSIÓN DE RESULTADOS ...................................... 63
6.1 EVALUACIÓN DEL MODELO ÓPTIMO .......................................................... 63
6.2 EVALUACIÓN DE EFICIENCIAS Y TONELADAS ........................................... 67
6.3 CONTRASTACIÓN DE HIPÓTESIS ................................................................ 68
CONCLUSIONES.......................................................................................................... 71
RECOMENDACIONES ................................................................................................. 72
REFERENCIAS BIBLIOGRÁFICAS .............................................................................. 73
APÉNDICE .................................................................................................................... 75
ANEXOS ....................................................................................................................... 78
ÍNDICE DE TABLAS
1.1 GENERALIDADES
La predicción de datos en una serie temporal es la atención de científicos y expertos
de diferentes áreas y especialidades. En estos últimos diez años se han desarrollado
diferentes trabajos, investigaciones y proyectos en la predicción de series de tiempo
utilizando redes neuronales artificiales recurrentes (Gonzáles-Avella, J., Tudir J., y Rul-
Ian, G., 2017). Los comportamientos de los datos registrados de distintos procesos
fueron analizados para su posterior interpretación y lograr predecir el comportamiento de
los mismos.
Este análisis fue consecuencia de una mezcla de diferentes aspectos de estudio. Por
ello, se identifican cinco campos de trabajo principales, según lo indicado en el libro
Análisis de Series Temporales (Peña, D., 2005):
Eficiencia SOFTYS
60.0%
50.6%
48.0% 47.6% 47.3%
50.0% 45.8%
43.5% 43.4% 43.7% 45.3%
40.3% 39.1% 38.9%
40.0%
30.0%
20.0%
10.0%
0.0%
SOFTYS está formada por tres áreas de producción, sin embargo, la conversión de rollos
de papel, en comparación de las otras dos, obtuvo la menor eficiencia global de 50.2%
en el año 2017. Este valor es el promedio ponderado de las cuatro líneas de operación
que posee: L60, L70, L90 y L100, por ello se debe identificar cuál impactó más con baja
producción. Al finalizar el 2017, la línea L70 tuvo una eficiencia de 48.9% tal y como
muestra la Tabla 4, siendo la más baja de las cuatro y, a pesar que superó la meta
propuesta de 44%, evidenció la existencia de problemas a identificar, analizar y corregir.
Control de Eficiencias CMPC
Año
2017 Eficiencias TISSUE (%)
Real Ppto
Fabricación 80.0 78.2
Conversión Rollos 50.2 49.0
L60 50.6 46.8
L70 48.9 44.0
L90 54.2 54.0
L100 51.3 47.1
Conversión Doblados 69.7 68.0
Institucionales 69.5 67.0
• En el trabajo de (Zavaleta, E., & Collas, E., 2010) se brindaron las bases de
una visión precisa de la demanda, planes de producción, inventario,
distribución y compra dentro de las empresas del sector farmacéutico.
Luego se propuso el uso de una red neuronal (Perceptrón multicapa) para
el pronóstico de la demanda de productos farmacéuticos, la cual realizó su
fase de aprendizaje con el algoritmo back propagation que brinda una taza
de error de 3.57% en el mejor caso encontrado; su implementación se
desarrolló, con el software MATLAB para la construcción de la red neuronal,
y del lenguaje JAVA para el diseño de la interfaz gráfica de usuario.
• En la tesis de (Álvarez, E., 2010) se estableció el grado de precisión del
Modelo de Red Recurrente en la predicción del comportamiento futuro de
las variables estratégicas de marketing y ventas de la industria de
panificación y se comparó con los modelos estadísticos de series de tiempo
y regresión lineal. Para ello se realizó los siguientes pasos: primero se inició
con el análisis y selección de las variables críticas de éxito de marketing y
ventas, luego se diseñó el modelo de red neuronal recurrente asociado al
área de marketing y ventas; posteriormente, se validó el modelo de red
neuronal recurrente asociado al área de marketing y ventas. Al finalizar ello,
se realizó el pronóstico del comportamiento de las variables de marketing y
ventas utilizando las técnicas estadísticas, para finalmente comparar la
precisión del pronóstico del modelo de red neuronal recurrente con los
modelos estadísticos.
CAPÍTULO II. MARCO TEÓRICO Y CONCEPTUAL
Fuente: Ramón y Cajal (1888), Histología del Sistema Nervioso del Hombre y de los Vertebrados
2.1.2. NEURONA ARTIFICIAL
La neurona artificial tiene relación a la neurona biológica porque posee una
estructura similar, pero es más simplificada.
Cada neurona recibe y combina señales desde otras neuronas. Esta interconexión
con diversas redes ejecuta el aprendizaje de las neuronas artificiales. Mediante la
sinápsis es posible la transmisión de información entre estas neuronas a través de
las dendritas. Si la señal combinada supera un umbral, el nervio libera
neurotransmisores. Según el tipo de neurotransmisor, las neuronas se excitan si
reciben el estímulo o inhibirse si no llega, generando una respuesta u otra según el
caso (Haykin, S., 1998). La representación de una neurona artificial se observa en
la Figura 3.
Las entradas a la red son las variables explicativas, las cuales poseen
pesos iniciales que son aleatorios o establecidos. Estos pesos se
denominan sinápticos y representan la fuerza de una conexión sináptica
entre la neurona pre y postsináptica. Por esta razón, se establece que cada
peso proporciona su importancia en la función de entrada.
Por ello se establece una función de error 𝐸(𝑊 ) que mide el rendimiento
de la red en un instante determinado. Las etapas en este proceso de
aprendizaje son:
Fuente: Chiguano B., Ramírez J. y Quilumba F. (2018), Estimación de los Parámetros Eléctricos de
un Generador Sincrónico basada en Mediciones de Laboratorio usando Métodos de Optimización
No Lineal.
𝜕𝐸(𝑡)
∆𝑊𝑖𝑗 (𝑡 + 1) = 𝜇𝑖 𝑥𝑖 (𝑡) + 𝑚∆𝑊𝑖𝑗 (𝑡) (6)
𝜕ℎ𝑗
2.1.5. CLASIFICACIÓN DE REDES NEURONALES ARTIFICIALES
Las redes neuronales se clasifican según su aprendizaje y topología.
Fuente: Rumelhart D., McClelland J., y Hinton G. (1986), Parallel distributed processing:
explorations in the microstructure f cognition, vol1: foundations
Las neuronas se agrupan para formar capas y éstas se unen formando
redes neuronales (Cabezón, M., 2018). De este modo usando la topología
de la red se clasifican en:
• Redes Monocapa: Poseen una sola capa que para unirse se crean
conexiones entre las neuronas internas. Entre las redes monocapa
existen neuronas conectadas consigo mismas y se denominan
autorecurrentes.
• Redes Multicapa: Están formadas por varias capas de neuronas.
Estas redes se clasifican según la conexión de sus capas.
o Feedforward: Cuando las conexiones entre las capas siguen
un único sentido (hacia delante), desde los inputs hasta los
outputs. Ejemplos de este tipo de red son el perceptrón,
adaline, etc. También se denominan estáticas.
o Feedback o recurrente: Cuando las conexiones son hacia
delante como hacia atrás y la información vuelve a capas
anteriores en la dinámica de la red. Éstas se denominan
dinámicas, las cuales se usan en el presente trabajo de
investigación.
En la Figura 8 se observa una red neuronal recurrente que posee una entrada 𝑥𝑡
y una salida ℎ𝑡 . El lazo de realimentación permite que la información se transmita
de una red a otra. Estos lazos son característicos y únicos, sin embargo, si se
analiza a mayor detalle no son tan diferentes a una red neuronal tradicional.
Figura 8: Red neuronal recurrente.
Una red neuronal recurrente se considera como copias múltiples de la misma red,
donde cada una de ellas transfiere información a la siguiente. La Figura 9 muestra
que una red neuronal recurrente tiene una característica relacionada a secuencias
y sucesiones. En los últimos 10 años se desarrollaron un sinfín de aplicaciones
exitosas de redes neuronales recurrentes a diferentes tipos de problemas:
reconocimiento de voz, traducción, predicción de valores, descripción de
imágenes, etc. Esto es debido al uso de LSTM, un tipo muy especial de red
neuronal recurrente que funciona para diferentes actividades, mejor que su
predecesora.
Como esta brecha crece, las redes neuronales recurrentes llegan a ser
incapaces de aprender el conectar la información. La Figura 10 muestra la
distancia a recorrer entre la salida ℎ3 y la entrada 𝑥0 la cual indica lo
comentado líneas arriba.
Figura 10: Distancia entre salidas y entradas en una red neuronal recurrente.
La capa sigmoidal tiene como salida números entre cero y uno, los cuales
indican cuánto de cada uno de ellos se debe dejar pasar. Un valor de “0”
significa que no se debe dejar pasar nada, mientras que el valor de “1”
significa dejar pasar todo. Es por ello, que una LSTM tiene tres puertas para
proteger y controlar el estado de la celda:
• La capa del olvido: Esta capa sigmoidal decide qué información
pasará y cuál no a través de la celda de estado. La Figura 15 muestra
esta puerta, la cual toma como entradas a ℎ𝑡−1 y a 𝑥𝑡 y la salida
devuelve un número con el valor de 0 y 1 la cual interactúa con la
celda de estado 𝐶𝑡−1 en un producto. Un valor de 1 representa que se
almacena, guarda o mantiene completamente, mientras que un 0
representa que se olvida, borra y deshecha completamente. Se
representa por la ecuación 7:
𝑓𝑡 = 𝜎(𝑊𝑓 . [ℎ𝑡−1 , 𝑥𝑡 ] + 𝑏𝑓 ) (7)
3.1 HIPÓTESIS
Una vez definidos el significado de una red neuronal, ejemplos de ella y cómo funcionan
por dentro, se procedió con el desarrollo del trabajo de investigación, la cual se concentró
en la implementación de una red neuronal recurrente tipo LSTM con múltiples entradas
y valorar los resultados obtenidos de la predicción. La Figura 19 muestra el flujo a seguir
en el desarrollo del presente trabajo.
INICIO
DEFINICIÓN DE
ENTRENAMIENTO AJUSTE DE
CONJUNTO DE PRE PROCESADO
DE RED PARÁMETROS DE
ENTRENAMIENTO DE INFORMACIÓN
NEURONAL RED NEURONAL
Y PRUEBA
EVALUACIÓN DE
EVALUACIÓN DE CONFIABILIDAD AJUSTE DE
CONFIABILIDAD DE PREDICCIÓN PARÁMETROS DE
DE PREDICCIÓN CON NUEVA RED NEURONAL
DATA
¿LA NO
PREDICCIÓN
MEJORÓ?
SÍ
VALIDACIÓN DE
FIN RED NEURONAL
Para obtener una base de datos óptima, se consolidó la fecha en un formato adecuado
de “año – mes - día”. Para ello, primero debía realizarse la lectura del archivo
‘TESIS_DATA.csv’ con ‘read_csv’ y extraer los valores de las columnas deseadas con
‘parse_dates’. La codificación es la siguiente:
Para las columnas restantes se definieron títulos para una adecuada identificación:
Si una de las columnas de predicción poseía datos erróneos (como NaN o DIV/0), éstos
serían reemplazados con el valor de 0. Para este caso, se codificó a la columna
“toneladas” en caso presentara este problema.
Luego de todas las modificaciones, el nuevo archivo fue guardado como “toneladas.csv”
con ‘.to_csv’. y se encontraba listo para ser usado en la red neuronal.
All ejecutar el código de programación con la nueva base de datos, se visualizaron las
fechas, columnas deseadas y sus valores respectivos:
En la Figura 21, se observan todas las muestras de las nueve variables de la red
neuronal. Éstas son las toneladas de rollos (rojo), número de rollos (azul), minutos -
disponibles (negro), minutos de parada (verde), minutos reales de operación (amarillo),
el turno de operación (naranja) y el funcionamiento de las tres empaquetadoras de la
línea de producción, OTTO (morado), PAC (rosado) y CMW (marrón). Esto será
importante para determinar qué variables tienen mayor impacto en la predicción, sin
embargo, será abordado más adelante, luego de tener confiabilidad en la red neuronal
recurrente tipo LSTM diseñada con la programación en lenguaje python.
Figura 21: Variables base de predicción de toneladas de rollos de papel.
𝑋−min(𝑋)
𝑋𝑠𝑡𝑑 = max(𝑋)−min(𝑋) (13)
Para normalizar la base de datos se requirió a ‘.fit’ y ‘scaler’ del rango 0 a 1, tal y
como indica el siguiente código de programación:
Una vez normalizado, se debía convertir la serie temporal en un problema de
aprendizaje supervisado. Esto con el fin de ingresar valores a la red neuronal y
entrenarla con backpropagation. Para ello se definió la función
‘series_to_supervised’ cuyo código es:
Lo que realizó la función fue separar a las 9 variables de predicción (var1, var2, …,
var9) en dos secciones, una de ingreso y otra de salida. Las variables de entrada
tenían establecidas 9 columnas con tiempo ‘t-1’: var1(t-1), var2(t-1), var3(t-1), …,
var8(t-1), var9(t-1) y las de salida, con tiempo ‘t’: var1(t), var2(t), var3(t), …,
var8(t), var9(t).
Para sólo predecir a la variable de toneladas como única salida y no a las otras 8,
se bloquearon las columnas restantes con ‘drop’.
Luego se subdividió en variables de entrada (X) y de salida (Y) para train (train_X,
train_y) y también para test (test_X, test_y).
Luego se definió la red neuronal con el modelo ‘Sequential’, que es una pila lineal
de capas, en el que de forma sencilla se iban añadiendo capas una detrás de otra.
Los valores ingresados fueron:
- Cantidad de neuronas de capa oculta: 32 (se recomienda valores 2𝑛 )
- Cantidad de neuronas de salida: 1.
- Matriz de entrada: 7x9 = 63 características.
- Función de pérdida: MAE (Error absoluto medio) cuya fórmula de cálculo
viene dado por la ecuación 14:
∑𝑁
𝑖=1 ⃓𝑥𝑖 −𝑥̂𝑖 ⃓
𝑀𝐴𝐸 = (14)
𝑁
Se visualiza en la Figura 22, que el valor de LOSS disminuyó a medida que las
épocas aumentaban, indicando que el modelo estaba aprendiendo. A su vez se
observó que no existía overtfitting porque las curvas de train y test eran distintas y
no se superponían uno con otra.
Figura 22: Loss a través del número de épocas para train y test.
Con los pronósticos y los valores reales en su escala original, se calculó una puntuación
de error para el modelo. En este caso, se calculó la raíz del error cuadrático medio
(RMSE) que brindó el error en las mismas unidades que la variable. Este valor fue
determinado por la ecuación 16:
∑𝑁
𝑖=1(𝑥𝑖 −𝑥̂𝑖 )
2
𝑅𝑀𝑆𝐸 = √ (16)
𝑁
Donde 𝑥𝑖 es el valor real, 𝑥̂𝑖 es el valor estimado y N es el número de datos totales.
Cuyo código de programación es:
El resultado fue:
Se graficaron los valores reales con los estimados para visualizar lo próximo que están
el uno al otro en la Figura 23, con la siguiente programación:
70 1000
900
60
800
50 700
40 600
500 Suma de
30 400 TONELADAS
20 300
200 Suma de
10
100 MINUTOS DE
0 0 PARADA
3-Nov
6-Nov
9-Nov
12-Nov
15-Nov
18-Nov
21-Nov
24-Nov
27-Nov
30-Nov
13-Oct
1-Oct
4-Oct
7-Oct
10-Oct
16-Oct
19-Oct
22-Oct
25-Oct
28-Oct
31-Oct
Los pasos de predicción fueron los mismos que se ejecutaron líneas arriba, por ello el
código es:
• PASOS: 7
• Número de neuronas en la capa oculta: 32
• Número de épocas: 100
• Tamaño de lote: 7
• Ratio de aprendizaje: 0.001
• Optimizador: Adam
No existen valores ideales para cada uno de ellos, por eso se realizaron diferentes
pruebas hasta encontrar el que poseía un error de predicción menor a los demás. Para
el presente trabajo de investigación se presentaron seis modelos (incluyendo el anterior)
con su respectivo error los cuales se muestran a continuación:
➢ Primer Modelo
➢ Segundo Modelo
➢ Tercer Modelo
➢ Cuarto Modelo
➢ Quinto Modelo
➢ Sexto Modelo
CAPÍTULO VI. ANÁLISIS Y DISCUSIÓN DE RESULTADOS
En este capítulo se procede a comparar los seis modelos del capítulo anterior y se
selecciona el óptimo para la predicción del último trimestre del 2019. Con ello, se verifica
si la predicción de las toneladas es confiable y si las mejoras que se realizaron en los
equipos críticos disminuyeron los minutos de parada, aumentaron la producción y con
ello la eficiencia de la línea de conversión, contrastando la hipótesis formulada.
Para los siguientes modelos, el valor de ‘PASOS’ fue aumentado hasta 21. El motivo es
que, al ser tres turnos por día, se tomará una semana para predecir el siguiente valor.
Figura 26: Valores reales y de predicción de los fines de semana del modelo 2.
Figura 27: Valores reales y de predicción de los fines de semana del modelo 3.
Una vez revisados los cinco primeros modelos, se establecen los parámetros del último.
El valor de ‘PASOS’ se mantiene con 21; las neuronas de la capa oculta con 64; el
número de épocas es un punto medio entre 100 y 200, 150; el tamaño de lote con 21 y
el ratio de aprendizaje queda con 0.001. Esto se visualiza en la Tabla 11.
Figura 28: Loss a través del número de épocas para train y test.
Los RMSE son los valores más bajos de los seis, tal y como indica la Tabla 12:
Es por ello que se escoge al modelo 6 como óptimo para la predicción de rollos de papel
de la línea de conversión L70.
20.0%
0.0%
Ene-19 Feb-19 Mar-19 Abr-19 May-19 Jun-19 Jul-19 Ago-19 Set-19 Oct-19 Nov-19 Dic-19
Toneladas
1,500 1,352
1,250 1,187 1,263 1,256 1,227
1,173 1,093 1,160 1,122
1,064
918
1,000
500
0
Ene-19 Feb-19 Mar-19 Abr-19 May-19 Jun-19 Jul-19 Ago-19 Set-19 Oct-19 Nov-19 Dic-19
Con resultados obtenidos en los ítems anteriores se verifica la hipótesis planteada, por
lo tanto para el trabajo de suficiencia la hipótesis es positiva.
CONCLUSIONES
Tras este trabajo se ha estudiado de forma teórica las redes neuronales y cómo
funcionan (en especial las recurrentes tipo LSTM). Además, se ha realizado un análisis
de la producción de rollos de papel y se han comparado diferentes modelos de
predicción. Después de todo el trabajo se llega a las siguientes conclusiones:
1. Se ha logrado desarrollar un modelo neuronal recurrente tipo LSTM que sirvió como
base para mejorar la eficiencia de la línea de conversión de rollos de papel.
Asimismo:
- Se ha estudiado las características de las redes neuronales, entre ellas su
clasificación según su topología o su aprendizaje. Además, se han estudiado
las etapas de aprendizaje y la forma en la que entrenan las redes.
- Se han introducido las redes neuronales recurrentes, estudiando su
funcionamiento en su proceso de memoria y en qué se diferencian respecto a
las tradicionales.
- Se necesitan grandes cantidades de datos, confiabilidad en ellas y valores
normalizados para un correcto entrenamiento de las redes neuronales.
- Se ha estudiado la serie de producción de rollos de papel, seleccionándose
nueve variables de ingreso para la predicción. El impacto que posee los
minutos de parada es inversamente proporcional. Asimismo, se observa que
los fines de semana y de mes, la producción es cero, debido a que la variación
de la demanda no requiere rollos de papel.
- Se ha implementado en el software de Python, seis modelos de redes
neuronales recurrentes con el fin de predecir la producción de rollos de papel.
El que tuvo mejor performance es el de 21 datos previos, 64 (26 ) neuronas en
la capa oculta, 150 épocas y 0.001 de learning rate con un RMSE de 4.41 para
la predicción del último trimestre del 2019.
RECOMENDACIONES
• Construir redes más complejas con más capas ocultas y no sólo una.
• Estudiar introducir más variables de predicción, como supervisor encargado, tipo
de producto, rechazos por parte de calidad o afines.
• Modificar los parámetros de las redes construidas. Por ejemplo, se pueden
cambiar:
o PASOS
o Función de pérdida.
o Optimizador.
o Learning rate.
o Número de épocas y tamaño del batch.
o etc.
• Realizar un estudio de los días en los que más se equivoca la red y entender por
qué. Una vez entendido, valorar la inclusión de nuevas variables para que la red
aprenda que esos días son distintos a un día normal.
• Seguir realizando mejoras en la línea de producción para que los minutos de
parada disminuyan y verificar si con ello es suficiente para que la mejora de la
eficiencia aumente.
• Utilizar la data histórica de la empresa para realizar una Inteligencia de Negocios
para realizar análisis profundo de sus ventas en un determinado espacio de
tiempo, de esta manera colabora a realizar una buena toma de decisiones por
parte del área de analistas de la empresa.
REFERENCIAS BIBLIOGRÁFICAS
[1] Álvarez E., “Modelo de red neuronal recurrente en la predicción de las variables
estratégicas de marketing y venta de la industria de panificación”, tesis de maestría,
Universidad Nacional de Ingeniería, Lima, Perú, 2010.
[4] Chiguano B., Ramírez J., Quilumba F., y Gallardo C., “Estimación de los Parámetros
Eléctricos de un Generador Sincrónico basada en Mediciones de Laboratorio usando
Métodos de Optimización no Lineal”, Ecuardo - USA, 2018.
[6] González-Avella J., Tudurí J., y Rul-lan G., “Análisis de Series Temporales Usando
Redes Neuronales Recurrentes”. Obtenido de www.apsl.net/blog/2017/06/14/analisis-
de-series-temporales-usando-redes-neuronales-recurrentes (2017).
[7] Haykin S., “Neural Networks: A Comprehensive Foundation (2nd Edition)”, Ontario,
Canada, 1998.
[8] Hochreiter S., y Schmidhuber J., “Long Short-term memory. Neural Computation, 9(8):
páginas 1735-1780, 1997.
[9] Jacinto R., “Redes Neuronales para predicción de contaminación del aire en
Carabayllo – Lima”, tesis de maestría, Universidad Nacional Federico Villarreal, Lima,
Perú, 2019.
[10] Malaver M., “Aplicación de redes neuronales para determinar el pronóstico de las
ventas en la empresa catering & buffets MyS ubicada en la ciudad de Piura”, tesis de
titulación, Universidad César Vallejo, Piura, Lima, 2015.
[12] Ramón y Cajal Villa S., “Histología del sistema nervioso del hombre y de los
vertebrados - 1era edición”, España, 1888.
[13] Peña D., “Análisis de series temporales - 1era edición”, Madrid, España, 2010.
[14] Rodriguez D., “Implementación de una red neuronal desde cero”. Obtenido de
www.analyticslane.com/2018/05/23/implementacion-de-una-red-neuronal-desde-cero/
(2018).
[15] Torres J., “Deep Learning, Introducción práctica con Keras (Primera Parte),
Cataluña, España, 2018.
[16] Rumelhart D., McClelland J., y Hinton G., “Parallel distributed processing:
explorations in the microstructure f cognition, vol1: foundations”, páginas 45-76, USA,
1986.
[18] Zamudio J., “Predicción del volumen de ventas de una distribuidora de bebidas
gasificadas y no gasificadas en la ciudad de Chimbote utilizando redes neuronales
artificiales”, tesis de titulación, Universidad Nacional de Trujillo, Lima, 2017