Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Tesisi

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 70

MODELO HÍBRIDO

PARA DIAGNÓSTICO DE
CÁNCER PULMONAR
CASO: CÉLULAS NO PEQUEÑAS

Josimar Edinson Chire Saire

Tesis profesional presentada a la Escuela


Profesional de Ingenierı́a de Sistemas
como parte de los requisitos
para obtener el Tı́tulo Profesional de
Ingeniero de Sistemas

Escuela Profesional de Ingenierı́a de Sistemas


Universidad Nacional de San Agustı́n
Perú
Abril 2016
Resumen

La detección temprana de cáncer pulmonar es un problema debido a los


sı́ntomas y los exámenes que deben ser analizados para el diagnóstico. Las tomo-
grafı́as axiales computarizadas muestran información sobre el estado del pulmón
en un conjunto de decenas de imágenes digitales. La clasificación es importan-
te en el análisis de las imágenes digitales, esta tarea puede ser realizada por
técnicas de computación. En este trabajo se utiliza umbralización y criterios
geométricos para la segmentación, luego se usa partición binaria local para ex-
traer caracterı́sticas y una red neuronal perceptrón multicapa con optimización
de enjambre de partı́culas como clasificador para determinar la presencia o au-
sencia de cáncer. Los experimentos se realizaron con un conjunto de imágenes
del Instituto Nacional de Cáncer de Estados Unidos, obteniéndose una precisión
de 98.92 %.
Agradecimientos

Durante los años que estuve en la universidad, conocı́ muchas personas;


faltarı́an lı́neas para nombrarlas y memoria para recordar los nombres.
Primeramente nombraré a mi Creador, pues sin Él;
nada de esto serı́a posible, me sostuvo, impulsó y guió por todo este recorrido.
A mis padres, Celso y Matilde; pues fueron mi sustento económico, emocional
y en verdad mis maestros, mientras crecı́a.
A mis hermanos, Yadira y Joel; pues con sus logros en sus áreas y su afecto,
me motivaban a continuar y terminar la tarea que empecé hace años.
A mis amigos, los que realmente están cuando hace falta; aquellos que
compartieron su tiempo, su paciencia y sus conocimientos
A todos los familiares, que alguna vez me dieron un consejo
o me regañaron porque era necesario.
A los profesores que no hicieron fácil el curso, pues al final uno aprende
de sus errores; todo está en el esfuerzo y la capacidad de resolver los problemas.
Gracias a cada uno, pues soy el resultado de tantas experiencias, clases,
tiempo y dı́as de esfuerzo, alegrı́as, cansancio y sobretodo fe en el mañana.

3
Índice general

Índice de figuras 7

Índice de cuadros 9

1. Introducción 11
1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Definición del Problema . . . . . . . . . . . . . . . . . . . . . . . 12
1.3. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5. Organización de la tesis . . . . . . . . . . . . . . . . . . . . . . . 13
1.6. Delimitación de Trabajo . . . . . . . . . . . . . . . . . . . . . . . 14
1.7. Modelo de investigación . . . . . . . . . . . . . . . . . . . . . . . 14

2. Cáncer Pulmonar 15
2.1. ¿Qué es el cáncer? . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Cáncer Pulmonar y sus tipos . . . . . . . . . . . . . . . . . . . . 16
2.3. Tomografı́a Axial Computarizada . . . . . . . . . . . . . . . . . . 17
2.4. Importancia de TAC . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Estadı́sticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3. Trabajos relacionados 20
3.1. Estado de Arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

4. Marco teórico 24
4.1. Redes Neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.1. ¿Qué es una red neuronal artificial? . . . . . . . . . . . . 24
4.1.2. Neurona . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.3. Funciones de Activación . . . . . . . . . . . . . . . . . . . 27
4.1.4. Arquitectura de Redes . . . . . . . . . . . . . . . . . . . . 29
4.1.5. Representación del Conocimiento . . . . . . . . . . . . . . 30
4.1.6. Procesos de Aprendizaje . . . . . . . . . . . . . . . . . . . 31

4
4.1.7. Paradigmas de aprendizaje . . . . . . . . . . . . . . . . . 34
4.1.8. Perceptrón mono-capa . . . . . . . . . . . . . . . . . . . . 34
4.1.9. Perceptrón Multicapa . . . . . . . . . . . . . . . . . . . . 35
4.2. Computación Evolutiva . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.1. Optimización por Enjambres de Partı́culas . . . . . . . . . 36
4.3. Segmentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3.1. Umbralización . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4. Extracción de caracterı́sticas . . . . . . . . . . . . . . . . . . . . 38
4.4.1. Patrón binario local . . . . . . . . . . . . . . . . . . . . . 39
4.4.2. Histograma PBL . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.3. Extraer caracterı́sticas de una imagen . . . . . . . . . . . 41
4.5. Medición de la clasificación . . . . . . . . . . . . . . . . . . . . . 42
4.5.1. Definiciones iniciales . . . . . . . . . . . . . . . . . . . . . 42
4.5.2. Medidas de la clasificación . . . . . . . . . . . . . . . . . . 43

5. Propuesta 44
5.1. ¿Por qué hı́brido? . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2. Modelo hı́brido . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.3. Modelo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.3.1. Arquitectura Red Neuronal . . . . . . . . . . . . . . . . . 45
5.3.2. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3.3. Descripción del Esquema . . . . . . . . . . . . . . . . . . 46
5.4. Modelo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4.1. Arquitectura Red Neuronal . . . . . . . . . . . . . . . . . 49
5.4.2. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4.3. Descripción del Esquema . . . . . . . . . . . . . . . . . . 51

6. Experimentación y Evaluación 58
6.1. Caracterı́sticas hw y sw utilizados . . . . . . . . . . . . . . . . . . 58
6.2. Banco de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.3. Comparación de Resultados . . . . . . . . . . . . . . . . . . . . . 59
6.4. Análisis y validación de Resultados . . . . . . . . . . . . . . . . . 60
6.4.1. Modelo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.4.2. Modelo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

7. Conclusiones y Trabajo futuro 66


7.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
7.2. Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
7.3. Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.4. Trabajos Futuros . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5
Bibliografı́a 68

6
Índice de figuras

1.1. Esquema propuesto en Mikael Berndtsson (2008). . . . . . . . . . 14

2.1. Comparación de células normales y cancerosas INC (2015b). . . . 16


2.2. Pulmón Lange (2004a). . . . . . . . . . . . . . . . . . . . . . . . 17
2.3. TAC muestra un tumor canceroso indicado por la flecha Lange
(2004b). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Riesgos tradicionales vs modernos WHO (2009). . . . . . . . . . 19
2.5. Estadı́sticas de 2008 para 2010 de Perú WHO (2011). . . . . . . 19

3.1. Sistema de diagnóstico asistido por computador Ayman El-Baz


(2013) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

4.1. Modelo no lineal de una neurona . . . . . . . . . . . . . . . . . . 25


4.2. Transformación producida por un bias, notar que vk = bk en uk = 0. 26
4.3. Función umbral . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.4. Función definida por trozos . . . . . . . . . . . . . . . . . . . . . 28
4.5. Función sigmoide, parámetro a modifica la pendiente . . . . . . . 29
4.6. Red acı́clica o totalmente conectada con una capa oculta y una
capa de salida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.7. Red recurrente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.8. Diagrama de bloques de una red neuronal Haykin (1998). . . . . 32
4.9. Imagen original e imagen binaria . . . . . . . . . . . . . . . . . . 38
4.10. Histograma PBL de imagen 000038 . . . . . . . . . . . . . . . . . 39

5.1. Arquitectura modelo 1 . . . . . . . . . . . . . . . . . . . . . . . . 45


5.2. Conjunto de imágenes para el entrenamiento . . . . . . . . . . . 47
5.3. Histograma generado por PBL . . . . . . . . . . . . . . . . . . . 49
5.4. Arquitectura modelo 2 . . . . . . . . . . . . . . . . . . . . . . . . 50
5.5. Imagen entrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.6. Imagen binaria resultante de aplicar la función threshold . . . . . 52
5.7. Polı́gonos generados de imagen 000092.jpg . . . . . . . . . . . . . 53

7
5.8. Segmentación de imagen 000092.jpg . . . . . . . . . . . . . . . . 53
5.9. Imagen generada al aplicar PBL . . . . . . . . . . . . . . . . . . 54
5.10. Conjunto de imágenes a clasificar . . . . . . . . . . . . . . . . . . 56

6.1. Convergencia de MLP y PSO-MLP . . . . . . . . . . . . . . . . . 60


6.2. Imagen 000038 y su histograma PBL . . . . . . . . . . . . . . . . 61
6.3. Imagen 000071 y su histograma PBL . . . . . . . . . . . . . . . . 62
6.4. Imagen 000085 y su histograma PBL . . . . . . . . . . . . . . . . 63
6.5. Convergencia de MLP y PSO-MLP . . . . . . . . . . . . . . . . . 64
6.6. Imagen 000084 y su segmentación . . . . . . . . . . . . . . . . . . 65

8
Índice de cuadros

5.1. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2. Caracterı́sticas de Histograma PBL . . . . . . . . . . . . . . . . . 47
5.3. Ejemplo archivo de patrones . . . . . . . . . . . . . . . . . . . . . 47
5.4. Configuración OEP . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.5. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.6. Ejemplo archivo de patrones . . . . . . . . . . . . . . . . . . . . . 54
5.7. Configuración OEP . . . . . . . . . . . . . . . . . . . . . . . . . . 55

6.1. Tabla resultados - Nro Caracterı́sticas(NC) Sensibilidad(SE), Es-


pecificidad(ES), Precisión(PR) . . . . . . . . . . . . . . . . . . . 59
6.2. Caracterı́sticas extraidas de la imagen 000038 . . . . . . . . . . . 61
6.3. Caracterı́sticas extraidas de la imagen 000071 . . . . . . . . . . . 62
6.4. Caracterı́sticas extraidas de la imagen 000085 . . . . . . . . . . . 63
6.5. Caracterı́sticas de 000084 y 000092 . . . . . . . . . . . . . . . . 65

9
Glosario

CMM Carga mundial de morbilidad

PMC Perceptrón Multicapa

OEP Optimización por enjambre de partı́culas

OMS Organización Mundial de la Salud

PBL Patrón binario local

TAC Tomografı́a axial computarizada

10
Capı́tulo 1

Introducción

Hoy en dı́a el número de muertes a nivel mundial asciende a decenas de


millones por año, según la Carga mundial de morbilidad (CMM) publicada
por la Organización Mundial de la Salud (OMS) en el 2008; en el 2004 se
produjeron 59 millones de muertes a nivel mundial, de las cuales 35 millones
fueron causadas por “enfermedades no transmisibles”WHO (2008). En Marzo
de 2013 la OMS publicó un artı́culo, ratificando que 36 millones de personas
mueren por esa causa OMS (2015).
Las principales enfermedades causantes de muertes a nivel mundial son: car-
diopatı́as, infecciones respiratorias, enfermedades diarreicas, VIH/SIDA y en
octavo lugar cáncer de tráquea, bronquios y pulmón con 1.3 millones aprox. por
año WHO (2008).
En Julio de 2013, la OMS publicó un artı́culo WHO (2014) sobre las diez
principales causas de muerte entre el 2000 y 2011, el cáncer de pulmón causó 1.5
millones de muerte en el 2011.
En el 2008, la OMS declaró al cáncer la primera causa de mortalidad a nivel
mundial con 7.6 millones de muertes un 13 % del total. El consumo de alcohol,
tabaco, mala alimentación, baja actividad fı́sica son factores de riesgo. Más del
30 % de casos de cáncer son prevenibles. Las proyecciones indican que el número
de muertes sobrepasará los 11 millones para el 2030 WHO (2008).
El cáncer está relacionado a las células anormales que se dividen sin control
en un tejido. El cáncer de pulmón o pulmonar se origina en el tejido pulmonar,
las células cancerosas pueden diseminarse a otras partes del cuerpo por el sistema
sanguı́neo y por el sistema linfático (metástasis)INC (2015b).
En nuestros dı́as es posible prevenir el cáncer pulmonar por medio de un
diagnóstico temprano, se utilizan Tomografı́a axial computarizada (TAC) de los
pulmones para realizar un diagnóstico. Esta tarea es realizada por un radiólogo,
posteriormente dichos resultados son analizados por un oncólogo.

11
El área de procesamiento de imágenes e inteligencia artificial son una so-
lución actual para tareas de detección de zonas de interés. Existen diversas
investigaciones sobre el uso de técnicas de ambas áreas aplicadas a la detección
de cáncer pulmonar.

1.1. Motivación
Para diagnosticar cáncer pulmonar, el radiólogo necesita analizar un conjun-
to de imágenes basado en su conocimiento y experiencia.
Existen algoritmos para extraer información de las tomografı́as axiales compu-
tarizadas ( Patrón binario local (PBL)), algoritmos para la clasificación( Per-
ceptrón Multicapa (PMC))y algoritmos de optimización( Optimización por en-
jambre de partı́culas (OEP)), utilizados en diversos trabajos que obtienen bue-
nos resultados en la clasificación de este tipo de imágenesTerdale and Kulhalli
(2012); Ada (2013); Zamani M. (2009); Ayman El-Baz (2013); Kachouie and
Fieguth (2007); Elshinawy et al. (2010); Mughal and Ikram (2004). Por tanto,
se puede experimentar con PBL para extraer información de las imágenes, abor-
dar el entrenamiento de una red PMC como un problema de optimización en
su etapa de inicialización en lugar una inicialización aleatoria para lograr una
mejor convergencia y disminuir el número de épocas(iteraciones).

1.2. Definición del Problema


El cáncer pulmonar puede ser diagnosticado en base a las tomografı́as axiales
computarizadas que son un conjunto de decenas de imágenes que deben ser
analizadas por el radiólogo.
Existen diferentes trabajos relacionados, que usan diferentes formas para ex-
traer caracterı́sticas (niveles de color, saturación de grises, forma, etc.) y técnicas
de inteligencia artificial(redes neuronales) para clasificar las imágenes.
El problema es realizar una extracción de caracterı́sticas relevantes de las
imágenes y realizar una adecuada clasificación de las mismas.

1.3. Objetivos
Objetivo General

Este trabajo modela, implementa y evalúa un clasificador de tomografı́as


axiales computarizadas utilizando umbralización y criterios geométricos
para la segmenación, partición binaria local y medidas estadı́sticas para la

12
extracción de caracterı́sticas, optimización de enjambre de partı́culas para
optimizar el entrenamiento de la red PMC.

Objetivo Especı́ficos

Analizar segmentación utilizando umbralización y criterios geométricos.

Utilizar PBL y medidas estadı́sticas para la extracción de caracterı́sticas


de las imágenes TAC.

Utilizar optimización de enjambre de partı́culas para optimizar el entre-


namiento de la red.

Utilizar la red neuronal PMC para la clasificación de las imágenes.

1.4. Justificación
Según la OMS en el 2008 se declaró al cáncer la primera causa de morta-
lidad a nivel mundial y el cáncer de pulmón causó 1.5 millones de muertes en
el 2011 WHO (2014). Cada dı́a se producen grandes cantidades de información
en el área médica y son varios millones de pacientes a nivel mundial los que
son sometidos a exámenes para diagnosticar sus estados. Por tanto, es necesario
procesar grandes cantidades de información y desde hace varios años esta ta-
rea es realiza por el área de computación. Existen diversos trabajos utilizando
diversos algoritmos en el pre-procesamiento, extracción de caracterı́sticas, cla-
sificación con buenos resultados. Las dos etapas importantes para una buena
clasificación son el pre-procesamiento para extraer la zona de interés y la ex-
tracción de caracterı́sticas para obtener información relevante que influencia en
la etapa posterior de clasificación.

1.5. Organización de la tesis


En el capı́tulo 2, se presenta el marco teórico sobre el cáncer: definición,
tipos, diagnóstico, estadı́sticas.
En el capı́tulo 3, se presenta el estado del arte sobre los trabajos relacionados.
En el capı́tulo 4, se presenta el marco teórico sobre las redes neuronales, opti-
mización de enjambre de partı́culas, algoritmos de extracción de caracterı́sticas.
En el capı́tulo 5, se presenta: la propuesta, la arquitectura, el esquema y su
descripción.
En el capı́tulo 6, se presentan caracterı́sticas de sw y hw utilizados, la expe-
rimentación y sus resultados, el análisis de los resultados obtenidos.

13
En el capı́tulo 7 se presentan las conclusiones y recomendaciones finales, se
comenta sobre las posibles mejoras o trabajos futuros relacionados al tema de
tesis.

1.6. Delimitación de Trabajo


El presente trabajo analiza las imágenes (TAC) en escala de grises, formato
.JPEG y utiliza la red PMC como clasificador.
Encuentra anomalı́as en las tomografı́as, que indican presencia de cáncer
pulmonar o ausencia.
Las entradas son reales y la salida es binaria (0 ó 1).

1.7. Modelo de investigación


Al revisar diversos trabajos de tesis de diversas universidades internacionales,
nacionales y ver diversos formatos para redactar la tesis, se optó por seguir el
modelo propuesto en Mikael Berndtsson (2008).

Figura 1.1: Esquema propuesto en Mikael Berndtsson (2008).

14
Capı́tulo 2

Cáncer Pulmonar

2.1. ¿Qué es el cáncer?


Cáncer es un término usado para enfermedades en las que células anormales
se dividen sin control y pueden invadir otros tejidos. Las células cancerosas
pueden diseminarse a otras partes del cuerpo por el sistema sanguı́neo y por el
sistema linfático. INC (2015b).
El cáncer no es sólo una enfermedad sino muchas enfermedades, hay más de
100 diferentes tipos de cáncer. La mayorı́a de los cánceres toman el nombre del
órgano o de las células en donde empiezan.
Los tipos de cáncer se pueden agrupar en categorı́as más amplias. Las cate-
gorı́as principales de cáncer según INC (2015b) son:

Carcinoma: cáncer que empieza en la piel o en tejidos que revisten o cubren


los órganos internos.

Sarcoma: cáncer que empieza en hueso, en cartı́lago, grasa, músculo, vasos


sanguı́neos u otro tejido conjuntivo o de sostén.

Leucemia: cáncer que empieza en el tejido en el que se forma la sangre,


como la médula ósea, y causa que se produzcan grandes cantidades de
células sanguı́neas anormales y que entren en la sangre.

Linfoma y mieloma: cánceres que empiezan en las células del sistema in-
munitario. Cánceres del sistema nervioso central: cánceres que empiezan
en los tejidos del cerebro y de la médula espinal.

Según WHO (2015), una caracterı́stica del cáncer es la multiplicación rápida


de células anormales que se extienden más allá de sus lı́mites habituales y pue-
den invadir partes adyacentes del cuerpo o propagarse a otros órganos, proceso

15
conocido como metástasis. Las metástasis son la principal causa de muerte por
cáncer.

Figura 2.1: Comparación de células normales y cancerosas INC (2015b).

2.2. Cáncer Pulmonar y sus tipos


Cáncer que se forma en los tejidos del pulmón, por lo general, en las células
que recubren las vı́as respiratorias. Los dos tipos más importantes de cáncer
de pulmón son el cáncer de pulmón de células pequeñas y el cáncer de pulmón
de células no pequeñas. Estos tipos de cáncer se diagnostican con base en el
aspecto que tengan las células bajo un microscopio.
El cáncer de pulmón de células no pequeñas, es el tipo más común de cáncer
de pulmón y conforma el 87 % de todos los tumores de pulmón. El cáncer de
pulmón de células pequeñas, tiende a crecer y diseminarse más rápido y puede
causar sı́ntomas más pronto que el cáncer de células no pequeñas.

16
Figura 2.2: Pulmón Lange (2004a).

2.3. Tomografı́a Axial Computarizada


La TAC Herman (2009) es una tecnologı́a de exploración de rayos X que
produce imágenes detalladas de cortes axiales del cuerpo, obtiene múltiples
imágenes al rotar alrededor del cuerpo. Una computadora combina todas es-
tas imágenes en una imagen final que representa un corte del cuerpo como si
fuera una rodaja. Esta tecnologı́a es usada en diversos campos de la medicina.

Figura 2.3: TAC muestra un tumor canceroso indicado por la flecha Lange
(2004b).

17
2.4. Importancia de TAC
La tomografı́a axial computarizada es de gran utilidad en el cáncer de pulmón
y se recomienda en todo paciente con un nódulo pulmonar solitario detectado
por radiografı́a. Algunas ventajas de una tomografı́a incluyen:

Encuentra su principal aplicación en la determinación del grado de ex-


tensión de la neoplasia; tanto intratorácica como extratorácica, y de las
adenopatı́as mediastı́nicas (aumento en el volumen de los ganglios linfáti-
cos del mediastino, región situada entre los dos pulmones).

En la diferenciación entre nódulos benignos (crecimiento lento, tamaño


determinado y no destruyen ni invaden tejidos) y malignos, además de la
detección de pequeños nódulos con mayor nitidez que en las radiografı́as
simples.

Proporcionan valiosa información sobre caracterı́sticas morfológicas del


tumor.

Muestra también información sobre el estado del hı́gado, suprarrenales


y riñón, frecuentemente afectados por metástasis. Permite una correcta
visualización de la pared costal y la visualización de la extensión del tumor
a otras estructuras cercanas.

2.5. Estadı́sticas
Número estimado de casos nuevos y muertes por cáncer de pulmón (células
pequeñas y células no pequeñas combinados) en los Estados Unidos en
2013, según INC (2015a) :
Casos nuevos: 228 190 Muertes: 159 480

Según WHO (2015), el cáncer es una de las principales causas de muerte


en todo el mundo; en 2008 causó 7,6 millones de defunciones (aproxima-
damente un 13 % del total). Los que más muertes causan cada año son los
cánceres de pulmón, estómago, hı́gado, colon y mama.

El consumo de tabaco es el factor de riesgo más importante, y es la causa


del 22 % de las muertes mundiales por cáncer en general, y del 71 % de
las muertes mundiales por cáncer de pulmón. Se prevé que las muertes
por cáncer sigan aumentando en todo el mundo y alcancen la cifra de 13,1
millones en 2030.

18
Figura 2.4: Riesgos tradicionales vs modernos WHO (2009).

Figura 2.5: Estadı́sticas de 2008 para 2010 de Perú WHO (2011).

19
Capı́tulo 3

Trabajos relacionados

3.1. Estado de Arte


Se propone un sistema de diagnóstico asistido por computador, el cual
tiene 6 etapas: adquisición imágenes, extracción de región pulmonar, seg-
mentación de la región, análisis de la región segmentada, formulación de
reglas de diagnóstico, evaluación usando red neuronal y backpropagation.
Se utiliza region growing algorithm en la segmentación, para obtener la
zona del pulmón. Luego se utilizan dos reglas: utilizando un umbral para
eliminar ciertas regiones, obtenido utilizando experimentos y otro umbral
obtenido utilizando maximum drawable circle. Se utiliza una red neuro-
nal artificial de tres capas y es entrenada utilizando el algoritmo Back-
propagation. Se logra una sensibilidad(82.14 %), especificidad(66.6 %) y
precisión(66 %) Terdale and Kulhalli (2012).

Se usan 4 etapas: pre-procesamiento de imágenes, extracción de carac-


terı́sticas, análisis de componentes principales y un clasificador con red
neuronal con backpropagation. Se utiliza la ecualización del histogram
para pre-procesar la imagen. Se utilizan operadores morfológicos para ob-
tener una representación de la forma, luego se extraen caracterı́sticas usan-
do Grey Level Co-occurrence Method y sus medidas: contraste, homoge-
neidad, entropı́a y otras además se utiliza Binarization Approach para
distinguir entre pulmones normales y anormales utilizando el número de
pı́xeles blancos de acuerdo a un umbral. Se utiliza una red neuronal de 3
capas con Backpropagation.Se utilizan 6 parámetros para los experimentos
entre ellos falsos positivos, verdaderos positivos, instancias correctamen-
te e incorrectamente clasificadas, error cuadrático. Se alcanzó un 96.04 %
usando redes neuronales comparado a otros clasificadores (svm, bayes)

20
Ada (2013).

Se utiliza OEP con una variación en la actualización de velocidades y


posición de las partı́culas para el entrenamiento de la red neuronal (per-
ceptrón multicapa), considera a toda la red como una partı́cula de mo-
do que la partı́cula tiene d dimensiones de acuerdo al número de entra-
das, conexiones entre las capas y el número de salidas. Las direcciones
de las partı́culas son guardadas desde el inicio y cuando alcanza el máxi-
mo valor del espacio de búsqueda, es reiniciada a un valor aleatorio y
su dirección cambia de sentido. Realizaron experimentos con cuatro con-
juntos de datos (iris, vino, Spect(Single-photon emission computed tomo-
graphy) de corazón y ionósfera), alcanzando una precisión de 98.66 %(iris),
99.44 %(vino), 91.97 %(spect corazón) y 93.42 %(ionósfera) en la clasifica-
ción Zamani M. (2009).

Se comparan algoritmos genéticos y OEP en varios problemas de optimi-


zación (no lineales), se muestran los efectos de cambiar los parámetros
de ambos algoritmos. Los resultados muestran que OEP tiene un mejor
comportamiento que algoritmos genéticos. OEP tiene el potencial de ser
usado en funciones unimodales y multimodales, se demostró que OEP es
sensible al cambio de algunos parámetros como iteraciones, el ajuste de la
velocidad y el aumento de la población no produce una mejora significativa
Nelson Guerra Álvarez (2006).

Revista especializada en imágenes biomédicas, describe 5 etapas para el


diagnóstico de cáncer pulmonar: segmentación de pulmón, detección de
nódulo, segmentación y diagnóstico mostradas en la figura siguiente:

Figura 3.1: Sistema de diagnóstico asistido por computador Ayman El-Baz


(2013)

La etapa de segmentación es una etapa importante que puede ayudar a


diagnosticar cáncer de pulmón tempranamente. La detección de nódulos
representa una dificultad para los CAD por las sombras, vasos, venas.
Luego la segmentación de los nódulos es una etapa importante y finalmente

21
el diagnóstico para determinar nódulos benignos y malignos Ayman El-
Baz (2013).

El diagnóstico de cáncer de próstata se realiza utilizando Transrectal Ul-


trasound (TRUS). El desafı́o es encontrar los lı́mites de la próstata y tra-
bajar con un pequeño rango de grises. Patrón binario local se utilizó para
segmentación y análisis de la textura. La propuesta de usar patrón binario
local para este caso de imágenes tienes fuertes atributos discriminativos
que pueden ser utilizados para clasificación de texturas Kachouie and Fie-
guth (2007).

El detectar y diagnosticar cáncer de mama está limitado a dos razones:


precisión de los sistemas CAD y desempeño de los radiólogos al leer mamo-
grafı́as. Se añade un paso al pre-procesamiento para disminuir el número
de falsos negativos significativamente. Se utilizaron 3 conjuntos diferentes
de caracterı́sticas: simple PBL, multiresolution grayscale y clasificación de
texturas invariantes a la rotación basado en PBL, y PBL de la transfor-
mada de Fourier. El clasificador utilizado fue Support Vector Machine.
Los resultados mostraron que la propuesta mejora el desempeño de la
clasificación Elshinawy et al. (2010).

La revisión hecha menciona que el modelo de un sistema CAD tiene las


siguientes etapas: adquisición de imagen, preprocesamiento de imagen,
detección de candidatos, extracción de caracterı́sticas, clasificación. En la
extracción de caracterı́sticas medidas como el tamaño, ubicación, forma y
color(brillo) diferencian a los nódulos del fondo de la imagen. Un análisis
simple, basado en las intensidades de los pı́xeles de la imagen; el histogra-
ma mide la frecuencia de varios niveles de grises. Las medidas derivadas del
histograma incluyen media, varianza, sesgo y curtosis Mughal and Ikram
(2004).

El modelo propuesto tiene dos etapas: preprocesamiento para la segmenta-


ción y la clasificación utilizando una red neuronal. En el preprocesamiento
se utiliza Contrast limited Adaptive Histogram Equalization para realzar
el contraste de la imagen y umbralización para la segmentación. En la
clasificación se utiliza una PMC, obteniéndose buenos resultados en la de-
tección de nódulos de cáncer pulmonar en las imágenes tomográficas. El
desempeño de la clasificación fue evaluada calculando los porcentajes de
Sensibilidad(92.10 %), Especificidad(94.30 %) y Precisión(96.7 %). Ashwin
et al. (2012).

La propuesta detecta nódulos de cáncer pulmonar usando template mat-


ching algorithm integrado con multi-resolution feature analysis technique

22
para mejorar la detección de falsos positivos. En multi-resolution feature
analysis technique, se usaron medidas estadı́sticas como: energı́a, entropı́a,
media, desviación estándar, máximo valor, momento de diferencia inverso
y homogeneidad . Los resultados en la detección fueron 81.212 % Assefa
et al. (2013).

El esquema tiene los siguientes pasos: reducción de ruido, binarización


y segmentación, extracción de caracterı́sticas, clasificación de nódulo. La
extracción de caracterı́sticas de la región segmentada se usan las medidas
estadı́sticas: media, varianca, sesgo, curtosis, desviación estándar y medi-
das geométricas: área, perı́metro, circularidad. Se utiliza un clasificador
bayesiano para la clasificación de los nódulos Mukherjee et al. (2014).

Propone una metodologı́a para la detección de cáncer pulmonar usando


imágenes PET/CT. Métodos de preprocesamiento de imagen como Ima-
ge pre-processing methods such as Contrast Limited Adaptive Histogram
Equalization y filtro Wiener fueron usado para remover artefactos debido a
la variación de contraste y ruido. La región de interés fue extraida usando
operadores morfológicos. Caracterı́sticas de textura estadı́sticas de Hara-
lick fueron utilizadas porque extraen mayor información de texturas. Fuzzy
C means clustering fue usada para clasificar las regiones como normale o
anormales Punithavathy et al. (2015).

El modelo usado tiene 4 etapas: captura de imagen, preprocesamiento, ex-


tracción de caracterı́sticas y clasificación. Se hace una revisión de algunas
técnicas para cada etapa y se realizan algunos experimentos. En la etapa de
extracción de caracterı́sticas se utilizan medidas geométricas y estadı́sti-
cas. El área sigue en constante desarrollo y una adecuada combinación
de algoritmos desemboca en una mejor precisión de 90.1 % Ignatious and
Joseph (2015).

23
Capı́tulo 4

Marco teórico

4.1. Redes Neuronales


4.1.1. ¿Qué es una red neuronal artificial?
Las redes neuronales artificiales son un modelo de aprendizaje y procesa-
miento automático inspirado en sistemas nerviosos biológicos como el cerebro
que procesa información. El cerebro es un computador altamente complejo, no
lineal y paralelo, mejor que el computador más rápido existente hoy en dı́a.
Compuesta por un gran número de elementos altamente interconectados traba-
jando al mismo tiempo para resolver problema especı́ficos como reconocimiento
de patrones. Por ejemplo el reconocer un rostro conocido en un ambiente poco
familiar, esta tarea se realiza en 100-200 ms aproximadamente, la misma to-
marı́a varios dı́as en un computador. El conocimiento es adquirido del entorno
a través de un proceso de aprendizaje y las intensidades de las conecciones en-
tre las neuronas (pesos sinápticos) son utilizados para guardar el conocimiento
adquirido Haykin (1998).
Las redes neuronales tienen una notable habilidad para “entender” el signi-
ficado de datos complejos o imprecisos, pueden ser usadas para extracción de
patrones y detección de tendencias, tareas que son demasiado complejas para ser
realizadas por los seres humanos o técnicas de computación. Una red neuronal
puede “pensar” como un experto en la categorı́a que ésta ha sido especializada,
puede brindar respuesta a nuevos casos Stergiou C. (2015).
Incluye:

Aprendizaje adaptativo: habilidad para aprender cómo realizar tareas ba-


sadas en los datos de entrenamiento.

Auto-organización: crea su propia organización de la información durante

24
el tiempo de aprendizaje.

Ejecución en tiempo real: puede ser paralelizada y hardware especial ha


sido diseñado para explotar esta capacidad.

Tolerancia a fallas: la destrucción parcial de una red lleva a la degradación


en el rendimiento. Sin embargo, algunas capacidades de la red pueden ser
conservadas aún con un daño importante de la red.

4.1.2. Neurona
Unidad fundamental de procesamiento de información en la red neuronal. En
la figura 4.1 se muestra la base para el diseño de las redes neuronales. Existen
tres elementos básico en el modelo:

Conjunto de sinapsis, cada una de estas tiene un peso. Una señal xi en la


entrada de la sinapsis j conectada a la neurona k es multiplicada por el
peso sináptico wkj .

Un sumador para las señales de entrada, ponderado por las respectivas


sinapsis de la neurona; las operaciones descritas en este paso constituyen
un combinador lineal.

Una función de activación para limitar la salida de una neurona dentro de


un rango. Usualmente, la salida de una neurona está limitado al intervalo
[0, 1] o [−1, 1].

Figura 4.1: Modelo no lineal de una neurona

El modelo de 4.1 incluye un bias(bk ), el cual incrementa o decrementa la


entrada de la red de la función de activación, dependiendo si positivio o negativo.
Podemos describir un neurona k con las siguientes ecuaciones:

m
X
uk = wkj xj (4.1)
j=1

25
yk = ϕ(uk + bk ) (4.2)

donde x1 , x2 , . . . , xm son las señales de entrada; wk1 , wk2 , . . . , wkm son los
pesos sinátpicos de la neurona k; uk es el combinador lineal de salida debido
a las señales de entrada; bk es el bias; ϕ() es la función de activación y yk es
la señal de salida de la neurona. El uso de bk tiene el efecto de aplicar una
transformación similiar a la salida uk en 4.1 como se muestra:

vk = uk + bk (4.3)

Si bk es positivo o negativo, la relación entre el campo local inducido o


potencial de activación vk de la neurona k y el combinador lineal de salida uk
es modificado como se muestra en 4.2
El bias bk es un parámetro externo de la neurona k, presente en 4.2, de la
ecuación 4.1 y 4.3 tenemos:

m
X
vk = wkj xj (4.4)
j=0

yk ≈ ϕ(vk) (4.5)

Figura 4.2: Transformación producida por un bias, notar que vk = bk en uk = 0.

En la ecuación 4.4 se agregó una nueva sinapsis. Su entrada es:

26
x0 = +1 (4.6)

y su peso es:

wk0 = bk (4.7)

4.1.3. Funciones de Activación


La función de activación ϕ(v), define la salida de una neurona relacionado
el campo local inducido v. Se identifican tres tipos de funciones de activación:

1. Función Umbral, descrita en 4.3, tenemos:

(
1, si v≥0
ϕ(v) = (4.8)
0, si v<0

Entonces, la salida de la neurona k usando la función umbral es expresado


como:

(
1, si vk ≥ 0
yk = (4.9)
0, si vk < 0

donde vk es campo local inducido de la neurona, que es:

m
X
vk = wkj xj + bk (4.10)
j=1

Figura 4.3: Función umbral

2. Función definida a trozos, descrita en 4.4 tenemos:

27

1
 1, v ≥ + 2

ϕ(v) = v, + 12 > v > − 21 (4.11)

0, v ≤ − 12

Esta forma de una función de activación puede ser visto como una apro-
ximación a un amplificador no lineal.

Figura 4.4: Función definida por trozos

3. Función sigmoide, su gráfica tiene forma de s, es la más usada en la cons-


trucción de redes neuronales artificiales. Muestra un balance entre compar-
tamiento lineal y no lineal. Un ejemplo de función sigmoide es la función
logı́stica, definida por:

1
ϕ(v) = (4.12)
1 + exp(−av)

donde a es el parámetro que define la pendiente de la función sigmoide.


Si variamos a, obtendremos funciones con diferentes pendientes como se
muestra en 4.5.

28
Figura 4.5: Función sigmoide, parámetro a modifica la pendiente

4.1.4. Arquitectura de Redes


La estructura de un red neuronal está relacionada con el algoritmo de apren-
dizaje utilizado para entrenar la red. Se identifican tres clases :

1. Redes mono-capa con pre-alimentación


Las neuronas están organizadas en la forma de capas, en la forma más sim-
ple de una red por capas, tenemos un capa de entrada de nodos de origen
que se proyectan sobre la capa de neuronas de salida, pero no viceversa.
Es decir, esta red es de pre-alimentación o tipo acı́clico y son llamadas
redes mono-capa debido a la única capa de salida donde se realizan los
cálculos.

2. Redes multi-capa con pre-alimentación


Esta red tiene una o más capas ocultas, esta capa tiene nodos llamados
nodos ocultos o neuronas ocultas. La función de las neuronas ocultas es
intervenir entre la entrada externa y la salida de la red de alguna forma
útil. Agregando una o más capas ocultas permite extraer estadı́sticas de
mayor orden (comportamientos complejos). Esto es valioso principalmente
cuando el tamaño de la capa de entrada es grande.
Los nodos de origen en la capa de entrada de la red proveen elementos
respectivos del patrón de activación (vector de entrada), que constituye
las señales de entrada aplicadas a las neuronas (nodos de cálculo) en la
segunda capa. Las señales de salida de la capa oculta como entradas de
la tercera capa y ası́ para el resto de la red. La red neuronal en 4.6 es

29
totalmente conectada porque cada nodo en cada capa está conectado con
cada nodo de la capa adyacente.

Figura 4.6: Red acı́clica o totalmente conectada con una capa oculta y una capa
de salida.

3. Redes recurrentes
Se distingue de las de pre-alimentación en tener al menos un ciclo de
retro-alimentación. Por ejemplo en 4.7, se observa una red mono-capa con
cada señal de salida de regreso a las entradas de todas las neuronas. La
presencia de ciclos de retro-alimentación tiene un profundo impacto en la
capacidad de aprendizaje de la red y en su desempeño.
Los ciclos involucran el uso de elementos de unidades de retraso (denotados
por z −1 , que resulta en un compartamiento dinámico no lineal.

Figura 4.7: Red recurrente.

4.1.5. Representación del Conocimiento


Conocimiento es la información almacenada o modelos usados por una per-
sona o máquina para interpretar, predicir y responder adecuadamente al mundo
externo. Las caracterı́sticas primarias de la representación del conocimiento son:

30
que información es actualmente explı́cita y como la información es fı́sicamente
codificado para uso posterior. En las aplicaciones del mundo real de máquinas
inteligentes,una buena solución está relacionada con una buena representación
del conocimiento. Las variedad en las formas hace que el desarrollo de una so-
lución satisfactoria sea un reto real.
La mayor tarea de una red neuronal es aprender del exterior y mantener un mo-
delo consistente para lograr objetivos especı́ficos. El conocimiento del mundo
consiste de dos tipos de información:

El estado del mundo representado por hechos sobre qué es y qué ha sido
conocido, referido a la información previa.

Observaciones(mediciones) del mundo, obtenido por sensores diseñados


para evaluar el entorno en que la red neuronal trabajará. Estas observa-
ciones tiene ruido, sujetas a errores debido a los sensores e imperfecciones
del sistema, los cuales serán usados para entrenar la red neuronal.

Estos ejemplos pueden ser etiquetados o no, los etiquetados representan una
relación entre señal de entrada con respuesta deseada. Los pares de entrada-
salida son los datos para el entrenamiento.
Hay cuatro reglas propuesta por Anderson como se menciona en Haykin
(1998) son:

1. Entradas similares de clases similares deberı́an producir representación


similar en la red y deberı́an ser clasificada en la misma categorı́a.

2. Ejemplos que pertenezcan a clases diferentes deberı́a tener representacio-


nes muy diferentes en la red.

3. Si una caracterı́stica particular es importante, entonces deberı́an estar


involucradas un gran número de neuronas en la representación de la misma
en la red.

4. Información previa e invariantes deberı́an estar en el diseño de una red


neuronals y de esta forma simplificar el modelo al no tener que aprenderlas.

4.1.6. Procesos de Aprendizaje


La principal propiedad de una red neuronal es la habilidad de aṕrender de
su entorno y mejorar su desempeño a través del aprendizaje. Una red neuro-
nal aprende a través de un proceso interactivo de ajustes aplicado a sus pesos
sinápticos y niveles de bias. Idealmente la red entiende más su entorno en cada
iteración del proceso de aprendizaje.

31
El aprendizaje es el proceso por el cual los parámetros libres de una red
neuronal son adaptados a través de un proceso de estimulación por el ambiente
en el que se encuentra. El tipo de aprendizaje es determinado por la forma en
que el parámetro cambia.

Esta definición tiene los siguientes eventos:

1. La red neuronal es estimulada por un entorno.

2. La red neuronal experimenta cambios en sus parámetros libres como re-


sultado de la estimulación.

3. La red neuronal responde de una forma diferente por los cambios que
ocurridos en su estructura interna.

Un conjunto de reglas prescrito para una solución de un problema de apren-


dizaje es un algoritmo de aprendizaje. No hay un único algoritmo para el diseño
de redes neuronales, existen varios y cada uno ofrece ventajas.

Error de Aprendizaje

Como se puede observar en 4.8, la señal de salida yk (n) de la red neuronal es


comparada con la repuesta deseada o salida objetivo dk (n). Entonces un error
de señal ek (n) es producido. Tenemos:

ek (n) = dk (n) − yk (n) (4.13)

Este ek (n) actúa como un mecanismo de control, aplicar una secuencia de


ajustes correctivos a los pesos sinápticos de la neurona k, los ajustes son reali-
zados para que yk (n) sea más cercana a dk (n) en cada paso.

Figura 4.8: Diagrama de bloques de una red neuronal Haykin (1998).

Este objetivo es logrado al minimizar una función de costo, ξ(n), definido en


función a la señal de error ek (n) como:

32
1 2
ξ(n) = e (n) (4.14)
2 k
Este ξ(n) es el valor instantáneo de energı́a de error, el ajuste de pesos
sinápticos en cada paso continuará hasta que el sistema alcanze un estado esta-
ble, entonces el proceso de aprendizaje habrá terminado.

El proceso descrito está referido a aprendizaje error-corrección. La minimi-


zación de ξ(n) nos lleva a la regla de aprendizaje delta rule, llamada ası́ en
honor de sus creadores Widrow y Hoff. Sea wkj (n) el valor del pesos sináptico
wkj de la neurona k excitada por el el elemento xj (n) del vector de señales x(n)
en el tiempo n. De acuerdo a la regla delta, el ajuste ∆wkj (n) aplicado al peso
sináptico wkj en el instante n es definido por:

∆wkj (n) = ηek (n)xj (n) (4.15)

donde η es una constante positiva que determina el ı́ndice de aprendizaje.

Al calcular el ajuste sináptico ∆wkj (n), el valor actualizado del peso sinápti-
co wkj es determinado por:

wkj (n + 1) = wkj (n) + ∆wkj (n) (4.16)

Aprendizaje Hebbiano

El postulado de Hebb es el más antiguo y más famoso de todas las reglas de


aprendizaje. En su libro The Organization of Behaviour dice: Çuando un axón
de una célula A está lo suficiente cerca para excitar una célula B y repetidamente
o persistentemente toma parte en la excitación, algún proceso de crecimiento
o cambios metabólicos suceden en una o más células tal que la eficiencia de A
como una de las células que excita a B, es incrementada.
Expandiendo el postulado anterior, hay dos reglas:

1. Si dos neuronas en cada lado de una sinapsis son activadas simultánea-


mente, entonces la señal de dicha sinapsis es incrementada.

2. Si dos neuronas son actividas ası́ncronamente, dicha sinapsis es debilitada


o eliminada

33
4.1.7. Paradigmas de aprendizaje
Aprendizaje Supervisado

Aprendizaje supervisado es como aprender con un profesor. El profesor tiene


el conocimiento del entorno, que es representado por ejemplos entrada-salida.
Sin embargo, el entorno es desconocido para la red neuronal. Supongamos que el
profesor y la red neuronal son expuestos al vector de entrenamiento capturado
del entorno. Por la experiencia del profesor, éste podrá proveer una respuesta
deseada para tal vector. La respuesta deseada representa la acción óptima a ser
ejectuda por la red neuronal. Los parámetros de la red neuronal son ajustados
bajo la influencia del vector de entrenamiento y la señal de error. Este ajuste
será realizado en cada iteración hasta lograr emular al profesor. En este para-
digma el profesor puede transferir su conocimiento a la red neuronal, entonces
la red neuronal podrá enfrentar problemas de su entorno por sı́ misma.

Aprendizaje No Supervisado

En este paradgima no existe un profesor como el caso anterior, no hay ejem-


plos etiquetados a ser aprendidos por la red como se muestra en ??. La provisión
es hecha por la medida independiente de tarea de la calidad de la representación
que la red requiere para aprender y los parámetros de la red son optimizados de
acuerdo a tal medida. Una vez la red esté afinada a las regularidades estadı́sti-
cas de los datos de entrada, desarrolla la habilidad para formar representaciones
internas para codificar las caracterı́sticas de la entrada y por tanto crear nuevas
clases automáticamente.

4.1.8. Perceptrón mono-capa


En los primeros años de redes neuronales (1943-1958), diferentes investiga-
dores hicieron sus constribuciones:

McCulloch y Pitts (1943) al introducir la idea de redes neuronales como


máquina de cálculo.

Hebb (1949) al postular la primera regla de aprendizaje auto-organizado.

Rosenblatt (1958) al proponer el perceptrón como el primer modelo con


un profesor (aprendizaje supervisado).

El perceptrón es la forma más simple de una red neuronal usada para la cla-
sificación de patrones linealmente separables. Consiste de una neurona con pesos
sinápticos ajustables y un bias. El algoritmo usado para ajustar los parámetros
libres de esta red neuronal aparecieron por primera vez en el procedimiento de

34
aprendizaje desarrollado por Rossenblat (1958,1962). Rosenblatt demostró que
si los patrones usados para entrenar el perceptrón son escogidos de clases li-
nealmente separables, entonces el algoritmo converge y posiciona la superficie
de decisión usando un hiper-plano entre dos clases.

4.1.9. Perceptrón Multicapa


La red tiene un conjunto de unidades sensoriales (nodos de origen) que con-
forma la capa de entrada, una o más capas ocultas de nodos de cálculo y una
capa de salida de nodos de cálculo. La señal de entrada se propaga a través de
la red hacı́a adelante. Estas redes son comúnmente llamadas perceptrones multi-
capa, que representa una generalización del perceptrón mono-capa anterior. Las
perceptrones multi-capa han sido aplicadas satisfactoriamente para solver algu-
nos problemas difı́ciles y diversos al entrenarlas con un algoritmo muy utilizado
algoritmo back-propagation.

Backpropagation

Consiste en dos pasos a través de las diferentes capas de la red: un pase hacia
adelante y uno hacia atrás. En el paso hacia adelante, un patrón de actividad
(vector de entrada) es aplicado a los nodos sensoriales de la red y su efecto se
propaga a través de la red capa por capa. Finalmente, un conjunto de salidas es
producido como respuesta de la red. Durante el pase los pesos sinápticos de la
red son calculados . Durante el pase hacia atrás, todos los pesos son ajustados
de acuerdo a regla de corrección-error.
Especı́ficamente, la respuesta actual de la red es sustraı́da de una respuesta
deseada u objetivo para producir una señal de error. La señal de error es propa-
gada hacia atrás a través de la red, en contra de la dirección de los conexiones
sinápticas, por estas dos etapas el algoritmo se llama error back-propagation.
Los pesos sinápticos son ajustado para hacer que la respuesta actual se acerque
a la respuesta deseada en un sentido estadı́stico. El perceptrón multicapa tiene
tres caracterı́sticas distintivas:

1. El modelo de cada neurona incluye una functión de activación no lineal.


El punto a enfatizar es la no linealidad suave, a diferencia del perceptrón
de Rosenblatt. Una forma usada frecuentemente de no linealidad es la
sigmoidal definida por la función logı́stica:

1
yj ≈ (4.17)
1 + exp(vj )

donde vj es el campo local inducido (la suma de todos los pesos sinápticos

35
más el bias) de la neurona j y yj es la salida de la neurona. La presencia
de no linealidad es importante de otra forma la relación entrada-salida
podrı́a ser reducida a un percetrón mono-capa

2. La red contiene una o más capas de neuronas ocultas que no son parte
de la entrada o salida de la red. Éstas permiten a la red aprener tareas
complejas al extraer progresivamente más caracterı́sticas significativas de
los patrones de entrada.

3. La red muestra un alto grado de conectividad, determinado por las sinapsis


de la red. Un cambio en la conectividad requiere un cambio en la población
de conexiones sinápticas o sus pesos.

4.2. Computación Evolutiva


Estos algoritmos están basados en principios darwinianos, técnicamente per-
tenecen a la familia de ensayo y error para resolver problemas y pueden ser
considerados métodos de optimización global con un carácter metaheurı́stico u
optimización estocástica, donde se utilizada una población de soluciones can-
didatas (iterando sobre el espacio de búsqueda). Son aplicados a problemas de
caja negra en contextos de optimización costosa.

Las técnicas de computación evolutiva, mayormente involucra algoritmos de


optimización metaheurı́stico como:

Optimización de colonia de hormigas

Colonia de abejas artificiales

Evolución diferencial

Algoritmos genéticos

Optimización por enjambre de partı́culas

4.2.1. Optimización por Enjambres de Partı́culas


Los métodos OEP se atribuyen originalmente a los investigadores Kennedy,
Eberhart Kennedy (2005) y Shi Shi (1998). Al inicio fueron concebidos para
elaborar modelos de conductas sociales, como el movimiento descrito por los
organismos vivos en una bandada de aves o un banco de peces. Posteriormente
el algoritmo se simplificó y se comprobó que era adecuado para problemas de
optimización.

36
OEP permite optimizar un problema a partir de una población de soluciones
candidatas, denotadas como ”partı́culas”, moviendo éstas por todo el espacio
de búsqueda según algoritmos que tienen en cuenta la posición y la velocidad
de las partı́culas. El movimiento de cada partı́cula es influido por su mejor
posición local hallada hasta el momento, ası́ como por las mejores posiciones
globales encontradas por otras partı́culas durante su recorrido en el espacio de
búsqueda.
El algoritmo OEP está basado en velocidad:

vi (k + 1) = vi (k) + C1 ∗ r1(pi − xi (k)) + C2 ∗ r2(G − xi (k)) (4.18)

y posición:
xi (k + 1) = xi (k) + vi (k + 1) (4.19)

i(ı́ndice de partı́cula), k(iteración), v(velocidad de la partı́cula), x(posición de


la partı́cula), p(mejor posición encontrada por la partı́cula i), G(mejor posición
encontrada por el enjambre), r1 y r2(números aleatorios en el intervalo [ 0,1 ]
aplicada a la partı́cula i), C1(constante componente cognitivo), C2(constante
componente social).

Algorithm 1 Optimización de Enjambre de Partı́culas


1: Inicializar todas las partı́culas
2: while it > M AX IT ERAT ION S do
3: Actualizar la mejor posición por cada partı́cula i
4: Actualizar la mejor posición global
5: Actualizar la velocidad y posición de cada partı́cula i
6: it ← it + 1
7: end while

4.3. Segmentación
4.3.1. Umbralización
Es un método de segmentación de imágenes para obtener imágenes binarias
a partir de imágenes en escala de grises.
(
1 if I(x, y) ≥ T
U mbralizació(I(x, y)) = (4.20)
0 if I(x, y) < 0

37
Figura 4.9: Imagen original e imagen binaria

4.4. Extracción de caracterı́sticas


La extracción de caracterı́sticas es utilizada en aprendizaje de máquina, re-
cocimiento de patrones y procesamiento de imágenes. Las caracterı́sticas deben
proveer información discriminativa y no redudante para la etapa de aprendizaje
y poder realizar una generalización consistente.

38
4.4.1. Patrón binario local
El operador de Local Binary Pattern fue introducido en 1996 por Ojala,
Pietikäinen y Harwood, como una forma de resumir la estructura de nivel de gris
local. El operador toma una vecindad local alrededor de cada pı́xel, umbraliza
los pı́xeles de la vecindad al valor del pı́xel central y usa el parche de valores
binarios de la imagen resultante como un descriptor de la imagen local J. (2008).
Este operador fue definido originalmente para vecindades de 3 × 3, dando
códigos de 8 bits basados en los 8 pı́xeles alrededor del pı́xel central. El operador
PBL original forma etiquetas para los pı́xeles de la imagen umbralizando dicha
vecindad de cada pı́xel con el valor central y considerando el resultado como un
número binario. El cálculo de los códigos PBL puede hacerse fácilmente en una
simple pasada a través de la imagen. Formalmente, el operador PBL toma la
forma:

7
X
P BL(xc , yc ) = 2n s(gn − gc ) (4.21)
n=0
(
1 if x ≥ 0
s(x) = (4.22)
0 if x < 0

4.4.2. Histograma PBL


Al utilizar PBL en la imagen obtenemos valores utilizando 4.21 y 4.22, se
cuenta cada valor y se forma un histograma.

Figura 4.10: Histograma PBL de imagen 000038

A continuación caracterı́sticas de un histograma:

39
Media

Es el valor promedio de un conjunto de números.


n
X
x̂ = xi , i = 1, . . . , n (4.23)
i=1

Varianza

Es la diferencia promedio que hay entre cada elemento de un conjunto res-


pecto a su punto central(media).

n
X
V arx = (xi − x̂)2 , i = 1, . . . , n (4.24)
i=1

Desviación estándar

Medida utilizada para cuantificar la dispersión de un conjuntos de valores.


Un valor cercano a 0 significa que los valores están próximos a la media, en caso
opuesto que los valores están dispersos.
Para un conjunto de datos x1 , x2 , . . . , xN , la desviación estándar es:
v
u
u1 X N
σ =t (xi − µ)2 , i = 1, . . . , n (4.25)
N i=1

Sesgo

Es la medida de la asimetrı́a de una distribución de probabilidad.

n
X xi − x̂ 3
Sesgo(x) = ( ) , i = 1, . . . , n (4.26)
i=1
σ

Curtosis

Mide la concentración de datos alrededor de la media.

n
X xi − x̂ 4
Curtosis(x) = ( ) −3 , i = 1, . . . , n (4.27)
i=1
σ

Energı́a

n
X
Energia(x) = (xi )2 , i = 1, . . . , n (4.28)
i=1

40
Entropı́a

n
X
Entropia(x) = (xi log 2(xi )) , i = 1, . . . , n (4.29)
i=1

4.4.3. Extraer caracterı́sticas de una imagen


Una imagen en 2D tiene filas y columnas, representaremos a cada pixel de
la imagen como I(x,y), las siguientes medidas son descriptores de una imagen:

Media

n X
X m
x̂ = I(i, j) , i = 1, . . . , n y j = 1, . . . , m (4.30)
i=1 j=1

Varianza

n X
X m
V ar(I) = (I(i, j) − x̂)2 , i = 1, . . . , n y j = 1, . . . , m (4.31)
i=1 j=1

Desviación estándar

v
u1 n X m
u X
σ =t (I(i, j) − x̂)2 , i = 1, . . . , n y j = 1, . . . , m (4.32)
N i=1 j=1

Sesgo

n X m
X I(i, j) − x̂ 3
Sesgo(I) = ( ) , i = 1, . . . , n y j = 1, . . . , m (4.33)
i=1 j=1
σ

Curtosis

Mide la concentración de datos alrededor de la media.

n X m
X I(i, j) − x̂ 4
Curtosis(I) = ( ) −3 , i = 1, . . . , n y j = 1, . . . , m
i=1 j=1
σ
(4.34)

41
Energı́a

n X
X m
Energia(I) = (I(i, j))2 , i = 1, . . . , n y j = 1, . . . , m (4.35)
i=1 j=1

Entropı́a

n X
X m
Entropia(I) = (I(i, j) log 2(xi )) , i = 1, . . . , n y j = 1, . . . , m
i=1 j=1
(4.36)

Homogeneidad

n X m
X I(i, j)
Homogeneidad(I) = ( ) , i = 1, . . . , n y j = 1, . . . , m
i=1 j=1
(ij)2
(4.37)

Momento de Diferencia Inverso

n X m
X I(i, j)
M DI(I) = ( ) , i = 1, . . . , n y j = 1, . . . , m (4.38)
i=1 j=1
(i − j2)

4.5. Medición de la clasificación


4.5.1. Definiciones iniciales
Los siguientes términos son calculados para la posterior subsección.

Verdaderos Positivos(VP) : cuando se predice a un maligno como maligno.

Falsos Negativos(FN) : cuando se predice a un maligno como benigno.

Verdaderos Negativos(VN) : cuando se predice a un benigno como benigno.

Falsos positivos(FP): cuando se predice a un benigno como maligno.

42
4.5.2. Medidas de la clasificación

VP
Sensibilidad = ∗ 100 % (4.39)
V P + FN

VN
Especif icidad = ∗ 100 % (4.40)
V N + FP

VP +VN
P recisión = ∗ 100 % (4.41)
V N + V P + FN + FP

43
Capı́tulo 5

Propuesta

5.1. ¿Por qué hı́brido?


De acuerdo a la RAE:
(Del lat. hybrı̆da).

1. adj. Dicho de un animal o de un vegetal: Procreado por dos individuos de


distinta especie. U. t. c. s.

2. adj. Biol. Dicho de un individuo: Cuyos padres son genéticamente distintos


con respecto a un mismo carácter.

3. adj. Se dice de todo lo que es producto de elementos de distinta naturaleza.

La propuesta planteada en la siguiente sección utilizar la red neuronal per-


ceptrón multicapa y optimización de enjambre de partı́culas. Las redes neurona-
les pertenecen al área de aprendizaje de máquina y la optimización de enjambre
de partı́culas pertenece a computación evolutiva. Por esta razón la propuesta es
un hı́brido, pues combina técnicas de diferentes áreas.

5.2. Modelo hı́brido


La propuesta que se plantea para la clasificación de las imágenes tomográficas
utiliza dos técnicas de inteligencia artificial: perceptrón multicapa y optimiza-
ción por enjambre de partı́culas. La primera para realizar la clasificación y la
segunda para mejorar el tiempo de entrenamiento e influir en la clasificación.
Al usar dos técnicas de un área se planteó denominarlo modelo hı́brido.

44
5.3. Modelo 1
5.3.1. Arquitectura Red Neuronal
La red neuronal utilizada es una PMC con 3 capas(entrada, oculta, salida).
El número de nodos de entrada es 6. El número de nodos en la capa oculta
está definido de acuerdo a la regla 2n + 1 Nielsen (1987) donde n es el número
de nodos en la capa de entrada. La capa de salida consta de un solo nodo
porque la salida de la red es binaria si hay presencia(1) o ausencia(0) de cáncer.
La arquitectura de la red se puede observar en el cuadro. 5.1.

Cuadro 5.1: Arquitectura

Capa de entrada 6
Capa oculta 13
Capa de salida 1

Y la mejor partı́cula encontrada en OEP es utilizada para inicializar los


pesos de la red perceptrón multicapa.

Figura 5.1: Arquitectura modelo 1

45
5.3.2. Esquema
Entrenamiento :

Directorio Pre- Extracción Red Neuronal:


imágenes procesamiento caracterı́sticas Entrenamiento

Clasificación :

Directorio Pre- Extracción Red neuronal:


de imágenes procesamiento caracterı́sticas Clasificación

5.3.3. Descripción del Esquema


Entrenamiento

Directorio imágenes
Se seleccionaron un conjunto de 20 imágenes para el entrenamiento para
lograr una adecuada generalización en la etapa de clasificación. Se leen y
se cargan las imágenes.

46
Figura 5.2: Conjunto de imágenes para el entrenamiento

Pre-procesamiento
No se realiza ninguna operación en las imágenes.

Extracción de caracterı́sticas
Se utiliza PBL para obtener el histograma de cada imagen y se extraen
las medidas estadı́sticas 4.4.2.

Cuadro 5.2: Caracterı́sticas de Histograma PBL

0.0038 0.0003 14.1938 211.41 0.0928 5.9253

Se definen los patrones y se guardan en un archivo con el siguiente formato:

Cuadro 5.3: Ejemplo archivo de patrones

2
0.036 0.044 0.012 0.005 0.044 8.197E-005
0
0.005 0.005 0.031 0.049 0.003 2.652E-005
1

47
Red Neuronal: Entrenamiento
La red perceptrón multicapa se crea con la configuración mencionada en
sección 5.3. Se inicializan los pesos sinápticos utilizando OEP para mejorar
la convergencia del entrenamiento en general y lograr una convergencia
más rápidam a continuación la configuración utilizada:

Cuadro 5.4: Configuración OEP

Tamaño población 200


Nro de generaciones 200
Operación Minimizacción
Vel. min -1
Vel. max 1

Luego se carga el archivo de patrones e itera hasta alcanzar el error es-


perado, los pesos de la red son guardados en un archivo para la etapa de
clasificación.

Clasificación

Directorio de imágenes, pre-procesamiento


Estos pasos son similares al paso de entrenamiento.

Extracción caracterı́sticas
Este paso es similar al paso de entrenamiento. Se describe un poco más a
continuación:
Por ejemplo:

48
Figura 5.3: Histograma generado por PBL

Luego calculamos los valores de media, varianza, sesgo, curtosis, entropı́a


y energı́a de dicho histograma, obteniendo el vector de 6 valores :

0.00387579 0.000349141 14.1938 211.41 0.0928765 5.92534

Red Neuronal: clasificación


Se cargan los pesos de la red neuronal desde el archivo de pesos y se reali-
za la clasificación imagen por imagen, la entrada de la red es el vector de
caracterı́sticas generado en el paso anterior.Se comparan los valores espe-
rados con los valores obtenidos de la clasificación y se calcula la precisión.

5.4. Modelo 2
5.4.1. Arquitectura Red Neuronal
La configuración de la red PMC sigue el criterio 2n + 1 Nielsen (1987).
Se tienen 8 entradas, 17 nodos en la capa oculta y la salida es binaria si hay
presencia(1) o ausencia(0). La arquitectura de la red se observa en el cuadro
5.5.

Cuadro 5.5: Arquitectura

Capa de entrada 8
Capa oculta 17
Capa de salida 1

49
La mejor partı́cula encontrada en OEP es usada para inicializar los pesos de
la red perceptrón multicapa.

Figura 5.4: Arquitectura modelo 2

5.4.2. Esquema
Entrenamiento :

Directorio Pre- Extracción Red Neuronal:


imágenes procesamiento caracterı́sticas Entrenamiento

50
Clasificación :

Directorio Pre- Extracción Red neuronal:


de imágenes procesamiento caracterı́sticas Clasificación

5.4.3. Descripción del Esquema


Entrenamiento

Directorio imágenes
Este paso es similar al paso en el entrenamiento del modelo 1.

Pre-procesamiento

Fitellipse,
Imagen entrada Threshold Segmentación Imagen PBL
area, fillpoly

El pre-procesamiento comienza con la imagen de entrada:

Figura 5.5: Imagen entrada

Utilizando la función threshold 5.1 y un T=150 obtenido en base a la


experimentación, el resultado es:

51
Figura 5.6: Imagen binaria resultante de aplicar la función threshold

A continuación utilizamos las siguientes funciones de OpenCvBradski (2000):


findContours Team (2015), fitellipse para encontrar los bordes, luego en-
contrar elipses que se ajusten a los bordes. Utilizar la función minArea-
Rect, que encuentra el rectángulo rotado de menor área que encierra un
conjunto de puntos en 2D, cálcular el área utilizando contourArea y sólo
consideramos áreas mayores a 118 y menores 5000(valores obtenidos du-
rante la experimentación). Utilizando los bordes, usamos fillpoly para lle-
nar el área del rectángulo calculado.

52
Figura 5.7: Polı́gonos generados de imagen 000092.jpg

A continuación recorremos la imagen 5.7 buscando los pı́xeles blancos y


en su lugar colocamos los respectivos valores de la imagen original, obte-
niendo:

Figura 5.8: Segmentación de imagen 000092.jpg

Utilizamos PBL pero con la siguiente modificación de 4.22:

53
(
1 six > 0
s(x) = (5.1)
0 six <= 0

La imagen resultante es:

Figura 5.9: Imagen generada al aplicar PBL

Extracción caracterı́sticas

Utilizando las medidas de una imagen mencionadas en la sección 4.4.3,


obtenemos un vector de 8 valores:

2.206 403.816 9.322 87.357 1.071e+08 -4.337e+06 3.898e-05 46.807

Se realiza la extracción de caracterı́sticas (media, varianza, sesgo, curtosis,


energı́a, entropı́a, homogeneidad, momento de diferencia inversa) de un
conjunto de imágenes, luego se realiza una normalización y se guardan
dichos valores en un archivo de texto con el siguiente formato:

Cuadro 5.6: Ejemplo archivo de patrones

2
0.036 0.044 0.012 0.005 0.044 0.038 -8.213E-005 8.197E-005
0
0.005 0.005 0.031 0.049 0.003 0.003 -6.045E-007 2.652E-005
1

54
La primera lı́nea indica el número de patrones, la siguiente el patrón y a
continuación su valor esperado.

Red Neuronal: entrenamiento

La red neuronal lee el archivo con los patrones y comienza la etapa de


entrenamiento. En la creación de la red neuronal se inicializan los pesos
de la red neuronal utilizando OEP.
La configuración de OEP es la siguiente:

Cuadro 5.7: Configuración OEP

Dimensión 171
Tamaño población 100
Nro de generaciones 75
Operación Minimizacción
Vel. min -0.5
Vel. max 0.5

Se guarda en un archivo los pesos generados por la red neuronal que se


utilizará en la clasificación.

Clasificación

Directorio de imágenes
En un directorio se localizan todas las imágenes a procesar.

55
Figura 5.10: Conjunto de imágenes a clasificar

Extracción caracterı́sticas
Se utiliza el mismo criterio que en el entrenamiento.

56
Red Neuronal:clasificación
Primero se cargan los pesos generados en el entrenamiento y se calculan
las salidas de la red por cada imagen. Se guarda en un archivo la salida
de cada imagen y finalmente se calcula su precisión.

57
Capı́tulo 6

Experimentación y
Evaluación

6.1. Caracterı́sticas hw y sw utilizados


Hardware
Laptop : Lenovo G580
Procesador : Intel Core i5-3230M CPU@2.60GHz
Ram : 4.00GB

Software
Sistema operativo : Windows 7 Ultimate
IDE : Codeblocks 12.11
Compilador : Mingw
Librerias : OpenCv

6.2. Banco de imágenes


El banco de imágenes utilizado durante los experimentos fue tomado del ins-
tituto nacional de cáncer de USA. Puede ser descargado de http://www.nih.gov
Dicha institución realiza constantes investigaciones sobre diferentes tipos de
cáncer.
Se utilizaron 93 imágenes correspondientes a un paciente.
Las propiedades de las imágenes son:

Dimensiones: 512x512

58
Escala de grises

6.3. Comparación de Resultados


A continuación la tabla que resume los resultados de la propuesta y los de
otros autores.

Cuadro 6.1: Tabla resultados - Nro Caracterı́sticas(NC) Sensibilidad(SE), Es-


pecificidad(ES), Precisión(PR)

Autor Total NC SE( %) ES( %) PR( %)


Terdale and Kulhalli (2012) 65 2 82.14 66.6 66
Azian Azamimi Abdullah (2012) 30 3 - - 80
Ada (2013) 909 16 - - 96.04
Ashwin et al. (2012) 40 - 92.1 94.3 96.7
Assefa et al. (2013) 50 - - 81
Ignatious and Joseph (2015) - 3 - - 90.1
Modelo 1 93 6 0 100 98.92
Modelo 2 93 8 100 98.91 98.92

Los resultados de cada autor son comparados con los modelos propuestos:
Todos los trabajos realizados Ada (2013); Azian Azamimi Abdullah (2012);
Ashwin et al. (2012); Assefa et al. (2013); Ignatious and Joseph (2015); Terdale
and Kulhalli (2012) utilizan el esquema general de un CAD( pre-procesamiento,
segmentación, extracción caracterı́sticas, clasificación).
El modelo 1 sólo utilizó el operador PBL para generar un histograma PBL
y extraer caracterı́sticas, luego se realizó la clasificación. A pesar de sus buenos
valores en especificidad y precisión, se obtiene un valor nulo en sensibilidad. Esto
indica que no tiene la capacidad de reconocer la presencia de cáncer pulmonar
en la imagen y su capacidad de generalización es nula.
Por esta razón se planteó realizar un pre-procesamiento para tener una mejor
clasificación y se obtuvieron mejores valores en sensibilidad.
El modelo 2 supera a todos los modelos y utiliza un mayor número de ca-
racterı́sticas a excepción de Ada (2013) que utiliza 16 caracterı́stticas. Y cabe
considerar que el modelo Ada (2013) realizó sus experimentos con un mayor
conjunto de imágenes.
Los resultados muestran que un mayor número de caracterı́sticas pueden
influir en una mejor clasificación y realizar una buena segmentación influye
en el entrenamiento. Utilizar medidas estadı́sticas en este caso de imágenes en
escala de grises son útiles para la extracción de caracterı́sticas.

59
6.4. Análisis y validación de Resultados
6.4.1. Modelo 1
Redes

Se realizó el entrenamiento para una red MLP con inicialización aleatoria de


pesos y una red MLP con inicialización de pesos utilizando PSO. Se compararon
los errores en cada red y se muestran los valores en la siguiente figura:

Figura 6.1: Convergencia de MLP y PSO-MLP

Podemos ver que la convergencia de la propuesta es más rápida y se estabiliza


rápidamente.

Precisión

Se logra una precisión 89.24 % pero se tienen problemas con algunas imáge-
nes. Por ejemplo:
Podemos apreciar que los histogramas tienen varias similitudes por esta
razón las 6 caracterı́sticas extraı́das de las imágenes están próximas y se con-
funden con los valores de las imágenes donde hay presencia de cáncer.

60
Figura 6.2: Imagen 000038 y su histograma PBL

Cuadro 6.2: Caracterı́sticas extraidas de la imagen 000038

0.00387579 0.000335989 14.2891 213.962 0.0895227 5.967

61
Figura 6.3: Imagen 000071 y su histograma PBL

Cuadro 6.3: Caracterı́sticas extraidas de la imagen 000071

0.00387579 0.000329326 14.3418 215.117 0.0878237 6.01264

62
Figura 6.4: Imagen 000085 y su histograma PBL

Cuadro 6.4: Caracterı́sticas extraidas de la imagen 000085

0.00387579 0.000327663 14.3321 214.92 0.0873996 6.01178

Las extracción de caracterı́sticas es suficiente porque se ha logrado el objetivo


de mejorar la convergencia de la red perceptrón multicapa utilizando OEP, pero
para mejorar la sensibilidad se utilizará una etapa de pre-procesamiento más
elaborada.

63
6.4.2. Modelo 2
Redes

Se realizó el entrenamiento en las mismas condiciones para la red MLP y


PSO-MLP, se grafica la evolución del error en cada época.

Figura 6.5: Convergencia de MLP y PSO-MLP

La convergencia de PSO-MLP es superior que MLP desde el inicio, se acerca


más rápido al óptimo global y se realiza en menor cantidad de épocas, una
reducción del 60 %.

Precisión

Se logra una precisión 98.92 % pero se tienen problemas con una imagen.
Por ejemplo:

64
Figura 6.6: Imagen 000084 y su segmentación

Cuadro 6.5: Caracterı́sticas de 000084 y 000092

0.0098 0.0103 0.0223 0.0202 0.0102 0.0100 -0.00001 5.8917E-005


0.0694 0.0755 0.0082 0.0026 0.0758 0.0715 1.2934E-005 0.0005

Las caracterı́sticas son diferentes pero si calculamos la distancia entre ambas


obtenemos: 0.12802, eso significa que son valores próximos y por esta razón se
da la confusión del modelo propuesto. A pesar de esto, el objetivo principal del
trabajo es alcanzado al crear un modelo hı́brido para la tarea de detección de
cáncer pulmonar en imágenes tomográficas.

65
Capı́tulo 7

Conclusiones y Trabajo
futuro

7.1. Conclusiones
Se logra modelar, implementar y evaluar un clasificador de tomografı́as axia-
les computarizadas utilizando umbralización y criterios geométricos, partición
binaria local y medidas estadı́sticas, enjambre de partı́culas y redes neuronales
perceptrón multicapa.

Utilizar umbralización y criterios geométricos en el pre-procesamiento nos


permite aislar el área de interés para su posterior análisis.

Utilizar partición binaria local para generar una nueva imagen y extraer
caracterı́sticas media, varianza, sesgo, curtosis extrae caracterı́sticas rele-
vantes.

Utilizar optimización de enjambre de partı́culas logra una mejor conver-


gencia en el modelo de la red PMC, disminuyendo el número de etapas en
el entrenamiento.

El uso de una red PMC en la clasificación de imágenes(TAC), nos brinda


una precisión de 98.92 % y confirma su capacidad de clasificación.

7.2. Recomendaciones
Usar formatos de imagen que tengan menor pérdida, para tener la imagen
con mayor cantidad de información.

66
Utilizar un método de extracción de caracterı́sticas que sea lo suficiente-
mente discriminativo para obtener una buena precisión en la clasificación.

Tener cuidado con los tamaños de los punteros, las declaraciones de estruc-
turas de opencv y el uso de sus diferentes funciones; revisando su manual
o la página misma.

7.3. Comentarios finales


El presente trabajo cumple con su cometido, experimentar con técnicas de
inteligencia artificial como la perceptrón multicapa, optimización de enjambre
de partı́cula y alcanzar una clasificación satisfactoria de las imágenes tomográfi-
cas. Permite ahondar en los conocimientos sobre procesamiento de imágenes y
aprendizaje de máquina, de esta forma sentar las bases para proyectos posterio-
res relacionados.

7.4. Trabajos Futuros


Se pueden realizar muchos trabajos partiendo de WHO (2011) , pues hay
varias investigaciones sobre cáncer pulmonar y otros tipos de cáncer; recordando
que cada uno tiene una naturaleza diferente.
Usar otros métodos para extraer caracterı́sticas, encontrar las regiones y otro
clasificador. OPF (optimun path forest) es un clasificador que ha tenido buenos
resultados con imágenes y videos, fue utilizado en diversos trabajos presentados
en conferencias internacionales. Existen algoritmos de computación evolutiva
que pueden mejorar el entrenamiento de la red ( algoritmos evolutivos cuánticos
da Cruz et al. (2010); Chire Saire and Tupac Valdivia (2015) ).

67
Bibliografı́a

Ada, R. K. (2013). Early detection and prediction of lung cancer survival using
neural network classifier.

Ashwin, S., Ramesh, J., Kumar, S. A., and Gunavathi, K. (2012). Efficient and
reliable lung nodule detection using a neural network based computer aided
diagnosis system. In Emerging Trends in Electrical Engineering and Energy
Management (ICETEEEM), 2012 International Conference on, pages 135–
142.

Assefa, M., Faye, I., Malik, A. S., and Shoaib, M. (2013). Lung nodule detection
using multi-resolution analysis. In Complex Medical Engineering (CME), 2013
ICME International Conference on, pages 457–461.

Ayman El-Baz, Garth M. Beache, G. G. (2013). Computer-aided diagnosis


systems for lung cancer: Challenges and methodologies. International Journal
of Biomedical Imaging.

Azian Azamimi Abdullah, S. M. S. (2012). Lung cancer cell classification method


using artificial neural network. Information Engineering Letters.

Bradski, G. (2000). Dr. Dobb’s Journal of Software Tools.

Chire Saire, J. and Tupac Valdivia, Y. (2015). An approach to real-coded quan-


tum inspired evolutionary algorithm using particles filter. In 2015 Latin Ame-
rica Congress on Computational Intelligence (LA-CCI), pages 1–6.

da Cruz, A., Vellasco, M., and Pacheco, M. (2010). Quantum-inspired evolutio-


nary algorithms applied to numerical optimization problems. In Evolutionary
Computation (CEC), 2010 IEEE Congress on, pages 1–6.

Elshinawy, M., Abdelmageed, W., Badawy, A.-H., and Chouikha, M. (2010).


Pre-cad system for normal mammogram detection using local binary pattern
features. In Computer-Based Medical Systems (CBMS), 2010 IEEE 23rd In-
ternational Symposium on, pages 352–357.

68
Haykin, S. (1998). Neural Networks: A Comprehensive Foundation. Prentice
Hall PTR, Upper Saddle River, NJ, USA, 2nd edition.

Herman, G. (2009). Fundamentals of computerized tomography: Image recons-


truction from projection (2nd edition). Springer.

Ignatious, S. and Joseph, R. (2015). Computer aided lung cancer detection


system. In Communication Technologies (GCCT), 2015 Global Conference
on, pages 555–558.

INC (2015a). Cáncer de pulmón.

INC (2015b). ¿qué es el cáncer?

J., C. (2008). Detección De Normalidad Y Anormalidad En Radiografias De


Torax Usando Lbp. PhD thesis.

Kachouie, N. and Fieguth, P. (2007). A medical texture local binary pattern for
trus prostate segmentation. In Engineering in Medicine and Biology Society,
2007. EMBS 2007. 29th Annual International Conference of the IEEE, pages
5605–5608.

Kennedy, J.; Eberhart, R. (2005). Particle swarm optimization. Proceedings of


IEEE International Conference on Neural Networks, IV:1942–1948.

Lange (2004a). Thorax ct pcor cut 3d volume rendering haut.

Lange (2004b). Thorax ct peripheres bronchial carcinom image.

Mikael Berndtsson, Jörgen Hansson, B. O. B. L. (2008). Thesis projects: a guide


for students in computer science and information systems. Springer.

Mughal, M. N. and Ikram, W. (2004). Early lung cancer detection by classifying


chest ct images: a survey. In Multitopic Conference, 2004. Proceedings of
INMIC 2004. 8th International, pages 67–72.

Mukherjee, J., Chakrabarti, A., Shaikh, S. H., and Kar, M. (2014). Automatic
detection and classification of solitary pulmonary nodules from lung ct images.
In Emerging Applications of Information Technology (EAIT), 2014 Fourth
International Conference of, pages 294–299.

Nelson Guerra Álvarez, B. C. L. (2006). Optimización de funciones a través de


optimización por enjambre de partı́culas y algoritmos genéticos.

Nielsen, R. H. (1987). Kolmogorov’s mapping neural network existence theo-


rem. In Proceedings of the IEEE First International Conference on Neural
Networks (San Diego, CA), volume III, pages 11–13. Piscataway, NJ: IEEE.

69
OMS (2015). Enfermedades no transmisibles.

Punithavathy, K., Ramya, M. M., and Poobal, S. (2015). Analysis of statisti-


cal texture features for automatic lung cancer detection in pet/ct images. In
Robotics, Automation, Control and Embedded Systems (RACE), 2015 Inter-
national Conference on, pages 1–5.

Shi, Y.; Eberhart, R. (1998). A modified particle swarm optimizer. Proceedings


of IEEE International Conference on Evolutionary Computation, page 69–73.

Stergiou C., S. D. (2015). Neural networks.

Team, O. (2015). Finding contours. http://docs.opencv.org/2.4/doc/


tutorials/imgproc/shapedescriptors/find_contours/find_contours.
html [Accessed: 30-03-16].

Terdale, S. B. and Kulhalli, K. (2012). Cad system for lung cancer detection
using ann.

WHO (2008). The global burden disease: 2004 update.

WHO (2009). Global health risks.

WHO (2011). Noncommunicable diseases country profiles 2011.

WHO (2014). The 10 leading causes of death in the world, 2000 and 2011.

WHO (2015). Cancer.

Zamani M., S. A. (2009). A variation of particle swarm optimization for trai-


ning of artificial neural networks. International Journal of Application or
Innovation in Engineering and Management.

70

También podría gustarte