Tesisi
Tesisi
Tesisi
PARA DIAGNÓSTICO DE
CÁNCER PULMONAR
CASO: CÉLULAS NO PEQUEÑAS
3
Índice general
Índice de figuras 7
Índice de cuadros 9
1. Introducción 11
1.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2. Definición del Problema . . . . . . . . . . . . . . . . . . . . . . . 12
1.3. Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4. Justificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5. Organización de la tesis . . . . . . . . . . . . . . . . . . . . . . . 13
1.6. Delimitación de Trabajo . . . . . . . . . . . . . . . . . . . . . . . 14
1.7. Modelo de investigación . . . . . . . . . . . . . . . . . . . . . . . 14
2. Cáncer Pulmonar 15
2.1. ¿Qué es el cáncer? . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Cáncer Pulmonar y sus tipos . . . . . . . . . . . . . . . . . . . . 16
2.3. Tomografı́a Axial Computarizada . . . . . . . . . . . . . . . . . . 17
2.4. Importancia de TAC . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Estadı́sticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3. Trabajos relacionados 20
3.1. Estado de Arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4. Marco teórico 24
4.1. Redes Neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.1. ¿Qué es una red neuronal artificial? . . . . . . . . . . . . 24
4.1.2. Neurona . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.3. Funciones de Activación . . . . . . . . . . . . . . . . . . . 27
4.1.4. Arquitectura de Redes . . . . . . . . . . . . . . . . . . . . 29
4.1.5. Representación del Conocimiento . . . . . . . . . . . . . . 30
4.1.6. Procesos de Aprendizaje . . . . . . . . . . . . . . . . . . . 31
4
4.1.7. Paradigmas de aprendizaje . . . . . . . . . . . . . . . . . 34
4.1.8. Perceptrón mono-capa . . . . . . . . . . . . . . . . . . . . 34
4.1.9. Perceptrón Multicapa . . . . . . . . . . . . . . . . . . . . 35
4.2. Computación Evolutiva . . . . . . . . . . . . . . . . . . . . . . . 36
4.2.1. Optimización por Enjambres de Partı́culas . . . . . . . . . 36
4.3. Segmentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3.1. Umbralización . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4. Extracción de caracterı́sticas . . . . . . . . . . . . . . . . . . . . 38
4.4.1. Patrón binario local . . . . . . . . . . . . . . . . . . . . . 39
4.4.2. Histograma PBL . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.3. Extraer caracterı́sticas de una imagen . . . . . . . . . . . 41
4.5. Medición de la clasificación . . . . . . . . . . . . . . . . . . . . . 42
4.5.1. Definiciones iniciales . . . . . . . . . . . . . . . . . . . . . 42
4.5.2. Medidas de la clasificación . . . . . . . . . . . . . . . . . . 43
5. Propuesta 44
5.1. ¿Por qué hı́brido? . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2. Modelo hı́brido . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.3. Modelo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.3.1. Arquitectura Red Neuronal . . . . . . . . . . . . . . . . . 45
5.3.2. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3.3. Descripción del Esquema . . . . . . . . . . . . . . . . . . 46
5.4. Modelo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.4.1. Arquitectura Red Neuronal . . . . . . . . . . . . . . . . . 49
5.4.2. Esquema . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.4.3. Descripción del Esquema . . . . . . . . . . . . . . . . . . 51
6. Experimentación y Evaluación 58
6.1. Caracterı́sticas hw y sw utilizados . . . . . . . . . . . . . . . . . . 58
6.2. Banco de imágenes . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.3. Comparación de Resultados . . . . . . . . . . . . . . . . . . . . . 59
6.4. Análisis y validación de Resultados . . . . . . . . . . . . . . . . . 60
6.4.1. Modelo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
6.4.2. Modelo 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5
Bibliografı́a 68
6
Índice de figuras
7
5.8. Segmentación de imagen 000092.jpg . . . . . . . . . . . . . . . . 53
5.9. Imagen generada al aplicar PBL . . . . . . . . . . . . . . . . . . 54
5.10. Conjunto de imágenes a clasificar . . . . . . . . . . . . . . . . . . 56
8
Índice de cuadros
5.1. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.2. Caracterı́sticas de Histograma PBL . . . . . . . . . . . . . . . . . 47
5.3. Ejemplo archivo de patrones . . . . . . . . . . . . . . . . . . . . . 47
5.4. Configuración OEP . . . . . . . . . . . . . . . . . . . . . . . . . . 48
5.5. Arquitectura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.6. Ejemplo archivo de patrones . . . . . . . . . . . . . . . . . . . . . 54
5.7. Configuración OEP . . . . . . . . . . . . . . . . . . . . . . . . . . 55
9
Glosario
10
Capı́tulo 1
Introducción
11
El área de procesamiento de imágenes e inteligencia artificial son una so-
lución actual para tareas de detección de zonas de interés. Existen diversas
investigaciones sobre el uso de técnicas de ambas áreas aplicadas a la detección
de cáncer pulmonar.
1.1. Motivación
Para diagnosticar cáncer pulmonar, el radiólogo necesita analizar un conjun-
to de imágenes basado en su conocimiento y experiencia.
Existen algoritmos para extraer información de las tomografı́as axiales compu-
tarizadas ( Patrón binario local (PBL)), algoritmos para la clasificación( Per-
ceptrón Multicapa (PMC))y algoritmos de optimización( Optimización por en-
jambre de partı́culas (OEP)), utilizados en diversos trabajos que obtienen bue-
nos resultados en la clasificación de este tipo de imágenesTerdale and Kulhalli
(2012); Ada (2013); Zamani M. (2009); Ayman El-Baz (2013); Kachouie and
Fieguth (2007); Elshinawy et al. (2010); Mughal and Ikram (2004). Por tanto,
se puede experimentar con PBL para extraer información de las imágenes, abor-
dar el entrenamiento de una red PMC como un problema de optimización en
su etapa de inicialización en lugar una inicialización aleatoria para lograr una
mejor convergencia y disminuir el número de épocas(iteraciones).
1.3. Objetivos
Objetivo General
12
extracción de caracterı́sticas, optimización de enjambre de partı́culas para
optimizar el entrenamiento de la red PMC.
Objetivo Especı́ficos
1.4. Justificación
Según la OMS en el 2008 se declaró al cáncer la primera causa de morta-
lidad a nivel mundial y el cáncer de pulmón causó 1.5 millones de muertes en
el 2011 WHO (2014). Cada dı́a se producen grandes cantidades de información
en el área médica y son varios millones de pacientes a nivel mundial los que
son sometidos a exámenes para diagnosticar sus estados. Por tanto, es necesario
procesar grandes cantidades de información y desde hace varios años esta ta-
rea es realiza por el área de computación. Existen diversos trabajos utilizando
diversos algoritmos en el pre-procesamiento, extracción de caracterı́sticas, cla-
sificación con buenos resultados. Las dos etapas importantes para una buena
clasificación son el pre-procesamiento para extraer la zona de interés y la ex-
tracción de caracterı́sticas para obtener información relevante que influencia en
la etapa posterior de clasificación.
13
En el capı́tulo 7 se presentan las conclusiones y recomendaciones finales, se
comenta sobre las posibles mejoras o trabajos futuros relacionados al tema de
tesis.
14
Capı́tulo 2
Cáncer Pulmonar
Linfoma y mieloma: cánceres que empiezan en las células del sistema in-
munitario. Cánceres del sistema nervioso central: cánceres que empiezan
en los tejidos del cerebro y de la médula espinal.
15
conocido como metástasis. Las metástasis son la principal causa de muerte por
cáncer.
16
Figura 2.2: Pulmón Lange (2004a).
Figura 2.3: TAC muestra un tumor canceroso indicado por la flecha Lange
(2004b).
17
2.4. Importancia de TAC
La tomografı́a axial computarizada es de gran utilidad en el cáncer de pulmón
y se recomienda en todo paciente con un nódulo pulmonar solitario detectado
por radiografı́a. Algunas ventajas de una tomografı́a incluyen:
2.5. Estadı́sticas
Número estimado de casos nuevos y muertes por cáncer de pulmón (células
pequeñas y células no pequeñas combinados) en los Estados Unidos en
2013, según INC (2015a) :
Casos nuevos: 228 190 Muertes: 159 480
18
Figura 2.4: Riesgos tradicionales vs modernos WHO (2009).
19
Capı́tulo 3
Trabajos relacionados
20
Ada (2013).
21
el diagnóstico para determinar nódulos benignos y malignos Ayman El-
Baz (2013).
22
para mejorar la detección de falsos positivos. En multi-resolution feature
analysis technique, se usaron medidas estadı́sticas como: energı́a, entropı́a,
media, desviación estándar, máximo valor, momento de diferencia inverso
y homogeneidad . Los resultados en la detección fueron 81.212 % Assefa
et al. (2013).
23
Capı́tulo 4
Marco teórico
24
el tiempo de aprendizaje.
4.1.2. Neurona
Unidad fundamental de procesamiento de información en la red neuronal. En
la figura 4.1 se muestra la base para el diseño de las redes neuronales. Existen
tres elementos básico en el modelo:
m
X
uk = wkj xj (4.1)
j=1
25
yk = ϕ(uk + bk ) (4.2)
donde x1 , x2 , . . . , xm son las señales de entrada; wk1 , wk2 , . . . , wkm son los
pesos sinátpicos de la neurona k; uk es el combinador lineal de salida debido
a las señales de entrada; bk es el bias; ϕ() es la función de activación y yk es
la señal de salida de la neurona. El uso de bk tiene el efecto de aplicar una
transformación similiar a la salida uk en 4.1 como se muestra:
vk = uk + bk (4.3)
m
X
vk = wkj xj (4.4)
j=0
yk ≈ ϕ(vk) (4.5)
26
x0 = +1 (4.6)
y su peso es:
wk0 = bk (4.7)
(
1, si v≥0
ϕ(v) = (4.8)
0, si v<0
(
1, si vk ≥ 0
yk = (4.9)
0, si vk < 0
m
X
vk = wkj xj + bk (4.10)
j=1
27
1
1, v ≥ + 2
ϕ(v) = v, + 12 > v > − 21 (4.11)
0, v ≤ − 12
Esta forma de una función de activación puede ser visto como una apro-
ximación a un amplificador no lineal.
1
ϕ(v) = (4.12)
1 + exp(−av)
28
Figura 4.5: Función sigmoide, parámetro a modifica la pendiente
29
totalmente conectada porque cada nodo en cada capa está conectado con
cada nodo de la capa adyacente.
Figura 4.6: Red acı́clica o totalmente conectada con una capa oculta y una capa
de salida.
3. Redes recurrentes
Se distingue de las de pre-alimentación en tener al menos un ciclo de
retro-alimentación. Por ejemplo en 4.7, se observa una red mono-capa con
cada señal de salida de regreso a las entradas de todas las neuronas. La
presencia de ciclos de retro-alimentación tiene un profundo impacto en la
capacidad de aprendizaje de la red y en su desempeño.
Los ciclos involucran el uso de elementos de unidades de retraso (denotados
por z −1 , que resulta en un compartamiento dinámico no lineal.
30
que información es actualmente explı́cita y como la información es fı́sicamente
codificado para uso posterior. En las aplicaciones del mundo real de máquinas
inteligentes,una buena solución está relacionada con una buena representación
del conocimiento. Las variedad en las formas hace que el desarrollo de una so-
lución satisfactoria sea un reto real.
La mayor tarea de una red neuronal es aprender del exterior y mantener un mo-
delo consistente para lograr objetivos especı́ficos. El conocimiento del mundo
consiste de dos tipos de información:
El estado del mundo representado por hechos sobre qué es y qué ha sido
conocido, referido a la información previa.
Estos ejemplos pueden ser etiquetados o no, los etiquetados representan una
relación entre señal de entrada con respuesta deseada. Los pares de entrada-
salida son los datos para el entrenamiento.
Hay cuatro reglas propuesta por Anderson como se menciona en Haykin
(1998) son:
31
El aprendizaje es el proceso por el cual los parámetros libres de una red
neuronal son adaptados a través de un proceso de estimulación por el ambiente
en el que se encuentra. El tipo de aprendizaje es determinado por la forma en
que el parámetro cambia.
3. La red neuronal responde de una forma diferente por los cambios que
ocurridos en su estructura interna.
Error de Aprendizaje
32
1 2
ξ(n) = e (n) (4.14)
2 k
Este ξ(n) es el valor instantáneo de energı́a de error, el ajuste de pesos
sinápticos en cada paso continuará hasta que el sistema alcanze un estado esta-
ble, entonces el proceso de aprendizaje habrá terminado.
Al calcular el ajuste sináptico ∆wkj (n), el valor actualizado del peso sinápti-
co wkj es determinado por:
Aprendizaje Hebbiano
33
4.1.7. Paradigmas de aprendizaje
Aprendizaje Supervisado
Aprendizaje No Supervisado
El perceptrón es la forma más simple de una red neuronal usada para la cla-
sificación de patrones linealmente separables. Consiste de una neurona con pesos
sinápticos ajustables y un bias. El algoritmo usado para ajustar los parámetros
libres de esta red neuronal aparecieron por primera vez en el procedimiento de
34
aprendizaje desarrollado por Rossenblat (1958,1962). Rosenblatt demostró que
si los patrones usados para entrenar el perceptrón son escogidos de clases li-
nealmente separables, entonces el algoritmo converge y posiciona la superficie
de decisión usando un hiper-plano entre dos clases.
Backpropagation
Consiste en dos pasos a través de las diferentes capas de la red: un pase hacia
adelante y uno hacia atrás. En el paso hacia adelante, un patrón de actividad
(vector de entrada) es aplicado a los nodos sensoriales de la red y su efecto se
propaga a través de la red capa por capa. Finalmente, un conjunto de salidas es
producido como respuesta de la red. Durante el pase los pesos sinápticos de la
red son calculados . Durante el pase hacia atrás, todos los pesos son ajustados
de acuerdo a regla de corrección-error.
Especı́ficamente, la respuesta actual de la red es sustraı́da de una respuesta
deseada u objetivo para producir una señal de error. La señal de error es propa-
gada hacia atrás a través de la red, en contra de la dirección de los conexiones
sinápticas, por estas dos etapas el algoritmo se llama error back-propagation.
Los pesos sinápticos son ajustado para hacer que la respuesta actual se acerque
a la respuesta deseada en un sentido estadı́stico. El perceptrón multicapa tiene
tres caracterı́sticas distintivas:
1
yj ≈ (4.17)
1 + exp(vj )
donde vj es el campo local inducido (la suma de todos los pesos sinápticos
35
más el bias) de la neurona j y yj es la salida de la neurona. La presencia
de no linealidad es importante de otra forma la relación entrada-salida
podrı́a ser reducida a un percetrón mono-capa
2. La red contiene una o más capas de neuronas ocultas que no son parte
de la entrada o salida de la red. Éstas permiten a la red aprener tareas
complejas al extraer progresivamente más caracterı́sticas significativas de
los patrones de entrada.
Evolución diferencial
Algoritmos genéticos
36
OEP permite optimizar un problema a partir de una población de soluciones
candidatas, denotadas como ”partı́culas”, moviendo éstas por todo el espacio
de búsqueda según algoritmos que tienen en cuenta la posición y la velocidad
de las partı́culas. El movimiento de cada partı́cula es influido por su mejor
posición local hallada hasta el momento, ası́ como por las mejores posiciones
globales encontradas por otras partı́culas durante su recorrido en el espacio de
búsqueda.
El algoritmo OEP está basado en velocidad:
y posición:
xi (k + 1) = xi (k) + vi (k + 1) (4.19)
4.3. Segmentación
4.3.1. Umbralización
Es un método de segmentación de imágenes para obtener imágenes binarias
a partir de imágenes en escala de grises.
(
1 if I(x, y) ≥ T
U mbralizació(I(x, y)) = (4.20)
0 if I(x, y) < 0
37
Figura 4.9: Imagen original e imagen binaria
38
4.4.1. Patrón binario local
El operador de Local Binary Pattern fue introducido en 1996 por Ojala,
Pietikäinen y Harwood, como una forma de resumir la estructura de nivel de gris
local. El operador toma una vecindad local alrededor de cada pı́xel, umbraliza
los pı́xeles de la vecindad al valor del pı́xel central y usa el parche de valores
binarios de la imagen resultante como un descriptor de la imagen local J. (2008).
Este operador fue definido originalmente para vecindades de 3 × 3, dando
códigos de 8 bits basados en los 8 pı́xeles alrededor del pı́xel central. El operador
PBL original forma etiquetas para los pı́xeles de la imagen umbralizando dicha
vecindad de cada pı́xel con el valor central y considerando el resultado como un
número binario. El cálculo de los códigos PBL puede hacerse fácilmente en una
simple pasada a través de la imagen. Formalmente, el operador PBL toma la
forma:
7
X
P BL(xc , yc ) = 2n s(gn − gc ) (4.21)
n=0
(
1 if x ≥ 0
s(x) = (4.22)
0 if x < 0
39
Media
Varianza
n
X
V arx = (xi − x̂)2 , i = 1, . . . , n (4.24)
i=1
Desviación estándar
Sesgo
n
X xi − x̂ 3
Sesgo(x) = ( ) , i = 1, . . . , n (4.26)
i=1
σ
Curtosis
n
X xi − x̂ 4
Curtosis(x) = ( ) −3 , i = 1, . . . , n (4.27)
i=1
σ
Energı́a
n
X
Energia(x) = (xi )2 , i = 1, . . . , n (4.28)
i=1
40
Entropı́a
n
X
Entropia(x) = (xi log 2(xi )) , i = 1, . . . , n (4.29)
i=1
Media
n X
X m
x̂ = I(i, j) , i = 1, . . . , n y j = 1, . . . , m (4.30)
i=1 j=1
Varianza
n X
X m
V ar(I) = (I(i, j) − x̂)2 , i = 1, . . . , n y j = 1, . . . , m (4.31)
i=1 j=1
Desviación estándar
v
u1 n X m
u X
σ =t (I(i, j) − x̂)2 , i = 1, . . . , n y j = 1, . . . , m (4.32)
N i=1 j=1
Sesgo
n X m
X I(i, j) − x̂ 3
Sesgo(I) = ( ) , i = 1, . . . , n y j = 1, . . . , m (4.33)
i=1 j=1
σ
Curtosis
n X m
X I(i, j) − x̂ 4
Curtosis(I) = ( ) −3 , i = 1, . . . , n y j = 1, . . . , m
i=1 j=1
σ
(4.34)
41
Energı́a
n X
X m
Energia(I) = (I(i, j))2 , i = 1, . . . , n y j = 1, . . . , m (4.35)
i=1 j=1
Entropı́a
n X
X m
Entropia(I) = (I(i, j) log 2(xi )) , i = 1, . . . , n y j = 1, . . . , m
i=1 j=1
(4.36)
Homogeneidad
n X m
X I(i, j)
Homogeneidad(I) = ( ) , i = 1, . . . , n y j = 1, . . . , m
i=1 j=1
(ij)2
(4.37)
n X m
X I(i, j)
M DI(I) = ( ) , i = 1, . . . , n y j = 1, . . . , m (4.38)
i=1 j=1
(i − j2)
42
4.5.2. Medidas de la clasificación
VP
Sensibilidad = ∗ 100 % (4.39)
V P + FN
VN
Especif icidad = ∗ 100 % (4.40)
V N + FP
VP +VN
P recisión = ∗ 100 % (4.41)
V N + V P + FN + FP
43
Capı́tulo 5
Propuesta
44
5.3. Modelo 1
5.3.1. Arquitectura Red Neuronal
La red neuronal utilizada es una PMC con 3 capas(entrada, oculta, salida).
El número de nodos de entrada es 6. El número de nodos en la capa oculta
está definido de acuerdo a la regla 2n + 1 Nielsen (1987) donde n es el número
de nodos en la capa de entrada. La capa de salida consta de un solo nodo
porque la salida de la red es binaria si hay presencia(1) o ausencia(0) de cáncer.
La arquitectura de la red se puede observar en el cuadro. 5.1.
Capa de entrada 6
Capa oculta 13
Capa de salida 1
45
5.3.2. Esquema
Entrenamiento :
Clasificación :
Directorio imágenes
Se seleccionaron un conjunto de 20 imágenes para el entrenamiento para
lograr una adecuada generalización en la etapa de clasificación. Se leen y
se cargan las imágenes.
46
Figura 5.2: Conjunto de imágenes para el entrenamiento
Pre-procesamiento
No se realiza ninguna operación en las imágenes.
Extracción de caracterı́sticas
Se utiliza PBL para obtener el histograma de cada imagen y se extraen
las medidas estadı́sticas 4.4.2.
2
0.036 0.044 0.012 0.005 0.044 8.197E-005
0
0.005 0.005 0.031 0.049 0.003 2.652E-005
1
47
Red Neuronal: Entrenamiento
La red perceptrón multicapa se crea con la configuración mencionada en
sección 5.3. Se inicializan los pesos sinápticos utilizando OEP para mejorar
la convergencia del entrenamiento en general y lograr una convergencia
más rápidam a continuación la configuración utilizada:
Clasificación
Extracción caracterı́sticas
Este paso es similar al paso de entrenamiento. Se describe un poco más a
continuación:
Por ejemplo:
48
Figura 5.3: Histograma generado por PBL
5.4. Modelo 2
5.4.1. Arquitectura Red Neuronal
La configuración de la red PMC sigue el criterio 2n + 1 Nielsen (1987).
Se tienen 8 entradas, 17 nodos en la capa oculta y la salida es binaria si hay
presencia(1) o ausencia(0). La arquitectura de la red se observa en el cuadro
5.5.
Capa de entrada 8
Capa oculta 17
Capa de salida 1
49
La mejor partı́cula encontrada en OEP es usada para inicializar los pesos de
la red perceptrón multicapa.
5.4.2. Esquema
Entrenamiento :
50
Clasificación :
Directorio imágenes
Este paso es similar al paso en el entrenamiento del modelo 1.
Pre-procesamiento
Fitellipse,
Imagen entrada Threshold Segmentación Imagen PBL
area, fillpoly
51
Figura 5.6: Imagen binaria resultante de aplicar la función threshold
52
Figura 5.7: Polı́gonos generados de imagen 000092.jpg
53
(
1 six > 0
s(x) = (5.1)
0 six <= 0
Extracción caracterı́sticas
2
0.036 0.044 0.012 0.005 0.044 0.038 -8.213E-005 8.197E-005
0
0.005 0.005 0.031 0.049 0.003 0.003 -6.045E-007 2.652E-005
1
54
La primera lı́nea indica el número de patrones, la siguiente el patrón y a
continuación su valor esperado.
Dimensión 171
Tamaño población 100
Nro de generaciones 75
Operación Minimizacción
Vel. min -0.5
Vel. max 0.5
Clasificación
Directorio de imágenes
En un directorio se localizan todas las imágenes a procesar.
55
Figura 5.10: Conjunto de imágenes a clasificar
Extracción caracterı́sticas
Se utiliza el mismo criterio que en el entrenamiento.
56
Red Neuronal:clasificación
Primero se cargan los pesos generados en el entrenamiento y se calculan
las salidas de la red por cada imagen. Se guarda en un archivo la salida
de cada imagen y finalmente se calcula su precisión.
57
Capı́tulo 6
Experimentación y
Evaluación
Software
Sistema operativo : Windows 7 Ultimate
IDE : Codeblocks 12.11
Compilador : Mingw
Librerias : OpenCv
Dimensiones: 512x512
58
Escala de grises
Los resultados de cada autor son comparados con los modelos propuestos:
Todos los trabajos realizados Ada (2013); Azian Azamimi Abdullah (2012);
Ashwin et al. (2012); Assefa et al. (2013); Ignatious and Joseph (2015); Terdale
and Kulhalli (2012) utilizan el esquema general de un CAD( pre-procesamiento,
segmentación, extracción caracterı́sticas, clasificación).
El modelo 1 sólo utilizó el operador PBL para generar un histograma PBL
y extraer caracterı́sticas, luego se realizó la clasificación. A pesar de sus buenos
valores en especificidad y precisión, se obtiene un valor nulo en sensibilidad. Esto
indica que no tiene la capacidad de reconocer la presencia de cáncer pulmonar
en la imagen y su capacidad de generalización es nula.
Por esta razón se planteó realizar un pre-procesamiento para tener una mejor
clasificación y se obtuvieron mejores valores en sensibilidad.
El modelo 2 supera a todos los modelos y utiliza un mayor número de ca-
racterı́sticas a excepción de Ada (2013) que utiliza 16 caracterı́stticas. Y cabe
considerar que el modelo Ada (2013) realizó sus experimentos con un mayor
conjunto de imágenes.
Los resultados muestran que un mayor número de caracterı́sticas pueden
influir en una mejor clasificación y realizar una buena segmentación influye
en el entrenamiento. Utilizar medidas estadı́sticas en este caso de imágenes en
escala de grises son útiles para la extracción de caracterı́sticas.
59
6.4. Análisis y validación de Resultados
6.4.1. Modelo 1
Redes
Precisión
Se logra una precisión 89.24 % pero se tienen problemas con algunas imáge-
nes. Por ejemplo:
Podemos apreciar que los histogramas tienen varias similitudes por esta
razón las 6 caracterı́sticas extraı́das de las imágenes están próximas y se con-
funden con los valores de las imágenes donde hay presencia de cáncer.
60
Figura 6.2: Imagen 000038 y su histograma PBL
61
Figura 6.3: Imagen 000071 y su histograma PBL
62
Figura 6.4: Imagen 000085 y su histograma PBL
63
6.4.2. Modelo 2
Redes
Precisión
Se logra una precisión 98.92 % pero se tienen problemas con una imagen.
Por ejemplo:
64
Figura 6.6: Imagen 000084 y su segmentación
65
Capı́tulo 7
Conclusiones y Trabajo
futuro
7.1. Conclusiones
Se logra modelar, implementar y evaluar un clasificador de tomografı́as axia-
les computarizadas utilizando umbralización y criterios geométricos, partición
binaria local y medidas estadı́sticas, enjambre de partı́culas y redes neuronales
perceptrón multicapa.
Utilizar partición binaria local para generar una nueva imagen y extraer
caracterı́sticas media, varianza, sesgo, curtosis extrae caracterı́sticas rele-
vantes.
7.2. Recomendaciones
Usar formatos de imagen que tengan menor pérdida, para tener la imagen
con mayor cantidad de información.
66
Utilizar un método de extracción de caracterı́sticas que sea lo suficiente-
mente discriminativo para obtener una buena precisión en la clasificación.
Tener cuidado con los tamaños de los punteros, las declaraciones de estruc-
turas de opencv y el uso de sus diferentes funciones; revisando su manual
o la página misma.
67
Bibliografı́a
Ada, R. K. (2013). Early detection and prediction of lung cancer survival using
neural network classifier.
Ashwin, S., Ramesh, J., Kumar, S. A., and Gunavathi, K. (2012). Efficient and
reliable lung nodule detection using a neural network based computer aided
diagnosis system. In Emerging Trends in Electrical Engineering and Energy
Management (ICETEEEM), 2012 International Conference on, pages 135–
142.
Assefa, M., Faye, I., Malik, A. S., and Shoaib, M. (2013). Lung nodule detection
using multi-resolution analysis. In Complex Medical Engineering (CME), 2013
ICME International Conference on, pages 457–461.
68
Haykin, S. (1998). Neural Networks: A Comprehensive Foundation. Prentice
Hall PTR, Upper Saddle River, NJ, USA, 2nd edition.
Kachouie, N. and Fieguth, P. (2007). A medical texture local binary pattern for
trus prostate segmentation. In Engineering in Medicine and Biology Society,
2007. EMBS 2007. 29th Annual International Conference of the IEEE, pages
5605–5608.
Mukherjee, J., Chakrabarti, A., Shaikh, S. H., and Kar, M. (2014). Automatic
detection and classification of solitary pulmonary nodules from lung ct images.
In Emerging Applications of Information Technology (EAIT), 2014 Fourth
International Conference of, pages 294–299.
69
OMS (2015). Enfermedades no transmisibles.
Terdale, S. B. and Kulhalli, K. (2012). Cad system for lung cancer detection
using ann.
WHO (2014). The 10 leading causes of death in the world, 2000 and 2011.
70