5ta Tarea de RNA
5ta Tarea de RNA
5ta Tarea de RNA
Semestre: Octavo
Año: 2012
Trabajo de Investigación
(1.1)
Donde:
1. a: es la salida de la neurona.
2. Fk: es la función de transferencia de la neurona.
3. Wij: es la matriz de pesos.
4. Pi:es el patrón de entrenamiento.
5. bk:es el umbral de activación de la neurona.
(1.2)
Donde:
(1.3)
Figura 1.10 Función de Transferencia Escalón (Hardlim).
(1.4)
Figura 1.11 Función de Transferencia de Escalón Simétrica.
Función de Transferencia lineal (purelin)
(1.5)
Esta función toma los valores de entrada, los cuales pueden oscilar
entre más y menos infinito, y restringe la salida a valores entre cero y
uno, de acuerdo a la expresión:
(1.6)
Función en
Nombre Relación Entrada /Salida icono
Matlab
Lineal purelin
Lineal Saturado satlin
Tangente Sigmoidal
tansig
Hiperbólica
a=1 Neurona con n max
Competitiva compet
a=0 El resto de las neuronas
Figura 1.14 Funciones de Transferencia.
BACKPROPAGATION
HOPFIELD
KOHONEN
Supervisado
(1.7)
1. 4. Volver al paso 2.
Para una red con una única capa con un único elemento de procesado
en la salida con una función de activación lineal, la salida viene dada
por:
(1.8)
Una red simple con una única capa, es capaz de representar relaciones
lineales entre el valor del elemento de procesado de la salida y el valor
de los elementos de procesado de la entrada. Umbralizando el valor de
la salida se puede construir un clasificador. Pero, también se pueden
realizar otras tareas como aproximación de funciones. En espacios de
entrada multidimensionales la red representa un hiperplano de decisión
y es trivial asumir que se pueden definir varias unidades de salida.
(1.9)
(1.11)
(1.12)
Y:
(1.13)
con lo cual:
(1.14)
La regla Delta, modifica los pesos como función de las salidas deseada y
real para unidades de entrada y salida binarias o continuas. Estas
características abrieron un nuevo campo de posibilidades para las redes
neuronales.
En donde:
(1.16)
(1.17)
(1.18)
(1.19)
(1.20)
(1.22)
(1.23)
Que es el mismo resultado que en la regla Delta básica. Por tanto, para
las unidades de la capa de salida:
(1.24)
Con lo cual:
(1.26)
No supervisado
Aprendizaje competitivo
(1.28)
Reforzamiento
El Perceptrón
(2.1)
Características
Arquitectura
La red perceptrón puede tener únicamente una sola capa, debido a que
la regla de aprendizaje del perceptrón es capaz de entrenar solamente
una capa. Esta restricción coloca limitaciones en cuanto a lo que un
perceptrón puede realizar computacionalmente.
(2.2)
(2.3)
(2.4)
Algoritmo de Aprendizaje
Donde:
(2.5)
Para el umbral b:
(2.6)
Para el error e:
(2.7)
En donde:
b: Es el umbral de activación.
p: Es el patrón de análisis.
e: Es el error.
α: Es la velocidad de aprendizaje.
Aplicaciones
Infografía
www.scribd.com/RedesNeuronales