Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Tarea 3

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 3

Tarea 3°

Seminario de Solución de Problemas de Inteligencia


Artificial II
Perceptrón

En el campo de las Redes Neuronales, el perceptrón, creado por Frank Rosenblatt, se refiere a:

• La neurona artificial o unidad básica de inferencia en forma de discriminador lineal, a partir de lo


cual se desarrolla un algoritmo capaz de generar un criterio para seleccionar un sub-grupo a partir
de un grupo de componentes más grande. La limitación de este algoritmo es que, si dibujamos en
un gráfico estos elementos, se deben poder separar con un hiperplano únicamente los elementos
"deseados" discriminándolos (separándolos) de los "no deseados".
• El perceptrón puede utilizarse con otros tipos de perceptrones o de neurona artificial, para formar
una red neuronal artificial más compleja.

El modelo biológico más simple de un perceptrón es una neurona y viceversa. Es decir, el modelo matemático
más simple de una neurona es un perceptrón. La neurona es una célula especializada y caracterizada por
poseer una cantidad indefinida de canales de entrada llamados dendritas y un canal de salida llamado axón.
Las dendritas operan como sensores que recogen información de la región donde se hallan y la derivan hacia
el cuerpo de la neurona que reacciona mediante una sinapsis que envía una respuesta hacia el cerebro, esto
en el caso de los seres vivos.

Una neurona sola y aislada carece de razón de ser. Su labor especializada se torna valiosa en la medida en
que se asocia a otras neuronas, formando una red. Normalmente, el axón de una neurona entrega su
información como "señal de entrada" a una dendrita de otra neurona y así sucesivamente. El perceptrón que
capta la señal en adelante se extiende formando una red de neuronas, sean éstas biológicas o de sustrato
semiconductor (compuertas lógicas).

El perceptrón usa una matriz para representar las redes neuronales y es un discriminador terciario que traza
su entrada {\displaystyle x}x (un vector binario) a un único valor de salida {\displaystyle f(x)}f(x) (un solo
valor binario) a través de dicha matriz.

Algoritmo LMS

El algoritmo LMS (del inglés, Least-Mean-Square algorithm) se usa en filtros adaptativos para encontrar los
coeficientes del filtro que permiten obtener el valor esperado mínimo del cuadrado de la señal de error,
definida como la diferencia entre la señal deseada y la señal producida a la salida del filtro.

Pertenece a la familia de los algoritmos de gradiente estocástico, es decir, el filtro se adapta en base al error
en el instante actual únicamente. Fue inventado en 1960 por el profesor de la Universidad de Stanford Bernard
Widrow y su primer estudiante de doctorado, Ted Hoff.

Su importancia radica en que es un algoritmo muy simple. No requiere medidas de las funciones de
correlación, ni tampoco inversión de la matriz de correlación.
Un filtro es un proceso mediante el cual a una señal cualquiera se le modifica su contenido espectral. El
algoritmo LMS es un algoritmo de filtrado lineal adaptativo que, en general, consiste de dos procesos básicos:

Un proceso de filtrado, que involucra:

• El cómputo de la salida de un filtro lineal en respuesta a una señal de entrada, y


• La generación de una estimación del error mediante la comparación de esta salida con la señal
deseada.
• Un proceso adaptativo, que involucra el ajuste automático de los parámetros del filtro de acuerdo al
error estimado.

Cuando se habla de filtros adaptativos, está implícito que los parámetros que caracterizan al filtro, tales como
el ancho de banda y frecuencias de los ceros, entre otros, cambian con el tiempo, esto es, los coeficientes de
los filtros adaptativos cambian con el tiempo, en contraposición a los coeficientes de los filtros fijos que son,
teóricamente, invariantes con el tiempo.

El algoritmo LMS pertenece a la familia de los algoritmos de gradiente estocástico. Con el término
"estocástico" se pretende distinguir este algoritmo del Steepest Descent, que utiliza un gradiente determinista
para el cálculo de los coeficientes del filtro.

Una característica importante del LMS es su simplicidad. No requiere medidas de las funciones de
correlación, ni tampoco inversión de la matriz de autocorrelación.

El LMS comprende dos procesos básicos:

1. Un proceso de filtrado, que implica el cálculo de la salida generada por un filtro transversal, y la
generación de una estimación del error comparando esta salida con la respuesta deseada.
2. Un proceso adaptativo, que realiza el ajuste automático de los coeficientes del filtro de acuerdo con
la estimación del error.

También podría gustarte