Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Agentes Inteligentes

Descargar como pptx, pdf o txt
Descargar como pptx, pdf o txt
Está en la página 1de 35

Agentes Inteligentes

Inteligencia Artificial
AGENTES: DEFINICIÓN

Los agentes software son probablemente el área de la tecnología de


la información que crece de manera más rápida. A pesar de esto,
aún no existe un acuerdo sobre qué es exactamente un agente.

.
AGENTES: DEFINICIÓN

⚫ Definición de Rusell y Norving (agente AIMA): “Un agente es


cualquier cosa que puede ser vista como algo que percibe su
ambiente a través de sensores y actúa sobre su ambiente a
través de efectores”.

⚫ Definición de Maes: “Los Agentes autónomos son sistemas


computacionales que habitan en algún ambiente dinámico
complejo, monitorean y actúan de forma autónoma en este
ambiente, y realizando esto logran un conjunto de objetivos o
tareas para los cuales están diseñados”. En esta definición el
ambiente tiene características de dinamismo y complejidad (no
especificadas en la definición de Rusell y Norvig), el agente actúa
en forma autónoma y mantiene una serie de propósitos (tareas
y objetivos).

.
AGENTES: DEFINICIÓN

⚫ Definición de Hayes-Roth: “Los agentes inteligentes


continuamente realizan tres funciones: percepción de
condiciones dinámicas en el ambiente; acción para
afectar condiciones en el ambiente; y razonamiento para
interpretar las percepciones, resolver problemas,
realizar inferencias, y determinar acciones”.

En esta definición el comportamiento del agente para


lograr acciones se presenta con mayor detalle, como
una serie de pasos a seguir: monitorear eventos,
razonar sobre los mismos, inferir posibles acciones y
finalmente ejecución de la acción.

.
AGENTES: DEFINICIÓN

En un trabajo realizado por Stan Franklin y Art Graesser, se


realiza un análisis de distintas definiciones y se concluye a
partir de ellas, usos comunes de la palabra Agente. La
conclusión es la siguiente: Las definiciones... parecen derivar
en uno o ambos usos comunes de la palabra agente:
 algo que actúa o que puede actuar
 algo que actúa en lugar de otro con su autorización

I
AGENTES: DEFINICIÓN

Para una mejor comprensión del concepto de Agente Franklin y


Graesser presentan una lista de cualidades que compartirían los
agentes, y por tanto constituirían la esencia de ser de un
agente:
⚫ Cada uno está situado en y es parte de algún ambiente.
⚫ Cada uno monitorea su ambiente y actúa de forma
autónoma sobre él.
⚫ No se necesita ninguna otra entidad para alimentarlo con
entradas o para interpretar y utilizar sus salidas.
⚫ Cada uno actúa de tal manera que su acción actual puede afectar
su monitoreo posterior, esto es sus acciones afectan a su
ambiente.
⚫ Cada uno actúa en prosecución de su propia agenda.
⚫ Cada uno actúa continuamente durante cierto periodo de tiempo

I
AGENTES: DEFINICIÓN

Luego de la revisión de varias de las definiciones existentes, la


que puede ser considerada como la más clara y completa, es
la propuesta por Wooldridge y Jennings.

"Existen dos nociones de agente: una débil y otra fuerte”

I
AGENTES DEBIL

Un sistema computacional hardware o software que goza de las


siguientes propiedades:

⚫ Autonomía: los agentes operan sin una directa intervención de


humanos u otros, y tienen cierto grado de control sobre sus
acciones y su estado interno;
⚫ Habilidad social: los agentes interactúan con otros agentes (y
posiblemente con humanos) vía algún tipo de lenguaje de
comunicación entre agentes;
⚫ Reactividad: los agentes perciben su ambiente, (que puede ser el
mundo físico, un usuario vía una interfaz gráfica, una colección
de otros agentes, la INTERNET, o tal vez todos estos
combinados), y responden de una manera ‘timely’ a cambios que
⚫ ocurren en él.
Pro-actividad: los agentes no actúan simplemente en respuesta a
su ambiente, son capaces de exhibir comportamiento oportunista,
dirigido por objetivos, tomando iniciativas cuando sea apropiado.

I
AGENTES FUERTE

Además de las características anteriores del agente débil tiene una


o más de las siguientes características:

⚫ Nociones mentales: un agente tiene creencias, deseos e


intenciones.
⚫ Racionalidad: un agente realiza acciones a fin de lograr objetivos.
⚫ Veracidad: un agente no es capaz de comunicar información
falsa de propósito.
⚫ Adaptabilidad o aprendizaje.

I
ARQUITECTURA DE AGENTES

¿Qué es una arquitectura de agentes?

“Una metodología particular para construir agentes. Especifica


cómo... el agente puede ser descompuesto en un conjunto de
módulos componentes y cómo estos módulos pueden interactuar. El
conjunto total de módulos y sus interacciones deben proveer una
respuesta a la pregunta de cómo el dato monitoreado y el estado
interno del agente determinan las acciones... y estados internos
futuros.”

I
ARQUITECTURA DE AGENTES

Wooldridge y Jennings se propone una clasificación de arquitectura


de agentes, según lo que considera como motor de acción del
agente.

Observa tres categorías principales:

IX. Arquitecturas deliberativas.


X. Arquitecturas reactivas .
XI. Arquitecturas híbridas.

I
Arquitecturas para agentes Deliberativos

Se define a una arquitectura de agente deliberativo, como una que


contiene un mundo representado explícitamente y un modelo lógico
del mismo, y en la cual las decisiones (por ejemplo acerca de las
acciones a realizar) son hechas por medio de un razonamiento
lógico, basado en concordancia de patrones y manipulación
simbólica.

I
Arquitecturas para agentes Deliberativos

Planning Agents:
Desde inicios de los setenta, la comunidad de la Inteligencia Artificial
dedicada al Planning (que es esencialmente programación
automática; es decir, diseño de un curso de acción que, cuando
ejecutado, resulta en el logro de algún objetivo deseado) ha estado
fuertemente relacionado con el diseño de agentes. Parece razonable
entonces, que muchas de las innovaciones en el diseño de agentes
provengan de esa comunidad.
IRMA
Intellince Resource-bounded Machine Architecture (IRMA)
[BRATMA88]. Esta arquitectura tiene cuatro estructuras claves, de
datos simbólicos: una librería de planes, una representación explícita
de creencias, deseos e intenciones. Adicionalmente, la arquitectura
tiene: un razonador, para razonamiento acerca del mundo; un
analizador, para determinar qué planes deben ser utilizados para
lograr las intenciones del agente; un filtrador de procesos; y un
proceso de deliberación. El proceso de filtración es responsable de
determinar el subconjunto de cursos de acción potenciales del
agente, que tienen la propiedad de ser consistentes con las
intenciones actuales del agente. La elección entre opciones que
compiten lo realiza el proceso de deliberación.

I
Arquitecturas para agentes Deliberativos

HOMER
En se argumenta que el establecimiento de tecnologías para
agentes inteligentes está lo suficientemente desarrollada, como
para construir un agente prototipo autónomo con habilidades
lingüísticas, capacidades de planeación y acción, etc. Se desarrolló
tal agente y se lo llamó HOMER. La arquitectura de HOMER es
específica para el problema de la comunicación en lenguaje
natural (reducido) con el usuario; para ello incluye una base de
vocabulario limitada a un subconjunto del idioma Inglés con cerca
de 800 palabras y una memoria episódica también limitada.
HOMER toma instrucciones del usuario que pueden contener
referencias temporales moderadamente sofisticadas; puede
planear cómo realizar sus instrucciones, y puede luego ejecutar
sus planes, modificándolos como sea requerido durante la
ejecución. El agente además, gracias a su memoria episódica, es
capaz de responder a preguntas acerca de sus experiencias
pasadas.

I
Arquitecturas para agentes Deliberativos

GRATE
GRATE es una arquitectura en capas en la que el comportamiento de
un agente es guiado por actitudes mentales tales como creencias,
deseos, intenciones e intenciones colectivas. Los agentes se dividen
en dos partes distintas: un sistema de nivel de dominio y una capa
de cooperación y control. El primero resuelve problemas para la
organización sea esta en el dominio de controles industriales, de
finanzas o transporte. El último es un controlador de meta nivel que
opera en el nivel de dominio del sistema con la intención de asegurar
que las actividades del agente a nivel del dominio sean coordinadas
con aquellas otras dentro de la comunidad. La capa de cooperación
está compuesta de tres módulos genéricos: un módulo de control que
es la interfaz con la capa de dominio del sistema, un módulo de
fijación de situaciones y un módulo de cooperación. Los módulos de
fijación y cooperación proveen una implementación de un módulo de
responsabilidad colectiva, que especifica cómo los agentes deberían
actuar tanto localmente como hacia otros agentes comprometidos a
cooperar en la resolución del problema.

I
Arquitecturas para agentes Deliberativos

BDI
BDI significa creencias (Beliefs), deseos (Desires) e intenciones
(Intention), que son componentes mentales presentes en muchas
arquitecturas de agentes. Las creencias representan el
conocimiento del agente, los deseos representan los objetivos y las
intenciones otorgan deliberación al agente.
Este tipo de arquitectura ve al sistema como un agente racional
que tiene ciertas actitudes mentales, tales como: creencias,
deseos e intenciones, representando respectivamente, los estados
de información, motivacional y deliberativos del agente. Estas
actitudes mentales determinan el comportamiento del sistema y
son críticos para lograr el desempeño adecuado u óptimo cuando
la deliberación está sujeta a recursos limitados.

I
Arquitecturas para agentes Deliberativos

BDI
Las creencias de un agente representan el conocimiento del
agente. El contenido del conocimiento puede ser cualquiera, por
ejemplo conocimiento acerca del ambiente del agente o acerca de
su historia. Los deseos son un conjunto de objetivos a largo plazo.
Un objetivo es típicamente una descripción de un estado deseado
del ambiente. Los deseos proveen al agente de la motivación
para actuar. Los objetivos constituyentes de los deseos pueden
ser contradictorios, entonces el sistema tiene que poder, de
cierta forma, elegir qué objetivo alcanzar primero, es aquí donde
aparecen las intenciones. Las intenciones pueden ser consideradas
como un conjunto de planes para lograr los objetivos que
constituyen los deseos.

I
Arquitecturas para agentes Reactivos

Una arquitectura para agente reactivo es aquella que no incluye


ningún tipo de modelo simbólico central del mundo, y no
utiliza razonamiento simbólico complejo.

Sumbsumption Architecture
Consiste en una jerarquía de comportamientos de logro de tareas.
Cada comportamiento ‘compite’ con otros para ejercer control
sobre el agente. Capas menores representan comportamientos de
tipo más primitivo, (tal como evitar obstáculos, por ejemplo), y
tienen precedencia sobre las capas superiores de la jerarquía. El
sistema resultante es, en términos de porcentaje de computación
que necesitan realizar, extremadamente simple, sin un
razonamiento explícito del tipo encontrado en los sistemas
simbólicos de inteligencia artificial.

I
Arquitecturas para agentes Reactivos

PENGI
Chapman y Agre observaron en, que la mayoría de las actividades
cotidianas son ‘rutinas’, en el sentido que se requiere poco – o
ningún - nuevo razonamiento. La mayoría de las tareas, una vez
aprendidas, pueden ser desarrolladas de una manera rutinaria, con
poca variación. Agre propuso que una arquitectura de agente
eficiente podría ser basada en la idea de ‘running arguments’. En
forma cruda, la idea es que, como la mayoría de las decisiones son
rutinarias, pueden ser codificadas a través de una estructura de
bajo nivel (tal como un circuito digital), que sólo necesita
actualización periódica, para manejar nuevos tipos de problemas.
Su enfoque fue ilustrado con el sistema PENGI. PENGI es un
juego de computadora simulado, con un sistema central
controlado utilizando el esquema arriba definido.

I
Arquitecturas para agentes Reactivos

Situated Automata
En el paradigma situated automata un agente se especifica en
términos declarativos. Esta especificación se compila luego a una
máquina digital, que satisface la especificación declarativa. Esta
máquina digital puede operar de una manera ‘time-bounded’; no
realiza ningún tipo de manipulación simbólica, y de hecho ninguna
expresión simbólica se representa en la máquina. La lógica
utilizada para especificar un agente es esencialmente una lógica
modal de conocimiento. Un agente se especifica en términos de
dos componentes: percepción y acción. Dos programas se utilizan
para sintetizar a los agentes: RULER se emplea para especificar el
componente referente a la percepción de un agente; mientras
que GAPPS para el componente referente a la acción del agente.

I
Arquitecturas para agentes Reactivos

Situated Automata
RULER toma como entrada tres componentes:
‘Una especificación de la semántica de las entradas del agente; un
conjunto de hechos estáticos; y una especificación del estado de
transiciones del mundo. El programador luego especifica la
semántica deseada para la salida, y el compilador... sintetiza un
circuito cuyas salidas tendrán la semántica correcta. ... Todo el
conocimiento declarativo se reduce a un circuito bastante simple’
GAPPS toma como entrada un conjunto de reglas de reducción de
objetivos, (esencialmente reglas que codifican información acerca
de cómo los objetivos pueden ser satisfechos), y un objetivo de
alto nivel, y genera un programa que puede ser traducido a un
circuito digital para realizar el objetivo. Nuevamente, el circuito
generado no representa o manipula expresiones simbólicas; toda
la manipulación simbólica se realiza en tiempo de compilación

I
Arquitecturas para agentes Reactivos

Arquitectura de Red de agentes.


Pattie Maes ha desarrollado una arquitectura de agentes en la cual
un agente se define como un conjunto de módulos de
competencia. Estos módulos asemejan ligeramente el
comportamiento de la arquitectura subsumption. Cada módulo es
especificado por el diseñador en términos de pre- y post-
condiciones, y un nivel de activación, que da una indicación real
de la relevancia del módulo en una situación particular. Cuanto
más alto es el nivel de activación de un módulo, hay mayor
posibilidad de que ese módulo influenciará el comportamiento del
agente. Una vez especificado, un conjunto de módulos de
competencia se compilan en una red de activación esparcida, en
la cual los módulos se enlazan unos a otros de manera definida
por las pre- y post- condiciones. El resultado de la ejecución
puede ser un

I
Arquitecturas para agentes Reactivos

Arquitectura de Red de agentes.


Pattie Maes ha desarrollado una arquitectura de agentes en la cual un
agente se define como un conjunto de módulos de competencia.
Estos módulos asemejan ligeramente el comportamiento de la
arquitectura subsumption. Cada módulo es especificado por el
diseñador en términos de pre- y post- condiciones, y un nivel de
activación, que da una indicación real de la relevancia del módulo en
una situación particular. Cuanto más alto es el nivel de activación
de un módulo, hay mayor posibilidad de que ese módulo
influenciará el comportamiento del agente. Una vez especificado, un
conjunto de módulos de competencia se compilan en una red de
activación esparcida, en la cual los módulos se enlazan unos a otros
de manera definida por las pre- y post- condiciones. El resultado de
la ejecución puede ser un comando a una unidad efectora, o tal vez
el aumento del nivel de activación de un módulo sucesor.
Existen obvias similitudes entre una arquitectura de red de agentes y
arquitecturas de redes neurales. Tal vez la diferencia clave es que es
difícil especificar cual es el significado de un nodo en una red neural;
sólo tiene un significado en el contexto de la red en sí. A pesar de
que los módulos de competencia se definen en términos declarativos,
sin embargo, es mucho más fácil especificar cual es su significado.

I
Arquitecturas para agentes Híbridos
Muchos investigadores han sugerido que ni un enfoque completamente
deliberativo ni uno completamente reactivo es adecuado para construir
agentes. Argumentaron el caso de sistemas híbridos, que intentan unir
Los enfoques deliberativos y reactivos.
Un enfoque obvio es construir un agente compuesto por dos
subsistemas: uno deliberativo, que contiene un módulo simbólico del
mundo, que desarrolla planes y efectúa decisiones de la manera
propuesta por la inteligencia artificial simbólica; y uno reactivo, que es
capaz de reaccionar a eventos que ocurren en el ambiente sin necesitar
un razonamiento complejo. A menudo, al componente reactivo se le da
cierto grado de precedencia sobre el deliberativo, de tal manera a
proveer una pronta respuesta a eventos ambientales importantes. En
una arquitectura tal, los sistemas de control del agente se arreglan en
una jerarquía, con las capas más altas tratando con información de
mayor nivel de abstracción. Así, por ejemplo, las capas inferiores
pueden mapear datos crudos (monitoreados) directamente a los
efectores de salida, mientras que las capas superiores tratan con
objetivos a largo plazo.

I
Arquitecturas para agentes Híbridos

PRS
De la misma manera que IRMA, el PRS es una arquitectura basada en
creencias, deseos e intenciones, que incluye una librería de planes,
así como una explícita representación simbólica de las creencias,
deseos e intenciones. Las creencias son hechos, tanto acerca del
mundo exterior como del estado interno del sistema. Estos hechos
son expresados mediante la clásica lógica de primer orden. Los
deseos son representados como comportamientos del sistema (antes
que como una representación estática de estados de objetivos). Una
librería de planes de un PRS contiene un conjunto de planes
parcialmente elaborados, llamados áreas de conocimiento
(knowledge areas KAs),cada uno de los cuales se asocia con una
condición de invocación. Estas condiciones determinan cuando el KA
debe ser activado. Los KAs pueden ser activados de una manera
dirigida por objetivos o dirigida por datos; los KAs pueden ser
también reactivos, permitiendo que el PRS responda rápidamente a
cambios en su ambiente. El conjunto de KAs actualmente activos en
un sistema representan sus intenciones. Estas varias estructuras de
datos son manipuladas por un sistema intérprete, que es responsable
de la actualización de las creencias, invocando KAs, y ejecutando
acciones.

I
Arquitecturas para agentes Híbridos

TouringMachines
La arquitectura consiste de subsistemas de percepción y acción, que
realizan la interfaz directamente con el ambiente del agente, y de
tres capas de control, contenidas en un framework de control, que
media entre las capas. Cada capa es un proceso independiente,
productor de actividad, que se ejecuta continuamente.
La capa reactiva genera cursos potenciales de acción en respuesta a
eventos que ocurren demasiado rápido como para que otras capas
los traten. Está implementada como un conjunto de reglas situación-
acción, en el estilo de la arquitectura subsumption.
La capa de planeamiento construye planes y selecciona acciones para
ejecutar a fin de satisfacer los objetivos del agente. Esta capa
consiste de dos componentes: un planeador, y un mecanismo foco de
atención. El planeador integra la generación del plan y la ejecución,
y utiliza una librería de planes parcialmente elaborados, junto con un
mapa topológico del mundo, a fin de construir planes que lograrán el
principal objetivo del agente.

I
Arquitecturas para agentes Híbridos

TouringMachines

El propósito del mecanismo foco de atención es limitar el porcentaje


de información con los que el planeador debe tratar, y de esta forma
aumentar su eficiencia. Logra esto filtrando información relevante
procedente del ambiente.

La capa de modelado contiene representaciones simbólicas del estado


cognitivo de otras entidades dentro del ambiente del agente. Estos
modelos son manipulados a fin de identificar y resolver conflictos
entre objetivos – situaciones donde el agente ya no puede lograr sus
objetivos, como resultado de una interferencia inesperada.

Las tres capas son capaces de comunicarse unas con otras (vía paso
de mensajes), y están contenidas en un framework de control. El
propósito de este framework es mediar entre las capas, y en
particular, tratar con acciones conflictivas propuestas por las
diferentes capas. El framework de control logra esto utilizando reglas
de control.

I
Arquitecturas para agentes Híbridos

COSY
La arquitectura COSY es un BDI (creencias, deseos e intenciones)
híbrido que incluye elementos tanto de PRS como de IRMA. La
arquitectura tiene cinco componentes principales: (i) sensores; (ii)
actuadores; (iii) comunicaciones; (iv) cognición; e (v) intención. Los
primeros tres componentes son directos: los sensores reciben
entradas perceptibles no comunicativas, los actuadores permiten al
agente realizar acciones no comunicativas, y el componente
comunicaciones permite al agente enviar mensajes. De los dos
componentes restantes, el componente intención contiene objetivos a
largo plazo, actitudes, responsabilidades y los elementos de control
que toman parte en el razonamiento y la toma de decisiones del
componente cognición, y el componente cognición es responsable de
mediar entre las intenciones del agente y sus conocimientos acerca
del mundo, y de elegir un acción apropiada para realizar.
Dentro del componente cognición se encuentra la base de
conocimiento que contiene las creencias del agente, y tres
componentes procedurales: un componente de ejecución de script,
un componente de ejecución de protocolo, y un componente de
razonamiento, decisión y reacción.

I
Arquitecturas para agentes Híbridos

COSY
Un script es una fórmula o plan para lograr un objetivo. Los
protocolos son diálogos que representan frameworks de
cooperación. El componente de razonamiento, decisión y reacción
es tal vez el componente clave de COSY. Está hecho de un
número de otros subsistemas, y es estructurado tal como PRS y
IRMA. Se mantiene una agenda, que contiene un número de
scripts activos. Estos scripts pueden ser invocados de una manera
dirigida por objetivos, o de una dirigida por datos. Un
componente filtrador selecciona entre scripts en competición para
la ejecución.

I
Arquitecturas para agentes Híbridos

Composicional
En una arquitectura composicional todas las funcionalidades son
diseñadas como una serie de componentes estructurados
jerárquicamente, que interactúan, basados en tareas . Las tareas
se caracterizan en términos de sus entradas, sus salidas y su
relación con otras tareas. La interacción y cooperación entre
componentes, entre componentes y el mundo externo, y entre
componentes y usuarios se especifica en términos de intercambio
de información, secuenciamiento de información y dependencias
de control. Los componentes en sí pueden ser de cualquier
complejidad y pueden realizar cualquier función de dominio.

Modelos de tareas definen la estructura de arquitecturas


composicionales: los componentes en una arquitectura
composicional están directamente relacionados a tareas en una
(des)composición de tareas.

I
Arquitecturas para agentes Híbridos

Composicional
En una arquitectura composicional son especificados y modelados
explícitamente los siguientes elementos:
⚫ Una (des)composición de tareas: por cada tarea en una jerarquía
de tareas un conjunto de subtareas puede ser especificada;
⚫ Intercambio de información: se especifica como links de
información entre componentes. Cada link de información relaciona
la salida de un componente con la entrada de otro;
⚫ Secuenciamiento de tareas: se modela explícitamente dentro de
los componentes como conocimiento de control de tarea. El
conocimiento de control de tareas incluye no sólo conocimiento de
qué tarea debe ser activada, cuando y cómo, sino también
conocimiento sobre información de control asociado con la
activación de la tarea y el porcentaje de esfuerzo que puede
permitirse para lograr un objetivo dado.

I
Arquitecturas para agentes Híbridos

Composicional
⚫ Delegación de subtareas: durante la adquisición del conocimiento
una tarea como un todo se modela. Durante el proceso de
modelado se toman decisiones como por ejemplo: qué tarea es
desarrollada mejor por cuál agente. Este proceso, que en general
también puede ser llevado a cabo en tiempo de ejecución, resulta
en la delegación de (sub)tareas a partes envueltas en la
ejecución de la tarea; y
⚫ Estructuras de conocimiento: durante la adquisición del
conocimiento una estructura apropiada para el dominio del
conocimiento debe ser proyectada. El significado de los conceptos
utilizados para describir un dominio y las relaciones entre los
conceptos y grupos de conceptos, debe ser determinado. Los
conceptos se requieren para identificar objetos distinguibles en un
dominio, pero además para expresar los métodos y estrategias
empleadas para realizar la tarea.

I
Arquitecturas para agentes
Híbridos
BDI Composicional
En esta arquitectura, el modelo genérico de un agente con
arquitectura composicional es refinado en un modelo BDI genérico
racional, en el cual el agente es capaz de razonamiento explícito
acerca de sus creencias, deseos e intenciones. El modelo BDI
Composicional está basado en un análisis de las tareas desarrolladas
por un agente BDI. Tal análisis de tareas, resulta, en una
composición (jerárquica) de tareas, que es la base para un modelo
composicional.
En la arquitectura composicional, el modelo genérico establece las
siguientes tareas necesarias para el agente:
⚫ control de sus propios procesos,
⚫ cumplimiento de sus tareas propias,
⚫ manejo de su interacción con el mundo,
⚫ manejo de su comunicación con otros
⚫ agentes,
⚫ mantenimiento de información sobre el mundo, y
mantenimiento de información sobre otros agentes.

I
Arquitecturas para agentes Híbridos

BDI Composicional
En la arquitectura BDI Composicional, cada una de las tareas
anteriores es refinada, descomponiéndolas en tres componentes:
V. Creencias del agente
VI.Deseos del agente
VII.Intenciones del agente
Entonces la jerarquía de tareas presentada en el modelo genérico
se extiende agregando los tres componentes anteriores. Por
ejemplo, la tarea control de sus propios procesos se subdivide en
las siguientes subtareas:
IX. Determinación de creencias,
X. Determinación de deseos
XI. Determinación de intenciones.
El resultado es un agente BDI más específico en el cual las
dependencias entre creencias, deseos e intenciones se hacen
explícitas.

I
Arquitecturas para agentes Híbridos

BDI Composicional
En la arquitectura BDI Composicional, cada una de las tareas
anteriores es refinada, descomponiéndolas en tres componentes:
V. Creencias del agente
VI.Deseos del agente
VII.Intenciones del agente
Entonces la jerarquía de tareas presentada en el modelo genérico
se extiende agregando los tres componentes anteriores. Por
ejemplo, la tarea control de sus propios procesos se subdivide en
las siguientes subtareas:
IX. Determinación de creencias,
X. Determinación de deseos
XI. Determinación de intenciones.
El resultado es un agente BDI más específico en el cual las
dependencias entre creencias, deseos e intenciones se hacen
explícitas.

También podría gustarte