M1.1 - Introducción A La Inteligencia Artificiall
M1.1 - Introducción A La Inteligencia Artificiall
M1.1 - Introducción A La Inteligencia Artificiall
1.1 INTRODUCCIÓN
Muchas de las actividades mentales humanas, tales como escribir programas de cómputo,
demostrar teoremas, razonar con sentido común y aún conducir un vehículo, normalmente se dice que
requieren “inteligencia”. Durante las décadas pasadas se ha logrado construir programas que pueden
realizar tareas como esas. Existen programas que pueden diagnosticar enfermedades, resolver
ecuaciones diferenciales en forma simbólica, analizar circuitos electrónicos, entender en forma
limitada frases habladas y escritas o escribir programas de cómputo cumpliendo especificaciones. Se
puede decir que tales sistemas poseen cierto grado de Inteligencia Artificial (IA).
En sus orígenes, la construcción de estos sistemas fue, en gran medida, experimental, con una
orientación ingenieril. Sin embargo los objetivos y las expectativas que despertó, tanto en los
protagonistas como en la comunidad científica, excedieron largamente los resultados obtenidos. Tal es
así que, a mediados del siglo pasado, (solo pocos años después que estuviera en funcionamiento la
primera computadora electrónica a válvulas) existían destacados científicos en el área de la IA que
hacían afirmaciones temerarias como la siguiente:
Sin afán de sorprenderlos y dejarlos atónitos, debo informarles lisa y llanamente que
actualmente en el mundo existen máquinas capaces de pensar, aprender y crear. Además, su
capacidad para hacer lo anterior aumentará rápidamente hasta que –en un futuro previsible- la
magnitud de problemas que tendrán capacidad de manejar irá a la par con la capacidad de la mente
humana para hacer lo mismo. (Herbert Simon, 1957, Premio Nobel de economia,1978, por sus
trabajos en la Teoría de las decisiones).
¿Pero cuales son tales máquinas maravillosas que son capaces de realizar las funciones más
elevadas del cerebro humano?
Con esta “sencilla” máquina descripta por John V. Neumann (Principio de construcción del
ordenador) y con el auxilio de algunos mecanismos conocidos desde la época de la triada Sócrates-
Platón-Aristóteles (Ética a Nicómano) 400 años AC tales como los silogismos o el Modus Ponens que
permiten garantizar la veracidad de ciertas afirmaciones se pretendía resolver todo tipo de problemas,
como lo hace una persona.
• No, si uno define el pensamiento como una peculiar actividad del cerebro humano.
Los dos NO son dogmáticos, el SI es empírico y práctico y es explorado por Alan Turing.
El Test de Turing (Computing Machinery and Intelligence,1950) para establecer si una máquina es o
no inteligente consiste en interrogarla por medio de una teletipo (sin contacto físico). El evaluador no
debe poder discernir si el que responde es una máquina o una persona.
Este planteo puede ser descripto en términos del llamado “Juego de la Imitación” que traslada
el peso de la respuesta desde la esencia (ser o no ser) a la apariencia (como si).
Se puede decir que la IA nace antes que la primera computadora electrónica como la rama de
las ciencias de la computación que se ocupa de construir sistemas que permitan exhibir un
comportamiento cada vez más inteligente, o que observado en un ser humano pueda ser calificado
como inteligente (Feigenbaum)
Algunas definiciones.
1- Hacer que las máquinas hagan cosas que requerirían inteligencia si fueran hechas por el hombre.
M. Minsky
2- Intentar hacer las computadoras más útiles y entender los principios que hacen posible la
inteligencia. Winston
3- Entender y estudiar científicamente los procesos comunes que subyacen en el pensar y el percibir
ya sea en el hombre como en la máquina. N. Nilsson
4- Es la parte de la ciencia de la computación que investiga los proceso de razonamiento simbólicos y
no algorítmicos y la representación de conocimiento simbólica para su uso en máquinas
inteligentes. Buchanan – Feigenbaum
Inteligencia sería entonces la capacidad de discernir, discriminar, evaluar pero a medida que el
conocimiento humano se fue ampliando, el concepto de inteligencia fue abarcando cada vez mayor
cantidad de facetas del comportamiento no automático o repetitivo, cada vez mas asociado a la
resolución de problemas, al aprendizaje y al proceso creativo.
Muy Pronto los métodos que demostraban funcionar en ejemplos sencillos, fallaban en
problemas de mayor dificultad.
La intratabilidad de algunos problemas aún sencillos y muy bien definidos como el Travelling
Salesman Problem (TSP, el problema del viajante de comercio), que con problemas de micromundos y
pocas reglas funcionaban, pero con unos pocos nodos la solución podía tardar años en encontrarse.
Con la teoría de la completitud NP (Karpp 1972), la explosión combinatoria ( a.10n) del espacio de
soluciones se afianzó como una barrera física para la “brute force” y las esperanzas de que el avance
de la técnica micro electrónica resolvería el problema con la construcción de una batería de súper
computadoras en paralelo.
A estos primeros métodos se los llamó “débiles” porque tenían poca información específica y
por medio de pasos elementales se pretendía llegar a soluciones importantes, a pesar de sus objetivos,
los resultados eran pobres.
Para poder operar con el conocimiento es necesario representarlo y poder hacer un modelo del
mundo sobre el cual se quieren hacer inferencias. Surgen así distintos métodos de representación del
conocimiento en forma simbólica, como la lógica de primer orden, los frames (marcos o planillas), las
redes semánticas, los objetos, etc. Lenguajes que puedan operar con estos paradigmas de
representación como Lisp y Prolog, Smalltalk, y shells especiales.
Hoy se puede hablar de varios tipos de inteligencia. Pero para las ciencias de la computación se
presupone “inteligente” como sinónimo de “racional”, no importando que sea o parezca.
Actualmente los desarrollos se apoyan en teorías más rigurosas, en lugar de plantear soluciones
intuitivas en la esperanza de que por error, azar o magia el resultado sea mejor que el “programa”.
¿Pero las computadoras hacen exactamente lo que se les ha dicho que hagan y NADA MÁS?
Este juicio es intuitivamente obvio, indudablemente cierto, pero no apoya ninguna de las
implicaciones que se derivan comúnmente de ella. Desde un punto de vista mecanicista los seres
humanos pueden pensar, aprender, y crear gracias a su programa biológico heredado, junto a los
cambios que ese programa produce por interacción con el ambiente. Si una computadora pensara,
aprendiera, creara, sería en virtud de un programa que la habilitara para esas capacidades.(Simon
1960).
Alguien podría pensar que así como no podemos garantizar que los programas funcionen
exactamente para lo que fueron programados y realicen operaciones inesperadas, también por “error”
esas cosas “inesperadas” pueden resultar más útiles o inteligentes que las esperadas. La computación
evolutiva explota esta idea de búsqueda al azar de soluciones a problemas para los cuales no se ha
escrito un programa específico.
Las computadoras digitales son dispositivos universales que pueden ser clasificadas como
“Autómatas Finitos”, pero la complejidad del mundo, aun cuando ese mundo este perfectamente
estructurado como podría ser un juego, excede en mucho la posibilidad de explorarlo completamente
en busca de una solución. En el ajedrez, por ejemplo, se ha estimado que explorar exhaustivamente
todas las posibles jugadas de una partida es del orden de 10120, si consideramos que el Big Bang
ocurrió hace 15 109 años y disponemos de computadoras que pueden calcular una jugada en 10-12 seg
(suponiendo un clock de 1 tera hertz y 1 instrucción por jugada), desde entonces hasta ahora habría
calculado 4,7 1031 jugadas. Entonces un programa que se comporte en forma inteligente deberá buscar
la solución en forma muy selectiva explotando caminos prometedores y purgando ramificaciones
estériles.
Los programas heurísticos (regla empírica), toman ventaja de trucos para limitar drásticamente
el espacio de búsqueda de una solución que sea suficientemente buena la mayoría de las veces.