Pueden Las Maquinas Pensar
Pueden Las Maquinas Pensar
Pueden Las Maquinas Pensar
Searle
uede pensar una maquina? Puede una maquina tener pensamientos conscientes, en el mismo y preciso sentido en que los tenemos usted y yo? Si entendemos por maquina un sistema material capaz de desempear ciertas funciones (y qu otra cosa podra, si no, significar?), resulta que los humanos somos mquinas de una clase biolgica especial y, como los humanos piensan, es evidentemente cierto que hay maquinas capaces de pensar. Y quien sabe si ser posible producir maquinas pensantes que se valgan de materiales totalmente distintos, maquinas que utilicen es un decir- microcircuitos de silicio o vlvulas termoinicas. Tal vez se demuestre que ello es imposible, pero ciertamente eso es, hoy por hoy, cosa que no sabemos. Sin embargo, en los ltimos decenios, la cuestin de si las maquinas podran pensar ha recibido una interpretacin enteramente distinta. La cuestin planteada en su lugar es: podra una maquina pensar justamente en virtud de que ejecuta un programa informtico? Es el programa, en s mismo, constitutivo de pensamiento? Se trata de una cuestin completamente diferente, porque no se ocupa de las propiedades fsicas, causales, de sistemas materiales actuales o potenciales, sino que atae, por el contrario, a las propiedades abstractas, computacionales, de programas informticos formales que podran realizarse en cualquier clase de sustancia, sin otra condicin que la de que esta sea capaz de ejecutar el programa. No son pocos los investigadores en inteligencia artificial (IA) convencidos de que esta segunda pregunta tiene respuesta afirmativa; esto es, creen que al disear los programas adecuados, y dotndolos de los oportunos ingresos y salidas, estn literalmente creando mentes. Creen, adems, disponer de un criterio cientfico para determinar si han triunfado o fracasado en tal empresa, a saber, el test de Turing, ideado por Alan M. Turing, padre fundador de la inteligencia artificial. El test de Turing en la forma en que actualmente se comprende, consiste sencillamente en esto: si un ordenador puede actuar de modo tal que un experto sea incapaz de distinguir la actuacin del ordenador de la de un humano provisto de cierta facultad cognitiva la capacidad de sumar o de comprender el idioma chino, pongamos por caso -, entonces el ordenador posee tambin esa facultad. El objetivo consiste, pues, en disear programas que simulen de tal forma la cognicin humana que logren superar la prueba de Turing. Ms aun, tal programa no sera un mero modelo de la mente; sera una mente en sentido literal, en el mismo sentido en que una mente humana lo es.
John R. Searle No es en modo alguno cierto que todos los investigadores en inteligencia artificial acepten tan extremada opinin. Un punto de vista ms cauteloso considera que los modelos informticos resultan tiles para estudiar la mente, de igual manera que lo son para el estudio de la meteorologa, la economa o los mecanismos de la biologa molecular. Para distinguir ambos puntos de vista, calificar al primero de inteligencia artificial en sentido fuerte (IA fuerte) y, al segundo, de inteligencia artificial en sentido dbil (IA dbil). Es importante ver hasta qu punto resulta osada la concepcin fuerte. La IA fuerte proclama que el pensamiento consiste en la mera manipulacin de smbolos formales, y eso es exactamente lo que hace el ordenador: manipular smbolos formales. Una tesis que acostumbra resumirse afirmando que la mente es al cerebro como el programa al ordenador. a IA fuerte es una tesis inslita en las teoras de la mente, en dos aspectos cuando menos: puede ser formulada claramente y admite una refutacin sencilla y decisiva. La refutacin es tal que cualquier persona puede juzgarla por s misma. Reza como sigue. Tomemos un idioma que no comprendemos; en mi caso, tal idioma puede ser el chino. Por lo que a m se refiere, un escrito en chino me parece una serie de garabatos ininteligibles. Supongamos ahora que me instalan en una habitacin que contiene cestas repletas de smbolos chinos. Supongamos tambin que me proporcionan un libro de instrucciones en espaol, con reglas que estipulan como han de emparejarse unos smbolos chinos con otros. Las reglas permiten reconocer los smbolos puramente por su forma y no requieren que yo comprenda ninguno de ellos. Las reglas podran estipular cosas como: Tome un signo gargarabato de la cesta nmero uno y colquelo al lado de un signo gargarabis tomado de la cesta nmero dos. Imaginemos que personas situadas fuera de la habitacin y que si comprenden el chino me van entregando pequeos grupos de smbolos, y que, en respuesta, yo manipulo los smbolos de acuerdo con las reglas del libro y les entrego pequeos grupos de smbolos. Ahora, el libro de instrucciones es el programa informtico; las personas que lo escribieron son los programadores y yo soy el ordenador. Los cestos llenos de smbolos constituyen la base de datos, los pequeos grupos que me son entregados son preguntas y los grupos que yo entrego, las respuestas. Supongamos ahora que el libro de instrucciones est escrito de modo tal que mis respuestas a las preguntas resulten indistinguibles de las de un chino nativo. Por ejemplo, la gente del exterior podra entregarme ciertos smbolos, desconocidos por m, que significan: Cul es su color favorito?, y que tras consultar las instrucciones del libro yo devuelvo smbolos, tambin desconocidos por m, que significan: Mi favorito es el azul, pero tambin me gusta mucho el verde?. Estoy superando el test de Turing en lo que a comprender el chino concierne. Y, al mismo tiempo, ignoro totalmente el chino. Y en el sistema que estoy describiendo no hay forma de que yo llegue a comprender el chino, pues no hay forma de que yo pueda aprender los 2
John R. Searle significados de ninguno de los smbolos. Estoy manipulando smbolos, lo mismo que un ordenador, pero sin adscribir significado a los smbolos. El propsito de este experimento mental es el siguiente: si yo no comprendo el chino basndome solamente en el funcionamiento de un programa informtico para comprender el chino, tampoco lo comprende entonces, con ese mismo fundamento, ningn otro ordenador digital. Los ordenadores digitales se limitan a manipular smbolos de acuerdo con las reglas del programa. Lo dicho para el chino vale igual para otras formas de cognicin. La mera manipulacin de smbolos no basta, por s misma, para garantizar cognicin, percepcin, comprensin, pensamiento, y as sucesivamente. Y dado que los ordenadores, en su cualidad de tales, son dispositivos de manipulacin de smbolos, la mera ejecucin del programa no basta para garantizar cognicin. Este sencillo argumento es decisivo contra las pretensiones de la inteligencia artificial fuerte. La primera premisa del argumento enuncia, sencillamente, el carcter formal de un programa informtico. Los programas se definen en trminos de manipulacin de smbolos; los smbolos son puramente formales o, como tambin se dice, sintcticos. Incidentalmente, ntese que es el carcter formal de los programas lo que confiere a los ordenadores su gran potencia. El mismo programa puede funcionar en multitud de equipos; por otra parte, un mismo equipo puede hacer funcionar una infinidad de distintos programas. Puede considerarse este axioma como sigue: Axioma 1. Los programas informticos son formales (sintcticos). Tan crucial es este punto que vale la pena explicarlo con mayor detalle. Para procesar informacin, un ordenador digital empieza por codificarla en el simbolismo utilizado por el ordenador; a continuacin, manipula los smbolos mediante un conjunto de reglas enunciadas precisa e inequvocamente. Dichas reglas constituyen el programa. Por ejemplo, en la primitiva teora de Turing, los smbolos eran sencillamente ceros y unos, y las reglas del programa establecan cosas como: imprime un 0 en la cinta, desplzate un cuadro hacia la izquierda y borra un 1. Lo verdaderamente pasmoso de los ordenadores es que cualquier informacin enunciable en un lenguaje admita su formulacin en tal sistema, y que cualquier tarea de procesamiento de informacin que sea resoluble mediante reglas explicitas pueda programarse. ay otros dos puntos importantes ms. Primero, los smbolos y los programas son nociones puramente abstractas: no tienen propiedades fsicas esenciales que los definan, y pueden plasmarse en un medio material cualquiera. Los ceros y los unos, en cuanto smbolos, carecen de propiedades fsicas esenciales, y carecen a fortiori de propiedades fsicas, causales. Hago hincapi en este punto porque resulta tentador identificar los ordenadores con una tecnologa especifica los microcircuitos de silicio, pongamos por caso- y pensar que las cuestiones objeto de debate conciernen a la fsica de tales microcircuitos, o pensar que la sintaxis identifica cierto fenmeno fsico 3
John R. Searle que pudiera poseer potencias causales an desconocidas, a la manera en que los fenmenos fsicos reales, como la radiacin electromagntica o los tomos de hidrogeno, poseen propiedades fsicas, causales. El segundo punto estriba en que los smbolos se manipulan sin aludir ni referirse a significado alguno. Los smbolos del programa pueden denotar lo que el programador desee, sea lo que fuere. En este sentido, el programa tiene sintaxis, pero no semntica. El siguiente axioma es un mero recordatorio del hecho palmario de que los pensamientos, percepciones, comprensiones y dems tienen un contenido mental. En virtud de su contenido, pueden tratar de objetos y estados de cosas del mundo. Si el contenido comporta lenguaje, habr sintaxis adems de semntica, pero la comprensin lingstica exige, al menos, un marco semntico. Si, por ejemplo, estoy pensando en la ltima eleccin presidencial, cruzarn por mi mente ciertas palabras, pero esas palabras se refieren a la eleccin solamente porque yo atribuyo a estas palabras significados especficos, de acuerdo con mis conocimientos de espaol. Tales palabras son, a este respecto, muy distintas de los smbolos chinos. Same permitido abreviar este axioma como: Axioma 2. La mente humana posee contenidos mentales (semnticos). Permtaseme ahora aadir la tesis que demostr la sala china. Tener a nuestra disposicin los smbolos propiamente dichos la mera disponibilidad de la sintaxis- no basta para disponer de semntica. La mera manipulacin de smbolos no es suficiente para garantizar el conocimiento de sus significados. Resumir lo dicho como sigue: Axioma 3. La sintaxis, por si mismas, no es constitutiva ni suficiente para la semntica. A cierto nivel, este principio es verdadero por definicin. Como es obvio, podramos definir diferentemente los trminos sintaxis y semntica. Lo importante es que existe una distincin entre los elementos formales, que carecen de significado o contenido intrnseco, y aquellos fenmenos de que si poseen contenido intrnseco. De estas premisas se sigue que: Conclusin 1. Los programas ni son constitutivos de mentes, ni suficientes para ellas. Lo que no es sino otra forma de decir que la IA fuerte es falsa. Importa esclarecer qu es exactamente lo que se demuestra y lo que no se demuestra con este argumento. Primero, no he tratado de demostrar que los ordenadores no pueden pensar. Dado que todo cuanto pueda simularse computacionalmente admite ser descrito como un ordenador, y dado que nuestros cerebros pueden, a ciertos niveles, ser simulados, se deduce trivialmente que nuestros cerebros son ordenadores: y son ciertamente capaces de pensar. Pero del hecho de que un sistema pueda simularse mediante manipulacin de smbolos y del hecho de que est pensando, no se deduce que el pensamiento sea equivalente a la manipulacin formal de smbolos. En segundo lugar, no he tratado de demostrar que tan slo sean capaces de pensar los sistemas de base biolgica, como nuestro cerebro. En este momento, estos son los nicos sistemas que sabemos de cierto que son 4
John R. Searle capaces de pensar, pero podramos descubrir, en el universo, otros sistemas capaces de producir pensamientos conscientes; podramos, incluso llegar a ser capaces de crear artificialmente sistemas pensantes. Considero que este asunto es cuestin abierta. Tercero, la tesis IA fuerte no consiste en que los ordenadores, provistos de los programas adecuados, pudieran estar pensando, que pudieran tener algunas propiedades psicolgicas por ahora no detectadas; es, por el contrario, que los ordenadores tienen que estar pensando, porque en el pensar no hay ms. Cuarto, he tratado de refutar la inteligencia artificial fuerte as definida. He procurado demostrar que el programa, en s mismo, no es constitutivo de pensamiento, porque el programa es mero asunto de manipulacin formal de smbolos, y sabemos ya, por fuente independiente, que las manipulaciones de smbolos no bastan por si mismas para garantizar la presencia de significados. Ese es el principio sobre el cual funciona el argumento de la sala china ago precisamente aqu hincapi en estos puntos debido, en parte, a que me da la impresin de que los Churchland, en su artculo conjunto [vase Podra pensar una mquina?, por Paul M. Churchland y Patricia S. Churchland], no han entendido del todo los problemas. Parecen pensar que la IA fuerte proclama que pudiera acabar resultando que los ordenadores piensen y que yo estoy negando tal posibilidad fundndome en argumentos de sentido comn. Pero no es eso lo que la IA proclama, y mi argumentacin en contra nada tiene que ver con el sentido comn. Tendr cosas que aadir sobre sus objeciones un poco ms adelante. Entretanto, quisiera sealar que, contrariamente a lo que los Churchland sugieren, el argumento de la sala china refuta igualmente toda pretensin de IA fuerte para las nuevas tecnologas en paralelo, inspiradas y basadas en las redes neuronales. A diferencia del ordenador tradicional, de organizacin von Neumann, que efecta la computacin paso a paso, estos otros sistemas poseen muchos elementos computacionales que operan en paralelo e interactan segn las reglas inspiradas en la neurobiologa. A pesar de la modestia de los resultados actuales estos modelos de procesamiento distribuido y paralelo, o modelos conexionistas, suscitan cuestiones tiles relativas a cmo podran funcionar verdaderamente los sistemas paralelos de redes complejas, como los cerebros de los seres vivos, para la produccin de conducta inteligente. Sin embargo, este carcter paralelo, cerebriforme, del procesamiento es irrelevante, por lo que a los aspectos puramente computacionales del proceso se refiere. Cualquier funcin computable en una maquina paralela puede tambin computarse en una maquina serial. De hecho, dado que las maquinas paralelas son raras todava, es frecuente hacer funcionar los programas conexionistas en mquinas seriales, tradicionales. El procesamiento en paralelo no proporciona, pues, una forma de eludir el argumento de la sala china. 5
John R. Searle Ms todava, el sistema conexionista est sujeto, incluso en sus propios caminos, a una variante de la objecin presentada por el primitivo argumento de la sala china. Imaginemos que, en vez de una sala china, tengo un gimnasio chino: una gran estancia que contiene muchas personas monoglotas, que solo hablan espaol. Estas personas se encargaran de efectuar las mismas funciones que los nodos y las sinapsis de una arquitectura conexionista, cual la describen los Churchland, y el resultado sera el mismo que si se tuviera a una sola manipulando smbolos de acuerdo con un libro de instrucciones. Nadie, en el gimnasio, habla una palabra de chino, y no hay modo de que el sistema, como un todo, aprenda el significado de ninguna palabra china. Empero, con los ajustes apropiados, el sistema puede proporcionar respuestas correctas a las preguntas chinas. Como ya suger anteriormente, las redes conexionistas poseen interesantes propiedades que las capacitan para simular procesos cerebrales con mayor precisin que la arquitectura tradicional serial. Pero las ventajas de la arquitectura en paralelo para la IA dbil son completamente irrelevantes respecto a las objeciones que el argumento de la sala china presenta a la inteligencia artificial en sentido fuerte. Los Churchland se equivocan por completo en este punto cuando afirman que un gimnasio chino suficientemente grande podra tener caractersticas mentales de nivel superior, emanadas del tamao y complejidad del sistema, exactamente lo mismo que el cerebro entero posee caractersticas mentales no posedas por ninguna de las neuronas individuales. Se trata, sin duda, de una posibilidad, pero que nada tiene que ver con la computacin. Computacionalmente, los sistemas en serie y en paralelo son equivalentes: toda computacin que se pueda efectuar en paralelo puede realizarse en serie. Si la persona que ocupa la sala china es computacionalmente equivalente a unos y otros, y si esta persona no comprende el chino por mera ejecucin de los cmputos, tampoco aquellos. Los Churchland tienen razn al afirmar que el argumento de la sala china fue ideado con la mirada puesta en la inteligencia artificial tradicional, pero se equivocan al pensar que el conexionismo es inmune al argumento: el razonamiento es aplicable a cualquier sistema computacional. No es posible lograr un contenido mental cargado de semntica a partir solo de cmputos formales, sean estos ejecutados en serie o en paralelo; por tal motivo, el argumento de la sala china refuta la inteligencia artificial fuerte en cualquiera de sus formas.
uchos individuos a quienes este argumento deja impresionados sienten perplejidad, no obstante, en lo atinente a las diferencias entre personas y ordenadores. Si los humanos son ordenadores, al menos en un sentido trivial, y si los humanos poseen semntica, Por qu no podramos, pues, dar semntica a otros ordenadores? Por qu no habramos de poder programar un Vax o un Cray para que tuviera, como nosotros, pensamientos y sentimientos? Por que no podra una nueva tecnologa informtica tender un puente sobre el golfo que separa la forma del contenido, la sintaxis de la semntica? En qu estriban, realmente, las diferencias entre los cerebros 6
John R. Searle animales y los sistemas informticos, que permiten que el argumento de la sala china sea vlido contra los ordenadores, pero no contra los cerebros? La diferencia ms obvia est en que los procesos que definen a un objeto como ordenador a saber, los procesos computacionales- son completamente independientes de cualquier referencia a un tipo especfico de ejecucin en equipo tangible. En teora, podramos construir un ordenador valindonos de latas vacas de cerveza, sujetas unas a otras con alambres y movidas por molinos de viento. Pero, cuando se trata de cerebros, y a pesar de que la ciencia ignora en gran medida de qu modo funcionan y producen estados mentales, queda uno sorprendido por la extrema especificidad de su anatoma y fisiologa. En los casos donde se dispone de cierta comprensin de como los procesos cerebrales producen fenmenos mentales por ejemplo, dolor, ser, visin, olor- resulta claro que intervienen procesos neurobiolgicos especficos. La sed, al menos la de cierta clase, est provocada por la excitacin de cierto tipo de neuronas del hipotlamo, excitacin provocada, a su vez, por la accin de un pptido especifico, la angiotensina II. El proceso causal va de abajo arriba, en el sentido de que procesos de nivel neuronal bajo provocan fenmenos mentales de nivel ms alto. De hecho, y hasta donde se nos alcanza, cada acontecimiento mental, desde la sensacin de sed hasta los pensamientos en teoremas matemticos o los recuerdos de la infancia, est provocado por la activacin de neuronas especficas ubicadas en arquitecturas neuronales especficas. Por qu habra de ser importante esta especificidad? Despus de todo, la excitacin de las neuronas podra simularse en ordenadores cuyos procesos fsicos y qumicos fueran completamente distintos de los del cerebro. La respuesta es que el cerebro no se limita a dar un ejemplo concreto de una pauta formal o de un programa (aunque tambin haga eso), sino que causa estados mentales en virtud de procesos neurobiolgicos especficos. Los cerebros son rganos biolgicos especficos, y sus especficas propiedades bioqumicas les permiten provocar la consciencia y otros fenmenos mentales. Las simulaciones computarizadas de procesos mentales proporcionan modelos de los aspectos formales de estos procesos. Ahora bien, simulacin y duplicacin no deben confundirse. El modelo computacional de los procesos mentales no es ms real que el modelo computacional de cualquier otro fenmeno natural. Podramos imaginar una simulacin computarizada de la accin de pptidos en el hipotlamo, precisa y exacta hasta la ltima sinapsis. Pero igualmente podramos imaginar una simulacin de la oxidacin de los hidrocarburos en el motor de un automvil o de la accin de los procesos digestivos en un estmago que est digiriendo pizza. Y la simulacin no es cosa ms real en el caso del cerebro que lo es en el motor o del estmago. Descartados los milagros, no podramos hacer funcionar nuestro automvil efectuando una simulacin informtica de la combustin de la gasolina, y no se digiere la pizza ejecutando el programa que simula tal digestin. Parece 7
John R. Searle evidente que tampoco la simulacin de la cognicin podr producir los efectos de la neurobiologa de la cognicin. Todos los fenmenos mentales estn causados, en consecuencia, por procesos neurofisiolgicos en el cerebro. As, pues: Axioma 4. Los cerebros causan mentes. En conjuncin con mi deduccin anterior, infiero, trivialmente: Conclusin 2. Cualquier otro sistema capaz de causar mentes habra de poseer poderes causales equivalentes (cuando menos) a los de los cerebros. Es como decir que, si un motor elctrico puede hacer rodar un coche tan rpidamente como un motor de gasolina, ha de entregar a las ruedas una potencia equivalente (cuando menos). Esta conclusin nada afirma sobre los mecanismos. De hecho, la cognicin es un fenmeno biolgico; los estados y procesos mentales son causados por procesos cerebrales. Lo cual no implica que solamente los sistemas biolgicos sean capaces de pensar, pero si implica que todo sistema alternativo, sea de silicio, latas de cerveza o lo que fuere, habra de tener las facultades causales relevantes y equivalentes a las de los cerebros. Puedo deducir ahora: Conclusin 3. Cualquier artefacto que produjera fenmenos mentales, cualquier cerebro artificial, habra de ser capaz de duplicar las potencias causales especficas de los cerebros cosa que no podra hacer limitndose a hacer funcionar un programa formal. Puedo, adems, deducir una importante conclusin para los cerebros humanos: Conclusin 4. La forma en que los cerebros humanos producen, en realidad, fenmenos mentales no puede deberse exclusivamente a la ejecucin de un programa informtico. resent por vez primera la parbola de la sala china en las pginas de Behavioral and Brain Sciences, en 1980, donde apareci, como es costumbre en esa revista, acompaada de comentarios de mis iguales, 26 comentarios en este caso. Francamente, me parece que la tesis que sostiene es bastante obvia, pero, para sorpresa ma, la publicacin fue seguida de una riada de objeciones, que para mayor sorpresa- continua hasta el presente. No cabe duda de que la sala china toco un nervio sensible. La tesis de la IA fuerte es que cualquier sistema tanto si est construido con latas de cerveza, micropastillas de silicio o papel higinico- no solamente podra tener pensamientos y sentimientos, sino que los ha de tener, sin ms condicin que la de ser capaz de ejecutar el programa debido, con los obligados ingresos y salidas. Ahora bien, es esta una concepcin profundamente antibiolgica, y se podra pensar que quienes trabajan en inteligencia artificial estaran de buena gana dispuestos a abandonar tal posicin. Muchos de ellos, especialmente los ms jvenes, estn de acuerdo conmigo. Pero lo que me sorprende es el nmero y vehemencia de los defensores de la IA fuerte. He aqu algunas de las objeciones ms comunes.
John R. Searle a. La verdad es que, en la sala china, usted si entiende el chino, aunque no se da cuenta. Despus de todo, es posible entender algo sin saber que uno lo entiende. b. Usted no comprende el chino. Pero existe en usted un subsistema* que si lo comprende. Despus de todo, es posible tener estados mentales inconscientes, y no hay razn por la que su comprensin del chino no pueda ser totalmente inconsciente. c. Usted no comprende el chino, pero la sala entera s. Usted desempea en este caso la misma funcin que una de las neuronas del cerebro y, al igual que una neurona individual no puede comprender por s sola, pero contribuye a que el sistema completo comprenda, as usted no comprende, pero el sistema completo s. d. La semntica no existe en modo alguno; tan solo existe sintaxis. Suponer que en el cerebro existen misteriosos contenidos mentales, procesos de pensamiento o semntica no pasa de ser una ilusin precientfica. Todo cuanto existe en el cerebro es una manipulacin sintctica de smbolos del mismo tipo que la que tiene lugar en los ordenadores. Nada ms. e. Usted no est, en realidad, haciendo funcionar un programa informtico; tan solo cree que lo hace. En cuanto un agente consciente procede a ejecutar los pasos de un programa, deja por completo de tratarse de la puesta en prctica de un programa. f. Los ordenadores tendran semntica y no mera sintaxis si sus entradas y salidas fueran puestas en la apropiada relacin causal con el resto del mundo. Supongamos que el ordenador se instale en un robot, que se montan en la cabeza del robot cmaras de televisin y transductores que lleven los mensajes de televisin al ordenador, y que hacemos que las seales de salida del ordenador gobiernen los brazos y piernas del robot. El sistema completo tendra entonces una semntica. g. Si el programa simulase el funcionamiento del cerebro de un chinoparlante, comprendera chino. Supongamos que el cerebro de una persona fuera simulado a nivel de neurona. Sin duda tal sistema comprendera el chino tambin como el cerebro de cualquier persona china. Y as sucesivamente. Todas las objeciones anteriores tienen en comn un mismo rasgo: todas son inadecuadas, porque todas le hurtan el cuerpo al verdadero argumento de la sala china. El mismo descansa en la distincin entre la manipulacin formal de smbolos efectuada por el ordenador y los contenidos mentales que biolgicamente existen en la mente, distincin que he abreviado y espero no 9
John R. Searle haber inducidor a error a nadie como distincin entre sintaxis y semntica. No repetir las respuestas que di a todas estas objeciones, pero me parece que, para esclarecerlas, convendr que explique las flaquezas de la objecin c. a la que llamar concepcin como sistema. (La rplica simulacin del cerebro, que constituye la objecin g. tambin es popular, pero ya la he examinado en la seccin precedente.) a rplica que llamo concepcin como sistema afirma que evidentemente, uno no comprende chino, per que el sistema completo uno mismo, la habitacin, el libro de instrucciones, los cestos llenos de smbolos si lo entiende. La primera vez que o esta explicacin pregunte a uno de sus proponentes: Pretende usted decir que la habitacin comprende chino?. La respuesta fue afirmativa. No carece de osada tal afirmacin pero, amn de su implausabilidad, no funciona, por razones puramente lgicas. El punto esencial del argumento original estriba en que el mero entremezclado de smbolos no facilita acceso alguno a sus significados. Y eso vale tanto para la habitacin entera como para la persona que se encuentra en su interior. Podemos ver que es as ampliando el experimento conceptual. Imaginemos que yo me aprendo de memoria el contenido de los cestos y todas las reglas del libro de instrucciones, y que soy capaz de efectuar mentalmente todos los clculos que sean necesarios. Podemos imaginar incluso que trabajo a la vista de todos. Nada hay en el sistema que no se encuentre en m y, dado que yo no entiendo chino, tampoco el sistema. En su pieza conjunta, los Churchland exponen una variante de la rplica concepcin como sistema imaginando una divertida analoga. Supongamos que alguien dijera que la luz no puede ser un fenmeno electromagntico porque, si uno agita un imn de barra en una habitacin oscura, el sistema sigue sin producir luz visible. Ahora bien, preguntan los Churchland, acaso no es idntico a este el argumento de la sala china? No es cierto que se limite a decir que, al agitar smbolos chinos en una sala semnticamente oscura, no emitirn la luz de la comprensin del chino? Pero exactamente de la misma manera que la investigacin posterior demostr que la luz estaba enteramente construida por radiacin electromagntica, no podra ser que la investigacin posterior pusiera de manifiesto que la semntica est enteramente construida por sintaxis? No es esta cuestin digna de ulterior investigacin cientfica? Los argumentos por analoga son siempre de una debilidad notoria, pues para aplicar vlidamente tales argumentos, hay que demostrar antes que los dos casos son verdaderamente anlogos. Y aqu me parece que no lo son. La descripcin de la luz como radiacin electromagntica constituye una historia causal que va directamente a los fundamentos Es una descripcin causal de la fsica de la radiacin electromagntica. Pero la analoga con los smbolos formales carecen de potencias fsicas, causales. La nica fuerza que poseen los smbolos, en tanto que smbolos, es la de provocar la ejecucin del siguiente paso del programa cuando la maquina funciona. Y carece de sentido esperar que una investigacin fsica ms completa revele las propiedades 10
John R. Searle fsicas, causales, de los ceros y los unos. Las nicas propiedades relevantes de los ceros y los unos son sus propiedades computacionales abstractas que ya son perfectamente conocidas. os Churchland se quejan de que incurro en peticin de principio cuando afirmo que los smbolos formales no interpretados no son idnticos a contenidos mentales. Es cierto, desde luego, que no invert el menor tiempo en justificar esta afirmacin, pues la tomo por una verdad lgica. Y lo mismo que cualquier verdad lgica, podemos ver fcilmente que es cierta, porque, cuando tratamos de imaginar la contraria, surgen contradicciones. Probemos, pues. Supongamos que en la sala china est producindose verdaderamente un indetectable pensamiento en chino. Qu es exactamente lo que se encarga de convertir la manipulacin de los elementos sintcticos en contenidos de pensamiento especficamente chinos? Bueno, despus de todo estoy suponiendo que los programadores eran chinohablantes, que programaron el sistema para procesar informacin en chino. Estupendo. Pero ahora supongamos que, mientras estoy en la sala china manipulando los ideogramas chinos, me aburro de barajar esos smbolos, que para m carecen de significado. Imaginemos, pues, que decido interpretar que los smbolos se refieren a jugadas de una partida de ajedrez. Qu semntica est produciendo ahora el sistema? Est entregando semntica china, semntica ajedrecstica o ambas a la vez? Supongamos que haya una tercera persona mirando por la ventana, y que esta persona llega a la conclusin de que mis manipulaciones de smbolos pueden interpretarse como predicciones para el mercado de valores. Y as sucesivamente. El nmero de interpretaciones semnticas que pueden atribuirse a los smbolos no tiene fin, porque, repitmoslo, los smbolos son puramente formales. Carecen de semntica intrnseca. Hay alguna forma de rescatar la analoga de los Churchland y evitar que caiga en la incoherencia? Afirm ms arriba que los smbolos formales carecen de propiedades causales. Pero, desde luego, el programa tendr que tomar cuerpo y ser ejecutado en alguna clase de sistema tangible, y este equipo fsico poseer propiedades fsicas especficas y causales. Y todo ordenador real dar lugar a diversos fenmenos. Mis ordenadores, pongamos por caso, producen calor y emiten una especie de zumbido y, a veces, ruiditos speros. Habr pues, una razn imperativa que les impida producir tambin consciencia? No. Cientficamente, tal idea est descartada de antemano, pero ni es eso lo que el argumento de la sala china se propone a refutar, ni tampoco es tesis que desee defender ninguno de los adherentes de la IA, pues tal generacin de consciencia tendra que emanar de las caractersticas fsicas del medio en que se materialice el programa. Pero la premisa bsica de la IA fuerte es que las caractersticas materiales del medio soporte son totalmente irrelevantes. Lo que importa son los programas. Y los programas son puramente formales. 11
John R. Searle La analoga que los Churchland trazan entre sintaxis y electromagnetismo se enfrenta, pues, a un dilema: o bien la sintaxis est construida de manera puramente formal, en funcin de sus propiedades matemticas abstractas, o no lo est. Si lo est, la analoga se rompe, porque la sintaxis est construida de forma tal que carece de potencias fsicas y, por tanto, de potencias causales. Por otra parte, si uno se ve obligado a pensar en las caractersticas fsicas del soporte que pone en prctica al programa, entonces existe verdaderamente una analoga, pero no una analoga que sea relevante para la IA fuerte. ado que las tesis que he estado defendiendo son bastante obvias a saber, que la sintaxis no es lo mismo que la semntica, que los responsables de los procesos mentales son procesos cerebrales- se plantea esta otra cuestin: cmo pudimos meternos en este embrollo? Cmo ha podido nadie llegar a suponer que una simulacin informtica de un proceso mental tiene que ser un autntico proceso mental? Despus de todo, si la construccin de modelos tiene sentido es porque contienen solamente ciertas peculiaridades del objeto modelizado, haciendo caso omiso de las dems. Nadie espera salir mojado de una piscina llena de pelotas de ping-pong que hacen de modelo de las molculas de agua. Por qu, pues, se ha llegado a pensar que un modelo computarizado de los procesos de pensamiento pudiera ser verdaderamente pensamiento? Parte de la respuesta est en que hemos heredado un residuo de las teoras psicolgicas conductistas de la generacin precedente. El test de Turing consagra y sacraliza la tentacin de pensar que, si algo se comporta como si poseyera procesos mentales, entonces ha de poseer ciertamente tales procesos mentales. Nocin que forma parte de una errnea presuncin de los conductistas, a saber, que la psicologa, para ser cientfica, ha de confinar su estudio a la conducta externamente observable. Paradjicamente, este conductismo residual est ligado a un dualismo residual. No hay nadie que crea que una simulacin informtica de la digestin digiera cosa alguna; en cambio, en lo que a la cognicin concierne, la gente est dispuesta a creer en tal milagro, porque no alcanza a reconocer que la mente tiene tanto de fenmeno biolgico como la digestin. La mente, suponen es algo formal y abstracto, no una parte de la sustancia hmeda y escurridiza que ocupa nuestros crneos. La literatura polmica de inteligencia artificial acostumbra contener ataques a algo que sus autores denominan dualismo; pero lo que stos no alcanzan a ver es que ellos mismos estn exhibiendo dualismo en una forma fuerte, pues, a menos que se acepte la idea de que la mente es completamente independiente del cerebro o cualquier otro sistema fsicamente especfico, no cabe posibilidad alguna de crear mentes por mero diseo de programas. Histricamente, en el mundo occidental, aquellos desarrollos cientficos que han dado al hombre el tratamiento de mera parte del orden fsico y biolgico ordinario han solido tropezar con la oposicin de diversas acciones retrgradas. Hubo oposicin a Coprnico y a Galileo, porque negaron que la 12
John R. Searle Tierra fuera el centro del universo; Darwin encontr oposicin porque afirm que los humanos descendan de animales inferiores. Lo mejor es considerar que la inteligencia artificial en sentido fuerte constituye una de las ltimas boqueadas de esta tradicin anticientfica, pues niega que, en lo atinente a la mente humana, haya nada cuyo carcter esencial sea fsico o biolgico. Segn la IA fuerte, la mente es independiente del cerebro. Es un programa informtico y, como tal, sin conexin especfica con ningn ordenador especfico. Son muchas las personas que, teniendo dudas acerca del significado psicolgico de la IA fuerte, consideran que los ordenadores podran ser capaces de comprender el chino y pensar en propiedades de los nmeros, estndoles vedadas, en cambio aquellas cosas crucialmente humanas, a saber (siguiendo aqu su especialidad humana favorita): enamorarse, tener sentido del humor, sentir la angustia de la sociedad postindustrial bajo el capitalismo tardo o lo que sea. Pero quienes trabajan en inteligencia artificial se quejan justificadamente- de que lo que se est haciendo es llevar ms all los postes que sealan como meta. Tan pronto como una simulacin artificial de inteligencia tiene xito, deja de tener importancia psicolgica. En este debate, a uno y otro bando se les escapa la distincin entre simulacin y duplicacin. Por lo que a la simulacin concierne, no existe dificultad en programar un ordenador para que imprima Te quiero, Loli, Ja, Ja, Ja!, o Estoy sufriendo la angustia de la sociedad postindustrial bajo el capitalismo tardo. Lo que importa es que la simulacin no es lo mismo que la duplicacin, y ese hecho reviste igual importancia, ya se trate de pensar en aritmtica o de sentir angustia. La clave no est en que el ordenador apenas llegue a medio campo y no a la puerta contraria. Est en que el ordenador ni siquiera hace el saque; no est jugando a ese juego. BIBLIOGRAFIA COMPLEMENTARIA: MIND DESIGN: PHILOSOPHY, PSYCHOLOGY, ARTIFICIAL INTELIGENCE. Dirigido por John Haugeland. The MIT Press, 1980. MINDS, BRAINS, AND PROGRAMS. John R. Searle en Behavioral and Brain Sciences, vol. 3. n3, pags. 417-458; 1980. MINDS, BRAINS, AND SCIENCE. John R. Searle Harvard University Press, 1984. MINDS, MACHINES AND SEARLE. Stevan Harnad en Journal of experimental and Theoretical Artificial Intelligence, vol. 1. n1, pgs. 5-25; 1989
13