Cognicion y Pensamiento 2019
Cognicion y Pensamiento 2019
Cognicion y Pensamiento 2019
Pioneros de la Cognición
A partir de lo leído, se puede indicar que las bases de la Psicología Cognitiva inicia con W.
James (1842-1910), en un medio en el cual se enseñaba y practicaba una psicologiá filosófica,
de tipo argumentativo y no cientif́ ico-experimental. Las contribuciones de James fueron tan
importantes que removieron profundamente los fundamentos del estructuralismo, en temas
como la memoria, la atención, la emoción y la conciencia. Otra de las grandes contribuciones
de James se relaciona con los estados emocionales. Luego F. Bartlett (1886-1969), refuta a
Ebbinghauss, y sus sílabas sin sentido en donde revelaba una parte de la memoria, o sea los
hábitos repetitivos para recordar, y prescindía del estudio de materiales con significado dejando
fuera lo más importante de la memoria humana. De ahí que Bartlett no está de acuerdo con la
tradición de experimentar con siĺ abas sin sentido y propone que la memoria se estudie con
materiales ricos en significado y en contextos naturales, ncluyendo los procesos de construcción
(en lo perceptual) y de reconstrucción (en lo mnémico). Bartlett introduce además el problema
de la representación del conocimiento, del área teórica y de investigación, impotante en la
psicología cognitiva actual. De igual forma, E.C. Tolman (1886-1959), conductista, realiza
aportes significativos a la cognición. en su libro La conducta propositiva en animales y hombre,
realiza una siń tesis personal del conductismo watsoniano, de la psicologiá de la Gestalt y de
Kurt Lewin. Tolman afirma que su enfoque era conductista en lo que respecta al objeto y al
método, pero evitó el reduccionismo fisiológico y consideró la conducta en términos de sus
propiedades emergentes: propositiva, cognitiva, enseñable y modificable. Por lo cual, la
conducta es molar, es decir, implica siempre una pauta específica para la interacción, poseer
selectividad frente a los caminos y circunstancias) orientada hacia metas y no puede ser
explicada mediante mecanismos fisiológicos elementales. Considera al organismo como un todo
y no de segmentos sensoriales o motores existe una transacción entre el organismo y el ambiente.
Desarrollos Recientes
Conferencias en el MIT y en Dartmouth (1956)
Según Howard Gardner (1965, año cuando la psicologiá cognitiva despega con identidad
propia). Se celebraron dos importantes conferencias, en el Massachusetts Institute of
Technology (MIT) y otra en Dartmout. George Miller habló de la memoria a corto plazo y su
famoso mágico número siete. Newell y Simon expusieron su modelo computacional conocido
como Solucionador General de Problemas (en lo sucesivo, SGP). Y Chomsky presentó una
teoriá del lenguaje que ha dado mucho que hablar. En la conferencia de Dartmouth participaron
los mismos del MIT más otros como Minsky, McCarth. Estas conferencias fueron el nacimiento
de la Inteligencia Artificial. Bruner y colaboradores presentan las novedosas ideas sobre la
formación de conceptos con un carácter marcadamente cognitivo que rompiá con la tradición en
Los temas mentalistas tan repudiados por los conductistas entran con gran fuerza en la literatura:
“atención, memoria, amplitud del campo de la conciencia”.
Alien Newell y H.Simon, los más conocidos en el área de la IA. Simon Especialmente
reconocido entre los investigadores de la economiá de empresa, junto a J. C. Shaw formulan el
ambicioso programa de simulación —SGP— que abarcaba una amplia gama de problemas. Éste
se organizó alrededor de la siguiente idea: compara cómo son las cosas al principio del problema,
estado inicial, y cómo serían cuando el problema se hubiera resuelto, estado final. La diferencia
entre ambos estados se conoce como «espacio del problema». Newell y Simon propusieron que,
en vez de usar un algoritmo, es mejor abordar el problema utilizando el «análisis medios-fines».
Durante la «revolución cognitiva», en los años 60’ y 70’, los psicólogos adoptaron el punto de
vista de que el cerebro humano actuaba como un procesador de información; surgiendo la cien
cia virtual o artificial cuyas diferencias con la ciencia natural fueron señaladas por el propio
Simon.
En 1956, Chomsky publica el libro Tres modelos para la descripción del lenguaje y luego otro
con gran repercusión en el mundo de la psicologiá y de la lingüística, “Estructuras sintácticas”.
Algunos consideran que con este libro la lingüiś tica define un espacio propio y relevante en el
ámbito de las ciencias humanas.
Hace más de 30 años, Chomsky manifestó que existe una “estructura profunda”, universal o gra
mática que está en la base de todos los lenguajes humanos. Este autor cree que los lenguajes son
demasiado complejos para que los niños los aprendan en el corto tiempo que les toma hacerlo,
a menos que los niños nazcan con ciertos conocimientos innatos de la sintaxis que rigen el habla.
Por estructura profunda del lenguaje, Chomsky quiere decir “la tendencia innata para procesar
la información de manera lingüística”. el lenguaje no se puede adquirir si las neuronas de nuestro
cerebro no estuvieran predispuestas genéticamente a producir el lenguaje hablado de una manera
tan fácil.
La teoriá de Chomsky es totalmente opuesta a los planteamientos de Skinner. Para éste, el len
guaje se adquiere como cualquier otra habilidad humana: mediante la imitación, la repetición y
los refuerzos selectivos a medida que el niño produce el lenguaje. Los conductistas rechazan
cualquier participación de factores innatos. Contrariamente Chomsky señala que el lenguaje de
los niños es esencialmente creativo,
Ulric Neisser, en su libro Psicología cognitiva, realizó una siń tesis extraordinaria de los avances
de la psicología cognitiva desde su nacimiento hasta la época de la escritura del libro. En el
mismo se presenta una perspectiva precisa del estado de la ciencia psicológica en su vertiente
cognitiva. Además de destacar los temas centrales: percepción, atención, lenguaje, memoria, y
pensamiento, analiza los procedimientos experimentales, los instrumentos y las variables objeto
de estudio. En otras de susobras critica la orientación que adoptan las investigaciones de la
psicología cognitiva por carecer de “validez ecológica”.
Una de las aportaciones más referenciadas es el “ciclo perceptual” de Neisser, que explica
Procesos cognitivos y realidad, Para Neisser el prestar atención no es en absoluto una cuestión
de eliminación por filtración de la información. En vez de ello, se busca información de forma
activa, basándose en experiencias previas y en lo que se espera. A su vez la información que
recibimos se ajusta a nuestros esquemas y los modifica, además de canalizar lo que buscamos a
continuación. Es la información que contradice o pone en tela de juicio un esquema anticipador
la que atrae particularmente nuestro interés y nos hace redirigir la atención.
Kelly (1905-1967)se interesó por la percepción social. En su libro The psychology of personal
constructs, 1955, el autor plantea que el hombre funciona como un cientif́ ico, todo el tiempo
trabaja sobre la base de hipótesis acerca de los demás. Cuando entra en contacto con otras
personas inmediatamente forma ciertas hipótesis acerca de sus caracteriś ticas. Sin embargo, no
todo el mundo forma hipótesis acerca de las mismas características, lo que lleva a plantear la
existencia de “constructos personales”. honestidad; para unos, rico o pobre; para otros, el
hombre en sus interacciones sociales no entra completamente en blanco, sino que trae
preconcepciones a la interacción.
Dentro de las formas de concebir la conducta humana, las basadas en el modelo de procesa
miento de información han adquirido bastante aceptación, incluso en la psicologiá social. Dentro
de este modelo se enmarcan las ideas de Fishbein que han sido plasmadas en la Teoría de la
acción razonada, como una teoría que explica la formación de las creencias y actitudes. Dicho
autor plantea que es necesario separar los aspectos cognitivos, de los afectivos y de los
conductuales, aun cuando éstos están relacionados. Para Fishbein, una creencia es la relación
entre un objeto y su atributo, independientemente de que esta relación sea falsa o verdadera.
Ahora bien, las creencias se mantienen con diferentes grados de certeza: en algunos casos se
está totalmente seguro de que lo expresado es cierto.
Dentro de la misma teoría, la actitud es simplemente la posición afectiva que se toma ante un
objeto (no nos gusta la escuela). Fishbein demuestra que la posición afectiva que se toma ante
un objeto es función de lo cognitivo, de las creencias que se mantienen en relación con dicho
objeto, pero no de una creencia, sino de la sumatoria de todas las creencias acerca de la
consecuencia de la conducta que se mantienen en relación con el objeto; es decir, también de la
evaluación que el individuo realiza de cada una de dichas creencias conductuales.
Arthur Staats , en su libro El conductismo social, critica el callejón sin salida a que ha llevado
la aplicación estricta de los principios del condicionamiento operante. Donde se observan estas
limitaciones de una manera insoslayable es en la intervención cliń ica y social, lo cual generó
modelos en los que se consideran los procesos cognitivos y el carácter activo del sujeto.
Estas nuevas visiones son incorporadas por Donald Meichembaum, J. M. Mahoney en donde se
plantea una terapia cognitivo-conductual con mètodos que se alejan bastante del conductismo,
planteando técnicas especif́ icas de cambio de la personalidad (entrenamiento en
autoinstrucciones o modificación del diálogo interno).
En la liń ea del entrenamiento en autoinstrucciones de Meichembaum,está a Albert Ellis, qien
plantea aspectos muy interesantes para la psicología cognitiva. Señala que las perturbaciones
emocionales son en gran medida resultado del pensamiento ilógico e irracional que se expresa
mediante “frases catastróficas que uno se dice a sí mismo una y otra vez y de las cuales se sacan
conclusiones descabelladas: constituyendo su neurosis.
La terapia se logra, no enseñando al paciente dónde está el origen de las ideas erráticas y de la
angustia, sino mostrándole cómo las mantiene ese diálogo absurdo interior. La mejor terapia es
cambiar la forma de pensar acerca de uno mismo. Para ello es necesario llevar a cabo
reestructuración cognitiva mediante el análisis de los pensamientos y las emociones que están
asociadas a las frases y oraciones.
Áreas
Representación del conocimiento
Una de las primeras y principales preocupaciones de los psicólogos cognitivos ha sido, cómo
representamos mentalmente la información. Obviamente, no nos limitamos a recibir la
información y a almacenarla de cualquier modo. Si esto fuera asi,́ ¿cómo recordariá mos las cosas
en los momentos adecuados? Está claro que usamos alguna forma de representación mental q
que nos ayuda, no sólo a almacenar la información objetiva, sino también a dirigir y guiar
nuestras acciones sobre la base de nuestro conocimiento del mundo y de nuestra experiencia
previa.
Son varias las formas de representación que se pueden utilizar. La primera de ellas fue planteada
por Collins y Quillian. Se trata de un modelo de memoria y la forma cómo almacenamos los
conocimientos en ella. En este modelo se señala que los conocimientos en la memoria están
organizados de forma jerárquica. Las unidades básicas son los conceptos que mantienen
relaciones unos con otros. Las relaciones pueden ser de dos tipos: inclusión (por ejemplo, «la
golondrina es una clase de pájaro») y de propiedad (por ejemplo, «la golondrina tiene alas y
vuela»).
Otra forma de representación son los esquemas. Bartlett introdujo en la psicología la teoría de
los esquemas y su influencia en el recuerdo. Los esquemas son conocimientos almacenados o
representados en la memoria como consecuencia de las experiencias pasadas. Según esta teoriá ,
lo que recordamos está influido por los conocimientos previos. El conocimiento almacenado en
la memoria está organizado formando una serie de esquemas (representaciones mentales) que
contienen el conocimiento que poseemos sobre un objeto o una situación más compleja.
Están los guiones que permiten identificar lo que está ocurriendo y saber cómo actuar ante
determina da situación. Una tercera forma de representación son los sistemas de producción. El
conocimiento se organiza en un sistema de reglas compuesto de dos elementos «SI» y
«ENTONCES» (por ejemplo: «SI un animal tiene un cuello muy largo y manchas marrones,
ENTONCES es una jirafa»). La idea básica del sistema de producción es que la cognición
humana consiste en un conjunto de condiciones-acciones.
Una cuarta forma de representación del conocimiento es la imagen. Solemos decir que una ima
gen vale más que cien palabras. Algunas personas tienen una tendencia a representar el
conocimiento en palabras o mediante procedimientos abstractos como son las proposiciones.
Otros prefieren utilizar un formato más concreto, ya sea mediante imágenes visuales o auditivas.
Esta forma de represen tación también se denomina «mapas cognitivos» o representaciones de
lugares u objetos.
Lenguaje
Para la mayoriá de los psicólogos cognitivos el lenguaje es la pieza fundamental de la psicologiá .
A partir de los 70’ asistimos a un desarrollo de la psicolingüiś tica más plural y maduro que en
todos los años anteriores. Chomsky y Miller tuvieron un papel preponderante en el desarrollo de
la psicolingüiś tica, aunque también se incluyen las aportaciones de McNeil, Fodor, Osgood y
Skinner, algunos fuera de la órbita cognitiva. En la década de los sesenta hay un predominio por
el estudio de la sintaxis estimulado principalmente por Chomsky y sus fié les. La gramática
chomskiana trata de establecer los componentes y las reglas necesarias para identificar la
estructura profunda de la relaciones lingüiś ticas que subyace a todas las oraciones bien formadas
de una lengua y sólo a ella.
En los años setenta, los estudios psicolingüíticos se orientaba hacia la construcción de un modelo
de actuación que guiara la investigación hacia los mecanismos y condiciones de la producción,
percepción y comprensión del lenguaje. El énfasis se poniá en el estudio de los aspectos
pragmáticos y la comprensión del lenguaje en contextos naturales. Algunos cientif́ icos se
orientaron hacia la comprensión y producción del lenguaje por medio de los ordenadores. Se
queriá conocer si éstos podriá n comprender el lenguaje y producir ciertas órdenes, siempre y
cuando incluyeran programas donde se especificara las reglas de sintaxis y de semántica.
La incorporación del concepto de esquemas en el lenguaje significó un cambio notable, sobre
todo en lo que respecta a la compresión de textos.
Aprendizaje
Existen dos maneras de investigar el aprendizaje en ciencia cognitiva: el aprendizaje de las má
quinas y el aprendizaje humano. El aprendizaje de las máquinas se puede hacer mediante los
sistemas expertos. En esencia, los sistemas expertos permiten asistir en el análisis y solución de
problemas complejos, intentando simular la conducta de un experto humano en un dominio
especif́ ico. Un sistema experto debe incluir todo el contenido que manejariá un experto, y,
además, la forma de razonamiento de éste; es decir, la manera en que el experto utiliza el
conocimiento.
Recientemente un grupo de psicólogos cognitivos trabaja en el diseño de entornos de aprendizaje
basados en el ordenador. Estos psicólogos plantean que una buena teoría del aprendizaje con
este propósito debe incluir tres componentes: 1) un componente de dominio experto en el que
se describan las ejecuciones competentes en un campo especif́ ico; 2) un componente de
adquisición en el que se expliciten los procesos de aprendizaje y desarrollo necesarios para
alcanzar la ejecución experta, y 3) un componente de intervención que describa los métodos
adecuados de enseñanza y las estrategias instruccionales para producir esos procesos de
aprendizaje.
Desde que los psicólogos empezaron a realizar simulaciones con el ordenador, el conocimiento
acerca del aprendizaje y la toma de decisiones ha crecido de una manera impresionante.
Uno de los aspectos que ha sido aclarado son las diferencias entre el comportamiento experto y
el comportamiento de los principiantes en un dominio especif́ ico. Cada campo, desde la
automoción hasta la música, tiene sus expertos, personas que aprenden rápido y resuelven los
problemas en poco tiempo, en comparación con los principiantes. Los científicos aseguran que,
independientemente del campo de dominio, llegar a ser un experto exige un promedio de 10
años de trabajo aplicado concentrado. Durante ese tiempo el experto va construyendo gran canti
dad de conocimientos especializados. Este conocimiento es lo que otorga al experto un gran po
der. El conocimiento de los expertos se diferencia del rendimiento de los principiantes en varios
aspectos: ñuidez, automaticidad, esfuerzo mental, tensión.
La formación de conceptos y categorías y las estrategias usadas por los aprendices es un campo
fascinante donde se pueden analizar los modos de aprendizaje que ponen en marcha las personas
para adquirir una serie de conceptos definidos. En el estudio de las categoriá s naturales (frutas,
coches, utensilios, etc.) se han encontrado que existen ciertos ejemplares llamados prototipos
que poseen un mayor número de propiedades o atributos de la categoriá . El prototipo por ser el
mejor ejemplar de la categoría funciona como patrón de referencia para clasificar otros
ejemplares desconocidos.
Pensamiento
El pensamiento ha sido explorado principalmen te estudiando la forma como resuelven los
proble mas las personas. Prácticamente, cualquier activi dad cognitiva puede ser interpretada en
términos de solución de problemas. Un problema existe cuando una persona se encuentra entre
una situa ción que requiere un plan y una acción para cam biar el estado existente, no deseado,
por otras ide as. Para que exista un problema es necesario que el resolutor invente nuevas reglas
o planes de ac ción, o reestructure las que posee. Si las personas simplemente aplican reglas que
han utilizado antes en situaciones similares, no tiene lugar una autén tica resolución de
problemas. La verdadera solu ción de un problema implica la combinación de re glas o la
formulación de nuevas reglas de orden superior no muy usual; esto conduce a un cambio
permanente en las capacidades de las personas.
Las teorías más modernas de la IA plantean que resolver problemas es un proceso cognitivo
dirigi do a transformar una situación no deseada en una situación deseada, cuando no existe un
método
obvio de solución. Este planteamiento implica que resolver problemas conlleva: a) una actividad
cognitiva dentro del sistema mental; b) un proce so de manipulación de conocimientos almacena
dos en la memoria; c) una meta que se quiere al canzar y hacia la que se orientan los esfuerzos,
y d) una actividad que difiere de persona a persona.
Uno de los psicólogos de la Gestalt que ha con tribuido de manera fundamental al desarrollo del
pensamiento es Duncker. Para este psicólogo «un problema emerge cuando un organismo vivo
tiene un objetivo, pero no sabe cómo conseguirlo». Este planteamiento se puede dividir,
siguiendo las teo rías contemporáneas de la cognición en tres ele mentos: un estado inicial, un
estado final y un conjunto de procesos intermedios llamados opera dores que acortan las
distancias entre el estado ini cial y final. Un ejemplo puede ayudamos a com prender las ideas
anteriores. En el ajedrez, el estado inicial es el tablero al inicio del juego, y el final (para cada
uno de los jugadores) es cualquier posición en la que hace jaque mate al oponente, o en la que
el oponente se rinde. Los procesos son acciones que se le pueden hacer al mundo para in tentar
cambiarlo del estado inicial al estado final; en ajedrez son los movimientos permitidos por las
reglas de juego.
Percepción
Uno de los trabajos recientes en percepción es el de David Mam, quien formuló la teoriá compu-
tacional de la visión. Esta teoría tiene que ver con el análisis de las primeras etapas de la
percepción, y construye un modelo computational de cómo el sistema visual usa la información
retinal. Sin embargo, no parece que esta teoría sea muy adecuada para explicar cómo ocurren
las etapas últimas a nivel del cerebro.
Según Mam, ver exige una secuencia de representaciones, cada una derivada de su predecesora
por una serie apropiada de procesos. La tarea del procesamiento visual consiste en crear una des
cripción del objeto visto a partir de la imagen que se presenta.
El siguiente paso en el procesamiento visual es el «boceto en 2,5 dimensiones» que proporciona
in formación sobre la orientación, la profundidad aproximada y el movimiento de los objetos y
las superficies. El nivel final es la «descripción tridimensional del objeto» que detalla las formas
y su organización espacial. En este estadio ocurre el proceso de reconocimiento.
El modelo conexionista de McClelland y Ru- melhart se centra sobre todo en las últimas etapas
de la percepción o reconocimiento, es decir, en el momento en que los estímulos llegan al sistema
y se tiene que comparar el patrón de entrada con el patrón almacenado en la memoria, ya se trate
de letras, palabras u objetos. En el modelo conexionista, el emparejamiento se realiza por medio
de redes conectadas donde participan procesos ascendentes y descendentes para activar e inhibir.
Según este modelo, la identificación de palabras pasa por tres niveles: nivel de rasgos, nivel de
letras y nivel de palabras; además, hay otros niveles superiores: sintáctico y semántico. Cuando
se presenta una palabra, el sistema lo primero que hace es identificar los rasgos, luego las letras
y finalmente las palabras. Cada uno de los niveles tiene unos detectores especializados o
«unidades funcionales» con una misión específica. Los detectores, independientemente del
nivel, operan simultáneamente. El sistema funciona como un mecanismo jerarquizado o mejor
una red con niveles, y dentro de cada nivel y entre los niveles existen fuerzas activadoras y
fuerzas inhibidoras.
Memoria
Dos hechos marcaron el antes y el después en las investigaciones de la memoria: la aplicación
del modelo de procesamiento de información propuesto por Shannon y Weaver y la introducción
de nuevas técnicas experimentales. Broadbent investiga la memoria desde el enfoque cognitivo.
Este autor habló de dos tipos de memoria, siguiendo a James: la memoria S o sensorial que no
analiza la información y decae muy rápido y la memoria P que tiene capacidad limitada y
almacena información categorizada.
A partir de estas ideas primigenias se desarrollaron importantes modelos de memoria. La memo
ria sensorial fue estudiada en estructura y funcionamiento por Sperling. Para lograr su
exploración propuso técnicas de investigación novedosas como el informe parcial. Con esta
técnica se descubrió que las personas disponen de más información en su memoria de la que
pueden dar cuenta. Miller descubrió las limitaciones de la memoria a corto plazo al igual que las
características funcionales de ella y las diferencias con respecto a las otras memorias. Atkinson
y otros integraron los conocimientos que se tenían de las diversas memorias en un modelo de
memorias múltiples: memoria sensorial, memoria a corto plazo y memoria a largo plazo. En este
modelo se especifican las relaciones entre las memorias y los mecanismo de control. Por
ejemplo, se introduce el concepto de automatización de algunas operaciones.
Algunos investigadores discrepan de la idea de múltiples memorias. Plantean que la memoria es
una y lo que existen son niveles diferentes de procesar la información: el nivel superficial (se
atiende a los rasgos sensoriales), el nivel fonológico o acústico (se atiende a los rasgos acústicos)
y el nivel profundo (se atiende al significado). Cada uno de los niveles de procesamiento deja
una huella en la memoria. El nivel superficial deja una huella muy endeble que rápidamente
desaparece, mientras que la huella del nivel profundo es duradera porque se ha procesado con
mayor esfuerzo mental.
Tulving, hizo la distinción entre memoria semántica y memoria episódica. La
emoria episódica es una memoria de larga duración relacionada con algún episodio de la vida
del individuo. La memoria semántica es el componente de la memoria en la que se almacena el
conocimiento del significado de las palabras, los conceptos y el conocimiento del mundo. Desde
el punto de vista neurológico y clin ́ ico estas memorias ofrecen muchas posibilidades para
explicar las disfunciones de algunos cerebros.
Atención
En relación con la atención los trabajos de Broadbent analizados previamente, sirvieron de
entrada a otros modelos como del Deutsch-Deutsch y el de Treisman, Dichos modelos
mantienen la idea original del filtro como mecanismo protector para evitar que el sistema se
sobrecargue de información que no puede atender adecuadamente. La diferencia entre ellos es
que Broadbent coloca el filtro al comienzo, antes del análisis perceptual, mientras que Deutsch-
Deutsch lo coloca antes de la selección de la respuesta. Treisman, en cambio, habla de un filtro
atenuado que permite que otras informaciones no atendidas puedan ser procesadas.
Kahneman va en otra dirección a la marcada por Broadbent. En lugar de poner el acento en el
filtro lo pone en los recursos que hay que disponer cuando tenemos que atender varios estiḿ ulos
a la vez o cuando tenemos que realizar varias tareas simultáneamente. Como los recursos son
limitados, la demanda de las tareas puede exceder nuestra capacidad de atención con la
consiguiente disminución en el rendimiento. Un medio que tiene el propio sistema para
economizar recursos es realizarlos de forma automática, ya que estas tareas no consumen
atención y, por tanto, pueden realizarse simultáneamente con otras tareas sin que causen in
terferencias.
Redes neuronales
Lashley teniá la esperanza de descubrir la localización cerebral de la
memoria, enseñando a los animales tareas especif́ icas y luego destruyendo zonas cerebrales deter
minadas. Los experimentos fueron poco satisfactorios, pues la localización era elusiva y el
olvido de lo aprendido dependiá de la cantidad de corteza lesionada y no de su localización. Con
Lashley deciá indicó que la memoria no estaba en ninguna parte, «el aprendizaje no era posible».
El problema es que la memoria se almacena de manera redundante en la corteza cerebral y
también en diversas estructuras neuronales.
Hebb disciṕ ulo de Lashley propuso un modelo, que ha tenido una gran influencia, sobre la
manera en que el cerebro almacena los recuerdos. Hebb supuso que las bases fisiológicas son
diferentes en la memoria a corto plazo y en la memoria a largo plazo. En la primera un circuito
de neuronas, que Hebb llamó «circuito reverberante», se dispara según una pauta repetida, pro
duciendo una huella en la memoria. Esta huella es inestable y no causa un cambio en la estructura
fiś ica del cerebro. Para que la información pase de la memoria a corto plazo a la memoria a largo
plazo se requiere un verdadero cambio físico en el cerebro, este cambio comprende nuevas
conexiones entre las neuronas. En la memoria a largo plazo, al igual que en la memoria a corto
plazo, la señal circula también en un circuito reverberante de manera repetida, causando cambios
morfológicos y metabólicos en los diversos componentes del circuito.
En una versión más reciente, Feldman, McCle lland, Rumerlhart y otros propusieron una nueva
forma de entender el aprendizaje y la memoria. Esta nueva perspectiva se conoce como Procesa
miento Paralelo Distribuido (en lo sucesivo, PDP) o conexionismo. La gran novedad es que la
propuesta se aleja de los modelos fríos de tipo computacional, como el ACT, y se aproxima a
una visión más cálida, más próxima a la forma de trabajar el cerebro.
El modelo conexionista sostiene que el procesamiento de información se realiza a través de un
gran número de unidades que, en forma semejante a como lo hacen las células en el cerebro,
interacionan entre sí simultáneamente, enviando señales de excitación e inhibición unas a otras.
La memoria y el aprendizaje, como señalaba Hebb, no están localizados en ninguna unidad en
particular, sino que se encuentran distribuidos a lo largo de la red neuronal. En este modelo
cuando se produce un deterioro en alguna parte del sistema, lo mismo que el cerebro humano
cuando se lesiona una zona del mismo por traumatismo o por la degeneración que se produce
con la edad, sigue funcionando aunque a un nivel inferior de eficiencia.
Cuatro son los supuestos principales del modelo:
1. El sistema está organizado en niveles. Cada nivel cumple una función especif́ ica. Por ejemplo,
en una tarea de reconocimiento de palabras, existen los niveles de rasgos, letras y palabras.
Primero se identifican los rasgos (curvos, rectos oblicuos, etc.) del estim ́ ulo; esta información,
seguidamente, lleva al reconocimiento de las letras, y finalmente se identifican las palabras.
2. La información es procesada de forma simultánea en todo el sistema. Para que un nivel opere
no es necesario que el predecesor haya concluido. Mientras los niveles inferiores están
trabajando simultáneamente lo hacen los niveles superiores. De manera que existen fuentes
informativas desde abajo y desde arriba. El modelo es muy eficaz en las tareas de procesamiento.
3. El conocimiento reside en las conexiones neuronales. Desde hace algún tiempo se sabe que la
mayoriá de las funciones cerebrales funciona siguiendo el principio de acción en masa: las
funciones del cerebro no están localizadas exclusivamente en una estructura, como puede ser
una neurona.
4. Las conexiones entre las neuronas pueden ser excitatorias o inhibitorias. Cuando un estímulo
llega al sistema se activan ciertos rasgos que a su vez envían la activación a todos los nodos
letras que contienen ese rasgo. Al mismo tiempo se establecen conexiones inhibitorias con los
nodos letra que no poseen esos rasgos.
5. Cuando fue planteado el modelo, los psicólogos cognitivos depositaron grandes esperanzas en
él. Después de quince años de su puesta en circulación los resultados todavía están por verse.
En teoría es un modelo plausible y altamente probable. Ofrece un nivel de flexibilidad del que
carecen los modelos rígidos computacionales, pero también es más difícil de manejar que éstos.
Los detractores del PDP aseguran que es un modelo «de juguete» que no funciona cuando se
quiere utilizar para simular los problemas reales en toda su complejidad. También los detractores
piensan que es un modelo muy asociacionista y que nos recuerda demasiado los mecanismos del
condicionamiento.
Neuropsicología cognitiva
El impacto de la neuropsicologiá cognitiva en la psicologiá cognitiva se ha observado reciente
mente. Los métodos neuropsicológicos se han aplicado a diversas áreas: percepción, atención,
memoria y lenguaje. Sin embargo, como veremos en los capit́ ulos siguientes, donde
verdaderamente ha hecho contribuciones muy notables es en la exploración del lenguaje. Mucho
más, con diferencia, que en ninguna otra área. El lenguaje ha adquirido mucha importancia en
la psicología cognitiva en los últimos años. Otra razón, más importante y especif́ ica, es que el
lenguaje se ajusta mejor que otras áreas a la metodología y al enfoque neuropsicológico. La
comprensión y producción del lenguaje implican un número diferente de habilidades (lectura,
habla, escritura, escucha, etc.). En cada una de las habilidades participan módulos o procesos
diferentes que pueden ser analizados siguiendo los métodos neuropsicológicos.
En la identificación de los módulos involucrados en las diversas manifestaciones del lenguaje,
la neuropsicología cognitiva ha resultado muy eficaz. Sin embargo, en otras áreas, como puede
ser el pensamiento creativo, las aportaciones han sido muy escasas. La razón estriba en que hay
determinados procesos que son relativamente resistentes a los análisis modulares. Se ha
argumentado que el pensamiento creativo y las actividades de planificación son tareas que no
pueden ser fraccionadas en módulos, o por lo menos no de una manera tan fácil como puede
hacerse con el lenguaje. Por este motivo, el lenguaje se considera «la joya de la corona» de la
neuropsicologiá cognitiva.
Una de las limitaciones es que las investigaciones se han concentrado en los procesos periféricos
del lenguaje. Por ejemplo, abundan las investigaciones sobre los procesos básicos de la lectura
y la escritura (reconocimiento de letras, deletreo, vocalización, etc.) en pacientes con daño
cerebral. Esta clase de investigaciones ha permitido identificar los módulos primeros y más
externos (módulos de rasgos, letras, léxicos, fonológicos). En otras palabras, las tareas que
enfrentan los pacientes son muy simples, aunque importantes en un proceso de lectura o
escritura. Sin embargo, las investigaciones con unidades de lenguaje más amplio, como puede
ser la comprensión de textos, donde intervienen otros factores como es el contexto o la estructura
del temas, son muy escasos.
Desde el punto de vista teórico, los neuropsicólogos mencionan que el habla y la escritura traba
jan con módulos separados e independientes, con excepción del módulo semántico que seriá
común. Este módulo representa el significado de las palabras y participa en la planificación de
lo que uno quiere decir o escribir. Estas actividades de planificación son fundamentales, pero
los neuropsicólogos todaviá no han sido capaces de dar una explicación convincente. ¿A qué se
debe esta limitación? Una posible explicación es que los neuropsicólogos han volcado su
atención en la identificación de los módulos periféricos, pero todaviá no cuentan con la
tecnología que permita descubrir los módulos centrales de la lectura y escritura. Existen buenas
razones para esta dificultad. Desde que se presenta el estímulo hasta que se produce la función
cognitiva central transcurre un tiempo, que es engorroso manipular. La respuesta hasta cierto
punto es un reflejo indirecto de lo que ocurrió en el cerebro.
Una última limitación, que algunos experimenta- listas critican muy severamente, es el método
de casos como la única fuente para proponer teoriá s y probar hipótesis. El método cientif́ ico
trabaja normalmente con grupos que tienen caracteriś ticas homogéneas. Los neuropsicólogos se
enfrentan con una tremenda dificultad, casi siempre insalvable: reunir grupos de pacientes con
daño cerebral que mantengan cierta uniformidad en el siń drome o en los síntomas. Por otra parte,
generalmente desconocen el verdadero estado previo de los pacientes antes del daño. No se sabe
si funcionaban a nivel normal o anormal; y si era anormal, cuál era su grado de anormalidad en
las áreas de memoria, atención o lenguaje En conclusión, el aporte de los neuropsicólogos es
probablemente limitado como método para probar teoriá s, pero si ya existen modelos los datos
de pacientes con daño cerebral pueden ser in formaciones valiosas para confirmar o rechazar los
resultados aportados con otros métodos probados con grupos de personas normales.
Francisco Valle Arroyo
1976 a 1979 estuvo en la Universidad de Delaware (EE.UU.), donde obtuvo el Master of Arts y
el Ph. D. en Psicología con una tesis sobre la comprensión de oraciones negativas, en que se
demostraba, en liń ea con la postura mantenida por P. C. Wason, que gran parte de la supuesta
dificultad de las negativas era debida a que éstas no cumplían en los experimentos tradicionales
de verificación la función natural de contraste o contraposición entre la excepción y la norma.
Este trabajo dio lugar a una serie de publicaciones, entre otras, la que apareció en 1982 en el
Journal of Verbal Learning and Verbal Behavior con el tit́ ulo «Negatives in context».
Cabe destacar tres influencias fundamentales: a) una cierta admiración por el método aditivo de
Sternberg; en concreto, por su simplicidad y potencia; b) una preocupación por los problemas
de comprensión del lenguaje en sus unidades lingüísticas superiores (textos y discursos), vistos
desde una perspectiva constructivista (interac tiva) al estilo de Bransford, y c) un interés por los
trabajos de la Inteligencia Artificial sobre el llamado «procesamiento del lenguaje natural», en
especial, por la obra de R. Schank.
Su interés por la comprensión de textos ha dado lugar a varios artić ulos sobre la influencia del
tit́ ulo en la comprensión de un texto, en los que se ha puesto de manifiesto que los requisitos de
la comprensión (y, consiguientemente, la concepción esquemática de la memoria) tal y como
los entendiá n Bransford y Johnson, aunque esencialmente correctos, no tienen un carácter de
todo-o-nada, sino que pueden funcionar en parte. De ahí que se pueda dar una comprensión
retrógrada, por ejemplo, cuando se proporciona el tit́ ulo después de haber leid́ o el texto, porque
el tit́ ulo puede ayudar a responder, al menos, parte de las preguntas que se formulaba el lector
al leer el texto sin comprenderlo en su totalidad. En la actualidad, sigue trabajando en esta línea
de investigación, y centrándose en el papel (necesario o no) de las inferencias-puente, en el
momento en que éstas se producen y en la influencia que las demandas de la tarea (comprensión
o recuerdo) y el tipo de texto (co nocido o desconocido) ejercen en la formación de in ferencias
causales. La lectura del libro Deep dyslexia (Coltheart, Pat terson y Marshall, 1980) y el
conocimiento personal de estos autores le proporcionaron un nuevo horizon te: el de la
Neuropsicología Cognitiva. Este contacto con la neuropsicología cognitiva le ha producido un
alejamiento cada vez mayor de las posturas interaccionistas y la aceptación, al menos en
principio, de una visión modular, aunque reconoce que cuanto más modular es un sistema, mayor
es la necesidad de que existan estructuras y procesos de integración e interacción, ya que
indudablemente funcionamos como un organismo y no como una yuxtaposición de sistemas
modulares. Dentro de esta liń ea de investigación, cabe señalar la aplicación que el profesor Valle
ha hecho de los modelos duales de lectura adulta a la adquisición de la lectura («Errores de
lectura y escritura: un modelo dual», 1989, y «Dual-route models in Spanish: developmemtal
and neuropsychological data», 1996), sus revisiones teóricas del campo («La neuropsicologiá
de la lectura», 1994) y un estudio sobre un caso de dislexia fonológica en español («A case of
phonological dyslexia in Spanish», 1996).
Es autor o coautor de tres libros y de numerosas contribuciones en revistas especializadas:
Cuetos, F., Valle-Arroyo, F. y Suárez, M. P. (1996). A case of phonological dyslexia in Spanish.
Cog nitive Neuropsychology, 13, 1-24.
En la actualidad, está trabajando en una revisión del libro Psicolingüística, en otro sobre
Neuropsicología Cognitiva y en unas «Normas de imaginabilidad», ya listas para la publicación.
El interés por el programa de Schank ha sido más de carácter teórico que aplicado y se ha
reflejado en diversos cursos de doctorado, incluido uno sobre programación en LISP, y en una
beca postdoctoral del Comité Conjunto Hispano-Norteamericano para estudiar, junto con F.
Masterson de la Universidad de Delaware, las «contribuciones de la IA a la Psicolo giá
Cognitiva» (año 1986). Durante su segunda estancia en EE.UU. realizó cursos en el
departamento de 1A sobre «Representación del conocimiento.