Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

ARDILA, RUBÉN - Psicología Del Aprendizaje (OCR) (Por Ganz1912)

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 253

psicología

del
aprendizaje
ga n zl9 1

He aquí el primer libro escrito en castellano


por un autor iberoamericano sobre este
apasionante tema, que ocupa hoy a la ma­
yoría de los estudiosos de la conducta hu­
mana en todas las latitudes. Accesible a
cualquier persona de nivel cultural preuni­
versitario, expone los hechos, métodos, teo­
rías y aplicaciones más importantes y re­
cientes acerca del aprendizaje. Los investi­
gadores encontrarán especialmente ins­
tructivos los capítulos —correspondientes a

13a edición

m
«talo
veintiuno
-------------------►
los más novedosos estudios— sobre apren­
dizaje visceral y glandular, fundamentos
bioquímicos y modelos matemáticos del
aprendizaje. Todos los interesados en la
educación —¿y quién puede no estarlo en
alguna medida?— obtendrán útiles indica­
ciones y sugerentes reflexiones en los capí­
tulos consagrados a la motivación, el casti­
go y la educación. El libro ha sido escrito
pensando también en este amplio círculo
de lectores, pero está en primer lugar dedi­
cado a los estudiantes de psicología, a los
que nuestro mundo, cada vez más comple­
jo, exigente e inseguro, confía esperanza­
damente una gran parte de la tarea de ex­
plicar y d irig ir racionalmente la conducta
humana. Rubén Ardila, nacido en San Vi­
cente, Colombia, en 1942, fue Director del
Departamento de Psicología de la Universi­
dad Nacional de Colombia, doctor en psi­
cología por la Universidad de Nebraska y
fundador y director de la Revista Latinoame­
ricana de Psicología. Actualmente es Jefe
del Departamento de Psicología de la Uni­
versidad de los Andes. De Rubén Ardila he­
mos publicado también Investigaciones
psicológicas.

siglo
veintiuno
editores
f$ P A * A
Aft&NUNA
COlO MftA
psicología
y
etologfa
siglo veintiuno editores, sa
CERRO DEL AGUA 248. MEXICO 20. D.F.

siglo veintiuno de españa editores, sa


C /PLA ZA 5, MADRID 33. ESPAÑA

siglo veintiuno argentina editores, sa


siglo veintiuno de Colombia, ltda
AV. 3o. 17-73 PRIMER PISO . BOGOTA. O.E. COLOMBIA

g a n z l9 1 2
portada de francisco leyte lobaco

primera edición, 1970


octava edición, corregida y aumentada, 1976
decimosegunda edición, julio de 1979
decimotercera edición, noviembre de 1979
© siglo xxi editores, s. a.
ISBN 968-23-0439-3

derechos reservados conforme a la ley


impreso y hecho en méxico/printed and made in mexico
g a n z1 9 1 2
PSICOLOGÍA
DEL
APRENDIZAJE
por
RUBÉN ARDILA

^ it i u n o
e d to re s

MEXICO
ESPAÑA
ARGENTINA
COLOMBIA
g a n z l9 1 2
ÍNDICE

INTRODUCCIÓN ■" 3

1 LA EXPERIMENTACIÓN EN PSICOLOCÍA G
Por qué experimentar, 6; Variables, 10; El
grupo de control, 11; Estudios piloto, 13

2 PROBLEMAS BÁSICOS DE PSICOLOCIA DEL APREN­


DIZAJE 15
El área del aprendizaje, 16; Definiciones de
aprendizaje, 17; Estímulo y respuesta, 19;
Clases de aprendizaje, 20; Instinto, 22; Ma­
duración, 25; Experiencias tempranas, 26; El
fenómeno de “ impresión” o acuñamiento, 28

3 LOS HECHOS DEL APRENDIZAJE 30

4 LA SITUACIÓN DEL APRENDIZAJE 34


Medición, 34; Curvas de aprendizaje, 36;
Principales instrumentos, 38

5 CONDICIONAMIENTO CLASICO 44
Condicionamiento clásico y operante, 45;
Operaciones, 50; Seudocondicionamiento, 52;
Respuestas voluntarias, 53; Procesos, 54; Va­
riables, 56; Generalidad, 57

6 CONDICIONAMIENTO OPERANTE 60

Características, 61; Registro acumulativo, 63;


Moldeamiento, 64; Programas de refuerzo,

M
VI ÍNDICE

65; Aprendizaje de evitación, 66; Generali­


dad, 66

7 APRENDIZAJE VISCERAL Y GLANDULAR 70


Salivación, 72; Latidos del corazón, 73; Testi­
monios adicionales, 75; Aplicaciones, 79

8 m o t iv a c ió n 81

Necesidad e impulso, 84; Impulso y motivo,


86; El impulso a comer, 87; Impulsos adqui­
ridos, 94; Nuevo enfoque de la motivación,
95; Necesidades psicológicas, 97; Motivación
y aprendizaje, 99

9 c a s t ig o y a p r e n d i z a j e 105
Procedimiento clásico, 109; Variables impor­
tantes, 109; Características del proceso del
castigo, 110; Thorndike y la ley del efecto,
112; La obra de B. F. Skinner, 114; Los estu­
dios experimentales de W. K. Estes, 115;
Trabajos de Muenzinger, 117; La obra de N.
E. Miller, I 18; Solomon y Church, 122; Cas­
tigo y estimulación eléctrica del cerebro, 123;
Teorías del castigo, 124; Conclusión; venta­
jas y desventajas, 125

10 g e n e r a l iz a c ió n 128

Generalización del estímulo, 128; Clases de


estímulos. 130; Imerpretaciones de la genera­
lización del estímulo, 131; Generalizac ión de
la respuesta, 133

11 APRENDIZAJE", I)E DISCRIMINACIÓN 135

Discriminación simultánea y sucesiva, 136;


Transposición, 137; Conjuntos de aprendiza­
je (“ learning sets” ), 140; Atencic'in. 142
IN D IO -: Vil
12 EXTINCIÓN 145

La extinción como proceso y como procedi­


miento, 145; Entrenamiento y extinción, 146;
Desinhibición, 147; Recuperación espontá­
nea, 147; Esfuerzo, 148; Explicaciones de la
extinción, 149

13 o l v id o 151
La curva del olvido, 152; Métodos de me­
dición, 156; Teorías del olvido, 158; Motiva­
ción y retención, 163; Memoria de corto y de
largo término, 165; Variables de la reten­
ción, 167

14 FUNDAMENTOS BIOQUÍMICOS DEL APRENDIZAJE 171


rna y aprendizaje, 173; Acctiltolina y coli-
nesterasa, 176; Pemolina de magnesio y
aprendizaje, 177; Conclusiones, 178
15 MODELOS MATEMÁTICOS DEL APRENDIZAJE 180
Definición, 181; Ventajas, 182; Historia, 183;
Aplicabilidad, 186; El modelo matemático de
Estes, 187; Conclusión, 195

16 APRENDIZAJE Y EDUCACIÓN 196


Adiestramiento y educación, 199; Motiva­
ción, 200; Instrucción programada, 201; Ayu­
das técnicas, 206; La tecnología de la instruc­
ción, 208
LIBROS BÁSICOS SOBRE PSICOLOGÍA DEL APRENDIZAJE 210
r e f e r e n c ia s 213
ÍNDICE ANALÍTICO 229
PRÓ LO G O A LA TERCERA EDICIÓN

La favorable acogida que ha tenido este libro tanto


en América Latina com o en España hizo que un año
después de publicada la primera edición saliera la se­
gunda, y ahora la tercera. En ésta se han llevado a
cabo unos pocos cambios, el más importante de los
cuales ha sido la elaboración de un índice analítico
al final del libro, que facilita mucho la consulta de
temas específicos.
La finalidad de esta tercera edición es la misma
que la de las anteriores: proporcionar un texto de
psicología del aprendizaje, para pregrado, en el cual
se estudien los temas básicos de esta disciplina. El en­
foque es experimental y amplio, sin hacer demasiado
hincapié en las polémicas suscitadas por las diversas
teorías del aprendizaje hace varias décadas; hoy esas
polémicas han desaparecido, y la psicología del apren­
dizaje se ha unificado y se ha convertido en una dis­
ciplina muy estructurada.
El libro ha despertado inquietud y ha servido para
fomentar investigaciones en diversos aspectos de la
modificación del comportamiento, tanto en el área de
la investigación básica como en sus aplicaciones. Es­
pero que siga cumpliendo esta función y colabore en
la empresa de crear una psicología latinoamericana.

RUBÉN ARD1LA
P A R A A N A L U C Í A Y D A V ID
ganzl912
IN TRO D U CCIÓ N

El presente libro está destinado a servir como texto


en cursos universitarios de psicología del aprendizaje
para estudiantes de psicología o de educación. N o
presupone más conocimientos previos que los pro­
porcionados por un curso de introducción a la psico­
logía. El libro hace hincapié en hechos, en conoci­
mientos sólidamente fundamentados, y su enfoque es
claramente experimental; sin embargo, no evita los
temas que están actualmente en discusión y sobre los
cuales aún necesitamos investigar mucho más. Una
lista de libros básicos de psicología del aprendizaje
al final de la obra puede ayudar a complementar los
conocimientos adquiridos durante el curso.
Éste es el primer libro de psicología del apren­
dizaje que se escribe en español. Una obra anterior,
que se debe a Walter Blumenfeld, el conocido
psicólogo alemán, trató principalmente temas de psi­
cología educacional, no de psicología del aprendizaje,
y además está ya anticuada, porque los trabajos sobre
esta área se han multiplicado en las últimas décadas.
He creído importante incluir aquí las investiga­
ciones realizadas por Miller y sus colaboradores sobre
aprendizaje visceral y glandular, publicadas en 1969
y que aún continúan. Éste es probablemente el pri­
mer libro de psicología que toma en cuenta estas
investigaciones, y es seguramente el primer texto de
psicología del aprendizaje (en cualquier idioma) que
incluya un capítulo sobre aprendizaje visceral y glan­
dular.
En español, y en los demás idiomas, el término
“ aprendizaje” es bastante equívoco e implica dos
significados diferentes, aunque íntimamente relacio-

[3]
4 INTRODUCCIÓN

nados: la adquisición de información o de habilida­


des motoras, por ejem plo aprender matemáticas o
aprender a conducir un auto; y aprendizaje como
modificación del comportamiento por la experiencia
previa, que es el significado que los psicólogos pre­
fieren, y que será el tema del presente libro. Es un
hecho que los dos significados están intimamente re­
lacionados. Pero es un hecho también que son dife­
rentes. Cuando un sujeto aprende a repetir listas de
sílabas que se le presentan con la ayuda de un tam­
bor de memoria está modificando su comportamien­
to (verbal). Cuando un neurótico aprende los sínto­
mas psicopatológicos y la manera de manejar la
angustia, su comportamiento también se modifica.
Los significados no son exactamente iguales. Es
preciso comenzar a estudiar psicología del aprendiza­
je teniendo en cuenta esta diferencia básica. Ambos
significados pertenecen a nuestro campo de trabajo,
el primero com o “ aprendizaje verbal” y el segundo
simplemente como “ aprendizaje” . El primero intere­
sará mássa los estudiantes de edu cación /el segundo
a los estudiantes de psicología.
En realidad la modificación del comportamiento
es el problema más importante de la psicología. Va­
rios miles de estudios experimentales se han publicado
en esta área; se ha acumulado una inmensa cantidad
de hechos, que tienen importantes implicaciones para
la psicología como ciencia, y aplicaciones en la educa­
ción y en la clínica. La psicología com o ciencia
comenzó siendo el estudio de la percepción; hacia
1930 se convirtió en el estudio de la modificación del
comportamiento; la siguiente etapa parece ser la in­
vestigación del pensamiento y de la personalidad,
áreas que siguen siendo bastante “ subdesarrolladas”
por falta de métodos adecuados. Seguramente el en­
foque experimental que ha producido tan importan­
tes resultados en el área de la percepción y del
aprendizaje producirá resultados similares en el área
INTRODUCCIÓN 5
del pensamiento y de la personalidad, cuando sus
métodos se refinen suficientemente.
Un libro debe mucho a gran cantidad de perso­
nas, más de las que es posible enumerar. El presente
texto de psicología del aprendizaje no habría podido
escribirse sin la colaboración de numerosos colegas
y colaboradores que me prestaron valiosa ayuda.
Espero que el libro sea útil a las futuras genera­
ciones de psicólogos y de educadores en el mundo
de habla castellana.
1
LA EXPERIM ENTACIÓN EN PSICOLOGIA

Un experimento es una pregunta que hacemos a la


naturaleza. Su respuesta dependerá en parte de qué
tan bien formulada esté la pregunta, y en parte de
la posibilidad que tengamos de entender la respuesta
dada por la naturaleza. La experimentación en psico­
logía es igual a la experimentación en otras ciencias,
en biología, en química, en física, etc.; sin embargo,
el refinamiento de cada una de las disciplinas cien­
tíficas varía con su desarrollo; la psicología es una de
las ciencias más desarrolladas y más exactas, a pesar
de su juventud y a pesar de la creencia popular con­
traria. Los datos recogidos por el psicólogo experi­
mental están a la altura de los datos recogidos por
el físico o por el biólogo, pueden matematizarse en
forma semejante y permiten formular leyes generales
del comportamiento, como en las otras ciencias se
deducen leyes de la materia orgánica o inorgánica.

POR QUÉ EXPERIMENTAR

¿Por qué experimentar en psicología? El desarrollo


histórico de la psicología científica es realmente el
desarrollo de la experimentación en esta área de la
ciencia. Sidman [1960], un conocido psicólogo expe­
rimental dedicado a la investigación en condiciona­
miento operante y aprendizaje de evitación, presenta
cinco razones por las cuales hacemos experimentos
en psicología;
1] Para evaluar hipótesis. Muchas veces las afir­
maciones del psicólogo se presentan dentro del marco
de referencia de hipótesis o teorías. Los trabajos de

[6 ]
POR QUÉ EXPERIMENTAR 7
percepción y solución de problemas llevados a cabo
por la escuela de la Gestalt presentaban afirmaciones
teóricas, no simplemente empíricas, y se requerían
experimentos para evaluar tales hipótesis. Muchas
veces las hipótesis a evaluar en un experimento son
más reducidas y específicas; se trata por ejemplo de
investigar el gradiente de meta de la teoría de Hull,
y no de probar esta teoría en su totalidad.
2] Para satisfacer nuestra curiosidad por la natura­
leza. T odos los científicos están interesados en hallar
respuestas a sus preguntas sobre la naturaleza. Anne
R oe [1953], por ejemplo, quiso estudiar los procesos
psicológicos de los científicos, ver cómo llegaban a
solucionar sus problemas en el laboratorio. Para ello
tomó grupos de físicos, biólogos y científicos del
comportamiento (psicólogos y antropólogos), los so­
metió a varias pruebas psicológicas y entrevistas, y
halló una serie de principios generales aplicables a
todos los científicos de cualquier disciplina, y otra
serie aplicable a cada rama en particular. Este tipo
de estudio que se realiza con el fin de satisfacer
la curiosidad del investigador generalmente tiene un
carácter exploratorio, abre un camino que otros in­
vestigadores deben transitar antes de poder hacer
afirmaciones generales y válidas acerca del fenómeno
en cuestión.
3] Para probar un nuevo método o técnica. La
invención de un nuevo test psicológico, por ejemplo
el t a t o el w a i s , debe ser seguida de experimentos
sistemáticos sobre su validez, confiabilidad y área de
aplicación. En el caso de la invención de una nueva
técnica, por ejemplo de la caja de Skinner, gran can­
tidad de experimentos se planean y ejecutan con la
finalidad explícita de estudiar el alcance del nuevo
instrumento. La técnica del análisis factorial y sus
aplicaciones a la medición de la inteligencia es otro
ejemplo. En todos estos casos la invención de un
nuevo método o técnica abre muchos caminos a la
investigación que se exploran rápidamente.
8 LA EXPERIMENTACIÓN

4] Para establecer la existencia de un fenómeno


de conducta. ¿Aprenden las plantas? ¿Es posible so­
meterlas a un proceso de condicionamiento clásico,
com o se pueden someter los hombres y los animales?
El primer paso para establecer este fenómeno es ver
si las plantas presentan algo que podamos denominar
comportamiento: algunas plantas se mueven, sobre
todo las del género mimosa; por lo tanto para saber
si las plantas aprenden (o sea si modifican su com­
portamiento) es importante estudiar las mimosas en
condiciones de aprendizaje simple, de condiciona­
miento clásico. La respuesta a la pregunta: "¿apren­
den las plantas?” , no se conoce todavía con certeza.
5] Para explorar las condiciones bajo las cuales
ocurre un fenómeno. Se sabe que la estimulación
ambiental temprana en ratas las fortifica, las vuelve
más resistentes a las enfermedades, más pesadas, y
con un promedio de vida más largo. ¿A qué se debe
esto? Los especialistas hablan de "ambiente rico” que
estimula el crecimiento y el desarrollo tanto físico
com o psicológico. Sin embargo, es preciso descubrir
las condiciones en las cuales se presenta el fenómeno.
La existencia de períodos sensibles de desarrollo, o sea
de períodos en los cuales la estimulación temprana
repercute en el comportamiento posterior, parece ser
un hecho bien comprobado. En qué forma actúa esa
estimulación para lograr los efectos observados es
algo que todavía requiere más investigación.
Éstas son las cinco razones por las cuales hacemos
experimentos. Para un investigador la curiosidad
acerca de la naturaleza puede ser el determinante más
importante. Para otro el establecimiento de nuevos
fenómenos de comportamiento y las condiciones bajo
las cuales ocurren pueden ser los factores determinan­
tes. En el caso de muchos psicólogos contemporáneos
la investigación está destinada a probar o refutar
hipótesis, y los hechos encontrados tienen sentido
dentro de un esquema teórico.
La anterior enumeración de las razones por las
POR QUÉ EXPERIMENTAR 9
cuales hacemos experimentos muestra claramente que
la ciencia requiere tanto pensamiento intuitivo como
pensamiento analítico. La elección de un problema
y la planeación de un experimento requieren gran
cuidado y mucho pensamiento analítico; por otra
parte ver los factores que toman parte en el fenó­
meno, las explicaciones que pueden darse a los ha­
llazgos experimentales y las generalizaciones deriva-
bles de allí, son trabajos que requieren mucho
pensamiento intuitivo. Se insiste grandemente en la
importancia del pensamiento analítico en ciencia,
pero se olvida a veces que la imaginación creadora
es mucho más importante que cualquier otro factor
en ciencia, como lo reconocen todos los científicos
contemporáneos.
La psicología actual insiste mucho en la solidez
de su metodología. Las revistas científicas publican
experimentos en los cuales los resultados son válidos
según un alto nivel de probabilidad, generalmente
el 1% y a veces el 5% . Muchos experimentos dan
resultados significativos y realmente significan muy
poco. La psicología contemporánea corre el riesgo de
caer en una “ metodolatría” , o sea una adoración del
método, de la forma, olvidándose de la sustancia. Ex­
perimentos en los cuales las ratas del grupo expe­
rimental corrieron más rápido que las ratas del grupo
de control, siendo la diferencia significativa al 1%,
pueden en realidad no “ significar” casi nada.
Se requiere un tipo de psicólogo altamente pre­
parado en técnicas estadísticas y en diseño y ejecu­
ción de experimentos, pero al mismo tiempo con
imaginación creadora y pensamiento “ divergente”
(para usar el término de Guilford). Esos psicólogos
serán capaces de planear experimentos que den res­
puestas a preguntas que han estado en nuestra disci­
plina por muchos años sin que hayamos sido capaces
de resolverlas todavía. Ellos no se limitarán a seguir
recorriendo caminos seguros, repitiendo los métodos
usados por otros investigadores anteriormente, sino
10 LA EXPERIMENTACIÓN

que inventarán nuevos métodos y técnicas. Sin duda


los creadores de la psicología experimental, Wundt,
Fechner, Weber, Pavlov, Watson, Yefkes, Kóhler,
Piéron, fueron hombres que abrieron nuevos caminos
y supieron que estaban explorando un nuevo terri­
torio.
Un buen experimento nos da más preguntas que
respuestas. Se soluciona un problema y surgen mu­
chos más. En esta forma crece la ciencia y se descu­
bre que su campo de acción es mucho más complejo
de lo que se pensaba antes.

VARIABLES

T od o experimento estudia la relación entre variables


dependientes e independientes. Variables indepen­
dientes son aquellas que el experimentador manipula
o varía. Variables dependientes son aquellas en las
cuales repercuten las anteriores operaciones, o sea
que cambian a consecuencia de manipular las varia­
bles independientes.
En un experimento simple de aprendizaje del
laberinto, el experimentador priva al animal del ali­
mento por un cierto período, digamos 24 horas; este
factor de privación de alimento es la variable inde­
pendiente. El aprendizaje del laberinto es la variable
dependiente. Un experimento estudia siempre rela­
ciones, no hechos; tiene la forma:

Si A, entonces B

No probamos A ni B sino su relación. Si se priva del


alimento a la rata por 24 horas recorre el laberinto
más rápidamente (o con menos errores) que si no se
le priva de alimento.
Hasta hace pocos años se afirmaba que era pre­
ciso tener constantes todas las variables independien­
tes menos la que se estaba manipulando. Los sujetos
experimentales debían tener el mismo sexo, edad,
EL GRUPO DE CONTROL 11
especie, etc., que los sujetos del grupo de control.
Hoy se sabe que es posible manipular varias varia­
bles independientes a la vez y observar su efecto
sobre las variables dependientes. En realidad los dise­
ños experimentales permiten variar diversos niveles
de una variable independiente y diversas variables
independientes y observar su efecto sobre las varia­
bles dependientes.
Diísde otro punto de vista, en toda investigación
psicológica hay tres tipos de variables: del estímulo;
de la respuesta y del organismo.
a) Variables del estimulo: cualquier cambio en el
ambiente que actúa sobre el organismo.
b) Variables del organismo: cualquier caracterís­
tica del organismo, por ejemplo su peso, altura, es­
pecie, edad y experiencias previas.
c) Variables de la respuesta: cualquier conducta
o acción que ejecuta el organismo. En otras palabras,
cualquier contracción muscular o secreción glan­
dular.
La fórmula básica de la psicología es:

C = f (0, E)

El comportamiento (o respuesta) es funcióñ del or­


ganismo y de la estimulación. El organismo trae mu­
chos factores a la situación experimental, su especie,
edad, sexo, experiencias, expectaciones (en el caso de
los sujetos humanos por lo menos), motivación y
muchas más. Los estímulos son siempre complejos:
el experimentador es uno de los más importantes; los
estímulos experimentales, el ambiente del laborato­
rio, todo eso repercute sobre la respuesta.

EL GRUPO DE CONTROL

En un experimento es a menudo difícil saber con


certeza si el efecto encontrado se debe a la variable
manipulada por el experimentador o no. En esto se
12 L A EXPERIMENTACIÓN

basa la necesidad de establecer grupos de control,


que se usan tanto en psicología como en otras cien­
cias y técnicas. En agricultura, por ejemplo, si se va
a estudiar el efecto de un nuevo tipo de abono
químico en la cosecha, se da el tratamiento a un
grupo de árboles y se compara su producción con el
de otro grupo de árboles que no recibieron el abono.
En general la variable experimental se manipula
sistemáticamente en el grupo experimental y no se
trata en el grupo de control.
En psicología, si vamos a estudiar la influencia
de la corteza cerebral en el aprendizaje de discrimina­
ción del mono macaco, tomamos dos grupos de mo­
nos (A y B); ambos se someten a la prueba previa,
aprenden por ejemplo el problema de discrimina­
ción hasta el criterio definido por el experimentador.
Después se le da el tratamiento experimental al gru­
po A, se le extirpa cierta parte de la corteza cerebral,
digamos de la zona frontal; al grupo B no se le
extirpa nada (en este caso es conveniente operar
también a los sujetos del grupo B, pero sin cortarles
ninguna parte del cerebro, porque es posible que el
simple trauma de la operación tenga efecto en el
aprendizaje de discriminación, y es preciso controlar
este factor). Después se someten ambos grupos a la
prueba posoperatoria, o sea que se les prueba de
nuevo en el problema de discriminación, y se compa­
ra la ejecución del grupo A y del grupo B. Los re­
sultados de cada grupo se cuantifican y se realiza un
análisis estadístico para ver si las diferencias observa­
das son significativas o no. En muchos casos una
diferencia de sentido común no es estadísticamente
significativa, o sea que no es suficientemente grande
para estar más allá del factor de azar.
La importancia del grupo de control se ha discu­
tido pocas veces en la literatura especializada, y ge­
neralmente se acepta como algo de hecho. Edwards
[1960] dice que, si hay dos grupos experimentales y
uno de control, es conveniente que cada grupo ex­
e s t u d io s p i l o t o 13
perimental tenga 29.29% de los sujetos, y el grupo
de control tenga 41.42% de los sujetos. Hay tablas
que indican cuál es la proporción más adecuada de
sujetos en cada grupo, experimental y de control,
cuando hay 3, 4, o más grupos experimentales. Sin
embargo, la regla más sencilla es ésta: siempre que
sea posible debe usarse el mismo número de sujetos
en cada grupo experimental y en cada grupo de
control.

ESTUDIOS PILOTO

Además de los anteriores tipos básicos de investiga­


ción, hay en psicología estudios que se denominan
“ piloto” en el sentido de que son exploratorios o
inconclusos. Generalmente son trabajos preliminares
antes de un experimento completo. Por ejemplo,
tenemos la creencia de que una droga, digamos el
alcohol, va a alterar el aprendizaje de los ratones de
un laberinto, y que ellos van a cometer significativa­
mente más errores que los miembros del grupo de
control a los cuales se les da solución salina en vez
de alcohol. Sin embargo, no estamos seguros de que
éste sea el efecto, y antes de completar un diseño
experimental complejo es conveniente tener una idea
de la dirección de los resultados; quizá pequeñas
dosis de alcohol mejoren el aprendizaje porque des­
inhiben a los sujetos, mientras que grandes dosis
empeoren el aprendizaje porque los sujetos son inca­
paces de prestar atención a los estímulos relevantes
en la situación experimental. Antes de comenzar una
serie de experimentos es conveniente hacer algunos
estudios piloto que orienten la investigación.
En un estudio piloto no se controlan siempre to­
das las variables, o se trabaja con pocos sujetos, o
con instrumentos no muy bien conocidos. Sin embar­
go, un estudio piloto no implica que se trate de un
estudio deficiente. Un mal experimento es un mal
experimento, sea “ piloto” o no.
14 LA EXPERIMENTACIÓN

Los estudios piloto se diseñan principalmente con


el fin de estimar el éxito o fracaso probable de un
experimento completo. Por su falta de control de
ciertas variables su valor predictivo disminuye mu­
chísimo y puede conducir a expectaciones falsas. La
única forma de que tuviera suficiente valor predic­
tivo serla que se controlaran todas las variables y que
se realizaran las mismas operaciones que en el ex­
perimento “ verdadero” . Y entonces, ¿por qué habría­
mos de llamarlo “ piloto” ?
En realidad los experimentadores se oponen mu­
cho a los estudios piloto, prefieren predecir el éxito
o fracaso en relación con trabajos previos, y planean
sus investigaciones en forma definitiva, muchas veces
usando la intuición. Pero durante el curso de una
investigación se nota en algunos casos que no todas
las variables están tan bien controladas como se creía,
y entonces el estudio se vuelve piloto.
Los estudios piloto no se publican, pero sería muy
útil hacerlo porque esto mostraría diversas fuentes
de error que podrían evitarse en trabajos posteriores.
Un estudio piloto es un estudio inconcluso, es una
consecuencia que no se planeó, o es un trabajo en
el cual uno se encontró con dificultades técnicas.
Com o exploración de un área de investigación puede
ser útil siempre que se tome con las precauciones del
caso.
2
PROBLEMAS BÁSICOS DE PSICOLOGIA
DEL APRENDIZAJE

El aprendizaje es el área de la psicología en la cual


trabajan más psicólogos en la actualidad, y en la
cual las investigaciones han alcanzado un altísimo
grado de refinamiento. La psicología experimental
comenzó siendo el estudio de la percepción dentro
de un marco de referencia estructuralista. Hacia 1930
el cuadro había cambiado notoriamente, y el acento
se colocaba no en la manera en que un sujeto per­
cibía el mundo sino en la transformación del com­
portamiento, también llamado aprendizaje.
Los psicólogos utilizan este término, "aprendiza­
je ”, en forma muy diferente a com o lo utiliza la
demás gente. Para los psicólogos no tiene casi nada
que ver con el término "conocim iento” , tiene muy
poco que ver con el término “ instrucción” , y no tiene
absolutamente nada que ver con el término "sabidu­
ría” . Indudablemente el término “ aprendizaje”, como
lo usan los psicólogos se presta a ciertas confusiones
generadas por su uso en la vida diaria. La psicología
del aprendizaje es una rama de la psicología expe­
rimental que ha alcanzado un altísimo grado de
desarrollo en el siglo xx, y que ha permanecido com o
ciencia pura aunque parece contener las semillas de
una revolución en la educación, como veremos en
un capítulo posterior.
La importancia del aprendizaje en la compren­
sión de la conducta humana es de enorme magnitud,
mucho mayor de lo que se supone ordinariamente.
Aprendemos a hablar (por eso los hijos de los in­
gleses hablan inglés y los hijos de los chinos hablan
[ 15]
16 PROBLEMAS BÁSICOS

chino); aprendemos a sumar, a restar, a sacar raíces


cuadradas; aprendemos a tomar cierto camino para
ir al trabajo; aprendemos a entender el teatro mo­
derno, a vestirnos en cierta forma, a preferir ciertas
comidas, a ser amables o huraños con la gente; apren­
demos a considerar a los negros como iguales o como
inferiores; aprendemos a admirar a los comunistas, a
temerlos o a odiarlos; aprendemos a intercambiar
confidencias emocionales con un amigo y a reaccio­
nar friamente ante otro. Se aprenden los prejuicios,
las actitudes, las reacciones y los gustos. El aprendiza­
je es un asunto mucho más amplio e importante de
lo que se cree comúnmente.

EL ÁREA DEL APRENDIZAJE

Cada ciencia posee un conjunto de fenómenos, una


serie de hallazgos, un conjunto de métodos de in­
vestigación y una estructura teórica que la caracte­
rizan y distinguen de las demás ciencias. El estudio
de estos cuatro puntos en psicología del aprendizaje
nos llevará a definir con claridad este campo de
trabajo.
Como todas las áreas de la ciencia, la psicología
del aprendizaje se caracteriza por los cuatro rasgos
definitivos antes enumerados:
1] Un conjunto de fenómenos, o sea un campo
específico de trabajo, en este caso los fenómenos re­
lacionados con la modificación del comportamiento.
Implica tanto el estudio de la conducta humana como
de la subhumana, y tanto en situaciones naturales
com o de laboratorio, siempre que se refieran a la
variación del comportamiento.
2] Una serie de hallazgos acumulados, que son el
resultado de la investigación llevada a cabo durante
muchos años. En psicología del aprendizaje los datos
que son el resultado de estudiar los fenómenos del
aprendizaje llenan numerosos volúmenes, y un cierto
número de ellos se va a describir en el presente libro.
DEFINICIONES DE APRENDIZAJE 17

3] Un conjunto de métodos de investigación, para


obtener datos experimentales y testimonios sobre
los fenómenos que forman su campo de acción. Los
métodos de la psicología del aprendizaje son en
parte los mismos métodos de la psicología experimen­
ta], que hemos estudiado en el primer capítulo, y
por otra parte algunos métodos específicos y algunos
instrumentos que se usan sólo en el área del apren­
dizaje, com o son los métodos del condicionamiento
clásico y operante, y los instrumentos usados por
estas dos áreas (por ejemplo la caja de Skinner).
4] Una estructura teórica. Ciencia no es simple­
mente la acumulación de hechos, sino también su
organización y explicación. Las teorías del aprendiza­
je han alcanzado un altísimo nivel de refinamiento,
y van desde la simple descripción de hechos dentro
de un marco de referencia sencillo hasta las más
complejas teorías matemáticas, cuyo nivel de abstrac-
ción está en iguales términos con el nivel de abs­
tracción logrado por la física moderna.

DEFINICIONES DE APRENDIZAJE

¿Qué es aprendizaje, según esto? Sabemos que no es


sólo sumar y sacar raíces cuadradas, o memorizar
lisias de silabas sin sentido, sino mucho más. Apren­
dizaje ha sido definido en formas muy diversas. N o
es algo que se observe como observamos el comporta­
miento de la gente ante un estímulo físico. El apren­
día aje pertenece a la categoría considerada como
"variable participante’’ o “ construcción hipotética"
[para una distinción entre ambas véase MacCorquo-
dale y Meehl, 1948], Observamos unas alteraciones
en la ejecución de un organismo, animal o humano,
e inferimos que ha “aprendido". En otras palabras,
atribuimos ese cambio en la ejecución (digamos un
aumento en el número de respuestas) a una construc­
ción hipotética, el “ aprendizaje” .
Las definiciones de aprendizaje son muchas;
18 PROBLEMAS BÁSICOS

Hunter [1934] y Hovland [1937] se refirieron a una


"tendencia a mejorar con la ejecución” . Thorpe [1956]
dice que aprendizaje es un proceso que se manifiesta
por cambios adaptativos de la conducta individual
como resultado de la experiencia. Para McGeoch e
Irion [1952] aprendizaje es un cambio en la ejecu­
ción que resulta de las condiciones de la práctica.,
Kimble [1961] prefiere hablar de un cambio rela­
tivamente permanente en la potencialidad del com­
portamiento que ocurre como resultado de la práctica
reforzada. Esta última definición implica un con­
cepto teórico, el refuerzo, al cual nos referimos con
mucha frecuencia en este libro; es un concepto que
todavía se discute y se ha discutido por más de me­
dio siglo; todavía no sabemos con certeza si el re­
fuerzo es necesario para el aprendizaje, o si basta
la contigüidad temporal de los estímulos. Hall [1966],
en una definición más amplia, dice que aprendizaje
es un proceso que tiene lugar dentro del individuo
y se infiere por cambios específicos en el comporta­
miento, los cuales poseen ciertas características deter­
minantes.
Una definición que probablemente será aceptada
por todos es la siguiente: aprendizaje es un cambio
relativamente permanente del comportamiento que
ocurre com o resultado de la práctica. En esta defini­
ción es preciso distinguir varios aspectos:
1] Cambio: aprendizaje es un cambio, una altera­
ción que puede manifestarse en una rata blanca
porque comete menos errores en un laberinto en T ,
necesita menos tiempo para recorrerlo, etc. A nivel
humano en situaciones de aprendizaje verbal, se ma­
nifiesta porque el sujeto es capaz, por ejem plo, de
repetir una larga lista de sílabas sin sentido, que
antes no podía repetir; o es capaz de identificar las
respuestas correctas en una prueba que no identifi­
caría antes de haber estudiado la lección.
2] Relativamente permanente: por simple acci­
dente es posible que un sujeto dé las respuestas
ESTÍMULO Y RESPUESTA 19

"correctas” (como le sucedió al famoso asno de la


fábula), aunque la probabilidad de hacerlo sea suma­
mente baja. Pero la siguiente vez no será capaz de
hacerlo de nuevo. P or otra parte, el aprendizaje debe
distinguirse de la fatiga, que es también un cambio
de comportamiento que ocurre como resultado de la
p«Táctica. Y de los efectos de las drogas, que alteran
el comportamiento e influyen en la ejecución de una
tarea. Sin embargo, tanto en el caso de la fatiga como
en el caso de las drogas los efectos son pasajeros, es
simple asunto de tiempo que se disipe su acción. £1
aprendizaje también se altera con el tiempo, como
todos sabemos. Por esto en la definición he incluido
el término “ relativamente permanente” , para distin­
guirlo de cambios pasajeros y para indicar al mismo
tiempo que no dura indefinidamente. N o sabemos
pior qué olvidamos, y este problema todavía se discu­
te en los círculos de especialistas, com o veremos en
el capítulo correspondiente.
3] Resultado de la práctica: puede que el refuer­
zo sea indispensable en el aprendizaje o que no lo
sea, éste es un problema aún no resuelto. La práctica,
en cambio, es indispensable. El sujeto debe haber
leído la lista de sílabas sin sentido por lo menos una
vez si ha de ser capaz de repetirla; en muchos casos
la presentación repetida del estímulo es el factor
básico en el aprendizaje.

ESTÍMULO Y RESPUESTA

Al intentar estudiar científicamente el comporta­


miento los psicólogos hallaron que era útil buscar
las causas de una acción, lo cual llevó a estudiar los
estímulos antecedentes, próximos y lejanos de la
raisma; se buscaban las causas, las razones de la con­
ducta. Esto hizo que el estudio del comportamiento
en términos de estímulos y respuestas fuera más fruc­
tífero que el estudio del comportamiento en función
de “ todos estructurados” . Sin entrar aquí en las tra-
20 PROBLEMAS BÁSICOS

dicionales discusiones de corte filosófico que abunda­


ron en la psicología en el pasado, y que fueron bas­
tante estériles, es importante describir qué se entien­
de por estímulo y por respuesta.
Estimulo es un cambio de energía en el ambiente
físico que actúa sobre el organismo y desencadena
una respuesta. O sea que existe una relación íntima
entre estímulo y respuesta, y que el uno se define
en función de la otra. Existen estímulos interiores
y exteriores al organismo; los estímulos viscerales, y
en general el “ ambiente interno” de que hablaba
Claude Bernard en el siglo xix, pueden ser tan efec­
tivos como los estímulos externos.
Respuesta es una contracción muscular o una se­
creción glandular que puede conectarse en forma
funcional con un estímulo antecedente. Esta defini­
ción debe mucho a Miller [1959], y corrobora la
íntima relación existente entre estímulo y respuesta.
Stevens [1951] dice que el problema central de
toda la psicología es la definición del estímulo. En
su opinión, es preciso definir cuáles son las propie­
dades de los objetos estímulos que obran como esti­
mulantes, o sea que actúan sobre el organismo y
desencadenan la respuesta.
Sólo los estímulos efectivos son estímulos. Un cam­
bio de energía que ocurre en la cara oscura de la
luna no es un estímulo para un habitante de la
tierra; una onda ultravioleta no es un estímulo mien­
tras no la percibamos con los instrumentos del caso.
Los ultrasonidos no son estímulos para el hombre
pero sí lo son para los murciélagos y para los perros.

CLASES DE APRENDIZAJE

El tema del aprendizaje es bastante complejo, como


el lector se habrá dado cuenta hasta este punto. Se
discute si hay una o varias clases de aprendizaje, se
está en desacuerdo con los parámetros básicos del
proceso, y “ aprendizaje” se ha convertido en sinó­
CLASES DE APRENDIZAJE 21

nimo de “ polémica” en psicología contemporánea.


En este libro mi punto de vista será amplio, pero
dentro de los cánones de la psicología experimental.
Tío daré más peso a una interpretación que a otra,
sino que expondré los hechos y el lector podrá hacer
su propia evaluación de ellos. Por otra parte, como
Hilgard y Bower han hecho notar [1966], los psicó­
logos están de acuerdo con los hechos del aprendiza­
je, éstos no se discuten; se acepta la integridad cien­
tífica de los otros investigadores, y se repiten sus
hallazgos; en cambio, la interpretación de los hechos
es causa de discordia.
La primera gran división en el aprendizaje se
refiere al condicionamiento clásico y al condiciona­
miento operante; cada uno de estos temas se tratará
en detalle en capítulos posteriores. Aquí basta decir
que en el condicionamiento clásico el proceso esen­
cial es la repetición del estímulo que se va a aprender
{estímulo condicionado) junto con el estímulo “ na­
tural” (o estímulo incondicionado, que produce la
respuesta desde el comienzo). Pavlov utilizó una cam­
pana o un zumbador com o estímulo condicionado,
que se aplicó simultáneamente con una pequeña
cantidad de polvo de carne en la boca del animal
(estímulo incondicionado); después de presentar jun­
tos estos estímulos durante muchas veces la campana
sola produjo salivación en el perro (respuesta con­
dicionada).
En el condicionamiento operante, por otra parte,
el animal emite una respuesta (por ejemplo presio­
nar una barra en un instrumento denominado caja
de Skinner) y se refuerza (por medio de alimento,
generalmente). Sabemos que el alimento refuerza el
comportamiento del animal porque aumenta la fre­
cuencia de su ocurrencia; el animal repite la acción
una y otra vez. Probablemente las características dis­
tintivas del condicionamiento operante son el uso del
refuerzo y la afirmación de que la conducta está me­
diada por sus consecuencias.
22 PROBLEMAS BÁSICOS

Otras importantes clases de aprendizaje merecen


ser estudiadas aquí. El aprendizaje percepto-motor>
o aprendizaje de habilidades, principalmente moto­
ras, ha alcanzado un alto grado de desarrollo espe­
cialmente en relación con la ingeniería psicológica
(también llamada "psicología experimental aplica­
da” ). Los trabajos sobre coordinación óculo-manual,
por ejemplo, se han réfinado mucho, y su importan­
cia en la vida diaria es muy grande. El aprendizaje
verbal es otra "clase” , que se refiere específicamente
al hombre y está en íntima relación con los proble­
mas de formación de conceptos, el uso de símbolos
y otras cuestiones que antes se traban como "pen­
samiento” ; llamarlos "comportamiento verbal” no
cambia su naturaleza pero los hace más accesibles
al método de las ciencias naturales.
El problema de si existen “clases” de aprendizaje
es algo que nunca se ha resuelto satisfactoriamente.
Parece que los procesos que toman parte en el con­
dicionamiento clásico y operante, en el aprendizaje
percepto-motor y en el aprendizaje verbal tienen
mucho en común, pero no pueden identificarse com­
pletamente.

INSTINTO

El comportamiento instintivo se ha considerado ge­


neralmente como opuesto al comportamiento apren­
dido. En realidad representan dos enfoques diferen­
tes, antitéticos, al problema de la adaptación am­
biental. El instinto implica una adaptación rígida,
mecánica y automática; por esto mismo no está sujeta
a errores y es, como se acostumbraba decir en la
psicología del siglo xix, “ perfecta desde el primer
momento” . El aprendizaje en cambio implica varia­
bilidad, adaptabilidad y la posibilidad de cometer
errores. Sin embargo, la naturaleza presenta un
ambiente permanentemente cambiante, y en ese am­
biente la adaptación por medio del aprendizaje es
INSTINTO 25

tremendamente más eficiente que la adaptación por


medio del instinto. El hombre representa el máximo
logro evolutivo en cuanto a la capacidad de aprender;
ningún otro organismo tiene un comportamiento que
varié tanto como el nuestro, ni se puede adaptar a
ambientes tan diferentes ni ha sobrevivido a tantas
variaciones. El otro extremo lo representan los insec­
tos sociales, especialmente las hormigas, que no han
cambiado absolutamente nada en varios millones de
años, y tienen un complejo equipo instintivo que les
ha permitido sobrevivir y extenderse por todo el
planeta.
El instinto como campo de estudio de la psicolo­
gía ha tenido muchos altibajos. Inclusive hoy cuenta
con muy pocas simpatías. Se dice que un comporta­
miento es “ instintivo” si no es posible demostrar que
es “ aprendido” . Pero esto, como ha hecho notar Beach
[1955], equivale a “ probar” la hipótesis nula en esta­
dística. .. lo cual, naturalmente, no prueba más que
nuestra ignorancia acerca de la verdadera naturaleza
de los fenómenos.
Kuo [1922, 1924, 1967], el principal psicólogo
chino del siglo xx, ha sido considerado el campeón
de la campaña contra los instintos. £1 crió ratas y
gatos juntos, y observó que no existe un instinto en
los gatos a comerse las ratas, o en las ratas a huir
de los gatos; entrenó perros a luchar en forma no
lograda antes [Kuo, 1967], logró crear nuevas formas
de comportamiento completamente opuestas a lo que
parecía ser “ natural” en esos animales, etc. Según
él y varios psicólogos más, la palabra “ instinto” es
vacía de significado, añade confusión a nuestro cam­
po de trabajo, y debe desecharse de una vez por
todas.
Sin embargo, existen ciertos comportamientos que
son comunes a todos los miembros de la especie,
rígidos, etc., como hemos visto antes en el caso de las
hormigas. Se denominan comportamiento especifico
de la especie (en vez de "instinto”, lo cual no es sola­
24 PROBLEMAS BASICO!!

mente un cambio de terminología sino también de


enfoque). Estos comportamientos específicos han sido
estudiados, especialmente por los etólogos europeos.
Tinbergen [1951, 1952] estudió el comportamiento
“ instintivo” de un pez, el espinoso (Gasterosteus
aculeatus), que vive en los ríos poco profundos de
Europa. Analizó varias secuencias en su comporta­
miento especialmente en lo referente a la reproduc­
ción. Según él cada fase consiste en cadenas de sim­
ples segmentos de conducta, cada uno de los cuales
se inicia y controla por medio de unos pocos estí­
mulos externos muy específicos, llamados por él
estímulos-signo. Un ejemplo de estos estímulos es la
reacción del espinoso macho a otros machos de
la misma especie, que se caracterizan por tener el
vientre y el cuello rojos durante la época de aparea­
miento. Pelkwijk y Tinbergen [1937] construyeron
modelos de espinoso, unos que parecían peces pero
de color plateado y verde en vez de rojo; otros mo­
delos no tenían forma de pez pero tenían el vientre
rojo. Ambos tipos de modelos (con muchas variacio­
nes) se presentaron a machos de espinoso, en sus
propios territorios, y se observó que atacaban a los
modelos con el vientre rojo, no a los modelos de
color verde y plateado. El vientre rojo y no la forma
del modelo, es el estímulo-signo que desencadena el
comportamiento agresivo del espinoso macho.
El estudio de la secuencia reproductiva de este
pez llevó a Tinbergen a proponer una compleja e
interesante teoría de la conducta instintiva, que pre­
senta en su libro [Tinbergen, 1951], que ha sido tra­
ducido al español recientemente.* La teoría se funda­
mentó en el concepto de mecanismos innatos de
desencadenamiento (nombre original: innate releas­
ing mechanisms, abreviado en todos los idiomas ir m ).
Según Tinbergen, el comportamiento instintivo ocu­

• El estudio del instinto, Siglo xxi Editores, S. A., México,


1969.
MADURACIÓN 25
rre en secuencias inalterables y definitivas, en las
cuales es preciso completar una fase antes de poder
pasar a la siguiente. Por ejemplo el espinoso no co­
mienza a construir su nido hasta que no ha defendido
su lerritorio por cierto tiempo; y no empieza a corte­
jar la hembra hasta que no ha construido el nido.
Estas secuencias invariables se pueden observar en
muchas otras especies de animales.
En este lugar nos interesa el concepto de conducta
instintiva, o comportamiento específico de la especie,
en oposición a conducta aprendida. Una descripción
más detallada de las relaciones entre instinto y apren­
dizaje pueden hallarse en otro lugar [Ardila, 1968 a,
pp. 26-27].

MADURACIÓN

En relación con el estudio de los instintos se encuen­


tra el estudio de la maduración, ambos com o opuestos
al aprendizaje. Se trata de ver en qué forma los facto­
res evolutivos y aprendidos contribuyen a la ejecu­
ción. Maduración es un término tomado de la bio­
logía y se refiere al proceso ontogénico por medio
del cual se llega al máximo de desarrollo; implica
la acción de ciertos procesos metabólicos, hormona­
les y de ejercicio.
El comportamiento es siempre el producto de
factores aprendidos y factores de maduración. La
antigua polémica entre herencia y ambiente se ha re­
suelto dando importancia a ambos grupos de factores,
aunque en grado diferente según el comportamiento
en cuestión. La edad del organismo, que se considera
en 1íneas generales com o un índice de su desarrollo, es
una de las variables que se controlan siempre en psi­
cología del aprendizaje. Siempre se usan animales
adultos; por ejemplo ratas de 100 días de nacidas, si
no se quiere estudiar específicamente la acción de
mecanismos ontogénicos. El problema de los períodos
críticos de desarrollo [Scott, 1962] está en relación
26 PROBLEMAS BASICOS

íntima y compleja con el problema de la maduración


del organismo.
La capacidad de aprender varía con la edad, es­
pecialmente durante los estadios iniciales de desarro­
llo. Se. ha comprobado [Spelt, 1948] que los fetos hu­
manos de 6 y medio meses son capaces de aprender
(en el sentido de poder responder al condicionamiento
clásico). McGraw [1935] trató de entrenar un miembro
de una pareja de mellizos homocigóticos, y encontró
que el factor maduración entraba en juego, o sea que
existían ciertos factores evolutivos que debían tomarse
en cuenta; el entrenamiento antes de cierto período
no ayudaba a la mejor ejecución. Esto lo saben tam­
bién los maestros, y se demuestra por la llamada
"edad de la lectura", antes de la cual los niños no
son capaces de aprender a leer. Claro que en mu­
chos casos no se trata de factor de maduración, sino
de aprendizaje de ciertas habilidades, la capacidad de
atender a ciertos estímulos, de entender órdenes,
de coordinar los movimientos, etcétera.

EXPERIENCIAS TEMPRANAS

Las primeras experiencias en la vida de un organismo,


humano o no humano, se supone que son básicas en
el comportamiento posterior. Esto quiere decir que
la primera infancia es particularmente importante,
com o ya había sido postulado por Freud y muchos
otros. Hebb [1949], el conocido neuropsicólogo cana­
diense, habla de dos tipos de aprendizaje: temprano,
en el cual se forman las asambleas celulares que son
los bloques principales con los cuales se construye el
comportamiento; estas asambleas celulares (que tie­
nen una base neurológica específica, según Hebb)
requieren para su formación repetidas experiencias,
y se forman lentamente. El segundo tipo de apren­
dizaje, posterior, consiste en el encadenamiento de
asambleas celulares para formar secuencias de fase;
la unión de asambleas celulares en secuencias de fase
EXPERIENCIAS TEMPRANAS 27
posibilita el comportamiento complejo que observa­
mos en el organismo adulto. Esto implica que un
organismo sin experiencias tempranas, privado de
ellas en forma artificial, será incapaz de tener un
comportamiento normal. Esto ha sido comprobado
en numerosos estudios [entre ellos ver Thom pson y
Melzack, 1956; Ardila, 1967 a; Sabogal, Otero y Ardi-
la, 1975; Ardila, 1976],
D e la anterior descripción podría inferirse que
privar al organismo de su ambiente normal en la
primera infancia es la manera usada en todos los
casos para estudiar la influencia de las experiencias
tempranas en el comportamiento posterior. Esto sería
una simplificación. Existen tres métodos usados con
este objetivo: 1] estimulación supranormal: criar los
animales en un ambiente enriquecido, con numero­
sísimos estímulos; 2] estimulación subnormal: privar
al animal de su ambiente ‘‘natural’’, com o en los
experimentos de Thom pson y Melzack; 3] alteracio­
nes cualitativas de la estimulación: dar estimulación,
pero no la que el organismo recibe ordinariamente.
Estos tres métodos han ayudado a tener un cuadro
coherente de la influencia de las experiencias tempra­
nas en el comportamiento posterior.
Problemas complejos requieren soluciones com ­
plejas, y la influencia de las experiencias tempranas
es uno de los asuntos más complicados de la psico­
logía contemporánea. Antes de definir claramente
cuál es la influencia es preciso tener en cuenta
factores com o los siguientes: especie con la cual
estamos trabajando, edad en la cual se somete el
organismo a la experiencia “ temprana” , edad en el
momento de probar los efectos de dicha experiencia
(generalmente se hace en la edad adulta), duración
o cantidad de la experiencia temprana, calidad de
ella, o sea de qué experiencia se trató (choque eléc­
trico, privación de luz, privación de contacto con la
madre, manipulación del animal, etc.), tarea de
ejecución en la cual se prueban los efectos posterior­
28 PROBLEMAS BÁSICOS

mente, y por último persistencia de los efectos (qué


tan duraderos son). Scott [1968] presenta un resumen
de esta área de trabajo, y a él remitimos al lector
interesado en este importante tema.

EL FENÓMENO DE "IMPRESIÓN” O ACUÑAMIENTO

Este fenómeno (llamado en alemán Pragung y en


inglés imprinting) se relaciona íntimamente con las
variables del aprendizaje temprano y con la socializa­
ción del animal. El fenómeno fue observado primero
por Spalding en 1879. Sin embargo, fue Konrad
Lorenz [1935], el famoso etólogo alemán, quien rea­
lizó los primeros estudios y observaciones sistemáticas
al respecto. El fenómeno implica una impresión
indeleble que se deja en un organismo joven; éste
se acerca al “ objeto impresor” que en condiciones
naturales es la madre, y al hacerlo altera su comporta­
miento posterior; el organismo queda indeleblemente
ligado al objeto impresor, y tiempo después buscará
un objeto (social y sexual) con las características del
objeto impresor (véase Ardila, 1975; Correa y Ardila,
1975).
Experimentalmente se ha observado que casi cual­
quier cosa móvil puede convertirse en objeto impre­
sor si actúa en el momento adecuado, en el periodo
critico. Se ha logrado que animales recién nacidos,
sobre todo aves, sigan a un hombre, a un animal
de otra especie, e incluso una luz centelleante. Cual­
quier configuración detectable por el organismo jo ­
ven, que incluya variación y que actúe durante el
período crítico, puede convertirse en el estímulo im ­
presor. La luz centelleante es el ejemplo más ex­
tremo.
Este fenómeno se ha estudiado en el laboratorio
[Hess, 1959], y se han aislado sus principales pará­
metros. Muchas especies lo presentan: aves, insectos,
peces, venados, perros y primates. No es exclusivo de
las aves, com o se creyó originalmente. Aunque toda­
EL FENOMENO DE “ IMPRESIÓN” 29

vía queda mucho por conocer al respecto del fenó­


meno de impresión, hoy sabemos que es una clase
de aprendizaje, muy específico, limitado y concreto,
que lleva a un organismo joven a ligarse a cualquier
configuración de estímulo detectable y variable. T ie ­
ne una gran importancia adaptativa, como es fácil
de ver. Su relación con otros tipos de aprendizaje
es todavía un poco oscura.
3
LOS HECHOS DEL APRENDIZAJE

En psicología el campo del aprendizaje se ha con­


vertido en campo de la controversia, com o veíamos
antes. Esto se debe a la importancia que la cuestión
del aprendizaje tiene para nuestra comprensión del
comportamiento humano, o sea para una ciencia del
hombre. Sabemos que una gran parte de la conducta
humana es aprendida, y por eso el aprendizaje es
algo básico en psicología humana. T od os los psicólo­
gos están de acuerdo en los hechos del aprendizaje
pero no todos lo están en su interpretación.
El presente capítulo es una concesión al lector
interesado en aspectos prácticos de la ciencia, en
entender al hombre, en aplicar nuestros conocimien­
tos a los problemas sociales. Es una descripción en
términos del sentido común sobre lo que sabemos
acerca del aprendizaje. Sabemos mucho más que esto,
pero los otros puntos todavía se discuten, se han
discutido durante medio siglo y parece que van a
seguir discutiéndose durante mucho tiempo. Sin em­
bargo, sabemos muchas cosas sobre el aprendizaje
[VVatson, 1963; Bugelski, 1964], y es importante
enumerar esos hechos que no se discuten.
1] El comportamiento que se refuerza tiene más
probabilidad de repetirse que el comportamiento
que no se refuerza. Varios miles de experimentos con
hombres (adultos y niños), monos, ratas, peces, aves y
muchas especies más confirman este principio. El com­
portamiento ocurre al comienzo por razones descono­
cidas (o por azar); si se refuerza tiende a repetirse. Re­
fuerzo no es exactamente sinónimo de “ premio” , pero
puede entenderse en esta forma sin falsear los hechos.
[30]
LOS h e c h o s d e l a p r e n d iz a j e 31

2] El refuerzo más efectivo en el proceso del


aprendizaje es aquel que sigue a la acción con una
minima demora. En realidad el más efectivo es el
refuerzo inmediato. La efectividad del refuerzo dis­
minuye con el paso del tiempo, y muy pronto no
tiene casi ninguna efectividad.
3] El castigo no lleva a aprender nada, hace que
la conducta castigada desaparezca temporalmente,
pero puede reaparecer más adelante. Es un ineficaz
método de control. Sus consecuencias secundarias,
por ejemplo frustración, agresión, evitación de la
situación, etc., pueden hacer que se detenga el pro­
ceso del aprendizaje.
4] La repetición no lleva a aprender si no existe
ningún tipo de refuerzo. N o es verdad que “ la re­
petición haga la perfección” a menos que exista
alguna clase de refuerzo. Este punto todavía se
discute en ciertos de círculos de especialistas.
5] La oportunidad de lograr nuevas experiencias,
de explorar, de estimularse, es una clase de refuerzo
que puede ser sumamente eficaz, especialmente en
las especies más evolucionadas. Se ha observado en
hombres y monos, y también en ratas y otros orga­
nismos supuestamente inferiores.
6] El sentido de satisfacción que ocurre como
consecuencia de una acción bien hecha es un im­
portante refuerzo, mucho más que los refuerzos ex ­
ternos a la acción (por ejemplo recibir algo en pago
de ella).
7] La máxima motivación para el aprendizaje se
logra cuando la tarea no es demasiado fácil ni dema­
siado difícil para el individuo, cuando él mismo
participó en la elección del material que se ha de
aprender, cuando existe un verdadero sentido de
participación en lo que se está haciendo, no hay
demasiada dirección (por parte del maestro), se per­
mite explorar, proponer variaciones, preguntar, hacer
observaciones aunque puedan parecer sin sentido,
criticar; cuando se tiene información (positiva o ne­
32 LOS HECHOS DEL APRENDIZAJE

gativa) sobre los resultados del aprendizaje; cuando


hay posibilidad de hallar nuevas soluciones, etcétera.
8] El aprendizaje por medio de “ comprensión"
o ¡nsight repentino se presenta solamente cuando ha
habido suficiente preparación previa, cuando se pone
atención a la situación total y a las relaciones entre
las partes, cuando la tarea tiene sentido y está dentro
de la capacidad del sujeto, y cuando la percepción
permite combinaciones nuevas de los elementos.
Estas condiciones generalmente se combinan en la
creación científica o artística, y también en los ex­
perimentos sobre solución de problemas tanto en
hombres com o en animales.
9] El olvido ocurre rápidamente al principio, y
lentamente después. Durante el primer día se olvida
la mayor parte del material aprendido. Sin embargo,
el tiempo no tiene nada que ver directamente con el
olvido; simplemente permite que se presenten otras
experiencias que interfieren con el aprendizaje y la
retención. Sin embargo, el material completamente
nuevo no interfiere ni ayuda a recordar el material
anterior. Nada se olvida completamente; una lengua
extranjera, por ejemplo, de la cual no se recuerda
aparentemente nada en un momento dado, puede
reaprenderse en menos tiempo del que requirió apren­
derla por primera vez; este criterio de aprendizaje,
el reaprendizaje, muestra que el material no se había
olvidado del todo.
10] El aprendizaje no es un proceso simplemente
intelectual sino también emocional. El individuo tie­
ne metas en el proceso de aprender, que deben ser
claras y precisas para que sean efectivas. El maestro
actúa com o condicionador emocional, hace que el
material adquiera una valencia positiva o negativa
para el estudiante. El principal papel del maestro
es hacer atractivo el material que se va a aprender,
y reforzar el comportamiento apropiado del estudian­
te con el fin de “ moldear” su comportamiento en la
dirección deseada. En relación con este punto es
LOS HECHOS DEL APRENDIZAJE 33
importante anotar que las máquinas de enseñar han
sido sumamente eficaces y han remplazado con mu­
cho éxito a los maestros (de escuela primaria, secun­
daria y universitaria) com o dadores de información
y de refuerzo; sin embargo, las máquinas no pueden
programarse para que actúen com o condicionadores
emocionales, en la misma forma en que lo son los
maestros. El papel del maestro como persona que
motiva a los estudiantes y los lleva a interesarse y
entusiasmarse por el material que se ha de estudiar
difícilmente podrá ser suplantado por una máquina.
Y es verdad lo que dice Skinner, el maestro que pue­
da ser remplazado por una máquina merece ser rem­
plazado por ella.
4
LA SITUACIÓN DEL APRENDIZAJE

El organismo en una situación de aprendizaje, sea


con base en el condicionamiento clásico, el condicio­
namiento instrumental, el aprendizaje motor o el
aprendizaje verbal a nivel humano, se enfrenta con
numerosos estímulos a los cuales ha de responder en
una u otra forma. La descripción de cada uno de
estos “ tipos” de aprendizaje se hará en los siguientes
capítulos. En el presente estudiaremos algunos pro­
blemas de medición, las curvas de aprendizaje y los
principales instrumentos usados en la investigación
experimental del aprendizaje.

MEDICIÓN

La complejidad de los fenómenos del aprendizaje


ha llevado a una pluralidad de medidas, cada una
de las cuales pone atención especial a un aspecto del
fenómeno, y desea reducirlo a términos cuantitativos
y repetibles por todos los observadores, lo cual es
una de las condiciones más importantes de la cien­
cia. En el primer capítulo hemos estudiado los con­
ceptos básicos de la experimentación en la ciencia
psicológica, y no es preciso repetir aquí lo dicho an­
tes. Es importante recordar que “ todo lo que existe
existe en alguna cantidad” , com o afirmó Thorndike,
y por eso se puede medir.
¿Qué vamos a medir en el aprendizaje? Unos
investigadores consideran que el tiempo es la varia­
ble más importante, y miden, por ejemplo, cuántos
minutos requiere una rata para recorrer un laberinto
múltiple. Otros piensan que el número de errores
[34]
MEDICIÓN 35

cometido por el animal en esta situación puede pro­


porcionar un índice más adecuado. Para otros la
cantidad de la respuesta es lo importante, por ejem­
plo la cantidad de saliva segregada por el animal
en un experimento sobre condicionamiento clásico,
o las veces que la rata presiona la palanca en una
caja de Skinner. Es preciso insistir en que es posible
obtener diversos tipos de medidas en el mismo ex­
perimento. Cuál ha de usarse depende parcialmente
de la situación y parcialmente de las preferencias del
experimentador.
Tres tipos de medidas se obtienen en la situación
de aprendizaje:
a) Medidas de amplitud o magnitud: la cantidad
de salivación en un experimento de condicionamien­
to clásico es el ejemplo más notorio. Igualmente la
conductibilidad eléctrica de la piel. En general estas
medidas se registran en forma gráfica, una aguja
marca en el papel adecuado la amplitud de la res­
puesta del organismo.
b) Medidas de tiempo: una de ellas, la latencia,
es el tiempo que requiere el animal para salir de
la caja inicial, o para dar las primeras muestras
de salivación; se ha usado ampliamente aunque tiene
muchos puntos débiles. El número de respuestas
dadas por un animal en una caja de Skinner durante
un cierto tiempo ha sido considerado también dentro
de esta categoría.
c) Medidas de probabilidad: incluyen medir la
presencia o ausencia de la respuesta, y convertir los
resultados en porcentajes. Es la medida más corrien­
temente empleada en experimentos de aprendizaje,
tanto en condicionamiento clásico com o instrumental.
Es preciso recordar que esta clasificación de tres
medidas puede subdividirse [Hall, 1966] según que
se obtengan durante los ensayos de adquisición o
durante los ensayos de extinción. Es siempre impor­
tante decir dónde se obtuvo la medida, si en los
callejones iniciales del laberinto, en los callejones del
36 LA SITUACIÓN DEL APRENDIZAJE

medio o en los callejones finales, si durante el pro­


ceso de adquisición o el de extinción, etc. La velo­
cidad con la cual una rata recorre el laberinto no
es igual en todas las secciones del aparato, y este
hecho se ha estudiado con cierta atención.
Un problema considerable en lo referente a la
medición es que las diferentes medidas de aprendiza­
je no tienen una correlación muy alta. Aparentemen­
te estamos midiendo procesos o fenómenos distintos
con las diversas medidas.
¿Cuál medida elegir? Parece que la latencia no
tiene relación con las otras, mientras que las medidas
de frecuencia y de amplitud tienen una alta correla­
ción. El fenómeno pone ciertas limitaciones al ex­
perimentador en cuanto al tipo de medida a utilizar.
Lo demás depende de las preferencias de cada uno.

CURVAS DE APRENDIZAJE

En relación con el problema de la medición se


halla el problema del registro de los resultados. La
solución más aceptada es presentar la ejecución del
organismo en forma gráfica, en la llamada curva de
aprendizaje. Generalmente se colocan los ensayos o
cualquier otro tipo de variable independiente en la
ordenada. En esta forma tenemos una representación
visual de la manera en que progresa el aprendizaje.
Según la medida que usemos (por ejemplo amplitud
o número de errores), la curva del aprendizaje su­
birá o bajará con el número de ensayos o con el paso
del tiempo.
En casos excepcionales pueden usarse curvas in­
dividuales de cada sujeto, pero esto tiende a oscure­
cer el proceso, y los resultados son muy irregulares.
Se prefiere promediar los datos de cada grupo y ob ­
tener curvas para cada uno de ellos; la comparación
de los resultados del grupo experimental y del grupo
de control puede proporcionar mucha más informa­
ción que la comparación de sujetos individuales de
CURVAS DE APRENDIZAJE 37

f ic u r a 1. Curvas de aprendizaje

uno y otro grupo, cuyas variaciones individuales


pueden oscurecer los resultados del tratamiento ex­
perimental.
La figura 1 muestra tres curvas de aprendizaje
supuestamente típicas. En realidad la curva a y la
curva b pueden ser partes de la curva c, que sería
la curva típica del aprendizaje. El hecho de obtener
una u otra curva dependería de qué tan adelantado
estaba el proceso de aprendizaje cuando comenzamos
a medir. Si estaba comenzando, obtuvimos b, si esta­
ba adelantado, a y si tomamos todo el proceso, c.
Es preciso insistir en el hecho de que no todos
los psicólogos aceptan esta interpretación. Muchos
prefieren usar curvas positivamente aceleradas y otros
usar curvas negativamente aceleradas. La forma de
la curva puede invertirse representando errores en
vez de aciertos, magnitud en vez de tiempo, etc. Se
discute mucho si el aprendizaje es un proceso con­
tinuo, al cual cada ensayo contribuye un poco, y se
va sumando para dar la resultante que se representa
gráficamente en la curva de aprendizaje. Para un
análisis de este problema (aprendizaje por pequeños
incrementos vs aprendizaje en un solo ensayo) ver
Hilgard y Bower [1966],
38 LA SITUACIÓN DEL APRENDIZAJE

PRINCIPALES INSTRUMENTOS

La psicología del aprendizaje utiliza instrumentos


sumamente refinados, aparatos eléctricos para recoger
y analizar los datos, y formas muy cuidadosas de
controlar las variables extrañas. Los laboratorios ge­
neralmente se encuentran en un sótano o en el último
piso de un edificio, o utilizan una construcción es­
pecial diseñada específicamente para laboratorio de
psicología; en esa construcción viven los sujetos ani­
males, allí se les somete a las pruebas del caso, con
el máximo aislamiento posible. El modelo continúa
siendo “ la torre del silencio" de Pavlov, en la cual
se llevaron a cabo muchos de los trabajos pioneros
en condicionamiento clásico que escribieron un nue­
vo capítulo de la psicología. Algunos de los principa­
les instrumentos utilizados hoy día para el estudio
del aprendizaje son:
1J Instrumentos para condicionamiento clásico:
varían tanto que es imposible describirlos en detalle.
La figura 2 muestra una representación bien cono­
cida de un perro sometido a las manipulaciones ex­
perimentales del investigador. En esencia ésta es la
misma situación que usó Pavlov hace medio siglo.
Hóy tenemos medidas más refinadas pero el para­
digma sigue siendo el mismo. En Prokasy [1965] se
describen los tipos de investigación realizados actual­
mente con condicionamiento clásico.
2] Laberintos: son callejones, generalmente de ma­
dera, que se organizan en forma de T o de Y, sencilla
o múltiple. La figura 3 muestra el llamado laberinto
de Stone [Stone y Nyswander, 1927]. El animal se
coloca a la entrada, y debe recorrer el laberinto y
llegar a la salida (caja meta) donde encuentra el
alimento.
Hunter [1920] propuso un laberinto no espacial
sino temporal en el cual el animal debía dar una
serie de vueltas, por ejemplo izquierda-derecha-iz­
quierda-derecha con el fin de llegar a una meta. En
f ig u r a 2. Instrumento para condicionamiento clásico
40 LA SITUACIÓN DEL APRENDIZAJE

la figura 4 se presenta este tipo de laberinto. La


puerta P es una barrera movible, que se coloca en
cualquier lado para evitar que el animal complete
una vuelta equivocada. El sujeto comienza en C, y
la puerta S puede variarse en las direcciones indica­
das en las líneas interrumpidas con el fin de forzar
al animal en el callejón, central después de completar
cada vuelta.
Tam bién hay laberintos elevados que no tienen
paredes, y permiten al animal utilizar las señales del
cuarto com o guías para alcanzar la meta. En realidad
la complejidad del laberinto depende del ingenio
del experimentador, y se han variado en numerosas
formas para adaptarse a diferentes problemas del
PRINCIPALES INSTRUMENTOS 41

aprendizaje. Tolm an [1966] presenta una descripción


muy completa de los numerosos laberintos construi­
dos por él y sus estudiantes para demostrar que la
rata mostraba “ comprensión” de la situación expe­
rimental y que tenía una “ meta” en su comporta­
miento.
3] Aparato de discriminación: Yerkes y Watson
[1911] presentaron un aparato de discriminación
para ser usado en ratas, que ha servido como modelo
a otros muchos (figura 5). En esencia el animal se
coloca en A, pasa a B, elige entre C1 y C2, y si la
elección es la correcta de acuerdo con el diseño que
el experimentador ha propuesto (por ejemplo si eli­
gió la figura más grande o la menos brillante), pasa
a D y de allí a E a recibir el alimento. De E pasa a
A para el siguiente ensayo.
Similares instrumentos se han usado para estudiar
la discriminación en seres humanos, y los resultados
los analizaremos en el capítulo sobre aprendizaje de
discriminación. Uno de los más importantes es el
Wisconsin General Test Apparatus ( w g t a ) que se
42 LA SITUACIÓN DEL APRENDIZAJE

f ig u r a 5. Aparato de discriminación

debe a Harlow [1949] y se concibió inicialmente para


estudiar problemas de discriminación con monos.
4] Caja de Skinner: el condicionamiento operante
requiere un control perfecto del ambiente y con este
fin Skinner diseñó un- aparato que se ha ido perfec­
cionando con el paso de los años, pero que en esen­
cia consiste en un cubículo completamente aislado,
a prueba de sonidos y con luz uniforme, en el cual
se coloca el animal de experimentación. General­
mente hay en el instrumento un parlante que intro­
duce un sonido uniforme y bajo, con el fin de anular
sonidos perturbadores del exterior que pudieran ocu­
rrir a pesar de las anteriores precauciones. Por medio
de conexiones eléctricas la caja se programa auto­
máticamente y la conducta del organismo se registra
también en forma automática. En la caja hay un
instrumento (por ejemplo una palanca) que el
animal debe operar con el fin de conseguir el re­
fuerzo; y un tubo o algo semejante por medio del
cual se da el refuerzo (digamos alimento o agua). La
caja generalmente está ventilada ya que el animal
f ig u r a 6. Caja de Skinner
PRINCIPALES INSTRUMENTOS 43
debe pasar varias horas en ella. Es importante hacer
notar que, debido a la programación y al registro
automáticos, observaciones que durarán centenares
de horas no requieren que el experimentador les
dedique todo ese tiempo; él se limita a programar
el aparato, y después a estudiar los registros (acu­
mulativos). El problema de “ recoger los datos” se
simplifica inmensamente en esta forma.
La figura 6 es una fotografía de una caja de Skin-
ner de las usadas con ratas o con monos. Hay varios
modelos más, algunos de ellos usados con palomos,
en los cuales el palomo en vez de presionar una
palanca picotea un botón y obtiene alimento. En la
figura pueden observarse las paredes, relativamente
gruesas y la tapa, para aislar el aparato del am­
biente; la palanca (en muchos modelos de caja de
Skinner hay dos palancas), que el animal debe ope­
rar, según un programa de refuerzo; el tubo en la
parte inferior de la pared frontal del aparato, por me­
dio del cual se da el refuerzo en forma automática
(en este caso agua); los dos botones de discriminación,
que el animal puede aprender a tener en cuenta al
oprimir la palanca (por ejemplo: oprimirla cuando
los dos botones están iluminados produce alimento,
hacerlo cuando lo está uno solo no produce alimento).
A la caja de Skinner se le conecta un instrumento
de registro acumulativo, y el experimentador puede
programar su aparato, colocar la rata en la caja y
regresar varias horas después a estudiar los registros.
Hay muchos otros instrumentos, algunos de ellos
muy ingeniosos, para estudiar el aprendizaje huma­
no y animal. En numerosos casos se utilizan circuitos
eléctricos y programación automática.
5
CONDICION AM IEN TO CLASICO

Aunque los orígenes del condicionamiento pueden re­


montarse a Descartes por una parte, y al asociacio-
nismo británico por otra, fue Ivan P. Pavlov [1849-
1936] quien realizó los primeros experimentos sobre
"secreciones psíquicas” en animales, que dieron origen
a toda la investigación de los reflejos condicionados.
Los trabajos anteriores fueron simples observaciones
de sentido común, o elaboradas teorías fisiológicas
como la de Sechenov [1829-1905], cuyo libro más im­
portante, Los reflejos del cerebro, fue publicado en
Rusia en 1863, y tuvo gran influencia en el pensamien­
to de Pavlov.
Pavlov comenzó estudiando la digestión, y con base
en sus trabajos halló que los animales de experimenta­
ción segregaban saliva antes de entrar en contacto
con el alimento. ¿Cómo explicar esta “ acción a
distancia” del alimento sobre el organismo del animal?
Pavlov notó que el hecho de oír los pasos del ex­
perimentador que traía el alimento, o ver el plato,
o cualquier otro estímulo que hubiera precedido
sistemáticamente al alimento, producía secreción sa­
lival. Como buen científico que era realizó centenares
de cuidadosos experimentos sobre este fenómeno,
ayudado por una docena o más de estudiantes, y con­
cibió una elaborada teoría de la manera en que
actúan los reflejos condicionados. En cuanto a este
nombre, se basa en Sechenov y su teoría de los refle­
jos adquiridos, aprendidos, y que aparecen en “ ciertas
condiciones”; el término ruso “ reflejos condicionales”
fue convertido en “ condicionados” al traducir las
obras de Pavlov a otros idiomas modernos. De m odo
[44]
CONDICIONAMIENTO CLÁSICO Y OPERANTE 45
que la expresión “ reflejos condicionados” se basa en
un equívoco y debe decirse “ reflejos condicionales o
condicionantes” . Sin embargo como el lenguaje tiene
una función social, y el término “ condicionado” se
ha perpetuado, nos atenemos a él en el presente libro.

CONDICIONAMIENTO CLASICO Y OPERANTE

La expresión “ condicionamiento clásico” es sinónimo


de condicionamiento pavloviano. Se opone al condi­
cionamiento instrumental, operante o skinneriano.
Aunque las diferencias entre ambos son muy contro­
vertidas, y recientemente Miller [1969] ha demostra­
do inequívocamente que la distinción entre con­
dicionamiento clásico y operante no es clara ni
exacta, y que no sabemos si hay dos procesos dife­
rentes o uno solo, la distinción que se acostumbra
a hacer entre ellos se muestra en el cuadro 1.
Este cuadro presenta todas las distinciones que
se han propuesto hasta la fecha. Thorndike en su
aprendizaje por ensayo y error presentó un proceso
de condicionamiento que era muy diferente del
condicionamiento pavloviano. Skinner analizó en
detalle esta conducta emitida por el organismo y la
comparó con la conducta desencadenada p or el
estímulo. En ambos tipos de condicionamiento lo
esencial era el procedimiento, las operaciones expe­
rimentales diferentes que se usaban en los dos casos:
en el condicionamiento clásico el refuerzo (alimento)
se daba siempre cualquiera que fuera el comporta­
miento del animal (podía salivar o no salivar, de
todos modos recibía el alimento); en el condiciona­
miento operante, en cambio, el animal recibía el re­
fuerzo sólo si emitía el comportamiento "adecuado” ,
el que el experimentador quería (por ejemplo si opri­
mía la palanca en la caja de Skinner cada vez que
aparecía la luz roja en el botón de la derecha).
Además de este procedimiento, los especialistas
insistieron en que estos dos "tipos de aprendizaje”
46 CONDICIONAMIENTO CLASICO

CUADRO 1

COMPARACIÓN ENTRE CONDICIONAMIENTO CLÁSICO


¥ CONDICIONAMIENTO OPERANTE

C lá s ic o O p e r a n te

1] a u t o r e s P a v lo v S k in n e r , T h o r n d i k e
2 ] o r i g e n d e la res- desen ca d en a d a por e m it id a p o r e l o r -
p u esta e l e s t im u lo g a n is m o

3] p r o c e d i m i e n t o e l r e f u e r z o se p r e ­ e l r e fu e r z o se p r e ­
sen ta s ie m p r e d e s ­ sen ta s ó lo si e l su ­
pués del e s t im u lo je t o resp on d e ade­
c o n d i c io n a d o , c u a l­ cu a d a m en te
q u ie r a que sea
el c o m p o r ta m ie n to
d e l o r g a n is m o

4] s is te m a n e r v io s o a u tón om o ce n tr a l

5] resp u esta s v is ce ra le s e s q u e lé t ic a s

6] v o l u n t a r io o no i n v o lu n t a r io v o l u n t a r io

7] a s o c ia c ió n de e s tím u lo s ( e-e ) d e e s tím u lo s y re s­


p u e s ta s ( e -r )

8] leyes d e co n tig ü id a d d e l e fe cto

9] re s p u e s ta con di - ig u a le s s ie m p r e d ife r e n t e s s ie m p r e
s io n a d a y re s ­
p u e s ta in c o n d i­
c io n a d a

10] i n flu e n c ia del d is m in u y e la fu e r za a u m e n ta la fu e r z a


r e fu e r z o p a r c ia l d e la re s p u e s ta d e la re s p u e s ta

correspondían a la acción del sistema nervioso


autónomo (simpático y parasimpático) en el caso
del condicionamiento clásico, y a la acción del siste­
ma nervioso central en el caso del condicionamiento
operante. O sea que en el primer caso sería "involun­
tario” y en el segundo "voluntario” . Claro está que
nunca hubo una manera objetiva de probar
qué quería decir "voluntario” , y nadie sabía real­
mente si era científicamente válido decir que la rata
"deseaba” oprimir la palanca y recibir su bolita de
CONDICIONAMIENTO CLÁSICO Y OPERANTE 47
alimento, y que el perro "no quería” salivar al oír
la campana que precedía al alimento.
En el caso del condicionamiento clásico la asocia­
ción era d e estímulos ( e -e ), según la descripción
bien conocida de los empiristas ingleses, mientras
que en el caso del condicionamiento operante era de
estímulos y respuestas. Las leyes en el primer caso
eran d e asociación por contigüidad (estímulos que
ocurren juntos se asocian), y en el segundo el pro­
ceso se llevaba a cabo por medio de la ley del efecto
(para que se asocien tienen que haber conducido a
"consecuencias satisfactorias” , como decía Thorndike).
En el caso del condicionamiento clásico la respuesta
condicionada y la incondicionada eran siempre iguales
(por ejemplo salivar, ante la carne y ante la campana
que precedía a la carne), mientras que en el condicio­
namiento operante eran siempre diferentes (presionar
la palanca y comer).
En realidad todas estas diferencias siguen siendo
válidas, dentro de ciertos límites. La última diferencia,
relacionada con la influencia del refuerzo parcial, pa­
rece ser la más importante de todas; es una diferencia
de carácter operacional y nos lleva a afirmar que en
el estado actual de nuestros conocimientos hay dos
tipos de aprendizaje, clásico e instrumental, no im­
porta si uno está mediado por el sistema nervioso
central y el otro por el sistema nervioso autónomo, o
si es "voluntario” o no. La diferencia básica es la
siguiente: el refuerzo parcial disminuye la fuerza de
la respuesta en el condicionamiento clásico, y la au­
menta en el condicionamiento instrumental.
Operacionalmente, el experimentador presenta el
refuerzo solamente en algunos ensayos, mientras que
en los demás presenta el estímulo condicionado solo
(campana sin comida, presionar la palanca no con­
duce a recibir el alimento). En el condicionamiento
clásico esto lleva a deteriorar seriamente el apren­
dizaje y puede interferir en él [Razran, 1955, 1956],
Pavlov mismo encontró que si se da alimento con una
48 CONDICIONAMIENTO CLÁSICO

frecuencia menor de cada segundo o cada tercer se­


gundo es completamente imposible condicionar al
animal. En el condicionamiento operante, en cambio,
la situación es la opuesta; Skinner [1938] halló que
se puede reforzar el animal una vez cada 192 ensayos,
y esto produce gran resistencia a la extinción. Este
hecho es la base de los programas de refuerzo, que
estudiaremos en el próximo capítulo; se refuerza una
vez cada cierto número de ensayos, o cada cierto
tiempo, que puede ser fijo o variable. Con estos
procedimientos se logra controlar en forma muy com­
pleta el comportamiento del organismo en la situa­
ción de aprendizaje. Si en el condicionamiento
instrumental el refuerzo parcial disminuyera la fuerza
de la respuesta (com o pasa en el condicionamiento
clásico) en vez de aumentarla, los programas de re­
fuerzo serían completamente imposibles.
En resumen se han propuesto dos “ tipos” de
aprendizaje, cuya comparación hemos presentado en
el cuadro 1. La mayoría de las diferencias son muy
discutibles, con excepción de la influencia del re­
fuerzo parcial en la fuerza de la respuesta. Este último
punto nos lleva a aceptar la existencia de dos tipos
de aprendizaje, aunque sin especular sobre su funda­
mento fisiológico ni sus propiedades, que deben ser
estudiadas experimentalmente.
Es importante notar también, como Kimble [1961]
ha indicado, que es imposible realizar experimentos
de condicionamiento instrumental sin que el condi­
cionamiento clásico tome parte: las señales de la
situación experimental se asocian con el refuerzo por
medio de un proceso de condicionamiento clásico.
Por otra parte, también las operaciones de condicio­
namiento clásico incluyen algún aspecto de condi­
cionamiento instrumental.

E l, EC, RI Y RC

Después de la anterior comparación del condiciona-


El, EC. Rl V RC 49

miento clásico y el instrumental, nos adentramos en


el estudio del primero, dejando el condicionamiento
instrumental para el próxim o capítulo. Es preciso
definir claramente qué se entiende por estímulo in­
condicionado ( e i ) , estímulo condicionado ( e c ) , res­
puesta incondicionada ( r i ) y respuesta condicionada
( Re ).
Estimulo incondicionado ( ei): es cualquier estí­
mulo que evoque una respuesta regular y medible
en el organismo por un período suficientemente largo
[Hall, 1966], Puede deberse a la estructura innata
del organismo o a la influencia del aprendizaje
previo.
Estimulo condicionado ( e c ) : es un estímulo ori­
ginalmente neutro, o sea que al comienzo de la sesión
experimental no produce la respuesta en forma re­
gular y medible. Este estímulo se asocia con el in­
condicionado y lleva a producir la respuesta.
Respuesta incondicionada ( r i ) : r e s p u e s t a d e s e n ­
c a d e n a d a p o r e l e s t ím u lo i n c o n d i c i o n a d o .
Respuesta condicionada (rc): a sp ecto o p a rte d e
la re sp u e sta in c o n d ic io n a d a que es desen cad en ad a
p o r e l e s t í m u l o c o n d i c i o n a d o c u a n d o se h a e s t u d i a d o
la a s o c i a c i ó n d e e llo s .
El diagrama del condicionamiento clásico, que se
ha convertido en algo repetido innumerables veces
en los textos de psicología, puede verse en la figura 7.
Este diagrama muestra entre otras cosas algo que
ya veíamos en el cuadro 1, que en el condicionamien­
to clásico la respuesta incondicionada y la condicio­
nada son siempre iguales (punto 9). Sin embargo
realmente no lo son. Las diferencias entre la r i y la
r c pueden ser muy relativas, o ser de grado o canti­

dad, pero en todo caso son dignas de tener en cuen­


ta. Son las siguientes:
a) La r c es una parte de la r i total (la salivación,
por ejemplo, no es toda la respuesta incondicionada
al alimento sino una parte de ella; el animal saliva
50 CONDICIONAMIENTO CLASICO

no aprendido
El ---- ----------- +>R1
¡alimento m la b o ca l ( s o lir o c iífí)

EC--------
(sonido que precede a l alimento)

f ig u r a 7. Proceso de condicionamiento clásico

ante el estímulo condicionado pero no intenta por


ejemplo masticar la campana).
b) La r c es g e n e r a l m e n t e p r e p a r a c i ó n p a r a e l e i .
c ) La r c p u e d e e x t in g u ir s e , y e n r e a l i d a d se e x ­
t i n g u e si n o se r e fu e r z a c o n e l e s t ím u lo i n c o n d i c i o ­
nado.
d) La r c tiene una latencia mayor y una amplitud
menor que la r i .
Estas cuatro diferencias no significan, sin embar­
go, que en una situación dada la r i y la r c puedan
distinguirse: prácticamente son equivalentes, al me­
nos en su aspecto superficial.
Com o es fácil ver, el condicionamiento clásico es
un proceso por el cual la capacidad de desencadenar
una respuesta se transfiere de un estímulo a otro.
Representa un proceso sumamente general, que se
ha estudiado en todo el reino animal y con infinidad
de estímulos y respuestas. Parece ser que todos los
animales pueden someterse a un proceso de condicio­
namiento clásico, y que cualquier estimulo detecta-
b le p o r un organismo puede usarse como e c .

OPERACIONES

Varios paradigmas experimentales pueden usarse al


realizar investigaciones con condicionamiento clásico.
Los más importantes son:
OPERACIONES 51

EC-

E l--------------------------------- ------------------------------------- '

f ig u r a 8. Condicionamiento simultáneo

1] Condicionamiento simultáneo : el ec y el ei se
p re se n ta n s im u lt á n e a m e n t e , c o m o se observa en la
f ig u r a 8.
2] Condicionamiento de retardo: el ec se p r e s e n ta
un poco a n te s d e l e i, g e n e r a lm e n te m e d io segu ndo
a n te s . É ste es e l p r o c e d i m i e n t o m á s u s a d o y se i n d i c a
e n la f i g u r a 9.

EC

El -------------------------------------------------------------

f ig u r a 9. Condicionamiento de retardo

3] Condicionamiento de huella: el e c se presenta


y se termina antes de presentarse el e i . El diagrama
se presenta en la figura 10. Indica que el condicio­
namiento se basa en una huella o vestigio neutral
que deja el e c ; realmente parece que el tiempo es el
factor más importante en este diseño.
52 CONDICIONAMIENTO CLÁSICO

K-

ti

f ig u r a 10. Condicionamiento de huella

4] Condicionamiento temporal: el e i se presenta


a intervalos regulares, por ejemplo una vez cada
minuto y la respuesta condicionada puede aparecer
en el momento en el que se deberla presentar el e i .
Este procedimiento se usa con bastante frecuencia en
los laboratorios soviéticos.
5] Condicionamiento retrógrado: el e c s e presen­
ta después de la terminación del e i . Se discute mucho
si este procedimiento implica condicionamiento "ver­
dadero” o seudocondicionamiento. Una buena discu­
sión del problema puede hallarse en Razran [1956].
El diagrama se presenta en la figura 11.

EC-

ti ---------------------

f ig u r a 11. Condicionamiento retrógrado

S E U D O C O N D IC IO N A M IE N T O

El problema del condicionamiento retrógrado, cuya


situación no es muy clara en psicología, nos lleva a
RESPUESTAS VOLUNTARIAS 53

estudiar el seudocondicionamiento, fenómeno descri­


to primeramente por Grether [1938]. Reside en el
fortalecimiento de la respuesta a un estímulo que
previamente era neutro, debido al desencadenamien­
to repetido de la respuesta por otro estímulo, sin
que los dos estímulos se hayan pareado [Kimble,
1961], En otras palabras la respuesta ( r ) al estímulo
Ei que antes era neutro se fortalece porque e 2 desen­
cadena repetidamente la misma respuesta ( r ) aunque
Ei y e 2 no se han pareado.
Esto realmente no es condicionamiento, porque
no se parean el e c y el ei, que es la condición in­
dispensable para que exista condicionamiento clásico.
Es algo similar, que introduce una fuente de error
en ciertos experimentos. Puede considerarse como
condicionamiento a la situación total del experimen­
to, o com o condicionamiento a estimule» no contro­
lados.

re spu e sta s v o l u n t a r ia s

En la investigación con sujetos humanos se introduce


otra fuente de error por el deseo del sujeto de “ co­
operar” con el experimentador. Es un hecho que la
situación experimental pone ciertas demandas o exi­
gencias en el sujeto; cuando éste desea cooperar pue­
de responder antes de lo natural, en el momento en
que esperaría que se presentara el estímulo al cual
debe responder. Generalmente se le dice al sujeto
que no luche contra el condicionamiento pero que
tampoco trate de responder voluntariamente a los
estímulos. Realmente la única forma de evitar esta
fuente de error es usar sujetos animales, o darle a
los sujetos humanos instrucciones que neutralicen el
efecto de las respuestas voluntarias; otra solución es
incluir en el diseño grupos de control para evitar
este factor de las respuestas voluntarias.
54 CONDICIONAMIENTO CLÁSICO

PROCESOS

Algunos de los términos anteriormente usados y que


se refieren a procesos requieren una definición pre­
cisa, por ejemplo adquisición, extinción, inhibición,
etc. Pavlov no se limitó a realizar cuidadosos expe­
rimentos sino que también postuló una serie de
procesos fisiológicos para explicarlos. Una buena
descripción de estos modelos fisiológicos puede en­
contrarse en el capítulo sobre Pavlov del libro de
Hilgard y Bower [1966], Sin embargo, es preciso decir
que esas teorías fisiológicas de Pavlov han sido mo­
dificadas con el avance de la neurofisio'ogía y la
neuropsicología. Los procesos de excitación e inhibi­
ción propuestos por él, la irradiación cortical, etc.,
no eran sino descripciones fenomenológicas, si somos
estrictos en el uso de los términos. Todavía siguen
apareciendo artículos en las revistas psicológicas que
presentan experimentos realizados con el fin de pro­
bar uno u otro aspecto de la teoría de Pavlov, la
mayoría de los cuales dan resultados negativos. Pav­
lov se equivocó en cuanto a sus modelos fisiológicos.
Sin embargo los principios psicológicos descubier­
tos por él se aceptan, y han dado origen a numerosísi­
mas investigaciones. En este lugar vamos a presentar
algunos de los principios básicos del aprendizaje, que
no son estrictamente pa vio vi anos pero que en su
inmensa mayoría (del orden del 80 o el 90%) pro­
ceden de la obra y de la terminología usada por
Pavlov. La obra de Pavlov fructificó más en el te­
rreno de la psicología que en el de la fisiología, lo
cual seguramente extrañaría al mismo Pavlov. Los
procesos son los siguientes:
1] Adquisición: proceso básico del aprendizaje
por medio del cual una respuesta pasa a formar parte
del repertorio de un organismo. Se observa por un
cambio en el comportamiento, y puede medirse por
alguno de los medios descritos antes (magnitud, la-
tencia, probabilidad, etcétera).
PROCESOS 55

2] Extinción: proceso por el cual una respuesta


se debilita si no se refuerza. Después de haber adqui­
rido una respuesta, si el animal no recibe refuerzo
durante cierto número de ensayos, la respuesta ter­
mina por extinguirse. £1 número de respuestas que
el animal da antes de dejar de responder depende
de numerosos factores. La resistencia a la extinción se
ha considerado como una medida del aprendizaje
previo, aunque últimamente ha dejado de interesar
a los científicos.
3] Recuperación espontánea: una respuesta que
se ha extinguido puede reaparecer más adelante, una
vez que ha transcurrido cierto tiempo. Sin embargo,
la respuesta sólo recupera parte de su fuerza. La
función que se obtenga en recuperación espontánea
depende de muchos factores, entre otros de la fuerza
original de la respuesta, y del tiempo transcurrido
desde que se extinguió.
4] Generalización del estimulo: una respuesta con­
dicionada a cierto estímulo tiende a reaparecer en
presencia de estímulos similares; el grado de genera­
lización depende de la similitud entre el estímulo
original y el nuevo. Este importante problema de la
generalización del estímulo será estudiado en otro
lugar.
5] Generalización de la respuesta: es la contrapar­
te de la generalización del estímulo. Si un organismo
ha aprendido a reaccionar con la respuesta B al es­
tímulo A, tiene tendencia a reaccionar también con
B’, que es diferente de B pero similar en algún
aspecto. Un ejemplo clásico es el del perro que apren­
dió a reaccionar levantando una pata, y si se la
amarra a la mesa del laboratorio reacciona al mismo
estímulo original levantando otra pata.
Pavlov propuso también otros principios, tales
como inhibición externa, desinhibición, inhibición
de retardo, sumación, diferenciación de la respuesta,
generalización de la extinción, discriminación, inhi­
bición condicionada, etc. Uno de los más conocidos
56 CONDICIONAMIENTO CLÁSICO

fue el condicionamiento de segundo orden, que es


el proceso en el cual después de establecer firmemente
una r c a un e c este e c se parea con otro e c neutro
con el fin de obtener una r c . También es posible
obtener condicionamiento del tercer orden, aunque
Pavlov sólo lo logró con reflejos de defensa, y no
fue capaz de establecer reflejos de cuarto orden en
perros. Una descripción de estos trabajos puede ha­
llarse en Pavlov [1959].

v a r ia b l e s

Hay una serie de variables descubiertas experimen­


talmente que influyen en el condicionamiento. Las
principales son:
a) Variables del estimulo: el e i debe ser suficien­
temente dominante, saliente o prepotente para poder
afectar la situación experimental. En caso contrario
los estímulos competidores tenderán a distraer al
animal y a evitar el condicionamiento. Los siguientes
factores tienden a facilitar el condicionamiento: au­
mentar la intensidad del e i , hacer el e i más clara­
mente discriminable o distinguible, aumentar el nú­
mero de sus componentes (por ejemplo hacer inter­
venir dos modalidades sensoriales en vez de una, diga­
mos el oído y el tacto), aumentar la intensidad del
e c hasta cierto número razonable, hacer que el e c
sea muy corto (aunque distinguible para el orga­
nismo).
b) El intervalo entre el e c y el e i : se han tratado
diferentes intervalos, tanto en condicionamiento de
retardo como de huella y se ha encontrado que
existe un intervalo óptimo, medio segundo entre e c
y e i . Este intervalo parece poder generalizarse para
diferentes especies y para diferentes situaciones, y se
ha venido a considerar com o un “ principio acepta­
do” en psicología del aprendizaje. Es preciso insistir
en que no se han estudiado suficientes especies como
para saber si este intervalo tiene suficiente generali­
GENERALIDAD 57
dad o no. En condicionamiento con choques eléctri­
cos parece ser que 5 segundos (en vez de .5) es el
intervalo óptimo [Razran, 1957].
c) El intervalo entre ensayos: ¿con qué frecuencia
debe presentarse el e c para que sea más eficaz? Se
ha encontrado también en forma experimental que
90 segundos es el mejor intervalo entre uno y otro
ensayo (m ). Intervalos más demorados ni ayudan ni
dificultan el condicionamiento, pero intervalos me­
nores de 90 segundos claramente impiden el proceso
del condicionamiento. Un i t i (intervalo entre ensa­
yos) constante produce mejores resultados, o sea me­
jor condicionamiento, que un i t i variable; el varia­
ble se usa, con un cierto promedio (por ejemplo de
10, 20, 30, 40 y 50 segundos, alrededor de un pro­
medio de 30 segundos).
Después de estudiar estas variables podemos pre­
guntarnos: ¿qué tan general es el proceso de condi­
cionamiento?

GENERALIDAD

Es posible afirmar que todas las especies animales


pueden condicionarse; que organismos de cualquier
edad (incluso antes de nacer) pueden condicionarse;
que cualquier estímulo puede usarse com o e c y que
cualquier respuesta puede convetirse en r c . Esta
asombrosa generalidad del condicionamiento clásico,
que se extiende a todo lo largo de la escala filoge-
nética, a todas las edades y a todos los estímulos y
respuestas, ha hecho que el proceso del condiciona­
miento merezca atención especial de los psicólogos y
de muchos otros científicos. Sin embargo, es preciso
indicar algunas restricciones especiales en lo referen­
te a la generalidad del condicionamiento clásico.
1] Generalidad filogenética: los primeros traba­
jos se hicieron con mamíferos, especialmente con
perros, gatos, ratas, monos y hombres. Más adelante
se estudiaron las aves, los invertebrados e incluso las
58 CONDICIONAMIENTO CLASICO

especies que se encuentran en el extremo inferior de


la escala evolutiva. El condicionamiento se ha com ­
probado repetidamente en moluscos y anélidos
[Thompson, 1917; Ratner y Miller 1959]; en equino­
dermos; especialmente en la estrella de mar [Thorpe,
1956], en los platelmintos, sobre todo en la planaria
[Thompson y McConnell, 1955], y en muchas otras
especies. Sin embargo, es claro que en los límites
inferiores de la escala filogenética este proceso no
tiene mucha importancia para adaptar el organismo
a su ambiente, ni está muy desarrollado. Se encuen­
tra, y por eso el condicionamiento clásico puede ge­
neralizarse a ambos extremos de la “ escala filogené­
tica” . Es probable que los procesos del condiciona­
miento se hallen también en plantas (especialmente
las que se mueven como la mimosa), pero este punto
no se ha definido claramente todavía.
2] Generalidad ontogenética: en el hombre el con­
dicionamiento puede lograrse antes del nacimiento.
Spelt [1948] condicionó fetos humanos de 6y2 a 8y2
meses a dar una respuesta de golpear en el vientre
materno cuando se estimulaba táctilmente el estóma­
go de la madre ( e c ), si esta estimulación se había
asociado con un ruido fuerte ( e i ). En embriones de
pollo se ha logrado el condicionamiento 7 días antes
del nacimiento; la respuesta persiste después del na­
cimiento si el animal se conserva en la oscuridad y
no se prueba en un ambiente que sea demasiado dife­
rente del ambiente prenatal.
El punto básico en lo relacionado con los límites
ontogenéticos1es si la respuesta a ser condicionada es
suficientemente fuerte en el repertorio del organismo
en la edad en la cual se está tratando de condicionar.
En cuanto a los ancianos de cualquier especie,
parece que la condicionabilidad disminuye un poco
con la edad, posiblemente debido a la habituación
a los estímulos incondicionados [Brown y Ceiselhart,
1959].
3] Generalidad del estimulo: cualquier estímulo
g e n e r a l id a d 59
puede usarse como e c , siempre que se encuentre por
encima del umbral perceptivo del organismo y que
no sea demasiado intenso. Aunque la mayor parte
de las investigaciones se realizan con estímulos visua­
les y auditivos, también se ha logrado condiciona­
miento con estímulos propioceptivos, olfatorios, gusta-
torios y táctiles. Sin embargo, en ciertos organismos
unas clases de estímulos pueden ser más efectivas
que otras [Spence, Haggard y Ross, 1958],
La característica distintiva del estímulo para que
pueda usarse como e i es que desencadene la respuesta
en forma consistente, y que no se adapte demasiado
rápidamente.
4] Generalidad de la respuesta: cualquier res­
puesta es condicionable, tanto de los músculos estria­
dos com o lisos. Bykov [1957] demostró el condicio­
namiento de la actividad de los riñones, la vejiga y
el bazo. Kellog y Spanovik [1953] demostraron
cambios en la actividad respiratoria de los peces
durante el condicionamiento. Actividades musculares
han sido condicionadas casi en cualquier dirección.
6

CONDICIONAMIENTO OPERANTE

Las características esenciales del condicionamiento


operante o instrumental se han presentado en el ca­
pítulo anterior (cuadro 1), al compararlo con el con­
dicionamiento clásico. Aquí vamos a estudiar con
más detalle esas características, los procesos principa­
les, y la generalidad del condicionamiento operante.
Esta área de investigación está ligada al nombre de
B. F. Skinner [1904- ], psicólogo de Harvard, quien
descubrió los principios básicos del condicionamiento
operante, los sistematizó en varios libros y artículos
[Skinner, 1938; 1953; 1959] y los aplicó a la educa­
ción, a los problemas clínicos, a la conquista del es­
pacio y a los problemas sociales [1968, 1974].
El condicionamiento operante es un proceso de
ejercer control sobre la conducta de un organismo
en un cierto ambiente, por medio de la aplicación
del refuerzo. Incluye máxima flexibilidad y adapta­
bilidad, mientras que el condicionamiento clásico,
como veíamos antes, es bastante rígido. Skinner [1938]
distinguió entre conducta desencadenada por el estí­
mulo (condicionamiento respondiente) y conducta
emitida por el organismo (condicionamiento operan­
te). Es obvio que la mayor parte de la conducta de
los organismos, especialmente de los organismos hu­
manos, es operante y no respondiente. De la impor­
tancia de este enfoque en psicología científica se han
desprendido numerosas aplicaciones, que se presentan
detalladamente en H onig [1966].

[60]
CARACTERÍSTICAS 61
CARACTERÍSTICAS

£1 condicionamiento operante como método, como


técnica y como “ escuela” psicológica (aunque sus
seguidores no estarían de acuerdo en considerarlo
una nueva escuela) tiene características muy defini­
das. Por otra parte, aunque Skinner propuso su
sistema y describió sus experimentos en 1938 e in­
cluso antes, sólo se le tomó en serio alrededor de
1950. Hoy el condicionamiento operante es el en­
foque de la psicología que crece con mayor rapidez;
sus principios, sus aplicaciones y sus seguidores se
multiplican aceleradamente. Una de las razones para
ello es que el condicionamiento operante tiene ca­
racterísticas muy claras y definidas, que son las si­
guientes:
1] Interés en el control del ambiente: el sujeto en
la situación experimental se coloca en un ambiente
a prueba de ruidos, sin variaciones de iluminación,
sin estímulos extraños, y se trata de controlar toda la
situación con el fin de poder variar la conducta del
sujeto variando el ambiente.
2] Control del comportamiento del sujeto: en una
caja de Skinner (ver descripción y figura 6) el animal
explora la situación, y accidentalmente oprime la
palanca; inmediatamente es reforzado con una bolita
de alimento, y esto lleva al animal a presionar de
nuevo la palanca una y otra vez. Por medio del re­
fuerzo, administrado según ciertos programas, se
controla la conducta del sujeto.
3] Estudio intensivo del sujeto individual: or­
dinariamente se usan muy pocos Sujetos en los ex­
perimentos sobre condicionamiento operante, y e!
comportamiento de cada uno de ellos se registra
independientemente en un Aparato de registro acu­
mulativo. N o se promedian los datos de un grupo
de sujetos, como se hace en otros enfoques de la
psicología del aprendizaje, porque según los psicó­
logos operantes esto llevaría a confundir las varia­
62 COr.—dO N A M lE N TO OPERANTE

bles y a introducir fuentes de error. Ellos no tienen el


menor interés en las técnicas estadísticas, el estu­
dio del análisis de varianza, ni en modelos mate­
máticos del aprendizaje. Consideran que cada sujeto
puede dar suficiente información, y que el experi­
mentador tiene como objetivo único controlar la
conducta del sujeto. Decir que es “ significativo al
nivel de 1 por ciento de probabilidad", o cosa pare­
cida, es simplemente absurdo, según los psicólogos
operantes.
4] Interés en el comportamiento y sus leyes, no
en los correlatos fisiológicos: las leyes del aprendiza­
je se han descubierto a nivel de conducta, no a
nivel fisiológico. El modelo del organismo “ vacío”
o “ caja negra” (expresión tomada de la cibernética)
implica que el psicólogo está interesado en el com­
portamiento como comportamiento, no importa qué
esté sucediendo en el sistema nervioso cuando el
organismo aprende, no importa si se presentan alte­
raciones a nivel sináptico o a nivel celular, si cambia
la estructura del r n a , o si sucede algo semejante. Lo
importante es el comportamiento y la manera de
controlarlo por medio del refuerzo.
5] Programación y registro automáticos y conti­
nuos: en el condicionamiento operante se ha selec­
cionado como medida la tasa de respuesta, que
es una unidad sencilla y fácilmente medible. El
psicólogo está interesado en observar las respuestas
del organismo en forma continua, para lo cual se
vale de programación automática que le simplifica el
trabajo y le ahorra innumerables horas de trabajo. El
registro de la respuesta se lleva a cabo con un instru
mentó acumulativo, que estudiaremos a continuación
Algunos especialistas podrían citar otras caracte^
rísticas del condicionamiento operante, pero éstas
son las más distintivas. Podrían incluir también el
hincapié en las contingencias del refuerzo, en la ta­
sa de respuesta como unidad, en la observación
objetiva del comportamiento y en la descripción del
REGISTRO ACUMULATIVO 63

mismo sin recurrir a variables intermediarias o par­


ticipantes, etc.; sin embargo, creemos que todos estos
puntos están incluidos en las cinco características
presentadas antes.

REGISTRO ACUMULATIVO

Un instrumento para registrar el comportamiento


que se ha convertido en algo imprescindible en todos
los laboratorios de psicología en los cuales se trabaja
en condicionamiento operante es el registrador acu­
mulativo. Consiste en una pluma que traza una
línea en un rollo de papel que se mueve a una ve­
locidad constante. Cada vez que el animal da una
respuesta la pluma se mueve una pequeña distancia,
fija, en el rollo de papel. Si el animal responde
lentamente la inclinación del registro no será muy
grande; si responde más rápidamente, el registro será
más inclinado. Es importante recordar que la pluma
64 CONDICIONAMIENTO OPERANTE

no vuelve a su punto inidal, o sea que no baja de


nuevo. Si el animal no responde, la pluma traza
una línea horizontal. La figura 12 muestra un re­
gistro de este tipo.

MOLDEAMIENTO

Con el fin de controlar el comportamiento de un


organismo y hacer que actúe com o el experimenta­
dor quiere, se comienza por reforzar (por dar ali­
mento) cada vez que el organismo se comporte en
alguna forma relacionada con el objetivo que se
desea lograr. En otras palabras, se refuerzan apro­
ximaciones sucesivas al objetivo. Este proceso se
denomina moldeamiento (shaping en inglés) y se ha
convertido también en una técnica universalmente
usada en el condicionamiento operante.
Por ejemplo, si queremos que el animal presione
tres veces la palanca en la caja de Skinner, comen­
zamos por darle una bolita de alimento cada vez
que mire hacia el lado de la palanca, cada vez que
se acerque a ella, cada vez que la huela, cada vez
que la muerda, que la presione, etc., hasta que pre­
sione tres veces como nosotros queríamos. Es preciso
tener mucho cuidado en este proceso (que es un
verdadero arte), con el fin de n o reforzar comporta­
mientos irrelevantes, ni producir conducta supersti­
ciosa. Se denomina conducta supersticiosa la que se
asocia accidentalmente con el refuerzo; por ejemplo,
si la rata recibió alimento al rascarse y presionar la
palanca, tenderá a rascarse siempre antes de presio­
nar la palanca; sin embargo, con el tiempo, con mu­
chos ensayos, y por simple ley del "mínimo esfuerzo"
el comportamiento de rascarse tenderá a desaparecer,
y la rata presionará la palanca por alimento sin
preocuparse de rascarse antes.
En el proceso de moldeamiento el arte reside en
reforzar las aproximaciones sucesivas al objetivo que
hemos fijado. Pero si el animal "da marcha atrás” ,
PROGRAMAS DE REFUERZO 65

conductas que se reforzaron antes ya no se refuerzan;


por ejemplo, si reforzamos el comportamiento de
morder la palanca y después el animal la presiona
una vez (y queremos que presione tres veces), si
vuelve a morder la palanca no le debemos dar re­
fuerzo.

A D Q U IS IC IÓ N Y E X T IN C IÓ N

El condicionamiento operante, como hemos visto, es


el proceso en el cual se modifica la probabilidad de
una respuesta con base en sus consecuencias.
Se insiste en el control del comportamiento, y se
considera que entender un fenómeno equivale a con­
trolarlo. El condicionamiento operante trabaja con
dos tipos de determinantes del comportamiento: 1]
ambientales, y 2] históricos. Los determinantes am­
bientales son contemporáneos, se encuentran en el
medio en el cual se mueve el organismo en este mo­
mento. En cambio los determinantes históricos son
experiencias del pasado, que forman la historia previa
de refuerzo.
En general, las características de un comportamien­
to y su probabilidad de ocurrencia están controladas
por: las condiciones ambientales, los eventos que pre­
ceden o acompañan al comportamiento, los eventos
que varían como consecuencia del comportamiento,
y la historia previa de refuerzo [véase Millenson,
1974; Reynolds, 1973; Ardila, 1974],
Los estímulos se han dividido en varias categorías,
cuya utilidad depende de la situación con la cual
se esté trabajando:
1. Estímulos evocadores: son eventos ambientales
que preceden regularmente al comportamiento, van
siempre antes de la respuesta. Evocan, como su nom­
bre lo indica, las respuestas respondientes (clásicas),
las cuales son fijas y estereotipadas.
2. Estímulos discriminativos: preceden o acompa­
ñan las respuestas pero no las evocan. Incrementan
65a CONDICIONAMIENTO OPERANTE

la probabilidad de las respuestas que en el pasado


fueron reforzadas en presencia de los mismos estímu­
los discriminativos.
3. Estímulos reforzantes: son eventos que van des­
pués de las respuestas. Incrementan la frecuencia de
las respuestas que los preceden.
4. Estímulos neutrales: no producen cambios en el
comportamiento, sea que precedan, acompañen o va­
yan después de la respuesta.
La mayor parte del comportamiento, especialmente
del comportamiento humano, es operante. Esto im­
plica que para comprender la manera com o actúan
los organismos, es preciso colocar suficiente énfasis
en los estímulos discriminativos y en los estímulos
reforzantes. Solo una parte muy pequeña del compor­
tamiento de los organismos superiores está basada en
los principios clásicos, y por esto no es tan importan­
te el estudio de los estímulos evocadores.
La adquisición y la extinción son la forma de mol­
dear nuevos comportamientos. Se denomina topogra­
fía de respuestas al conjunto que forman las operan­
tes. El refuerzo no sólo incrementa la respuesta de
una operante (por ejemplo de presionar una palan­
ca) sino que también cambia su topografía.
Com o veíamos antes, los estímulos discriminativos
preceden o acompañan a las respuestas; en su presen­
cia el comportamiento es altamente probable; como
es más probable, decimos que el comportamiento está
bajo el control del estímulo. El poder de control de
un estímulo discriminativo se desarrolla de manera
gradual. Para saber si existe o no control de estímu­
los en un comportamiento determinado, es preciso
presentar el estímulo, y también estímulos diferentes;
la respuesta debe darse ante el estímulo discrimina­
tivo, no ante cualquier estímulo. Debe haber discri­
minación. Ésta se opone a la generalización.
Un fenómeno muy interesante que se presenta en
el proceso de formación de una discriminación es el
contraste comportamenlal [Reynolds, 1961]. Mientras
PROGRAMAS DE REFUERZO 65b

que en la generalización las tasas de respuesta en


presencia de varios estímulos cambian en la misma
dirección, en el contraste comportamental cambian
en direcciones opuestas: la tasa del uno aumenta
mientras que la tasa de los otros disminuye. A nivel
humano se observa que una respuesta castigada dismi­
nuye en presencia del estímulo aversivo, mientras
que aumenta en otras situaciones (véase más adelan­
te, el capítulo sobre el castigo).
El control de estímulos está en relación con la
atención. En muchos casos el organismo actúa con
base en una modalidad sensorial, excluyendo las de­
más. Sin embargo es un hecho que los organismos
nacen con predisposiciones para atender a determina­
dos aspectos del ambiente.

PROGRAMAS DE REFUERZO SIMPLE

Durante casi una década Ferster y Skinner se dedi­


caron a encontrar diversos programas de refuerzo,
hasta lograr algunos sumamente complicados. Para
una descripción completa de ellos ver Ferster y Skin­
ner [1957], y Honig [1966], Aquí nos limitaremos a
estudiar cuatro programas principales, que son los
más simples.
1] Refuerzo de razón fija: se refuerza un com ­
portamiento cada cierto número de respuestas. Por
ejemplo un programa r f 4 (fixed ratio 4) quiere
decir que el animal recibe una bolita de alimento
cada vez que presiona la palanca cuatro veces.
2] Refuerzo de razón variable: el animal se re­
fuerza al azar, pero en torno a un cierto promedio
determinado. Un programa de r v 5 (variable ratio
5) quiere decir que se refuerza el animal en algunos
casos después de presionar una vez, en otros después
de presionar 10 veces, etc., con un promedio de 5
veces.
3] Refuerzo de intervalo fijo: se refuerza en este
66 CONDICIONAMIENTO OPERANTE

caso el tiempo, no el número de respuestas. General­


mente se varía entre uno y tres minutos. El animal
recibe refuerzo la primera vez que presiona la palan­
ca después de que ha pasado cierto tiempo. En el
i f 1 (fixed interval 1) el animal recibe su bolita de
alimento la primera vez que presiona la palanca
después de un minuto.
4] Refuerzo de intervalo variable: se refuerza al
azar, con tiempos variables, pero en torno a un
cierto promedio. Una iv 2 (variable interval 2) im­
plica que se refuerza la primera respuesta del orga­
nismo después de tiempos variables, al azar, pero con
un promedio de dos minutos. Este programa de re­
fuerzo es el mejor, en el sentido de que da mayor
resistencia a la extinción. Se usa mucho, sobre todo
en experimentos sobre generalización del estímulo,
y no es tan difícil de lograr como parece a primera
vista.
Otros programas mucho más complicados se han
logrado en el laboratorio y se siguen logrando. M u­
chos de ellos tienen aplicación en el tratamiento de
pacientes psicóticos, de niños autistas, y en el en­
trenamiento de los animales que han tomado parte
en la conquista del espacio.

PROGRAMAS DE REFUERZO COMPLEJO

Además de estos 4 programas de refuerzo simple, se


han logrado otros programas, de altísima compleji­
dad [véase Thompson y Grabowski, 1972; Schoenfeld
y Colé, 1972]. Sin pretender entrar aquí en una pre­
sentación detallada de los programas de refuerzo
complejo, podemos estudiar los más importantes, re­
mitiendo al lector a obras especializadas sobre el tema.
1. Programas de refuerzo múltiple. Consiste en dos
o más programas independientes, que se presentan al
organismo de manera sucesiva; cada uno se da en pre­
sencia de un estímulo discriminativo característico.
Se trata, claro está, de programas combinados, con un
PROGRAMAS DE REFUERZO 66 a

estímulo discriminativo característico. Por ejemplo:


presionar una palanca con base en un programa rf
cuando está encendida la luz verde; presionarla con
base en un programa rv cuando está encendida la
luz roja. Es importante insistir en que en los progra­
mas múltiples, cada estímulo genera la ejecución ade­
cuada al programa con el cual está asociado. O sea
que las ejecuciones conservan las características de
cada programa cuando se da en forma aislada, más
ciertas interacciones, que se han estudiado mucho
[véanse los últimos volúmenes del Journal of the Ex­
perimental Analysis of Behavior].
2. Programas de refuerzo completo. Consiste en re­
forzar una sola respuesta, con base en los requisitos
de dos o más programas que actúan al mismo tiempo.
La ocurrencia de la respuesta se puede reforzar
cuando:
a. Se hayan cumplido los requisitos de todos los
prof jamas componentes.
b. Se hayan cumplido los requisitos de uno cual­
quiera de los programas.
c. Se haya cumplido una combinación de los requi­
sitos de dos o más programas.
En el primer caso hablamos de programas conjun­
tivos. Se deben cumplir los requisitos de todos los
programas componentes (dos o más); por ejemplo
if y r f . En el segundo caso hablamos de programas
alternativos; se refuerza una respuesta cuando se haya
cumplido el requisito de uno de los programas (por
ejemplo if o r f ) . En el tercer caso, en el cual es preci­
so que se cumpla una combinación de los requisitos
de dos o más programas, hablamos de programas en­
trelazados; por ejemplo, el número de respuestas
requeridas para recibir un refuerzo, aumenta o dismi­
nuye a partir del tiempo transcurrido desde el último
refuerzo; hablamos, por lo tanto, de programa entre­
lazado creciente, o de programa entrelazado decre­
ciente.
Es posible reforzar selectivamente tasas altas de res­
66b CONDICIONAMIENTO OPERANTE

p u e s ta (r e fu e r z o d if e r e n c i a l de tasas a lta s, r d a ), o
tasas b a ja s ( r e f u e r z o d i f e r e n c i a l d e ta sa s b a ja s r d b ).

3. Programas de refuerzo concurrente. Consisten


en reforzar dos o más respuestas, de acuerdo a dos o
más programas de refuerzo que operan al mismo
tiempo. El animal presiona la palanca de la izquier­
da con un programa de refuerzo, y la palanca de la
derecha con otro programa (en una caja de Skinner
con dos palancas). Los programas son independientes
uno del otro. Se observa que las ejecuciones conser­
van sus características típicas. Los programas concu­
rrentes se utilizan mucho en la formación de cadenas
de respuestas.
Estas categorías globales de programas de refuerzo
complejo (múltiple, compuesto y concurrente) permi­
ten numerosas subdivisiones. Realmente no hay lími­
te para los programas de refuerzo complejo, y el
investigador con gran ingeniosidad puede diseñar
programas nuevos y mejores para sus propias nece­
sidades.

a p r e n d iz a j e de e v it a c ió n

Trabajos sobre evitación, escape y castigo usan mu­


chas veces los métodos y técnicas del condiciona­
miento operante, y por eso deberían ser considerados
dentro de este capítulo. El nivel de refinamiento de
estos estudios ha llegado a ser sumamente grande, se
han controlado cuidadosamente las variables y se han
obtenido resultados confiables y generalizables. Sin
embargo, .con el fin de integrar los conocimientos
sobre esta área, o sea optando por un enfoque de
contenido en vez de un enfoque metodológico, he
preferido presentar los estudios sobre aprendizaje de
evitación en el capítulo 9 al estudiar el castigo.

g e n e r a l id a d

El condicionamiento operante es un proceso muy


general, que se ha comparado al condicionamiento
GENERALIDAD 67
clásico. Lo mismo que en el capítulo anterior al
describir el condicionamiento de tipo pavloviano, es
conveniente describir nuestros conocimientos sobre la
generalidad del condicionamiento operante.
1] Generalidad filo gene tica: el condicionamiento
operante se ha estudiado en numerosas especies, sien­
do las principales la rata blanca, el palomo y el
mono. Muchas otras especies en todos los niveles de
la escala filogenética presentan aprendizaje instru­
mental. Sin embargo en los niveles inferiores la situa­
ción es muy poco clara, y las pruebas no son su-
fientemente satisfactorias [Ratner y Denny, 1964].
Gelber [1952], Jensen [1957] y Katz y Deterline
[1958] estudiaron el condicionamiento instrumental
en el paramecio; éste parecía ser el límite filogenética-
mente inferior del condicionamiento instrumental.
Sin embargo, las pruebas son muy discutibles, y no
se ha encontrado condicionamiento instrumental en
animales más elevados en la escala filogenética (y
que muestran condicionamiento clásico) como son
los gusanos de tierra y la estrella de mar.
Probablemente los experimentos de condiciona­
miento del paramecio introducen factores de error
no controlados porque cambian el medio en el cual
viven estos organismos; además, los procedimientos
usados pueden producir sensibilización especial en
lugar de aprendizaje, o pueden desencadenar efectos
que tienen origen táctil y cinético en vez de apren­
dido. Cuál es el límite inferior en el condiciona­
miento operante, y si los paramecios son capaces de
adquirir respuestas instrumentales, son problemas aún
no resueltos.
2] Generalidad ontogenética: bebés humanos re
cién nacidos son capaces de aprender una respuesta
instrumental. Monos macacos de 15 días de nacidos
[Masón y Harlow, 1958] pueden aprender respuestas
en laberintos en Y. Cuando los factores de transfe­
rencia de otras situaciones entran en juego, los ani­
males de más edad llevan la ventaja, especialmente
68 CONDICIONAMIENTO OPERANTE

porque aprenden a aprender [Harlow, 1949]. Sin


embargo, no puede decirse que la habilidad para
aprender aumente con la simple edad, sin tener en
cuenta factores de transferencia de una situación a
otra. En todo caso la maduración desempeña un
importante papel en el aprendizaje; es preciso que la
respuesta que ha de ser aprendida esté en el reperto­
rio del organismo, y muchas otras respuestas requie­
ren tiempo para aparecer por vez primera, con base
en la maduración orgánica.
8] Generalidad de la respuesta: en animales que
se encuentran en eslabones inferiores en la escala
filogenética, los patrones de comportamiento comu­
nes a la especie (“ instintos” ) desempeñan un papel de
gran importancia, y pueden interferir en el aprendiza­
je de respuestas instrumentales. Éste es el primer
factor que es preciso tener en cuenta al estudiar la
generalidad de las respuestas en el condicionamientc
instrumental: si la respuesta que ha de ser aprendida
es compatible con la reacción “ natural” (o incon-
dicionada) al estímulo, o si es incompatible con ella;
en el primer caso se facilita el aprendizaje, en el se­
gundo se obstaculiza aunque no se hace imposible. La
respuesta de pasar a un segundo compartimiento
para escapar del choque eléctrico recibido en el
primer compartimiento es compatible con la reacción
natural del animal ante el choque (escapar de la
situación); es fácil entrenar ratas a saltar al recibir
el choque, o escapar al otro compartimiento. En
cambio si la respuesta es incompatible, la situación
es más complicada; por ejemplo es más fácil enseñar
a una rata a esconderse de una luz demasiado intensa
que enseñarle a presionar una palanca para que la
luz intensa disminuya.
Sin embargo, gran cantidad de respuestas pueden
lograrse con el condicionamiento operante o instru­
mental (no simplemente oprimir una palanca en una
caja de Skinner sino hacer cosas tan complicadas
como conducir un cohete alrededor de la tierra). Lo
GENERALIDAD 69

importante es que la respuesta esté en el repertorio


del organismo, o sea que el animal esté suficiente­
mente maduro y que la respuesta no interfiera dema­
siado en las reacciones “ naturales” de esa especie.
Otro factor importante es la habilidad del experi­
mentador para moldear la conducta del sujeto y dar
el refuerzo en forma adecuada con el fin de lograr
controlar la situación.
£1 otro factor que estudiamos en el capitulo ante­
rior al intentar analizar la generalidad del condicio­
namiento clásico, o sea la generalidad del estímulo,
no tiene sentido en el contexto del condicionamien­
to operante, porque esta conducta es emitida por el
organismo, no desencadenada por el estímulo.
7

APRENDIZAJE VISCERAL Y G LA N D U L AR

Neal E. Miller estuvo asociado por muchos años con


la Universidad de Yale, y trabajó en una integración
de la teoría del aprendizaje, el psicoanálisis y la
antropología, y su aplicación a problemas básicos del
comportamiento humano incluyendo la psicoterapia
[Dollard y Miller, 1950]; antes había estudiado el
aprendizaje social y hecho importantes contribucio­
nes en ese campo [Miller y Dollard, 1941]. Hemos
encontrado su nombre ligado a una liberalización de
los conceptos de estímu'o y respuesta [Miller, 1959],
y lo encontraremos de nuevo al estudiar el castigo.
En los últimos 12 años ha estado trabajando en un
área completamente nueva y de gran importancia
tanto teórica como práctica: el aprendizaje instru­
mental de respuestas viscerales y glandulares.
Miller [1969] comienza atacando la división tra­
dicional que se remonta a los filósofos griegos y fue
aceptada con mucho entusiasmo por los cristianos,
según la cual existe una división entre la razón y
las emociones, estando la primera ligada a la volun­
tad y al control consciente, y siendo la segunda in­
voluntaria e incontrolada. Esta división se aceptó por
muchos siglos y su fundamento fisiológico se encon­
tró en los dos sistemas nerviosos; el central, que me­
dia las respuestas "voluntarias” y el autónomo (o
autonómico) que media las respuestas "involuntarias” ,
viscerales y glandulares.
Al postular dos clases de aprendizaje, clásico e
instrumental (u operante) los psicólogos aceptaron
tácitamente esta división. Kimble [1961] afirmó que
las respuestas mediadas por el sistema autónomo po-
[70]
APRENDIZAJE VISCERAL Y GLANDULAR 71

dían ser modificadas por condicionamiento clásico


pero no por condicionamiento operante. Miller, en
cambio, después de estudiar las numerosas similitudes
existentes entre aprendizaje por condicionamiento
clásico y por condicionamiento instrumental, se negó
a creer que hubiera dos clases de aprendizaje, y pre­
firió postular un sistema unitario. Pero con el fin de
hacerlo era preciso lograr producir por medio de las
técnicas del condicionamiento instrumental, las res­
puestas viscerales que se consideraba que sólo podían
producirse por condicionamiento clásico.
Se sabe que es posible que aumenten los latidos
del corazón, o la secreción de saliva, si estas respues­
tas se han asociado a estímulos condicionados, según
las técnicas del condicionamiento clásico que estu­
diamos en el capítulo 5. Pero ¿cómo lograr que el
refuerzo influyera sobre ellas, que el animal apren­
diera a hacer algo con el fin de recibir el premio?
¿Sería posible enseñar a un animal a salivar, por
ejemplo, con el fin de recibir algún premio (digamos
lograr estimulación eléctrica del cerebro)?
Miller indica que hubo una serie de problemas
que vencer antes de atacar estos problemas. Las res­
puestas más fáciles de medir (conductibilidad eléc­
trica de la piel, latidos del corazón y respuestas vaso­
motoras) se sabe que resultan afectadas por la acción
de las respuestas esqueléticas (por ejemplo ejercicio,
respiración, tensión de ciertos músculos, etc). Era
preciso evitar estas fuentes de error. La solución fue
paralizar al animal por medio de curare, la droga
que bloquea en forma selectiva las placas de las
terminaciones motoras de los músculos esqueléticos
(sin eliminar la conciencia en el caso de sujetos hu­
manos). Trabajar con animales bajo curare fue una
solución muy acertada porque en esta forma se
eliminaban también las fuentes de distracción am­
biental que interferían en el apíendizaje. El animal
paralizado no tenía más remedio que “ atender” a
los estímulos presentados por el experimentador. Sin
72 APRENDIZAJE VISCERAL Y GLANDULAR

embargo, como la ciencia procede por ensayo y error,


especialmente en un área como ésta, en la cual Miller
y sus estudiantes estaban explorando un terreno com­
pletamente virgen, esas técnicas no se refinaron desde
el comienzo, y se empezó a trabajar con animales no
curarizados, completamente móviles y activos.

SALIVACIÓN

Miller y Alfredo Carmona [1967] comenzaron tra­


tando de reforzar por medio del alimento la respuesta
de salivar en un perro hambriento. Se trataba de re­
forzar al animal cada vez que salivaba, con el fin
de aumentar la salivación. Sin embargo, esto no
funcionó porque el animal salivaba demasiado, es­
pontáneamente, sin relación con el refuerzo, y porque
era demasiado difícil lograr que la respuesta estuviera
"bajo el control de sus consecuencias” como se hace
en el aprendizaje instrumental.
Entonces trabajaron con perros sedientos, a los
cuales se les reforzaba con agua. Se estudió previa­
mente que el agua no tiene ningún efecto en el au­
mento o disminución de la cantidad de saliva secre­
tada espontáneamente. Sin embargo, como es preciso
ser extraordinariamente cuidadoso, se usó el siguiente
control: a un grupo de perros sedientos se les premió
si aumentaban la salivación, mientras que a otros se
les premió si disminuían la salivación. En el primer
caso se reforzó al animal cada vez que presentaba
su salivación espontánea, y en el segundo cada vez
que pasaban intervalos largos entre las secreciones
espontáneas de saliva. En esta forma se controlaron
los efectos desconocidos (e incondicionados) que el
premio pudiera tener, los cuales se podían asociar
por medio del condicionamiento clásico a la situa­
ción experimental. En todo caso, cualesquiera que
fueran estos efectos, no iban a aumentar en un
grupo de animales y a disminuir en otro, según el
refuerzo dado por el experimentador. Debía tratarse,
LATIDOS DEL CORAZÓN 73
en cambio, de condicionamiento instrumental y no
de condicionamiento clásico a la situación experi­
mental, porque la dirección del cambio dependía del
refuerzo, dado en un caso para aumentar la salivación
y en el otro para disminuir. El entrenamiento duró
40 días, con sesiones diarias de 45 minutos cada una,
y las diferencias entre los grupos de aumento y
disminución fueron estadísticamente significativas.

LATIDOS DEL CORAZÓN

La siguiente serie de experimentos la llevó a cabo


Miller con la colaboración de Trowill y DiCara.
Fueron experimentos con ratas bajo la acción de
curare, que se condicionaron a aumentar o disminuir
los latidos del corazón; los animales fueron reforza­
dos por medio de estimulación cerebral en las áreas
de premio.
Ante todo hubo una larga serie de dificultades
técnicas que vencer, relacionadas con la dosis de
curare para que el animal estuviera paralizado apro­
ximadamente por una hora o un poco más; con los
instrumentos para darles respiración artificial, a la
frecuencia adecuada para las ratas, con la manera
de registrar los cambios cardiacos y con otros proble­
mas similares.
A un grupo de ratas paralizadas con curare se les
dio estimulación cerebral en un área de premio por
aumentar los latidos del corazón, y a otro grupo
por disminuir los latidos. Se lograron los resultados
deseados, estadísticamente significativos, en la direc­
ción deseada, pero de pequeña magnitud. DiCara,
usando la técnica skinneriana de moldeamiento, logró
cambios mucho mayores, reforzando al comienzo cam­
bios pequeños en la dirección correcta, y luego
cambios más y más intensos hasta lograr alcanzar el
criterio fijado con anterioridad.
Después de haber logrado alcanzar el aprendizaje
de estas respuestas “ involuntarias" por medios instru­
74 APRENDIZAJE VISCERAL Y GLANDULAR

mentales, Miller y sus estudiantes quisieron saber si


ese aprendizaje tenía las mismas características del
aprendizaje de respuestas esqueléticas. ¿Por cuánto
tiempo era posible conservarlo? ¿Podía colocarse bajo
el control del estímulo?
Primeramente se entrenaron ratas a dar la res­
puesta cuando los estímulos que se habían de discri­
minar estaban presentes (se trataba de una luz cen­
telleante y de un sonido) y a no darla cuando no lo
estaban. En un caso una rata disminuyó los latidos
del corazón de 350 por minuto a 320 por minuto. Lo
mismo se logró con los sujetos del otro grupo, que
aumentaban su frecuencia cardiaca al aplicar el es­
tímulo, y los resultados fueron estadísticamente sig­
nificativos. Se demostró en forma inequívoca que es
posible hacer que este aprendizaje esté bajo el con­
trol de un estímulo discriminativo.
En otro experimento [DiCara y Miller, 1968] ra­
tas que habían tenido una sola sesión de entrena­
miento en aumentar o disminuir los latidos del co­
razón se llevaron a sus jaulas por tres meses, sin
darles más entrenamiento. A los tres meses se pro­
baron de nuevo bajo la acción del curare, sin re­
fuerzo adicional, y se observó que retenían la respuesta
en la dirección aprendida previamente.
DiCara y Miller quisieron averiguar también si
era posible reforzar una respuesta visceral en ratas
paralizadas con curare por medios diferentes de la
estimulación cerebral. Escapar de un choque eléctrico
ha sido uno de los refuerzos usados en el área del
aprendizaje de evitación, y los autores planearon un
experimento en la forma siguiente: se daba una
señal a la rata paralizada por curare, y 10 segundos
después se daba el choque eléctrico; el animal podía
evitarlo variando los latidos del corazón, aumentán­
dolos en un grupo de ratas y disminuyéndolos en otro
grupo. Los cambios deberían alcanzar la magnitud
determinada por el experimentador con el fin de
permitir al animal evitar el choque. Si no daba la
TESTIMONIOS ADICIONALES 75

respuesta adecuada el choque se presentaba en el


momento señalado, y continuaba hasta que el animal
escapaba dando la respuesta correcta, de aumento
o disminución de los latidos cardiacos. Al comienzo
se reforzaban cambios ligeros en la dirección reque­
rida, pero luego sólo era posible evitar el choque
mediante grandes cambios (aumentos o disminución,
según el caso). Este experimento tuvo completo éxito,
y demostró que las ratas pueden ser reforzadas por
premios diferentes de la estimulación cerebral, y que
aprenden a discriminar entre las señales que indican
choque y las que indican no choque (porque tam­
bién se controló este factor).
Una variante de la retención estudiada antes fue
probar si las ratas que habían aprendido a aumentar
o disminur los latidos del corazón bajo la influencia
del curare retenían la respuesta cuando no estaban
bajo la acción de la droga. Dos grupos de ratas fue­
ron entrenadas en la forma antes descrita, a aumen­
tar o disminuir los latidos del corazón, y se proba­
ron dos semanas después sin curare. Se observó que
retenían la respuesta aprendida.

TESTIMONIOS ADICIONALES

Un resumen completo de los trabajos realizados por


Miller y sus discípulos en esta área se presenta en
el cuadro 2, especificando el fenómeno estudiádo, los
resultados obtenidos, los sujetos de experimentación,
si se hallaban bajo la influencia del curare o no, qué
refuerzo se utilizó y quién hizo la investigación. El
cuadro muestra resultados de experimentos que con­
tinúan, y que están abriendo una nueva era en el
estudio del aprendizaje, con consecuencias teóricas y
prácticas de largo alcance.
Fue posible lograr contracciones intestinales, sin
cambios en los latidos del corazón, y cambios en los
latidos del corazón sin contracciones intestinales, lo
cual indica que las respuestas son sumamente especíji-
EXPERIMENTOS SOBRE APRENDIZAJE DE RESPUESTAS VISCERALES Y GLANDULARES

10 Respuesta Refuerzo Sujetos Curare (?)

aumento O dismi- agua perros no

SWSOSOHSQS
nución
1 cora- aumento o dismi- estimulación eléc­ ratas curare
nución trica del cerebro
99
I cora- aumento o dismi- evitar choque eléc­
nución trico
99 99
nes in- aumento o dismi- estimulación eléc­
nución trica del cerebro
nes in- aumento o dismi- evitar choque eléc­ »» 99

nución trico
99 99
>r m a- aumento 0 dismi- estimulación eléc­

d*
orina, nución trica del cerebro
glome-
o san-
>smola-
99 99
gástri- aumento o dismi- evitar choque eléc­
gao
suestas nución trico
as que
canti-
tgre en
s esto-
en la
99
nes es- aumento o dismi- estimulación eléc­ "
nudón trica
ontinuación)
EXPERIMENTOS SOBRE APRENDIZAJE DE RESPUESTAS VISCERALES Y GLANDULARES

io Respuesta Refuerzo Sujetos Curare (?)

vaso- aumento o dismi- estimulación eléc- ratas curare DiC;


:riféri- nución trica Mili
estimulación eléc- »» ••
anguf- aumento o dismi- DiC;
; p e n- nución trica Mili
c latí-
orazón
[el co- aumento o dismi- estimulación eléc- »*
DiC;
nución trica Mili
en on- aumento de voltaje gatos no Mili
¡rales promedio, o n d a s Cara
lentas, disminución
del alerta o dismi-
nución del voltaje
promedio, o n d a s
rápidas, aumento
del alerta
en on- aumento de voltaje estimulación eléc- ratas curare
>rales promedio, o n d a s trica Can
lentas, disminución
del alerta o dismi-
nución del voltaje
promedio, o n d a s
rápidas, aumento
del alerta
78 APRENDIZAJE VISCERAL Y GLANDULAR

cas, Miller insiste en que no se deben a cambios


homeostáticos, generales, del organismo. Se encontró
que entre mejor se aprendía una respuesta menos se
alteraban las otras, o sea que se volvía más específica.
Por todo esto, los resultados no pueden explicarse por
aumento o disminución en el nivel de activación, o
por algún mecanismo parecido de índole general. Se
trató de aprendizaje específico de respuestas viscerales,
logrado por medios instrumentales.
Los trabajos realizados con la formación de la
orina en el riñón son especialmente interesantes; el
refuerzo fue la estimulación cerebral, en animales
bajo la acción del curare; las mediciones se llevaron a
cabo por medio de un aparato electrónico que re­
gistraba el número de gotas de orina formadas cada
minuto; a las ratas se las llenó de agua a todas
horas, con el fin de que este factor (la cantidad de
agua en el organismo) no variara y no tuviera in­
fluencia sobre los resultados. La cantidad de orina
formada en el riñón aumentó o disminuyó según los
deseos de los investigadores y según que el refuerzo
se diera para lo uno o para lo otro. Las diferencias
entre los dos grupos (reforzado para aumentar o re­
forzado para disminuir) fue significativa al nivel del
1%. En este mismo experimento se tomaron ciertas
medidas adicionales con el fin de entender los efectos
en forma más satisfactoria. Se midió la filtración por
medio de insulina marcada con carbono 14. El flujo
sanguíneo a la región renal se midió por medio del
ácido aminohipúrico 3H-p. Se observó que cuando
se refuerza la disminución en la formación de orina
ésta tiene mayor osmolaridad. Los cambios logrados
(la formación de orina, la filtración glomerular,
el flujo sanguíneo y la osmolaridad) pueden expli­
carse por cambios en la proporción de la filtración
y la reabsorción.
Se pudieron obtener en otro experimento varia­
ciones en la cantidad de sangre de las paredes esto­
macales. Aumento o disminución de las contracciones
APLICACIONES 79

estomacales. Y respuestas vasomotoras periféricas (va­


soconstricción o vasodilatación), tan específicas que
fue posible lograr vasodilatación en una oreja de la
rata y no en la otra.
La presión sanguínea pudo variarse independien­
temente de los latidos del corazón, lo cual demuestra
la especificidad de este tipo de aprendizaje. En otro
experimento ratas sin la acción del curare apren­
dieron a variar los latidos del corazón. Miller y Car-
mona lograron variar las ondas cerebrales en gatos
sin curare, y producir un aumento en el voltaje
promedio, con ondas lentas y disminución del estado
de alerta, o lo contrario, o sea disminución del
voltaje promedio, ondas rápidas y un aumento en
el estado de alerta. Carmona realizó otro experimen­
to, con ratas bajo la acción del curare con el fin
de evitar los efectos de la estimulación sensorial, y
logró los mismos cambios en ondas cerebrales obte­
nidos anteriormente en gatos.
En Brasil, Lico, Hoffman y Covian [1968], traba­
jando independientemente de Miller, lograron simi­
lares resultados en conejos anestesiados, lo cual añade
interés adicional a esta área del aprendizaje viceral
y glandular.

APLICACIONES

El aprendizaje visceral tiene seguramente importan­


tes funciones evolutivas, ya que los organismos son
capaces de aprender las respuestas que les producen
como refuerzo alimento, agua o escapar del dolor,
todo lo cual es esencial en la evolución. El hecho de
que sea posible adquirir instrumentalmente respues­
tas viscerales y glandulares puede tener importantes
consecuencias para la noción de homeostasis.
Miller [1969] está tratando de aplicar sus descu­
brimientos al tratamiento de síntomas psicosomáti-
cos. Es un hecho que por medio del aprendizaje es
posible producir severos trastornos psicosomáticos, y
80 APRENDIZAJE VISCERAL Y GLANDULAR

el ejemplo más extremo se logró con ratas a las cua­


les se reforzó por disminuir los latidos del corazón
hasta que murieron. Quizá muchos trastornos a nivel
humano se hayan producido con base en similares
tipos de aprendizaje. La cultura es otro factor impor­
tante, ya que la expresión de las emociones está se­
veramente limitada por el marco de referencia cultu­
ral; en forma similar la predisposición a ciertos
trastornos está comprobado que tiene un origen
cultural.
Miller y otros investigadores han aplicado los
principios presentados en este capítulo para tratar
los siguientes tipos de síntomas psicosomáticos: arrit­
mias cardiacas de origen orgánico, suprimir las
ondas anormales en el e e g de los epilépticos, y
ciertos síntomas de "somatización” (trastornos visce­
rales de origen psicógeno). Actualmente trabajan en
el tratamiento del insomnio usando estos medios.
Miller y sus discípulos insisten en las importantes
implicaciones que estos experimentos tienen para
la teoría del aprendizaje, las diferencias individuales
en respuestas autonómicas, la explicación y curación
de los síntomas psicosomáticos y la comprensión de
la homeostasis normal.
8

M O TIVACIÓ N

El concepto de “ motivación” es una variable inter­


mediaria, com o lo son también el concepto de "apren­
dizaje” o el concepto de “ inteligencia” . Estos con­
ceptos hipotéticos existen en todas las ciencias, no
únicamente en psicología. N o observamos nunca la
“ motivación” sino que observamos el comportamien­
to motivado, y de allí inferimos la existencia de la
motivación; en la misma forma, en la física no se
observa el "calor” sino los cuerpos calientes. Como
Lindsley [1957] dijo, la situación sería similar al
hecho de observar un auto en movimiento; la gaso­
lina sería la motivación, pero no la podríamos estu­
diar nunca directamente y nos limitaríamos a ob­
servar el comportamiento del auto y de ahí a hacer
inferencias en relación con la gasolina (mucha gaso­
lina, poca, etc.). La situación es similar en otros
conceptos, y nunca observamos, por ejemplo, la “ in­
teligencia” sino el comportamiento inteligente.
Sin embargo, la motivación se puede manipular
(lo cual equivaldría a poner más o menos gasolina
en el auto, para usar la analogía anterior). Variamos
una serie de factores, por ejemplo privamos al animal
de alimento o de agua, o le presentamos un incentivo
particular, y observamos ciertas alteraciones en su
comportamiento, por ejemplo que aprende más rá­
pido, comete menos errores, muestra un nivel de
actividad mayor, o cualquier otra consecuencia. La
motivación lleva a iniciar el comportamiento, a sos­
tenerlo, a adquirir ciertas respuestas y a activar
respuestas aprendidas antes. La figura 13 presenta
el esquema de la motivación y muestra qué se en-
[81]
82 MOTIVACIÓN

tiende por variable intermediaria: no observamos


nunca el eslabón intermediario sino que lo inferimos
por las condiciones antecedentes y el comportamiento
consecuente.
El comportamiento consecuente se observa, las
condiciones antecedentes se manipulan, y la variable

Condiciones
antecedentes comportamiento consecuente

iniciación del —
comportamiento
- privación consistencia del
incentivo comportamiento
MOTIVACIÓN adquisición
estimulación
. nociva selectiva de respuestas
activación
selectiva de respuestas
. previamente adquiridas—

f i g u r a 13. Esquema de la motivación

intermedia se infiere. Algunos psicólogos [Bolles,


1958, 1967] se han preguntado si es necesario que
aceptemos la existencia de esta variable intermedia,
o si se trata de algo superfluo que no añade nada
a nuestros conocimientos ni a nuestro esquema de
explicación; sin embargo, la mayoría de los científicos
consideran que este concepto es necesario en la ex­
plicación del comportamiento.
Algunas personas han presentado un esquema de
las propiedades de la motivación, por ejemplo que
excita y activa (o energiza el comportamiento), y que
lleva a seleccionar ciertos estímulos del ambiente y
no otros; estas propiedades de activación y selectivi­
dad pueden considerarse como relativamente bien
establecidas en el estado actual de nuestros cono-
MOTIVACION 83

cimientos, aunque se siguen discutiendo en los círcu­


los de especialistas.
Las razones por las cuales actúan los hombres han
preocupado a filósofos y psicólogos a lo largo de toda
la historia de la humanidad. £1 problema adquiere
enorme importancia especialmente cuando se trata
de entender por qué un individuo actúa en forma
antisocial, por qué va a hacer la guerra a un pueblo
vecino, por qué destruyó la propiedad ajena, y
demás problemas de significación social. Con el
surgimiento de la psicología científica en el siglo xix
y su enorme desarrollo en el x x, esos problemas pa­
saron a la esfera de la ciencia, y se trataron de estu­
diar en el laboratorio y en las observaciones de cam­
po. Lo mismo que en las demás ramas de la
psicología, este problema se ha atacado desde dos
puntos de vista: el experimental, que ha consistido
en realizar experimentos con hombres y animales,
hacer “ modelos” de la situación, alterar en forma
cuantitativa las condiciones antecedentes y medir el
comportamiento consecuente; y el punto de vista
clínico, que reside en estudiar las anormalidades y
alteraciones de la motivación y tratar de entender
sus causas. En el primer caso se trataría de variar la
cantidad y calidad de la gasolina del auto, y en el
segundo de estudiar autos que han sufrido serias
alteraciones, que se han estrellado y medio destroza­
do. En realidad los dos enfoques no son completa­
mente opuestos sino complementarios. Un buen aná­
lisis del estado actual del estudio de la motivación
desde diferentes puntos de vista puede hallarse en
un número especial de la Revista de Psicología
(Bogotá), dedicado al problema de la motivación
[Revista, 1964].
Sabemos que algunos motivos son comunes a
todos los hombres, que otros motivos son comunes
a algunos hombres y que existen también motivos
que no son comunes a dos hombres. En el primer
caso se trataría de las necesidades humanas genera-
84 MOTIVACIÓN

les (alimento, abrigo y también necesidades psicoló­


gicas como dar y recibir afecto, lograr autoestima-
ción etc.); en el segundo, de motivos específicos a
cierto grupo de hombres (por ejemplo la necesidad
de conocer y de explicar el mundo que existe en los
científicos). Y en el tercero, de las necesidades que
se supone son específicas de un individuo en parti­
cular y no de los otros.

NECESIDAD E IMPULSO

La anterior discusión introdujo el concepto de nece­


sidad, que es otra idea básica en la psicología de la
motivación. Existen necesidades primarias y secun­
darias. Las primarias son las que resultan de déficit
biológico (por ejemplo de falta de alimento); las
secundarias son “aprendidas” y relacionadas con las
necesidades primarias. Sin embargo, esta división
básica ha sido puesta en duda por Harlow [1953], y
más adelante en este capítulo estudiaremos un "nue­
vo enfoque” de la motivación.
Según Hull [1943] el organismo durante la evolu­
ción aprende a satisfacer sus necesidades primarias
en cierta forma, lo cual tiene un gran valor adapta-
tivo y sirve a la supervivencia del individuo o de la
especie. Hull afirmó que existen las siguientes ne­
cesidades primarias: necesidad de varias clases de
alimento (hambre), de agua (sed), de aire, de evitar
daño orgánico (dolor), de mantener una cierta tem­
peratura (ni muy alta ni muy baja, según la estruc­
tura del organismo en cuestión), de orinar, de defe­
car, de descansar (después de ejercicio prolongado),
de realizar actividad (después de la inactividad pro­
longada), de tener contactos sexuales y de cuidar a los
hijos.
Estas necesidades primarias no son aprendidas,
el organismo nace con ellas y depende de la estruc­
tura del cuerpo. En la enumeración anterior las
primeras se refieren a la supervivencia del individuo
NECESIDAD E IMPULSO 85

(comer, orinar, descansar), y las dos últimas (sexo


y cuidado de los hijos) a la supervivencia de la es­
pecie.
Según Hull el origen de la motivación está en
estas necesidades biológicas del organismo, y el efecto
de ellas es producir actividad. Sin embargo, el or­
ganismo no satisface realmente necesidades sino im­
pulsos (drives). Aunque la diferencia entre nece­
sidad e impulso puede parecer a veces insignificante
es muy importante desde el punto de vista de
la psicología de la motivación. El impulso a comer
crece con la necesidad del alimento, en progresión
continua; pero después de cierto punto, cuando ha
pasado mucho tiempo sin alimento, el impulso a
comer disminuye, mientras que la necesidad de
alimento sigue aumentando. Necesidad e impulso son
dos conceptos diferentes. Los organismos actúan,
aprenden con el fin de reducir impulsos, según Hull,
lo cual indirectamente implica la reducción de las
necesidades biológicas.
El concepto de impulso fue propuesto por W ood-
worth [1918] y ha servido como sustituto del concepto
de instinto. Los impulsos se han multiplicado, en la
misma forma en que se multiplicaron los instintos
en la etapa precientífica de la psicología, y la situa­
ción se volvió un poco caótica. Existen “ impulsos”
a comer cierto tipo de alimento, a explorar, a cono­
cer, a tener estimulación sensioral, etc., hasta un
punto tal que el concepto de “ impulso” ha perdido
buena parte de su importancia, y en la psicología
contemporánea no tiene mucho prestigio.
Hay tres concepciones principales de impulso: 1]
Hull [1943] dijo que impulso es una construcción
hipotética, entre ciertas condiciones antecedentes y
cierto comportamiento consecuente. En su sistema se
representa con la letra D, y entra en la fórmula basica
a multiplicar la resistencia del hábito.

sEr = sHr X D
86 MOTIVACIÓN

donde sEr es el potencial de excitación, sHr es la


resistencia del hábito y D es el impulso (drive). Esta
concepción de Hull es el análisis más importante
que se ha hecho del concepto de impulso. Las otras
han sido reacciones contra ella.
2] Skinner [1953] insistió en que impulso no es
una entidad sino simplemente una palabra, para ex­
plicar un conjunto de operaciones. Manipulamos
unas condiciones antecedentes y damos un nombre
(“ impulso” ) al resultado de esa operación. Privamos,
por ejemplo, al animal de comida y decimos que esto
ha producido un “ impulso a comer”. Entre menos
construcciones hipotéticas de este tipo tenga nuestra
psicología mejor será su status. Skinner es muy claro
cuando dice que el impulso no es un estímulo, ni
un estado fisiológico, ni un estado psíquico, ni sim­
plemente un estado de resistencia o fuerza [1953, pp.
143-146], Es una palabra para describir una serie de
operaciones.
3] Dollard y Miller [1950] dicen que impulso es
cualquier estímulo fuerte. O sea que cualquier estí­
mulo suficientemente intenso adquiere la propiedad
de impulsar el comportamiento.
Estas interpretaciones de impulso se contraponen
drásticamente a la opinión de Bolles [1967], quien
opina que es mejor descartar de una vez por todas
la noción de impulso; según ¿1 entre mejor conozca­
mos la naturaleza de los estímulos y su efecto sobre
el organismo, más inútil será el concepto de impulso.

IMPULSO Y MOTIVO

Los impulsos están arraigados en las necesidades


primarias del organismo. Los motivos en cambio
contienen elementos aprendidos. Un motivo es con­
secuencia del impulso y de ciertas conexiones apren­
didas. El motivo se caracteriza porque se orienta a
metas y porque es aprendido. En realidad es posible
afirmar que el impulso se limita a activar el compor-
EL IMPULSO A COMER 87

tamiento y a señalar ciertos estímulos del ambiente;


el aprendizaje hace lo demás. Las conexiones apren­
didas llevan al organismo a identificar el objeto que
persigue, y a responder en una forma o en otra a
los impulsos.
En el comportamiento humano todas las tenden­
cias a la acción se basan en motivos, algunos comunes
a todos los hombres, otros a algunos, y otros que
son específicos del individuo. T od os los aspectos
sociales se fundamentan en motivos, no en impulsos.
Los impulsos explican simplemente lo que está ahí
con base en las necesidades primarias, o sea con base
en la estructura del organismo.

EL IMPULSO A COMER

La mayor parte de las investigaciones sobre motiva­


ción se han realizado usando com o necesidad prima­
ria la deficiencia de alimento y com o impulso el
impulso alimenticio (hambre). Esto se debe simple­
mente a un accidente histórico y a la facilidad con
que podemos controlar las variables al investigar
estos fenómenos relacionados con el hambre. Pode­
mos privar al animal de comida por un tiempo es­
pecífico, privarlo de cierto alimento que necesita
(por ejemplo calcio), podemos medir concretamente
cuántas bolitas de alimento consume, con qué velo­
cidad recorre el laberinto entre más hambriento está,
etc. Sin embargo, el problema del hambre es de una
enorme complejidad. Se eligió porque se creía que
era “simple” y en realidad parece ser mucho más
simple que el sexo o el impulso a dormir, por
ejemplo.
El análisis que sigue muestra cuáles son los pasos
que hay que dar para estudiar el impulso alimen­
ticio, cuáles son las preguntas que el investigador
formula, cómo las responde, qué problemas se plan­
tea y cuáles se pueden resolver. En general es posible
88 MOTIVACIÓI*

hacer el mismo análisis para cualquier impulso, va­


riando los detalles según el fenómeno en cuestión.
a) Preguntas:
1] ¿Cómo sabe el animal que necesita alimento?
¿Cuánto alimento?
2] ¿Cómo se activa el comportamiento de comer?
¿Cómo se detiene?
3] ¿Solamente la falta de comida activa el com­
portamiento de comer? ¿Es acaso específico a la de­
ficiencia específica de un tipo de alimento?
4] ¿Produce el déficit de alimento algún otro
comportamiento, diferente de comer?
5] ¿Hay uno o varios tipos de hambre? ¿Se dirige
un hambre específica a un alimento específico?
b) Respuestas:
1] Hay una serie de señales orgánicas que indican
al organismo la falta de alimento. Entre ellas se
encuentran las contracciones de las paredes del es­
tómago, que afectan los nervios y llevan las señales
al cerebro. Esta respuesta, sin embargo, no es satis­
factoria, porque si uno remueve quirúrgicamente el
estómago de un animal o de un hombre el hambre
continúa. Otra respuesta a la primera pregunta se
refiere a la química de la sangre, y ha dado origen
a la llamada "teoría glucostática” : el déficit de
alimento baja el nivel de azúcar de la sangre. A esto
se debe que la inyección de insulina, que produce
hipoglicemia, lleve también a comer. Sin embargo,
esta explicación tampoco es satisfactoria porque el
animal deja de comer antes que el azúcar llegue a
la sangre y solucione el déficit existente. Una varia­
ción de esta explicación ha llevado a postular la
existencia de una sustancia en la sangre, la "gluco-
dona"; Cannon demostró que, si se inyecta sangre
de un animal hambriento a un animal saciado, éste
empieza a comer.
2] El comportamiento de comer se inicia y se
detiene por dos tipos de factores:
a) Periféricos: de carácter oral (el gusto del ali-
EL IMPULSO A COMER 89
mentó) y de carácter gástrico (la contracción y la
expansión del estómago). Trabajos sobre el consumo
de sacarina muestran que estos factores periféricos
son bastante complejos, el animal consume sustan­
cias con sabor de azúcar pero sin valor nutritivo.
b) Centrales: en trabajos experimentales sobre la
influencia del sistema nervioso central en el com ­
portamiento de comer usando com o niétodos la
ablación la estimulación eléctrica o la estimulación
química, se han logrado aislar varios centros hipota-
lámicos. La estimulación eléctrica de la región lateral
del hipotálamo hace que el animal coma; la estimu­
lación eléctrica de la región ventromedial del hipo-
tálamo hace que el animal deje de comer. Las
investigaciones de Brobeck [1955], Anand [1955] y
Teitelbaum [1961] sobre estos centros regulatorios del
hambre son especialmente importantes. Se ha encon­
trado además que la amígdala y el globus pallidus
están relacionados con el comer (su destrucción
aumenta la ingestión de alimento). Ciertas estructu­
ras corticales lo están con la iniciación del comer
(parece ser el lóbulo temporal) y otras con la deten­
ción del mismo comportamiento. En todo caso, pare­
ce ser cierto que hay centros hipotalámicos sensibles
a la falta de alimento:
3] N o solamente el déficit de alimento activa el
comportamiento de comer. El sistema nervioso cen­
tral regula este comportamiento especialmente por
medio de la corteza. Tanto hombres com o animales
comen antes de necesitar alimento, y dejan de comer
antes de que se solucione el déficit de alimento. Es un
hecho que las condiciones de déficit interno n o son
Suficiente explicación. El incentivo del alimento pue­
de llevar a comer antes de lo requerido, o a comer
más de lo necesario. Se ha comprobado también que
el hambre no es función directa del número de horas
de privación, sino que está relacionada igualmente
con el programa de alimentación al cual está acos­
tumbrado el animal; si a un animal se le alimenta
90 ' >J MOTIVACIÓN

cada tres horas y a otro cada nueve horas, por ejem­


plo, privarlos a ambos de comida durante seis horas
no tiene el mismo efecto. El impulso alimenticio es
algo más que el simple número de horas de privación
de alimento. La situación experimental tiene mucha
importancia; si a un ave que acabó de comer se le
trae otro plato de comida vuelve a empezar, y en
esta forma come tres veces más de lo que comería
si se le presentara toda la comida a la vez. Sin duda
la percepción de la situación (por ejemplo el tamaño
de la pila de comida) no cambia la química de la
sangre. Si cortamos un grano de maíz en cuatro
partes, una gallina corre más rápidamente por lograr
las cuatro partes que por lograr el grano entero; es
un hecho que la cantidad no cambia, pero cambia la
apariencia, y esto influye básicamente en el impulso
alimenticio. Hay muchos factores aprendidos en este
impulso que pueden afectar los centros hipotalámi-
cos por acción de la corteza cerebral.
4] El déficit de alimento produce comportamien­
to diferente del de comer. En realidad parece que
existe un ciclo de actividad (según se mide por la
rueda de actividad, especialmente con ratas) que
coincide con las contracciones estomacales. En el mo­
mento en que hay más contracciones hay también
más actividad general, lo cual parece ser un meca­
nismo de gran valor adaptativo. L o mismo se ha
encontrado usando otras mediciones; un hombre se
traga un balón inflable que se conecta a un equipo
de registro automático; durante el sueño, cuando el
sujeto no se da cuenta de las contracciones estoma­
cales (que se registran en el exterior), aumenta la
actividad general; las contracciones y la actividad se
presentan al comienzo cada hora y media. En anima­
les el déficit de alimento condiciona la percepción
selectiva del ambiente. En el hombre, entre más
tiempo haya pasado sin comer mayor es el número
de respuestas relacionadas con el alimento que se da
en las láminas del Rorschach; sin embargo, este ex-
EL IMPULSO A COMER 91

perimento con sujetos humanos en situación clínica


tiene muchos puntos débiles; los sujetos sabían cuál
era el objetivo del experimento o lo podían sospe­
char, se les decía que regresaran al laboratorio 4, 6,
10 horas (o el número que fuera) después de haber
comido y se les daba el Rorschach; ellos podían
fácilmente sospechar que el experimento tenía algo
que ver con la influencia del alimento o su privación
en las respuestas dadas a las láminas de la prueba.
Especial importancia tienen a este respecto los
estudios sobre hambre realizados en la Universidad
de Minnesota con sujetos humanos. Duraron 6 me­
ses, y se les redujo 25% del peso del cuerpo.' Se
observaron efectos en la personalidad, en la vida
emocional y en la vida intelectual. Los sujetos no
querían estudiar, inventaban excusas, dejaban todo
para el día siguiente, no tenían interés en nada,
mostraban un estado general de debilidad, la sexua­
lidad disminuía notoriamente, aumentaba la apatía,
perdían el control de las emociones y eran capaces
de insultar o de herir según se les ocurriera; algunos
de ellos robaron platos, pocilios, libros de cocina y
demás objetos relacionados con la alimentación. El
síndrome general a la falta de alimento im plicó tam­
bién disminución de la sociabilidad y pérdida casi
total del humor. Sin embargo, lograron recuperarse
perfectamente cuando se les volvió a la dieta normal,
y todas estas alteraciones psicológicas desaparecieron.
T o d o esto demuestra que la falta de alimento
tiene consecuencias diferentes del impulso alimenti­
cio, entre las cuales se encuentran la actividad en las
ratas y una serie de trastornos de la personalidad en
los hombres.
5] El problema de la existencia de “ hambres es­
pecíficas" se ha estudiado en forma exhaustiva du­
rante los últimos 20 años, aunque en los últimos 5
los psicólogos parecen haber perdido interés en el pro­
blema. Se comenzó observando que un animal consu­
mía los alimentos que necesitaba para su superviven-
92 MOTIVACIÓN

cía; una rata parida que estaba alimentando su cría


consumía más calcio, potasio y grasas, “ porque” nece­
sitaba estas sustancias. Se notó que un animal con
déficit de calcio come más calcio que otro sin tal défi­
cit. Se puede variar experimentalmente esta necesidad
y observar los resultados en el consumo de alimento.
Un animal que no puede asimilar el azúcar no con­
sume azúcar. Las ratas a las cuales se les quitan qui­
rúrgicamente las glándulas adrenales consumen más
sal, única manera de balancear el déficit fisiológico.
Sin embargo, el cuadro es mucho más complicado;
los animales y también los hombres aprenden a gus­
tar de ciertos alimentos que no necesitan, como lo
prueban los millones de personas obesas que existen
en todo el mundo. Los niños consumen más azúcar
de la que necesitan, aunque observaciones ingenuas
hace 20 años parecieron indicar que el niño escoge
correctamente los alimentos que necesita. En los nu­
merosos estudios sobre este problema de las “ ham­
bres específicas” (hambre de calcio, de azúcar, etc.)
es posible aislar tres factores que influyen en la selec­
ción de alimentos:
1] existen necesidades fisiológicas específicas para
el metabolismo y el crecimiento;
2] el animal es capaz de identificar los alimentos
que necesita para satisfacer esas necesidades;
3] existen preferencias adquiridas por ciertos ali­
mentos, que pueden no ser los que el organismo
necesita, e incluso pueden oponerse a las necesidades
fisiológicas de metabolismo y crecimiento.
Cómo identifica el animal estas sustancias es algo
que nadie puede responder satisfactoriamente. Pare­
ce que se trata de un proceso aprendido, se seleccio­
nan sustancias más o menos al azar, por ensayo y
error, y se prefieren más adelante las que satisfacen
el déficit existente. Probablemente factores orales
(sabor) y gástricos (digestibilidad del alimento, etc.)
desempeñan un papel de enorme importancia.
Éstas son las cinco preguntas básicas que se for-
EL IMPULSO A COMER 93
muían los especialistas, y éstas las múltiples respues­
tas que se pueden dar a esas preguntas. El hambre,
que se supone es un impulso "simple” y básico, es
bastante más complicada de lo que parece. Las ex­
plicaciones van desde el nivel bioquímico hasta el
nivel social, y toman en cuenta la cantidad de azúcar
en la sangre o en el hígado y la "facilitación social”
en el consumo de alimentos de las aves.
¿Por qué sabemos que el animal tiene hambre?
Hay seis respuestas a esta pregunta tan elemental:
1] el animal está hambriento porque lo privamos
de alimento;
2] el animal tiene hambre porque está muy activo,
y la actividad es signo de falta de alimento;
3] el animal tiene hambre porque come;
4] el sujeto presenta contracciones estomacales,
como puede verse en el balón infiable que se tragó
y que ahora muestra la existencia de una contracción
estomacal;
5] el sujeto tiene hambre porque prefiere el ali­
mento a cualquier otra cosa; tiene un hambre espe­
cífica (por ejemplo hambre de calcio) porque prefiere
esta sustancia a cualquier otra;
6] el sujeto (humano) tiene hambre porque nos
dice que la tiene, nos dice que está experimentando
contracciones estomacales, etcétera.
Estas respuestas simples no siempre son válidas.
El animal come sin estar hambriento. Puede no
tener hambre aunque lo hemos privado de alimento,
dependiendo de su programa de alimentación. El
hombre que nos dice que tiene hambre puede estar
mintiendo o puede no entender nuestra pregunta.
Un análisis similar, en forma de preguntas, res­
puestas y definiciones básicas puede hacerse de los
otros impulsos: impulso de descansar, dormir, defe­
car, beber, tener relaciones sexuales, cuidar la cría,
etcétera. Véase Ardila [1973].
94 MOTIVACIÓN

IMPULSOS ADQUIRIDOS

Se ha observado que hombres y animales no actúan


simplemente para satisfacer las necesidades primarias,
las cuales dan origen a impulsos primarios. Existe
otro tipo de necesidades y de impulsos que se han
denominado “ secundarios” , "adquiridos” , etc., para
indicar que ocurren después de los primarios, y que
ocurren por asociación con ellos. Dashiell [1937] fue
el primero en hacer notar que cuando un estímulo
neutro se asocia con una necesidad primaria puede
adquirir propiedades de motivador, por ejemplo lleva
a activar el comportamiento. El sonido que precede
al alimento seria un ejemplo. Anderson [1941] trató
de probar que es posible adquirir impulsos, y habló
de “ externalización del impulso” .
Numerosos investigadores notaron que la caja en
la cual se dio el alimento a un animal adquiere pro­
piedades motivacionales (pone el animal en activi­
dad) aunque no contenga el alimento; se supone que
el alimento y el color y la forma de la caja se han
asociado a la satisfacción de la necesidad primaria
de alimento. La rata en una caja de Skinner pre­
siona la palanca para recibir como único refuerzo
el "clic” que se ha asociado antes con las bolitas de
alimento. W olfe [1936] encontró que los chimpancés
pueden aprender a realizar actividades muy comple­
jas para recibir fichas que pueden cambiar por uvas;
los chimpancés aprendieron a distinguir las fichas,
a trabajar por las de cierto color para cambiar por
uvas, las dé otro color por agua, etcétera.
Más específicamente, se ha realizado una serie
de estudios en los cuales se ha tratado de trabajar
con necesidades de carácter "positivo” , por ejemplo
acercarse a una caja pintada con líneas horizontales
en la cual se recibió alimento, y no acercarse a una
caja pintada con lineas verticales en la cual no se
encontró nada. Calvin, Bicknell y Sperling [1953]
hallaron resultados positivos con este tipo de nece-
96 MOTIVACIÓN

alimento u otro refuerzo "primario” . Los monos de


Harlow pasan mucho tiempo con estímulos comple­
jos y aprenden a presionar una palanca que abre una
ventana de la jaula para explorar visualmente el ex­
terior. Los primates manipulan instrumentos mecá­
nicos, lo que no lleva a la satisfacción de ninguna
necesidad primaria.
El principal problema con estos nuevos “ impulsos”
(curiosidad, impulso de explorar, etc.) era que tendía
a aumentar la estimulación (por ejemplo, ver objetos
fuera de la jaula), no a disminuirla, com o en el caso
del hambre. Algo no funcionaba en el m odelo ho-
meostático. El problema podía tener dos salidas:
a) Postular la existencia de otros impulsos, fuera
de los primarios estudiados por Hull. Hablar enton­
ces de un impulso de explorar, etcétera.
b) Decir que no se trata de necesidades en el sen­
tido usual del término, y que pertenecen a una nue­
va categoría de conceptos.
¿Se adquieren los impulsos? ¿Se aprende que cier­
tas cosas actúan como premios? ¿Se adquieren sim­
plemente nuevos hábitos? La estimulación eléctrica
del cerebro [Olds y Milner, 1954] planteó muchísi­
mos problemas nuevos, cuyas implicaciones se han es­
tudiado en otra parte [Ardila, 1969a]. En todo caso,
el animal buscaba aumentar la estimulación, no dis­
minuirla. Nissen [1954] insistió en que las variaciones
organísmicas tenían una importancia radical; dijo que
la motivación de una rata y de un mono difiere en
puntos básicos, y que “ la capacidad contiene su pro­
pia motivación” ; estaremos motivados a hacer aque­
llo que somos capaces de hacer (un atleta que no tu­
viera motivación para el ejercicio físico es algo un
poco absurdo).
La posición de Nissen tiene importantes consecuen­
cias, entre ellas que la motivación varía con la escala
filogenética. Quizá sea necesario hablar de una je­
rarquía de motivaciones (aunque Nissen no lo dice
NECESIDADES PSICOLÓGICAS 97

específicamente), como se ha hablado de una jerar­


quía de aprendizaje.

NECESIDADES PSICOLÓGICAS

Además de las necesidades "fisiológicas” existen otras


que son específicamente psicológicas. El hombre ha
descubierto que la explicación dt su conducta requie­
re la acción de otros impulsos o necesidades más allá
del déficit fisiológico. Sin embargo, estas necesidades
no se postulan con base en experimentos de labora­
torio sino en observaciones clínicas, en la mayor par­
te de los casos bastante inseguras. Y lo que es más, se
basan en diferentes filosofías. ¿Cómo podremos ele­
gir entre ellas? ¿Será simplemente un asunto de pre­
ferencia personal?
La primera clasificación de las necesidades huma­
nas se debe a Henry Murray [1938], quien se basó en
buena parte en la teoría psicoanalítica que en ese en­
tonces era mirada con profunda desconfianza p o - los
psicólogos científicos. Su lista de necesidades es una
enumeración bastante extensa y no completamente
aceptable. Para un estudio de ella remito al lector al
trabajo original de Murray [1938].
O tto Klineberg [1954] presentó una clasificación de
necesidades psicológicas con base en datos biológicos
y antropológicos. Propone cuatro categorías:
1] motivos que dependen en forma absoluta de una
base fisiológica y son universales; por ejemplo el ham­
bre, la sed, el sueño, la actividad, la eliminación;
2] motivos que tienen una base fisiológica pero
que admiten excepciones individuales; por ejemplo
el sexo, probablemente la autoconservación y el com­
portamiento materno después del nacimiento de la
cría;
3] motivos que tienen una base fisiológica indirec­
ta; ocurren con mucha frecuencia, pero tienen excep­
ciones a nivel social y a nivel individual. Ejemplo:
la agresión;
98 MOTIVACIÓN

4] motivos que no tienen una base fisiológica co­


nocida pero que ocurren con frecuencia debido a que
tienen patrones sociales en común, o a que son medios
de lograr fines prácticos. Ejemplo: el motivo grega­
rio, el motivo maternal antes de nacer el hijo, el mo­
tivo filial, etcétera.
Abraham Maslow [1954] presenta una clasificación
de necesidades humanas más completa y bien delinea­
da que las anteriores. Es una teoría que goza de gran
aceptación y que se ha usado com o fundamento de
muchas prácticas psicoterapéuticas. Según Maslow, los
motivos se agrupan en una jerarquía, que va desde los
más fuertes y dominantes hasta los más débiles. Es­
tos últimos sólo tienen importancia si se han satis­
fecho los anteriores. Para llegar a la segunda escala
de la jerarquía es preciso satisfacer antes las necesi­
dades de la primera, para llegar a la tercera, satisfacer
los de la primera y segunda, y así sucesivamente. La
escala de necesidades es la siguiente:
1] necesidades fisiológicas: hambre, sed, sexo, acti­
vidad física;
2] necesidades de seguridad: tanto necesidad física
com o psicológica;
3] necesidad de pertenencia y de amor: dar afecto,
pertenecer, tener raíces, hallar una respuesta afectiva
en otra gente;
4] necesidad de estimación: lograr una evaluación
estable y alta de nosotros mismos, con base en el au-
torrespeto.y en la estimación de las demás personas;
5] necesidad de actualización: hacer funcionar las
potencialidades que tenemos, integrar el comporta­
miento y realizarnos como seres humanos.
Maslow insiste en que las necesidades fisiológicas
están en la base de la jerarquía, y que el pan es im­
portante sólo cuando no hay pan. Cuando lo hay, en
cambio, es importante sentirnos seguros. Si las necesi­
dades fisiológicas y la seguridad se han satisfecho, en­
tonces buscamos amar y pertenecer. Y así sucesivamen-
MOTIVACIÓN Y APRENDIZAJE 99

te. Sólo llega a la cumbre de la autorrealización quien


haya satisfecho las otras necesidades.
R. W. White [1959] tiene otra teoría de las nece­
sidades psicológicas con base en el concepto de "efec-
tancia” . El hombre, según él, busca dominar el am­
biente en forma competente. Sin embargo, también
necesita orden y regularidad. Esta necesidad de acti­
vidad e innovación se contrapone a la necesidad de
orden y regularidad, y las dos explican la manera de
comportarse los hombres.
Estas cuatro clasificaciones de las necesidades psi­
cológicas (que se deben a Murray, Klineberg, Maslow
y White) no agotan el tema. Se han propuesto otras,
que son variaciones de las anteriores. Todas esas cla­
sificaciones de las necesidades humanas han sido cri­
ticadas severamente por los psicólogos científicos,
quienes se preguntan si son necesidades universales o
productos de una cultura determinada, que el inves­
tigador aceptó y pretende generalizar a toda la huma­
nidad. La necesidad de actualización no es igual en
los Arapesh y en el hombre occidental del siglo xx.
como no lo fue tampoco en la gente de la edad media
en comparación con nuestros contemporáneos. El con­
cepto, sin duda, varía con los individuos, la cultura
y el paso del tiempo. Un grupo de personas puede
querer ser rechazado (o actuar con el fin de ser re­
chazado) por la sociedad, pero en cambio buscar la
aceptación de otro grupo, com o sucede con los delin­
cuentes. De todas maneras, esas necesidades psicológi­
cas, aunque en el caso de la conducta humana sean
más importantes que las necesidades fisiológicas, sólo
pueden conocerse y estudiarse en forma indirecta.

m o t i v a c i ó n y a p r e n d i z a j e

Tanto la motivación com o el aprendizaje son varia­


bles intermediarias entre ciertas condiciones antece­
dentes y cierto comportamiento consecuente. Nunca
hemos visto la "motivación” ni el "aprendizaje” sino
100 MOTIVACIÓN

que los hemos inferido. Una enorme cantidad de ex­


perimentos realizados en el siglo xx muestran la for­
ma en la cual se relacionan la motivación y el apren­
dizaje. La figura 13 mostró el esquema de la motiva­
ción en términos de las condiciones antecedentes y el
comportamiento consecuente. En el caso del apren­
dizaje las condiciones antecedentes son la presenta­
ción (repetida) del estímulo (y probablemente su re­
fuerzo); el comportamiento consecuente es la mejora
de la ejecución (cometer menos errores, recorrer el
laberinto en menos tiempo, etc.); en el medio se pos­
tula una variable intermediaria, el aprendizaje. Colo­
co los factores de repetición y de refuerzo entre pa­
réntesis para indicar que no todos los investigadores
están de acuerdo en que sea necesario presentar el
estímulo repetidamente, ni que sea preciso que el re­
fuerzo siga a la acción con el fin de que se logre
aprender. Sin embargo, es altamente probable, a la
luz de nuestros conocimientos actuales, que tanto la
repetición como el refuerzo sean indispensables en
el proceso del aprendizaje.
La motivación se ha encontrado que afecta la eje­
cución, no el aprendizaje. Se nota que la amplitud
de la respuesta, por ejemplo, varía de acuerdo con
factores tales como el incentivo, según veremos más
adelante.
Thom dike fue el primer investigador que estudió
sistemáticamente la acción de la motivación sobre el
aprendizaje, en sus famosos experimentos con gatos
en situación de solucionar problemas. Con esos tra­
bajos, que se estudiarán en detalle en el próximo ca­
pítulo, Thom dike llamó la atención de los psicólogos
sobre la importancia de los factores motivacionales
en el proceso del aprendizaje.
Todas las investigaciones sobre el refuerzo se fun­
damentan en la ley del efecto de Thomdike. Respues­
tas seguidas por consecuencias "satisfactorias” tien­
den a repetirse, respuestas seguidas por consecuencias
"desagradables” tienden a no repetirse. ¿Por qué ac-
m o t iv a c ió n y a p r e n d iz a j e 101

túa la ley del efecto? Según Hull, se basa en la reduc­


ción de los impulsos, según Guthrie en la simple aso­
ciación por contigüidad, según Skinner lo mejor es
preocuparnos por estudiar los parámetros del refuer­
zo y olvidarnos de las explicaciones teóricas.
Hay una serie de factores que se han estudiado sis­
temáticamente y que relacionan motivación y apren­
dizaje. Entre ellos podemos considerar los siguientes:
1] La cantidad del premio: en la fórmula revisada
de Hull era preciso considerar los efectos que tenían
los incentivos en la ejecución:

sEr = sHr X D X K. X V

La ejecución (sEr, algo que observamos) es función


del hábito (sEr, que a su vez es función del número
de ensayos reforzados); el hábito se multiplica por el
impulso (D), por el incentivo (K) y por la intensidad
del estímulo (V). Con base en esta fórmula, y distin­
guiendo entre aprendizaje (una variable intermedia­
ria) y ejecución (algo que observamos), se pueden
planear tres experimentos que muestran la forma en
que la cantidad del premio influye en la ejecución.
a) A un grupo de animales se le da un incentivo
grande y a otro un incentivo mucho menor (por
ejemplo, en función del número de bolitas de comida
que se hallan al final del laberinto). Se notan claras
diferencias en el proceso de adquisición, siendo ma­
yor la ejecución del grupo que recibió incentivo
mayor. Después se extinguen ambos grupos (no se
da premio, hasta que dejan de responder y parecen
“olvidar” lo que han aprendido). Experimentalmente
se ha encontrado una curva com o la que se presenta
en la figura 14.
b) A un grupo de animales se le da un incentivo
alto y a otro un incentivo menor, igual que en la
anterior situación. Pero después de que han adqui­
rido el criterio de aprendizaje se invierten los incen­
tivos, los que antes habían recibido poco reciben
102 MOTIVACIÓN

14. Adquisición y extinción con incentivos


f i g u r a

(K) altos y bajos


EJECUCIÓN (sEr)

f i g u r a 15. Efectos de elación y depresión


MOTIVACIÓN Y APRENDIZAJE 103

16. Inversión del incentivo (K) sin efectos de


f i g u r a

elación o depresión

ahora mucho y viceversa. Se ha encontrado un efecto


de elación y un efecto de depresión, tal como se pre­
senta en la figura 15. Crespi [1942] realizó los traba­
jos más importantes sobre este punto.
Otros investigadores, sin embargo, han hallado
una curva diferente, que se presenta en la figura 16.
2] Los programas de refuerzo', el segundo factor
importante que se ha estudiado sistemáticamente al
estudiar motivación y aprendizaje se refiere a los pro­
gramas de refuerzo. Un estudio completo de ellos se
presentó en el capítulo 6, al estudiar el condiciona­
miento operante. En general se sabe que en situacio­
nes operantes el refuerzo parcial es más resistente a
la extinción que el refuerzo dado en el 100% de los
ensayos. Si el animal no recibe alimento en todos
los casos, resiste más a la extinción, o sea que con­
tinúa respondiendo cuando no se da refuerzo.
3] Retardo del premio: el premio es más efectivo
entre más pronto siga a la respuesta. Teóricamente
el premio actúa “ hacia atrás" con base en una huella
neural. El retardo es un factor de importancia ra­
dical en la eficacia del refuerzo. Entre más corto, ma-
104 MOTIVACIÓN
EJECUCIÓN ( ¡ E r )

TIEMPO QUE DEMORA EL REFUERZO

f i g u r a 17. Gradiente de refuerzo

yor es el efecto. Hull presenta una ecuación que da


una curva negativamente acelerada del "gradiente de
refuerzo” . La figura 17 presenta esa curva.
Es un hecho que los hombres puedan actuar por
premios que vienen mucho tiempo después; en nues­
tra especie el retardo del refuerzo es tan decisivo
como en las otras especies, pero puede ser mayor que
en cualquier otra especie.
9
CASTIGO Y APRENDIZAJE

Los problemas del castigo en el contexto de la psico­


logía del aprendizaje están en íntima relación con
los problemas de la motivación, estudiados en el
capítulo anterior. Sin embargo, el castigo, por su im­
portancia teórica y práctica y por la gran cantidad
de investigaciones que ha generado, merece un ca­
pítulo especial. El siguiente material se presentó, con
algunas variaciones, al xi Congreso Interamericano
de Psicología.
El castigo ha sido considerado tradicionalmente
como una forma de controlar la conducta, sea de
niños, delincuentes o animales. En realidad, el castigo
es la técnica de control más usada. Parece remontarse
a las primeras civilizaciones conocidas, y “ nuestros
contemporáneos primitivos" lo usan hoy en día con
el fin de socializar a los niños en unos casos, y de
vengarse de los enemigos en otros.
No siempre se requiere una persona que castigue;
puede ser la misma naturaleza, y en este sentido un
terremoto puede considerarse como castigo de "D ios”
o de los "dioses” .
En psicología el castigo aparece ligado a la educa­
ción. Se aplica con el objeto de evitar la repetición
de un acto. En este contexto se supone que actúa
com o opuesto al premio, lo cual no es estrictamente
válido como veremos más adelante. En algunos casos
el castigo significa simplemente no prestar atención,
retirar el cariño, decir que la acción está mal hecha,
etc. T o d o esto funciona com o castigo a nivel huma­
no, aunque no exista daño corporal.
La conducta castigada desaparece momentánea-
[105]
106 CASTIGO Y APRENDIZAJE

mente, como todos sabemos, pero vuelve a aparecer


más adelante, cuando los efectos del castigo se ex­
tinguen, a menos que se haya usado un estímulo
castigador de gran intensidad. Produce, además, efec­
tos secundarios que no se buscaban, emociones ne­
gativas, sentimientos de culpa, de vergüenza; el cas­
tigo paraliza muchos actos, y además lleva a escapar
de la situación total en que se recibió.
n En psicología contemporánea hay muchas posi­
ciones con respecto al castigo. Las dos principales
son; la de Skinner [1953] y sus seguidores, quienes
sostienen que el castigo es ineficaz a la larga para
cambiar la conducta, y en cambio hacen hincapié en
el refuerzo positivo: premiar el acto cuya repetición
se busca, no castigar el que se desea extinguir; ellos
hacen ver que los maestros escogen el camino más
fácil, el castigo, porque produce supresión temporal,
aunque a la larga sea completamente ineficaz para
controlar la conducta. La posición opuesta es la de
R. L. Solomon [1964] y otros psicólogos, quienes dan
importancia al castigo incluso en educación y psico­
terapia; el castigo, según ellos, tiene efectos inhibito­
rios graduales sobre la conducta.
Ambas posiciones cuentan con valiosos trabajos
experimentales a su favor. Los estudios de Muenzin-
ger [1934, 1948] parecen indicar que el castigo tiene
un efecto sensibilizador sobre el organismo; en sus
experimentos los animales aprendieron más rápida­
mente si recibieron un choque por las respuestas in­
correctas y, lo que es todavía más extraño, si lo re­
cibían por las respuestas correctas. Otros investigado­
res, sin embargo, hallaron resultados diferentes a los
de Muenzinger.
¿Qué se entiende por “ castigo” en estos trabajos
experimentales? No es simplemente aplicar un cho­
que eléctrico o dejar de prestar atención al niño que
se portó mal. En términos estrictos tenemos cinco
definiciones:
1] El castigo es el resultado de un estímulo que
CASTIGO Y APRENDIZAJE 107

produce un estado subjetivo desagradable [Thorndike,


1911].
2] “ Castigo es un aumento de estimulación rela­
tivamente súbito y doloroso, que sigue a la ejecución
de una acción” [Mowrer 1947, p. 136],
3] “ Castigo es un estímulo nocivo aplicado a una
conducta altamente motivada, que reduce la proba­
bilidad de que tal conducta se presente de nuevo”
[Deese, 1966].
4] “Castigo es un estímulo nocivo cuya termina­
ción u omisión producirá el surgimiento de nuevas
respuestas de escape o fuga” [Solomon, 1964],
5] “ Castigo es una reducción de la futura proba­
bilidad de una respuesta específica como resultado de
la producción inmediata de un estímulo por esa res­
puesta" [Azrin y Holz, 1966]. El estímulo se denomina
“ estímulo castigador” .
El castigo es un procedimiento, más que un con­
cepto psicológico. Consiste en dar un estímulo nocivo,
contingente con la respuesta; si el animal ejecuta la
respuesta recibe el castigo, si no lo hace no lo recibe.
Esta definición operacional será utilizada al analizar
los siguientes trabajos.
Estimulo nocivo se define com o aquel del cual
el organismo intenta escapar; se observa empírica­
mente que el animal prefiere no recibir ningún estí­
mulo que recibir este estímulo nocivo.
Se han utilizado los siguientes estímulos nocivos:
Skinner [1938] usó un golpe en la pata de sus anima­
les de experimentación. Estes [1944] utilizó un cho­
que eléctrico a través de una reja del piso; este es­
tímulo nocivo ha sido el más utilizado en otras
investigaciones porque permite controlar variables
tales como intensidad, frecuencia, área en la cual se
aplica, etc. Masserman [1943] usó un soplo de aire
con gatos, y una serpiente de juguete con monos.
Azrin [1958] y otros investigadores utilizaron el ruido
com o estímulo castigador con sujetos humanos. Un
choque eléctrico a ciertas zonas del cerebro también
108 CASTIGO Y APRENDIZAJE

sirve como estímulo castigador [Delgado el al., 1954],


Las investigaciones realizadas sobre esta cuestión
han alcanzado un alto grado de refinamiento. Versan
sobre los procedimientos del castigo; efectos del mis­
mo sobre la conducta adquirida por refuerzo positivo;
efectos sobre respuestas consumatorias (sexual, de
alimentación); sobre respuestas innatas; sobre res­
puestas establecidas por medio del mismo castigo,
com o en el caso de la discriminación.
Tienen en cuenta factores tales como la intensi­
dad del estímulo castigador, la proximidad al punto
donde se recibió ese estímulo, la fortaleza previa de
la respuesta, el intervalo entre la respuesta y el casti­
go, la clase de organismo con el cual se experimenta,
la adaptación al castigo (estímulos castigadores nue­
vos son más eficaces que aquellos a los cuales el ani­
mal está adaptado), refuerzo secundario (adquirido
por la proximidad del premio), si existe o no una
alternativa a la respuesta castigada, el desarrollo y
maduración del organismo en cuestión, etcétera.
La importancia de estos trabajos para una teoría
general de la conducta se centra en dos aspectos: el
papel del refuerzo, uno de los temas centrales y más
discutidos en psicología contemporánea; el concepto
de castigo está ligado al del premio, e incluye la idea
de refuerzo positivo y negativo, de incentivo, extin­
ción, etc., puntos éstos sobre los cuales los psicólogos
trabajan activamente en la actualidad.
£1 otro aspecto es la importancia práctica del
castigo. Si éste es ineficaz para cambiar la conducta y
sólo la inhibe momentáneamente, creando además
una ansiedad que se generaliza a la situación total,
quizá los padres y maestros deberían dejar de usarlo.
En cambio si tiene algún efecto, aunque sea indirecto,
sobre el moldeamiento de la conducta, ¿podrían acaso
los psicoterapeucas utilizarlo con sus pacientes?
VARIABLES IMPORTANTES 109
PROCEDIMIENTO CLÁSICO

El procedimiento seguido por Skinner [1938], Estes


[1944] e investigadores más modernos [Azrin y Holz,
1966; Ardila, 1967 b] es el siguiente:
a) Refuerzo: el animal de experimentación, gene­
ralmente una rata blanca, recibe alimento en un pro­
grama de reforzamiento intermitente hasta que se
alcanza un nivel de respuestas sustancial y estable.
b) Extinción: no se da alimento, se contabiliza el
número de respuestas ejecutadas por el animal.
c) Castigo: se da simultáneamente con la extin­
ción. Reside en breves choques eléctricos o golpes en
la pata del animal, que se dan después de cada res­
puesta. La extinción y el castigo se continúan hasta
que el nivel de respuestas es sumamente bajo.
d) Período sin castigo ni refuerzo positivo: se trata
de saber si la reducción de la respuesta persiste.
Los resultados obtenidos con ese procedimiento
son los siguientes:
1] Si el castigo se une a la extinción se obtiene
una mayor reducción de respuestas que si utilizamos
la extinción sola.
2] Cuando el castigo deja de aplicarse se presenta
un repentino aumento de respuestas, a pesar de que
la extinción ha terminado.

VARIABLES IMPORTANTES

I] Intensidad del estímulo castigador. Se ha logrado


supresión total con estímulos castigadores de inten­
sidad sumamente alta. Church [1963] separa cuatro
niveles de intensidad, cuyos efectos sobre la conducta
serían los siguientes:
a) Detectarlo: en este caso el choque es tan débil
que no tiene influencia notable sobre la respuesta.
Sin embargo, puede servir al organismo como señal.
b) Supresión temporal de la respuesta: se vuelve
a presentar completamente más adelante.
110 CASTICO Y APRENDIZAJE

c) Supresión parcial de la respuesta: se vuelve a


presentar en el futuro en forma incompleta; algunos
aspectos de la respuesta desaparecen del todo.
d) Supresión total: la respuesta desaparece com ­
pletamente y no reaparece nunca más.
2] Manera de introducir el estímulo castigador:
si se introduce repentinamente produce mucha ma­
yor supresión de la respuesta castigada. Masserman
[1943] notó que si se introducía a bajas intensidades
y gradualmente, los gatos de experimentación apren­
dían a soportarlo y seguían respondiendo.
3] Retardo: el castigo debe ir inmediatamente
después de la respuesta. Si se demora va perdiendo
gradualmente efectividad. Si en el diseño experimen­
tal el castigo se da después de cierto retardo es pre­
ciso tener cuidado para que no siga a una respuesta,
pues en este caso se asociaría con esta respuesta y no
con la que se quiere castigar.
4] Programas de castigo: se han utilizado especial­
mente dos:
a) Razón fija: se da un estímulo castigador por
cada respuesta, en la situación más simple; después
se da un estímulo castigador por cada enésima res­
puesta. Se ha observado que cuanto mayor es la pro­
porción de respuestas castigadoras, mayor es la reduc­
ción de las mismas.
b) Intervalo fijo : se da el estímulo castigador por
la primera respuesta emitida después de un tiempo
fijo desde el castigo anterior. Se ha observado una
supresión “ anticipatoria” : las respuestas caen al nivel
de cero cuando se acerca el momento de recibir el
castigo.
Se han estudiado otros programas de castigo (véa­
se Boe y Church, 1968).

CARACTERÍSTICAS DEL PROCESO DEL CASTIGO

Se han observado una serie de cambios de conducta


que parecen ser consecuencia del castigo.
EL PROCESO DEL CASTIGO 111
1] Supresión permanente: ésta es la característica
más importante. Se ha encontrado una completa
irreversibilidad, una vez que la respuesta se ha su­
primido. Permanece incluso después de que el castigo
ya no se aplica. La probabilidad de obtener seme­
jante supresión duradera es función de la intensidad
del estímulo castigador. Las respuestas no sólo se re­
ducen a nivel operante o incondicionado sino al nivel
absoluto de cero. Por esta razón, si el castigo es tan
severo que elimina la respuesta completamente, no
hay oportunidad para el animal de detectar que el
castigo ya no actúa.
2] Rapidez de los efectos del castigo: la reducción
es inmediata, de lo contrario no tiene efecto. Es tam­
bién función de la intensidad.
3] Recuperación durante el castigo: se observa si
el estímulo castigador es débil o medio. No se observa
con estímulos muy altos.
4] Recuperación después del castigo: se observa un
aumento después de que se termina el castigo; este
fenómeno se denomina efecto de contraste [Azrin y
Holz, 1966], Las respuestas ocurren en proporción
mayor que antes de comenzar el castigo; más tarde
regresan a la línea normal (de no castigo). Estes [1944]
observó este efecto y lo interpretó com o compensa­
ción. Realmente la interrupción del castigo tiene un
carácter reforzante.
íí] Discriminación: se presentan dos estímulos y se
castigan las respuestas que sigan a uno de ellos, no
las que sigan al otro. El animal aprende a discriminar
con relativa facilidad. O sea que el castigo ayuda a
discriminar entre las dos situaciones.
6] Generalización: el castigo no sólo reduce las
respuestas que preceden al estímulo castigador sino
también otras. La supresión se generaliza.
Desde otro punto de vista podemos afirmar que
el castigo tiene com o efectos principales suprimir la
respuesta castigada y otras que se le asocian, y servir
de señal para otros eventos; en este último caso el
112 CASTIGO Y APRENDIZAJE

castigo puede servir com o estimulo discriminatorio


de la presencia de alimento o de su ausencia, según
las condiciones experimentales.

THORNDIKE Y LA LEY DEL EFECTO

Después de conocer los detalles técnicos de la ex­


perimentación moderna sobre el problema del castigo,
estudiemos los principales trabajos que han intentado
explicar cóm o actúa y por qué. El fundamento más
importante se encuentra en Thorndike y la ley del
efecto.
El sentido común nos dice que los hombres actúan
en una forma o en otra porque anticipan las conse­
cuencias de sus actos. Unas acciones se inhiben mien­
tras otras se repiten, de acuerdo con sus consecuen­
cias. La ley del efecto, en su forma más simple, dice
lo siguiente: “ Las consecuencias satisfactorias forta­
lecen la conexión entre estímulo y respuesta, las
consecuencias insatisfactorias la debilitan” [Thorn­
dike, 1911].
Ha sido criticada por su carácter circular: no
sabemos si las consecuencias de un acto son “ satisfac­
torias” o no para un animal más que observando si
repite el acto o no lo repite. En otras palabras, un
estímulo aumenta, disminuye o no cambia la frecuen­
cia de las respuestas que lo preceden, y en este sentido
es llamado premio, castigo o estímulo neutro.
En 1932 Thorndike descartó la mitad de la ley
del efecto, disminuyendo la importancia del castigo.
Escribió: "El fortalecimiento de una conexión por
sus consecuencias satisfactorias parece ser, en vista de
nuestros experimentos y de ciertas consideraciones
generales, más universal, inevitable y directo que el
debilitamiento de una conexión por sus consecuen­
cias desagradables. Esta última parece ser más espe­
cializada, dependiendo de lo que el estímulo desagra­
dable en cuestión lleva a hacer al animal, e indirecto” .
Según esto los premios serían más efectivos que
THORNDIKE Y LA LEY DEL EFECTO 113

los castigos. El efecto de estos últimos sería más es­


pecializado e indirecto. Thorndike descartó la mitad
de la ley del efecto después de realizar varios expe­
rimentos sobre aprendizaje verbal; fueron diez prin­
cipales, en los cuales se premiaba al sujeto si elegía
la respuesta correcta, diciendo “bien” , o se le castiga­
ba si erraba diciendo "mal” . Se halló que decir “ bien”
fortalecía la conexión mientras que decir, “ mal” no
la debilitaba. Una respuesta podía incluso fortale­
cerse diciendo “ mal” si el sujeto la daba, y debilitarse
simplemente ignorándola. Thorndike concluyó que,
si decir “ mal” tenía algún efecto, era en todos los
casos indirecto: por las consecuencias desagradables
llevaba al sujeto a variar su respuesta y esto aumen­
taba la probabilidad de que diera la respuesta co­
rrecta.
En ese mismo año realizó otros experimentos con
pollos de 13 a 50 días de nacidos, sobre aprendizaje
discriminatorio; las respuestas incorrectas se castiga­
ban encerrando al animal en una caja pequeña. Se
hallaron resultados similares a los encontrados en
respuestas verbales con hombres. Thorndike con­
cluyó: "El premio siempre fortalece sustancialmente
la conexión; el castigo la debilita p oco o nada” .
Su experimento original ha sido criticado en rela­
ción a la probabilidad esperada por simple azar. Sin
embargo, Stone, al repetirlo en condiciones cuidado­
samente controladas, halló que decir “ mal” al sujeto
fortalece la respuesta más que no decirle nada.
Antes de dejar el tema de la ley del efecto, que
es uno de los principios más importantes de la psico­
logía del aprendizaje, es preciso distinguir dos aspec­
tos: la ley del efecto com o hecho empírico, y la ley
del efecto com o teoría general del refuerzo. En el
presente capítulo la consideraremos solamente com o
hecho empírico, sin negar su importancia en la ex­
plicación del refuerzo, que no podemos estudiar en
este lugar.
114 CASTICO Y APRENDIZAJE

LA OBRA DE B. F. SKINNER

Constituye uno de los pasos más importantes en


nuestra comprensión del fenómeno del castigo. Ya
en 1938 Skinner afirmaba que el castigo tiene sólo
efectos pasajeros sobre la conducta, y que las respues­
tas castigadas reaparecían posteriormente. Se obtiene
sólo una supresión temporal que no cambia la con­
ducta a la larga, por lo cual el castigo es una técnica
de control ineficaz, a pesar de su amplio uso.
En Science and Human Behavior [1953] analiza
en detalle los varios efectos del castigo. Distingue
entre efectos inmediatos y efectos a largo plazo. En
resumen los efectos son:
1] La conducta castigada desaparece momentánea­
mente pero vuelve a aparecer después de que el
castigo ha cesado.
2] El castigo genera emociones, entre las cuales
se encuentran sentimientos de culpa y de vergüenza
(a nivel humano). Estas emociones hacen que la falta
no se cometa nuevamente en el futuro.
3] Cualquier acto que reduce la estimulación
negativa obra com o refuerzo: la rata escapa no sólo
del estímulo castigador sino de toda la situación.
Los subproductos del castigo hacen que sea suma­
mente indeseable com o forma de evitar que se rea­
lice un acto. C om o el castigo carece de “ objetivo es­
pecífico” no sólo lleva a evitar el acto mismo que se
castigó sino muchos otros que lo acompañaron in­
directamente.
Skinner propone otros medios para cambiar la
conducta, o sea para debilitar una operante: modi­
ficar las circunstancias, permitir que se presente un
estado de saciedad, condicionar la conducta incompa­
tible por medio de refuerzo positivo. La importancia
relativa de estas formas de cambiar la conducta sin
recurrir al castigo dependerá de las situaciones espe­
cíficas. Skinner da más importancia al premio que
al castigo, como hizo Thorndike, y dice que es pre­
ESTUDIOS DE W. K. ESTES 115

ciso hacer hincapié "en el cielo” y no “ en el infierno” .


Ha pretendido aplicar sus ideas a una comunidad
utópica que describe en su novela Walden Two
[1948]; ha sido criticado tanto por los moralistas
com o por los sociólogos, pero de todos modos la idea
es digna de ser considerada. Se trata de una sociedad
fundada en el refuerzo positivo, en la cual los im­
pulsos antisociales se han extinguido usando las
técnicas de la “ ingeniería de la conducta” ; no existen
problemas morales ni elecciones erradas, todo el mun­
do elige correctamente, en forma automática. Los
métodos usados para educar a los niños son de las
partes más interesantes del libro, y de las más rele­
vantes para nuestro tema del castigo.

LOS ESTUDIOS EXPERIMENTALES DE W. K. ESTES

Estes [1944] siguió la metodología usada por Skinner.


Los sujetos de experimentación fueron ratas en cajas
de Skinner. Realizó dos tipos de experimentos: a) El
castigo relacionado con una respuesta específica. El
aniraal había aprendido a presionar la palanca para
recibir alimentos y ahora recibía choques eléctricos.
Estes midió la resistencia a la extinción de la respues­
ta de presionar la palanca (que fue aproximada­
mente de 200 en esa situación). Un grupo de ratas
recibió un promedio de nueve choques eléctricos,
mientras que el grupo de control no fue castigado.
Los animales del grupo experimental redujeron el
número de respuestas el primero y el segundo días,
pero durante el tercero se presentó un aumento com­
pensatorio. La resistencia a la extinción fue la misma
con o sin castigo. Estes concluyó que el castigo no
debilita la conducta de presionar la palanca sino
que produce solamente una disminución temporal
de las respuestas.
h) En el segundo tipo de experimentos Estes
utilizó el mismo castigo pero no correlacionándolo
con la respuesta. Se dio un choque, por ejemplo, cada
116 CASTICO Y APRENDIZAJE

30 segundos, pero no después de la respuesta. O b­


servó una supresión temporal semejante a la hallada
en los experimentos del primer tipo.
De estos trabajos el autor concluyó que el choque
produce un estado emocional difuso y generalizado,
una ansiedad que inmoviliza la conducta y compite
con la respuesta de presionar la palanca. Se trata de
una respuesta emocional condicionada ( c e r ).
Más adelante Hunt y Brady [1951] separaron los
efectos emocionales generalizados ( c e r ) y los efectos
específicqs del castigo, que llevan al animal a re­
tirarse de la situación. Bolles [1967] dice que el com­
portamiento del animal es muy diferente después del
castigo y después de la c e r .
Estes y Skinner consideran que existe un miedo
incondicionado al estímulo del choque; se generaliza
a toda la situación, al condicionarse, e interfiere en
la acción de presionar la palanca. Pero se extingue
cuando el animal ha estado un tiempo suficientemen­
te largo en la situación sin recibir castigo adicional.
Estes señala claramente que la acción del castigo es
temporal, y que una respuesta no puede ser eliminada
de un organismo sólo por medio del castigo.
Encontró también que el castigo intermitente es
más efectivo que el castigo regular, lo cual parece
ir contra el sentido común. Quizá se debe a que el
castigo intermitente crea más fácilmente un estado
emocional que reduce las respuestas.
Estes enumera varias consecuencias de sus intere­
santes trabajos:
1] Una respuesta no puede ser eliminada de un
organismo más rápidamente con la ayuda del castigc
que sin éste. El debilitamiento de una respuesta se
produce por falta de refuerzo, no por castigo.
2] Debido al estado emocional que produce, el
castigo elimina otras respuestas además de la castiga­
da. Carece de “ blanco específico” .
3] El castigo puede ser útil para mantener una
respuesta a intensidad débil. Es más efectivo si sí
TRABAJOS DE MUENZINCER 117
administra ocasionalmente, en vez de aplicarlo cada
vez que la conducta indeseada tenga lugar.
4] El castigo retardado es sumamente ineficaz.

TRABAJOS DE MUENZINCER

Pretenden demostrar que el castigo sirve al organismo


para diferenciar la respuesta correcta de la incorrecta.
Muenzinger y sus colaboradores realizaron dos tipos
de experimentos:
a) Se utilizó una caja de discriminación en forma
de T . Desde el punto en el cual el sujeto debía elegir
un brazo o el otro era visible una tarjeta blanca o
negra. Los 15 sujetos que formaban un grupo se
castigaron por elegir la respuesta errada; los 15 del
otro grupo no se castigaron. El grupo castigado co­
metió un promedio de 10.8 errores, el no castigado
de 30.0. O sea que aparentemente el castigo ayudó a
aprender más rápidamente el problema de discrimi­
nación visual. Según esto el castigo sería efectivo
porque obraría com o señal que ayuda al organismo
a discriminar.
b) En una situación similar los animales apren­
dieron una respuesta y recibieron choques por ejecu­
tar el acto correcto. Aprendieron más rápidamente
que el grupo de control que no recibió choques.
Varios factores deben tenerse en cuenta al analizar
estos resultados: el choque no es efectivo si se da
antes del punto en el que el animal elige un brazo
o ei otro, mientras que sí lo es si el animal ya ha
elegido. El castigo parece tener un efecto sensibiliza­
dor sobre la conducta. Debe ser relativamente débil
¡«ara que sea efectivo.
Originalmente se creyó que era preciso que el
animal pudiera desandar el camino errado y corregir
su respuesta. Pero resultados similares se obtuvieron
cuando el animal no podía corregir sus errores
[Muenzinger y Powloski, 1951].
£1 castigo lleva al animal a detenerse o a dismi­
118 CASTIGO Y APRENDIZAJE

nuir la velocidad que lleva al llegar al punto de la


caja de discriminación donde debe elegir. Si se le
tuerza a detenerse, por ejemplo haciendo un hoyo en
el piso, sobre el que debe saltar o rodear, se logra
igualmente una mejora en la discriminación.
Algunos psicólogos no aceptan las conclusiones de
Muenzinger y critican sus trabajos, especialmente
desde el punto de vista de la metodología utilizada.

LA OBRA DE N. E. MILLER

A Neal Miller (ver capítulo 7) se debe no solamente


la liberalización de los conceptos de estímulo y res­
puesta, sino también una importante teoría del con­
flicto, que en compañía de Dollard ha aplicado a los
problemas clínicos, de personalidad y de psicología
social. El elemento fundamental en los problemas
neuróticos, según Miller y Dollard, es un impulso
aprendido de miedo; por esto debe tratarse en rela­
ción con el problema del castigo.
Para Miller existen cuatro elementos básicos en
el aprendizaje, que son: impulso (drive), indicación
(icue), respuesta (response) y recompensa (reward).
La neurosis puede explicarse conociendo las caracte­
rísticas del aprendizaje previo del enfermo. El ex­
perimento clásico de Miller [1948] sobre el conflicto
tiene importancia suficiente para ser descrito en este
lugar. Reside en lo siguiente:
Se coloca una rata en una caja con dos comparti­
mientos, uno pintado de blanco con una rejilla en
el piso, el otro pintado de negro. Los dos están
comunicados por una puerta. Al comienzo el animal
explora ambos compartimientos y no muestra prefe­
rencia por ninguno de ellos. Después se lo coloca en
el compartimiento blanco y se le aplica una corriente
eléctrica a través de la rejilla del piso. Un gran nú­
mero de ratas colocadas en esta situación escapan al
compartimiento negro. La secuencia de recibir una
descarga y pasar al compartimiento negro se repite
LA OBRA DE N. E. MILLER 119

varias veces. Más tarde se coloca a la rata en el com ­


partimiento blanco sin descarga eléctrica, y se observa
que escapa rápidamente al otro compartimiento. Esto
indica que existe un impulso adquirido de miedo
que motiva la conducta de huida. Las características
del compartimiento blanco, sin la descarga eléctrica,
producen las respuestas emocionales que llevan a
huir de la situación.
Miller da gran importancia al hecho de que el
miedo es un impulso que puede adquirirse. Cuando
se colocó una puerta separando los dos comparti­
mientos, las ratas aprendieron a operar una rueda
para abrirla y pasar al compartimiento negro; lo
hicieron sin descargas eléctricas adicionales. Después
fueron capaces de aprender a operar una palanca
para abrir la puerta. En estos casos el motor fue el
impulso secundario (o adquirido) de miedo.
Este tipo de aprendizaje estaría en la base de la
neurosis, unido al concepto de conflicto. Miller y
Dollard citan com o ejemplo a un niño que es casti­
gado severamente por comportarse en forma inde­
pendiente; debido a estos castigos adquiere un impulso
secundario de miedo. C om o consecuencia cualquier
acción de carácter independiente le produce miedo,
mientras que las actitudes de sumisión lo reducen. El
niño huye entonces de todo lo que se parezca a in­
dependencia y “ escapa al compartimiento negro” , o
sea a la sumisión. Más adelante en la vida adulta se
presentará el conflicto entre logro de alguna meta
que sólo puede obtenerse mediante una conducta in­
dependiente, y el profundo m iedo a la independencia
adquirido desde la infancia.
Si el miedo es la causa primaria de las neurosis,
su extinción sería la forma de curarlas. Para ello se
utilizan las técnicas clásicas de extinción experimental.
Los autores reconocen la complejidad de estos fenó­
menos a nivel humano, la necesidad de que el pro­
ceso psicoterapéutico se realice en forma gradual y
no repentina.
120 GASTICO Y APRENDIZAJE

Miller ha trabajado durante varios años en su teo­


ría del conflicto. Habla de gradiente de proximidad
y gradiente de evitación que varían con la cercanía
a la meta. Los principales postulados de esa teoría
del conflicto son:
a) La tendencia a acercarse es más fuerte cuanto
más cerca este el organismo de la meta: es el gradien­
te de proximidad.
b) La tendencia a evitar un estímulo temido es
más fuerte cuanto más cerca esté el sujeto de ese
estímulo: es el gradiente de evitación.
c) La tendencia a evitar aumenta más rápidamen­
te con la cercanía del estímulo desagradable que la
tendencia a acercarse con la cercanía de la meta. O
sea que “el gradiente de evitación es más pronun­
ciado [steeper] que el gradiente de proximidad". Esto
se ve claramente al observar las curvas de ambos gra­
dientes.
d) La fuerza de la tendencia a acercarse o a evitar
varía directamente con la fuerza del impulso sobre
el cual está basada. Por ejemplo se requieren cho­
ques más fuertes para detener un animal más ham­
briento que a otro menos hambriento.
Miller enumera otros postulados que no es pre­
ciso recordar aquí. En cambio es interesante ver las
deducciones que extrae:
1] El sujeto se acercará a la meta y luego se
detendrá.
2] Se acercará más si aumentamos el gradiente de
proximidad; por ejem plo aumentando el hambre el
sujeto se acercará más a la meta.
3] Aumentando la fuerza del miedo se logra que
los sujetos se detengan más lejos de la meta.
4] Sujetos colocados más cerca del punto en el
cual han recibido choques comenzarán a correr más
rápidamente que si los colocamos más lejos de él.
Cuando Miller y Dollard aplican su teoría del
conflicto a la psicoterapia no se limitan a generalizar
LA OBRA DE N. E. MILLER 121

a partir de esos postulados y deducciones sino que


añaden varias definiciones parciales:
a) “ Cercanía” implica acercarse a la meta en espa­
cio, tiempo o cualquier otra dimensión definida
cualitativa o culturalmente.
b) “ Evitación” incluye inhibición y represión.
c) “ Proximidad" se extiende a respuestas que son
inhibidas o reprimidas.
Por ejemplo, recordar un suceso traumático es
análogo a acercarse al punto donde se recibió un
choque eléctrico en el pasado. Los pacientes con
problemas neuróticos (en forma análoga a los orga­
nismos inferiores en la situación experimental de
conflicto) van parte del camino hacia la meta y
luego se detienen; son incapaces de obtener la meta
o de dejarla. Si se aumenta la fuerza de la tendencia
a acercarse (aumentando la necesidad de lograr la
meta), o si se disminuye la fuerza de la tendencia a
alejarse (disminuyendo el miedo adquirido), el sujeto
se aproximará más a su objetivo.
En clínica es mucho más efectivo disminuir la
tendencia a alejarse (o sea en términos analíticos
“ analizar las resistencias”), que aumentar la tenden­
cia a acercarse. Esto se debe al hecho siguiente: si
aumentamos la motivación del paciente para acercar­
se, aumentamos también sin quererlo su miedo y sus
conflictos.
La teoría de Miller tiene una sólida base empírica
y se ha trabajado en el laboratorio. Sin embargo, mu­
chos psicoterapeutas se niegan a aceptar ese “ salto” del
laboratorio a la clínica, de los animales inferiores a
quienes se aplicó choques eléctricos al hombre que fue
castigado en su infancia. No es éste el sitio para ana­
lizar sus aplicaciones terapéuticas que han sido trata­
das en el libro de Dollard y Miller, Personality and
Psychotherapy [1950]. Podríamos concluir haciendo
notar que la teoría del conflicto de Miller ha sido
extendida por su autor a los siguientes campos: ex­
perimentos con animales, pruebas proyectivas, crianza
122 CASTICO Y APRENDIZAJE

de niños, neurosis, psicoterapia, combate, fenómenos


económicos, políticos y de relaciones internacionales.
Si estas generalizaciones son válidas o no lo son, queda
por ser estudiado.

SOI.OMON Y CHURCH

Solomon [1964], en uno de los artículos más impor­


tantes sobre el tema del castigo, defiende una teoría
del aprendizaje de dos procesos, a la manera de la
propuesta por Mowrer. Insiste en que considerar el
castigo como efectivo o inefectivo es una simplifica­
ción, debido a la gran cantidad de factores que deben
tenerse en cuenta. Distingue entre castigo por actuar
y castigo por no actuar, que tienen muchas similitu­
des; el castigo sería un caso especial de aprendizaje de
evitación. Solomon escribe que espera que el castigo
pueda llegar a usarse sin resultados secundarios perju­
diciales.
Church [1963] es muy cuidadoso en lo relacionado
con las definiciones, los parámetros a controlar, etc.
Muestra que un estímulo nocivo presentado depen­
diendo de la respuesta produce una supresión mayor
(o una facilitación menor) de la respuesta que si tal
estímulo no depende de ella. El estímulo nocivo, según
él, puede resultar en facilitación de la respuesta bajo
ciertas circunstancias y en supresión de la misma en
otras. Insiste en que el principal efecto del castigo es
la supresión de la respuesta.
Boardman publicó un caso de psicoterapia infantil
con base en el castigo. Un niño problema fue castiga­
do por sus padres en forma bastante severa, de acuer­
do con las indicaciones del psicoterapeuta; como con­
secuencia los síntomas desaparecieron, y parece que en
forma permanente. Numerosos autores han criticado
este caso, entre ellos D. R. Miller [1962], quien
afirma que el éxito aparente puede explicarse sin
aceptar la efectividad del castigo, y que los resultados
son mera inente temporales.
CASTIGO V ESTIMULACIÓN F.I.ÉCTRICA 123

CASTIGO V ESTIMULACIÓN ELÉCTRICA DEL CEREBRO

Fue primeramente estudiado por Delgado y sus cola­


boradores [1954]. En un experimento con gatos, a
cada sujeto se le colocó en un aparato con una re­
jilla en el piso y una rueda en la pared del lado.
U n choque eléctrico podía ser administrado a las
patas a través de la rejilla, y el gato podía, detenerlo
dando vuelta a la rueda.
Gatos con electrodos previamente implantados
aprendieron a escapar del choque en la pata dando
vuelta a la rueda. Después de esto se les dio un
choque en el cerebro. Los gatos mostraron al comien­
zo una conducta desorganizada pero pronto transfi­
rieron el hábito de dar vuelta a la rueda y en esta
forma detuvieron el choque. La estimulación central
parece ser desagradable, a juzgar por la conducta de
estos animales.
Resultados similares se han obtenido con ratas.
Aprendieron a recorrer un laberinto si se les admi­
nistraba un choque en el cerebro a través de los
electrodos crónicamente implantados cada vez que
entraban en un callejón equivocado. En general los
animales aprenden a escapar con igual rapidez de la
estimulación central desagradable como de cualquier
otro estímulo castigador.
Otras áreas del cerebro producen una estimula­
ción que el animal prefiere a otros tipos de premio.
Y existen también áreas ambivalentes.
En un segundo trabajo se utilizó el mismo proce­
dimiento usado por Delgado, pero un sonido fue
presentado com o estímulo condicionado, que se aso­
ciaba con la estimulación central desagradable. Si el
animal daba vuelta a la rueda poco después de escu­
char el sonido, podía evitar la estimulación central.
Después de varios ensayos los animales aprendieron
a hacerlo y asi evitar el «hoque en el cerebro. Cohén,
Brown y Br«>wn [1957] mostraron que es |x>sible
124 CASTIGO Y APRENDIZAJE

establecer una respuesta condicionada de evitación


usando estimulación central.

TEORÍAS DEL CASTIGO

Estes [comunicación personal, 1967] hace notar la


disparidad que existe entre el volumen de trabajos
experimentales sobre el castigo y las pocas interpre­
taciones teóricas del mismo. Church [1963] ha pre­
tendido dividir tales teorías en varios grupos. Sin
embargo, en realidad sólo existen dos interpretaciones
teóricas básicas:
1] Respuestas que compiten: fue elaborada por
Dinsmoor [1954, 1955] aunque su base puede encon­
trarse en Guthrie [1935]. Según esta interpretación,
el castigo en sí msimo no cambia la fuerza de la
respuesta que lo sigue pero proporciona la oportu­
nidad de que ocurra otra respuesta, sea directamente
o a través del miedo adquirido. El castigo es efectivo
si la respuesta que produce impide la ejecución de
la respuesta castigada; en otras palabras, el castigo
no debilita la respuesta castigada pero produce res­
puestas que compiten con ella.
2] Respuestas emocionales: El castigo produce un
estado emocional, que por condicionamiento clásico
puede asociarse con otros estímulos. Es la explicación
postulada por Estes y Skinner. Estes [1944, p. 36]
escribió: “ Es claro, entonces, que un estímulo que
produzca un trastorno o un trauma causa en el
organismo un cambio de estado, de la clase común­
mente denominada ‘emocional’, y que cualquier es­
tímulo presente simultáneamente con el estímulo
que trastorna se convierte en estímulo condicionado,
capaz de producir tal estado en las siguientes oca­
siones”.
Hace muy poco tiempo Estes terminó una revi­
sión de su teoría original. Es una teoría de supresión
cuyo mecanismo principal no es una competencia
c o n c l u s ió n ; v e n t a j a s y d e s v e n t a ja s 125

entre respuestas sino entre motivos. Sus principales


postulados son:
1] El mantenimiento de la conducta no refleja
incluye la edición de estímulos discriminativos y de
elementos amplificadores procedentes del impulso.
2] La activación de los sistemas de impulso ne­
gativo por el dolor o la anticipación del dolor in­
hibe, recíprocamente, los elementos amplificadores
procedentes de las fuentes de impulso positivo.
Estes reconoce que los trabajos de Miller [1963]
y de Stein [1964], de carácter fisiológico, tienen in­
fluencia sobre su nueva teoría. Ellos postulan un
mecanismo activante, probablemente localizado en el
hipotálamo, que intensifica los actos que están ocu­
rriendo; es puesto en acción por los premios. Un
segundo mecanismo es puesto en acción por los cas­
tigos y tiene un efecto opuesto. Estos dos meca­
nismos, de “sigue” (go) y "alto” (stop) como sus
autores los denominan, se inhiben uno al otro.
La nueva teoría de Estes está relacionada con su
enfoque matemático, de selección de estímulos (sti-
mulus sampling theory). Da cuenta de los paráme­
tros estudiados en relación con el castigo, tales como
los efectos del retardo, de la intensidad, de la canti­
dad de entrenamiento previo, de la adaptación al
castigo, etcétera.

c o n c l u s ió n ; v e n t a j a s y d e s v e n t a j a s

Ahora, al final de nuestro recorrido, es posible eva­


luar en perspectiva todo lo que sabemos sobre el pro­
blema del castigo. Las principales razones por las
cuales este método se utiliza cada vez menos en el
control de la conducta humana son las siguientes:
1] Se afirma que es menos efectivo que las solu­
ciones alternativas, especialmente menos que el pre­
mio y, en general, el refuerzo positivo. En oposición
a esto, algunos investigadores muestran que el castigo
es muy efectivo y que se logra la supresión “ total”
126 CASTIGO Y APRENDIZAJE

de la respuesta si se utiliza suficiente intensidad. Sin


embargo, a nivel humano no sabemos cuál sea esa
intensidad y en todo caso sería suficientemente alta
como para causar efectos secundarios indeseables.
2] Produce efectos colaterales que no se buscaban.
Entre ellos tenemos los siguientes: rigidez [Maier,
1949], úlceras [Brady, 1958], masoquismo [Masserman,
1943], diversos tipos de neurosis, problemas de con­
ducta [Sears et. al., 1957].
3] Es cruel e innecesario, causa en el individuo
gran cantidad de emociones negativas, odio a la per­
sona que castiga, sentimientos de depresión, etc. Estos
efectos emocionales implican una alteración general
del comportamiento, pero han sido muy discutidos
[Hunt y Brady 1951].
4] Produce dos tipos de agresión: a) operante,
dirigida contra el objeto que castiga; b) provocada,
contra otros objetos, compañeros, individuos que no
tienen ninguna relación con el castigo; esta agresión
provocada se ha encontrado en diversas especies y en
diversos grados de estimulación dolorosa.
5] Causa separación y aislamiento: a nivel huma­
no el castigo lleva a escapar de la situación total. Por
ejemplo, el niño que ha sido castigado en la escuela
tiende a escapar no sólo del estímulo castigador sino
de la escuela y de todo lo que ella implica. Este
efecto ha sido considerado por numerosos investiga­
dores como la mayor desventaja del castigo.
A pesar de todo, el castigo se usa. El 99% de los
padres entrevistados por Sears y sus colaboradores
[1957] habían castigado alguna vez a sus hijos en
forma física; sin embargo, sólo el 50% creía en la
efectividad de este tipo de castigo.
En algunos casos parecería que el individuo obtu­
viera consecuencias satisfactorias del castigo, porque
busca su repetición. Esto se observa en el niño que
comete faltas para ser castigado y llamar la atención;
en la compulsión a confesar y a castigarnos a nosotros
mismos por ciertos errores cometidos y especialmente
CONCLUSIÓN; VKNTAJAS Y DESVENTAJAS 127
en el caso del masoquismo, clínicamente considerado.
Una persona que sólo recibe simpatía cuando
sufre, tenderá a aumentar sus sufrimientos, reales o
imaginarios, para obtener este afecto que necesita;
algunos niños sólo reciben atención de sus padres
cuando se comportan mal, y en esta forma se con­
vierten en niños problema con gran facilidad. Para
eliminar este comportamiento hay dos soluciones:
a) Dar atención y afecto por cualquier acto que
no implique sufrimiento ni compasión, ni merezca
reprobación o castigo.
b) Retirar la atención y el afecto cuando el su­
jeto sufre en forma real o imaginaria, y cuando hace
algo "reprobable” con el fin de ser castigado y obte­
ner atención.
Estos casos en los cuales la persona parece buscar
el castigo no prueban que el estímulo castigador
produzca consecuencias satisfactorias por sí mismo,
sino que se asocia con el refuerzo positivo; en rea­
lidad sólo prueba la efectividad de este último, esto
es, del premio, sea en términos de atención, afecto,
escapar de la tensión insoportable, etcétera.
1] Extinción de los hábitos indeseables, por falta
de refuerzo, por saciedad o por cualquier otro mé­
todo.
2] Condicionamiento de los hábitos que se quie­
ren formar en su lugar.
En otras palabras, extinguir la conducta indesea­
da y reforzar el comportamiento que sea incompa­
tible con ella.
A pesar de la ineficacia del castigo a nivel indi­
vidual, y de la conveniencia de eliminarlo com o una
forma inadecuada de controlar el comportamiento,
esto sólo se logrará cuando se cambien los conceptos
de mérito, venganza y responsabilidad, que están
muy arraigados en nuestra cultura.
10

GENERALIZACIÓN

El problema de la generalización del estímulo y la


respuesta ha preocupado a los psicólogos desde que
comenzaron a trabajar usando el paradigma del con­
dicionamiento clásico. Un estímulo dado desencadena
una cierta respuesta, pero los estímulos cercanos
tienden también a desencadenar esa respuesta. Por
otra parte, una respuesta desencadenada por un estí­
mulo no permanece aislada, y otras respuestas análo­
gas tienden a ser desencadenadas por ese estímulo.
Estos dos problemas básicos, la generalización del
estímulo y la generalización de la respuesta, consti­
tuirán el tema del presente capítulo.

GENERALIZACIÓN DEL ESTÍMULO

Un organismo casi nunca percibe dos veces el mismo


estímulo en las mismas circunstancias; en otras pala­
bras, un estímulo no se repite casi nunca en la
misma forma. Por esto es preciso que exista algún
mecanismo capaz de explicar el que el organismo
reaccione a estímulos nuevos com o reaccionaba a
estímulos conocidos antes. Este mecanismo ha sido
llamado irradiación espacial o generalización por
Pavlov [1959], quien lo encontró en sus experimentos
y le dio gran importancia.
Cuando un organismo ha sido condicionado a
responder a un estímulo particular, estímulos simila­
res pueden también desencadenar la respuesta aun­
que no hayan sido usados antes. Gráficamente sería
en la forma indicada en la figura 18.
ri281
GENERALIZACIÓN DEL ESTÍMULO 129

Ex
E2
e 3------------- >R
E4
e5

f ig u r a 18. Generalización del estimulo

Originalmente el estímulo 3 se asoció con la res­


puesta; por ejemplo un tono de 1 000 db (en el ex­
perimento de Pavlov) se estableció com o estímulo
condicionado ( e c ) ; otros tonos adquirieron espontá­
neamente la capacidad de producir la respuesta, dis­
minuyendo proporcionalmente a la distancia que
había entre dichos tonos y el tono original de 1 000
db.
D ebido a la importancia del principio de genera­
lización, los trabajos experimentales sobre este tema
abundaron en las últimas decadas. Se usaron dife­
rentes tipos de estímulos, se aislaron las variables
que influyen en el proceso, se estudió la relación
entre generalización y discriminabilidad, el papel que
desempeña la experiencia previa, etc. Una descrip­
ción completa de nuestros conocimientos actuales so­
bre generalización del estímulo puede hallarse en
Mostofsky [1965].
Los trabajos de Hovland [1937] mostraron que
el gradiente de generalización puede representarse
como una curva cóncava. Hovland usó un método
psicofísico y estímulos auditivos. Hull [1943] insistió
en que la fuerza de la respuesta disminuye simétrica­
mente en ambas direcciones, a lo largo de la dimen­
sión del estímulo. Esta posición era simplemente una
ampliación de los experimentos de Hovland.
Últimamente se ha encontrado que el método de
prueba tiene influencia decisiva en el tipo de curva
que se halla. Por esto se considera que ninguna
curva representa realmente todos los gradientes de
130 GENERALIZACIÓN

generalización. Wickens, Schroder y Snide [1954], por


ejemplo, utilizando condicionamiento con el psico-
galvanómetro y presentando un solo estímulo a la
vez, hallaron una curva de generalización en forma
de campana. La conclusión que se puede extraer en
este momento es que diferentes métodos de prueba
producen diferentes gradientes de generalización.

CLASES DE ESTÍMULOS

1] Estímulos visuales: dentro de éstos el tamaño ha


sido el factor más utilizado en la experimentación.
Grice y Saltz [1950] entrenaron grupos de ratas para
que recorrieran un callejón y encontraran un disco
blanco con una pequeña puerta en el centro; en la
parte de atrás del disco había alimento, que los
animales podían alcanzar simplemente empujando
la puerta. Un grupo fue entrenado para responder
a un disco de 20 cm cuadrados, y el otro a un disco
de 79 cm cuadrados. Una vez que la respuesta se
hubo establecido, ambos grupos se dividieron en
varios subgrupos, y se probaron usando el procedi­
miento de extinción con círculos de 70, 63, 50, 32 o
20 cm cuadrados en un grupo y 20, 32, 50 o 79 cm
cuadrados en el otro; los dos grupos mostraron dife­
rentes curvas, pero en ambos casos la cantidad de
generalización disminuyó como una función de la
diferencia de tamaño entre el estímulo usado origi­
nalmente y el usado en la extinción.
2] Estímulos auditivos: el experimento de Hov-
land [1937] con seres humanos no ha sido el único
en usar estímulos auditivos. Miller y Greene [1954]
y Jenkins y Harrison [1960] los utilizaron en ratas y
palomos, obteniendo gradientes de generalización del
estímulo. Un fenómeno interesante a este respecto es
el llamado “ efecto de octava’’. Se encontró que la
respuesta a un tono que estaba exactamente una
octava por debajo del tono original producía una
INTERPRETACIONES 131
respuesta significativamente mayor que otros tonos
más cercanos al tono original [Humphreys, 1939].
3] Estímulos temporales: intervalos de tiempo se
han utilizado com o estímulo condicionado y como
estímulo generalizado, sobre todo en la caja de Skin-
ner. Se entrena a los animales a responder a un
cierto intervalo; cuando la palanca se presenta a in­
tervalos más cortos que aquellos a los que el sujeto
ha aprendido a responder, se observa que requiere
más tiempo para responder [Rosenbaum, 1951].
4] Estímulos verbales: los estudios de Osgood
[1953] sobre generalización semántica muestran que
el principio de generalización del estímulo opera
también en el lenguaje. Hay tres categorías: signo a
signo, objeto a signo, signo a objeto. En la categoría
"signo a signo” , que ha sido la más utilizada, se
presenta una palabra a la cual se condiciona una
respuesta; luego se presenta otra que tiene alguna
respuesta con la primera (sinónimo, antónimo, etc.)
y se observa que el fenómeno de generalización apa­
rece. Parece ser que los sinónimos producen mayor
cantidad de generalización que los otros tipos de
palabras.

INTERPRETACIONES DE LA GENERALIZACIÓN DEL ESTÍMULO

¿Por qué se generalizan los estímulos? ¿Qué inter­


pretaciones teóricas pueden darse del fenómeno? Una
serie de explicaciones se han dado, entre las cuales
destacan las siguientes:
1] Hull [1943] presentó una explicación muy
completa, que considera la generalización del estí­
mulo com o un proceso organísmico básico, relacio­
nado con el refuerzo. Este proceso básico se usa para
explicar las dos "paradojas” de Hull, a saber, la pa­
radoja del aprendizaje del estímulo y la paradoja de
la evocación del estímulo; estas paradojas se presen­
taron antes: ¿cómo es posible aprender un estímulo
si nunca se repite en forma exactamente igual? (esto
132 GENERALIZACIÓN

implicaría, naturalmente, que la repetición es in­


dispensable para el aprendizaje); ¿cómo es posible
evocar una respuesta si el estímulo original al cual
se ligó no reaparece nunca? La explicación de Hull
es que la respuesta no se liga a un sólo estímulo sino
a un grupo de estímulos adyacentes al estímulo
original. Hull distinguió también entre generaliza­
ción primaria del estímulo, en la cual la dirección
de similitud del estímulo se basaba en las caracte­
rísticas innatas del organismo, y generalización se­
cundaria, adquirida por medio del aprendizaje previo.
2] Lashley y Wade [1946] insisten en que la ge­
neralización del estímulo se basa en la incapacidad
del sujeto para discriminar las características del
estímulo. Dan gran importancia al factor atención,
que sería en cierta forma el fundamento de la dis-
criminabilidad. Los sujetos confunden los estímulos,
y por eso reaccionan a E4 como reaccionaron a E3.
La controversia entre la posición de Lashley y W ade
por una parte, y los partidarios de Hull por la otra,
se ha vuelto tradicional sobre este punto de la ge­
neralización del estímulo.
Rock, Lasker y Simón [1969] han estudiado la
generalización del estímulo como proceso de recono­
cimiento. Su posición es opuesta a la de Lashley y
Wade y da una interpretación diferente al problema.
3] Otros autores, especialmente Brown, Bilodeau
y Barón [1951], prefieren considerar la generaliza­
ción del estímulo como un simple fenómeno em­
píricamente observable, sin dar explicaciones teóricas.
Un organismo que ha sido entrenado a responder
a un estímulo específico responderá también en
ciertas condiciones a estímulos que previamente eran
neutros. Ésta es la posición más sencilla, y aunque
es cronológicamente posterior a la de Hull, tiene
menos partidarios.
GENERALIZACIÓN DE LA RESPUESTA 133

GENERALIZACIÓN DE LA RESPUESTA

Un estímulo que desencadena una respuesta dada


tiende también a desencadenar respuestas que son
similares a la respuesta original. La figura 19 pre­
senta el esquema teórico de la generalización de la
respuesta.

Ri
R2
E------------ ->Rs
r4
r5

f ig u r a 19. Generalización de la respuesta

Sin embargo, el problema de la similitud de res­


puestas (¿en qué se parecen R 2 y R 3?) constituye un
complejo problema para la psicología. Es claro que
cuando una respuesta se condiciona a un estímulo,
otras respuestas se le asocian en cierto grado, pero
es muy difícil establecer una dimensión de similitu­
des. Hull [1943] habló de jerarquía de familia de
hábito: el organismo nace con una familia de res­
puestas que tienen mayor probabilidad de ocurrir
que otras cuando surge una necesidad biológica; las
respuestas, según esto, se organizan en una jerarquía
en términos de su probabilidad de ocurrencia. La
generalización de la respuesta puede entenderse en
términos de jerarquía de familia de hábitos, aunque
Hull no estudió específicamente este problema.
Arnold [1945] investigó la generalización de la
respuesta primaria (en oposición a la generalización
de la respuesta secundaria, conceptos análogos a la ge­
neralización de los estímulos, primaria y secundaria).
En su experimento las ratas debían presionar una
palanca con una intensidad mínima de 30 o 60 gra­
mos con el fin de lograr el refuerzo. Al tabular los
134 GENERALIZACIÓN

resultados de la presión ejercida por cada animal,


Arnold encontró que variaban alrededor de una
presión promedio, que era mayor que la requerida
para activar el mecanismo del aparato. Las varias
presiones de la palanca, según el autor, reflejaban el
mecanismo de generalización (primaria) de la res­
puesta.
El fenómeno de la generalización de la respuesta,
con sus múltiples complejidades, no ha dado origen
a interpretaciones teóricas similares a las que se han
presentado en relación con la generalización del es­
tímulo. El mismo Hull sólo trató este problema en
forma indirecta. Los trabajos de Arnold y de los de­
más investigadores se han limitado a la parte empírica
del problema. La mayor parte de los psicólogos afir­
man actualmente que, si una respuesta r se asocia con
un estímulo e , otras respuestas similares a r tienen
una probabilidad mayor que el azar de ser desencade­
nadas por e . ¿Por qué ocurre en esta forma? ¿Por qué
el perro que aprendió a levantar la pata derecha
posterior al oír el tono de un zumbador levanta la
pata izquierda posterior si le amarramos la derecha?
Éste es un fenómeno que todavía no se entiende
completamente.
11

APRENDIZAJE DE DISCRIM INACIÓN

Los organismos en condiciones naturales son capaces


de escoger una cosa en vez de otra, distinguen la
sombra del predador, el olor del enemigo, los cantos
del macho durante el período de cortejo. Son capaces
de discriminar formas, colores, diferentes grados de
brillantez, sonidos y muchas clases de estímulos quí­
micos. Los psicólogos han querido investigar en el
laboratorio estos fenómenos con el fin de entender
sus variables y su alcance.
Bower define aprendizaje de discriminación com o
el proceso por el cual los estímulos llegan a adquirir
control selectivo sobre el comportamiento [Hilgard y
Bower, 1966]. Discriminación es el término que usa­
mos para describir este tipo de control. Sabemos que
el organismo puede discriminar entre dos estímulos
porque puede hacerse que responda selectivamente a
la presencia o ausencia de ellos, y que lo haga en
forma confiable. Podríamos definir discriminación
com o el proceso por el cual un organismo responde
a las diferencias entre estímulos. Hay dos tipos de
variables que actúan en el aprendizaje de discrimina­
ción:
a) Variables del estímulo: los órganos sensoriales
del organismo en cuestión deben ser capaces de
percibir el estímulo: por ejemplo los rayos ultravio­
leta no son un estímulo para el o jo humano. Es
preciso que el organismo pueda percibir la presencia
o ausencia del estímulo, y sus características diferen­
ciales (tamaño, brillantez, etc.). Estas variables del
estímulo no han interesado mucho a los especialistas
en aprendizaje de discriminación, quienes presuponen
[13 5 ]
136 APRENDIZAJE DE DISCRIMINACIÓN

que la especie animal que van a estudiar es capaz de


percibir la diferencia, según se sabe por investigacio­
nes previas, y pasan a estudiar otros fenómenos del
aprendizaje de discriminación propiamente dichos.
b) Variables motivacionales: el organismo da una
respuesta a un par de estímulos según el estado
motivacional en que se encuentre, y según su historia
previa de aprendizaje. Responde porque uno de los
estímulos se ha asociado con el premio y el otro con
la ausencia del premio. Responde porque "gana”
algo con responder. Estas variables motivacionales
han ocupado la atención de los psicólogos durante
muchos años.
El aprendizaje de discriminación com o rama de
la psicología comienza con los trabajos de Pavlov, y
debe mucho a hombres com o Kóhler, Lashley y
Spence.
En cierto sentido el proceso de discriminación es
el opuesto de la generalización [ver capítulo 10]. El
organismo no puede generalizar en forma ilimitada,
responder en forma idéntica a todos los estímulos
que tengan una cierta característica, por ejem plo a
todos los hombres que usen lentes; debe aprender
a distinguir entre ellos (su padre, su amigo X , el Dr.
Y, el Sr. Z, y una gran cantidad de desconocidos
usan lentes, y es preciso discriminar entre ellos, o
sea responder a ellos en forma diferencial). T o d o el
aprendizaje implica cierto grado de discriminación.

DISCRIMINACIÓN SIMULTANEA Y SUCESIVA

Existen dos métodos principales de estudiar la discri­


minación. Las definiciones se deben a Hunter, pero
los métodos fueron usados antes por Pavlov.
1] Método de discriminación simultánea: los dos
estímulos (digamos una tarjeta blanca y una tarjeta
negra) se presentan simultáneamente en cada ensayo;
la respuesta del animal reside en saltar, en caminar
por el callejón en el cual se encuentra el estímulo
TRANSPOSICIÓN 137

‘‘correcto’’, o empujar la puerta sobre la cual se halla


colocado ese estímulo.
2) M étodo de discriminación sucesiva: sólo uno de
los estímulos se presenta en cada ensayo, y el animal
debe aprender a dar una respuesta en presencia de
un estímulo y otra en presencia del otro. Por ejemplo
el animal podría aprender a ir hacia la derecha cuan­
do ambos estímulos son blancos, y a la izquierda
cuando ambos son negros. Este método también se
denomina método de contraste [Kimble, 1961], y fue
el usado por Pavlov.
El estudio del aprendizaje de discriminación lleva
implícito el problema de la atención, tema vedado en
la psicología científica hasta los años sesenta por sus
implicaciones “ mentalistas” . ¿Cómo se asocia una res­
puesta con un estímulo en vez de asociarse con otro?
¿Acaso el animal “ atiende’’ a un estímulo en vez de
otro? Más adelante estudiaremos el problema de la
atención con cierto detalle.

TRANSPOSICIÓN

W. Kóhler [1918] realizó un importante experimento


con pollos con el fin de probar algunos principios
básicos de la teoría de la gestalt, que él, Wertheimer
y Koffka defendían desde hacía varios años. El ex­
perimento residió en lo siguiente:
Un p o llo fue entrenado a picar una tarjeta gris
para recibir alimento, y aprendió a discriminar entre
esta tarjeta y otra idéntica en todo pero de un gris
más oscuro. Cuando aprendió a preferir la tarjeta más
clara, variando el orden de presentación, a derecha,
izquierda, etc., al azar, para controlar por preferencias
de posición, Kóhler le presentó otro par de tarjetas
grises; la más oscura era la que antes había sido más
clara, y la más clara guardaba con ésta la misma pro­
porción que las dos tarjetas originales; el animal pre­
firió la tarjeta más clara, en vez de elegir la que
había sido correcta originalmente. Kóhler dijo que el
138 APRENDIZAJE DE DISCRIMINACIÓN

animal había aprendido la relación entre los estímu­


los. Repitió su experimento premiando al sujeto por
elegir el estímulo más oscuro, en vez del más claro
com o en el experimento original, con el fin de con­
trolar por preferencias innatas del sujeto por el es­
tímulo más claro; obtuvo resultados idénticos, el
animal parecía responder a la relación “ mayor que”
y transponía su respuesta. Estos experimentos dieron
origen al estudio de la transposición, uno de los fe­
nómenos más interesantes del aprendizaje de discri­
minación.
La demostración de la transposición implica tres
etapas [Riley, 1968]:
1] Se entrena al sujeta (animal o humano) a ele­
gir un objeto de preferencia a otro que difiere de él
en alguna dimensión física, com o tamaño, color o
intensidad.
2] Se prueba al sujeto con un nuevo par de es­
tímulos, que generalmente difieren entre sí en la
misma medida en que diferían los estímulos origina­
les (de entrenamiento), pero que se han movido ha­
cia arriba o hacia abajo en la dirección del estímulo,
o sea que son más claros, más oscuros, más intensos,
etcétera.
3] El sujeto elige un estímulo y al hacerlo muestra
la misma preferencia relativa en la prueba que mostró
en la sesión de entrenamiento.
Si las letras A a Z representan puntos en un
continuo físico, en forma tal que la proporción- de
B a A es la misma que la proporción de C a B, y si
el sujeto aprendió originalmente a elegir B en pre­
sencia de A-B, entonces una prueba con B-C, siendo
C correcto, se denomina prueba de transposición
cercana; una prueba con cualquier otro par de estí­
mulos adyacentes (por ejemplo J-K) se denomina
prueba de transposición lejana.
La transposición se ha estudiado tradicionalmente
con estímulos visuales, pero recientemente se ha lo­
grado también con estímulos auditivos [McKee 8c
TRANSPOSICIÓN 139

Riley, 1962]. Muchas especies se han estudiado en


cuanto a transposición: hombres de todas las edades,
desde antes de adquirir el uso del lenguaje hasta la
edad adulta, chimpancés, monos macacos, ratas, pa­
lomos, pollos, tortugas de mar, cuervos, peces, etc. La
mayoría de las investigaciones, sin embargo, se han
realizado con niños y con ratas de laboratorio.
El estudio de la transposición ha sido el campo
de batalla de dos teorías de importancia central en
la psicología contemporánea: el enfoque del estímulo-
respuesta ( e - r ) y la teoría de la gestalt. Durante mu­
chos años únicamente se tuvo en cuenta la interpre­
tación de Kóhler, y se creyó que efectivamente los
sujetos respondían a la relación de los estímulos. Sin
embargo, en 1937 Spence presentó su famosa inter­
pretación con base en el enfoque e - r . La teoría de
Spence [1937] es una teoría absoluta, no relacional
como la de Kohler [1918]. Según ella, los sujetos
responden a las propiedades absolutas de los estímu­
los, no a su relación; los gradientes de excitación
e inhibición y su suma algebraica pueden explicar
los datos encontrados en los experimentos sobre
transposición. Spence muestra que al final del entre­
namiento de discriminación (al terminar la etapa 1
de las tres enumeradas arriba) el sujeto ha desarrolla­
do tendencias excitatorias (acercarse al estímulo po­
sitivo), e inhibitorias (no acercarse al estímulo ne­
gativo). Spence llama a estas tendencias e (excitación)
e i (inhibición). El estímulo positivo ( e +) es la parte
de la situación experimental que se ha correlacionado
con el premio; el estímulo negativo ( e ) es la parte
de la situación experimental que se ha correlacionado
con la ausencia del premio. Spence presenta una
figura muy bien conocida, que no es preciso repetir
aquí, en la cual se indica gráficamente cóm o los gra­
dientes de excitación e inhibición se combinan en la
situación de transposición, y cómo el sujeto responde
a los valores absolutos de los estímulos, no a su reía-
140 APRENDIZAJE DF. DISCRIMINACION

ción; sin embargo, los resultados son los mismos que


Kóhler y otros investigadores encontraron antes.
En este momento se han propuesto* otras interpre­
taciones de la transposición que no es necesario pre­
sentar aquí. Baste decir que la transposición es un
fenómeno muy bien establecido en la psicología con­
temporánea, y que existen dos interpretaciones bá­
sicas: que el sujeto responde a la relación entre los
estímulos (teoría relacional de Kóhler) o que res­
ponde a los valores absolutos de los mismos (teoría
absoluta de Spence). Cuál de las dos interpretaciones
sea preferible, depende ante todo de los postulados en
que se base el investigador.
La transposición es un fenómeno de enorme com­
plejidad, uno de los más complicados e interesantes
de la psicología del aprendizaje. Hay muchas varia­
bles que entran en juego, entre las cuales podemos
mencionar: la dificultad de discriminar entre los
estímulos, los efectos de contraste y de fondo, la edad
de los sujetos, la distancia entre los estímulos de
entrenamiento y los estímulos de prueba, el tiempo
entre el entrenamiento y la prueba, el método de
presentar los estímulos (simultáneos o sucesivos), la
cantidad de entrenamiento, si se trata de una tarea
o de varias a la vez, etc. Una descripción completa
puede encontrarse en mi monografía (en prepara­
ción) titulada Transposition: A Contribution to Ex­
perimental Psychology.

CONJUNTOS'DE APRENDIZAJE ( “ l EARNING SETs” )

Otra de las áreas más atractivas del aprendizaje de


discriminación es la formación de conjuntos de apren­
dizaje (learning sets). El fenómeno de los conjuntos
de aprendizaje fue descubierto por Harlow [1949] en
sus experimentos sobre aprendizaje de discriminación
en monos Rhesus, llevados a cabo en la Universidad
de Wisconsin. Se sabía desde antes que la práctica en
una serie de tareas de aprendizaje conduce a una me­
CONJUNTOS DE APRENDIZAJE 141

jora general en la habilidad del organismo para ma­


nejar situaciones de aprendizaje. Harlow dice que el
organismo "aprende a aprender” . Esto parece aplicar­
se a tareas de cualquier nivel de complejidad, y a
toda clase de sujetos.
En sus experimentos que le llevaron a descubrir
este interesante fenómeno, Harlow [1949] entrenó mo­
nos en largas series de tareas de discriminación, más
de 300 discriminaciones, en el aparato inventado por
él y denominado Wisconsin general test apparatus
( w g t a ); cada discriminación se presentó durante 6
ensayos. Con el avance de las series de problemas se
observó una enorme mejoría en la capacidad de los
monos para resolver problemas de discriminación; en
las últimas series los animales daban 98 por ciento y
más de respuestas correctas.
Harlow indicó que los animales aprenden a apren­
der, y explicó en esta forma el fenómeno del insight
o comprensión de la situación, que había sido estu­
diado antes por Kohler (1925). La conducta de com ­
prensión aparece sólo una vez que el sujeto ha tenido
mucha experiencia con la clase de problema en
cuestión; hasta ahora no hay ninguna prueba de que
exista insight (en animales ni en hombres) sin ex­
periencia previa en la situación del problema. Los
monos de Kohler resolvían sus problemas solamente
después de haberse familiarizado con la situación y
de haber ensayado varias soluciones. El insight puede
explicarse por conjuntos de aprendizaje y en esta for­
ma puede producirse en el laboratorio en condiciones
controladas.
Los conjuntos de aprendizaje se han estudiado en
monos, ratas, gatos, niños normales y retardados
mentales, y en todos los casos se han encontrado los
mismos principios. Parece ser que la velocidad con
que se forman los conjuntos de aprendizaje depende
del nivel filogenético del sujeto que aprende; se ha
observado que los chimpancés pueden formar con­
juntos de aprendizaje semejantes a los que forman
142 APRENDIZAJE DE DISCRIMINACIÓN

los niños retardados mentales, pero que lo hacen en


forma más lenta que los niños normales. Los conjun­
tos de aprendizaje pueden generalizarse, y de ahi su
utilidad y la posibilidad de explicar con su ayuda el
fenómeno de la "comprensión” .

ATENCIÓN

Al aplicar la navaja de Occam a los problemas tra­


dicionales de la psicología con el fin de sacarla de
los callejones sin salida en los que se encontraba a
comienzos del siglo xx, muchos conceptos debieron
descartarse radicalmente. Uno de ellos fue la "aten­
ción” , cuyas implicaciones mentalistas estaban en
contra de los intereses objetivos y científicos de la ma­
yor parte de los psicólogos. Ellos querían hacer que
la psicología fuera una ciencia tan exacta com o la
física, y muchas ideas deberían ser sacrificadas en
esta empresa.
Sin embargo, los neurofisiólogos y neuropsicólo-
gos siguieron trabajando en el problema de la aten­
ción, y fue un latinoamericano, Heinández-Peón, el
que realizó los más importantes descubrimientos so­
bre el problema de la atención y las variables fisio­
lógicas correlacionadas con ella. Sus investigaciones
sobre la habituación, el estado de alerta, el sistema re­
ticular activador del cerebro y demás cuestiones simi­
lares de neuropsicología llamaron la atención del
mundo científico y pusieron el concepto de “ aten­
ción” nuevamente dentro del ámbito de la ciencia.
En psicología, Trabasso y Bower [1968] y Lovejoy
[1968] han publicado los libros más importantes
sobre este tema, la atención en el aprendizaje, es­
pecíficamente en el aprendizaje de discriminación, y
han vuelto "respetable” el concepto que se descartó
durante casi 40 años.
Bower define la atención com o el control del
comportamiento que se lleva a cabo por acción de
sólo unos aspectos selectos del complejo de estímulo.
ATENCIÓN 143
Cuando el animal vuelve la cabeza y ajusta los ojos
de m odo que la imagen visual de un objeto se pro­
yecte en la retina en condiciones óptimas, decimos
que está atendiendo al estímulo, o a un aspecto de él.
Los receptores "periféricos” han sido los primeros en
merecer estudio por parte de los psicólogos; después
se consideraron los receptores "centrales” , que habían
sido señalados por Hernández-Peón. Según este in­
vestigador existían filtros o mecanismos que bloquea­
ban la llegada de estímulos, tanto a nivel del receptor
sensorial, como a nivel de la primera sinapsis del
tracto sensorial.
En experimentos sobre aprendizaje de discrimina­
ción realizados en los últimos años con sujetos hu­
manos se ha encontrado que, si a una persona se la
entrena con varias señales redundantes, en pruebas
posteriores se observa que su comportamiento está
bajo el control de un componente del com plejo de
estímulos, no de todos los componentes. En un ex­
perimento representativo Trabasso y Bower [1966]
entrenaron estudiantes a dar cierta respuesta ante
círculos rojos y otra ante triángulos azules, con mu­
chos estímulos irrelevantes para complicar más la
situación; después de entrenarlos se les dieron prue­
bas especiales sólo con el componente de color (rojo
o azul), o sólo con la forma (círculo o triángulo); se
observó que algunos sujetos aprendieron el significa­
do del color, pero sin entender nada sobre la forma,
otros aprendieron el significado de la forma pero
sin entender nada del color, y otros aprendieron
ambas señales (la forma y el color). Se dice que los
sujetos “ prestaban atención" al color, a la forma, o
a ambos tipos de señales.
Los modelos matemáticos que se han ideado para
explicar la acción de la atención en la selección de
estímulos han alcanzado un altísimo nivel de refina­
miento y de elegancia [ver Trabasso y Bower, 1968;
Lovejoy, 1968]. Son mucho mejor elaborados que las
explicaciones dadas previamente en los estudios sobre
144 APRENDIZAJE DE DISCRIMINACIÓN

formación de conceptos, y pueden servir para la


misma finalidad.
En todo caso, parece que los sujetos humanos y
animales tienen la capacidad de seleccionar un aspecto
de la situación como estímulo, y actuar de acuerdo
con las señales de esta clase. Se consideran atributos
relevantes los que están correlacionados con el pre­
mio. La operación de codificación o “ respuesta de
codificación” ha merecido serio estudio, pero toda­
vía no se entiende completamente. Parece ser que las
respuestas codificadas se arreglan dentro de una
jerarquía, y que varios factores (especialmente el
aprendizaje previo), influyen en esa jerarquía. Los
sujetos son capaces de inventar o descubrir la manera
de codificar información relevante y de dejar pasar
la información irrelevante.
12
EXTIN CIÓ N

LA EXTINCIÓN COMO PROCESO Y COMO PROCEDIMIENTO

El término “ extinción" se refiere a un procedimiento


experimental y a un proceso psicológico. Muchas
veces se usa el término "extinción experimental",
pero la extinción parece ser un fenómeno de carácter
general. Reside en lo siguiente: después de establecer
una respuesta condicionada se presenta el estímulo
condicionado repetidamente sin el estímulo incon­
dicionado (sonido sin alimento, en el experimento
original de Pavlov); el resultado es una reducción
gradual de la amplitud de la respuesta. Se dice que
la respuesta se ha extinguido cuando la respuesta
condicionada ha desaparecido del todo.
Como procedimiento, la extinción consiste en
presentar el estímulo condicionado sin el estímulo
incondicionado. Com o proceso psicológico se refiere
a la explicación del fenómeno, ya sea en términos
comportamentales o en términos fisiológicos. M o­
dernamente la extinción se refiere a la desaparición
de la r c por cualquier procedimiento que sea, no
únicamente por la omisión del fi» com o en la formu­
lación original. En condicionamiento operante al no
dar alimento en la caja de Skinner por presionar la
palanca se dice que los sujetos están en proceso de
extinción. La desaparición de la respuesta (el pro­
ceso psicológico) también se denomina extinción.
La figura 20 presenta un caso teórico de extinción
experimental; la curva es similar a la que se encuen­
tra en la mayor parte de los casos. La amplitud de
la respuesta en el primer ensayo de extinción es 100%

[145]
146 EXTINCIÓN

(el experimentador la denomina así). La disminu­


ción en la amplitud de la respuesta en ensayos suce­
sivos se expresa en porcentajes de esta respuesta
original.

ENTRENAMIENTO Y EXTINCIÓN

Entre mayor es la cantidad de entrenamiento más


fuerte es el hábito y mayor la resistencia a la extin­
ción. A esto se debe que la resistencia a la extinción
se haya usado como medida de la resistencia del há­
bito, aunque es una medida poco confiable y está
cayendo en el descrédito. Se ha observado que se­
guir dando refuerzos, en forma continua, después
de alcanzar el criterio de aprendizaje (procedimiento
conocido com o sobreaprendizaje, y similar al fenó­
meno del mismo nombre en aprendizaje verbal)
aumenta la resistencia a la extinción. Sin embargo,
si el problema es demasiado simple y el entrena­
miento se prolonga mucho, se obtienen resultados
RECUPERACIÓN ESPONTÁNEA 147
opuestos a los anteriores: la resistencia a la extinción
es menor que en sujetos no sometidos al sobreapren­
dizaje [Ison, 1962].

DESINH1BIC1ÓN

Pavlov encontró que, si se introduce un estímulo ex­


traño durante el procedimiento de extinción ex­
perimental, se produce un aumento en la respuesta
durante ese ensayo. Según Pavlov la extinción sería
la ¡nliibicirin (Ir la respuesta, y el estimulo extraño
inhibiría la inhibición, causando una respuesta ma­
yor. lista ‘‘inhibición de la inhibición” no se ha
explicado a nivel fisiológico pero se utiliza a nivel
compnrtamental y es uno de los principios básicos
del sistema de Pavlov.

RECUPERACIÓN ESPONTÁNEA

La respuesta que se ha extinguido reaparece algunas


veces espontáneamente después de cierto tiempo. La
recuperación espontánea es generalmente parcial, no
completa. Pavlov encontró que después de extinguir
una respuesta condicionada de salivación, un breve
descanso producía un aumento de secreción salival
ante el estímulo condicionado.
Mientras que Pavlov estudió la recuperación
espontánea en el condicionamiento clásico, Ellson
[1938] lo hizo en aprendizaje instrumental, y Ardila
[19696] en aprendizaje de evitación. Ellson deseaba
cuantificar algunos principios de comportamiento
según la teoría hulliana, y específicamente la recu­
peración del sHr como función del tiempo que sigue
a la extinción; entrenó ratas para que presionaran
una palanca, extinguió la respuesta y midió la re­
cuperación espontánea después de diversos períodos.
Los resultados de este experimento mostraron que la
recuperación espontánea es una función negativa­
mente acelerada del tiempo transcurrido desde la
148 EXTINCIÓN

extinción; la recuperación ocurre rápidamente al


comienzo, y se nivela con el paso del tiempo. Ellson
encontró también que la naturaleza de la función
depende de la fuerza original de la respuesta condi­
cionada, del número de ensayos de extinción y del
número de veces que la respuesta se ha extinguido y
recondicionado.
Hull [1943] escribió que la recuperación espon­
tánea se lleva a cabo por el mero paso del tiempo,
y que el curso de la recuperación es una función
creciente del tiempo transcurrido desde la termina­
ción de la respuesta final de la serie que produjo la
inhibición en cuestión. [Corolario iii, p. 284.]
Estes [1955] desarrolló una teoría estadística de
la recuperación espontánea basada en su enfoque
matemático y en la teoría del muestreo de estímulos.
Indicó que el tiempo entre ensayos o entre las sesio­
nes de extinción abunda en eventos; algunas veces
los podemos observar, otras simplemente los inferi­
mos; las características de estímulo de las situaciones
experimentales pueden variar de un ensayo a otro,
y el aprendizaje puede ocurrir si las situaciones de
estímulo tienen elementos en común. Esto implica­
ría, entre otras cosas, que la probabilidad de una
respuesta al final de un período experimental puede
no ser la misma que la probabilidad de esa respuesta
al comienzo del siguiente período experimental, por­
que es muy factible que los eventos de estímulo
presentes hacia el final de un período experimental
sean diferentes de los eventos del estímulo presentes
al comienzo del siguiente período experimental. En
esta forma la teoría del muestreo de estímulos pre­
dice en forma matemáticamente exacta los hallazgos
de los experimentos sobre recuperación espontánea.

ESFUERZO

El número de ensayos requeridos para extinguir una


respuesta disminuye al aumentar el esfuerzo que se
EXPLICACIONES DE LA EXTINCIÓN 149
requiere para ejecutar la respuesta. Sin embargo, la
situación varía según que el esfuerzo (medido como
la presión que debe ejercer el animal en la caja de
Skinner) se refiera a la adquisición o a la extinción.
En el experimento más importante sobre este tema
Applezweig [1951] ajustó la palanca en una caja de
Skinner en forma tal que un grupo de animales re­
quería presionarla con una fuerza dada y otro con
una fuerza diferente, con el fin de obtener el pre­
mio; varió el número de gramos de presión requerida
tanto durante el proceso de adquisición como durante
el proceso de extinción. Encontró que la fuerza de
la respuesta aumentaba con la cantidad de esfuerzo
requerido durante la adquisición y disminuía con el
esfuerzo requerido durante la extinción.

EXPLICACIONES DE LA EXTINCIÓN

A pesar de su simplicidad aparente, el fenómeno de


la extinción ha sido explicado en formas muy diver­
sas, entre las cuales merecen destacarse las siguientes:
1] Disminución del incentivo: durante el proceso
de adquisición se da el premio, durante el proceso
de extinción no se da. Al no encontrarse más el
estímulo incondicionado, su valor com o incentivo (K,
según la terminología de Hull) disminuye. La ex­
tinción podría explicarse como disminución del in­
centivo, y aumento de la inhibición (I).
2] Disminución de la fuerza del hábito: dado que
el sHr es función del número de refuerzos, al no
presentarse el refuerzo la fuerza del hábito dismi­
nuiría.
3] Cambios en el impulso: el componente D no
es igual durante la adquisición y durante la extin­
ción. Al no presentarse el premio se produce un im­
pulso, que tiene influencia en la ejecución durante
el período de extinción.
4] Aprendizaje de una respuesta incompatible:
originalmente el animal, al ser colocado en un
150 EXTINCIÓN

aparato, lo explora, va de un lado a otro, se rasca,


mira hacia todas partes; cuando aprende la respuesta,
por ejemplo presionar una palanca, los otros com­
portamientos no relevantes a la situación en cuestión
desaparecen. Esas respuestas pueden reaparecer du­
rante la extinción. Para Hull el no responder podía
considerarse com o una respuesta, de ahí su concepto
de inhibición (reactiva, que era un impulso a no dar
de nuevo la respuesta, similar al concepto de fatiga
y desaparecía con el tiempo, y condicionada, que era
una tendencia aprendida a no hacer la respuesta).
La extinción sería la adquisición de respuestas física­
mente incompatibles con la respuesta condicionada
originalmente.
5] Extinción como frustración: esta explicación
aparece ligada al nombre de Amsel [Amsel y Roussel,
1952; Amsel y Ward, 1954]. No dar el premio pro­
duce en el organismo un estado de frustración, que
tiene propiedades negativas análogas al choque eléc­
trico; el impulso aumentaría durante la extinción,
y en efecto se ha observado experimentalmente que
el animal corre más rápidamente para alejarse de la
caja donde antes había alimento y ahora no lo hay,
que para alejarse de una caja donde nunca lo ha
habido.
¿Cuál de estas cinco explicaciones del fenómeno
de extinción es la más aceptable? En la psicología
contemporánea las dos últimas, el aprendizaje de
respuestas incompatibles y la extinción com o frustra­
ción, gozan de mayor popularidad que las otras ex­
plicaciones, y han generado numerosas investigaciones.
13

OLVIDO

El olvido es un hecho que se presenta en todas las


facetas de la vida humana. Olvidamos números, caras,
hechos, acontecimientos, citas, códigos que podrían
haber salvado la vida de una persona en la guerra,
palabras en lenguas extranjeras, palabras en nuestro
propio idioma, olvidamos “ enseñanzas morales" y
muchas cosas más. Sin embargo, el olvido tiene una
enorme importancia adaptativa, y que no siempre
se ha indicado claramente. T odo sistema de almace­
namiento (y la memoria es un sistema de almacenar
información) tiene sus límites. Parece que no pode­
mos aprender más allá de cierto límite, y después de
alcanzar este punto de “ sobresaturación” es preciso
olvidar lo que hemos aprendido para poder aprender
materiales nuevos. Se dice que "el saber no ocupa
lugar”, pero en este asunto, como en tantos otros,
la sabiduría popular se equivoca completamente.
El hombre posee una asombrosa capacidad de
olvidar. Sabemos también que el olvido ocurre rá­
pidamente al principio, y disminuye con el paso del
tiempo. Más adelante veremos que no es el tiempo
como variable independiente ni como factor casual,
sino lo que ocurre durante ese tiempo, lo que lleva
a olvidar. Olvidamos casi el 50% de lo aprendido
durante la primera hora, y más adelante olvidamos
cada vez menos, hasta llegar un momento en que no
olvidamos casi nada (ni recordamos casi n ada...).
El estudio del olvido se ha realizado en el área
del aprendizaje verbal con sujetos humanos. Hay
unos pocos casos en los cuides se ha estudiado el
olvido de respuestas condicionadas en animales, pero
ri5n
152 OLVIDO

estos experimentos constituyen la excepción, no la


regla. En animales se estudia el proceso de extinción
[ver capítulo 12] cuya relación con el olvido es muy
clara pero no se ha investigado suficientemente. Lo
ordinario es presentar un material verbal que se ha
de aprender, generalmente largas series de sílabas sin
sentido, y más adelante medir la cantidad de in­
formación que los sujetos (humanos) retienen; se
traza una curva de olvido en función del tiempo,
que estudiaremos más adelante.
El término olvido en psicología se refiere a la
cantidad de información que se pierde, mientras que
el término retención se refiere a la cantidad que se
recuerda. Este capítulo podría denominarse "reten­
ción ” en vez de olvido, y el material que se incluyera
sería exactamente el mismo.
El olvido se ha estudiado en términos cuantita­
tivos y cualitativos. Los cambios cuantitativos depen­
den de las condiciones del aprendizaje original, de
la naturaleza del material aprendido y de factores
motivacionales. Se sabe que las condiciones que fa­
vorecen el aprentlizaje original favorecen también la
retención; los materiales con sentido se recuerdan
mucho más que los materiales sin sentido; las cosas
que se desea recordar se recuerdan mucho mejor
que las cosas que se aprenden sin la intención de
recordarlas. Los cambios cualitativos se estudian en
las alteraciones de la memoria, com o en el caso del
rumor, o de información que pasa de una persona
a otra, y cuyos detalles cambian (a veces en forma
muy considerable); se añaden aspectos, se quitan
detalles, se “ mejora” la historia o se cambia hasta
hacerse prácticamente indistinguible.

I .A CURVA DKL OLVIDO

La psicología del aprendizaje como disciplina cientí­


fica nace con Hermán» Ebbinghaus [1850-1909],
psicólogo alemán que realizó los primeros estudios
LA CURVA DEL OLVIDO 153
cuantitativos sobre el aprendizaje y el olvido del ma­
terial verbal. Ebbinghaus no tuvo a su alcance las
refinadas técnicas matemáticas de la psicología actual
ni las complejas teorías de esta ciencia de nuestros
días. Pero utilizó los conocimientos estadísticos de la
época y realizó estudios controlados que están a la
altura de los experimentos realizados por los psicó­
logos contemporáneos.
Ebbinghaus fue el primero en estudiar el apren­
dizaje y la memoria en forma cuantitativa. Inventó
un instrumento, las sílabas sin sentido, con el fin de
hacer cada unidad verbal de dificultad uniforme; se
sabía (y él también lo estudió) que el sentido del
material que se había de aprender tenía una influen­
cia básica en la retención; para evitar que este factor
alterara los resultados, Ebbinghaus inventó una
enorme cantidad de sílabas sin sentido (23 000) tales
bap, tox, rif. En esta forma, los significados del ma­
terial que se había de aprender no se asociarían y
confundirían el cuadro. Las sílabas, en los experimen­
tos de Ebbinghaus, debían aprenderse en el orden
de aparición; se presentaban con un tiempo están­
dar, dos quintos de segundo por sílaba. Ebbinghaus
fue un experimentador meticuloso, que controló
todos los factores con enorme cuidado: la hora del
día, su régimen de vida, etc. Es preciso señalar que
él fue su único sujeto de experimentación. ¿Podre­
mos acaso generalizar a toda la humanidad los descu­
brimientos de un sujeto de 35 a '10 años de edad, en
un país de Europa, del siglo pasado? La respuesta
parece ser afirmativa. Su libro básico sobre apren­
dizaje verbal y memoria [Ebbinghaus, 1885] sigue
siendo una obra clásica de psicología científica, y sus
descubrimientos conservan mucha actualidad y se
han repetido innumerables veces, con muchos sujetos
y en muchos países.
Ebbinghaus consideraba que había aprendido
una lista de sílabas sin sentido si podía repetirla de
memoria una vez. Se preguntó cómo influía !a Ion-
154 OLVIDO

f i g u r a 21. Curva del olvido

gitud de la lista en el número de lecturas necesarias


para memorizarla. N otó que podía aprender 7 u 8
sílabas sin sentido en una sola lectura. Pero al
alargar la lista el número de lecturas requeridas
crecía en forma desproporcionada.
Estudió también qué pasaba cuando continuaba
reaprendiendo una serie de sílabas después de saberla
perfectamente. ¿Cuánto trabajo se requería para rea­
prender lo que había aprendido antes? Estas investi­
gaciones dieron origen al método del ahorro, que
estudiaremos muy pronto, y al concepto de sobre­
aprendizaje y su función en la retención.
¿Cuánto material se recordaba a las 24 horas de
haberlo estudiado? ¿Qué tiempo se requería para
reaprenderlo todo nuevamente? Ebbinghaus, en su
estudio cuantitativo de la curva del olvido, mostró
que el olvido es sumamente rápido en las primeras
horas, menos rápido en las siguientes, y considerable­
mente más lento en las siguientes. Finalmente, la
curva se convertía casi en una línea recta, asíntota
al eje de X. La figura 21 muestra una adaptación de
la curva del olvido encontrada por Ebbinghaus.
LA CURVA DEL OLVIDO 155

Con estos trabajos Ebbinghaus acababa de demos­


trar que un fenómeno altamente “ mentalista” , subje­
tivo, oscuro y vago, podía estudiarse dentro del cam­
po de la ciencia natural y someterse a las técnicas
matemáticas de la época.
Una hora después de haber aprendido el mate­
rial, Ebbinghaus recordaba sólo el 44.2%. A las 24
horas del aprendizaje original recordaba- el 33.7%.
A los dos días el 27.8%. A los seis días recordaba el
25.4%.
La curva del olvido de Ebbinghaus, que ha sido
encontrada por muchos otros investigadores, aunque
con ciertas variaciones (la altura de la curva es dife­
rente, pero la forma es aproximadamente igual),
puede colocarse en coordinadas logarítmicas, y da
una relación de línea recta. En esta forma, usando
el logaritmo del tiempo en vez del tiempo, se logra
reducir la curva del olvido a proporciones maneja­
bles para su representación gráfica. Como el olvido
es sumamente rápido al comienzo y disminuye con
el uso del tiempo, la representación logarítmica del
porcentaje retenido encaja aceptablemente bien en
una línea recta, y facilita su manejo.
Ebbinghaus se interesó también en estudiar ma­
terial con sentido, aprendió de memoria el Don Juan
de Byron y utilizó el método del ahorro com o me­
dida de retención. N otó que la forma de la curva
del olvido era similar en el material con sentido y
sin sentido, pero la caída era mucho menor en el
material con sentido. Veintidós años después todavía
recordaba buena parte del material con sentido que
había aprendido. En general la proporción era de
10 a 1, a favor del material con sentido; por ejemplo,
si se requerían 80 repeticiones para aprender una
larga lista de sílabas sin sentido se requerían sola­
mente 8 repeticiones para aprender un material de
igual longitud (igual número de sílabas) pero con
sentido.
La obra de Ebbinghaus puso de manifiesto la
156 OLVIDO

existencia <le diversos métodos para medir la reten­


ción (y por lo tanto el olvido), que estudiaremos
en seguida.

m é t o d o s d e m e d ic ió n

L os problemas de la retención y del olvido están


íntimamente relacionados con ciertas dificultades de
medición. En la situación estándar de laboratorio
con sujetos humanos se dan listas de sílabas sin
sentido para que las aprendan y se cuenta el número
de veces que el sujeto debe leer cada lista para
aprenderla (el criterio generalmente es una repeti­
ción sin errores). Las listas de sílabas pueden agru­
parse en unidades, presentarse en forma masiva o en
forma espaciada (o sea sin descansos o con descansos).
Después de cierto tiempo, 1 hora, 6 horas, 24 horas,
se mide el porcentaje de retención, haciendo que el
sujeto repita las sílabas que aprendió originalmente.
Es posible idear gran cantidad de variaciones, y de
hecho se han logrado y se usan actualmente en los
estudios de aprendizaje verbal. Por otra parte, las
sílabas sin sentido no cuentan ya con el interés de
muchos psicólogos, y están siendo remplazadas por
otros materiales estándar de aprendizaje verbal.
Lo importante en este momento es insistir en que
hay diferentes métodos de medir la retención del
material aprendido. En el caso descrito en el párrafo
anterior se usó el método del recuerdo, que es uno
de los cuatro principales. Una descripción completa
sería la siguiente:
1] M étodo del recuerdo: también denominado
método de anticipación. El sujeto debe reproducir
el material aprendido, repetirlo completamente. Este
método da índices de retención sumamente bajos, o
sea que es muy difícil. Puede subdividirse en dos,
según que el recuerdo se lleve a cabo con ayuda o
sin ayuda (con o sin señales externas).
2] Método del reconocimiento: el sujeto aprende
MÉTODOS DE MEDICION 157

el material y después, en la sesión de prueba, debe


reconocerlo entre las diversas alternativas que se le
presentan. Da un alto índice de retención, o sea que
es un método fácil. Es el usado en los exámenes
“ objetivos” . Este método conlleva varias fuentes de
error; el sujeto puede identificar las unidades no
con base en el reconocimiento sino con base en el
simple azar; a esto se debe que las pruebas psicomé-
tricas siempre tomen en cuenta el factor, azar. Y en
segundo lugar la homogeneidad de las muestras tam­
bién influye en el reconocimiento.
3] M étodo de reaprendizaje: también denominado
método del ahorro. El sujeto aprende el material,
deja pasar cierto tiempo hasta que es incapaz de
recordar nada del material original, y lo vuelve a
aprender. Es un hecho bien conocido que la segunda
vez se aprende en un tiempo mucho menor que la
primera. Si originalmente el individuo requirió 10
ensayos para aprender las listas de sílabas sin sentido,
y la segunda vez requirió únicamente 4 eso implica­
ría un 60% de “ ahorro” , y éste es el índice ele re­
tención que se obtiene con este método. Con fre­
cuencia se usa la siguiente fórmula para calcular el
porcentaje de ahorro:

porcentaje aprendizaje original —aprendizaje nuevo


de ahorro — _____________________________________ y 100
aprendizaje original

4] M étodo de reconstrucción: se asemeja al mé­


todo del recuerdo. Sin embargo, al sujeto se le dan
los materiales previamente aprendidos para que los
ponga en orden. Debe recordar la organización, no
las unidades en si mismas.
En realidad los cuatro métodos miden aspectos
diferentes, y en sentido estricto es difícil comparar­
los. Las exigencias son diferentes en cada caso. A
pesar de ello es posible planear un experimento muy
sencillo, en el cual cuatro grupos de sujetos com­
parables aprenden cuatro tipos comparables de mate­
158 OLVIDO

rial, y después se mide la retención con un método


en un grupo, con otro en el segundo, con otro en el
tercero, y con el último en el cuarto. Esto se ha
hecho numerosas veces, con diferentes materiales, y
se obtienen curvas de olvido muy similares; la forma
de la curva es la misma en los cuatro métodos, pero
la altura es diferente. El método de reconocimiento
da una altura mayor (retención mayor, método más
fácil); el método del reaprendizaje está más abajo y
el método del recuerdo da un índice de retención
menor, es más difícil y tiene una altura menor que
los otros tres.
Los exámenes "por temas” usan el método del
recuerdo, y los exámenes “ objetivos” , como veíamos
antes, usan el método del reconocimiento o de la
reconstrucción. El método del ahorro no se ha usado
en educación, a pesar de su importancia; fue el que
seguió Ebbinghaus en sus estudios pioneros sobre
aprendizaje verbal; actualmente se tiene en cuenta
al aprender lenguas extranjeras, que se olvidan fácil­
mente pero se reaprenden con un ahorro considerable
de tiempo y esfuerzo.

TEORÍAS DEL OLVIDO

¿Por qué olvidamos? ¿Por qué no se retiene indefi­


nidamente el material aprendido? Es un hecho em­
pírico que olvidamos aceleradamente, y que el ol­
vido tiene una clara función adaptativa. Con el fin
de explicar por qué olvidamos se han propuesto tres
teorías, la primera de las cuales cuenta con las
simpatías del público en general pero no de todos
los especialistas. Las tres explicaciones son: la teoría
del desuso, la teoría de la interferencia y la teoría
del trazo.
1] Teoría del desuso: según la creencia popular,
olvidamos porque las impresiones se desvanecen con
el paso del tiempo. Por falta de uso los recuerdos se
debilitan y finalmente se pierden. Sin embargo, esta
TEORÍAS DEL OLVIDO 159
creencia no tiene razón de ser, y existen muchísimas
razones en contra [Osgood, 1953] entre las cuales
pueden indicarse las siguientes: a) en el fenómeno de
extinción, estudiado en el capítulo anterior, la
actividad se practica, pero el hábito se debilita y se
olvida; b) el fenómeno de la recuperación espontánea
indica que la falta de uso puede estar acompañada
por la reaparición del acto; c) científicamente usar
“ el tiempo" com o variable no tiene suficiente funda­
mento; sabemos que no es el tiempo sino lo que
ocurre durante él lo que hace, por ejemplo, que se
oxide una barra; el tiempo simplemente permite que
ocurran ciertos acontecimientos. Según lo que sabe­
mos hoy, si congeláramos un hombre que acaba de
aprender un material, y alguien lo descongelara mil
años después, recordaría perfectamente todo lo que
aprendió; no es el tiempo sino los acontecimientos
que ocurren durante el tiempo lo que lleva a olvidar,
y en este caso nada ocurriría durante esos mil años.
La teoría del desuso es falsa, y existen numerosos
experimentos que lo demuestran [Jenkins y Dallen-
bach, 1924; Van Ormer, 1932; McGeoch, 1932].
2] Teoría del trazo: los psicólogos de la gestalt
postulan la existencia de un trazo de memoria que
tiene carácter dinámico. La dimensión temporal de
la experiencia [Koffka, 1935] se transforma en dimen­
siones espaciales en el campo del cerebro, y puede
interpretarse por medio de los mismos principios
que se usan al estudiar la percepción. Los trazos se
transforman dentro del sistema de fuerzas del campo
cerebral. Los materiales organizados, bien estructu­
rados, producen trazos de memoria más estables. Los
trazos de memoria se asimilan a otros que se encuen­
tran simultáneamente en el campo, y la asimilación
es función de la similitud. Los experimentos sobre
recuerdo de figuras completas e incompletas y de
figuras ambiguas demuestran que hay gran parte de
verdad en esta concepción gestaltista de la memoria
y del olvido. El material que recordamos se presenta
160 OLVIDO

transformado según los conceptos de "buena figura”


y demás principios de la gestalt. Se olvida [Koffka,
1935] por las siguientes razones: desintegración au­
tónoma, asimilación a otros materiales, baja tensión
en el sistema del trazo e incapacidad de comunicar
la diferencia existente entre el trazo presente y los
otros trazos. A pesar de la parte de verdad existente
en esta concepción gestaltista de la memoria y del
olvido (que se ha integrado a la psicología científica),
los conceptos de “ campos de fuerza” y otras explica­
ciones similares no gozan de mucha popularidad
entre los psicólogos contemporáneos.
3] Teoría de la interferencia: según esta teoría,
que es la más aceptada en nuestros días, el olvido es
función directa del grado en que nuevas respuestas
sustituyen durante el intervalo de retención a las
respuestas originales. En otras palabras, una respuesta
desplaza a la respuesta original y se asocia con esos es-
tímulos. El olvido sería, en líneas generales, inhibi­
ción retroactiva. Entre más similares sean la respuesta
original y la nueva, más olvido se presenta; entre
más diferentes sean menos olvido ocurre. Los princi­
pios básicos de conducta en los cuales se fundamenta
esta teoría son: a) formación de hábitos por incremen­
tos sucesivos; b) generalización de estímulos y de res­
puestas, según los hechos que hemos estudiado en el
capítulo 10; c) competencia entre respuestas: cuando
dos respuestas “ compiten” por asociarse con un es­
tímulo, se logra asociar la que tenga una resistencia
de hábito (sHr) mayor.
Esta teoría del olvido com o interferencia se basa
en las relaciones entre estímulos y respuestas. Los
cambios de contexto tienen gran importancia: sabe­
mos por ejemplo que si una cara aparece en un
contexto nuevo tenemos dificultad para reconocerla,
y lo mismo sucede con una voz que puede sernos
sumamente familiar en el contexto de costumbre. La
dirección y el grado de la interferencia y su influen­
cia en el olvido se han estudiado experimentalmentc.
INHIBICIÓN RETROACTIVA Y I’ROACTIVA 161

El concepto de "similitud” de material, que es básico


en esta teoría, debe definirse cuidadosamente, y
sigue siendo un concepto vago.
Osgood [1953] insiste en que la teoría del trazo
y la teoría de la interferencia no difieren tanto como
parecería a simple vista. Se trataría de diferencias de
terminología, no de conceptos básicos. Los principios
gestálticos de asimilación y aislamiento podrían iden­
tificarse con los principios de generalización y discri­
minación; los sistemas de tensión (gestalt) son
equivalentes a los impulsos. Sin embargo, hay una
diferencia básica, y es el concepto de trazo; para la
teoría gestaltista se trataría de un proceso activo que
persiste y varía espontáneamente en el tiempo, mien­
tras que para la teoría de la interferencia n o hay
ningún cambio intrínseco en el sistema, y todas las
variaciones provienen del exterior. Según los gestal-
tistas hay cambios dinámicos e intrínsecos en la me­
moria; según los partidarios de la teoría de la in­
terferencia no los hay.

INHIBICIÓN RETROACTIVA Y PROACTIVA

El análisis anterior sobre teorías del olvido mostró


que no se olvida por el simple paso del tiempo ni por
la organización de “ campos cerebrales” sino por in­
terferencia. La actividad que se interpola entre el
aprendizaje original y la retención influye en esta
última. Müller y Pilzecker [1900] llamaron a este
fenómeno inhibición retroactiva, y el término se ha
conservado hasta nuestros días. Inhibición retroactiva
se define como la disminución que resulta de la
actividad interpolada entre el aprendizaje original
y la prueba de retención. El diseño experimental para
estudiarla es el siguiente:

Grupo experimental aprender aprender recordar


tarea 1 tarea 2 tarea 1
Grupo de control aprender descansar recordar
tarea 1 tarea 1
162 OLVIDO

Se ha encontrado que el grupo de control recuerda


la tarea 1 más que el grupo experimental; en este
último el haber aprendido la tarea 2 en el intermedio
interfiere en el recuerdo de la tarea 1. Se ha demos­
trado la existencia de inhibición retroactiva con
todas las clases de materiales verbales, desde las listas
de palabras hasta la poesía y la prosa. Las siguientes
variables parecen tener importancia en la inhibición
retroactiva: grado de aprendizaje de la tarea 2, lon­
gitud del intervalo de retención, punto en el intervalo
en que se presenta la tarea 2, tipo de tarea, similitud
entre las dos tareas. Todas estas variables han dado
origen a numerosos experimentos, que han demostra­
do claramente la interacción de los parámetros que
determinan la inhibición retroactiva.
Se ha observado, por otra parte, que el apren­
dizaje que ha ocurrido antes de aprender el material
de la prueba puede inhibir el recuerdo de este último.
La inhibición proactiva, com o se denomina este fe­
nómeno, se estudia en el siguiente diseño experi­
mental:

Grupo experimental aprender aprender recordar


tarea 2 tarea 1 tarea 1
Grupo de control descanso aprender recordar
tarea 1 tarea 1

El uso de los números (1 y 2) no implica que las


tareas estén en esa secuencia de orden, pero se hace
para distinguir claramente este paradigma del diseño
usado al estudiar la inhibición retroactiva.
Estos dos diseños experimentales, de la inhibición
retroactiva y de la inhibición proactiva, pueden
usarse para lograr facilitación o para lograr inhibi­
ción, dependiendo de diversos factores, el principal
de los cuales es la similitud de las tareas 1 y 2; entre
mayor similitud mayor inhibición; pero cuando se lle­
ga al máximo de similitud (igualdad de las tareas 1
y 2) se trata simplemente de repaso, que facilita la
retención y no produce ninguna inhibición. Se han
MOTIVACIÓN Y RETENCIÓN 163

encontrado numerosas complicaciones en estos facto­


res, pero los hechos generalmente permanecen.
, La mayoría de las investigaciones contemporáneas
explican el olvido en términos de inhibición retro­
activa. Se da importancia primordial a la inhibición
retroactiva sin desconocer el papel de la inhibición
proactiva, más difícil de estudiar en el laboratorio
porque no se puede controlar todo el aprendizaje
previo a la situación experimental. El factor de simi­
litud es muy importante e influye en la generaliza­
ción de estímulos y respuestas, que son unos de los
principios básicos en que se fundamenta la teoría
de la interferencia. Por otra parte, al hablar de
competencia entre respuestas [véase, más arriba, la
teoría de la interferencia] es necesario incluir tanto
respuestas específicas como respuestas generalizadas.
Postman y Riley [1959] estudiaron la competencia
entre respuestas generalizadas, e insistieron en que
éste es un factor importante en la teoría de la inter­
ferencia.

MOTIVACIÓN Y RETENCIÓN

Durante mucho tiempo se ha creído que los factores


motivacionales influyen en el olvido y en la reten­
ción. Se cree que “ recordamos lo que queremos" pero
al mismo tiempo se sabe con certeza que esto no es
así, y que muchas personas viven obsesionadas tra­
tando de olvidar hechos desagradables; si recordára­
mos sólo lo que quisiéramos no habría ningún pro­
blema. Muchos experimentos han tratado de refutar
o comprobar el concepto freudiano de represión;
véase, entre ellos, Díaz Guerrero [1965], cuyo “ Estudio
experimental de la represión freudiana” es una de
las contribuciones más originales en esta área.
Muchos investigadores estarán de acuerdo en
afirmar que se recuerdan más los eventos agradables,
seguidos de los desagradables, y después los indife­
rentes. Algunos, sin embargo, han encontrado que
164 OLVIDO

se recuerdan más los indiferentes que los desagrada­


bles (lo cual estaría más de acuerdo con una inter­
pretación basada en la represión).
Probablemente la motivación influye en la re­
tención de experiencias agradables o desagradables
por medio del repaso selectivo: el individuo reme­
mora los acontecimientos y pasa más tiempo pensan­
do en las actividades agradables, después de las desa­
gradables y finalmente en las indiferentes, que no
conllevan carga afectiva. Este repaso selectivo puede
usarse para explicar las diferencias de retención re­
lacionadas con las diferencias de motivación. El
aprendizaje selectivo tiene también una importancia
considerable: originalmente se aprendió más fuerte­
mente el material agradable que el desagradable, y
éste más que el indiferente. Sin embargo, parece que
el repaso selectivo es el factor básico. Por otra parte,
se ha encontrado que, aunque el individuo muchas
veces recuerda una experiencia, en los experimentos
diseñados para estudiar la relación entre motivación
y retención inhibe su respuesta; recuerda pero no
dice que recuerda; más adelante, al remover las in­
hibiciones, es posible comprobar que efectivamente
había recordado el hecho pero no quería decirlo
para evitar seguir hiriéndose.
Recientemente Tarpy, Glucksberg y Lytle [1969]
han estudiado la influencia de la motivación en la
memoria de corto término y han encontrado testimo­
nios que demuestran la acción del repaso encubierto.
Además de este problema del recuerdo de eventos
agradables y desagradables, se ha investigado el re­
cuerdo de tareas completas e incompletas. Zeigarnik
[1927] realizó interesantes experimentos en los cuales
se les dio a los sujetos tareas sencillas y breves (18
a 22 tareas); a unos sujetos se les interrumpía antes
de terminarlas mientras que a otros se les dejaba
terminarlas; se observó que los sujetos recordaban
más los nombres de las tareas sin terminar que los
nombres de las tareas terminadas, lo cual ha venido
m e m o r ia de c o r to y de la r g o t é r m in o 165

a llamarse efecto Zeigarnik * Si una persona está mo­


tivada a tener éxito en una tarea se genera un sistema
de tensión que tiende a satisfacerse al llevar a cabo
la tarea. Si lo interrumpimos, el sistema de tensión
continúa y lleva a perseverar en el recuerdo de la
tarea interrumpida. Esta interpretación del efecto
Zeigarnik dada por la famosa psicóloga soviética está
de acuerdo con los principios de la gestalt.
Investigaciones posteriores han delimitado y acla­
rado el alcance del efecto Zeigarnik. Se recuerdan
mejor las tareas incompletas que las completas, pero
el sujeto debe creer que no tuvo éxito al ser inte­
rrumpido; si se le dice que no tiene necesidad de
terminar la tarea, que es demasiado bueno para ello,
no recuerda la tarea y se encuentran resultados
opuestos al efecto Zeigarnik. Si el sujeto es demasiado
orgulloso, si la tarea es demasiado difícil o si se le da
un tiempo excesivamente corto, no se obtiene tam­
poco el efecto Zeigarnik.
Las numerosas investigaciones que se han realiza­
do para estudiar aspectos de la relación existente
entre motivación y retención han mostrado claramen­
te la complejidad del problema. N o se sabe bien
cómo puede influir en el recuerdo el propósito de
recordar (quizá se base también en aprendizaje
selectivo), y muchos otros aspectos quedan por estu­
diar.

MEMORIA DE CORTO Y DE LARGO TÉRMINO

Los investigadores en el área del aprendizaje verbal


han considerado útil referirse a dos tipos de memo­
ria: inmediata (también llamada memoria de corto
término) y mediata (o de largo término). La diferen­
cia reside en el tiempo que se interpola entre el

* En Holanda van Bergen ha considerado el efecto Zeigarnik


como un problema sin base real. Véase su libro Task Inte-
nuption, North Holland, Amsterdam, 1968.
166 OLVIDO

aprendizaje original y la retención. En un experi­


mento típico sobre memoria de corto término se
trata de ver cuánto material puede retener el sujeto
después de una sola presentación; se le presentan
algunas letras o números y se van aumentando gra­
dualmente hasta que el sujeto no es capaz de repe­
tirlos después de una sola presentación. Así se ob­
tiene un índice de la amplitud de memoria del
sujeto, en función del número de dígitos o letras que
puede recordar inmediatamente después de presentar­
los una sola vez. Jacobs [1887] fue el primero en
hablar de memoria inmediata o de corto término.
Por otra parte, en la memoria de largo término
existe cierto intervalo entre el aprendizaje y la re­
tención, generalmente algunos minutos u horas. No
es preciso que el intervalo sea demasiado largo para
que se aplique este término, lo importante es que
no sea inmediatamente después de la presentación
del material.
Muchos científicos consideran que es necesario
usar estos dos términos porque se trata de dos “ tipos"
de memoria diferente. Es un hecho que la persona
capaz de repetir un número de teléfono después de
leerlo una sola vez puede no ser capaz de recordarlo
cinco minutos más tarde. Algunos experimentadores
han tratado de unificar los dos “ tipos” de memoria
en una sola, y hablar de un solo proceso. Quizá
fuera más adecuado referirse a un solo tipo de me­
moria, pero especificando la duración entre el apren­
dizaje original y la retención; probablemente los
procesos que nos llevan a recordar un número de
teléfono inmediatamente después de leerlo, cinco
minutos después y un año después, sean esencialmen­
te los mismos, pero la diferencia cronológica entre
el aprendizaje y la retención altera notoriamente el
cuadro. En todo caso, en la mayor parte de la litera­
tura sobre aprendizaje verbal se encuentran referen­
cias a memoria de corto término y memoria de largo
VARIABLES DE LA RETENCIÓN 167

término, como si se tratase de dos fenómenos dife­


rentes.

VARIABLES DE LA RETENCIÓN

La gran cantidad de experimentos que se están rea­


lizando en este momento sobre el área del aprendizaje
verbal ha permitido estudiar cuantitativamente cier­
tas variables que intervienen en la retención y en
el olvido. Una descripción mucho más amplia y
detallada puede encontrarse leyendo los últimos vo­
lúmenes de la revista Journal of Verbal Learning and
Verbal Behavior. Las siguientes variables se han es­
tudiado durante mucho tiempo, y sus efectos se
conocen relativamente bien:
1] Calentamiento: El efecto de calentamiento
(warm-up) se encontró observando que la máxima
eficacia en una tarea sólo se logra después de cierto
tiempo de práctica, al menos después de algunos
minutos. Se requiere que se forme un conjunto (set).
Durante el descanso, por otra parte, se pierde el con­
junto, se modifica la situación total y disminuye la
probabilidad de emitir la respuesta correcta.
El calentamiento es función de los siguientes fac­
tores: la cantidad de práctica anterior al descanso
(o sea qué tan bien establecido está el conjunto), y
la longitud del intervalo de descanso (o sea cuánto
se deterioró el conjunto).
En el experimento clásico sobre los efectos del
calentamiento, Irion [1949] observó que en ciertas
tareas, comparando grupos que descansaban y gru­
pos que no descansaban, el grupo que no descansaba
era significativamente superior al grupo que descan­
saba. El calentamiento se supuso que tenía un efecto
facilitatorio, que se perdía al interrumpir la tarea.
Los efectos del calentamiento están muy bien esta­
blecidos en el área del aprendizaje verbal, y relativa­
mente bien establecidos en el área del aprendizaje
motor.
168 OLVIDO

2] Sobreaprendizaje: cuando se ha aprendido com­


pletamente un material, hasta alcanzar satisfactoria­
mente el criterio de aprendizaje fijado por el inves­
tigador (por ejemplo repetir el material una vez sin
errores), el efecto de dar práctica adicional no puede
reflejarse en la ejecución, porque el sujeto ya ha
alcanzado el criterio fijado. Sin embargo, el sobre­
aprendizaje influye en la retención, como lo compro­
bó Underwood [1964]: en su experimento los sujetos
que reaprendieron el material, más allá del criterio,
recordaban mucho más después de 24 horas, en
comparación con los sujetos que simplemente alcan­
zaron el criterio. Estos hallazgos se han repetido
numerosas veces en situaciones muy distintas, y la
influencia del sobreaprendizaje en la retención es un
fenómeno muy bien establecido en el área del apren­
dizaje verbal.
3] Rapidez de aprendizaje: ¿Aprende más el que
aprende más rápidamente? ¿O acaso lleva ventaja el
que es “ lento pero seguro” ? Las investigaciones han
demostrado que aprende más el que aprende rápido.
Si se le da tiempo suficiente al que aprende lento, y
si éste aprende la misma cantidad de material que
el rápido (siendo el material igual en cuanto al nú­
mero de refuerzos), el lento no es capaz de retener
tanto com o el rápido. Es preciso no permitirle sobre­
aprender a ninguno de los dos, porque especialmente
el lento tiene tendencia a requerir más y más tiempo,
después de alcanzar el criterio, y usar este tiempo
para reaprender, lo cual le daría una ventaja clara.
Si se controlan todos estos factores (cantidad de
material, número de refuerzos y efectos del sobre­
aprendizaje), el rápido retiene mucho más que el
lento.
4] Práctica masiva y práctica distribuida: la ma­
yoría de los trabajos en esta área han demostrado que
la práctica distribuida es más eficiente que la prác­
tica masiva, o sea que conduce a mayor retención.
En un experimento típico se le presentan al sujeto
V a r ia b l e s d e l a r e t e n c ió n 169

listas de sílabas sin sentido, una tras otra en forma


masiva (por ejemplo una lista cada 6 segundos),
mientras a otro grupo de sujetos se le presentan otras
listas en forma espaciada o distribuida (por ejemplo
una lista cada tres minutos). Parece ser que la
práctica masiva conduce a mejor retención cuando
la interferencia en las listas es baja, y conduce a peor
retención cuando la interferencia es alta. En la ma­
yoría de los casos la interferencia es alta, y por eso
la práctica distribuida da mejores resultados.
Es importante recordar que el descanso lleva a
deteriorar el conjunto [véase el punto 1, más arriba],
lo cual empeora la retención; sin embargo, los efectos
de la práctica espaciada son suficientemente grandes
com o para contrarrestar este factor. Quizá al estudiar
con intervalos suficientemente espaciados se evita el
aburrimiento y la sobresaturación. Este problema de
la ¡práctica masiva y la práctica espaciada ha condu­
cido a numerosas investigaciones, que se resumen en
un importante trabajo publicado por Natalicio [1969].
5] Significado: el material con sentido se retiene
más que el material sin sentido, lo cual se sabía desde
antes de Ebbinghaus. Un problema serio con esta
variable es la imposibilidad de comparar e]„material
con sentido y el material sin sentido en términos de
dificultad y otros factores. La medición del significa­
do es un aspecto sumamente nuevo de la psicología
experimental, y no podemos responder a la pregunta
,de “ qué tan significativo es el material A en compa­
ración con el material B“. La significación ha sido
def inida en aprendizaje verbal com o valor de asocia­
ción, y no siempre se encontró que influyera signi­
ficativamente en la retención. Postman y Rau [1957]
¡encontraron que, si se usa el método del reaprendizaje
(o de ahorro) como medida, el material con sentido
se :reaprende más rápidamente que el material sin
sentido; usando como medida otros métodos (de re­
cuerdo y de reconocimiento) no se encontró diferencia
170 OLVIDO

en la retención de material con sentido y material sin


sentido.
6] Retardo del refuerzo: en investigaciones previas
sobre aprendizaje de animales se sabía que el retardo
del refuerzo dificulta el aprendizaje [ver figura 17].
Brackbill y Kappy [1962] dieron series de problemas
a muchachos de escuela primaria, y retardaron el re­
fuerzo intervalos de cero segundos, 5 o 10 segundos,
según el grupo en cuestión. El refuerzo consistía en
bolitas de cristal que se podían cambiar por jugue­
tes. Uno u ocho días después de alcanzar el criterio de
aprendizaje, se les pidió que reaprendieran la tarea.
En el reaprendizaje todos los sujetos tuvieron retardo
de cero, el refuerzo se dio inmediatamente después
de dar la respuesta correcta. Al comparar el número
de ensayos requeridos para alcanzar el criterio de
aprendizaje en los tres grupos originales (de cero, 5
y 10 segundos de demora del refuerzo) se halló lo
esperado: el retardo del refuerzo interfiere en el
aprendizaje en función directa del retardo. Sin em­
bargo, los autores presentaron la puntuación de
ahorro en la retención, y observaron que al pasar
un día el grupo que tuvo un retardo de 10 segundos
en la adquisición fue el que más retención presentó,
y el grupo de cero segundos el que menos reten­
ción presentó, lo cual es exactamente lo contrario de
lo que podía haberse predicho. Las diferencias desa­
parecieron en los grupos que reaprendieron la tarea
8 días después. Los investigadores explicaron estos
hallazgos (especialmente en los grupos que reapren­
dieron a resolver los problemas un día después del
aprendizaje original), insistiendo en la importancia de
las señales verbales que los sujetos tenían que pro­
nunciar, y que continuaban probablemente en forma
‘‘encubierta" en los grupos de 5 y 10 segundos de re­
tardo del refuerzo. Tuvieron más importancia en estos
dos últimos grupos porque en ellos esas señales verba­
les iban seguidas del refuerzo.
14
FUNDAMENTOS BIOQUIMICOS
DEL APRENDIZAJE1

Cuando aprendemos algo ciertas transformaciones


bioquímicas tienen lugar en el cerebro. Su naturaleza
no se conoce muy bien a pesar de la gran cantidad
de investigaciones realizadas en la última década.
Psicólogos y bioquímicos están empeñados en una
tarea común: encontrar los cambios bioquímicos co­
rrelacionados con el aprendizaje. En este momento
hay dos posiciones al respecto:
1] Unos afirman que cuando aprendemos algo se
activan ciertas sinapsis en el cerebro; más tarde,
cuando nos encontramos con la misma situación o
con una situación similar, las mismas sinapsis tras­
miten los impulsos mejor que antes. Éste podría ser
considerado el enfoque fisiológico del aprendizaje.
2] Otros afirman que lo que aprendemos se co­
difica y se almacena en el interior de las células.
Ciertas transformaciones ocurren en la estructura
molecular del ácido ribonucleico (rna) com o conse­
cuencia del aprendizaje. Éste es el enfoque bioquí­
mico, basado principalmente en los trabajos de Hydén
en Suecia.
En otras palabras, en el primer caso se afirma
que los engramas se codifican a nivel celular, en el
segundo que se codifican a nivel molecular.
El interés en los factores bioquímicos del apren­
dizaje parte de Lashley, el famoso psicólogo norte­
americano quien en la década de 1900 trabajó sobre

Publicado originalmente en la Revista Interamericana


de Psicología, 1968, 2, 93-100. Con autorización.

[171]
172 FUNDAMENTOS BIOQUIMICOS

los efectos de la cafeína y del sulfato de estricnina


en la retención. Tales drogas son estimulantes del
sistema nervioso central. Cuando se estableció que en
realidad tenían un efecto positivo sobre el aprendiza­
je, se usaron para tratar de probar la hipótesis de la
consolidación de los trazos de memoria. Esta hipóte­
sis fue propuesta originalmente por Müller y Pilze-
cker en 1900, y nuevamente estudiada por Hebb
en 1949. Afirma que existen cambios estructurales
en el sistema nervioso central a consecuencia del
aprendizaje, y que tales cambios toman tiempo para
ocurrir. Las pruebas clínicas nos dicen que si una
persona recibe un golpe en la cabeza olvida los
acontecimientos que precedieron al choque en minu­
tos, horas e incluso días; más adelante recupera la
memoria, primero de los acontecimientos más leja­
nos, luego de los menos lejanos, pero lo sucedido
exactamente antes del choque es posible que no lo
recuerde nunca más. La hipótesis de la consolidación
explica esto diciendo que los trazos de memoria más
antiguos están mejor consolidados; el golpe evitaría
la consolidación del material reciente y elevaría el
umbral de los recuerdos anteriores.
Duncan [1949] realizó experimentos sobre apren­
dizaje de evitación con el fin de probar la hipótesis
en el laboratorio. Una vez que el animal habla apren­
dido la respuesta, se le daba un electrochoque. Los
períodos entre el aprendizaje y el electrochoque varia­
ban en la siguiente forma: 20, 40, 60 segundos; 4 y 15
minutos; 1, 4 y 14 horas. Sus resultados mostraron
gráficamente que la consolidación se altera a conse­
cuencia del choque. Si éste se da 20 segundos después
del aprendizaje, el animal no aprende casi nada. Sin
embargo, los experimentos de Duncan han sido cri­
ticados desde el punto de vista metodológico. Los
trabajos de Chorover y Schiller [1965] parecen ser
mejor prueba en favor de la hipótesis de la conso­
lidación.
Se afirma, en general, que la actividad neutral
RNA Y APRENDIZAJE 173

continúa por cierto tiempo después de la respuesta


(circuitos reverberantes). La permanencia del apren­
dizaje sería función del tiempo que esta actividad
neural continúa antes que intervenga una nueva ex­
periencia. Paré [1961] demostró que la cafeína ad­
ministrada 5 segundos o 2 minutos después que el
animal ha alcanzado el criterio de aprendizaje me­
jora la retención de la tarea 48 horas después.
Aplicando seconal (droga depresora), en los mismos
invervalos, encontró peor retención, debido tal vez
a que se detienen los círculos reverberantes. Ninguna
de las dos drogas tenía efecto si se administraba una
hora después de alcanzar el criterio de aprendizaje.
Según esto, la primera fase de la consolidación de
la memoria continúa por lo menos durante dos mi­
nutos después de que el aprendizaje ha tenido lugar,
pero una hora después ya ha cesado. Sería de desear
que se estudiaran los puntos de tiempo intermedios.
Irwin y Banuazizi [1966] y Krivanek y Hunt [1967]
trabajaron con pentilentetrazol (metrazol), que es
menos tóxico y facilita el aprendizaje más que los
estimulantes estándar como el sulfato de estricnina
y la picrotoxina.
Después de esta introducción estudiaré con algún
detalle los trabajos de Hydén y otros científicos sobre
el r n a , la obra de Rosenzweig, Krech y Bennett sobre
acetilcolina y colinesterasa, y la de Plotnikoff y otros
sobre pemolina de magnesio. Recientes investigacio­
nes realizadas en Cuba, publicadas en otro lugar
[Bustamante, Roselló, Jordán, Pradere e Insua, 1969],
arrojan luz sobre la relación existente ante el apren­
dizaje y las drogas.

RNA Y APRENDIZAJE

El profesor H. Hydén de Góteborg (Suecia) demostró


que cuando las ratas aprenden un laberinto inclina­
do 45 grados se presenta un cambio en la cantidad
y composición del r n a de las células cerebrales en­
174 FUNDAMENTOS BIOQUÍMICOS

cargadas de controlar el balance. En otro experimen­


to hizo que las ratas tomaran los alimentos con la
pata izquierda, y se observó que el contenido de rna
de las células nerviosas del lado derecho fue 22%
mayor que las del lado opuesto. Además, las cantida­
des de adenina y guanina habían aumentado, mien­
tras que la citosina disminuyó.
Un tipo especial de rna, el RNA-mensajero, es el
encargado de trasmitir la información codificada en
el dna de los genes, con lo cual determina y controla
la forma específica de las proteínas que se sintetizan
dentro de la célula.
En numerosos experimentos las variaciones ob­
servadas después que los sujetos han aprendido son
las siguientes:
a) en las neuronas:
1] aumento de rna
2] variación en las 4 bases que forman el r n a
b) en la neuroglia:
1] d i s m i n u c i ó n d e l rna

2 ] c a m b io e n la c la s e d e l rna d o m in a n te
Por otra parte, Cameron [1958] fue el primero en
advertir que el r n a parecía restaurar parcialmente la
memoria de pacientes ancianos. Él y sus colabora­
dores dedicaron numerosos estudios a descubrir la
forma química más adecuada, la dosis y la manera
de administración que diera mejores resultados.
Otra línea de investigación parte de McConnell
[1962] y sus trabajos sobre “ canibalismo" en pla-
narias.
McConnell condicionó planarias a contraerse con
una luz que precedía un electrochoque de acuerdo
con el procedimiento acostumbrado en condiciona­
miento clásico. Dividió este animal y lo dio a comer
a otra planaria no condicionada. La consecuencia fue
que el segundo animal mostró la reacción ante la luz
que el primero había aprendido.
Zelman y sus colaboradores [1963], en lugar de dar
a comer una planaria condicionada a otra no con­
RNA Y APRENDIZAJE 175

d i c i o n a d a , t r a n s f i r ie r o n s im p le m e n t e rna d e la p r i m e ­
r a a la s e g u n d a y o b t u v i e r o n ig u a le s r e s u lt a d o s .
Jacobson y sus colaboradores [1965] reportaron
haber logrado transferencia del aprendizaje por me­
dio del r n a en el animal favorito de los psicólogos:
la rata blanca.
Cook y otros [1963] encontraron que el aprendiza­
je, tanto en hombres com o en animales, puede me­
jorarse administrando ácidos nucleicos, pero este
efecto bien puede ser inespecífico.
Un grupo de científicos trabaja en este momento
con ribonucleasa, la enzima que destruye el r n a . La
idea original parte de los hallazgos de Flexner, de
Pensilvania, quien trabajó con puromicina, un in­
hibidor de la síntesis de las proteínas; en este sen­
tido, su efecto es opuesto al del r n a , cuya función
es sintetizar proteínas. Inyectando puromicina en el
cerebro de las ratas que habían aprendido un labe­
rinto en Y, Flexner logró pérdida de memoria,
directamente proporcional a la dosis de la droga.
Al estudiar en detalle sus hallazgos, observó que la
puromicina bloquea la síntesis ele las proteínas en
el hipocampo y en los lóbulos temporales del cere­
bro. Esta línea de investigación puede considerarse
complementaria de los trabajos de Hydén.
Por otra parte, también existen pruebas negativas.
Parece ser que el r n a facilita más el aprendizaje de
una respuesta motora simple que de discriminaciones
complejas. Beaulieu [1967] experimentó con animales
sometidos a privación de alimentos o de agua. En
los primeros inyectó el doble de la dosis acostum­
brada de r n a ; observó que perdían peso menos rá­
pidamente que los animales del grupo de control,
pero todos murieron antes de terminar la segunda
semana. Tales efectos tóxicos ocurren sólo si el
animal no tiene acceso a agua ni alimento; en caso
contrario no se presentan. Esto puede ser simplemen­
te una complicación técnica o un hallazgo importante.
T al es la situación en este momento. Las lagunas
176 FUNDAMENTOS BIOQUIMICOS

a b u n d a n , son n e c e s a r io s m u c h o s m á s t r a b a jo s ta n to
p s ic o ló g ic o s com o b io q u ím ic o s a n te s que podam os
te n e r una im a g e n c la r a d el e fe cto del una sob re el
a p r e n d iz a je .

ACETILCOLINA Y COLINESTERASA

Rosenzweig, Krech y Bennett [1960], en California,


estudiaron los efectos de la acetilcolina y la colines-
terasa sobre el aprendizaje. Su hipótesis inicial fue
que debería presentarse un aumento de colinesterasa
en la corteza visual o somática, según que el animal
siguiera signos visuales o somáticos al aprender el
laberinto. Esto se relaciona históricamente con el
problema de si las ratas se orientan por estímulos
visuales o por movimientos. Rosenzweig y sus cola­
boradores hallaron lo contrario de lo esperado: las
ratas no diferían en cuanto a concentración de co­
linesterasa en la corteza visual o somática. En cambio,
encontraron que aquellos animales que siguen sig­
nos espaciales tienen más colinesterasa en todas las
áreas. Al mismo tiempo se observó que las ratas
“ inteligentes” seleccionadas por Tryon durante mu­
chas generaciones tienen más tendencias a seguir
estímulos espaciales, mientras que las ratas “ ton­
tas” siguen estímulos visuales.
Los autores formularon entonces una segunda
hipótesis: el nivel total de colinesterasa refleja la
eficacia de la trasmisión sinóptica y está directamente
relacionado con la capacidad de resolver problemas.
Sin embargo, cxperimentalmente encontraron que
la medida más importante no es la cantidad total
sino la proporción entre actividad cortical y actividad
subcortical (c/s) de la colinesterasa. Bajos valores de
c/s están en relación con rápido aprendizaje de la­
berintos. Observaron también que ratas criadas en
un ambiente enriquecido, con abundantes estímulos,
tienen cuando adultas una proporción de c /s más
baja. Ratas criadas en relativo aislamiento tienen un
PEMOLINA DE MAGNESIO 177
c /s más alto. Las primeras aprenden más rápidamen­
te. En los grupos seleccionados genéticamente por
Tryon, las "inteligentes” tienen un c/s más bajo que
las ratas “ tontas” . En otras palabras, esto significa
que la química cerebral puede variarse por selección
genética.
Estudiando la acetilcolina y sus relaciones con la
colinesterasa, después de muchos experimentos que
dieron resultados contradictorios, se halló lo siguiente:
existe una proporción óptima entre la acetilcolina y
la colinesterasa que facilita el aprendizaje. Entre
más eficiente es la trasmisión sináptica, determinada
por el nivel absoluto de acetilcolina y por la rela­
ción entre acetilcolina y colinesterasa, mejor es la
capacidad de aprender.
Otros autores han confirmado estos hallazgos.
Deutsch y sus colaboradores (1966) encontraron que
inyectando diisopropil fluorofosfato, una droga que
destruye la colinesterasa, se olvida lo aprendido. Su
efecto depende del tiempo transcurrido entre el apren­
dizaje y la aplicación de la droga. Dándola 30 minu­
tos después del aprendizaje se logró amnesia com­
pleta. Los autores explican sus resultados mostrando
cóm o se altera la proporción entre acetilcolina y co­
linesterasa en el cerebro de los animales de expe­
rimentación.

PEMOLINA DE MAGNESIO Y APRENDIZAJE

Algunos bioquímicos aseguran que el r n a inyectado


por vía intraperitoneal no llega al cerebro. Estudios
fluoroscópicos parecen demostrarlo. Con el fin de
superar este problema, Glasky y Simón [1966] in­
yectaron otra droga, pemolina de magnesio, también
llamada cylert, que estimula la síntesis del r n a en
el cerebro. Analizando los tejidos cerebrales de las
ratas que recibieron esta droga se observó mayor
actividad del r n a en ellas que en el grupo de control.
El siguiente paso era estudiar los efectos de la
178 FUNDAMENTOS BIOQUÍMICOS

pemolina de magnesio en el aprendizaje, y ésta fue


la labor de Plotnikoff [1966], quien trabajó con
aprendizaje de evitación. El grupo al cual se le ad­
ministró la droga 30 minutos antes de la sesión de
entrenamiento aprendió significativamente más rá­
pido que el grupo de control al cual se le aplicó
una solución salina. Las latencias también fueron
más cortas y la extinción más lenta.
Sin embargo, otros autores consideran que la
pemolina de magnesio no mejora el aprendizaje sino
que aumenta la actividad general y por esto parece
tener influencia en el aprendizaje. El efecto estimu­
lante ile esta droga parece requerir cierto tiempo
para presentarse. Algunos detalles más bien técnicos
tienen importancia y, como no siempre se han con­
trolado, diversos autores han logrado distintos re­
sultados: vía de administración, dosis de la droga,
duración del tratamiento, tarea que se ha de apren­
der, etcétera.
La pemolina de magnesio se ha administrado a
sujetos humanos. Cameron observó notable mejoría
en la memoria de sus pacientes que no tenían severo
deterioro antes de la droga; los que mejoraron tenían
un cociente de memoria superior a 60 antes del tra­
tamiento. En otros estudios con seres humanos se ha
observado que la droga, por su carácter estimulante,
produce un estado de alerta que puede influir en la
capacidad de aprender.
El estado actual de este problema puede encontrar­
se en Weiss y Laties (1969), quienes dejan al lector
con la impresión de que la mayor parte de los estu­
dios con pemolina de magnesio fueron inadecuados
y mal controlados.

CONCLUSIONES

Después de pasar revista a los trabajos que estudian


la influencia del r n a en el aprendizaje, de la acetil-
colina y la colinesterasa y de la pemolina de magne­
CONCLUSIONES 179

sio, queda una ¡dea muy general sobre los factores


bioquímicos del aprendizaje. Ésta es una área en
la que diversos especialistas colaboran, sobre todo
psicólogos y bioquímicos. El panorama no está muy
claro todavía, y en algunos casos los resultados con­
tradictorios nos indican que es preciso seguir inves­
tigando en esta dirección.
Cameron, quien trabajó en esta área con sujetos
humanos, insiste en que la memoria normal no pue­
de mejorarse por medio de drogas. Hace notar que
la capacidad de aprender que un individuo tiene es
función de la interacción de la química y de la estruc­
tura de su cerebro, las cuales están determinadas
genéticamente, de modo que aumentar una mínima
parte de ese sistema sólo sirve para desequilibrar el
resto. No existe evidencia de que el aprendizaje
normal y complejo en seres humanos pueda ser me­
jorado.
Sin embargo, es preciso esperar los resultados de
más investigaciones antes de decir la última palabra
al respecto.
15
MODELOS M ATEM ATICOS
DEL APRENDIZAJE 1

Los modelos matemáticos han sido un antiguo ideal


en psicología. Nuestra disciplina tiene una larga tra­
dición de métodos cuantitativos para recolectar, des­
cribir y procesar los datos del comportamiento. El
trabajo realizado por Ebbinghaus [1885] puede des­
cribirse dentro de las lineas de las teorías matemá­
ticas del aprendizaje. Asimismo, la afirmación de
Thorndike de que todo lo existente existe en cierta
cantidad, y por eso puede ser analizado en términos
cuantitativos. Desde 1950 hay una inclinación, en la
psicología norteamericana, por los modelos matemá­
ticos que buscan predecir los detalles numéricos
exactos de los experimentos; tales modelos parten de
un artículo publicado por W . K. Estes en 1950, al
cual me referiré más adelante.
No existe en realidad nada que pueda denomi­
narse “ teoría matemática del aprendizaje” . Éste es
sólo un enfoque de las teorías, no una teoría en sí
misma. Hoy muchos psicólogos están interesados en
modelos matemáticos para estudiar problemas muy
diferentes. El primero de estos problemas ha sido el
condicionamiento clásico, y luego el condicionamien­
to instrumental, el aprendizaje selectivo y la conec-
ción estímulo-respuesta. Incluso hipótesis cognosciti­
vas han sido representadas en forma matemática.
1 El autor desea agradecer la ayuda del Dr. W. K. Estes,
quien leyó el original de este trabajo e hizo importantes suge­
rencias. Parte del artículo fue publicada originalmente en la
Revista Mexicana de Psicología, 1968, i, 164-171. Con autori­
zación.
[ 180]
DEFINICIÓN 181

La contribución más importante d e los modelos


matemáticos es mostrar la riqueza de relaciones que
existe en los datos experimentales. Los especialistas
están interesados en explicar cóm o puede predecirse
esa red de relaciones a partir de una concepción
simple acerca de las leyes que gobiernan el comporta­
miento de los sujetos.
El modelo tiene dos funciones:
a) describir los datos en forma económica y
b) explicarlos.
En los modelos matemáticos originales la variable
dependiente era la probabilidad de las diversas res­
puestas. El problema residía en descubrir cómo cam­
bia la probabilidad de la respuesta de un ensayo a
otro como resultado de las consecuencias de la
respuesta. Incluso en la actualidad los modelos ma­
temáticos son sumamente específicos; en otras pala­
bras, diferentes situaciones pueden requerir diferen­
tes modelos; se encuentra que un modelo encaja en
los datos de la situación A, no encaja en B, lo hace
en C, parcialmente en D, y muy bien en E. Por esta
razón, y también por su valor heurístico, diferentes
modelos matemáticos "compiten” para explicar las
situaciones complejas.
Los modelos son siempre representaciones simpli­
ficadas, idealizadas e incompletas del comportamiento
de los organismos. Un modelo puede funcionar a dos
niveles; semicuantitativo y específicamente cuantita­
tivo; es posible que al primer nivel un m odelo dado
sea capaz de representar los datos experimentales,
pero que fracase al nivel cuantitativo específico.

DEFINICIÓN

¿Qué es la teoría matemática del aprendizaje? " . . .Es


teorizar e investigar en el aprendizaje por medios
matemáticos explícitos. Si las matemáticas se consi­
deran en sentido amplio com o pensamiento lógico
y riguroso, cualquier científico que formule su teoría
182 MODELOS MATEMÁTICOS

con precisión y derive sus implicaciones por argu­


mentos lógicos está aplicando matemáticas a su
disciplina científica” [Atkinson et al., 1965].
En las ciencias del comportamiento las teorías
matemáticas han surgido principalmente en el cam­
po de la psicología experimental y, dentro de ella,
específicamente en las áreas del aprendizaje, percep­
ción y psicofísica. Los datos experimentales en estas
ramas muestran la regularidad y consistencia que se
requiere para poder formular las leyes en forma
matemática.
Al progresar la ciencia, sus teorías adquieren
cada vez más forma matemática. Éste es un hecho
bien conocido en la historia de la ciencia. En todos
los casos se trata de encontrar regularidades, y de
allí formular predicciones acerca de los eventos fu­
turos. Como cualquier otra teoría, los modelos ma­
temáticos se han construido para explicar los datos
recogidos, predecir futuros eventos y guiar la expe­
rimentación.

VENTAJAS

Los modelos matemáticos tienen cinco ventajas sobre


las teorías de tipo verbal:
¡ 1] Explican mejor las situaciones complejas. Si
una teoría incluye varios procesos que pueden in­
teractuar con el fin de facilitarse o inhibirse unos a
otros, en muchos casos es difícil saber si una afirma­
ción dada se deriva o no de la teoría. La estructura
matemática hace justicia a estas situaciones.
2] Las matemáticas exigen que el teórico piense
en forma precisa acerca de sus postulados. Muchas
veces se descubren afirmaciones ocultas en la forma
verbal de la teoría. Éste puede considerarse el efecto
“ terapéutico” de los modelos matemáticos.
3] Las teorías cualitativas no pueden predecir
detalles cuantitativos. Un fenómeno puede ser dema­
siado pequeño para ser detectado por la técnica de
HISTORIA 183
medición usada. Sin embargo, el enfoque matemático
puede estipular la magnitud del efecto predicho, y
así es posible hacer pruebas experimentales del nivel
de sensibilidad adecuado. Por esto “ una mala teoría
cuantitativa es mucho más fácil de eliminar que una
mala teoría cualitativa’’.
4] Por medio de las matemáticas es posible elegir
entre dos teorías opuestas. Es posible hallar qué pre­
dicciones de una teoría entran en conflicto con las
predicciones de la otra, y es factible planear un ex­
perimento para ver cuál de las dos es correcta. Ana­
lizando la teoría cuidadosamente evitamos el peligro
de hacer experimentos que no van a proporcionar
ninguna información significativa.
5] Si una teoría matemática no funciona, algunas
veces es posible encontrar el error en uno o varios
axiomas, y modificarlos. Por otra parte, las teorías
cualitativas muchas veces tienen que ser eliminadas
completamente; claro está que un teórico puede ne­
garse a rechazar su hipótesis a pesar de los hechos
en contra de ella, como se observa con cierta fre­
cuencia.
Lo anterior no implica que usar las matemáticas
adecuadas lleve necesariamente a construir teorías
psicológicas correctas. En psicología tenemos algunas
teorías verbales de gran calidad, y algunas teorías
matemáticas bastante deficientes.

HISTORIA

Mencioné antes los trabajos de Ebbinghaus [1885]


y de Thorndike [1898] sobre el aprendizaje, cuyos
resultados fueron presentados en forma matemática.
Unas décadas más tarde Thurstone postuló un siste­
ma de axiomas, basado en consideraciones psicoló­
gicas, que llevó a deducir la función “racional” del
aprendizaje. Thurstone utilizó un enfoque probabi-
lístico.
Clark Hull, en sus Principies o f Brhaviar [1943],
184 MODELOS MATEMÁTICOS

formuló una serie de postulados que se referían a


un número de variables identificadas en experimen­
tos anteriores. Tales postulados se enunciaron tanto
verbalmente com o en forma de ecuaciones matemá­
ticas. En muchos casos un postulado era la genera­
lización de un resultado empírico. La teoría de Hull
es, seguramente, la mejor integrada y formalizada de
todas las teorías del aprendizaje. Es una teoría deter­
minista cuyo concepto central es la resistencia del
hábito (sHr), e introdujo factores probabilísticos
sólo como oscilaciones al azar (sOr) en relación con
una respuesta promedio.
Rashevsky [1948] atacó los problemas de la fisio­
logía general desde un punto de vista matemático.
En relación con la psicofisiología formuló nueve
postulados y nueve ecuaciones. Su sistema intentó
explicar fenómenos tales com o tiempo de reacción,
aprendizaje de elección, intensidad de discrimina­
ción, etcétera.
McCulloch [1952] postuló un modelo basado en
la cibernética. Usó el álgebra como su instrumento
matemático básico. Propuso postulados a tres niveles,
de lo general a lo particular. Su objetivo era explicar
el funcionamiento del sistema nervioso central y los
problemas básicos de la psicología; usó términos tales
como "propósito” , "ideas” , “mente” , etc., en su sis­
tema.
Entre 1945 y 1950 el Zeitgeist o espíritu de la
época parecía estar listo para recibir los modelos
matemáticos. Por una parte los teóricos del apren­
dizaje habían realizado un valioso trabajo en su
intento de integrar los hallazgos del laboratorio, y
por otra parte la teoría de la información había
abierto nuevas puertas. G. A. Miller y F. E. Frick
[1949] publicaron un trabajo titulado "Statistical
Behavioristics and Sequences o í Responses” , que desa­
rrolló la noción de probabilidad de los eventos.
Sin embargo, el artículo de Estes titulado "T o -
ward a Statistical Theory oí Learning” [1950] fue la
HISTORIA 185

influencia más importante que recibió la psicología


matemática. El sistema de Estes se denomina tam­
bién "teoría del muestreo de estímulos" (stimulus
sampling theory, abreviado s st ), y usa la noción de
que la respuesta de los sujetos está determinada por
un proceso de muestreo definido en una población
hipotética de elementos de estímulo
Bush y Mosteller [1951], en “ A Mathematical
Model for Simple Learning” , formularon sus modelos
estocásticos (probabilísticos) del aprendizaje.
En los últimos diecisiete años varios psicólogos
han estado trabajando con diferentes modelos mate­
máticos del aprendizaje. Los más importantes entre
ellos son: W . K. Estes, C. Burke, R. Bush, F. Moste­
ller, G. Miller, W . McGill, R. D. Luce, P. Suppes,
F. Restle, R. C. Atkinson, G. H. Bower, E. J. Cro-
thers, etcétera.
El Handbook of Mathematical Psychology [1963,
1965], en tres volúmenes, editado por Luce, Bush y
Galanter, presenta un excelente resumen de este cam­
po de trabajo. En 1964 se fundó el Journal of Mathe­
matical Psychology para comunicar la vitalidad de
la investigación realizada en psicología matemática.
Atkinson y sus colaboradores, en el libro Intro-
duction to Mathematical Learning Theory [1965],
escriben: “ No es posible saber si en un futuro
cercano las teorías matemáticas aparecerán como
parte sustancial de la psicología, más de lo que
sucede, digamos, en biología. Muchos de los intere­
santes fenómenos de la psicología parecen estar más
allá del alcance de las teorías matemáticas exactas.
Esta afirmación es aceptable si uno no intenta enu­
merar exhaustivamente las áreas en las cuales el
enfoque matemático será fructífero y las áreas en las
cuales no lo será. Esta lista cambiará con cada ge­
neración y con el avance del conocimiento. En este
momento la lista de resultados positivos incluye...
sólo las áreas conocidas ampliamente com o psicología
experimental y pruebas mentales, y excluye la mayor
186 MODELOS MATEMÁTICOS

parte de la psicología evolutiva, clínica y de perso­


nalidad, social y fisiológica” [p. 5].

APL1CAB1L1DAD

Los modelos matemáticos se han formulado y pro­


bado para muchos fenómenos y situaciones. A pesar
de la anterior advertencia de Atkinson et al., deseo
señalar 31 situaciones a las cuales se aplican modelos
matemáticos. Quiero insistir en que esta lista no im­
plica que las teorías matemáticas puedan aplicarse
sólo a los fenómenos anotados más abajo, sino que
son fructíferas, al menos, con ellos:

1] Condicionamiento clásico
2] Condicionamiento instrumental
3] Generalización de estímulos
4] Aprendizaje mecánico de series
5] Aprendizaje de discriminación
6] Generalización mediada
7] Aprendizaje de pares asociados
8] Memoria verbal libre
9] Memoria de corta duración
10] Identificación de conceptos
11] Aprendizaje probabilístico
12] Reconocimiento
13] Detectación de señales y reconocimiento en
psicofísica
14] Aprendizaje de imitación
15] Aprendizaje de evitación
16] Ensayo y error vicario ( )
v t e y latencia al
elegir
17] Estímulos compuestos
18] Elección de pares que se comparan
19] Investigaciones paramétricas del impulso
20] Intensidad del estímulo condicionado
21] Intervalo entre e c (estímulo condicionado)
y E t (estímulo incondicionado)

22] Variaciones en refuerzo


EL MODELO MATEMÁTICO DE ESTES 187
23] Juegos de interacción entre dos personas
24] Tiem po de reacción
25] Recuperación espontánea y olvido
26] Interferencia retroactiva
27] Interacción múltiple de personas
28] Desplazamiento y conflicto
29] Aprendizaje infantil de sistemas en minia­
tura
30] Aspectos de la adquisición de un segundo
idioma
31] Procedimientos óptimos de enseñanza

EL MODELO MATEMÁTICO DE ESTES

W. K. Estes nació en 1919, estudió en la Universidad


de Minnesota bajo la dirección de B. F. Skinner. En
1943 recibió su Ph. D. en psicología con una tesis
sobre los efectos del castigo, en completo acuerdo
con las ¡deas de Skinner [Estes, 1944]. Ya hemos
analizado sus trabajos al estudiar el castigo, en el
capitulo 9. En este lugar presentaremos en detalle
su teoría matemática, como “ muestra representativa"
del trabajo que se está realizando en la actualidad
sobre psicología matemática, y también debido a que
Estes fue el pionero en esta área.
Debido a su interés en los modelos matemáticos,
Estes se separó de Skinner, quien no estuvo de
acuerdo con la necesidad de proponer teorías com­
plejas en este estado de desarrollo de la psicología.
El sistema de Estes es similar ál de Guthrie, aunque
nunca estudió bajo su dirección; de hecho, escribe
que su modelo matemático es un intento de hacer
más precisas ciertas ¡deas de Guthrie.
. Los conceptos que forman su teoría estadística del
aprendizaje se formularon inicialmente en el verano
de 1948, después de estudiar curvas de adquisición;
Estjes observó que era posible usar numerosas curvas
matemáticas con esos datos experimentales, aunque
él deseaba encontrar una función simple para des­
188 MODELOS MATEMÁTICOS

cribir el fenómeno de la adquisición en todos los


animales. Prefirió no considerar el aprendizaje como
un proceso de crecimiento determinístico, sino como
un campo de probabilidades comportamentales.
En su contribución al proyecto A de la American
Psychological Association, editado por Koch [1959],
Estes describe en la forma siguiente las característi­
cas de su sistema:
a) Fisicalismo: es el hecho de usar los métodos y
objetivos de la ciencia física en psicología, e inclusive
mantener un lenguaje común entre física y psicología.
b) Operacionalismo: consiste en preferir los con­
ceptos que tengan un referente experimental directo.
El enfoque estadístico de la teoría del aprendizaje
omite los términos que tengan que ver con motiva­
ción, percepción y cognición. Debido a esto puede
acusársele de ser, com o dice Estes, "estrechamente
conductista,' rígidamente mecanicista, y ciegamente
asociacionista” . En todo caso, desea estudiar los pro­
blemas “por debajo".
c) Empirismo-, es la intención de permanecer con
un pie en el laboratorio. Estes insiste en que los
problemas deben resolverse por experimentación, no
por discusión.

Nociones básicas

Conociendo las anteriores actitudes es más fácil en­


tender el sistema. Estes encontró que el fenómeno
de adquisición puede considerarse básicamente como
un proceso estadístico. Sin embargo, una sola curva
de adquisición no puede describir el aprendizaje en
todos los animales. Dice: "Debemos preguntarnos qué
grupo particular de conceptos y supuestos nos capa­
citará tanto para deducir una curva promedio que
describa el curso general de la adquisición, como
para explicar las desviaciones de esas tendencias de
grupo” . Con el fin de lograrlo, construyó su modelo
matemático cuyas ideas básicas son: el punto de
EL MODELO MATEMATICO DE ESTES 189
iniciación es empírico; la variable dependiente es la
probabilidad de respuesta; la situación estimulo se
define como “ la población de componentes o aspectos
del ambiente total que varían independientemente";
los elementos de estimulo son los aspectos o partes
de la situación estímulo; las fuentes de variación al
azar son de dos tipos: cambios accidentales en el am­
biente (com o ruidos, luces), y cambios en el sujeto;
las respuestas son de dos tipos:
A j: en el experimento de condicionamiento ope­
rante es el comportamiento que resulta en oprimir
la palanca durante un cierto intervalo de tiempo.
A 2: en esa misma situación es cualquier otro
comportamiento que no resulta en oprimir la palanca
durante ese tiempo dado.
Las dos clases de respuestas son la única alterna­
tiva en la situación. Cada elemento de la situación
estímulo se condiciona a (o se conecta a) A, o A 2;
un elemento dado no puede condicionarse tanto a
Aj como a A 2, o a ninguno de ellos. En otras pala­
bras, las clases de respuestas son mutuamente exclu-
yentes y exhaustivas.
En cada ensayo solamente una muestra de los n
elementos (población potencial) es activa o efectiva.
Por esto el sistema de Estes se denomina “ teoría del
muestreo de estímulos" (stimulus sampling theory,
s s t ).

En el esquema original cada elemento de estímulo


tiene una probabilidad 0 de ser elegido com o mues­
tra, independientemente de cuántos elementos se ha­
yan elegido previamente. El número de elementos de
la muestra varía al azar de un ensayo al siguiente.
El tamaño promedio de la muestra consta de n $
elementos. En un segundo esquema, un número fijo
de elementos se elige al azar, sin remplazo, de los
u elementos de la población; en este esquema el
elegir dos elementos no son eventos independientes
sino negativamente correlacionados: elegir uno pue­
190 MODELOS MATEMÁTIOOS

de evitar el evento de elegir otro, porque sólo se


elige un número fijo de ellos.
Las probabilidades de las varias respuestas depen­
den del estado del sistema. Éste cambia de un ensayo
a otro. Debemos ante todo conocer la proporción de
elementos de estímulo que se asocia con cada res­
puesta:
p: proporción de elementos asociados con la res­
puesta A,
1 — p : proporción de elementos asociados con la
respuesta A¡¡
Por lo tanto, para describir el estado del sistema
basta con un solo número, p.
Ejecución: en cada ensayo se determina por los
elementos que se experimentan o que se “ eligen”
(inuestrean) en ese ensayo. La probabilidad de una
respuesta cualquiera es igual a la proporción de los
elementos elegidos en ese ensayo que se conecta con
esa respuesta.
Refuerzo: un reforzador es simplemente cualquier
hecho que determina a qué clase de respuestas se
condicionan los elementos de estímulo que se “ mues-
trean” en un ensayo dado. El sujeto recibe algún
refuerzo después de haber elegido una muestra de
estímulos; las resultantes hacen cambiar las conexio­
nes condicionadas de los elementos “ muestreados” en
un ensayo, alterando por lo tanto el estado del
sistema. Si identificamos r clases de respuestas, se
definen r -|- 1 eventos teóricamente reforzadores, que
llamamos E y , Ej, E3. . . . Er

Eventos reforzadores: E,„ E,, Ea.............. Er


Respuestas: ninguna, A lt A 2.............. A,.

Ey quiere decir que ninguna respuesta se reforzó.


Si un ensayo termina con el evento reforzador Ek,
todos los elementos muestreados en ese ensayo se
condicionan a la respuesta At, a menos que se hayan
condicionado previamente. Por ejemplo, si un ele­
EL MODELO MATEMÁTICO DE ESTES 191

mentó conectado con A, se muestrea en un ensayo


en el cual ocurre el refuerzo E2, entonces este ele­
mento “ cambia” su conexión condicionada de A, a
A 2, en forma de todo o nada. Sin embargo, esta
interpretación del refuerzo en términos de contigüi­
dad (similar a la interpretación dada por Guthrie)
no parece ser necesaria a la teoría de Estes.
La teoría presupone una ley general d.el efecto: si
la resultante de un ensayo particular tiene el efecto
de aumentar la probabilidad de la respuesta A 1( en­
tonces esa resultante se considera com o Ex (ver
arriba) en el modelo. Este esquema del refuerzo pue­
de tener en cuenta los efectos cuantitativos de las
variaciones en parámetros tales como la magnitud, la
calidad y el retardo del refuerzo, como veremos más
adelante.
Aprendizaje: Estes lo define como cambios siste­
máticos de probabilidad de respuesta que se relacio­
nan con unas variables de estímulo dadas". No todos
los cambios en probabilidad de respuesta se deben al
aprendizaje. Por ejemplo, si cambiamos la inercia de
la palanca en una caja de Skinner, si apagamos las
luces, etc., la probabilidad de la respuesta varía. El
fenómeno del aprendizaje en la teoría de Estes se
considera dentro de un marco de referencia proba-
bilistico; se da gran importancia al aprendizaje por
repetición (a la manera de Guthrie), y el condicio­
namiento se considera un fenómeno de todo o nada.
En un ensayo de adquisición todos los elementos de
estímulo muestreados por el organismo se conectan
con la respuesta reforzada; esta respuesta reforzada
recibe un aumento de probabilidad.
Extinción: se explica por interferencia. La pro­
babilidad de una respuesta A a declina mientras que
la probabilidad de la respuesta que compite con
ella, Ai, aumenta. Las leyes de la adquisición y de
la extinción son iguales.
Ecuaciones diferenciales: el estado del sistema se
da por las fracciones de elementos de estímulos que
192 MODELOS MATEMÁTICOS

se condicionan a las varias respuestas alternativas.


Las proporciones cambian de un ensayo al siguiente
com o resultado de los eventos reforzadores. Los ma­
temáticos estudian dos tipos de ecuaciones diferen­
ciales: ordinarias y parciales; Estes ha usado ecua­
ciones diferenciales para estudiar las probabilidades
de respuesta en su sistema. Supongamos que un
evento reforzador Et ocurre en el ensayo n\ deseamos
calcular la probabilidad de que un elemento se con­
dicione a Ai al comienzo del siguiente ensayo, n -f-
1. Esta probabilidad pn + , es:

p B+ 1 = p n + , (1 —pn) Ecuación la
p„ + 1 = (1—6) p n t » Ecuación 16

En esa ecuación, d es la probabilidad de que un


estímulo evento se “ muestree” en un ensayo dado.
p n es la probabilidad de la respuesta A , en el ensayo
de adquisición n. pn t \ es la probabilidad de la
respuesta Aj en el ensayo de adquisición n + 1.
Como es fácil observar, la ecuación la es idéntica a
la ecuación 16. pn + , p,„ lo cual implica que
el evento reforzador Et aumenta la probabilidad de
Aj. p n ♦i es una función lineal de p n. Un evento
reforzador Ex aumenta p hasta un cierto límite o
asíntota de la unidad, sólo si el evento Et se presenta
en sucesión un número indefinidamente grande de
veces; entonces, cuando pn = \> p n , x = 1.
Una de las principales limitaciones de este modelo
matemático es que debemos conocer de antemano el
valor de 6.
Si un evento reforzador E2 se presenta en el
ensayo n, baja la probabilidad p n y aumenta 1 — p„,
o sea la probabilidad de que el elemento se conecte
con A 2. Esta situación se puede representar por una
ecuación en dos formas:

Pn +l = ( \ - d ) p n > ' . 0 = (1 ~ 6 ) P n
Ecuación 2a
EL MODELO MATEMATICO DE ESTES 193

(i - p„+1) = (i - 9) (i - pn) + e
Ecuación 26

En resumen:

Pn SÍ E0„

Pn + 1 = < (1 ~ 0 ) p n SÍ E2>„ Ecuación 3

(1 ~ 0 ) p n + . SÍ Elin

En esta ecuación E1(„ quiere decir "evento Ej que


ocurre en el ensayo n” . En forma similar E2m
quiere decir “ evento E2 que ocurre en el ensayo n” ,
etcétera.
Estas ecuaciones son la parte central del modelo
lineal. Muestran cóm o una variable (p„) cambia de
valor desde un punto en el tiempo (el ensayo n) al
siguiente punto en el tiempo (ensayo n + 1).
Curva de aprendizaje: con el fin de obtener cur­
vas de aprendizaje, Estes presenta gráficamente las
probabilidades de ejecución, p „ pt, ps> . . . , pn, en los
ensayos sucesivos 1, 2, 3 ... n, del experimento. Con
el fin de predecir la curva del aprendizaje, tenemos
que partir del valor pn porque el proceso parte de
pn en el ensayo 1. Después de eso trazamos el efecto
de un ensayo a otro, aplicando la ecuación 1 o la
ecuación 2. Calculamos p 2 de p j, p 3 de p2, etc.,si
tenemos una secuencia consistente de eventos. La ex­
presión general es:

Pn = 1 - (l-/b ) (1 - d)n-, Ecuación 4

Esta ecuación nos da pn como una función negativa­


mente acelerada de los ensayos de práctica, n. El
límite de pn es 1. Se aplica sólo si ocurre una se­
cuencia uniforme de eventos Ej. La figura 22 mues­
tra la gráfica de p n que se describe en la ecuación 4.
C om o ejemplo de la aplicación de los principios
194 MODELOS MATEMÁTICOS

ENSAYOS

figura 22. Representación gráfica de la función pn


si p x = 0.20, y si a la proporción de aprendizaje 0
se le dan los valores de 0.05, 0.10 y 0.20. [Tomado de
Bower, en Hilgard y Bower, 1966, con permiso del
autor y de Appleton-Ceritury-Crofts.]

anteriores, podemos estudiar la forma en que el


sistema maneja la variación en resultantes reforzadas
en una situación de aprendizaje. Consideremos la
situación de una rata hambrienta que se está entre­
nando en un laberinto en T ; le damos 0.5 gramos
de alimento por elegir respuestas de la clase y
0.3 gramos por respuestas de la clase A 2. Bower
[Hilgard y Bower, 1966] describe estas resultantes
com o 0X y 02, respectivamente. Según la teoría de
Estes, queremos que la resultante Oí aumente la
probabilidad de la respuesta Aj, y que la resultante
02 aumente la probabilidad de la respuesta A 2 (o en
otras palabras, que disminuya pn). Si consideramos
CONCLUSIÓN 195

que la cantidad mayor de premio es más efectiva que


la cantidad menor, deseamos que el efecto de Oí
sobre sea mayor que el correspondiente efecto de
02 sobre 1 — p n. Las ecuaciones, basadas en la
ecuación 3, serán:

Ecuación 5

La efectividad mayor del premio más grande se


indica al presuponer que 0 !> 02. La primera ecua­
ción linear aumentará a pHmás de lo que la segunda
aumentará a 1 — p„.
El modelo matemático de Estes se ha •aplicado con
éxito a muchas situaciones, entre las cuales pueden
mencionarse: la respuesta ante un estímulo com ­
puesto, aprendizaje probabilístico, recuperación es­
pontánea, olvido, efectos del impulso en el apren­
dizaje, etcétera.

CONCLUSIÓN

La anterior revisión es simplemente una introduc­


ción al uso de los modelos matemáticos en el apren­
dizaje, haciendo especial hincapié en el modelo ma­
temático de Estes.
Los historiadores de la ciencia nos muestran que
entre más se desarrolla una ciencia más adquiere una
forma matemática en la manera de presentar sus
principios y sus teorías. Las matemáticas son sólo
instrumentos, y pueden usarse en forma adecuada o
inadecuada. La psicología matemática tiene un gran
futuro, que dependerá principalmente del avance de
la psicología como ciencia y de la capacidad de los
psicólogos para expresar sus hallazgos en forma ma­
temática.
16

APRENDIZAJE Y EDUCACIÓN

En el mundo contemporáneo, en las últimas décadas


del siglo xx existe una urgente necesidad de educar
a las grandes masas de la humanidad que siguen
siendo analfabetas, especialmente en las dos terceras
partes del planeta que se consideran com o “ subde­
sarrolladas” o, más cortésmente, "en desarrollo”. Los
problemas del analfabetismo no son exclusivos del
mundo subdesarrollado sino que existen en todos los
países, no hay ninguno que tenga un porcentaje nulo
de analfabetismo. En América Latina la situación
varía inmensamente, desde Argentina, donde más del
90% de la población lee y escribe, hasta Haití, donde
menos del 10% se encuentra en estas condiciones
privilegiadas.
Igualmente hay una urgente necesidad de entre­
nar gente en profesiones de tipo medio, y una ne­
cesidad similar de enfrenar gente a niveles muy
altos para que hagan avanzar las fronteras del cono­
cimiento. La carencia de maestros a nivel de escuela
primaria, secundaria y universitaria se iguala con la
carencia de técnicos y científicos a alto nivel. Por
otra parte, los países más desarrollados compiten por
el personal altamente calificado, y tratan de poner
las condiciones en las cuales florezcan la ciencia y
la técnica.
Esta crisis en la educación ha hecho que muchos
se pregunten en qué podría colaborar la psicología
del aprendizaje para solucionar esos urgentes proble­
mas. ¿Puede acaso indicarnos cómo entrenar maestros
más rápida y eficazmente? ¿Podría acaso sugerir me­
didas para acabar con tasas de analfabetismo del
[1 9 6 ]
APRENDIZAJE Y EDUCACIÓN 197

40% y más? Los psicólogos especialistas en el apren­


dizaje no son siempre expertos en los problemas
educativos, y hay una “división del trabajo" muy bien
marcada entre psicólogos (que son científicos y tra­
bajan muchas veces con sujetos animales en condicio­
nas de laboratorio) y educadores (que están prin­
cipalmente interesados en problemas prácticos y tra­
bajan en el salón de clase). Sin embargo, en los años
sesenta los psicólogos especialistas en el aprendizaje
y los educadores se dedicaron a trabajar por el
objetivo común de tratar de solucionar los serios
problemas educativos del mundo moderno.
La instrucción programada, que fue originalmente
propuesta por un psicólogo, Pressey, y desarrollada
en su forma final por otro psicólogo, Skinner, ha
sido una de las más importantes contribuciones. El
te xto programado y la máquina de enseñar han lle­
gado a todas partes, y están causando una revolución
en la educación. La instrucción programada es en
este momento una empresa de enorme importancia
desde el punto de vista educativo, científico y comer­
cial, en casi todo el mundo. Más adelante nos re­
feriremos con cierto detalle a esta área de interacción
do la psicología del aprendizaje y la educación. Éste
es. un libro de psicología del aprendizaje, no de
psicología educacional, y el presente capítulo no
puede ser completo ni intenta serlo. El lector inte­
resado puede estudiar la obra editada por Hilgard
[1964], y la escrita por Bugelski [1964] sobre aplica­
ciones de la psicología del aprendizaje al proceso de
la educación.
Los educadores tienden en general a ser conserva-
di )res, y la educación como institución está bajo el
control'directo de la sociedad. Sociólogos y antro-
p Mogos están de acuerdo en afirmar que una de las
principales funciones de una sociedad es conservarse
en su forma actual. Las innovaciones propuestas por
lc«s psicólogos chocan con el espíritu conservador de
la sociedad, que considera que “ así se ha hecho siem­
198 APRENDIZAJE Y EDUCACIÓN

pre” y así desea que se siga haciendo, a pesar de


verse claramente cuáles han sido las consecuencias
de ese tipo tradicional de educación. La costumbre
no debería hacer ley, pero parece que la hace. Sin
embargo, en ciertos países se han formado grandes
centros de investigación sobre aprendizaje humano y
sobre aplicaciones de la psicología del aprendizaje a
la instrucción.
Una serie de hechos, com o los presentados en el
capítulo 3, han podido transferirse del laboratorio
al salón de clases sin mayores dificultades. Otros
principios han sido más difíciles de aplicar, y otros
parece que sea imposible hacerlo. Los trabajos sobre
aprendizaje verbal se han aplicado con cierta facili­
dad a la educación formal, de tipo universitario,
porque es fácil ver que gran parte de la instrucción
en este nivel se refiere en esencia a aprendizaje
verbal (aunque se trate de materiales “ no verbales” ,
com o en el caso de las matemáticas). Otros trabajos,
por ejemplo los relacionados con los límites filoge-
néticos del aprendizaje, permanecen dentro del área
de la ciencia y no parece que tengan aplicaciones en
la educación, en la misma forma en que la mayor
parte de las matemáticas, la física y la biología
contemporáneas no se aplican directamente; justifican
su razón de ser com o ciencias y lo mismo sucede con
muchos trabajos de psicología animal.
Los psicólogos, sin embargo, han estudiado la
importancia que tiene el desarrollo ontogenético en
el aprendizaje de animales y hombres, y estos traba­
jos han tenido una enorme importancia en el proceso
de la educación. Las investigaciones de Piaget y sus
colaboradores en Ginebra han tenido una influencia
decisiva en el proceso de la enseñanza. Piaget mismo
trabajó específicamente con los problemas relaciona­
dos con la enseñanza de las matemáticas a diversos
niveles. En Colombia, Federicí [1962] ha realizado
importantes contribuciones desde el punto de vista
de la lógica matemática, el desarrollo del pensamien­
ADIESTRAMIENTO Y EDUCACIÓN 1 99

to y los procesos psicólogicos que intervienen en la


enseñanza y el aprendizaje de las matemáticas.
Un problema de importancia central, que todavía
no hemos resuelto, es el de los objetivos de la educa­
ción. ¿Para qué educar? Se sabe que queremos formar
hombres que sean mejores ingenieros (si ésta es su
profesión), pero al mismo tiempo mejores ciudada­
nos (cualquier cosa que esto quiera decir...), me­
jores miembros de la sociedad y especialmente seres
humanos más completos. El problema de los objeti­
vos, que pertenece a la filosofía de la educación, tiene
muchos aspectos, y no podemos decir que todos se
hayan siquiera planteado correctamente. Vamos a
educar a los jóvenes, a producir un tipo de hombre
"m ejor” . ¿Pero con qué punto de referencia vamos
a trabajar? ¿Hacia dónde debe ir la educación?

ADIESTRAMIENTO Y EDUCACIÓN

La mayor parte de los maestros nunca tienen que


enfrentar e6tos problemas de los objetivos de la
educación, sino que tienen que resolver asuntos más
concretos, relacionados con nuevos métodos de en­
señanza, motivación de los estudiantes y distribución
del material que se ha de aprender. Es preciso, por
lo tanto, distinguir claramente entre adiestramiento,
que es algo concreto, específico, como es el caso al
adiestrar un grupo de alumnos en las técnicas usadas
en los laboratorios de física, y educación, que es algo
amplio, general y se relaciona con problemas socia­
les y filosóficos como los estudiados antes.
Los psicólogos saben mucho más sobre adiestra­
miento que sobre educación. El análisis de las tareas
se ha realizado durante muchos años en psicología
industrial, y se han investigado las variables del
aprendizaje que tienen importancia en la realización
de esas tareas. Si se trata de aprender ruso en el
menor tiempo posible, o de aprender a manejar un
avión, el psicólogo analiza en detalle en qué con­
200 APRENDIZAJE Y EDUCACIÓN

siste la tarea en cuestión, y se pregunta qué variables


del aprendizaje entran en juego; la interacción es
siempre compleja, pero en todo caso hay mucho por
hacer; y efectivamente se ha hecho mucho. Sabemos
cómo se aprende, cóm o se olvida, si las respuestas
aprendidas se generalizan, se transfieren a otras situa­
ciones, etcétera.

MOTIVACIÓN

Parece ser que sin motivación no hay aprendizaje, o


al menos no hay ejecución. Pero a nivel humano la
motivación no consiste solamente en reducir impulsos,
sino también en explorar, en conocer los resultados,
en saber que se está agradando al maestro o se le
está fastidiando, etc. El estudiante aprende su lección
motivado por intereses intrínsecos a la tarea (el valor
del material que se ha de aprender) o extrínsecos
(la nota que va a recibir, la aprobación o desaproba­
ción de maestros, compañeros, padres, etc). La mo­
tivación intrínseca es siempre preferible y más efec­
tiva que la motivación extrínseca. Se ha olvidado
muchas veces que los seres humanos pueden pasar
innumerables horas aprendiendo teoría de conjuntos
porque es fascinante saber teoría de conjuntos y no
necesariamente porque en esa forma van a sacar una
buena nota, pasar al curso siguiente, y al siguiente,
y finalmente graduarse y ganar mucho dinero. En
numerosos casos se subvalora a los alumnos y su
capacidad de automotivarse.
El maestro como condicionador emocional, cuyo
pajjel veíamos en el capítulo 3, no puede descono­
cerse. A él corresponde mostrar la importancia del
material que se va a aprender y hacer que el estu­
diante descubra por sí mismo el valor de esa ciencia
o arte que trata de enseñarle. En muchos casos el
maestro está demasiado ocupado, tiene demasiados
alumnos, demasiadas horas de trabajo y demasiados
dolores de cabeza para servir efectivamente como
INSTRUCCIÓN PROGRAMADA 201

condicionador emocional. En otros casos cree simple­


mente que su función es convencer al alumno de
que debe estudiar o tendrá que repetir ese curso tan
aburridor. En la mayor parte de los casos el maestro,
aunque tenga muy buena voluntad, carece de cono­
cimientos atlecuados para cumplir eficazmente su
labor. Los especialistas en psicología del aprendizaje
tienen mucho que decir al respecto, y pueden ayudar
a formar mejores maestros, a todos los niveles.

INSTRUCCIÓN PROGRAMADA

En 192fi Pressey, un psicólogo de la Ohio State Uni-


versity, inventó una máquina para corregir exámenes,
o, mejor aún, para autocorregirse sin recurrir al
maestro. El sistema era muy sencillo: el estudiante
leía la pregunta, seleccionaba entre las respuestas
que tenía al frente (como pasa en los exámenes
“ objetivos” ) y oprimía el botón correspondiente a la
respuesta correcta. Si acertaba, aparecía la siguiente
pregunta; si había oprimido un botón equivocado
la pregunta original permanecía jjero la máquina re­
gistraba automáticamente un error; la pregunta no
desaparecía hasta que el estudiante no había opri­
mido el botón correspondiente a la respuesta co­
rrecta. En esta situación el refuerzo era el conoci­
miento de los resultados, el estudiante sabía que
había acertado porque podía pasar a la siguiente
pregunta. Al final se contabilizaba en la máquina el
número de errores cometidos.
La máquina de Pressey fue muy poco popular. El
país estaba atravesando |>or una situación muy es­
trecha, que terminó en la crisis económica de los
años treinta. Había escasez de trabajo en todos los
frentes y los maestros temieron, con razón, que la
máquina fuera a desplazarlos. Pressey continuó tra­
bajando con su instrumento, que nunca pasó de ser
una curiosidad y un “ juguete” .
En I9.r>'1 Skiniier decidió inventar una m anera
202 APRENDIZAJE Y EDUCACIÓN

de mecanizar el aprendizaje a nivel escolar, especial­


mente observando que los niños pendían demasiado
tiempo, no aprendían en la escuela lo que se suponía
que deberían aprender, e incluso una de sus hijas
tenía problemas a este respecto. Skinner inventó una
nueva máquina de enseñar, diferente de la inventada
por Pressey casi 30 años antes. Skinner aclara que
la máquina de Pressey precedió a la suya y que sus
trabajos se basan en la labor original de los años 30
realizada en la Ohio State University.
La enorme autoridad de que goza Skinner en el
campo de la psicología hizo que su máquina de en­
señar se popularizara y llegara a todas partes. A él
se debe, realmente, la moderna tecnología del apren~
dizaje [Skinner, 1968] y el desarrollo de la instruc­
ción programada en todos los frentes. El sistema de
Skinner difiere del de Pressey en varios puntos im­
portantes: no da las respuestas a elegir, sino que deja
un espacio en el cual el estudiante debe escribir su
respuesta; más adelante aparece la respuesta correcta
y el estudiante comprueba si acertó o no. El refuerzo
es ver que ha acertado. El material que se ha de
aprender se presenta en un programa, organizado en
forma tal que las respuestas se modelan mientras
progresa el proceso de aprendizaje. Se presenta en
forma tal que el estudiante no cometa errores; es tan
gradual que todas las respuestas constituyen aciertos.
El material puede presentarse por escrito, en un
film, oralmente, en forma de gráficas, etc. Se hace
una afirmación, se presenta una frase incompleta que
el estudiante debe completar (ésa es la pregunta),
y éste responde con base en la información recibida
en la afirmación original; pasa a la siguiente afirma­
ción que muestra si acertó en su respuesta, y así
continúa el proceso.
La instrucción programada tiene en este momen­
to dos formas: 1) libros programados, de los cuales
existen ya varias docenas y en los que se presenta
INSTRUCCIÓN PROCRAMADA 203

información sobre cualquier tema (digamos cálculo


integral y diferencial), gradualmente, en la forma
descrita antes de modo que el estudiante no cometa
errores; 2) máquinas de enseñar, basadas en los mis­
mos principios que los libros programados, y que
pueden usarse para enseñar cualquier disciplina,
desde la escuela elemental hasta los estudios posdoc­
torales.
Como podrá observarse, hacer los programas es
un asunto sumamente difícil, que requiere muchos
conocimientos del material que se va a presentar y
de psicología del aprendizaje. La persona encargada
de elaborar un programa debe saber mucho sobre la
organización lógica de los conocimientos y sobre su
organización psicológica.
Hay dos tipos de programas en uso en la actua­
lidad; 1] lineal, que se basa en Skinner y sus traba­
jos. El estudiante sólo da respuestas correctas y por
lo tanto siempre recibe refuerzo; 2] intrínseco (o
ramificado), que se basa en los trabajos de Norman
Crowder. El estudiante puede cometer errores; una
respuesta equivocada conduce a una explicación más
detallada del material.
Ambos tipos de programas están en uso. Como
puede verse, se basan en diferentes filosofías de la
educación, pero conducen aproximadamente a los
mismos resultados. El programa de Crowder es más
difícil de planear que el tle Skinner. La figura 23
presenta, en forma muy simplificada, una muestra
del tipo de preguntas que se le dan al estudiante en
el programa intrínseco (o ramificado), de Crowder.
De los tipos de programa y de la descripción an­
terior se concluye que hay dos tipos de respuesta que
el estudiante puede dar: 1] componer la respuesta,
que es el sistema usado por Skinner; 2] elegir la
respuesta entre varias posibilidades, que era el siste­
ma preferido por Pressey.
La instrucción programada se ha popularizado
mucho, y las ventajas y desventajas de este nuevo
204 a p r e n d iz a j e y e d u c a c ió n

figura 23. Instrucción programada; tipo intrínseco o


ramificado

tipo de enseñanza se han comparado con la enseñanza


tradicional. Es fácil presentar el mismo material a
grupos comparables de estudiantes, usando instrucción
tradicional (conferencias en clases, exámenes, etc.) e
instrucción programada y observar los resultados,
INSTRUCCIÓN PROGRAMADA 205
usando diferentes medidas. Casi todos estos experi­
mentos han demostrado la superioridad de la instruc­
ción programada sobre la instrucción tradicional.
Sin embargo, es preciso especificar sus ventajas y sus
desventajas, con cierto detalle. Las oentajas de la
instrucción programada son las siguientes:
1] Se garantiza que el estudiante aprende el ma­
terial. Cuando una persona lee un libro, no es posible
estar seguros de que entendió completamente su
contenido; cuando lee un libro programado estamos
seguros de que lo entendió perfectamente. Lo mismo
sucede con cursos dictados por maestros o tomados
con máquinas de enseñar.
2] £1 estudiante aprende a su propio paso. Los
estudiantes lentos aprenden más lentamente que los
rápidos. Se sabe que en las clases se realiza una
nivelación “ por lo bajo” , y que tanto los estudiantes
brillantes como los lentos se perjudican. Las máqui­
nas de enseñar reconocen la gran importancia de las
diferencias individuales en el aprendizaje. Skinner
dice que todas las cualidades de un buen tutor o
maestro individual las tiene la máquina de enseñar.
3] Ahorra mucho tiempo. Incluso los estudiantes
lentos aprenden en menos tiempo del que requerirían
en el salón de clases.
Pero las máquinas de enseñar presentan también
ciertas desventajas:
1] Producen aburrimiento en el estudiante inte­
ligente debido a que presentan el material en forma
demasiado detallada; él entendió algo muy pronto y
la máquina sigue repitiendo en diferentes formas la
misma información.
2] Sirven especialmente para presentar hechos,
conocimientos bien establecidos, que están relativa­
mente fuera de duda. Como en ciencia no hay nada
realmente "definitivo” , se corre el riesgo de dar una
imagen errada del estado actual de una disciplina.
En arte la situación es más complicada todavía, y las
206 APRENDIZAJE Y EDUCACIÓN

máquinas de enseñar tienen serias limitaciones en


esta área.
3] No preparan al estudiante para otras situacio­
nes. Como los conocimientos son muy específicos, es
probable que el estudiante no esté preparado para
situaciones diferentes de las estudiadas específica­
mente en el programa.
4] Los programas son difíciles de elaborar, re­
quieren mucho tiempo, dinero y la ayuda de perso­
nal muy bien calificado, tanto en la disciplina en
cuestión como en psicología del aprendizaje.
Sin embargo, las ventajas parecen ser mucho más
importantes que las desventajas. Los maestros real­
mente no se han “ eliminado” sino que se han
colocado en trabajos más importantes, tales como
dirigir seminarios, organizar el material, etc. En ge­
neral las máquinas de enseñar complementan la
labor de los maestros pero no los remplazan, al
menos hasta este momento. Hay una función que las
máquinas nunca podrán hacer, y es motivar a los
estudiantes, mostrarles la importancia del material
que se va a aprender, y ser realmente sus guías; éste
es un trabajo más importante que la trasmisión de
conocimientos, y los maestros están de acuerdo en
delegar parte de sus funciones en las máquinas,
conservando en cambio la parte más importante y
gratificante del proceso de la enseñanza.
En Latinoamérica Keller [1967] realizó un pro­
grama masivo de instrucción programada, en la
Universidad de Brasilia, enseñando cursos introduc­
torios a grupos muy numerosos de estudiantes. Se
enseñó tanto material teórico como un curso de
laboratorio, y se usó realmente un punto intermedio
entre instrucción programada e instrucción tradi­
cional.

AYUDAS TÉCNICAS

La instrucción programada es probablemente el lo­


AYUDAS TÉCNICAS 207

gro más importante de la moderna tecnología de la


instrucción que resulta de aplicar los principios de
la psicología del aprendizaje a la educación. Sin
embargo, existen también numerosas ayudas técnicas
que complementan y mejoran la enseñanza tradi­
cional.
Una de ellas es el uso de la radio y la televisión
con fines didácticos. En Colombia y México se han
usado en campañas muy amplias de alfabetización,
de enseñanza de técnicas agrícolas a los campesinos
y de diversas materias (matemáticas, idiomas, etc).
A nivel superior se usa la televisión en varias uni­
versidades, entre otras en la Argentina, para enseñar
cursos a grupos muy grandes de estudiantes. En la
Universidad de Wisconsin, en Estados Unidos, hay
un programa muy importante de enseñanza de psico­
logía con ayuda de la televisión.
Merece mencionarse igualmente el uso de discos
con fines didácticos. Se han utilizado para enseñar
idiomas, literatura, poesía y arte dramático, pero
parece que su alcance es mucho mayor. El material
se distribuye en forma progresiva y a diversos niveles.
Los laboratorios de idiomas se han refinado mu­
cho en los últimos años, y hacen uso de discos, gra­
badoras y programas de refuerzo. El estudiante debe
repetir una palabra, o anticipar la que el locutor va
a decir; acertar es el refuerzo; en algunos casos graba
su propia voz y la compara con la pronunciación del
maestro. El material también debe presentarse gra­
dualmente, es preciso reforzar al estudiante, y asociar
hechos para formar conceptos. Las investigaciones
sobre aprendizaje verbal se han usado casi sin m o­
dificación en esta área; el aprendizaje de pares
asociados es sumamente útil; estudiar lenguas extran­
jeras, sin embargo, no es lo mismo que estudiar
sílabas sin sentido aunque el estudiante principiante
parece creerlo.
La televisión y los discos se han usado incluso
para enseñar a niños retrasados mentales. La tele-
208 APRENDIZAJE Y EDUCACION

visión en color remplaza con relativa efectividad al


maestro en la enseñanza de lenguaje labial a los
sordos.
Por todo esto las ayudas técnicas (a veces deno­
minadas ayudas audiovisuales) pueden hacer que el
trabajo del maestro se simplifique y se haga más
eficiente. Tanto los niños de escuela primaria como
los estudiantes graduados aprenden más si ven en
un film los hechos que se les quiere enseñar que si
oyen al maestro hablar de ellos o leen en un libro
acerca de ellos.

LA TECNOLOGÍA DE LA INSTRUCCION

Lentamente la educación parece estar cambiando y


haciéndose más adecuada para el siglo en que vivimos.
Las reformas no siempre se reciben con entusiasmo,
y muchas veces se dice que usar máquinas de ense­
ñar va contra la dignidad del ser humano y nos
convierte a todos en autómatas. Las máquinas, claro
está, son sólo instrumentos, que pueden usarse bien
o mal. Si se usan mal no es culpa de las máquinas
sino culpa del hombre.
Quiero terminar insistiendo en que existen innu­
merables principios del aprendizaje que no se han
usado en la educación y que podrían causar una
verdadera revolución en el proceso de la enseñanza.
Unos pocos se han indicado en el capítulo tercero.
Especial mención merecen la ley del efecto, el apren­
der a aprender (learning sets), la importancia de las
diferencias individuales, los programas de refuerzo,
el papel de los incentivos secundarios y la motiva­
ción indirecta, la formación de conceptos, los pro­
cesos de la creatividad, la solución de problemas, el
aprendizaje como fenómeno de grupo (facilitación
social, inhibición social, etc.), los procesos de la
decisión, las investigaciones evolutivas de Piaget, el
análisis de la tarea que se ha tle aprender, el cono­
LA TECNOLOGÍA DE LA INSTRUCCIÓN 209

cimiento de los resultados, el aprendizaje como fenó­


meno afectivo, el propósito y la actividad del estu­
diante y muchos aspectos más cuya importancia
empieza apenas a ser reconocida.
L IB R O S BASICOS S O B R E P S IC O L O G ÍA D E L A P R E N D IZ A J E

La siguiente lista de libros presenta una visión amplia del


área del aprendizaje. Son lecturas recomendadas, que pueden
usarse para complementar un curso o para que el lector serio
pueda profundizar en el tema. Los libros abarcan diferentes
idiomas, diferentes países y diferentes enfoques, todos ellos
dentro del área de la psicología científica.
1] Bugelski, B. R., The Psychology o f Learning Applied to
Teaching, Indianápolis, Bobbs-Merrill, 1964.
Este libro presenta una descripción de los hechos del apren­
dizaje, las interpretaciones teóricas y la manera en que la
ciencia del aprendizaje puede contribuir a revolucionar la edu­
cación.
2] Eibl-Eibesfeldt. I., Grundriss der vergleichenden Verhal-
tenslehre. Ethologie, Munich, Piper Verlag. 1968.
Libro sobre aprendizaje animal, con especial referencia al
enfoque europeo contemporáneo.
3] Hilgard, E. R., y G. H. Bower, Theories o f Learning,
Nueva York, Appleton-Century-Crofts, 1966*.
Obra clásica sobre teorías del aprendizaje, que resume nu­
merosas investigaciones y presenta una visión muy actualizada
del área del aprendizaje. Hay traducción castellana de la se­
gunda edición ( Teorías del aprendizaje, México, Fondo de
Cultura Económica, 1961).
4] Honig, W. K. (ed.), Operant Behavior. Areas o f Research
and Application, Nueva York, Appleton-Century-Crofts,
1966. (Hay traducción castellana: Conducta operante, Mé­
xico, Trillas, 1975.)
Principal obra de condicionamiento operante. Cada uno de
los capítulos lo escribe un activo investigador en esa área. Sus
865 páginas representan una visión tan amplia como profunda
de esta rama de la psicología.
5] Kimble, G. A., Hilgard and Marquis’ Conditionning and
learning, Nueva York, Appleton-Century-Crofts, 1961.
Kimble actualizó y puso al día la obra de Hilgard y Marquis
sobre aprendizaje, publicada originalmente en 1940, y que
llamó la atención del mundo científico sobre la importancia
de este tema. La revisión de Kimble se ha usado como texto
en muchas universidades de diversos países. Hay traducción
castellana: Condicionamiento y aprendizaje, México, Trillas,
1969.
6] Koch, S. (ed.), Psyckology: A Study o f a Science, vol. 2,
Nueva York, McGraw-Hill, 1959.
[2 1 0 ]
LIBROS BÁSICOS 211

Este segundo volumen de la obra en siete tomos sobre la


psicología contemporánea versa sobre aprendizaje, y cada
capítulo lo escribe el científico que ha sido personalmente
encargado de la investigación y la teoría en esa área. Entre
los participantes en este tomo merecen destacarse: Estes,
Guthrie, Harlow, Logan, Millcr, Skinner y Tolman.
7] Le Ney, J. F., G. de Montpellier, G. Oléron, y C. Flores,
"Apprentissage et mémoire”, en P. Fraisse y J. Piaget
(eds.), Traité de psychologie expérimentale, vol. 4. París,
Prcsses Universitaires de France, 1967.
Buen resumen de la psicología del aprendizaje, como la ve
este grupo de psicólogos franceses. Muestra la importancia de
esta área de trabajo en Europa.
8] Madsen, K. B„ Theories of Motivation, Copenhage, Munks-
gaard, 1968*.
El original de este libro fue publicado en inglés, en Dina­
marca, y la traducción castellana apareció hace poco. Presenta
esquemas muy didácticos sobre las teorías de la motivación,
cuyas implicaciones para la comprensión de los fenómenos del
aprendizaje son muy claras.
9] Marx, M. H. (ed.), Leaming: Processes, Nueva York, Mac-
millan, 1969. Marx, M. H. (ed.), Leaming: Interactions,
Nueva York, Macmillan, 1970. Marx, M. H. (ed.), Leaming:
Theories, Nueva York, Macmillan, 1970.
Estos tres libros están escritos por los principales especialistas
en psicología del aprendizaje de la actualidad, y servirán de
fuente de consulta para investigaciones en esta área. La mayor
parte de los artículos son investigaciones originales altamente
recomendables.
10] Leaming and Motivation, Nueva York, Academic Press,
vol. 1, 1970; vol. 2, 1971; vol. 3, 1972; vol. 4, 1973; etc.
Esta es una revista dedicada exclusivamente a la psicología
del aprendizaje y de la motivación, que comenzó a publicarse
en 1970. Publica artículos originales y teóricos dedicados al aná­
lisis de los fenómenos y mecanismos básicos del aprendizaje y
de la motivación. Es la única revista del mundo dedicada ex­
clusivamente a estos dos temas.
11] Pavlov, I. P., Reflejos condicionados, Buenos Aires, Paidós,
1959.
La obra clásica de l’avlov fue escrita durante la primera
década del siglo xx y describe los experimentos realizados por
él y sus discípulos. Este libro ha sido el primero y más im­
portan^ de todos los que se han escrito sobre psicología del
aprendizaje.
12] Spence, K. W., y J. Taylor-Spence (eds.), The Psychology
of Leaming and Motivation, Nueva York, Academic Press,
vol. 1, 1967; vol. 2, 1968; vol. 3, 1969; vol. 4, 1970.
212 REFERENCIAS

Esta serie de libros se planeó para publicar anualmen­


te uno y presentar un resumen en profundidad de cada área
de la psicología del aprendizaje, escrito por el más grande
especialista mundial en la materia. Se han publicado hasta
ahora 8 volúmenes.
R E F E R E N C IA S

Amsel, A., “T he role oí frustrative nonrervard in noncontinuous


situations”, Psychological Bulletin, 1958, M , 102-119.
Amsel. A., y J. Roussel, “Motivational properties of frustration:
i. Effect on a running response of the addition of frustra­
tion to tlie motivational complex”, Journal of Experimental
Psychology, 1953, 4 ), 363-368.
Amsel, A., y J. S. VVard, “Motivational properties o í frustra­
tion: u. Frustration drive stimulus and frustration reduction
in learning", Journal of Experimental Psychology, 1954, 48,
37-47.
Anderson, E. E., “T he externalization of drive: I. Theoretical
considera tions", Psychological Revieu), 1941, 48, 204-224.
Appel, J. fi., “Punishment in the squirrel monkey Saimirí
sciurea", Science, 1961, 1 }}, 36.
Appel, J. B„ “Punishment and shock intensity”, Science, 1963,
141, 528-529.
Applezweig, M. H., "Response potential as a function oí
eííort". Journal of Comparative and Physiological Psychol­
ogy, 1951. 44, 225-235.
Aragó-Mitjans, J. M., “Aprendizaje, formación de hábitos y
personalidad”. Revista de Psicología General y Aplicada,
Madrid, 1968, 2), 1115-1126.
Ardila. R., “La motivación en la conducta animal”, Revista
de Psicología, Bogotá, 1964, 9, 115-119.
Ardila, R., “Trabajos experimentales sobre los efectos de las
experiencias tempranas en la conducta posterior”. Revista de
Psicología, 1967, 12, 75-84 (a).
Ardila, R., “El premio y el castigo en la psicología contempo­
ránea", Revista de Psicología General y Aplicada, 1967 , 22,
39-45 (ó).
Ardila, R., Historia de la psicología comparada, Lima, Uni­
versidad de San Marcos, 1968 (a).
Ardila, R., “Modelos matemáticos del aprendizaje", Revista
Mexicana de Psicología, 1968, ), 164-171 (ó).
Ardila, R., "En defensa del .método experimental en psicolo-
[213]
214 REFERENCIAS

gía”, Revista de Psicología General y Aplicada, 1968, 23,


689-704 (c).
Ardila, R., "Factores bioquímicos del aprendizaje”. Revista
Inter americana de Psicología, 1968, 2, 93-100 (d).
Ardila, R., “Estimulación cerebral y teoría psicológica", Revista
¡nteramericana de Psicología, 1969, 3, 1-12 (a).
Ardila, R., Spontaneous Recovery in Avoidance Learning, tesis
inédita, University of Nebraska, 1969 (6).
Ardila, R„ Manual de psicología fisiológica, México, Trillas,
1973.
Ardila, R., “Imprinting sexual”, Revista Latinoamericana de
Psicología, 1975, 7, 289-297.
Ardila, R. (ed.), El análisis experimental del comportamiento,
la contribución latinoamericana, México, Trillas, 1974.
Ardila, R., Aprendizaje temprano, 1976, en prensa.
Arnold, W. J., "An exploratory investigation of primary
response generalization”, Journal of Comparative and Phy-
siological Psychology, 1945, 38, 87-102.
Arnold, W. J., "Simple reaction chains and their integralion.
I. Homogeneous chaining with terminal reinforcement”,
Journal of Comparative and Physiological Psychology, 1947,
40, 349-363.
Atkinson, R. C„ G. H. Bower, y E. J. Crothers, An Introduction
to Mathematical Learning Theory, Nueva York, Wiley, 1965.
Azrin, N. H., “Soine effects of noise on human behavior”,
Journal of the Experimental Analysis of Behavior, 1958, /,
183-200.
Azrin, N. H., “Punishment and recovery during fixed-ratio
performance”, Journal o f the Experimental Analysis of Be­
havior, 1959, 2, 301-305.
Azrin, N. H„ "Effects of punishment intensity during varia-
ble-interval reinforcement”, Journal o f the Experimental
Analysis o f Behavior, 1960, 3, 123-142.
Azrin, N. H., “Sequential effects of punishment”, Science, 1960,
331, 605-606.
Azrin, N. H., y W. C. Holz, “Punishment during fixed-interval
reinforcement”,. Journal o f the Experimental Analysis of
Behavior, 1961. 4, 343-347.
Azrin, N. H„ y W. C. Holz, “Punishment", en W. K. Honig
(ed.), Operant Behavior. Areas o f Research and Application,
Nueva York, Appleton-Century-Crofts, 1966.
Azrin, N. H., W. C. Holz, y D. F. Hake, “Fixed-ratio punish­
ment”, Journal o f the Experimental Analysis o f Behavior,
1963 , 6, 141-148.
Barón, A., “Delayed punishment of a runway response”, Jour­
nal of Comparative and Physiological Psychology, 1965, 60,
131-134.
REFERENCIAS 215

Beach, F.-A., "The descent of instinct”, Psychological Review,


1955, 62, 401-410.
Beaulieu, C., "The effects of r n a on experimentally induced
memory impairment”, Psychonomic Science, 1966, 6, 339-340.
Beaulieu, C., “ r n a , w a t e r c o n s u m p t i o n a n d toxicity”, Psycho­
nomic Science, 1967, 7, 193-194.
Berlyne, D. E., "Novelty and curiosity as determinants of
exploratory behavior”, British Journal of Psychology, 1950,
41, 68-80.
Berlyne, D. E„ Conflict, Arousal and Curiosity, Nueva York,
McGraw-Hill, 1960.
Blumenfeld, W., Psicología del aprendizaje, Lima, Universidad
de San Marcos, 1957.
Boe, E. E., y Church, R. M. (eds.) Punishment, issues and ex-
periments, Nueva York: Appleton-Century-Crofts, 1968.
Bolles, R. C., Theory of Motivation, Nueva York, Harper &
Jones (ed.), Nebraska Symposium on Motivation, Lincoln,
University of Nebraska Press, 1958, 1-32.
Bolles, R. C., Theory of Motivation, Nueva York, Harper &
Row, 1967.
Borger, R, y A. E. M. Seashore, The Psychology of Learning,
Harmondswort, Penguin, 1966.
Brackbill, Y., y M. S. Kappy, "Delay of reinforcement and
retention”, Journal of Comparative and Physiological Psy­
chology, 1962, 55, 14-18.
Brown, J. S., "Problems presented by the concept of acquired
drive”, en M. R Jones (ed.), Current Theory and Research
on Motivation: A Symposium, Lincoln, University of Ne­
braska Press, 1953.
Brown, J. S., E. A. Bilodeau, y M. R. Barón, "Bidirectional
gradients in the strength of a generalized voluntary response
to slimuli on a visual-spatial dimensión", Journal of Exper-
rimental Psychology, 1951, 41, 52-61.
Brown, H. W., y R. Geiselhart, "Age differences in the
acquisition and extinction of the conditioned eyelid res­
ponse’’, Journal of Experimental Psychology, 1959, í7 , 386-388.
Bugelski, B. R., The Psychology of Learning Applied to Teach-
ing, Indianápolis, Bobbs-Merrill, 1964.
Bush, R. R., y F. A. Mosteller, "Mathematical model for
simple learning’’, Psychological Review, 1951, 58, 313, 323.
Bush, R. R., y F. Mosteller, Stochastic Models for Learning,
Nueva York, Wiley, 1955.
Bustamante, J. A., A. Roselló, A. Jordán, E. Pradere, y A.
Insua, "Aprendizaje y drogas". Revista Interamericana de
Psicología, 1969, 3, 67-82.
Bykov, K. M., The Cerebral Cortex and the Infernal Organs,
N u e v a Y o rk , C h e m ical, 1957.
216 REFERENCIAS

Calvin, J. S., E. A. Bicknell, y D. S. Sperling, “Establishment


of a conditioned drive hased on the hunger drive”, Journal
of Comparative and Physiologiial Psychology, 1953, 46,
173-175.
Cameron, D. E., "T he use of ribonucleic acid in aged patients
with memory impairment", American Journal o f Psychiatry,
1958, 114, 943.
Cameron, D. E., "Magnesium pemoline and human perform­
ance", Science, 1967, 157, 958-959.
Cameron, D. E., S. Sved, L. Solyom, B. Wainrib, y A. Barik,
“Effects of ribonucleic acid on memory defect in (he aged",
American Journal o f Psychiatry, 1963, 120, 320-325.
Carr, H. A., "The law of effecC a round table discussion”,
Psychological Review, 1938, 45, 191-199.
Chorovcr, S. L., y 1*. H. Schiller, “Short-tcrm retrograde
amnesia (RA) in rats”, Journal of Comparative and Physio-
logical Psychology, 1965, 59, 73-78.
Church, R. M., “T he varied effects of punishment on behav-
ior", Psychological Review, 1963, 70, 369-402.
Church, R. M., y R. L. Solomon, “Traumatic avoidance lcarn-
ing: the effects of delay of shock termination", Psychol­
ogical Reports, 1956, 2, 357-368.
Cohén, B. D., G. W. Brown, y M. L. Brown, “Avoidance learn-
ing motivated by hypothalamic stimulation”, Journal of Ex­
perimental Psychology, 1967, 55, 228-233.
Cook, L., A. Davidson, D. J. Davis, H. Green, y E. J. Fellows,
“Ribonucleic acid: Effects on conditioned behavior in rats",
Science, 1963, 141, 268-269.
Correa, E„ y Ardila, R„ "Efectos del fármaco tranquilizante
Diazepán y del control de la locomoción sobre la adquisi­
ción de la respuesta de seguimiento en el troquelado (im-
printing)", Revista Latinoamericana de Psicología, 1975, 7,
305-320.
Cortada de Kohan, N„ y J. M. Carro, Estadística aplicada, Bue­
nos Aires, Eudeba, 1968.
Crespi, L. P., “Quantitalive variation of incentive and per­
formance in the white rat”, American Journal of Psychology,
1942, 55, 467-517.
Dashiell, J. E., Fundamentáis o f Objective Psychology, Boston,
Houghton Mifflin, 1937-’.
Deese, J., The Psychology of Learning, Nueva York, McGraw-
Hill, 1966.
Delgado, J. M, R., W. W. Roberts, y N. E. Miller, “Learning
motivated by electrical stimulation of the brain", American
Journal of Physiology, 1954, 179, 587-593.
Deutsch, J. A., M. D. Hamburg, y H. Dahl, “Anticholinesterase
induced amnesia and its temporal aspects”, Science, 1966, 151,
221-223.
IN F E R E N C IA S 217

Deutsch, J. A., y S. F. Liebowits, "Amnesia or reversal of


forgetting by anticholinesterase depending simply on lime of
injection”, Science, 1966, 15), 1017-1018.
Díaz-Cuerrero, R., Lecturas para el curso de psicología expe­
rimental, México, Trillas, 1965.
Dinsmoor, J. A., "A discrimination based on' punishment”,
Quarterly Journal of Experimental Psychology, 1952, ■/, 27-45.
Dinsmoor, J. A., ''Punishment: i. T he avoidance hypothesis”,
Psychological Reviere, 1954, 61, 54-46.
Dinsmoor, J. A., "Punishment: ii. An interpretation of em-
pirical findings”, Psychological Reviere, 1955, 62, 96-105.
Dollard, J., y N. E. Miller, Personality and Psychotherapy,
Nueva York, McGraw-Hill, 1950.
Duncan, C. P., "T he retroactive effect of electroshock on
learning”, Journal o f Comparativa and Physiological Psychol­
ogy, 1949, 42, 32-44.
Ebbinghaus, H., Memory, Nueva York, Teachers Collcgc, Co-
lumbia University, 1913. (Original alemán: 1885.)
Edwards, A. L.. Experimental Design in Psychological Research,
Nueva York, Holt-Rinehart-Winston, 1960, edición revisada.
Eibl-Eibsfeld, I., Grundriss der vergleichenden Verhallenslehre,
Ethologie, Munich, Piper Verlag, 1968.
Ellson, D. G., “Quantitative studies of the interaction of
simple habits: I. Recovery from specific and generalized
effects of extinction”, Journal of Experimental Psychology,
1938, 2), 339-358.
Estes, W. K„ “An experimental study of punishment”, Psychol­
ogical Monographs, 1944, 57.
Estes, W. K., “Toward a statistical thcory of learning”, Psy­
chological Reviere, 1950, 57, 94-107.
Estes, W. K., "Statistical theory of spontaneous recovery and
regression”, Psychological Reviere, 1955, 62, 145-154.
Estes, W. K., "On models and men”, American Psychologist,
1957, 12, 609-617.
Estes, W. K., "Stimulus-response theory of drive”, en M. R.
Jones (ed.), Nebraska Symposium on Motivation, Lincoln,
University of Nebraska Press, 1958.
Estes, W. K.. et al., Modern Learning Theory, Nueva York,
Appleton-Century-Crofts, 1954.
Federici, S., “Lógica y psicología”, Revista de Psicología, 1962,
7, 143-160.
Ferster, C. B., y B. F. Skinner, Schedules o f Reinforcement,
Nueva York, Appleton-Century-Crofts, 1957.
Fjerdingstad, E. J., T. Nissen, y H. H. Roigaard-Petersen,
"Effect of ribonucleic acid ( u n a ) extracted from the brain
of trained animáis on learning in rats", Scandinavian Journal
of Psychology, 1965, 6, 1-6.
218 REFERENCIAS

Friedman, N., The Social hiature of Psychological Research,


Nueva York, Basic Books, 1967.
Gelber, B., “Investigation of the behavior of Paramecium
aurelia: i. Modification of behavior after training with rein-
forcement”, Journal of Comparative and Physiological Psy-
chology, 1952, 45, 58-65.
Glasky, A. J., y L. N. Simón, "Magnesium pemoline: enhance-
ment of brain r n a plymerases”, Science, 1966, 151, 702-703.
Grether, W. F., "Pseudo-conditioning without paired stimula-
tion encountered in attempted backward conditioning",
Journal of Comparative Psychology, 1938, 25, 91-96.
Grice, G. R., y E. Saltz, "The generalization of an instrumen­
tal response to stimuli varying in the size dimensión”, Jour­
nal of Experimental Psychology, 1950, 40, 702-708.
Grossman, S. P., A Textbook of Physiological Psychology,
Nueva York, Wiley, 1967.
Guthrie, E. R., The Psychology o f Learning, Nueva York,
Harper, 1935.
Hake, D. F., y N. H. Azrin, “Conditioned punishment”, Jour­
nal of the Experimental Analysis of Behavior, 1965, 8,
279-293.
Hall, J. F., The Psychology of Learning, Filadelfia, Lippincott,
1966.
Harlow, H. F., “The formation of learning sets”, Psychological
Review, 1949, 56, 51-65.
Harlow, H. F., “Motivation as a factor in new responses", en
M. R. Jones (ed.), Current Theory and Research in Motiva­
tion: A Symposium, Lincoln, University of Nebraska Press,
1953, 24-48.
fiebb, D. O., The Organization of Behavior, Nueva York, Wiley,
1949.
Hess, E., “Imprinting”, Science, 1959, 150, 133-141.
Hilgard, E. R. (ed.), Theories of Learning and lnstruction,
Chicago, University of Chicago Press, 1964.
Hilgard, E. R., y G. H. Bower, Theories of Learning, Nueva
York, Appleton-Century-Crofts, 19663.
Honig, W. K. (ed.), Operant Behavior. Areas of Research and
Application, Nueva York, Appleton-Century-Crofts, 1966.
Hovland, C. I., “The generalization of conditioned responses:
i. The sensory generalization of conditioned responses with
varying frequencies of tone”, Journal of General Psychology,
1937, 17, 125-148.
Hull, C. L., Principies of Behavior, Nueva York, Appleton-
Century-Crofts, 1943.
Hull, C. L„ A Behavior System, New Haven, Yale University
Press, 1952.
REFERENCIAS 219

Humphreys, L. G., "The effect of random alternation of


reinforcement on the acquisition and extinction of condition-
ed eyelid reactions”, Journal of Experimental Psychology,
1939, 25, 141-158.
Hunt, H. F., y J. V. Brady, "Some quantitative and qualitative
differences between ‘anxiety’ and ’punishment’ conditioning”,
American Psychologist, 1951, 6, 276-277.
Hunter, W. S., "T he temporal maze and kinaesthetic sensory
processes in the white rat”, Psychobiology, 1920, 2, 1-18.
Hunter, W. S., "Leaming", en C. Murchison (ed.), Handbook
of General Experimental Psychology, Worcester, Clark Uni-
versity Press, 1934.
Hydén, H., "Activation of nuclear rna in neurons and glia
in learning’’, en D. P. Kimble (ed.), Leaming, Remembering
and Forgetting, vol. 1, The Anatomy of Memory, Palo Alto,
Science and Behavior Books, 1965.
Hydén, H., y E. Egyhazi, "Nuclear r n a changes o f nerve cells
during a learning experiment in rals", Proceedings of the
National Academy o f Sciences, V. S., 1962, 48, 1366-1373.
Hydén, H., y E. Egyhazi, "Changes in r n a content and base
composition in cortical neurons of rats in a learning ex­
periment involving transfer of handedness", Proceedings of
the National Academy of Sciences, V. S., 1964, 52, 1030-1035.
Imada, M., "The effects of punishment on avoidance behavior”,
Japanese Psychological Research, 1959, 1, 27-38.
Ilion, A. I.., "Retention and warming-up effects in paired-
associate learning”, Journal of Experimental Psychology,
1949, 59, 669-675.
Irwin, S„ y A. Banuazizi, "Pentylenetetrazol enhances mem-
ory function”, Science, 1966, 152, 100-102.
(son, J. R., "Experimental extinction as a function of the
number of reinforcements”, Journal of Experimental Psychol­
ogy, 1962, 64, 314-317.
Jacobs, J., "Experiments on ‘prehensión'”, Mitid, 1887, 12,
75-79.
Jacobson, A. L„ F. R. Babicli, S. Bubash, y A. Jacobson,
"Differential approach tendencies produced by injection of
ribonucleic acid from trained rats”, Science, 1965, 150,
636-637.
Jenkins, H. M., y R. H. Harrison, “Effect of discrimination
training on auditory gcneralization”, Journal o f Experimental
Psychology, 1960, 59, 246-253.
Jenkins, J. G., y K. M. Dallenbach, "Obliviscence during
sleep and waking”, American Journal o f Psychology, 1924,
55, 605-612.
Jensen, D. D., "Experiments on learning in paramecium”,
Science, 1957, 125, 191-192.
220 REFERENCIAS

Katz, M. S., y W. A. Deterline, “Apparent learning in the


paramecium”, Journal o f Comparative and Physiological
Psychology, 1958, 51, 243-248.
Keller, F. S., "Engineering personalized instruction in the
classroom”. Revista lnteramericana de Psicología, 1967, 1,
189-197.
Kellog, W. N., y P. Spanovick, “Respiratory changes during
the conditioning of fish”, Journal of Comparative and Phys-
iological Psychology, 1953, 46, 124-128.
Kimble, D. P. (ed.), Learning, Remembering and Forgetting,
vol. 1, The Anatomy of Memory, Palo Alto, Science and
_ Behavior Books, 1965.
Kimble, G. A., Hilgard and Marquis’ Conditioning and Learn­
ing, Nueva York, Appleton-Century-Crofts, 1961.
Kimble, G. A., Foundations o f Conditioning and Learning,
Nueva York, Appleton-Century-Crofts, 1967.
Klineberg, O., Social Psychology, Nueva York, Holt, 1954,
edición revisada.
Koffka, K., Principies of Gestalt Psychology, Nueva York, Har-
court, Brace & World, 1935.
Kóhler, W., “Simple structural functions in the chimpanzee
and in the chicken”, en W. D. Ellis (ed.), A Source Book on
Gestalt Psychology, Nueva York, Harcourt, Brace & World,
1938. (Articulo publicado originalmente en alemán en 1918.)
Kóhler, W., The Mentaliiy of Apes, Nueva York, Harcourt,
Brace & World, 1925.
Krivanek, J., y E. Hunt, “The effect of post-trial injections of
pentylenetetrazol strychnine and Mephenesin on discrimina-
tion”, Psychopharmacology, 1967, 10, 189-195.
Kulkarni, A. S., "Magnesium pemoline: facilitation of instru­
mental avoidance learning”, Psychonomic Science, 1967, 9,
39-40.
Kuo, %. Y., "How are instincts acquired?”, Psychological Review,
1922, 29, 334-365.
Kuo, Z. Y., "A psychology without heredity”, Psychological
Review, 1924, 31, 427-448.
Kuo, Z. Y., The Dynamics of Behavior Detielopment, Nueva
York, Random House, 1967.
Lashley, K. S., y M. Wade, “The pavlovian theory of general-
ization’’, Psychological Review, 1946, 53, 72-87.
Lawson, R., Frustration, Nueva York, Macmillan, 1965.
Le Ney, J. F., G. de Montpellier, G. Oléron, y C. Flores,
Apprentissage et memoire, en P. Fraisse y J. Piaget (eds.),
Traité de psychologie experiméntale, vol. 4, París, Presses
Universitaires de France, 1967.
Lico, M. C., A. Hoffmann, y M. Covian, "Autonomic con-
REFERENCIAS 221

(litioning in the anesthetized rabbit”, Physiology & Behavior,


1968, 3, 673-675.
Lindsley, D. R., "Psychophysiology and motivation’', en M. R.
Jones (ed.), Nebraska Symposium on Motivation, Lincoln,
University of Nebraska Press, 1957, 44-104.
Logan, F. A., Incentive, New Haven, Yale University Press.
1960.
Lorenté de No, R., "Cerebral cortex: architecture”, en J. F.
Fulton, Physiology o f the Nervous System, Nueva York,
Oxford University Press, 1949.
Lorenz, K. Z., “Der Kumpan in der Umwelt des Vogels", ].
für O ra , Leipzig, 1935, 83, 137-213; 289-413.
Lovejoy, E.. Attention in Discrimination Learning, San Fran­
cisco, Holden-Day, 1968.
Luce, R. D., R. R. Bush, y E. Galanter (eds.), Handbook of
Matliematical Psychology, 3 vols., Nueva York, Wiley, 1963,
1965.
MacCorquodale, K., y P. E. Meehl, "On a distinction between
hypothetical constructs and intervening variables", Psychol-
ogical Review, 1949, 55, 95-107.
Madsen, K. B., Theories of Motivation, Copenhage, Munks-
gaard, 1968‘.
Maier, N. R. F., Frustration, Nueva York, McGraw-Hill, 1949.
Marx, M. H. (ed.), Learning Processes, Nueva York, Macmillan,
1969.
Masón, W. A„ y H. F. Harlow, "Formation of conditioned
responses in infant monkeys”, Journal of Comparativa and
Physiological Psychology, 1958, 51, 68-70.
Maslow, A. H., Motivation and Personalily, Nueva York, Harper,
1954.
Masserman, J. M., Behavior and Neurosis, Chicago, University
of Chicago Press, 1943.
McAllister, D. R., y W. R. McAUister, "Second-order condi -
tioning of fear”, Psychonomic Science, 1964, 1, 383-384.
McConnell, J. V., “Memory transfer through cannibalism in
planarias”, Journal of Neuropsychiatry, 1962, 3 , 542.
McClelland, D. C. (ed.), Studies in Motivation, Nueva York,
Applelon-Century-Crofts, 1955.
McCulloch, W. S., Finality and Form, Springfield, Thomas,
1952.
McGeocb, J. A., “Forgetting and the law of disuse’’, Psychol-
ogical Review, 1932, 39, 352-370.
McGeoch, J. A., y A. L. Irion, The Psychology of Human
Learning, Nueva York, McKay, 1952.
McGraw, M. B., Growth: A Study o f Johnny and Jimmy,
Nueva York, Appleton-Century-Crofts, 1935.
222 REFERENCIAS

McKee, J. P., y D. A. Riley, "Auditory transposition in


six-year-old children”, Child Development, 1962, 33, 469-476.
McKellar, P., Experience and Behaniour, Baltimore, Penguin
Books, 1968.
Meehl, P. E., “On the circularity of the law of effect”,
Psychological Bulletin, 1950, 47, 52-75.
Mellon, A. W. (ed.), Categories of Human Learning, Nueva
York, Academic Press, 1964.
Millenson, J. R., Principios de análisis conductual, traducción
del inglés, México, Trillas, 1974.
Miller, G. A., y F. C. Frick, "Statistical behavioristics and
sequences of responses", Psychological Review, 1949, 56,
311-324.
Miller, D. R., "On the definition of problems and the in-
terpretation of symptoms”, Journal of Consulting Psychot-
ogy, 1962, 26, 302-305.
Miller, N. E., “Experimental studies of conflict", en J. M.
(ed.), Personality and the Behanior Disorders, Nueva York,
Ronald, 1944.
Miller, N. E., "Studies of fear as an acquirable drive: i. Fear
as motivation and fear-reduction as reinforcement in the
learning of new responses”, Journal o f Experimental Psy-
chology, 1948, 38, 89-101.
Miller, N. E., “Learned drives and rewards”, en S. S. Stevens
(ed.), Handbooh of Experimental Psychology, Nueva York,
Wiley, 1951.
Miller, N. E., "Liberalization of basic S-R concepts: Exten­
sión1; to conflict behavior, motivation, and social learning",
en S. Koch (ed.), Psychology: A Study of a Science, vol, 2,
Nueva York, McGraw-Hill, 1959.
Miller, N. E., “Some reflections on the law of effect produce
a new alternative to drive reduction", en M. R. Jones (ed.),
Nebraska Symposium on Motivation, Lincoln, University of
Nebraska Press, 1963.
Miller, N. E.. "Learning of visceral and glandular responses”,
Science, 1969, 163, 434-445.
Miller, N. E., y A. Carmona, "Modification of a visceral res-
ponse, salivation in thirsty dogs, by instrumental training
with water reward", Journal o f Comparative and Physiological
Psychology, 1967, 63, 1-6.
Miller, N. E., y L. DiCara, "Instrumental learning of heart
rate changes in curarized rats”, Journal of Comparative and
Physiological Psychology, 1967, 63, 12-19.
Miller, N. E., y J. Dollard, Social I.earning and Imitation, New
Haven, Yate University Press, 1914.
Miller, W. C., y J. E. Greene, "Generalization of an avoidance
REFERENCIAS 223

response to various intensities of tone”, Journal of Compar-


ative and Physiological Psychology, 1954. 47, 136-139.
Mostofsky, D. I. (ed.). Stimulus Generalization, Stanford, Stan-
ford University Press, 1965.
Mowrer, O. H., ”On the dual nature of learning”, Harvard
Educational Review, 1947, 17, 102-148.
Muenzinger. K. F., "Motivation in learning: i. Electric shock for
correct responses in the visual discrimination habit”, Journal
of Comparative and Physiological Psychology, 1934,17, 267-277,
Muenzinger, K. F., “Motivation in learning: n. T he function of
electric shock for right and wrong responses in human
subjects”, Journal o f Experimental Psychology, 1934, 17,
439-448.
Muenzinger, K. F.. “ Discussion concerning the effects of shock
for right responses in visual discrimination learning”, Jour­
nal of Experimental Psychology, 1948, 38, 201-203.
Muenzinger, K. F., y M. Fletcher, “Motivation in learning:
vti. T he effect of an enforced delay at the point of choioe
in the visual discrimination habit”, Journal of Comparative
and Physiological Psychology, 1937, 23, 383-392.
Muenzinger, K. F., y R. F. Powiosky, “Motivation in learning:
x. Composition of electric shock for correct turns in a
correctivc and a noncorrective situation", Journal of Ex­
perimental Psychology, 1951, 42, 118-124.
Miiller, G. E., y A. Pilzecker, "Experimentelle Beitrage zur
Lehre vom Gedachtniss", Zeitschrift fü r Psychologie, 1900,
1, 1-288.
Murray, H. A., Explorations in Personality, Nueva York, Oxford
University Press, 1938.
Natalicio, L. F. S., “Práctica masiva contra práctica distribuida:
Una revisión", Revista lnleramericana de Psicología, 1969,
3, 93-108.
Neel, A. F., Theories of Psychology: A Handbook, Cambridge,
Schenkman, 1969.
Neimark, E., y W. K. Estes (eds.), Stimulus Sampling Theory,
San Francisco, Holden-Day, 1967.
Nigro, M. R., "Punishment of an extinguishing shock-avoidance
response by time-out from positive reinforcement”, Jour­
nal of the Experimental Analysis of Behavior, 1966, 9, 53-63.
Nissen, H. W., “T he nature of the drive as innate determinant
of behavioral organizaron”, en M. R. Jones (ed.), Nebraska
Symposium on Motivation, Lincoln, University of Nebraska
Press, 1954, 281-320.
Olds, J., y F. Milner, "Positive reinforcement produced by
electrical stimulation of the septal area and other regions
224 REFERENCIAS

of the rat brain”, Journal of Comparative and Physiotogical


Psychology, 1954, 47, 419-427.
Olds, J., y M. Olds, “Drives, rewards and the brain”, en New
Directions in Psychology, vol. 2, Nueva York, Holt, 1965.
Osgood, C. E., M ethod and Theory in Experimental Psychology,
Nueva York, Oxford University Press, 1953.
Paré, W., "T he effect of caffein and Seconal on a visual
discrimination task”, Journal of Comparative and Physiol-
ogical Psychology, 1961, 54, 506-509.
Pavlov, I. P., Los reflejos condicionados, Buenos Aires, Paidós,
1959.
Pavlov, I. P., Los reflejos condicionados aplicados a la psico-
patología y la psiquiatría, Montevideo, Pueblos Unidos, 1960.
Pelkwijk, J. J. T., y N. Tinbergen, “Eine reizbiologische
Analyse einiger Verhaltensweisen von Gasterosteus aculeatus
L.”, Zeitschrift für Tierpsychologie, 1937, l, 193-204.
Plotnikoff, N., “Magnesium pemoline, enhancement of leam-
ing and memory of a conditioned avoidance response”,
Science, 1966, 151, 703-704.
Postman, L„ y L. Rau, “Retention as a function of the
method of measurement", University of California Pubtica-
tions in Psychology, 1957, S, 217-270.
Postman, L„ y D. A. Riley, “Degrees of learning and interse­
rial interference in retention", University of California Pu-
blications irt Psychology, 1959, 8, 271-396.
Prince, A. I., "Effects of punishment on visual discrimination
learning”, Journal of Experimental Psychology, 1956, 52,
381-385.
Prokasy, W. F. (ed.), Classical Conditioning: A Symposium,
Nueva York, Appleton-Century-Crofts, 1965.
Rashcvsky, M., Mathematical Biophysics, Chicago, University
of Chicago Press, 1948.
Ratner, S. C., y K. R. Mi 11er, “Classical conditioning in
earthworms, Lumbricus terrestris” , Journal of Comparative
and Physiotogical Psychology, 1959, 52, 102-105.
Ratner, S. C., y M. R. Denny, Comparative Psychology,
Homewood, Dorsey, 1964.
Razran, G. H. S., “Operant versus classical conditioning”,
American Journal of Psychology, 1955, 68, 489-490.
Razran, G. H. S., “Backward conditioning", Psychological
Bultetin, 1956, 55, 55-69.
Revista de Psicología, Bogotá, 1964, 9, 1-133.
Reynolds, G. S., "Contrast, generalization, and the process of
discrimination”, Journal of the Experimental Analysis of
Behavior, 1961, 4, 289-294.
Reynolds, G. S., Compendio de condicionamiento operante,
traducción del inglés, México, Ciencia de la Conducta, 1973.
REFERENCIAS 225
Richter, D. (ed.), Aspects of Learning and Memory, Nueva
York, Basic Books, 1966.
Riley, D. A., Discrimination Learning, Boston, Allyn & Bacon,
1968.
Roe, A., The Making o f a Scientist, Nueva York, Dodd-Mead,
1953.
Rock, I., A. Lasker, y J. Simón, "Stimulus ‘generalizaron’ as
a process of recognition”, American Journal o f Psychology,
1969, 82, 1-22.
Rosenbaum, G., "Temporal gradients of response strength
with two levels of motivation”, Journal of Experimental
Psychology, 1951, 4¡, 261-267.
Rosenzweig, M. R., D. Krech, y E. L. Bennett, "A search of
relations between brain chemistry and behavior”, Psychol-
ogical Bulletin, 1960, 57, 476-492.
Sabogal, F., Otero, R., y Ardila, R., "Efectos de las diferencias
en la estimulación visual temprana sobre el aprendizaje de
discriminación simple y complejo en ratones", Revista La­
tinoamericana de Psicología, 1975, 7, 65-76.
Sánchez, J. A., “La psicología como ciencia”, Revista de Psico­
logía, 1965, 10, 69-83.
Scott, J. P., "Critical periods in behavioral development”,
Science, 1962, 138, 949-958.
Scott, J. P., Early Experience and the Organization of Behav­
ior, Belmont, Brooks-Cole, 1968.
Schoenfeld, W. N.. y Colé, B. K., Stimulus schedules, Nueva
York: Harper & Row, 1972.
Sears, R. R„ E. E. Maccoby, y H. Levin, “ Patterns of Child
Rearing, Evanston, Row-Peterson, 1957.
Sechenov, 1. M.. Reflexes o f the Brain, Cambridge, m i t , 1965.
(Original ruso 1863.)
Sidman, M„ “Dclayed-punishment effects inediated by compe-
ting behavior", Journal of Comparative and Physiological
Psychology, 1954, 47, 145-147.
Sidman, M., Tactics o f Scientific Research, Nueva York. Basic
Books, 1960.
Sidman, M., “Reduction of shock frequency as reinforcement
or avoidance behavior”, Journal o the Experimental Anal-
ysis o f Behavior, 1962, 5 , 247-257.
Skinner, B. F., The Behavior o f Organisms, Nueva York,
Appleton-Century-Crofts, 1938.
Skinner, B. F., Walden Two, Nueva York, Macmillan, 1948.
Skinner, B. F., Science and Human Behavior, Nueva York,
Macmillan, 1953.
Skinner, B. F., Verbal Behavior, Nueva York, Appleton-Cen­
tury-Crofts, 1957.
REFERENCIAS
226

Skinner, B. F., Cumulative Record, Nueva York, Appleton-Cen-


tury-Crofts, 1959, edición aumentada.
Skinner, B. F., The Technology of Teaching, Nueva York,
Appleton-Century-Crofts, 1968.
Skinner, B. F., Aboul behaviorism, Nueva York, Knopf, 1974.
Smith, R. G., “Magnesiuin peinoline: lack of facilitación in
human learning, inemory and performance tests”, Science,
1967, 755, 603-605.
Solomon, R. L., "I’unishment", American Psychologist, 1964,
19, 239-253.
Solomon, R. L., y E. S. Brush, “Experiraentally derived con-
ceptions of anxiety and aversión”, en M. R. Jones (ed.).
Nebraska Symposium on Motivation, Lincoln, University of
Nebraska Press, 1956, 212-305.
Solomon, R. L., L. J. Kamin, y L. C. Wynne, "Traumatic
avoidance learning: the outcomes of several extinction pro-
cedures with dogs”, Journal of Abnormal and Social Psychol-
ogy, 1953, 18, 291-302.
Spelt, D. K., “T he conditioning of the human fetus in útero”,
Journal of Experimental Psychology, 1948, 38, 338-346.
Spence, K. W., "The nature oí discriminación learning in
animáis”, Psychological Review, 1936, 45, 427-449.
Spence, K. W., “T he differential response in animáis to
stimuli varying within a single dimensión”, Psychological
Review, 1937, 44, 430-444.
Spence, K. W., Behavior Theory and Conditioning, New Ha ven,
Yale University Press, 1956.
Spence, K. W„ Behavior Theory and Learning, Englewood
Cliffs, Prentice-Hall. 1960.
Spence, K. W., D. F. Haggard, y L. E. Ross, “ucs intensity and
the associative (habit) strength of the eyelid c r ” , Journal
of Experimental Psychology, 1958, 55, 404-411.
Spence, K. W., y J. Taylor (eds.), T he Psychology of Learning
and Motivation, Nueva York, Academic Press, vol. 1, 1967;
vol. 2, 1968; vol. 3. 1970.
Stein. L., “Reciprocal action of renard and punishment
mechanisms”, en R. G. Heath (ed.). The Role of Pleasure in
Behavior, Nueva York, Harper, 1964.
Stevens, S. S. (ed.), Handbook of Experimental Psychology,
Nueva York, Wiley, 1951.
Stone, C. P., y D. B. Nyswander, “The reliability of rat
learning scores from the multiple-T maze as determined by
four different methods”, Journal of Genetic Psychology.
1927, 54, 497-524.
Storms, L. H., G. Boroczi, y W. E. Bioen Jr., “Effects oí punish­
ment as a function of strain of rat and duración of shock",
REFERENCIAS 227

Journal o f Comparative and Physiological Psychology, 1963,


56, 1022-1026.
Stratton, L. O., y L. Petrinovich, "Post-trial injections of an
anti-cholinesterase drug and maze learning in two strains of
rats ', Psychopharmacologia, 1963, 5, 47-54.
Talland, G. A., “Improvement of sustained attention with
Cylert”, Psychonomic Science, 1966, 6, 493-494.
Tarpy, R. M., S. Glucksberg, y L. D. Lytle, “ Motivation and
short-term retention: evidence for covert rehersal”, American
Journal of Psychology, 1969, 82, 111-116.
Teitelbaum, 1’., “Disturbances in feeding and drinking behavior
after hypothalamic lesions”, en M. R. Jones (ed.), Nebraska
Symposium on Motivation, Lincoln, University of Nebraska
Press, 1961, 39-64.
Thompson, E. L., “An analysis of the learning process in
snail, Physa gyrina” , Behavior Monographs, 1917, 5, 97.
Thompson, R., Foundations o f Physiological Psychology, Nue­
va York, Harper ífc Row, 1967.
Thompson, R., y J. McConnell, “Classical conditioning in the
planarian Dugesia dorotocephala” , Journal o f Comparative
and Physiological Psychology, 1955, 48, 65-68.
Thompson, T., y Grabowski, J. G.. Reinforcement schedules
and multioperant analysis, Nueva York: Appleton-Century-
Crofts, 1972.
Thompson, W. R., y R. Melzack, “Early environment”, Scien-
tific American, 1956, 194, 38-42.
Thorpe, W. H., Learning and ¡nstinct in Animáis, Londres,
Methuen, 1956.
Thorndike, E. L., Animal Intelligence, Nueva York, Macmillan,
1911 (trabajo original 1898.)
Thorndike, E. L., The Fundamentáis o f Learning, Nueva York,
Columbia University Press, 1932.
Thorndike, E. L., “Reward and punishment in animal learn­
ing'’, Comparative Psychology Monographs, 1932, 8.
Tinbergen, N., The Study of ¡nstinct, Oxford, Clarendon Press,
1951. {El estudio del instinto, México, Siglo xxi, 1968.)
Tinbergen, N., "The curious behavior of the stickleback”,
Scientific American, 1952, 187, 22-26.
Tolman, E. C., Behavior and Psychological Man” , Berkeley,
University of California Press, 1966.
Trabasso, T., y G. H. Bower, “Stimulus selection and additiv-
ity of cues”, Psychological Monographs, 1966.
Trabasso T., y G. H. Bower, Attention in Learning: Theory
and Research, Nueva York, Wiley, 1968.
Trowill, J. A., “Instrumental conditioning of the heart rate
in the curarized rat”, Journal o f Comparative and Physiol­
ogical Psychology, 1967, 65, 7-11.
228 REFERENCIAS

Turner, L. H,. y R. L. Solomon, "Human traumatic avoidance


learning”, Psychological Monographs, 1962, 76.
Underwood, B. J., "Degree of learning and the measurement
of forgetting”, Journal of Verbal Learning and Verbal Behav-
ior, 1964, 3, 112-129.
Underwood, B. J., Experimental Psychology, Nueva York,
Appleton-Century-Crofts, 1966a.
Van Ormer, E. B., “Sleep and retention”, Psychological Bulle-
Un, 1932, 30, 415-439.
Vaughn J., y C. M. Diserens, “The relative effects of varioui
intensities of punishment on learning and efficiency”, Jour­
nal of Comparativa Psychology, 1930, ¡0, 55-66.
Walker, E. L., Conditioning and Instrumental Learning, BeK
mont, Wadsworlh, 1967.
Walter, W. C., ‘‘A machine that learns”, Scientific American,
1951, 183, 60-63.
Watson, G., “What do we know about learning”, Educational
Association Journal, 1963.
Weiss, B., & Laties, V. G. Behavioral pharmacoloty and toxico-
logy. Annual Review of Pharmacology, 1969, 9, 297-326.
White, R. W„ “Motivation reconsidered: The concept of
competence”, Psychological Reviexv, 1959, 66, 297-334.
Whiteis, U. E., “Punishment's infuence on fear and avoidance”,
Harvard Educational Reviexv, 1956, 26, 360-373.
Wickens, D. D., H. M. Schroder, y J. D. Snide, "Primary stimu-
lus generalization of the g sr under two conditions", Journal
of Experimental Psychology, 1954, 47, 52-56.
Wolfe, J. B., "Effectiveness of token-reward for chimpanzees”,
Comparative Psychology Monographs, 1936, 12, 60.
Woodworth, R. S., Dynamics of Behavior, Nueva York, Holt,1918.
Yerkes, R. M., y J. B. Watson, “Methods of studying visión in
animáis”, Behavior Monographs, 1911, 1 (2).
Zeigarnik, B., "Das Behalten erledigter und unerledigter Hand-
lungen", Psychologische Forschung, 1927, 9, 1-185.
Zeigarnik, B., The Pathology of Thinking, Nueva York, Consul-
tants Bureau, 1965.
Zelman, A.. L. Kabot, R. Jacobson, y J. V. McConnell, “Transfer
of training through injections of ‘conditioned’ r n a into u n -
trained worms", Worm Runners Digest, 1%3, 3, 14-21.
INDICE A N A LÍTIC O

ablación: 89 tivación y, 99-104; percepto-


acetilcolina: 176-7 motor, 22, 34, 167; poste­
ácido desoxirribonucleico rior, 26-7; práctica masiva y
(DNA): 174 práctica distribuida, 168-9;
ácido ribonucleico (RNA): previo, 144, 163; probabilís-
171, 173-7; mensajero, 174 tico, 186, 195; rapidez de,
acuñamiento: 28-9 168; relativamente perma­
adaptación ambiental: 22 nente, 18-9; resultado de la
adiestramiento: 199-200 práctica, 19; selectivo, 164;
adquisición: 35-6, 48, 55, 102, social, 70; tecnología del,
149, 191; curvas de, 187-9; 202; temprano, 26, 28; ver­
de un segundo idioma, 187 bal, 22, 34, 113, 151, 156,
agresión: 126 158, 166-9, 198; visceral y
ahorro, método del: 154, 157-8, glandular, 3, 70-80
168 Ardila, Rubén: 25, 27, 96, 109.
aislamiento: 161 140, 147
ambiente: 25, 42; control del, Amold, W. J.: 133-4
61; “rico”, 8; véase también asimilación: 161
adaptación ambiental asociacionismo: 44
Amsel, A.: 150 atención: 137, 142-4
analfabetismo: 196 Atkinson, R. C.: 182. 185-6
Anand: 89 azar, oscilaciones al: 184
análisis factorial: 7 Azrin, N. H.: 107, 109, 111
Anderson, E. E.: 94
Applezweig, M. H.: 149
aprendizaje: cambio, 18; cas­
tigo y, 105-27; conjuntos de, Banuazizi, A.: 76, 173
140-2, 208; criterio de, 146- Barón, M. R.: 132
147; curvas de, 36-7, 193-5; Beach, F. A.: 23
de elección, 184; de pares Beaulieu, C.: 175
asociados, 186; definición de, Bennett, E. L.: 173, 177
3-4, 15-9, 81, 191; discrimi­ Berlyne, D. E.: 95
natorio, 113, 186; educación Bernard, Claude: 20
y, 196-209; fundamentos bio­ Bicknell, E. A.: 94
químicos del, 171-9; instru­ Bilodeau, E. A.: 132
mental, 67, 147; limites fi- bioquímica: 171-9
logenéticos del, 198; mecáni­ Blumenfeld, Walter: 3
co de series, 186; modelos Boardman: 122
matemáticos del, 180-95; mo­ Bolles, R. C.: 82, 86, 116
[229]
230 Í N D IC E A N A L ÍT IC O

Bower, G. H.: 21. 37. 54. 135. 21-2. 26, 34-5, 38-9, 44-60,
142-3, 185, 194 66-7, 69. 71-3, 128, 147. 174.
Brackbill, Y.: 170 180. 186; de huella, 51, 56;
Brady, J. V.: 116, 126 de retardo. 51, 56; de segun-
Brobeck: 89 cio orden, 56; generalidad del
Brown, G. W.: 123 proceso. 57-9; instrumental
Brown, H. W.: 58 operante. 6. 21-2, 34-5, 42.
Brown, J. S.: 132 45-8. 60-9. 71, 73, IOS, 127.
Brown, M. L.: 123 145, 180, 186. 189; respon­
Bngelski. B. R.: 30. 197 diente, 60; retrógrado, 52;
Burke, 185 simultáneo. 51; icutporal. 52:
Busii. R. R.. 185 tipo pavloviano, 66
Bustamante. J. A.: 173 conducta: 21: supersticiosa, 64
Bykov, K. M.: 59 conflicto: 187; teoría del, 118-
Byron, Lord: 155 121
consolidación: 172-3
"caja negra": 62 "construcción hipotética”: 17
calentamiento: 167 contraste: 111, 137, 140; cort-
Calvin, J. S.: 95 portamental. 65a
Cameron. D. E.: 175, 178-9 Cook, L.: 175
"campos de fuerza”: 160 coordinación óculo-manual:
Cannon, VV. B.: 88 22
Carmona, Alfredo: 72, 76-7. 79 corazón, latidos del: 73-5
castigo: 31. 66, 70, 95; apren­ Corian, M.: 79
dizaje y, 105-27; efectos del, Crespi, L. P.: 103
187 Crothers, E. J.: 185
cibernética: 184 Crowder. Norman: 203
científicos, procesos psicológi­ curare: 71, 73-4, 76-7
cos de los: 7
circuitos reverberantes: 173 Chorover, S. L.: 172
codificación, operación de: 144 Church, R. M.: 109, 122, 124
cognición: 188
Cohén, B. D.: 123 Dallenbach. K. M.: 159
colinesterasa: 176-7 Dashiell, J. E.: 94
comer: impulso a, 87-93 Deese, J.: 107
comportamiento: control del, Delgado, J. M.: 108, 123
61; en las plantas, 8; especi­ Demierrc: 76
fico de 4a especie, 23, 25; Denny. M. R.: 67
humano, 30-3; leyes genera­ depresión: 103
les del, 6, 25, 62; modifica­ desarrollo, periodos críticos
ción del, 4, 15 6, 127. 135; de: 25. 28
motivado, véase motivación Descartes, René: 44
“comprensión": 32, 141 desencadenamiento, mecanis­
conceptos, identificación de: mos innatos de: 24-5
186 desinhihición: 147
condicionador emocional: 32-3 desplazamiento: 187
condicionamiento: clásico, 8, desuso, teoría del: 158-9
ÍN D IC E A N A L ÍT IC O 231
Deterline. W. A.: 67 entrenamiento: y extinción,
determinantes del comporta­ 146-7
miento: 65 errores: 34-5, 37; véase también
Dcutsch, J. A.: 177 ensayo y error
Díaz Guerrero. R.: 163 escape: 66
DiCara, L.: 73-4. 76-7 esfuerzo: 148-9
Dinsmoor, J. A.: 124 Estes, W. K.: 107, 111, 115-7.
discriminación: 12. 43. 135-44, 124-5, 148, 180, 184-5, 187-
161, 175, 186; aparato de. 195
41-2; intensidad de-, 184; si­ estimulación: alteraciones cua­
multánea, 136-7; sucesiva. litativas de la, 27; ambien­
137 tal. 8; cerebral. 71-9, 96,
Dollard, J.: 70, 86, 118-21 123-4; dolorosa. 126; eléctri­
drogas: 13, 19, 172-3 ca, 89; negativa, 114; quími­
Duncan, C. P.: 172 ca, 89; subnormal y supra-
normal, 27
estímulo: 11, 19-20, 34, 44-8.
Ebbinghaus, Hermano: 152-6. 53, 58-9, 70, 96, 100, 128,
158, 169, 180, 183 142-4, 160, 176. 189-90; au ­
ecuaciones diferenciales: 191- ditivos, 130-1. 138; castiga­
192 dor, 106-11, 114, 123, 126-7;
edad: de los sujetos, 140; del compuestos, 186. 195; con­
organismo, 25 dicionado. 21, 49-53, 56-9. 71,
"edad de la lectura”: 26 123-4, 129, 145, 147, 186;
educación: 196-209; véase ins­ control del, 65a; de entre­
trucción namiento, 140: de prueba.
Edwards, A. L.: 12 140; del choque, 116; discri-
“efectancia": 99 minativo, 74, 112, 125, 140;
efecto: de contraste, 111; ley específico, 132; generalización
del, 100-4, 112-3, 208; ley ge­ del, 55, 69, 128-132, 134,
neral del, 191 186; impresor, 28; incondi­
"efecto de octava”: 130 cionado, 21, 49-53, 56, 58-
ejecución: 100-1, 190, 200 59, 145, 149, 186; muestreo
elación: 103 de, 148, 185, 189; negativo,
elección: aprendizaje de, 184; 139; neutro, 94, 132; nocivo,
de pares que se comparan, 107, 122; positivo, 139; selec­
ción de, 125; ' temporales,
186 131: variables del. 135-6; ver­
Ellson, D. G.: 147-8
bales, 131; visuales, 130, 138,
emociones: razón y, 70; véase 176
también condicionador emo­ estímulo-respuesta: 139
ciona] estímulos, clases de: 65
empirismo: 188 respuestas, topografía de: 65a
engramas: 171 estímulos-signo: 24
ensayo y error: 186 estudios piloto: 13-4
enseñanza, procedimientos óp­ evitación: 6, 54, 66, 147, 172,
timos de: 187 178, 186; gradiente de, 120-1
232 Í N D IC E A N A L ÍT IC O

excitación, gradiente de: 139 Hilgard, E. R.: 21, 37, 54, 135,
experiencias tempranas: 26 8 194
experimentación: 6-14 Hoffman, A.: 79
extinción: 35-6, 48, 55, 102-3, Holz, W. C.: 107, 109, 111
108-9. 127, 130, 145-50, 152, Honig, W. K.: 60, 65
159, 178, 191; resistencia a Hovland, C. 1.: 18, 129-30
la, 55, 115 Hull, C. L.: 7, 84-6, 95-6, 101,
104, 129, 131-4, 147-50, 183-4
facilitación: 162 Humphreys, L. G.: 131
fatiga: 19, 150 Hunt, E.: 173
Fechner: 10 Hunt, H. F.: 116, 126
Federici, S.: 198 Hunter, W. S.: 18, 38
Ferster, C. B.: 65 Hydén, H.: 171, 173-5
fisicalismo: 188 "ideas": 184
Flexner: 175 idioma: adquisición de un se­
fondo: 140 gundo, 187
Freud, S.: 26, 163 imaginación creadora: 9
Frick, F. A.: 184 imitación: 186
frustración: 150 impulso: 84-95. 118. 125, 149,
161, 200; adquirido, 94-5;
Calanter, E.: 185 efectos del, 195; investigacio­
Ceiselhart, R.: 58 nes paramétricas del, 186
Gelber, B.: 67 incentivo: 101-4, 108, 149. 208
generalización: 161; mediada. indicación: 118
186; véase también estímu­ información, adquisición de: 4
lo, generalización del - inhibición: 148-50, 164: gra­
gestalt: escuela de la. 7. 159- diente de, 13!); retroactiva y
161, 165; teoría de la, 13!) proactiva. 161-3
Clasky, A. }.: 177 insight: véase comprensión
Glucksberg, S.: 164 instinto: 22-5, 68, 85
Greene, J. E.: 130 instrucción: programada. 197,
Grether. W. F.: 53 201-6; tecnología de la, 206-
Guilford, J. P.: 9 209
Guthrie. E. R.: 101, 124. 187. instrumentos: 38-43
191 Insua, A.: 173
inteligencia: 81; medición de
hábito, resistencia del: 184 la. 7
Haggard, D. F.: 59 interacción: juegos de, 187;
Hall. J. F.: 18. 35, 49 múltiple de personas, 187
Harlow, H. F.: 42, 67, 84. 95- interferencia: retroactiva, 187;
96. 140-1 teoría de la, 160-1, 163
Harrison, R. H.: 130 Ilion. A. L.: 18, 167
Hebb. D. O.: 26. 172 lrwin, S.: 173
hechos: y relaciones, 10
herencia: 25
Hernández-Peón: 142-3 Jacobs, J.: 166
Hes.s, E.: 28 Jacobson, A. L.: 175
IN D IC E A N A L IT IC O 233
Jenkins. H. M.: 130 Masón. W. A.: 67
Jenkins, J. G.: 159 Masscrinan. J. M.: 107, 110,
Jensen, D. D.: 67 126
Jordán, A.: 173 matemática: aplicada al apren­
juegos de interacción: 187 dizaje, 180-95; aprendizaje
de la, 199
McConnell, J. V.: 58, 174
Kappy, M. S.: 170 McCulloch, W. S.: 184
Katz, M. S.: 67 McGeoch, J. A.: 18, 159
Keller, F. S.: 207 McGill, W.: 185
Kellog, W. N.: 59 McGraw, M. B.: 26
Kimble, G. A.: 18, 48, 53, 70, McKee, J. P.: 138
137 mecanismos innatos de desen­
Klineberg, Otto: 97, 99 cadenamiento: 24-5
Koch, S.: 188 medición: 34-5
Koffka, K.: 137, 159-60 medidas: de amplitud o mag­
Kbhler, W.: 10, 136, 137-8,
nitud, 35-7, 50, 54; de pro­
139-41
babilidad. 35, 54; de tiem­
Krech, D.: 173, 176
po, 35, 37
Krivanek, J.: 173
Meehl, P. E.: 17
Kuo, Z. Y.: 23
Melzack, R.: 27
memoria: 165-7, 175, 178; de
corta duración, 186; verbal
laberinto: 10, 13, 34-6, 38-41,
67, 176 libre, 186
Lashley, K. S.: 132, 136, 171 “mente”: 184
Lasker, A.: 132 meta, gradiente de: 7
latencia: 35-6, 50, 54, 178; al metodología: 9. 17
elegir. 186 Milner, F.: 96
Laties, V. C.: 178 Miller, D. R.: 122
learning sets: véase aprendiza­ Miller, C. A.: 184-5
je, conjuntos de Miller, Neal E.: 3. 20, 45, 58,
libros programados: véase ins­ 70-80, 86. 95, 118-22, 125.
trucción programada 130
Lico, M. C.: 79 modelos estocásticos: 185
Lindsley, D. R.: 81 moldeamiento: 64-5, 73
Lorenz, Konrad: 28 Mosteller, F. A.: 185
Lovejoy, E.: 142-3 Mostofsky, D. I.; 129
Luce, R.- D.: 185
motivaci¿n: 81-105, 188, 200-1,
Lytle, L. D.: 164
208; del olvido. 163-5; va­
riables. 136
Mac Corquodale, K.: 17 motivo: 125; impulso y, 86-7
maduración: 25, 67-8 Mowrer, O. H.: 107, 122
Maier, N. R. F.: 126 Muenzinger, K. F.: 106, 117-8
máquina de enseñar: 201-6 Miiller, C. E.: 161, 172
Maslow, Abraham: 98. 99 Murray, Henry: 97, 99
234 ÍN D IC E A N A L ÍT IC O

Natalicio. I.. F. S.: 169 "propósito": 184


necesidad: fisiológica, 84-97; proximidad, gradiente de: 120-
impulso y, 84-6; primaria. 121
94; psicológicas. 97-104 psicofísica: 182
Nissen, H. \V.: 96 psicoterapia: 70, 120
Nyswander, I). B.: 38

Raslievsky, M.: 184


Occam. navaja de: 142 Ratner, S. C.: 58, 67
Olds, J.: 96 Rail, L.: 169
olvido: 32. 151-70. 177. 187. razón: y emociones, 70
195; curva del, 152-0 Razian, O, H. S.: 47, 52. 57
operacionalismo: 188 reacción, tiempo de: 184, 187
operaciones: 50-2 reaprendizaje: 32, 157-8, 169
organismo: 11; edad del, 25 recompensa: véase premio
Osgood, C. E.: 131, 159, 161 reconocimiento: 186; método
del. 156-8
reconstrucción, método de 157-
paralización: 71-3 158
Paré, W.: 173 recuerdo, método del: 156-8
participación: 31-2 recuperación espontánea: 55,
Pavlov, I. P.: 10, 21, 38, 44, 147 8. 187, 195
47, 54-6, 128-9. 136 7, 145, reflejos condicionados: 44
147 refuerzo: 18. 21. 30-1, 33. 43,
Pelkwijk, J. J. T.: 24 45. 47 8, 55. 62. 64-5, 71,
pemolina de magnesio: 177-8 73. 78. 100. 108-9. 125, 146,
pensamiento: 9 149. 168, 186, 190-1, 201.208;
percepción: 182, 188 de intervalo fijo. 65; de in­
Piaget, J.: 198, 208 tervalo variable, 65-6; de
Piéron: 10 razón fija, 65; de razón va­
Pilzecker, A.: 161, 172 riable, 65; gradiente de, 104;
Plotnikoff, N.: 173, 178 programas de, 65-6, 103; re­
Postman, L.: 163, 169 tardo del, 170
Powloski, R. F.: 117 registro acumulativo: 63-4
Pradere, E.: 173 relaciones: y hechos, 10
premio: 108, 118, 125, 136. repaso selectivo- 164
139, 144, 149; ausencia (le, repetición: 30, 191
136, 139, 150; cantidad del, represión: 163-4
101, 195; retardo del, 103-4 respuesta: 11, 19-20, 46-7, 53-
Pressey: 197, 201-3 55. 62, 72, 109-10, 118, 129,
probabilidad de los eventos: 145, 148-50, 160, 163, 173,
184 175, 181, 189, 191, 203; can­
proceso: 54-6 tidad de la, 35; codificada,
programa: 202-3. 206 144; condicionada, 49-50, 55-
programación y registro auto­ 57. 145. 147, 151; emocional
máticos: 62 condicionada, 116; generali­
Prokasy, W. F.: 38 zación de la, 55, 59. 68, 133-
I N D IC E A N A L I T I C O 235
134, 163; incompatible, 149- Snide, J. D.: ISO
150; incondicionada, 49-50; sobreaprendizaje: 146-7, 154,
instrumental, 67-8; inhibi­ 168
ción de la, 147; promedio. Solomon, R. 1..: 106-7, 122
184; tasa de, 62; visceral, 71; Spalding: 28
voluntaria, 53 Spanovik, P.: 59
Restle, F.: 185 Spelt, I). K.: 26, 58
retención: 152. 163-70, 172-3; Spence. K. W.: 59, 136, 139-
véase también olvido 140
Revista de Psicología (Bogo­ Sperling. 1). S.: 94
tá); 83 Stein, L..: 125
Riley, D. A.: 138-9, 163 Stevens, S. S.: 20
Rock, L: 132 Stone, C. P.: 38. 113
Roe. Anne: 7 sujeto individual: (il-2
Rosclló, A.: 173 Suppes. P.: 185
Rosenbaum. G.: 131 supresión: 124
Rosenztveig, M. R.: 173. 176
Ross, L. E.: 59
Roussel, J.: 150 tareas, análisis de las: 199
Tarpy, R. M.: 164
Teitelbaum, I’.: 89
salivación: 72-3 tests: 7, 91, 141
Scott, J. P.: 25, 28 Thompson, R.: 58
Schiller, P. H.: 172 Thompson, W, R.: 27
Schroder, H. M.: 130 Thorndike, E. L.: 34, 45-7, 100,
Sears, R. R.: 126 107, 112-4. 180, 183
Sechenov, 1. M.: 44 Thorpe, W. H.: 18, 58
señales, detectación de; 186 Thurstone, L. L.: 183
series, aprendizaje mecánico tiempo: 34, 36, 51
de: 186 Tinbergen, N.: 24-5
seudocondicionamiento: 52-3 Tolman, E. C.: 41
Sidman, M.: 6 Trabasso, T.: 142-3
significado: 169-70 transposición: 137-40
similitudes: 161-2; dimensión trasmisión sináptica: 176-7
de, 133 trazo: 161; teoría del, 159-GO
Simón,' J.: 132 Trowill, J. A.: 73, 76
Simón, L. N.: 177 Tyron: 176-7
sistema nervioso: autónomo,
46-7; central, 46-7, 184
sistemas en miniatura, apren­ Underwood, B. J.: 168
dizaje infantil de: 187
situación estímulo: 189-90 Van Bergen: 165
Skinner, B. F.: 7, 17, 21, 33, Van Ormer, E. B.: 159
42-3, 45-6, 48, 60-1, 64-5, 86. variables: 13-4, 56-7, 199-200;
101,. 106-7, 109, 114-6, 124. de la respuesta, 11; depen­
145, 149, 187, 191, 197 , 201- dientes e independientes, 10-
203, 205 11, 36; del estímulo, II, 56,
236 ÍN D IC E A N A L ÍT IC O

191; del o r g a n is m o , II; in ­ Weiss, B.: 178


te r m e d ia r ia s o p a r ticip a n te s , Wertheimer, M.: 137
17, 63; i n t e r v a l o e n t r e e c y White, R. W.: 99
E l, 56-7; i n t e r v a l o e n t r e e n ­ Wickens, D. D.: 130
s a y o s , 57: m a t e m á t i c a s , 184. Wolfe, J. B.: 94
192-3; p a r t i c i p a n t e s , 17, 63 Woodivorth, R. S.: 85
v a r i a c i ó n a l a z a r : 189-90 Wundt: 10

Yerkes, R. M.: 10, 41


Wade, M.: 132
Ward, J. S.: 150
Watson, C.: 10, 30, 41 Zeigarnik, B.: 164-5
Weber, M.: 10 Zelman, A.: 174

impreso en offset marvi, s. a.


calle leiria 72 - méxico 13, d. f.
diez mil ejemplares y sobrantes para reposición
5 de noviembre de 1979

También podría gustarte