Swenson - TEORIAS DEL APRENDIZAJE
Swenson - TEORIAS DEL APRENDIZAJE
Swenson - TEORIAS DEL APRENDIZAJE
-Swenson-
Entre la psicología Rusa y la psicología que se elaboró en EEUU hay muchas similitudes.
Ambas ponen de relieve los factores ambientales de la conducta antes que los genéticos (innatos),
y probablemente ambas lo hayan hecho así en virtud de similares creencias sociopolíticas acerca
de la perfectibilidad del hombre.
Pavlov (1849-1936)
Condicionamiento clásico.
El primer tipo de aprendizaje sometido a intensa investigación científica fue el que hoy
llamamos clásico, respondiente o pavloviano.
El experimento pavloviano prototípico es el siguiente: sobre una plataforma hay un perro,
se le pone carne en polvo en la boca y el animal saliva. Esta salivación es un reflejo hereditario.
Después se hace sonar una campana inmediatamente antes de poner la carne en polvo en la boda
del perro. Este procedimiento se repite varias veces. Entonces se hace sonar la campana sin
dársele al perro la carne en polvo. El perro vuelve a salivar. Esta salivación ante el sonido de la
campana es lo que Pavlov llamó primero “secreciones psíquicas”. Se dice, entonces, que el perro
ha sido condicionado para que salive al sonar la campana. Ese condicionamiento se opera como
consecuencia de una estrecha asociación entre dos señales: una que puede ser tanto innata, y
deber a esto su efectividad, como haber sido aprendida antes, y otra que es nueva. La primera
señal se llama estimulo incondicionado (EI), y la nueva, estimulo condicionado (EC).
Antes de que se haya producido cualquier condicionamiento, el animal responde al EI con
un reflejo apropiado. Tal es la causa por la cual el condicionamiento así se llama a veces
condicionamiento respondiente. Se supone que la causa por la cual un EI especifico provoca
siempre un reflejo particular reside en que aquella parte de la corteza cerebral activada por el EI
esta físicamente conectada por fibras nerviosas con la parte del cerebro que controla el reflejo.
Debido a que no hace falta condicionamiento alguno para que aparezca en respuesta al EI, este
reflejo se llama reflejo incondicionado (RI). La producción del reflejo por el EC está condicionada a
las repetidas asociaciones de ambas señales, este reflejo (o respuesta) se denomina reflejo
condicionado o condicional (RC).
Pavlov consideró que la función de proceso de condicionamiento tiene estrecho nexo con
la adaptación biológica. Para responder al mundo exterior, todo organismo necesita detectar y
contestar las señales de acción que emite este mundo exterior. Este sistema de estímulos o señales
ambientales (como la carne en polvo o la campana) fue denominado por Pavlov primer sistema de
señales.
El condicionamiento clásico es un tipo de aprendizaje que se opera cuando una señal
nueva (EC) es apareada con una señal (EI) que tiene la propiedad de provocar un reflejo (RI).
Después del apareamiento, también el EC adquiere la propiedad de provocar un reflejo (RC) más o
menos similar al RI.
El punto esencial es que los reflejos son reacción predeterminadas a estímulos. Este punto
de vista determinista ha penetrado en la mayor parte de las posteriores teorías conexionistas sobre
el aprendizaje.
Los reflejos pueden clasificarse por orden de complejidad. Los reflejos pueden ser simples
o complejos.
Pavlov investigó además los que llamó reflejos inhibitorios (-), es decir, aquellos que
intervienen para defender otra actividad refleja. Al clasificar todos los reflejos como de índole
inhibitoria, o, por el contrario, excitarorios (+), también clasificó todos los estímulos según que
actuaran para propagar reflejos inhibitorios o excitatorios.
Según la teoría de Pavlov, las unidades básicas de la respuesta son los reflejos, provocados
por los estímulos. Estos pueden ser innatos o aprendidos, simples o complejos, y pueden suscitar
acciones o detener acciones en curso de ejecución.
Inhibición.
Inhibición externa: puede ser ejemplificada por el importante tipo de reflejo no aprendido
de componentes inhibitorios, llamado reflejo de orientación (RO). Cualquier estimulo que
despierte el RO detiene toda la actividad en curso e infiere con la continuación del
condicionamiento previo. Esto a su vez prepara las cosas para que sobrevenga el nuevo
condicionamiento siguiente.
Inhibición interna: Pavlov supuso que los analizadores corticales distinguen de algún modo
entre los estímulos nuevos y/o importantes y los estímulos conocidos poco importantes. De este
proceso interno resulta la inhibición de las respuestas de atención (el RO) ante señales conocidas
poco importantes. Este proceso se denomina habituación. Los efectos inhibitorios de la
habituación pueden ser a su vez inhibidos por la aparición de un estímulo inhibitorio suave en el
ambiente. Este último proceso se llama desinhibición.
También se puede transferir la inhibición ante nuevos estímulos mediante el
condicionamiento. En la inhibición condicionada de este tipo, algo que antes era un EC o un EI
débil para un reflejo excitatorio puede llegar a inhibir ese reflejo si se lo aparea frecuentemente
con un fuerte EI inhibitorio. Este cambio de respuesta suscitado por un EC determinado también se
llama contracondicionamiento.
Según hemos visto, el condicionamiento inhibitorio supone el proceso activo de interferir
con la provocación de algunos reflejos.
Los reflejos inhibitorios son de dos tipos básicos: 1) los provocados por señales ext3ernas
que pueden tener eficacia sin aprendizaje (inhibición externa), y 2) los que exigen alguna suerte de
proceso de aprendizaje (inhibición interna).
Para que haya condicionamiento, es preciso en primer término que sea provocado el RO y
que después sobrevenga habituación a éste. La presentación de un solo EC (extinción
experimental) determina que deje de provocar un RC. Sin embargo, después de un periodo de
descanso el EC recobrará espontáneamente algo de su capacidad para suscitar el RC.
Discriminación y generalización.
Pavlov explicó que los pensamientos verbales y el habla manifiesta, constituían un segundo
sistema de señales que operaba en forma muy parecida a como lo hacen las señales ambientales o
primer sistema de señales. Por consiguiente, en los seres humanos el significado de las palabras
llega a ser condicionado por una variedad de EIs ambientales y adquieren el poder de suscitar
reflejos. No solo poseemos un segundo sistema de señales (verbales), sino también un segundo
sistema de reflejos (palabras y pensamientos).
Pavlov procuró generalizar sus conclusiones al hombre. Consideraba que los hábitos
adquiridos por medio de la capacitación y la educación solo eran largas cadenas de reflejos
condicionados. Esas asociaciones, una vez aprendidas, podían ser provocadas automáticamente
mediante ECs adecuados, incluso contra nuestra voluntad.
Naturaleza/crianza: Pavlov consideraba que muchos reflejos complejos, incluidos el de eludir las
restricciones (reflejo de libertad), el de autodefensa y el de orientación son innatos.
El qué del aprendizaje: La unidad de aprendizaje que Pavlov examinó con mayor detalle fue la
formación de nuevas conexiones en la corteza cerebral entre los centros excitados por una señal
nueva (EC) y los que controlan las respuestas. Esta primera conexión supone en primer término la
formación de un vínculo entre el EI y el EC.
CAPITULO 2: ENFOQUES NORTEAMERICANOS DEL CONDICIONAMIENTO POR CONTIGUIDAD:
WATSON Y GUTHRIE.
WATSON (1878-1958)
Watson sugirió que frente a los fenómenos mentales es simplemente imposible satisfacer
las exigencias de objetividad. Carente de datos objetivos, la psicología nunca podría llegar a ser
una verdadera ciencia. Por lo tanto, en beneficio de una posible ciencia psicológica era preciso
abandonar las mediciones de la mente. La conducta, en cambio, se presta para ser cuantificada y
medida objetivamente. La conducta proporciona datos verdaderos, científicamente aceptables.
La unidad básica del aprendizaje es el hábito, y el hábito se adquiere como consecuencia
del fortalecimiento de un nexo neural entre un estímulo y una respuesta.
A juicio de Watson, el aprendizaje de destrezas era una cuestión de eslabonar respuestas
musculares. Esos eslabones formaban entonces los hechos objetivos que int3ervenian entre los
estímulos ambientales y las respuestas.
La teoría de Watson se sustentó sobre dos leyes del aprendizaje, las leyes de la frecuencia
y de la proximidad temporal. A juicio de Watson, la fuerza de un vínculo E.R depende de ambos
tipos de efectos.
Una explicación por la contigüidad acerca de los efectos del refuerzo aparente.
Watson negó toda importancia a los efectos del refuerzo (en particular a la “Ley del efecto”
propuesta por Thorndike) afirmando que un acto ejecutado con éxito se convierte en la respuesta
mas reciente como en la más frecuente.
Posiciones de Watson ante los principales problemas.
El cómo del aprendizaje: Al principio Watson creyó que los principios de frecuencia y proximidad
temporal bastan para explicar el condicionamiento. Puesto que un acto exitoso es a la vez el más
frecuente y el más reciente, llega a ser el que más probabilidades tiene de ser repetido en
circunstancias similares. Consideró que la teoría de Thorndike, que pone el acento sobre la
satisfacción y la molestia, estaba contaminada por subjetividad residual. En formulaciones
posteriores adoptó la posición pavloviana.
El qué del aprendizaje: según Watson, la unidad de aprendizaje consiste en vínculos entre
estímulos observables y respuestas observables o potencialmente observables. Lo que se aprende
es un hábito o u reflejo condicionado consistente en respuestas musculares eslabonadas.
GUTHRIE (1886-1959)
A diferencia del sistema altamente complejo propuesto por Pavlov, o del sistema de dos
leyes del aprendizaje (por frecuencia y por proximidad temporal) ideado por Watson, Guthrie
alcanzó el punto máximo en cuanto a simplicidad teórica: su teoría consiste en una sola ley que
estipula las condiciones necesarias y suficientes para el aprendizaje y que él denomino ley de la
contigüidad. Nada de listas de leyes, nada de recompensas, sino solamente estímulos y
movimientos vinculados en combinaciones, como lo expresa el siguiente concepto: “Una
combinación de estímulos que ha acompañado a un movimiento tenderá, al presentarse de nuevo,
a ser seguida por ese movimiento”. Guthrie no solo sugirió que el principio de proximidad
temporal basta para explicar el aprendizaje, sino también que todo aprendizaje es aprendizaje con
un ensayo. Por lo tanto, cualquier cosa que se haya hecho en presencia de determinada
combinación de estímulos será hecha de nuevo cuando vuelva a presentarse esa combinación.
Guthrie propuso una teoría del aprendizaje que contiene dos principios básicos: 1) el
sujeto tiende a asociar las cosas que ocurren simultáneamente (ley de la contigüidad) y 2) todas
esas asociaciones se producen por efecto de un solo ensayo.
Una situación puede parecer una sola señal, pero en realidad está compuesta por una
masa de estímulos que cambian en cada momento. En consecuencia, lo que parece una sola
respuesta es en realidad una masa de respuestas, y lo que parece un solo estimulo es una masa de
estímulos. Cada uno de esos elementos puede combinarse con cada uno de los otros, y lo que se
forma “con un ensayo" son esos diminutos vínculos, en cada ensayo, muchas de esas pequeñas
respuestas quedan vinculadas con muchos de los estímulos. La curva de adquisición gradual que
observamos es el resultado final del aumento gradual de vínculos apropiados y la eliminación
gradual de vínculos inapropiados. Así, Guthrie viene a decir que el mejoramiento de un acto
concierne al resultado del aprendizaje, antes que al proceso de aprender. Los errores consisten en
aprendizaje que no coincide con el dominio del acto final, y el aprendizaje es el proceso por el cual
todas las señales, finalmente, quedan vinculadas con la conducta aceptable. La mejoría, por lo
tanto, equivale al aprendizaje de un número cada vez mayor de movimientos más correctos.
Ejemplo de ello podrían ser las habilidades. El movimiento que sigue a determinado estimulo
producido por el movimiento es aquella respuesta que ha quedado condicionada a él (por efecto
de la contigüidad). A su vez, esa respuesta produce nuevas señales condicionadas a la respuesta
siguiente, y así sucesivamente. El concepto de estímulos autogenerados constituye una parte clave
de la teoría de Guthrie.
Guthrie defiende su teoría de que “la contigüidad es el único mecanismo del aprendizaje”
Explicando que la recompensa es una fuente de estímulos que sirve para relacionar otros grupos
de señales. Además, la recompensa protege una colección de vínculos E-R contra el
“desaprendizaje” al hacer de ellos los últimos fenómenos que se presentan inmediatamente antes
de que se modificara la situación de estímulo.
Guthrie tampoco considera que los impulsos y su reducción mediante las acciones
apropiadas sean necesarios para que haya aprendizaje. Sin embargo, Guthrie considera que los
estímulos contribuyen con frecuencia al aprendizaje. Lo cual se debe a que la mayoría de ellos
sirven como fuente de estímulos mantenidos. Esencialmente, la función de la recompensa consiste
en impedir que aquellas respuestas dadas inmediatamente antes de la recompensa sean
conectadas con respuestas distintas de las que producen la recompensa.
La posición de Guthrie acerca de la recompensa puede resumirse en el concepto de que “la
recompensa es el cambio de estímulo”, circunstancia en la cual los estímulos internos y las
respuestas (que actúan como estímulos) son modificados por la recompensa.
El castigo es eficaz solo cuando de él resulta una nueva respuesta a las señales antiguas. El
castigo modifica hábitos indeseables cuando suscita una nueva conducta incompatible con la
conducta castigada. También en este caso, el aprendizaje es el resultado de un cambio de las
condiciones del estímulo. Los movimientos condicionados por los estímulos adversos (que son la
fuente de los estímulos mantenidos) son aquellos que ponen al sujeto a distancia del estímulo, o el
estímulo a distancia del sujeto.
Guthrie explicó fenómenos como los efectos de la recompensa y los estados de impulso, y
su reducción, castigo y extinción experimental, en función de principios de contigüidad
relacionados con cambios en las condiciones de los estímulos antes que en función del refuerzo.
Aplicaciones.
Guthrie sostuvo que para que el castigo sea eficaz debe causar la aparición de respuestas
de competencia ante las señales de la conducta indeseable. Otro aspecto de la teoría de Guthrie
es: como las conexiones establecen entre estímulos específicos y respuestas específicas, cabe
esperar que la transferencia de entrenamiento ocurra solo en la medida en que en la situación
nueva se presenten estímulos antiguos. En el ejemplo del niño y el abrigo, cabría esperar que el
“acto de colgar el abrigo” no se produzca al entrar el niño en una casa que no sea la propia.
Este procedimiento para romper el hábito indeseable constituye un ejemplo del método
de respuesta incompatible de Guthrie, quien sugirió además otros dos métodos para romper los
hábitos: el método de la fatiga y el método del umoral.
El método de la fatiga consiste en permitir que un acto indeseable sea repetido hasta que
fatigue y “no responder” quede asociado a las señales que antes suscitaban la respuesta
indeseable.
El tercer método (el del umbral) consiste en presentar con tan baja intensidad las señales
que normalmente provocan la conducta indeseable, que no suscite la conducta. Durante ese
tiempo, otras respuestas llegan a quedar asociadas con esas señales. A continuación, se aumenta
gradualmente la intensidad del estímulo, procurándose siempre que esa intensidad este por
debajo del “umbral” de la respuesta indeseable. Finalmente, es posible exponer al sujeto a toda la
intensidad de las señales que habían provocado la conducta indeseable sin que responda con esa
conducta. Guthrie sugirió que el método del umbral es un rasgo común de las interacciones
humanas cotidianas. Al comparar los tres métodos, Guthrie concluye que los tres suponen
encontrar las señales que suscitan el hábito indeseable y a continuación hacer lo necesario para
que esas señales se conviertan en estímulos de respuestas que compitan con el hábito. Asimismo,
considera que todos los métodos arrojan resultados equivalentes.
Guthrie propuso tres métodos para eliminar los malos hábitos. Los tres se basan en su
supuesto básico de que la conducta es controlada por estímulos y son los siguientes: 1) respuesta
incompatible, 2) fatiga, y 3) umbral.
El cómo del aprendizaje: Guthrie fue el expositor más puro de la teoría de la contigüidad:
“comprendemos mucho mejor los empleos del castigo y la recompensa si analizamos sus efectos
en función de la asociación y advertimos que el castigo solo es eficaz por medio de su asociación”
(Guthrie).
El qué del aprendizaje: La unidad básica del aprendizaje consiste en la asociación de movimientos
de músculos particulares con estímulos particulares. Los hábitos complejos representan la suma
neta de muchas de esas unidades básicas.
Perspectiva.
En la teoría de Guthrie ocupa una posición central la siguiente idea: debido a que
tendemos a repetir movimientos cuando somos expuestos a las señales que en el pasado, se
asociaron a esos movimientos, los ambientes cuyas señales no cambian tienen que producir
movimientos estereotipados.
Guthrie sostenía que la razón por la cual esas respuestas son estereotipadas reside en que
solo la última respuesta (la que ha tenido éxito) queda protegida contra interferencias.
Otros supuesto fundamental de la teoría de Guthrie es que la recompensa bajo forma de
reducción de impulso no es indispensable para que haya aprendizaje.
Considerándolo en retrospectiva, se concluye que Guthrie efectuó cuatro contribuciones
importantes y duraderas. La primera consistió en obligar a los psicólogos a examinar con mayor
detenimiento que antes el papel de los estímulos en la determinación de la conducta y el
aprendizaje. La segunda fue extender la duración de la perspectiva de la contigüidad y demostrar
la necesidad de reconsiderar la función del refuerzo mediante estudios como los que se acaban de
describir, lo cual impuso a los teóricos de la conexión por el esfuerzo la necesidad de formular
teorías más elaboradas. La tercera residió en el desarrollo del concepto del estímulo producido por
el movimiento. La cuarta se deriva de la índole probabilística de la teoría de Guthrie. A causa de
que Guthrie consideró que el aprendizaje se produce por efecto de “colisiones” de señales que
suelen encontrarse en contigüidad entre sí, pensó que el resultado definitivo de cualquier ensayo
de aprendizaje se debe en parte al azar y, por lo tanto, no puede ser predicho con exactitud. Lo que
puede predecirse es el resultado medio de muchos ensayos, y en este sentido la teoría de Guthrie
es de índole estadística. Esta circunstancia hace de ella un punto de partida para la confección de
un modelo matemático del conocimiento.
CAPITULO 3: APRENDIZAJE POR MEDIO DEL REFUERZO: THORNDIKE Y HULL
THORNDIKE (1874-1949)
El núcleo de su teoría consistía en tres leyes principales. La primera es la Ley del efecto, la
cual sostiene que “aquellas respuestas dadas inmediatamente antes de una situación satisfactoria
tienen mayor probabilidad de ser repetidas”. De acuerdo con este concepto los animales tienden a
mantener estados satisfactorios y a no mantener los insatisfactorios. En consecuencia, a despecho
del tono subjetivo de los términos “molestar” y “satisfacer”, Thorndike los definió por la conducta
del animas, sin recurrir a los conceptos mentalistas. Los factores de satisfacción “estampan”
respuestas y los de molestia las “borran”. Consideró que esos “estampados” eran directos,
mecánicos y no implicaban conciencia o percepción del aprendizaje. En consecuencia, definió el
aprendizaje en función de vínculos E-R que se “estampan” gradualmente en el cerebro. A
continuación, los vínculos completos funcionan en forma muy parecida a como lo hacen las
conexiones hereditarias (instintos y reflejos).
La segunda ley de Thorndike es la Ley de la predisposición, formulada en función de
unidades neurales hipotéticas. Esta ley sostiene que la satisfacción y la molestia dependen del
estado del organismo en el momento en que actúa. Cuando una unidad neuronal de conducción
esta predispuesta, la conducción es satisfactoria; cuando la unidad de conducción no lo está, la
conducción es molesta. Cuando la unidad de conducción está dispuesta y no hay conducción, el
organismo se siente frustrado o molesto.
La tercera ley es la Ley del ejercicio y representó una concesión a la teoría del aprendizaje
por contigüidad. Thorndike sostuvo que el uso de las conexiones las fortalece y que su desuso las
debilita. El principio del “uso” explica principalmente actos prepetitivos como las destrezas
motrices y la memorización de poemas. El principio del “desuso” explica el olvido general.
Admitiendo que los factores de contigüidad pueden influir sobre los vínculos E-R, Thorndike criticó
a la vez que se empleara ese principio sin tener en cuenta la ley del efecto. Thorndike reprobó la
idea de que el ejercicio puede bastar por si solo para producir aprendizaje.
Según la teoría de Thorndike, se produce aprendizaje cuando: 1) una respuesta conduce a
la satisfacción o a la evitación de molestia (ley del efecto); 2) el organismo está dispuesto a
responder (leu de la predisposición) y 3) este aprendizaje es afianzado por la practica (ley del
ejercicio).
Aplicaciones.
Thorndike formuló muchas sugerencias para el mejoramiento del aprendizaje. Entre ellas
figuraron las de prestar atención a los factores motivacionales y de otorgar a los que se enseñe una
forma tan similar como sea posible a las destrezas que los alumnos necesitarían después de la
escolaridad.
El cómo del aprendizaje: Si bien la teoría inicial de Thorndike incluía el principio de contigüidad,
bajo la forma de la ley del ejercicio, su autor abandono posteriormente esa ley. A lo largo de toda
su carrera, sostuvo que las consecuencias de la conducta (llevara ella a satisfacción o molestia, o a
ninguna consecuencia) son más importantes para predecir el aprendizaje que las relaciones entre
estímulos y respuestas.
Perspectivas.
SKINNER
Los principios de Skinner resultan esenciales para comprender los enfoques actuales de la
teoría del refuerzo. En particular es necesario comprender los efectos que los cuatro tipos básicos
de programas de refuerzo tienen tanto sobre el desempeño recompensado como sobre el
desempeño durante la extinción. La teoría skinneriana del aprendizaje pone especial énfasis sobre
el control de la conducta mediante circunstancias que premian o refuerzan y sobre la pautacion de
las recompensas para influir sobre la frecuencia y la intensidad de las respuestas.
Skinner rechazó en forma invariable las causas internas (tales como los motivos, los
estados del yo, la fuerza del hábito y demás). Considera que la ciencia es un conjunto de actitudes
que facilitan la observación y la experimentación (no la aceptación de las ideas impuestas), esta
actitud filosófica se traslada al fuerte acento que pone sobre la objetividad y la aceptación de los
datos experimentales. Se empeñó en tratar de determinar que fuerzas ambientales controlan la
conducta.
Al abogar por una metodología científica objetiva, Skinner prolonga el rechazo por Watson
de posibles agentes internos y ataca directamente los enfoques de Hull y otros, que intenta
pr3edecir y comprender la conducta sobre la base de procesos internos inferidos. Se aparta de
Watson, sin embargo, porque, a diferencia de éste, acepta el pensamiento y otras conductas
privadas como fuente de datos, en la medida en que se revelan en respuestas verbales objetivas y
de otros órdenes. Skinner se limitó a abstenerse de investigar o teorizar acerca de las causas
internas, por considerar que la última cusa de la conducta interna puede ser rastreada en
influencias ambientales.
El principio fundamental de “caja negra” u “organismo vacío” como punto de partida para
el estudio de la conducta se opone directamente a la práctica de especular acerca de
construcciones hipotéticas o variables intervinientes que actúan en los organismos. Una de las
razones fundamentales por las que Skinner decidió centrarse en los hechos ambientales antes que
en los internos reside en la riqueza de información que puede obtenerse así para el análisis
científico de los factores que determinan la conducta. Admitió que esas variables pueden influir en
formas sutiles sobre el comportamiento, pero consideró que no es posible explicar en forma
acertada la conducta sin investigarlas. Se propuso elaborar un método de análisis de la función que
los hechos ambientales cumplen en la determinación y predicción de la conducta de los
organismos.
El método empelado por Skinner para investigar las variables externas que controlan la
conducta consiste en lo que él denomino un análisis causal o funcional. A su juicio, las variables
dependientes son los efectos de las variables externas, o los cambios de conducta suscitados por
éstas. La meta que se propuso alcanzar mediant3e este método de análisis fue la predicción y el
control de las variables dependientes (conductuales). A juicio de Skinner, las leyes de la conducta
consisten en las relaciones causa-efecto entre las variables independientes (hechos ambientales
externos) y las variables de respuesta (dependientes). Consideró que una síntesis de esas leyes en
términos cuantitativos proporciona una imagen ampliada de los organismos como sistemas de
conducta. Skinner no necesitó apelar a variables tales como el impulso y la motivación incentiva,
porque estimó que especular acerca de ellas era simplemente necesario para una ciencia cuyas
metas consistieran en predecir y controlar la conducta.
“Si un esfuerzo condicionado ha sido apareado con refuerzos apropiados para muchas
condiciones, es probable que por lo menos un estado de privación apropiado prevalezca en una
ocasión ulterior. En consecuencia, es más probable que se presente una respuesta” (Skinner).
El propio Pavlov llamó “refuerzos” a todos los hechos que fortalecían una conducta, y
“condicionamiento” a los cambios resultantes. En el experimento pavloviano, empero, un
reforzador es apareado con un estímulo; en cambio, en la conducta operante depende de una
respuesta.
La caja de Skinner.
Tal como Pavlov, Skinner aportó no solo una teoría sino también una metodología. Su
metodología se basa en el supuesto de que el principio de equipotencialidad es habitualmente
valido en el marco controlado que ofrece el laboratorio.
Cualquier movimiento particular de un organismo constituye una respuesta. Una clase de
movimiento o un tipo de conducta específica que se ajusta a ese criterio se denomina operante. La
frecuencia y la pauta con que se presentan las operantes son medidas. Otras variables
dependientes posibles, como la intensidad o la duración de la respuesta, no son medidas. La caja
de Skinner proporciona un ambiente en el que el sujeto puede emitir una respuesta susceptible de
ser medida como operante estandarizado. Al contar solo las operantes, la caja de Skinner elimina
los juicios subjetivos del observador acerca de lo que debe considerarse respuesta. La caja de
Skinner no solo proporciona un ambiente en que se emite una conducta simple, producida
libremente y medida objetivamente; además aporta un medio que permite controlar con precisión
las consecuencias de las operantes.
En consecuencia, disminuye considerablemente la posibilidad de reforzar una conducta
que no sea la operante. Por lo tanto, la caja de Skinner aporta datos precisos acerca de las
relaciones entre la historia del organismo (adiestramiento anterior y niveles de privación) y el
control ejercido por el reforzador sobre las tasas de acuerdo con las cuales se emite el operante, y
logra todo esto sin necesidad de apelar a consideraciones sobre estados internos
Principios fundamentales.
Moldeamiento: Skinner sostiene que “el condicionamiento operante moldea la conducta tal como
un escultor moldea un trozo de arcilla=.
Cinco contingencias fáciles: Los reforzadores pueden dividirse en dos clases. Una consiste en
aquellos hecho que los organismos procuran experimentar de nuevo y se los denomina
reforzadores positivos. La otra clase consiste en aquellos hechos que tratamos de evitar y se llama
estímulos adversos. Las circunstancias o reglas pueden disponerse de manera tal que cada tipo de
reforzados pueda asociarse, sea con un aumento o con una disminución de la probabilidad de una
particular emisión de respuesta. Las reglas que gobiernan la relación entre respuestas y refuerzo se
llaman contingencias.
El refuerzo negativo no es el mismo que el castigo. El refuerzo negativo es el que se recibe
cuando se emiten respuestas que ponen fin a hechos desagradables. Skinner se opone al empleo
de contingencias de castigo por entender que son ineficaces y tienden a provocar efectos
secundarios indeseables, como el de inhibir las conductas deseadas.
Aquellos reforzados que no son presentados en nexo de contingencia con la ocurrencia de
una respuesta particular pueden sin embargo llegar a controlar la conducta. Skinner llamó a este
efecto condicionamiento supersticioso y sugirió que muchas conductas humanas que parecen
irracionales pueden haber sido condicionadas por ese proceso. Si se emite una conducta
inmediatamente antes de la repetición de un reforzador, esa conducta es seguida por el reforzador
y tiene más probabilidad de repetirse.
Skinner distinguió cinco tipos de reglas que gobiernan las contingencias entre respuestas y
reforzadores: 1) dar un refuerzo a una respuesta constituye un refuerzo positivo, 2) dar un refuerzo
no contingente produce condicionamiento supersticioso; 3) dar un estímulo adverso, o 4) eliminar
el reforzador positivo contingente de una respuesta es castigo, y 5) la eliminación de un estímulo
adverso contingente de la emisión de una respuesta es refuerzo negativo.
La extinción del condicionamiento operante consiste en aquella situación en que la
contingencia original entre una respuesta y un reforzador toca a su fin. En consecuencia, la
respuesta ya no sobreviene en presencia del reforzador.
El programa de refuerzo es la regla regida por el ambiente para determinar cuál de las
muchas ocurrencias de una respuesta será reforzada.
La mayor parte de nuestras consideraciones hasta este lugar se han referido a las
contingencias como hechos “todo o nada”. O sea, la conducta era seguida por el reforzador o no lo
era. En el mundo real, empero, el refuerzo es a menudo algo que se presenta solo a veces. Si para
mantener una determinada operante fuese necesario el refuerzo de cada respuesta, la mayor
parte de nuestras conductas, y en particular los ejemplos de conductas supersticiosas que hemos
visto, se extinguirían. Ese refuerzo que se brinda a veces a una conducta se llama refuerzo
intermitente, lo opuesto del refuerzo continuo, o RC.
El ambiente puede conectar reforzadores a respuestas sea por efecto del número de
respuestas emitidas o por la ocurrencia de la respuesta dentro de un intervalo de tiempo
específico. Esos programas se denominan respectivamente programas de razón y de intervalo y
pueden ser fijos (percibibles por el organismo) o variables (probabilísticos).
Skinner desarrolla una teoría del aprendizaje y la conducta verbales basada en su modelo
de aprendizaje operante, según el cual se formulan respuestas porque tienen probabilidad de
preparar la oportunidad para un refuerzo. Hay tres formas importantes de conducta verbal: 1)
tacto (usar nombres); 2) mando (pedir); 3) texto (en general leer).
Posiciones de Skinner frente a los problemas principales.
Naturaleza / crianza: Skinner considera que los reflejos involucrados en condicionamiento de tipo
E (pavloviano o clásico) son innatos. Reconoce que existen diferencias innatas entre las tasas de
aprendizaje correspondientes a las varias especies y a los individuos dentro de cada especie.
También reconoce que las contingencias filogenéticas (dependientes de la evolución) pueden
“reforzar” selectivamente la ocurrencia de pautas genéticas que lleven a un aprendizaje más fácil o
más difícil de conductas particulares.
De cualquier modo, Skinner se centra en los determinantes ambientales de la conducta. Aunque se
haya apartado de la posición ambientalista radical que caracterizó a teóricos como Watson, sigue
sosteniendo que el ser humano aprende primordialmente el lenguaje, la agresión, la conducta
social y la resolución de problemas por medio del condicionamiento operante.
El cómo del aprendizaje: Skinner afirma que proposiciones como las primeras de Thorndike acerca
de la ley del ejercicio o la contigüidad pura pueden explicar el condicionamiento pavloviano, o de
tipo E, de respuestas mediadas por el sistema nervioso autónomo. A su juicio, el condicionamiento
operante, o de tipo R, es el mecanismo de aprendizaje adaptativo de las respuestas de los
músculos esqueléticos. Aprendizaje operante es aprendizaje por medio del refuerzo. Si bien
Skinner sostiene que existen ambos tipos de procesos de condicionamiento, el énfasis que pone
sobre el condicionamiento operante sitúa su teoría, que nominalmente es de dos factores, entre
las del refuerzo. En el modelo skinneriano del aprendizaje operante, una respuesta debe ser
emitida espontáneamente y esta emisión ser seguida por un hecho que la refuerce para que haya
condicionamiento. En concordancia con la preferencia de Skinner por enunciar sus leyes solo en
términos de estímulos y respuestas, se define el refuerzo, desde el punto de vista operativo, como
cualquier suceso que aumente la probabilidad de reocurrencia de una respuesta emitida
exactamente antes de ese suceso que la refuerza.
El qué del aprendizaje: Salvo en el caso del condicionamiento de tipo E, que interviene en los
reforzadores condicionados del aprendizaje, los organismos aprenden a activar operantes
apropiados en presencia de estímulos discriminativos específicos, de acuerdo con tasas
controladas por programas. Las unidades de aprendizaje pueden consistir ya en relaciones E-R, ya
en tendencias a emitir conductas. Skinner evita especular acerca de variables internas y
deliberadamente deja sin definir la cuestión de la unidad interna de aprendizaje.