Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

La Enseñanza de La Investigacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 163

Libros de Cátedra

La enseñanza de la metodología
de la investigación en Psicología
Un acercamiento crítico a sus
fundamentos y problemáticas

María José Sánchez Vazquez


(coordinadora)

FACULTAD DE
PSICOLOGÍA
LA ENSEÑANZA DE LA METODOLOGÍA DE LA
INVESTIGACIÓN EN PSICOLOGÍA

UN ACERCAMIENTO CRÍTICO A SUS FUNDAMENTOS Y PROBLEMÁTICAS

María José Sánchez Vazquez

(Coordinadora)

2014
ÍNDICE

Presentación. Héctor Blas Lahitte 7

Introducción. María José Sánchez Vazquez 9

Capítulo 1. Aspectos metodológicos en la enseñanza de la


metodología de investigación en psicología, María José 14
Sánchez Vazquez

Capítulo 2. Parte A. Problemas ontológicos y epistemológicos


en la enseñanza de la metodología: El debate realismo-
antirrealismo en la filosofía de las ciencias, Maximiliano 30
Azcona

Capítulo 2. Parte B. Problemas ontológicos y epistemológicos


en la enseñanza de la metodología: De máquinas y
hologramas, Luciano Centineo Aracil 67

Capítulo 3. Aspectos éticos trasmitidos en la enseñanza de la


metodología de investigación en psicología, María José
Sánchez Vazquez, María Florencia Gómez, Javier Dorati 96

Capítulo 4. La enseñanza del testimonio en la investigación


cualitativa: experiencias colectivas en el aula, Irma Cecilia
Colanzi, José Manuel Villarreal 125

Capítulo 5. La escritura científica en la enseñanza de la


metodología de la investigación: De la prosa informativa a la
prosa ensayística, Fernando Manzini 143
PRESENTACIÓN

La presente obra continúa la línea de indagación iniciada por un grupo de


investigadores, becarios y docentes, coordinados por la profesora María José
Sánchez Vazquez, en relación a cuestiones epistemológicas, metodológicas y
éticas relacionadas con la ciencia en general y con la investigación científica en
Psicología, en particular.
En esta oportunidad, el interés está centrado en la experiencia de este grupo
por la transmisión de saberes teóricos y aplicados del área de la metodología
científica a los alumnos del grado, presentando una modalidad de enseñanza y
de aprendizaje específica denominada “Talleres Temáticos”.
La problemática teórica y epistemológica ha ocupado, en estos últimos años,
un lugar preponderante en la totalidad de las Ciencias Sociales y Humanas, en
particular en el campo de la Psicología y la Antropología Cultural. La
trascendencia que deriva de la discusión académica tanto de los estudios
empíricos como de los desarrollos teórico-metodológicos ha dado y sigue
dando forma a un trabajo de reconstrucción crítica de la tarea docente. En este
sentido, es legítimo preguntarse: ¿qué contenidos pueden enseñarse y
aprenderse en el área de la metodología científica?; ¿hay prácticas científicas
determinadas que deberían transmitirse?; ¿cómo se enseña y se aprende a
“hacer ciencia”?. De hecho, la enseñanza de la metodología científica presenta
peculiaridades que no se agotan en la transferencia de un corpus teórico y
aplicado específico hacia los destinatarios. En esta tarea docente siempre se
pone en juego la posibilidad de que los estudiantes puedan incorporar un
aprender a aprender, creando así hábitos de pensamiento y acción adecuados
para emprender la futura actividad científica. Sabemos que no debería
aspirarse a formar solo metodólogos disciplinares; sino, científicos integrales,
aprendiendo a investigar investigando. En este desafío, la creatividad en la
labor del docente superior es convocada una y otra vez.

7
La experiencia de los talleres, presentada en la obra en forma de capítulos,
está desarrollada en base a cuatro temáticas fundamentales que forman parte
del cuerpo central del programa académico de la asignatura. Estas son: (1) las
diferentes perspectivas en investigación, con sus nuevos aportes
epistemológicos y paradigmáticos; (2) la responsabilidad científica y la
investigación con participantes humanos; (3) los modelos de investigación
cualitativos y el testimonio como técnica de recolección cualitativa y, (4) los
estilos de escritura científica para la difusión académica.
El contenido de cada taller deja traslucir el tipo de reconstrucción simbólica
elaborado a partir de la experiencia realizada. En cada capítulo el sistema de
reescritura empleado para dar cuenta de la experiencia particular expresa, sin
duda, la cadena de representaciones que han guiado la práctica entre docentes
y alumnos. De este modo, se hace explícita no solo la manera en que se llevan
a cabo tales razonamientos con ayuda del lenguaje científico, sino que se
evidencia además la presencia de quienes argumentan. En otras palabras, este
trabajo pedagógico de co-construcción da respuesta a una doble interrogación:
¿Cuál es la organización lógica–semántica puesta en juego en la transmisión y
cuál el sistema de representación simbólica con que se expresa esta
experiencia docente?
La presente comunicación reordena, pues, textos y argumentos concluidos por
otros y resignificados en los talleres; posibilitando ahora al alumno un recorrido
crítico que permite extraer consideraciones prácticas para su vida académico-
profesional en desarrollo.
En síntesis, el interés del texto en su conjunto se basa en la posibilidad que
tiene todo interlocutor de evaluar la coherencia formal de distintas
elaboraciones y prácticas docentes, sabiendo que en cualquier caso se trata de
las consecuencias de nuestra mirada sobre el “hacer” del otro.
Héctor Blas Lahitte
Doctor en Ciencias Naturales y en Psicología Social.
Antropólogo. Miembro de la Academia Nacional de Ciencias.
Facultad de Ciencias Naturales y Museo,
Universidad Nacional de La Plata.
La Plata, octubre 2013

8
INTRODUCCIÓN

Con mucho beneplácito presentamos la segunda obra de nuestro grupo de


trabajo como docentes del área de la metodología en las carreras de Psicología
(Universidad Nacional de La Plata). En los últimos años hemos desarrollado e
implementado dispositivos específicos para la enseñanza de contenidos
metodológicos que resultan de especial interés a los alumnos del grado. Así,
planificamos talleres de profundización temática como un modo de propiciar un
aprendizaje significativo y crítico sobre el saber-hacer ciencia.
A partir de las experiencias obtenidas en la cátedra, hemos delimitado ciertas
problemáticas presentes en la transmisión de los contenidos curriculares
particulares, a saber: 1) la dificultad de hallar bibliografía específica para la
enseñanza de la metodología en el ámbito de la investigación psicológica; 2) la
posibilidad de desplegar actividades prácticas y acciones formativas (saber-
hacer científico) en el marco de los procesos de enseñanza y de aprendizaje de
la metodología de investigación; 3) la necesidad de vinculación profunda y
reflexiva de contenidos curriculares transversales, en los momentos de adquirir
y desplegar competencias para la investigación en psicología. La presente
publicación presenta un material relevante puesto que contribuye a solventar
estas dificultades halladas; la misma, profundiza contenidos en el campo de la
producción de conocimiento científico propio de la disciplina, a la vez que
promueve nuevos lineamientos para la generación de las habilidades
necesarias en metodología de investigación psicológica.
En el primer capítulo, María José Sánchez Vazquez propone realizar una
reconstrucción crítica, de base exploratoria, respecto de los problemas
particulares que hoy tiene la enseñanza y el aprendizaje de la metodología en
investigación en las carreras de grado de la Facultad de Psicología
(Universidad Nacional de la Plata). Para ello, la autora recurre al análisis de
dos dimensiones íntimamente interconectadas: el nivel macrocontextual,

9
vinculada con lo social-institucional, y el nivel microcontextual, centrado en el
entorno áulico. La experiencia docente que resulta de la interrelación entre las
dimensiones mencionadas permite presentar los aspectos innovadores
aportados, posibilita una ruptura en términos didácticos y un enriquecimiento en
la trasmisión de contenidos y prácticas. En este sentido, son analizadas las
siguientes situaciones: por un lado, el lugar de la investigación en los perfiles
profesionales de los estudiantes de Psicología; por otra parte, las estrategias
docentes que propician un aprendizaje significativo basado en un saber-hacer
científico real. Este tipo de estrategias se centran en la propia producción,
incorporando herramientas metodológicas flexibles, tales como los talleres
temáticos. Se concluye que para enseñar y aprehender metodología de la
investigación es fundamental la consideración de los supuestos y disposiciones
de los participantes respecto de qué es investigar. De este modo, poder
articular lo ya instalado con conceptos y prácticas innovadores que permitan a
los alumnos del grado reflexionar sobre el ejercicio profesional del psicólogo en
ámbitos de la investigación científica.
El capítulo 2, presentado en dos secciones, actualiza la temática ontológica y
epistemológica que permanece en la base de las opciones de investigación
científica y sus modos de transmisión hacia los alumnos del grado. En su parte
A, Maximiliano Azcona realiza una presentación de los fundamentos filosóficos
de los métodos y describe la polémica realismo-antirrealismo desde sus inicios
hasta los debates contemporáneos. Posturas que van desde el denominado
“argumento del no milagro”, donde se sostiene al realismo como la mejor
explicación del éxito predictivo de la actividad científica; hasta posiciones que
retoman argumentos de la perspectiva antirrealista, entre los cuales se destaca
la llamada “meta-inducción pesimista”. En su parte B, Luciano Centineo Aracil
realiza una revisión de los principales modelos que han surgido a lo largo de la
historia de la ciencia y que han sido la base fundamental para interpretar la
realidad y para confeccionar el objeto de conocimiento de las diferentes
disciplinas científicas. Tal es el caso de los modelos organicista, mecanicista,
sistémico, integral y holográfico. Son expuestos los obstáculos encontrados en
torno a la historización y evolución de los fundamentos filosóficos que

10
sostienen los modelos mencionados, así como los relativos a la ejemplificación
y utilidad del tema en Psicología. Ambas partes de este capítulo concluyen en
la presentación de los movimientos de cambio conceptual efectuados a partir
de las experiencias de enseñanza y de aprendizaje en torno a los temas en
cuestión. Son revisadas las diferentes formas de investigar en Psicología y las
posibilidades de integración y diálogo entre perspectivas que discrepen a nivel
de sus supuestos subyacentes.
El capítulo 3 se centra en problemáticas ético-deontológicas de la investigación
científica y su enseñanza en el taller temático a partir del trabajo con
investigaciones reales llevadas a cabo. María José Sánchez Vazquez, María
Florencia Gómez y Javier Dorati sostienen que la investigación en Psicología
conlleva una necesaria meditación ética en tanto sus objetos de estudio son
otros individuos de derechos plenos. Desde esta perspectiva, trasmiten que el
accionar científico no puede limitarse sólo al saber-hacer metodológico, sino
que ha de sumarse una mirada responsable que supere meras posturas
normativistas y que salvaguarde la dignidad inalienable del ser humano. A
partir del análisis de dos casos de investigación en ciencias humanas –el caso
Milgram y el caso Zimbardo-se realiza la reconstrucción de diferentes
argumentos basados en principios y reglas éticas, a la vez que se indaga sobre
los conflictos o dilemas generados entre los principios éticos de Autonomía y
de Beneficencia en situaciones de investigación con engaños o tensión. El
capítulo concluye con una articulación del concepto ricoureano de prudencia
responsable. Esta noción central, aplicada a la investigación, nos recuerda la
necesaria actividad reflexionante que debe acompañar toda acción
especializada, siempre con el objetivo ético de encontrar el equilibrio entre lo
que es bueno, conveniente y justo para cada uno y para todos.
Respecto del capítulo 4, Irma Colanzi y José Manuel Villarreal abordan los
aspectos técnicos en investigación cualitativa, en especial los denominados
métodos biográficos y testimonio narrativo. Son analizadas las características
centrales del método biográfico, en particular los fundamentos histórico-
epistemológicos de la técnica narrativa. Tomando como centro la estrategia
didáctica y metodológica del uso de estos instrumentos metodológicos en el

11
aula universitaria, se posibilita una mirada crítica sobre su papel en la
producción de conocimiento en Psicología. La producción realizada en el
espacio del taller permitió analizar las competencias que desarrollan los
estudiantes en el empleo de los métodos biográficos y el diseño de propuestas
de investigación que den voz a sujetos y/o colectivos segregados. El capítulo
recoge estas experiencias formativas en metodología cualitativa y las integra a
diversos desarrollos conceptuales: la denominada “epistemología del sujeto
conocido”; el concepto de “interacción significativa” habermasiano, que
proporciona una reflexión sobre el estatuto del discurso de los sujetos a través
de sus testimonios; el paradigma interpretativo desde la noción de comprensión
y el estudio de las intenciones del actor social singular; el concepto ricoeuriano
de “identidad narrativa”, que permite interrelacionar lo político, lo social y lo
psíquico a partir de la vinculación de la identidad, la memoria y la historia; y la
perspectiva histórico-cultural en Psicología contemporánea con la noción de
pensamiento narrativo. Por otra parte, se indaga sobre las cuestiones onto-
epistemológicas que subyacen al uso del testimonio como técnica narrativa,
principalmente desde los aportes de Zizek a las corrientes contemporáneas.
Como síntesis se afirma que el taller implica un saber situado y una
construcción colectiva, donde la metodología de la investigación es una
herramienta que permite construir un capital particular, cultural y simbólico y un
instrumento de intervención en el juego social actual.
Finalmente, el capítulo 5 refiere a las características y problemáticas de la
escritura científica en la enseñanza de la metodología de investigación.
Fernando Manzini sostiene que la correcta redacción de textos científicos es
una habilidad sumamente útil al momento de comunicar resultados tanto al
grupo de pares especializados como al resto de la comunidad. Esta habilidad
en el proceso de escritura se logra gracias al ejercicio de prácticas como la
redacción sistemática de escritos académicos, la lectura inteligente de textos
modelos y el estudio riguroso de artículos técnicos relacionados a la redacción
científica en sus diferentes formatos: el informe empírico de investigación, el
ensayo científico y el artículo de divulgación científica, entre otros. En el
capítulo se desarrollan y analizan las líneas teóricas que delinearon el trabajo

12
en el taller; asimismo, se exponen y describen los ejercicios prácticos utilizados
con los alumnos (lectura y análisis de textos científicos, producción escrita de
un resumen de investigación científica y escritura de un ensayo científico
breve). Como cierre se analiza de modo crítico las producciones escritas por
los estudiantes. Estas son discutidas tomando, por un lado, los aportes de
Cassany respecto a los conceptos de claridad y concisión en la redacción
formal de informes de investigación, y, por otro, los aportes de Kovadloff y
Cocca sobre las características literarias del estilo de los ensayos científicos.
Se concluye con un Epílogo a modo de cierre de la obra colectiva. En él, se
destaca el desarrollo de las visiones heterogéneas y de los valiosos aportes
sobre los diferentes aspectos de la metodología científica (epistemológicos,
ético-deontológicos, técnicos-procedimentales y comunicacionales), trasmitidos
en la labor práctica de los talleres con los alumnos del grado. Esta tarea
multifacética ha permitido reflexionar sobre la fundamentación y problemática
presente y actual respecto de la trasmisión en el nivel superior.

13
CAPÍTULO 1

ASPECTOS METODOLÓGICOS EN LA ENSEÑANZA DE LA


METODOLOGÍA DE INVESTIGACIÓN EN PSICOLOGÍA

María José Sánchez Vazquez

La tarea docente en la trasmisión de la metodología de la investigación


resulta una acción particular, puesto que además de los contenidos
específicos, este ámbito curricular requiere de una transposición didáctica que
incluya no sólo “un conocer”, sino sobre todo “un saber-hacer”. Si deseamos
una transmisión efectiva de los procesos de investigación a través de la
enseñanza universitaria, es necesario que los mismos estén integrados a la
particularidad disciplinaria. Así, los procedimientos lógicos implícitos en la
investigación no pueden ser explicados ni entendidos con suficiente precisión si
están separados de sus aplicaciones específicas (Bourdieu, Chamboredon &
Passeron, 2004), pudiendo esto generar ideas distorsionadas sobre la actividad
científica (Meinardi, 2010). De modo recursivo, a partir del estudio de las
aplicaciones regulares de los procedimientos científicos en la disciplina de
pertenencia, se podrá aprehender las diferentes lógicas de las estrategias
metodológicas.
El propósito general de este capítulo es realizar una reconstrucción crítica, de
base exploratoria, respecto de los problemas particulares que hoy tiene la
enseñanza y el aprendizaje de la metodología en investigación en las carreras
de grado de la Facultad de Psicología (Universidad Nacional de la Plata).
Nuestra experiencia académica en el área de la enseñanza de la metodología
en el grado tiene su punto de partida en los cambios curriculares iniciados
durante el año 2008, a partir de la nueva conformación del cuerpo docente para
la asignatura respectiva.

14
Poner en marcha esta estrategia crítico-analítica implica indagar la propia
actividad docente como un proceso donde intervienen una serie compleja de
diversos factores, entre ellos: el análisis de los contenidos curriculares
existentes y los necesarios a ser creados; la aplicación de estrategias
pedagógicas sobre la enseñanza para la comprensión de los saberes en el
área; la consideración de ideas previas y los procesos cognitivos activados por
los alumnos en la apropiación de lo enseñado; la reflexión sobre los contextos
sociales, políticos e institucionales que enmarcan y condicionan la enseñanza y
el aprendizaje en el nivel superior, entre otros. En definitiva, la reconstrucción
crítica de la tarea docente implica el interés en investigar la racionalidad que
subyace en cada experiencia áulica, donde profesores y alumnos se
encuentran de modo particular (Edelstein, 2001). En nuestro caso, los
interrogantes se centraron en cuestiones tales como: ¿qué es lo que puede
enseñarse en el área de la metodología científica? ¿qué aspectos de los
contenidos trasmitidos se aprende? ¿hay prácticas científicas que deberían
enseñarse y aprenderse? Y, finalmente: ¿cómo se enseña y se aprende a
“hacer ciencia”?

Lo dicho hasta aboga por una concepción ampliada de Didáctica, la que nos
distancie de las versiones técnico-instrumentales que centran los problemas
curriculares sólo en el orden, la secuencia y la instrucción. Así, el docente no
se posiciona como un ejecutor de prescripciones elaboradas por otros, sino que
realiza una construcción metodológica propia (Remedí, 1985, en Edelstein,
1996). Nuestra perspectiva intenta dar cuenta del enfoque multirreferencial que
recupera la naturaleza de la relación educativa y su problematización –
cualquiera sea el área de aprendizaje-, atendiendo tanto a la organización de
los tiempos, espacios e interacciones en tiempo áulico como a las decisiones
respecto a qué enseñar. En este proceso, tenemos en cuenta la tensión
siempre existente entre lo que debe enseñarse y lo que merece ser enseñado
en el nivel superior (Edelstein, 2005).

15
Dimensiones de análisis para una reconstrucción crítica de la
experiencia docente

Se presenta, a continuación, el relevamiento de los problemas iniciales


frente a la implementación de los cambios realizados, su seguimiento y
posibles soluciones. Tales problemas han sido ordenados en dos dimensiones:
una macrocontextual, referida a lo académico-institucional, y otra
microcontextual, centrada en el entorno áulico.
La dimensión macrocontextual refiere a tres componentes constitutivos: los
factores históricos, las condiciones institucionales y las tradiciones académicas
de la Psicología como disciplina, en el país en general y en nuestra Facultad en
particular. La dimensión microcontextual sitúa el tema de la transmisión como
un acto de comunicación complejo en situación áulica considerando las
características propias de nuestra unidad académica. Los contextos se
interconectan e influyen mutuamente; según Lucarelli:

El análisis de los procesos que se desarrollan al interior de las aulas en las


instituciones universitarias permite observar que ese es un espacio privilegiado
donde se manifiestan las tendencias que la institución perfila en torno a sus
posibilidades de cambio. En efecto, es en el aula universitaria, microespacio de
articulación entre lo subjetivo y lo social, donde se revelan con mayor nitidez los
rasgos que caracterizan a la vida institucional en las luchas que se libran por la
persistencia de líneas caducas o por la incorporación de los nuevos
pensamientos. Dentro de las prácticas diversas que se desarrollan en la
universidad, aquellas que hacen a la formación son reflejo deslumbrante de ese
campo de disputas e intereses. (2006, p. 174).

Así, se intenta superar una transmisión unidireccional de los contenidos y se


posibilita la inclusión de la matriz cultural heterogénea del aula en relación con
las estrategias del docente. Esta convergencia permite generar nuevos
sentidos de los contenidos impartidos y de los recursos metodológicos
utilizados frente al alumno.
Situados ahora en nuestra experiencia docente en la asignatura, vamos a
considerar, de modo particular, en el nivel macrocontextual problemáticas que
están relacionadas con el currículo formal y el oculto, con las decisiones de
gestión institucional y con la necesaria formación de los recursos humanos

16
intervinientes; y en el nivel microcontextual, los modos de interacción docente-
alumnos, las lógicas que ligan u obstaculizan la relación entre el objeto de
conocimiento y el sujeto que conoce y las decisiones inmediatas en el tiempo-
espacio del aula.

El nivel macrocontextual en la enseñanza de la metodología en


Psicología

Respecto de la dimensión macrocontextual, diversos factores históricos


locales, condiciones institucionales y tradiciones académicas han de tenerse en
cuenta para repensar la situación disciplinar de la Psicología.
Dentro de los factores históricos, la inestabilidad política y económica vivida en
nuestro país en las últimas décadas del siglo XX influenció en el débil
desarrollo de tradiciones de investigación básica y aplicada en Psicología. Este
hecho ha derivado en la búsqueda de otras identidades profesionales con
rápida salida laboral, tal es el caso del perfil clínico del psicólogo -generalmente
asociado al psicoanálisis-, en detrimento de otras ramas clásicas de la
psicología como la laboral, la organizacional, la socio-comunitaria y la forense.
Si bien esta tendencia parece revertirse en aras de los desarrollos de las
distintas áreas de la Psicología mencionadas y el desarrollo del rol en las
distintas comunidades, la investigación científica parece seguir un lento avance
en los distintos ámbitos de aplicación.
Las cuestiones institucionales repercuten en las características
organizacionales del contexto universitario actual, donde el dato más
sobresaliente es el aumento de la demanda en educación. Actualmente, el
elevado número de ingresantes y cursantes, constituyen una población masiva
y heterogénea, frente a los magros recursos de las instituciones universitarias.
Psicología se caracteriza por su gran masividad en todas las carreras del país.
Esta población estudiantil es enfrentada, a la hora de su graduación, a una
conflictiva entre la formación recibida en los niveles educativos superiores y el
reducido y competitivo mercado laboral. La situación detallada genera

17
tensiones institucionales que redundan en la calidad de lo enseñado y el interés
efectivo de los estudiantes en otras áreas de formación; donde el docente
universitario se convierte, sin duda, en un mediador activo no siempre de fácil
posición (Lucarelli, 2004).
Finalmente, diferentes factores académicos terminan de armar este marco
ampliado que contiene los procesos de enseñanza y de aprendizaje. Por una
parte, y en lo que respecta a la investigación, si bien es cierto que los equipos
docentes que investigan en Psicología conforman un contexto académico de
reciente consolidación impulsado por políticas universitarias al respecto;
siempre se ha evidenciado un escaso desarrollo en esta área debido a
múltiples razones que van desde los déficits presupuestarios hasta el poco
interés y compromiso personal con esta tarea. Dada la articulación creciente
entre las tareas de docencia e investigación (Ros, Morandi & Mariani, 2013),
este escenario parece empezar a revertirse; sin embargo, la mayoría de las
veces el binomio docencia-investigación se vuelve una realidad impuesta de
modo arbitrario –por ejemplo, bajo el mandato académico-institucional de “hay
que producir para crear visibilidad”; imperativo, por cierto, de raigambre
mercantilista-. Por otra lado, suele señalarse el problema de la identidad
disciplinar generado a la hora de la comparación de los planes de estudio.
Según diversos estudios desarrollados dentro de la propia comunidad
científica, el perfil del egresado psicólogo ha tenido históricamente un sesgo de
corte profesionalista y aplicado (Courel & Talak, 2001; Klappenbach, 2000; Di
Doménico, 1998; Piacente, 1998; entre otros). Tradicionalmente, han existido
vacancias importantes en la formación de grado de los psicólogos argentinos.
Esta situación ha sido puesta en evidencia en el reciente proceso de
autoevaluación y acreditación de las carreras estatales y privadas de
Psicología, iniciado en el 2011 por la Comisión Nacional de Evaluación y
Acreditación Universitaria (Ministerio de Educación de la Nación). En los planes
de estudio suelen omitirse áreas enteras de conocimiento de la Psicología,
especialmente las que refieren a corrientes más actuales o aquellas que no
están ligadas de manera directa a la clínica. Aunque el proceso de evaluación
nacional mencionado ha favorecido la corrección e inclusión de áreas de

18
conocimiento y aplicación vacantes, esta situación curricular es preocupante si
pensamos en la habilitación real del título a la hora del ejercicio de la disciplina.
La situación específica mencionada concuerda en parte con lo que algunos
autores han sostenido de modo general a propósito de la enseñanza de la
metodología en ámbitos universitarios. Scribano, Gandia & Magallanes (2006)
han establecido que la transmisión de herramientas para llevar adelante la
actividad científica se ve desdibujada por la desconexión existente entre la
teoría y el rol social de la institución universitaria. Según estos autores, existe
una dialéctica estructural sin resolver entre las formas de organización y
modelización del conocimiento en el “adentro” universitario y lo que ocurre en el
“afuera” social. A esto se suma, por un lado, las formas educativas que sólo
reproducen procesos en cadena y automatizados en espacios de enseñanza
masificados; por otro, el reclamo hacia la educación superior respecto del
sesgo utilitario que necesariamente debe tener, articulando sus saberes con el
mercado. En esta tensión entre una formación teórica y un saber aplicado, la
metodología de la investigación puede llegar a convertirse en un eslabón
fundamental como instrumento que aproxima al conocimiento y su aplicación.
Se concluye que es necesario un proceso de refundación de las prácticas de
enseñanza y de aprendizaje en el área contextualizándolas en el marco de los
desafíos actuales.

El nivel microcontextual en la enseñanza de la metodología en


Psicología

En el marco de esta configuración macrocontextual pueden situarse las


dificultades encontradas en el microcontexto de la experiencia áulica.
En relación al área de la metodología y al aprendizaje que los futuros
graduados deberían tener para apropiarse de un saber-hacer en la
investigación, se ha sostenido que lo específico de esta transmisión radica en
que no es posible enseñar a investigar separadamente de la teoría. De este
modo no debería aspirarse a formar metodólogos, sino científicos integrales,

19
aprendiendo a investigar investigando (Wainerman y Sautu, 2011; Bourdieu et
al, 2004). Esto enfrenta al docente a la creación constante de estrategias
pedagógicas novedosas, articulando las contradicciones surgidas entre la
masividad real de las carreras y la apropiación de contenidos y prácticas de
investigación a partir de adecuadas estrategias de comunicación docente-
alumnos (Lucarelli, 2004).
Además de las problemáticas macro ya tratadas, las condiciones en que
recibimos a los alumnos pueden caracterizarse del modo en que sigue: en
primer lugar, prima en el estudio general de la carrera la reproducción de los
contenidos de un número poco extenso de textos, que se corresponde con la
falta de actualización bibliográfica encontrada a menudo en los programas de
las asignaturas, donde el recurso a bibliotecas y hemerotecas para investigar
temáticas es poco estimulado; como segundo aspecto, existe una insuficiente
formación de los estudiantes en técnicas de escritura propiamente académica,
así como falta de hábitos de lectura y de interpretación de textos académicos y
científicos; incide en esta situación la formación deficiente del nivel secundario
con que ingresan los alumnos a la universidad; en tercer lugar, sabemos que la
inclusión en la currícula de asignaturas destinadas específicamente a la
metodología de la investigación no asegura el aprendizaje de métodos y
técnicas de investigación, volviéndose necesarias, aunque muy escasas, las
actividades formativas de aplicación de la Psicología en ámbitos variados del
ejercicio profesional; cuarto punto, no es tan habitual la confrontación con la
realidad de las intervenciones profesionales en las que los psicólogos tienen
incumbencias como las investigaciones empíricas desarrolladas por estos, se
evidencia el desconocimiento por parte de los alumnos de las actividades de
investigación que se desarrollan en la institución académica en la que se
forman; por tanto, las carreras están aisladas de los organismos e instituciones
donde se ejerce la Psicología investigando cotidianamente; y, en quinto lugar,
aparece una desconexión entre las actividades de aprendizaje académicas en
las distintas ramas del ejercicio profesional de la Psicología y de la
investigación, mostrándose entonces una apropiación desintegrada y

20
desarticulada de los conocimientos y habilidades adquiridas en los distintos
ámbitos científico-profesionales.
Las condiciones expuestas dificultan la inserción del alumno en un sistema de
enseñanza y de aprendizaje universitario que haga posible, partiendo del nivel
áulico, una mejor coordinación de la circulación de los saberes producidos en
los diferentes campos de la investigación psicológica, así como de la
posibilidad de promover e intensificar la participación de los futuros psicólogos
en grupos interdisciplinarios y de asegurar la transferencia desde ellos a las
comunidades en las que pueden ser útiles.
A partir de las reformas curriculares realizadas desde el año 2008 en nuestra
asignatura1, los alumnos tienen que realizar un recorrido formativo que incluye
una ruptura teórico-paradigmática importante. Con esta afirmación nos
referimos a una discontinuidad entre los conocimientos trasmitidos a partir de
procesos cognitivos recursivos puestos en juego en la materia y el caudal de
contenidos con su modo de apropiación desde otros espacios curriculares.
Debido a ciertos sesgos en la formación, los alumnos suelen manejar
concepciones previas más cercanas a visiones fragmentarias del mundo, a
epistemologías de corte lineal y a perspectivas tradicionales de la investigación.
La propuesta de esta asignatura, al estar centrada en concepciones
epistemológicas complejas, relacionales y recursivas, permite una mirada de
los métodos científicos mucho más dinámica, holística e inclusiva de nuevas
posturas paradigmáticas. Por consiguiente, deben operar cambios cognitivos -
no siempre de fácil resolución- que den como resultado una matriz conceptual
innovadora respecto no sólo del contenido anterior adquirido, sino también de
las formas del conocer (Bourdieu et al, 2004; Morin, 1993). La dificultosa
articulación entre lo nuevo enseñado y lo efectivamente aprendido a partir del
proceso de apropiación significativa interroga la cotidianeidad de la
organización áulica y las estrategias docentes llevadas a cabo (Díaz Barriga,
2003).
Por otro lado, las necesarias adecuaciones curriculares a la especificidad de
nuestra disciplina han generado un conjunto de dificultades áulicas. En
consonancia con las situaciones académicas detalladas en el macrocontexto, y

21
si bien la producción de textos de metodología de la investigación en las
ciencias sociales es considerable, resulta trabajoso encontrar desarrollos
metodológicos y ejemplos específicos del ámbito de la investigación
psicológica. Este ha sido un elemento más que suele agregarse al desinterés
que encontramos en el alumnado respecto del área metodológica y, por ello, un
desafío para los docentes a cargo.
Por último, la masividad de los estudiantes de nuestra Facultad y el tiempo de
enseñanza acotado a un solo cuatrimestre comportan escollos importantes.
Creemos fundamental el pasaje del que aprende cuestiones metodológicas por
alguna instancia de inmersión tutorada en la aplicación de las técnicas de
investigación trasmitidas, en donde se pone en juego el saber-hacer que se
intenta enseñar. Esto es una meta de difícil cumplimiento dada la relación
numérica docente-alumno, con una interacción mínima en detrimento del
proceso educativo. Así, los alumnos tienen un acercamiento más teórico-
aplicado que personal respecto de las tareas que llevan a cabo los
investigadores psicólogos.

Nuestra indagación sobre los alumnos de Psicología y el área


de la investigación

Como venimos sosteniendo, nuestro interés prioritario está dirigido a que los
estudiantes puedan considerar la actividad de investigación en la disciplina
como un ámbito importante de aplicación y desempeño profesional. Hemos
realizado, al respecto, algunas indagaciones con nuestros alumnos cursantes,
las que nos han permitido arribar a conclusiones parciales sobre las
expectativas, intereses y/o motivaciones de los alumnos de grado hacia el área
de la investigación y metodología científica en Psicología. Esta tarea de
indagación ha sido de gran ayuda para realizar una constante revisión de las
prácticas docentes, contextualizándolas en el marco de los desafíos actuales.
Realizamos una exploración donde fueron consultadas opiniones de los
alumnos de cuarto año de la carrera de Psicología, en el inicio del primer

22
cuatrimestre del año 2012. Se utilizó una muestra de 334 alumnos, de ambos
sexos, de todas las comisiones. Se estipularon las siguientes preguntas
abiertas: ¿Sabe en qué consiste el dictado de esta materia?, ¿Tiene algún tipo
de conocimiento sobre la metodología de la investigación?, ¿Dónde, en qué
ámbitos obtuvo ese conocimiento?, ¿Conoce qué proyectos de investigación se
desarrollan en nuestra Facultad, cuáles?, ¿Qué temáticas le gustaría indagar
como temas de investigación?, ¿Qué expectativas tiene acerca de la materia?.
La indagación fue llevada a cabo por cada docente en las comisiones
respectivas, en el primer encuentro con los alumnos y antes de la presentación
general de la materia.
El análisis y distribución de las respuestas fue realizado en base a categorías
construidas a partir de las preguntas formuladas que incluimos en dos
dimensiones básicas. De este modo, las respuestas fueron distribuidas en:
Dimensión (A): Información, con dos categorías: (1) Desinformación en el área
de la metodología de la Investigación y (2) Desconocimientos de los proyectos
de investigación de la Facultad; y Dimensión (B): Expectativa, con dos
categorías: (3) Con expectativas sobre el área de la metodología de la
investigación y (4) Sin expectativas sobre el área metodología de la
investigación. Las categorías (1) y (2) constituyen categorías de análisis
inclusivas, es decir, un mismo sujeto puede ubicarse en ambas a la vez; en
tanto que las categorías (3) y (4) son mutuamente excluyentes.
Los resultados obtenidos han arrojado los siguientes porcentajes: en la
Dimensión (A) Información, tenemos 46,40 % en la Categoría (1) y 91,91 % en
la Categoría (2); mientras que en la Dimensión (B) Expectativas, la Categoría
(3) incluye el 72,93 % de los encuestados y la Categoría (4) sólo el 25,93 %.
Al poner en relación las dimensiones y categorías abordadas, advertimos que
casi la mitad de los encuestados manifiesta desconocer contenidos generales
de la metodología de investigación científica y contenidos específicos de
nuestra materia y que un muy alto porcentaje de los alumnos desconoce los
proyectos de investigación que se desarrollan en nuestra Facultad. Esto
confirma, en parte, lo ya sostenido por diferentes estudios antes mencionados,
referenciando los desequilibrios básicos entre las áreas incluidas en los planes

23
de estudio de Psicología. Señalando los tratamientos insuficientes de algunas
áreas formativas, entendemos que la metodología de la investigación ha sido
un ámbito históricamente debilitado. Si bien, este proceso ha comenzado a
revertirse en los últimos años, pareciera que sus efectos son lentos: los
alumnos siguen refiriendo un relativo desconocimiento o desinformación al
respecto. Sin embargo, la gran mayoría de ellos tiene buenas expectativas y
manifiesta interés hacia la asignatura, cuestión que merece consideración.
Creemos que esta primera información obtenida en situación áulica es muy
interesante si –como sostuvimos al inicio- consideramos el valor de la
motivación en los procesos cognitivos activados para apropiación de lo
trasmitido. La disposición de los alumnos y sus expectativas respecto de qué
es investigar se vuelve entonces un móvil fundamental en nuestra tarea áulica.
Las condiciones macrocontextuales influyen sobre lo microcontextual, pero es
desde este último desde donde pueden revertirse las situaciones de enseñanza
y de aprendizaje no deseadas. Esta estrategia metodológica docente –el
sondeo al inicio del cursado de la materia- ha permitido soslayar las dificultades
existentes y reflexionar como equipo docente sobre los modos de superarlas.
Esto permitirá, a su vez, una redefinición de imaginario sobre el perfil
profesional de los alumnos, el que incluya positivamente la idea del psicólogo
en la investigación como un ámbito de competencia posible y deseable.

Cambios metodológicos en la enseñanza del hacer ciencia en


Psicología

Como hemos sostenido en otra oportunidad (Sánchez Vazquez & Lahitte,


2013) la ciencia consiste, desde un punto de vista dinámico y recursivo, en
hacer ciencia. Esta afirmación, originada en el pensamiento de White (1969),
aboga en favor de considerar que lo científico no es un conjunto de
conocimientos y procedimientos reglados estáticos, sino que son los mismos
sujetos intervinientes los que validan conductualmente este contexto de
demarcación cognitiva y aplicación. En este sentido, el ámbito formativo es un

24
escenario prioritario donde los alumnos se inician en las prácticas científicas
propias de la disciplina, en un trabajo continuo que oriente el saber-hacer
específico.
Han podido realizarse cambios favorables gracias a la labor conjunta del
cuerpo docente desde el 2008 a la fecha. Destacamos hechos tales como la
generación de nuevos recursos humanos a través de la incorporación de ex-
alumnos y graduados a la cátedra, la inclusión efectiva de conceptos propios
de la metodología científica en trabajos de investigación desarrollados por los
alumnos en otras asignaturas de la carrera, y, finalmente, logros significativos
en favor de desmitificar el ejercicio profesional del psicólogo en ámbitos
científicos, superando estigmas institucionales y sociales respecto de que la
investigación es una tarea compleja y sofisticada que requiere aptitudes
personales extraordinarias o una extensa trayectoria académica.
Respecto de las dificultades para el hallazgo de bibliografía que desarrolle
cuestiones científicas específicas de la disciplina, si bien existe producción en
consideración relevante de la metodología de la investigación, nuestro grupo
docente ha considerado importante el trabajo propio y por ello iniciado una
serie de producciones textuales para los alumnos del grado2. De este modo,
lograr el interés por las cuestiones epistemológicas, éticas y metodológicas que
hacen a la investigación científica en Ciencias Humanas en general, y en
Psicología en particular. Asimismo, hemos comenzado en el año 2013 la
primera investigación en nuestra unidad académica que indaga aspectos
exclusivos del proceso de investigación científica en Psicología; en este caso,
el tema de la responsabilidad del científico en investigaciones con sujetos
humanos y las perspectivas de los estudiantes del grado al respecto.
Finalmente, la dificultosa articulación entre lo nuevo enseñado y lo
efectivamente aprendido en lo cotidiano de la organización áulica nos ha
conducido al desafío en la implementación de nuevas estrategias docentes. La
organización y desarrollo de talleres circunscriptos a diversos temas de interés
para los alumnos, dentro de los cuales ellos mismos puedan optar, ha resultado
una práctica altamente satisfactoria tanto para docentes como para los
estudiantes del grado. La intensificación conceptual y aplicada que permite esta

25
modalidad pedagógica ha llevado a revalorizar el área científica de la
Psicología, obteniendo de esta experiencia muy buenos resultados, los que hoy
son trasmitidos en la presente obra.

A modo de conclusión

La reconstrucción crítica de nuestra experiencia nos ha permitido precisar


ciertas coordenadas respecto a la ubicación actual de la metodología de la
investigación en nuestra Facultad de Psicología. A partir de las dimensiones de
análisis consideradas –lo macrocontextual y lo microcontextual- hemos podido
dilucidar las principales problemáticas y dificultades que se presentan en los
distintos momentos de su transmisión, generar una evaluación de nuestra
práctica como docentes universitarios y articular los cambios necesarios.
Según Scribano, Gandia & Magallanes (2006), para enseñar y aprehender
metodología de la investigación es fundamental la consideración de los
supuestos y disposiciones de los participantes respecto de qué es investigar.
En este caso, nos ha interesado el modo en que nuestros estudiantes piensan
el ejercicio profesional del psicólogo en ámbitos de la investigación científica,
relevando sus concepciones previas para la cursada de metodología. A partir
de allí, poder generar nuevas estrategias –producción textual, propia
investigación e innovaciones pedagógicas- para continuar optimizando las
estrategias didácticas actuales y el interés significativo del alumno de grado en
el ámbito científico.
Los alumnos de grado –futuros profesionales y científicos- conforman el
objetivo primario de nuestra práctica docente. Al respecto, concluir
recordándoles un conocido exordio del pensador norteamericano Wright Mills:

Sed buenos artesanos. Huid de todo procedimiento rígido. (…) Evitad el fetichismo
del método y de las técnicas. Impulsad la rehabilitación de una artesano intelectual
sin pretensiones, y esforzaos en llegar a serlo vosotros mismos. Que cada
individuo sea su propio metodólogo; que la teoría y el método vuelvan a ser parte

26
del ejercicio de un oficio. (…) Sed inteligencias que afrontan por sí mismas los
problemas del hombre y de la sociedad. (2003, pp. 233-234).

Nuestra empresa docente se transforma así en ser vehículos que posibiliten en


los estudiantes de Psicología la activación de esta capacidad de artesano,
necesaria para el desarrollo creativo de las investigaciones en el ámbito de las
Ciencias Humanas.

Notas

1
En efecto, los contenidos de la asignatura han sido cambiados
sustantivamente desde el año 2008. El espacio curricular que referimos
corresponde actualmente a la transmisión de aspectos generales de la
metodología científica en Ciencias Sociales y Humanas y de la metodología de
corte cualitativa en Psicología. Por cuestiones de forma, el nombre de la misma
-Seminario de Psicología Experimental- ha sido conservado hasta el nuevo
cambio de plan, a realizarse próximamente, siendo su denominación estipulada
Diseños y Metodología de la Investigación en Psicología.
2
Las producciones referidas van desde fichas de cátedra, artículos de revistas
y presentaciones en diversos eventos científicos de carácter nacional e
internacional hasta la publicación de nuestro primer libro digital gracias al
apoyo de la Universidad Nacional de la Plata y en el marco de los “Proyectos
Libro de Cátedra”, destinados a la producción docente de literatura académica
para el grado. La presente obra corresponde a nuestra segunda producción en
el área. Cf. también: Sánchez Vazquez, M.J. (coord) (2013) Investigar en
Ciencias Humanas.

27
https://periodicos.ufsc.br/index.php/perspectiva/article/viewFile/.../10268
Obtenido de
docentes en universidades argentinas. Perspectiva 24 (1), p. 273-296.
Lucarelli, E. (2006). Análisis de prácticas y formación: tres experiencias con
contemporáneas. Buenos Aires: Paidós
contemporáneo. En A. Camilloni et al., Corrientes didácticas
Edelstein, G. (1996). Un capítulo pendiente: El método en el debate didáctico

Lucarelli, E. (2004). Las innovaciones en la enseñanza, ¿caminos posibles


hacia la transformación de la enseñanza en la Universidad? En Actas de
III Jornadas de Innovación Pedagógica en el Aula Universitaria.

Referencias bibliográficas

Bordieu, P; Chamboredon, J. & Passeron, J. (2004). El Oficio de Sociólogo.


México: Siglo XXI
Courel, R. & Talak, A. M. (2001) La formación académica y profesional del
Psicólogo en Argentina. En J. P. Toro & J. F. Villegas (Ed.), Problemas
Centrales para la Formación Académica y el Entrenamiento Profesional del
Psicólogo en las Américas, Vol I, pp. 28-83. Buenos Aires: Sociedad
Interamericana de Psicología.
Díaz Barriga, F. (2003). Cognición situada y estrategias para el aprendizaje
significativo. Revista Electrónica de Investigación Educativa, 5 (2).
Obtenido de http://redie.ens.uabc.mx/vol5no2/contenido-arceo.html
Di Doménico, C. (1998). Informe documental Psicología y Mercosur (FePRA).
En C. Di Doménico y A. Vilanova (Eds), Formación de Psicólogos en el
Mercosur (pp. 152-171).
Edelstein, G. (2005). Enseñanza, políticas de escolarización y construcción
didáctica. En Frigerio, G. & Diker, G. Educar: ese acto político. Buenos
Aires: del Estante
Edelstein, G. (2001). Problematizar las prácticas de la enseñanza. Revista
Alternativas. Educación superior. Antecedentes y propuestas actuales.
LAE, VII (26). Obtenido de
lae.unsl.edu.ar/Ediciones/Indice_Revistas_SEP.htm

28
Universidad Nacional del Sur. Obtenido de
www.unrc.edu.ar/unrc/academica/pdf/bibliografia-lucarelli

29
CAPÍTULO 2 - PARTE A

PROBLEMAS ONTOLÓGICOS Y EPISTEMOLÓGICOS EN LA


ENSEÑANZA DE LA METODOLOGÍA:
EL DEBATE REALISMO-ANTIRREALISMO EN LA FILOSOFÍA DE
LAS CIENCIAS

Maximiliano Azcona

Observa Coleridge que todos los hombres nacen aristotélicos o platónicos. Los
últimos sienten que las clases, los órdenes y los géneros son realidades; los
primeros, que son generalizaciones; para éstos, el lenguaje no es otra cosa que
un aproximativo juego de símbolos; para aquéllos es el mapa del universo. El
platónico sabe que el universo es de algún modo un cosmos, un orden; ese orden,
para el aristotélico, puede ser un error o una ficción de nuestro conocimiento
parcial. A través de las latitudes y de las épocas, los dos antagonistas inmortales
cambian de dialecto y de nombre: uno es Parménides, Platón, Spinoza, Kant,
Francis Bradley; el otro, Heráclito, Aristóteles, Locke, Hume, William James.
(Borges, 1952, p. 91).

Como parte del taller sobre Perspectivas en Investigación y Nuevos


Paradigmas hemos abordado una serie de problemas inherentes a la filosofía
de la ciencia y sus implicancias en la metodología científica, bajo el rótulo de
debate realismo-antirrealismo. Este escrito intenta comunicar de manera
sistemática una serie de elucidaciones relativas a esa discusión. Para ello
hemos establecido secciones en las que se analizan los antecedentes
históricos del debate, se caracteriza la variedad de posturas de los
denominados realismos y antirrealismos científicos -de aquí en más, RC y
ARC- a partir de los compromisos ontológicos, epistémicos y semánticos
compartidos; y, finalmente, se examinan los principales argumentos a favor y
en contra de cada una de esas posiciones epistemológicas.

30
Antecedentes del debate contemporáneo

Los problemas enunciados alrededor de los interrogantes: ¿qué y cómo es la


realidad? y ¿qué podemos conocer de lo que existe y cómo?, han estado
relacionados tanto a la historia de la filosofía como también a la historia de las
ciencias. Según Borges, Platón y Aristóteles estar cuestiones designan por
antonomasia un binomio de tradiciones filosóficas irreductibles. El escritor
argentino pareciera señalar que ambas tradiciones hablan lenguas diferentes y
que, a pesar de los cambios de contexto, la evolución idiomática atañe sólo a la
modificación de los “dialectos”; es decir, que habría transformación y
generación de variantes sobre una base dicotómica constante. Por nuestra
parte, sintetizaremos las perspectivas que se han historiografiado sobre el
problema de la realidad y su conocimiento, para enfocarnos luego en el estado
actual del debate en la Filosofía de la Ciencia.
Bautizada como “la querella de los universales”, la disputa cobra una densidad
inusitada en la Edad Media, particularmente en el siglo XVII: allí se forman
profundas discusiones tendientes a esclarecer el estatuto ontológico de los
universales; es decir, a tratar de averiguar qué tipo de entidades son y en
dónde reside su existencia.
Para entender qué es lo que estaba debatiéndose, retomemos la distinción
entre términos y palabras. En tanto los primeros refieren a un contenido, las
segundas son soportes fónicos o gráficos de aquellos. Teniendo en cuenta que
los términos constituyen unidades de sentido y que cada término puede estar
compuesto por más de una palabra, han sido distinguidos dos tipos: los
particulares y los universales. Mientras que los términos particulares
singularizan lo que designan (por ejemplo, “el mate de palo santo que está en
mi mesa”, “tu forma de mirar” o “esa cifra que da el INDEC”), los términos
universales refieren a una clase o especie (“el dolor de muela”, “la mujer” o “el
color violeta”). Pues bien, la querella de los universales se centra en el
problema del estatuto ontológico de las clases o especies designadas con
términos universales: ¿son entidades esenciales trascendentes a los
particulares?, ¿se trata de meras expresiones que nos sirven para referir a

31
entidades similares?, ¿comparten un mismo concepto los que vociferan un
universal? Estas y otras preguntas fueron dando origen a serie de problemas
cuyo tratamiento filosófico consolidó diferentes perspectivas que, sin pretender
analizar, señalaremos brevemente:
En uno de los extremos podemos ubicar al realismo, que sostiene que los
términos universales aluden a sustancias que existen independientemente de
los entes individuales, siendo tales entes1 meras versiones de un universal. De
este modo, al decir “el mate” indicamos una realidad esencial que preexiste a
los “mates particulares” y les da razón de ser (“universale ante rem”); habiendo
entre los diversos mates particulares una relación variable de accidentes pero
sobre la misma substancia (la esencia está plenamente en cada uno de los
particulares). La solución “realista extrema” al problema de los universales,
desde Agustín de Hipona (S. V) hasta Guillermo de Champeaux y Bernard de
Chartres (S. XII), debe su origen a la teorización que ya Platón había hecho en
la Antigüedad: el mundo sensible no es más que copia imperfecta de entidades
abstractas que existen objetivamente (Platón, trad. 1982)2.
Lo que hoy convendría llamar “realismo platónico” o “platonismo”, tuvo su
contrapartida más contundente a partir de la Baja Edad Media (siglos XI-XV),
con la consolidación de otra corriente de pensamiento denominada
nominalismo; consistente en adoptar la suposición (diametralmente opuesta) de
que únicamente existe lo referido por los términos particulares: nada hay más
allá de los individuos (“nihil est praeter individuum”). Para el nominalista, los
términos universales son simples abstracciones que designan conjuntos más o
menos vastos de realidades individuales, es decir que son alocuciones útiles
que surgen a partir de la existencia de los particulares (“universale post rem”3);
fuera de lo cual son soplos de la voz (“flatus voicis”). Dicho de otro modo, son
nominaciones de carácter lógico y no ontológico. Una variante extrema del
nominalismo (llamada “terminismo”) sostiene que no existe nada común a
todos los individuos nominados con un término universal más que dicho
término. Otra variante nominalista, esta vez moderada, parte de que sólo las
palabras son universales y explica la utilización de los términos universales por
la relación de semejanza de las cosas que designan4.

32
Entre los extremos del realismo y el nominalismo, ha habido posiciones
intermedias. Una versión moderada del realismo medieval sostuvo que los
universales existen pero no de manera independiente de los objetos sino en
tanto que formas de tales entes individuales; es decir que los universales
existen teniendo su fundamento en las cosas mismas (“universalia in re”).
Algunos representantes significativos han sido Tomás de Aquino y Duns
Escoto.
Otra versión intermedia a los extremos considerados es el conceptualismo: sólo
atribuye, al igual que el nominalismo, existencia real a los individuos. Y
sostiene que si bien los universales carecen de existencia en el mundo externo
(no son “ante rem” ni tampoco “in re”), la poseen como conceptos en la mente,
implicando mucho más que “flatus voicis”. Tales conceptos no existen
inmutables sino que están sujetos al cambio, puesto que provienen de la
generalización abstractiva que hacen los sujetos cognoscentes en su
experiencia con los objetos particulares (a partir de lo cual se realizan las
distinciones en tipos o clases). Como puede notarse, la distinción principal
entre el conceptualismo y el nominalismo es que el primero, a diferencia del
segundo, no anula los conceptos como entidades intermediarias entre los
nombres y lo referido por los nombres. Algunos de los exponentes más
significativos de esta postura fueron Pedro Abelardo (S. XII) y, en una época
posterior, John Locke (S. XVII).
En la Filosofía Moderna, el término realismo pasó a designar una posición
opuesta al idealismo. En ese debate, a diferencia del anteriormente
mencionado respecto al realismo-nominalismo de la Edad Media, la posición
realista afirma la existencia de los objetos materiales con independencia de la
conciencia del sujeto cognoscente. A su vez, la posición idealista afirma lo
contrario: la existencia del mundo es dependiente de la mente. Mientras que la
perspectiva idealista se advierte parcialmente en René Descartes, sus
desarrollos modernos pasan por George Berkeley, Immanuel Kant y Friedrich
Hegel (S. XVIII)5.

33
Las coordenadas actuales del problema

El problema de lo existente y de las posibilidades de su conocimiento ha


adquirido relevancia en el ámbito de la Filosofía de la Ciencia a partir de las
últimas décadas del siglo XX (en especial desde 1980). Allí se ha originado una
contienda que, sin identificarse con las anteriormente mencionadas, bordea un
núcleo semejante de cuestiones ontológicas, lógicas y epistémicas. Las
posiciones sobre las que se ha abierto el juego filosófico son el realismo y el
antirrealismo; y el principal objeto de debate ya no radica plenamente ni en el
estatuto de los universales ni en el de los objetos de la percepción, sino que se
concentra en el modo de ser de las entidades inobservables postuladas por las
teorías científicas. Por ello, ha sido la Filosofía de la Ciencia (más conocida
como Epistemología en nuestros ámbitos) el terreno central donde estas
problematizaciones se han desarrollado; con mayor frecuencia por
teorizaciones procedentes de la filosofía analítica, aunque también participan
del debate propuestas inherentes a otros dominios (ya se trate de
elaboraciones metadisciplinares, como resultan ser la sociología e historia de la
ciencia; o se trate de perspectivas naturalizadas del estudio del conocimiento,
como resultan ser las provenientes de la cibernética, la biología del
conocimiento o las ciencias cognitivas en general).
La pregunta que quizás pueda orientarnos, en tanto que sigue desvelando a
gran parte de los filósofos y científicos que investigan estos temas, es ¿de qué
modo se conectan nuestras teorías científicas con la realidad? Aunque no
resulte evidente, este se enlaza con muchas otras cuestiones de similar
importancia, entre las que mencionaremos dos sumamente complejas: ¿qué
entendemos por realidad, conocimiento y verdad?; y ¿cómo se vincula nuestra
concepción de la realidad, el conocimiento y la verdad con nuestra forma de
hacer ciencia? En otro escrito hemos intentado vincular las respuestas que se
han dado a estas cuestiones con las estrategias metodológicas de las
principales tradiciones de investigación en ciencias humanas (Azcona, 2012);
mientras que aquí profundizaremos en la fundamentación misma de tales
respuestas.

34
Para caracterizar a las respuestas realistas y a sus adversarias, distinguiremos
tres niveles de análisis: ontológico, epistemológico y semántico. En cada uno
de ellos es posible localizar posturas desencontradas, cuya articulación
diagonal permite pensar las diversas combinatorias posibles.

El nivel ontológico: ¿de qué modo y qué existe?

A nivel ontológico, la postura realista se define por la creencia en la


existencia de ciertas entidades externas al sujeto que las piensa. Se trata de
una tesis sobre el modo de ser de las cosas que hay en el mundo: ellas son
con independencia del sujeto cognoscente. Entonces, para el realista
ontológico, lo que diferencia a los términos “unicornio” y “auto” es que el
segundo refiere a una entidad que existe independientemente de la mente y el
primero no. Ahora bien, como el lector podrá imaginar, las entidades a las que
puede concederse esa forma de ser son un conjunto bastante heterogéneo. En
ese sentido, Kukla (1998) ha diferenciado algunas variedades del realismo,
teniendo en cuenta el tipo de entidades que se pueden considerar existentes:
a. Los datos-sensibles, como “cosa de apariencia verdosa”, existen.
b. Los objetos perceptibles del sentido común (palos y piedras) existen.
c. Las entidades inobservables postuladas por las teorías científicas, como
los electrones y procesos mentales inconcientes, existen.
d. Entidades abstractas atemporales como los números, conjuntos y
proposiciones, existen.
Según Kukla, generalmente se sostiene cierta jerarquía entre esos
enunciados: quienes aceptan las últimas afirmaciones no ven inconvenientes
en aceptar las primeras. A pesar de esa jerarquía intuitiva, cada uno de los
niveles conserva su independencia lógica. Los extremos son ejemplos claros
de ello: por un lado, la posición encarnada por Platón, sostiene que solamente
los objetos abstractos son reales (podría ser formalizado así: -a, - b, - c y d). En
el otro extremo, e inversamente, puede ser ubicado el Fenomenalismo (al estilo
de la mayoría de los empiristas lógicos), caracterizado por la aceptación

35
exclusiva de la existencia de los datos sensibles (a, -b, -c, -d) (ibíd.). Ahora
bien, en la actualidad de las discusiones epistemológicas, la conjetura b
(esencial en la “querella de los universales”, por ejemplo) suele aceptarse
convencionalmente y el punto neurálgico de la disputa es el tercero de esos
enunciados: su aceptación constituye lo que ha sido llamado realismo científico
(b y c) y su rechazo conforma el antirrealismo científico (b y -c). Las
definiciones de RC y ARC serán el foco de nuestras reflexiones ulteriores.
Decíamos que el quid de la discusión radica en el modo de existencia de las
entidades inobservables, de las que no tenemos experiencia inmediata,
postuladas por las teorías científicas; aceptándose a priori la existencia de las
entidades observables de sentido común6; en este sentido, es muy difícil hallar
hoy partidarios del idealismo, tal y como fue concebido en la Edad Moderna.
Otra manera de formular el problema es diciendo que la disputa se ubica en
torno a la referencialidad de los términos teóricos de las teorías científicas.

El nivel epistemológico: ¿qué se puede conocer de las entidades que


existen?

Este nivel designa la dimensión cognoscitiva de los objetos epistémicos. Por


ello, los criterios generales que dividen aquí las aguas son: 1) la posibilidad de
conocer o no ciertas entidades y 2) el estatuto de ese conocimiento.
Quienes parten del realismo ontológico (en cualquiera de las posibilidades
antes vistas) y además aceptan la posibilidad de conocer las entidades
postuladas tal y como son en sí mismas, suelen ser designados como “realistas
epistemológicos”. En contraposición a ello, las perspectivas “antirrealistas
epistémicas” presuponen que la ineludible participación del sujeto que conoce
torna imposible la pretensión de lograr conocimiento objetivo.
Posiblemente, la distinción entre realismo ontológico y epistemológico se la
debamos a Kant ([1781] 1978), quien sostuvo que no conocemos las cosas
como realmente son en sí mismas (“noúmeno”) sino como se nos aparecen
(“fenómenos”), debido a la acción organizativa de las categorías a priori en el

36
sujeto cognoscente. El “noúmeno” o “cosa en sí” es, para Kant, un postulado
que expresa los límites del conocimiento objetivo y lo subyuga a las
condiciones (para él trascendentales) de la subjetividad. Intentaba, de este
modo, por mediar entre el realismo y el idealismo.

Nivel semántico: ¿qué tipo referencia establecen las teorías con las
entidades que existen?

Aunque no pareciera haber pleno acuerdo sobre el momento en que se


produce, el “giro lingüístico” en la filosofía de la ciencia supuso un viraje hacia
la filosofía del lenguaje (Rorty, [1967] 1998; Dummet. 1973). Como el debate
RC-ARC ha nacido en el seno de ese movimiento, parece tener especial
relevancia un nivel que suele designarse como semántico. En él también puede
situarse una posición realista cuando: primero, se establece una relación entre
cierto tipo de expresiones proposicionales y el estado de cosas al que dicho
enunciado se refiere; y, segundo, se exige que dicha relación sea de
isomorfismo o equivalencia en el caso de que las expresiones utilizadas hayan
de ser denotadas como verdaderas. Se trata, como puede advertirse, de la
adopción de la teoría correspondentista de la verdad; que podría ser definida
(al menos en su versión clásica7) por la asunción de dos conjeturas:
1- habiendo segmentos específicos del lenguaje que se relacionan con
elementos delimitados del mundo,
2- “verdad” es la adecuación del lenguaje al mundo (no a la inversa); es decir
que se trata de una relación fundamentalmente asimétrica.
Como desde esta teoría la verdad es una propiedad esencial de ciertas
proposiciones, el realista semántico afirma que al menos algunas hipótesis de
determinadas teorías científicas refieren al mundo tal y como es en sí mismo.
Las posiciones antirrealistas presuponen, a nivel semántico, otras teorías de la
verdad (p.e. un coherentismo al estilo de Otto Neurath, un pragmatismo al
estilo de Michael Dummett o Hilary Putnam); puesto que parten de adoptar
otras suposiciones relativas a la referencia.

37
Newton-Smith (1987) ha dicho que toda variedad de RC supone la adopción de
una teoría de la verdad de tipo correspondentista. Lo mismo sostuvo Putnam
alguna vez: “sea lo que sea lo que un realista diga, ellos típicamente sostienen
que creen una teoría correspondentista de la verdad” (Putnam, 1984, p. 140;
traducción nuestra8 [TN de aquí en más]). En cambio, otros como Boyd y
Leplin, parecieran ser más modestos en su caracterización de la verdad: “las
teorías científicas, interpretadas realísticamente, son confirmables y, de hecho,
frecuentemente han sido confirmadas como aproximadamente verdaderas por
la evidencia científica ordinaria interpretada de acuerdo con los estándares
metodológicos ordinarios” (Boyd, 1984, p. 41; TN9); “las mejores teorías
científicas actuales son al menos aproximadamente verdaderas” (Leplin, 1984,
p. 1; TN10). Pero también hay algunos que creen, como Michael Devitt, que el
RC es esencialmente una doctrina onto-epistemológica e independiente de
cualquier teoría de la referencia (Devitt, 1984); razón por la cual ni la
aceptación de una teoría correspondentista de la verdad nos hace realistas ni
la adopción de una perspectiva realista nos conduce al correspondentismo.
Devitt ha dicho que esa intromisión de la metafísica en la semántica es una
especie de aberración; y ha intentado argumentar su idea mostrando cómo el
realismo ontológico puede basarse en una teoría deflacionaria de la verdad.
Concluye que si eso es posible entonces la teoría correspondentista no es
constitutiva del realismo ontológico (Devitt, 1991). No podemos aquí más que
mencionar algunas cuestiones generales de esta compleja cuestión;
retomaremos el problema de la verdad como meta de la ciencia en la sección
de los argumentos en contra del RC.

El realismo científico y sus variedades.

En base a los tres niveles que hemos deslindado (ontológico, epistemológico y


semántico), podemos ahora definir al “realismo científico acérrimo” como una
posición filosófica que intenta responder a cómo una teoría se conecta con la
realidad, a partir de la adopción unánime de las siguientes suposiciones:

38
1) Las entidades postuladas por las teorías científicas existen y sus
características son ontológicamente independientes de cualquier forma de
conocimiento posible.
2) Esas entidades son perfectamente cognoscibles y es por ello que el
conocimiento conseguido es enteramente objetivo, sin que intervenga en él
nada referido al sujeto que conoce.
3) Las teorías que elaboramos sobre dichos objetos son verdaderas sí y
sólo si se corresponden con ellos (siendo la verdad una relación asimétrica de
adecuación de la idea con la cosa).
Se trata, entonces, de la asunción plena de realismo en los niveles ontológico,
epistemológico y semántico. Sin embargo, el realismo científico acérrimo es
una posición que, si bien puede resultar hegemónica en los ámbitos del sentido
común (o en algunos ámbitos científicos), actualmente goza de pocos
partidarios en el contexto de las reflexiones sobre la ciencia. Y, como hemos
visto, los disensos y contorsiones relativos a esos tres planos que hemos
separado, permiten circunscribir gran parte de las posiciones efectivas en
juego. Se comprende cómo el resultado de las posibles combinatorias nos
arroja versionas más o menos fuertes del realismo. El “realismo acérrimo” o
“realismo ingenuo” (en donde la segunda hipótesis tiene un fuerte peso
controversial11) a menudo es amenguado: se reduce el alcance de las tres
afirmaciones pero conservando su esencia; así, se sostiene que existen
algunos objetos independientes del sujeto que conoce, susceptibles de
conocerse en sí mismos a partir de teorías que resultan cada vez más
próximas a la verdad (progresiva fidelidad representativa). A esto se lo suele
designar como “realismo fuerte” y aquí lo entendemos sinónimamente a
realismo científico (RC).
Más arriba dijimos que una manera de plantear el debate RC-ARC es
considerando el problema de la referencia de los términos teóricos de una
teoría. Problema que puede ser planteado en una pregunta concreta: ¿refieren
a entidades existentes independientemente de nosotros, términos como
“electrón”, “inconciente”, “gen” o “placas tectónicas”? De este modo, es la
referencia lo que está en juego (antes que la verdad, o la exactitud de la

39
representación); es decir, importa menos saber si lo que se dice acerca de una
entidad postulada es “más o menos verdadero” que saber si se ha descubierto
esa entidad (si se ha “alcanzado la referencia”, diríamos en términos
fregeanos). Así pueden entenderse las siguientes expresiones: “los términos
centrales de las mejores teorías actuales refieren genuinamente” (Leplin, 1984,
p. 1; TN12); “los términos teóricos en las teorías científicas (esto es: los
términos no-observacionales) deberían ser pensados como expresiones
supuestamente referenciales, esto es, las teorías científicas deberían ser
interpretadas ‘realísticamente’” (Boyd, 1984, p. 41; TN13).
Algunos sostienen que el RC se define diacrónicamente, pues habría
continuidad o conservación de la propiedad referencial a pesar del cambio
teórico. Así, para Joseph Sneed “la referencia de algunos términos utilizados
en la ciencia empírica permanecen fijos mientras que los enunciados de las
teorías empíricas formulados con esos términos cambian” (Sneed, 1983, p.
349; TN14). Por su parte, Ulises Moulines afirma: “la referencia de la mayoría de
los términos centrales de la mayoría de las teorías científicas permanece fija a
pesar de que esas teorías se alteren sustancialmente o incluso sean sustituidas
por otras” (Moulines, 1991, p.135).
Notamos que, para el RC en general, los entes teóricos son reales en el mismo
sentido en que lo son los entes observables. Esta tesis, que podríamos
denominar de la “equivalencia ontológica”15, encierra justamente lo rechazado
por los partidarios del ARC. Estos últimos pueden aceptar que existan “trazos
específicos en una cámara de niebla”, “equivocaciones al hablar”, “caracteres
similares en la descendencia de la progenie” o “movimientos en la superficie
terrestre” (es decir, entidades observables), pero rechazan toda reificación de
las entidades teóricas que se postulan para explicarlos (electrón, inconciente,
gen, placas tectónicas); es decir, niegan la equivalencia del estatuto ontológico.
Como el ARC supone que es falaz concebir un mundo compuesto por
entidades descubribles científicamente, rechaza poner el acento del debate en
el problema de la referencia. El siguiente pasaje de Quine ([1953] 1962) es un
ejemplo de ello:

40
Como empirista, sigo concibiendo el esquema conceptual de la ciencia como un
instrumento destinado en última instancia a predecir experiencia futura a la luz de la
experiencia pasada. Introducimos con razón conceptualmente los objetos físicos en
esta situación porque son intermediarios convenientes, no por definición en términos
de experiencia, sino irreductiblemente puestos con un estatuto epistemológico
comparable al de los dioses de Homero. Yo por mi parte, como físico lego que soy,
creo en los objetos físicos y no creo en los dioses de Homero, y considero un error
científico orientar su creencia de otro modo. Pero en cuanto a fundamento
epistemológico, los objetos físicos y los dioses difieren sólo en grado, no en esencia.
Ambas suertes de entidades integran nuestras concepciones sólo como elementos
de cultura. El mito de los objetos físicos es epistemológicamente superior a muchos
otros mitos porque ha probado ser más eficaz que ellos como procedimiento para
elaborar una estructura manejable en el flujo de la experiencia. (p. 79).

Para el ARC, los términos son herramientas conceptuales y preguntarse por su


referencialidad es un error que malinterpreta su función en el marco de la
actividad científica.
Como el lector podrá notar a esta altura, definir al RC no es algo sencillo, ni
para sus partidarios ni para sus críticos. La cantidad y complejidad de aspectos
intervinientes vuelven imposible una definición compacta de RC, en términos
de condiciones suficientes y necesarias. Hacking ([1983] 1996) ha expresado
con acierto que las definiciones de ‘realismo científico’ solamente señalan una
orientación, tratándose más de una actitud antes que de un pensamiento
acabado; es decir de un movimiento antes que de una “doctrina”:

(…) de un trabajo creativo que comparte una familia de motivaciones, y que en


parte se define a sí mismo por oposición a otras maneras de pensamiento. El
realismo y anti-realismo son así: ellos también son movimientos. Podemos entrar
en la discusión armados con un par de definiciones de un párrafo de extensión,
pero una vez adentro encontraremos una serie de opiniones rivales y divergentes
que abarcan la filosofía de la ciencia moderna en su agitado estado actual. (p.
44).

Aquí hemos intentado precisar, en los tres niveles antes mencionados, una
serie de supuestos que nos parecen útiles para delimitar el terreno en el que
suelen refugiarse las propuestas realistas; así como las zonas del
antirrealismo. En lo que sigue intentaremos caracterizar las principales razones
que se han dado a favor y en contra de tales posturas. Antes quisiéramos
detenernos en una cuestión que otros desdeñarían por considerar exógena a
una pretendida historicidad interna, pero que a nosotros (reacios a tal
distinción) nos parece necesario señalar para comprender las posturas en

41
cuestión: este debate filosófico-científico ha rebasado en mucho los límites
intelectuales, adquiriendo coloraciones emotivas que no podrían obviarse en un
análisis de las argumentaciones en cuestión. En general, diríamos que está en
juego la valoración de la ciencia en tanto que producto cultural: si bien tanto los
partidarios del RC como del ARC admiten que la ciencia tiene valor, los RC
suponen que dicho valor depende de que sus tesis sean verdaderas: sólo es
valiosa si las entidades teóricas e inobservables postuladas por las teorías
científicas existen en el mismo sentido en que existen las entidades teóricas
observables. Para el realista científico, de no ser así, la ciencia carecería de
valor distintivo; por lo que de allí nace su excitada defensa del RC. Para el
partidario del ARC, el valor de la ciencia no reside en la verdad de esa tesis
(que supone falsa) sino en diversos aspectos y procesos sociales, irreductibles
a los parámetros modernos de racionalidad. Así, para algunos defender al
realismo es intentar preservar las únicas cualidades que, de abandonarse,
constituirían una pérdida moral irrecuperable para las comunidades (Harré,
1986); para otros, en la medida en que la objetividad es un mero argumento
para obligar al prójimo a que acepte nuestros deseos (Maturana, [1997] 2013),
el realismo debe ser necesariamente abandonado (y sustituido por una mirada
solidaria, al decir de Rorty ([1991] 1996). Pero detengámonos en los
razonamientos esgrimidos para justificar las inclinaciones a cada uno de ambos
lados.

Razones a favor del RC y algunas críticas

Popper ha dicho que “el sentido común es un partidario acérrimo del


realismo” (Popper, [1972] 1974: 46). Quizás por eso, a todo aquel que pretenda
un acercamiento al tema “en ese sentido”, le parecerá un despropósito el afán
de justificar lo evidente. Algunos afirman, casi sin más apoyo que el de sentido
común, que también los científicos adoptan una actitud naturalmente realista
cuando investigan, siendo el RC su “gnoseología inherente” (Bunge, 1985). Sin
embargo, desde una mirada filosófica, lejos se está de creer que el RC sea una

42
suposición evidente (en virtud del sentido común) o conveniente (en virtud de
su frecuente adopción). En lo que sigue, reseñaremos algunos de los más
significativos argumentos epistemológicos que se han dado y discutido a su
favor.

El “argumento del no-milagro”

El pulmón por el que respira el RC es un razonamiento que ha sido


denominado “argumento del no-milagro”. Fue conceptualizado por algunos
como Putnam y Boyd; veámoslo primero en las palabras de estos filósofos:

Cuando defienden su posición, los realistas típicamente suelen argumentar en


contra de alguna versión del idealismo (en nuestro tiempo, esto podría ser el
positivismo o operacionalismo) [...] Y el típico argumento realista contra el
idealismo es que éste hace del éxito de la ciencia un milagro. Berkeley necesitaba
a Dios justamente para dar cuenta del éxito de las creencias sobre las mesas y
sillas (y árboles en el patio); pero la apelación a Dios ha pasado de moda en la
filosofía, y, en todo caso, el uso que hace Berkeley de Dios es muy extraño desde
el punto de vista de la mayoría de los teístas. Y el positivista moderno tiene que
dejar sin explicación (acusa el realista) que los “cálculos del electrón” y los
“cálculos del espacio-tiempo” y los “cálculos del ADN” predigan correctamente
fenómenos notables si, en realidad, no hay ningún electrón, ningún espacio-
tiempo curvo y ninguna molécula de ADN. Si hay tales cosas, entonces una
explicación natural del éxito de estas teorías es que éstas son descripciones
parcialmente verdaderas de cómo ellos se comportan. Y una explicación natural
de la manera en que las teorías científicas se suceden unas a otras –por ejemplo,
la manera en que la Relatividad de Einstein reemplazó a la Gravitación Universal
de Newton– es que una descripción parcialmente correcta, parcialmente
incorrecta de un objeto teórico –en este caso el campo gravitatorio, o la estructura
métrica de espacio-tiempo, o ambos– es reemplazada por una mejor descripción
del mismo objeto u objetos. Pero si estos objetos realmente no existen en
absoluto, entonces es un milagro que una teoría que habla con éxito de la acción
gravitatoria a distancia prediga fenómenos; es un milagro que una que habla de
espacio-tiempo curvo prediga exitosamente fenómenos; y el hecho de que las
leyes de la teoría anterior sean derivables, "en el límite", de las leyes de la última
teoría no tiene ninguna importancia metodológica. (Putnam, 1984, pp. 140-141,
16
traducción y cursivas nuestras ).

Boyd, por su parte, ha dicho:

He ofrecido una defensa del realismo científico (contra el antirrealismo


empiricista) que procede proponiendo que una explicación realista de las teorías
científicas es un componente en la única explicación científicamente plausible de
la fiabilidad instrumental de la metodología científica. [...] Lo que he argumentado
en los trabajos citados anteriormente es que esta concepción de la empresa
científica provee la única explicación científicamente plausible del método

43
científico. En particular sostengo que la confianza en los juicios de proyectabilidad
teórico-dependientes y los grados de confirmación pueden ser explicados
satisfactoriamente sólo asumiendo que las afirmaciones teóricas incorporadas en
las teorías antecedentes que determinan tales juicios son, de una manera
relevante, aproximadamente verdaderas, y que la metodología científica actúa
dialécticamente de tal manera que produce a la larga una imagen teórica del
mundo cada vez más adecuada. Ya que el empirismo lógico acepta la fiabilidad
instrumental de la metodología científica actual, esta defensa del realismo
representa un contundente desafío al antirrealismo del empirismo lógico. (Boyd,
1984, pp. 58-59; cursivas y traducción nuestras17.

Existe cierta diferencia en las argumentaciones de ambos autores; pero aquí


destacaremos lo que tienen en común, formulando la tesis originada en ellos
del siguiente modo: el éxito predictivo de la ciencia (que es un hecho) sólo
puede ser explicado por el RC, pues de lo contrario sería un milagro.
Veamos ahora cómo ha sido planteado este argumento. En primer lugar,
digamos que no se trata propiamente de un “argumento” (al menos no en su
sentido lógico clásico), puesto que no es un tipo de inferencia deductiva sino un
caso diferente denominado “inferencia abductiva”18. Mientras que en las
deducciones la verdad de la conclusión se sigue con carácter de necesidad
lógica de la verdad de las premisas, en las inferencias abductivas esto no
sucede: la abducción o retroducción (descripta tempranamente por Aristóteles
(trad. 1988) y reconceptualizada posteriormente por Charles Peirce (1998),
consiste en inferir una causa probable de un caso desconocido y a partir de la
analogía con reglas aceptadas para otro tipo de casos ya conocidos. Así, “la
pregunta directora en el pensamiento retroductivo es ‘¿de qué premisas puede
mostrarse que se sigue esta anomalía?’” (Hanson, 1977, p. 53).
El primer paso de la estrategia de los realistas científicos es ubicar como
explicandum (el enunciado que describe el fenómeno que se quiere explicar) al
conocido éxito predictivo de las mejores teorías científicas (éxito que es un
hecho indiscutido para ambos bandos19), para luego intentar reconstruir las
premisas que permitirían (de ser verdaderas) apoyar la inferencia de ese éxito
(explicans). El segundo paso consiste en ubicar entre tales premisas
explicativas al RC y la tercera maniobra reside en la afirmación de que ubicar
RC entre las premisas contribuye a elaborar la “mejor explicación” del éxito
predictivo de las teorías científicas. De ese modo, el razonamiento supone que
el éxito de las teorías científicas es efecto de que las entidades teóricas e

44
inobservables postuladas (por tales teorías científicas exitosas) existen; de lo
contrario, afirman, ese éxito predictivo sería un milagro. Así, el argumento suele
contener dos ideas centrales: 1) que el éxito de la ciencia puede explicarse por
el RC, y 2) que el RC es la mejor explicación, sino la única posible, del éxito de
la ciencia (en la medida en que se descartan, a priori, los milagros).

Argumentos desde la práctica científica

Algunos, como Giere e Hacking, han desplegado otra defensa del RC que
podríamos describir así: la práctica científica concreta nos muestra cómo las
entidades postuladas, al interactuar causalmente con nuestras entidades
observables, existen independientemente de nosotros. Veamos lo que sostiene
Giere, a partir de su concurrencia sistemática a las instalaciones del Ciclotrón
de la Universidad de Indiana: “estos físicos nucleares producen protones con
las características deseadas, tales como la energía, y después las usan, junto
con otras partículas, para investigar las propiedades de varios núcleos. Decir
que ´producen´ y ´usan´ protones implica que esos protones existen” (Giere,
op. cit. 1988, p.125). Hacking (1983) por su parte, expresa algo similar:

La realidad tiene que ver con la causalidad, y nuestras nociones de la realidad se


forman a través de nuestras habilidades para cambiar el mundo […]
consideramos real lo que podemos usar para intervenir en el mundo para afectar
algo más, o lo que el mundo puede usar para afectarnos” (pp 173-174).
El trabajo experimental proporciona la mejor evidencia para el realismo científico.
[…] Cuando se logra usar el electrón para manipular otras partes de la naturaleza
de una manera sistemática, el electrón ha dejado de ser un ente hipotético o
inferido. Ha dejado de ser teórico y se torna experimental” (p. 291).

En la óptica del RC, su fuerza reside en tener mayor poder explicativo que sus
contrincantes. Desde esa perspectiva, aceptar el ARC es admitir que el éxito
predictivo de la ciencia es un milagro (es decir que carece de explicación);
aceptación que es, según los defensores del RC, muy poco razonable.
Las defensas anteriores del RC han recibido varias críticas, centradas en la
idea de que los razonamientos que pretenden resguardar al RC son flagrantes
falacias. En ese sentido, para algunos como Laudan ([1981] 1984), Fine (1984)

45
y Lipton (1991), esta falacia consiste en una auténtica petición de principio, en
dónde se postula lo que se quiere probar: el realista erra al pretender probar la
verdad del RC a partir de la tesis de que el RC es la mejor explicación del éxito
instrumental de la ciencia, porque así presupone que la conjetura que explica
mejor los hechos ha de ser cierta (lo que, justamente, los partidarios del ARC
deniegan).
Para otros, como Rescher (1987), el error cobra la forma de una falacia de
afirmación del consecuente: el argumento del no milagro utiliza un tipo de
inferencia cuya estructura podría reconstruirse así: “Si el RC es verdadero (p),
entonces la ciencia es exitosa predictivamente (q). La ciencia es exitosa
predictivamente (q). Por lo tanto, el RC es verdadero (p)”. En ese sentido,
postular abductivamente al RC no equivale a validarlo lógicamente (justamente
porque la abducción no es una deducción). El antirrealista niega que haya que
considerar verdadera a una explicación por el hecho de ser satisfactoria.
Tampoco sería viable determinar su “probabilidad de verdad” (recuérdese, por
ejemplo, las críticas de Popper ([1934] 1980) al probabilismo inductivo, de
similar espíritu). Más recientemente, Magnus & Callender (2004) mostraron
cómo al interpretar el éxito empírico de una teoría como una prueba para
determinar su grado de verdad, estadísticamente hablando hay dos opciones: o
bien considerar una proporción base (de teorías verdaderas) baja, lo cual lleva
a concluir que es muy poco probable dar así con la verdad; o bien alta, lo cual
nos reintroduce en el problema de la petitio principii. Pareciera que el
razonamiento de la mejor explicación es viable sólo suponiendo que una gran
proporción de las teorías científicas actuales son aproximadamente verdaderas
(cosa que, justamente, habría que probar).
Así, como puede verse, el problema de la justificación del RC pareciera haber
sido retrotraído al problema de la validación lógica de las inferencia
abductivas20.
Harré (1986) ha intentado justificar la suposición del RC, admitiendo e
intentando sortear la denunciada circularidad del argumento del no-milagro. Su
propuesta es de carácter inductivo y podría resumirse así: teniendo en cuenta
que el avance tecnológico generalmente se traduce (en este debate) como una

46
ganancia de observabilidad de entidades (lo que antes era técnicamente
inobservable, con frecuencia deviene observable y empíricamente adecuado),
es posible suponer que los modelos teóricos que contienen entidades
actualmente inobservables, también se adecúan empíricamente (aunque aún
no podamos observar dichas entidades) y cuya referencialidad exista tanto
como admitimos que existe para entidades observadas. Harré afirma que la
historia nos muestra cómo éxito empírico y adecuación teórica van juntas; sin
que esa conjunción suponga afirmar que el RC es la mejor explicación para el
éxito. Como el lector podrá notar, aquí también retrocedemos al problema
lógico de las inferencias inductivas: la conclusión no se sigue necesariamente
de las premisas; y bien podría ser el caso de que la conjunción que Harré
generaliza no se cumpla en las próximas teorías que analicemos.
Por otro lado, la práctica de los científicos no siempre ha sido vista como
evidencia a favor del RC, puesto que hay quienes se basan en ella justamente
para contrariarlo. Un ejemplo clave lo componen los estudios en Sociología de
la Ciencia: investigadores de planteos tan disímiles como Latour y Woolgar
([1979] 1995), Knorr-Cetina ([1981] 2005) y Barnes, Bloor & Henry (1996),
plantean un radical constructivismo de hechos, teorías, evidencias y razones
para plantear, aceptar o rechazar las teorías en un contexto social
determinado. Es decir, que lo determinante (más aún que cualquier tipo de
racionalidad filosóficamente estipulada) en la construcción de los
conocimientos aceptados y rechazados es, en toda época y contexto, la
multiplicidad de factores sociales intervinientes.

Razones a favor del ARC y algunas críticas

Gran parte de la investigación científica se ha realizado a contramano del


RC, lo cual nos conduce a pensar (en contra de sus defensores) que el RC no
es algo necesario para hacer ciencia. Los argumentos del ARC, que
desarrollaremos a continuación, parten de que el RC no sólo es innecesario
para hacer ciencia sino también para comprenderla.

47
El argumento de la subdeterminación

Este razonamiento consiste en la aplicación de la tesis de la


subdeterminación al debate RC-ARC. Dicha tesis, desarrollada y extendida por
Willard Quine a diversos dominios (cf. Quine, [1988] 2001, pp. 75-98), puede
ser formulada de varias maneras. A propósito del tema en cuestión,
expresaremos la tesis así: es posible formular diversas teorías incompatibles
entre sí pero, al mismo tiempo, compatibles con un mismo conjunto de datos
empíricos (es decir que tengan las mismas consecuencias observacionales).
Dicho de otra manera, que los hechos no determinan una y solo una teoría,
sino que hay muchas (sino infinitas, al menos indefinidas) conjeturas posibles a
partir de ellos. Más resumidamente: siempre es posible explicar de otro modo.
Esto se capta intuitivamente si se reflexiona sobre la ya mencionada falacia de
afirmación del consecuente: es un error intentar concluir la verdad del
antecedente del condicional a partir de asumir la verdad del consecuente,
puesto que bien podría haber otros antecedentes que impliquen dicho
consecuente y que el que se pretende afirmar sea falso. Ejemplifiquémoslo con
un ejemplo imaginario: en una conversación cotidiana nos despedimos de un
amigo oyéndole decir “si mañana hace calor, me voy a ir a comprar ojotas”
(imaginemos que no vamos a entender que irá “sí y sólo si hace calor”, lo cual
debería formalizarse con el conector bicondicional y nos arruinaría el ejemplo),
y al día siguiente lo vemos en un negocio comprando ojotas. Pues bien, no por
ello deberíamos deducir que “hace calor”, puesto que además de esa condición
suficiente puede haber habido otras que lo hayan llevado a comprarse el
simpático calzado. El corolario lógico de la tesis de la subdeterminación es que,
como las hipótesis empíricamente equivalentes son igualmente creíbles,
entonces creer en la verdad de una teoría (creer que sus términos
inobservacionales refieren a las entidades que postulan) resulta lógicamente
infundado y arbitrario (van Fraassen, [1980] 1996). Esto, aplicado a la tesis del
RC, nos conduce a un razonamiento tan falaz y caluroso como el del ejemplo
anterior: afirmar que “si existe lo inconciente, entonces se producirán actos

48
fallidos con tales y cuales características”, no nos puede conducir a pensar (sin
caer en la falacia) que por observar actos fallidos con tales y cuales
características, debamos inferir necesariamente (deducir) la existencia de esa
entidad; puesto que bien podría ser el caso de que el fenómeno de los actos
fallidos se produzca por la acción causal de otras entidades o procesos, parcial
o radicalmente diversos a los postulados. Así, puede hablarse de las virtudes
teóricas de los compromisos ontológicos de una teoría, tales como la
predicción o adecuación empírica exitosa, el poder explicativo, la sencillez o la
superioridad respecto de otra teoría u ontología; pero sin incluir entre dichas
virtudes a la verdad del RC.
Entonces, los hechos no permiten asegurar la existencia de las entidades
inobservables que se han postulado para explicarlos, puesto que tales hechos
pueden ser explicados con sistemas teóricos que contengan distintas entidades
y que contradigan las demás explicaciones sin perder coherencia con los
fenómenos (sin dejar de ser empíricamente equivalentes). Así planteada, la
tesis pareciera dar apoyo al ARC, en la medida en que supone el antirrealismo
epistemológico de las entidades teóricas inobservables que las teorías
postulan. Sin embargo, los partidarios del RC suelen ver en este argumento
algo trivial y sin interés auténtico para la actividad científica: aunque es
lógicamente plausible que siempre haya diversas explicaciones posibles para
un mismo conjunto de datos empíricos, eso no significa que los científicos
acepten cualquiera de esas explicaciones. El RC aduce, apoyándose esta vez
en la historia de la ciencia, que el hecho de la subdeterminación no pareciera
ser algo que paralice a los científicos en sus elecciones teóricas o que los lleve
a discusiones permanentes; por el contrario, muchas veces se los ve
dificultados por encontrar una sola teoría que se ajuste a los datos
(contrariándose así las expectativas que pareciera ofrecer la
subdeterminación).

49
La “metainducción pesimista”

Pero el argumento más contundente a favor del ARC ha sido y sigue siendo
de cuño histórico y podría ser formulado así: si el RC implica la existencia de
las entidades postuladas por las teorías empíricamente exitosas, ¿cómo puede
entenderse el hecho de que haya habido teorías exitosas que, a pesar de ello,
hoy asumimos que eran falsas? La historia de la ciencia está plagada de
ejemplos de teorías exitosas que contenían términos referentes a entidades
cuya existencia fue posteriormente rechazada; algunos ejemplos de tales
entidades pueden ser: los “epiciclos y deferentes” en la astronomía ptolemaica
(S. III a.C.), el “flogisto” en la química (S. XVII), el “eter” (S. IV a.C. hasta el
siglo S. XIX) y el “calórico” en la física (S. XVIII), los “humores” (S. IV a.C. hasta
el S. XIX ) y las “miasmas” en la medicina (S. XVII), la “generación espontánea”
en la biología (S. IV a. C. hasta S. XIX), etc. Esta ilación conduce a concluir que
el éxito empírico de nuestras teorías vigentes no nos permite inferir su verdad.
Larry Laudan, haciendo un recuento similar al nuestro, sostiene: “la lista, que
podría ser extendida ad nauseam, implica en cada caso una teoría que una vez
fue exitosa y bien confirmada, pero que contenía términos centrales que (ahora
creemos) eran no-referenciales” (Laudan, op. cit. [1981] 1984, p. 231; TN21).
El argumento de Laudan pareciera tener dos aristas que conviene diferenciar:
1) como argumento deductivo en contra del RC; y 2) como inferencia inductiva
a favor del ARC.
1) Es una inferencia deductiva del tipo “modus tollendo tollens” que viene a
refutar el núcleo del RC: si el RC es acertado, entonces tenemos éxito
empírico y referencialidad extralingüística. Pero, no es cierto que el éxito
empírico vaya acompañado siempre de referencialidad (como lo
muestran las teorías hoy obsoletas); por lo tanto, el RC es falso.
2) Es una inferencia de tipo inductiva: la mayoría de las teorías exitosas del
pasado han sido falsas (sus términos teóricos no refieren a las entidades
que postulan), por lo tanto nuestras actuales teorías exitosas también lo
son. Se comprende así porqué se trata de una meta-inducción
“pesimista”.

50
Este razonamiento ha recibido una serie de críticas para nada despreciables.
Algunos han criticado la vaguedad o vastedad de la noción laudaniana de
“éxito”: una teoría logra adecuación empírica porque fue diseñada para eso y
no hay nada sorprendente a explicar. Sostienen que una noción más
restringida de éxito puede, en cambio, aportar evidencia a favor del RC; y
proponen reducirlo a la predicción de fenómenos nuevos o “sorpresivos”, es
decir la extensión exitosa e inesperada de su ámbito de explicación22. La
pregunta del realista es ¿a qué podría deberse, si no es al RC, que la
predicción de hechos nuevos resulten acertadas? Se trata de un refinamiento
del ya mencionado “argumento del no-milagro” y el objetivo pareciera ser el de
excluir paulatinamente la posibilidad de que el éxito, ahora redefinido como
“predicción sorpresiva acertada”, sea una propiedad inherente a las teorías
falsas. En esta línea podemos contar los desarrollos de Psillos (1999), Kitcher
([1993] 2001a), Devitt (1991), Chakravarty (1989) y Worrall (1989), entre otros.
Algunos de ellos, enfocándose en la lista de teorías exitosas pero falsas que
Laudan propone, han intentado mostrar que las entidades a las que podemos
adjudicar el éxito empírico de tales teorías, pueden seguir considerándose hoy
existentes. La razón aducida es que lo rechazado por falso no era causante del
éxito en cuestión. Así, el razonamiento de Laudan se contraargumenta
mostrando que las leyes y mecanismos teóricos que causaron el éxito
empírico, han sido conservados en el tiempo. Esta tesis, llevada hasta sus
últimas consecuencias, condujo a Worrall (ibíd.) a plantear su “realismo
estructural”. Lo que vendría a mostrar el argumento de Laudan no es que no
podamos inferir la verdad aproximada de una teoría a partir de su éxito
predictivo, sino que no podamos inferir la verdad de la teoría in toto.
Sin embargo, las réplicas aquí tampoco se han hecho esperar. Algunos
admiten que el razonamiento de Laudan sólo sería útil si se apoyase en
ejemplos de teorías falsas que hubieran hecho “predicciones sorpresivas
acertadas” y aseguran que eso sucede. Carrier parte de allí para afirmar que
“un argumento antirrealista viable sólo se puede basar en los casos en los que
los aspectos incorrectos de teorías equivocadas son responsables del éxito
predictivo fuerte de esas teorías” (Carrier, 1991, p. 29; TN23); luego procede a

51
ejemplificarlo con dos casos históricos (esta vez, a diferencia de Laudan,
restringiendo la noción de éxito del modo en que el RC pretende) y concluye
que el éxito sorpresivo también se produce en teorías que posteriormente
resultan no-referenciales; por lo que:

El argumento del milagro [ahora refinado] no muestra lo que pretende mostrar. Es


seguro concluir que el éxito predictivo en sentido fuerte bien puede acompañar a
la falta de referencia de los términos centrales empleados. La referencia no es
necesaria para el éxito en sentido fuerte. (1991, p. 32, traducción nuestra24).

Stanford, por su parte, ha criticado el refinamiento del argumento del no-


milagro alegando que no pareciera ser tan sencillo mostrar qué características
de las teorías son las responsables del éxito, independientemente de su
conservación a través de la evolución teórica; es decir independientemente de
hacer una visión retrospectiva desde las teorías actuales y sin presuponer la
verdad. Sostiene que si nos manejamos en el ámbito de la evolución de una
teoría concreta, entonces resulta evidente que las partes conservadas se
considerarán confirmadas; por lo que no es posible responder (sin circularidad)
a la pregunta por “qué parte” de las teorías pasadas es responsable (y
posiblemente verdadera) del éxito predictivo (Stanford, 2003).

La relatividad conceptual

Comenzaremos analizando algunas ideas de Putnam, quien pareciera ser un


ejemplo descomunal de vaivenes conceptuales: acérrimo defensor del RC en
sus épocas tempranas, devino luego uno de sus más fervorosos críticos (algo
similar a lo sucedido con la teoría funcionalista en psicología: él mismo
contribuyó a cimentarla y luego la rechazó aseverando que es deficiente en su
explicación de la naturaleza de los estados mentales). A pesar de esas
transiciones, intentaremos recortar sus aspectos esenciales en torno a la
relatividad conceptual.
En 1976, Putnam acuñó la expresión de “realismo interno” y, más tarde, la de
“realismo pragmático” o “realismo con r minúscula”. Nociones que surgen
contrariando el RC, que para Putnam se asienta sobre: la creencia ontológica

52
de que el mundo consta de alguna totalidad fija de objetos independiente a la
mente, de la creencia epistémica de que hay exactamente una descripción
verdadera de cómo es el mundo y la creencia semántica de que la verdad
implica algún tipo de relación de correspondencia entre los signos mentales y
las entidades del mundo (cf. por ejemplo, Putnam, 1978; 1981; 1987; 1990).
Así, el realista supone la existencia de un “mundo prefabricado” y la existencia
de un “Punto de Vista del Ojo de Dios” desde el cual nos acercamos para
contemplar lo existente de manera cada vez más completa, hasta llegar al
conocimiento de una “Teoría Verdadera”. Todo esto resulta para Putnam
inaceptable. Su argumento pareciera ser una especie de refutación del
realismo por reducción al absurdo, realizado sobre una base meta-matemática
(específicamente en una extrapolación del teorema de Löwenheim-Skolem; cf.
Putnam, op. cit. 1981) y asentado en una crítica a la noción correspondentista
de la verdad (particularmente a la pretensión de determinar unívocamente la
referencia). Para mostrar la falsedad del RC, Putnam recurre a un experimento
mental: imaginar la extraña pero posible hipótesis de que todos los seres
humanos fuésemos cerebros en una cubeta, conectados a una
supercomputadora que nos mantuviera vivos y nos proporcionara la constante
ilusión de que experimentamos verdaderos impulsos sensoriales provenientes
del mundo externo; es decir, los mismos impulsos que ahora podemos nosotros
experimentar pero ignorando que provienen de la supercomputadora y no del
mundo exterior. Se trata de una perfecta ilusión al estilo del genio maligno de
Descartes o de la película Matrix. Putnam argumenta que si lográramos el
objetivo realista de dar con la “Teoría Verdadera desde el Punto de Vista del
Ojo de Dios”, es decir que somos algo así como cerebros en una cubeta, ésta
teoría sería falsa pese a todo; ¿por qué? pues porque esa es una hipótesis que
implica su propia falsedad. Para entenderlo recordemos que si de la afirmación
de un enunciado se sigue su negación, entonces debemos concluir su
falsedad. Así, en el ejemplo, el problema aparece cuando queremos ver a qué
se refiere el término “cubeta” cuando es usado por un cerebro que está en una
cubeta: no podría referir a las cubetas reales, puesto que ese cerebro no las
conoce, sino a las cubetas ilusorias que la supercomputadora crea para él; por

53
lo tanto, aunque la afirmación fuera verdadera, conduciría a su falsedad por el
hecho de que los cerebros en una cubeta no podrían tener conocimiento del
mundo real. Para Putnam (1981), como la hipótesis de que “somos cerebros en
una cubeta” se autorrefuta, también debe ser falso el supuesto que la hace
posible: el del Punto de Vista del Ojo de Dios (y con él el realismo ontológico,
base del RC). Es por ello que dirá, caracterizando a su perspectiva de
“internalista”, que

(…) la pregunta ¿de qué objetos consta el mundo? sólo tiene sentido cuando se
hace desde dentro de una teoría o descripción. Muchos filósofos «internalistas»,
aunque no todos, mantienen además que hay más de una teoría o descripción del
mundo «verdadera». En la perspectiva internalista, la «verdad» es una especie de
aceptabilidad racional (idealizada) –una especie de coherencia ideal de nuestras
creencias entre sí y con nuestras experiencias cuando estas experiencias están
ellas mismas representadas en nuestro sistema de creencias– y no una
correspondencia con «estados de cosas» independientes de la mente o del
discurso. No existe un punto de vista como el del Ojo Divino que podamos conocer
o imaginar con provecho. (pp. 49-50; TN25).

La perspectiva del realismo interno que supo sostener, retoma la herencia


kantiana al considerar que “la mente y el mundo construyen conjuntamente la
mente y el mundo” (Putnam, 1981: 11; TN26). Posteriormente criticó y
abandonó las dicotómicas nociones kantianas, desarrollando su “realismo
pragmático”. Contrariamente a la idea del Ojo de Dios, hará hincapié en la
noción de relatividad conceptual: “los ‘objetos’ no existen independientemente
de los esquemas conceptuales. Nosotros cortamos el mundo en objetos
cuando introducimos uno u otro esquema de descripción” (ibíd., p. 52; TN27).
Perspectiva que contradice la suposición del RC, puesto que la estructura
ontológica del mundo dependerá del esquema conceptual desde el que se lo
aborde. Sólo después de elegido el marco conceptual (y no antes), los objetos
caen intrínsecamente bajo ciertas etiquetas. De este modo el realismo no
contradice a la relatividad conceptual. Vemos que su perspectiva pretende
resolver la tensión entre el RC y el ARC (“externalistas e internalistas”, como él
suele decir), intentando conciliar elementos de ambas partes en disputa.
Según Putnam, su postura no debería entenderse como una variante del
relativismo (posición que le parece la contracara, del mismo tipo de extremismo
pero invertido, que el RC); sin embargo, si es imposible referir a un mundo

54
independiente y si distintos esquemas conceptuales pueden ser igualmente
verdaderos, pareciera difícil decidir (desde su propuesta) cómo elegir entre
teorías o modos de ver el mundo. A pesar de su rechazo explícito al
relativismo, éste pareciera ser una consecuencia inevitable de sus
formulaciones escépticas, asemejable a las de Feyerabend, Rorty, Derrida o
Foucault, entre otros.
Adoptando algunas ideas de Putnam, Kitcher (2001b) intenta una defensa del
RC en una perspectiva que él denomina “realismo modesto”. Se compromete
con la existencia de una realidad independiente y sin estructurar, pero sostiene
que las categorizaciones que hacemos del mundo sí pueden ser juzgadas
como mejores o peores, en función de nuestros intereses en cada contexto (lo
cual intenta ser una respuesta negativa a los argumentos relativistas). Su
perspectiva pareciera intentar reconciliar el RC fuerte con una línea de ARC: el
constructivismo epistémico; y para ello sostiene que

La historia de la cartografía ilustra el modesto realismo con el que empecé […]


Hacemos estos juicios sin creer que alguno de los mapas producidos alguna vez
es completamente exacto, incluso admitiendo la posibilidad de que los mapas
anteriores pudieran ocasionalmente proporcionar una representación más exacta
de algunos rasgos locales, y que el tipo de convergencia que apreciamos
visualmente no tiene por qué ser monotónica” (p. 55; TN28).

Según Kitcher, las teorías pueden ser vistas como mapas: realizaciones
tendientes a alcanzar la representación de aspectos específicos y con objetivos
determinados contextualmente. Ahora bien, resulta al menos ambigua la
posibilidad de vincular, como él pretende, ambas perspectivas. Si tenemos en
cuenta que Kitcher procura adoptar una teoría correspondentista de la verdad,
no se ve cómo podría establecerse la verdad y, al mismo tiempo, admitir la
relatividad conceptual.

La prescindencia de la verdad como correspondencia

Una de las defensas más difundidas del ARC ha venido de Van Fraassen
(op. cit.), quien propuso una postura, denominada “empirismo constructivista”,

55
consistente en abogar por el agnosticismo, es decir, la suspensión del juicio,
sobre el estatuto de las entidades no observables y en explicar la práctica
científica como empresa tendiente exclusivamente a salvar los fenómenos.
Afirma que las teorías pueden ser utilizadas por ser empíricamente adecuadas
y sin la necesidad de emitir juicio alguno sobre la naturaleza de las entidades
inobservables que designan sus términos principales. Este agnosticismo
semántico se asienta en una crítica a la regla misma de la inferencia a la mejor
explicación: no hay necesidad alguna de creer que la hipótesis que mejor
explica los fenómenos sea verdadera. Por el contrario, van Fraassen prefiere
simplemente creer que tal hipótesis es empíricamente adecuada y, por ende,
aceptable. De ahí que proponga sustituir la creencia en la verdad del RC (que
resulta de la inferencia a la mejor explicación) por la hipótesis de que estamos
dispuestos a creer que la hipótesis que mejor explica los fenómenos es
empíricamente adecuada (sin comprometerse con su verdad). En la
caracterización que este autor hace del RC, dicha postura supone siempre que
aceptar una teoría es creer en su verdad y que la verdad es objetivo de la
ciencia. Él rechaza ambas ideas y sostiene que la aceptación de una teoría es
independiente de la creencia en la verdad de sus premisas sobre lo
inobservable. La ciencia, asegura van Fraassen, sólo busca teorías que
expliquen los fenómenos. Perspectiva que le recordará al lector la posición
“kantista posdarwiniana” de Kuhn, desde la cual sostuvo (incluso antes de
autodenominarse así) que las teorías superan a las anteriores porque son
mejores instrumentos para “resolver enigmas” y no porque sean cada vez más
acertadas representaciones del mundo o porque acumulen objetividad; es
decir, no porque se encuentren “cada vez más cerca de la verdad” (Kuhn,
[1962] 2010, p. 296).
Ante la perspectiva de van Fraassen, la pregunta de sus críticos podría
resumirse así: ¿conlleva una actitud de mayor prudencia limitar el compromiso
ontológico al ámbito de lo observable y suspender el juicio respecto de las
causas no observables de los fenómenos? En general, el partidario del RC
insiste en que, cuando hay suficiente evidencia para permitirnos creer en la
existencia de lo referido inobservable, la actitud de van Fraassen es de un

56
escepticismo injustificado. Para Olivé, filósofo partidario del RC, esa actitud
supone “regresar a la vieja falacia epistémica, es decir, negar la existencia de
objetos que no puede conocer de la única manera que acepta el empirista: a
través de la observación” (Olivé, 1988, p. 216).
Otra perspectiva (que aquí no podremos más que mencionar) es la del
finlandés Niiniluoto, quien desde la vereda de enfrente a van Fraassen ha
desarrollado una explícita defensa del RC basándose en la noción
correspondentista de la verdad. Niiniluoto acepta la crítica de Putnam al “Punto
de Vista del Ojo de Dios” y su tesis de que la estructura del mundo sea relativa
a un lenguaje contingente, e intenta compatibilizar tales ideas con una
redefinición de la teoría clásica de la verdad (Niiniluoto, 1984, 1996). Para ello,
retoma las pretensiones popperianas de conceptualizar la verosimilitud y
elabora una noción tendiente a superar las contundentes críticas que Tichy
(1974) y Miller (1974) le habían antepuesto.
Dejaremos al lector interesado, profundizar y analizar también este tema. En
opinión de quien escribe, hay varios puntos débiles en la propuesta de
Niiniluoto. La manera en que él entiende la relación de determinación entre “el
mundo” y “un lenguaje que lo describe”, pareciera ser más una declaración de
principios que una consecuencia inevitable de sus premisas. Posiblemente, la
necesidad de ubicar a la verdad como meta de la ciencia dependa más de
nuestros anhelos que de nuestras necesidades. En todo caso, creemos que si
se adopta el representacionalismo, es decir la suposición de que mente y
mundo son distintas, entonces el viejo argumento escéptico continúa vigente:
no es posible salirnos de nuestras mentes o lenguaje para ver cómo ellas se
relacionan con el mundo29. En ese sentido, la perspectiva de Niiniluoto
pareciera encontrarse con los mismos obstáculos que el RC de Kitcher: al
pretender compatibilizar la relatividad conceptual con una concepción
aristotélica de la verdad, no pareciera quedar claro cómo podría definirse la
referencia de nuestros enunciados científicos al mundo. Según la relatividad
conceptual, nuestro acceso epistémico a él se produce mediante nuestras
construcciones lingüísticas; caso en el cual sólo cabría establecer una teoría
coherentista de la verdad.

57
Conclusiones

La historia de la filosofía, no es un vano museo de distracciones


y de juegos verbales; verosímilmente, las dos tesis
corresponden a dos maneras de intuir la realidad
Jorge Luis Borges, De las alegorías a las novelas.

Hemos realizado una breve sistematización de las posturas, argumentos y


contrargumentos principales en el debate, tal y como ha sido planteado desde
la década de 1980. Si bien no ha sido la idea de este escrito formular una
argumentación de nuestra propia postura, ella seguramente se ha ido
trasluciendo a medida que planteamos las aristas del debate. Sin
fundamentarlo, haremos explícita nuestra posición diciendo que el RC fuerte
nos parece una posición con más obstáculos que virtudes; situación que se
redobla si tenemos en cuenta que, muchas veces en nuestro dominio, la
materialidad de nuestros objetos de estudio consiste en la significación de las
acciones humanas, entidad de origen cultural. Por otro lado, hay que decir que
hemos soslayado (por razones de extensión) significativos aportes al debate
RC-ARC, entre los que cabe mencionar a la perspectiva del realismo
estructural, las corrientes del constructivismo radical, la hermenéutica filosófica
contemporánea, el proyecto de las epistemologías naturalizadas que da origen
a la biología del conocimiento y a la sociología de la ciencia, entre tantas otras.
Durante el taller se ha insistido que el debate RC-ARC no debería entenderse
en el marco de una filosofía tendiente a encontrar fundamentos últimos del
conocimiento, es decir, en el marco de una epistemología propiamente dicha.
Es necesario entenderla como un debate relativo al estatuto y valor de nuestra
imagen de la ciencia, en relación con otros discursos vigentes o posibles y,
sobre todo, en relación con nuestra forma de ser en el mundo. Si es cierto que
las suposiciones que albergamos respecto a la realidad y al conocimiento
determinan nuestras formas de comportarnos y de hacer ciencia (Sánchez
Vazquez & Lahitte, 2013), entonces no parece trivial tener siempre presente
que la utilización y acogida que cada quien haga de dichos supuestos decanta
inevitablemente en consecuencias éticas y políticas nada despreciables.

58
Referencias bibliográficas

Aristóteles (1993). Metafísica. Madrid: Espasa Calpe.


Aristóteles (1988). Analíticos primeros. Madrid: Gredos.
Armstrong, D. M. (1988). Los universales y el realismo científico. México:
UNAM.
Barnes, B., Bloor, D. & Henry, J. (1996). Scientific Knowledge: a Sociological
Analysis. Londres: Athlone.
Beuchot, M. (1981). El problema de los universales. México: UNAM.
Boyd, R. (1984). ‘The current status of Scientific Realism’; en Leplin (1984).
Devitt, M. (1991). “Aberrations of the realism debate”; en Philosophical Studies,
61(1), 43-63.
Bar-Hillel, Y. (1970). “Neorealism vs. Neopositivism. A Neo-Pseudo Issue”; en
Bar-Hillel, Aspects of Language, Jerusalem: The Magnes Press.
Borges, J.L. ([1952] 1997). De las alegorías a las novelas, en Otras
Inquisiciones. Madrid: Alianza.
Bunge, M. (1985). Racionalidad y realismo. Madrid: Alianza.
Carrier, M. (1991). “What is wrong with the ´miracle argument´?”; en Studies in
History and Philosophy of Science, vol. 22, No. 1: 23-36.
Chakravarty, A. (1989) “Semirealism”; en Studies in History and Philosophy of
Science. Vol. 29, No.3: 391-408.
Devitt, M. (1984). Realism and truth. Oxford: Blackwell.
Dummet, M. (1973). Frege: Philosophy of Language. London: Duckworth.
Ferrater Mora, J. ([1941] 1951). Diccionario de Filosofía. Buenos Aires:
Sudamericana.
Fine, A. (1984). “The Natural Ontological Attitude”, en Leplin (1984).
Giere, R. (1988). Explaining Science. A cognitive approach. Chicago: The
University of Chicago Press.
Hacking, I. ([1983] 1996). Representar e intervenir. Buenos Aires: Paidós.
Hanson, N. R. (1977). Patrones de descubrimiento. Observación y explicación.
Madrid: Alianza.

59
Harré, R. (1986). Varieties of Realism. A Rationale for the Natural Science.
Oxford: Basil Blackwell.
Kant, I. ([1781] 1978) Crítica de la razón pura. Barcelona: Alfaguara.
Kitcher, P. ([1993] 2001a). El avance de la Ciencia. Ciencia sin leyenda,
objetividad sin ilusiones. México: UNAM.
Kitcher, P. (2001b). Science, truth, and democracy. New York: Oxford
University Press.
Kuhn, T. ([1962] 2010). La estructura de las revoluciones científicas. México:
Fondo de Cultura Económica.
Kukla, A. (1998). Studies in scientific realism. Oxforf: Oxford University Press.
Latour, B., & Woolgar, S. ([1979] 1995). La vida en el laboratorio: la
construcción de los hechos científicos. Madrid: Alianza.
Laudan, L. ([1981] 1984). “A confutation of convergent realism”, en Leplin
(1984); publicado previamente en Philososphy of Science, Vol. 48, No. 1,
1981:19-49.
Leplin, J. (ed.) (1984). Scientific Realism. Berkeley: University of California
Press.
Lipton, P. (1991). Inference to the Best Explanation. London: Routledge.
Miller, D. (1974). “Popper's qualitative theory of verisimilitude”; en The British
Journal for the Philosophy of Science, 25(2), 166-177.
Moulines, C. (1991). Pluralidad y recursión. Estudios epistemológicos. Madrid:
Alianza.
Nietzsche, F. ([1892] 1997). Así hablaba Zaratustra. Barcelona: Círculo de
Lectores.
Niiniluoto, I. (1984). Is science progressive? Dordrecht: Reidel.
Niiniluoto, I. (1996). “Queries about internal realism”; en Cohen, R., Hilpinen, R,
& Renzong, Q. (Eds.) Realism and Anti-Realism in the Philosophy of
Science, (pp. 45-54). Dordrecht: Kluwer.
Olivé, L. (1988). Conocimiento, sociedad y realidad. México: Fondo de Cultura
Económica.
Peirce, C. S. (1998). El hombre, un signo. Barcelona: Crítica.

60
Platón (1982). “Crátilo”; en Diálogos II. Traducción e introducción de Calonge
Ruiz, J.; Acosta Méndez, F.; Olivieri, J.; Calvo, L. Madrid: Gredos.
Platón (1988) “El Sofista”; en Diálogos V. Madrid: Gredos.
Popper, K. R. ([1934] 1980). La lógica de la investigación científica. Madrid:
Tecnos.
Popper, K. ([1972] 1974) Conocimiento Objetivo. Un enfoque evolucionista.
Madrid: Tecnos.
Psillos, S. (1999). Scientific Realism. How science tracks truth. London:
Routledge.
Putnam, H. (1978). Meaning and the moral sciences. Londres: Routledge &
Kegan Paul.
Putnam, H. (1981). Reason, Truth and History. Cambridge: Cambridge
University Press.
Putnam, H. (1984) ‘What is Realism?’; en Leplin (1984).
Putnam, H. ([1987] 1994) Las mil caras del realismo. Barcelona: Paidós.
Putnam, H. (1990). Realism with a human face. Cambridge: Harvard University
Press.
Quine, W. V. O. ([1953] 1962). Desde un punto de vista lógico. Barcelona: Ariel.
Quine, W. V. O. ([1988] 2001). Acerca del conocimiento científico y otros
dogmas. Barcelona: Paidós.
Rescher, N. (1987) Scientific realism. A critical reappraisal. Dordrecht: Reidel.
Rorty, R. ([1967] 1998). El giro lingüístico. Dificultades metafilosóficas de la
filosofía lingüística. Barcelona: Paidós.
Rorty, R. ([1979] 1983). La filosofía y el espejo de la naturaleza. Madrid:
Cátedra.
Rorty, R. ([1991] 1996). Objetividad, relativismo y verdad. Barcelona: Paidós.
Sneed, J. (1983). “Structuralism and Scientific Realism”; en Erkenntnis, 9: 345-
360.
Sánchez Vazquez, M. J. & Lahitte, H. B. (2013) “Ciencias del Hombre e
investigación”; en M.J. Sánchez Vazquez (coord.) (2013). Investigar en
ciencias humanas. Reflexiones epistemológicas, metodológicas y éticas

61
aplicadas a la investigación en Psicología. La Plata: Edulp. Versión on line
http://hdl.handle.net/10915/27889
Stanford, P.K. (2003) “No Refuge for Realism: Selective Confirmation and the
History of Science”, en Philosophy of Science 70: 913-925.
Tichý, P. (1974). “On Popper's definitions of verisimilitude”; en The British
Journal for the Philosophy of Science, 25(2), 155-160.
Tomás de Aquino (2010). Summa Theologiae. Madrid: Biblioteca de Autores
Cristianos.
Tomás de Aquino (1996). De Veritate. Santiago de Chile: Editorial Universitaria.
Van Fraassen, B. C. ([1980] 1996). La imagen científica. México: Paidós.
Watzlawick, P. (comp.) ([1981] 2005). La realidad inventada. ¿Cómo sabemos
lo que creemos saber? Barcelona: Gedisa.
Worrall, J. (1989). “Structural realism: the best of both worlds?”; en Dialectica
43, 1-2: 99-124.

Notas

1
No podremos entrar aquí a dilucidar las nociones de ente; aunque si
podemos mencionar que si bien la clásica filosofía aristotélico-tomista ha
caracterizado al ente a partir de las nociones de “sustancia y accidente”, gran
parte de la filosofía analítica de la ciencia se ha apoyado en la diferenciación
que se ha hecho desde el programa logicista, en donde “entes” pueden ser
“individuos, propiedades y relaciones”. La relación entre lógica y ontología
difiere en ambas tradiciones: para la filosofía analítica es la lógica la que
posibilita decirnos de qué está compuesto el mundo (piénsese en el atomismo
lógico de Russell y Wittgenstein) y, por ende, la que determina la ontología;
pero para la tradición aristotélica, en cambio, es la ontología la que determina
la lógica, pues el orden del ser deslinda las posibilidades del conocer.
2
Lejos de haber sufrido grandes modificaciones, la propuesta platónica ha
sido retomada a lo largo de toda la historia de la filosofía occidental; así, desde
Agustín de Hipona hasta Kurt Gödel (pasando por Gottlob Frege, Bertrand
Russell, Edmund Husserl y Charles Peirce), ha habido platónicos.
3
En las expresiones citadas, típicamente adjudicadas a los extremos del
realismo y del nominalismo, (“universale ante rem” y “universale post rem”) ni el
“ante” ni el “post” deben entenderse en sentido cronológico, sino que conviene
traducirlas como “a partir de”, en un sentido ontológico.
4
En términos generales, suelen distinguirse dos períodos de desarrollo del
nominalismo: uno con Juan Roscelino de Compiègne (S. XII) y otro posterior

62
con Guillermo de Ockham (S. VIV). Por otro lado, el nominalismo (en sus
múltiples variantes) ha tenido también enormes adherentes modernos y
contemporáneos, entre los que podemos mencionar a Franz Brentano, Ludwig
Wittgenstein y Willard Quine.
5
Sugerimos, al lector interesado en el “problema de los universales” la
lectura de David Malet Armstrong (1988), Mauricio Beuchot (1981), Ferrater
Mora, ([1941] 1951).
6
Dejaremos de lado aquí el problema de la distinción teórico-observacional.
Sólo cabe mencionar que esa distinción ha sido frecuentemente mal planteada,
en la medida en que allí radican dos cuestiones de distinto orden: lo
“observacional – no observacional” por un lado y lo “teórico – no teórico” por el
otro; su solapamiento ha sido fuente de errores y de controversias estériles que
aún hoy perduran (recomendamos, a este respecto, la lectura de Bar-Hillel,
1970).
7
La versión clásica de la teoría correspondentista puede hallarse en las
obras de Platón (cf. Sofista, trad. 1988: 263b) y Aristóteles (Metafísica, trad.
1993; libro IV, apartado 7: p. 125). La definición moderna de esta teoría puede
encontrarse en Tomás de Aquino (Suma Teológica, trad.2010, 16.2; y Sobre la
verdad, trad. 1996; I,1).
8
“Whatever else realists say, they typically say that they believe in a
‘correspondence theory of truth’” (Putnam, 1984: 140; versión original).
9
“Scientific theories, interpreted realistically, are confirmable and in fact are
often confirmed as approximately true by ordinary scientific evidence interpreted
in accordance with ordinary methodological standards” (Boyd, 1984: 41; versión
original).
10
“The best current scientific theories are at least approximately true” (Leplin,
1984: 1; versión original).
11
Su aceptación nos conduce al “dogma de la inmaculada percepción”
(Nietzsche, [1892] 1997), a creer que vemos desde “el Ojo de Dios” (Putnam,
1981), o que somos un “espejo de la naturaleza” (Rorty, [1979] 1983) o una
“cubeta que acumula” conocimiento a través de los sentidos (Popper, [1972]
1974); ideas inconciliables con los desarrollos que se han dado en el último
siglo sobre el tópico psicológico de “la cognición”
12
“The central terms of the best current theories are genuinely referential”
(Leplin, op. cit. 1984: 1; versión original).
13
“Theoretical terms in scientific theories (i.e., nonobservational terms)
should be thought of as putatively referring expressions; that is, scientific
theories should be interpreted ´realistically´” (Boyd, 1984: 41; versión original).
14
"The reference of some terms used in empirical science remain fixed while
the claims of empirical theories formulated with these terms change” (Sneed,
1983: 349; versión original).
15
En ese sentido, por ejemplo Ronald Giere (1988: 125) ha dicho (a favor
del RC) que es “absolutamente innegable” que los físicos nucleares producen
partículas y las utilizan con “aproximadamente las mismas propiedades” que le
adjudican a los protones. Y aclara que no es innegable en un sentido
cartesiano, “según el cual dudar de eso sería autocontradictorio”, sino que es
innegable en el mismo sentido en el que no dudamos de que haya en el
laboratorio computadores, personas e imanes (pudiendo alguien negarlo). Se

63
ve cómo el argumento de Giere se apoya en lo que hemos denominado tesis
de la equivalencia ontológica. También André Kukla, quien ya hemos
mencionado, sostiene esta tesis (aunque no se decida sobre el tipo de estatuto
ontológico que darle a ambas entidades): “hablando autobiográficamente, mi
actual estado de opinión acerca del debate del RC puede ser representado
como “los objetos de la percepción del sentido común –como piedras y
bastones- existen y también existen las entidades inobservables planteadas por
las teorías científicas –como los electrones y los procesos mentales
inconscientes-”, o “ninguna de las dos clases de entidades existe”. Creo que los
objetos del sentido común y los teóricos están en el mismo bote, pero no estoy
seguro de cuál sea ese bote” (Kukla, 1998: 8; TN).
16
“When they argue for their position, realists typically argue against some
version of idealism –In our time, this would be positivism or operationalism […]
And the typical realist argument against idealism is that it makes the success of
science a miracle. Berkeley needed God just to account for the success of
beliefs about tables and chairs (and trees in the quad); but the appeal to God
has gone out of fashion in philosophy, and, in any case, Berkeley’s use of God
is very odd from the point of view of most theists. And the modern positivist has
to leave it without explanation (the realist charges) that ‘electron calculi’ and
‘space-time calculi’ and ‘DNA calculi’ correctly predict observable phenomena if,
in reality, there are no electrons, no curved spacetime, and no DNA molecules.
If there are such things, then a natural explanation of the success of these
theories is that they are partially true accounts of how they behave. And a
natural account of the way in which scientific theories succeed each other –say,
the way in which Einstein’ Relativity succeeded Newton’s Universal Gravitation
–is that a partially correct, partially incorrect account of a theoretical object –
say, the gravitational field, or the metric structure of space-time, or both –is
replaced by a better account of the same object or objects. But if these objects
do not really exist at all, then it is a miracle that a theory which speaks of
gravitational action at a distance successfully predicts phenomena; it is a
miracle that a the which speaks of curved space-time successfully predicts
phenomena; and the fact that the laws of the former theory are derivable, “in the
limit”, from the laws of the latter theory has no methodological significance”
(Putnam, 1984: 140-141; versión original)
17
“I have offered a defense of scientific realism (against empiricist
antirealism) which proceeds by proposing that a realistic account of scientific
theories is a component in the only scientifically plausible explanation for the
instrumental reliability of scientific methodology. Boyd (1984): 58. What I have
argued in the works cited above is that this conception of the enterprise of
science provides the only scientifically plausible explanation for the instrumental
reliability of the scientific method. In particular I argue that the reliability of
theorydependent judgments of projectability and degrees of confirmation can
only be satisfactorily explained on the assumption that the theoretical claims
embodied in the back-ground theories which determine those judgments are
relevantly approximately true, and that scientific methodology acts dialectically
so as to produce in the long run an increasingly accurate theoretical picture of
the world. Since logical empiricist accept the instrumental reliability of actual

64
scientific methodology, this defense of realism represents a cogent challenge to
logical empiricist antirealism” (Boyd, 1984: 59; versión original).
18
Aquí entenderemos que la “inferencia a la mejor explicación” (tal y como
suele implementársela en el debate RC-ARC) es susceptible de formalizarse
como un razonamiento de tipo abductivo, aunque ello no esté exento de
dificultades.
19
La noción de “éxito de la ciencia” se refiere, fundamentalmente, a la
“adecuación empírica”: predicciones y retrodicciones acertadas. En la medida
en que su aceptación es compartida por realistas y por antirrealistas, se trata
de una noción cardinal en el debate. La pregunta cuya contestación es objeto
de disputas podría formularse así: ¿qué es lo que hace que las teorías
científicas sean tan buenas herramientas para manipular el mundo?
20
Para advertir la problemática en juego vayamos a un ejemplo trivial:
imagine que va a comer fideos y ha puesto una olla sin tapa a hervir;
supongamos que ha sonado el timbre, que ha salido a atender y que se ha
entretenido conversando con Testigos de Jehová... al volver siente olor a gas
en el ambiente y observa la hornalla abierta pero apagada. Una buena
explicación (sino la mejor) es que el agua ha hervido hasta rebalsar la olla y
apagar el fuego; pese a ello, es lógicamente ilícito intentar deducir esta
conclusión. Pero, ¿es razonable hacerlo? Esta es una forma de mostrar el
problema. El antirrealista dirá que se trata de un razonamiento formalizable
mediante la falacia de afirmación del consecuente: si “el agua hierve hasta
rebalsar la olla y apagar la llama de la hornalla” (P), entonces “yo siento olor a
gas y veo la hornalla abierta pero sin llama” (Q). Como admito Q, concluyo
(falazmente) P. Se comprende porqué admitir “mayor probabilidad” o “buenas
razones para suponer” la ocurrencia de un fenómeno, no significa admitir
necesariamente su existencia.
21
“The list, which could be extended and nauseam, involves in every case a
theory that was once successful and well confirmed, but which contained
central terms that (we now believe) were nonreferring” (Laudan, op. cit. [1981]
1984: 231; version original).
22
Considérese, a modo de ejemplo, la predicción de la existencia y posición
de Neptuno por la mecánica newtoniana; realizada como explicación potencial
de las desviaciones de la órbita de Urano.
23
“A viable anti-realist argument can only be based on cases in which wrong
aspects of wrong theories are responsible for strong predictive success of these
theories” (Carrier, 1991: 29; version original).
24
“The Miracle Argument does not show what it is intended to show. It is safe
to conclude that strong predictive success may well go along with lack of
reference of the central terms employed. Reference is not necessary for strong
success” (ibid.: 32; version original).
25
“It is caracteristic of this view to hold that what objets does the world
consist of? is a question that it only make sense to ask within a theory of
descripton. Many "internalist" Philosophers, thought not all, hold further that
there is more than one "true" theoy or description of the world. "Truth" in an
internalist view, is some sort of (idealized) rational acceptability -some sort of
ideal coherence of our beliefs with each other and with our experiences as
those experiences are themselves represented in our belief system- and not

65
correspondence with mind-independent or discourse-independent "states of
affairs". There is no God´s eye point of view that we can know or usefully
imagine” (Putnam, 1981: 49-50; version original).
26
“The mind and the world jointly make up the mind and the world” (Putnam,
1981: 11 [prefacio]; versión original).
27
Objects´ do not exist independently of conceptual schemes. We cut up the
world into objects when we introduce one or another scheme of description”
(ibid.: 52; version original).
28
“The history of map-making illustrates the modest realism with which I
began. […] We make these judgments without believing that any of the maps
ever produced is completely accurate, even while admitting the possibility that
earlier maps might occasionally deliver a more accurate representation of some
local features, and that the kind of convergence we appreciate visually need not
be monotonic” (Kitcher 2001b: 55, versión original).
29
Este es el punto de partida del “constructivismo radical”, desarrollado (a
partir de las ideas de Giambattista Vico) por Heinz Von Foerster, Ernst von
Glasersfeld y Paul Watzlawick; y retomado por algunos como Niklas Luhmann,
Gregory Bateson, Humberto Maturana, Francisco Varela y Edgard Morin (cf.,
por ejemplo, Watzlawick et. al., [1981] 2005).

66
CAPITULO 2 - PARTE B

PROBLEMAS ONTOLÓGICOS Y EPISTEMOLÓGICOS EN LA


ENSEÑANZA DE LA METODOLOGÍA:
DE MÁQUINAS Y HOLOGRAMAS

Luciano Centineo Aracil

Somos lo que pensamos.


Todo lo que somos surge con nuestros pensamientos.
Con nuestros pensamientos hacemos el mundo.
Buda, Dhammapada

El presente capitulo hace referencia al taller Perspectivas en Investigación y


Nuevos Paradigmas dictado como parte del programa de la materia Seminario
de Psicología Experimental. El objetivo de dicho taller fue acercar al alumno a
los supuestos onto-epistemológicos que subyacen a toda investigación
científica y, a partir de allí, alentar una lectura crítica de dichos supuestos en
las principales corrientes actuales en Psicología.
En el capitulo anterior se enfatizó sobre el debate actual entre el realismo y el
anti-realismo científico, es decir, el estatus de realidad que la ciencia le otorga
a ciertas entidades y objetos de conocimiento. Desde ya, este escrito está en
continuidad con el anterior puesto que la comprensión de los fundamentos del
realismo y del anti-realismo contribuye al logro de una lectura más profunda del
proceso de modelización en ciencia.
Sin embargo, este trabajo no debe considerarse una mera continuación, ya que
su lectura propicia a su vez un marco interpretativo que nos devuelve desde
una nuevo tipo lógico al debate inicial. Por eso, es recomendable entender la
relación entre estos dos capítulos como un proceso de aprendizaje dialógico.

67
El objetivo específico del presente capítulo es indagar sobre el proceso de
modelización del conocimiento científico, incluyendo las cosmovisiones pre-
científicas de las culturas antiguas hasta los modelos de la ciencia actual.
Es importante destacar en el presente desarrollo que se asumirá una postura
anti-evolucionista y anti-cognocéntrica. Es decir, que comenzar desde las
cosmovisiones de las culturas primitivas para pasar luego a la descripción de
los modelos científicos actuales no responde en absoluto a un principio
evolucionista, en el sentido de la tesis lamarckiana de un desarrollo de lo
simple a lo complejo.
Asimismo, tampoco existe un supuesto cognocéntrico que sostenga ciertas
formas de conocimiento por sobre otras. Afirmar actualmente por una
supremacía de la ciencia en relación a otras vías cognoscitivas como el ritual,
la magia o la espiritualidad, parece hoy difícil de sostener.
Es innegable que el valor del conocimiento es siempre contextual y por ende,
funcional. Es decir, que la valoración y sentido que adopta en su saber-hacer
no puede pretender traspasar los límites de su surgimiento y aplicación, y
menos aún, si su interés es asimilar a su corporalidad la arquitectura de lo
ajeno. Tal como sostiene Morin (1999):

El conocimiento de las informaciones o elementos aislados es insuficiente. Hay


que ubicar a las informaciones y los elementos en su contexto para que adquieran
sentido. Para tener sentido la palabra necesita del texto que es su propio contexto
y el texto necesita del contexto donde se enuncia. (p. 15).

Actualmente se reconoce que las culturas del clásico y el postclásico de la


macro-área arqueológica mesoamericana, con su máximos representantes en
la cultura Maya y Azteca, un alto conocimiento de tipo médico, matemático,
botánico y astronómico. Así se ejemplifica en la creación de un calendario
basado en 365 días, la noción del número cero, y las intervenciones quirúrgicas
craneales evidenciadas en el registro arqueológico de dichas aéreas.
Por lo tanto, es importante resaltar que esforzarse por mantener intacto el
cinturón protector de la ciencia, con el argumento de que ella posee un grado
mayor de validez que el conocimiento práctico de los pueblos originarios,
implica la idea de que la ciencia tiende a la verdad. Esto mismo ha sido

68
ampliamente refutado. La distinción práctico vs científico nos devuelve al
argumento contextual y funcional del conocimiento. La frecuencia con que
suele encontrarse que muchos de los “altos logros” adjudicados a la ciencia no
son más que redescubrimientos de nociones descriptas hace miles de años en
la oralidad primitiva y grandes volúmenes de los antiguos textos tradicionales y
sagrados, es llamativa. Por ejemplo, Capra (2006) traza un desconcertante
paralelismo entre la física cuántica y las expresiones de las principales
tradiciones espirituales de oriente, tales como el Budismo o el Hinduismo.
Afirmamos que el conocimiento debe ser comprendido en su propio contexto ya
que responde a ciertos principios supra-lógicos (paradigmas) que lo guían,
modela y estructura, desde los cuales se interpretan y se configura la realidad.
La mejor manera de comprender la historia del conocimiento humano (lo que
engloba el conocimiento científico) es explicitando los modelos con los cuales
se interpreta la realidad. A su vez, explicitar que se entiende por realidad nos
remite a la lógica del aprendizaje dialógico dicho anteriormente.
Es importante resaltar que cada uno de estos modelos se apoya en una
cosmovisión particular y no son ajenos a las condiciones socio-culturales
específicas que le dieron origen (el plano micro-contextual de la construcción
del conocimiento).
Siguiendo la lógica de que el conocimiento depende a nivel macro-contextual
de una cosmovisión y micro-contextual de las condiciones socio-culturales se
puede afirmar que existen dos grandes sistemas de pensamiento en la historia
del conocimiento humano, que a fines descriptivos se designan como meta-
cosmovisiones (el prefijo meta hace referencia a que va más allá o que esta
sobre) a saber: el sistema oriental y occidental.
Se entiende una cosmovisión como el conjunto de creencias culturales y
psicológicas de los miembros de una cultura en particular (Sapir 1929, en
Barfield, 2000). Los mundos en los que viven sociedades diferentes son
mundos diferentes y no simplemente los mismos mundos con nombres
diferentes.
En síntesis, en este capítulo se hace referencia al conocimiento, sea científico
o de otra índole, como una lógica argumentativa y conceptual (una ficción) que

69
debe su sentido a tres niveles de organización: La metacosmovision (sistema
oriental-occidental), la cosmovisión (cultura) y las condiciones socio-históricas.
El gran problema de la ciencia actual es que se basan en una meta-
cosmovisión occidental y con esto han construido un gran muro divisorio con el
pensamiento oriental. Para aclarar la relación de los niveles del conocimiento y
la supremacía del sistema occidental en el conocimiento científico es menester
hacer un breve recorrido por la historia de las ciencias astronómicas: Cuando
se indaga sobre la génesis de dicha disciplina se menciona como punto de
partida a los pluralistas (como Empédocles o Jenafones) y monistas (como
Tales de Mileto, Heráclito y Anaximandro) griegos del siglo VI como los
responsables del despertar de la ciencia. Luego se recorre un amplio camino
por las revoluciones en la Europa medieval hasta nuestros días. Nunca o casi
nunca se hace mención a los altos desarrollos de los egipcios, babilonios,
chinos, sumerios o las increíbles percepciones celestiales de los mayas,
aztecas e incas. Por fortuna, actualmente se están desarrollando modelos
integradores en distintas disciplinas -que se describirán más adelante- donde
se articulan en un mismo campo, el pensamiento oriental y occidental, la
sabiduría antigua y la ciencia moderna, la ciencia y el misticismo.
Como se mencionó anteriormente, en este capítulo realizará un recorrido por
los principales modelos del conocimiento humano, desde las concepciones
animistas registradas en las primeras manifestaciones artísticas del paleolítico
europeo, siguiendo por el paso a las primeras sociedades organizadas y las
grandes revoluciones científicas hasta concluir con los modelos holísticos
actuales. Se trazara un camino desde las imágenes de Dios como centro del
universo a los grandes mecanismos de relojería y, posteriormente, hasta más
allá del Gran Holograma.

La Naturaleza de los modelos

Walsh & Vaughan (2006, p.16) sostienen que “los modelos son
representaciones simbólicas que describen los principales rasgos o

70
dimensiones de los fenómenos que representan”, lo que permite la reducción
de un fenómeno complejo en una entidad más simple. En otras palabras, un
modelo permite la reducción de un objeto e sus partes constituyentes, lo que
facilita de algún modo el análisis del mismo.
Sin embargo, dicha acción implica necesariamente la perdida de la unidad
original, la organización y la estructura del objeto, es decir lo que lo define
como tal. Imaginemos que para estudiar las propiedades del agua, aislamos los
átomos de hidrogeno y el átomo de oxígeno. Naturalmente, esta disyunción
elimina las propiedades de la molécula del agua, ya que en términos
sistémicos, la acción de reducir implica la eliminación de las propiedades
emergentes que representan al sistema. Esto representa un importante
problema para aquellas disciplinas que tratan con fenómenos complejos como
la Psicología. Otro grave problema que se comete a la hora de utilizar un
modelo, según estos autores, es que la mayoría de ellos son inconscientes. De
esta manera, cuando estos están implícitos, se dan por supuesto o se aceptan
sin cuestionarlos. En estos casos, los modelos llegan a funcionar como
organizadores de la experiencia que modifican la percepción, sugieren ámbitos
de investigación, le dan forma y determinan la interpretación de los datos y
experiencias, de modo tal que se vayan obteniendo los resultados que ellos
mismos profetizan. Por lo tanto los modelos se autovalidan. Sheldrake (1995)
manifiesta que la mayoría de los experimentos en ciencia arrojaban los
resultados que ellos mismos esperaban encontrar.
Este tema es de suma importancia porque la psicología como cualquier otra
disciplina opera como modelos. La diversidad de las corrientes actuales en
Psicología tiende a interpretar el alma, el psiquismo, la conducta, el sistema de
valores o la inteligencia desde su propio marco. Eso no sería inconveniente si
no fuera porque, la mayoría de las veces, cada tradición disciplinar pretende,
ya sea implícita o explícitamente invalidar el conocimiento alcanzado por otra
dentro de una misma área temática.
Sorprendentemente, este fenómeno es más común en esta disciplina de lo que
uno está dispuesto a aceptar, como lo demuestran las grandes rivalidades en al
campo de la psicopatología: mientras el psicoanálisis emprende una

71
explicación desde el punto de vista afectivo en relación a los inicios del
desarrollo del sujeto, las neurociencias perciben el desequilibrio a nivel de la
sinapsis, producida por una deficiente re-captación de macromoléculas que
funcionan como neurotransmisor. Asimismo, la psicoterapia sistémica se
centrara en los patrones de comunicación de la familia y los mecanismos de
control a la desviación de la estructura familiar.
Naturalmente, este ejemplo pone de manifiesto la necesidad imperiosa de un
nuevo modelo del psiquismo que integre las diferentes perspectivas a fin de
alcanzar la trascendencia de dicotomías de la ciencia moderna que no hacen
más que obstaculizar la comprensión de los fenómenos psíquicos.
En respuesta a esta necesidad, el psicólogo norteamericano Wilber (2007) ha
creado un marco conceptual donde se integran las principales corrientes de la
psicología occidental y las tradiciones espirituales de oriente, al que denominó
el espectro de la conciencia. La idea de espectro sugiere que la conciencia
tiene diferentes niveles de identificación desde el nivel más bajo o de
identificación más estrecha (nivel de la persona) hasta los niveles donde la
conciencia se identifica con todo el universo (conciencia de unidad). En dicho
espectro cada corriente psicológica es indicada para tratar ciertos conflictos
específicos de un nivel de conciencia. Dentro de este modelo encontramos a
las terapias del ego, del nivel existencial, de la banda bio-social, del nivel
transpersonal y de la mente. En resumen el modelo de Wilber es un a primera
aproximación a la intención de la psicología por trascender el saber paralizado-
paralizante del cientificismo moderno. Sin embargo, es conveniente resaltar
que este intento de trascendencia conceptual de la llamada psicología integral
forma parte de un amplio desarrollo que se está gestando desde la llamada
segunda gran revolución científica y promete completarse en el nacimiento de
un nuevo paradigma.
Teniendo en cuenta estos argumentos se intentara a lo largo de este capítulo
indagar la naturaleza de los principales modelos de la ciencia y sus aportes al
desarrollo de la psicología como campo científico.

72
El modelo orgánico

La visión orgánica del mundo se extiende hasta el siglo XVI y funde sus
raíces en el preludio de la historia humana. Desde el paleolítico europeo, hace
cerca de 100.000 años, hasta la edad media se consideraba que el universo
era sagrado y por lo tanto nuestro planeta también lo era. Para las culturas
primitivas la tierra era un ser viviente, la madre tierra. Lo mismo sucedía con la
naturaleza. Las palabras mismas correspondientes a “naturaleza” en los
idiomas europeos son femeninas: phusis en griego, natura en latín, la nature,
en francés. (Sheldrake, 1994). Todos estos aspectos femeninos corresponden
a la personificación de la madre naturaleza. La imagen de la tierra y de la
naturaleza como algo vivo y representado como una madre es común a todas
las culturas antiguas.
Sheldrake (1994) presenta un ejemplo en que un norteamericano nativo, jefe
de la tribu Wanapum, explica el hecho del porque se negara a labrar la tierra:

¿He de tomar un cuchillo para rasgar el seno de mi madre? Entonces cuando yo


muera, ella no me acogerá en su seno para descansar? Me pides que excave en
busca de piedras. ¿A caso la abriré la piel para sacarle los huesos? Entonces
cuando muera, no podre entrar en su cuerpo para nacer de nuevo. Tú me pides
que corte la tierra como forraje y la venda, para ser rico como los hombres
blancos. Pero, ¿Cómo osare cortar el cabello de mi madre? (p.7).

En la visión orgánica del mundo la madre tierra era dadora y receptora de vida.
Por un lado las semillas germinaban en la tierra y crecían las plantas y por otro
lado los muertos se enterraban por lo cual la vida retornaba a su origen. Desde
el paleolítico europeo se hallan evidencias de entierros de homo sapiens
arcaico asociado a un ajuar funerario. Asimismo, los pintorescos geoglifos de
las cuevas de Lascaux (Francia) y Altamira (España) son probablemente una
de las primeras evidencias de la actividad ritual relacionada con la madre tierra,
lo que demuestra la gran antigüedad de estas actividades.
A su vez la tierra era concebida como la tierra dadora de vida, a través de las
plantas:

73
Dios dijo: Produzca la tierra hierba verde, hierba que de semilla. Árbol de fruto que
dé frutos según su género, que su semilla este en el.Sobre la tierra, y así fue.
Produjo pues la tierra. (Génesis 1: 11-12, en Sheldrake, 1998).

En la visión orgánica del mundo, la tierra y el universo eran sagrados; y en él,


el hombre estaba interconectado, como hijo de la gran madre, con el cosmos
vivo. La mayoría de los mitos de origen de las culturas antiguas hacen
referencia a los hombres como hijos del cielo o del universo. Esta relación
intrínseca fue la base para un sistema de valores sostenido en el respeto, la
reciprocidad y el equilibrio con la naturaleza. Los sistemas de subsistencia de
estas culturas estaban en íntimo equilibrio con los recursos naturales, se
respetaba las épocas de caza y recolección y se evitaba la sobrexplotación.
En la cultura esquimal de la zona de Groelandia y Alaska, por ejemplo, la caza
de verano era diferente a la caza del invierno. En verano se cazaba el Caribú y
en invierno se centraban más en mamíferos marinos y otros animales. Era muy
común observar que un esquimal rogaba y pedía perdón a la tierra y al animal
luego de la caza, y sobre todo cuando correspondía a una presa de otra
estación. Este ejemplo, nos lleva a considerar la intima relación entre los seres
humanos y la naturaleza, algo que se fue perdiendo a lo largo de la historia de
la humanidad y sobre todo a raíz de la gran revolución mecanicista.
Para este modelo el tiempo no era lineal e irreversible como lo entendemos
actualmente, sino cíclico, interno al universo, dependiente de las estaciones y
de los ciclos solares. Nuevamente, los calendarios mayas y aztecas son un
ejemplo de ello.
La visión de mundo basada en un modelo orgánico pre-científico fue dando
paso al pensamiento científico basado principalmente en dos fuentes históricas:
la doctrina aristotélica y el la teología cristiana basada en la biblia (Capra,
1998). Aristóteles (384-322 A.C.) tenía un modelo del universo basado en un
cosmos infinito tanto en tiempo como en el espacio. Este universo estaba
constituido a partir de cuatro elementos que ya habían sido postulados por
Empedocles y agrego una sustancia fundamental denominada Éter (Gangui,
2005). El cosmos aristotélico se dividía en dos grandes regiones “sublunar” y
“supralunar”, mientras la teología cristiana describía un mundo sostenido y
mantenido por Dios. Si bien ambas concepciones suponían un Dios creador, el

74
pensamiento fue considerado largamente como hereje, hasta que Santo Tomas
de Aquino en el siglo XIII articuló la doctrina aristotélica de la naturaleza y la
teología del cristianismo, estableciendo una estructura conceptual que no fue
cuestionada a lo largo de toda la edad media.(Capra, 1998). Esta visión del
mundo perduró hasta el siglo XVI y XVII. Entre el 1500 y el 1700 se produjo un
cambio radical en la manera de ver el mundo y se sentaron las bases para el
nuevo paradigma que se instalara en el conocimiento científico hasta nuestros
días. Este cambio fue producto de la reforma protestante de la mano de Lutero
y de las grandes revoluciones sobre todo en la física y en la astronomía.

En los siglos XVI y XVII los conceptos medievales sufrieron un cambio radical. La
visión del universo como algo orgánico, vivo y espiritual fue reemplazada por la
concepción similar a una maquina; la máquina del mundo se volvió la metáfora
dominante de la era moderna. (Capra, 1998, p.27)

El modelo mecanicista

Durante los siglos XVI y XVII la visión medieval del mundo, basada en la
filosofía aristotélica y en la teología cristiana, fue modificada radicalmente,
como resultado de ciertos cambios que se dieron en la física, la biología; etapa
denominada de la Primer Revolución Científica. Esta se asoció a nombres tales
como Copérnico, Galileo, Descartes, Bacon y Newton (Capra, 1999).
El astrónomo polaco Nicolás Copérnico (1473-1543) desplazó definitivamente
del modelo astronómico a la tierra como planeta central y construyó una teoría
heliocéntrica, basado en un sistema simple y armónico de órbitas circulares.
(Gangui, 2005). Desde los monistas griegos (siglo VI A.C.) la tierra tenía una
forma cilíndrica y era el centro del universo. Más tarde, Ptolomeo también
consideró un modelo geocéntrico basado en deferentes y epiciclos. Por ende
las ideas de Copérnico generaron una verdadera revolución cosmológica que
se continuaron con los trabajos de Galileo.
Galileo Galilei nació en el año 1564 en Pisa (Italia) y fue un gran matemático,
filósofo y físico que contribuyó significativamente al modelo copernicano y al
descubrimiento del movimiento. Además, fue quien inventó el telescopio y con

75
esto, acentuó la medición en el ámbito científico (Wilber, 1999). A partir de allí,
la ciencia iba a ocuparse de aquellos fenómenos que podían ser medibles y
cuantificables, lo que excluyó definitivamente la cualidad del ámbito científico.
Así lo describe el psiquiatra Laing:

El programa de Galileo nos ofrece un mundo muerto: fuera quedan la vista, el sonido, el
gusto, el tacto y el olor y con ellos desaparecen la sensibilidad estética y la ética, los
valores, las cualidades, el alma, la consciencia y el espíritu. La experiencia como tal
queda excluida del reino del discurso científico. Probablemente nada haya cambiado
tanto nuestro mundo en los últimos cuatrocientos años como el ambicioso programa de
Galileo. Teníamos que destruir el mundo primero en teoría, para poder hacerlo después
en la práctica. (en Capra 1988, p.133).

Por su parte, el filósofo francés René Descartes (1596 –1650) elaboró el


método de pensamiento analítico, basado en reducir los fenómenos complejos
en unidades más pequeñas, analizar cada una de ellas y finalmente
recomponer el fenómeno estudiado (Descartes, 2012). Fue la lógica cartesiana
quien contribuyó al dualismo actual entre la mente y el cuerpo. Descartes
basaba toda su visión de la naturaleza en esta división fundamental existente
entre dos campos separados e independientes: el del pensamiento o res
cogitans o sustancia pensante, y el de la materia o res extensa, la substancia
externa. Capra (1998) describe la visión del pensamiento cartesiano y de la
ciencia posterior:

Según Descartes el universo material era una maquina y solo una maquina. En la
materia no había ni vida, ni metas, ni espiritualidad. La naturaleza funcionaba de acuerdo
con unas leyes mecánicas, y todas las cosas del mundo material podían explicarse en
términos de la disposición y del movimiento de sus partes. Esta imagen mecanicista de
la naturaleza fue el paradigma que dominó la ciencia después de Descartes, marcando
las pautas de las investigaciones científicas y sugiriendo la formulación de todas las
teorías sobre los fenómenos naturales hasta que la física del siglo XX efectuó un cambio
radical. Toda la elaboración de la ciencia mecanicista que tuvo lugar entre el siglo XVII y
XIX -incluida la grandiosa síntesis cartesiana- fue solo una evolución de la ciencia
cartesiana. Descartes dio una estructura general al pensamiento científico con su visión
de la naturaleza como una máquina perfecta regida por leyes matemáticas exactas.
(p.:63)

De alguna manera, la ciencia del siglo XVII se basaba en un nuevo método de


investigación que incluía dos postulados: la descripción matemática de la
naturaleza y el método analítico postulado por Descartes.

76
Este método fue profundamente defendido por el filósofo ingles Francis Bacon
(1561-1626). Bacón fue considerado el padre del empirismo y cambió
profundamente el objetivo del conocimiento científico: En la antigüedad, el
hombre buscaba el conocimiento para “gloria de Dios”, para seguir el “orden
natural” o “confluir en la corriente del Tao”. Con Bacon la ciencia comenzó a
tener como fin un tipo de conocimiento que permitiera dominar y controlar la
naturaleza (Capra, 1998). Su concepción desplazó el lugar sagrado de la tierra
y de la naturaleza. La armonía original entre el hombre y la Gran madre se
había quebrado, dejando a esta última como un gran almacén de recursos
inagotables y al servicio de quien tuviera el acceso a los mismos.
Los espíritus que habitaban los bosques resultaron ser meras construcciones
mentales producto de la nostalgia de viejos románticos que todavía se resistían
al poder de las maquinas futuristas. Con los principios de Newton (1642-1727)
quedaron establecidas finalmente las bases del pensamiento mecanicista del
universo.

De las partes al todo: un recorrido hacia la integración

El pensamiento analítico, típico del paradigma mecanicista, fue dando paso


a una visión enmarcada en el todo y no en sus partes. Esta transición fue
gestándose desde varias disciplinas, entre las que resaltan la cibernética, la
teoría de sistemas, la ecología, la física y la psicología de la gestalt.
La cibernética nació en la década del 50 como una disciplina que se ocupaba
de los procesos de comunicación y control de los sistemas naturales y
artificiales Nutriéndose en los desarrollos de la nueva física, la cibernética
apareció en los albores de la ingeniería de la comunicación y la computación
como un esfuerzo que tendía a establecer los principios generales de la
regulación de todo tipo. Esta perspectiva se centró sobre los procesos de
corrección de la desviación y retroalimentación negativa (feedback), poniendo
en evidencia cómo los sistemas corrigen su funcionamiento para alcanzar un
objetivo. Más tarde, el énfasis fue puesto en las desviaciones y

77
retroalimentaciones positivas o amplificadoras, proceso por lo cual un sistema
es llevado a tomar un nuevo tipo de organización. Un ejemplo es la idea de
orden a través de las fluctuaciones de Prigogine & Stenger (1994). Todos los
sistemas tienden a reducir la desviaciones mediante los mecanismos de
homeostasis; sin embargo, si estas desviaciones se mantienen por un largo
tiempo o se intensifican generan una bifurcación del sistema y este adquiere un
nuevo equilibro. Este mecanismo de morfogénesis explica la evolución del
sistema. Estos aportes llevaron a la configuración de la cibernética de segundo
orden o cibernética del observador donde se manifiesta que el observador es
parte del sistema observacional, afectando por lo tanto, el fenómeno
observado. De ahí que toda descripción acerca de las observaciones y modelo
es necesariamente una descripción acerca de quien genera esa descripción
(Lahitte & Sánchez Vazquez, 2013).
La teoría general de sistemas, propuesta por Bertalanffy (1976) también
supuso un paso del énfasis de las partes al todo. Esta teoría supone que un
sistema, un conjunto de elementos interrelacionados, tiene características que
no pueden reducirse a la suma de las características de cada uno de esos
elementos, sus propiedades emergentes. Esto es importante porque asume
que para comprender las propiedades de un sistema es necesario hacer
hincapié en las relaciones y no en los elementos del mismo. Esto es un
concepto fundamental para la biológica y para las ciencias sociales ya que
predice que tanto una comunidad de organismo como un grupo social tiene
propiedades no reductibles a los organismos individuales o a las personas que
lo conforman. Tanto la comunidad de organismos como un grupo social forman
parte, a su vez, de sistemas mayores, como podrían ser grupos más grandes,
tales como especies, poblaciones o sociedades. Este principio es el
fundamento de la ecología.
Existen sistemas abiertos, semi-abiertos y cerrados. Los primeros intercambian
materia y energía con su entorno, como por ejemplo el planeta tierra. En el otro
extremo están los sistemas cerrados donde no existe ningún tipo de
intercambio con el entorno, como puede ser un cristal.

78
La Psicología de la Gestalt también llevó la teoría de sistemas al campo de la
percepción. Esta teoría afirma que existen principios irreductibles (sistemas) en
el campo visual.
Por último, la física fue uno de los campos que más afectó al paradigma
mecanicista, a partir de los desarrollos de la nueva física o la física cuántica.
Entre los aportes más sobresalientes, se sostiene que el universo no está
constituido en su mayor parte de vacío, como expresaba el modelo newtoniano,
sino que ese vacío es en realidad energía. Por otro lado, la física cuántica se
concentró en niveles subatómicos y estableció que los átomos no son la base
de la materia -como se sostenía desde la antigua Grecia-, sino que existen
partículas cada vez más elementales que se comportan de manera dual. Estas
partículas pueden comportarse como partículas propiamente dichas o como
ondas, y esto según el momento en que realicemos la observación. Estos dos
estados suponen cualidades diferentes. Por un lado, las partículas pueden
describirse como objetos sólidos, separados, que pueden ser ubicados en el
espacio. Pero por otro lado, cuando su comportamiento es ondulatorio ya no
puede ser descripto como un objeto y, por lo tanto, ya no tiene una ubicación
espacial. Este último comportamiento es similar a las ondas de un estanque
cuando es arrojada una piedra.
Otra característica de la dinámica subatómica representada por la física
cuántica es que los electrones que giran alrededor de un átomo, según el
modelo de Le Blogie (Rosenblum & Kuttner, 2012), saltan de una órbita a otra
de una manera instantánea, es decir que desaparecen de una órbita y
aparecen en otra sin describir un recorrido, dejando fuera toda predicción de su
destino final. Esto es lo que se conoce como “salto cuántico”.
Otro de los celebres descubrimientos de la física cuántica es el principio de
incertidumbre de Heinserberg (Rosenblum & Kuttner, 2012), que supone que
los atributos de un objeto o una partícula como posición y velocidad no pueden
ser medidos con total precisión a nivel subatómico. Cuando sabemos la
ubicación de una partícula no podemos medir su velocidad y cuando
reconocemos su velocidad no podemos saber la ubicación de la partícula. Por
último, es importante resaltar el principio de no-localidad o teorema de Bell

79
(Rosenblum & Kuttner, 2012), el que establece que las partículas subatómicas
están vinculadas a mas allá del espacio y del tiempo.
Como se desarrolló a lo largo de este apartado, la cibernética, la teoría de
sistemas, la ecología, la física y la Psicología de la Gestalt produjeron una
verdadera revolución en la ciencia, donde la atención había pasado de las
partes al todo, es decir que la ciencia empezaba a dar cuenta de las relaciones
como una propiedad común a la naturaleza y al universo.

El universo como fuente de información: Hacia una teoría


unificada

Actualmente, los avances en el campo de de la física, la biología y los


estudios actuales de la conciencia han llevado a una reconfiguración radical de
nuestro modelo del universo. Un modelo que trasciende las viejas dicotomías
clásicas, logrando una legitima articulación entre el pensamiento oriental y
occidental, entre la ciencia y las doctrinas espirituales del misticismo. Se trata
de establecer una teoría de campo unificado. Parafraseando el libro de Cyrulnik
(2002), estas tres disciplinas especialmente han contribuido a un nuevo
encantamiento del mundo que, a pesar de las distinciones típicas del quehacer
de cada una de ellas, tienden en última instancia a considerar al universo como
un campo de información.
En la física clásica, el universo es explicado por la ley de gravitación universal,
bajo la esfera de los postulados de Newton. Sus principia, ley de la inercia, la
ley de la interacción y la fuerza y la ley de acción-reacción, pueden explicar la
mayoría de los fenómenos de la dinámica celestial. Por lo tanto, para el
paradigma mecanicista el universo, simula una gran mesa de billar o un
perfecto mecanismo de relojería, donde todo puede explicarse en términos de
fuerzas y choques. El azar, el indeterminismo y la incertidumbre quedan fuera
del ámbito explicativo. Cualquier fenómeno puede explicarse dentro de las
coordenadas cartesianas: Todo acontecer se desarrolla en un espacio y un
tiempo. Un fenómeno que no trascienda estas coordenadas y por lo tanto fuera

80
del cálculo de la medición no es considerado como un hecho científico. Otra
cualidad de este modelo es que el tiempo el irreversible, que todo fenómeno
tiene un tiempo de inicio (t0) y un tiempo final (t1). Dentro de este sistema de
pensamiento, se propuso que el universo está regido por un principio llamado
Big Bang o gran explosión y un final que depende de ciertas variables: si la
fuerza de la gran explosión es menor a la fuerza de gravedad de la materia, el
universo continuará infinitamente en expansión. Por el contrario, si la fuerza de
la explosión inicial es menor que la fuerza de gravedad de la materia, se
llegaría a un estado final de implosión o Big Crunch. Una última alternativa
sostiene que esas fuerzas pueden equipararse y se llegaría a un equilibrio
irreversible. Uno de los grandes interrogantes de la teoría del Big Bang es que
no conlleva una explicación del inicio del universo. Esta teoría lleva el supuesto
de que el universo debe tener un principio o T0, pero no puede explicar el
mismo: Sin embargo se sostiene que el Big Bang representa el inicio del
universo a partir de la nada hace unos 12-15 billones de años, pero nada nos
dice como puede crearse semejante sistema a partir de la nada misma.
¿Dónde estaban las leyes del universo antes de formarse? Según algunos
astrónomos y cosmólogos estamos aún muy lejos de tener la respuesta.
La teoría de la relatividad y la física representaron un gran cuestionamiento a la
física newtoniana al demostrar que los principios de Newton no pueden
aplicarse al campo subatómico. Las partículas subatómicas no responden a
una lógica newtoniana y manifiestan un comportamiento extraño y en muchos
casos paradójico. La física cuántica puso en evidencia que el universo no era
esencialmente vacío como se pensaba sino que ese vacío paradójicamente
son grandes cúmulos de energía. Asimismo, la teoría corpuscular supuso que
la energía no es una fuerza continua sino que se almacenan en unos paquetes
llamado cuantos. Otra cuestión importante de la física cuántica es que no solo
las partículas de luz pueden adoptar una forma ondulatoria o corpuscular
dependiendo del observador, sino que la existencia misma de las partículas
depende de quien ejerza la medición. Es decir que la existencia misma es una
probabilidad. Por otro lado, se demostró mediante el principio de no-localidad
que las partículas subatómicas tienen información entre ellas aún estando muy

81
alejadas. Estas consideraciones llevaron a suponer a algunos físicos que para
explicar la física deben admitir como principio explicativo a la conciencia
(Rosenblum & Kuttner, 2012).
Bohm, uno de los colaboradores de Albert Einstein, propuso dos niveles del
universo: un universo implicado y un universo explicado (Bohm, 2008). El
universo explicado es el captado por nuestros sentidos y por la ciencia, por lo
tanto es una ilusión: en este universo las partículas son materiales y entidades
individuales. Por su parte, el universo implicado es el nivel más profundo de la
realidad; es un super-holograma: la matriz de donde sale toda nuestra realidad,
donde coexisten el presente, el pasado y el futuro.
El filósofo de la ciencia Laszlo (2007), sostiene que el modelo actual del
universo es reducido y plantea un sistema teórico basado en una teoría integral
del todo. Laszlo propone que la realidad primera es el vacío cuántico, la
energía y la información que subyace en nuestro universo, y en todos los
universos del metaverso. Para este autor, la sustancia del cosmos es un campo
denominado akáshico, compuesto por vacío cuántico, el campo de energía y
soporte de información que no solo provee información acerca del universo
actual, sino de todos los universos pasados y presentes: la suma de todos los
universos es el metaverso
En el ámbito de la biología, marcado por el desarrollo del pensamiento
evolucionista -sobre todo a partir de la publicación del Origen de las especies
(Darwin, 1859), la formulación de la teoría celular, los principios de la
embriología, el ascenso de la microbiología y el descubrimiento de las leyes
genéticas de la herencia habían desembocado en un retorno al reduccionismo
típico del pensamiento mecanicista. Los organismos pasaron a ser explicados
desde los mecanismos físico-químicos a nivel celular incluso a nivel molecular,
de en vez de pensar el términos de totalidades auto-organizadas. El programa
genético era necesario y suficiente para pensar la morfogénesis en
embriología, la teoría microbiana explicaba perfectamente bien el origen de las
enfermedades y la neurofisiología se encargaba de reducción los conflictos
mentales a las conexiones neuronales.

82
Sin embargo, actualmente se están desarrollando programas de investigación
que, siguiendo la metáfora de Briggs & Peat (1989), pasaron “a través del
maravilloso espejo del universo” y construyeron modelos explicativos más
coherentes con la física cuántica y la biología de sistemas o postgenómica.
A raíz de la publicación de Darwin los grandes modelos en biología
comenzaron a dejar atrás el supuesto de que las especies eran fijas en la
naturaleza y que eran producto de la generación espontanea. La obra
darwiniana marcó un hito en la historia de la biología al dar a conocer los
mecanismos de la evolución, que permitía explicar el desarrollo y la variabilidad
actual de las especies. Los puntos centrales de la teoría era la variabilidad de
los seres vivos, la lucha por la existencia y la supervivencia del más apto
(selección natural) (Dobzhansky, 1980).
Más tarde, los grandes avances en la genética llevaron a comprender cuáles
eran realmente los componentes heredables de los organismos. Nació así la
teoría sintética de la evolucion, donde las mutaciones cromosómicas son las
causantes de la variabilidad biológica, lugar donde actúa el mecanismo de
selección natural. La teoría sintética de la evolución o neodarwinismo explicita
otros mecanismos evolutivos además de la selección natural y las mutaciones:
la recombinación génica, el asilamiento reproductivo y cambios en la estructura
y número de cromosomas (Curtis, 2006). A nivel del organismo los desarrollos
de la genética llevaron a plantear el determinismo desde los genes al fenotipo.
El programa genético considera que los genes determinan la morfogénesis del
organismo (Sheldrake, 1990).
Sin embargo, actualmente la evolucion y el desarrollo de los organismos ya no
pueden entenderse de manera que los genes determinen el resultado final, si
no que la evolucion opera en cuatro niveles conjuntamente, el nivel genético, el
nivel epigenetico, el nivel conductual y el nivel cultural (Jablonka & Lamb,
2013).
Una visión totalmente diferente a la teoría evolutiva ortodoxa, es la del biólogo
inglés Sheldrake. Su planteo inicial se basa en que no existen leyes en el
universo, tales como la teoría de la evolución, sino que la naturaleza evoluciona

83
a partir de hábitos cada vez más frecuentes a tal punto de parecer una ley
(Sheldrake, 2011).
Para Sheldrake, un nuevo patrón de conducta se va haciendo cada vez más
habitual por resonancia mórfica con otro su mismo campo en el pasado y con
otros campos similares. Los campos mórficos son totalidades organizadas, con
estructura de probabilidad que contiene memoria incorporada dada por
autoresonancia con el pasado de una unidad mórfica y por la resonancia
mórfica de los sistemas similares previos (Sheldrake, 1994). Se considera que
cada campo mórfico contiene a otros campos de nivel inferior; por ejemplo, el
campo mórfico del agua contiene los campos del hidrogeno y del oxigeno. De
manera tal que existen campos minerales, vegetales, animales, humanos,
mentales, culturales, a nivel de la biosfera, mundiales y universales. La teoría
de la resonancia mórfica supone que el universo funciona como un gran campo
de información que contiene, a su vez, numerosos campos de nivel inferior.
Gran parte de la historia de la psicología está enmarcada en el paradigma
mecanicista, por lo que Capra (1998) la denominó la Psicología newtoniana.
Muchas corrientes teóricas de la psicología actual han tomado su forma del
pensamiento cartesiano, no solo en su famosa dualidad mente-cuerpo sino en
su método analítico basado en la reducción del todo a las partes. Según
Descartes (2012), el cuerpo y la mente forman parte de dos campos paralelos
diferentes que pueden estudiarse con independencia uno del otro. El cuerpo
está regulado por leyes mecánicas pero la mente (o el alma) es libre e inmortal.
Los psicólogos experimentales ortodoxos del siglo XIX fueron típicos partidarios
del dualismo y trataron de establecer una clara distinción entre la mente y la
materia. En general, estas teorías reducen el fenómeno mental a determinadas
corrientes del sistema nervioso central.
El psicoanálisis freudiano también respondió al modelo cartesiano al intentar
comprender los problemas mentales desde punto de vista neuroquímico. Esto
queda claro en el ensayo Proyecto para una Psicología científica (Freud, 1950).
Capra (1998) pone en evidencia la estrecha relación entre el psicoanálisis y la
física clásica a partir de cuatro conceptos:

84
1. El concepto de tiempo y espacio absoluto, de los objetos materiales aislados
que se mueven dentro de ese espacio y que actúan recíprocamente de manera
mecánica.
2. El concepto de fuerzas fundamentales, esencialmente distintas de la materia.
3. El concepto de las leyes elementales que describen el movimiento y las
interacciones reciprocas de los objetos materiales desde el punto de vista de las
relaciones cuantitativas.
4. El concepto de un determinismo riguroso y la noción de una descripción
objetiva de la naturaleza basada en la distinción cartesiana entre la mente y la
materia. (p. 96).

Uno de los primeros en despegar la psicología del paradigma newtoniano-


cartesiano fue Carl Gustav Jung. Este psiquiatra nacido en Kesswil (Suiza) en
1875, fue hijo intelectual predilecto de Freud y candidato a quedarse con el
mando del movimiento psicoanalítico de Viena. Sin embargo, una serie de
discusiones llevaron a su alejamiento, quizá como a tantos otros que intentaron
esbozar una lectura distinta a su teoría sexual. Ese mismo destino fue el de
grandes pensadores como Erich Fromm, Alfred Adler y Otto Rank, Wilheim
Reich, entre otros.
Freud fue explicito en su lucha contra el ocultismo y la religión basando su
pensamiento en las ciencias naturales de su momento. De modo llamativo, en
una de las últimas discusiones con Jung en relación a su progresivo
distanciamiento de la etiología sexual de la neurosis, Freud fue claro en pedirle
que haga de la teoría sexual un dogma (Jung, 2002). Paradójicamente,
mostrando una posición fundamentalista, la que siempre había querido
erradicar de la ciencia.
Jung, a partir de numerosos viajes a culturas de África y América, gracias a su
lectura sobre alquimia, religión, I ching, y espiritismo, además de incursiones en
la física, en la biología y en la psiquiatría del momento, sostuvo que el
inconsciente freudiano era insuficiente para explicar ciertos acontecimientos
psíquicos. Jung (1970) propone un nuevo modelo del aparato psíquico donde el
inconsciente biográfico se sumerge en un inconsciente más vasto y profundo
común a toda la humanidad. El llamado “inconsciente colectivo”:

Las capas más profundas de la psique pierden la peculiaridad individual a mayor


profundidad y oscuridad. Se vuelven más colectivas hacia “abajo”, es decir, al
aproximarse al sistema autónomo de funcionamiento, para convertirse en universal
y diluirse al mismo tiempo en la materialidad del cuerpo, a saber, en los

85
compuestos químicos. El carbono del cuerpo es carbono en general. “En último
lugar la psique es “mundo” en general. (p.349).

El inconsciente colectivo contiene la fuente de las fuerzas psíquicas impulsoras


y de las formas o categorías que las regulan; esto es, los arquetipos: Todas las
ideas y representaciones más fuertes de la humanidad se remontan a los
arquetipos. Esto es especialmente significativo en las representaciones
religiosas (Jung, 1976) que constituyen un reservorio de información
compartido, no solo por sujetos de una misma cultura, sino de culturas que no
han tenido contacto entre sí. Los arquetipos se constituyen así en unidades de
conocimiento intuitivo que normalmente solo existen en el inconsciente
colectivo del individuo y que se manifiestan en leyendas, sueños, mitos y obras
artísticas (Centineo & Gianfrancisco, 2011).
La psicología profunda de Jung, el crecimiento de la psicología humanista y los
estudios experimentales con alucinógenos que se llevaron a cabo
principalmente en las universidades de Estados Unidos entre 1940 y 1950
llevaron a la formación de un campo nuevo de la psicología conocida como
Psicología Transpersonal a finales de la década del sesenta. Según Walsh &
Vaughan (2006):

La Psicología transpersonal se interesa por la expansión del campo de la


investigación psicológica hasta incluir los estados de salud y bienestar
psicológicos de nivel optimo. Reconoce la potencialidad de experimentar una
amplia gama de estados de conciencia, en alguno de los cuales la identidad puede
ir más allá de los límites habituales del ego y la personalidad. (p.15).

La psicología Transpersonal fue considerada la cuarta fuerza, luego de las tres


corrientes principales en psicología, el conductismo, el psicoanálisis y el
humanismo, y tuvo entre sus principales propuestas la de articular en una
teoría más vasta los grandes avances de la psicología occidental y las
tradiciones espirituales orientales.
Uno de sus grandes representantes, el psiquiatra checo Stanislav Grof,
propuso una nueva cartografía del inconsciente a raíz de sus estudios
experimentales con LSD en California y la respiración holotrópica. Grof
considera que el inconsciente tiene tres niveles (Grof, 2008). Un primer nivel,

86
que es considerado el inconsciente freudiano, constituido por conflictos no
resueltos, traumas infantiles y vivencias significativas. Un segundo nivel
constituido por las matrices perinatales, es decir por las huellas que dejaron en
el sujeto las etapas anteriores al parto biológico. Este nivel es denominado
también, inconsciente Rankiano, haciendo alusión a su teoría sobre la angustia
del nacimiento y el tema principal gira alrededor del tema de la muerte-
renacimiento. Por último, considera que el inconsciente tiene un nivel más
profundo, el llamado el nivel transpersonal, donde se almacena información
que se comparte con toda la humanidad. Es el acceso al universo arquetípico y
mitológico de las distintas culturas tanto occidentales como orientales, e incluso
a la herencia filogenética de la especie. Este último nivel es el inconsciente
junguiano.
Otros autores, como Wilber también llegaron a un modelo de la mente similar al
de Grof a partir del estudio de la psicología genética y del desarrollo en relación
a las tradiciones orientales de liberación espiritual, la denominada Psicología
Integral (Wiber, 2007).
La Psicología Transpersonal y la Psicología Integral son dos ejemplos de
disciplinas que han dejado atrás el paradigma newtoniano-cartesiano y han
estado de acuerdo con la nueva física y la biología post-genómica.

El paradigma holográfico

La holografía es un proceso fotográfico que emplea rayos de luz laser de la


misma longitud de onda para producir imágenes tridimensionales en el espacio.

Un holograma, es el registro del patrón de interferencia de las dos mitades de un


rayo laser. Luego de que un rayo de luz es dividido por un espejo parcialmente
azogado, la mitad (llamada rayo de referencia) es dirigida hacia la emulsión del
holograma; la otra mitad (denominada rayo activo) es reflejada hacia la película
desde el objeto fotografiado. La información proporcionada por esos dos rayos,
necesaria para reproducir una imagen tridimensional, es “plegada” en el
holograma de tal manera que se distribuye por todas partes. Como resultado de
ello, cuando el holograma es iluminado por el laser, se puede “desplegar” la
imagen tridimensional, completa desde cualquier fracción del holograma. Aunque
dividamos el holograma en muchos fragmentos, cada uno de ellos será capaz de
reproducir la imagen completa. (Grof, 1994, p. 20)

87
La noción de holograma resulta ser un campo fructífero para la investigación en
la física y en la neurofisiología principalmente. Para la física, configura un
nuevo modelo conceptual que contradice la visión newtoniana del mundo del
universo vacío y sujeto a leyes deterministas desde la Gran explosión. El
universo holográfico proporciona, en cambio, una imagen del cosmos como un
gran cúmulo de información y de la conciencia inherente al mismo. Tal es la
teoría de Bhom desarrollada en el apartado anterior.
En la neurología el modelo holográfico genera grandes expectativas ya que los
intentos frustrados en hallar las trazas de memoria en el cerebro han
constituido un serio revés en las teorías basadas en principios bio-moleculares
de las principales actividades del sistema nervioso central.
Desde el inicio de la neurología se ha tratado de ubicar la región encargada de
retener la información en el cerebro: las trazas de memoria. Se supone que
toda la información que ingresa a través de los sentidos es conducida por la
rama sensitiva del sistema nervioso hasta ciertas zonas del cerebro donde se
almacenan. Esto ha sido un dogma de la neurología hasta la actualidad. Sin
embargo los trabajos experimentales de Lashley (Talbot, 2007) sobre el
cerebro de ratas demostraron que llamativamente no puede establecerse una
localización de la información en el cerebro. Sus estudios se basan en la
extirpación progresiva de regiones del cerebro de los roedores para observar si
pierden ciertas pautas conductuales aprendidas con anterioridad. Su principal
hallazgo fue que a pesar de extirparse un gran porcentaje del cerebro de las
ratas, estas no pierden la información aprendida. Concluye que la información
no puede localizarse en alguna zona del cerebro y que no existen cosas tales
como las trazas de memoria.
Tales descubrimientos resultan oportunos para el desarrollo de la teoría de
Pribram (Wilber,1986) que sostiene que la información no es localizable en el
cerebro porque este último es un holograma y, por lo tanto, funciona con los
principios de la holografía. Es decir, la memoria está distribuida por todo el
cerebro y a la vez no está en ninguna parte. Cada región tiene la capacidad de
almacenar toda la información del cerebro, por lo cual se explica el proceso de

88
morfogénesis informacional a partir de un pequeño fragmento y la
extraordinaria capacidad de almacenamiento del sistema nervioso central. Esta
cuestión no puede explicarse desde el punto de vista orgánico, ya que se
considera que nuestro cerebro procesa cuatrocientos mil millones de bit de
información por segundo.
Una de las consecuencias más interesantes de esta teoría es que, al
considerar que el cerebro es un holograma, se entiende que la mente no puede
estar confinada a dicho órgano sino que el cerebro funcionaria como el receptor
de patrones de interferencia de ondas extraídas del entorno. En otras palabras,
el cerebro holográfico es una parte de un universo holográfico.
Esta idea resulta ser revolucionaria para la psicología. A ello pueden sumarse,
los aportes de la investigaciones actuales de la conciencia, la psicoterapia con
LSD, los estudios etnográficos sobre chamanismo, la psicología transpersonal,
la nueva psiquiatría y el progresivo estudio de las tradiciones espirituales
orientales. En su conjunto, se logra establecer un nuevo marco conceptual de
referencia para entender la mente, el comportamiento y las patologías
mentales. Este marco puede resumirse de la siguiente manera:
1. La mente no está en la cabeza: Este postulado sugiere que lo que
nosotros llamamos mente no es producto de un epifenómeno de los
mecanismos moleculares del cerebro, sino que este último solo
interpreta un patrón de ondas de interferencia de unidades del
información del entorno. Esto nos conduce a teorías como la de Jung,
Grof, Wilber entre otros.
2. El cerebro es un holograma que forma parte de un holograma universal:
Esto significa que la organización holográfica del universo implica que
todos los objetos y fenómenos del mismo, entre los que resaltamos el
cerebro y el psiquismo, contienen toda la información del pasado, del
presente y del futuro, ya que son una parte de ese todo holográfico.
3. El principio de no-localidad puede ser aplicado al campo de la
psicología. Fenómenos tales como las percepciones extrasensoriales o
la comunicación a distancia que fueron reservadas al campo de lo
paranormal y las pseudociencias ahora adquieren un nuevo sentido ya

89
que no es necesario explicar como un traslado de la información de un
punto a otro, sino que ambos puntos son parte de un campo que los
trasciende y le da sentido, como las conexiones no locales entre dos
electrones. Esta idea fue la que desarrollo como vimos Rupert
Sheldrake en biología.
4. El determinismo no es el único principio aplicable del psiquismo. Como
vimos anteriormente, los principios deterministas eran propios del
paradigma newtoniano cartesiano, que como se dejo claro fue
ampliamente superado. Existen los principios de relación significativa,
ya considerados desde los incipientes trabajos de Freud, pero que
ahora adquieren una nueva escala al considerarse como partes de un
principio universal. El principio de sincronicidad elaborado por Jung Y
Pauli puede ser un ejemplo.
5. Los conflictos mentales pueden originarse antes del nacimiento. El
modelo holotrópico de la mente de Grof o la teoría del inconciente
colectivo de Jung son un ejemplo de que los conflictos mentales nos
siempre se originan en la primer infancia o en las experiencias vividas
del individuo sino que pueden ser heredadas por niveles más profundos
de la mente, incluso anteriores al nacimiento.
6. El universo no puede ser explicado sin el concepto de conciencia. Como
lo demostró la física cuántica, es necesario un observador para hacer
surgir la realidad desde un mar de probabilidades de existencia, por lo
tanto en una escala mayor el universo y la conciencia son inseparables.
Estos argumentos suponen un reto a las ciencias sociales, humanas y de la
salud. Sobre todo para la Psicología ya que este nuevo modelo de la mente
exige un nuevo abordaje metodológico. Por ejemplo, el psicólogo debe
comprender los principales avances científicos sobre todo de la biología y de la
física, y no permanecer en un aislamiento teórico disciplinar.
Todos los desarrollos antes expuestos sugieren que la espiritualidad es un
fenómeno inherente al ser humano, por lo cual los aspectos relacionados a ello
no pueden ser subestimados ni reducidos a condiciones psicopatológicas del
paciente. Aquí es importante resaltar que la espiritualidad no es sinónimo de

90
religión. La religión es resultado de la organización de una institución y la
espiritualidad es entendida como la vivencia íntima de una realidad
trascendente, que puede o no ser percibida por el sujeto como ligada a una
religión particular.

Consideraciones finales

A lo largo del presente capitulo se ha intentado poner al descubierto los


mecanismos subyacentes al proceso de modelización en el conocimiento
científico, evidenciando los constructos que configuran la realidad.
Como se ha subrayado más de una vez, el estatus ontológico de las entidades
que la ciencia toma para sí como objeto de estudio por vía de la legitimación
conceptual no supone un simple traslado del mundo exterior a la geografía
interna. Ese proceso de construcción de un objeto de conocimiento implica
siempre una trasmutación del mismo. Una reconfiguración que pueda ser
asimilada a nivel de los esquemas de la matriz conceptual científica de un
momento y un lugar en particular. Por lo tanto, y siguiendo la lógica de
Foulcault (1970), no puede pensarse cualquier cosa en cualquier momento y en
cualquier lugar. La lógica del pensar responde a una legalidad que escapa a la
conciencia pero que está sujeta a las categorías y valores que una cultura
ofrece al individuo dentro de una escala espacio-temporal en la cual se
desarrolla. Esto corresponde al plano individual, pero también es la lógica que
opera a nivel del conocimiento científico, porque son los sujetos los que, en
definitiva, hacen ciencia.
Siguiendo a Bateson (1993), la ciencia opera a nivel de mapas y no del
territorio. Ahora bien, esos mapas son los modelos mediante los cuales la
ciencia reconoce y construye la realidad. Lo real que deja de ser real para ser
una realidad construida, mediante un mecanismo de recursividad entre lo
construido y la construcción de lo construido.
Pero tal proceso de modelización no es gratuito y conlleva el precio de la
simplificación y de la sustitución. La tarea de simplificar un objeto complejo

91
permite que las relaciones, que las propiedades emergentes de escurran entre
los dedos del científico, perdiendo así la unidad original. Por otro lado, el
carácter siempre implícito de la sustitución del objeto por el objeto metafórico,
del mapa por el territorio, nos conduce necesariamente a confundir la imagen
en el espejo con su referente.
Esta razón es el argumento fundamental que obliga a desterrar el juicio
valorativo en cualquier ámbito del conocimiento. Las rivalidades entre el
conocimiento práctico tradicional y el pensamiento científico, entre la ciencia y
la religión, entre mente y cerebro, entre psicoanálisis y psicología son en última
instancia cenizas de la erupción cientificista de siglos pasados.
Trascender la dualidad y las dicotomías es el primer paso para fertilizar un
nuevo campo de conocimiento que se traduzca en última instancia en el
llamado paradigma emergente o nuevo paradigma, donde las tres esferas de lo
humano -el arte, la ciencia y la filosofía- perdidas en la modernidad, vuelvan a
conjugarse en un mismo cuerpo gnoseológico.
Actualmente, ya están germinando las semillas de este nuevo paradigma en
muchas disciplinas científicas. La nueva física, la teoría de la resonancia
mórfica en biología, la psicología integral, los estudios actuales sobre la
conciencia son algunos ejemplos relevantes. Asimismo, el resurgimiento de los
movimientos indígenas y la revalorización del conocimiento tradicional, la
mayor conciencia ecológica a escala mundial, la integración del arte en la
ciencia, la reorganización de la estructura eclesiástica a favor de los valores
humanitarios y espirituales también son señales de que un paradigma integral
va tomando fuerza.
Por último, una vez más, se hace evidente que la lectura de este capítulo y del
anterior, permite al alumno obtener instrumentos conceptuales para vislumbrar
las supuestos onto-epistemologicos que subyacen a toda ciencia, y en especial
a la psicología. Esto permite evidenciar que su objeto de estudio nunca está allí
dado; sino asimilado y reconstruido una y otra vez en el andar científico.
A su vez, el recorrido por cada uno de los grandes modelos de la historia del
conocimiento permite que el alumno descubra la existencia de diferentes

92
visiones en el campo en el que ellos mismos están insertos, lo que amplia los
grados de libertad en su andar académico.
Todo esto puede fomentar una mayor concientización respecto de la necesidad
actual de alentar hacia una diversidad intelectual, estableciendo el escenario
necesario para una trasndiciplinareidad del conocimiento.

Referencias bibliográficas

Barfield, T. (2000). Diccionario de Antropología. Barcelona: Siglo XXI.


Bateson, G. (1993). Espíritu y naturaleza. Amorrortu. España.
Bertalanffy, L. von (1976). Teoría general de los sistemas. México: Fondo de
Cultura Económica.
Bohm, D (2008). La totalidad y el orden implicado. Barcelona: Kairos.
Briggs, J & Peat, D. (1989). A través del maravilloso espejo del universo.
Barcelona: Gedisa.
Capra, F. (2006). El tao de la física. Una exploración de los paralelismos entre
la física moderna y el misticismo oriental. Barcelona: Sirio.
Capra, F. (1999). La trama de la vida. Una nueva perspectiva de los sistemas
vivos. Barcelona: Anagrama.
Capra, F. (1998). El punto crucial. Ciencia, sociedad y cultura naciente. La
necesaria visión de una nueva realidad. Una reconciliación entre ciencia y
espíritu humano para hacer posible el futuro. Buenos Aires: Troquel.
Capra, F. (1988). Sabiduría Insólita. Conversaciones con personajes notables.
Barcelona: Kairos.
Centineo, L. & Gianfrancisco, M. (2011). Arqueología de lo sagrado.
Contribuciones de la Psicología Transpersonal al análisis de la simbología
religiosa de los Andes centrales de Mesoamérica. Journal of
Transpersonal Research. 3, pp. 135-156. ISNN 1989-6077
Cyrulnik, B. (2002). El encantamiento del mundo. Barcelona: Gedisa.
Curtis, H. & otros (2006). Invitación a la biología. México: Editorial Médica
Panamericana.

93
Descartes, R. (2012). Discurso del método. Madrid: Edaf.
Dobzhansky, T. & otros (1980). Evolucion. Barcelona: Omega.
Foucault, M. (1970). Arqueología del saber. México: Siglo XXI.
Freud, S. (1950). Proyecto de una psicología científica. Obras completas.
Barcelona: Biblioteca Nueva.
Gangui, A. (2005). El Big Bang: la génesis de nuestra cosmología actual.
Buenos Aires: Eudeba.
Grof, S. (2008). Psicología Transpersonal: nacimiento, muerte y trascendencia
en psicoterapia. Barcelona: Kairos.
Grof, S. (1994). La mente holotrópica. Fundamentos experimentales de una
nueva comprensión de la conciencia humana. Buenos Aires: Planeta.
Jablonka, E. & Lamb, M. (2013). Evolución en cuatro dimensiones. Genética,
epigenética, comportamientos y variación simbólica en la historia de la
vida. Barcelona: Capital Intelectual.
Jung, C. (2002). Recuerdos, sueños y pensamientos. Barcelona: Six Barral.
Jung, C. (1976). Problemas psíquicos del mundo actual. Caracas: Monte Ávila.
Jung, C. (1970). Arquetipos e inconsciente colectivo. Barcelona: Paidós.
Lahitte, H. B. & Sánchez Vazquez, M. J. (2013). “La observación como
estrategia básica para construir explicaciones en investigación cualitativa”;
en M.J. Sánchez Vazquez (coord.) (2013). Investigar en ciencias
humanas. Reflexiones epistemológicas, metodológicas y éticas aplicadas
a la investigación en Psicología. La Plata: Edulp. Versión on line
http://hdl.handle.net/10915/27889
Laszlo, E. (2007). El universo informado. Una teoría integral del todo. Madrid:
Nowtilus.
Morín, E. (1999). Los siete saberes necesarios para la educación del futuro.
México: Ministerio de Educación Nacional, Icfes, Unesco.
Prigogine, I. & Stengers, I. (1994). La nueva alianza: Metamorfosis de la
ciencia. Buenos Aires: Alianza.
Rosenblum, B. & Kuttner, F. (2012). El enigma cuántico. Barcelona: Tusquets.
Sheldrake, R. (2011). Una nueva ciencia de la vida: La hipótesis de la
causación formativa. Barcelona: Kairos.

94
Sheldrake, R. (1995). Siete experimentos que pueden cambiar el mundo. Una
guía para revolucionar la ciencia. Barcelona: Paidós.
Sheldrake, R. (1994). El renacimiento de la naturaleza. La nueva imagen de la
ciencia y de Dios. Barcelona: Paidós.
Sheldrake, R. (1990). La presencia del pasado. Resonancia mórfica y hábitos
de la naturaleza. Barcelona: Kairos.
Talbot, M. (2007). El universo holográfico. Una visión nueva y extraordinaria de
la realidad. Barcelona: Palmyra.
Walsh, R. & Vaughan, F. (ed) (2006). Más allá del ego. Textos de psicología
transpersonal. Barcelona: Kairos.
Wilber, K. (2007). Psicología integral. Barcelona: Kairos. 4ta.
Wilber, K. (1999). Los tres ojos del conocimiento. La búsqueda de un nuevo
paradigma. Barcelona: Kairos.
Wilber, K. (ed). (1986). El paradigma holográfico. Una exploración en las
fronteras de la ciencia. Barcelona: Kairos.

95
CAPÍTULO 3

ASPECTOS ÉTICOS TRASMITIDOS EN LA ENSEÑANZA DE LA


METODOLOGÍA DE INVESTIGACIÓN EN PSICOLOGÍA

María José Sánchez Vazquez - María Florencia Gómez - Javier Dorati

La Psicología, como práctica de investigación en el ámbito de las ciencias


humanas, conlleva una necesaria meditación ética en tanto sus objetos de
estudio son otros individuos de derechos plenos. Desde esta perspectiva, su
accionar científico no puede limitarse sólo al saber-hacer metodológico, sino
que ha de sumarse una mirada responsable que supere meras posturas
fundamentalistas o escépticas, y que salvaguarde en toda situación de
investigación la dignidad inalienable del ser humano.
Respecto de la enseñanza y del aprendizaje de las cuestiones éticas en el
encuadre de investigación, estos aspectos han sido poco a poco incorporados
en la currícula de los planes de estudios universitarios. La Ética como disciplina
autónoma desarrolla conceptos diagonales; es decir, sus nociones atraviesan
el conocimiento académico en todas las ramas del saber disciplinar.
Entendemos que, si bien los contenidos ético-morales pueden y deberían
concentrarse en una asignatura específica, estas cuestiones no son sólo un
momento en la diacronía de un proceso de enseñanza universitaria; sino que
están presentes transversalmente en todas las instancias formativas del grado
y posgrado.
Según Perrenoud (1994), la reflexión actual sobre lo enseñable y lo trasmisible
incluye dos aspectos relacionados: la transposición didáctica de contenidos y la
construcción de competencias en la formación científico-profesional. En el nivel
superior, si bien lo que se transpone son siempre conocimientos científicos y
técnicos, es necesario tener en cuenta la integración de los mismos en

96
situación de acción, donde lo que está en juego no es sólo un saber-hacer
(contenidos específicos y prácticas que generan competencias particulares),
sino también un saber-ser (actitudes, decisiones, posicionamientos valorativos,
entre otros). Respecto de la ética, categorías tales como autonomía, libertad,
responsabilidad, compromiso, justicia no pueden ser sólo aprendidas como
parte de un corpus conceptual, sino también como parte de una práctica
reflexionante, la que pueda ser integrada en la toma de conciencia y evaluación
de la futura profesión y de sus situaciones complejas no siempre previsibles
(Sánchez Vazquez, 2013).
Teniendo en cuenta estas consideraciones previas, el presente capítulo
desarrolla los aspectos principales trabajados en el taller Ética e Investigación
Científica dirigido a alumnos del grado de la Cátedra Seminario de Psicología
Experimental, Facultad de Psicología (UNLP). La pregunta que ha motivado el
debate del taller estuvo centrada en los dilemas éticos de la polémica
investigación estadounidense conocida como “El caso Milgram”. Ésta fue una
investigación realizada a principios de los años ’60 por Stanley Milgram sobre
la obediencia a la autoridad, y donde se hubo aplicado la práctica científica del
engaño a los sujetos participantes. Este tipo de investigación es analizada y
comparada aquí con la denominada “Experiencia Zimbardo”, investigación de la
década del ’70 donde -si bien no se llevó a cabo mediante engaños- se expuso
a los sujetos participantes a condiciones extremas, a pesar de su
consentimiento.
Para el desarrollo de la actividad del taller fueron planificados distintos
momentos, a saber: (1) exposición teórica del tema a abordar; (2) presentación
de los materiales audiovisuales sobre la investigación de Milgram; (3)
formulación de una serie de interrogantes que permitiera abrir el debate ético
en pequeños grupos apoyados en la lectura bibliográfica de un material
seleccionado; y, (4) apertura de un espacio plenario para compartir las
respuestas armadas por cada grupo, señalando y reconstruyendo las distintas
aristas de la problemática planteada.
En este capítulo se presenta el desarrollo conceptual que guía las reflexiones
realizadas con los alumnos. Por un lado, reconstruir diferentes argumentos

97
basados en los principios y las reglas éticas que dan marco a la problemática
sobre los límites en la investigación con humanos; por otra parte, analizar los
conflictos o dilemas generados entre los Principios Éticos de Autonomía y de
Beneficencia en situaciones de investigación con engaños en Psicología. En
este sentido, las controversias éticas se focalizan en decidir si tales prácticas
engañosas se justifican priorizando el beneficio potencial que este tipo de
estudios pudiera traer al campo científico en particular y a la sociedad en
general o si violan el Principio del Respeto por la Autonomía y el Principio de
Beneficencia desde una visión tradicional de la Bioética eximiendo a los
psicólogos de las posibles consecuencias riesgosas de tales prácticas
científicas. Asimismo, son incluidas aquí las reglas éticas específicas de la
investigación con sujetos humanos y que se encuentran tipificadas en diversos
corpus deontológicos (Códigos de Ética Profesional): la regla del
consentimiento informado, la protección de la intimidad, la evitación del daño o
riesgo potencial y la distribución de los beneficios.
El capítulo concluye con una articulación al concepto ricoureano de prudencia
responsable. Esta noción central, aplicada a la investigación, nos recuerda la
necesaria actividad reflexionante que debe acompañar toda acción
especializada, siempre con el objetivo ético de encontrar el equilibrio entre lo
que es bueno y conveniente para cada uno y para todos. En definitiva, la
convicción del psicólogo investigador en realizar una práctica científica siempre
cercana a lo justo, que respete al otro en su dignidad plena.

Experiencias en Investigación con sujetos humanos

La investigación de Milgram y su contexto histórico

Stanley Milgram (1933-1984) fue un psicólogo social norteamericano,


graduado en la Universidad de Harvard en 1960. A principios de esa década,
realizó sus primeros estudios psicológicos sobre la obediencia a la autoridad.

98
La idea para esta investigación surgió en esta época, a partir de los dichos de
Adolf Eichmann en el juicio por crímenes contra la Humanidad durante el
régimen Nazi. Eichmann fue partícipe de la llamada "Solución Final" (1942),
programa que contemplaba la expulsión a los judíos a ghettos habilitados en
Polonia, en lugar de exterminarlos. Quedó encargado de la logística de las
deportaciones hacia los campos de concentración y fue el artífice de la
creación de los Judenräte, o Consejos Judíos, que colaboraban en las
deportaciones facilitando la identificación de los habitantes de los ghettos,
inventariando de sus bienes, etc.
Con la caída del Régimen Nazi, Eichmann migró oculto entre los refugiados de
guerra primero en varios poblados de Alemania, luego en Génova y finalmente
se instaló en Argentina, donde vivirá con su familia hasta 1960. A principios de
mayo de 1960 es secuestrado por las fuerzas del Mossad y llevado
clandestinamente a Israel para su juicio, violando la soberanía nacional de
nuestro país. La captura y juicio de Eichmann fue seguida por los medios de
comunicación de todo el mundo. Fue juzgado, sentenciado a muerte y
ejecutado en Jerusalén en 1962.
A Milgram le impresionó cómo un individuo que aparentaba ser un hombre de
clase media normal era en realidad uno de aquellos cuyos nombres había sido
recordado en múltiples oportunidades por testigos en los Juicios de Nüremberg.
Eichmann, que no era un antisemita fanático, se mostró en su juicio como un
hombre tenaz en el cumplimiento del deber y en organizar las estadísticas que
se le exigían. Se defendió arguyendo que su participación en el Holocausto se
limitó a ser un simple ejecutor de órdenes de superiores. Seis psiquiatras
declararon que Eichmann estaba sano, que tenía una vida familiar normal, y
varios testigos dijeron que era una persona corriente.
Milgram al reflexionar sobre estos hechos, se preguntó: ¿Eichmann había
participado en el Holocausto sólo por obediencia? ¿Podría ser que todos los
demás cómplices nazis sólo acatasen órdenes? ¿Eran diferentes los alemanes
en esto?
Un año después del juicio, Milgram realizó una serie de experimentos de
psicología social en la Universidad de Yale que conmocionaron al mundo por

99
sus descubrimientos, e introdujo el debate de la ética en Psicología, a partir de
los dilemas éticos que provocó el análisis de su diseño de investigación. Estos
estudios fueron publicados por primera vez en 1963 en la revista Journal of
Abnormal and Social Psychology bajo el título “Behavioral Study of Obedience”
(Estudio del comportamiento de la obediencia) y resumidos en 1974 en su libro
Obedience to authority. An experimental view (Obediencia a la autoridad. Un
punto de vista experimental). El objetivo central de la investigación era medir la
disposición de un participante para obedecer las órdenes de una autoridad, aun
cuando éstas pudieran entrar en conflicto con sus valores morales. Entre sus
resultados, mostró la predisposición de los sujetos a obedecer y cómo esta
actitud llegaba a despojarlos de su conciencia moral y sentido de
responsabilidad frente a los actos que cometieran.

El diseño y descripción del procedimiento en la investigación de Milgram

Milgram creía que el ser humano tenía predisposición a obedecer y que una
vez puesto en una situación concreta el impulso de seguir órdenes de un
determinado líder era inquebrantable.
Pretendió medir la obediencia a la autoridad y captar la esencia de la actitud
obediente y voluntaria. Para hacerlo disfrazó el verdadero objetivo del estudio y
lo presentó como una investigación que evaluaba los efectos del castigo sobre
el aprendizaje. También, mandó construir un falso aparato capaz de fingir
descargas eléctricas y organizó una sala acondicionada para su estudio.
El diseño experimental contemplaba una serie de experimentos desde 1960 a
1963 y por los que pasó una muestra superior a las 1000 personas, con
manipulaciones en algunas variables para aislar los factores que explicaban la
obediencia y confirmar la consistencia de los resultados. La versión más
conocida es el denominado “experimento número 5” (Milgram 1974, en
Salomone & Fariña, 2010; 2009), y se describirá detalladamente a
continuación:

100
Para convocar a los participantes, se publica un anuncio en los periódicos
locales pidiendo voluntarios para un estudio relacionado con la memoria y el
aprendizaje. En el anuncio también se informa sobre el ofrecimiento de un pago
de 4 dólares más gastos de viaje, a 500 personas que cumplieran el requisito
de tener una edad comprendida entre 20 y 50 años. No hay ninguna otra
exigencia. La autoridad está representada por la Universidad de Yale y por el
experimentador, quien da las instrucciones (es decir, órdenes) a los
participantes.
Ya en la sala de evaluación, un investigador explica al participante y a un
cómplice que van a probar los efectos del castigo en el aprendizaje. El
participante cree en todo momento que se trata de dos voluntarios. Les dice a
ambos que el objetivo es comprobar cuánto castigo es necesario para aprender
mejor, y que uno de ellos será alumno y el otro maestro. El procedimiento
engañoso de definición de los roles consiste en un sorteo, donde el cómplice
resulta en todos los casos ser el “alumno” y el participante el “maestro”.
Se traslada a otra habitación al alumno, se lo sujeta a una especie de silla
eléctrica y se le colocan unos electrodos. Se le informa al maestro que deberá
administrar un test de aprendizaje basado en una lista de palabras
emparejadas que debe leer mediante un sistema de intercomunicación. El
alumno señala la respuesta correspondiente pulsando botones y el maestro la
obtiene a través de un tablero de luces. El dispositivo se completa con un
imponente panel compuesto de treinta interruptores.
Iniciado el falso test, el maestro dice una palabra por vez y el alumno debe
recordar cuál es la serie asociada. Si falla, el maestro imprime una descarga
eléctrica. El experimentador informa que las descargas pueden ser dolorosas
pero en ningún caso provocarán la muerte. Para demostrar lo que afirma el
sujeto participante también recibe una descarga real de 45 voltios,
comprobando el dolor causado. Después, el investigador indica que debe
comenzar a administrar descargas eléctricas cada vez que se cometa un error,
aumentando progresivamente el voltaje de la descarga.
El falso alumno da respuestas erróneas a propósito y, por cada fallo, el
participante se ve obligado a efectuar una descarga. El generador tiene

101
pulsadores marcados desde 15 voltios hasta 450. Las primeras descargas son
ligeras pero, una vez alcanzados los 120 voltios, el alumno comienza a gritar
hasta el punto de pedir que lo saquen de allí; golpea el vidrio que lo separa del
maestro, gimiendo, se queja de padecer de una enfermedad del corazón, etc. A
los 270 voltios, el quejido es ya agónico.
En el transcurso de la pruebas, las reacciones de estos sujetos voluntarios
varían desde las risas nerviosas hasta la crispación, temblores y otras
manifestaciones.
La variable dependiente más relevante estudiada por Milgram es el momento
en el cual el participante se niega a continuar. Cuando el maestro duda y
pregunta al experimentador -que siempre se mantiene junto a él- sobre si
puede abandonar su puesto, este le solicita continuar, siguiendo una serie de
instrucciones:
• Procedimiento 1: “Por favor, continúe”.
• Procedimiento 2: “El experimento requiere que continúe”.
• Procedimiento 3: “Es absolutamente esencial que continúe”.
• Procedimiento 4: “Usted no tiene otra alternativa. Debe continuar”.
Si después de esta última frase el maestro se niega a continuar, se detiene el
experimento. Si no, termina después de que hubiera administrado el máximo
de 450 voltios tres veces seguidas.
Finalizados los experimentos, al cabo de unos meses, se informaba a los
voluntarios que las descargas no son reales y se les muestra que el alumno en
realidad es cómplice del equipo de investigación. Aclararan que los gritos que
el participante escuchaba también son falsos, puesto que son una grabación.
Respecto de los resultados de la experimentación:
• El más llamativo es que la mayoría de los participantes (alrededor del 63
%), llega a administrar las descargas máximas, es decir, los 450 voltios.
• Al alcanzar los 75 voltios, muchos participantes se ponen nerviosos ante
las quejas de dolor de sus alumnos y desean parar el experimento, pero
continúan debido a la fuerte autoridad del investigador.
• Al llegar a los 135 voltios, muchos de los maestros se detienen y se
preguntan por el propósito del experimento.

102
• Cierto número continúa asegurando que ellos no son responsables de
las posibles consecuencias.
En estudios posteriores de seguimiento, Milgram demostró que las mujeres
eran igual de obedientes que los hombres, aunque más nerviosas y mostraban
cierta tendencia a querer ocuparse del alumno.

La experiencia Burger y la adecuación a los principios y reglas éticas

El científico Milgram parece haber desconocido tangencialmente las


normativas realizadas poco antes de haber desarrollado su experimento. Sin
duda, una vez llevado a cabo el mismo, hubo variadas repercusiones en
ámbitos científicos y de la ética, lo que ha llevado a una actualización
deontológica en materia de investigación con engaños. Hoy día la experiencia
de Milgram no podría desarrollarse sin modificaciones sustanciales y, aún así,
siempre permanece dilemática su presentación.
En este cuadro de situación, el profesor e investigador Jerry Burger (2009) llevó
adelante una versión del experimento en la Universidad de Santa Clara
(California, Estados Unidos) y cuyos resultados fueron analizados y difundidos
recientemente (Salomone & Michel Fariña, 2010).
Su intención fue lograr un mayor control sobre algunos aspectos éticos
cuestionados en la investigación original, tomando, en consecuencia una serie
de recaudos procedimentales:
Con el primer recaudo se buscó evitar dolor físico o malestar emocional severo
en los candidatos participantes interrumpiendo el experimento inmediatamente
después de que el sujeto administrara la descarga de 150 voltios, ya que se
consideraba que el sujeto llegara a administrar esa descarga seguiría hasta los
450 voltios. Burger observó en el experimento original que un porcentaje muy
alto de los participantes, al traspasar el límite de los 150 voltios, siguió
aplicando la descarga hasta los 450 voltios. Con este procedimiento evitó o
disminuyó el malestar físico o emocional en el participante engañado, puesto
que se estimó que no se agregaría información adicional, produciéndose un

103
punto de saturación en los datos recolectados al respecto. Al mismo tiempo,
pudo adaptarse la investigación a las normativas en vigencia referidas a la
evitación del daño o perjuicio.
Con el segundo recaudo, adaptó la investigación de modo de reducir el tiempo
real del engaño. En este caso, el participante era informado inmediatamente
después de su experiencia de la trampa de los voltios aplicados al “alumnos”.
Con esta precaución, Burger disminuía potencialmente el riesgo de daño o
malestar permanente que conllevaba la experiencia original, hasta el momento
en que, recién unos meses después, el investigado era informado de lo
realmente sucedido. En este punto es interesante señalar que, además de
adecuar el experimento a las reglas deontológicas vigentes, existe una
adecuación a los principios que las fundamentan: el procedimiento de subsanar
la información dada con engaño inmediatamente compensa también la omisión
voluntaria del Principio del Respeto por la Autonomía, ya que, si bien se le quita
al sujeto participante la posibilidad real de decidir autónomamente su
participación, se le restituye este derecho vulnerado en el menor tiempo
posible; es decir, ni bien termina su participación.
Por otra parte, tal como sostienen Salomone & Michel Fariña (2010) la réplica
del experimento tienen acciones metodológicas específicas y complementarias
tendientes a respetar en todos sus detalles las reglas deontológicas sobre
investigación expresadas en el Código de Ética de APA (2003). Estas acciones
son:

(1) Estableció un doble proceso de selección de los candidatos para excluir a


aquellas personas que podrían reaccionar negativamente ante la experiencia, (2)
los participantes fueron informados, por escrito, que podían retirarse en cualquier
momento del experimento y quedarse no obstante con los 50 dólares que les
fueron asignados por su participación, (3) como en la experiencia original, se
administró a los candidatos una leve descarga para que verificaran el efecto del
generador, pero mientras que Milgram aplicó 45 voltios, Burger se limitó a 15, (4)
el investigador a cargo de supervisar la prueba era además un psicólogo clínico
experimentado, preparado para detectar cualquier signo de estrés y detener la
prueba si ello fuera necesario (p. 13)

En síntesis, la réplica del experimento Milgram desarrollada por Burger


representa de qué modo puede ser mantenido un diseño de investigación con
engaños, adecuando el mismo en pos de preservar y sostenier la dignidad de

104
los sujetos participantes y el respeto por su autonomía. La reflexión sobre las
posibilidades metodológicas de desarrollar diseños alternativos sin exponer a
los participantes a este tipo de situaciones éticas dilemáticas es una tarea que
siempre debería estar presente en las decisiones y elecciones posibles de los
investigadores y los fines cognitivos perseguidos.

La experiencia Zimbardo. Más allá del cumplimiento de los aspectos


deontológicos

Philip Zimbardo, nacido en Nueva York en 1933, es un psicólogo social


norteamericano, investigador del comportamiento. Su fama se debe a ser el
hacedor de la investigación conocida como “El experimento Zimbardo”.
Dicha experiencia se vuelve interesante para nosotros no por los fines
cognitivos que en su momento persiguió, sino porque es un claro ejemplo de
que las cuestiones éticas van más allá de la mera faz deontológica de una
profesión.
“El experimento”, reproducido en un largometraje alemán homónimo1, consta
de una experiencia llevada a cabo por el psicólogo social Zimbardo y su equipo
de investigación en 1971, en un pasillo de la universidad de Stanford (Estados
Unidos) acondicionado para recrear el pabellón de una prisión. Los resultados
de la investigación fueron publicados recién en 1974.
El objetivo era estudiar el comportamiento humano en situaciones extremas y
la influencia contextual-ambiental. El dispositivo utilizado fue un diseño de
investigación con alto grado de estructuración que pretendía investigar los roles
asumidos por sujetos en condición de prisioneros y guardias carcelarios, en
función al ambiente de encierro en el cual se encontraban.
Para llevar a cabo dicho experimento se reclutó, mediante un aviso en el
periódico, a 24 estudiantes universitarios de entre 18 y 30, los cuales
constituyeron la muestra. Para delimitar la misma, se incluyeron ciertos criterios
de inclusión-exclusión que pretendían dar cuenta de la salubridad de los
sujetos seleccionados, de una población de 70 individuos. A saber, una serie

105
de evaluaciones psicológicas y médicas para excluir personas con historia de
abuso de sustancias y/o enfermedades médicas y psicológicas (Zimbardo,
1991/2009).
La investigación consistió en la observación de la interpretación por parte de
los sujetos participantes de los roles asignados (guardias o prisioneros),
quienes pasarían 15 días en una réplica de un pabellón carcelario. Para este
fin, se separó al azar un grupo de 9 individuos (de los 24 de la muestra) y se
les dio el rol de prisioneros. A otro grupo de 9 individuos se les asignó el rol de
guardia cárcel; y los 6 participantes restantes actuarían de suplentes en caso
de que alguno de los asignados inicialmente se retirara de la investigación.
Es importante aclarar que los participantes de la investigación tenían
conocimiento de la misma; del tiempo de duración estipulado, del rol que
debían interpretar en caso de ser asignados como prisioneros o guardias, y que
podían retirarse en cualquier momento del experimento. Esto se formalizó al
hacerlos leer y firmar un protocolo de consentimiento informado en el que se
detallaba lo que se iba a realizar, especificando la voluntariedad y el carácter
simulado de la experiencia. También se exponía allí que los miembros del
grupo asignado al rol de prisioneros perderían en ese período muchos de sus
derechos civiles, tendrían una dieta alimentaria especial y condiciones de
higiene mínimas. Como otro punto a destacar, diremos que la investigación se
aprobó por un comité de ética que la evaluó.
Por otra parte, tal como sostienen (Roussos, Braun & Olivera, 2012), Zimbardo
incluyó una serie de elementos en algunos procedimientos para favorecer la
despersonalización de los sujetos al interpretar los roles asignados. A saber:

Estableció los números por los que se referían a los reclusos y los anteojos que
debían utilizar los guardias. A los “internos” se les fue a buscar a su domicilio,
acto que llevaron a cabo policías en ejercicio de la misma manera que lo hacían
con presos reales. Se les hizo usar batas de muselina sin ropa interior y
sandalias de goma. A los “guardias” les entregó uniformes y si bien no les hizo
realizar ningún entrenamiento, se les delegó la responsabilidad de mantener el
orden dentro de la prisión, por lo cual establecieron una serie de reglas internas.
Los prisioneros llegaron a la falsa prisión con los ojos tapados por lo que no
sabían dónde se encontraban. Los guardias tomaban tres turnos y en tiempos
libres volvían a su casa mientras que los prisioneros debían permanecer en la
“prisión” durante toda la investigación (pp. 62-63).

106
Asimismo, se tomaron en consideración recaudos ético-metodológicos tales
como como seleccionar a sujetos sanos física y psíquicamente, y
deontológicos; como el haber realizado un consentimiento informado específico
donde el participante estaba al tanto de los posibles riesgos, la voluntad de
poder retirarse y el carácter del experimento.
Sin embargo, la experiencia tomó un carácter realista tal que al segundo día los
“prisioneros” se amotinaron ante vejámenes sufridos por parte de los “guardias”
(los humillaban, les denegaban la posibilidad de ir al baño, y comenzaron a
desarrollar conductas sádicas con ellos). Ante el amotinamiento, los guardias
respondieron violentamente en búsqueda del control.
La investigación fue suspendida al sexto día por el investigador principal, por
recomendación de una investigadora externa que se presentó a observar lo
sucedido. Esta científica, en el rol de observadora no participante, llamó la
atención Zimbardo por su involucramiento excesivo en el simulacro, lo cual
provocaba la pérdida de una “objetividad” necesaria para evaluar la
continuación o no de la investigación.
Al principio de este apartado afirmamos que esta experiencia es rica para
nosotros no por los fines cognitivos que persigue, sino por ser es un claro
ejemplo de que la ética va más allá de la deontología. ¿A que nos referimos
con esto?. En los diversos tratados y códigos deontológicos, la responsabilidad
es mencionada como uno de los principios éticos junto al de Dignidad,
Integridad, Beneficencia y no Maleficencia y Justicia. Se explicita que los
psicólogos son conscientes de sus responsabilidades con la sociedad y las
comunidades específicas donde intervienen, aceptando una adecuada
responsabilidad por sus acciones, evitando la explotación o daño en sus
prácticas y siendo parte activa de la reflexión ética en la vida cotidiana.
De este modo, podemos deducir que la reflexión ética, dialógica y
argumentada, utiliza criterios que van más allá de lo deontológico, de la
codificación de una práctica. En este sentido, el experimento de Zimbardo, si
bien respeta con todos los cánones científicos en investigación -según la
norma- en cuanto a la presentación del proyecto, no lo hace en su
implementación. Esto es notorio cuando intenta continuar con la experiencia

107
desconociendo el principio básico sobre la dignidad de las personas. A su vez,
desconoce su responsabilidad en términos de responsabilidad social, faltando
así no solo a principios ético rectores de toda acción investigativa, sino también
a reglas como la evitación del daño.
Esta experiencia es ejemplar respecto a que la pretensión de universalidad de
los códigos es solo eso, una pretensión. La actitud reflexionante –faltante en el
comportamiento de Zimbardo- debería ser una condición siempre presente en
investigación con humanos, en función de sopesar la responsabilidad
incuestionable del científico. Esto implica considerar que, si no es posible evitar
el daño no anticipado, sí se puede actuar en consecuencia cuando es
detectado y ver en qué forma se puede reparar el mismo; puesto que ha sido
producto de la propia acción especializada.

Los Códigos Deontológicos y la investigación con engaño

Las normativas internacionales para la evaluación ética de las


investigaciones con humanos son la expresión de los enunciados morales que
la comunidad internacional en su mayoría postula como suyos en un tiempo
determinado y estas son reflejadas en textos normativos. Es de destacar que,
en el momento histórico en que se desarrollaron la serie de experimentos de
Milgram, el Código de Nüremberg (1947) y la Declaración de Helsinki (1964)
estaban en vigencia.
El Código de Nüremberg es un documento normativo resultado del denominado
“Juicio a los Médicos”, uno de los juicios desarrollados entre agosto de 1945 y
octubre de 1946 a jerarcas nazis realizados en la ciudad homónima. En este
proceso se incriminó a una veintena de médicos por el tratamiento inhumano
que dieron a los prisioneros de campos de concentración que en su mayoría
eran judíos, pero también a miembros de otras minorías como gitanos,
personas con discapacidad, personas internadas en hospitales, entre otros.
Fueron acusados de planear y llevar a cabo experimentos médicos sin el

108
consentimiento de los afectados. Durante tales experimentos médicos se
cometieron asesinatos masivos, torturas y otros actos inhumanos.
El Código de Núremberg fue publicado el 20 de agosto de 1947 y es
considerado el primer antecedente de relevancia internacional sobre ética de la
investigación, ya que presenta los principios que rigen actualmente la
investigación biomédica con seres humanos. Consta de 10 puntos donde
destacan: la exigencia de solicitar el consentimiento del participante en la
investigación siendo el equipo investigador el responsable de informar sobre
los objetivos, procedimientos, métodos pero también los potenciales riesgos
para la salud física y/o mental (punto 1). Es así que deberá llevarse a cabo de
modo que evite todo sufrimiento o daño físico o mental innecesario (punto 4),
sin que el grado de riesgo exceda el determinado por la importancia social del
problema que el experimento pretende resolver (punto 6); es por ello que
deberán proporcionarse los dispositivos adecuados para proteger al sujeto de
toda posibilidad de lesión, incapacidad o muerte (punto 7). Será el científico
responsable quien le ponga fin a la experimentación si considera con
fundamentos justos que la continuación de la misma puede provocar por una
lesión, incapacidad o la muerte del sujeto experimental (Tribunal Internacional
de Nüremberg, 1946).
Este antecedente se reconoció como valioso pero incompleto, y es por ello que
en la 18ª Asamblea Médica Mundial (AMM) de 1964 se aprobó la Declaración
de Helsinki. En la 8° Asamblea de la AMM realizada en Roma se adoptó una
primera resolución llamada “Principios para los que participan de investigación
y experimentación”. Esta Declaración fue revisada en diferentes Asambleas
Médicas Mundiales diferentes: la 29ª (Tokio, 1975) y enmendada por las
Asambleas Médicas Mundiales 35a (Venecia, 1983), 41ª (Hong Kong, 1989),
48ª (Sommerset West, 1996), 52ª (Edimburgo, 2000) y 59ª (Seúl, 2008).
Esta Declaración pasó a ser entonces la norma internacional sobre ética de la
investigación biomédica que recogió el espíritu del Código de Nüremberg para
perfeccionarlo desde un punto de vista procedimental y sustantivo. Allí se
introducen nuevos aspectos éticos relacionados con el bienestar del individuo
participante de investigaciones, debiendo éste prevalecer sobre los intereses

109
científicos y de la sociedad (principio 1). Es este sentido se exige que el diseño
y el procedimiento de una investigación deban formularse en un protocolo
experimental que deberá presentarse a la evaluación de un comité nombrado
especialmente, independientemente del investigador (principio 2). Asimismo, se
sostiene que el investigador debe dar a cada posible participante suficiente
información sobre los objetivos, métodos, beneficios previstos y posibles
peligros del estudio y las molestias que puede acarrear y de que se es libre de
abstenerse de participar en el estudio o de revocar en cualquier momento el
consentimiento que ha otorgado para participar (principio 9). Además, se
incluye el tema de las poblaciones con autonomía disminuida que exigen una
protección especial (como son los menores de edad, los enfermos mentales o
en estado de gravedad extremo que no puedan dar su consentimiento, los
presos, etc.) y el uso de formularios de consentimiento por escrito donde cada
paciente/participante de investigación debe firmar (AMM, 1964/2008).
Pueden mencionarse también una serie de recomendaciones con respecto a
estas temáticas, presentadas por distintas organizaciones y asociaciones de
alcance nacional e internacional, tales como el Reporte Belmont de la Comisión
Nacional para la Protección de los Sujetos Humanos de Investigación
Biomédica y del Comportamiento (1979), y las Pautas Éticas Internacionales
para la Investigación y Experimentación Biomédica en Seres Humanos
(Consejo de Organizaciones Internacionales de las Ciencias Médicas y la
Organización Mundial de la Salud, 2002).
Las referencias a la investigación con sujetos humanos en el campo de
Psicología se presenta centralmente a su dimensión deontológica
respondiendo, en general, a la lógica de análisis predominante en la Psicología
respecto de temas éticos (Calo, 2002; Ferrero, 2000). Así, los Códigos de Ética
profesional son los documentos de referencia que resumen el estado de la
cuestión sobre la investigación con humanos y el uso del engaño en Psicología.
A nivel internacional en el campo de la Psicología, se encuentra el Código de
Ética de la American Psychological Association (APA, 2002). En este Código, la
investigación con sujetos humanos está regulada en detalle en el punto 6,
siendo los aspectos a destacar: la exigencia del consentimiento informado,

110
donde deberán informarse los objetivos de la investigación y los procedimientos
y métodos usados para la recolección de información; sobre el tipo de relación
y vínculos que el psicólogo investigador entabla con los participantes,
asistentes y estudiantes; sobre los incentivos a la investigación y en situaciones
de engaño; sobre la discusión de resultados y la transmisión de los mismos a
los participantes y en los informes de investigación.
El Código APA -tal como se adelantó en el apartado anterior- define la
utilización del engaño en investigación, debiendo estar justificado por el
eventual y significativo valor científico, educativo o aplicado y, sobre todo,
porque no sea posible utilizar procedimientos alternativos eficaces a los
engañosos. Por ello, no se deberán engañar a los participantes de una
investigación que razonablemente les pudiera causar dolor físico o un severo
malestar emocional. También, se les deberán dar a conocer las técnicas
engañosas utilizadas como parte integral del diseño y aplicación de un
experimento tan pronto como sea posible, preferentemente al término de su
participación y nunca después de la finalización de la recolección de datos,
permitiéndoles a los sujetos participantes retirar los suyos.
A nivel regional, se ubican como relevantes el Protocolo de Acuerdo de
Principios Éticos para el ejercicio profesional de los Psicólogos del Mercosur
(AUAPsi, 1999), el documento marco lo conformado por la Declaración
Universal de Principios Éticos para Psicólogas y Psicólogos (IUPsyS, 2008).
En el país, el Código de Ética de la Federación de Psicólogos de la República
Argentina (FEPRA, 1999); y a nivel provincial el Código de Ética del Colegio de
Psicólogos de la Provincia de Buenos Aires (Colegio de Psicólogos de la
Provincia de Buenos Aires, 2000).
En el caso del Código de Ética de lFEPRA, y de acuerdo a los principios
generales asumidos de la Asociación de Unidades Académicas de Psicología
(1999), se incorpora el tema de la responsabilidad social como parte
fundamental. En su Declaración de Principios (punto C: Compromiso
profesional y científico) se pone de manifiesto la responsabilidad que le
corresponde al psicólogo respecto de su accionar en cuanto a su desarrollo
personal, científico, técnico y ético. Así, el psicólogo es responsable frente a la

111
comunidad en tanto esta es la destinataria de sus servicios profesionales,
debiendo actuar con eficacia y prudencia, evitando aplicar conocimientos no
avalados científicamente, la impericia y denunciando el ejercicio ilegal de la
profesión (punto 3.3). Con respecto a la investigación (punto 4) el psicólogo
será responsable del avance científico, teniendo especial cuidado en el armado
del proyecto, sea con participantes humanos o animales, y en la recolección de
datos, donde se deberá obtener el consentimiento de los participantes o de sus
representantes legales, informando de los objetivos de la investigación y de sus
consecuencias desagradables o daños potenciales. En su punto 4.5 este
Código señala tener en cuenta recaudos éticos cuando se piensa implementar
el uso del engaño en una investigación. Es decir, si dadas las características de
una investigación no sea posible o sea desaconsejable brindar una información
completa a los sujetos al comienzo de la misma, el psicólogo responsable del
proyecto deberá brindarla lo antes posible a los sujetos y deberá explicar las
razones por las que no se dio la información completa al comienzo de la
experiencia. También deberá asegurarse de que no existan procedimientos
alternativos que no impliquen engaño y que dicho uso esté justificado por el
valor científico o profesional. En su punto 4.6, se especifica que no deberán
implementarse proyectos de investigación que impliquen consecuencias
desagradables o riesgo de ellas para los sujetos participantes.
El Código de Ética del Colegio de Psicólogos de la Provincia de Buenos Aires
en sus consideraciones iniciales presenta al psicólogo como un profesional
cuya lectura de la realidad tiende a ser holística, comprensiva y consciente de
su responsabilidad ética como intelectual frente a la sociedad.
Con respecto a la investigación se indica la evitación de riesgos y daños
potenciales que pudieran perjudicar a los participantes, respetando sus
derechos, informando sobre los objetivos y resultados de la investigación
desarrollada. En el capítulo 6, artículos 37 y 38, se explicita que:

El psicólogo actuará respetando los derechos de los investigados en cuanto a ser


consultados e informados de todo aquello que pudiera comprometer su salud,
capacidad de decisión y participación en asuntos que afecten sus condiciones de
vida. (…) Queda absolutamente prohibida la realización de cualquier acto dentro
de la investigación que pueda causar perjuicio a la persona. (p. 6)

112
El problema de la evitación de daños e investigación será tratado y
desarrollado en el apartado siguiente.
Se considera que uso del engaño resulta necesario en algunas prácticas de la
Psicología, ya que, puede brindar información sobre la actividad a realizar, la
que puede tornarse inoperante de otros son los procedimientos utilizados en la
investigación. Sin embargo, en virtud del resguardo de los derechos de los
sujetos sobre los que se dirige la práctica del psicólogo, la deontología
prescribe las limitaciones a tener en cuenta con el fin de minimizar lo más
posible los efectos de esta técnica sobre los sujetos experimentales.

Daño Psíquico en investigación con humanos

Teniendo en cuenta las consideraciones previas enunciadas en los


diferentes códigos deontológicos respecto a las investigaciones con sujetos
humanos, en general, y con engaños, en particular, vemos que las restricciones
a los investigadores se dirigen principalmente a preservar el Principio de
Beneficencia y su concomitante Principio de No-Maleficencia. Así a partir de la
formulación sobre la evitación de riesgos y daños potenciales se estarían
respetando estos principios básicos, evitando perjuicios a los participantes.
Ahora bien, es lícito, pues, preguntarse: ¿qué es causar perjuicio en
investigación con humanos?; ¿Cómo puede evitarse un daño en encuadre
investigativo?, ¿Pueden prevenirse las consecuencias dañosas a futuro luego
de una investigación? Más allá de la faz deontológica -a la cual no puede
reducirse ningún tipo de responsabilidad- es necesario que pueda definirse un
consenso básico en la comunidad científica en relación a qué se entiende por
daño. Este concepto deriva de otro campo discursivo, de la teoría general de
daños utilizada en el campo de lo jurídico.
Según la Constitución de la Nación Argentina (Poder Legislativo Nacional, Ley
Nº 24.430, 1994), ningún ciudadano está autorizado a desbordar su órbita de
facultades e invadir la ajena. Si ello ocurre se configura el daño en sentido lato,
pero cuando la lesión recae en los bienes que constituyen el patrimonio de una

113
persona, la significación del daño se concreta en el sentido estricto en daño
patrimonial. El artículo 1068 del Código Civil (Poder Legislativo Nacional, Ley
N° 340, 1871) define el daño patrimonial en los siguientes términos: “Habrá
daño siempre que se causare a otro algún perjuicio susceptible de apreciación
pecuniaria, o directamente en las cosas de su dominio o posesión, o
indirectamente por el mal hecho a su persona o a sus derechos o facultades”.
El daño patrimonial está integrado por dos elementos: El daño emergente (el
perjuicio efectivamente sufrido) y el lucro cesante (la ganancia futura de que
fue privado el damnificado). El daño emergente comporta un empobrecimiento
del patrimonio en sus valores actuales. El lucro cesante consiste en la
frustración de una ganancia o de la utilidad que haya dejado de percibir sea la
víctima de un delito o un acreedor de una obligación por el incumplimiento de lo
acordado.
En este punto, señalamos dos problemáticas principales en la esfera de la
definición y tratamiento del concepto de daño. Por un lado, el daño psíquico
como forma jurídica autónoma no existe en la legislación vigente. Esto delata la
necesidad de describir el concepto para su inclusión en las normativas vigentes
en Psicología, y la efectiva aplicación a situaciones profesionales donde
pudiera provocarse el sufrimiento de los individuos intervinientes. Más allá de
su apreciación pecuniaria, el sufrimiento mismo es un menoscabo en la
subjetividad de quien lo padece. Es necesario dar un marco deontológico a la
posible aparición de este tipo de situaciones, teniendo en cuenta aquí las
investigaciones que deben llevarse a cabo mediante engaños o en contextos
de tensión psicológica. Por otra parte, y además de su delimitación jurídica,
todo contexto investigativo que plantee una relación disimétrica en función de
los roles asignados y del poder de cada uno implica la necesidad de considerar
a participantes en investigación como “sujetos de derechos” (incluyendo
criterios éticos) y no sólo “sujetos del derecho” (como lo establece el discurso
jurídico). Desde este punto de vista la responsabilidad del investigador y el
ejercicio de un ethos científico-profesional de excelencia es innegable
(Sánchez Vazquez, 2011; 2008), donde su accionar pudiera ser autónomo y
crítico respecto de la reglamentación vigente, de las vacancias halladas, del

114
respeto por la dignidad de los sujetos a su cargo y de la situación de encuadre
de investigación específica.
Considerando lo expuesto anteriormente, planteamos algunos interrogantes al
modo de dilemas. En primer lugar, ¿cómo realizar una investigación con
sujetos humanos sin causarles ningún tipo de perjuicio alguno a futuro?
Teniendo en cuenta que la Psicología es una disciplina con poco poder
predictivo (en este caso el perjuicio puede llegar a ser inevitable, o por lo
menos impredecible), los tipos de investigación donde el interés cognitivo está
puesto en estimar los comportamientos humanos en las situaciones descriptas
tendrían que estar prescriptas. ¿Y el poder heurístico de tales investigaciones?
De hecho, tanto la experiencia de Milgram como la de Zimbardo han traído
notables avances al campo del conocimiento científico de los humano.
Segundo: De realizarse experiencias similares a los ejemplos tratados ¿Cuál es
el desafío ético que debe considerar el investigador en este tipo de
experiencias? ¿Debe optar entre principios? ¿Qué tipo de responsabilidades
tendría que asumir en pos de considerar el posible perjuicio a los participantes?
El apartado siguiente permitirá reflexionar sobre estas cuestiones
mencionadas.

La prudencia responsable del investigador

La inquietud por una actitud responsable incluye ante todo la preocupación


por el otro. Ese otro se convierte, en términos jurídicos, en un sujeto de
derechos y, en términos morales, en un sujeto de estima y respeto (Ricoeur,
2003).
Hasta aquí, hemos evidenciado las cuestiones de la investigación con sujetos
en situaciones de engaño y de tensión extrema desde una lectura normativa.
Como enunciamos en el apartado anterior, ni lo jurídico ni lo deontológico
profesional agota la cuestión ética del tratamiento y manejo responsable del
científico. Es necesaria una posición crítica que reconstruya argumentos a
favor del respeto innegable del otro a nuestro cargo.

115
Desde su sentido jurídico-legal, el tema de la responsabilidad se centra
fundamentalmente en los efectos de la acción y su necesaria reparación si
esos efectos han sido dañinos para los otros afectados, es decir, si se ha
cometido una falta. La conocida fórmula “atribución-imputación-retribución”
sintetiza aquí el circuito que debería recorrer una acción jurídica justa cuando
se identifica al agente responsable. Actualmente, tal como sostiene Ricoeur
(2003), la idea de responsabilidad ha sufrido jurídicamente una renovación. La
estrategia ha sido separar las nociones de “castigo” y de “falta” y la
consecuencia de ello, una despenalización de la responsabilidad. Este artilugio
incluiría, en su lugar, conceptos tales como “seguridad” y “riesgo”, evitando la
idea de culpabilidad de los sujetos, resultando una responsabilidad sin falta.
Efectivamente, lo que provoca este paso desde la falta hacia el riesgo es una
des-responsabilización del agente en el campo del Derecho: la noción de
riesgo desplaza el foco de atención desde el autor del daño hacia la víctima y
su reparación -generalmente, la indemnización en lo Civil-. Esta postura es
fundamentada en el derecho por las denominadas Teorías de la Compensación
(Tamburrini, 1996), apareciendo finalmente una apreciación objetiva del daño
en detrimento de una evaluación subjetiva. Tal como dice Ricoeur (2003), esto
vuelve muy sutil el paso de la decisión en la acción hacia la fatalidad, anulando
finalmente el concepto de responsabilidad:

En los procesos que dan lugar a la indemnización, son las relaciones contractuales
las que están mayoritariamente en juego (...) si la victimización es aleatoria, su
origen tiende también a serlo, en virtud del cálculo de probabilidad que sitúa todos
los casos bajo el signo del azar. Así, desconectada de una problemática de la
decisión, la acción se ve ella misma colocada bajo el signo de la fatalidad, lo cual
es exactamente contrario de la responsabilidad. La fatalidad no es nadie, la
responsabilidad es alguien. (p. 65, subrayado nuestro).

Para el caso específico de la investigación, esto planteo de la responsabilidad


en términos exclusivamente jurídico-normativos nos lleva a afirmar que la
acción del científico no puede agotarse en los términos de evitación de un
riego; puesto que la lógica jurídica-normativa –si bien siempre necesaria
porque encuadra legalmente la acción de los agentes- está dirigida sólo a la
compensación de una posible falta (perjuicio), provocando el desinterés por los

116
actores intervinientes (por ejemplo, muchas veces la indemnización proviene
de la institución que desarrolla la investigación, ni siquiera de los propios
científicos participantes).
Otro horizonte es posible introducir en el tema de la responsabilidad por las
acciones realizadas. El tema ético prioritario aquí es el de la estima y el
respeto, colocando en consideración al otro a nuestro cargo. Si consideramos
los contextos generados en los múltiples niveles de intervención humana,
vemos que en la intersubjetividad siempre existe un autor de la acción y aquel
que la padece, lo cual instala una disimetría alternante. Cuando el tipo de
intervención establece una disimetría marcada surge la idea de cuidado del
otro, como intención ética del sujeto actuante sobre el sujeto vulnerable, real o
posible, que padece nuestra acción.
Más allá del tipo de relación establecida, fenomenológicamente se necesita de
la reciprocidad que reconozca a de cada uno de los polos intervinientes –el
autor necesita del lector, el profesor del alumno, el padre del hijo, el profesional
de su paciente y viceversa-; condición básica para que el contexto se instale.
En nuestro caso, en la relación investigador-investigado, cada uno debe
reconocer al otro como un agente actuante, “capaz de” Ricoeur (2008). La
potencia de cada uno -el ser capaz de- reafirma, reivindica al sujeto, porque se
presenta en su hacer como convicción práctica. Sin embargo, como condición
humana paradojal, a cada forma de capacidad, de autonomía, siempre
corresponde una figura determinada de fragilidad humana, de vulnerabilidad. Si
la capacidad es una potencia mayor, porque el hombre es el que se reafirma, el
que atestigua con su acción su existencia, su identidad; la vulnerabilidad, a
diferencia, aparece como una potencia menor –pero no como un déficit-,
porque demuestra los límites de cada uno, las constricciones que impone el
otro en la interacción. En la relación intersubjetiva, cada uno es,
alternadamente, el que puede y el que padece la acción del otro. Estos dos
aspectos no se oponen, sino que se complementan, en una visión
antropológica donde, “la autonomía es la de un ser frágil, vulnerable; y la
fragilidad sería sólo patología, si no fuese la fragilidad de un hombre llamado a

117
tornarse autónomo, porque él lo es siempre de cierta forma” (Ricoeur, 2008
71).
En este cuadro de interacción humana presentado, surge la siguiente
preocupación:

¿Hasta dónde se extiende en espacio y en tiempo la responsabilidad de nuestros


actos? (…) ¿Hasta dónde se extiende la cadena de los efectos perniciosos de
nuestros actos que podemos considerar implícitos en el principio, el comienzo, el
inicio del cual un sujeto es tenido como autor. (Ricoeur, 2003, p. 68).

Establecer el límite de un autor determinado en la cadena de efectos


virtualmente infinitos de una acción se vuelve una tarea obligada. En primera
persona, es el hombre el que se interroga a sí mismo: ¿hasta dónde el carácter
“mío” de las consecuencias de la acción realizada? La intención ética de la
responsabilidad avanza entre estas dos posibilidades: o el agente autor ignora
las consecuencias extendidas de su acto -los denominados “efectos
colaterales”- o se hace cargo de todas ellas, incluidas las opuestas a su
intención original. Sin embargo, tal como recuerda Ricoeur, la responsabilidad
no tiene que ver ni con un acto negligente y deshonesto (la ignorancia de los
posibles efectos) ni con el fatalismo exacerbado (la asunción indiscriminada de
los posibles efectos).
La acción responsable no implica sólo la prevención, la precaución, de posibles
daños o efectos no queridos, sino del ejercicio de la prudentia en su sentido
aristotélico. Frente a los conflictos e incertidumbres que trae este entramado de
relaciones humanas y donde los agentes-pacientes deberán ser fuente de
respeto mutuo bajo el principio de reciprocidad, la respuesta ricoureana retoma
la vía de la prhónesis aristotélica o virtud de la prudencia. Ricoeur apela a la
llamada “razón prudencial” en función de que la acción humana no quede
atrapada en los simples límites de lo legal estatuido (Moratalla, 1999).
Recordando el pensamiento aristotélico, entendemos la prhónesis como la
virtud intelectual que le permite al ciudadano moverse en el marco de lo que
puede ser de otra manera, es decir deliberar y actuar entre lo contingente. El
prudente es, pues, el que actúa deliberando desde su mundo interior -espacio
desde donde se imagina y configura las distintas posibilidades entre las que

118
hay que elegir- en función del “vivir bien” de la polis (Lledó, 1988). Esta
definición coloca a la phrónesis como virtud privilegiada por la capacidad que
otorga de sopesar y armonizar los bienes parciales individuales entre sí con
los intereses de los demás. Prudente es aquél que puede pasar
discursivamente de “lo que es bueno para mí” a “lo que es bueno para todos”.
La actitud ética se muestra aquí como una responsabilidad que considera
necesaria un arbitraje concreto, la búsqueda de un justo medio -nada en
demasía, nada en defecto- que evalúe el poder hacer del hombre capaz y
vulnerable a la vez. Un equilibrio necesario que conduzca al juicio moral en
situación:

A esta prudencia, en el sentido fuerte de la palabra, se remite la tarea de


reconocer entre las innumerables consecuencias de la acción aquellas de las
que legítimamente podemos ser tenidos como responsables, en el nombre de
una moral de la mesura. (Ricoeur, 2003, p. 74).

El prudente responsable, finalmente, es el sujeto actuante que se pregunta:


“¿hasta dónde llega mi poder?”.
Tener en cuenta este criterio ético proporcionado por el pensamiento
riccoureano es considerar, en el encuadre de investigación, que la
responsabilidad siempre se ubica del lado del científico en tanto despliega un
poder que parte de su saber-hacer especializado, atendiendo a la condición de
sujeto de derechos del otro a su cargo, pero principalmente eligiendo los cursos
de acción que permitan desplegar el par autonomía-vulnerabilidad del
investigado de modo prudential2.

Conclusión

Los desarrollos conceptuales generados a partir de la implementación del


taller “Ética e investigación científica” y de la reflexión con los alumnos
participantes, nos han permitido establecer los siguientes ítems importantes:
- El acto científico-profesional del psicólogo debe proceder en acuerdo con el
respeto del nivel universal. A partir de ello, se espera de él una defensa
inestimable del llamado “sujeto de derechos”. Esta afirmación aparece de modo

119
constante en toda normativa deontológica –dentro de la cual está contemplada
la actividad investigativa-, en concordancia con la proclama internacional de los
Derechos Humanos. El imperativo de dignidad, el principio del respeto por el
derecho a la autonomía y el cumplimiento del principio de beneficencia deben
sostenerse en todo caso en encuadre de investigación con sujetos, de allí las
reglas éticas consecuentes.
- Pero la manipulación de situaciones de investigación con sujetos humanos –
sean experimentales o no, con engaños, en experiencias extremas- no puede
agotarse en la sola defensa de un corpus deontológico a cumplir. El problema
de la sustancialización del principio y de la regla siempre está: ¿Quién es ese
sujeto que convocamos para investigar y que acepta participar? Esto nos
enfrenta muchas veces a dilemas situacionales –no siempre previsibles- donde
la consideración del “igual que a todos” (formulación de raigambre kantiana que
respeta la dignidad universal) no puede olvidar el “uno por uno, cada uno”
(aserto particular que entiende que el sujeto psíquico tiene múltiples y variadas
formas de realizar la dignidad proclamada). Aquí la postura autónoma crítica
del científico en encuadre de investigación es ineludible.
-La responsabilidad prudente se presenta como una vía posible que permite
reflexionar sobre el acto científico. La acción del psicólogo que investiga
muchas veces consiste en la realización prudencial de un acto de la excepción,
fundamentada en principios universales. Es difícil prevenir todas las
consecuencias posibles de la acción, porque cada caso es único; por ello
mismo, la prhónesis aparece aquí como la actitud alerta del psicólogo en el
intento de realizar un equilibrio entre los posibles cursos de acción a seguir y
sus efectos en el otro, en un margen de incertidumbre que queda siempre
como “resto moral”, propio de esta época post (Bauman, 2004).
- La afirmación antropológica que predica de los sujetos la autonomía y la
vulnerabilidad alternante -como dos caras de una misma moneda- toma su
forma peculiar en un contexto donde la disimetría es condición de posibilidad
para poder operar profesionalmente. Sin embargo, las relaciones donde la
disimetría es predominante –como el contexto de investigación- pueden
configurarse como una forma de intimidación, de manipulación, y hasta de

120
instrumentalización del otro investigado. La vulnerabilidad se muestra aquí
como una potencia menor a la que hay que otorgar especial cuidado. Estas
formas no son sino violencias ejercidas sobre el otro, ‘objeto’ de la práctica
científico-profesional.
En conclusión, nos parece sumamente relevante recordar la tradicional
propuesta ética, siempre actual, del pensador Bentham: “La pregunta no es
¿pueden razonar?, ni ¿pueden hablar?, sino ¿pueden sufrir?” (en Guisán,
1999:463), estableciendo así que cualquier acción sobre otro debería tener en
cuenta, desde el punto de vista ético, los intereses de los seres sensibles y
vivientes, más allá de su racionalidad. El juicio moral en situación, el que
permite establecer un justo medio prudente, alerta en no desestimar ni
desatender las posibles consecuencias subjetivas en los investigados a nuestro
cargo en aras de un avance científico des-humanizado.

Notas

1
Véase Das Experiment (2001, Director Oliver Hirschbiegel). El film está
basado en el libro The Black Box (1999, de Mario Giordano), que a su vez toma
como inspiración el famoso experimento de Zimbardo.
2
Se utiliza el término latino prudentia para señalar el sentido aristotélico
explicado, no confundiéndolo con el de prudencia en el sentido de la
prevención. Véase P. Ricoeur, 2003, página 74 y sig.

Referencias bibliográficas

American Psychological Association. (2002). Ethical Principles of Psychologist


and Code of Conduct. American Psychologist, 57 (12), 1060-1073.
Traducción al castellano Cátedra de Psicología, Ética y Derechos
Humanos, Facultad de Psicología, Universidad de Buenos Aires.
International BioethicalInformationSystem (IBIS), versión 10.

121
Asamblea Médica Mundial (1964-2008). Declaración de Helsinski. Finlandia.
Con enmiendas posteriores. Obtenido de
http:http://www.ub.edu/recerca/Bioetica/doc/Declaracio_Helsinki_2008.pdf
Asociación de Unidades Académicas de Psicología (1999). Protocolo de
Acuerdo de Principios Éticos para el ejercicio profesional de los
Psicólogos del Mercosur. Obtenido de:
http://tribunales.colpsic.org.co/tribunales_ref_nor_archvos/Protocolo_Mercosur.pdf
Bauman, Z. (2004). Ética posmoderna. Buenos Aires: Siglo XXI.
Burger, J.M. (2009). Replicating Milgram. Would People Still Obey Today?
American Psychologist, 64, No. 1, 1–11 DOI: 10.1037
Calo, O. (2002). La interacción del profesional con los códigos. Revista
Argentina de Psicología. Año XXXIV, Nº 45, pp. 25-36.
Colegio de Psicólogos de la Provincia de Buenos Aires, Distrito XI (2000).
Código de Ética, con modificatorias del Consejo Superior, Res. Nº 729
Obtenido de
http://www.colegiodepsicologos.org.ar/info/legislacion/textos/CodEtica.htm
Comisión Nacional para la Protección de Sujetos Humanos de Investigación
Biomédica y de Comportamiento (1979). Reporte Bermont. Principios y
Guías Éticos para la Protección de los Sujetos Humanos de Investigación.
Obtenido de
http://www.pcb.ub.edu/bioeticaidret/archivos/norm/InformeBelmont.pdf
Consejo de Organizaciones Internacionales de las Ciencias Médicas y
Organización Mundial de la Salud (2002). Pautas Éticas Internacionales
para Investigación y Experimentación Biomédica en Seres Humanos.
Ginebra, Suiza. Obtenido de
www.cioms.ch/.../pautas_eticas_internacionales.htm
Federación de Psicólogos de la República Argentina (1997). Código de Ética.
Aprobado por la Asamblea el 10/04/1999. Obtenido de
http://www.fepra.org.ar/respo.htm
Ferrero, A. (2000). La ética en psicología y su relación con los derechos
humanos. Fundamentos en Humanidades. Vol N° II, pp. 21– 42.

122
Guisán, E. (1988). El utilitarismo. En V. Camps (ed) Historia de la ética. Vol. 3.
pp. 457-499. Barcelona: Crítica
Lledó, E. (1988). Aristóteles y la ética de la “polis”. En V. Camps (ed), Historia
de la ética (pp. 136-207). Barcelona: Crítica.
Moratalla, A. (1999). Introducción. En P. Ricoeur, Lo justo. Madrid: Caparrós.
Perrenoud, P. (1994). Saberes de referencia, saberes prácticos en la formación
de los enseñantes: una oposición discutible. En Compte-rendu des
travaux de seminaire des formateurs de I’IUFM, pp.25-31. Grenoble:
IUFM. Traducción al castellano de G.Diker.
Poder Legislativo Nacional (1871). Código Civil de la Nación Argentina. Ley N°
340. Obtenido de http://www.infoleg.gov.ar/infolegInternet/anexos/105000-
109999/109481/texact.htm
Poder legislativo Nacional (1994). Constitución de la Nación Argentina. Ley Nº
24.430 Obtenido de
http://www.presidencia.gob.ar/images/stories/constitucion-nacional-
argentina.pdf
Salomone, G. & Michel Fariña, J. (2010). El experimento de Stanley Milgram:
cuestiones éticas y metodológicas. En Proyecto IBIS/AESTETHIKA
(2010). Ética y ciencia. De la eugenesia al tratamiento contemporáneo de
las diferencias humanas. Facultad de Psicología, UBA - International
Bioethical Information System.
Salomone, G. & Fariña, J. (2009). Cuestiones ético-metodológicas frente a la
réplica del experimento de Stanley Milgram, 45 años después. Anuario de
Investigaciones, XVI. Secretaría de Investigaciones, Facultad de
Psicología (UBA). Obtenido de:
http://www.scielo.org.ar/pdf/anuinv/v16/v16a66.pdf
Ricoeur, P. (2008). Lo Justo 2. Madrid: Trotta
Ricoeur, P. (2003). Lo Justo 1. Madrid: Caparrós
Roussos, A. Braun, M. & Olivera, J. (2012). Conductas responsables para la
investigación en psicología: Guía práctica. Buenos Aires: FUNICS.
Sánchez Vazquez, M.J. (2011). Ethos científico e investigación en Psicología.
En Memorias del 3er. Congreso Internacional de Investigación de la

123
Facultad de Psicología: Conocimientos y escenarios actuales, Tomo 2, pp.
129-134. La Plata: Universidad Nacional de La Plata.
Sánchez Vazquez, M.J. (Coord.) (2013). Investigar en Ciencias Humanas.
Reflexiones epistemológicas, metodológicas y éticas aplicadas a la
investigación en Psicología. La Plata: Edulp Versión on line
http://hdl.handle.net/10915/27889
Sánchez Vazquez, M. J. (2008). Ética y profesión: la responsabilidad en
términos de prudencia responsable. El caso de la Psicología.
Fundamentos en Humanidades, IX, 17, 145-161.
Tamburrini, C. (1996). Crime and punishment? Sweeden: Akademitryck AB,
Edsbruk.
Tribunal Internacional de Nüremberg (1946). Código de Nüremberg. Obtenido
de http://www.uchile.cl/bioetica/doc/nurem.htm
Unión Internacional de Ciencia Psicológica y Asociación Internacional de
Psicología Aplicada (2008). Declaración Universal de Principios Éticos
para Psicólogas y Psicólogos. Obtenido de
http://bvs.psi.uba.ar/local/File/DeclaracionPrinEticosSIP.PDF
Zimbardo, P. (1991/2009). Stanford Prison Experiment Slide Tour. Obtenido de
http://www.prisonexp.org/psychology/4

124
CAPÍTULO 4

LA ENSEÑANZA DEL TESTIMONIO EN LA INVESTIGACIÓN


CUALITATIVA: EXPERIENCIAS COLECTIVAS EN EL AULA

Irma Cecilia Colanzi y José Manuel Villarreal

El presente capítulo tiene como propósito analizar la experiencia del


dispositivo de taller, como instancia de enseñanza y de aprendizaje, que
supone una construcción colectiva en el contexto áulico. El objetivo del taller
que se analiza fue propiciar un espacio de reflexión sobre la tarea colectiva de
la producción de conocimiento científico, tomando un sustrato novedoso en la
investigación en Ciencias Humanas: el testimonio.
Nos proponemos entonces desarrollar un análisis de la actividad desde un
espacio didáctico específicamente diseñado para generar competencias en la
construcción de nuevas modalidades de investigación científica, con el género
como categoría de análisis.
En el recorrido que efectuaremos vamos a establecer un análisis histórico y
epistemológico de la categoría de testimonio, como un instrumento de
investigación que constituye tanto una verdad social – histórica, como también
una verdad jurídica. En este sentido, abrevaremos en la idea de Bruner (2002),
en relación con la construcción de relatos enfrentados.
El testimonio además supone un desafío conceptual al momento de visibilizar,
a partir de la construcción colectiva, las responsabilidades científicas y políticas
de incorporar las problemáticas del presente en la agenda de la comunidad
científica. Por medio de esta experiencia se proponen nuevas modalidades de
enseñanza y nuevas discusiones en torno a la construcción de conocimiento
científico.

125
El dispositivo de taller como construcción colectiva de saberes

El dispositivo de taller incorpora en primer término la construcción colectiva.


En esta línea, Schuster e Hidalgo (2003) proponen pensar la construcción
científica en términos de una escena (plantean un paralelismo con el teatro)
donde la innovación no responde a los logros cognitivos individuales, sino a
una propuesta de acción en conjunto. De igual manera, los autores sostienen
que el planteo khuniano constituyó una revalorización epistemológica del
análisis de la acción humana colectiva, en el proceso de producción y
validación del conocimiento científico.
El espacio colectivo de construcción de saberes es un escenario privilegiado
para propiciar el desarrollo de competencias en la construcción de instrumentos
metodológicos y la definición de propuestas de investigación. Esto puede
desarrollarse desde una idea de producción de conocimiento científico que
posibilite innovaciones o revoluciones (Schuster e Hidalgo, 2003), donde el arte
y la ciencia vuelven a encontrarse.
En consonancia con lo anterior la propuesta de trabajo en el dispositivo de
taller tuvo como propósito introducir en el contexto del aula soportes tanto
literarios como visuales (documentales y entrevistas periodísticas) para
problematizar la construcción científica de saber y reflexionar acerca de la
incidencia social de los testimonios.
Retomando la noción de “revoluciones” o “innovaciones”, el objetivo de generar
espacios de aprendizaje significativo y crítico, permite pensar en el consenso
que busca el ámbito académico, legitimando momentos de “normalidad
científica” y la importancia de deconstruir estos procesos. El espacio de taller
entonces fue pensando por la importancia de fomentar espacios de
deconstrucción y desterritorialización (Deleuze, 1972) de construcción teóricas
e instrumentos metodológicos. De esta manera, la construcción de
conocimiento científico supone un proceso creativo colectivo, así como también
presenta objetivos colectivos y comunitarios.

126
El taller fue organizado en dos líneas de análisis. En primer lugar, indagar la
perspectiva de la teoría crítica, como opción epistemológica que propicia el
análisis de las situaciones actuales desde una visión de crítica y
transformación. En segundo lugar, la propuesta del taller se orientó a la
presentación del testimonio en sus múltiples presentaciones en el marco de la
investigación en el campo de las Ciencias Sociales. Conformó así un espacio
de discusión acerca de la importancia del testimonio como un elemento
metodológico, político e histórico que arraiga en la experiencia del testigo –
testimonio de la masacre nazi y que se reactualiza y resignifica en la
actualidad, a partir de fenómenos que tienen un lugar central para la
metodología cualitativa. El testimonio tiene una importancia fundamental dado
que supone el registro de las palabras de los testigos que se inscribe en la
tradición metodológica que marcó un giro subjetivo, especialmente en el caso
del pasado reciente argentino. Su estatuto se perfila como soporte de una
verdad histórica marca la incorporación de una discusión histórica, política y
social en el contexto universitario, posible a partir de un proyecto social de
escucha que hoy se plantea a través de los usos actuales del pasado y nuevas
revisiones del mismo.
Como material disparador en el espacio del aula se utilizaron materiales
visuales significativos, con un fuerte contenido crítico acerca de lo que Calveiro
(2008) define como las atrocidades del presente, y una nueva mirada de la
ficcionalización de la memoria a partir de la experiencia de Albertina Carri,
directora de “Los rubios” (2003). De esta forma el taller estuvo organizado en
tres momentos:
Un primer momento de introducción teórica sobre la noción de testimonio, su
definición epistemológica y la vigencia del mismo en las Ciencias Humanas en
la actualidad.
Un segundo momento con el análisis de los disparadores visuales presentados,
que condensan la característica principal del testimonio: constituir una verdad
social – política e histórica y una verdad jurídica.
Se analizaron los siguientes disparadores visuales:

127
• Fragmentos del documental: testimonio “Ojos que no ven”. Realizado por
la periodista Ana Cacopardo (2009), de amplia trayectoria en la temática
de la Memoria y la Historia en nuestro país.
• “Los rubios” (2003). Película testimonial de Albertina Carri.
• Fragmento Historias debidas. Entrevista a Susana Trimarco (2012).
Entrevista realizada por la periodista Ana Cacopardo, por la cual recibió
recientemente la distinción Lola Mora.
El tercer momento del encuentro se sustentó en la importancia de generar
competencias efectivas en el uso del testimonio en la construcción de
conocimiento científico. Este momento define el dispositivo del taller, en la
medida que propone una tarea de producción in situ para poner en juego las
definiciones conceptuales y las estrategias metodológicas en el uso del
testimonio en investigación.
Se propusieron actividades para establecer una instancia de evaluación. Las
mismas consistían en tomar los soportes visuales para elaborar una propuesta
de investigación presentando un marco teórico, unidad de análisis y
fundamentar el uso del testimonio en la propuesta, a partir de la lectura de la
bibliografía del taller.
A partir del análisis desarrollado de las propuestas que presentaron los
alumnos/as, se identificaron distintas categorías de análisis que pudieron
establecer los estudiantes frente a la noción de testimonio. En el presente texto
se recortan y analizan las siguientes:
1. Fines políticos de la investigación/ testimonio como forma de servir al
pueblo.
2. Memoria como una construcción.
3. La visibilización del testimonio como acto político. Proyecto social de
escucha (Jelin, 2002).
4. La indagación de consecuencias psíquicas de fenómenos sociales.
Encrucijada de la socialización y la subjetivación.
5. El multiverso, las múltiples realidades.
Estas categorías se presentaron en la mayor parte de las producciones
realizadas por los estudiantes en el espacio del taller. La identificación de estas

128
líneas de análisis evidencian la importancia de la construcción de un vínculo
docente–estudiante, que propicie la reflexividad (Guber, 2011) en los procesos
de construcción de conocimiento. Asimismo, el material disparador del análisis
efectuado por los alumnos/as permite una producción autónoma de los
estudiantes, que se relaciona con los procesos de lecto-escritura guiados por el
equipo docente y acompañado de herramientas didácticas que permitan la
problematización de la temática de estudio y la reflexión acerca de las
tensiones que suscita la producción de conocimiento.
En vínculo con lo anteriormente planteado, es de gran pertinencia la
investigación desarrollada en los últimos años por Carlino (2003), quien
propone dos estrategias efectivas para abordar los insumos teóricos en el aula:
• Enseñar los modos específicos de nuestras disciplinas sobre cómo
encarar los textos, explicitando nuestros códigos de acción cognitiva
sobre la bibliografía
• Hacer lugar en las clases a la lectura compartida, ayudando a entender
lo que los textos callan porque dan por sobreentendido.
La instancia del taller permite el trabajo en conjunto del equipo coordinador y
los estudiantes construyendo herramientas para generar competencias en
cuanto a la análisis de los textos académicos y el proceso creativo de
elaboración de una propuesta de investigación en vínculo con lo disparadores
visuales.
El desarrollo del taller propició posicionamientos activos de los estudiantes en
relación a problemáticas actuales que atañen a la tarea de los psicólogos en el
campo de la investigación.

Entrecruzamiento de discursos: categorías de análisis teóricas


y producción innovadora en el aula

Siguiendo con las categorías de análisis presentes en la producción de los


estudiantes, en el presente apartado se analizarán la emergencia de nociones

129
en las producciones de los estudiantes y la noción teórico–metodológica del
testimonio.
En primer lugar, es necesario introducir una reflexión en cuanto a la noción de
testimonio y la indagación actual de la narrativa testimonial. Si bien el
testimonio se asocia a un acontecimiento ligado a la excepcionalidad, este
criterio se impone en función de la dialéctica que se establece entre las
grandes narrativas y la narrativa de la alteridad. De esta manera, es necesario
revisar la operación que impone la construcción de la lógica testimonial, en
tanto una verdad social, cuando se invisibilizan o forcluyen (Spivak, 1999) los
testimonios que hoy constituyen, de acuerdo al planteo de Calveiro (2008), las
atrocidades del presente. Al respecto, Calveiro sostiene que al mismo tiempo
que se registra un auge de las practicas de la memoria, una fetichización del
testimonio siguiendo a Sarlo (2010), se presta poca atención a los testimonios
que se producen en este mismo momento sobre las atrocidades del presente,
invisibilizando su potencia narrativo.
En consonancia con lo anterior, se observa como la construcción científica de
conocimiento también propone una manera de producir conocimiento desde
una posición lejana, construyendo una alteridad sobre la cual no es posible
incidir por su lejanía en el tiempo, como propone pensar Calveiro, de manera
reflexiva y crítica, en cuanto a la posibilidad de pensar en el holocausto porque
desde el presente no es posible responsabilizarse.
En este sentido, Althabe (1999a) analiza como en el campo de la producción
de conocimiento hay una tendencia (el autor la observa en el campo de las
Ciencias Humanas) que marca la elección de los sujetos más alejados de sí
“habitantes de periferias urbanas, familias de sectores populares, minorías
étnicas entre otros” (Althabe, 1999a: 3), marcando una distancia etnocultural, y
esto implica un sesgo en el sentido de la investigación.
El testimonio entonces requiere de un compromiso que construye un
significado con una fuerte vertiente política, ligado a la violencia por parte
Estado, marcando una ruptura con la construcción de la alteridad desde la
lejanía. De esta manera como plantea Calveiro (2008), el testimonio tiene un
lugar paradójico, por un lado es una herramienta del derecho para establecer la

130
verdad jurídica, pero al mismo tiempo se lo cuestiona como instrumento de
construcción de la verdad histórica.
Esta situación del testimonio se vincula con dos categorías de análisis
delimitadas por los participantes del taller: los fines políticos de la investigación/
testimonio como forma de servir al pueblo y la visibilización del testimonio como
acto político-proyecto social de escucha. Se teje entonces un entramado de la
construcción académica en cuanto al testimonio y la construcción social,
permitiendo que el testimonio se inscriba en la agenda de investigación con
una clara definición política sobre la memoria, y al mismo tiempo requiere de un
acompañamiento social e histórico que visibilice la dialéctica de las grandes
narrativas y las narrativas de la alteridad, muchas veces construidas desde el
discurso académico. En línea con lo anterior, Hall (2008) afirma:

Estoy cansado de esas dos grandes contranarrativas continuas. Permanecer


dentro de ellas es verse atrapado en el interminable "lo uno o lo otro", o la victoria
total o la incorporación total, lo cual casi nunca ocurre en la política cultural, pero
sobre lo cual los críticos culturales siempre se ponen de acuerdo. (p.3).

Hall sintetiza la lucha por la hegemonía cultural, que es la lucha por imponer
unas narrativas sobre otras, o incluso abolir la posibilidad de testimoniar. El
autor reflexiona sobre las estrategias hegemónicas que reemplazan la
invisibilidad de algunos testimonios por una visibilidad “cuidadosamente
segregada, regulada” (Hall, 2008, p. 4).
El desafío de incorporar el testimonio en una propuesta de investigación
constituye entonces un desafío conceptual que los estudiantes deben
incorporar en sus producciones, con un claro ejercicio de compromiso social.
Siguiendo a Althabe (1999b, p.4): “el investigador se ubica en un juego social
que se le escapa, pero que otorga sentido a lo que él hace”.
Las propuestas de investigación de algunos grupos de estudiantes que
decidieron tomar la noción de testimonio vinculada a la entrevista desarrollada
por Cacopardo (2012) a la Sra. Susana Trimarco, madre de una víctima de
trata con fines de explotación sexual y Presidente de la Fundación María de
los Ángeles por la lucha contra la trata de personas, se relaciona con la
categoría: La indagación de consecuencias psíquicas de fenómenos sociales.

131
Encrucijada de la socialización y la subjetivación. En consonancia con lo
anterior, el testimonio permite analizar la memoria social y la memoria
autobiográfica, con la perspectiva de género como categoría de análisis
privilegiada.
La memoria no sólo tiene género, sino que evidencia relatos que configuran
dos tipos de historias, una Historia (con mayúscula) relato oficial y muchas
historias que son las que constituyen las memorias del encierro. Relatos
traumáticos que dejan siempre un resto de lo indecible. Arfuch sostiene que “el
yo como marca gramatical que opera en la ilusoria unidad del sujeto, la forma
del relato, que traza los contornos de los decible dejando siempre el resto de lo
inexpresable” (Arfuch, 2012, p. 75).
Hay una necesaria mirada de género en cuanto a la construcción de estas
tramas que permiten visibilizar los textos que desde el contrato social/sexual,
han quedado relegados al espacio privado–íntimo. Para poder visibilizar estas
voces, democratizar la palabra y dar voz a quienes no la tienen, es importante
distinguir las diferencias entre los testimonios de varones y mujeres: Las voces
de las mujeres cuentan historias diferentes a las de los hombres, y de esta
manera se introduce una pluralidad de puntos de vista. Esta perspectiva
también implica el reconocimiento y legitimación de “otras” experiencias
además de las dominantes (en primer lugar, masculinas y desde lugares de
poder). Entran en circulación narrativas diversas: las centradas en la militancia
política, en el sufrimiento de la represión, o las basadas en sentimientos y en
subjetividades. Son los “otros” lados de la historia y de la memoria, lo no dicho
que se empieza a contar.
Esto configura un tiempo narrativo que permite pensar en la configuración de la
identidad y de un discurso, como plantea Ricoeur (1996). La puesta en
discurso, el volver a decir, permite volver a vivir, por la capacidad performativa
que tiene el lenguaje. Es por esto la importancia de pensar en nuevas
hacedoras de memoria, marcando una ruptura con los relatos oficiales, cual
narrativas contra hegemónicas.
En el plano del Derecho, y propiciando una mirada interdisciplinaria de la
noción de testimonio. El testimonio, como prueba jurídica remite a la

132
concepción del proceso judicial como conjunto de relatos, algo que no es
novedoso. Estos relatos constituyen un tipo, quizás el mas importante, de los
tantos con que se va diseñando el discurso jurídico en nuestras sociedades de
acuerdo al planteo de Orler (2004).
Son relatos:
• Enfrentados "entre sí". Las voces contrapuestas son múltiples. En
principio y enunciado genéricamente, "las partes". Se agregan a ellas y
sus letrados, según los casos, innumerables "coreutas" no menos
importantes y definitorios al momento constituyente del gran relato.
Peritos, testigos, mediadores, querellantes, particulares damnificados,
tutores, curadores, el estado y todo tipo de instituciones representadas
por los mas diversos funcionarios (Procuraduría General, Instructores,
Asesor de Menores e Incapaces, etc.).
• Pero además, hablamos de relatos enfrentados con los hechos y el
derecho. Enfrentados con "lo ocurrido" y "lo legislado". "Lo dado" y "lo
construido",
• Será primero la interpretación-construcción que de lo ocurrido haga el
actor y luego la que haga el juzgador en base al relato de aquél; o en
base al relato de un testigo que vio al actor; o un perito que no lo vio
pero puede testimoniar sobre lo sucedido merced a los indicios que
obtiene de "aplicar" su ciencia y técnicas; o en base al relato que haga el
funcionario judicial (Secretario) que toma las audiencias cuando no lo
hace personalmente el juzgador del relato del actor, del testigo, del
perito; o... innumerables mediaciones que multiplican el ejercicio
hermenéutico.
El Proceso Judicial entendido como narrativa, como conjunto singular de
relatos plurales en permanente disputa y esencial contradicción, ha servido de
excusa para nuestro propósito mas oscuro, que confesaremos ya sin
miramientos: cuestionar el Derecho y sus pretendidas certezas.
De acuerdo al recorrido efectuado restan dos categorías de análisis propuestas
por los estudiantes: el multiverso y la memoria como una construcción. Ambas
son categorías que inauguran una legalidad onto-epistemológica novedosa,

133
haciéndose necesario atender a lo diverso desde una perspectiva que dé
cuenta de la realidad social como un entramado en constante
tensión/construcción, producto del derrotero de significaciones sociales en
invariable devenir.

Los supuestos y bases del testimonio: hacia una onto-


epistemología política

¿Por qué, a ciertas horas, es tan necesario decir: "Amé esto?"


Amé unos blues, una imagen en la calle, un pobre río seco del norte.
Dar testimonio, luchar contra la nada que nos barrerá.
Cortázar, Rayuela

Al delimitar la idiosincrasia del testimonio como técnica de investigación


cualitativa, debemos posicionarlo en la intersección entre dos coordenadas:
• La singularidad de un relato desde un emisor eminentemente subalterno
y contrahegemónico (Beverley, 2010)
• Lo político como proyecto de cambio (Calveiro, 2008)
Ambas nociones fueron el común denominador del trabajo grupal que hemos
compartido junto a los estudiantes en los talleres sobre testimonio y técnicas
narrativas. Es así que se pretende atender a dicha coyuntura, enmarcada en un
movimiento estratégico que solo puede devenir atendiendo a las bases onto-
epistemólogicas que clarifican el enorme poder heurístico del testimonio.
Desde lo onto-epistemológico, comprendido como aquellos supuestos
implícitos y explícitos que demarcan de que manera nos acercamos y
construimos científicamente aquello que podría definirse como “realidad” se
indagarán las posibilidades del testimonio como abertura hacia nuevas y
múltiples voces que tensionan y complejizan el panorama de una investigación.
Aquí la noción de “brecha de paralaje” (Zizek, 2011) da cuenta de que la “cosa
en sí, más allá de los fenómenos no es simplemente un ente trascendental más
allá de nuestra comprensión, sino algo que solo puede discernirse a través del

134
carácter irreductiblemente antinómico de nuestra experiencia de la realidad”
(Zizek, 2011, p. 29). Entre dos perspectivas, habrá siempre una tensión, la
anteriormente denominada “brecha de paralaje”. Hiancia que se abre en el
corazón mismo de nuestra noción de realidad, para que las apariencias
permitan abrir la multiplicidad de sentidos cautivos bajo una hegemonía que
tiende a crear una mitología. Los imaginarios hegemónicos obturan las
narraciones, que en su diversidad arman un pastiche que lejos de ser un mero
eclecticismo, plantean la ausencia de esencia capaz de dar cuenta de nuestro
devenir como especie.
Esta brecha nos habla de la multiplicidad de relatos que en constante tensión y
digresión componen nuestra aprehensión de la realidad: “no tenemos dos
perspectivas, disponemos de una perspectiva y de lo que la elude, y la otra
perspectiva llena el vacío de lo que no puede verse desde la primera” (Zizek,
2011, p. 45). La identidad se disuelve bajo una multiplicidad de apariencias,
cuya génesis reside en la “ausencia de significante binario” (Zizek, 2011, p. 61).
En este sentido es que podemos argüir que el sentido prínceps del testimonio
no es una mera digresión, una anomalía en la estructura social hegemónica,
sino que el decir del testigo da cuenta de la imposibilidad del sistema de captar
lo múltiple que se escurre entre sus grietas.
Zizek sigue a Agamben (1998) cuando toma la figura del “Musulmann” como el
paradigma del testigo. Esa era la nominación que los nazis daban a aquellos
prisioneros de campos de concentración cuya apatía los reducía a la categoría
de “muertos vivos” (Zizek, 2011, p. 164). Tal deshumanización radical es la
confirmación de que dicha experiencia sería inefable por definición, carecería
de lugar en la estructura simbólico-social, por lo cual “la tragedia del testimonio
no es solo que el testigo ideal (el Musulmann que daría testimonio por su sola
presencia) sea imposible, sino también que no exista el receptor ideal (…)”
(Zizek, 2011, p. 166, el resaltado es nuestro). De aquí se concluye la verdadera
potencia del testigo como figura límite, su condición singular no reside en su
narración sino en su capacidad de transmitir su marginalidad, denunciando no
solo las falencias del sistema hegemónico, sino su relativismo extremo como
sistema social.

135
Aquí vemos el plus que el testigo con derecho propio agrega a su discurso, su
singularidad adquiere categoría política por su tópica en las grietas de lo
decible. Por esto sienta las bases para una cultura contra hegemónica,
cualquier intento de categorizar en una clase a dicho decir será fallido por
definición. Sarlo (2005, p. 17) nos habla de un “giro subjetivo”: tendencia
académica contemporánea a construir la historia lejos de los grandes relatos,
privilegiándose al testimonio como un “ícono de la verdad” (Sarlo, 2005, p. 23).
De esta manera se propicia una sobreexposición de testimonios, donde los
usos públicos que se decantan de este proceso borran la singularidad de una
experiencia que debe mantenerse en constante tensión entre lo decible y lo
indecible. Punto donde lo singular se empalma con lo político, para que la
narración siente las bases de una terapéutica nunca catártica en el sentido de
alivio a posteriori. Sino que se iniciará un proceso activo de historización,
centrado en la escucha como albergue de aquel proceso de construcción de
una historia que pueda emerger desde lo marginal, sin perder nunca su
capacidad de denuncia como estandarte del cambio. es desde esta perspectiva
que, más allá de los beneficios jurídicos y morales que van de la mano con el
giro subjetivo, debemos atender siempre a una subjetividad que no debe
perderse en categorías abstractas, sino rescatarse desde los márgenes
mediante la contención que demandan las experiencias límites.
Siguiendo esta línea, es interesante ver como la memoria puede ser
conceptualizada como una construcción sui generis que se desarrolla desde
una perspectiva narrativa. Según Ricoeur (1996), la identidad se funda en un
movimiento signado por la acción, un proceso recursivo en constante devenir.
Lo mismo (ídem) se suplementa con la identidad reflexiva (ipseidad), para
fundar un sujeto activo que mancomuna ambos polos en una narración que lo
apela, definiéndolo y redefiniéndolo de manera constante. Se funda así una
“identidad hermenéutica como ´comprensión´ que el sujeto hace de sí mismo,
comprensión que (…) es acción reflexiva” (Zapata, 2009, p. 82). Es así que el
testimonio puede ser visto como una construcción dialéctica que el sujeto hace
de sí mismo. Es en la acción de narrar sus peripecias que el sujeto no solo
intentará reconstruir su particular visión de lo acaecido, sino que encontrará un

136
lugar en la escena. Coyuntura de entrecruzamiento con su historia personal,
donde a posteriori el sentido propio del lenguaje como estructura simbólica irá
armando un entramado a partir del cual cada uno podrá verse identificado.
Movimiento que se instaura empoderando a un sujeto activo, que en su
capacidad de reflexión irá constituyendo, no en la linealidad sino en la
recursividad, su propia historia.
Vemos así como desde lo onto-epistemológico se decanta una particular unión
entre el rol subalterno del testigo y su carácter netamente político. Su decir
emplazado en una tópica particular desde los márgenes del sistema, visibiliza
dicho lugar como el resultado de un accionar perverso. Movimiento signado por
la negación de aquello que se escurre por debajo de los intentos de crear un
consenso ficticio por definición. De esta manera se enfatiza no solo la narración
del testigo, sino el lugar desde el que se la dice, ya que permite una
construcción única al resaltar aquel lugar ausente en la estructura simbólica: no
existe el gran Otro. Concepción onto-epistemológica que inaugura una nueva
legalidad al interior de la investigación en Ciencias Sociales, novedad cuyo
paradigma es, sin dudas, la figura del testigo.

Nuestro rol dentro del dispositivo de taller: entre el ser docente


y estar docente

El presente apartado está constituido por dos relatos, narraciones reflexivas


sobre el proceso de estar en el aula y vivenciar experiencias didácticas,
propiciando la deconstrucción de las grandes narrativas del discurso
universitario y permitiendo la multiplicidad de voces y la multiplicación de las
mismas en torno a la lógica de acción colectiva.
Como autores de este texto decidimos dejar la marca de esa experiencia a
través de nuestro propio relato, dando testimonio del proceso vivenciado. Es
sabido que la experiencia no puede ser reducida completamente al lenguaje,
pero como hemos aducido a lo largo del presente capítulo, en el intento por dar
nombre a lo inefable es donde lo original sucede y donde lo callado, habla.

137
Nuestras experiencias han ido moviéndose entre los polos del ser docente,
suposición de una esencia caracterizada por un saber unidireccional y el estar
docente, perspectiva situacionalista que da cuenta de la capacidad de
suspender en cierta medida los sistemas conceptuales que hacen a nuestra
cosmovisión, dando lugar a que el conocimiento sea producto del trabajo
grupal. En esta coyuntura hemos desarrollado nuestra tarea, llamándonos a la
prudencia de tratar de mantener los puntos medios. Alternando un rol directivo,
guiado por preconcepciones teóricas y pedagógicas, con una escucha
expectante que garantice la ausencia de dogmatismos. En dicha tensión
surgirá la idiosincrasia del trabajo grupal: alejada de reproducciones pasivas,
garantizando ciertas tópicas de referencia y a la espera de superaciones
novedosas.

¿Es esto ciencia? (José Manuel Villarreal)

Dentro de cada taller fue inevitable que la curiosidad surja. La novedad del
testimonio, su encrucijada con lo artístico, lo científico y lo político eran motivo
de miradas ávidas de novedad. “¿Es esto ciencia?”, preguntó abiertamente uno
de los grupos. Las preconcepciones de raigambre positivista, acerca de la
objetividad y la universalidad abstracta se convirtieron en categorías que
explotaron con el poder heurístico de las técnicas narrativas y, en particular, del
testimonio. El rol del psicólogo con miras a esta técnica tan particular que nos
habla de “sujetos con historia” parece encontrar un lugar específico y
novedoso. Nuestra pericia en el ámbito de la escucha y la singularidad de la
experiencia humana como categoría científica, se encuentran en la
especificidad del rol del psicólogo investigador, hallando un cauce en la figura
del testimonio. La sensación de fronteras que se expanden, de campos de
acción que se inauguran frente a nuestros ojos, descubriendo el poder del acto
de investigar dando relevancia a aquello que se creía irrelevante, fomentando
la justicia social desde nuestra especificidad como psicólogos investigadores,
fueron campos de encuentro que nos sorprendieron y recibimos con asombro.

138
Dar testimonio: visibilización de tramas silenciadas (Irma Cecilia Colanzi)

La propuesta de un taller sobre testimonios con perspectiva de género es


una apuesta subjetiva e histórica, buscando la visibilización de las historias en
singular que hoy deconstruyen la Historia oficial. El espacio del taller permite en
primer lugar reflexionar sobre la posición docente, propiciando la ruptura de un
saber-hacer rígidamente establecido y generando un espacio de multiplicación
de voces con un fuerte compromiso social.
El taller fue pensado para generar un espacio de reflexión y una puesta en
palabras de las historias que hoy constituyen “la alteridad”, en un doble
registro, el de las voces de mujeres que como Susana Trimarco, Ana
Cacopardo y Albertina Carri se animan a desafiar al Otro, dando testimonio de
las tramas invisibilizadas de nuestra propia historia (la colectiva) y el de los
estudiantes, que resisten el saber que se impone verticalmente en el aula y que
en el espacio de taller pueden hablar y no sentirse hablados, pueden
legitimarse con sus propias palabras.
En el cierre de este espacio hubo un registro placentero de la experiencia de
aprendizaje, esto responde a que la vivencia del estudiante en el aula no puede
ser otra que la del desafío y la curiosidad, la de la pregunta y especialmente la
vivencia de cuestionar las grandes narrativas, las historias que se vienen
narrando en la academia sin ningún proceso de reflexividad mediante.
El taller implica un saber situado y una construcción colectiva, donde la
metodología de la investigación se transita como una herramienta para poder
construir un capital cultural y simbólico, e intervenir en el juego social de la
historia como productores de saberes y sobre todo como hacedores/as de
memoria, abriendo una brecha en el tejido uniforme/manto homogeneizador,
que hacen de las experiencias tránsitos sin marcas. El desafío fue entonces
propiciar una marca, en tanto, espacio de movimiento subjetivo, un
acontecimiento.

139
Reflexiones finales

El proceso creativo en la escena del aula reclama nuevas instancias de


innovación tanto en las competencias de los estudiantes, como también en los
recursos didácticos que se desplieguen en los procesos de enseñanza–
aprendizaje.
Analizando la última categoría propuesta en las producciones colectivas de los
alumnos/as: la memoria como construcción, se evidencia la importancia de
propiciar construcciones que fortalezcan la mirada reflexiva y crítica de los
procesos de construcción de conocimiento, con la perspectiva de la sociología
de la ciencia que revise la memoria en la producción de saberes, tanto en la
memoria institucional de la academia, como también en la memoria colectiva
que desafía al compromiso de los docentes y los estudiantes.

Referencias bibliográficas

Agamben, G. (1998). Lo que queda de Auschwitz. El archivo y el testigo. Homo


Sacer III. Valencia: Pre–Textos.
Althabe, G. (1999a). Hacia una antropología del presente. En G. Althabe y F.
Schuster (comp.). Antropología del presente. Buenos Aires: Edicial.
Althabe, G. (1999b). Lo microsocial y la investigación antropológica de campo.
En G. Althabe y F. Schuster (comp.). Antropología del presente. Buenos
Aires: Edicial.
Arfuch, L. (2002). El espacio biográfico. Dilemas de la subjetividad
contemporánea. Buenos Aires: Fondo de Cultura Económica.
Arfuch, L. (2013). Memoria y autobiografía. Exploraciones en los límites.
Buenos Aires: Fondo de Cultura Económica.
Bruner, J. (2002). La fábrica de historias. Derecho, literatura, vida. Buenos
Aires: Fondo de Cultura Económica.
Cortázar, J. (1998). Rayuela. Madrid: Cátedra.

140
Calveiro, P. (2009). “El testigo narrador”. Revista Puentes, 2 (24), 50 – 55.
Deleuze, G. y Guattari, F. (1972). El anti – Edipo. Buenos Aires: Paidós.
Guber, R. (2011). La etnografía. Método, campo y reflexividad. Buenos Aires:
Siglo XXI.
Hall, S. (2008). ¿Cuándo fue lo postcolonial?. En VV.AA, Estudios
Postcoloniales. Ensayos fundamentales. Madrid: Traficantes de Sueños.
Jelin, E. (2002). Los trabajos de la memoria. Madrid: Siglo XXI.
Orler, J. (2004). Relatos enfrentados. En línea. Seminario Universidad de
Buenos Aires. Obtenido de
http://www.derecho.uba.ar/academica/cadocente/jornadas_innovacion_eje
dcholiteratura.php
Ricoeur, P. (1996). Sí mismo como otro. Madrid: Siglo XXI.
Spivak, G. (1999). Una crítica de la razón poscolonial. Hacia una historia del
evanescente presente. Massachusetts: Harvard University Press.
Sarlo, B. (2005). Tiempo pasado. Cultura de la memoria y giro subjetivo. Una
discusión. Buenos Aires: Siglo XXI.
Schuster, F. e Hidalgo, C. (2003). La creatividad de las comunidades
científicas: paralelos con la creatividad de la comunidad teatral. En O.
Pelletieri. (editor). (2003). Escena y realidad. Buenos Aires: Galerna.
Zapata, G. (2009). Ética narrativa en Paul Ricoeur. Revista Signo y
Pensamiento, 28(55), 80-91.
Zizek, S. (2011). Visión de paralaje. Buenos Aires: Fondo de Cultura
Económica,

Medios audiovisuales
Martínez, M. (Producción periodística) & Cacopardo, A. Irigoyen, A.
(Directores). (2009). Ojos que no ven. [Película]. Buenos Aires: Comisión
Provincial por la Memoria.
Céspedes, M. & otros. (Productores). & Carri, A. (Directora). (2003). Los rubios.
Buenos Aires: Wiszna.

Entrevista:

141
Cacopardo, A. (13 de octubre de 2012). Historias debidas. Entrevista
realizada a la Sra. Susana Trimarco. Buenos Aires: Estudios Pacífico.

142
CAPÍTULO 5

LA ESCRITURA CIENTÍFICA EN LA ENSEÑANZA DE LA


METODOLOGÍA DE LA INVESTIGACIÓN:
DE LA PROSA INFORMATIVA A LA PROSA ENSAYÍSTICA

Fernando Manzini

La diferencia entre la palabra acertada y la palabra casi acertada


es la que hay entre la luz de un rayo y una luciérnaga
Mark Twain, carta personal, 1888

Según Espinás (citado en Casany, 2002), la mayoría de los adolescentes se


sienten muy inseguros cuando tienen que explicar o argumentar algo, e incluso
aceptan su incapacidad. Más allá de los diversos factores que pueden
influenciar esta dificultad en la expresión oral y escrita, es necesario explicitar
que redactar correctamente –lo cual no es un indicio de sensibilidad literaria- es
ante todo un problema técnico, el cual debería resolverse a tiempo para evitar
que se convierta en un problema psicológico.
La correcta redacción de textos científicos es una habilidad sumamente útil al
momento de comunicar los resultados de las investigaciones científicas tanto al
grupo de pares especializados como al resto de la comunidad. Esta habilidad
en el proceso de escritura se logra gracias al ejercicio de prácticas como la
redacción sistemática de textos académicos, la lectura inteligente de textos
modelos y el estudio riguroso de artículos técnicos relacionados a la redacción
científica en sus diferentes formatos: el informe empírico de investigación, el
ensayo y el artículo de divulgación, entre otros.
Para el alumno de grado, uno de los espacios académicos donde se llevan a
cabo estas actividades es el Taller de Escritura Científica, tutorado por

143
docentes de la cátedra. Esta presentación describe y analiza los aspectos
centrales del taller mencionado, realizado durante la cursada de la asignatura
Seminario de Psicología Experimental, en los aspectos concernientes a su
organización teórica, a su proceso pedagógico y a la evaluación final de sus
productos escritos.
El capítulo se estructura en tres apartados:
En el primer ítem se mencionan y argumentan los contenidos, las líneas
teóricas y los autores en los que nos fundamos para el ejercicio del taller, así
como también los objetivos (tanto pedagógicos como metodológicos) de dicha
experiencia.
En el segundo apartado, se exponen y describen críticamente los ejercicios
prácticos trabajados en el taller en sus tres momentos: 1) lectura y análisis de
textos científicos; 2) producción escrita de un resumen de investigación
científica y 3) escritura de un ensayo científico breve.
En el tercer apartado, presentamos las producciones escritas de los alumnos,
las que se basaron, por un lado, en los aportes de Cassany (2002) con
respecto a los conceptos de claridad y concisión en la redacción formal de
informes empíricos de investigación, y, por otro, los aportes de Kovadloff (2002)
y Cocca (1996), para el análisis de las características literarias del estilo de los
ensayos científicos. El capítulo finaliza con una serie de consejos sobre el arte
de escribir por parte de autores reconocidos.

Metodología del taller

El objetivo de este taller fue analizar y ejercitar el estilo de escritura de dos


formatos textuales: el del informe empírico de investigación y el del ensayo
científico.
El taller fue programado en tres momentos. En el primer momento, se realizó
una presentación introductoria sobre las cuestiones generales del estilo en la
escritura científica y ensayística y se destacaron las diferencias estilísticas
entre ensayo científico e informe empírico de investigación.

144
En un segundo momento, se presentaron tres consignas de trabajo para la
ejercitación práctica de los temas propuestos. Para la primera consigna, se
trabajó con resúmenes de investigación científica que adolecieron de errores
de estilo y de formato y se solicitó al alumno su análisis crítico y su corrección
argumentada. Para la segunda consigna, se trabajó con artículos de
investigación científica (presentados y publicados en revistas, libros o
congresos) a los que se les ha extraído –ex profeso- el resumen de
investigación para luego solicitar la construcción de dicho resumen a la luz del
formato estándar y de los criterios estilísticos expuestos durante el primer
momento del taller. En la tercera consigna, se solicitó a los alumnos la elección
de un tema científico de interés para escribir, a partir de él, un breve ensayo
(de aproximadamente una página) que dé cuenta de los recursos estilísticos
propios del género y que exprese la posición personal del alumno con respecto
al tema elegido.
En un tercer momento se abrió un espacio de plenario, debate y conclusiones
generales con la intención de analizar la producción escrita de los alumnos y de
esclarecer los principios estilísticos que rigen en los dos formatos textuales
trabajados.

Fundamentos teóricos

El estilo en la escritura

Según Sontag (2008), el estilo, desde un punto de vista técnico, es el idioma


particular en que un escritor despliega las formas de su texto. Por su parte, la
forma es la suma de sus características perceptibles cuya acción física obliga
al reconocimiento y resiste a la inatención, el olvido y las objeciones que
puedan levantarse en la mente del lector. La función del estilo, entonces, es
preservar las obras de la mente contra el olvido.
Además de cumplir la función de “artilugio memotécnico”, el estilo, según la
misma autora, comporta una decisión epistemológica, una interpretación de

145
cómo y qué percibimos. Todo estilo es un medio para insistir sobre algo. Es
decir, los textos poseen un contenido y en ese contenido se describen ciertos
objetos del mundo, pero estos objetos son a su vez mirados siempre desde una
forma particular, y esa forma está determinada por el punto de vista del
escritor: el punto de vista es una decisión epistemológica.
Sartre (2003, pp. 71-72) por otro lado, emite su propia definición de estilo: No
se es escritor por haber decidido decir ciertas cosas, sino por haber decidido
decirlas de cierta manera, y el estilo, desde luego, representa el valor de la
prosa.

Pero debe pasar inadvertido, ya que las palabras deberían ser transparentes y la
mirada debería poder atravesarlas: sería absurdo meter entre ellas y el lector,
cristales esmerilados -el estilo-. La belleza no es aquí más que una fuerza dulce e
imperceptible. En un cuadro, se manifiesta enseguida, pero en un libro se oculta ,
actúa por persuasión, como el encanto de una voz o de un rostro, no presiona,
hace inclinarse inadvertidamente y se cree ceder ante los argumentos cuando se
es requerido por un encanto que no se ve. La armonía de las palabras, su belleza,
y el equilibrio de las frases disponen las pasiones del lector sin que este lo
advierta, las ordenan.

Por su parte, Barthes (2003a, p. 17) afirma que:

La lengua es un corpus de prescripciones y hábitos en común a todos los


escritores de una época. Es como una naturaleza que se desliza a través de la
palabra del escritor, como un círculo abstracto de verdades. La lengua está más
acá de la literatura. El estilo, en cambio, está más acá: imágenes, elocución,
léxico, nacen del cuerpo y del pasado del escritor y poco a poco se transforman en
los automatismos de su arte. Sus referencias se hacen en el nivel de una biología
o de un pasado. Es la “cosa” del escritor, su esplendor y su prisión, su soledad.
Por su origen biológico, el estilo se sitúa fuera del arte, esto es, fuera del pacto
que liga al escritor con la sociedad. La lengua y el estilo dibujan pues, para el
escritor, una naturaleza, ya que no elige ni el uno ni el otro. Entre la lengua y el
estilo hay espacio para otra realidad formal: la escritura, concebida como la
posibilidad de decidir sobre el horizonte discursivo propio. La escritura es así el
enlace entre la creación y la sociedad, es la posición que un escritor sostiene en
relación con la historia y las convenciones: un acto de conciencia, de
responsabilidad, determinado cada vez por los límites ideológicos de la época.

El mismo Barthes (2003b) sostiene que es necesario afirmar el placer del texto
contra las indiferencias de la ciencia y el puritanismo del análisis ideológico. El
autor defiende, entonces, la erótica del texto, es decir, su capacidad para
provocar placer.

146
El estilo informativo de los artículos científicos

Cassany (2002) recomienda, para el armado de frases informativas, dos


consejos técnicos importantes con el fin de mejorar la legibilidad de la escritura:

• Limitarse a una estructura básica (sujeto-verbo-objeto) de unas pocas


palabras (15 a 20), limitando en la medida de lo posible los incisos,
podando las palabras o términos irrelevantes y uniendo, en un mismo
flujo, las palabras relacionadas.
• Evitar tanto el uso excesivo de gerundios, ya que cargan la frase y le
imprimen un “regusto arcaico”, poco agradable; como las frases
negativas, las que son difíciles de entender porque requieren más
atención y tiempo que las afirmativas.

El objetivo de las investigaciones sobre legibilidad es aprender a predecir y a


controlar la dificultad del lenguaje escrito. Según Cassany (2002), el concepto
de legibilidad designa el grado de facilidad con que se puede leer, comprender
y memorizar un texto escrito. Hay que distinguir la legibilidad tipográfica, que
estudia la percepción visual del texto (dimensión de la letra, contraste de fondo
y forma), de la legibilidad lingüística, que trata de aspectos estrictamente
verbales, como la selección léxica o la longitud de la frase. Esta última es la
que merece más consideración y la que a continuación se desarrollará.
Las primeras investigaciones se sitúan en la década del 20-30 del siglo XX en
los Estados Unidos y se relacionan con el enfoque estadístico del lenguaje, el
que se ocupaba de cuestiones cuantitativas (por ejemplo, qué fonemas,
palabras o estructuras son los más frecuentes en la lengua, o qué longitud
media tiene la oración). Partiendo de varias pruebas (preguntas de
comprensión, completar huecos en blanco de texto, etc), los científicos
pudieron discriminar diferentes grados de dificultad en la escritura: desde textos
más legibles, más fáciles, simples o que se entienden más rápidamente, hasta

147
otros menos legibles, que requieren más tiempo, atención y esfuerzo por parte
del lector.
El análisis de estos textos permitió extraer las pautas verbales asociadas a
unos y otros. El grado de legibilidad dependía de factores lingüísticos
entendidos como datos objetivos y mesurables. El siguiente cuadro muestra la
mayoría de rasgos descubiertos:

LEGIBILIDAD ALTA LEGIBILIDAD BAJA


Palabras cortas y básicas Palabras largas y complejas
Frases cortas Frases más largas
Lenguaje concreto Lenguaje abstracto
Presencia de repeticiones Enumeraciones excesivas
Presencia de marcadores textuales Palabras importantes al final
Situación lógica del verbo Monotonía
Estructuras que favorecen la Subordinadas e incisos demasiado
anticipación largos
Variación tipográfica: cifras, negrita,
cursiva

Según esta distribución, un escrito de oraciones breves, palabras corrientes,


tema concreto no presenta tantas dificultades como otro de frases largas y
complicadas, incisos, poca redundancia, terminología poco frecuente y
contenido abstracto. De toda la lista anterior, los tres primeros puntos, según
Cassany, son los más relevantes.
En cuanto a las fallas más corrientes de redacción, Cassany menciona las
siguientes:
1) Silepsis: consiste en quebrantar la concordancia entre el género, el
número o la persona para atender al sentido de la frase.
2) Anacoluto: son aquellas frases rotas en las que la segunda parte no
acompaña a la primera o no se corresponde con ella.
3) Anantapódoton: en el que sólo se expone uno de los dos elementos
correlativos que tendrían que aparecer en la frase.

148
4) Pleonasmo: consiste en emplear en la oración uno o más vocablos
innecesarios para el recto y cabal sentido de ella.
5) Anfibología: son frases que pueden interpretarse de dos o más maneras
distintas.
6) Cacofonía: se refiere a la repetición casual de algunas letras o sílabas,
que producen un sonido desagradable.
Por otra parte, a la hora de establecer criterios sobre la selección léxica,
Cassany (2002) recomienda las que siguen:
1) No repetir: La repetición reiterada de una palabra con significado pleno
(nombre, verbo, adjetivo, adverbio) en un período breve provoca monotonía y
aburrimiento.
2) Evitar las muletillas: Expresiones innecesarias que en general aportan
poco o nulo significado, recargan la sintaxis y terminan convirtiéndose en tics
repetitivos. Dan a la prosa una falsa categoría de “culta”.
3) Eliminar los comodines: nombres, verbos, o adjetivos de sentido
bastante genérico que utilizamos cuando no se nos ocurre otra palabra más
específica. Son palabras comodín las que sirven para todo, que se pueden
utilizar siempre, pero que precisan poco o nada el significado de la frase. Si se
abusan de ellas, empobrecen la prosa y la vacían de contenido.
4) Preferir palabras concretas a palabras abstractas: Las palabras
concretas se refieren a objetos o sujetos tangibles; el lector las puede descifrar
fácilmente porque se hace una clara imagen de ellas asociándolas a la
realidad. En cambio, las palabras abstractas designan conceptos o cualidades
más difusos y suelen abarcar un número mayor de acepciones. El lector
necesita más tiempo y esfuerzo para captar su sentido: no hay referentes
reales y hay que escoger una acepción apropiada entre las diversas posibles.
5) Preferir palabras cortas y sencillas: La palabra corriente es a menudo
más corta y ágil y facilita a menudo la lectura del texto.
6) Preferir las formas más populares: La lengua nos ofrece dos formas
posibles en algunos aspectos de fonética, ortografía o morfosintaxis. La
solución más recomendable, es siempre la más llana y popular.

149
7) Evitar verbos predicativos: Los verbos ser y estar recargan
innecesariamente la frase. Los verbos de predicación completa son más
enérgicos y claros. Otros verbos débiles que a veces podemos sustituir son
hacer, encontrar, parecer, llegar a y haber.
8) Tener cuidado con los adverbios terminados en –mente: Son propios de
registros formales. El estilo coloquial prefiere adverbios más vivos y breves.
9) Marcadores textuales: Señalan los accidentes de la prosa: la estructura,
las conexiones entre frases, la función de un fragmento, etc. Tienen forma de
conjunciones, adverbios, locuciones conjuntivas o incluso sintagmas, y son
útiles para ayudar al lector a comprender el texto.

El estilo literario de la prosa ensayística

Santiago Kovadloff, (2002) destaca los siguientes puntos con respecto al


género ensayístico:
• El ensayo es una ofrenda de sostenida intimidad.
• El ensayista no solamente muestra que piensa sino, más amplia y
hondamente, lo que es.
• El ensayo es espontáneo, transparente, expresivo. Tiene afición por lo
subjetivo. Relata o explora el alma de su creador. Manifiesta la
cadencia de una voz que nos busca como amigos.
• Nace en el siglo XVI como reacción al espíritu escolástico.
• Ofrece el gozo de decir las mayores verdades sin la necesidad de
demostrarlas (Monterroso) y la libertad total de un estilo
despreocupado, llano, y un tono como de conversación junto al fuego
(Bioy).
• Los ensayos son piezas breves, disgresivas, coloquiales, abiertas al
cruce incesante de la poesía con la vida cotidiana. Indeclinable
primera persona del singular.

150
• Aficionado a la especulación pero reacio a las hipótesis, trata de
cuestiones teóricas sin la necesidad de ser teórico o de proponer
teoría (Chesterton).
• No sacrifica la coherencia del sentido en el altar de la hermosura, ni
sacrifica la hermosura en el altar de la coherencia del sentido.
• Razón y temperamento; reflexión y poesía: el ensayo siembra a
través de la hibridez que lo distingue, no sólo el magnetismo que lo
vuelve singular sino la verdad que tan bien preserva su penumbra.
• El ensayista quiere, y tan sólo quiere, transmitir sus impresiones que
son antes las de un hombre que las de un experto o especialista.
• El ensayista, al fin y al cabo, es un escritor, y cuanto componga será,
por eso mismo, literatura.

Por su parte, Cocca (1996) sostiene que

El ensayo es una herramienta literaria del científico, porque la obra del


científico debe trascender y difundirse ampliamente, y el mejor medio para esto es
el que ofrece la literatura. Se trata de un escrito breve, que no agota el tema
tratado, a la vez claro, ameno, sencillo, denso y vigoroso. Es una composición
literaria de naturaleza analítica o interpretativa que trata de un asunto desde un
enfoque más o menos limitado o personal y admite una considerable libertad de
estilo y método. Su mensaje al lector no puede ser más directo y encierra una
conmovedora sinceridad. Es una comunicación que reclama comprensión, el
menos la cercana compañía del lector. (p. 151).

Principales diferencias entre la escritura del ensayo y la del artículo


científico

Siguiendo los aportes de Barthes (2003), la escritura del ensayo y del


artículo científico podrían diferenciarse a la luz de los conceptos de enunciado
y enunciación. El enunciado, objeto ordinario de la lingüística, es dado como el
producto de una ausencia del enunciador. La enunciación, por el contrario, al
exponer el lugar y la energía del sujeto, su carencia (que no es su ausencia),
apunta a lo real mismo del lenguaje. El autor señala al lector:

151
Reconoce que el lenguaje es un inmenso halo de implicaciones, efectos,
resonancias, vueltas, revueltas, contenciones; asume la tarea de hacer escuchar a
un sujeto a la vez insistente e irreparable, desconocido y sin embargo reconocido
según una inquietante familiaridad: las palabras ya no son concebidas
ilusoriamente como simples instrumentos, sino lanzadas como proyecciones,
explosiones, vibraciones, maquinarias, sabores; la escritura convierte al saber en
una fiesta. (pp. 99-100).

Para Sontag (2008), en cambio, la prosa estándar de los artículos científicos


y la prosa ensayística podrían ser analizadas a través de los polos:
preeminencia del contenido versus preeminencia de la forma. A diferencia del
artículo científico, el ensayo es un género que pertenece a la literatura y esta, a
su vez, pertenece al arte.

Si bien la obra de arte presenta información y valoraciones, su rasgo distintivo


consiste en que no da lugar a un conocimiento conceptual (que es el rasgo
distintivo del conocimiento discursivo o científico), sino a algo parecido a una
emoción, un fenómeno de compromiso, el juicio en un estado de esclavitud o
cautiverio. Decir esto es decir que el conocimiento que adquirimos a través del arte
es experiencia de la forma o estilo de conocer algo, mejor que conocimiento de
algo (como un hecho o un juicio moral) en sí mismo. (p. 37),

Trabajo áulico: presentación de los textos escritos por los


alumnos

Lectura y análisis de textos científicos

De acuerdo a la metodología del taller esbozada arriba, para la primera


consigna se trabajó con resúmenes de investigación científica, los que
adolecían de errores de estilo y de formato. Se solicitó a los alumnos su
análisis crítico y su corrección argumentada.
El resumen presentado fue el siguiente:

Título: Vulnerabilidad adolescente: ¿Hojas al viento o el viento en las hojas?

En esta presentación se aborda la cuestión de la subjetividad adolescente en


dos comunidades vulnerables de Buenos Aires. El objetivo principal es indagar las
producciones subjetivas que son disparadas por las situaciones de vulnerabilidad
regional. A este fin se empleó metodología cualitativa y técnicas como las
entrevistas abiertas, focus group y asociación libre.

152
Entre las conclusiones que hemos podido arribar en el presente estado de avance
de la investigación científica en curso, señalamos la importancia de interpretar a la
vulnerabilidad adolescente como proceso complejo que constituye un factor de
riesgo para ellos mismos y para los demás. También observamos, tras el registro
de los datos obtenidos por las técnicas anteriormente mencionadas, que los
adolescentes que se sienten vulnerabilizados socialmente, manifiestan indicadores
fuertes de depresión.

Palabras claves: adolescencia – vulnerabilidad – metodología cualitativa

Candelaria y Luciana escribieron al respecto:

“Encontramos que los términos “vulnerabilidad adolescente” y “producciones


subjetivas” son inespecíficos. También, al hablar de “dos comunidades
vulnerables de Buenos Aires” encontramos una falta de univocidad ya que
puede interpretarse de múltiples formas la idea de vulnerabilidad.
No identificamos claridad conceptual, los temas son tratados en términos muy
generales.
La introducción del informe es informal, utiliza términos coloquiales.
La conclusión no es concisa. No hay claridad conceptual, es muy amplia.
No observamos claridad en la problemática que pretenden investigar.
El título no refleja el tema a tratar.
Cuando se emplea el término “vulnerabilidad”, no hay una especificidad en su
empleo. Por ejemplo, puede haber vulnerabilidad en la pobreza, en las
condiciones de vivienda, puede utilizarse en varios aspectos y sentidos
diversos. No se especifica en el informe la población y la muestra.”

Por su parte, Nadia y Florencia escribieron lo siguiente:

“Encontramos que no hay claridad conceptual en la presentación del texto y


muchas palabras comodines como: ‘vulnerabilidad adolescente’, ‘vulnerabilidad
regional’, ‘metodología cualitativa’, ‘producciones subjetivas’, ‘proceso
complejo’, ‘vulnerabilizados socialmente’.
Notamos mucha ambigüedad en la redacción, no quedando claro el fin de
ciertas oraciones, empezando por el título de la presentación.”

153
Producción escrita de un resumen de investigación científica.

Para la segunda consigna presentada, se trabajó con un artículo de


investigación científica titulado “Criterios de clasificación de los sándwiches de
miga”, publicado en el libro Demoliendo Papers, (Palopoli, 2005). A este
artículo se le ha extraído –ex profeso- el resumen de investigación, para luego
solicitar al alumno la construcción de dicho resumen a la luz del formato
estándar y de los criterios estilísticos expuestos durante el primer momento del
taller.

Serenela y Laura, escribieron:

“Resumen:
La investigación se propuso develar las posibles falencias en el sistema
utilizado para clasificar los “sándwiches de miga” en dobles y triples, y dilucidar
el criterio para ello.
La muestra consistió en un sándwich triple de jamón y queso y en uno simple
de jamón en pan de miga blanco. Se tomaron fotografías de los mismos y se
recurrió a recursos de la lengua castellana, la matemática y la lógica, para
definir el concepto de sándwich.
Se halló que, al variar el criterio clasificatorio entre la cantidad de panes y la
cantidad de capas de relleno, se modificaría también la nomenclatura del tipo
de sándwich. A este respecto el autor propone algunos cambios”.

Nicolás y María Paz, por su parte, redactaron lo que sigue:

“Resumen
En esta investigación se intenta esclarecer la confusa clasificación de los
sándwiches de miga en simples y triples, preguntándonos por qué el término
sándwich doble no fue tenido en cuenta por los maestros sandwicheros.

154
El criterio para realizar dicha clasificación no está claro y pone en duda su
exactitud. Este trabajo pretende, a través del álgebra y la lingüística, develar las
posibles falencias del sistema utilizado para la actual clasificación de los
sándwiches.
Para tal fin se utilizó un sándwich triple de jamón y queso y un simple de jamón
en pan de miga blanco. Se procedió mediante un análisis matemático y
lingüístico el criterio de clasificación del sándwich. El análisis matemático
describió al sándwich de miga simple conformado por pan + relleno + pan. Al
doble como pan + relleno + pan + relleno + pan. Y al triple como pan + relleno +
pan + relleno + pan + relleno + pan.
El análisis lingüístico presente cinco opciones de clasificación del sándwich.
El estudio de campo demostró que no existe un sándwich de miga doble que
cumpla con los requisitos exigidos por ambos tipos de análisis”.

Escritura de un ensayo científico breve

En la tercera consigna, se solicitó a los alumnos la elección de un tema


científico de interés para escribir, a partir de él, un breve ensayo, de
aproximadamente una página, que dé cuenta de los recursos estilísticos
propios del género y que exprese la posición personal del alumno con respecto
al tema elegido.
Sobre el ensayo sobre la clasificación de los sándwiches de miga, Natalí
escribió:

“Mi experiencia con los sándwiches de miga:


Alguna vez tuve la oportunidad de preguntarme sobre el por qué de la
clasificación de los sándwiches de miga, y hoy tengo la necesidad de
comunicar mis inquietudes sobre este tema.
Cada vez que fui a una panadería, un quiosco, un almacén, a comprar un
sándwich, siempre elegí el de miga por su suavidad para el paladar, pero
también, siempre elegí el sándwich de miga triple (esto sólo por una cuestión

155
de economizar el hambre, ya que conviene uno triple y no dos simples). En fin,
me gusta el sándwich de miga triple, y era feliz comiéndolos sin pensar
cuestiones que, hasta no hace mucho tiempo, eran irrelevantes en mi vida.
Pero un buen día, caminando con mi sobrino de 4 años, comenzamos a debatir
qué sándwich elegiríamos al llegar a la panadería. Mi sobrinito, que es bastante
“bicho”, me preguntó sobre los tipos de sándwiches que vendían en esa
panadería particular a la que estábamos yendo, a lo que respondí que habían
sándwiches simples y sándwiches triples. A continuación, me hizo la pregunta
que dio origen a este ensayo: ‘¿Y no hay sándwich de miga doble?’. En ese
momento no supe darle una respuesta, pero la pregunta quedó revoloteando
en mi cabeza, la que hizo que, al llegar a mi casa con un sándwich simple y
uno triple, comenzara a examinarlos detenidamente y a plantearme posibles
explicaciones para la inexistencia de los sándwiches dobles”.

Y finalmente, Giuliana, María Cecilia y Emiliana, redactaron juntas otro gracioso


ensayo sobre el mismo tema:

“¿Y los alfajores?:


Nosotras tras la lectura del texto de Nicolás Palopoli sobre los criterios de
clasificación de los sándwiches de miga sentimos una gran sorpresa y gracia
porque alguien se haya interesado por este tema. Sin embargo notamos la
estafa detrás de estas categorías matemáticas y lingüísticas, que no coinciden
con la realidad, y que al ser extensibles a los alfajores (siendo nosotras fieles
aficionadas a lo dulce), nos afecta directamente.
De esta forma nos sentimos traicionadas por las empresas de golosinas
esperando por una solución y un verdadero alfajor triple, sea de dulce de leche,
de mouse, de manteca de maní, mermelada o similares”.

156
Conclusiones generales sobre las producciones de los
alumnos y la experiencia del taller

La experiencia original del taller nos ha permitido arribar a algunas


afirmaciones, a modo de cierre reflexivo, respecto de la enseñanza y el
aprendizaje de la escritura científica.
Tras la lectura y el análisis de los textos escritos por los alumnos, notamos, en
general, una correcta asimilación de los conceptos transmitidos en la primera
parte del taller, evidenciada tanto al nivel de la interpretación como a nivel de la
producción textual. Con respecto a las consignas referidas a la prosa
informativa (interpretación de errores en un resumen de investigación;
producción de un resumen a partir de la lectura de un artículo), los alumnos
demostraron comprensión crítica y uso correcto de algunos de los conceptos
clave que sintetizan a este estilo, en especial: concisión sintáctica, claridad
conceptual, esfuerzo por el logro de la univocidad. En referencia a la consigna
sobre la prosa ensayística, los alumnos demostraron el manejo de algunos de
los recursos que mejor distinguen a esta otra opción de escritura: preeminencia
de la forma sobre el contenido a través de enunciaciones expresivas en
primera persona.
De esta manera, destacamos, como al principio de este capítulo, los
importantes aportes de este taller para la revisión conceptual y la práctica de
claves estilísticas en el ejercicio de la escritura científica. De igual modo,
estimamos los beneficios pedagógicos que resultan de la aplicación de un
espacio como este en asignaturas relacionadas al área de la Metodología de la
Investigación, en pos de elevar la calidad de la comunicación en el ámbito
disciplinar de pertenencia.

Frases sobre el arte de escribir

Antes de cerrar este capítulo, un último obsequio a los estudiantes de


Psicología que han participado y que participarán de esta experiencia

157
compartida: mis frases preferidas sobre el arte de escribir según
personalidades reconocidas.
Las citas provienen de diferentes lugares y contextos (artículos de divulgación,
textos literarios, sitios de internet, entre otros). Deseo que las disfruten y que
les sean de mucha utilidad.

“Me gusta escribir porque me da la posibilidad de pensar todo el tiempo en las


cosas que más me gustan y de compartirlas con los demás (…). Escribo para
comunicarme auténticamente con los otros y para experimentar otras vidas”.
Nicole Krauss

“El psicoanálisis y la literatura son la misma cosa (…). Es la misma dinámica


psíquica, que consiste en barrer lo que es palabras cansadas y modos de vida
aburridos, contar un nuevo aliento, cambiar el modo de hablarse a sí mismo y
de nombrar las cosas y ligarse a los otros. Algunos logran darle un lugar a esa
experiencia del lenguaje e inscribir esa recreación de la intimidad y de lo
personal en una tradición cultural como la literatura”.
Kristeva

“Acuérdense del pianista que dijo que si no practicaba un día, lo advertiría él; si
no practicaba durante dos lo advertirían los críticos, y que al cabo de tres días
se percataría la audiencia. Hay de esto una variante válida para los escritores.”
Ray Bradbury

“La palabra es sonora cuando es clara; todos la oyen si la pasión se caldea y a


todos contagia si inspira confianza. La autoridad moral es su eco, la multiplica.
Más vale decir una palabra transparente que murmurar mil enmarañadas”.
José Ingenieros

“Hay estilo en toda forma que expresa con lealtad un pensamiento. Las artes
son combinaciones de gestos destinados a objetivar adecuadamente los

158
modos de pensar o de sentir; cuando la forma expresa lo que debe y nada más
que ello, tiene estilo”.
José Ingenieros

“Estilo es afirmación de la personalidad; el que combina palabras, colores,


sonidos o líneas para expresar lo que no siente o no cree, carece de estilo, no
puede tenerlo. Cuando el pensamiento no es íntimo y sincero la expresión es
fría y amanerada”.
José Ingenieros

“Aprender a escribir es, antes que nada, aprender qué quiere uno realmente
escribir. Hay cuestiones de técnica, claro, asuntos de adjetivos, de comas, de
disposición de párrafos. Pero el aprendizaje más importante es este otro.
Vivimos inmersos en narraciones convencionales: sobre nuestra propia vida,
sobre los otros, sobre la política. Por debajo de esas narraciones corre una voz
secreta que dice cómo vemos de verdad las cosas. Pero hay que buscarla.
Aprender a escribir es aprender a escuchar esa voz. La voz secreta no es
necesariamente mejor que uno; no tiene que ser más inteligente ni más linda.
¡Ni siquiera tiene que ser muy distinta! A veces la voz de un escritor se
distingue por matices casi imperceptibles. Pero aunque los matices sean
imperceptibles, una voz propia se reconoce enseguida. Se reconoce porque
libera. Libera al que escribe y libera al que lee. Toda escritura auténtica (hasta
la más truculenta y la más inquietante) trae fuerza, lucidez, alegría”.
Gonzalo Garcés

“Hay que animarse, al menos, a usar un lenguaje a la altura de nuestros


pensamientos”.
Liliana Heker

159
“La simpatía del temperamento artístico va necesariamente a lo que ha hallado
expresión. En palabras o en color, en música o en mármol, tras las máscaras
pintadas de un drama de Esquilo o por las cañas horadadas y unidas de un
pastor siciliano tienen que haberse revelado un hombre y su mensaje”.
Oscar Wilde

“Un escritor no es sólo un señor que publica libros y firma contratos y aparece
en televisión. Un escritor es, tal vez, un hombre que establece su lugar en la
utopía”.
Abelardo Castillo

Referencias bibliográficas

Barthes, R. (2003a). El grado cero de la escritura. Buenos Aires: Siglo XXI.


Barthes, R. (2003b). El placer del texto y lección inaugural. Buenos Aires: Siglo
XXI.
Cassany, D. (2002). La cocina de la escritura. Barcelona: Anagrama.
Cocca, A. (1996). Literatura y Ciencia. Buenos Aires: Ocruzaves.
Kovadloff, S. (2002). Ensayos de intimidad. Buenos Aires: Emecé.
Palopoli, N. (2005). Criterios válidos para la clasificación de los sándwiches de
miga. En D. Golombek (comp.), Demoliendo Papers, pp 29-36. Buenos
Aires: Siglo XXI.
Sartre, J.P (2003). ¿Qué es la literatura? Buenos Aires: Losada.
Sontag, S. (2008). Contra la interpretación y otros ensayos. Buenos Aires:
Debolsillo.

160
EPÍLOGO

La obra presentada es un texto construido por nuestro equipo docente,


pensado en virtud de la transposición didáctica de la metodología de
investigación. Con visiones heterogéneas y valiosos aportes respecto de los
aspectos de la metodología científica (epistemológicos, ético-deontológicos,
técnicos-procedimentales y comunicacionales) hemos podido reflexionar sobre
la fundamentación y problemática presente en la enseñanza y el aprendizaje de
esta área de formación curricular.
Desde la libertad de expresión –premisa fundamental que reconoce la
capacidad creativa en cada ser humano digno- obtuvimos una producción
académica de calidad, sin perder por ello las pasiones, emociones, ideas,
opiniones, tensiones, acuerdos y desacuerdos que estuvieron presentes.
Ofrecido como material de estudio novedoso, esperamos haya colmado las
expectativas de nuestros alumnos. A lo largo de estas páginas, el lector pudo
encontrarse con producciones muy diversas, todas caracterizadas por el sello
personal de cada autor y colega. En su conjunto, han compartido la intención y
el anhelo de enriquecer con renovados aportes conceptuales y aplicados el
ámbito de la Psicología y los procesos de enseñanza y de aprendizaje al
interior de la misma.
Coincidimos plenamente con el análisis actual que ha realizado la UNESCO y
sus colaboradores (2003) respecto del cambio necesario en la trasmisión
disciplinar a nivel superior:

Hablamos de un "desplazamiento del acento", para indicar que al centrar ahora los
procesos de transmisión del conocimiento en los aprendizajes, es decir, en el sujeto
educando, en el aprendiz, en el alumno, esto no significa desconocer o suprimir la
importancia de los procesos de enseñanza y, mucho menos, el rol del profesor. Lo
que pasa es que el profesor deja de ser el centro principal del proceso, (…) sino que
se transforma en un guía, en un tutor, en un suscitador de aprendizajes, capaz de
generar en su aula un ambiente de aprendizaje. En último extremo, podríamos decir

161
que se transforma en un co-aprendiz con su alumno, pero no se esfuma ni deja de
ser importante en la relación profesor-alumno, que está en el fondo de todo proceso
de enseñanza- aprendizaje. (p.19, subrayado nuestro).

Este desplazamiento pedagógico es el que nos ha permitido incluirnos de


otro modo en las prácticas de los talleres con nuestros alumnos, en tanto
formas innovadoras del proceso de trasmisión de la metodología científica
en el grado. Hemos co-participado en una experiencia única y el resultado
ha sido altamente satisfactorio.

Referencia bibliográfica

UNESCO (2003). Desafíos de la Universidad en la Sociedad del Conocimiento,


Cinco Años Después de la Conferencia Mundial sobre Educación
Superior. Forum Occasional Paper Series. Paper Nº 4/S. Obtenido de
unesdoc.unesco.org/images/0013/001344/134422so.pdf

162
LOS AUTORES

María José Sánchez Vazquez. Licenciada y profesora en Psicología por la


Universidad Nacional de La Plata (UNLP). Magíster en Ética Aplicada
(Universidad de Buenos Aires). Especialista en Docencia Universitaria (UNLP).
Doctoranda en Psicología (UNLP). Profesora adjunta ordinaria a cargo de la
asignatura Seminario de Psicología Experimental y del Seminario Optativo
Problemas Éticos de la Psicología (Facultad de Psicología, UNLP). Profesora
de posgrado en metodología de la investigación y en ética aplicada a la
Psicología. Miembro Experto del Comité Consultivo Central de Bioética de la
UNLP. Docente-investigadora, directora de proyectos de investigación, ha
publicado varios artículos y trabajos científicos en temáticas que relacionan la
investigación, la psicología y la ética.

Maximiliano Azcona. Licenciado y profesor en Psicología (UNLP). Ayudante


diplomado ordinario del la asignatura Epistemología y Metodología de la
Investigación en Psicología, y adscripto graduado en el Seminario de
Psicología Experimental (Facultad de Psicología, UNLP). Becario de la UNLP,
bajo la dirección del Dr. Lahitte. Ex becario-alumno del CIC. Actualmente, cursa
el doctorado en Epistemología e Historia de la Ciencia (Universidad Nacional
de Tres de Febrero). Participante en proyectos de investigación dependientes
de la UNLP. Autor y coautor en diversos artículos y trabajos científicos en el
área de la filosofía de la ciencia, la epistemología y la metodología de la
investigación científica.

Luciano Centineo Aracil. Licenciado en Antropología (UNLP). Ha participado


como ayudante alumno en el Seminario de Psicología Experimental (Facultad
de Psicología, UNLP) de forma continua. Participante en proyecto de
investigación dependiente de la UNLP. Se dedica a temáticas relacionadas a la

163
antropología, la psicología transpersonal y las nuevas epistemologías. Coautor
de trabajos y artículos en distintos eventos científicos y revistas
interdisciplinares.

Irma Colanzi. Licenciada y profesora en Psicología (UNLP). Ayudante


diplomada ordinaria del Seminario de Psicología Experimental y de Psicología
II (Facultad de Psicología, UNLP). Becaria UNLP. Participante en proyectos de
investigación dependientes de la UNLP. Coautora en diversos artículos y
trabajos científicos sobre metodología de la investigación de orientación
cualitativa, en especial el uso de las técnicas narrativas y biográficas.

Javier Dorati. Licenciado y profesor en Psicología (UNLP). Ayudante


diplomado interino en el Seminario de Psicología Experimental (Facultad de
Psicología, UNLP). Participante en proyecto de investigación dependiente de la
UNLP. Se dedica a temas relacionados con el diseño y la ética de la
investigación con humanos.

María Florencia Gómez. Licenciada y profesora en Psicología (UNLP).


Ayudante diplomada ordinaria en el Seminario de Psicología Experimental, en
Psicología Genética y en Psicopatología II (Facultad de Psicología, UNLP).
Actualmente cursa la carrera de Especialización en Docencia Universitaria
(UNLP) y la Maestría en Tecnología Informática aplicada a la Educación
(UNLP). Participante en proyectos de investigación dependientes de la UNLP.
Coautora de diversos trabajos en eventos nacionales e internacionales en
temáticas relacionadas al área de la investigación en psicología.

Fernando Manzini. Licenciado y profesor en Psicología (Universidad Nacional


de Córdoba). Jefe de trabajos prácticos ordinario de la asignatura
Neuroanatomía y Neurofisiología. Ayudante diplomado ordinario del Seminario
de Psicología Experimental y de Estadística Aplicada a la Psicología (Facultad
de Psicología, UNLP). Ex becario del CONICET. Se especializó en fisiología
del comportamiento, investigando sobre temáticas de daño cererbral y

164
alcoholismo. Autor y coautor en diversos artículos y trabajos científicos en el
área de la psicología experimental y la investigación de enfoque cuantitativo.

José Manuel Villarreal. Licenciado en Psicología (UNLP). Ayudante diplomado


interino en el Seminario de Psicología Experimental (Facultad de Psicología,
UNLP). Ha sido ayudante alumno y adscripto alumno a la docencia en la misma
asignatura. Se ha dedicado a la indagación de la triangulación metodológica y
su uso en investigación. Es autor y coautor de diversos trabajos en el área
presentados en diferentes congresos nacionales e internacionales.

165
La enseñanza de la metodología de la investigación en Psicología : Un acercamiento crítico a
sus fundamentos y problemáticas / María José Sánchez Vazquez ... [et.al.] ; adaptado por
María José Sánchez Vazquez. - 1a ed. - La Plata : Universidad Nacional de La Plata, 2014.
E-Book: ISBN 978-950-34-1085-1

1. Investigación Científica. 2. Psicología . I. Sánchez Vazquez, María José II. Sánchez


Vazquez, María José , adapt.
CDD 001.42

Diseño de tapa: Dirección de Comunicación Visual de la UNLP

Universidad Nacional de La Plata – Editorial de la Universidad de La Plata


47 N.º 380 / La Plata B1900AJP / Buenos Aires, Argentina
+54 221 427 3992 / 427 4898
editorial@editorial.unlp.edu.ar
www.editorial.unlp.edu.ar

Edulp integra la Red de Editoriales Universitarias Nacionales (REUN)

Primera edición, 2014


ISBN 978-950-34-1085-1
© 2014 - Edulp

También podría gustarte