Epistemologia de La Investigacion Cientifica
Epistemologia de La Investigacion Cientifica
Epistemologia de La Investigacion Cientifica
Recent trends in epistemology of science and of scientific research are discussed in this paper, under an
explanatory view that considers them as observational variations occurring in a timeline, generated from a few
underlying ahistorical and pretheoretical frames called “epistemological approaches”, isomorphically as the
known differences between “surface” and “deep” structures or between “type” and “token”, etc. Within this
hypothetical assumption avoiding a merely narrative or historical description and within some other criteria,
firstly an essential reference, the epistemology of science between 1920 and 1990, is characterized as the key
for understanding variations and trends that take place during the last 16 years in the development of
epistemology of science. In the second main part, recent trends are discussed and explained. A more general
and deeper view concerning the applicability of epistemology to the everyday practice of research is stressed in
the concluding section.
Resumen
En este documento se discuten las recientes tendencias de la epistemología (entendida como teoría de la
ciencia y de la investigación), desde un punto de vista explicativo que las considera como variaciones
observacionales que aparecen en un cierto lapso, pero que son generadas por marcos subyacentes de carácter
ahistórico y preteórico, llamados “enfoques epistemológicos”, de modo isomórfico a las conocidas diferencias
entre estructuras “superficial” y “profunda” o entre “type” y “token”, etc. Dentro de esta presuposición
hipotética, alejada de una descripción meramente narrativa o histórica, y dentro de algunos otros criterios, en
la primera parte se caracteriza una referencia esencial, el período entre 1920 y 1990, como clave para entender
las variaciones y tendencias en los últimos 16 años de desarrollo de la epistemología. En la segunda parte se
discuten y explican esas tendencias recientes. En la última sección se hace énfasis en una visión más general y
profunda que tiene que ver con la aplicabilidad de la epistemología a la práctica cotidiana de la investigación.
Introducción
Ya al formular este objetivo y, en general, al hablar de epistemología, es inevitable la toma de una postura
previa, debido a las múltiples divergencias y diversidades en torno a muchos de los términos y conceptos
implícitos, desde el mismo momento en que se inicia el tema. Dado que las concepciones epistemológicas son
siempre dependientes de un cierto Enfoque Epistemológico, una solución es hacer referencia a las diferentes
perspectivas, sin exclusiones significativas, de modo que el discurso quede ubicado dentro de una cierta
postura que pueda ser evaluada frente a otras. Así, por ejemplo, aquí queda identificada una toma de posición
respecto a qué es epistemología, cuál es su estatuto disciplinario en cuanto área del saber y cuál es su objeto
de estudio. Pero al lado de esa posición, también se describen otras diferentes, de modo que los usuarios
puedan evaluar esas diferencias.
Por esta razón, entre otras, las intenciones de esta exposición no están concebidas en un sentido dogmático ni
se pretende en modo alguno sentar cátedra o definir seguridades. Todo lo dicho aquí tiene más bien un sentido
hipotético, conjetural, de planteamientos que puedan ser discutidos, criticados y evaluados, siempre dentro de
una función didáctico-aplicativa que pueda servir de aporte para el mejoramiento de los procesos investigativos
universitarios en el seno de los programas de postgrado. Por eso se puso un empeño particular en proveer la
mayor cantidad posible de referencias bibliográficas, de manera que el usuario tenga la opción de validar y
continuar por sí mismo las ideas aquí tratadas.
Al hablar de “tendencias recientes”, y a pesar de que el título menciona al siglo XXI, se hace hincapié en el
lapso comprendido entre 1990 y el 2006, pero tomando como referencia la trayectoria inmediatamente
anterior, ubicada entre 1920 y 1990, sin cuya mención sería imposible entender esas “tendencias recientes”. La
razón es que resulta imposible comprender las tendencias del siglo XXI sin considerar sus antecedentes en el
tiempo. No se harán mayores referencias a las épocas previas al siglo XX, sin negar su importancia y su
fundamental influencia. Por razones obvias, estos datos deberán quedar sobreentendidos en el marco de las
presuposiciones de esta exposición.
En la primera sección se presentan algunas propuestas conceptuales básicas, algunas definiciones provisionales
y determinados criterios para el análisis de tendencias epistemológicas, los mismos que permiten salir de un
tratamiento meramente histórico-descriptivo de dichas tendencias para entrar en un marco explicativo de las
mismas. En realidad, el objetivo de esa primera sección es ofrecer una herramienta con la cual no sólo
podamos dar cuenta de las variaciones de tendencias en el lapso entre 1990 y 2006, sino también en cualquier
otro lapso, de modo que podamos también hacer proyecciones más o menos acertadas sobre el desarrollo
futuro de la epistemología.
En la segunda sección se trabaja una referencia fundamental, que es el desarrollo de la epistemología entre
1920 y 1990, es decir, entre el surgimiento del llamado Círculo de Viena y luego la fecha aproximada en la que
parece cerrarse un importante ciclo de desarrollo y definiciones de los Enfoques Epistemológicos básicos que
subyacen a la diversidad de tendencias en el planteamiento y tratamiento de objetivos y problemas (la
hipótesis sobre la relación entre Enfoques Epistemológicos y variaciones observables de tendencias históricas
queda planteada en la primera sección).
En la tercera sección, tomando como referencia lo tratado en la anterior, se discuten los principales tópicos,
problemas, tratamientos y corrientes que han tenido vida en los últimos 20 años. Se examinan algunas ‘nuevas
epistemologías’ y se expone la evolución reciente de algunos tratamientos divergentes en torno a problemas
clave.
Para terminar (cuarta sección), se discuten algunos elementos que podrían ser útiles para una evaluación de los
estudios en epistemología, más unas consideraciones acerca de la aplicabilidad de la epistemología en el
terreno de la práctica académica y de la promoción de la investigación.
Finalmente, hay una aclaratoria necesaria respecto al título: se habla de “epistemología de la investigación
científica”, lo cual sería redundante para quienes conciben la epistemología como teorización acerca de la
ciencia, que es el caso aquí, como se explicará más adelante. Pero la redundancia deja de serlo para quienes
conciben la epistemología como filosofía del conocimiento en general, no sólo del conocimiento científico.
1. Marco de Análisis
Hay un acuerdo mínimo generalizado en que la epistemología tiene que ver con el conocimiento. De allí en
adelante surgen no sólo las diferencias, sino también las dificultades y los problemas.
Una diferencia que vale la pena destacar es que para unos la epistemología estudia el conocimiento en general,
desde un punto de vista filosófico, con lo cual el término resulta aproximadamente sinónimo de “gnoseología”
(suele ser el caso en el mundo anglosajón, por ejemplo), mientras que para otros la epistemología se restringe
a uno de los tipos de conocimiento: el científico (en general, suele ser el caso, por ejemplo, en Italia, Francia y
Latinoamérica), con lo cual el término pasaría a ser sinónimo de las expresiones “Filosofía de la Ciencia”,
“Teoría de la Ciencia”, “Teoría de la Investigación Científica”, etc. A lo largo de esta exposición se asume el
segundo de estos dos sentidos del término.
Pero una dificultad de primera magnitud está en lo que podría concebirse como la paradoja de Gödel aplicada a
la epistemología. Como se sabe, Kurt Gödel demostró la imposibilidad de hablar de cualquier sistema de cosas
utilizando los mismos recursos internos del sistema en cuestión (es el caso célebre del mentiroso: “yo siempre
miento” es una expresión paradójica). Todos tenemos determinados filtros preteóricos, precognitivos, que
condicionan el modo en que conocemos y que implican ciertas preconcepciones sobre qué es el conocimiento y
sobre cuáles son sus vías legítimas de producción y validación. Entonces, al hablar sobre el conocimiento,
inevitablemente intervienen esos filtros y ocurre que hablamos sobre ‘conocimiento’ utilizando los mismos
recursos de nuestras propias formas y procesos de conocimiento, lo cual enturbia los resultados y oscurece el
asunto. Una solución clásica a la paradoja de Gödel (que se refiere al caso de los sistemas lingüísticos en
general y más específicamente a los sistemas formales) está en crear un “meta-lenguaje” que nos permita
hablar adecuadamente del “lenguaje-objeto” (para el ejemplo del mentiroso, podría ser algo así como “la frase
‘yo siempre miento’ es verdadera”). Pasando al caso de la paradoja epistemológica, esa solución consistiría en
crear algún sistema externo que considere los distintos filtros preteóricos o precognitivos, o sea, las distintas
perspectivas que condicionan nuestros propios procesos de conocimiento y que, por tanto, nos permitan hablar
de éste según tal o cual perspectiva. Ese sería el único modo en que podríamos entender y manejar los debates
entre, por ejemplo, las investigaciones “cualitativa” y “cuantitativa” o entre “empirismo” y “racionalismo” o
entre “idealismo” y “realismo”, por sólo citar algunas divergencias. El hecho es que resulta imposible manejar
cualquier tesis epistemológica sin considerar la perspectiva preteórica desde la cual fue planteada y por eso las
discusiones entre perspectivas diferentes (como es el caso entre realismo e idealismo, por ejemplo) resultan
lógicamente irresolubles: al estar condicionadas por esos filtros o perspectivas cuyo carácter es precognitivo
(pre-racional y pre-lógico) resultan irreductibles en un plano lógico y racional. En consecuencia, la solución está
en algún aparato conceptual que explique la generación de teorías del conocimiento a partir de diferentes
perspectivas o filtros precognitivos. Esto resulta esencial para dar cuenta de las variaciones en las tendencias
de la epistemología en cualquier lapso histórico, siempre que se desee una visión explicativa de las mismas,
más allá de una visión descriptiva o anecdótica y más allá de un empeño en los debates y polémicas
interminables. Más adelante, al exponer los criterios de análisis, se verá cómo esta solución se asocia a la
hipótesis de los “enfoques epistemológicos”.
Un primer acercamiento al tema de las perspectivas precognitivas desde las cuales se puede hablar o teorizar
acerca del conocimiento (o sea, desde las cuales se puede “hacer epistemología”), tiene su raíz en la conocida
tesis de los tres mundos de Popper (1982), que a su vez puede ponerse en conexión con la anterior tesis del
“triángulo de Odgens” (puede verse está conexión en Padrón 2000). Odgens había explicado el lenguaje como
una estructura relacional entre tres elementos: el “Referente” (las cosas, el mundo perceptible), el
“Pensamiento” (la idea o representación mental de esas cosas) y el “Símbolo” (las palabras que expresan ese
pensamiento). El primer elemento remite al plano del Objeto, el segundo al plano del Sujeto y el tercero al
plano de las relaciones entre Sujetos. De modo isomórfico, la tesis popperiana de los tres mundos supone esas
mismas tres ‘realidades’: el mundo de las cosas objetivas (“mundo 1”, donde está todo lo que captamos con
nuestros sentidos); luego, el mundo de los contenidos subjetivos (“mundo 2”, que incluye los contenidos de
conciencia y de la vida interior del sujeto); y en tercer lugar, el mundo de las construcciones simbólico-
culturales que trascienden al individuo para colocarse en el dominio de las sociedades (“mundo 3”, el de las
ideas y representaciones colectivas, tal como la lengua, la religión, el arte, la ciencia, la ley, etc.). En el gráfico
1 se ilustra esta estructura relacional.
Si estas tesis fueran acertadas, entonces también podría suponerse el predominio de cualquiera de esos
mundos o vértices triangulares sobre los otros dos en el modo preteórico o precognitivo en que conocemos y en
que procesamos y producimos información. Es decir, podríamos imaginar una variable continua cuyos valores
posibles se desplazarían hacia cualquiera de los puntos intermedios entre esos tres elementos y los cuales
expresarían ciertas preferencias cognitivas (esquemas de conocimiento, manejo de información, resolución de
problemas). Se tendría una primera perspectiva o postura precognitiva orientada a la percepción sensorial, al
uso del poder de los sentidos y a las cosas observables (perspectiva desde el “mundo 1”). Se tendría también
una segunda perspectiva o postura precognitiva centrada en los contenidos de conciencia, en la subjetividad y
en el uso del poder de la intuición (perspectiva desde el “mundo 2”). Y se tendría, finalmente, una tercera
perspectiva o postura precognitiva basada en los mecanismos de entendimiento colectivo, en los aparatos de
vinculación con otros sujetos y en el uso del poder del razonamiento y la argumentación (perspectiva desde el
“mundo 3”). Esas tres perspectivas jamás serían valores discretos ni excluyentes, sino predominios dentro de
una variable continua, más o menos cercanos a alguno de esos tres mundos. Atendiendo a esas perspectivas,
podemos asociar respectivamente tres variaciones importantes en las tendencias recientes de la epistemología.
En primer lugar, tenemos una perspectiva desde la cual se concibe la epistemología como Filosofía Analítica,
siguiendo la herencia del Círculo de Viena y de la llamada “Concepción Heredada” (Received View). Esta
perspectiva se caracteriza por su énfasis en la rigurosidad del análisis y por la fidelidad al programa trazado en
las célebres tesis del Círculo de Viena, incluyendo la necesidad de reelaboraciones y respuestas a las objeciones
lanzadas desde el falsacionismo popperiano y desde el sociohistoricismo kuhniano.
En segundo lugar, tenemos otra perspectiva desde la cual se concibe la epistemología como reflexión libre,
tanto en un plano filosófico no analítico como en un plano socio-histórico, cultural, psicológico y antropológico,
sin demasiadas preocupaciones acerca de los linderos entre esas áreas, sobre la base de nociones tales como el
“pensamiento complejo”, el “holismo”, la “transdisciplinariedad”, la “reflexividad” o la “posmodernidad”.
En tercer lugar, hay otra perspectiva desde la cual se concibe la epistemología como ‘Meta-Teoría’ y como
ciencia fáctica obligada a explicar, mediante teorías contrastables, los procesos del conocimiento científico, del
mismo modo en que la biología se obliga a explicar los hechos orgánicos o en que la lingüística se obliga a
explicar los hechos de lenguaje, etc.
Entender estas tres variaciones resulta sumamente importante a la hora de estudiar epistemología y de diseñar
programas instruccionales, a la hora de analizar su desarrollo histórico y de aplicarla a los proyectos de
investigación y a los programas de desarrollo científico-tecnológico.
En síntesis, lo que se ha querido exponer hasta aquí es que la noción de epistemología y, por tanto, la
consideración de las diversas tendencias en su desarrollo histórico, no pueden ser tratadas unívocamente y ni
siquiera descriptivamente, sino sólo por relación con determinadas perspectivas de fondo que generan
diversidades en los modos de “hacer epistemología” y de hablar de epistemología. Entender esas perspectivas
de fondo resulta vital para no extraviarse entre autores, propuestas y polémicas y, sobre todo, para organizar,
explicar y evaluar las múltiples direcciones hacia las cuales se orienta el esfuerzo humano por entender el
fenómeno de la ciencia, a partir de lo cual cada quien podría decidir y hacer sus propias selecciones de trabajo.
Aquí se ha propuesto, a modo de primer acercamiento, la tesis de Odgens y Popper como base conceptual para
manejar esas perspectivas, pero, evidentemente, pueden imaginarse otras bases conceptuales que resulten
más eficientes e, incluso, esas mismas perspectivas pueden deducirse a partir de otras tesis diferentes. En ello,
precisamente, radica uno de los retos fundamentales para una teoría de la ciencia.
Para sistematizar las variaciones en los tratamientos epistemológicos se han adoptado hasta ahora varios
sistemas de clasificación y discriminación, todos los cuales se muestran insuficientes por diversas razones.
Uno de estos criterios, tal vez el más simplificador de todos, es el que distingue entre visiones cualitativa y
cuantitativa. En la primera estaría ubicada la perspectiva subjetivista (“mundo 2”) y en la segunda, la
perspectiva objetivista (“mundo 1”). Obviamente, queda por fuera la perspectiva intersubjetivista (“mundo 3”),
con lo cual el tipo de ciencia desarrollado por Einstein, Mendeleiev, Chomsky, etc., escaparía a esa clasificación.
Por tanto, o el trabajo del tipo desarrollado por estos autores no es ciencia o el sistema de análisis es
incompleto. Pero en el mundo académico Einstein, Mendeleiev y Chomsky son sistemáticamente considerados
como científicos. Entonces, el sistema que diferencia entre “cualitativo” y “cuantitativo” es incompleto. En
realidad, la deficiencia básica de este sistema de análisis está en su presuposición dualista “subjetividad /
objetividad”.
Otro de estos criterios, sumamente parecido al anterior, es el que distingue entre “Ciencias del Espíritu” y
“Ciencias Materiales”. Su dificultad elemental está en la imposibilidad de establecer límites discretos entre
ambas cosas. La lingüística, por ejemplo, es una “ciencia del espíritu” cuando aborda fenómenos de
comunicación social, pero es una “ciencia material” cuando aborda fenómenos computacionales y lógico-
formales: ¿habría que considerar dos ciencias diferentes cuando en realidad se trata de una misma teoría, sólo
por el hecho de que se aplican a hechos distintos? Algo parecido podría aducirse en el caso de la clínica médica,
con respecto a enfermedades “materiales” que tienen bases psicológicas (“espirituales”). ¿Cómo congeniar
ambas cosas?
Tenemos también el criterio de las diferencias entre “Ciencias Empírico-Analíticas”, “Ciencias Histórico-
Hermenéuticas” y “Ciencias Teórico-Críticas”. Lo único que puede distinguirse empíricamente en este sistema
es la “ciencia empírico-analítica”, que constituye un mismo conjunto indiscriminado y confuso de toda la ciencia
empirista y racionalista. Pero resulta imposible encontrar datos empíricos que diferencien entre “ciencias
histórico-hermenéuticas” y “ciencias teórico-críticas”. Más bien, parece una discriminación “ad hoc” para
resaltar el valor de ciertas perspectivas precognitivas, con total independencia de soportes empíricos. Si la
historia de la ciencia se ventilara en términos de esta clasificación, el resultado sería confuso.
Ante estas dificultades, no parece posible establecer criterios de análisis de tendencias epistemológicas basados
en estas clasificaciones. En cambio, se adoptará la hipótesis de los “Enfoques Epistemológicos” (resumida en
Padrón 1998), según la cual las variaciones observables en los procesos de producción científica obedecen a
determinados sistemas de convicciones acerca de qué es el conocimiento y de sus vías de producción y
validación, sistemas que tienen un carácter preteórico, ahistórico y universal, denominados “Enfoques
Epistemológicos”. Las variaciones observables generadas por estos enfoques pueden estandarizarse en
“paradigmas” (en el sentido de Kuhn 1975), los cuales tienen lugar a lo largo de la historia de la ciencia y se
suceden unos a otros en el control de los estándares científicos de las épocas (Ciencia Normal 1 -> Revolución
1 -> Ciencia Normal 2 -> Revolución 2 -> Ciencia Normal 3 …). Por más que estos paradigmas o “ciencias
normales” puedan parecer únicos, diferentes y múltiples, en realidad sólo son manifestaciones empíricas de
alguno de los Enfoques Epistemológicos. Así, por ejemplo, el paradigma de la ciencia baconiana estaría
generado por el mismo enfoque epistemológico que generó al paradigma neopositivista, algunos siglos
después, así como el paradigma cartesiano sería la manifestación empírica del mismo enfoque epistemológico
que generó el paradigma chomskyano en la lingüística actual. Dicho de otro modo, el enfoque epistemológico
vendría a ser una función que transforma determinadas convicciones de fondo, inobservables, de tipo
ontológico y gnoseológico, en determinados estándares de trabajo científico, estándares asociables a las
distintas comunidades académicas.
Se utilizan dos variables para sistematizar los Enfoques Epistemológicos: una es de tipo gnoseológico, referida
a las convicciones acerca de la fuente del conocimiento, simplificada en dos valores: empirismo / racionalismo.
La otra es de tipo ontológico, referida a las convicciones acerca de las relaciones del sujeto con la realidad,
simplificada también en dos valores: idealismo / realismo. El cruce de esas variables nos lleva tentativamente a
cuatro Enfoques Epistemológicos: el enfoque empirista-realista (mediciones, experimentaciones, inducción
controlada…), el enfoque empirista-idealista (etnografía, diseños de convivencia, inducción reflexiva…), el
enfoque racionalista-realista (abstracciones, sistemas lógico-matemáticos, deducción controlada…) y el enfoque
racionalista-idealista (interpretaciones libres, lenguajes amplios, argumentación reflexiva…). En la Tabla 1 se
muestran esos cruces.
Tabla 1: Variables para Clasificación de Enfoques Epistemológicos
VARIABLE GNOSEOLÓGICA
EMPIRISMO RACIONALISMO
VARIABLE ONTOLÓGICA
Interpretaciones libres, lenguajes
Etnografía, diseños de
IDEALISMO amplios, argumentación
convivencia, inducción reflexiva…
reflexiva…
Abstracciones, sistemas lógico-
Mediciones, experimentaciones,
REALISMO matemáticos, deducción
inducción controlada…
controlada…
El estudio de cada uno de estos enfoques epistemológicos permite manejar las perspectivas o los marcos
presuposicionales desde los cuales se conciben, desarrollan y evalúan los procesos científicos, incluyendo la
producción de investigaciones y, sobre todo, las tendencias en la evolución de la epistemología. Precisamente,
esta hipótesis servirá, a lo largo de esta exposición, para explicar las relaciones de continuidad, y también las
de ruptura, que tienen lugar en las variaciones de las tendencias epistemológicas de los últimos 16 años. En
realidad, el supuesto básico de esta exposición está en que esas tendencias no son entre sí aisladas ni
inconexas, sino que unas son prolongaciones de otras bajo un mismo enfoque epistemológico y otras son
discontinuidades o rupturas con respecto a otras en virtud de enfoques epistemológicos diferentes. Asimismo,
sobre la base de esta noción de Enfoque Epistemológico podrían también preverse las variaciones de tendencias
que tendrán lugar en un futuro próximo.
Anteriormente (sección 1.1) se habló de ciertas perspectivas preteóricas, precognitivas, asociables a la tesis
popperiana de los tres mundos. Nótese que esas perspectivas (o filtros) equivalen a la misma noción de
“Enfoques Epistemológicos”, sólo que mientras en aquel caso se consideran tres grandes sistemas de
convicciones. En este otro la discriminación es un poco más fina, ya que permite distinguir dos variaciones
importantes en la epistemología interpretativista (o comprensivista, asociada a la idea de “ciencias del
espíritu”), a saber, la variación experiencialista (convivencia, trabajos de campo, al modo propuesto por Alfred
Schutz) y la variación reflexivista (argumentaciones, crítica sociohistoricista, al modo de Jürgen Habermas). Se
trata de dos esquemas de análisis que resultan convergentes y que pueden utilizarse a conveniencia. Es lo que
se hará en las secciones que siguen.
Otro criterio de análisis adoptado en esta intervención es el que se refiere a la “Estructura Diacrónica” (ver
resumen en Padrón 1998), según la cual los desarrollos científicos y meta-científicos se basan en “Programas”
de desarrollo progresivo (tal como en Lakatos 1978) que van más allá del individuo y, a veces, más allá de
generaciones de individuos (piénsese en el programa de la gravitación, desde Newton a Einstein, por ejemplo, o
en el del racionalismo, desde los griegos a la actualidad). Estos programas siguen una trayectoria temporal que
comienza en una fase descriptiva (cuáles son los hechos), para luego pasar a una fase explicativa o
interpretativa (según el enfoque, explicar por qué los hechos ocurren del modo en que fueron descritos o
interpretar cuáles son los simbolismos subyacentes), yendo después a una fase contrastiva (evaluar las teorías
elaboradas en la fase anterior), terminando en una fase aplicada o aplicativa (en que se intenta explotar las
teorías ya evaluadas para el control de la realidad). En el Gráfico 2 se visualiza esta idea.
Este otro criterio refuerza también la idea de continuidades y discontinuidades en el tratamiento de las
tendencias en los estudios epistemológicos, en el sentido de que dichas tendencias, así como los procesos
científicos que son explicados por las mismas, se vinculan entre sí sobre la base de determinados “programas”.
Para concluir esta sección, conviene declarar que la exposición que sigue se apega a una concepción
“naturalizada” de la epistemología (en el sentido que se explica más adelante, en 3.1.3). Es decir, se concibe
esta disciplina como una teoría fáctica (meta-teoría) cuyo correlato empírico está en la historia de la ciencia y
de las investigaciones científicas y cuyos resultados meta-teóricos tienden a ser insumos de una tecnología de
la ciencia, en una fase aplicativa que busca más eficientes controles operativo-instrumentales sobre los
procesos científicos. Una de las razones de esta toma de posición es que, así entendida, la epistemología
resulta más provechosa para su aplicabilidad al terreno de la investigación universitaria
Aunque las actuales tendencias tienen sus antecedentes en épocas mucho más lejanas, se considerará sólo el
período de las décadas centrales del siglo XX como base programática sobre la cual se emplazan dichas
tendencias. En ese lapso hay, a su vez, dos hitos que vale la pena analizar por separado.
Este primer hito marca un ciclo donde se completa el desarrollo paradigmático de los cuatro enfoques
epistemológicos antes referidos, comenzando por el famoso Círculo de Viena, desde 1920, aproximadamente,
hasta la visión hermenéutica y comprensivista de la Escuela de Frankfurt y la difusión del experiencialismo
vivencialista de Schutz (investigación “cualitativa”), alrededor de 1970.
Sobre esta matriz diacrónica se ha escrito mucho y hay abundante literatura, por lo cual este examen pasará
por alto los detalles ya divulgados y se limitará a una idea que no aparece en la documentación especializada y
que parece interesante: este ciclo completa el recorrido desde una concepción de la ‘ciencia de los
objetos observables’ (empirismo-realista, Círculo de Viena, neopositivismo, neoconductismo…), pasando a una
concepción de la ‘ciencia de los objetos calculables’ o ‘pensables’ (racionalismo-realista, Einstein, Popper,
Chomsky…), yendo luego a una concepción de la ‘ciencia de los objetos intuibles’ (racionalismo-idealista,
hermenéutica, Teoría Crítica de Frankfurt…), hasta terminar en una concepción de la ‘ciencia de los
objetos vivibles’ o ‘experienciables’ (empirismo-idealista, etnometodología, investigación cualitativa…). La idea
es que en este ciclo se van definiendo los alcances que cada uno de los cuatro enfoques epistemológicos
plantea para el conocimiento científico en relación con su objeto típico y legítimo y también como tarea
epistemológica.
Recuérdese que una de las tesis centrales del Círculo de Viena es el empirismo: todo conocimiento proviene de
los datos de los sentidos puestos en contacto con la realidad (“experiencia”). De ella se deriva otra tesis: que
todo conocimiento es inductivo. En consecuencia, lo único que puede ser científicamente conocido es aquello
que se ofrece directamente a la experiencia, aquello que se expone a la vía de los sentidos, caso por caso. Se
define así como objeto típico y legítimo de la ciencia aquel tipo de realidades que resulta ‘observable’,
desplazando todo lo demás a la esfera de la especulación o de la filosofía. En el área de las ciencias sociales,
esta concepción de la ‘ciencia del objeto observable’ fue muy expresamente divulgada por el neoconductismo,
en especial en sus aplicaciones a la instrucción: recuérdense las listas de verbos de “conducta observable” y las
taxonomías de objetivos de aprendizaje que se imponían como norma para los diseñadores instruccionales
durante la época dorada del conductismo.
Estas tesis del Círculo de Viena y de la llamada “concepción heredada” (empirismo lógico en general) fueron
luego asaltadas por el falsacionismo popperiano y, sobre todo, por una visión deductivista, teoricista, de la
ciencia, que asigna más valor a las estructuras de pensamiento y razonamiento que a la experiencia. Siendo
así, ya entonces el objeto típico y legítimo de la ciencia queda ensanchado. No se trata sólo de los objetos que
aparecen directamente a la experiencia, a los sentidos, sino también, y sobre todo, aquellos que pueden ser
‘imaginados’, razonados, aquellos cuya naturaleza oculta puede ser manejada mediante estructuras de
razonamiento y puede ser expresada mediante sistemas lógico-formales. Se pasa así de los objetos
“transparentes” (abiertos a la experiencia) a los objetos “opacos” (cerrados a la experiencia, pero abiertos al
razonamiento). Los casos de Einstein, en física, y de Chomsky, en lingüística, en su polémica contra el
neoconductismo y el descriptivismo, fueron históricamente emblemáticos. A continuación, véanse dos citas de
estos autores, ambas muy parecidas, en las que se ilustra bastante bien la noción de ‘ciencia de los
objetos calculables’ o ‘pensables’: “Los conceptos físicos son libres creaciones de la mente humana y no están,
por más que parezca, únicamente determinados por el mundo externo. En nuestro empeño por entender la
realidad nos parecemos a alguien que tratara de descubrir el mecanismo invisible de un reloj, del cual sólo ve el
movimiento de las agujas, oye el tic-tac, pero no tiene forma de abrir la caja para ver lo que hay adentro. Si se
trata de una persona ingeniosa, podrá imaginar o suponer un mecanismo que sea el responsable de todo lo que
se observa fuera de la caja, pero nunca podrá estar seguro de si su suposición o lo que él imagina es lo único
que explica los efectos observados. Jamás podrá comparar lo que él imagina con el mecanismo real que está
dentro de la caja y ni siquiera podrá saber si tal comparación tendrá sentido” (Einstein y Infeld 1950:34).
“Imagine a un físico que se pregunta por lo que ocurre en el interior del sol. Ahora, una forma sencilla de
responder a esto sería instalar un laboratorio dentro del sol y así experimentar. Pero Ud. no puede hacer eso,
porque el laboratorio se convertiría en gas. Por tanto, lo que Ud. puede hacer es mirar la luz que proviene del
sol e imaginarse lo que sucede dentro del sol que produce ese tipo de luz. Esto es muy parecido a tratar de
imaginarse lo que ocurre en los mecanismos físicos del cerebro” (Chomsky 1988:187).
Es gracias a este ensanchamiento del objeto de la ciencia hacia lo ‘pensable’ o ‘calculable’ como, por ejemplo,
en ciencias sociales se abre el camino a la famosa “revolución cognitiva” y a las teorías de la mente y del
lenguaje, todo lo cual aun hoy día permanecería en el terreno especulativo o filosófico, si no hubiese sido por
este cambio paradigmático generado por la irrupción del enfoque epistemológico racionalista-realista.
Dentro de esta misma concepción teoricista, Popper tuvo el gran mérito de plantear el problema de cómo crece
el conocimiento científico, tras cuya búsqueda tuvo lugar su célebre polémica con Kuhn, así como las
propuestas de Lakatos y Laudan (“programas” y “tradiciones” de investigación, respectivamente). Sin entrar en
los pormenores de este hecho, suficientemente reseñados, cabe resaltar que, como consecuencia, dentro del
racionalismo-realista surge la introducción del elemento socio-histórico en el análisis de la ciencia. Lo que
Reichembach, en los años del empirismo lógico, había planteado como la diferencia entre “contexto de
descubrimiento” y “contexto de justificación”, más la imposibilidad de que la epistemología considerara el
primero de esos contextos, se revierte ahora, recibiendo importancia los aspectos culturales e históricos. De
hecho, algunos de estos conceptos (“comunidad científica” e “intervalo histórico”, por ejemplo) pasaron a ser
tratados formalmente dentro de algunos estudios sobre la estructura de las teorías (por ejemplo, Moulines
1982). Lo importante es que esta introducción de aspectos socio-históricos (sobre todo la
“inconmensurabilidad” de Kuhn, llevada al máximo por Feyerabend) marca una cierta confluencia con algo que
se venía manejando desde años antes en la llamada Escuela de Frankfurt, que representaba un enfoque
epistemológico diferente: la ‘ciencia de los objetos intuibles’ o ‘interpretables’, implícita en la tesis de la “Teoría
Crítica”, y que llevaba el germen de otro paradigma nuevo para el siglo XX.
Una de las tesis esenciales de la Escuela de Frankfurt atiende a la dialéctica de las relaciones de dominación,
herencia del marxismo (vertiente racionalista). Otra de sus tesis, desde una vertiente idealista o subjetivista,
recoge las filosofías de Dilthey, Husserl y Heidegger, principalmente la separación entre ciencias “de la
naturaleza” y “del espíritu”, la “comprensión” en lugar de la “explicación”, la fenomenología, los procesos
intuitivos y la hermenéutica como herramienta interpretativa (que había sido rescatada por Friedrich
Schleiermacher, del romanticismo alemán, a su vez rescatado por Dilthey unos cien años después). El
planteamiento de la “Teoría Crítica” surge de la necesidad de emancipación, la cual pasa por desentrañar el
modo en que el ser humano es enajenado y sometido a través de los múltiples mecanismos socioculturales,
incluyendo la ciencia en cuanto estructura de poder y dominación. Pero este desentrañamiento no puede ser
llevado a cabo por las mismas vías “positivistas” (para Adorno y Habermas, por ejemplo, aun el racionalismo
popperiano y la ciencia einsteniana vienen a ser “positivismo”), es decir, por los estándares de la “explicación”
científica. Es menester la “comprensión” y la “interpretación”, que hagan efectiva la capacidad de captación
fenomenológica, al modo de Husserl, y que pongan al descubierto los simbolismos socioculturales subyacentes
a las relaciones sociales (hermenéutica, círculo hermenéutico, etc.). Esto es suficiente para entender el
desplazamiento hacia una ‘ciencia de los objetos intuibles’ o ‘interpretables’, con lo cual renace en el siglo XX, a
través del paradigma de Frankfurt, el mismo enfoque epistemológico racionalista-intimista de San Agustín, en
el siglo IV (en sus Confesiones escribió: “¿Qué es el tiempo? Si nadie me lo pregunta, lo sé. Si quisiera
explicárselo al que me lo pregunta, no lo sé”). En la práctica, al menos atendiendo a las investigaciones y
estudios realizados desde la óptica de este paradigma de la Escuela de Frankfurt, el enfoque orientado a los
‘objetos intuibles’ se caracteriza por un discurso argumentativo que excluye los trabajos de campo (rasgo
racionalista), pero que también viene marcado por un intensa auto-referencialidad e inclinación reflexiva
volcada hacia el sujeto (rasgo subjetivista, idealista).
Finalmente, como derivación de este paradigma de la escuela de Frankfurt, la década de los ‘60 termina con
una variante epistemológica que se desplaza hacia el empirismo (en términos
de experiencialismo o vivencialismo), manteniendo los mismos estándares fenomenológicos, reflexivistas,
subjetivistas, del paradigma de Frankfurt. Los trabajos de Alfred Schutz y de los antropólogos norteamericanos
de comienzos de siglo fueron unas de las más importantes inspiraciones de este paradigma, en especial en lo
que tiene que ver con nociones empíricas y metodológicas tales como “interacción social”, “mundo de la vida”,
“vida cotidiana”, “historias de vida”, “triangulación” y otras por el estilo. Una de las tesis básicas es la
necesidad de vivir aquello que se está investigando, tal como escribe Seiffert: “Los enunciados fenomenológicos
descansan siempre en experiencias personales de la vida por parte del autor en el ámbito al que él se refiere.
Por tanto, la instancia para la comprobación intersubjetiva de enunciados fenomenológicos no es un
procedimiento empírico (...), sino el asentimiento del lector experimentado y competente en una impresión ‘sí,
es así’. Tal lector competente comprueba, pues, hermenéuticamente, la contundencia de lo dicho en su propia
experiencia de vida; él examina el texto bajo el punto de vista de si reproduce o interpreta adecuadamente esta
experiencia” (1977:241). “La auténtica fortaleza del método fenomenológico está en el ‘nivel individual’ de los
que lo aplican (amplitud de experiencia o de inteligencia o ambas cosas a la vez). Radica en el carácter de una
‘ciencia de la vida’ que no puede renunciar a este momento; pues de otro modo perdería sin necesidad un
tesoro de experiencias interpretables de la vida, las cuales pueden contribuir mucho al esclarecimiento de la
vida, aún cuando no sean estandardizables ni, por tanto, accesibles a cualquier investigador social” (1977:243-
244).
Nace, así, la llamada “investigación cualitativa” en general y, en particular, numerosas corrientes menores, que
van desde la “investigación-acción” y la “observación participante”, pasando por la “etnometodología” y la
“etnografía”, hasta la “investigación militante” y la “investigación comprometida”, etc. En todo caso, con este
cuarto paradigma se visualiza el enfoque empirista-idealista, el de la ‘ciencia de los objetosvivibles’, ‘sentibles’
o ‘experienciables’.
Como balance general, se tiene ya desde los ’70 un panorama de coexistencia de esos cuatro paradigmas
asociados a sus respectivos enfoques epistemológicos. En principio, los dos primeros, el empirismo-realista y el
racionalismo-realista (objetos observables y objetoscalculables) quedan anclados a las ciencias materiales y a
algunas ciencias sociales (lingüística, ciencias cognitivas, inteligencia artificial, economía). Pero gran parte de la
psicología, la sociología y la antropología ha sido abordada por los enfoques subjetivistas-reflexivistas. En la
siguiente sub-sección se verán algunas prolongaciones que llegan hasta 1990, aproximadamente, y que, en
general, consolidan este ciclo de desarrollo de esos cuatro enfoques.
Después de este ciclo que se termina de describir, hay una especie de prolongaciones o de profundizaciones
temáticas en torno, aproximadamente, a los mismos problemas de fondo ya instaurados en ese ciclo.
Esencialmente, estas prolongaciones se revelan en las tendencias que se reseñan a continuación.
Esta prolongación, ubicada dentro del enfoque racionalista-realista (paradigma falsacionista), sigue
inmediatamente al problema popperiano de cómo crece el conocimiento científico, ante lo cual chocaron las
soluciones del mismo Popper (el conocimiento crece por razones lógicas internas, por suplantación de teorías
previas que resultan falsas, o “falsadas”, por teorías nuevas que a su vez están por falsar…, y así
sucesivamente) y la de de Kuhn (el conocimiento crece por razones socio-históricas externas, a través de las ya
mencionadas “revoluciones científicas”). En los albores de los ’70, Imre Lakatos intenta conciliar ambas
soluciones mediante la noción de “Programas de Investigación”, según la cual una teoría es en realidad un
conjunto de teorías menores ligeramente diferentes entre sí que coinciden en un mismo “núcleo duro”, o sea, al
menos en una misma idea esencial, que es justamente aquello que la comunidad académica responsable se
empeña en defender ante los ataques de la falsación, mediante hipótesis auxiliares, correctivas, que él llama
“cinturón protector”. Mientras Popper consideró este recurso como justificaciones convenientes (‘hipótesis ad
hoc’), Lakatos sostiene que no es necesariamente inválido, ya que la capacidad para proteger un “núcleo duro”,
o para trabajar sobre el “cinturón protector”, dice mucho acerca de la potencialidad del “programa” para poder
crecer o, al contrario, para degenerar, cosa que resulta mucho más interesante a la hora de evaluar una teoría.
El asunto está en si esto conduce a explicar nuevos hechos o si, en cambio, la teoría queda estancada ante
nuevos hechos, por más que se abulte el cinturón protector (más tarde Quine, 1951, propondría una idea algo
parecida: el “holismo metodológico”, según el cual las teorías se falsean como un todo y no aisladamente,
atendiendo a algunas de sus derivaciones particulares). Para ello, los programas de investigación siguen reglas
metodológicas de dos tipos: unas que indican por cuáles vías hay que seguir trabajando (“heurística positiva”) y
otras que indican cuáles vías hay que evitar (“heurística negativa”). La gran conclusión de todo esto es que las
teorías no son aisladas, ni responden a un solo autor, ni se ubican en un solo momento histórico, ni pueden ser
evaluadas en términos de sus componentes, evaluados aisladamente. En realidad, unas teorías generan otras,
de modo que el crecimiento del conocimiento científico es cuestión de sucesiones, de conexiones y de nexos de
familia entre las investigaciones individuales, incluso en largos plazos generacionales. La investigación científica
viene a ser, entonces, un asunto programático y transindividual.
En ese mismo sentido, bajo la cobertura de esa misma conclusión, está también el aporte de Larry Laudan,
quien propone la noción de “tradiciones de investigación”, en los mismos términos de continuidad temporal,
bajo los parámetros de eficiencia de las distintas propuestas teóricas frente a los retos que van planteando los
problemas de cada época en determinados contextos.
Lo más importante de esta prolongación está en la idea de que las investigaciones no son entre sí aisladas, sino
que ofrecen nexos de ‘consaguinidad’, al punto de que ninguna investigación vale la pena si se la considera en
sí misma, sino en relación con las conexiones que mantiene con respecto a toda una red.
En síntesis, todo esto remite a la noción de “estructura diacrónica” de los procesos de investigación: toda
investigación puede ser analizada en sí misma, como hecho individual adscrito a una instantánea temporal,
atendiendo a su composición interna y a las relaciones entres sus elementos estructurales. Pero esto sólo
adquiere significado si se considera su ubicación dentro de una familia de investigaciones, el modo en que
funciona como punto de continuidad, su aporte al progreso del programa de investigación, más el tipo de nexo
que mantiene con otros trabajos individuales. En un plano empírico y aplicativo, todo esto sustenta la noción de
“líneas” (grupos, equipos, centros) de investigación, es decir, conecta la epistemología con la esfera cotidiana
de la organización y gestión de la producción-difusión de conocimientos (Padrón 2002).
Las referencias a una “sociología del conocimiento” en general datan desde comienzos del siglo XX (incluso
antes del Círculo de Viena: Karl Marx, Max Scheler y Karl Mannheim, por ejemplo), luego reaparecen a
mediados de siglo dentro de la tendencia del funcionalismo conducida por Merton y Parsons, entre otros, y
asociadas al concepto de “vida cotidiana”, y tienen su auge con los trabajos de Kuhn y Feyerabend. Pero hay
una referencia particular, comúnmente llamada “el Programa de la Sociología del Conocimiento”, que adquirió
un significado especial dentro de las últimas tendencias del siglo XX y comienzos del XXI y que es la que
interesa aquí (para una reseña amplia, ver Meja y Stehr, 1999, cuyos dos volúmenes explican cada una de
estas dos referencias, respectivamente).
Este programa completo insiste en la influencia que tienen los factores socio-culturales y psicológicos en el
desarrollo de la ciencia, más allá de los factores racionales o lógico-metodológicos (insisten en una visión
“externalista” por encima de una visión “internalista”: en el predominio del “contexto de descubrimiento” sobre
el de “justificación”). La difusión de este “programa” ha tenido tanta resonancia que a partir de 1970 se
publican numerosos textos al respecto, se imponen los cursos y seminarios en los programas de postgrado de
casi todo el mundo y nacen varias publicaciones periódicas dedicadas, entre las cuales está la revista Social
Studies of Science (desde 1970) y el anuario Sociology of Science Yearbook (desde 1977). David Bloor (1976),
uno de sus mayores exponentes, distingue entre un programa “débil” y otro “fuerte”. El “programa débil de la
sociología del conocimiento”, según este autor, es más un acercamiento general y difuso antes que un
movimiento sistemático y se diferencia por su tesis de que las creencias erróneas se explican a partir de
factores socio-históricos (incluye a Lakatos y a Kuhn dentro de este programa, cosa que resulta muy discutible,
a menos que ello se entienda como antecedente histórico inmediato), mientras que el “programa fuerte” es
todo un movimiento organizado que considera los factores socio-históricos como responsables de todas las
creencias, tanto las erróneas como las acertadas. Este “programa fuerte” tuvo a su vez dos ramificaciones
importantes, nacidas en dos centros universitarios: una en la Unidad de Estudios de la Ciencia de la Universidad
de Edimburgo, en Escocia, a la que pertenecen el mismo Bloor, Barry Barnes, Steve Shapin, Donald MacKenzie
y John Henry, principalmente, y otra en la Escuela de Bath, de la universidad del mismo nombre, en Inglaterra,
donde se gesta el conocido EPOR (Empirical Programme of Relativism), cuyos mayores representantes son
Harry Collins y Trevor Pinch, el cual encabeza, a su vez, dentro de la metodología del EPOR, el programa
SCOST (Social Construction of Science and Technology; véase Pinch y Bijker 1984). Las cuatro tesis centrales
del EPOR, según Bloor (1976), son “los principios de causalidad, imparcialidad, simetría y reflexividad”
(1976:7).
Un trabajo paralelo a este “programa fuerte” es el de la llamada “escuela francesa”, liderado por Michel Callon,
Bruno Latour y John Law con su “Teoría de la Red de Actores”, y, más en general, el de la “Etnometodología”,
conducido por Harold Garfinkel, Steve Woolgar, Aaron Cicourel, Karin Knorr-Cetina y el mismo Bruno Latour
(para una reseña general, véanse Collins y Yearley 1992, y Linch, Livingstone y Garfinkel 1983). La crítica de
este trabajo a todo el “programa fuerte”, en general, implica una radicalización de sus tesis del relativismo
epistemológico hacia un relativismo ontológico (especialmente Woolgar 1988).
Todo este programa de la sociología del conocimiento, que surge en el seno del enfoque idealista o subjetivista
(tanto empirista como racionalista), ha sido duramente criticado, entre muchos otros, por Mario Bunge (el cual
hace, además, una buena reseña de ese programa): “Si bien los estilos respectivos presentan múltiples
diferencias, no dejan por ello de adherirse todos a una cantidad de dogmas compartidos. Se trata del
externalismo, tesis en cuyos términos el contenido conceptual es determinado por el marco de referencia
social; el constructivismo o subjetivismo, según el cual el sujeto investigador construye no sólo su propia
versión de los hechos sino también los hechos mismos y eventualmente el mundo entero; el relativismo, para
el que no existen verdades objetivas y universales; el pragmatismo, que destaca la acción y la interacción a
expensas de las ideas, e identifica a la ciencia con la tecnología; el ordinarismo, que reduce la investigación
científica a pura transpiración sin inspiración, negándose a reconocer a la ciencia un rango especial y a
distinguirla de la ideología, de la seudociencia y hasta de la anticiencia; la adopción de doctrinas psicológicas
obsoletas, como el conductismo y el psicoanálisis, y la sustitución del positivismo, el racionalismo y otras
filosofías clásicas por multitud de filosofías ajenas a la ciencia a incluso anticientíficas (…). Los sociólogos de la
ciencia de nuevo cuño son incapaces de entender la ciencia: en efecto, no explican nunca qué es lo que
distingue al hombre de ciencia de los demás mortales; cuáles son, en su caso, las suposiciones filosóficas
tácitas y las normas metodológicas; qué diferencia a la investigación científica de otras actividades humanas;
cuál es su lugar en la sociedad, y por qué la ciencia ha tenido tanto éxito en la comprensión de la realidad y
como propulsora de la tecnología. Y lo que es aun peor, niegan que los hombres de ciencia posean un ethos
propio y que desarrollen una actividad cultural específica” (Bunge 1998:15-17).
En este período surgen dos prolongaciones importantes en el seno de los dos enfoques realistas (empirista y
racionalista): el de la “Epistemología Naturalizada” y, para algunos insertado allí mismo, el de la “Epistemología
Evolutiva”.
El programa de la naturalización de la Epistemología es planteado muy especial y definidamente por Willard Van
Orman Quine (Quine 1969) sobre la base de su tesis empirista según la cual no hay conocimiento previo a la
experiencia (todo conocimiento proviene en última instancia del mundo externo) y sobre la base de su crítica a
la epistemología tradicional como proveedora de argumentos para la justificación del conocimiento. Otros
trabajos más amplios al respecto, pueden verse en Goldman (2002) y en Kornblith(1994), donde también
aparece un artículo de Quine: “La Epistemología continúa, pero en una nueva configuración y en un estado
definido. La Epistemología, o algo como ella, pasa simplemente a tomar su puesto como un capítulo de la
Psicología y, por tanto, de las ciencias naturales. Estudia un fenómeno natural, es decir, un asunto físico
humano. Este asunto humano se entiende como una cierta entrada (input) experimentalmente controlada
-ciertos patrones de irradiación en frecuencias variadas, por ejemplo- y al cabo del tiempo el objeto estudiado
entrega, a la salida (output), una descripción del mundo externo tridimensional y de su historia”(Quine
1969:82-83).
En general, la epistemología naturalizada propone los mismos tratamientos de las ciencias fácticas a la
explicación de los procesos científicos, pasando a ser un conjunto de teorías cuyo correlato empírico estaría en
la historia de la ciencia y susceptibles de generar sus respectivas tecnologías, igual que cualquier otra ciencia
fáctica. Esto contrasta con las visiones tradicionales que conciben la epistemología como algo independiente de
los aspectos científicos relativos a los procesos cerebro-mente y como análisis filosófico apriorístico. A partir de
esa noción general, hay distintas versiones de esta epistemología naturalista, las cuales difieren en el modo en
que visualizan las relaciones con respecto a la ciencia fáctica, en la medida en que se fundamentan en dicha
ciencia para explicar los procesos científicos y en el tipo de ciencias que consideran relevantes para el
tratamiento de los problemas epistemológicos.
Por su parte, la epistemología evolutiva comienza a definirse con alguna claridad a partir de la noción de
“ensayo y error” de Popper (1963): el crecimiento del conocimiento científico es comparable con la sucesión de
adaptaciones en la evolución, según lo cual una epistemología evolutiva debería encargarse de explicar este
tipo de crecimiento. Otros representantes de las primeras versiones de la epistemología evolutiva tradicional
(ver Gontier 2006) son Konrad Lorenz (el conocimiento innato es ontogenéticamente a priori y
filogenéticamente a posteriori), Jean Piaget (epistemología genética), Donald Campbell (a quien se le atribuye
la expresión “epistemología evolutiva”), Stephen Toulmin (sobreviven las teorías más aptas y mueren las
menos aptas) y Peter Munz (darwinismo filosófico).
Dentro de los enfoques realistas, además de las ya reseñadas, surgen en este lapso dos importantes nuevas
tendencias, como continuaciones de los planteamientos elaborados en el lapso inmediatamente anterior: una
que podría llamarse la visión Axiológica de las teorías y otra que podría llamarse la visión Pragmatista. Y,
dentro de los enfoques idealistas-subjetivistas, además de las ya mencionadas, se plantean los primeros
avances en la llamada “visión de género” (women studies), que luego, en los últimos 16 años, se consolidará
en la llamada “epistemología feminista”. Vale la pena también mencionar, específicamente dentro del enfoque
empirista-realista, como prolongación del neopositivismo, la llamada “concepción estructural de las teorías”. A
continuación se describen brevemente estas tendencias.
La visión axiológica es planteada por Larry Laudan, el mismo de las “tradiciones de investigación”, pero en
términos de valores epistémicos, cognitivos o intelectuales, entendiendo no “las normas éticas ni las normas de
conducta, sino las reglas y normas metodológicas” (1984: XI), tales como verdad, coherencia, simplicidad y
fecundidad predictiva. En tal sentido, esta visión axiológica de Laudan aparece en cierto modo vinculada a la
llamada “epistemología de la virtud”, la cual discute ciertos ideales cognitivos, tales como concentración,
apertura, tenacidad, coraje, visión, introspección, memoria, etc. Pero, más allá de esta concepción, se
desarrolla luego una visión axiológica referida a la ética, que sí incluye valores en general (políticos,
económicos, culturales, etc.), no sólo epistémicos, la cual, para el enfoque racionalista-realista, tiene su origen
inmediato en las tesis sociopolíticas planteadas por Popper, especialmente en “La Sociedad Abierta y sus
Enemigos”. Muchos años antes, Bertrand Russell había escrito que “El impulso hacia la construcción científica
resulta admirable cuando no inhibe ninguno de los demás impulsos principales que le dan valor a la vida
humana, pero cuando se le permite prohibir toda salida a cualquier cosa que no sea él mismo, entonces se
convierte en una forma de tiranía cruel” (Russell 1931:596). Es lo opuesto a lo dicho por Bunge (1998) en su
dedicatoria: “A la memoria de Guido Beck, mi profesor de física, quien me enseñó que mis opiniones políticas
no debían interferir con mis estudios científicos”. La idea esencial es que el objetivo terminal de la ciencia es el
control y la intervención sobre el mundo, en pos de la felicidad de las sociedades. De allí surge la necesidad de
dar respuestas a preguntas tales como ¿cuáles son los criterios para definir la felicidad de las sociedades? ¿A
favor de qué parámetros controlamos e intervenimos sobre el mundo? ¿Es lo mismo un control de tipo neo-
liberal, individualista, que un control de tipo socialista, colectivista (Padrón 2004)? Es obvio que no se puede
hacer ciencia sin tener en mente esos criterios, sin pensar en las proyecciones socio-políticas de los resultados
de la producción científica. Sería absurdo pensar que los científicos sólo hacen ciencia, dejando que los políticos
decidan qué hacer con el trabajo de ellos, con sus teorías y con las tecnologías derivadas. Esta misma visión
axiológica racionalista-realista ya había sido trabajada desde mucho tiempo antes por el enfoque racionalista-
idealista (en especial la “Teoría Crítica” de Frankfurt, con antecedentes en Marx, y por el “programa de la
sociología del conocimiento”, arriba reseñado).
Íntimamente relacionada con esta tendencia, aparece también la visión pragmatista de la Ciencia,
especialmente planteada por Ian Hacking (1983), quien, modificando la célebre sentencia de Hanson, sostiene
que toda observación está cargada de práctica, de aplicaciones. Las intervenciones son previas a la observación
y a la explicación. En realidad, esta visión pragmatista (ciencia como transformación) coincide plenamente con
las recientes políticas de los países industrializados, que prefieren la investigación aplicada sobre la
investigación básica, desplazando la mayor parte de los fondos hacia la primera.
Otro rasgo importante para este período es la explosión de los llamados “estudios de la mujer” (women’s
studies), que en general empezaron a invadir prácticamente toda la vida de las universidades y centros
académicos y que, en lo referente a la ciencia, sentarían las bases para una “epistemología feminista” (véase
Alcoff, 1989, para detalles). La clave está en la noción de que el conocimiento científico varía en dependencia
de los prejuicios que favorecen al hombre, como superior a la mujer. Esta tendencia nace dentro de los
enfoques idealistas-subjetivistas.
Finalmente, en este mismo lapso, están los intentos de axiomatización o formalización de las teorías científicas,
dentro del enfoque empirista-realista, como continuación del empirismo lógico de comienzos de siglo. Patrick
Suppes, a la cabeza de la escuela de Stanford, promovió gran parte de estos intentos, seguidos luego por la
axiomatización conjuntista o informal del programa estructuralista de Joseph D. Sneed, en el cual Moulines
(1982, 1991) estudia la inserción de los elementos pragmáticos arriba mencionados (“comunidad científica” e
“intervalo histórico”).
Con todo el ciclo descrito en 2.1 y las prolongaciones mencionadas en 2.2, se abre el paso a las tendencias
epistemológicas en los últimos 16 años. Como se verá, estas tendencias recientes surgen bajo esta referencia
del siglo XX.
Sobre la base de lo dicho hasta aquí, se tiene ahora un enlace para comprender las tendencias recientes de la
epistemología, examinando el nivel de desarrollo alcanzado y las potencialidades paradigmáticas o los
gérmenes de nuevos planteamientos dentro de cada uno de los enfoques epistemológicos hasta 1990,
aproximadamente. La exposición que sigue quedará organizada en dos puntos: el primero organiza esas
tendencias recientes en términos de las “nuevas epistemologías” que se consolidan desde esa década hasta el
presente. El segundo analiza las áreas problemáticas más destacadas. Sobra decir que los límites entre todos
estos puntos no son discretos ni que los aspectos de cada punto no coincidan o se solapen con los de otros
puntos.
La expresión “nuevas epistemologías” no es en absoluto una expresión técnica, sino divulgativa, tal vez un
tanto retórica, probablemente nacida más de los deseos de impactar acerca de novedades paradigmáticas
supuestamente revolucionarias que de la necesidad de análisis críticos (algo similar a expresiones como “nuevo
paradigma”, “paradigma emergente”, etc.; ver Padrón 2000). Pero su uso es sumamente extendido (al
consultar dicha expresión por uno de los buscadores de Internet, el resultado arrojó más de 900 citas en inglés,
español, italiano y francés), al punto de que parece conveniente usarla en esta exposición, pero sólo para
significar tendencias bastante cerradas y definidas en torno a una denominación particular suficientemente
conocida.
Desde los ’90, aproximadamente, hasta hoy en día, dentro de los enfoques racionalista-idealista y empirista-
idealista se han perfilado algunasnuevas epistemologías que constituyen el desarrollo de ciertos rasgos
temático-problemáticos presentes desde las épocas anteriores, ya reseñadas arriba. Esencialmente, se trata de
los siguientes rasgos: el externalismo o la influencia de factores socio-contextuales en los procesos científicos,
la inclusión del sujeto y de los actores en los procesos de búsqueda y la interacción sujeto-objeto. Esto dio
origen a las nuevas epistemologías que se mencionan a continuación.
En la misma lista del Proyecto Plutón, según el citado artículo de prensa, se incluyen los trabajos de Nancy
Tuana (Feminismo y Ciencia), de Sue Rosser (Ciencia amigablemente femenina) y el de Mary Field Belenky y
co-autoras (Formas de Conocimiento Femenino). Otra de las autoras incluidas en el Proyecto Plutón, Alison
Jaggar, de la Universidad de Colorado, propone una transformación de la naturaleza humana que incluya
capacidades físicas antes limitadas a un solo sexo: “Tal transformación podía incluir capacidades de
inseminación, gestación y lactancia, de modo que, por ejemplo, una mujer pudiera inseminar a otra, que
hombres y mujeres no parturientas pudieran amamantar y que en los cuerpos de mujeres y aun de hombres
pudieran transplantarse óvulos fertilizados” (Billingsley 1966).
Entre las reacciones de algunos científicos está la de Robert Park, de la Sociedad Americana de Física en
Washington: “Todo esto me parece espeluznante. Me refiero al argumento de estas mujeres, según el cual la
ciencia es del todo culturalmente basada y no existe la verdad objetiva. Es algo espeluznante para un
laboratorio dedicado a la ciencia” (Billingsley 1966). Y Paul Gross, jefe del Centro para Estudios Avanzados de la
Universidad de Virginia: “Ninguna de las mujeres de esa lista sabe absolutamente nada de ciencia”.
La tesis general de la epistemología feminista parte de la crítica de que las teorías de la ciencia están
masculinamente sesgadas, así que las mismas deberían reencuadrarse menos masculinamente. La ciencia es
hasta ahora sensible al género, por lo cual, abandonando ese sesgo masculino, se promoverían avances más
rápidos y amigables. Esta tesis, como es de suponer, es manejada desde ángulos que varían por su
radicalismo, desde los más fuertes hasta los más moderados. En otras interpretaciones, esta tesis se focaliza en
distintas perspectivas: las críticas al sexismo contra la mujer; el machismo como rasgo de la modernidad y el
feminismo de la posmodernidad; el feminismo como variante del contextualismo; las metodologías femeninas
en la ciencia; el razonamiento científico femenino, etc.
Entre los aportes dentro de la epistemología feminista puede citarse uno de los trabajos de la misma Sandra
Harding, antes mencionada, en el que, además de otros documentos de reseña, incluye su propia versión de la
epistemología feminista, basándose en un “materialismo histórico feminista” (Harding 2004). Por supuesto,
sobran los enemigos de la epistemología feminista, incluyendo mujeres.
La Epistemología Social: Aunque algunos de sus gérmenes, e incluso la expresión, se remontan a la década de
los ’70, es desde los albores de los ’90 cuando llega a convertirse en movimiento sistemático, organizado,
especialmente a raíz de la fundación de la revista Social Epistemology (la cual tiene su propia Web en
http://www.tandf.co.uk/journals/routledge/02691728.html). En una de sus vertientes laepistemología
social prolonga y desarrolla las tesis socio-historicistas de Kuhn, en general, postulando que los procesos
científicos se ven estrictamente afectados por las relaciones sociales y por los hechos culturales. Pero otra de
sus vertientes responde mucho más a los planteamientos del programa fuerte, relativista, de la sociología del
conocimiento (en la versión del EPOR, antes reseñado). Como fundadores, dentro de la primera vertiente, suele
citarse a dos autores importantes: uno es Steve Fuller (2002) y otro es Alvin Goldman (1999).
Con lo dicho hasta aquí, parece claro que las fundaciones de la epistemología social no pertenecen en modo
alguno a los enfoques idealistas-subjetivistas, como se pauta en el encabezado de este aparte. La propuesta de
Fuller es empirista-realista (en el marco del paradigma empirista lógico del siglo XX), mientras que la propuesta
de Goldman es racionalista-realista (en el marco del paradigma falsacionista del siglo XX). Según esto, esta
epistemología no debía haber sido reseñada en esta sub-sección. Pero, como se dijo antes, aparte de estos
fundadores, la epistemología social fue un punto emblemático y generalizado para los paradigmas adscritos a
los enfoques idealistas-subjetivistas, como se verá enseguida. Incluso, su tratamiento resulta actualmente
mucho más explotado por el “constructivismo social”, subjetivista y relativista, que por los enfoques realistas
de Fuller y Goldman (sin negar que estos siguen hoy en día su propio curso paralelo; un ejemplo es la revista
“Episteme. A Journal of Social Epistemology”, nacida en el 2004 y que acaba de ofrecer su edición del 2006,
disponible en http://www.episteme.eu.com/). Por esa razón, el lector entenderá que la epistemología
social tiene sus versiones realistas, hasta aquí presentadas, que podrían reseñarse en su respectiva sección,
pero que se exponen en esta otra por razones de economía expositiva, atendiendo al hecho de que sus
versiones subjetivistas-relativistas han sido más emblemáticas, históricamente hablando.
Hasta ahora, dado el auge que tienen en nuestras universidades latinoamericanas las visiones adscritas a este
último enfoque epistemológico (investigación, cualitativa, posmodernismo, constructivismo…), esta versión
subjetivista-relativista de la epistemología social parece ser la única conocida y divulgada.
Otras epistemologías subjetivistas: En esta parte se agrupan otras “nuevas epistemologías” adscritas al
enfoque subjetivista, que resultan de menos resonancia en el mundo académico (sin negarles cualquier mérito
intrínseco que pudieran tener). Una de ellas es la llamada “etnoepistemología” (Ethnoepistemology), asociada
al enfoque empirista-subjetivista y al paradigma de los tratamientos etnográficos en general (cultural-focales,
cultural-regionales), con fuertes raíces en la antropología de comienzos de siglo. Esta epistemología parte de la
consideración de que la práctica científica convencional o estandarizada (“ciencia normal”, en términos de
Kuhn) es apenas una entre muchas manifestaciones de la ciencia, al lado del conocimiento campesino y
folklórico, por ejemplo, o el de los adivinos, shamanes, sacerdotes, magos, curanderos, etc. En este sentido, la
ciencia occidental no es superior sino sólo paralela. La “ciencia”, entonces, no es lo que definen las
comunidades científicas del mundo académico convencional, sino aquella actividad de construcción de
conocimiento útil que ocurre al interior de las comunidades étnicas. Quedan planteadas tres áreas
problemáticas globales dentro de la etnoepistemología: el conocimiento ordinario popular, el conocimiento
especializado y el conocimiento epistemológico mismo. Para una reseña y amplia bibliografía, véase Maffie y
Triplett (2003). Está también la epistemología constructivista, conectada unas veces con el constructivismo
social del programa empírico del relativismo y con el relativismo ontológico de la escuela francesa (Woolgar
1988), otras veces con la llamada new age philosophy y con el posmodernismo (constructivismo idealista
extremo y anti-racionalismo: la razón ha muerto, cualquier sueño es realidad y viceversa, etc.) y otras veces
con las mismas tesis ya planteadas dentro del racionalismo realista, al cual se le ignora (el conocimiento es
construcción cognitiva, las teorías no tienen por qué ser espejos exactos del mundo, etc., lo cual conduce a
un constructivismo trivial). Es, aproximadamente, dentro de esta visión donde tiene lugar la crítica de Sokal y
Bricmont (1999) y también, probablemente, la llamada “guerra de las dos culturas”.
Aquí se agrupan aquellas nuevas epistemologías surgidas en las décadas recientes, muchas de ellas con raíces
lejanas en el pasado, caracterizadas por una visión empirista, inductivista, analítica y objetivista, bajo la
tradición del paradigma neopositivista del Círculo de Viena (el enfoque de la ciencia de los objetos observables).
Hay cuando menos cuatro áreas problemáticas a las que se orienta la reciente epistemología testimonial. La
primera tiene que ver con la naturaleza del testimonio: ¿acoger una proposición testimoniada implica que el
agente cree en dicha proposición? ¿En qué se diferencia un testimonio de una afirmación? ¿Exige el testimonio
la condición de que el agente sea sincero? La segunda se refiere a la diferencia entre testimonios de expertos y
testimonios de no expertos: ¿se requiere que el agente sea un experto en la información testimoniada? Y la
tercera atiende a la relación entre testimonio y verdad: ¿cómo explicar los testimonios deliberadamente falsos?
¿Cómo explicar las reservas u ocultamientos deliberados de información? ¿Cómo explicar los testimonios que
son de terceras personas pero que se fingen como propios u originales, que es el caso de los plagios y otras
deshonestidades en la ciencia? Este tercer aspecto vincula estrechamente la epistemología del testimonio con la
ética científica y con el concepto de “ciencia y valores”. Un cuarto aspecto problemático tiene que ver con la
medida en que el testimonio depende de otras fuentes de conocimiento, lo cual divide a los especialistas en dos
grupos: los reduccionistas, que consideran que la fuente testimonial se justifica a partir de otros elementos que
están más cerca de una base (percepción, memoria, razonamiento…) y los no-reduccionistas o emergentistas,
que consideran que la fuente testimonial es independiente de otros factores y se justifica en sí misma. Aunque
en los últimos años ha habido una ingente producción de estudios dentro de esta epistemología, es evidente
que quedan muchos problemas por resolver.
La epistemología probabilística o bayesiana: Aunque esta epistemología tiene sus raíces en el mismo Thomas
Bayes, del siglo XVIII, y se desarrolló a mediados del siglo XX, en los últimos años se ha fortalecido como
tendencia epistemológica (véase una exposición reciente en Bovens y Stephan 2003). Originalmente
la epistemología probabilística se orientó a la justificación de la inducción, tanto en el sentido de un aparato
formal para la lógica inductiva (lo cual había sido una de las máximas aspiraciones del Círculo de Viena, en
especial de Rudolph Carnap) como en el sentido de una prueba pragmática de la racionalidad epistémica (self-
defeat test), ampliando las leyes que justifican la deducción de modo que también justifiquen la inducción.
Sin embargo, aparte de sus aplicaciones a la teoría de la decisión, a la psicología, al aprendizaje y a muchos
otros campos, los más relevantes aportes de la epistemología bayesiana en los últimos 16 años tienen que ver
con los procesos científicos. La teoría bayesiana de la confirmación, por una parte, permite el análisis de las
prácticas científicas y, por otra parte, tiene amplias aplicaciones a la investigación social, concretamente en lo
que desde no hace mucho se ha llamado epistemología social bayesiana (incluyendo una epistemología
bayesiana del testimonio). Una de las ideas centrales en esto es que la investigación científica procede
transindividualmente (ver arriba) y no es un solo científico, sino grupos de científicos quienes deciden lo que es
o no aceptado dentro de cada área de trabajo. De hecho, prácticamente todo trabajo de investigación es
sometido a la aprobación de algún grupo de expertos (llámese “jurado”, “comisión de arbitraje”, “evaluadores”,
etc.). En estos casos las aplicaciones de la epistemología bayesiana o probabilística permiten un manejo
controlado del trabajo de los expertos en torno a las investigaciones sobre las que deben decidir. Estas
aplicaciones permiten, por ejemplo, normar la estructura de confiabilidad de los reportes. Permiten también,
dados múltiples reportes producidos por muchos evaluadores, usar un razonamiento probabilístico que
determine el grado de confiabilidad de cada uno de ellos, para decidir cuáles merecen mayor credibilidad. En
otro campo de aplicación, los razonamientos probabilísticos permiten también homogeneizar o integrar
globalmente en un solo paquete múltiples reportes evaluativos, incluso divergentes entre sí, obteniendo un
único resultado. En la práctica, para citar un ejemplo más concreto, en la investigación empírica basada en
instrumentos abiertos (cuestionarios no estructurados, entrevistas libres, etc.) recientemente se ha difundido la
aplicación bayesiana llamada “coeficiente de proporción de rangos”, dentro de la fase interna de validación de
resultados: se someten los hallazgos a la consideración de un grupo de expertos y luego las valoraciones de
estos expertos son procesadas mediante esta técnica del coeficiente de proporción de rangos. Al final de este
procesamiento se obtiene una escala decisoria del tipo ‘igual o menor que 0.8, concordancia inaceptable; mayor
que 0.8 y menor que 0.9, concordancia aceptable; mayor de 0.9, concordancia muy aceptable’. Con esto
quedarían validados los resultados de la investigación, si se adopta esta aplicación.
Una de las consideraciones que resultan curiosas en la relación entre la epistemología probabilística y la
investigación social (en especial atendiendo a este último ejemplo), es que queda implícita la posibilidad de
hacer investigaciones empírico-realistas usando técnicas abiertas de recolección de datos, al modo de
la investigación cualitativa, superando así la creencia tradicional de que ese tipo de investigaciones sólo podía
trabajar con diseños experimentales o cuasi-experimentales, del tipo de análisis de varianza, regresión
múltiple, etc. Es decir, parece abrirse la posibilidad de hacer investigación “neopositivista” mediante técnicas
abiertas, no estructuradas, sin diseños referidos a medias poblacionales en el examen de relaciones entre
variables, ya que uno de los principios de la epistemología bayesiana es la posibilidad de delegar la validez de
los resultados en grupos de expertos (epistemología testimonial bayesiana). Habría así un acercamiento
sorprendente, propio del siglo XXI, entre la investigación medicional y las instrumentaciones propuestas por la
investigación cualitativa. El gran problema de esto es que parece contradictorio confesar un enfoque
subjetivista (cualitativista, en la herencia de Alfred Schutz) y al mismo tiempo creer en las probabilidades (“el
ser humano no es medible”), de lo cual se infiere que las ofertas de esta epistemología no se orientan a la
llamada “investigación cualitativa”, sino sólo a los trabajos adscritos al enfoque empirista-realista. A pesar de
eso, en nuestros postgrados es frecuente ver hoy en día trabajos de investigación de corte fenomenológico,
vivencialista y hermenéutico que al mismo tiempo aplican estas derivaciones de laepistemología probabilista,
incurriendo así en graves vicios de inconsistencia epistemológica (algo así como decir: “el ser humano no es
medible, pero lo estoy midiendo”). No hay duda de que los próximos desarrollos de la epistemología
probabilista habrán de ser clave en ciertos redimensionamientos de la investigación social para los años que
siguen. De modo particular, hay que reconocerle a la epistemología bayesiana, aunque no se comparta, el
mérito de abrir perspectivas con respecto a ciertas brechas epistemológicas del siglo XX. La muerte del
positivismo, como aducía Popper (1977, ¿quién mató al positivismo lógico?), en realidad está todavía lejos, al
menos en cuanto enfoque epistemológico subyacente.
La epistemología de la percepción: Como se infiere de todo lo dicho hasta aquí, el enfoque empirista realista (y
los enfoques empiristas en general) están en la obligación de justificar la validez de los datos de los sentidos en
contacto con la realidad (validez de la experiencia). Por tanto, nada más urgente que una epistemología de la
percepción, es decir, una meta-teoría que justifique los procesos científicos alimentados por fuentes
perceptuales. De allí la enorme importancia que tiene en la producción científica actual el desarrollo de
una epistemología de la percepción.
El punto de partida es que todo nuestro conocimiento fáctico depende del modo en que vemos, oímos, olemos,
gustamos y tocamos el mundo exterior. El problema está en si podemos confiar en los conocimientos generados
por estas formas de contactarnos con el mundo. En primer lugar, está el asunto de saber cuáles de estos
contactos sensoriales generan conceptos mentales, representacionales, y cuáles no, más las diferencias entre
ambos tipos de cosas (creencias perceptuales y contactos perceptuales). Después está el problema de la
potencialidad de estas percepciones (técnicamente, la diferencia entre justificación y causación): ¿generan
conocimiento confiable (creencias justificadas) o sólo “causan” o “provocan” o “inducen” ciertos conocimientos,
sin que podamos decidir si son falsos o no (recuérdese el caso de los espejismos en el desierto, por ejemplo)?
Luego, sobre la base de esta diferencia entre sensación pura y creencia formada, queda la pregunta por el
proceso en virtud del cual se pasa de la primera a la segunda: ¿cómo es posible la formación de conceptos
mentales definidos, como es el caso del conocimiento científico, partiendo de sensaciones o experiencias
sensoriales? Una respuesta histórica que debe ser considerada es el hecho de que el ser humano ha ido
creando instrumentos cada vez más sofisticados que sustituyen y resultan más eficientes que nuestros sentidos
(prolongaciones perceptuales: telescopio, microscopio, imaginología, acústicas, ecosonografías, etc.), lo cual,
aunque permite prever ciertas posibilidades tecnológicas suprasensoriales, también revela la incapacidad
natural de los sentidos: ¿hasta qué punto se puede confiar en un aparato sensorial que se demuestra limitado
e, incluso, engañoso y, por tanto, hasta qué punto se puede confiar en prolongaciones tecnológicas que pueden
ir mejorándose cada vez más sin que sepamos cuál es el punto de desarrollo máximo, perfecto? Finalmente,
¿cómo puede supeditarse la capacidad cerebral, responsable de la formación de conceptos y creencias, a la
simple percepción? Imaginemos a un individuo que nace sin ninguno de los sentidos naturales: ¿sería incapaz
de cualquier conocimiento? Al revés, imaginemos un individuo que nace con todos sus sentidos, pero que,
imaginariamente, careciera de cerebro y de procesamiento mental: ¿podría formar conceptos y generar
conocimientos? Este es un panorama general, tal vez rudimentario o escaso, al que se enfrenta
la epistemología de la percepción.
En este aparte se reseñan las nuevas epistemologías surgidas en el seno del enfoque de las ciencias de los
objetos calculables o pensables, caracterizadas por las convicciones de que es la razón la fuente genuina de la
producción de conocimientos; de que, sin pensar en cómo podría ser la realidad en sí misma, la función de la
ciencia es construir modelos que imiten su funcionamiento y de que no es necesaria la posibilidad de observar
los hechos, sino que basta con poder imaginar (calcular) su estructura interna, mediante el doble recurso
iterativo del ensayo y error (hipótesis 1 -> falsación 1 -> hipótesis 2 -> falsación 2…,-> hipótesis n -> falsación
n).
La epistemología evolucionista: En la sección referida a los antecedentes del siglo XX (sección 2.2.3) se
mencionaron las bases de esta epistemología, al lado (o dentro) de la epistemología naturalizada de Quine
(1969). Esta naturalización de la epistemología nace en el seno de una visión empirista-realista y fue también
recogida y reinterpretada, a su modo, por los enfoques subjetivistas (por ejemplo, la epistemología feminista,
la etnoepistemología, las versiones idealistas de la epistemología social y aun el EPOR suelen declararse
como naturalistas). Luego, más o menos paralelamente, surgen también las propuestas del racionalismo
realista, pero esta vez bajo la noción de evolución. Sus proponentes para esa fecha (hasta 1990, más o menos:
Popper, Lorenz, Campbell, etc.; ver arriba) son ahora considerados dentro del grupo de los epistemólogos
“evolucionistas tradicionales” o “epistemología evolutiva tradicional”, basados en la tesis general de
la adaptación: “la ciencia, o el progreso de la ciencia, pueden ser considerados como medios usados por las
especies humanas para adaptarse el medio” (citado en Losee 2003:140). Pero esta tesis después logró recorrer
mucho camino, sufrió varios cambios y generó nuevas tesis en los últimos 16 años, siempre dentro del enfoque
racionalista-realista. Se mantiene la idea muy general de que toda epistemología evolutiva consiste en explicar
los procesos de conocimiento (incluyendo el científico) desde el punto de vista biológico de una teoría evolutiva,
usando modelos y analogías que den cuenta de los cambios conceptuales y científicos y del desarrollo de
teorías. Pero la simple tesis adaptacionista dio paso a la tesis de laselección natural (especificando los
mecanismos universales de dicha selección o selectividad universal), a la evolución desde el punto de vista del
organismo, a la evolución desde la perspectiva de los genes, a la interacción organismo-medio, a las teorías
basadas en el principio de la simbiogénesis universal y varias otras innovaciones, casi todas las cuales
provienen de la biología evolutiva y la mayoría de las cuales resultan más aplicables al estudio del conocimiento
en general que al conocimiento científico en particular.
Sin embargo, al lado de esta vertiente orientada a la evolución del conocimiento en general, conocida como el
“programa de la evolución de los mecanismos epistémicos” (el programa EEM, por sus siglas en inglés),
dedicado a explicar la evolución de los aparatos cognitivos (sistemas cerebrales, motores, sensoriales), nació
también el “programa de la epistemología evolucionista de las teorías” (programa EET: Evolutionary
Epistemology of Theories), dedicado a explicar la evolución de las teorías, metodologías y culturas científicas,
en buena parte desde el ángulo evolutivo de la selección natural. Dentro de este programa, hace cinco años se
publicó en inglés el interesante libro de William S. Cooper, “La evolución de la razón: la lógica como rama de la
biología” (The Evolution of Reason: Logic as a Branch of Biology), donde explica la derivación evolutiva de la
matemática, la lógica de decisiones, la lógica deductiva, la lógica clásica y las lógicas no clásicas. Esta obra
representa un paso importante en la epistemología evolutiva de al menos un área importante del conocimiento
científico.
Por lo demás, recientemente se ha estado trabajando mucho en dos distinciones meta-teóricas: la que
diferencia entre la evolución dentro de un mismo individuo (evolución ontogenética, cuyos orígenes están en la
epistemología genética de Piaget) y la evolución a lo largo de la especie (evolución filogenética). Por ejemplo, la
pregunta de si los Estilos de Pensamiento (Padrón 2002) pudieran cambiar a lo largo de la vida de una misma
persona o si pudieran haber cambiado a lo largo de la evolución de la especie humana se enmarca dentro de
esa distinciónontogénesis/ filogénesis. La otra distinción meta-teórica que se maneja en los desarrollos actuales
es la de una epistemología evolucionista descriptiva-explicativa versus una epistemología prescriptita-
normativa.
El futuro inmediato de esta epistemología evolucionista parece estar marcado por la oposición entre una visión
progresista, acumulativa, conducida perfectivamente (podría decirse que casi teleológicamente y hasta
determinísticamente) hacia un conocimiento científico convergente, que pueda llegar al máximo de los ideales
popperianos de verosimilitud y certidumbre (también Einstein creyó en esta visión general en física) y otra
visión indeterminista, aleatoria que, lejos de considerar una llegada a centros convergentes, considera una
explosión de divergencias al término de una línea evolutiva anárquica, imprevisible y ateleológica. En breve, y
por encima de la epistemología, es el debate entre la visión de una evolución centrada en fines, dirigida a
metas, y la visión de una evolución azarosa.
Por otra parte, la misma propuesta de Quine en el sentido de que la epistemología se convierta en una rama de
la psicología ha sido reinterpretada en el marco de la llamada “revolución cognitiva”, asociada a cosas como la
inteligencia artificial, la lingüística computacional y generativa, las relaciones mente-cuerpo, la robótica, el
conocimiento ordinario, etc., tendencias que, por lo demás, habían nacido también dentro de la tradición
racionalista-realista de mediados del siglo XX. De hecho, ya para esa época el mismo Chomsky había sostenido
que la lingüística debía ser parte de la psicología cognitiva y que el lenguaje había de ser estudiado como
un objeto natural, sobre la base de su concepción del lenguaje como módulo cognitivo adscrito al equipamiento
biológico del ser humano (al menos en parte, el célebre debate entre Quine y Chomsky pudo haber ayudado al
desplazamiento del naturalismo empirista de Quine hacia un naturalismo racionalista y anti-conductista). De
esto se deriva que una de las presuposiciones centrales de esta epistemología naturalizada racionalista está en
que no existen diferencias estructurales significativas entre el llamado “conocimiento de la psicología ordinaria”
y el conocimiento científico. En Padrón, Hernández-Rojas y Di Gravia (2005) se argumenta que las únicas
diferencias relevantes entre ambos tipos de conocimiento están en las propiedades de “socialización” y
“sistematización”, esto es, en el hecho de que el conocimiento científico tiene mayores alcances fuera del área
de la individualidad subjetiva y, además, resulta replicable y canónico. Atendiendo a una visión evolucionista,
es muy probable que el conocimiento científico haya sido el producto de un crecimiento progresivo del
conocimiento ordinario primitivo hacia niveles cada vez más elevados en esas escalas de socialización y
sistematización, nada de lo cual implica diferencias lógico-estructurales internas significativas.
Obsérvese una de esas preguntas: ¿Hasta qué punto existen continuidades entre los procesos cognitivos
involucrados en el desarrollo del niño (los mismos que están involucrados en las sociedades cazadoras-
recolectoras) y los que son específicos de la investigación científica? Esto implica ya ciertas conexiones con las
epistemologías naturalizada y evolucionista y entre los planos ontológico y filogenético. Es lo que hace que
dentro del enfoque racionalista realista haya una interrelación estrecha entre las diferentes epistemologías
manejadas en los últimos años.
Como ya se sugirió, esta epistemología asume que la lógica de los procesos científicos inobservables tiene una
base cognitiva, lo que también podría significar que no son las dimensiones sociales lo que centra el interés de
la epistemología cognitiva, entre otras razones porque buena parte de los racionalistas tiene una visión
internalista de los procesos mentales, incluyendo los de la ciencia. En la tradición del innatismo chomskyano y
popperiano, por ejemplo, quedan marginados los esfuerzos por explicar los factores externos de la cognición.
Entre las respuestas más recientes de la actual epistemología cognitiva al problema del conocimiento científico,
es representativo el trabajo de Gooding, Gorman, Kincannon y Tweney (2005), en el cual se compilan estudios
como, por ejemplo, el de David Klahr (“Un marco para los estudios cognitivos de la ciencia y la tecnología”,
Cap. 4, pp. 81-96), el de David Gooden (“Viendo el bosque por los árboles: visualización, cognición e inferencia
científicas”, Cap. 9, pp. 173-218), el de Susan Bell y otros (“Rompecabezas y peculiaridades: cómo los
científicos atienden y procesan las anomalías durante el análisis de datos”, Cap. 5, pp. 97-118) y el de Kevin
Dunbar y Jonathan Fugelsanj (“El pensamiento causal en la ciencia”, Cap. 3, pp. 57-80).
Hasta aquí la reseña explicativa de las llamadas “nuevas epistemologías”. Alguien, quizás, podría extrañarse de
que no hay mención a tendencias recientes importantes, tales como la “epistemología de la virtud” (virtue
epistemology, sumamente frecuente en la bibliografía especializada), la “epistemología moral”, la
“epistemología de la religión”, la “epistemología reformada” y algunas otras más. Una de la razones (además
del espacio) es que dichas epistemologías no se refieren a la ciencia sino al conocimiento en general, ya que,
como se dijo al principio, en ciertos ámbitos académicos se considera la epistemología como estudio del
conocimiento humano, globalmente entendido, dentro de lo cual se manejan esas epistemologías, mientras que
aquí se adopta una concepción más específica.
3.2. Problemas y debates en la epistemología reciente
Estas nuevas epistemologías que se terminan de reseñar y que constituyen tendencias recientes en el
desarrollo de la epistemología, se han presentado como variaciones observables de unos pocos enfoques
epistemológicos subyacentes, con lo cual se intenta cumplir con el objetivo de explicar esas tendencias, más
que de describirlas como simple secuencia anecdótica de datos históricos. Lo importante de esto es que las
variaciones observables o paradigmas, tanto en la ciencia como en la misma epistemología que analiza la
ciencia, podrían ser explicadas como transformaciones o realizaciones de sistemas de convicciones preteóricos
o precognitivos (enfoques epistemológicos). Es la hipótesis que se ha intentado manejar en toda esta
exposición.
Pero, mientras por un lado estas variaciones pueden ser estudiadas en sus formas más compactas, organizadas
y consolidadas, como es el caso de las “epistemologías” aquí presentadas, también es posible, por otro lado,
estudiarlas en rasgos desagregables menores, como sería el caso de los problemas particulares y correlativas
divergencias que han empujado tanto la formación de los anteriores paradigmas compactos como, globalmente
hablando, el desarrollo reciente de la epistemología. Esto último es lo que se trata de hacer en esta sección. Sin
pretensiones de exhaustividad, debido a la enorme proliferación de problemas y tratamientos divergentes, se
tratará de apuntar hacia cuestiones esenciales, asociándolas siempre a la misma hipótesis de los enfoques
epistemológicos. Se delimitarán en primer plano los problemas más importantes y, en segundo plano, se
interpretarán las correspondientes soluciones divergentes desde la perspectiva de los distintos enfoques
epistemológicos. No se mencionarán los problemas clásicos, anteriores al siglo XX (el origen del conocimiento,
la relación con el objeto, etc.), ni tampoco aquellos de ese mismo siglo que no han llegado a tener mayores
desarrollos ni avances significativos (algunos problemas han sufrido un cierto estancamiento), sino sólo
aquellos en torno a los cuales se han reportado novedades interesantes. Como se dijo al principio, se
descartarán también los tratamientos propios más de la gnoseología que de la epistemología (teoría de la
ciencia).
Obviando algunas discusiones en torno al significado del término “justificación”, este problema surge cuando el
investigador o los usuarios de una investigación se preguntan por el grado de credibilidad o de confianza que se
puede depositar en los resultados obtenidos. Los niños, por ejemplo, atraviesan una cierta etapa “contrastiva”
en la que se empeñan en averiguar las bases sobre las cuales decidir si creen o no en aquello que se les dice:
“¿y quién te dijo eso?”, “¿cómo sabes tú eso?”, “¿cómo sé si eso es verdad?” son preguntas típicas de esa
edad. Se sabe ya, desde la época de la falsación de Popper, que jamás podríamos garantizar la verdad de los
hallazgos de la ciencia, ni de ningún otro dato informativo, pero sí podríamos identificar sus errores. Y,
mientras no se identifiquen errores, también podemos ir acumulando indicios que aumenten la verosimilitud o
el grado de certidumbre de esos hallazgos. Los neopositivistas del siglo XX, por su parte, también identificaron
que la investigación científica tenía dos aspectos: el de las circunstancias sociales, culturales y psicológicas que
promueven un cierto hallazgo, al cual llamaron “contexto de descubrimiento”, y el de los pasos operativos bien-
definidos (metodológicos, procedimentales, instrumentales) a través de los cuales se llega a tales hallazgos, al
cual llamaron “contexto de justificación”. Para el enfoque empirista-realista, nadie creería en ciertos hallazgos
atendiendo sólo al contexto de descubrimiento. Muy pocos tomarían en cuenta justificaciones del tipo “x es
verdad ‘porque lo presiento…’, ‘porque lo soñé…’, ‘porque me lo dijo un ángel…’, ‘porque se le ve en los ojos…’”,
etc. La dificultad está en que los hallazgos de conciencia, íntimos, exclusivamente subjetivos, son
incomunicables, pertenecen sólo al individuo y nadie más puede replicar o reproducir esos hallazgos. Pero en
los enfoques idealistas-subjetivistas, por el contrario, se confía en “el asentimiento del lector experimentado y
competente en una impresión ‘sí, es así’. Tal lector competente comprueba, pues, hermenéuticamente, la
contundencia de lo dicho en su propia experiencia de vida; él examina el texto bajo el punto de vista de si
reproduce o interpreta adecuadamente esta experiencia (…). La auténtica fortaleza del método fenomenológico
está en el ‘nivel individual’ de los que lo aplican (amplitud de experiencia o de inteligencia o ambas cosas a la
vez)” (Seiffert 1977:241, 244).
Por otra parte, el problema de la justificación del conocimiento científico se plantea también desde el plano de
sus usuarios en la sociedad, el de las personas comunes: en una obra reciente (Ladyman 2002:13-14) se
formula este problema a través de un diálogo en que uno de los personajes reta al otro a explicar por qué sus
creencias, basadas en lo que dicen los científicos, están mejor justificadas que las creencias en los ángeles y los
demonios o los espíritus y la brujería. “Desde luego”, dice el autor, “hay muchas cosas que todos creemos y
que no podemos comprobar directamente por cuenta propia; por ejemplo, yo estoy convencido de que el
arsénico en grandes dosis es tóxico, pero, hasta donde puedo recordar, ni siquiera he visto jamás un frasco de
arsénico ni he comprobado sus efectos” (2002:13), de modo que uno suele confiar en lo que le dicen y uno
justifica esas creencias por el hecho de que en sí mismas aparecen dotadas de justificación, pero al individuo
común no le consta nada de eso. “Nos gusta creer, sin embargo”, continúa el autor, “que hay una diferencia
entre nuestras creencias científicas y las creencias en la brujería, lo cual explica por qué gastamos tanto en
medicinas y tratamientos médicos cuando todo sería mucho más barato con unos cuantos sortilegios y
sacrificios de animales. (El individuo común) piensa que el método científico es lo que hace la diferencia, que
sus creencias son producidas y comprobadas por dicho método y que todo ello tiene algo que ver con
experimentos y observaciones” (2002:14). De hecho, la publicidad comercial, en sus intentos persuasivos,
suele recurrir a expresiones como “científicamente comprobado”, “de base científica”, “producto de largas
investigaciones científicas”, etc.
Las divergencias en el tratamiento e intentos de solución de este problema han sido múltiples y variadas en las
últimas décadas. Cabe destacar, dentro del empirismo realista, los resultados “por evidencias”, prolongación del
tradicional “naturalismo metodológico” o “naturalismo científico” (que no tiene que ver con la epistemología
naturalizada) en el contexto del neopositivismo y de sus tesis respecto a la “confirmación”. En la medicina
actual, por ejemplo, se ha difundido mucho el “diagnóstico por evidencias”. Igualmente, en ese mismo enfoque,
la epistemología del testimonio (Coady 1995; ver arriba) intenta proveer respuestas serias a la justificación del
conocimiento científico, no sólo en el mismo plano interno de la investigación científica sino también en el plano
de los usuarios ordinarios de la ciencia, con lo cual buscan responder al problema antes mencionado de por qué
los individuos comunes solemos confiar en los conocimientos científicos. Otra respuesta divergente, en el marco
del racionalismo realista y de su representación popperiana, es el “falibilismo”. Ya formulada en pleno siglo XX
(“no hay verdades terminantes, conclusivas o definitivas”), en los años recientes se ha detallado, profundizado
y debatido mediante muchos estudios. Desde el 2000 para acá, el falibilismo ha debido responder a las
acusaciones de escepticismo (no se plantea la imposibilidad del conocimiento, sino las limitaciones del
equipamiento cognitivo, más la esperanza de ir progresando lentamente hacia la verdad; ver Hetherington
2002). También ha tenido que enfrentar los cargos de circularidad, precisando sus propias definiciones y
nociones implícitas (si el conocimiento es falible, también lo es esa misma frase; ver Reed 2002) y, finalmente,
ha desembocado en algunas variantes internas de esa misma tesis, que han generado otras formas de
falibilismo, siendo una de las más interesantes el análisis de las teorías como organismos que tienen una
especie de “fecha de vencimiento” o marca de caducidad (ver Morton 2003, en especial el capítulo 5).
Otras posturas respecto a este problema pueden ubicarse en relación con el debate externalismo/ internalismo,
en una de sus varias acepciones corrientes. Para el externalismo, la justificación del conocimiento debe
buscarse en áreas externas, más allá de una lógica de la ciencia. Allí pueden situarse algunas posturas del
enfoque racionalista en la tradición de Kuhn, Lakatos, Laudan y de la epistemología social de Alvin Goldman
(1999), tal como el “narrativismo” (narrative justification, que ubica la referencia justificativa en la historia y en
los programas de investigación). También se encuentran en el externalismo las versiones sociohitoricistas
herederas de la Escuela de Frankfurt (teoría crítica: el conocimiento se justifica en las esferas de poder y
control y en las relaciones de dominación), así como las posiciones intimistas o subjetivistas en la línea de
Seiffert (1977), desde donde se han acentuado las implicaciones de la hermenéutica y la fenomenología a favor
de los factores intuitivos, reflexivistas (se ha llegado, incluso, a hablar de justificaciones “sujetológicas”). En el
internalismo, en cambio, la justificación del conocimiento debe buscarse en áreas estructurales internas, lógico-
metodológicas, como la relación observación-contrastación (empirismo realista) y las condiciones lógico-
formales, meta-teóricas, de adecuación no empírica (racionalismo realista). Una tendencia internalista que se
ha acentuado es el “instrumentalismo”, ya formulado desde hace mucho (el conocimiento científico se justifica
no en su grado de verdad/falsedad, sino en su eficiencia para explicar, predecir y derivar tecnologías de
control), pero recientemente reformulado mediante tesis pragmatistas y utilitarias vinculadas a la aplicabilidad
de la ciencia (“toda observación está cargada de intervención”, al decir de Hacking 1983).
Quedan por fuera, por razones de espacio, muchas ofertas de solución que podrían ser tan importantes como
las que se han mencionado. Sin embargo, el punto central es que hoy en día este problema de la justificación
del conocimiento está sumamente lejos de ser medianamente resuelto y, probablemente, jamás se llegue a una
solución, considerando que las bases de discusión se hallan en el plano pre-cognitivo de los enfoques
epistemológicos (el plano de la indecidibilidad de los debates).
Otro de los problemas que ha ocupado el desarrollo de la epistemología reciente es el de las ciencias sociales,
sobre todo en su relación con las ciencias naturales (una buena reseña de este desarrollo puede verse en
Turner y Roth 2003). Aparte de las producciones orientadas en sí mismas a una epistemología de las ciencias
sociales (como el caso de Bunge 1999), lo más interesante está en la evolución del debate sobre las diferencias
específicas, radicales y sustantivas entre “ciencias del espíritu” y “ciencias de la naturaleza”, para decirlo en los
mismos términos en que se ventiló dicho debate desde comienzos del siglo XX. Como se sabe, Dilthey impugnó
la concepción y métodos de las ciencias naturales en los estudios sociales, por considerar que se
fundamentaban en las relaciones de causalidad (cosa que dejaría de ser cierta con el correr de los años),
imposibles de aplicar en las “ciencias del espíritu”, proponiendo a cambio las nociones de comprensión e
interpretación e introduciendo la “hermenéutica” (uno de sus primeros esfuerzos académicos había sido escribir
la biografía de Schleiermacher, estudioso de la hermenéutica, para ese entonces casi olvidado). Luego Husserl
ampliaría muchas de estas ideas y añadiría la concepción “fenomenológica” de los estudios sociales, quejándose
de las imprecisiones anteriores. Tácitamente dirige su crítica también a Dilthey, a juzgar por lo que dijo en su
famosa conferencia de Viena: “Actualmente en todas partes encontramos la ardorosa necesidad de entender el
espíritu y ya la ambigüedad de la conexión metodológica y factual entre ciencias naturales y ciencias del
espíritu resulta insoportable. Dilthey, uno de los grandes científicos del espíritu, ha dirigido toda su energía vital
a clarificar la conexión entre naturaleza y espíritu (…). Los esfuerzos de Windelband y Rickert en ese mismo
sentido desafortunadamente no han logrado formar la idea deseada. Como todos, estas personas siguen
todavía atados al objetivismo” (puede verse la versión inglesa en
http://www.users.cloud9.net/~bradmcc/husserl_ philcris.html).
La Escuela de Frankfurt recogería después estas mismas tesis (Habermas, por cierto, con su noción de “ciencias
empírico-analíticas”, confunde en una misma clase tanto al empirismo como al racionalismo de su propia época,
tal vez intentando reproducir la misma idea de “ciencias de la naturaleza”). Y, finalmente, desde el último
cuarto de siglo hasta ahora, la tesis de la especificidad epistemológica y metodológica de las ciencias sociales
frente a las ciencias naturales ha tenido un auge especial, igual que críticas también muy especiales. Y algo
curioso en este auge es que no se ha limitado sólo a las publicaciones especializadas, sino que ha trascendido
significativamente a la práctica cotidiana de la investigación universitaria en casi todo el mundo. Bajo
declaraciones explícitas de complejidad del fenómeno social, de necesaria subjetividad y, a veces, de hostilidad
diltheyana hacia las ciencias naturales, en nuestras universidades se diseñan proyectos y trabajos de grado y
ascenso que resultan fieles aplicaciones de esta tesis, aunque no siempre estén enraizadas en un dominio
directo de las perspectivas de fondo, sino más bien en informaciones “testimonialmente” transmitidas por
profesores y por alguna bibliografía puntual. Como en muchas otras cosas, de esta práctica investigativa
resultan dos tendencias académicas: una que honesta y seriamente ensaya los postulados de las “ciencias del
espíritu”, esforzándose en atender a las necesidades de credibilidad y validación intersubjetiva de los
resultados, y otra que aprovecha las compuertas de la subjetividad y del relativismo para hacer retórica,
literatura o discurso vanidoso, sin ideas de fondo (Padrón 2000). Es la misma motivación de las imposturas
intelectuales de Sokal y Bricmont (1999), que además tiene muchos antecedentes (como la de Popper
enAgainst the big words, entre otras muy numerosas).
Las últimas versiones de esta tesis de la especificidad de las ciencias sociales se asocian fuertemente al
relativismo, al anti-realismo, a la subjetividad, al holismo indiscriminante y, en síntesis, al “todo vale” de
Feyerabend. Parece inevitable citar, en este sentido, a Edgar Morin, con sus nociones de las tres teorías, la
auto-organización, la epistemología de la complejidad, la oposición entre pensamiento lineal y pensamiento
complejo, el conocimiento enciclopedante y, más recientemente, las de transcomplejidad, transdisciplinariedad,
etc. (véase la célebre “carta de la transdisciplinariedad” de la reunión internacional celebrada en el convento de
la Rábida, España, en 1994). La versión de Morin respecto a la especificidad de las ciencias del espíritu puede
sintetizarse en la idea de que las ciencias naturales son desdeñables porque aíslan el objeto de estudio,
excluyen al sujeto de su propia investigación y de su propia relación con su objeto y descartan todo aquello que
no pueda ser expresado en términos lógico o matemáticos (de hecho, Morin comenzó siendo cinematógrafo
surrealista y jamás se especializó en matemática, lógica ni en ciencias naturales, aunque impresiona su
capacidad para aprovechar convenientemente ciertas nociones de la física, la matemática y la termodinámica
de sistemas). Por supuesto, hay muchas objeciones obvias, sin profundizar demasiado, que se le pueden hacer
a estas tres razones de Morin y, en general, a todo su trabajo y a su tipo de discurso, tan obvias que muchos
no se explican la repercusión que ha tenido en niveles internacionales e institucionales (por ejemplo, la
UNESCO creó en El Salvador la “Cátedra Itinerante de Pensamiento Complejo y Transdisciplinariedad”; se creó
también la “Asociación por el Pensamiento Complejo y la Transdisciplinariedad” con sede en París y
delegaciones en varios países; y, en la actualidad, son más bien pocos los seminarios doctorales en los que no
se manejan las propuestas de Morin).
Uno de los recursos frecuentes de esta tendencia es la de reinterpretar arbitrariamente ciertas cosas de la física
y la matemática, a su propio favor. Por ejemplo, la teoría einsteniana de la relatividad y los problemas del
observador en física se malentienden como relativismo subjetivo(“todo es relativo al sujeto”), añadiendo
además retóricas tremendistas del tipo “la relatividad conmocionó terriblemente los pilares de la física
newtoniana”; las nociones de complejidad y caos, nacidas con los tres cuerpos de Poincaré y la mariposa de
Lorenz, son malinterpretadas como necesidades de anarquía, desorden y pereza mental en las ciencias
sociales; y la incertidumbre de Heisemberg, que por cierto está definida con una fórmula matemática muy
precisa, es malentendida como preferencia por los misterios y oscuridades. De hecho, en muchas de las
versiones actuales de esta tendencia resulta obvio el gusto por la zona de los misterios y los arcanos
enigmáticos e impenetrables, aquella zona donde reinan a su antojo los gurúes y los profetas. Por lo demás,
sobra añadir que todo esto aparece vinculado a las tendencias globalizantes del New Age, al constructivismo
idealista, al pensamiento posmodernista y, más en general, a un cierto renacimiento del discurso deslumbrante
y anticognitivo que, según parece, podría estar tipificando al naciente siglo XXI.
Las objeciones a esta tesis de la especificad sustantiva de las ciencias del espíritu o ciencias sociales pueden
sintetizarse en lo siguiente: primero, no es cierto que las ciencias naturales sistemáticamente se orienten por la
relación de causalidad ni por la necesidad de observación-experimentación; tampoco es cierto que sólo
consideren los objetos observables; tampoco es cierto que excluyan lo que no es medible ni formalizable (en
realidad, los sistemas formales son sólo recursos lingüísticos que traducen pensamientos, para lo cual el
investigador puede contratar a cualquier experto que formalice sus ideas, en caso de que él mismo no sepa
cómo hacerlo); tercero, el holismo es una operación mental que fija sus propios linderos de demarcación
conceptual, de donde se sigue que el error metodológico estaría sólo en dejar por fuera elementos relevantes
para el análisis, pero los “todos” carecen de existencia ontológica; finalmente, el hecho de que los objetos
sociales puedan dar testimonio de sí mismos, lo cual no ocurre con una piedra o un cometa, por ejemplo, no
implica un cambio epistemológico sustantivo, sino apenas, a lo sumo, un cambio procedimental e instrumental.
En síntesis, los argumentos esgrimidos desde la óptica de esta tendencia no parecen rebatir los ideales de
una ciencia unificada (por cierto ¿no es una contradicción al holismo la pretensión de ver como cosas separadas
las “ciencias del espíritu” y las “ciencias de la naturaleza”? ¿Por qué no trabajar en una visión holística de
ambas cosas?). En cualquier caso, las discusiones se hacen imposibles cuando se sostiene que este tipo de
contra-argumentos pertenecen a un “pensamiento lineal”, ante lo cual se termina cualquier conversación.
Por otro lado, en los enfoques empiristas y racionalistas ha habido también importantes desarrollos en el
tratamiento epistemológico de las ciencias sociales, independientemente del debate que se acaba de exponer. A
modo de ejemplo, pueden citarse los estudios que relacionan lógica de decisiones y grados de creencia; los
estudios en metodología de la elección racional; la modelación matemática y simulación computarizada de
modelos en ciencias sociales; el análisis y evolución del concepto de comprensión en ciencias sociales, etc.
(más detalles en Turner y Roth 2003). Para un trabajo bastante completo en epistemología de las ciencias
sociales, que incluye una propuesta de superación del dualismo analiticidad/holismo, y muchos otros aspectos
en discusión, véase Bunge (1999).
Sólo se consideraron dos grandes áreas problemáticas en la epistemología reciente, probablemente las más
importantes, pero jamás las únicas. Ha quedado por fuera una gran cantidad de estudios y reseñas. Algunas
áreas problemáticas no tratadas aquí son, por ejemplo, la de los fines o metas de la ciencia, tanto en el plano
teórico como práctico; la que concierne al método (problemas de la inducción, deducción, intuición…); la que
tiene que ver con el determinismo e indeterminismo, etc. Razones de espacio impiden un tratamiento que sea
al mismo tiempo exhaustivo, práctico y referencial. Sin embargo, el objetivo de esta exposición fue la de
proponer un marco explicativo, no histórico, no descriptivo y no anecdótico en torno a las tendencias recientes
en epistemología. Es de esperar que, utilizando este mismo marco explicativo, cualquiera pueda ahondar en
una visión mucho más completa.
4. Conclusiones
Lo que se ha expuesto conduce a varias preguntas y consideraciones. Una pregunta central se refiere a la
función de los estudios de epistemología en los postgrados, en la formación de investigadores y en la práctica
cotidiana de la investigación en nuestras universidades latinoamericanas. Sin pretensiones de respuesta, parece
importante evaluar el tipo de orientación que en tal sentido se le suele dar a la epistemología. Si esta disciplina
es orientada en un sentido de erudición filosófica, de discusiones pormenorizadas o de profundidades altamente
especializadas, se perderían las necesarias conexiones con los intereses más concretos de los estudiantes e
investigadores. Lo mismo, o peor, ocurre cuando la epistemología es orientada en términos de reflexión libre,
subjetivista, relativista y cargada de buen hablar y de discursos brillantes. No se niega que la primera de esas
dos orientaciones, aquella de tendencia profundamente técnica y erudita, es parte necesaria de la formación
especializada de filósofos. Tampoco se niega que la segunda de ellas puede generar dividendos a la hora de
ahorrar esfuerzo intelectual y hasta dividendos de prestigio individual e influencia. Pero, en términos muy
generales, debería considerarse una orientación de la epistemología como fundamento para la investigación que
se realiza en la práctica y para la gestión de la misma en los planos curricular e institucional. Se ha dicho hasta
la saciedad que el conocimiento científico y tecnológico es la base del desarrollo social, de modo que las
sociedades que produzcan ese conocimiento serán las más aventajadas, mientras que las que no lo hagan se
verán condenadas a importarlo, acentuando así sus ataduras de subordinación y colonización y alejándose de
las metas de soberanía e independencia. Es urgente, entonces, promover la investigación como recurso para la
producción autónoma de conocimientos, lo cual depende no sólo de la creación de experticias y aprendizajes
individuales y grupales, sino también de la eficiente gestión y organización de los procesos investigativos. ¿Y
sobre qué bases, directrices y referencias podría promoverse y conducirse todo eso? Es allí donde interviene la
epistemología, concebida como teoría que explica el conocimiento científico y no como erudición filosófica ni
como reflexión retórica.
Ya el tiempo ha mostrado que las referencias para la investigación no están en los manuales de “metodología
de la investigación” ni en los textos normativos institucionales. Las discusiones y decisiones en materia de
ciencia se resuelven sólo en la epistemología teóricamente entendida, asociada a la historia de las
investigaciones, que es su correlato empírico, y no en los seminarios, manuales y textos demetodología de la
investigación. No basta, por ejemplo, con que nuestros estudiantes e investigadores justifiquen sus diseños o
sus operaciones de trabajo remitiéndose a lo que dice el autor de tal o cual manual de metodología (manuales
que, por cierto, a menudo omiten las referencias a una teoría de la ciencia), ya que estaríamos ante una simple
falacia ex auctoritate, algo así como si se dijera “la operación p es correcta porque así lo estipula en su manual
el señor o la señora k”. Es necesario que el estudiante maneje directamente nociones epistemológicas que
expliquen o intenten explicar determinadas operaciones a la luz de un cierto marco conceptual insertado en un
enfoque epistemológico determinado. Pero para ello se necesita una formación epistemológica de alcances
explicativos, no normativos (ni, por supuesto, eruditos ni retóricos). En realidad, si la epistemología es una
teoría, entonces debería ser posible derivar de ella sus tecnologías asociadas, con lo cual la vieja “metodología
de la investigación” pasaría a ser sustituida por una “tecnología de la investigación”, en el sentido de sistemas
prácticos, aplicativos, teóricamente basados y con mayores alcances.
Otro tanto habría que decir con respecto a los mecanismos de gestión institucional de investigaciones, donde no
bastan las nociones prescriptivas tomadas de las áreas gerenciales y organizacionales en general, ya que la
conducción de los procesos de investigación implica tomas de decisión que resultan sumamente específicas y
cuyos fundamentos particulares no se hallan sino en una teoría de la investigación.
Otra consideración que podría ser importante concierne a la necesidad de visiones de continuidad e
interrelación en el tratamiento de los contenidos epistemológicos, lo cual remite una vez más al carácter
explicativo de la epistemología. Las visiones descriptivas, anecdóticas o históricas, en las que el estudiante se
ve obligado a memorizar nombres de autores, fechas y títulos de obras no parecen conectarse con la necesidad
de una base de discusión y de decisiones a la hora de diseñar investigaciones y de gestionar ese tipo de
procesos. Hace falta que todos esos contenidos epistemológicos sean interrelacionados en cuadros coherentes
de alcance explicativo. Aquí se trabajaron algunos de esos posibles cuadros (la hipótesis de los enfoques
epistemológicos, la noción de estructura diacrónica, etc.; ver la sección 1) y, al menos superficialmente,
parecen ser eficientes para interrelacionar los contenidos epistemológicos. Pero, evidentemente, no son los
únicos ni, probablemente, los mejores, así que quienes tienen responsabilidades e intereses en el área de la
epistemología podrían ir aportando nuevas y mejores ideas al respecto. Lo importante es contar con algún tipo
de recurso que evidencie los nexos entre los contenidos epistemológicos y que los haga más fecundos y más
próximos a las necesidades prácticas de la investigación universitaria.
Aunque el tema de esta exposición estuvo regulado por ciertas intenciones de actualización en la materia, se
pretendió también, en el fondo, ofrecer un marco explicativo proyectado hacia la discusión de las posibilidades
de aplicación práctica de la epistemología en nuestros postgrados. Es de esperar que estas ideas puedan ser un
aporte para esa discusión.
Bibliografía
Alcoff, L. 1989. Justifying feminist social science. En: Tauna, N. (ed.): Feminism in Science. Bloomington:
Indiana University Press. pp. 85-103.
Ashmore, M. 2004. Social epistemology and reflexivity: Two versions of how to be really
useful. Argumentation 8 (2): 157-161.
Billingsley, K. L. 1996. Feminists Flavor NASA Program: Radical Authors on Lab's Study List. The Washington
Times. February 4: 5.
Carruthers, P., Sigeal, M. y Stich, S. (eds.) 2002. The Cognitive Basis of Science. Cambridge: Cambridge
University Press.
Chomsky, N. 1988. Language and Problems of Knowledge. The Managua Lectures. Cambridge, Mass.: MIT.
Collins, H. y Yearley, S. 1992. Epistemological Chicken. En: A. Pickering (ed.): Science as Practice and Culture.
Chicago: The University of Chicago Press. pp: 301-326.
Einstein, A. y Infeld, L. 1950. La Física, Aventura del Pensamiento. Buenos Aires: Losada.
Goldman, A. L. 2002. The Sciences and Epistemology. En: Moser, P. (ed.). The Oxford Handbook of
Epistemology. New York: Oxford University Press, pp. 144-595.
Gooding, D., Gorman, M., Kincannon, A. y Tweney, R. (eds) 2005. Scientific and Technological Thinking.
Mahwah, NJ: Lawrence Erlbaum Associates.
Hacking, I. 1983. Representing and Intervening: Introductory Topics in the Philosophy of Natural Sciences.
Cambridge: Cambridge University Press.
Harding, S. (ed.) 2004. The Feminist Standpoint Theory Reader: Intellectual and Political Controversies.
Dordrecht, Netherlands: Springer.
Hetherington, S. 2002. Fallibilism and Knowing That One Is Not Dreaming. Canadian Journal of Philosophy 32:
83-102.
Linch, M., Livingstone, E. y Garfinkel, H. 1983. Temporal Order in Laboratory Work. En: Knorr-Cetina, K. y
Mulkay, M. (eds). Science Observed.London: Sage.
Losee, J. 2003. Theories of Scientific Progress: An Introduction. New York: Routledge.
Luke, D. A. 2005. Getting the big picture in community science: methods that capture context. American
Journal of Community Psychology35(3/4): 185-200.
Meja, V. y Stehr, N. (eds). 1999. The Sociology of Knowledge. Cheltenham, UK: Edward Elgar Reference
Collection.
Morton, A. 2003. A Guide through the Theory of Knowledge. Malden, Mass.: Blackwell.
Padrón, J. 1998. La Estructura de los Procesos de Investigación (mimeo). Publicado en Revista Educación y
Ciencias Humanas 9(17): 33. [Documento en Línea.
Disponible: http://padron.entretemas.com/Estr_Proc_Inv.htm. Consulta: 01/11/06]
Pinch, T. y Bijker,W. E. 1984. The Social Construction of Facts and Artifacts: Or How the Sociology of Science
and the Sociology of Technology might Benefit Each Other. Social Studies of Science 14: 399-441.
Popper, K. 1990. Towards an Evolutionary Theory of Knowledge. En: A World of Propensities. Bristol:
Thoemmes, pp. 27-51.
Quine, W. V. 1969. Epistemology Naturalizad. En: Ontological Relativity and Other Essays. New York: Columbia
University Press.
Russell, B. 1931. The Scientific Outlook. Reimpreso como Science and Values en Wiener, P. P. 1953. Readings
in Philosophy of Science: Introduction to the Foundations and Cultural Aspects of the Sciences. New York:
Scribner. pp. 596-601.
Tebes, J. K. 2005. Community Science, Philosophy of Science and the Practice of Research. American Journal of
Community Psychology35(3/4): 213.
Turner, S. P. y Roth, P. A. 2003. The Blackwell Guide to the Philosophy of the Social Sciences. Oxford: Blackwell
Publishing.