Apuntes FC I
Apuntes FC I
Apuntes FC I
DE LA CIENCIA
1
1
Se da además la circunstancia de que Mill es el primer autor que aboga de forma
sistema la metodología de las ciencias humanas y sociales. Es digna de mención
también una obra que infló notablemente sobre Mill, A preliminary Discourse on
the Study of Natural Philosophy, escrita por el matemático y astrónomo John
Herschel y publicado en 1830. En ella se hace una defensa del uso de hipótesis en
la ciencia y se establece una clara separación entre el contexto de descubrimiento
y el contexto de justificación, un asunto del que hablaremos seguidamente.
2
2
La teoría más firme y sólida conocida hasta el momento, la mecánica
newtoniana, no era una verdad definitiva, sino que habrá sido sustituida
por una física nueva que mostraba como falsos algunos de los elementos
centrales de la misma (invariabilidad de longitud, tiempo y masa con
respeto a la velocidad, no equivalencia entre masa y energía, posibilidad
de atribuir en principio un valor exacto a todas las variables relevantes de
los fenómenos, etc….) Por tanto, la pretensión de los kantianos de basar
esa física newtoniana en un supuestos conocimiento sobre el mundo válido
con anterioridad a cualquier experiencia (juicios sintéticos a priori)
quedaba tocada bajo la línea de flotación.
3. Como ya hemos señalado, los miembros del Círculo de Viena estuvieron entre los
primeros que intentaron elaborar una nueva forma de entender el conocimiento
científico que pudiera sintetizar adecuadamente con la física recién surgida, y
puede decirse que gracias a sus innovadores trabajos ya su influencia personal
surgió la filosofía de la ciencia como disciplina autónoma, extendiéndose después
su institucionalización académica a partir de los años 50. No obstante, de las dos
consecuencias de la revolución en la física que acabamos de mencionar, el Círculo
de Viena extrajo con rotundidad la primera. Hubo que esperar a la obra de Karl
Popper ara ver claramente asumida la segunda.
3
3
La herencia filosófica de la que se nutrían era el empirismo radical,
especialmente a través de la obra de Ernst Mach. Pero en sus manos
alcanzó una formulación mucho más rigurosa que le habían dado los
filósofos anteriores. Todos ellos estaban también sumamente
impresionados por los avances en lógica matemática y filosofía del leguaje
logrados por Gottlob Frege, Bertrand Russell y Ludwig Wittgenstein.
Vieron en la lógica un valiosísimo instrumento de análisis, no sólo de las
teorías científicas, sino del lenguaje en general. Este análisis lógico del
lenguaje permitiría mostrar, según pensaban, que los problemas
tradicionales de la metafísica, y de la filosofía en su conjunto, son
pseudoproblemas suscitados por un uso ilegítimo del lenguaje.
4
4
En 1930, editado por Carnap y Reichenbach, apareció el primer número
de la revista Erkenntnis, que sigue publicándose en la actualidad. Esta
revisión en sus primeros números recogió algunos de los trabajos
fundamentales de los miembros del Círculo y fue su medio principal de
expresión. La filosofía del Círculo de Viene recibido el nombre de
neopositivismo o positivismo lógico. Emparentada estrechamente con
ella, surgió también en Berlín por las mismas fechas y de la mano de Hans
Reichenbach y de Carl Gustav Hempel una variante menos estricta en
algunos puntos centrales a la que más tarde, sobre todo después de añadir
influencias de la filosofía analítica y del pragmatismo norteamericano, se
denominó “empirismo lógico”. A partir de los años 50 el empirismo
lógico, más que el positivismo lógico, fue la filosofía predominante entre
los herederos del Círculo hasta el comienzo de su declive a mediados de
los años 60.
Según el positivismo lógico, los enunciados sintéticos, esto es, todos los
que pretenden afirmar algo acerca del mundo, para tener significado han
de ser reductibles a un lenguaje que verse sólo sobre cosas observables.
En un principio se discutió en las reuniones del Círculo cómo debía
interpretes este lenguaje observacional o “protocolario”, como lo
llamaron, al que debían traducirse los enunciados sintéticos. El calificativo
de “protocolario” obedecía a que se concebía como el tipo de lenguaje que
se emplea por parte d ellos científicos en los protocolos de
experimentación en los laboratorios. Carnap y Schlick eran partidarios de
entenderlo como un lenguaje fenomenalista, mientras que Neurath se
inclinaba más bien por un lenguaje fisicalista.
5
5
Tras varias discusiones sobre el asunto, Carnap terminó aceptando
la interpretación fisicalista, que tenía la ventaja de no hacer que el
conocimiento, especialmente el científico, descansase sobre algo
tan subjetivo, como las sensaciones de individuos concretos. El
fisicalismo fue, pues, la interpretación del lenguaje observacional
que finalmente se convirtió en la postura oficial del círculo de
Viena.
6
6
La pretensión del Círculo de Viena era la de efectuar una reconstrucción
lógica de las teorías científicos, tal como éstas debían ser desde una
consideración puramente racional. No intentó nunca que esta
reconstrucción fuese una descripción del origen y desarrollo real de duchas
teorías científicas. Ésta era, en opinión de sus miembros, una tarea para
psicólogos, sociólogos e historiades de la ciencia.
7
7
o En consecuencia, el desarrollo científico es un proceso
acumulativo en el que va mejorándose el paso inductivo de las
leyes y teorías, de modo que las que ya han logrado una
confirmación suficientemente alta pan a formar parte de un cuerpo
de conocimientos bien establecido.
8
8
Pues bien, esta imagen de la ciencia, que no oculta su rechazo a cualquier
contaminación filosófica, es ella misma una posición filosófica llamada
positivismo, y aunque su germen ha estado presente siempre en la ciencia
moderna, no cobró empuje hasta mediados del siglo XIX, cuando Comte la
sistematizó y difundió. No obstante, su influencia actual -tan grande que continúa
siendo un modo muy habitual de considerar la ciencia- proviene más bien de una
interpretación simplificada y distorsionada de las tesis defendidas por el Círculo
de Viena y el empirismo lógico.
2. Sin embargo, son cada vez más los científicos que consideran inadecuado este
modo de describir su actividad. Sostienen que no hay hechos desnudos si no hay
una teoría previa que los localice y los interprete. Sostienen también que las
teorías no vienen dictadas por los hechos, como si bastara generalizar éstos para
alcanzarlas, sino que elaborar una teoría es una labor sumamente creativa e
imaginativa en la que los hechos son sólo una parte inicial de un cóctel que
incluye, además de otras teorías científicas previamente aceptadas, ideas
filosóficas, preconcepciones culturales y hasta creencias religiosas. Estiman, sin
embargo, que esta mezcolanza, en lugar de perjudicar a la ciencia con indeseables
“contaminaciones”, es -al menos en lo que a producir nuevas ideas se refiere-
requisito imprescindible de su progreso. Y, finalmente, prefieren considerar sus
teorías como hipótesis más o menos corroboradas, pero siempre revisables, en vez
de como verdades definitivamente probadas. Si la anterior imagen de la ciencia
era positivista, ésta tiene como su fuente principal la obra de Karl Popper.
Así pues, por lo pronto, cabe rastrear una filosofía de la ciencia implícita en las
concepciones de la ciencia que sustentan los científicos, y no sería una labor inútil el
intentar hacerla explícita y mejorarla con buenos argumentos. Puede que el conocimiento
de la filosofía de la ciencia no sea necesario para hacer buena ciencia (seguramente no lo
es), pero tampoco es desde luego perjudicial para el científico. Le serviría para descartar,
por ejemplo, de entre sus supuestos filosóficos los que se hayan mostrado como
insostenibles en el debate filosófico a lo largo de los años. De ello se deriva a la relación
entre el trabajo científico y su relación con la filosofía de la ciencia.
9
9
No obstante, aunque esto muestra que muchos filósofos de la ciencia tienen
conocimientos de primera mano sobre la misma, no significa que para ser un buen
filósofo de la ciencia hay que haber cursado necesariamente una licenciatura en
ciencias. Algunos de los mejores han adquirido sus conocimientos científicos con
posterioridad, como Michael Ruse, Ellliot Sober o David Hull en el campo de la
biología o Patricia Churchland en el campo de las ciencias cognitivas.
4. Por otra parte, hay ejemplos, aunque podemos concederle a Wolpert que en las
ciencias naturales no son muy numerosos, de cómo la filosofía de la ciencia ha
ejercido una influencia directa y positiva en la investigación científica. Uno de
ellos es reconocido por el propio Wolpert. Se trata del caso de Ernst Mach. En su
obra de 1883 Desarrollo histórico-crítico de la mecánica realizó una crítica
filosófica de los conceptos newtonianos de espacio y tiempo absolutos que ejerció
una gran influencia sobre Einstein. Mach era un defensor del fenomenismo.
El fenomenismo es la tesis según la cual los objetos que percibimos no son sino
construcciones de nuestras sensaciones o “fenómenos”. Un tiempo y un espacio
absolutos no tienen sentido desde esta perspectiva, y que no tenemos ninguna
sensación sobre ellos. Mach rechazó el tiempo absoluto porque “no puede ser
medido por ningún movimiento que no tiene pues ningún valor práctico ni
científico; nadie está autorizado a decir que sabe algo de él; no es sino un ocioso
concepto “metafísico””. E igual con el espacio absoluto.
1
0
10
PUNTO 3: ¿ES LA FILOSOFÍA DE LA CIENCIA UNA DISCIPLINA
DESCRIPTIVA O NORMATIVA?
Queda aún una cuestión importante por aclarar en lo que se refiere la tarea de la filosofía
de la ciencia: ¿ha de entenderse la filosofía de la ciencia como una disciplina capaz de
dictar normas acerca del modo en que debe procederse para hacer ciencia de forma más
eficiente o más racional con independencia que esas recomendaciones sean oídas o no
por los científicos?¿O debe limitarse, por el contrario, a decir simplemente como ha sido
hecha en realidad la ciencia hasta el momento?¿Debe emitir juicios acerca de los métodos
y valores que servirían para mejorar su práctica, o debe circunscribirse a una descripción
de los que han sido empleados por los científicos a lo largo de la historia, absteniéndose
de cualquier tipo de recomendación o legitimación? Dicho brevemente: ¿Es la filosofía
de la ciencia una disciplina descriptiva o normativa? Si revisamos lo que han hecho los
filósofos de la ciencia, nos encontraremos con que ambas concepciones de la disciplina
han sido mantenidas.
1. Así, por ejemplo, es fácil reconocer el normativismo en el proyecto de Ciencia
unificada del Círculo de Viena y en otros momentos.
1
1
11
2. Por otro lado, en la obra de Kuhn, un autor que reaccionó fuertemente contra este
intento, encontramos una filosofía de la ciencia que se marcaba el propósito
explícito de permanecer apegada a la historia real de la ciencia y alejada de
preconcepciones o de “reconstrucciones racionales”. Aunque Kuhn no negó que
sus ideas pudieran tener ciertas consecuencias normativas, es evidente que el
objetivo más destacado de su obra el de socavar diversos prejuicios provenientes
de doctrinas filosóficas que, según su opinión, han idealizado a la ciencia e
impiden realizar una descripción del modo en que se ha producido realmente el
cambio científico a lo largo de la historia.
Kuhn no pretende diluir, sin embargo, la labor del filósofo de la ciencia en la del
historiador de la ciencia. El filósofo, más que en la narración histórica, está
interesado en las consecuencias que puede seguirse de ella para forjar una imagen
adecuada de la práctica científica. El filósofo realiza generalizaciones que
pretenden ser válidas en todo tiempo y lugar, mientras que el historiador sólo
busca explicar algo que aconteció en un tiempo y en un lugar. Pero, sus propuestas
deben realizarse desde el conocimiento de la historia de la ciencia. Quizás haya
habido otros filósofos de la ciencia más descriptivas que Kuhn, pero pocos que
hayan acercado tanto la filosofía de la ciencia a la historia de la ciencia, al menos
a cierta historia de la ciencia (y, paradójicamente, que hayan insistido tanto en la
inutilidad de la filosofía de la ciencia para el historiador de la ciencia).
¿Quién tiene razón es este asunto? Hay, en este sentido, dos grandes problemas que han
de verse resueltos:
1. Para empezar, convendría insistir en que la filosofía de la ciencia no puede ser una
mera descripción de lo que hace el científico cuando dice que hace ciencia, pues
la siempre selección de los aspectos de su actividad que se estiman relevantes para
efectuar una descripción adecuada supondría y aun concepto previo de lo que es
ajustado a una auténtica investigación científica. Además, los científicos aprenden
su oficio de libros, maestros y colegas influidos por teorías filosóficas
(normativas) de la ciencia. Una filosofía de la ciencia que quisiera permanecer
limitada a aspectos descriptivos tendría que renunciar al uso directo de conceptos
normativos o valorativos como “justificado”, “racional”, “confirmado”,
“verdadero”, etc… Y es difícil ver como podría segur siendo entonces filosofía de
la ciencia.
1
2
12
2. Sin embargo, la filosofía de la ciencia tampoco puede ser un sistema a priori de
teorías a partir de las cuales obtener normas de actuación para los científicos que
sean completamente ajenas a las que su propia competencia profesional les marca.
Una filosofía de la ciencia fructífera y realista debe ser compatible con las
características fundamentales que los científicos atribuyen a su propia actividad,
así como con el desarrollo histórico de las ciencias. Por ello, hoy en día sería muy
difícil de aceptar una posición como la de Carnap, quien pensaba que su sistema
de lógica inductiva y su teoría de la confirmación no eran válidos para explicar el
funcionamiento real de la ciencia y su despliegue histórico.
1
3
13
Con posterioridad, Laudan llegó a la conclusión de que no existían esas
intuiciones preanalíticas entendidas como juicios unánimes y
permanentes. Pero el naturalismo normativo que desarrolló en su lugar
mantuvo también un compromiso entre el elemento normativo y el
elemento descriptivo en la filosofía de la ciencia.
1
4
14
2. Ha habido también autores que han rechazado los términos del dilema. Para José
Díez y Moulines, y está es una postura que también asumiremos aquí, la filosofía
de la ciencia describe, prescribe e interpreta; y no es correcto atribuible alguna de
estas tareas en exclusiva. El hecho de que describa no excluye que puede también
prescribir, puesto que la ciencia es una actividad regida por reglas convencionales
(como el lenguaje) y en tal caso, al hacer explícitas dichas reglas, sólo
implícitamente conocidas por los practicantes, mediante su descripción, resulta
posible también evaluar si han sido seguidas o no en determinados casos y
establecer así si la investigación ha procedido correctamente. Describir y
prescribir serían, en estas circunstancias, tareas estrictamente conectadas. El
carácter normativo no consiste aquí en decidir autónomamente qué reglas deben
seguirse, sino en decidir qué reglas deben seguirse porque son de hecho las que
rigen la práctica científica. Una situación análoga se presenta en disciplinas como
la lógica y la gramática. Pero, además, la filosofía de la ciencia presenta, de
acuerdo con estos autores, una faceta interpretativa, como cuando se ocupa del
análisis y reconstrucción de las teorías científicas.
1
5
15
PUNTO 4: IMPORTANCIA DE LA HISTORIA DE LA CIENCIA, Y DE OTRAS
DISCIPLINAS, PARA LA FILOSOFÍA DE LA CIENCIA
La filosofía de la ciencia sin la historia de la ciencia está vacía; la historia de la ciencia
sin la filosofía de la ciencia es ciega”. Esta paráfrasis de la célebre frase de Kant con la
que Lakatos comienza una de sus obras más importantes se ha convertido en uno de los
lemas más citados y ampliamente compartidos por la comunidad actual de filósofos de la
ciencia.
Ni la filosofía del Círculo de Viena ni la de Popper vieron nunca sus propuestas como
algo que podía ser revisado a la luz de la historia de la ciencia. Evidentemente, tanto los
neopositivistas como Popper tenían un conocimiento profundo de la historia de la ciencia,
con variaciones según los casos, y sus propuestas estaban basadas en dicho conocimiento,
muy especialmente, en el de la ciencia contemporánea. Pero la filosofía neopositivista se
presentaba como una reconstrucción racional de la ciencia, con clara conciencia, por
tanto, de que la historia real no se había desarrollado según esa imagen ideal. En cuanto
a Popper, no creía que la historia de la ciencia sirviera para contrastar las teorías de la
filosofía de la ciencia, pues ésta no era para él una disciplina empírica.
1. Como reacción a esta actitud, la filosofía de la ciencia, a partir de los años 50, y
sobre todo en los 60, dirigió su mirada de forma decidida hacia la historia de la
ciencia, no sólo como fuente de la que podían extraerse ejemplos para ilustrar las
teorías filosóficas, sino como elemento de juicio para poner prueba la validez de
dichas teorías. La filosofía de la ciencia se aproximaba de este modo a las ciencias
empíricas en la medida en que sus propuestas teóricas acerca de cómo se ha
desarrollado la ciencia debían contrastarse con los datos proporcionados por la
historia de la ciencia.
Autores como Hanson, Kuhn, Toumlin, Feyerabend, etc… fueron los artífices de
este giro hacia la historia. El rasgo más decisivo de este nuevo enfoque es el
rechazo de la lógica formal como herramienta principal para el análisis de la
ciencia, y su sustitución por la confianza en el estudio detallado de la historia de
la ciencia. No obstante, conviene tener presente que, por un lado, esta conexión
estrecha entre la filosofía de la ciencia y la historia de la ciencia no era nueva,
pues ya fue practicada por Whewell, Duhem o Alexnder Koyré. Por otro lado, las
herramientas formales del análisis no han desparecido, sino que forman parte
fundamental de algunos enfoques, como el que ofrece la concepción semántica de
las teorías; incluso para el estudio de los procesos dinámicos de cambio científico.
Así pues, desde la década de los 60 hasta nuestros días la filosofía de la ciencia
ha estrechado lazos con la historia de la ciencia. Curiosamente, no se puede decir
que la historia de la ciencia haya correspondido a su vez con la misma actitud.
Más bien al contrario, a medida que ha ido alcanzando mayor madurez como
disciplina, la historia de la ciencia ha reivindicado y conseguido una mayor
independencia de la filosofía de la ciencia.
1
6
16
El acercamiento de la filosofía de la ciencia a la historia de la ciencia ha
favorecido:
Pero, sobre todo, el resultado más importante de este giro hacia la historia
ha sido introducir entre los fines primarios de toda teoría filosófica sobre
la ciencia el deseo de ofrecer una imagen lo más ajustada posible del
desarrollo histórica de la misma, poniendo con ello de relieve la existencia
de factores extracientíficos que inevitablemente intervienen en dicho
desarrollo. La imagen de la ciencia que ha surgido de este modo es menos
monolítica y menos “racionalista” que la ofrecida por el neopositivismo,
pero sin duda es también más sutil y menos idealizada.
No debe pensarse, sin embargo, que hubo unanimidad de criterios entre los autores
que propiciaron el giro historicista. Como ha subrayado Ronald Giere, de hecho,
muchos de ellos se opusieron a las tesis centrales de la visión kuhniana del cambio
científico. Tiene también interés la observación de Giere de que la reacción a
Kuhn entre los filósofos de tradición analítica no fue un mayor acercamiento a la
historia de la ciencia, sino a la ciencia contemporánea, sobre todo a la física y a la
biología.
1
7
17
2. Pero la historia de la ciencia no es la única disciplina afín que interesa al filósofo
de la ciencia. La crítica que Quine efectuó en 1951 a la división analítico -sintético
tuvo, entre otras muchas, la consecuencia de socavar una de las bases en las que
se había sustentado hasta entonces la epistemología: la idea de que la tarea de
analizar el conocimiento humano, en la medida en que era una tarea filosófica,
podía hacerse de forma a priori, ya fuera mediante el análisis conceptual, lógica,
o trascendental, sin necesidad de recurrir a los propios resultados de la
investigación empírica. En 1969, en un trabajo titulado “la naturalización de la
epistemología”, Quine defendió la tesis de que este modo de proceder era erróneo
y que la epistemología debía naturalizarse. Dicha naturalización significaba que
la epistemología debía abandonar los procedimientos especulativos y a priori que
la venían caracterizando y pasar a formar parte de las ciencias empíricas; en
particular, según Quine, de la psicología.
1
8
18
Siguiendo al filósofo Tom Nickles, puede señalarse la existencia de tres oleadas
de “naturalización” en la filosofía de la ciencia:
1
9
19
Como era de prever, estas oleadas de naturalismo no han recibido un apoyo unánime por
parte de los filósofos. Quizá la que ha sido recibida con mayor hostilidad, debido en gran
medida a su actitud exclusivista con respecto a las demás disciplinas metacientíficas, y
muy negativa ante la epistemología filosófica tradicional, sea la proveniente de la
sociología. Pero tampoco las otras han quedado sin recibir fuertes críticas. La
naturalización de la epistemología ha sido cuestionada en mayor o menor medida por
todos aquellos filósofos que piensan que la epistemología está comprometida con la
cuestión de la validez del conocimiento (de las formas en que validamos o justificamos
nuestros conocimientos), mientras que la psicología cognitiva o algunas disciplinas
biológicas pueden quizá proporcionar explicaciones causales de los conocimientos, pero
no pueden justificarlos.
Muchos epistemólogos son reacios a aceptar la relevancia de las ciencias empíricas para
la epistemología. Algunos (los herederos del segundo Wittgenstein) porque consideran
que las cuestiones epistemológicas son conceptuales y no empíricas; otros porque piensan
que una epistemología naturalizada no deja cabida a los aspectos normativos que, a su
juicio, debe incluir una disciplina interesada en determinar cómo garantizar los
conocimientos. Paradójicamente, desde el ámbito de la sociología de la ciencia se ha
llegado a negar la legitimidad del enfoque cognitivo de la ciencia, ajo la excusa de que
usar el lenguaje de la cognición para estudiar la ciencia es prematuro, superfluo e
innecesariamente mistificador; un intento erróneo y empobrecedor, en definitiva, de
volver a apartar la vista del carácter socialmente construido del conocimiento.
En general, las críticas que se han realizado contra la epistemología naturalizada se cifran
en éstas:
No es propiamente epistemología, ya que tiene un carácter descriptivo y no
normativo, es decir, no sirve para justificar nuestros conocimientos, ni para
establecer criterios de acuerdo con los cuales poder juzgar si son o no correctos.
2
0
20
TEMA 2: CONCEPTOS FUNDAMENTALES
1
21
Así pues, la noción fundamental del tema está en la noción de validez. La diferencia entre
argumentos deductivos e inductivos, en referencia a la validez, se debe únicamente en la
pretensión del hablante. Los argumentos deductivos se caracterizan porque en ellos se
pretende que la verdad de las premisas hace segura la de la conclusión, mientras que en
los inductivos se pretende que las premisas que poyan la conclusión sólo en cierto grado.
Pero en principio, y salvo convenciones que siempre podemos adoptar, nada formal o
estructurar distingue los argumentos deductivos de los inductivos: la diferencia es
intencional, radica exclusivamente en las intenciones del hablante respecto del sentido
pretendido en que la conclusión se sigue de las premisas. Es cierto que un argumento
deductivo, si es válido, lo es en virtud de su forma, pero no es cierto que un argumento,
si es deductivo, lo es (ya sea verdadero o falso) en virtud de su forma.
Ahora bien, y dicho esto, ello no implica que la diferencia entre argumentos deductivos
válidos y argumentos inductivos válidos sea pragmática o dependiente de las intenciones
o el contexto. Esta segunda diferencia es una diferencia objetiva, independiente del
hablante y del contexto. Esta segunda diferencia es una diferencia objetiva independiente
del hablante y del contexto, y consiste en que entre premisas y conclusión e dé una de dos
relaciones objetivamente diferente. Un argumento, como acto de habla de un hablante.
Pero una vez conocidas las intenciones del hablante, que sea válido o inválido es
perfectamente objetivo e independiente de sus intenciones y del contexto. Dicho esto,
entramos en materia.
2
22
Ejemplo 1: Si una teoría es completa, todo elemento de la realidad física ha de
tener una contrapartida en la teoría. Si podemos predecir con certeza el valor de
una cantidad física sin perturbar el sistema de ningún modo, entonces esa cantidad
física es un elemento de la realidad. Podemos predecir con certeza el momento y
la posición de una partícula subatómica B sin perturbarla (haciendo las
mediaciones pertinentes sobre otra partícula A que interactuó con ella en el
pasado). Luego el momento y la posición de B son elementos de la realidad. Pero
la posesión simultánea de momento y posición por parte de una partícula
subatómica no tiene contraportada en la teoría cuántica. Por tanto, la teoría
cuántica no es completa.
3
23
PUNTO 3: MODOS DE INFERENCIA. LA INDUCCIÓN
En cuanto a la inducción, quizás la mejor forma de definirla sea contraponiéndola a la
deducción. La inducción sería entonces aquel modo de inferencia en el que la conclusión
no se sigue demostrativamente de las premisas, sino que sólo obtiene de éstas un cierto
grado de apoyo o de fundamentación. Puede decirse que las premisas proporcionan una
buena razón para aceptar la conclusión, o que ésta se sigue de aquéllas no con necesidad
lógico, sino sólo con probabilidad. Un argumento inductivo será tanto mejor cuanto
mayor sea el apoyo que las premisas presenten a la conclusión, es decir, cuanto más
probable hagan la conclusión.
A diferencia de lo que sucede en la deducción, en la inducción la verdad de las premisas
no implica la verdad de la conclusión. Podemos tener una inferencia inductiva en la que
lleguemos a una conclusión falsa a partir de premisas verdaderas y, sin embargo, la refleja
inductiva que sigue dicha inferencia puede conducir de hecho en muchas otras ocasiones
a conclusiones verdaderas. Esto hace que el argumento puede ser lógicamente aceptable
pese al hecho de llegar a una conclusión falsa desde premisas verdaderas. Una forma más
clara de decirlo es ésta: las conclusiones de las inferencias inductivas están sujetas a
excepciones. Puede ser verdaderas en muchos casos, pero falsas en otros. Y esas
excepciones no inutilizan el argumento.
Se dice también que la inducción es una inferencia ampliativa, puesto que hay siempre
más información en la conclusión de la que se contiene en las premisas, cosa que no
sucede en la deducción. La conclusión, por ejemplo, puede referirse a individuos de los
que nada se dice en las premisas, o a momentos futuros del tiempo, mientras que las
premisas lo hacen de momentos pasados. Este carácter ampliativo ha dado lugar a una
intensa discusión desde Hume en adelante acerca de cómo justificar el salto hacia una
mayor información.
4
24
Dada la variedad de posibilidades, no hay una tipología estándar de las formas que puede
adoptar la inducción, pero una clasificación útil podría ser ésta:
1. Enumeración simple: Si una serie indefinida de casos coinciden en una propiedad
(o su carencia), se generaliza y se concluye que todos los casos la presentan; o
bien se infiere que el siguiente caso observado la presentará. Cuanto mayor sea el
número de casos observados, tanta más fuerza tendrá el argumento. En el caso
extremo, si hemos examinado todos los casos posibles y todos coinciden en una
propiedad, la conclusión se establece deductivamente, no inductivamente.
Estaríamos entonces ante lo que impropiamente se conoce como “inducción por
enumeración completa”. El esquema de la inducción simple sería
A1 es B
A2 es B
A3 es B
………….
An es B
5
25
2. Inducción eliminativa: Su origen puede retrotraerse a las tablas de presencia y
ausencia de Bacon, mediante las cuales llegó a establecer que el calor está
relacionado con el movimiento. También puede considerase como inducción
eliminativa el método de la diferencia y el método conjunto de la concordancia y
la diferencia de John Stuart Mill. Es un procedimiento inferencial especialmente
útil en la detección de las causas de un fenómeno.
Dado c, A es B
No se da c, A no es B
6
26
3. Razonamiento estadístico: Una forma de razonamiento estadístico de tipo
inductivo es la generalización estadística. En ella se parte de la premisa de que en
una determinada muestra de una población la proporción de miembros que poseen
cierta propiedad es r para concluir (con el margen de error propio del tamaño de
la muestra) que la misma proporción se da en la población completa.
P(B/A)=r
i es un caso de A
A es P,Q,R,S
B es P,Q,R
----------------
B es S
7
27
5. Inducción hipotética o abductiva: Se parte de un fenómeno que necesita una
explicación y se concluye aquella hipótesis que mejor explica dicho fenómeno,
entendido por tal aquella de las explicaciones disponibles adecuadas al fenómeno
que sea más simple, más coherente con otras hipótesis aceptadas, más exacta, más
capaz de encajar los detalles, etc…
H explica D
8
28
PUNTO 4: LAS HIPÓTESIS
En ocasiones los términos “hipótesis”, “ley” y “teoría” son empleados como sinónimos.
En otros contextos, sin embargo, se reserva el término “hipótesis” para una propuesta
científica que todavía está en proceso de contrastación mediante búsqueda de más
evidencia empírica que la apoye o la refute, o sobre cuya aceptación aún se discute en el
seno de la comunidad científica. Por ejemplo, se considera aún como una hipótesis,
aunque con un número creciente de adeptos, la propuesta de Luis y Walter Álvarez que
sostiene que la extensión en masa de finales del cretácico, que acabó entre otras muchas
especies con los dinosaurios, se debió al impacto de un gran meteorito. El término “ley”
se emplea entonces para algunas otras propuestas que han alcanzado una confirmación
suficiente o son aceptadas sin discusión por la comunidad científica. Y el de “teoría” para
un conjunto estructurado de hipótesis y de leyes en los sentidos citados.
9
29
No obstante, estas distinciones son problemáticas, sobre todo si se intentan aplicar de una
forma rígida. Así, la hipótesis de los Álvarez es mucho más que una mera corazonada, ya
que tiene detrás diversos indicios que la apoyan. Y, por otra parte, por mucho que nuevos
descubrimientos vengan a confirmarla, no se transformará jamás en una ley, puesto que
se refiere a un acontecimiento singular. No toda hipótesis es susceptible de convertirse en
ley, ni toda teoría contiene necesariamente leyes (especialmente en el caso de la biología
y las ciencias sociales). El uso de estos conceptos también puede venir dado por la
costumbre o la práctica establecida, más que por el significado escrito que se quiera
estipular y, en tal caso, son aplicados con independencia del grado de confirmación o
autoridad de los enunciados a los que se atribuyen. Por razones históricas se habla siempre
de la hipótesis de Avogadro, cuando podrían hablarse de ley.
Como hemos señalado antes, el reconocimiento del papel que las hipótesis cumplen en la
ciencia ha variado ampliamente a lo largo de la historia. Contemplada desde el punto de
vista actual y con nuestros criterios metodológicos diríamos que la teoría heliocéntrica de
Copérnico nació como una hipótesis que luego Galileo apoyó con nuevos
descubrimientos realizados mediante el telescopio; que la órbita elíptica de Marte fue
propuesta por Kepler como una hipótesis que Newton consiguió explicar con una teoría
mucho más general; que dicha teoría newtoniana, la teoría de la gravitación universal,
habría sido a su vez una hipótesis que resultó confirmada en sumo grado; que la teoría
general de la relatividad de Einstein vino después a proporcionar una explicación mejor,
también hipotética, de los fenómenos que Newton quiso explicar con la suya; y así
podríamos seguir.
1
0
30
Sin embargo, dejando aparte a Einstein, los científicos mencionados no tuvieron una
imagen coincidente con esta que nosotros nos formamos hoy. Ninguno de ellos habría
admitido sin más que su aportación al conocimiento científico era una simple hipótesis.
¿Por qué esta diferencia de apreciación? ¿Por qué esos científicos fueran renuentes a
calificar de hipótesis los resultados de su investigación? Merece la piensa que nos
detengamos en este asunto, porque ilustra como pocos los cambios que ha experimentado
desde los inicios de la ciencia moderna la propia visión que los científicos tienen la
metodología que emplean.
1
1
31
2. Sea como fuere, Galileo y Descartes mantuvieron decididamente una postura más
abierta que la de Bacon. Galileo inste una y otra vez en que la verdad científica es
verdad demostrada y no mera hipótesis; pero si analizamos los rasgos principales
del método galileano, veremos que la formulación de hipótesis forma parte
indispensable de él. Esta aparente inconsistencia se explica si tenemos en cuenta
que para Galileo las hipótesis utilizadas en la ciencia quedan justificadas por
completo cuando sobre ellas se consigue establecer una ley matemática
confirmada experimentalmente. A partir de eso momentos dejan de ser meras
hipótesis para transformarse en la descripción verdadera de la realidad esencial
del fenómeno, ya que sólo desde una reconstrucción verdadera es posible alcanzar
una ley matemática válida para todos los casos.
Cabe decir, por tanto, que para Descartes un cierto tipo de hipótesis, caracterizado
por su apoyo empírico y racional y por su éxito explicativo, no sólo son lícitas,
sino inevitables. Estas deberán de ser separadas de otras hipótesis inaceptables
debido a la imposibilidad de “probarlas” por algún procedimiento adecuado (por
ejemplo, la hipótesis acerca del propósito de Dios al crear el mundo) o a que no
sirven para explicar diversos fenómenos. Una vez probadas estas hipótesis lícitas,
es posible tener sobre ellas algo más que una certeza moral, sólo “suficiente para
regular nuestras costumbres”. El grado superior de certeza, la certeza metafísica,
propia de aquellas cosas que no pueden ser de otro modo más que como las
juzgamos, les puede alcanzar a ellas también.
1
2
32
En las últimas páginas de la Óptica, Newton describe el método que ha empleado
con estas palabras:
1
3
33
Ante esas críticas, Newton respondió que aun no había conseguido descubrir la
causa de los fenómenos gravitatorios y que no estaba dispuesto a especular sobre
ella sin los elementos de juicio. No obstante, lo cierto es que Newton si habló
sobre la causa de la gravedad, antes y después de que se publicara su negación de
haberlo hecho, aunque siempre fue cauteloso sobre la verdad del resultado. Si en
1713 no acetaba hipótesis, en 1717 en la cuestión 31 de la segunda edición de la
óptica no tiene reparos en recurrir a una hipótesis que había empleado también
para explicar la existencia de algunas propiedades de la luz. Postula allí la
existencia de un éter que lo llena todo y cuyas partículas, por ser preludiadas por
las partículas materiales, será más escasa en el espacio situado entre dos cuerpos
cercanos que en el situado en el lado opuesto de dichos cuerpos. Esta diferencia
de densidad, acompañada del efecto repulsivo del éter, habría que los cuerpos
tendieran a dirigirse el uno hacia el otro.
1
4
34
A lo largo del siglo XIX los escrúpulos sobre el uso de hipótesis que la filosofía de la
ciencia de Newton había suscitado fueron debilitándose paulatinamente debido, por una
parte, a los nuevos rumbos que la investigación científica tomó durante este siglo, lo que
favoreció una mayor libertad en la formulación de teorías, y, por otra, a la batalla que en
el plano epistemológico ofrecieron las obras de algunos grades autores. Entre ellos, John
Herschel, William Whewell y John Stuart Mill.
Las hipótesis tienen a menudo un uso eminente; y una facilidad para formularlas,
si va acompañada de una facilidad para dejarlas de lado cuando han cumplido su
misión, es una de las cualidades más valiosas que un filósofo puede poseer,
mientras que, por otra parte, una adherencia fanática a ellas, o de hecho, a
opiniones particulares de cualquier tipo en oposición al curso que los hechos
presentan, es la ruina de toda filosofía.
1
5
35
6. Más original y atrevido en sus conclusiones fue el segundo de los autores citados,
William Whewell. Su aportación a la filosofía de la ciencia constituye la defensa
más decidida del uso de hipótesis que se produjo con anterioridad al siglo XX.
Para Whewell la importancia de las hipótesis no está en que puedan ser
instrumentos auxiliares de la investigación en aquellas cuestiones donde el
razonamiento inductivo no puede ser aplicado por escasez de datos. Su opinión en
que el razonamiento inductivo es en sí mismo un proceso de selección de
hipótesis.
Lo peculiar del proceso inductivo es que una concepción general, que no está dada
inmediatamente por los hechos, es inventada e introducida en la mente del
científico para ordenarlos, reunirlos y hacerlos inteligibles. Así, cuando Kepler lo
descubrió que el planeta Marte se movía siguiendo una trayectoria elíptica, lo que
hizo fue unir las observaciones partículas de las posiciones de Marte a la noción
(o concepción) de una elipse, y ese momento aquellas observaciones particulares
quedaron finalmente “coligadas”.
Para encontrar la concepción correcta que permite coligar los hechos no basta,
según Whewell, con una simple generalización a partir de las observaciones
particulares, tal y como tradicionalmente se había entendido salto inductivo. La
concepción introducida para coligar los hechos es un elemento nuevo que la mente
añade a la combinación y que no está en los hechos observados. Dar con la
concepción adecuada es un paso difícil que ha de efectuarse aventurando hipótesis
y probando con ellas hasta encontrar la que puede explicar los hechos conocidos
y predecir otros hechos nuevos que luego son verificados. El científico tiene una
casi total libertad para imaginar hipótesis que él crea que pueden ser útiles, la
única restricción es que estas hipótesis vengan sugeridas por los mismos hechos
y no por una especulación caprichosa.
1
6
36
7. Aunque en líneas generales Mill se muestra conforme con Whewell en otorgar a
las hipótesis un papel preponderante en la ciencia, no contempla la inducción
como un proceso de búsqueda y selección de hipótesis, sino como conjunto de
métodos para descubrir y probar leyes científicas a partir de los hechos. Mill cree,
no obstante, que las hipótesis son necesarias en la investigación y que toda teoría
y toda ley comienzan siendo una hipótesis y conservan este carácter hasta que no
pasan por el tamiz de los métodos inductivos. Hubo dos grandes diferencias entre
Mill y Whewell:
1
7
37
Para esas ciencias, que son las más perfeccionadas o las más complejas, Mill
propone la utilización de un método deductivo, una de cuyas variantes es el
método hipotético. Este método se compone de tres pasos sucesivos:
El método hipotético, junto con las otras variedades del método deductivo, está
designado, según Mill, a predominar sobre los métodos inductivos a medida que
las ciencias progresen y perfeccionen.
8. Tras el debate entre Whewell y Mill, la clarificación del papel desempeñado por
las hipótesis de la ciencia se convirtió en un asunto fundamental de análisis en la
filosofía de la ciencia. En general puede decirse que para entonces era
ampliamente reconocida su ineludible peso en la investigación. Lo que podía
ofrecer dudas era el grado de permisividad que había que tener con cierto tipo de
hipótesis de difícil o imposible contrastación experimental. Quien mejor
ejemplifica estas dudas es Ernst Mach. Es de sobre conocido su prolongada
hostilidad a la hipótesis de la existencia de los átomos.
Para Mach la cuestión no era tanto si debían utilizar hipótesis, como si éstas
podían postular entidades inverificables. Mach estimaba, como Comte y Mill, que
sólo aquellas entidades acerca de las cuales puede haber algún tipo de experiencia
son admisibles en la ciencia. Por tanto, cuando una hipótesis acude a entidades
sobre las que esto no es posible, como en el caso de los átomos, dicha hipótesis
debe aceptarse sólo provisionalmente y en la medida en que tenga cierta utilidad
heurística. Tan pronto como cumpla su tarea, permitiendo descubrir nuevas
conexiones fenoménicas, ha de ser abandonada.
Las hipótesis, según Mach, son instrumentos que presentan un servicio auxiliar en
la ciencia, ya que siempre hay quien necesita apoyarse en imágenes para avanzar
en la investigación. Pero para que una hipótesis sea aceptable tiene que
proporcionar utilidades adicionales: debe “sustituir o ahorrar experiencia” y debe
conducir a nuevas experiencias que permitan confirmarla y, así, superarla. Cuando
una hipótesis logra su objetivo de conectar fenoménicos mediante la
determinación precisa de sus relaciones, debe desparecer como tal hipótesis para
dejar como resultado de su aceptación provisional las leyes que se han obtenido
con su ayuda. Peor, en ningún caso, ha de atribuirse durante esta aceptación
provisional un significado ontológico fuerte a las entidades postuladas, como si
se trataran de una especie de “cosa en sí”. Hacer esto sería ir más allá de lo que
permite la experiencia, que es la única que puede dictaminar qué tipo de entidades
existen.
1
8
38
Por lo tanto, Mach considera que el uso de hipótesis es inevitable, pero siempre
que no se olvide que su función es subordinada, provisional, y que lo que importa
de verdad son los hechos. En su obra Desarrollo histórico-crítico de la mecánica,
advertía contra la construcción de hipótesis que no pudieran ser probadas por los
hechos con esta fuerte recomendación:
Al leer este pasaje podría parecer que Mach ha vuelto a las posiciones hostiles de
Newton acerca de las hipótesis. Pero Mach no está desterrando aquí las hipótesis,
sino aclarando que no pueden ser el estado final de la investigación y que no
pueden sustituir a los hechos con base de justificación. Por eso, en otro lugar
aclara que “las hipótesis no llegan a ser prejudiciales o peligrosas para el progreso
excepto cuando se deposita más confianza en ellas que en los hechos mismos”.
9. En una posición más abierta se situaron, sin embargo, Henri Poincaré y Pierre
Duhem. El primero de ellos escribía en 1902:
Para Poincaré, la experiencia aun con ser la única fuente de verdad y hasta de
certeza del conocimiento, no lo es todo en la ciencia. Es imprescindible elaborar
generalizaciones sobre ella. Poincaré afirma que no se puede experimentar sin
poseer ciertas ideas generales preconcebidas acerca del mundo. Pero resulta que
“toda generalización es una hipótesis”. Nadie, según su criterio, ha rechazado
nunca este papel necesario de las hipótesis, siempre y cando sean explícitamente
formuladas y sometan a verificación lo antes posible. Las que no pasen la prueba
de la verificación han de ser abandonadas, si bien esto debe alegrar al científico,
pues “acaba de encontrar una ocasión inesperada para hacer un descubrimiento”.
1
9
39
10. Por su parte, Pierre Duhem acepta de Mach la tesis de que las teorías científicas
son instrumentos para economizar experiencias, pero concede la hipótesis una
importancia mayor. Duhem define una teoría científica como “un sistema de
proposiciones matemáticas, deducidas de un pequeño número de principios, y que
tienen por objeto representar tan simple, completa y exactamente como sea
posible, un conjunto de leyes experimentales”. Pues bien, los principios a partir
de los cuales se deducen esas proposiciones tienen para Duhem el carácter de
hipótesis. Éstos no pretenden ser enunciados sore relaciones verdaderas entre
propiedades de los objetos, uno que son formulados de una manera arbitraria,
únicamente en función de su utilidad para derivar consecuencias que concuerden
con los resultados experimentales.
Las condiciones que Duhem pone para aceptar estas hipótesis son únicamente que
no contengan contradicciones, que no se contradigan unas a otras, y que no
contradigan leyes experimentales aceptadas previamente. El incluso la segunda
condición puede ser obviada si las hipótesis que se contradicen pertenecen a
capítulos diferentes de la física.
11. La actitud cada vez más abierta hacia el uso de hipótesis que venimos
describiendo, e incluso la comprensión de la naturaleza hipotética de la ciencia,
se afianzó aún más a lo largo del siglo XX. Así, Moritz Schlick declaraba en el 34
que “Las leyes de la naturaleza son suposiciones que nuca pierden su carácter
hipotético; nunca podemos estar absolutamente convencidos de su validez. Ni
dispones de medio alguno con el que probar la validez universal de dichas leyes.
Estas palabras, por cierto, desmienten la tan difundida imagen del dogmatismo
neopositivista acerca del carácter absolutamente firme del conocimiento
científico. Otras muy semejantes pueden encontrarse, por ejemplo, en algunos
pasajes de Carnap.
2
0
40
12. Pero es justo destacar el impulso final que en esta evolución imprime, desde
mediados de los 30, y sobre todo a partir d ellos 60, la filosofía falibilista de
Popper. La idea que mejor resume la actitud propperiana es que todas las teorías
científicas tienen un carácter hipotético y jamás podrán ser otra cosa que
conjeturas. La ciencia es doxa, no episteme. Y por este motivo, Popper ya no se
limita afirmar que la formulación de hipótesis sea un paso provisional y que el
desenlace feliz de toda investigación sea la verificación de la hipótesis o, lo que
es igual, su transformación en una verdad establecida. Lo que Popper nos dice es
que una teoría científica no puede aspirar a ser más que una hipótesis, que no hay
posibilidad de probar la verdad definitiva, y ni siquiera la alta probabilidad, de
ningún enunciado empírico por evidente que parezca y que, por consiguiente, las
distintas ciencias son sistemas de hipótesis y no cuerpos de conocimiento.
2
1
41
PUNTO 5: LAS LEYES CIENTÍFICAS
Es habitual entender una ley científica como un enunciado, con frecuencia formulable
como una ecuación matemática simple, que expresa una relación regular y empíricamente
contrastable entre los fenómenos o propiedades seleccionadas de los fenómenos. Si la
regularidad se afirma universalmente y sin excepciones, es decir, si se afirma su
cumplimiento en todos los casos (aunque este cumplimiento sea de forma aproximada),
estamos ante una ley universal o determinista. En cambio, si se afirma solo una
regularidad que se da en una serie de casos, pero no en otros, y que admite por tanto
excepciones, en otras palabras, si el cumplimiento de la relación establecida por la ley se
mantiene en un cierto porcentaje de casos; pero no necesariamente por todos los casos
concretos, o bien si la ley incluye en su misma formulación la probabilidad de que se dé
un suceso, estamos ante una ley probabilística.
2
2
42
En cuanto a las leyes probabilísticas, el ejemplo que frecuentemente se cita es la ley de
Elster y Gietel sobre la desintegración radioactiva, que dice: “la actividad de una sustancia
radioactiva pura disminuye con el tiempo de forma exponencial”. Sin embargo, el
ejemplo que mejor lo ilustra es el del segundo principio de la termodinámica, que puede
ser formulado del siguiente modo “un sistema aislado tiende a estados de mayor
entropía”. Como se ve por la formulación, no se excluye la posibilidad, aunque su
probabilidad sea extremadamente baja, de una transición espontánea a un estado de menor
entropía. A veces se dice también que la naturaleza tiende a evolucionar desde los estados
de orden hacia los de desorden, o desde los menos probables hacia los más probables.
Algunos manuales de física ocultan el carácter probabilístico del segundo principio de la
termodinámica declarando simplemente que tales transiciones espontáneas hacia estados
de menor entropía son imposibles. Otros, más cautos, señalan el carácter probabilístico
del segundo principio, pero añaden que la probabilidad de que disminuya la entropía en
los sistemas aislados es tan pequeña, que puede considerase como imposible.
2
3
43
En la tradición filosófica, desde Aristóteles a Locke, se consideraba que las leyes
científicas establecían conexiones necesarias entre propiedades. Esto implicaba aceptar
la existencia de una necesidad natural y objetiva que ligaba entre sí ciertos
acontecimientos y otros no. Como es sabido, Hume criticó desde bases empiristas la idea
de una conexión necesaria entre objetos. Para él la diferencia entre leyes u
generalizaciones de accidentales no era objetivo, sino que dependía de las diferentes
actitudes que mantenemos hacia cada una de ellas. Tanto las unas como las otras no
expresan más que una conjunción constante entre fenómenos. Pero en el caso de las leyes,
un hábito mental basado en esa repetición nos hace esperar el mantenimiento futuro de la
regularidad observada. Habría, en cambio, otras regularidades que no hacen parecer este
hábito de proyectar la regularidad hacia el futuro y que consideramos por ello
accidentales. Hume descartaba, por carecer del más mínimo fundamento en la
experiencia, el que realmente hubiera una conexión necesariamente entre ciertos
fenómenos. Lo único real y observable es la conjunción constante de los fenómenos.
Reconocía que la idea de una conexión necesaria forma parte inevitable de nuestra noción
de causalidad, pero creía que era una proyección de nuestra mente, algo que no podemos
dejar de imaginar pero que no está en los objetos mismos.
2
4
44
Para evitar recurrir a un concepto metafísico de necesidad o de conexión necesaria
y mantenerse fiel al empirismo, los neopositivistas aceptaron una propuesta que
se estimaba compatible con el análisis de Hume (con operadores modales), que
podría evitar la carga metafísica que acarreaba el concepto de necesidad. Según
dicha propuesta, la diferencia fundamental entre una ley científico y una
generalización accidental estribaría en que sólo la primera puede justificar, en
virtud de ciertas características a determinar, los correspondientes enunciados
condiciones subjuntivas o enunciados condicionales contrafácticos.
Según el análisis efectuado por los neopositivistas, las leyes científicas pueden
justificar condicionales subjuntivos y contrafácticos porque son enunciados
universales irrestrictos no vacuamente verdaderos (no los hace verdaderos el
hecho de que no haya nada que satisfaga al antecedente) y los elementos de juicio
en su favor no coinciden, a diferencia de las generalizaciones accidentales, con su
ámbito de predicación. Esto les capacita para hacer predicciones y participar en
explicaciones científicas.
Volviendo a los ejemplos citados, la verdad del enunciado “todas las montañas
del planeta Tierra miden menos de 9000 metros de altitud sólo puede establecerse
tras examinar todas las montañas terrestres de gran altura. Los elementos de juicio
para confirmar la ley son todos y cada uno de los casos a los que la ley se refiere.
Con lo cual, una vez aceptado el enunciado una o cabe hacer con él ninguna
predicción, y carece de capacidad explicativa alguna. Sin embargo, por muchos
casos que observamos de caídas de cuerpos sobre la superficie terrestre, quedará
siempre un número indeterminado de casos por examinar. La aceptación de la ley
de Galileo se hace, pues, antes de examinar todos los casos. Y, por tanto, una vez
aceptada, podemos predecir el comportamiento de los casos no observados y
aplicarlo mediante la ley.
2
5
45
Esta propuesta tiene méritos innegables, pero desafortunadamente no puede valor
como una condición necesaria y suficiente de las leyes científicas, por varios
motivos:
2
6
46
En ocasiones, como Nagel reconoció, el que consideremos a un enunciado una ley
científica depende de que esté integrado en un sistema semejante. Este hecho ha
servido también como base para caracterizar a las leyes científicas sin tener que
abandonar el enfoque humeano. Los antecedentes de esta posición pueden
encontrarse en la obra de Mill, pero su defensor más destacado ha sido David
Lewis. Su propuesta, en pocas palabras es esta:
Así pues, lo esencial es que las leyes son capaces de integrarse en sistemas
deductivos en cierto tipo mientras que las generalizaciones accidentales no lo son.
La diferencia ya no está en nuestra actitud mental hacia unas y otras, sino en un
rasgo independiente de nuestra mente. No obstante, también esta propuesta
adolece de ciertas dificultades. No está claro, por ejemplo, si toda regularidad es
susceptible de integrarse en un sistema deductivo apropiado puede justificar como
se espera de una ley, su correspondiente enunciado contrafáctico. Hay además
quien piensa que la integración en un sistema deductivo sigue siendo una
diferencia demasiado poco objetiva para diferencia leyes y regularidades
accidentales.
2. Frente a estas posiciones humeanas, que han sido predominado a lo largo del siglo
XX, están los que defienden que las leyes científicas van ligadas a algún tipo de
necesidad, aunque sea más débil que la aristotélica. Popper asumió que las leyes
científicas describen necesidades físicas (en el sentido de que se mantienen en
todos los mundos posibles que difieren del real sólo en las condiciones iniciales)
y esto bastaría para explicar porqué permiten justificar condicionales subjuntivos
y contrafácticos. No obstante, la caracterización de Popper fue acusada de
circularidad, pues un mundo posible que sólo difiere del mundo real en las
condiciones iniciales sólo puede entenderse como un mundo en el que se cumplen
las mismas leyes que en el real.
Los defensores más destacados de la idea de que las leyes científicas implican la
idea de necesidad “nómica” han sido fren Dretske, David Armstong y Michael
Tooley. Estos autores consideran que las leyes científicas expresan relaciones
entre propiedades o universales, y por ello se califica a su posición de “realismo
sobre las leyes”. Tomaremos aquí como representativas del grupo las tesis de
Dretske:
Decir que es una ley que los F son G es decir que “todos los F son G” ha de ser
entendido (en la medida en que expresan una ley) no como un enunciado sobre
las extensiones de los predicados F y G, sino como un enunciado singular que
describe una relación entre las propiedades universales de F-idad y de G-idad. En
otras palabras, ha de ser entendida como tenido la forma: La F-idad-->la G-idad.
2
7
47
Según Dretske, las leyes no son, por tanto, enunciados universales acerca de
objetos o situaciones particulares, sino enunciados singulares acerca de
propiedades universales. La ley que afirma que los metales son buenos
conductores de la electricidad no debe entenderse como el enunciado universal
“Todos los metales son buenos conductores de la electricidad”, sino como el
enunciado singular “la propiedad de ser metal implica la propiedad de ser un buen
conductor de la electricidad”. El hecho de que las leyes vayan más allá de los
objetos particulares y se refieran a propiedades es precisamente lo que les permite,
según Dreske, justificar a los contrafácticos. Al ser las propiedades las que están
ligadas, si un objeto adquiera la propiedad F, tendría que adquirir la propiedad G.
El poseer la una exige de alguna manera el poseer la otra.
Esto es un F
La F-idad-->la G-idad
Esto es F
En el primer caso, la conclusión tiene un carácter modal que no tiene las premisas.
Se produce un salto ilegítimo, y de ahí que el razonamiento no sea válido. En el
segundo caso, el carácter modal de la conclusión se previa de la relación entre
propiedades establecidas en la primera premisa. En el caso de las generalizaciones
accidentales, es esta relación entre propiedades la que falta. No podemos concluir
que el Mont Noir habría medido menos de 9000 metros. Pero sí podemos concluir
que un trozo de metal encontrado fuera del Sistema Solar sería un buen conductor
de la electricidad, la que la ley establece que una cosa implica la otra.
2
8
48
Se ha objetad que muchas leyes tienen un dominio limitado de aplicación, por lo
que no pueden tratarse de relaciones entre universales: las leyes de la mecánica
no se aplican en velocidades cercanas a las de la luz o a sistemas subatómicas, las
leyes de la relatividad general no se aplican en distancias muy pequeñas, en la que
los efectos cuánticos no son apreciables, etc… Y hasta pueden tratarse de
idealizaciones que no son estrictamente correctas aplicadas a los sistemas reales,
como es el caso de la ley de los gases ideales. Quizá alguna variante del realismo
podrá superar esta dificultad. Pero, en todo caso, el principal problema con la
propuesta de Dretsle es que exige un compromiso con cierto realismo de los
universales que no todos los filósofos de la ciencia están dispuestos asumir. Y,
por si eso no bastara, queda demás el hecho de que ninguna caracterización de la
relación de necesidad entre universales consigue definir qué es lo que hay en ella
que sea empíricamente diferente de una regularidad accidental.
3. No podemos terminar este apartado sin mencionar que a partir de la década de los
80 algunos filósofos de la ciencia han puesto en cuestión la idea de que existan
leyes de la naturaleza universales y necesarias y, en consecuencia, la idea de que
la misión de la ciencia sea descubrir tales leyes. Bas van Frasse, Nancy Carwright
y Ronald Giere, todos ellos adscritos a la concepción semántica de las teorías, han
argumentado de forma independiente que las leyes universales, entendidas como
afirmaciones generales acerca de sistemas reales /y no meramente acerca de
modelos ideales), son en su mayor parte falsas. Los sistemas reales rara vez son
lo suficientemente simples para comportarse de acuerdo con dichas leyes. Por
ejemplo, la ley galileana sobre el movimiento pendular es falsa como afirmación
sobre sistemas reales, puesto que no existe el péndulo ideal en movimiento
perpetuo al que la ley se refiere, y todos los péndulos reales están sometidos a
fuerzas de razonamiento que no aparecen en dicha ley.
No debería por ello concederse al concepto de ley universal el papel central que
todavía hoy se le atribuye por parte de los filósofos para explicar el
funcionamiento de la ciencia. Un papel que, según estos autores, habría perdido
en los escritos de los científicos actuales. Esta posición tiene la ventaja de acercar
más la física a otras ciencias, como la biología o la economía. En ellas, en efecto,
no cabe hablar de leyes en el mismo sentido que la ley de la gravedad o la ley de
Coulomb, pero sí que encontramos modelos formales, frecuentemente
matematizados, o generalizaciones contingentes que cumplen funciones
explicativas. No obstante, debe reconocerse que el concepto de ley tiene un
arraigo muy fuerte tanto en la ciencia como en la filosofía y sigue siendo un
concepto útil para entender lo que hacen los científicos. Es difícil que sea
abandonado o relegado, pese a los problemas señalados.
2
9
49
PUNTO 6: LAS TEORÍAS
En su uso cotidiano se suele entender por teoría todo aquello que está muy alejado de la
práctica o acerca de cuya verdad se duda porque no puede ser comprobado en la realidad.
Esto conduce que algunas personas malinterpreten el significado de expresiones como
“teoría de la evolución” o “teoría de la relatividad” y crean que se trata de cosas que no
se pueden saber con seguridad que carecen de toda prueba, y que por eso “son sólo teoría”.
No es éste, sin embargo, el sentido con que en la ciencia y en la filosofía de la ciencia se
usa el término “teoría”. He aquí, por otro lado, una definición que nos encontramos en un
diccionario contemporáneo de epistemología, y que no es sino una versión resumida de
la que diera Nagel en La estructura de la ciencia:
Un problema con esta definición es que da a entender que las leyes sólo hacen referencias
a entidades o propiedades observables, pero no es así. Hay leyes, como la anteriormente
citada de Elster y Geiel, que hacen referencia a inobservables. Precisamente, para salvar
esta diferencia, Carnap y otros autores distinguieron entre leyes empíricas y leyes
teóricas. Y no deja de ser un uso forzado de los términos a emplear, como hacen algunos,
leyes teóricas y teorías como expresiones sinónimas. En la filosofía de la ciencia actual
ha habido dos enfoques distintos y en gran medida opuestas acerca de qué es una teoría
científica y cuál es su estructura: la concepción enunciativa y la concepción semántica o
modelo-teórica.
Los empiristas lógicos consideraban que en el caso ideal las teorías de las
ciencias empíricas debían ser formuladas como un sistema de axiomas
susceptibles de una interpretación fáctica. De los axiomas se derivarían
deductivamente otros enunciados (teoremas) que desplegarían el
contenido de la teoría en el dominio correspondiente. La interpretación
que conecta los términos teóricos con términos referidos a fenómenos
observables vendría dada por una serie de reglas de correspondencia
especificarán las aplicaciones de las leyes teóricas (los axiomas) a los
fenómenos y harían posible las predicciones empíricas.
3
0
50
Un ejemplo de regla de correspondencia proporcionada por Carnap es: “Si
se produce una oscilación electromagnética de una frecuencia
determinada, entonces se observará un color azul verdoso de determinado
matiz”. O también: “la temperatura (medida por un termómetro) de un gas
es proporcional a la energía cinética media de sus moléculas”. Ambos
enunciados ponen en conexión cosas inobservables (una oscilación
electromagnética la energía cinética media) con cosas observables (un
color o una señal en un termómetro).
/\x(Fx=Ox)
3
1
51
Donde “Ox” es una expresión de L que contiene solamente símbolos V0
y posiblemente del vocabulario lógico.
3
2
52
Aunque, como acabamos de decir, las pretensiones axiomatizadoras
fueron abandonadas por los partidarios posteriores de la concepción
enunciativa, éstos no ofrecieron una caracterización tan elaborada de la
estructura de las teorías como la que ofreció el empirismo lógico. De
hecho, con Popper el problema de la estructura de las teorías pasó a un
lugar secundario en beneficio del problema del progreso científico y del
cambio de teorías.
3
3
53
Así, puede decirse que un péndulo ideal sin razonamiento, que satisface
las leyes newtonianas del movimiento, es un modelo de la mecánica
clásica que representa a los péndulos reales, los cuales sí experimentan
fuerzas de rozamiento. Todos los modelos similares que satisfagan estas
leyes formarían el contenido de la mecánica clásica. Una teoría científica
estaría constituida por la estructura matemática compartida por sus
modelos junto con las aplicaciones propuestas de la misma o, como dice
Giere más genéricamente, por lo población de sus modelos junto con
varias hipótesis que conecten estos modelos con sistemas en el mundo real.
Así pues, en lugar de los axiomas y teoremas junto con las reglas de
correspondencia, que constituían la estructura de una teoría según el
neopositivismo, tenemos un conjunto de modelos y de hipótesis que
señalan qué objetos del mundo real encajan con los modelos. El
neopositivismo aceptaba que las teorías pudieran contener modelos. Para
la concepción semántica una teoría es en realidad el conjunto de sus
modelos. Los modelos no son entidades lingüísticas, aunque puedan ser
formulados lingüísticamente. Entre las ventajas principales de este cambio
está la desaparición de las reglas de correspondencia y de todos los
problemas ligados a su caracterización, no siendo el meno de ellos la
distinción teórico/observacional aplicado a los términos científicos. Esta
distinción es sustituido por la distinción teórico/no-teórico, la cual es
siempre relativa a una teoría concreta, en lugar de ser absoluta y universal.
3
4
54
Es la escuela estructuralista la que ha conseguido articular de forma más completa
estas ideas, así que haremos una presentación somera de lo que dentro de ella se
entiende por teoría. Dado que sus propuestas han recibido refinamientos
sucesivos, nos atendremos a la caracterización que realizaron Balzer, Moulines y
Sneed en 1987.
3
5
55
En cuanto a las aplicaciones intencionales I, no pueden ser caracterizadas
de un modo puramente formal. Son los casos o ejemplos de la teoría que
han sido propuestos alguna vez como tales por los científicos. Se trata, por
tanto, de sistemas concretos con las características adecuadas y que se
pueden describir con un vocabulario no-teórico en relación la teoría en
cuestión. En tal sentido, las aplicaciones intencionales son un subconjutno
de los modelos potenciales particulares: I Mpp
En resumen, una teoría podría ser caracterizada como una estructura descripta por
la tupla
Es lógico que las cosas no se vean del mismo lado desde la concepción semántica.
Para ésta, los cambios que implican dicha concepción significan una superación
del enfoque anterior y, por tanto, un verdadero progreso filosófico. El enfoque
semántico, que enfatiza la referencia explícita a los modelos más que a los
enunciados, puede parecer una mera revisión del enfoque sintáctico propio de la
concepción Heredada. Es efectivamente una revisión, pues pretende expresar más
adecuadamente una idea ya contenida en la concepción anterior, aunque
insatisfactoriamente expresada. Pero no es una mera revisión si con ello se quiere
sugerir que se trata de una revisión sin importancia. En tanto conceptualización
más satisfactoria de una idea esencialmente correcta pero insatisfactoriamente
conceptualizada con anterioridad, ejemplifica el tipo de progreso al que se puede
aspirar en filosofía.
3
6
56
Una cuestión central que dejaremos para más adelante es la del estatus epistemológica de
las teorías científicas, en particular el modo en que debe entenderse su relación con la
realidad objetiva. Como veremos, hay básicamente dos posiciones enfrentadas: la
instrumentalista y la realista, aunque con numerosas variantes y propuestas intermedias.
2. Para el realismo las teorías científicas bien confirmadas han de aceptarse como
verdades aproximadas; el mundo es en sus estructuras fundamentales como dicen
las teorías científicas.
Detengámonos ahora un poco más en un concepto muy ligado al de teoría y que, como
acabamos de comprobar con la concepción semántica, está recibiendo una atención cada
vez mayor por parte de los filósofos de la ciencia. Me refiero al concepto de modelo. No
hay un uso unívoco de este concepto en la ciencia y cualquier caracterización del mismo
se ve obligada a recoger de algún modo esta pluralidad de usos. Pese a ello, se trata de un
concepto central en la práctica científica, que en algunas disciplinas desplaza incluso al
de teoría. Así, en la biología, en la química, en las ciencias sociales, disponemos de
modelos rigurosos acerca de una gran diversidad de fenómenos, pero en muchos casos se
que las teorías los que dirigen el trabajo de los científicos y los que son utilizados como
base explicativa de los fenómenos. De hecho, los modelos suelen ser una forma de
desarrollar inicialmente una teoría.
1. En lo que respecta a la definición, quizá la distinción más básica que cabe hacer,
y que paradójicamente recoge dos sentidos contrapuestos del término “modelo”,
es la que separa entre modelos matemáticos o formales y modelos semánticas.
Muchas veces cuando un científico dice que sería muy útil modelizar una
serie de fenómeno lo que quiere decir es que debería lograrse la
elaboración de un conjunto de ecuaciones que permitieran representar el
comportamiento de dichos fenómenos. En tal sentido decimos, por
ejemplo, que el modelo Volterra consigue representar de forma útil y
manejable el sistema de interacciones entre los depredadores y sus presas;
o decimos que los modelos informáticos actuales sobre el tiempo
atmosférico no permiten realizar predicciones fiables que vaya más allá de
cuatro días.
3
7
57
Tanto las ecuaciones del modelo Volterra como los elementos que
constituyen los programas informáticos de simulación del tiempo
atmosférico son modelos matemáticos o formales. Los modelos
matemáticos o formales son particularmente importantes a la hora de
realizar predicciones, ya que éstas se ven facilitadas pro el rigor y la
capacidad deductiva de los mismos.
3
8
58
Los modelos analógicos pretenden también proporcionar una explicación
de la estructura o fruncimiento de un sistema, pero no lo hacen mediante
representaciones aplicables únicamente al sistema estudiado, sino
mediante comparación con un sistema análogo que resulte familiar o mejor
conocido. El sistema análogo utilizado se supone que comparte con el
sistema en estudio aspectos relevantes, pero no es representativo de él en
todos los aspectos. Modelos analógicos serían el modelo el modelo de
bolas de billar para los gases, el modelo de la propagación ondulatoria del
sonido por luz, el modelo planetario de Rutherford, etc…Determinados
modelos analógicos pueden funcionar a veces como modelos semánticos,
ya que son susceptibles de proporcionar una interpretación de la teoría, e
incluso como modelos teóricos de pleno derecho
3
9
59
TEMA 3: LA EXPLICACIÓN CIENTÍFICA
1
60
PUNTO 2: EL MODELO DE EXPLICACIÓN POR COBERTURA LEGAL
El primer modelo general de explicación que se ensayó y que más influencia ha tenido es
el modelo por cobertura legal. Como casi siempre en filosofía, se pueden encontrar
antecedentes clásicos (como Aristóteles), pero los que lo propusieron inicialmente en su
forma actual fueron J. S Mill, Campbell (1920) y K.R Popper (1934/1962) y los que lo
desarrollaron fueron Carl G. Hempel y Paul Oppenheim (1948). Para dicho modelo,
explicar un fenómeno es proporcionar un argumento en el que el fenómeno en cuestión
aparezca como conclusión de unas premisas que incluyan de manera implícita o explícita
al menos una “ley general”.
En otras palabras “la pregunta por qué sucede dicho fenómeno debe interpretarse así: ¿De
acuerdo con qué leyes generales y condiciones antecedentes se produce el fenómeno?”.
De modo similar, si lo que se tata es explicar una ley en lugar de un fenómeno aislado, el
procedimiento a seguir es subsumirla bajo una ley más general. Así pues, explicar
científicamente un fenómeno es derivarlo como caso particular de una ley general junto
con ciertas condiciones iniciales, mientras que explicar científicamente una ley es
derivarla de otras leyes más generales.
Cuando es posible deducir el fenómeno a partir de la ley (o una ley a partir de otra ley
más general) este tipo de explicación recibe el nombre de explicación, deductivo-
nomológico (DN), pero como no siempre es posible esto, hay otros tipos de explicación
perteneciente al modelo de cobertura legal.
De acuerdo con la presentación de Hempel, una explicación deductiva nomológica consta
de dos partes: el explandanum o enunciado descriptivo del fenómeno que se desea
explicar y el explanans o enunciados a partir de los cuales se deriva el explanandum como
conclusión. El explanans está a su vez formada por una o varias leyes generales
(L1,L2,L3,…Ln) y por enunciados que describen las condiciones iniciales cuya
concurrencia provoca la aparición del fenómeno (C1,C2,C3,…Ck). El esquema de este
modelo de explicación sería
L1,L2,L3,…Ln
Explanans
C1,C2,C3,…Ck
-------------------
E Explanandum
2
61
1. La explicación deductivo nomológico cumple dos requisitos que Hempel cree
imprescindibles en cualquier explicación científica: el requisito de la relevancia
explicativa (Explanatory relevance) y el requisito de la contrastabilidad
(testability). El primer exige que la información aducida proporciona una buena
base para creer que el fenómeno que se va a explicar tuvo o ha de tener. El segundo
pide que los eunciados que componen la explicación sean empíricamente
contrastables.
El mismo argumento que nos sirve para explicar el fenómeno una vez que
sabemos que éste se ha producido nos había permitido predecirlo antes de que se
produjera. La diferencia entre explicar y predecir es únicamente pragmática, se
reduce al momento en que se formula el argumento: si se formula antes de conocer
el fenómeno, predecimos si se formula después, explicamos.
3
62
4. Por otra parte, Hempel estima que la explicación deductivo-nomológica
proporciona una aclaración del concepto de causa y de explicación causal. Según
Hempel, por “causa” debemos entender “el conjunto más o menos complejos de
circunstancias y hechos que podría describirse por conjunto de encunados
C1,C2,…Ck”. A su vez, por explicación causal debemos entenderse la que
“afirma implícitamente que hay leyes generales L1, L2,…Ln, en virtud de las
cuales la aparición de los antecedentes causales mencionados en C1, C2,… Ck, es
una condición suficiente para la aparición del hecho señalado en el explanadum.
Así pues, toda explicación causal no es más que una explicación deductivo-
nomológica más o menos disimulada e incompleta. Pero lo contrario no sucede:
no toda explicación deductiva-nomológica es una explicación causal. Por
ejemplo, tal como hemos dicho, también las leyes pueden ser explicadas
deductivo-nomológicamente siendo subsumidas pro leyes más generales. En este
caso, carecería de sentido afirmar que una ley es causa de otra, o que las leyes de
la mecánica de Newton son la causa de las leyes de Kepler.
𝑡 = 2√𝑙⁄𝑔
donde g es la aceleración de la gravedad, no parece muy correcto concluir que la
longitud de 1 metro sea la causa del período de 2 segundos (nótese que si se hiciera
esto, sería igualmente posible concluir que la causa de que mida 1 metro es que
tiene un periodo de 2 segundos, puesto que la ley expresa una coexistencia de
fenómeno y no una sucesión). Para que una explicación DN sea causal, las leyes
del explanans debe expresar una sucesión entre dos tipos de fenómenos.
4
63
PUNTO 3: EL MODELO INDUCTIVO-ESTADÍSTICO (IS)
Cuando, por las razones que sea, sólo se dispone de leyes probabilísticas, estadísticas, las
explicaciones resultantes no serán ya deductivo nomológicas porque el apoyo que el
explanans proporciona al explanandum carecerá de la fuerza necesaria para ello. Hempel
denomina a este tipo de explicaciones “explicaciones probabilísticas” o “inductivo
estadístico” (IS). Existen también explicaciones deductivo estadísticas. Éstas se dan
cuando una ley estadística es explicada por (deriva de) otras leyes estadísticas más
generales.
Las diferencias básicas que las explicaciones I-S presentan con DN son dos: en primer
lugar, los enunciados legaliformes contenidos en el explanans son leyes probabilísticas
en vez de enunciados universales y, en segundo lugar, como consecuencia de ello, los
enunciados del explanans no implican deductivamente el explanandum, sino que lo
apoyan inductivamente. Este carácter inductivo de la explicación probabilística opera un
efecto importa sobre su capacidad para predecir eventos futuros. Una explicación de este
tipo se reduce a predecir un fenómeno dentro de los límites de una probabilidad dada, es
decir, efectúa, una “predicción racional”, pero no una predicción científica en sentido
técnico. Por eso, la no aparición del fenómeno predicho no conduce necesariamente al
rechazo de la ley. El esquema de una explicación probabilística sería como sigue:
P (G/F)=r
i es un caso de F
---------------------- r
i es un caso de G
El primer enunciado del explanans es la ley probabilística y significa que, en una serie de
recurrencias de F, la proporción de casos que han dado como resultado G es igual a r,
donde r es un número comprendido entre 0 y 1. Obsérvese que en este esquema la línea
que separa el explanans del explanandum es doble y lleva junto a ella el número r
encerrado entre corchetes. Ése es el modo de simbolizar que la relación entre ambos no
es deductiva, sino inductiva, y que el grado de probabilidad que los enunciados del
explanans presentan al explanandum es precisamente r. Es de suponer además que, para
que la explicación sea válida, r debe ser mayor de 0,5 y cuanto más cercano a 1 mejor.
Valga como ilustración este ejemplo:
La probabilidad de que sane un individuo que sufre una infección por estreptococo y es
tratado con penicilina es de 0’8.
Juan sufrió una infección por estreptococos y fue tratado con penicilina
---------------------------------------------------------------------------------------------------- 0’8
Juan Sanó
5
64
Hay una diferencia adicional entre las explicaciones IS y las DN que surge del carácter
probabilística de las primeras. Las explicaciones IS adolecen de cierta ambigüedad
epistémica que no se presenta en las explicaciones DN. Imaginemos, por seguir con el
ejemplo, que Juan sufrió una infección por una cepa de estreptococos resistentes a la
penicilina, o bien que Juan es un octogenario de corazón débil. En tales circunstancias, la
probabilidad de que un individuo sane si es tratado con penicilina es muy baja y, por
tanto, la probabilidad de que no sane si es tratado con penicilina es muy alta (0`8). De
ello resulta el siguiente razonamiento explicativo:
La probabilidad de que no sane un individuo que sufre infección por estreptococos
resistentes a la penicilina y es tratado con penicilina es de 0`8.
Juan sufrió una infección por estreptococos resistentes a la penincilina y fue tratado con
penicilina
----------------------------------------------------------------------------------------------------- 0`8
Juan no sanó
Lo paradójico en todo esto es que en ambos casos las premisas son aceptadas como
verdaderas y, sin embargo, dan como casi seguras conclusiones que son contradictorias.
Esto es algo que no podría ocurrir en la explicación DN. En un razonamiento deductivo
si las premisas se aceptan como verdaderas, la conclusión es también verdadera y su
negación falsa, y no cabe derivar este enunciado falso de otras premisas aceptadas a su
vez como verdaderas. En otras palabras, mientras que a partir de premisas que contengan
leyes estadísticas aceptadas como verdaderas es posible atribuir una alta probabilidad a
dos conclusiones contradictorias, no es posible deducir enunciados contradictorios a
partir de premisas verdaderas.
Expresándolo con más precisión, la ambigüedad epistémica de la explicación IS se basa
en el hecho de que en la lógica deductiva se pueden añadir nuevos términos al antecedente
de una implicación sin que ello perturbe su validez, pero no sucede lo mismo en la lógica
inductiva. Si A implica B, entonces la conjunción de A y C implica B. Pero por alta que
sea la probabilidad de B dado A, eso no tiene ninguna influencia sobre la probabilidad de
B dados A y C juntos.
6
65
Para solventar esta dificultad Hempel propone el requisito de la máxima especificación.
No es un requisito formal que deban cumplir las explicaciones IS, se trata más bien de un
requisito para su aplicación en una determinada situación cognitiva. Según dicho
requisito, “sería deseable que una explicación aceptable se basa en un enunciado de
probabilidad estadística perteneciente a la más restringida clase de referencia de la cual
sea miembro el hecho particular en consideración, según nuestra información total”. En
el ejemplo que nos ocupa, si además de saber que Juan sufrió una infección por
estreptococos, sabemos que la cepa que lo infectó es resistente a la penicilina, deberíamos
incluir esta información en los razonamientos explicativos en los que fuera relevante, ya
que hace que Juan pertenezca a una clase de referencia más restringida que la de los
simples infectados por estreptococos, y las generalizaciones estadísticas que se hagan
sobre esta clase restringida podrían ser diferentes de las que se hicieran sobre la clase más
amplia de los infectados comunes. Una vez aceptado este requisito estamos en
condiciones de rechazar el primero de los dos razonamientos explicativos sobre Juan por
no recoger toda la información relevante disponible. En las explicaciones DN el requisito
de la máxima especificación es satisfecho necesariamente, ya que están basados en leyes
universales del tipo “todo A es B” y si todo A es B, no puede haber un subconjunto de A
en el que la probabilidad de B sea distinta de 1. Toda la información relevante en una
explicación DN está incluida en las premisas.
En resumen la explicación IS ha de estar siempre referida a una situación cognitiva
concreta -es lo que Hempel llama “relatividad epistémica de la aplicación estadística”-
Mientras que en las explicaciones D-N el explanans implica el explanandum
independientemente de lo que sepamos en cada momento y su aceptabilidad depende sólo
de verdad de sus premisas.
No obstante, a pesar de las diferencias, la explicación IS conserva grandes similitudes con
la explicación DN. El rasgo más sobresaliente que comparten es el objetivo de subsumir
(Deductiva o inductivamente) u fenómeno bajo una ley (universal o prabilística),
cumpliendo siempre el requisito de la máxima especificación. Por esa razón ambos tipos
de explicación cabe bajo el apelativo de “modelo general de explicación por cobertura
legal”.
7
66
PUNTO 4: CRÍTICAS AL MODELO DE EXPLICACIÓN POR COBERTURA
LEGAL
El modelo que acabamos de exponer fue propuesto por sus defensores como un ideal
lógico mejor o peor encarnado por las explicaciones formuladas normalmente en la
ciencia. Sería vano esperar, de acuerdo con esto, que cualquier explicación científica
venga estructurada exactamente en las formas descritas. Hempel reconoce que es
frecuente encontrar explicaciones elípticas en las que se dan por supuestas ciertas leyes y
no se las menciona en el explanans e incluso explicaciones parciales o esbozos de
explicación, que se encuentran lejos de las explicaciones completas en cuanto a su rigor
y elaboración. Pero, en todos los casos, según Hempel, se presupone el carácter
subsumido del explanandum bajo una ley. Sin embargo, muchos críticos han puesto en
cuestión precisamente que todas las explicaciones científicas se basan explícita o
implícitamente en leyes generales bajo las que quepa subsumir al explanandum. Las
explicaciones de las ciencias humanas y en biología rara vez pueden acudir a dichas leyes,
incluso en forma de leyes estadísticas.
Entre las críticas que se han formulado contra el modelo de explicación por cobertura
legal, las más importantes son las que se centran en el primero de los requisitos que
Hempel exigía toda explicación: el requisito de la relevancia explicativa. Recordemos
que éste pedía que la información explicativa aducida proporcionara una buena ase para
creer que el fenómeno ha ocurrido u ocurrirá.
1. Para empezar, se ha negado que dar una buena ase para creer en la ocurrencia de
algo signifique siempre explicar ese algo. Este es particularmente claro en los
casos de asimetría explicativa, cuando tenemos dos enunciados equivalentes uno
de los cuales sirve para explicar el otro pero no al contrario. Usando un ejemplo
anterior, el tener una longitud de 1 metro explica porqué el periodo del péndulo
es de 2. Pero el tener un periodo de 2 segundos no explica por que el péndulo mide
un metro. Ahora bien, ambos enunciados proporcionan una buena base para creer
en el otro. Por consiguiente, tener un período de 2 segundos proporciona una
buena base para creer que la longitud del péndulo es de 1 metro, pero no “explica
esa longitud.
8
67
Como respuesta a esta crítica podría haberse notar que para Hempel el
requisito de la relevancia explicativa es una condición necesaria, pero no
suficiente, de la explicación científica. Él mismo cita un ejemplo para
mostrar cómo puede darse una buena base para creer algo sin que se esté
dando al mismo tiempo una explicación: el corrimiento hacia la parte roja
del espectro luminoso que experimenta la luz procedente de las galaxias
lejanas proporciona una buena base para creer que esas galaxias se alejan
velozmente de nosotros, pero no explica por qué se alejan. Sin embargo,
lo que Hempel no aclara es por qué e algunas ocasiones en las que
aportamos una buena base para creer que algo ha ocurrido un ocurrirá
estamos explicando y en otras ocasiones no lo estamos haciendo.
9
68
En cuanto a la objeción de Toumlin, Hempel intenta eliminarla
distinguiendo entre la historia de la evolución y la teoría de los
mecanismos subyacentes de la mutación y la selección natural. La historia
de la evolución es una narración hipotética que describe las etapas
evolutivas y, por lo tanto, no tiene un carácter explicativo. La teoría de la
selección natural, en cambo, sí lo tiene. Hempel considera que, si
dispusiéramos de los datos pertinentes, dicha teoría podría explicar, por
ejemplo, porqué desaparecieron los dinosaurios, aunque fuera de forma
probabilística, y eso significa que hubiéramos podido predecir su
desaparición proabilísticamete antes de que ésta se produjera.
3. Esta respuesta de Hempel no deja satisfecho a sus críticos. Como dice Van
Frassen, en ella se presupone que, al menos en el nivel macroscópico, vivimos en
un mundo determinista y que, descubriendo todos los factores que desconocemos,
tanto la paresia como la desaparición de los dinosaurios habrían podido ser
predichos con cierta seguridad. Pero existen casos en los que no cabe pensar que
haya una información más completa que nos permita hacer una predicción. La
vida media del Uranio U 238 es de 4’5 X 109 años. La proabilidad de que un trozo
pequeño de uranio emita radiación en un intervalo corto de tiempo es muy bajo.
Supongamos que la emite. Diríamos que ese hecho es explicado por la teoría
atómica, dado que el material era uranio y que, según la mencionada teoría, ese
material posee una determinada estructura atómica que hace posible la
desintegración espontánea. La física atómica está llena de ejemplos en términos
de la estructura. Otro ejemplo contra la tesis de la identidad estructural son los
comúnmente llamado “efecto mariposa”.
1
0
69
5. En la explicación DN aparece un problema similar en la medida en que también
en ella una información relevante puede proporcionar una buena base para creer
algo y no ser una explicación de ese algo. Salmon lo ilustra con otro ejemplo: Juan
evitó quedarse embarazado durante el año pasado porque estuvo tomando
regularmente las píldoras anticonceptivas de su esposa, y todo hombre que toma
píldoras anticonceptivas evita el embarazo. Aquí se cumplen todos los requisitos
de la explicación DN, incluido el de la relevancia, ya que el explanans está
formado por enunciados verdaderos que implican deductivamente el
explanandum proporcionado con ello una buena base para creer que el
explanandum ha sucedido. Pero la información aducida es realmente irrelevante,
porque Juan no se haría quedado embarazado de todas maneras. Salmon cree que
el requisito de la relevancia debería hacer honor a su nombre y exigir que el
explanans proporciona una base buena y relevante para el explanandum; es decir,
que incluya toda la información relevante y sólo información relevante para el
mismo. Precisamente, el modelo de explicación que él elabora intenta evitar este
tipo de problemas.
6. Una última crítica. Del ejemplo de la paresia citado por Scriven, se sigue que una
alta probabilidad no es condición necesaria para tener una explicación científica
legítima. Del ejemplo de la vitamina C citado por Salmon se sigue que una alta
probabilidad no es una condición suficiente para tener una explicación científica
legítima. La conclusión es obvia: una alta proababilidad del explanandum dado el
explanans no es una condición necesaria ni suficiente para la explicación
metafísica. Por ello, como a continuación veremos, Salmon sustituye este
requisito por el de la relevancia estadística.
1
1
70
PUNTO 4: EL MODELO DE LA RELEVANCIA ESTADÍSTICA
El modelo de la relevancia estadística (S-R) fue propuesto por Wesley C. Salmon como
intento de superar las deficiencias que el modelo de explicación por cobertura legal
presentaba en lo referente sobre todo a la explicación I-S. Aunque está muy ligado al
modelo de Hempel -también es un modelo de cobertura legal el que el explanans está
formado por leyes (estadísticas)- difiere de él en aspectos importantes. Ante todo, para
Salmon, la explicación no es (o no es siempre) un argumento, sino un conjunto de
enunciados, o más precisamente, un conjunto de factores metafísicamente relevantes. Se
establece que un factor C es estadísticamente relevante para un fenómeno B bajo las
circunstancias A si y sólo si la probabilidad de B dado A es distinta de la presencia de C
que en su ausencia:
P(B/AC)P(B/A)
Según el criterio de Hempel (B/AC) debía ser alta para que la explicación fuese válida.
Pero ejemplos como el de la paresia mostraban que este requisito era muy fuerte y que
con una probabilidad baja cabía también hablar de la explicación. El modelo de Salmon
recoge esta crítica al no exigir siquiera que la probabilidad de B dado A en presencia de
C sea mayor que la probabilidad de B dado A. Sólo exige que sea significativamente
distinta. Se comprende entonces por qué para Salmon las explicaciones no son
argumentos. Al abandonarse el requisito de la alta probabilidad, el explanans no permite
inferir, ni siquiera probablemente, que el suceso ocurrió y, por tanto, que el suceso debía
esperarse. Únicamente permite establecer “qué clase de expectativas habrían sido
razonables y bajo qué circunstancias debía esperarse”.
Que la probabilidad del suceso en presencia de un factor C es distinta que en su ausencia
quiere decir que o bien es mayor o bien es menor. Eso significa que habrá factores
positivamente relevantes y factores negativamente relevantes para el fenómeno, y que
ambos serán explicativos con el mismo derecho. No hay dificultad para entender por qué
los factores positivamente relevantes sirven para explicar un fenómeno. Por ejemplo,
fumar treinta cigarrillos diarios es positivamente relevante para sufrir un cáncer de
pulmón, luego en la explicación del cáncer de pulmón desarrollado por un individuo es
lógico que aparezca como el factor el hecho de que era un gran fumador. Pero resulta
complicado entender factor el hecho de que era un gran fumador.
Sin embargo, resulta complicado entender cómo los factores negativamente relevantes
pueden servir ara explicarlo. De nuevo, un ejemplo nos lo aclara. Supongamos que un
mal jugador de golf golpea una bola con el palo dándole una trayectoria desviada, pero,
por un feliz accidente, la bola rebota en una rama y se introduce inesperadamente en el
agujero. Sea A el golpe con el palo de golf, D el choque de la bola con la rama y E la
caída de la bola en el hoyo. Habitualmente, el caso se representaría así
P(E/A) > P(E/AD)
Es decir, la probabilidad de que, jugando al golf, una bola entra en el hoyo es mayor si no
golpea antes una rama que si la golpea. Por lo tanto, el golpe en la rama es negativamene
relevante para su introducción en el hoyo. Sin embargo, en estas circunstancias explica
por qué la bola, que llevaba una trayectoria desviada, entró en él.
1
2
71
1. Para el modelo de Salmon, la manera correcta de demandar una explicación de un
hecho no es mediante la pregunta “¿por qué ocurre que x es B?” sino más bien
mediante esta otra: “¿por qué x, que es un miembro de la clase A, es un miembro
de la clase B?”; y la respuesta adecuada sería: “x es también C, donde C es
relevante para B dado A”. Esto es, en lugar de preguntar “¿por qué x sanó?”,
siendo la respuesta “x fue tratado con penicilina y la penicilina hace saber a los
infectados por estreptococos”.
P(B/AC1) = P1
P(B/AC2) = P2
.
.
.
P(B/AC) = Pn
xCk(1 k n)
Para que la explicación sea válida debe cumplir además dos condiciones:
1
3
72
Aplicando ahora al ejemplo de la infección (¿por qué x, que sufrió una
infección por estreptococos, sanó?), y siendo
Entonces sería
P(B/AC1)=0’8
P(B/AC2)=0’4
xC1
Sean
P(B/AC1)=0’35
P(B/AC2)=0
xC2
1
4
73
Esta explicación muestra que, aunque padecer sífilis sin tratamiento no
autoriza para inferir que sufrirá de paresia, sin embargo, es un factor
relevante que explica que ésta aparezca. No importa tanto que se atribuya
al fenómeno una alta probabilidad como que se aporte información
relevante para su ocurrencia.
Sean
P(B/AC1)=0’99
P(B(AC2)=0’99
xC1
1
5
74
2. Ha habido varias objeciones al modelo de Salmon:
P(B/ACD) = P(B/AD)
1
6
75
Siguió reservando un papel para las relaciones estadísticas especificadas
en el modelo SR: constituyen la base metafísica para una explicación
científica. Pero pensaba ahora que “esa base ha de ser complementada por
ciertos factores causales para constituir una explicación científica
satisfactoria”. En el modelo mecánico/causal no basta, pues, con mostrar
los factores estadísticamente relevantes para la producción del fenómeno;
las relaciones estadísticas entre observables tienen por sí solas poca o
ninguna fuerza explicativa. Es necesario mostrar además que esos factores
son relevantes en virtud de ciertas relaciones causales que mantienen con
el fenómeno. La significación explicativa de las relaciones de relevancia
estadística sería indirecta; residiría en el hecho de que constituyen una
evidencia en favor de las relaciones causales escribe Salmon:
1
7
76
Por lo tanto, para la concepción óntica no es suficiente subsumir el fenómeno bajo
una serie de regularidades. Y no es suficiente porque no todas las regularidades
tienen poder explicativo. Antes de Newton los marinos sabían que las mareas
están relacionadas con la posición y las fases de la luna, pero esa regularidad
conocida no tenía capacidad para explicar nada; más bien al contrario, era ella la
que demandaba una explicación, y fue la ley de la gravitación de Newton la que
la proporcionó.
Así, hay regularidades legaliformes con poder explicativo y toras que necesitan
ser explicadas. Es más, hay regularidades que son seudoprocesos y regularidades
que son procesos causales. Los seudoprocesos no pueden explicar nada porque
son parasitarios de los procesos causales y son explicados por éstos. Sólo los
procesos causales explican. La diferencia entre ambos está en que los procesos
causales son capaces de transmitir señales (y, por tanto, son capaces de transmitir
energía, información e influencia causal), mientras que los seudoprocesos no lo
son. También se puede decir que los procesos causales transmiten su propia
estructura y que los seudoprocesos no la transmiten. Un coche circulando por la
carretera en un día soleado es un proceso causal; la circulación de su sombra es
un pseudo-proceso. Si el coche colisiona con un muro, llevará las señales de la
eclosión después de que ésta haya ocurrido. En cambio, si su sombra colisiona
con el muro, se deformará momentáneamente, pero recuperará la forma después.
1
8
77
Con ello Salmon da por caracterizados los dos conceptos causales básicos: el de
producción y el de propagación. Hay que puntualizar que con posterioridad
Salmon ha renunciado también a explicar el concepto de causalidad en términos
de transmisión de señales, si bien considera que dicha caracterización puede ser
útil para descubrir procesos causales.
5. Una de las críticas iniciales que recibió el modelo mecánico/causal la realizó Van
Frassen. En una explicación causal, sostiene este autor, no es necesario mencionar
todos los factores estadísticamente relevantes que de una u otra manera forma
parte de la red causal, sino sólo aquellos que son importantes o destacados
(salient), y es a estos a los que llamamos comúnmente la causa del fenómeno. Para
explicar la extensión del alce irlandés, hay una gran cantidad de factores
estadísticamente relevantes, que habrían posibilitado su supervivencia si hubieran
sido distintos, y que, sin embargo, no incluimos en la explicación. Basta con decir
que el proceso de selección sexual favoreció a los machos de grandes cuernas y
que esas cuernas fueron un obstáculo para la supervivencia en el entorno que el
alce ocupaba. Los otros factores citados no son causas espurias ni son “apartados”
por el desarrollo de las grandes cuernas; contribuyeron igualmente a la extinción
del alce, pero no son los factores más destacados.
Ahora bien, ¿cómo saber en cada caso cuáles son los factores destacados que hay
que tener en cuenta para elaborar una explicación? Según Van Frassen, sólo el
contexto nos lo puede decir. Un factor causal es destacado para una persona
dependiendo de su orientación, de sus intereses, etc… No hay un criterio objetivo
para determinar la importancia de un factor causal. Dicha importancia posee una
índole pragmática y contextual. Para apoyar esta tesis, Van Fraasen recurre a un
ejemplo de NR Hanson:
La conclusión que saca Van Fraasen es que los factores explicativos han de ser
elegidos entre une lenco de factores objetivamente relevantes, y que esa elección
viene condicionada por otros factores que dependen del contexto en la explicación
que Salmon no tiene en cuenta, aunque eso no quita para que su modelo tenga
validez en algunos tipos de explicación.
1
9
78
La réplica de Salmon es que malinterpreta realmente la cuestión. Salmon cree
encontrar una respuesta al ejemplo de Hanson diciendo que el médico y el
abogado eligen una clase inicial de inferencia distinta (el médico y el abogado
eligen a los seres humanos, el constructor a los carruajes, el urbanista al mobiliario
urbano), y eso le lleva a una diferente partición del explanandum. Pero considera
que la explicación que todos buscan es la misma, en el sentido de que todos buscan
el mismo conjunto de factores metafísicamente relevantes. Admite que cada uno
está interesado en un determinado factor relevante particular no significa que
ambos estén buscando o encontrado diferentes explicaciones del mismo hecho”.
En cuanto al ejemplo del alce, Salmon lo explica recordando que no todos los
antecedentes son relevantes. Para explicar por qué alguien que duerme se
despierta aduciremos el sonido del despertador, pero no que antes se había ido a
dormir. “la moraleja es simple-escribe-las condiciones necesarias antecedentes
que son relevantes tienen importancia explicativa, si no han sido apartadas; las
condiciones antecedentes irrelevantes no la tienen”.
Sin embargo, lo que Van Fraasen afirma no es que haya condiciones antecedentes
irrelevantes que puedan ser “apartadas” (está claro que las hay), sino que hay
condiciones relevantes, no “apartadas”, que no son usadas en la explicación. No
está decidiendo que el médico, el bogado, el constructor y el urbanista no pueden
ponerse de acuerdo en el conjunto de factores metafísicamente relevantes, no
“apartadas”, que no son usadas en la explicación. No está diciendo que el médico,
el abogado, el constructor y el urbanista no pueden ponerse de acuerdo en el
conjunto de factores metafísicamente relevantes; está diciendo que, en función de
contexto, sólo eligen algunos de ellos para su explicación y que lo que signifique
“A es causa de B” varía en cada situación en la que se pronuncia el enunciado. A
eso, Salmon no da respuesta. Se limita a reconocer la importancia de esos factores
pragmáticos, para la identificación de las cuestiones sobre las que interroga la
explicación, pero añade que “obviamente de todo ello no se sigue que (…) la
explicación misma tenga que encarnar rasgos pragmáticos”.
2
0
79
Contra los modelos que, como el de Salmon, interpretan la explicación científica de un
fenómeno como una elucidación de sus causas se ha aducido también que hay
explicaciones legítimas que no recurren a las causas. Y esto no sólo en las ciencias
formales como la matemática, sino también en las naturales. Philip Kitcher ofrece el
siguiente ejemplo, que adopta de Elliot Sober: supongamos que descubrimos que la
proporción de nacimientos en una ciudad durante un siglo ha sido 1’04 varones por cada
mujer. Podría quizás intentarse una explicación causal de este fenómeno acudiendo a
numerosos detalles de la producción de óvulos y espermatozoides, así como a
característica de todo el proceso reproductivo; pero una explicación científica más
adecuada de ducha proporción se basaría más bien en el hecho de que, por presiones
evolutivas, nuestra especie, como muchas otras, mantiene una proporción 1:1 de
individuos de cada sexo en edad reproductiva, siendo necesario el pequeño exceso de
nacimientos de varones para compensar la mayor tasa de mortalidad en niños que en niñas
hasta llegar ala edad reproductiva. Este hecho, sin embargo, no recoge los mecanismos
causales que producen la mencionada diferencia en el número de nacimientos.
2
1
80
1. Marcando distancias con los modelos anteriores, Van Frassen sostiene que una
explicación no es un argumento (como en el modelo de cobertura legal), ni un
conjunto de enunciados (como en el modelo SR) sino una contestación a la
pregunta por qué.
Las preguntas por qué, expresadas por una interrogación en un contexto dado,
vienen determinadas por tres factores:
[X=(Py…Pk…)]
Así pues, una pregunta por-qué Q puede ser caracterizado por el triplo
Q = <Pk, X, R>
2
2
81
Imaginemos que se pregunta ¿por qué se ha muerto Juan?
O, abreviadamente:
Porque A
2. Pero, como hemos dicho, no basta con dar una respuesta relevante para contestar
satisfactoriamente a una pregunta. ¿Cómo evaluar entonces i una respuesta es
buena contestación a una pregunta? Toda pregunta surge en un contexto en el que
hay un cuerpo K de teorías aceptadas e información fáctica. Ese contexto
determina si es posible o no plantear la pregunta e incluso qué es lo que se
pregunta.
2
3
82
Preguntas que surgen en un contexto puede carecer de sentido en otro contexto
diferente: la pregunta acerca de por qué sigue la flecha moviéndose después de
ser disparada pierde sentido con el paso de la física aristotélica a la física
newtoniana. La evaluación de las respuestas ha de hacerse, por consiguiente, a luz
del contexto K. Hay al menos tres maneras de evaluar la contestación “porque A”
en el contexto K
3. Toda esta caracterización vale, según Van Fraassen, tanto para las explicaciones
como para las no científicas. ¿Qué hace entonces que consideramos como
científica a una determinada explicación? Sencillamente que las teorías en las que
se basa para obtener información son teorías científicas y que la evaluación de la
explicación se fundamenta igualmente en teorías científicas. En definitiva, una
explicación es científica porque se da en el contexto de la ciencia.
El error de los modelos anteriores está, según Van Fraassen, en haber concebido
la explicación como una relación diádica entre teoría y hechos, cuando en realidad
es una relación triádica entre teoría, hechos y contexto. Una explicación es una
respuesta a una pegunta por qué y debe ser evaluada en función de la información
que la pregunta demanda. Pero esta información solicitada varía con el contexto.
Decir que una teoría explica un hecho es una manera resumida de decir que “hay
una proposición que es una contestación eficaz, relativa a esa teoría, a la demanda
de información sobre ciertos hechos que cuentan como relevantes para esa
cuestión, y que comporta una comparación entre el hecho que ocurrió y otras
alternativas que no ocurrieron”.
2
4
83
4. El modelo de Van Frassen permite superar las dificultades de las dos anteriores,
pero también tiene sus propios problemas.
Todo ello valía tanto para explicar por qué una determinada flor es roja
como para explicar por qué es blanca. Sin embargo, con los criterios de
Van Fraassen, el color rojo es favorecido en el contexto K, por lo que sólo
podríamos explicar por qué la flor es roja y no de otro color. Se trata, como
vemos, de una objeción similar a la hecha anteriormente contra la tesis de
que sólo las probabilidades altas tienen poder explicativo.
Por otro lado, Salmon rechaza como errónea la idea que él mismo
compartiera anteriormente de que toda demanda de una explicación puede
ser dirimida como una pregunta por qué. Diversos autores habían ya
señalado que determinadas explicaciones científicas responden más bien
a preguntas cómo es posible, o a preguntas sobre como fue en realidad.
2
5
84
En mi opinión, sin embargo, esta objeción de Salmon puede ser contestada
desde los supuestos con los que se valúa toda respuesta dentro del modelo
teorético. Basta con señalar que, dado el contexto cognoscitivo en el que
nos movemos en la actualidad, los tres aspectos que se incluyen en el tercer
criterio de evaluación de la cita de Van Frassen que hemos hecho más
arriba descartarían sin lugar a dudas la respuesta A de este ejemplo. No
obstante, tiene razón Salmon al afirmar que éste no aclara en que consiste
una relación de relevancia satisfactoria.
2
6
85
PUNTO 6: LA EXPLICACIÓN COMO UNIFICACIÓN
Una propuesta que ha despertado gran interés en las últimas décadas consiste en tender la
explicación científica como la unificación o sistematización de los fenómenos bajo unos
principios teóricos comunes. La idea está ya en Friedman, pero nos limitaremos aquí a la
versión de Philip Kitcher. Según la concepción unificacioncitsa, una explicación
científica ha de aumentar nuestra comprensión del mundo. Por ello, para contar con una
buena explicación de un fenómeno no es suficiente con inferirlo de una serie de premisas
que incluyan ciertas generalizaciones, sino que estas premisas deben permitir unificar
otros fenómenos bajo los mismos supuestos teóricos. Es decir, el mismo patrón
argumentativo debe servir para subsumir diferentes enunciados aceptados acerca de
diversos fenómenos. Esto significa que deben evaluarse grupos de explicaciones en lugar
de explicaciones aisladas: “captar el concepto de explicación es ver que, si se acepta un
argumento como explicativo, se está obligado a aceptar como explicativos otros
argumentos que ejemplifican el mismo patrón”. Este es, hecho, el modo en que progresa
la ciencia: la ciencia hace avanzar nuestra comprensión de la naturaleza mostrando cómo
hemos de derivar descripciones de muchos fenómenos mediante el uso repetido de los
mismos patrones de derivación, y al mostrar esto, nos enseña cómo reducir el número de
tipos de hechos que hemos de aceptar como últimos (o brutos).
1. Los patrones argumentativos que mejora unifican el conjunto de enunciados
asumidos en una ciencia en un momento dado son denominados por Kitcher la
“reserva” explicativa (explanatory store) de esa ciencia. Un argumento sólo es
aceptable como explicación si el patrón argumentativo que sigue forma parte de
esta reserva explicativa, esto es, si forma parte de un conjunto de inferencias que
son las que mejor unifican una serie de enunciados admitidos por la comunidad
científica. La cuestión central, por tanto, para una teoría de la explicación es
determinar qué condiciones debe cumplir dicha “reserva” explicativa. Y la idea
central que hay tras la respuesta de Kitcher a esta cuestión se resume del siguiente
modo: “la reserva” explicativa acerca de un determinado conjunto de enunciados
admitidos proporciona la mejor unificación de los mismos en la medida en que
consigue minimizar el número de patrones argumentativos empleados y
maximizar el número de conclusiones obtenidas.
Así, por ejemplo, el programa newtoniano tuvo una enorme capacidad unificadora
en la media en que mostró que un mismo patrón de argumentos que incluía lees
acerca de fuerzas actuando sobre corpúsculos materiales permitía derivar un
amplio elenco de enunciados aceptados. Del mismo modo, el darwinismo permitió
unificar numerosos fenómenos biológicos bajo un mismo patrón argumentativo:
la posesión de un rasgo complejo por parte de una especie queda explicada si se
muestra cómo ese rasgo proporciona una ventaja adaptativa a dicha especie.
2
7
86
2. Como ilustración de lo que Kitcher entiende por patrón explicativo podemos citar
el caso que él mismo ofrece de la explicación por parte de Dalton del hecho que
las reacciones químicas se producen de manera que los compuestos químicos
siempre mantienen una proporción constante en los pesos de los componentes
(hecho que conocemos como “ley de las proporciones constates o definidas”):
Respuesta:
Una serie de “enunciados esquemáticos” (en este caso (1), (2) y (3)), que
son enunciados en los que algunos términos no lógicos han sido sustituidos
por variables.
2
8
87
3. Hay algunas cuestiones a destacar en este punto:
En primer lugar, Kitcher afirma que este modo de respetar una explicación
científica evita el problema de como caracterizar las leyes científicas, que
tatas dificultades generó dentro del modelo de cobertura legal.
Sencillamente se asume que las premisas universales aceptadas como
premisas en las diversas ejemplificaciones de estos patrones
argumentativos deben ser consideradas como leyes científicas, aun cuando
se trata en muchas ocasiones de “mini-leyes”. En este caso, deberíamos
considerar como una “mini-ley” científica (que ejemplificaría la premisa
2) el que el carbono y el oxígeno se pueden combinar en una proporción
3:8. No entraremos aquí en si realmente Kitcher puede esquivar la
distinción entre leyes científicas y generalizaciones accidentales.
Ciertamente no todos los comentaristas creen que lo consigue.
2
9
88
4. Una posible objeción a Kitcher se es que al preferir patrones argumentativos
unificadores sobre aquellos que no lo son estamos presuponiendo que el mundo
está causalmente estructurado u ordenado, que no es un “revoltijo”, y que por eso
los patrones argumentativos unificadores son más explicativos. Ahora bien, este
presupuesto exige una justificación que no se da. Por tanto, el modelo
unifcacionista está lastrado con una carga metafísica que no todos querrán llevar
sobre sus espaldas. Kitcher responden a esta objeción poniendo de relieve que ella
también parte de un presupuesto discutible: que el orden causal de la naturaleza
es independiente de nuestra sistematización teórica de la misma. El rechaza de
plano este presupuesto. No hay un orden causal independiente que haya de ser
captado por nuestras explicaciones. Al contrario, “las nociones causales se derivan
de las nociones explicativas”. De acuerdo con esto, podemos decir que “las
explicaciones correctas son aquellos argumentos que aparecerán en la reserva
explicativa en el límite del desarrollo racional de la práctica científica”.
3
0
89
TEMA 4: CAMBIO CIENTÍFICO I.
FALSACIONISMO E INCOMENSURABILIDAD
ENTRE TEORÍAS
PUNTO 1: INTRODUCCIÓN
La ciencia progresa con una gran rapidez. El progreso rápido se ha convertido incluso en
uno de los rasgos distintivos de la ciencia. Este progreso tiene su manifestación más
notable para el gran público en el despliegue impresionante de la tecnología
contemporánea. Pero el aspecto más relevante desde el punto de vista epistemológico es
el del cambio de teorías. Popper pensaba que dar cuenta de este progreso era el problema
fundamental de la epistemología. Una cuestión que ha interesado particularmente a los
filósofos de la ciencia en este punto ha sido la de decidir si el cambio de teorías en la
ciencia se debe exclusivamente a factores racionales, como la argumentación lógica y la
apelación a la evidencia experimental, o por el contrario los factores “irracionales”, tales
como los intereses sociales y personales, o los factores económicos y políticos son, al
menos parcialmente, los motores del cambio de teorías en la ciencia. También se ha
discutido si este cambio es gradual y evolutivo o abrupto y revolucionario.
Asimismo, un problema que lleva camino de convertirse él solo en una industria editorial
en el de si las teorías científicas son o no inconmensurables. Los defensores de la tesis de
la inconmensurabilidad, como Kuhn y Feyerabend, mantienen que no existen criterios
objetivos y neutrales para comparar teorías científicas rivales. Esta cuestión está
estrechamente relacionada con la de la racionalidad del cambio, pues si las teorías
científicas rivales son inconmensurables, los factores puramente racionales o relativos al
contenido de las teorías no serán suficientes para determinar el abandono de una teoría y
la aceptación de la otra.
Tanto la visión neopositivista del progreso científico como la popperiana fueron
racionalistas en el sentido indicado. El cambio de teorías se efectúa en función de los
dictados de la evidencia experimental, que se considera neutral y objetiva. Los científicos
adoptan la teoría mejor a la luz de la dicha evidencia, y esta elección puede ser justificada
acudiendo sólo a la argumentación lógica. Comenzaremos exponiendo estos dos modelos
para pasar a continuación al desafío que para ambos supuso la nueva imagen de la ciencia
elaborada por Kuhn y Feyerabend.
1
90
PUNTO 1: LA VISIÓN NEOPOSITIVISTA DEL CAMBIO CIENTÍFICO
Hemos expuesto ya algunos de los tópicos centrales que caracterizaron la visión
neopositivista de la ciencia, particularmente las tesis de Carnap sobre confirmabilidad de
los enunciados científicos y el modelo de explicación de Hempel. El cuadro quedaría
incompleto si no incluyéramos en él las ideas de Nagel sobre la reducción de teorías. Si
en los dos primeros casos nos situamos en una visión estática de la ciencia, en este último
el punto de vista es el dinámico. Se trata del modo en que, según el neopsitivismo, se
desarrolla la ciencia y unas teorías se incorporan en otras.
Para los neopositivistas la ciencia sigue un proceso acumulativo de desarrollo en el que
las teorías, una vez confirmadas en grado suficiente, van quedando como sedimento
permanente sobre el que se edifican otras teorías posteriores. En una ciencia madura, una
teoría nueva no sustituye sin más a la anterior, sino que conserva lo que hay de verdad en
ella, perfeccionándola, enriqueciéndola o extendiéndola. La teoría especial de la
relatividad no elimina o invalida a la mecánica newtoniana, al contrario, la complemente
y la conserva como caso particular en situaciones en las que las velocidades son muy
bajas comparadas con la velocidad de la luz. Recordemos que, para el neopositivismo, a
medida que las teorías van teniendo en su haber más predicciones exitosas, van
alcanzando un mayor grado de confirmación, de modo que la probabilidad de que sea
verdadera en función de la evidencia disponible es cada vez más alta, siendo
consecuentemente cada vez menor la probabilidad de que sea encontrada alguna vez
como falsa. Esto implica que no hay propiamente cambio científico si por tal se entiende
la sustitución de una teoría bien confirmada por otra que la contradice.
Ahora bien, parece fácil señalar los casos históricos (como el cambio del sistema
ptolemaico al copernicano) en los que una teoría fue sustituida por otra rival que explicaba
mejor los fenómenos y que chocaba frontalmente con la teoría previamente aceptada
¿Cómo se explica esto? La respuesta del neopositivista es simple: sólo en los estadios
iniciales de una ciencia, o en los primeros momentos en los que una teoría es propuesta,
cuando no pasa de ser una mera tentativa, puede ocurrir esta situación radical, que lleve
aparejada una auténtica ruptura con la explicación de los fenómenos que proporcionaba
la teoría que es sustituida. La teoría que afirmaba que la Tierra era el centro en trono al
cual giraban el Sol y todos los planetas no puede ser confirmada jamás. Si fue aceptada
por los científicos y filósofos de la Antigüedad porque la ciencia se encontraba entonces
en una etapa muy primitiva del su desarrollo y se aceptaban teorías sin ser
convenientemente confirmadas. Su aceptación fue, pues, un error temporal fruto de una
fase inmadurez. En cambio, es muy improbable, y a efectos prácticos casi imposible, que
las teorías bien confirmadas propias de las ciencias más desarrolladas se vean
posteriormente refutadas en el ámbito de los fenómenos para los que fueron inicialmente
formuladas.
2
91
Un caso distinto es cuando una teoría ampliamente confirmada es extendida a ámbitos
nuevos de fenómenos, alejados del ámbito para el que fue inicialmente propuesta, y
fracasa en sus nuevas predicciones. Pero entonces un ámbito nuevo de fenómenos, la
teoría debe introducir nuevas reglas de correspondencia que pongan en conexión los
principios teóricos con la nueva base observacional. Pero, de acuerdo con la concepción
neopositivista de las teorías (que las identifica con la conjugación de los principios
teóricos si interpretar y un determinado conjunto de reglas de correspondencia), cambiar
éstas es tanto como cambiar la teoría. Por lo tanto, los fallos predictivos en el nuevo
ámbito de fenómenos no desconfirman a la teoría inicial, sino a una nueva teoría
relacionada con ella.
Este proceso acumulativo de mejoramiento de teorías fue entendido por los
neopositivistas principalmente como un proceso de reducción de teorías, es decir, como
un proceso de integración de teorías en otras más amplias que las incluyen como casos
límite. Corresponde a Ernest Nagel el mérito de haber desarrollado inicialmente este
concepto. Una teoría queda reducida a otra cuando se puede mostrar que es consecuencia
lógica de ella. Según Nagel, esta reducción puede darse de dos modos. Lo que diferencia
a uno de otro es que el primero consiste en una extensión de una teoría dentro de un
mismo dominio de fenómenos mientras que en el segundo consiste en la incorporación
de una teoría en otra más amplia aplicable inicialmente a otro dominio de fenómenos.
1. Es así como Nagel caracteriza al primero:
Una teoría puede formularse inicialmente para un tipo de fenómenos presentados
por una clase de cuerpos restringida de algún modo, aunque posteriormente la
teoría puede extenderse hasta cubrir también estos fenómenos cuando son
manifestados por una clase más amplia de cosas
3
92
Como ejemplo de este tipo de reducción, que puede ser visualizado intuitivamente
en la imagen, Nagel cita el caso de la mecánica clásica de partículas y la mecánica
del sólido rígido. La mecánica de partículas fue desarrollada para explicar el
movimiento de masas puntales, sin considerar las dimensiones de los cuerpos. Sin
embargo, con el tiempo hubo que considerar también los movimientos especiales
debidos a la dimensión de los cuerpos, como la rotación. La mecánica del sólido
rígido se convirtió así en una extensión de la mecánica clásica de partículas y, en
tal sentido, la mecánica clásica de partículas se redujo a la mecánica del sólido
rígido
También puede valer como ejemplo de este tipo de reducción, según Nagel, la
absorción de las leyes de Galileo sobre la caída libre por parte de las teorías de
Newton, que acaba tanto los movimientos terrestres como los celestes. Este es un
caso del primer tipo de reducción porque, aunque en principio los movimientos
de los cuerpos celestes se consideran fenómenos de naturaleza diferente, hasta el
punto de que su estudio se atribuía a disciplinas distintos, no se precisan en
realidad conceptos distintos para explicarlos. En concreto, la caída de una piedra
desde cierta altura y el movimiento de la Luna en torno a la Tierra son ejemplos
de movimientos gravitatorios debidos a la masa de la Tierra.
4
93
2. El segundo caso de reducción sí ofrece este tipo de dificultades. En este segundo
caso, la teoría reductoria y la teoría reducida fueron formuladas en un primer
momento para abarcar dominios culitativamente distintos de fenómenos. Debido
a ello, el vocabulario de ambas teorías puede ser muy distante; algunos de los
términos de una pueden ser peculiares y estar ausentes en la otra. Esto obliga a
realizar algún tipo de conexión o traducción entre los términos de una y otra teoría.
Una conexión que frecuentemente resulta sorprendente e inesperada. Nagel afirma
que el primer tipo de reducción puede ser considerado como un caso especial de
este segundo tipo. En las dos modalidades una teoría queda reducida o
incorporada a otra, sin embargo, en el segundo caso los vocabularios de ambas ya
no son homogéneos debido a que los fenómenos a los que se aplicaron
inicialmente eran distintos. Podríamos representar esta reducción del modo en que
se esquematiza en la imagen
El ejemplo que Nagel cita como ilustración de este segundo tipo de reducción es
la incorporación de la termodinámica a la mecánica estadística. La termodinámica
es la teoría que estudia las relaciones entre el calor y el trabajo en los sistemas
físicos. La mecánica estadística, basándose en el hecho de que el número de
moléculas de un sistema es muy grande, predice el comportamiento de las
propiedades macroscópicas del sistema en función del comportamiento
estadístico de las moléculas que lo componen. La termodinámica emplea en su
vocabulario términos que son comunes también en la mecánica, como “volumen”,
“peso” y “presión”, pero posee términos propios que no son usados en la
mecánica, como “temperatura”, “calor” o “entropía”. Durante el siglo XIX, los
trabajos de James Clerk Maxwell y Ludwig Boltzmannn mostraron que la ley de
Boyle-Charles, una ley termodinámica que ponen conexión la presión, el volumen
y la temperatura de un gas (en concreto, la ley se formula así: Pv=kT, donde p es
la presión, V el volumen, T la temperatura y k una constante), podía ser derivada
a partir de supuestos mecánicos acerca del comportamiento de las moléculas de
los gases ideales. Como apunta Nagel, un paso fundamental en este proceso de
reducción fue la interpretación realizada por Boltzmann en 1877 del segundo
principio de termodinámica en términos del comportamiento estadístico de las
5
94
moléculas. Unos años ates, en 1867, Maxwell había ya sugerido que el segundo
principio de la termodinámica debía interpretarse como una ley estadística que
describía el comportamiento de un gran número de moléculas, pero no desarrolló
una formulación precisa del mismo en función de esta idea. Fue Boltzmann quien
lo hizo. Mostró que la entropía de un sistema es proporcional a logaritmo de
número posible de distribuciones moleculares correspondiente a un estado de ese
sistema (S= k log W). El segundo principio de la termodinámico quedaba reducido
con esto a conceptos puramente mecánicos.
Como venimos diciendo, en este segundo tipo de reducción, las leyes de una teoría
contienen términos que no aparecen en las leyes de la ora. Esto hace que la
derivación lógica de una de ellas a partir de la otra no se puede llevar a cabo sin
más.
Para poder afirmar que cabe la reducción en tal caso deben cumplirse,
entre otras, dos condiciones formales adicionales:
6
95
PUNTO 4: EL CAMBIO CIENTÍFICO SEGÚN KARL POPPER
El modelo de cambio científico que propone el neopositivismo es un modelo racionalista,
en el sentido peculiar de que atribuye a la ciencia una finalidad bien definida y justificable
(el libro de teorías bien confirmadas cada vez más amplias) y considera que hay
procedimientos racionales, como puede ser la lógica inductiva, para determinar en qué
medida se alcanza este objetivo. Además, es un modelo racionalista en el sentido de que
los únicos factores que se tienen en cuenta para la evaluación de las teorías son factores
internos, es decir, factores que atañen sólo al contenido de las teorías y su relación con la
evidencia empírica. Estos factores son básicamente el apoyo inductivo que tenga la teoría
en los fatos observacionales y su capacidad para reducir algunas teorías anteriores. El
modelo de cambio científico propuesto por Karl Popper, aunque muy diferente de éste,
es también un modelo racionalista. Él mismo calificaba su filosofía de “racionalismo
crítico”.
1. Popper cree que tanto el racionalismo clásico como el empirismo están
equivocados, aunque él mismo se considera una mezcla de ambas. En todo caso,
el error está en no distinguir entre el problema del origen del conocimiento y el
problema de su validez. La pregunta de la que parten es, según Popper, más o
menos ésta: ¿cuáles son las mejores fuentes de nuestro conocimiento, las más
fiables, las que no nos conducirán al error, aquéllas a las que podemos y debemos
volver como último tribunal de apelación?” Como es sabido, el racionalismo
contesta a esta pregunta propugnando como fuente de conocimiento a la razón,
mientras que el empirismo contesta con la experiencia. Popper piensa, sin
embargo, que no existen fuentes ideales de conocimiento, del mismo modo que
no existen gobernantes ideales, y que todas las fuentes pueden llevarnos al error.
Por eso propone reemplazar la pregunta anterior por otra diferente: “¿Cómo
podemos confiar en detectar y eliminar el error?”. Su filosofía de la ciencia, y su
epistemología en general, puede ser considerada como un intento contestar a esa
pregunta. El racionalismo crítico se resume justamente en la tesis de que lo que
importa no es justificar o fundamentar nuestro conocimiento en unas fuentes
seguras y últimas, sino examinarlo críticamente para eliminar el error lo antes
posible.
Popper se veía a sí mismo como racionalista en la medida en que pensaba que las
teorías son producidas activamente por nuestra mente en un proceso creativo, y
no las recibimos pasivamente a través de la experiencia. La experiencia, por sí
sola, no puede proporcionar todos los elementos necesarios para formular una
teoría explicativa y general. Cualquier teoría trasciende lo que puede ser obtenido
mediante la experiencia. También era un racionalista porque pensaba que la razón
era el instrumental fundamental para el avance de los conocimientos mediante la
crítica severa de nuestras teorías. Pero Popper combina estos aspectos en el
principio del racionalismo crítico. Este principio exige que “nuestra aceptación o
rechazo de teorías científicas dependan de nuestro racionamiento crítico
(combinando con los resultados de la observación y el experimento)”.
7
96
De acuerdo con todo ello, Popper elaboró una teoría del cambo científico que
difería en puntos sustanciales de la neopositivista. Rechazó de plano la concepción
acumulativa del progreso científico que ésta implicaba. La ciencia no avanza
porque vaya edificando unas teorías sobre otras, en un proceso de extensión o de
incorporación en el que siempre se descansa sobre un sedimento permanente. La
ciencia avanza porque las viejas teorías van quedando falsadas y son sustituidas
por otras que las contradicen en muchos puntos. La mecánica newtoniana quedó
falsada en su momento y fue reemplazada por otra teoría, la mecánica relativista,
que hace afirmaciones sobre el mundo incompatibles con la primera.
2. Cuantas más pruebas y más rigurosas pase una teoría, más aumenta su grado de
corroboración. El grado de corroboración es un informe evaluativo del
rendimiento pasado de una teoría, y no dice nada sobre su rendimiento futuro. No
indica que la teoría sea más probable (de hecho, toda hipótesis universal tiene
siempre, según Popper, una probabilidad lógica igual a cero), ni nos permite estar
más seguros de que la teoría seguirá pasando con éxito los intentos de falsación.
Una teoría con un alto grado de corroboración puede resultar falsada en la
siguiente ocasión en que sea sometida a prueba. En resumen: el grado de
corroboración no tiene un carácter inductivo.
8
97
Ahora bien, entre dos teorías con diferente grado de corroboración debemos
preferir el que tenga el grado de corroboración más alto. Algunos críticos han
señalado que, si nos negamos a aceptar el paso inductivo que val del hecho de que
una teoría ha pasado con éxito intentos severos de falsación a la esperanza de que
seguirá pasándolos con éxito durante un cierto tiempo, las razones por las que un
alto grado de corroboración es algo valioso se desvanecen.
P1-->TT-->EE-->P2
Otra cosa es que en ocasiones la obtención de datos que chocan con las
expectativas formadas a partir de las teorías aceptadas pueda ser el
desencadénate de un nuevo problema. Como solución al problema inicial
se propone una teoría tentativa (TT), o sea, una suposición o conjetura que
intente responder a los interrogantes planteados. O, más exactamente, lo
habitual es que se propongan muchas y que éstas compitan entre sí.
9
98
4. Con este modelo de cambio científico basado en el ensayo y eliminación del error
Popper proporciona una respuesta distinta a la de los neopositivistas a la cuestión
de los criterios según los cuales se valúan las teorías científicas. Ya no estamos
ante un proceso inductivo en el que las teorías quedan justificados en función del
apoyo que les proporciona evidencia empírica. Lo que encontramos es una dura
competición entre teorías rivales, y los científicos eligen la que sale mejor parada
de la competición. Es un proceso análogo al de la selección natural en las especies
vivas. Sólo sobreviven las más aptas, lo que para Popper significa que aquellas
que son las más falsables y han resistido las contrastaciones más rigurosas. No
hay reducción de una teoría a otra. Lo que hay es la lucha darwiniana en la cual
sólo sobrevive la mejor teoría en cada momento.
El progreso científico será más rápido cuantas más teorías entre en competición y
más dura sea ésta. Depende, pues, de que proliferen las teorías rivales. Hay que
buscar siempre respuestas alternativas a los problemas y evitar que alguna teoría
establezca un monopolio que frenaría el progreso. Ésta es precisamente la base de
la discrepancia entre Popper y Kuhn acerca de los períodos de ciencia normal,
como aclararemos después. No obstante, para que haya progreso es también
necesaria una cierta dosis de dogmatismo, es decir, una cierta defensa de las
teorías frente a los intentos de falsarla. Hay que darles a las teorías, especialmente
a las nuevas, la oportunidad de mostrar todo su potencial: “si cedemos demasiado
fácilmente a la crítica, unca descubriremos dónde está la verdadera fuerza de
nuestras teorías”. Digamos de pasada que el reconocimiento de esto por parte de
Popper pone de nuevo en evidencia los problemas de la falsabilidad para cumplir
con su función como criterio de demarcación. ¿Cómo distinguir el dogmatismo
aceptable (y científico) del inaceptable (y seudocientífico)?
1
0
99
Queda claro entonces que para Popper el progreso científico nada tiene que ver
con una acumulación de teorías confirmadas. Ahora bien, su modelo retiene algo
del modelo del progreso neopositivista: la nueva teoría debe poder explicar
aquellas cosas que explicaba con éxito la teoría anterior, y por supuesto otras
nuevas. Hay, pues, un cierto sentido en el que el progreso científico es
acumulativo: la nueva teoría debe conservar el poder explicativo de la teoría
anterior, aunque varíe radicalmente en la forma de explicar los fenómenos. Esto
quiere decir que debe explicar a su modo por qué la teoría anterior tuvo éxito allá
donde lo tuvo. No se conservan teorías o hipótesis exitosas, lo que se conserva en
su capacidad explicativa. La nueva teoría habitualmente explicaría las coas de un
modo muy distinto, e incluso puesto, a la anterior. Esta conservación de la
capacidad explicativa puede ser estimada racionalmente, y de ahí que las
revoluciones científicas tengan siempre un carácter racional. Nunca se rompe del
todo con la tradición anterior. El poder explicativo de las teorías que se abandonan
no se pierde con ellas.
Sin embargo, Popper encontró más tarde en la obra de Alfred Tarski la inspiración
para rescatar y dignificar desde el punto de vista de la filosofía empirista la vieja
teoría de la verdad como correspondencia. Para ello tuvo que hacer compatible
dicha teoría con la tesis, compartida por el neopositivismo, de que sobre
cuestiones de hecho no cabe la verdad absoluta, tesis además agravada por el
rechazo de la inducción, que tampoco le permitía hablar de una verdad probable.
Pero, sobre todo, tuvo que hacerla compatible con su idea de que el destino de las
teorías, hasta las mejores, es el de ser falsadas algún día.
1
1
100
Popper intentó resolver la cuestión reconociendo que la verdad ha de permanecer
siempre en el horizonte sin que podamos nunca afirmar haberla acalzado, pero
arguemnto al mismo tiempo que, incluso con teorías falsas, podemos acercarnos
cada vez más a ella y saber que lo estamos haciendo. Así, desde el conocimiento
de fondo del que hoy día disponemos, podemos decir que tanto la física
aristotélica como la física newtoniana son falsas; pero la sustitución de la primera
por la segunda significó un acercamiento a la verdad. Todas las falsedades no
están igualmente alejadas de la verdad. Unas lo están más que otras, y hay criterios
para saberlo.
Una forma más simple de decirlo es ésta: se considera que t2 es más verosímil
(está más cerca de la verdad) que t1 si y sólo si t2 tiene más consecuencias
verdaderas que t1, pero no más consecuencias falsas, o las mismas consecuencias
verdaderas, pero menos consecuencias falsas.
1
2
101
Popper añade que, suponiendo que se pudiera medir el contenido de verdad y el
contenido de falsedad de una teoría a, la medida de la verosimilitud de dicha teoría
a podría definirse así:
Vs(a)=Ctv(a) – Ctf(a)
Desafortunadamente para Popper, en 1973, los lógicos Pavel Tichy y David Miller
mostraron que el concepto de verosimilitud era inaceptable. La finalidad del
concepto de verosimilitud es la de comparar dos teorías (que se supone como
falsas, y que algún día serán como tales) en lo relativo a sus contenidos de verdad
y falsedad. Tichy y Miller probaron que para cualesquiera dos teorías falsas
diferentes A y B, no puede darse el caso de que A tenga menos verosimilitud que
B, y, por tanto, no es posible su comparación en esos términos. No se puede decir,
sin embargo, que este caso haya sido infructuoso, pues ha motivado una serie de
trabajos importantes con el fin de ofrecer una definición rigurosa de los conceptos
intuitivos de verdad aproximada y verosimilitud que pueda superar las
deficiencias de la definición popperiana. La discusión sigue abierta como uno de
los aspectos centrales entre realistas y antirealistas.
1
3
102
7. Como resumen de su propuesta, Popper enumera tres requisitos que deben cumplir
una teoría nueva para que significa un desarrollo del conocimiento:
8. Kuhn, Feyerabend y Laudan han sido los críticos principales de este modelo. En
lo que coinciden es en rechazar la idea de que el progreso científico pueda ser
entendido como un acercamiento gradual a la verdad.
Una dificultad importante en el modelo Popperiano, que fue suscitado por Lakatos
y que ha reafirmado recientemente Newton-Smith, es la relación entre
corroboración y verosimilitud. Por un lado, tenemos que, dado el rechazo de
Popper a la lógica inductiva, el grado de corroboración de una teoría es solo un
informe sobre los éxitos pasados de la misma; un informe con el que no cabe hacer
predicciones sorbe sus éxitos futuros. Pero, por otro lado, tenemos que el grado
de corroboración es un índice de la verosimilitud en un momento dado.
1
4
103
Ahora bien, parece razonable confiar en que el éxito futuro de una teoría con un
alto grado de verosimilitud será mayor que el éxito futuro de otra teoría con un
grado menor de verosimilitud. Si su contenido de verdad es mayor, si tiene más
consecuencias lógicas verdaderas, hará más predicciones exitosas que la de menor
verosimilitud, con lo cual, presumiblemente, pasará con éxito más intentos de
falsación. Pero entonces, a pesar de las intenciones de Popper, podemos realizar
algún tipo de inferencia inductiva sobre el comportamiento futuro de una teoría a
partir de su grado de corroboración.
Popper terminó sugiriendo que quizá aquí habría que admitir un “soplo de
inductivismo”. Peor, ¿cómo entender esto? Newton-Smith con ironía que más que
un soplo lo que hay es una tormenta en toda regla. De hecho, para muchos de sus
críticos, el principal punto débil de la metodología popperiana está precisamente
en su rechazo a la inducción, que le lleva a conclcusiones tan implausibles como
que, por muchas contrastaciones que haya pasado, no podemos afirmar
legítimamente que nuestra confianza en ella haya aumentado a raíz de ese apoyo
en la experiencia. Este fracaso a la hora de conectar corroboración y verosimilitud
le ha acarreado a Popper la acusación de antirrealista, porque la aceptación o
rechazo de teorías se lleva a cabo en su metodología por criterios que en última
instancia no están realmente en función del descubrimiento de la verdad.
1
5
104
PUNTO 4: EL CAMBIO CIENTÍFICO SEGÚN THOMAS KUHN
Popper se presentó su filosofía como una crítica al neopositivismo, pero las obras de Kuhn
y de Feyerabend mostraron que Popper compartía con éste supuestos comunes que no
resistían un análisis riguroso de la ciencia. Kuhn coincide con Popper en la idea de que el
progreso científico es revolucionario y no acumulativo, pero cree que las revoluciones
presentan discontinuidades más profundas que las señaladas pro Popper y considera
además que estas revoluciones no serían posibles si no hubieran también largos periodos
de estabilidad y de dominio incuestionable de una gran teoría, a los que designa como
períodos de “ciencia normal”.
El modelo de cambio científico expuesto por Kuhn en su famoso libro de 1962 La
estructura de las revoluciones científicas ha tenido una influencia enorme no solo en la
filosofía de la ciencia, sino en otros muchos ámbitos de las humanidades (sociología,
antropología, historia, lingüística, círica literaria, etc….) Kuhn nació en 1922. Era físico
de formación, al igual que Popper, pero pronto pasó al campo de la historia de la ciencia
y, desde ahí, al de la filosofía de la ciencia. Como historiador de la ciencia publicó varios
artículos y dos libros: la revolución copernicana, de 1957, y La teoría del cuerpo negro y
la discontinuidad cuántica, 1894-1912, de 1979. Como puede verse por los títulos, ambos
trataban de grandes revoluciones de la ciencia: la de Copérnico el primero y la de la teoría
cuántica en el segundo. Algunos de sus artículos históricos e historiográficos fueron
recogidos en el libro La tensión esencial, publicado en 1977. Pero la obra que le consagró
fue la consabida Estructura de las revoluciones científicos, su único libro como filósofo
de la ciencia y uno de los libros de filosofía “best-seller”. Kuhn murió en junio de 1996.
Trabajaba entonces intensamente en un libro que significaría una revisión profunda de
algunos de los planteamientos contenidos en esta obra. Comencemos por exponer la
descripción general del desarrollo científico que Kuhn efectúa.
1. En toda ciencia existen dos fases principales de desarrollo: un período de ciencia
inmadura, caracterizado por la ausencia de un paradigma común, y un período de
ciencia madura en el que la investigación se realiza -salvo en los momentos
ocasionales de crisis- bajo el dominio de un paradigma común. A su vez, dentro
de la ciencia madura, el desarrollo se produce fundamentalmente mediante
cambios revolucionarios de paradigma. Al período de investigación bajo un
paradigma Kuhn lo llama “ciencia normal” y al período de crisis revolucionaria
que comporta el cambio de paradigma lo llama “ciencia extraordinaria”.
1
6
105
En la ciencia inmadura existen diversas escuelas rivales compitiendo entre sí, cada
una con su propio conjunto de teorías, métodos, criterios, objetivos, etc… No
existe, por tanto, un consenso suficiente sobre cuestiones básicos y el progreso del
conocimiento. Se hace muy difícil, a no ser que nos limitemos a considerar el
interior de cada una de estas escuelas en disputa. Dentro de ellas, y de acuerdo
con sus propios criterios, sí se realiza algún progreso, pero éste no es reconocido
frecuentemente como tal por las escuelas rivales. Los descubrimientos realizados
por una son ignorados por las otras, de modo que pueden llegar a perderse. La
falta de colaboración entre los miembros de diversas escuelas y la discusión sobre
los fundamentos son una constante en estos períodos: todo se replantea desde el
inicio. No hay una guía fiable y duradera para la investigación que posibilite un
avance rápido de los conocimientos.
Los dos primeros grupos tenían dificultades para explicar los fenómenos de
conducción, mientras que el tercero las tenía para explicar la atracción y repulsión.
Fueron los trabajos de Benjamin Franklin los que cambiaron este panorama.
Consiguió explicar con su teoría la mayoría de los efectos eléctricos conocidos y
en poco tiempo despertó la adhesión de todos los que investigaban sobre la
electricidad. A partir de entonces encontraron con un paradigma común acerca de
los fenómenos que estudiaban y el debate entre escuelas cesó.
1
7
106
Cuando un paradigma triunfa, esto es, cuando los científicos aceptan un logro
técnico como un fundamento para su práctica posterior, el progreso se facilita
enormemente. A partir de ese momento el trabajo se vuelve más rutinario, pero
también más efectivo:
Precisamente porque trabaja sólo para una audiencia de colegas, una audiencia
que comparte sus propios valores y creencias, el científico puede dar por sentida
un único conjunto de normas. No tiene ya que preocuparse de lo que pensarán
otros grupos o escuelas y puede, por tanto, deshacerse de un problema y pasar al
siguiente más rápidamente que los que trabajan par aun grupo más heterodoxo.
Y lo que es más importante, el aislamiento de la comunidad científica con
respecto a la sociedad permite al científico individual concentrar su atención en
problemas acerca de los cuales tiene buenas razones para creer que podrá
resolverlos.
2. La ciencia normal
Los períodos de ciencia normal son los que se conforman la mayor parte de la
actividad científica. En ellos, como hemos dicho, la investigación se desarrolla
bajo el dominio de un paradigma. Algo ciertamente muy alejado del principio de
proliferación de teorías y de la constante lucha darwiniana de teorías que Popper
nos presentaba. Peor ha llegado el momento de decir qué entiende Kuhn por
“paradigma”. La respuesta no es simple, porque, pese a la importancia de este
concepto en su filosofía, Kuhn no siempre lo utilizó con precisión. A este respecto
se suele citar casi siempre el trabajo de Margaret Masterman en el que pone de
relieve que La estructura de las revoluciones científicas Kuhn llega a emplear el
término hasta en 21 sentidos diferentes.
1
8
107
Así pues, Kuhn entiende por paradigma básicamente un modelo teórico que
resuelve algún problema destacado y que sirve como ejemplo para resolver otros
problemas más complejos (piénsese en el modo en que la mecánica newtoniana
resuelve el problema de las órbitas planetarias). Aunque, en un sentido más
amplio, los paradigmas incluyen otros componentes de tipo axiológico,
metodológico y ontológico que son la seña de identidad de una comunidad
científica. El término “paradigma” es adoptado por Kuhn de la gramática. En ella
se emplea en un sentido muy próximo al primero de los que acabamos de
mencionar. Un paradigma en gramática es un ejemplo para ilustrar cómo debe
construirse la reflexión de casos análogos.
1
9
108
En concreto, Kuhn señala cuatro componentes principales en una matriz
disciplinar o paradigma:
2
0
109
Ejemplares. Son soluciones de problemas concretos aceptados por la
comunidad científica como modelos para resolver otros problemas
similares, es decir, como paradigmas en el senido habitual del término.
Estos ejemplos son lo que Kuhn entedía por “paradigma” en el sentido
más estricto. Suelen aparecen en los libros de texto e invitan al estudiante
a resolver problemas similares basándose en ellos. Juegan, por tanto, un
papel fundamental en la educación científica. Al estudiante de ciencias no
se le enseña un conjunto de reglas, bajo el apelativo de “método científico”
para que con ellas pueda enfrentarse a cualquier problema. Más bien se le
entrena para manejar con sultura un cierto número de ejemplares, y con
ese manejo, el estudiante adquiere la capacidad de aplicar las mismas
generalizaciones simbólicas en situaciones diferentes. En esto la actividad
del estudiante de ciencias no se diferencia demasiado de la del trabajo
investigador del científico profesional durante los períodos de ciencia
normal. Ambos resuelven enigmas o rompecabezas modelándolos sobre
soluciones de enigmas previos:
Galileo descubrió que una bola que rienda por un plano inclinado
adquiere la velocidad suficiente para volver a la misma altura vertical
sobre un segundo plano inclinada con una pendiente cualquiera, y
aprendió a ver esta situación experimental como parecido a la del
balanceo de un péndulo con una masa puntual”. Esto es análogo a lo que
hace el estudiante de física cuando aprende a ver una variedad situaciones
como casos especiales de una misma ley (cuando aprende, por ejemplo,
que f=ma se transforma en 𝑚𝑔 = 𝑚𝑑 2
En los períodos de ciencia normal, por tanto, los científicos no tratan de encontrar
nuevas teorías ni nuevos tipos de fenómenos, y mucho menos tratan de falsar sus
teorías, sino que tratan de encajar cada vez mejor las teorías vigentes con los
fenómenos conocidos. Su tarea es, sobre todo, como dice Kuhn, una “operación
de limpieza” bastante rutinaria consiste en resolver problemas para los cuales se
presupone que hay al menos una solución dentro del paradigma. Kuhn los llama
“enigmas” o “rompecabezas” (puzles) porque lo que hacen es poner a prueba el
ingenio de los científicos. No son necesariamente problemas de gran importancia
práctica o de gran interés público. Son sólo problemas que los científicos
consideran interesantes y resolubles: “los problemas verdaderamente
apremiantes, como la cura del cáncer o el diseño de la para la paz duradera, no
suelen ser enigmas, en buena medida porque pueden no tener ninguna solución”
(Kuhn, 1970).
2
1
110
El progreso científico durante los períodos de ciencia normal es muy parecido a
como lo describieron los neopositivistas. Es un progreso acumulativo basado en
la articulación entre la teoría y la experiencia, y aunque no es el más espectacular,
a él está enfocada la mayor parte de la investigación científica. En concreto,
durante los períodos de ciencia normal los científicos se dedican a tres cosas
principalmente:
3. La ciencia extraordinaria
Pero los períodos de ciencia normal no duran siempre. Cuando se produce el fin
de un periodo de ciencia normal se entra en un periodo de ciencia extraordinaria.
Es importante resaltar en primer lugar que los períodos de ciencia normal son
necesarios para que luego pueda producirse un avance revolucionario. Kuhn no
concibe el desarrollo de la ciencia como una revolución permanente. Las
revoluciones no son posibles si no hay largos períodos de estabilidad sometidos a
una legalidad que finalmente se vuelve inasumible. Sobre el fondo seguro de
expectativas teóricas que proporcionan dichos períodos es más fácil que se
perciban situaciones que las violan. Sin la aceptación pareia de un paradigma no
hay expectativas acerca de los fenómenos y, por tanto, no hay violación de tales
expectativas. El trabajo rutinario dentro de un paradigma es así una condición de
tales expectativas.
2
2
111
La misión que Kuhn atribuye al trabajo científico es, en coherencia con esto, muy
distinta de la que se le encomendaba dentro de la visión popperaiana. El científico
no está obligado a ser un revolucionario audaz que intenta siempre encontrar
nuevas ideas opuestas a las teorías vigentes. En general su tarea es mucho más
modesta, pero imprescindible para el progreso de la ciencia: debe resolver
enigmas hasta que tenga la suerte, si es que la tiene, de tropezar con algo mucho
más importante, con un problema que choque con lo que el paradigma autoriza a
esperar. En La tensión esencial, escribe:
Los periodos de crisis no tienen por qué terminar en una revolución científica, tal
como puntualizo Kuhn. Lo más frecuente es que as anomalías terminen por ser
explicadas por el paradigma. E incluso si no lo son, los científicos pueden decidir
aparcarlas hasta mejor momento, con la esperanza de que una nueva generación
de científicos con mejores instrumentos lo consiga. Si después de cierto tiempo el
paradigma sigue sin resolver los problemas, si los científicos no están dispuestos
a mirar para otro lado y, sobre todo, si surge un nuevo candidato a paradigma,
estas crisis desembocan finalmente en una revolución científica. Un nuevo
paradigma rival consigue la aceptación generalizada de la comunidad científica y
el viejo paradigma es abandonado. Kuhn se sitúa ahora frente a Popper
2
3
112
Contra lo que Popper pensaba, el cambio revolucionario no se produce
debido a la aparición de ejemplos falsadores de la vieja teoría. Todo
paradigma tiene problemas que no puede resolver o hechos que no encaja
con él, pero éstos no se convierten en auténticos ejemplos en su contra
hasta que no hay un paradigma rival que pueda sustituirlo. “Rechazar un
paradigma sin sustituirlo simultáneamente por otor es rechazar la ciencia
misma”. De ahí que los científicos simplemente legítimamente, al menos
durante un tiempo, diversas estrategias inmunizadoras, como las hipótesis
ad hoc, para proteger al paradigma.
Pero si todo paradigma tiene ejemplos en contra, si ninguno puede explicar todos
los hechos que caen bajo su dominio, ¿qué hace que una anomalía o un conjunto
de ellas conduzcan aun período de crisis? ¿Qué factor determina el
desencadenamiento de la crisis? Kuhn es bastante elusivo en la respuesta a esta
cuestión, a pesar de que es una pregunta capital. Hay, según nos dice, varias
circunstancias que pueden provocar esto. Por ejemplo, que las anomalías
propongan en cuestión generalizaciones fundamentalmente del paradigma, que
pase mucho tiempo sin que encuentren una solución, que afectan a aplicaciones
prácticas importantes, que el propio desarrollo de la ciencia normal las vaya
destacando, etc…
2
4
113
Una de las formas en que puede cerrarse una crisis es, como hemos dicho, el
abandono del viejo paradigma y la aceptación de un paradigma rival. En esto
consisten las revoluciones científicas. Los casos que Kuhn cita coinciden en
general con los que la historiografía ha considerado tradicionalmente como
grandes revoluciones científicas: el abandono del sistema ptolemaico en favor del
copernicano, el establecimiento de la mecánica newtoniana, la transición de la
química del flogisto a la química del oxígeno debda fundamentalmente a
Lavoisier, la sustitución de la mecánica newtoniana por la teoría de la relatividad
de Einsten, el surgimiento de la teoría cuántica, etc… En incluye algunos otros
menos conocidos polarmente, como la revolución producida en la física por la
teoría electromagnética de Maxwell.
Las revoluciones científicas implican para Kuhn una ruptura mucho mayor con la
situación precedente que la que había admitido Popper. Para ilustrar hasta qué
punto se produce una discontinuidad radical y una reconstrucción de fundamentos
tras una revolución científica. Kuhn resalta los paralelismos entre éstas y las
revoluciones políticas. En ambas se experimenta un fuerte sentimiento de
insatisfacción con respecto al status quo. En ambas cambian las normas
imperantes hasta el momento y el orden que surge tras ellas es juzgado como
ilegítimo desde las normas prevalecientes en la situación anterior. En ambas se
carece de estructuras institucionales superiores para dirimir las diferencias; la
norma más elevada es la voluntad de la comunidad revolucionaria. En ambas se
debe recurrir a las técnicas de persuasión de masas. En ambas se trata de elegir
entre modos incompatibles de vida de la comunidad. En ambas los argumentos a
factor de cada bando se tornan en buena medida circulares, ya que presuponen los
criterios de evaluación que el otro bando no desea aceptar y que, de hecho,
cuestiona. En ambas es sólo una pequeña vanguardia la que está dispuesta en un
principio a efectuar el cambio, y la revolución se completa hasta que la gran
mayoría la comunidad presta su lealtad al nuevo orden instaurado.
Las revoluciones científicas son para Kuhn algo más que la sustitución de algunas
ideas sobre el mundo por otras: son, como reza el título de uno de los capítulos de
La estructura…, “cambios en la visión del mundo”. Esto significa que tras una
revolución los científicos que ven el mundo objeto de su investigación de una
manera diferente. Es más, dado que el único acceso que tienen a este mundo es a
través de su práctica investigadora, podría decirse que, “aunque el mundo no
camba con el cambio de paradigma, los científicos trabajan después en un mundo
diferente”. El cambio en la visión del mundo es, por tanto, algo más que un cambio
perceptivo o que una simple reinterpretación de los datos sensoriales. Kuhn
argumenta que es como si el mundo se poblara realmente de nuevos objetos. El
mundo en el que trabaja el científico es un mundo donde han cambiado los
referentes, y donde las cosas no se miden, ni se prueban, sin se manipulan del
mismo modo. Es, en cierto modo, un mundo distinto después del cambio de
paradigma.
2
5
114
Para aclarar todo esto un poco, Kuhn mencionaba los cambios de Gestalt que se
dan en situaciones en las que, ante un mismo estímulo sensorial, se perciben
alternativamente dos imágenes distintas. Casos típicos de tales situaciones son en
las que o bien se ven dos caras enfrentadas o bien se ve una copa. De forma
análoga a lo que sucede en situaciones, al mirar a la Luna, donde el astrónomo
anterior a Copérnico veía un planeta, el astrónomo copernicano ve un satélite.
Antes de Galileo los físicos trabajan en un mundo en el que había cosas tales como
piedras que eran entorpecidas por una cuerda en su caída hacia su lugar natural de
reposo; después de Galileo trabaja en un mundo en que había péndulos, esto es,
objetos que repiten incesantemente un movimiento de balanceo. Antes de Dalton
los químicos trabajan en un mundo en el que las soluciones eran compuestos, y
después trabajan en un mundo en el que realizan mezclas. La diferencia está en
que estos cambios no pueden ser invertidos a voluntad, en contraposición a lo que
ocurría con las imágenes de la Gestalt.
No debe pensarse que las revoluciones científicas son siempre cambios de gran
magnitud y relativamente escasos. Algunas pueden afectar sólo a una
subespecialidad. Otras pueden darse sólo en el seno de estas microcomunidades.
Kuhn considera que las revoluciones han sido difuminadas de la imagen popular
de la ciencia debido a los libros de texto y a las obras de filosofía y de divulgación
científica. En ellos se suele presentar la historia de la ciencia como un proceso
lineal en el que todo lo hecho con anterioridad no ha sido más que un intento
balbuceante para llegar al punto en el que se encuentra la ciencia en la actualidad.
Se describe a la ciencia como si todos los científicos hubieran estado trabajando
siempre en los mismos problemas fundamentales, empleando los mismos métodos
y buscando los mismos objetivos; como si Newton, por ejemplo, no hubiera hecho
más que colocar los cimientos del edificio que terminó Einstein, o por citar un
casi más extremo, como si Demócrito fuera un antecedente muy primitivo de
Dalton y de Bohr. Al presentar estos libros la ciencia del pasado como una mera
preparación para el presente, deben ser reescritos tras cada revolución, ya que
entones Hay que volver a describirla como una preparación para llegar un
paradigma diferente, en varias cosas:
2
6
115
La ciencia normal proporciona un progreso acumulativo sumamente
valorable. Pero el verdadero avance científico se produce cuando un
paradigma es sustituido por otro en una revolución científica. Ahora bien,
el cambio revolucionario no es acumulativo. En él quedan abandonados o
radicalmente reestrucutrados muchos elementos del viejo paradigma y se
producen pérdidas de ganancias. La nueva tradición de ciencia normal que
surgen tras la revolución ha dejado atrás muchos problemas que la
tradición anterior consideraba importantes.
2
7
116
5. Hasta aquí hemos hecho una exposición bastante literal de las ideas de Kuhn.
Vamos a ver alguna crítica
La crítica al racionalismo:
Podemos comenzar por adelantar que Kuhn no es un racionalista en el
sentido habitual. No marca una meta para la ciencia. Bien al contrario,
piensa que el progreso científico no se mide por su acercamiento a una
meta supuesta, sino por su separación del punto de partida. Tampoco cree
que haya criterios objetivos y neutrales para evaluar las teorías rivales.
Quizá el apelativo “irracionalista” sea excesivo, dado que suele estar
asociado a posiciones más radicales que las de Kuhn. Según parece era
una de las acusaciones que más le molestaban, sobre todo cuando
presuponía con ella que su filosofía no otorgaba ningún papel a la razón
en la investigación o que consideraba a la ciencia como una actividad en
muchos casos contraria a la razón, como sí hizo Feyerabend. De hecho,
Kuhn sostuvo explícitamente que la ciencia es el mejor modelo que
tenemos de racionalidad. En todo caso, no parece que se gane mucho
cambiando este apelativo por el menos comprometido históricamente de
“no-racionalista” o el poco sonoro de “arracionalista”. Basta con que
retengamos que el irracionalismo de Kuhn debe entenderse en un sentido
preciso, y no como la negación de la racionalidad de la ciencia.
2
8
117
Un intérprete acreditado de Kuhn, Hoynigen-Huene, sintetizando esta
idea, afirma que esta mayor capacidad para resolver problemas que
presentan los nuevos paradigmas tiene tres dimensiones:
o En segundo lugar, una nueva teoría tiene que ser capaz de resolver
al menos una gran parte de los problemas resueltos por la anterior
con una exactitud comprable o mayor. Sus senderos para estas
soluciones pueden ser, sin embargo, sustancialmente diferentes de
los aceptados previamente.
Parece, por tanto, que hay en Kuhn una convicción clara de que la ciencia
es una empresa progresiva en algún sentido objetivo. Sin embargo, ¿cómo
compaginar esto con las anteriores afirmaciones acerca del científico
como una victima de una historia contada por los que tienen el poder?
Después de todo, si cabe decir que los cambios de paradigma llevan a una
capacidad creciente para resolver problemas, ¿por qué no pueden apelar a
este aumento de capacidad de los partidos del paradigma vencedor? ¿Por
qué los miembros de la comunidad científica no pueden percibir el
progreso de ese modo y han de ser, en camio, adoctrinados en una
mistificación? ¿Por qué hay necesidad de inventar una historia en la que,
por definición, el paradigma vencedor es el mejor?
2
9
118
De ahí que los partidarios de paradigmas rivales pueden juzgar de manera
diferente los logros y fracasos de cada paradigma. Lo que para unos es una
anomalía demoledora, para otros es una pequeña dificultad pro resolver.
No hay, en consecuencia, posibilidad de comparar objetivamente la
capacidad global de resolución de problemas que tiene cada paradigma.
Sólo la victoria de un paradigma hace luego posible contar la historia de
que el nuevo paradigma tenía más capacidad para resolver problemas.
3
0
119
Sin embargo, el crítico tiene todavía razones para dudar. ¿No habíamos
quedado en que para Kuhn la elección de teorías implica el uso de
argumentos circulares, ya que “la importancia de ciertos problemas y la
legitimidad de ciertas soluciones no pueden ser evaluadas en aislamiento
de las teorías sometidas a discusión”¿ Por un lado se nos dice que hay un
progreso objetivo porque aumenta la capacidad para resolver problemas,
y las soluciones a ciertos problemas van siendo mejores con independencia
de la perspectiva teórica, pero otro otro lado Kuhn sostiene que lo que se
considere un problema a resolver y una solución adecuada del mismo
depende de cada paradigma, lo cual impide hacer del recuento de
problemas resueltos un criterio objetivo de comparación de teorías.
3
1
120
Él no creía que eso fuera abrir la puerta a la irracionalidad ni hacer de la
elección de teorías una decisión sin base (aunque admite alguna
responsabilidad en haber dado pie a esa confusión). Se trataría sólo de
reconocer que no hay algoritmos de decisión en la elección de teorías y
que los criterios de elección, al funcionar como valores, ni son aceptados
en el mismo orden jerárquico por toda la comunidad científica (lo que da
lugar a conflicto de valores) ni son aplicados del mismo modo por todos
los científicos. En otras palabras, por un lado habrá quien prefiera, por
ejemlo, teorías más simples a teorías más precisas; y, por otro lado, la
simplicidad o la precisión pretendidas de una teoría no serán reconocidas
necesariamente por todos.
3
2
121
En 1965 se celebró en Londres un congreso internacional sobre la filosofía
de la ciencia que marcó historia. En él se confrontaron de una forma
decidida las diferentes concepciones de la ciencia mantenidas por Kuhn
de un lado, y por Popper, Toumlin, Lakatos y Feyerabend del otro lado.
Una parte de los trabajos de este congreso quedó recogido en el libro
editado por Lakatos y Musgravee titulado La crítica y del desarrollo del
conocimiento. La contribución de Popper llevaba por título “la ciencia
normal y sus peligros” y la del popperiano John Watkins era un más
directa: “contra la ciencia moral”.
3
3
122
Popper piensa que “pocos, si es que hay alguno, de los científicos que han
pasado a la historia por ser científicos “normales” en el sentido de Kuhn.
Cree además que la distinción entre ciencia normal y ciencia
extraordinaria no debe ser tajante, y que muchos científicos están situados
en una amplia graduación intermedia entre ambos extremos. Según
Popper, el error que está detrás de la noción de ciencia normal kuhniana
como dominio incuestioanado de un paradigma es lo que él denomina “el
mito del marco”.
Por otra parte, cabe argüir que Kuhn no recomendaba ni hacía encomio de
la ciencia normal, sino que se limitaba a describir algo que sucede en la
práctica científica nos guste o no. No sabemos cómo sería una ciencia más
crítica y más democrática, pero en todo caso, según Kuhn, la ciencia real,
la única que tenemos, presenta periodos de ciencia normal, y los presenta
con independencia de lo poco conservadores e intelectualmente
aventurados que quieran ser los científicos de cada momento. En la ciencia
real uno no puede desembarazarse de un paradigma a voluntad; la
revolución permanente que propone Popper es algo que simplemente no
puede existir. Por muy crítico que uno quiera ser, el paradigma no será
abandonado por otro hasta que no se den las condiciones apropiadas. Pero
es que además muy pocos científicos querrán ser críticos con el paradigma
mientras que no haya razones para ello. Este modo de salvar a Kuhn de la
crítica de Popper exige más estudios histórico-sociológicos que puedan
determinar si, en efecto, la ciencia normal que Kuhn dice describir es algo
que puede ser detectado un buen número de episodios históricos concretos.
3
4
123
El caso es que también se ha puesto en cuestión que la historia de la ciencia
le dé la razón a Kuhn. Según Feyerabend, lo que ésta muestra es que no
existe la ciencia normal y que en cualquier período proliferan las teorías
rivales. Feyerabend admite que esta proliferación de teorías se da
mezclada también cierta tenacidad por parte de los científicos. Pero
rechaza que haya periodos sucesivos de tenacidad y de proliferación. En
su sentido similar se expresó también Lakatos. En su libro El progreso y
sus problemas, Laudan declara que “prácticamente todos los periodos
importantes en la historia de la ciencia se caracterizan tanto por la
coexistencia de numerosos paradigmas en competencia, sin que ninguno
ejerza la hegemonía sobre el campo, como por la manera persistente y
continua en que son debatidos por la comunidad científica los supuestos
fundamentales de cada paradigma”; y páginas después añade que Kuhn
“no puede señalar ninguna ciencia importante en la que el monopolio de
un paradigma haya sido la regla, ni en la que el debate sobre fundamentos
haya estado ausente”.
3
5
124
Hay, por otro lado, grandes cambios revolucionarios en un sentido amplio
del término que no llevan a la revisión del paradigma, ni presentan
especiales problemas de inconmensurabilidad. Son revoluciones que
ofrecen un cambo acumulativo. Como ejemplos cita a la teoría
electromagnética de Maxwell, el descubrimiento de la estructura
molecular del ADN, etc… Así pues, no tras las revoluciones científicas
vinieron precedidas de una crisis en la ciencia moral. La teoría especial de
la relatividad de Einstein si vino después de una crisis, pero la teoría de la
relatividad general, que también fue revolucionaria, no lo hizo. El caso de
la estructura del ADN resulta para Bird especialmente revelador de la
influencia del modelo kuhniano: “un descubrimiento que muchos
consideran como el más importante del siglo sencillamente no encaja en
la descripción que Kuhn hace del desarrollo científico”.
Bird señala por ello que la indiferencia entre la ciencia normal y la ciencia
extraordinaria no es siempre tan grande como Kuhn pretende, y que ciertos
episodios históricos sugieren que más bien existe una amplia graduación
intermedios entre ambos extremos. Los casos más innovadores de la
ciencia normal estarían muy próximos a los casos más conservadores de
la ciencia revolucionaria.
3
6
125
La propia investigación científica se fue separando cada vez más del ideal de
conocimiento desinteresado y público que todavía permanecía en la mente de muchos
científicos. Por poner un ejemplo significativo, una buena parte de los biólogos
moleculares norteamericanos son hoy accionistas de empresas biotecnológicas. La unión
entre ciencia, industria y poder político se ha ido estrechando cada vez más. Es hoy
impensable llevar a cabo algunas investigaciones serias en algunas disciplinas científicas
si no es mediante grandes recursos tencnológicos y económicos. A este tipo de
investigación muy diferente de la investigación relativamente individualizada y austera
en su financiación que todavía prevalecía a primeros del siglo pasado, se ha designado
como gran ciencia o incluso tecnociencia. Todo ello ha transformado la imagen pública
de la ciencia. El respeto ha ido cediendo a actitudes críticas que han encontrado amplio
eco en sectores intelectuales y en la población en general.
Paul Feyerabed (1924-1994) fue uno de los primeros filósofos que sintonizaron con los
movimientos sociales que los 60 iniciaron campas de protesta contra el sistema político y
cultural prevaleciente en los estados unidos y en Europa, cuya firmeza atribuían a la
alianza entre le poder militar, el poder político y la ciencia. Feyerabend no presentó un
modelo articulado de progreso científico, entre otras cosas porque llegó al
convencimiento de que la ciencia no era un sistema unificado del que pudieran decirse
cosas en general y, por lo tanto, no tenía siendo proponer un modelo universal de
progreso. Su obra estuvo centrada más bien en una crítica de dichos modelos,
especialmente del neopositivista y el popperiano. Además, con el tiempo se ocupó cada
vez del papel de la ciencia en la sociedad, y de los aspectos políticos y sociales
relacionados con la ciencia, y menos de cuestiones estrictamente epistemológicas. Sin
embargo, Feyerabend hizo también algunas propuestas positivas acerca del modo en que
se produce el cambio científico, como la tesis de la incomensurabilidad de las teorías
rivales, que comparte con Kuhn, el pluralismo metodológico y el principio de
proliferación de teorías.
Feyerabend, formado como astrónomo, atacaba constantemente el mito formado en torno
a la ciencia, en buena medida a causa de los filósofos. El “mito de la ciencia” es un
pequeño “cuento de hadas” que lleva a muchas personas a someterse a la autoridad de la
ciencia en ámbitos en los que no debería tener una especial autoridad, sobre todo en el
político. Ese mito dice que la ciencia posee un método riguroso para alcanzar
conocimientos verdaderos. Feyerabend dedicó buena parte de sus esfuerzos a explicar
que no exista tal método, que la ciencia no dispone de un recurso específico para
garantizar siempre sus resultados. En realidad, lejos de ser un enemigo de la ciencia,
Feyerabend intentó siempre mejorarla haciéndola más humana, menos dogmática y más
democrática.
3
7
126
No obstante, hay que admitir que su estilo sumamente caústico y sus provocaciones
constantes al lector obligan a no tomar literalmente todas sus afirmaciones. En ocasiones
su pretensión no es que se le tome en serio en todo lo que dice, sino poner en ridículo a
su adversario, el filósofo racionalista, ya sea en su variante positivista, ya sea en su
variante popperiana. Hay también ocasiones en las que lo que se desea es poner de
manifiesto las consecuencias a las que llevaría el racionalismo si fuera desarrollado
coherentemente, y que el racionalista se niega a extraer por considerarlas indeseables.
Pero quizás los pasajes más polémicos son aquellos en los que asume directamente la
defensa de posturas antrirracionalistas, como cuando coaliga la ciencia y el mito, o la
medicina y el curanderismo; o cuando propone dejar que los padres elijan en las escuelas
públicas si sus hijos deben estudiar física y astronomía o magia y astrología; o cuando
sugiere que el vudú podía ayudar a enriquecer e incluso revisar nuestros conocimientos
de fisiología.
Creo que estos pasajes deben ser interpretados como una advertencia al racionalista: hay
alternativas que éste ni siquiera se ha parado a considerar y que merecen al menos un
conocimiento mayor en lugar de ser desestimadas como absurdas sin ningún argumento.
En particular, Feyerabend intenta mostrar que hay tradiciones culturales despreciadas o
ignoradas pro el racionalista que se las arreglaron muy bien sin ciencia durante mucho
tiempo y que no merecen ser arrasadas por el imperialismo cultural de Occidente, entre
otras razones porque algunas han ejercido y pueden todavía ejercen una influencia
beneficiosa sobre la propia ciencia. Desde la perspectiva de alguna de estas tradiciones,
logros de la ciencia occidental pueden ser juzgados además de un modo mucho menos
entusiasta del que el racionalista suele hacerlo.
1. La proliferación de las teorías
3
8
127
En este artículo esboza ya algo que será un elemento central de su filosofía: el
principio de proliferación de teorías. “Mientras que la unanimidad de opinión -
escribe-puede ser adecuada para una iglesia, o para los seguidores complacientes
de un tirano, o de algún otro tipo de “gran hombre”, la variedad de opiniones es
una necesidad para la ciencia y, a fortiori, para la filosofía”. En obras posteriores
Feyerabend desarrolla la tesis de que tanto la metodología inductivista del
neopositivismo como la metodología falsacionista popperiana son construcciones
que ni favorecen la investigación ni son respetadas realmente por los científicos
que han contribuido al progreso de la ciencia. Éste es, de hecho, el tema de su obra
principal, el Tratado contra el método, publicada en 1975, y en la que nos
basaremos para nuestra exposición de lo que fue su pensamiento maduro.
Según nos dice Feyerabend, este pluralismo metodológico, así como el principio
de proliferación de teorías, tuvieran una de sus fuentes de inspiración en la defensa
de la libertad de expresión y de la tolerancia efectuada a mediados del XIX por
John Stuart Mill en On Liberty. En esta obra Mill aducía como una de las razones
en favor de la libertad de expresión el que, incluso en el caso de que estuviéramos
ya en disposición de la verdad, la presentación detallada de una opinión contraria
podría significar un desafío que ayudara a mejorar nuestros argumentos y a
percibir con más claridad la corrección de nuestras opiniones. “Siempre hay
esperanza cuando las gentes están forzadas a oír las dos partes, cuando tan sólo
oyen una es cuando los errores se convierten en prejuicios y la misma verdad,
exagerada hasta la falsedad, cesa de tener los efectos de la verdad”.
3
9
128
2. Anarquismo epistemológico y contra-inducción
Los hechos bien conocidos están constituidos por ideologías más antiguas y el
choque con ellos puede ser una señal de progreso. El desarrollo de teorías
inconsistentes con las teorías y los hechos establecidos permite así evaluar
críticamente los supuestos ocultos que subyacen a las teorías vigentes e impregnan
a las observaciones realizadas desde ellas. Al contemplar una teoría vigente desde
el alejado punto de vista que ofrecen otra teoría inconsistente con ella podemos
detectar en la primera fallos que no hubieran emergido sin esa ayuda exterior. Por
otra parte, toda teoría tiene o tuvo en algún momento hechos en contra, de modo
que no hay que obsesionarse por hacer encajar una nueva teoría con todos los
hechos conocidos.
4
0
129
Es digna de apreciar la inversión que Feyerabend realiza con ello del
planteamiento popperiano. Para Popper, el choque entre teoría y hechos falsa la
teoría, por eso la nueva teoría, que encaja con ellos, significa un progreso. Para
Feyerabend la vieja teoría suele ser la que mejor encaja con los hechos conocidos,
pro eso el choque de una nueva teoría con ellos puede representar un progreso, en
la medida en que la nueva teoría traeran consigo hechos nuevos que no coinciden
con las anteriores.
4
1
130
3. Ciencia y poder político
4
2
131
Urge, pues, un control democrático de la ciencia por parte de los ciudadanos. La
autoridad de los expertos no debe prevalecer en cuestiones que afectan a todos,
como la energía nuclear, la medicina pública, el reparto de fondos para la
investigación, etc… primero porque no haya que haga la ciencia superior a otras
formas de conocimiento, y segundo, porque el juicio de los expertos es siempre
un juicio interesado. Se puede consultar a los expertos sobre estas cuestiones, pero
poniendo siempre en cuestión sus respuestas.
Aparte de por la posesión de un método para alcanzar la verdad, otra razón por la
que se suele considerar que la ciencia es superior a oras tradiciones culturales es
por sus resultados. Se suele pensar que la ciencia consigue resultados prácticos
que no son comprables con los que pueden hallarse en otras tradiciones. Pero,
según Feyerabend, esto es un supuesto que no ha recibido un análisis serio. Otras
tradiciones han proporcionado también importantes resultados prácticos, y
además, desde la perspectiva de éstas, puede que los resultados de la ciencia no
sean tan impresionantes. Al fin y al cabo, responden a problemas y finalidades
que no son lo suyos. Para aquel cuyo objetivo en la vida es salvar su alma, la
ciencia es de poca utilidad. Cuando el racionalista defiende la superioridad de la
ciencia da por sentado los estándares que hacen de la ciencia algo valioso, pero
no se para a pensar que esos estándares son precisamente los que otras tradiciones
no aceptan.
5. Estas son, rápidamente, las ideas más originales de Feyerabend. Hagamos ahora
sobre ellas algo de balance. Puede decirse que el pluralismo metodológico ha sido
uno de sus principales legadas. Como escribe Preston:
4
3
132
Esto no quiere decir que los argumentos de Feyerabend a favor del anarquismo
epistemológico hayan sido generalmente aceptados. Más bien al contrario. Una
cosa es aceptar la pluralidad de métodos en la ciencia y otra que la libertad para
seguir cualquier método sea total. Ciertas cosas, pese a todo, no son posibles en
la ciencia. Su visión irracionalista del cambio científico ha sido considerada por
muchos como una exageración basada sólo en algunos casos históricas de
incumplimiento de normas metodológicas que, en realidad, eran normas mucho
más flexibles de lo que Feyerabend querría admitir. E incluso algunos
historiadores han cuestionado la interpretación que ofrece de estos casos
históricos.
Lo que quizá haya tenido una recepción menos complaciente, si exceptuamos los
sectores posmodernos o contraculturales, han sido sus tesis sobre el papel de la
ciencia en la sociedad. Su relativismo cultural adolece de graves dificultades
internas. Una preocupación volcada en conseguir la igualdad de oportunidades
para todas las tradiciones culturales puede ir en detrimento de la defensa de los
derechos del individuo frente a las imposiciones de cualquier tradición cultural.
El peligro de que los individuos quedan atrapados en tradiciones culturales que
imponen sobre ellos constricciones intolerables desde el punto de vista de los
derechos humanos no es hoy en día un riesgo menos desdeñable y extendido que
el de que la ciencia y la tecnología produzcan una homogenización cultural
empobrecedora.
4
4
133
PUNTO 6: LA TESIS DE LA INCONMENSURABILIDAD DE LAS TEORÍAS
La inconmensurabilidad es sin duda el problema filosófico más profundo e interesante
ligado a la filosofía de Kuhn y Feyerabend, y probablemente una de las aportaciones más
importantes de la filosofía de la ciencia a la discusión filosófica del siglo XX. Como
escribe Ana Rosa Pérez Ransanz, “en ella se encuentra la raíz de las principales
desviaciones respecto de los enfoques tradicionales en la filosofía de la ciencia”. Y, sin
embargo, es también un asunto sumamente controvertido desde que surgió por primera
vez hasta nuestros días. Por un lado, existen en la literatura nociones muy dispares acerca
de lo que dicho problema significa -propiciados en buena medida por los cambios
efectuados por el propi Kuhn en sus posiciones iniciales-; por otro, se ha dicho que su
influencia ha ido mucho más allá de lo que la tesis realmente da de sí e incluso que no
existe la inconmensurabilidad en absoluto, o que si existe es inocua.
La tesis de la inconmensurabilidad de las teorías científicas apareció formulada por
primera vez en La estructura de las revoluciones científicas y en el ensayo de Feyerabend
Explicación, reducción y empirismo, ambos publicados en 1962. Kuhn ha reconocido que
él y Feyerabend emplearon el término con independencia el uno del otro, pero
coincidiendo en lo sustancial. No obstante, Feyerabend hacía de él un uso más restringido
(lo aplicaba sólo al lenguaje, y no a los problemas métodos y normas, como hacía Kuhn),
a la vez que más radical (afectaba a todos los términos primitivos de las teorías
comprehensivas rivales, y no sólo a unos pocos). Al quedar limitada a los aspectos
lingüísticos de ciertas teorías, la noción de Feyerabend no incluía como incomensurables
casos que sí cabía bajo la de Kuhn, como el de las teorías ptolemaicas y copernicana.
1. La definición
4
5
134
A su vez Feyerabend afirmaba que toda teoría general nueva implica
cambios en la ontología y en el significado de los términos fundamentales
del lenguaje, tanto teórico como observacional, empleado por las teorías
anteriores. Puede decirse entonces que dos teorías son inconmensurables
en el sentido de que los conceptos de una “no pueden ser definidos sobre
la base de los términos descriptivos primitivos de la segunda, ni
conectados a través de un enunciado empírico correcto”. Intentaba
desmontar así dos principios que subyacían a la concepción neopositivista
del progreso científico como reducción de teorías y que Feyerabend
considera falsos: el principio de deducibilidad o de consistencia y del
principio de invariación del significado. El primero dice, en lo que a
nosotros nos interesa ahora que todas las teorías exitosas en un dominio
dado tienen que ser mutuamente consistentes; el segundo que los cambios
de las teorías no deben cambiar el significado de los principales términos
descriptivos.
En primer lugar, para ambos la sustitución de una gran teoría por otra en
el sentido de una disciplina científica es un proceso de tipo revolucionario
que rompe drásticamente con la situación cognitiva anterior y en el que no
cabe hablar de acumulación de verdades.
4
6
135
La inconmensurabilidad es el resultado de estos tres elementos, sin que ello deba
hacernos perder de vista que Kuhn y Feyerabend llegaron a ella a partir de estudios
históricos y no mediante una reflexión puramente epistemológica. El holismo del
significado implica que el cambio de teorías conlleva un cambio en el significado
de los términos empelados en la ciencia, incluidos los observacionales. La visión
revolucionaria del cambio de teorías implica que estos cambios de significado
pueden ser muy profundos y representar discontinuidades. La tesis de la carga
teórica implica que no es posible acudir a la observación para poder mantener un
terreno común en el que fundamentar la red de relaciones significativas entre los
términos de una teoría; el cambio de teoría conlleva también un cambio en el
significado de los términos observacionales y no sólo en el de los teóricos.
2. Inconmensurabilidad e incomparabilidad
Kuhn y Feyerabend, pero sobre todo el primero, insistieron repetidas veces en que
dos teorías inconmensurables son comparables en muchos sentidos
Evidentemente, estamos hablado de teorías rivales. Dejamos de lado los casos
triviales de inconmensurabilidad que pueden darse entre teorías que nada tiene
que ver entre sí o pertenecientes a disciplinas distintas (por ejemplo, la
inconmensurabilidad entre la teoría de la evolución y la mecánica cuántica).
4
7
136
En uno de estos intentos de aclarar su posición Kuhn escribe: “al aplicar el término
inconmensurabilidad” a las teorías pretendía únicamente insistir en que no existe
ningún lenguaje común en el que ambas pueden ser completamente expresadas y
que pueda ser usado en una comparación punto por punto entre ellas”. Lo que se
excluye es una comparación que venga dando en un lenguaje neutral capaz de
recoger sin distorsiones las consecuencias empíricas de las teorías. Ahora bien,
que dos teorías no puedan ser comparados punto por punto en este sentido no
significa que no puede ser comparadas en absoluto. Kuhn menciona cinco criterios
para la comparación de teorías rivales: exactitud, coherencia, alcance, simplicidad
y fecundidad (los desarrollaremos más adelante)
4
8
137
3. Los criterios de la inconmensurabilidad
Hemos ya mencionado más arriba que, pese a las fuertes similitudes, hay
diferencias entre la concepción que tiene Kuhn y la que tiene Feyerabend de la
inconmensurabilidad. Para Feyerabend se trataba fundamentalmente de la
ausencia de conexionen deductivas entre dos teorías generales, como la teoría
medieval del ímpetu y la mecánica newtoniana; o dicho en términos
neopositivistas, de la imposibilidad de reducir la una a la otra. En cambio, para
Kuhn, la inconmensurabilidad presenta una triple faceta; al menos inicialmente,
en La estructura de las revoluciones científicas, pues a partir de los 70 podría el
énfasis sólo en la primera de ellas.
4
9
138
Sin embargo, con ello se obvia algo esencial: la masa newtoniana se
conserva, mientras que la einsteniana es transformable en energía;
asimismo, la masa newtoniana no se altera con la velocidad, mientras que
la einsteniana sí lo hace. Cierto es que a velocidades bajas los resultados
numéricos de su medición son prácticamente iguales, pero el concepto de
masa newtoniano tiene unas connotaciones que no posee el eisnteniano, y
viceversa. Estas connotaciones no pueden ser eliminadas sin que el
concepto mismo se diluya. Afirmar que la masa newtoniana es la masa
einsteiniana a velocidades pequeñas sería asumir que aquélla puede variar
con la velocidad, y eso es simplemente falso según la física de Newton.
Con esto se suscita, sin embargo, una nueva dificultad: ¿puede encajarse
la inconmensurabilidad local con el holismo semántico? Si aceptamos el
holismo del significado, unos pocos términos no pueden cambiar sin
afectar a los demás en la medida que sea. Una respuesta sería considerar
que “sólo se alteran aquellos términos que están directamente
interconectados o vinculados, ya sea por pertenecer a un mismo grupo de
contraste o por estar insertos en alguna generalización nómica”. Pero la
coherencia de este “holismo local” es también un problema que permanece
abierto en la filosofía de Kuhn.
5
0
139
Un segundo aspecto de la inconmensurabilidad es el que refiere al cambio
en las normas para la selección y evaluación de problemas. Es lo que se ha
denominado a veces “inconmensurabilidad metodológica”. Kuhn afirma
al respecto: “al aprender un paradigma, el científico adquiere juntos
teorías, métodos y normas, por lo usual en una mezcla inextricable. Por
tanto, cuando los paradigmas cambian, se da normalmente un cambio
significativo en los criterios para determinar la legitimidad tanto de los
problemas como de las soluciones propuestas”. Y es precisamente este
cambio en las normas de evaluación lo que hará que los argumentos en
favor de cada paradigma sean argumentos circulares, pues “cada
paradigma satisface más o menos los criterios que dicta para sí mismo e
incumple algunos de los dictados por su oponente”.
5
1
140
En tercer lugar, la incomensurabilidad tiene también una dimensión
ontológica. El mundo de un paradigma no puede ser casado con el otro.
Los paradigmas rivales postulan entidades muy dispares en el mundo. “En
un sentido que soy incapaz de explicar mejor -dice Kuhn-, los proponentes
de paradigmas en competencia practican sus investigaciones en mundos
diferentes. Al practicar sus investigaciones en mundos diferentes, los dos
grupos de científicos ven diferentes cosas cuando miran desde el mismo
punto en la misma dirección”. Aunque Feyerabend afirma que su idea de
la inconmensurabilidad se limita sólo a los aspectos semánticos, hay
pasajes donde se expresa de modo parecido a Kuhn en lo que se refiere a
una incomensurabilidad ontológica. Escribe:
5
2
141
o Sharrock y Read consideran que dicha idea es ante todo una
metáfora y no debe suponerse que hay detrás ninguna tesis
metafísica. Según estos últimos, lo que Kuhn quiere decir en
realidad es que después de una revolución es como si la naturaleza
hubiera cambiado: antes de la revolución los científicos hablaban
de unas cosas y después hablan de otras. Más exactamente, si bien
el mundo no cambia después de una revolución y los científicos
ven las mismas cosas, no es posible expresar de una manera
científica y neutral lo que cada uno ve. El Sol no ha cambiado tras
la revolución copernicana, pero si se dice que cuando se mira hacia
él se ve una estrella, esta afirmación no es neutral, sino que está
comprometida con la teoría copernicana.
5
3
142
Este cambio taxonómico está en la raíz de la intraducibilidad completa del
lenguaje de las teorías inconmenesurables. Pero no sólo eso, también está en la
raíz de lo que Kuhn venía denominado “cambios de mundo”, porque, como señala
Pérez Ransenz, las categorías taxonómicas pueden ser también consideradas como
constitutivas en cierto sentido de las entidades que pueblan el mundo.
Frecuentemente, los cambios taxonómicos implicados en una revolución
científica pueden dar lugar a algo más que a la aceptación de un nuevo paradigma:
son capaces de generar disciplinas y especializades completamente nuevas. En la
presentación final que Kuhn realiza del núcleo de la tesis de la
inconmensurabilidad en su último trabajo publicado en vida aparecen sintetizados
lo más importantes de los dos elementos mencionados:
Sólo puede decirse que las categorías taxonómicas son constitutivas de los
objetos en el sentido de que EL MUNDO” no posee una estructura
ontológica acabada y predeterminada, siendo, por tanto, la atribución de
ontologías algo relativo siempre a una L-estrucutra. Pero hecha tal
distinción, el realista podrá decir que cualquier cambio en nuestras
categorías taxonómicas será a lo sumo un cambio de L-estrucutra, peor no
un cambio en EL MUNDO.
5
4
143
Donald Davidson argumentó que la idea de un esquema conceptual
radicalmente inconmensurable, es decir, completamente intraducible a
nuestro lenguaje es incoherente. No podemos llamar lenguaje a algo que
no puede ser traducido a otros lenguajes. Y no sale mejor parada la idea
de una intraducibilidad parcial. Davidson adujo que, para poder traducir,
si quiera ser parcialmente, a un lenguaje distinto, hemos de suponer que
compartimos con el hablante del otro lenguaje la mayor parte de las
creencias sólo así podemos decir que compartimos un buen número de
significados: “si queremos entender a otros, hemos de considerar que están
en lo correcto en la mayor parte de los asuntos”. Esto es lo que se conoce
como el principio de caridad.
5
5
144
Las creencias que rodeaban al término “electrón” cuando lo utilizaba Bohr
no son las mismas que en la actualidad, pero hay partículas, a las que
llamamos también “electrones”, que encajan aproximadamente en la
descripción que Bohr daba del electrón. Basándose en el Principio de
Caridad de Davidson, Putnam postula un “principio de Beneficio de la
Duda” para concluir que esas partículas son las mismas a las que se refería
Bohr.
5
6
145
Es cierto que la tesis ampliamente admitida de la carga teórica de
la observación implica que la caracterización de un problema
depende siempre de un conjunto de supuestos teóricos; pero estos
supuestos no tienen por qué ser los mismos que se utilizan para
resolver el problema. Los supuestos empleados en su solución
pueden ser distintos de los supuestos correspondientes a las dos
teorías rivales. En tales casos, el problema puede ser caracterizado
de forma neutral con respecto a ambas, y puede decirse que ambas
enfrentan el mismo problema. Tomando como base esos
problemas compartidos se puede realizar una comparación
racional y objetiva de las teorías rivales. Ejemplos de problemas
compartidos sería, en el caso de cartesianos y newtonianos, el
problema de la caída libre o el de la dirección en el giro de los
planetas en torno al Sol. Otro ejemplo muy claro propuesto por
Niiniluto es el de las obervaciones telescópicas. Puede defenderse
que están cargadas de teorías de la óptica, pero son neutrales con
respecto a la teoría ptolemaica y a la copernicana.
5
7
146
Seguramente quedan muchos aspectos por dilucidar en este asunto, pero hay algo que,
después del tiempo transcurrido y de las discusiones generadas, parece claro: la
inconmensurabilidad ha resultado ser un problema menos grave de lo que en principio
pensaron sus críticos, aunque, por ello mismo, menos desafiante para la filosofía de la
ciencia anterior. Como hemos visto, no implica necesariamente incomunicabilidad, ni
incomparabilidad ni imposibilidad de interpretación, ni ruptura de la racionalidad (al
menos en la intención de Kuhn). Se limita a la falta de solapamiento en ciertas categorías
léxicas que impiden una traducción neutral y sin pérdidas entre ellas. Pero esto no es nada
que un buen traductor no puede solucionar con paráfrasis y glosas más o menos largas y
más o menos partidarias, es decir, con interpretaciones. El problema, en última instancia,
se localiza en unos pocos términos. El resto, que se supone que constituye la mayor parte
del lenguaje de las dos teorías rivales, puede ser traducido son problemas.
5
8
147
TEMA 5: EL CAMBIO CIENTÍFICO II. LOS
PROGRAMAS DE INVESTIGACIÓN Y LA
POSIBILIDAD DEL PROGRESO CIENTÍFICO
PUNTO 1: INTRODUCCIÓN
En los años siguientes a 1962, fecha de la publicación de La estructura de las revoluciones
científicas, filósofos de orientación racionalista intentaron recuperar una imagen del
progreso científico que, incorporando las aportaciones más valiosas de esta obra,
especialmente su enfoque centrado en la historia de la ciencia, evitara las consecuencias
extremas que seguían de la tesis de la inconmensurabilidad y del énfasis kuhniano en las
discontinuidades dentro de los períodos revolucionarios.
Así, a finales de los 60 y comienzos de los 70, tras darse a conocer con sus trabajos de
filosofía de las matemáticas, Imre Lakatos intentó una revisión del falsacionismo
popperiano a la luz de las objeciones de Kuhn. El resultado fue el falsacionismo
metodológico sofisticado. En él las teorías científicas se consideran integradas en
unidades históricas más amplias denominadas “programas de investigación científica”.
Son esas series históricas o teorías y no las teorías individuales las que debían tomarse
como elementos básicos de evaluación en el cambio científico.
Con posterioridad a Lakatos, Larry Laudan elaboró un modelo de cambio científico que,
al igual que el de aquél, pretendía mostrar que el cambio científico es un proceso racional
donde los haya, recogiendo al mismo tiempo algunas de las aportaciones de Kuhn. La
obra principal de Laudan es El progreso y sus problemas de 1977; aunque sus
planteamientos han experimentado desde entonces una notable evolución. Como Kuhn y
Lakatos, Laudan cree también que las unidades de evaluación y análisis del cambio
científico han de ser mayores que las teorías específicas. Él llama a esas unidades más
amplias “tradiciones de investigación” y pone como ejemplos de ellas el aristotelismo, el
cartesianismo, el newtonismo, la teoría de la evolución, la química del flogisto, la teoría
atómica de la materia, la teoría electromagnética de la luz, la psicología freudiana, el
conductismo y el mecanicismo biológico.
1
148
PUNTO 2: IMRE LAKATOS (1922 – 1974)
Lakatos fue, en un sentido importante, un filósofo popperiano. Su propósito fundamental
fue eliminar del falsacionismo, mediante las transformaciones oportunas, sus deficiencias
principales y presentar así un rival más fuerte a los ataques de Kuhn y Feyerabend. Pero
esto no obsta para que su filosofía presente en muchos aspectos una variación sustancial
con respecto a la de Popper. Como ha dicho Ian Hacking, Lakatos es un revisor de Popper
que mira a Kuhn.
Para Lakatos tiene razón Kuhn frente a Popper al pensar que el cambio científico no se
produce por una lucha bilateral entre una teoría y un experimento, sino por una lucha al
menos trilateral entre dos teorías rivales y un experimento. Tiene también razón Kuhn en
que los científicos, en su trabajo cotidiano de investigación, no buscan ante todo la
refutación de las teorías que elaboran o en las que creen, sino más bien en su
confirmación. Tiene razón Kuhn en que los científicos no son dogmáticos e irracionales
cuando en circunstancias normales tienen a ignorar los contraejemplos y ano
considerarlos como casos falsadores, sino como simples anomalías o “casos
recalcitrantes”. Y finalmente, tiene razón Kuhn en que la unidad de evaluación del
progreso científico no deben ser las teorías, sino unidades más amplias.
En cambio, se equivoca Kuhn frente a Popper al pensar que el cambo científico no
obedece a criterios metodológicos objetivos y justificables de forma transteórica; que no
existe una demarcación entre ciencia y seudociencia; que la verdad no puede ser tomada
ni siquiera como meta ideal a la que tienden a acercarse a las teorías a lo largo del
desarrollo de la ciencia; y que en la investigación científica normal un solo paradigma
consigue el monopolio durante largos períodos de tiempo.
En definitiva, para Lakatos, Kuhn tiene razón al rechazar ciertas ingenuidades y
deficiencias en el falsacionismo popperiano, como es, por ejemplo, la rapidez con la que,
según éste, la crítica es capaz de destruir una teoría científica; pero no se da cuenta de que
un falsacionismo mejorado puede escapar a las objeciones. Rivadulla ha destacado dos
formas en el que el falsacionismo lakatsiano pretende mejorar al popperiano: ofreciendo
una solución positiva al problema de la inducción, esto es, una conexión entre
corroboración y verosimilitud, salvando así a Popper de desembocar en el escepticismo y
proponiendo una imagen más racional y más ajustada del desarrollo histórico de la ciencia
al introducir el concepto de programa de la investigación científica.
2
149
1. Lakatos define su postura como “falsacionismo metodológico sofisticado” ¿Qué
quiere decir exactamente eta denominación? En su trabajo “la falsación y la
metodología de los programas de investigación científica”, publicado en 1970,
distingue entre dos tipos generales de falsacionismo: el dogmático y el
metodológico. El falsacionismo dogmático, como Lakatos mismo reconoce,
nunca fue defendido realmente por Popper en ninguna publicación, sino que es el
resultado de una simplificación de la tesis de Popper por sus críticos. Este
falsacionismo, aun cuando admite la falibilidad de todas las teorías, se caracteriza
por considerar la base empírica como infalible. Es decir, para el falsacionista
dogmático, si bien la ciencia no puede probar concluyentemente una teoría, si
puede refutarla concluyentemente, puesto que “existe una base empírica de
hechos absolutamente sólida, que puede utilizarse para refutar teorías”. La
honestidad científica consistiría en adelantar un resultado experimental contrario
a la teoría que, caso de producirse, llevaría al abandono definitivo de la misma.
Este falsacionismo dice Lakatos, es insostenible porque descansa en dos supuestos
falsos y un criterio de demarcación demasiado restringido.
El primer supuesto falso es que existe una frontera natural entre los
enunciados teóricos y los observacionales.
3
150
La respuesta de Lakatos es que la falsación de tales teorías, de producirse, no se
hará por un choque con los hechos, sino como ya apuntamos en el capítulo cuatro,
porque haya otra teoría mejor que pueda reemplazarlas. No son los hechos los que
falsan a las teorías, sino otras teorías. Esta imposibilidad de refutación meramente
empírica es una consecuencia de lo que acabamos de decir. Si no hay una
separación natural entre enunciados observacionales y teóricos, ya que toda
observación está cargada de teoría y si los enunciados observacionales no pueden
ser probados por los hechos y, por tanto, son siempre falibles, el científico puede
proteger una teoría (o una parte central de a misma) de la falsación negándose a
admitir como verdaderos los enunciados observacionales que chocan con ella o
elaborando hipótesis ad hoc que eliminen ese choque. La ciencia real no encaja,
pues, con el criterio de demarcación del falsacionismo dogmático. El progreso
científico exige tenacidad en la defensa de las teorías frente a los intentos de
falsación, cosa que este falsacionismo no toma en cuenta.
4
151
El criterio de demarcación que surge ahora es mucho más liberal que el
anterior y deja pasar más teorías. Según el nuevo criterio, son científicas
aquellas teorías que tienen una “base empírica”. Es decir, se consideran
científicas las teorías susceptibles de ser falsadas no por los hechos, no por
enunciados probados a partir de la experiencia, sino por enunciados
básicos aceptados convencionalmente.
5
152
o Otro rasgo distintivo del falsacionismo sofisticado es el papel
crucial que desempeña la corroboración de los nuevos contenidos.
Lo relevante para una nueva teoría no es saber si cuenta con
muchas evidencias a su favor (inductivismo) ni si pasó con éxito
pruebas que las anteriores no superaron (falsacionismo ingenuo),
sino saber si predijo con éxito hechos nuevos. A diferencia de lo
que mantiene el inductivista estricto, el poder probatorio de una
evidencia a factor de una teoría depende de si era conocido o no
antes de proponer dicha teoría. Si la evidencia había sido
anticipada por la teoría y era desconocida con anterioridad, tiene
mucha más fuerza probatoria.
6
153
Si tomamos como ejemplo el programa de investigación newtoniano, su centro
firme estaría formado por las tres leyes del movimiento más la ley de gravitación;
el cinturón protector incluiría hipótesis auxiliares como la óptica geométrico, la
teoría newtoniana sobre la refracción atmosférica, la masa de los planetas, etc…;
la heurística negativa sería el mandato de no tocar el centro firme, sino las
hipótesis auxiliares, y la heurística positiva incluiría, entre otras cosas, el aparato
matemática del programa (cálculo diferencial) punto con principios ontológicos
tales como “esencialmente los planetas son superficies gravitatorias en rotación
con una forma aproximadamente esférica”.
7
154
A lo sumo, un experimento crucial puede servir, dentro de un programa,
para decidir entre dos versiones del mismo; no para decidir entre un
programa y su rival. Para entender esto basta con recordar lo que ya hemos
dicho acerca de la crítica de Lakatos contra el falsacionismo ingenuo. Los
científicos tienen a considerar los “contraejemplos” como simples
anomalías, y no abandonan un programa sólo por ellas, pues todas las
presentan. Cuando el programa con el que el experimento entra en
conflicto es por añadidura un programa joven y que está creciendo
rápidamente, el experimento es ignorado sin más.
8
155
No cabe, sin embargo, una resolución inmediata de estas cuestiones. La
“racionalidad instantánea” es imposible: “pueden trascurrir décadas antes
de que los programas despeguen del suelo y se hagan empíricamente
progresivos”. Por eso se debe ser benévolo con los programas en
desarrollo y darles siempre una oportunidad. Del mismo modo que no hay
porqué ser fiel a un programa de investigación hasta que haya agotado
todo su poder heurístico, tampoco se debe rechazar un programa joven
porque éste no haya podido por el momento ser progresivo y superar a su
rival. Debe existir la ciencia una cierta “tolerancia metodológica” que
permita que los programas más débiles sean protegidos de los más fuertes
durante un tiempo, o , como Lakatos dice, de manera que los programas
puedan recuperarse “de sus enfermedades iniciales, tales como los
fundamentos inconsistentes y las estrategias ocasiones ad hoc”.
¿Qué nos permite afirmar que los éxitos de una teoría deben interpretarse
como señal del crecimiento del conocimiento? ¿Cómo decir que las
victorias del pasado otrorgan apoyo a la teoría y son una cierta garantía
para su futuro? En definitiva, ¿cómo reconocer los indicios de que nos
acercamos a la verdad viendo el historial de las teorías? Esto sólo puede
hacerse afirma Lakatos, “con ayuda de un principio adicional, sintético
inductivo (o si se quiere, cuasi-inductivo) que debe fundamentarse en
alguna correlación entre el “grado de corroboración” y el “grado de
verosimilitud”.
9
156
Ahora bien, ¿qué significa exactamente esto que afirma Lakatos de aceptar
el principio inductivo pero sin creer en él? Cabría decir con Newton-Smith
que si no se cree en él, no podrá justificar ninguna conexión entre
corroboración y verosimilitud. El problema es que Lakatos asume un
convencionalismo sobre la base empírica de la ciencia similar al de Popper
que le cierra el paso a un inductivismo lo suficientemente fuerte como para
poder justificar dicha conexión.
Para Kuhn ambos enfoques son distintos y quizá no pueden ser integrados por
completo; pero son enfoques complementarios. La historia interna es hasta ahora
la que ha obtenido más éxito a causa del aislamiento cultural en el que trabajan
los practicantes de una ciencia madura, pero sería erróneo pensar por ello que los
aspectos esenciales del desarrollo científico pertenecen en exclusiva el enfoque
interno. Hay muchos aspectos en los que los factores externos son decisivos. Los
historiadores suelen adscribirse a uno de ambos enfoques. Así, el trabajo de Kuhn
como historiador se encuadra dentro del enfoque internalista.
1
0
157
Lakatos retoma la idea central de esta caracterización pero introduce
modificaciones importantes.
1
1
158
Puesto que todas funcionan como “programas de investigación historiográficos”
y efectúan una reconstrucción racional de la historia de la ciencia, será preferible
aquella que encaje mejor con la historia real de la ciencia, o sea, aquello que deja
menos episodios históricos por explicar racionalmente. Lakatos argumenta que es
la metodología de los programas de investigación científica la que mejor cumple
con este requisito. Es ella la que menos residuos no-racionales deja a la historia
externa, o lo que es igual, la que muestra como racionales más aspectos del
desarrollo de la ciencia. Mucho de lo que para el inductivista, para el
convencionalista o para el falsacionista popperiano es irracional (las influencias
metafísicas en el primer caso, la elección una teoría cuando es discutible que sea
más simple que sus rivales en el segundo caso, la permanencia de programas con
anomalías en el tercero) es perfectamente racional para el defensor de la
metodología de los programas de investigación científica.
Para algunos, una historia interna que es una visión muy mejorada de lo
realmente sucedido y que ha de ser completada a pie de página con
aclaraciones que en el fondo desmienten lo dicho en el texto no deja de ser
una extraña mistificación carente de verdadero valor como narración
histórica. Es más, no está tan claro por qué habría de ser preferible una
metodología que minimizase la influencia de los factores externos.
Habría que averiguar antes qué papel han desempeñado realmente los
factores externos en la evolución de la ciencia para ver si deben o ser
minimizados. Kuhn argumentó que la historia interna de Lakatos es
demasiado restringida con respecto al modo en que la entiende el
historiador. Deja fuera aspectos que la mayoría de los historiadores
consideraría como internos, tales como la ideosincrasia personal del
científico, el modo en que se produce la creación científica, la forma que
adopta el producto de dicha creación, la ceguera para detectar ciertas
consecuencias de una teoría, la producción de errores, etc…
Por otra parte, dado que la historia interna de Lakatos no es sino una
selección y reconstrucción de hechos a partir de una determinada
metodología, nada habrá en ella de lo que pueda aprender el filósofo
excepto lo que propiamente éste haya introducido. El filósofo no podrá
corregir ni mejorar su propuesta metodológicamente a la luz de la
evidencia histórica, ya que lo que se considera como un episodio de
racionalidad científica es únicamente lo que dicta su metodología. ¿Qué
puede enseñar acerca de la racionalidad de la ciencia una historia en la que
es declarado como irracional, sin más indagación, todo lo que no encaje
en la metodología preestablecida por el filósofo? Esto presupone además
que la racionalidad científica puede ser juzgada en todo momento desde
los criterios propuestos en la actualidad.
1
2
159
Pero lo que quizá más hable en contra de la separación tajante entre
historia interna y externa tal como la entiende Lakatos es la dificultad para
separar en la mayor parte de los casos los factores internos de los externos
en la investigación científica. Como también sugiere Kuhn, no hay
siquiera acuerdo acerca de qué considerar como un factor interno y qué
como un factor externo. Y por supuesto, no todos los filósofos están
dispuestos a considerar los factores externos como puramente no-
racionales.
A pesar del esfuerzo de Lakatos por aunar en un todo coherente lo mejor del
modelo popperiano y de las aportaciones del giro historicista, su modelo nunca
gozó de una aceptación amplia por parte de los filósofos de la ciencia, algo que
no pudo remediar ni siquiera el empeño de seguidores tan notables como John
Worrall o Elie Zahar. Puede que en ello tuviera mucho que ver la prematura
muerte de Lakatos, pero también el hecho de que su filosofía tendía a ser vista por
unos y por otros, de forma seguramente injusta, como una mera ampliación y
desarrollo de las propuestas originales realizadas por Popper, Kuhn o Feyerabend.
1
3
160
Los aspectos que menos simpatías han despertado, dejando de lado el concepto de
historia interna, tienen que ver con la carencia de fuerza normativa del modelo y
con su convencionalismo declarado.
1
4
161
PUNTO 3: LARRY LAUDAN (1941 – 2022)
En el prólogo a la edición española de El progreso y sus problemas, y en otros lugares,
Larry Laudan sostiene que los estudios históricos sobre la ciencia han puesto de relieve
una serie de características, ya bien establecidas, del progreso científico y que cualquier
modelo normativo de racionalidad científica que pretenda alguna plausibilidad de dar
cuenta de las mismas. Son éstas
1. Las transiciones de teorías son generalmente no acumulativas
2. Las teorías no son rechazadas sólo por tener anomalías ni son aceptadas sólo por haber
sido confirmadas
3. Las cuestiones conceptuales son muy importantes en los cambios de teorías.
4. Los principios específicos de racionalidad científica no son permanentes, sino que han
cambiado con el tiempo.
5. Las gamas de actitudes cognitivas no se reduce a aceptar o rechazar una teoría, sino
que incluye también proseguir, mantener, etc…
6. Existe una variedad de niveles de generalidad en la ciencia que va desde las leyes a los
marcos conceptuales.
7. Resulta imposible caracterizar el progreso científico como un mayor acercamiento a la
verdad.
8. La coexistencia de teorías rivales es la regla y no la excepción, de modo la evaluación
de teorías es un asunto comparativo.
Como es fácil apreciar, estos ocho puntos, recojan o no lo que puede decirse con seguridad
desde la historia de la ciencia, lo que sí recogen son tesis fundamentales de Kuhn, Lakatos
y de otros promotores del giro historicista en filosofía de la ciencia. Aunque no todos
coincidirían en todas ellas. Lakatos rechazaría la tesis 4 y la 7, Kuhn la ocho. Sin embargo,
la 3 y la 5 son presentadas por Laudan como tesis no reconocidas claramente en modelos
anteriores, lo cual es, ciertamente, una exageración. Pero, sobre todo, estas ocho tesis no
dan un buen resumen de las líneas maestras del modelo de cambio científico que propone
el propio Laudan.
1
5
162
1. Siguiendo a Kuhn, con su noción de paradigma, y a Lakatos, con sus programas
de investigación, Laudan considera que las unidades de evaluación acerca del
progreso científico deben ser las tradiciones de investigación, como la teoría
atómica o la teoría de la evolución. Los científicos también emplean la palabra
“teoría” para referirse a ellas, pero a diferencia de las teorías específicas, no son
directamente contrastables, ya que, además de incluir elementos normativos, son
más generales, y por sí mismas no dan lugar a predicciones concretas.
Una tradición de investigación está encarnada por una serie de teorías específicas
relacionadas histórica y conceptualmente. No es necesario que tales teorías sean
consistentes entre sí, puesto que algunas podrán ser rivales de otras. Por ejemplo,
la tradición de investigación mecanicista en la típica del siglo XVII incluía a las
teorías en gran medida incompatibles de Descartes, Hooke, Rohault, Hobbes,
Régis y Hyugens. Dentro de una tradición de investigación, sin embargo, las
teorías comparten al menos una serie de compromisos ontológicos acerca del tipo
de entidades que se dan en el mundo y un conjunto de normas metodológicas
acerca de cómo llevar a cabo una investigación. Estos supuestos ontológicos y
metodológicos son los que caracterizan a las tradiciones de investigación, por eso
Laudan las define como “un conjunto de síes y noes ontológicos y
epistemológicos”. No obstante, como aclararemos después, no deben interpretarse
como supuestos inimitables. Por el contrario, están sujetos a cambios graduales.
Las similitudes de las tres primeras funciones con el modelo de Lakatos son
evidentes. En las tradiciones de investigación, como en los programas de
investigación científica, hay supuestos que se aíslan habitualmente de la discusión
y que se asumen sin necesidad de justificación, aunque Laudan cree que incluso
estos componentes centrales pueden cambiar lentamente con el tiempo. Por otra
parte, los supuestos ontológicos y metodológicos que constituyen una tradición de
investigación cumplen una función heurística positiva de Lakatos.
1
6
163
Proporcionan herramientas y estrategias para desarrollar teorías, o para
modificarlas en caso necesario, y permiten delimitar un ámbito de problemas
legítimos, señalando dentro de él cuáles son prioritarios. Finalmente, los
postulados ontológicos y metodológicos de una tradición de investigación
delimitan qué tipos de teorías se puede desarrollar dentro de ella, excluyendo por
anticipado a las que entren en conflicto con dichos postulados, o bien señalando
la existencia de un problema conceptual debido a dicha incompatibilidad.
1
7
164
La propuesta de Laudan de tomar la resolución de problemas como criterio de
estimación del progreso científico no es novedosa. Recordemos que Kuhn cifraba
igualmente el progreso científico en el hecho de que los nuevos paradigmas
resuelven más y mejores problemas que sus predecesores. Y podríamos
mencionar también la tesis popperiana de que la investigación científica no
comienza con observaciones son con problemas que reclaman una solución
tentativa. La diferencia principal entre Laudan y Kuhn en este asunto estaría en
que, mientras que para este última el peso y la importancia que los partidarios de
paradigmas rivales atribuyen a los problemas científicos puede ser muy deferente,
y no cabe al respecto un procedimiento neutral de decisión, para Laudan es posible
dar razones objetivas en favor de la mayor importancia epistémica de unos
problemas sobre otros.
Algunos críticos han objetado que si todo lo que se necesita para que surja
un problema empírico es que alguien lo perciba como problema real,
entonces la ciencia podría plagarse de problemas elegidos arbitrariamente.
No obstante, es importante notar que Laudan también dice que estos
problemas surgen en el seno de una tradición y sobre el fondo de un
contexto teórico, lo cual limita en mucho el tipo de cosas que pueden
tomarse como problemas que hay que considerar. Más adelante
discutiremos, sin embargo, si esta limitación es suficiente. Hay tres tipos
de problemas empíricos:
1
8
165
o Problemas no resueltos: Aquellos para los que aún no hay solución
en ninguna teoría. Son problemas potenciales que, en muchos
casos, no cuentan como auténticos problemas hasta que han sido
resueltos por una teoría. Precisamente cuando encuentran una
solución es cuando se ven como problemas genuinos (ej: el
problema del movimiento browniano durante el siglo XIX).
1
9
166
En cuanto a los problemas conceptuales, Laudan los define simplemente
como los problemas que son presentados por alguna teoría. Se dividen en:
2
0
167
3. ¿Cómo resuelve una teoría todos estos problemas? Según Laudan, “una teoría T
ha resuelto un problema empírico, si T funciona (significativamente) en cualquier
esquema de inferencia cuya conclusión es un enunciado del problema”. O, dicho
de otro modo, un problema empírico queda resuelto por una teoría si de ésta, junto
con determinadas condiciones iniciales, se puede derivar un enunciado,
habitualmente sólo aproximado, del problema. El parecido con el modelo
nomológico-deductivo de explicación es claro. En cuanto a los problemas
conceptuales, más que resolverse, se eliminan; lo cual sucede cuando una teoría
no presenta ya una dificultad conceptual que afectaba a su predecesora.
2
1
168
El descuido de los problemas conceptuales ha obedecido a la creencia en
que lo único relevante que hay que examinar para evaluar el desarrollo
histórico de la ciencia es la evidencia empírica con la que contaba los
científicos acerca de cómo contrastar las teorías y de qué cuenta como una
evidencia en su favor han ido evolucionando a lo largo del tiempo. No sólo
las teorías cambian, sino también los criterios de evaluación de las mismas
y los criterios sobre cómo realizar la investigación. Por ello, para juzgar
sobre la racionalidad de los cambios históricos en la ciencia es necesario
hacer referencia a los criterios de evaluación que compartían los
científicos del momento, en lugar de utilizar los nuestros actuales. Y eso
sólo se puede hacer si se entrega a considerar los problemas conceptuales
de las teorías junto con los empíricos.
2
2
169
4. En lo que respecta al cambio científico, Laudan piensa que los cambios en el
núcleo de la investigación no producen una tradición de investigación diferente.
Cuando los cambios dentro de la tradición no son suficientes para resolver ciertos
problemas, que sí son resueltos por una tradición rival, la tradición es abandonada.
Una tradición rival toma entonces su lugar. Esta sustitución trae consigo el cambio
de las soluciones dadas a muchos problemas, pero una gran parte de los problemas
que son los mismos que tenía que resolver la tradición anterior. Por ejemplo,
cualquier sistema astronómico ha tenido que resolver el problema de los eclipses
y cuáquer teoría sobre los gases ha tenido que explicar las relaciones entre presión
y temperatura.
2
3
170
Al carácter gradual del cambio contribuye también el que los científicos no se
limiten a aceptar o rechazar teorías. La gama de actitudes cognitivas que éstos
pueden adoptar es más amplia. Hay dos elementos de juicio principales
(sincrónico y diacrónico) para evaluar las tradiciones de investigación:
Una tradición de investigación puede ser menos adecuada que otra rival, y sin
embargo, más progresiva. Por eso, las modalidades de evaluación de las
tradiciones de investigación han de darse en dos contextos distintos, siendo la
aceptación y el rechazo modalidades sólo del primero.
2
4
171
En consecuencia, los científicos pueden aceptar una teoría o tradición de
investigación porque resuelva mejor los problemas empíricos y conceptuales que
sus rivales, y al mismo tiempo pueden considerar digna de atención y de desarrollo
otra teoría distinta, incluso incompatible, debido a que, siendo nueva, progreso
muy rápidamente. Pueden estar trabajado así simultáneamente en dos tradiciones
distintas. Todo ello representa, según Laudan, un punto intermedio entre “la
insistencia de Kuhn y de los inductivistas en el que la utilización de alternativas
al paradigma dominante nunca es racional (excepto en los momentos de crisis) y
la afirmación anarquista de Feyerabend y Lakatos de que la utilización de
cualquier tradición de investigación sin importar cuán regresiva sea, puede
siempre ser racional”.
Laudan cree que el hecho de que se despierte entre los científicos un interés grande
por una nueva tradición de investigación y que pasen a considerarla como un
aspirante serio a la lealtad de la comunidad científica es ya suficiente para decir
que se ha producido una revolución en la ciencia. Esto hace que las revoluciones
sean menos traumáticas de lo que habitualmente se supone. Para que se produzca
una revolución no es necesario que toda o la mayor parte de la comunidad
científica dé su apoyo a una nueva tradición de investigación. Basta simplemente
con que la nueva tradición de investigación se desarrolle y los científicos se
sientan obligados a tomarla en consideración.
2
5
172
Puede haber problemas que sigan siendo significativos en la nueva teoría
y que, habiendo tenido una solución en la teoría anterior, no la tengan, al
menso temporalmente, en la nueva. Por ejemplo, la mecánica celeste
Descartes explicaba por qué las plantas se mueven en la misma dirección
alrededor del Sol, mientras que la de Newton no lo hacía.
6. El resto son problemas que tenían explicación antes del cambio y la tienen también
después. Por ejemplo, tanto la teoría de Ptolomeo como la de Copérnico resolvían
el problema del movimiento de retrogradación de los planetas.
Por otra parte, las evaluaciones sobre la eficacia de las teorías para resolver
problemas deben realizarse tomando en cuenta el contexto histórico.
Laudan sostiene que los criterios de racionalidad que determinan si algo
debe considerarse o no un problema conceptual o un problema empírico
digno de atención, los criterios para considerar suficiente el rigor de un
experimento, los criterios para otorgar más peso a unos problemas que a
otros, los criterios para juzgar si una explicación es buena o si algo ha de
considerarse empíricamente corroborado, etc… cambian con el tiempo.
2
6
173
En todo caso, según el modelo de Laudan, este tipo de factores
extracientíficos pueden intervenir en las decisiones de los científicos sin
que ello las convierta en irracionales. En la medida en que las presiones
culturales que se ejercen sobre la ciencia han de ser tenidas en cuenta para
efectuar decisiones y, por tanto, en la medida en que los parámetros
específicos que constituyen la racionalidad dependen del momento y de la
cultura, el modelo favorece una concepción amplia de la racionalidad que
incluye factores aparentemente “no científicos” en los procesos de
decisión.
7. Hemos insistido varias veces en que Laudan ha estado entre los críticos
principales de la tesis de la inconmensurabilidad. Pues bien, sobre este asunto y
sobre la racionalidad del cambio científico en general tienen que ver muchas de
sus propuestas filosóficas posteriores a El progreso y sus problemas, la obra que
le dio fama y que venimos comentado. Recordemos que uno de los motivos que
llevó a Kuhn a sostener dicha tesis era el hecho de que las normas de evaluación
(standars) y los fines (goals) cambia cuando cambia el paradigma, lo cual impide
la traducción de una teoría o a tora rival. Sin embargo, estamos viendo que Laudan
reconoce que se dan esos cambios en normas y fines, pero no cree que ello
conduzca a la inconmensurabilidad de las teorías o de las tradiciones de
investigación.
2
7
174
Comienza esta obra afirmando que tanto la sociología de la ciencia como
la filosofía de la ciencia han pasado conjuntamente por dos fases
indiferenciadas.
2
8
175
o A partir de los años 60 y 70, sin embargo, el panorama sufrió una
transformación sustancial, hasta el punto de que a mediados de los
70 la imagen de la ciencia que prevalecía entre sociólogos y
filósofos chocaba frontalmente con la exterior. Ahora el problema
central era buscar una explicación para la existencia de irrupciones
periódicas el desacuerdo en la ciencia. Kuhn y Feyerabend y los
sociólogos posteriores a la escuela mertoniana han desarrollado
una explicación del disenso en la ciencia en cuatro líneas de
argumentación:
Frente a estas dos posturas, Laudan cree que es necesario establecer una
teoría de la racionalidad científica que pueda dar respuesta a estos
problemas conjuntamente, cosa que no pueden hacer ninguna de las
explicaciones ofrecidas. La primera era incapaz de explicar
satisfactoriamente la existencia de desacuerdo y de controversias en la
ciencia, mientras que la segunda tenía problemas para explicar el amplio
consenso que también se produce en ella
2
9
176
Laudan propondrá sendas críticas a ambos.
o La solución dada por los filósofos y sociólogos de las décadas de
los 40 y 50 al problema del consenso está comprometido con lo
que Laudan llama “modelo jerárquico de justificación”, el cual
estaría presente sobre todo en los trabajos de Popper, Hempel y
Reichenbag. Este modelo se compone de tres niveles
interrelacionados que se puede producir el acuerdo o el
desacuerdo.
3
0
177
Laudan estima que este modelo de justificación es útil para
explicar muchas de las conductas de los científicos encaminadas a
la formación del consenso, pero hay casos en los que fracasa. Por
ejemplo, como nos mostró la obra de Kuhn, no siempre las reglas
metodológicas compartidas permiten alcanzar un acuerdo sobre los
hechos, ni es posible siempre alcanzar un acuerdo sobre los
métodos sobre la ase de ciertos fines compartidos, ya que métodos
distintos pueden servir para conseguir esos fines. Pero sobre todo
el modelo fracasa en los casos donde los científicos no comparten
los mismos fines. Por ello, no es extraño que los defensores del
modelo, como Popper o Reichenbach, hayan argumentado que los
diferencias sobre fines obedecen a causas subjetivas y emotivas, y
no están abiertas a una resolución racional.
3
1
178
De conformidad con estas críticas, Lauda propone sustituir el modelo
jerárquico por un modelo reticular de justificación que se presenta como
una alternativa mucho más adecuada a la práctica real de la ciencia. En el
modelo reticular todos los niveles están sujetos a la crítica racional y a la
revisión a partir de los otros, produciéndose un continuo ajuste entre ellos.
Ninguno de los niveles es más fundamental que los demás, puesto que la
justificación entre niveles fluye en todas las direcciones.
Laudan subraya que este modelo sirve para proporcionar una visión
gradualista del cambio científico opuesta a la visión holista de Kuhn.
Mientras que en el modelo kuhniano el cambio de paradigma llevaba
aparejado un cambio global en los tres niveles, surgiendo de ese modelo
el problema de la incomensurabilidad, en el modelo reticular los cambios
son paulatinos y no simultáneos. Cuando se produce un cambio en uno de
los niveles, los otros dos niveles pueden estar provisionalmente fijados. Es
cierto que un cambio en las teorías aceptadas puede llevar a un cambio en
los métodos, pero éste por lo general, se efectuará un tiempo después y
afectará sólo algunas normas metodológicas.
3
2
179
Además, son posibles cambios en las teorías (incluso revolucionarios) que
no impliquen cambios en la metodología, como sucedió en el caso de la
aceptación de la teoría de la relatividad. Esto permite que las teorías
implicadas sean evaluadas con los mismos criterios. Y viceversa, pueden
darse cambios en la metodología sin que eso conlleve cambios en las
teorías aceptadas. De las relaciones entre fines y métodos podría decirse
algo similar.
3
3
180
Ya desde Sciencia and Values, Laudan venía defendiendo una meta-metodología
naturalista que basaba la contrastación empírica de los modelos metodológicos,
no en su capacidad para dar cabida a ningún tipo de intuiciones, por muy aceptadas
que sean, sino en su capacidad para generar normas cuya validez pudiera ser
directamente apoyada por los hechos históricos. En esencia, el naturalismo
normativo de Laudan entiende las normas metodológicas como imperativos
hipotéticos que conectan ciertos medios con ciertos fines epistémicos, lo que
posibilita su comprobación empírica. Para contrastarlas, basta con ver si tales
medios promueven o promovieron en realidad esos fines. Las normas
metodológicas funcionan así como conjeturas falibles y su selección deben seguir
los mismos procedimientos que cualquier teoría científica.
Si queremos, por ejemplo, saber si la regla metodológica que aconseja evitar las
hipótesis ad hoc es una regla aceptable, en lugar de apelar al juicio de la élite
científica, como proponía Lakatos, o acudir a aquellos casos históricos que de
forma intuitiva podamos considerar como paradigmáticos, como ponía el
intuicionismo previo de Laudan, lo que procede es transformar este mando en un
imperativo hipotético, tal como: “se pretende obtener teorías con una alta
fiabilidad predictiva, deben rechazarse las hipótesis ad hoc; y a continuación
comprobar si, en efecto, la historia de la ciencia muestra que la evitación de
hipótesis ad hoc ha sido un buen medio para conseguir el objetivo de la fiabilidad
predictiva”. El naturalismo sobre las normas metodológicas es completado por
Laudan con un naturalismo sobre los fines: los fines de la ciencia han cambio
históricamente y los mecanismos mediante los cuales los científicos varían de
fines son los mismos que deben emplear el epistemólogo para seleccionar las
virtudes epistémicas.
3
4
181
9. Llegados a este punto, es perceptivo mencionar, como hemos hecho con los demás
modelos de cambio científico, algunas críticas formuladas contra el modelo de
Laudan.
No está claro, pongamos por caso, por qué el problema del movimiento
retrógrado de los planetas ha de ser considerado como uno sólo en lugar
de como uno para cada planeta. Laudan afirma sólo que para que algo sea
un problema empírico basta con que sea considerado como tal por los
científicos, que alguien lo perciba como un problema, pero entonces ¿qué
impide que los partidarios de una teoría vean en ella problemas resueltos
donde los partidarios de otra no ven problemas en absoluto? ¿Qué
garantiza que los problemas empíricos sean un elemento de continuidad
entre tradiciones de investigación?
3
5
182
Por otra parte, los problemas conceptuales más graves, como Laudan
reconoce, son las inconsistencia en el seno de una teoría; pero si las
inconsistencias representan un problema ¿no es justamente porque la
teoría en la que aparecen no puede ser verdadera? El realista no tendría
inconveniente en admitir que el progreso científico consiste en el aumento
de la eficacia en la resolución de problemas por parte de las nuevas teorías,
sólo que para él esto es una consecuencia del progreso que se realiza en la
consecución de teorías más cercanas a la verdad.
3
6
183
Laudan pensaba que el cambio de método y de fines en la ciencia no es
incompatible con la noción de progreso objetivo (con respecto a un fin
dado), porque para hacer una estimación del progreso no tenemos por qué
utilizar los criterios y fines de los protagonistas del cambio de teoría.
Podemos aplicar nuestros propios criterios, que suponemos mejores por
haber experimentado un mayor proceso de ajuste según el modelo
reticular, y emitir un juicio en fundación de ellos exclusivamente. Worrall
considera, por el contrario, que no podemos decir que nuestros criterios
sean mejores si no es sobre la base de algunos principios permanentes de
evaluación que son constitutivos de la propia racionalidad.
3
7
184
PUNTO 4: ALGUNAS INDICACIONES SOBRE LA SITUACIÓN ACTUAL
Los modelos de cambio de Lakatos y de Laudan no son los únicos que se han elaborado
en respuesta a las tesis de Kuhn y Feyerabend. Otros modelos dignos de mención el de
Dudley Shapere, el modelo estructuralista, el de Ronald Giera y el de Ikka Niiniluoto).
En segundo lugar, son cada vez más los que admiten que los métodos y
los criterios de evaluación científica han cambiado a lo largo de la historia.
El propio avance en los conocimientos ha propiciado este cambio en los
métodos. Al aprender cosas sobre el mundo hemos aprendido también a
mejorar nuestra forma de conocerlo. Los métodos son en muchas
ocasiones el resultado de la aplicación de los avances en la investigación
empírica. Se discute, sin embargo, la amplitud y alcance de estos cambios,
y si afectan sólo a normas concretas o también a principios muy generales.
En todo caso, el pluralismo metodológico defendido por Kuhn,
Feyerabend y Laudan parece imponerse sobre el monismo metodológico
al estilo del neopositivismo, de Popper y de Lakatos.
3
8
185
Una cuestión relacionada, pero en la que hay mucho más disenso, es si
también han cambiado los fines de la ciencia a lo largo de su historia.
Mientras Laudan mantiene que así es, y que por ello mismo ningún fin
puede considerarse constitutivo de la ciencia, otros autores mantienen que
los fines cognitivos generales no han cambiado. Entre los candidatos a
estos fines permanentes están la búsqueda de teorías (Aproximadamente)
verdaderas (para los realistas), de teorías empíricamente adecuadas (para
los neopiristas), de teorías con capacidad predictiva (para los
instrumentalistas), etc… Por su parte, David Rsnik ha negado que la
ciencia tenga fines que puedan servir para justificar normas
metodológicas. Los que tienen fines según su opinión, son los científicos,
y estos pueden ser muy diversos. Es una cuestión abierta si caso de haber
cambiado de métodos y de fines, esto conduce o no a una posición
relativista.
Parece también hacer un cierto acuerdo en que las unidades del análisis
del cambio científico deben ser más amplias que las teorías individuales.
Las diversas modalidades de dicho cambio, así como los matices de cada
una de ellas, sólo pueden ser apreciados si en lugar de ver el cambio como
la sustitución de una teoría por otra, al contemplamos como la transición
de un conjunto de teorías relacionadas (llámese paradigma, programa de
investigación, tradición de investigación, o como sea) a otro distinto. Dado
que estas unidades más amplias tienen una estructura compleja, el cambio
puede darse en ellas en distintos niveles, sin que tenga que cambiar todo
de una vez. Ello permite que unas partes están más expuestas al cambio
que otras.
3
9
186