Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
0% encontró este documento útil (0 votos)
0 vistas186 páginas

Apuntes FC I

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 186

TEMA 1: INTRODUCCIÓN A LA FILOSOFÍA

DE LA CIENCIA

PUNTO 1: LOS ORÍGENES DE LA FILOSOFÍA DE LA CIENCIA


La filosofía de la ciencia es una materia con un gran pasado. La ciencia es una parte de la
cultura con una importancia creciente en nuestra sociedad, encerrando problemas
filosóficos que están lejos de haber sido resueltos. Pero Feyerabend tiene razón en cuanto
al pasado de la filosofía de la ciencia. La reflexión sore las características de la ciencia
como modo de conocimiento, así como sobre sus métodos ha generado durante siglos una
literatura abundante. Numerosos filósofos y científicos de todas las épocas han dedicado
en mayor o menor medida una parte de sus trabajos a pensar sobre la ciencia. Cierto es,
sin embargo, que estas reflexiones estaban normalmente circunstancias a fines ulteriores,
bien sea como propedéutica o introducción a algún trabajo científico, bien como aspecto
particular derivado de una consideración general sobre el conocimiento humano.
La reflexión sobre la ciencia no es cosa solo de hoy. Las páginas que Aristóteles dedica
a la deducción y a la inducción, profundizadas en la Edad Media por Robert Grossete y
Roger Bacon, la defensa, ya en época moderna, por parte de Francis Bacon de un método
inductivo renovado, y por parte de Descartes del método deductivo combinado con el
mecanicismo (el universo físico puede explicarse como materia en movimiento); la crítica
de Hume al concepto tradicional de causa y a la justificación de las inferencias inductivas;
el magno proyecto de Kant para fundamentar en la estructura de la propia razón los logros
de la física newtoniana; todos ellos son hitos destacados en la historia del pensamiento
filosófica acerca de la ciencia. A ellos podrían añadirse las aportaciones en el siglo XIX
de William Whewell y John Stuart Mill, y las de Ernst Mach y Pierre Duhem a finales del
siglo XIX y principios del XX.
1. Si seguimos un criterio actual para delimitar esta disciplina y miramos desde él al
pasado, un pensador que podría se calificado con todo propiedad de “filósofo de
la ciencia” es el inglés William Whewell (1794-1866), autor de dos obras de
considerable enjundia que ejercieron una gran influencia en muchos pensadores:
History of the inductive Sciencies (1837) y The Philosophy of the inductive
Sciencies (1840).

Lo mismo puede decirse de un contemporáneo de Whewell algo más joven, el


también inglés John Stuart Mill, autor de A system of Logic (1843), obra que es
considerada como una de las fuentes primarias del positivismo en filosofía de la
ciencia. En ella se presenta al lector, aun de forma incipiente, elementos centrales
de la filosofía de la ciencia, como el análisis lógico de las inferencias inductivas,
el modelo nomológico-deductivo de explicación, la determinación del papel de
las hipótesis en las ciencias, etc…

1
1
Se da además la circunstancia de que Mill es el primer autor que aboga de forma
sistema la metodología de las ciencias humanas y sociales. Es digna de mención
también una obra que infló notablemente sobre Mill, A preliminary Discourse on
the Study of Natural Philosophy, escrita por el matemático y astrónomo John
Herschel y publicado en 1830. En ella se hace una defensa del uso de hipótesis en
la ciencia y se establece una clara separación entre el contexto de descubrimiento
y el contexto de justificación, un asunto del que hablaremos seguidamente.

El hecho de que éstas sean obras dedicadas exclusivamente a la filosofía de la


ciencia, estén apoyadas -en especial The philosophy of Inductive Sciences de
William Whewell- en un análisis serios de la historia de la ciencia y tenga plena
conciencia de los objetivos de este tipo de estudio, así como de su importancia
para la filosofía y para la ciencia, las hace pioneras en ese campo y antecedentes
claros de la filosofía de la ciencia tal como hoy la entendemos.

La primera cátedra de filosofía de la ciencia se crea en Viena en 1895, con la


denominación de “Filosofías de las Ciencias Inductivas”. El primero que la ocupó
fue Ernst Mach, al que sucedió Ludwig Boltzmann, y en 1922, Moritz Schlick, el
fundador del Círculo de Viena. Pero es después de la Segunda Guerra Mundial
cuando, gracias sobre todo a la labor que venían desarrollando previamente los
seguidores de positivismo lógico, la filosofía de la ciencia se transforma en una
disciplina independiente de la teoría del conocimiento y pasa a ocupar un lugar
propio y destacado dentro del ámbito general de la filosofía.

2. Uno de los elementos determinantes en el surgimiento de esta disciplina provino


de la propia ciencia. Durante el primer tercio del siglo XX la física experimentó
cambios tan profundos en sus teorías fundamentales que constituyeron una
auténtica revolución científica, en muchos puntos comprables a la revolución
científica del siglo XVII. Esta “crisis de la física”, como alguien llamó, trajo
consigo una transformación no menos radical en el modo en que venía siendo
considerado el conocimiento científico.

La aparición a comienzos del siglo XX de la teoría de la relatividad especial


(1905) y general (1916) -debidas ambas al genio de Albert Einstein- y de la teoría
cuántica (1907-1927) hizo que muchos situaran la necesidad de revisar las
opiniones más extendidas acerca del modo en el que se desarrolla la ciencia y el
rango cognoscitivo al que deben aspirar las teorías científicas. Estas opiniones
extendidas, al menos entre los científicos, estaban basados o bien en una filosofía
kantiana sofisticada o bien en un empirismo radical que era hostil a toda hipótesis
sobre entidades inobservables y que intentaba reducir todo conocimiento a
experiencia posibles de realizar por los seres humanos. La revolución de la física
a comienzos del siglo XX puso de manifiesto dos cosas para los interesados en la
epistemología o teoría del conocimiento:

2
2
 La teoría más firme y sólida conocida hasta el momento, la mecánica
newtoniana, no era una verdad definitiva, sino que habrá sido sustituida
por una física nueva que mostraba como falsos algunos de los elementos
centrales de la misma (invariabilidad de longitud, tiempo y masa con
respeto a la velocidad, no equivalencia entre masa y energía, posibilidad
de atribuir en principio un valor exacto a todas las variables relevantes de
los fenómenos, etc….) Por tanto, la pretensión de los kantianos de basar
esa física newtoniana en un supuestos conocimiento sobre el mundo válido
con anterioridad a cualquier experiencia (juicios sintéticos a priori)
quedaba tocada bajo la línea de flotación.

 La creatividad humana y no la experiencia pasiva es la fuente de donde


surgen las explicaciones científicas. Un seguimiento escrupuloso de los
métodos inductivos, tomando como punto de partida la experiencia
conocida, no habría podido general estas nuevas teorías. La ciencia no es,
pues, una forma comprendida de almacenar experiencias sensibles, sino
que necesita de hipótesis arriesgadas que vayan más allá de los hechos
observables. Estas hipótesis pueden tener la forma de modelos
matemáticos incapaces de ser interpretados de forma intuitiva. Los
principios de la física son, como decía Einstein, “invenciones del intelecto
humano”, no generalizaciones obtenidas a partir del análisis de los datos
de la experiencia, aunque sea la experiencia la que decida en última
instancia sobre su utilidad.

3. Como ya hemos señalado, los miembros del Círculo de Viena estuvieron entre los
primeros que intentaron elaborar una nueva forma de entender el conocimiento
científico que pudiera sintetizar adecuadamente con la física recién surgida, y
puede decirse que gracias a sus innovadores trabajos ya su influencia personal
surgió la filosofía de la ciencia como disciplina autónoma, extendiéndose después
su institucionalización académica a partir de los años 50. No obstante, de las dos
consecuencias de la revolución en la física que acabamos de mencionar, el Círculo
de Viena extrajo con rotundidad la primera. Hubo que esperar a la obra de Karl
Popper ara ver claramente asumida la segunda.

El Círculo de Viena estuvo constituido por un grupo de científicos con intereses


filosóficos y de filósofos con formación científica que desde 1924 se reunía los
jueves por la noche en la ciudad de Viena. Todos acudían convocados por el
prestigio y la personalidad amble del físico y filósofo Moritz Schlick, catedrático
desde 1922, como ya hemos dicho, de Filosofía de las Ciencias Inductivas en esa
ciudad. Por citar sólo algunos nombres, entre los miembros del grupo con una
vocación más volcada hacia la filosofía estaban Rudolf Carnap, Herbert Feigl,
Victor Kraft y Friedrich Weismann, y entre los científicos estaban los
matemáticos Hans Hahn, Gustav Bregmann, Karl Meger y Kurt Gödel, el físico
Philipp Frank y el economista y sociológico Otto Neurath.

3
3
 La herencia filosófica de la que se nutrían era el empirismo radical,
especialmente a través de la obra de Ernst Mach. Pero en sus manos
alcanzó una formulación mucho más rigurosa que le habían dado los
filósofos anteriores. Todos ellos estaban también sumamente
impresionados por los avances en lógica matemática y filosofía del leguaje
logrados por Gottlob Frege, Bertrand Russell y Ludwig Wittgenstein.
Vieron en la lógica un valiosísimo instrumento de análisis, no sólo de las
teorías científicas, sino del lenguaje en general. Este análisis lógico del
lenguaje permitiría mostrar, según pensaban, que los problemas
tradicionales de la metafísica, y de la filosofía en su conjunto, son
pseudoproblemas suscitados por un uso ilegítimo del lenguaje.

 Además, los trabajos de estos autores convencieron a los miembros del


Círculo de que la matemática podría reducirse a la lógica y que los
enunciados que formaban el contenido de ambas ciencias debían
considerarse como analíticos, es decir, como transformaciones
tautológicas dentro de un lenguaje y, por tanto, sin un contenido
informativo acerca del mundo. El énfasis en el papel del análisis lógico
como única forma posible de la filosofía y la consideración de la
matemática y de la lógica como ciencias formales sin contenido empírico
eran los puntos que más separaban sus planteamientos de los del
positivismo anterior, como el de Comte, Mill o Mach.

 En 1929, aprovechando la oportunidad que proporcionaba la coincidencia


de varios congresos científicos en Praga, tres miembros del grupo, Hans
Hahn, Otto Neurath y Rudolf Carnap, redactaron un pequeño escrito de
presentación que sirvió como verdadero manifiesto del Círculo de Viena.
Llevaba un título directo y comprometido: “la concepción científica del
Mundo”, que se distingue por dos rasgos (Carnap, 1929, p. 309):

o Es empirista y positivista: sólo hay conocimiento a partir de la


experiencia, que descansa en lo inmediatamente dado. Esto marca
los límites del contenido de la ciencia legítima.

o Segundo: la concepción científica del mundo que se caracteriza por


la utilización de u cierto método, a saber, el análisis lógico.

4
4
 En 1930, editado por Carnap y Reichenbach, apareció el primer número
de la revista Erkenntnis, que sigue publicándose en la actualidad. Esta
revisión en sus primeros números recogió algunos de los trabajos
fundamentales de los miembros del Círculo y fue su medio principal de
expresión. La filosofía del Círculo de Viene recibido el nombre de
neopositivismo o positivismo lógico. Emparentada estrechamente con
ella, surgió también en Berlín por las mismas fechas y de la mano de Hans
Reichenbach y de Carl Gustav Hempel una variante menos estricta en
algunos puntos centrales a la que más tarde, sobre todo después de añadir
influencias de la filosofía analítica y del pragmatismo norteamericano, se
denominó “empirismo lógico”. A partir de los años 50 el empirismo
lógico, más que el positivismo lógico, fue la filosofía predominante entre
los herederos del Círculo hasta el comienzo de su declive a mediados de
los años 60.

Según el positivismo lógico, los enunciados sintéticos, esto es, todos los
que pretenden afirmar algo acerca del mundo, para tener significado han
de ser reductibles a un lenguaje que verse sólo sobre cosas observables.
En un principio se discutió en las reuniones del Círculo cómo debía
interpretes este lenguaje observacional o “protocolario”, como lo
llamaron, al que debían traducirse los enunciados sintéticos. El calificativo
de “protocolario” obedecía a que se concebía como el tipo de lenguaje que
se emplea por parte d ellos científicos en los protocolos de
experimentación en los laboratorios. Carnap y Schlick eran partidarios de
entenderlo como un lenguaje fenomenalista, mientras que Neurath se
inclinaba más bien por un lenguaje fisicalista.

o El lenguaje fenomenalista sería un lenguaje referido sólo a


experiencias inmediatas, a datos sensoriales. Estaría constituido
por descripciones de las sensaciones inmediatas de los sujetos,
como “ahora hay un triángulo en campo visual” o “R. C percibió
tal cosa en el tiempo t en un lugar o”.

o Por su parte, el lenguaje fiscalista no sería exactamente el lenguaje


de la física, pues contenía también términos propios de otras
disciplinas, pero estaría muy cercano a él, ya también términos
propios de otras disciplinas, pero estaría muy cercano a él, ya que
en última instancia todos sus términos se reducirían a sus
determinaciones físicas, y de ahí el nombre. El lenguaje fiscalista
habla sólo de las propiedades y relaciones observables entre las
cosas materiales; y se postulaba como el lenguaje universal de
todas las ciencias.

5
5
Tras varias discusiones sobre el asunto, Carnap terminó aceptando
la interpretación fisicalista, que tenía la ventaja de no hacer que el
conocimiento, especialmente el científico, descansase sobre algo
tan subjetivo, como las sensaciones de individuos concretos. El
fisicalismo fue, pues, la interpretación del lenguaje observacional
que finalmente se convirtió en la postura oficial del círculo de
Viena.

La tesis de que el lenguaje fisicalista debía considerarse como el


lenguaje universal de la ciencia comportaba un cierto programa
para la unificación de todas las disciplinas científicas, incluidas las
ciencias humanas, bajo un mismo lenguaje y un mismo método.
Este ideal de Ciencia Unificada estaba animado por los éxitos
parciales, pero impresionantes, en las reducciones (en el sentido
explicativo) que se habían conseguido ya para entonces de la
química a la física, de la biología a la química y a la física, y de la
psicología a la neurofisiología.

 Como meta lejana de este programa de explicación unitaria, era imaginada


una futura física teórica de la cual serían derivables todos los fenómenos
observables del universo entero (incluyendo la vida orgánica y la mente).
Para promover este proyecto de unificación de las ciencias algunos
miembros y colaboradores del Círculo crearon en 1937, en La Haya, el
Instituto internacional para la Unidad de la Ciencia, y en 1938 la
Universidad de Chicago inició la publicación de una serie bajo la
denominación de “Enciclopedia Internacional de la Ciencia Unificada”.
En ella se publicarían años más tarde La estructura de las revoluciones
científicas de Thomas Kuhn.

 Sin embargo, en la práctica científica, esta postura conducía a enormes


dificultades cuando se adoptaba con espíritu consecuente. En el campo de
la psicología conducía al conductismo radical. El conductismo sólo
admitía como proposiciones psicológicas aquellas que estuvieran referidas
a comportamientos observables. Pero los críticos hicieron notar que el
conductismo no realiza del todo el programa fisicalista, ya que transpone
las proposiciones psicológicas en el lenguaje corriente, y de ningún modo
en el lenguaje de los procesos físicos. Además, los enunciados sobre
estados y procesos físicos en general son enunciados científicos legítimos,
por mucho que no puedan ser traducidos al lenguaje fisicalista.

6
6
 La pretensión del Círculo de Viena era la de efectuar una reconstrucción
lógica de las teorías científicos, tal como éstas debían ser desde una
consideración puramente racional. No intentó nunca que esta
reconstrucción fuese una descripción del origen y desarrollo real de duchas
teorías científicas. Ésta era, en opinión de sus miembros, una tarea para
psicólogos, sociólogos e historiades de la ciencia.

El papel del filósofo de la ciencia, según la distinción que trazó


Reichenbach de forma explicita en su libro de 1928 Experience and
prediction, debe ligarse al contexto de justificación de las teorías, y debe
dejar al psicólogo, al sociólogo y al historiador el contexto de
descubrimiento. Es decir, para el neopositivismo a la filosofía a de la
ciencia no le interesa cómo se descubren las teorías, ya que esto obedece
a circunstancia muy variadas y no está sometido a criterios lógicos. En
cambio, su tarea principal es evaluar los procedimientos mediante los
cuales justifican los científicos las teorías que defienden, tarea en la que la
lógica sí que tiene mucho que decir.

 El círculo de Viena se caracterizó también por una actitud fuertemente anti


metafísica. Consideraban que la metafísica era un discurso sin sentido. La
filosofía, por lo tanto, no debía dedicarse a ese tipo de especulaciones ni a
elaborar ningún discurso sobre el mundo que no pudiera ser comprobado
a través de la experiencia. Su función debía quedar reducida al análisis
lógico del lenguaje. De este modo, por ejemplo, el filósofo no debía
preguntarse directamente qué es el conocimiento, sino cuál es la estructura
lógica del lenguaje científico y cómo representa este lenguaje los hechos
reales. Ello, no obstante, lo cierto es que el positivismo lógico elaboró una
epistemología empirista cuyos supuestos básicos, aunque no todos los
compartieran, pueden resumirse del siguiente modo:

o Existe una base puramente observacional sobre la que se


fundamenta la objetividad científica.

o La observación científica es un proceso neutral desde el punto de


vista teórico, que se atiene únicamente a lo dado.

o Sobre la base de los datos observacionales el científico procede


fundamentalmente de forma inductiva, confirmando así leyes
aplicables a unta totalidad de fenómenos.

o Es precisamente el fuerte apoyo inductivo que alcanzan las leyes


generales y las teorías lo que justifica su admisión por parte de los
científicos.

7
7
o En consecuencia, el desarrollo científico es un proceso
acumulativo en el que va mejorándose el paso inductivo de las
leyes y teorías, de modo que las que ya han logrado una
confirmación suficientemente alta pan a formar parte de un cuerpo
de conocimientos bien establecido.

PUNTO 2: ¿TIENE UTILIDAD PARA LA CIENCIA LA FILOSOFÍA DE LA


CIENCIA?
La importancia de la ciencia en el mundo contemporánea es tal que a ningún filósofo se
le oculta hoy la necesidad de conocer en alguna medida cuáles son las cualidades del
conocimiento científico, cómo se produce y cuáles son sus efectos sobre la sociedad. Pero
¿qué interés puede tener la filosofía de la ciencia para un científico, el cual se supone que
conoce de primera mano estas cuestiones? Ésta es ciertamente una cuestión delicada. Es
evidente que conocer la filosofía de la ciencia no es necesario para hacer buena ciencia,
y que, por tanto, los científicos no tienen necesidad de prestarle atención para desarrollar
su trabajo; sin embargo, no es exagerado e injusto, como digo, afirmar que la filosofía de
la ciencia no ha contribuido a mejorar nuestra comprensión de la ciencia. Diríamos que
hay, por sintetizar, dos grandes corrientes en esta cuestión
1. El hecho es que, lo sepan o no, muchos científicos mantienen una concepción
determinada de su actividad como científicos y de la propia ciencia como modo
de conocimiento que les llega, por vías indirectas, desde la obra de los filósofos
de la ciencia. Hay muchos científicos que son positivistas, instrumentalistas,
falsacionistas o realistas sin tener plena conciencia de ello, e incluso pensando en
ocasiones que su pinto de vista no encierra ninguna filosofía, sino que es una
descripción objetiva de su propia experiencia como investigador cuando no (como
sostiene Wolpert) mero sentido común.

Para un buen número de personas, científicos incluidos, la ciencia es un modo de


conocimiento que se atiene únicamente a los hechos. Los hechos, una vez
establecidos, hablan por sí solos. El científico debe únicamente observarlos
atentamente e inferir de ellos teorías que los expliquen, las cuales quedarían a su
vez verificadas si encuentran nuevos hechos que las apoyen. La ciencia sería así
ajena a cualquier tipo de especulación, ya sea filosófica o de otra índole. El
científico sólo tomaría en cero los hechos bien constatados y las teorías
sustentadas sobre ellos. Las controversias científicas terminan una vez que los
hechos han dado la razón a una de las partes contendientes.

8
8
Pues bien, esta imagen de la ciencia, que no oculta su rechazo a cualquier
contaminación filosófica, es ella misma una posición filosófica llamada
positivismo, y aunque su germen ha estado presente siempre en la ciencia
moderna, no cobró empuje hasta mediados del siglo XIX, cuando Comte la
sistematizó y difundió. No obstante, su influencia actual -tan grande que continúa
siendo un modo muy habitual de considerar la ciencia- proviene más bien de una
interpretación simplificada y distorsionada de las tesis defendidas por el Círculo
de Viena y el empirismo lógico.

2. Sin embargo, son cada vez más los científicos que consideran inadecuado este
modo de describir su actividad. Sostienen que no hay hechos desnudos si no hay
una teoría previa que los localice y los interprete. Sostienen también que las
teorías no vienen dictadas por los hechos, como si bastara generalizar éstos para
alcanzarlas, sino que elaborar una teoría es una labor sumamente creativa e
imaginativa en la que los hechos son sólo una parte inicial de un cóctel que
incluye, además de otras teorías científicas previamente aceptadas, ideas
filosóficas, preconcepciones culturales y hasta creencias religiosas. Estiman, sin
embargo, que esta mezcolanza, en lugar de perjudicar a la ciencia con indeseables
“contaminaciones”, es -al menos en lo que a producir nuevas ideas se refiere-
requisito imprescindible de su progreso. Y, finalmente, prefieren considerar sus
teorías como hipótesis más o menos corroboradas, pero siempre revisables, en vez
de como verdades definitivamente probadas. Si la anterior imagen de la ciencia
era positivista, ésta tiene como su fuente principal la obra de Karl Popper.

Así pues, por lo pronto, cabe rastrear una filosofía de la ciencia implícita en las
concepciones de la ciencia que sustentan los científicos, y no sería una labor inútil el
intentar hacerla explícita y mejorarla con buenos argumentos. Puede que el conocimiento
de la filosofía de la ciencia no sea necesario para hacer buena ciencia (seguramente no lo
es), pero tampoco es desde luego perjudicial para el científico. Le serviría para descartar,
por ejemplo, de entre sus supuestos filosóficos los que se hayan mostrado como
insostenibles en el debate filosófico a lo largo de los años. De ello se deriva a la relación
entre el trabajo científico y su relación con la filosofía de la ciencia.

3. A veces se dice, sin embargo, que la filosofía de la ciencia se hace de espaldas a


la propia ciencia y por personas que la desconocen. No vamos a negar que en
algún caso esto haya podido ser así, pero es muy dudoso que quepa descalificar
de este modo a la filosofía de la ciencia realidad por los autores más prestigiosos.
Todos los grandes filósofos de la ciencia o se han formado como científicos y
luego se han pasado al campo de la filosofía o son filósofos de formación, pero
con estudios complementarios de ciencia. Popper era licenciado en física, al igual
que Kuhn o Feyerabend; y lo son también Larry Laudan y Ronald Giere. Carnap
había estudiado matemáticas y física, y lo mismo Lakatos. Phillip Kitcher e Ikka
Niinluoto se formaron como matemáticos.

9
9
No obstante, aunque esto muestra que muchos filósofos de la ciencia tienen
conocimientos de primera mano sobre la misma, no significa que para ser un buen
filósofo de la ciencia hay que haber cursado necesariamente una licenciatura en
ciencias. Algunos de los mejores han adquirido sus conocimientos científicos con
posterioridad, como Michael Ruse, Ellliot Sober o David Hull en el campo de la
biología o Patricia Churchland en el campo de las ciencias cognitivas.

4. Por otra parte, hay ejemplos, aunque podemos concederle a Wolpert que en las
ciencias naturales no son muy numerosos, de cómo la filosofía de la ciencia ha
ejercido una influencia directa y positiva en la investigación científica. Uno de
ellos es reconocido por el propio Wolpert. Se trata del caso de Ernst Mach. En su
obra de 1883 Desarrollo histórico-crítico de la mecánica realizó una crítica
filosófica de los conceptos newtonianos de espacio y tiempo absolutos que ejerció
una gran influencia sobre Einstein. Mach era un defensor del fenomenismo.

El fenomenismo es la tesis según la cual los objetos que percibimos no son sino
construcciones de nuestras sensaciones o “fenómenos”. Un tiempo y un espacio
absolutos no tienen sentido desde esta perspectiva, y que no tenemos ninguna
sensación sobre ellos. Mach rechazó el tiempo absoluto porque “no puede ser
medido por ningún movimiento que no tiene pues ningún valor práctico ni
científico; nadie está autorizado a decir que sabe algo de él; no es sino un ocioso
concepto “metafísico””. E igual con el espacio absoluto.

Es también un caso conocido la influencia que las disputas filosóficas y


metodológicas entre Bohr y Heisengber por un lado y entre Bohr y Einstein por el
otro tuvieron en la formulación de los fundamentos de la teoría cuántica. Y no se
puede decir que estas diferencias filosóficas quedaron sólo en el plano teórico,
aunque una clarificación en este plano haría sido ya una contribución apreciable
el avance de la ciencia. El experimento mental conocido como paradoja de
Einstein Podolski Rosen, que tiene su origen en estas disputas y más en particular
en las convicciones realistas y determinista de Einstein, ha dado lugar
posteriormente a resultados experimentales que han permitido establecer, por
ejemplo, que no son posibles teorías locales de variables ocultas. Finalmente, se
puede citar también el caso de la filosofía de la biología; un ámbito en el que se
produce una colaboración particularmente activa entre científicos y filósofos.
Basta recordar el papel que la filosofía de Popper ha desempeñado en el debate
entre diferentes escuelas taxonómicas, o la contribución que se ha hecho desde la
filosofía en la aclaración y articulación de algunas tesis evolucionistas, así como
de algunos conceptos como el de “eficacia biológica” o de “especie”.

1
0
10
PUNTO 3: ¿ES LA FILOSOFÍA DE LA CIENCIA UNA DISCIPLINA
DESCRIPTIVA O NORMATIVA?
Queda aún una cuestión importante por aclarar en lo que se refiere la tarea de la filosofía
de la ciencia: ¿ha de entenderse la filosofía de la ciencia como una disciplina capaz de
dictar normas acerca del modo en que debe procederse para hacer ciencia de forma más
eficiente o más racional con independencia que esas recomendaciones sean oídas o no
por los científicos?¿O debe limitarse, por el contrario, a decir simplemente como ha sido
hecha en realidad la ciencia hasta el momento?¿Debe emitir juicios acerca de los métodos
y valores que servirían para mejorar su práctica, o debe circunscribirse a una descripción
de los que han sido empleados por los científicos a lo largo de la historia, absteniéndose
de cualquier tipo de recomendación o legitimación? Dicho brevemente: ¿Es la filosofía
de la ciencia una disciplina descriptiva o normativa? Si revisamos lo que han hecho los
filósofos de la ciencia, nos encontraremos con que ambas concepciones de la disciplina
han sido mantenidas.
1. Así, por ejemplo, es fácil reconocer el normativismo en el proyecto de Ciencia
unificada del Círculo de Viena y en otros momentos.

 Estos primeros no sólo pretendían una fundamentación lógica de las


ciencias. Este proyecto abrigaba en el fondo un propósito de desarrollar
las ciencias humanas y sociales tomando como modelo los métodos y
procedimientos de las ciencias naturales, en particular los de una física
reconstruida mediante la lógica.

Contenía, pues, un mandato implícito, pero claro para los científicos


sociales: el modo de elevar el nivel científico de las ciencias humanas y
sociales es adoptar el método científico al como se ha venido aplicando en
las ciencias náurales desde Galileo en adelante; abandonando supuestos
métodos alternativas (como la comprensión o la empatía) e introduciendo
hasta donde sea posible la experimentación y la matematización. De
hecho, la mera idea de ofrecer reconstrucciones de las teorías científicas
en forma axiomática y de proponer dicha forma axiomática como modelo
idealizado para la articulación de las teorías es una señal clara del
prescriptivismo que impregnaba las propuestas del Círculo de Viena.

 Asimismo, los criterios de demarcación entre ciencia y no-ciencia


propuestos no sólo por el neopositivismo, sino también por Popper y por
Lakatos fundamentalmente son ejemplos de filosofía de la ciencia
normativa, ya que pretenden establecer un marco normativo para
determinar lo que es ciencia y lo que no lo es. Desde este marco normativo
se establece lo que es buena ciencia, lo que es un comportamiento racional
en ciencia, lo que es jugar limpio en ciencia, y se preescribe de forma más
o menos clara que los científicos han de comportarse de acuerdo con esa
imagen ideal.

1
1
11
2. Por otro lado, en la obra de Kuhn, un autor que reaccionó fuertemente contra este
intento, encontramos una filosofía de la ciencia que se marcaba el propósito
explícito de permanecer apegada a la historia real de la ciencia y alejada de
preconcepciones o de “reconstrucciones racionales”. Aunque Kuhn no negó que
sus ideas pudieran tener ciertas consecuencias normativas, es evidente que el
objetivo más destacado de su obra el de socavar diversos prejuicios provenientes
de doctrinas filosóficas que, según su opinión, han idealizado a la ciencia e
impiden realizar una descripción del modo en que se ha producido realmente el
cambio científico a lo largo de la historia.

Kuhn no pretende diluir, sin embargo, la labor del filósofo de la ciencia en la del
historiador de la ciencia. El filósofo, más que en la narración histórica, está
interesado en las consecuencias que puede seguirse de ella para forjar una imagen
adecuada de la práctica científica. El filósofo realiza generalizaciones que
pretenden ser válidas en todo tiempo y lugar, mientras que el historiador sólo
busca explicar algo que aconteció en un tiempo y en un lugar. Pero, sus propuestas
deben realizarse desde el conocimiento de la historia de la ciencia. Quizás haya
habido otros filósofos de la ciencia más descriptivas que Kuhn, pero pocos que
hayan acercado tanto la filosofía de la ciencia a la historia de la ciencia, al menos
a cierta historia de la ciencia (y, paradójicamente, que hayan insistido tanto en la
inutilidad de la filosofía de la ciencia para el historiador de la ciencia).
¿Quién tiene razón es este asunto? Hay, en este sentido, dos grandes problemas que han
de verse resueltos:
1. Para empezar, convendría insistir en que la filosofía de la ciencia no puede ser una
mera descripción de lo que hace el científico cuando dice que hace ciencia, pues
la siempre selección de los aspectos de su actividad que se estiman relevantes para
efectuar una descripción adecuada supondría y aun concepto previo de lo que es
ajustado a una auténtica investigación científica. Además, los científicos aprenden
su oficio de libros, maestros y colegas influidos por teorías filosóficas
(normativas) de la ciencia. Una filosofía de la ciencia que quisiera permanecer
limitada a aspectos descriptivos tendría que renunciar al uso directo de conceptos
normativos o valorativos como “justificado”, “racional”, “confirmado”,
“verdadero”, etc… Y es difícil ver como podría segur siendo entonces filosofía de
la ciencia.

1
2
12
2. Sin embargo, la filosofía de la ciencia tampoco puede ser un sistema a priori de
teorías a partir de las cuales obtener normas de actuación para los científicos que
sean completamente ajenas a las que su propia competencia profesional les marca.
Una filosofía de la ciencia fructífera y realista debe ser compatible con las
características fundamentales que los científicos atribuyen a su propia actividad,
así como con el desarrollo histórico de las ciencias. Por ello, hoy en día sería muy
difícil de aceptar una posición como la de Carnap, quien pensaba que su sistema
de lógica inductiva y su teoría de la confirmación no eran válidos para explicar el
funcionamiento real de la ciencia y su despliegue histórico.

Esto no implica que los filósofos de la ciencia, desde la perspectiva que


proporcione el conocimiento de lo que ha funcionado bien en el pasado y de lo
que podría funcionar bien desde un punto de vista lógico, no puede realizar
prescripciones a los científicos acerca del modo de mejorar la investigación. Así
lo han hecho algunos con buenos resultades, como es el caso de Popper, aunque
en la actualidad sea mucho más reacios a hacerlo.

Ante tal problema, la resolución de ambas corrientes se ha intentado de dos maneras:


mediante “soluciones de compromiso”, o mediante una crítica a tal dicotomía

1. Entre los primeros

 Una solución de compromiso fue ofrecida por Larry Laudan. En su libro


El progreso y sus problemas defendió una síntesis entre el elemento
descriptivo y el elemento normativo en la filosofía de la ciencia. Según
Laudan, el filósofo de la ciencia posee, antes de la construcción de sus
teorías, ciertas intuiciones preanalíticas acerca de la racionalidad
científica, como por ejemplo: “era racional aceptar la mecánica
newtoniana y rechazar la mecánica aristotélica en 1800”, o “era racional
para los médicos rechazar la homeopatía y aceptar la medicina
farmacológica en 1900”.

Un modelo filosófico de racionalidad científica debía conducir a la


aceptación de la mayoría de esas intuiciones preanalíticas, por otra parte
bastante comunes y obvias. Las intuiciones precisas acerca de qué casos
históricos pueden ser considerados como arquetipos de racionalidad serían
la piedra de toque para evaluar y justificar las propuestas metodológicas
con las que juzgar a su vez la racionalidad de los demás episodios de
cambio de teorías. En otras palabras, un modelo de racionalidad científica
válido debía ser descriptivo con respecto a esos casos paradigmáticos e
intuitivos, pero debía ser normativo con respecto a los demás episodios
históricos más “borrosos”.

1
3
13
Con posterioridad, Laudan llegó a la conclusión de que no existían esas
intuiciones preanalíticas entendidas como juicios unánimes y
permanentes. Pero el naturalismo normativo que desarrolló en su lugar
mantuvo también un compromiso entre el elemento normativo y el
elemento descriptivo en la filosofía de la ciencia.

Según ese naturalismo normativo, las normas que puede establecer la


filosofía de la ciencia han de entenderse como imperativos hipotéticos que
conectan medios y fines, es decir, como enunciados de la forma: “su tu fin
(cognitivo) es conseguir A, entonces un bien medio para ello es hacer B
en lugar de C”. El elemento descriptivo no desaparece en este enfoque
porque la validez de dichas normas ha de ser establecida empíricamente a
través del estudio de casos históricos. Tenemos, por tanto, que un análisis
descriptivo de la (historia de la) ciencia sirve como base para sustentar una
serie de propuestas normativas, que, por supuesto, serán revisables en
función de lo que pueden aportar nuevas evidencias empíricas.

 En una línea muy parecida se ha expresado también Ronald Giere, con la


diferencia de que los estudios empíricos más útiles para basar la propuesta
de las normas hipotéticas en epistemología no son, en su opinión, los de la
historia de la ciencia, sino los de diversas disciplinas científicas
involucradas en el análisis del conocimiento. En general, puede decirse
que con el desarrollo reciente de la epistemología naturalizada se ha
producido en un resurgimiento del descriptivismo, pero sin abandonar el
normativismo. Para el naturalista moderno, el conocimiento empírico
acerca de los procedimientos que empleamos de hecho para fijar nuestras
creencias es relevante para la discusión acerca de las normas que han de
emplearse para justificar dichas creencias, por ejemplo, para no promover
normas que resultan irrealizables en la práctica.

Por ello, cuanto mejores teorías empíricas tengamos sobre el


conocimiento, mejores normas epistémicas podremos obtener, ya que
serán más eficientes para la consecución de los objetivos pertinetes. Lo
cual no quiere decir que las normas mismas sean naturalizadas. Las
normas epistémicas hacen referencia a valores que no pueden ser
reducidos a información empírica.

1
4
14
2. Ha habido también autores que han rechazado los términos del dilema. Para José
Díez y Moulines, y está es una postura que también asumiremos aquí, la filosofía
de la ciencia describe, prescribe e interpreta; y no es correcto atribuible alguna de
estas tareas en exclusiva. El hecho de que describa no excluye que puede también
prescribir, puesto que la ciencia es una actividad regida por reglas convencionales
(como el lenguaje) y en tal caso, al hacer explícitas dichas reglas, sólo
implícitamente conocidas por los practicantes, mediante su descripción, resulta
posible también evaluar si han sido seguidas o no en determinados casos y
establecer así si la investigación ha procedido correctamente. Describir y
prescribir serían, en estas circunstancias, tareas estrictamente conectadas. El
carácter normativo no consiste aquí en decidir autónomamente qué reglas deben
seguirse, sino en decidir qué reglas deben seguirse porque son de hecho las que
rigen la práctica científica. Una situación análoga se presenta en disciplinas como
la lógica y la gramática. Pero, además, la filosofía de la ciencia presenta, de
acuerdo con estos autores, una faceta interpretativa, como cuando se ocupa del
análisis y reconstrucción de las teorías científicas.

En función de lo dicho, cabe, pues, razonablemente aceptar que la filosofía de la


ciencia describe, prescribe e interpreta, pero debe ser consciente de los límites de
cada una de las teres tareas. Sus descripciones dependen de evaluaciones previas
que introducen desde el principio un componente normativo o prescriptivo
inevitable. No hay descripción de la actividad científica si antes no hay una
decisión normativa acerca de qué debe considerarse como tal cosa. Sus
prescripciones deben estar muy atentas a lo que ha sido la práctica real de los
científicos, pues no tendría sentido una filosofía de la ciencia que dictara normas
a los científicos desde consideraciones a priori sobre lo que debe ser la ciencia, ni
tendría sentido tampoco una visión tan estrecha de la ciencia que declara poco o
nada aceptable desde el punto de vista racional casi todo lo hecho hasta el
momento en la ciencia. No se trata, por tanto, con las prescripciones de
enmendarles la palana a los científicos, sino de ayudarles recordándoles qué es lo
que ha funcionado bien en otras ocasiones similares a las que ellos pueden
encontrar hoy. Finalmente, sus interpretaciones son siempre realizadas desde
supuestos que pueden variar, y que de hecho han variado, con el tiempo.

1
5
15
PUNTO 4: IMPORTANCIA DE LA HISTORIA DE LA CIENCIA, Y DE OTRAS
DISCIPLINAS, PARA LA FILOSOFÍA DE LA CIENCIA
La filosofía de la ciencia sin la historia de la ciencia está vacía; la historia de la ciencia
sin la filosofía de la ciencia es ciega”. Esta paráfrasis de la célebre frase de Kant con la
que Lakatos comienza una de sus obras más importantes se ha convertido en uno de los
lemas más citados y ampliamente compartidos por la comunidad actual de filósofos de la
ciencia.
Ni la filosofía del Círculo de Viena ni la de Popper vieron nunca sus propuestas como
algo que podía ser revisado a la luz de la historia de la ciencia. Evidentemente, tanto los
neopositivistas como Popper tenían un conocimiento profundo de la historia de la ciencia,
con variaciones según los casos, y sus propuestas estaban basadas en dicho conocimiento,
muy especialmente, en el de la ciencia contemporánea. Pero la filosofía neopositivista se
presentaba como una reconstrucción racional de la ciencia, con clara conciencia, por
tanto, de que la historia real no se había desarrollado según esa imagen ideal. En cuanto
a Popper, no creía que la historia de la ciencia sirviera para contrastar las teorías de la
filosofía de la ciencia, pues ésta no era para él una disciplina empírica.
1. Como reacción a esta actitud, la filosofía de la ciencia, a partir de los años 50, y
sobre todo en los 60, dirigió su mirada de forma decidida hacia la historia de la
ciencia, no sólo como fuente de la que podían extraerse ejemplos para ilustrar las
teorías filosóficas, sino como elemento de juicio para poner prueba la validez de
dichas teorías. La filosofía de la ciencia se aproximaba de este modo a las ciencias
empíricas en la medida en que sus propuestas teóricas acerca de cómo se ha
desarrollado la ciencia debían contrastarse con los datos proporcionados por la
historia de la ciencia.

Autores como Hanson, Kuhn, Toumlin, Feyerabend, etc… fueron los artífices de
este giro hacia la historia. El rasgo más decisivo de este nuevo enfoque es el
rechazo de la lógica formal como herramienta principal para el análisis de la
ciencia, y su sustitución por la confianza en el estudio detallado de la historia de
la ciencia. No obstante, conviene tener presente que, por un lado, esta conexión
estrecha entre la filosofía de la ciencia y la historia de la ciencia no era nueva,
pues ya fue practicada por Whewell, Duhem o Alexnder Koyré. Por otro lado, las
herramientas formales del análisis no han desparecido, sino que forman parte
fundamental de algunos enfoques, como el que ofrece la concepción semántica de
las teorías; incluso para el estudio de los procesos dinámicos de cambio científico.

Así pues, desde la década de los 60 hasta nuestros días la filosofía de la ciencia
ha estrechado lazos con la historia de la ciencia. Curiosamente, no se puede decir
que la historia de la ciencia haya correspondido a su vez con la misma actitud.
Más bien al contrario, a medida que ha ido alcanzando mayor madurez como
disciplina, la historia de la ciencia ha reivindicado y conseguido una mayor
independencia de la filosofía de la ciencia.

1
6
16
El acercamiento de la filosofía de la ciencia a la historia de la ciencia ha
favorecido:

 En primer lugar, que surjan nuevas vías de investigación alternativas que


han permitido eludir el callejón sin salida de las disputas escolásticas en
las que, en opinión de muchos, parecía haberse metido en sus momentos
finales la filosofía neopositivista.

 Además, como escribió Kuhn, “la historia de la ciencia puede contribuir a


salvar la brecha que hay entre los filósofos de la ciencia y la propia ciencia,
la cual puede ser para ellos tanto una fuente de problemas como de datos”.

 Pero, sobre todo, el resultado más importante de este giro hacia la historia
ha sido introducir entre los fines primarios de toda teoría filosófica sobre
la ciencia el deseo de ofrecer una imagen lo más ajustada posible del
desarrollo histórica de la misma, poniendo con ello de relieve la existencia
de factores extracientíficos que inevitablemente intervienen en dicho
desarrollo. La imagen de la ciencia que ha surgido de este modo es menos
monolítica y menos “racionalista” que la ofrecida por el neopositivismo,
pero sin duda es también más sutil y menos idealizada.

No debe pensarse, sin embargo, que hubo unanimidad de criterios entre los autores
que propiciaron el giro historicista. Como ha subrayado Ronald Giere, de hecho,
muchos de ellos se opusieron a las tesis centrales de la visión kuhniana del cambio
científico. Tiene también interés la observación de Giere de que la reacción a
Kuhn entre los filósofos de tradición analítica no fue un mayor acercamiento a la
historia de la ciencia, sino a la ciencia contemporánea, sobre todo a la física y a la
biología.

En realidad, la versión habitual de la historia de la filosofía de la ciencia en el


siglo XX como un período inicial dominado exclusivamente por el positivismo
lógico segundo de un periodo dominado por el historicismo es, hasta cierto punto,
una simplificación. Han coexistido siempre enfoques diversos, aunque esa
diversidad sea hoy más notoria que antes, y desde luego los temas de interés del
positivismo lógico no han desaparecido de la agenda de los filósofos de la ciencia.
Desde la perspectiva actual puede afirmarse que el giro historicista abrió la puerta
no sólo a una profundización en estudio del trabajo hecho por los historiadores,
sino también a una actitud más atenta a los problemas filosóficos suscitados en la
propia ciencia, en lugar de los problemas que al filósofo le interesa suscitar al hilo
de la ciencia.

1
7
17
2. Pero la historia de la ciencia no es la única disciplina afín que interesa al filósofo
de la ciencia. La crítica que Quine efectuó en 1951 a la división analítico -sintético
tuvo, entre otras muchas, la consecuencia de socavar una de las bases en las que
se había sustentado hasta entonces la epistemología: la idea de que la tarea de
analizar el conocimiento humano, en la medida en que era una tarea filosófica,
podía hacerse de forma a priori, ya fuera mediante el análisis conceptual, lógica,
o trascendental, sin necesidad de recurrir a los propios resultados de la
investigación empírica. En 1969, en un trabajo titulado “la naturalización de la
epistemología”, Quine defendió la tesis de que este modo de proceder era erróneo
y que la epistemología debía naturalizarse. Dicha naturalización significaba que
la epistemología debía abandonar los procedimientos especulativos y a priori que
la venían caracterizando y pasar a formar parte de las ciencias empíricas; en
particular, según Quine, de la psicología.

Esta propuesta de naturalización de la epistemología ha tenido un éxito creciente


desde entonces y ha tomado diversas formas. No todos sus defensores aceptan,
sin embargo, la disolución de la epistemología en una ciencia empírica, sea
psicología o cualquier otra. Para muchos, de lo que se trata es de propiciar un
acercamiento entre la epistemología y las ciencias empíricas, de modo que la
epistemología deje de ser una disciplina con pretensiones de fundamentación de
la ciencia y pase a ser un campo en el que la investigación se produzca tomando
como base los resultados de aquellas ciencias que, de un modo u otro, tiene algo
que decir sobre el conocimiento. En todo caso, la corriente en favor de la
naturalización de la epistemología ha tenido el efecto positivo de propiciar un
intenso debate interdisciplinar en el que los filósofos y los científicos
pertenecientes a distintas disciplinas han participado de manera fructífera.

1
8
18
Siguiendo al filósofo Tom Nickles, puede señalarse la existencia de tres oleadas
de “naturalización” en la filosofía de la ciencia:

 La primera, tal como hemos descrito, ocurrió en torno a la década de los


60 y consistió en sustentar los modelos de cambio científico sobre estudios
históricos detallados en lugar de sobre preconcepciones filosóficas o
reconstrucciones lógicas.

 La segunda, que más que una oleada de naturalización debería ser


calificada como una oleada de socialización, pero que en definitiva
también realizó importantes estudios empíricas de la ciencia, tuvo lugar en
los 70. Influidos en bueea medida por los planteamientos de Kuhn,
sociólogos de la Universidad de Edimburgo y luego otros como Bruno
Latour, Harry Collins, Trevor Pinch, Steve Woolgar y otros iniciaron una
serie de estudios que tratan de poner de relieve el carácter básicamente
social del desarrollo y del cierre de controversias en el ámbito de la
investigación científica. La ciencia era mostrada en ellos como una
actividad socialmente articulada y su producto, las teorías científicas,
como algo socialmente construido. A partir de entonces la sociología de la
ciencia se ha convertido en un enfoque imprescindible de la ciencia;
complementario para unos, alternativos para otros, de la filosofía de la
ciencia.

 La tercera oleada de naturalización en la epistemología se ha producido en


la década de los años 80 y ha tomado dos orientaciones principales. Por
un lado, la que se basa en los avances recientes de la psicología cognitiva
y de las restantes ciencias cognitivas, especialmente la Inteligencia
Artificial, por otro, la que se basa en ciertas disciplinas biológicas,
especialmente la biología evolucionista, pero también la neurobiología.
Ronald Giere, Alvin Goldman, Paul Thagard y Paul Churchland son
algunos de los representantes más destacados entre los que toman como
referencia a las ciencias cognitivas. La esperanza que anima este enfoque
es que las ciencias cognitivas puedan llegar a desempeñar en relación con
la filosofía de la ciencia el mismo papel que desempeñó la lógica formal
para el positivismo lógico o que desempeñó la lógica formal para el
positivismo lógico o que desempeñó la historia de la ciencia para la
escuela histórica”.

Una de las consecuencias principales que ha tenido para la epistemología


el influjo de las ciencias cognitivas ha sido el que las cuestiones sobre la
naturaleza del conocimiento y la justificación de nuestras creencias cedan
sitio a lo que se considera la cuestión central: el problema de la
representación del conocimiento, esto es, el problema de “cómo
representar cuerpos amplios de conocimientos de tal modo que puedan ser
utilizados para guiar la conducta y para entender y producir el lenguaje.

1
9
19
Como era de prever, estas oleadas de naturalismo no han recibido un apoyo unánime por
parte de los filósofos. Quizá la que ha sido recibida con mayor hostilidad, debido en gran
medida a su actitud exclusivista con respecto a las demás disciplinas metacientíficas, y
muy negativa ante la epistemología filosófica tradicional, sea la proveniente de la
sociología. Pero tampoco las otras han quedado sin recibir fuertes críticas. La
naturalización de la epistemología ha sido cuestionada en mayor o menor medida por
todos aquellos filósofos que piensan que la epistemología está comprometida con la
cuestión de la validez del conocimiento (de las formas en que validamos o justificamos
nuestros conocimientos), mientras que la psicología cognitiva o algunas disciplinas
biológicas pueden quizá proporcionar explicaciones causales de los conocimientos, pero
no pueden justificarlos.
Muchos epistemólogos son reacios a aceptar la relevancia de las ciencias empíricas para
la epistemología. Algunos (los herederos del segundo Wittgenstein) porque consideran
que las cuestiones epistemológicas son conceptuales y no empíricas; otros porque piensan
que una epistemología naturalizada no deja cabida a los aspectos normativos que, a su
juicio, debe incluir una disciplina interesada en determinar cómo garantizar los
conocimientos. Paradójicamente, desde el ámbito de la sociología de la ciencia se ha
llegado a negar la legitimidad del enfoque cognitivo de la ciencia, ajo la excusa de que
usar el lenguaje de la cognición para estudiar la ciencia es prematuro, superfluo e
innecesariamente mistificador; un intento erróneo y empobrecedor, en definitiva, de
volver a apartar la vista del carácter socialmente construido del conocimiento.
En general, las críticas que se han realizado contra la epistemología naturalizada se cifran
en éstas:
 No es propiamente epistemología, ya que tiene un carácter descriptivo y no
normativo, es decir, no sirve para justificar nuestros conocimientos, ni para
establecer criterios de acuerdo con los cuales poder juzgar si son o no correctos.

 Se basa en un argumento circular, ya que para establecer la fiabilidad de nuestro


conocimiento presupone que la ciencia es fiable. No puede concluir legítimamente
la fiabilidad de nuestros conocimientos puesto que la da por sentada desde el
principio, al menos en lo que a la ciencia se refiere.

 No ha ofrecido hasta el momento resultados concretos, lo que la reduce a un nivel


puramente programático.

2
0
20
TEMA 2: CONCEPTOS FUNDAMENTALES

PUNTO 1: BREVE RECUERDO SOBRE LA VERDAD Y LA FALSEDAD /


INCORRECCIÓN Y CORRECCIÓN
Recordemos que los argumentos no son verdaderos ni falsos. Sólo las afirmaciones (los
enunciados, o lo que ellos expresan, las proposiciones) pueden ser verdaderas o falsas, y
los argumentos no son afirmaciones, sino series de afirmaciones con una característica
fundamental: que de esas afirmaciones se pretende que una de ellas se sigue de las
restantes. Los argumentos no son pues verdaderos o falsos. Pero eso quiere decir que
todos los argumentos sean iguales, que no podamos hablar en ellos de “éxito” o “fracaso”.
El éxito de un acto de habla es la consecución o logro efectico de la finalidad pretendida
mediante su realización. En una afirmación, se satisface dicha finalidad si las cosas son
efectivamente como se asevera que son: en una afirmación, por tanto, el éxito es la verdad
y el fracaso es la falsedad. En el caso de los argumentos hablamos, en correspondencia,
de la validez o invalidez de dichos argumentos. Un argumento es correcto o válido si
efectivamente las premisas apoyan la conclusión, y es inválido si ocurre lo contrario.
La diferencia entre verdad falsedad de las afirmaciones involucradas y validez del
argumento muestra lo que son los dos componentes de la adecuación o “bondad” de un
argumento. Hay dos sentidos en que se puede decir de un argumento que es un “buen
argumento”: En un primer sentido, un argumento es bueno si es válido. Sin embargo, lo
habitual no es hacer argumentos por el placer de haberlo, sino con la intención de
justificar ante la audiencia cierta afirmación. En este caso, no basta con que el argumento
sea válido, sino que las premisas han de poder ser también justificadas.
Dicho esto, en la terminología de Moulines y Díez, se distingue entre la corrección formal
y la corrección material. Diremos que un argumento es formalmente correcto si es válido,
y que es materialmente correcto sus premisas son verdaderas. Ahora podemos precisar el
segundo sentido en que se puede decir que un argumento es un “buen argumento”: en este
segundo sentido, más exigente, un bien argumento es un argumento formalmente
correcto, es válido, que demás es materialmente correcto, e.e con premisas verdaderas.
Así, podremos considerar justificada una afirmación presentada como conclusión de un
argumento en la medida en que estemos justificados en considerar satisfactorio el
argumento. Esto es, estamos justificados en considerar satisfactorio el argumento. Esto
es, estamos justificados en creen en la verdad de la conclusión de un argumento en la
medida en que el argumento es válido y estamos justificando en creer en la verdad de las
premisas.

1
21
Así pues, la noción fundamental del tema está en la noción de validez. La diferencia entre
argumentos deductivos e inductivos, en referencia a la validez, se debe únicamente en la
pretensión del hablante. Los argumentos deductivos se caracterizan porque en ellos se
pretende que la verdad de las premisas hace segura la de la conclusión, mientras que en
los inductivos se pretende que las premisas que poyan la conclusión sólo en cierto grado.
Pero en principio, y salvo convenciones que siempre podemos adoptar, nada formal o
estructurar distingue los argumentos deductivos de los inductivos: la diferencia es
intencional, radica exclusivamente en las intenciones del hablante respecto del sentido
pretendido en que la conclusión se sigue de las premisas. Es cierto que un argumento
deductivo, si es válido, lo es en virtud de su forma, pero no es cierto que un argumento,
si es deductivo, lo es (ya sea verdadero o falso) en virtud de su forma.
Ahora bien, y dicho esto, ello no implica que la diferencia entre argumentos deductivos
válidos y argumentos inductivos válidos sea pragmática o dependiente de las intenciones
o el contexto. Esta segunda diferencia es una diferencia objetiva, independiente del
hablante y del contexto. Esta segunda diferencia es una diferencia objetiva independiente
del hablante y del contexto, y consiste en que entre premisas y conclusión e dé una de dos
relaciones objetivamente diferente. Un argumento, como acto de habla de un hablante.
Pero una vez conocidas las intenciones del hablante, que sea válido o inválido es
perfectamente objetivo e independiente de sus intenciones y del contexto. Dicho esto,
entramos en materia.

PUNTO 2: MODOS DE INFERENCIA. LA DEDUCCIÓN


La ciencia, entre otras cosas, es una actividad intelectual en la que se realizan
razonamientos o inferencias, es decir, en la que se obtienen conclusiones a partir de
determinadas premisas. Las dos formas que toma el razonamiento científico son la
deducción y la inducción. La deducción es aquel modo de inferencia en el que la
conclusión se sigue demostrativamente de las premisas, con lo que queda totalmente
fundamentada por éstas. En una inferencia deductiva correcta o válida no es posible que
sean verdaderas las premisas y que al mismo tiempo sea falsa la conclusión, por lo tanto,
si se acepta la verdad de las premisas debe obligatoriamente aceptarse la verdad de la
conclusión. En este sentido se dice que las inferencias deductivas son preservadores de la
verdad. Adviértase que la verdad de un argumento y su correlación formal son dos cosas
distintas. Un argumento puede ser correcto formalmente sin ser verdadero en su
contenido, y puede ser verdadero en su contenido sin ser correcto formalmente.
En la lógica formal, una inferencia deductiva válida consiste en la transformación de unos
enunciados (las premisas) en otro (la conclusión) a través de un proceso intermedio, de
extensión y complejidad variable, en el que se utilizan las reglas de la lógica deductiva
como base para dichas transformaciones. Estas reglas establecen relaciones formales
entre ciertos símbolos que pretenden recoger elementos fundamentales del lenguaje
ordinario y científico relevantes en la estructura de los razonamientos. A diferencia de las
inferencias inductivas, no son inferencias ampliativas, es decir, la conclusión se limita a
desplegar una información que ya estaba implícita en las premisas. Consideremos algunos
ejemplos de inferencias deductivas. Veamos ejemplos:

2
22
 Ejemplo 1: Si una teoría es completa, todo elemento de la realidad física ha de
tener una contrapartida en la teoría. Si podemos predecir con certeza el valor de
una cantidad física sin perturbar el sistema de ningún modo, entonces esa cantidad
física es un elemento de la realidad. Podemos predecir con certeza el momento y
la posición de una partícula subatómica B sin perturbarla (haciendo las
mediaciones pertinentes sobre otra partícula A que interactuó con ella en el
pasado). Luego el momento y la posición de B son elementos de la realidad. Pero
la posesión simultánea de momento y posición por parte de una partícula
subatómica no tiene contraportada en la teoría cuántica. Por tanto, la teoría
cuántica no es completa.

 Ejemplo 2: La probabilidad de encontrar en la población un alelo recesivo de un


gen autosómico causante de una enfermedad genética en el ser humano cuando
está en homocigosis es de p=0,1. El ser humano es diploide. Por tanto, la
frecuencia de enfermos en la población será de p al cuadrado= 0’01.

La ciencia que estudia los criterios de validez de un argumento deductivo es la lógica


formal. Como eso ya lo vimos en lógica, no lo veremos aquí. Sin embargo, conviene decir
una cosa. Hay un sentido en que sí se puede considerar que la deducción va de lo general
a lo particular. En los argumentos deductivos válidos, la información que da la conclusión
ya está contenido, sólo que implícitamente, en las premisas conjuntamente consideradas.
Al “decir” las premisas ya “hemos dicho” implícitamente la conclusión; justamente por
eso no puede ocurrir que las premisas sean verdaderas y la conclusión falsa. La conclusión
no dice nada que no esté implícitamente contenido en las premisas, y lo que hace el
argumento es, justamente, hacer explícito este hecho. En términos tradicionales podemos
que los argumentos deductivos no son ampliativos sino explicativos, o sea, que no
proporcionan conocimiento fáctico nuevo, dan conocimiento sólo en el sentido en que
hacen explícita cierta información contenido en otra.

3
23
PUNTO 3: MODOS DE INFERENCIA. LA INDUCCIÓN
En cuanto a la inducción, quizás la mejor forma de definirla sea contraponiéndola a la
deducción. La inducción sería entonces aquel modo de inferencia en el que la conclusión
no se sigue demostrativamente de las premisas, sino que sólo obtiene de éstas un cierto
grado de apoyo o de fundamentación. Puede decirse que las premisas proporcionan una
buena razón para aceptar la conclusión, o que ésta se sigue de aquéllas no con necesidad
lógico, sino sólo con probabilidad. Un argumento inductivo será tanto mejor cuanto
mayor sea el apoyo que las premisas presenten a la conclusión, es decir, cuanto más
probable hagan la conclusión.
A diferencia de lo que sucede en la deducción, en la inducción la verdad de las premisas
no implica la verdad de la conclusión. Podemos tener una inferencia inductiva en la que
lleguemos a una conclusión falsa a partir de premisas verdaderas y, sin embargo, la refleja
inductiva que sigue dicha inferencia puede conducir de hecho en muchas otras ocasiones
a conclusiones verdaderas. Esto hace que el argumento puede ser lógicamente aceptable
pese al hecho de llegar a una conclusión falsa desde premisas verdaderas. Una forma más
clara de decirlo es ésta: las conclusiones de las inferencias inductivas están sujetas a
excepciones. Puede ser verdaderas en muchos casos, pero falsas en otros. Y esas
excepciones no inutilizan el argumento.
Se dice también que la inducción es una inferencia ampliativa, puesto que hay siempre
más información en la conclusión de la que se contiene en las premisas, cosa que no
sucede en la deducción. La conclusión, por ejemplo, puede referirse a individuos de los
que nada se dice en las premisas, o a momentos futuros del tiempo, mientras que las
premisas lo hacen de momentos pasados. Este carácter ampliativo ha dado lugar a una
intensa discusión desde Hume en adelante acerca de cómo justificar el salto hacia una
mayor información.

4
24
Dada la variedad de posibilidades, no hay una tipología estándar de las formas que puede
adoptar la inducción, pero una clasificación útil podría ser ésta:
1. Enumeración simple: Si una serie indefinida de casos coinciden en una propiedad
(o su carencia), se generaliza y se concluye que todos los casos la presentan; o
bien se infiere que el siguiente caso observado la presentará. Cuanto mayor sea el
número de casos observados, tanta más fuerza tendrá el argumento. En el caso
extremo, si hemos examinado todos los casos posibles y todos coinciden en una
propiedad, la conclusión se establece deductivamente, no inductivamente.
Estaríamos entonces ante lo que impropiamente se conoce como “inducción por
enumeración completa”. El esquema de la inducción simple sería

Lo que es válido para A +1 es válido para An

A1 es B

A2 es B

A3 es B
………….

An es B

5
25
2. Inducción eliminativa: Su origen puede retrotraerse a las tablas de presencia y
ausencia de Bacon, mediante las cuales llegó a establecer que el calor está
relacionado con el movimiento. También puede considerase como inducción
eliminativa el método de la diferencia y el método conjunto de la concordancia y
la diferencia de John Stuart Mill. Es un procedimiento inferencial especialmente
útil en la detección de las causas de un fenómeno.

Básicamente, se razona del siguiente modo: si siempre que se da un determinado


fenómeno concurre la circunstancia c, y cuando falta c, permaneciendo todo lo
demás igual, no se da el fenómeno, entonces c es la causa o forma parte de la
causa del fenómeno (al menos como condición necesaria). La conclusión es
siempre revisable, ya que no podemos estar seguros de haber considerado todos
los factores relevantes. Un posible esquema sería este:

Dado c, A es B
No se da c, A no es B

Por lo tanto, C es la causa de que A sea B

 Ejemplo 1 (Experimento de Pasteur contra la generación espontánea):


Colocamos un trozo de carne en un recipiente de vidrio con una abertura
grande y lo sometemos a un proceso de cocción en el que matamos a todos
los microorganismos que pudieran estar presentes. Hacemos lo propio con
otro trozo de carne, pero esta vez en un recipiente de vidrio con un cuello
estrecho y sinuoso. El primer trozo se pudre a los pocos días pero el
segundo no. Por tanto, la causa del proceso de descomposición debe estar
en microorganismos presentes en el aire que el primer recipiente dejaba
pasar y el segundo no.

6
26
3. Razonamiento estadístico: Una forma de razonamiento estadístico de tipo
inductivo es la generalización estadística. En ella se parte de la premisa de que en
una determinada muestra de una población la proporción de miembros que poseen
cierta propiedad es r para concluir (con el margen de error propio del tamaño de
la muestra) que la misma proporción se da en la población completa.

 Ejemplo 1: En el estudio realizado sore una muestra representativa de los


españoles, sólo el 20 por 100 está satisfecho con el funcionamiento de la
justicia. Por lo tanto, sólo el 20 por 100 de los españoles está satisfecho
con el funcionamiento de la justicia.

En cambio, en el silogismo estadístico en lugar de ir desde la muestra a la


población en general, se parte de premisas que expresan la posesión de una
propiedad con una cierta probabilidad mayor que ½ por parte de un conjunto de
individuos para concluir con esa probabilidad que un determinado individuo de
ese grupo posee dicha propiedad. El esquema sería:

P(B/A)=r
i es un caso de A

Por tanto, con la probabilidad r, i es un caso de B

 Ejemplo 2: La probabilidad de que un afiliado a un sindicato socialista


vote a un partido de izquierdas en las elecciones generales es muy alta.
Juan es un afiliado a un sindicato socialista. Por tanto, Juan votará muy
probablemente a un partido de izquierdas en las elecciones generales.

4. Razonamiento por analogía: Se parte de premisas que expresan similitud de dos o


más cosas en un cierto aspecto para concluir la similitud de estas cosas en otro
aspecto distinto. Se puede esquematizar así:

A es P,Q,R,S
B es P,Q,R
----------------
B es S

 Ejemplo 1: La tierra presenta notables similitudes con otros planetas del


Sistema Solar. Todos giran alrededor del Sol; varios giran alrededor de su
eje; algunos tienen lunas. Por consiguiente, no es disparatado pensar que
estén habitados.

 Ejemplo 2: Cuando una placa con un cultivo de bacterias gran-positivas se


contamina con un hongo de género Penicillium, las bacterias no se
desarrollan y desaparecen. Por lo tanto, este hongo podría ser usado
también para curar las infecciones causadas por bacterias gran-positivas.

7
27
5. Inducción hipotética o abductiva: Se parte de un fenómeno que necesita una
explicación y se concluye aquella hipótesis que mejor explica dicho fenómeno,
entendido por tal aquella de las explicaciones disponibles adecuadas al fenómeno
que sea más simple, más coherente con otras hipótesis aceptadas, más exacta, más
capaz de encajar los detalles, etc…

D es una colección de datos

H explica D

Ninguna otra hipótesis puede explicar D tan bien como H


----------------------------------------------------------------------
H es probablemente verdadera ( H merece ser provisionalmente aceptada y
desarrollada).

8
28
PUNTO 4: LAS HIPÓTESIS

Literalmente, hipótesis significa supuesto, o lo puesto debajo. Una hipótesis científica es


una propuesta o afirmación contrastable empíricamente, que se considera provisional y
revisable a partir de nuevas experiencias. Generalmente se trata de un enunciado (aunque
también un modelo puede entenderse como hipotético), formulado de manera precisa, que
trata de dar cuenta de los fenómenos sometidos a investigación o de solucionar un
problema. Se supone que, si dicho enunciado es verdadero, entonces los fenómenos en
cuestión quedan explicados. Para Popper y sus seguidores todos los enunciados
científicos, desde los enunciados básicos más apegados a la experiencia hasta las teorías
más generales, pasando por leyes de diverso tipo, tienen el carácter de hipótesis. Es decir,
permanecen siempre como conjeturas que se aceptan tentativamente mientras no hayan
sido refutadas por la experiencia, sin que nunca puedan ser tenidas por verdades
establecidas de forma definitiva.

El uso de término hipótesis en la ciencia a lo largo de su historia, y en la filosofía de la


ciencia ha sido muy variado. Hubo momentos en los que por “hipótesis” se entendió su
falsedad útil que permitía salvar los fenómenos convenientemente pero que no se
aceptaba en su literalidad. Es así como el cardenal Bellarmino lo entendía al aconsejar a
Galileo que enseñara su sistema sólo como hipótesis. También se ha entendido por
hipótesis una especulación imposible de probar experimentalmente o con un carácter
cuasi metafísica. Éste es el sentido que le daba Newton cuando afirmaba que en su obra
él no inventaba hipótesis. En la actualidad estos sentidos instrumentalistas o peyorativos
del término está en desuso.

En ocasiones los términos “hipótesis”, “ley” y “teoría” son empleados como sinónimos.
En otros contextos, sin embargo, se reserva el término “hipótesis” para una propuesta
científica que todavía está en proceso de contrastación mediante búsqueda de más
evidencia empírica que la apoye o la refute, o sobre cuya aceptación aún se discute en el
seno de la comunidad científica. Por ejemplo, se considera aún como una hipótesis,
aunque con un número creciente de adeptos, la propuesta de Luis y Walter Álvarez que
sostiene que la extensión en masa de finales del cretácico, que acabó entre otras muchas
especies con los dinosaurios, se debió al impacto de un gran meteorito. El término “ley”
se emplea entonces para algunas otras propuestas que han alcanzado una confirmación
suficiente o son aceptadas sin discusión por la comunidad científica. Y el de “teoría” para
un conjunto estructurado de hipótesis y de leyes en los sentidos citados.

9
29
No obstante, estas distinciones son problemáticas, sobre todo si se intentan aplicar de una
forma rígida. Así, la hipótesis de los Álvarez es mucho más que una mera corazonada, ya
que tiene detrás diversos indicios que la apoyan. Y, por otra parte, por mucho que nuevos
descubrimientos vengan a confirmarla, no se transformará jamás en una ley, puesto que
se refiere a un acontecimiento singular. No toda hipótesis es susceptible de convertirse en
ley, ni toda teoría contiene necesariamente leyes (especialmente en el caso de la biología
y las ciencias sociales). El uso de estos conceptos también puede venir dado por la
costumbre o la práctica establecida, más que por el significado escrito que se quiera
estipular y, en tal caso, son aplicados con independencia del grado de confirmación o
autoridad de los enunciados a los que se atribuyen. Por razones históricas se habla siempre
de la hipótesis de Avogadro, cuando podrían hablarse de ley.

Las hipótesis científicas son sometidas a contrastación a partir de sus consecuencias


empíricas. De ahí la importancia de que estén formuladas de manera precisa, ya que
cuanta más precisión, más claramente determinables serán estas consecuencias. La forma
de hacerlo es derivar deductivamente de la hipótesis a contrastar, con ayuda de otros
supuestos auxiliares, predicciones acerca del comportamiento de los fenómenos que cae
bajo ella. Si las predicciones no se cumplen, eso cuenta como evidencia en contra de las
hipótesis (unto con los supuestos auxiliares) y puede conducir a su abandono. Si se
cumplen, cuentan como evidencia a favor (también de los supuestos auxiliares), lo que
refuerza la confianza de la comunidad científica en la hipótesis. En este consiste el método
hipotético-deductivo.

Lo que acabamos de ofrecer es una descripción ideal de lo que sucede realmente en la


práctica científica. El proceso de contrastación de hipótesis suele presentar una
complejidad mucho mayor y sus resultados pueden no ser tan nítidos o concluyentes como
para apoyar o contradecir a la hipótesis de forma clara y evidente para todos. En esas
circunstancias la comunidad científica se ve envuelta generalmente en una controversia
para dirimir la cuestión. Esto se debe no sólo a que la derivación de predicciones depende
de la interpretación que hagamos del contenido de la hipótesis a contrastar y de los
supuestos auxiliares que la acompañan, sino que además la interpretación de los
resultados experimentales acerca del cumplimente o incumplimiento de la predicción
puede ser discutible, posibilitando entonces que factores externos, como el grado de
compromiso personal de los científicos con la hipótesis, adquiera un peso decisivo en la
decisión a tomar.

Como hemos señalado antes, el reconocimiento del papel que las hipótesis cumplen en la
ciencia ha variado ampliamente a lo largo de la historia. Contemplada desde el punto de
vista actual y con nuestros criterios metodológicos diríamos que la teoría heliocéntrica de
Copérnico nació como una hipótesis que luego Galileo apoyó con nuevos
descubrimientos realizados mediante el telescopio; que la órbita elíptica de Marte fue
propuesta por Kepler como una hipótesis que Newton consiguió explicar con una teoría
mucho más general; que dicha teoría newtoniana, la teoría de la gravitación universal,
habría sido a su vez una hipótesis que resultó confirmada en sumo grado; que la teoría
general de la relatividad de Einstein vino después a proporcionar una explicación mejor,
también hipotética, de los fenómenos que Newton quiso explicar con la suya; y así
podríamos seguir.

1
0
30
Sin embargo, dejando aparte a Einstein, los científicos mencionados no tuvieron una
imagen coincidente con esta que nosotros nos formamos hoy. Ninguno de ellos habría
admitido sin más que su aportación al conocimiento científico era una simple hipótesis.
¿Por qué esta diferencia de apreciación? ¿Por qué esos científicos fueran renuentes a
calificar de hipótesis los resultados de su investigación? Merece la piensa que nos
detengamos en este asunto, porque ilustra como pocos los cambios que ha experimentado
desde los inicios de la ciencia moderna la propia visión que los científicos tienen la
metodología que emplean.

1. Remontándonos a esos inicios, podemos situar a Francis Bacon (junto con


Newton) entre aquellos que más restrictivas fueron a la hora de admitir la hipótesis
en la ciencia. En el prefacio del Novum Organum distingue entre dos modos o vías
de conocimiento, uno que busca “opinar de forma bella y probable” y otros que
quiere “saber de forma cierta y ostensiva”. Al primero lo llama “Anticaptio
Mentis” y al segundo “Interpretatio Naturae”.

 La primera interpretación es la del rechazo hipotético. por “anticipaciones


de la mente” entiende el establecimiento de conclusiones que aún no han
sido obtenidas por medio de un cuidadoso razonamiento inductivo y que,
por ende, no pasan de ser meres opiniones o conjeturas.

Esta primera vía es para Bacon un camino errado si lo que se quiere es


adquirir verdadera ciencia. Nada podría hacer que esa vía, que abre las
puertas a oda clase de prejuicios y deja que las falsas nociones arraiguen
en el entendimiento humano, logre alguna vez resultados aceptables.
Podemos interpretar esto como una contraposición entre el uso de
hipótesis, entendidas como formulaciones prematuras de conclusiones que
inducen al error y perturban la marcha de la investigación, y el uso del
método inductivo, entendido como un procedimiento demostrativo que da
lugar a conocimientos ciertos. Hipótesis y conocimiento científico serían
instancias que se excluyen.

 Hay autores que han querida ver un Bacon


mucho más abierto al uso de hipótesis en la
ciencia. Un caso digno de mención es el de
André Lalande. Sin embargo, Larry
Laudan, que encuentra ejemplos del
método hipotético en Bacon, se ve obligado
a reconocer que el “mito” del Bacon
contrario a las hipótesis contiene una
verdad, y es que el uso de hipótesis no sería
más que una medida temporal hasta que se
dispusiera de una auténtica prueba
inductiva.

1
1
31
2. Sea como fuere, Galileo y Descartes mantuvieron decididamente una postura más
abierta que la de Bacon. Galileo inste una y otra vez en que la verdad científica es
verdad demostrada y no mera hipótesis; pero si analizamos los rasgos principales
del método galileano, veremos que la formulación de hipótesis forma parte
indispensable de él. Esta aparente inconsistencia se explica si tenemos en cuenta
que para Galileo las hipótesis utilizadas en la ciencia quedan justificadas por
completo cuando sobre ellas se consigue establecer una ley matemática
confirmada experimentalmente. A partir de eso momentos dejan de ser meras
hipótesis para transformarse en la descripción verdadera de la realidad esencial
del fenómeno, ya que sólo desde una reconstrucción verdadera es posible alcanzar
una ley matemática válida para todos los casos.

3. Por su parte, el vocabulario filosófico de Descartes está plagada de expresiones


tales como “certeza”, “evidencia”, “principios indudables”, “demostración”,
etc… Pero, por otro lado, Descartes considera que el uso de hipótesis es un auxilio
necesario en las ciencias, siempre que dichas hipótesis sean plausibles gracias a
una evidencia racional o empírica en su favor. De hecho, él mismo, aunque por
razones cuya sinceridad ha sido discutida, se expresa como si atribuyera un
carácter hipotético a algunas de sus teorías.

Cabe decir, por tanto, que para Descartes un cierto tipo de hipótesis, caracterizado
por su apoyo empírico y racional y por su éxito explicativo, no sólo son lícitas,
sino inevitables. Estas deberán de ser separadas de otras hipótesis inaceptables
debido a la imposibilidad de “probarlas” por algún procedimiento adecuado (por
ejemplo, la hipótesis acerca del propósito de Dios al crear el mundo) o a que no
sirven para explicar diversos fenómenos. Una vez probadas estas hipótesis lícitas,
es posible tener sobre ellas algo más que una certeza moral, sólo “suficiente para
regular nuestras costumbres”. El grado superior de certeza, la certeza metafísica,
propia de aquellas cosas que no pueden ser de otro modo más que como las
juzgamos, les puede alcanzar a ellas también.

4. La actitud de Newton frente a las hipótesis ha motivado una ingente cantidad de


análisis. Sería difícil encontrar alguna otra frase escrita o pronunciado por un
científico que hubiera dado lugar a más comentarios y más confusiones que el
celebérrimo “hypotheses non fingo” que aparece en escollo general de los
Principia. Si bien el trabajo científico de Newton representa un auténtico avance
en la evolución del ideal de ciencia, en lo que se refiere al reconocimiento
explícito del papel jugado por las hipótesis en la ciencia, su discurso
metacientífico superado tanto contra el uso de hipótesis ni se había puesto de
forma tan vehemente a aceptar como hipotéticas sus propias teorías. Por eso, la
separación entre el método que dice seguir y el que de hecho emplea es mayor
incluso que en Galileo y Descartes. Motivo por el cual Lakatos habla de la
“esquizofrenia de Newton” y sugiere que éste creó dos culturas, “una que
desarrolló su método y otra que desarrolló su metodología”.

1
2
32
En las últimas páginas de la Óptica, Newton describe el método que ha empleado
con estas palabras:

Como en las matemáticas, en la filosofía natural la investigación de las cosas


difíciles por el método de análisis ha de proceder siempre al método de
composición. Este análisis consiste en realizar experimentos y observaciones, en
sacar de ellos conclusiones generales por inducción y en no admitir otras
objeciones en contra de estas conclusiones que aquellas salidas de los
experimentos u otras verdades ciertas, pues las hipótesis no han de ser tenidas en
cuenta en la filosofía experimental.

Newton desea, pues, presentar el método científico como un método inductivo-


deductivo (analítico-sintético) dentro del cual las hipótesis no tienen cabida. El
uso de hipótesis es expresamente desautorizado, sobre todo cuando lo que se
intenta con ellas es rebatir el resultado de observaciones y experimentos sólidos
asentados. Ahora bien, a pesar de estas manifestaciones, Newton está lejos de
haberse mantenido ajeno dicho método en la elaboración de sus teorías. No se
puede decir por ejemplo que las leyes del movimiento, la ley de la gravedad, la
teoría corpuscular de la luz etc… sean productos de un acceso inductivo sensu
stricto a partir de observaciones y experimentos. En su práctica como científico,
a diferencia de en sus comentarios metodológicos, Newton es un decido
prácticamente del método hipotético-deductivo.

El “hypothesis non fingo” fue incumplido incluso en aquella cuestión que lo


suscitó. Con esta frase Newton pretendía contestar a las críticas que algunos
contemporáneos, especialmente Leibniz y Huygens, efectuaron a su explicación
de la gravedad en la primera dedición de los Principia. A estos críticos les
preocupaba no tanto la ley matemática hallada por Newton cuanto la ausencia de
una explicación satisfactoria de la gravitación, un concepto plagado de
dificultades teóricas. Para ellos el concepto de acción a distancia era bastante
sospechoso, ya que parecía introducir de nuevo en la física las “fuerzas ocultas”
que se tenía por desterradas para siempre. Los críticos pedían que, además de la
fórmula matemática que describe el comportamiento de los cuerpos bajo la acción
de la fuerza gravitatoria, Newton proporcionaba una explicación metafísicamente
aceptable de la causa de la gravedad.

1
3
33
Ante esas críticas, Newton respondió que aun no había conseguido descubrir la
causa de los fenómenos gravitatorios y que no estaba dispuesto a especular sobre
ella sin los elementos de juicio. No obstante, lo cierto es que Newton si habló
sobre la causa de la gravedad, antes y después de que se publicara su negación de
haberlo hecho, aunque siempre fue cauteloso sobre la verdad del resultado. Si en
1713 no acetaba hipótesis, en 1717 en la cuestión 31 de la segunda edición de la
óptica no tiene reparos en recurrir a una hipótesis que había empleado también
para explicar la existencia de algunas propiedades de la luz. Postula allí la
existencia de un éter que lo llena todo y cuyas partículas, por ser preludiadas por
las partículas materiales, será más escasa en el espacio situado entre dos cuerpos
cercanos que en el situado en el lado opuesto de dichos cuerpos. Esta diferencia
de densidad, acompañada del efecto repulsivo del éter, habría que los cuerpos
tendieran a dirigirse el uno hacia el otro.

La reacción ante la crítica de los cartesianos explica, pues, la beligerancia de


Newton contra las hipótesis y la consecuente discrepancia entre los criterios
metodológicos que enuncia y el modo en que verdaderamente conduce sus
investigaciones. Con su insistencia en la importancia de la observación y el
experimento frente a las meras hipótesis, Newton estaría diciéndoles a los
cartesianos que, por un lado, sus críticas carecían de base experimental, por muy
elegantes que fueran desde el punto de vista metafísico, y por otro, que las leyes
expuestas en los Principia no eran meras hipótesis carentes de prueba alguna que
pudieran ser rechazadas por razones metafísicas, sino verdades pobladas
empíricamente.

La obra de Newton reclamaba, por tanto, la elaboración de unos nuevos criterios


epistemológicos de evaluación. Para los cartesianos; la ley de la gravitación
newtoniana era una hipótesis no probada (en su sentido) Newton le da la vuelta a
esta objeción y replica que dicha ley está probada por los hechos, y por eso mismo
no es una hipótesis, mientras que, en cambio, son los principios metafísicos de la
filosofía cartesiana los que poseen un carácter hipotético y no debe aducirse jamás
en contra de conocimientos probados empíricamente. Un dato en favor de que la
explicación de la actitud newtoniana ante las hipótesis ha de buscarse en el
contexto de su disputa con los cartesianos es que el término “hipótesis” no tuvo
desde el principio un significado peyorativo para Newton.

1
4
34
A lo largo del siglo XIX los escrúpulos sobre el uso de hipótesis que la filosofía de la
ciencia de Newton había suscitado fueron debilitándose paulatinamente debido, por una
parte, a los nuevos rumbos que la investigación científica tomó durante este siglo, lo que
favoreció una mayor libertad en la formulación de teorías, y, por otra, a la batalla que en
el plano epistemológico ofrecieron las obras de algunos grades autores. Entre ellos, John
Herschel, William Whewell y John Stuart Mill.

5. John Herschel intentó colocar el concepto de hipótesis en el lugar que le


correspondía de acuerdo con el ideal de conocimiento científico que Newton había
iniciado. Si después de Newton son los hechos los que, según se afirma, guían la
investigación, con Herschel se reconoce la posibilidad clara de que sean las
hipótesis las conductoras; posibilidad que se consolida con Whewell. En el
Preliminary Discourse on the Study of Natural Philosophy (1930), Herschel
define su postura con unas líneas que luego parafrasearán con gusto Whewell y
Mill.

Las hipótesis tienen a menudo un uso eminente; y una facilidad para formularlas,
si va acompañada de una facilidad para dejarlas de lado cuando han cumplido su
misión, es una de las cualidades más valiosas que un filósofo puede poseer,
mientras que, por otra parte, una adherencia fanática a ellas, o de hecho, a
opiniones particulares de cualquier tipo en oposición al curso que los hechos
presentan, es la ruina de toda filosofía.

Herschel es partidario del uso de hipótesis en la ciencia como procedimiento


complementario de la inducción. Pero esas hipótesis han de formularse con
cautela y no de forma arbitraria. Deben ser hipótesis que pueden dar razón del
mayor número posible de hechos en estudio y que posean un fuerte apoyo
empírico. Si una hipótesis de este tipo resulta además verificada, pasa entonces a
formar parte de nuestro conocimiento de la naturaleza. No obstante, también de
una hipótesis no verificada podemos obtener enseñanzas útiles sobre lo que hay
tras los fenómenos.

1
5
35
6. Más original y atrevido en sus conclusiones fue el segundo de los autores citados,
William Whewell. Su aportación a la filosofía de la ciencia constituye la defensa
más decidida del uso de hipótesis que se produjo con anterioridad al siglo XX.
Para Whewell la importancia de las hipótesis no está en que puedan ser
instrumentos auxiliares de la investigación en aquellas cuestiones donde el
razonamiento inductivo no puede ser aplicado por escasez de datos. Su opinión en
que el razonamiento inductivo es en sí mismo un proceso de selección de
hipótesis.

Lo peculiar del proceso inductivo es que una concepción general, que no está dada
inmediatamente por los hechos, es inventada e introducida en la mente del
científico para ordenarlos, reunirlos y hacerlos inteligibles. Así, cuando Kepler lo
descubrió que el planeta Marte se movía siguiendo una trayectoria elíptica, lo que
hizo fue unir las observaciones partículas de las posiciones de Marte a la noción
(o concepción) de una elipse, y ese momento aquellas observaciones particulares
quedaron finalmente “coligadas”.

Para encontrar la concepción correcta que permite coligar los hechos no basta,
según Whewell, con una simple generalización a partir de las observaciones
particulares, tal y como tradicionalmente se había entendido salto inductivo. La
concepción introducida para coligar los hechos es un elemento nuevo que la mente
añade a la combinación y que no está en los hechos observados. Dar con la
concepción adecuada es un paso difícil que ha de efectuarse aventurando hipótesis
y probando con ellas hasta encontrar la que puede explicar los hechos conocidos
y predecir otros hechos nuevos que luego son verificados. El científico tiene una
casi total libertad para imaginar hipótesis que él crea que pueden ser útiles, la
única restricción es que estas hipótesis vengan sugeridas por los mismos hechos
y no por una especulación caprichosa.

En lo que sí debe ser cuidadoso el científico es en someter sus hipótesis a


contrastación empírica, sí como estar dispuesta abandonarla tan pronto como no
resulten confirmadas por los hechos. La desconfianza sobre el uso de hipótesis
proviene, según Whewell, de que muchas veces los científicos se han adherido
tenazmente a sus hipótesis cuando aún no han sido confirmadas o incluso cuando
han sido claramente refutadas.

1
6
36
7. Aunque en líneas generales Mill se muestra conforme con Whewell en otorgar a
las hipótesis un papel preponderante en la ciencia, no contempla la inducción
como un proceso de búsqueda y selección de hipótesis, sino como conjunto de
métodos para descubrir y probar leyes científicas a partir de los hechos. Mill cree,
no obstante, que las hipótesis son necesarias en la investigación y que toda teoría
y toda ley comienzan siendo una hipótesis y conservan este carácter hasta que no
pasan por el tamiz de los métodos inductivos. Hubo dos grandes diferencias entre
Mill y Whewell:

 El motivo principal de la discrepancia entre ambos sobre este punto está


en el grado de libertad que conceden al científico a la hora de elaborar
hipótesis. Mientras Whewell subraya la conveniencia de una imaginación
fértil actuando sin cortapisas, mil desconfía de ella por sus posibles
excesos. La imaginación humana es, para este último, muy poderosa, y sin
cierto control alcanza pronto conclusiones inverosímiles. Por ello, el uso
científico de hipótesis debe estar restringido por el acatamiento de ciertas
condiciones, como que sea la única explicación de los hechos que pueda
encontrarse, que verse sobre cosas existentes y no sobre objetos ficticios,
y que sea verificable mediante la confrontación con los hechos
observados.

Estas restricciones al uso de hipótesis dieron lugar a una intensa discusión


entre Whewell y Mill que se extendió a lo largo de varios años y en la que
no siempre fueron capaces de entenderse mutuamente. Sin embargo, la
distancia entre ellos no fue tan grande como a veces se ha dicho. El propio
Whewell, en el calor de la polémica, declaro que “sería tan cauteloso como
el señor Mill en aceptar meras explicaciones hipotéticas de los fenómenos
en el caso de que ambos tuviésemos ante nosotros los fenómenos y sus
relaciones colocados con igual claridad”.

 Una segunda diferencia con Whewelll estriba en la función que Mill


atribuye a las hipótesis. Hemos dicho que para Whewell las hipótesis son
el elemento básico de que necesariamente para la investigación científica.
Ésta no consiste en otra cosa que en “ensayar hipótesis variadas, modificar
hipótesis para aproximarse a los hechos, y multiplicar los hechos para
probar las hipótesis”. Mill, em cambio, les concede una función mucho
menos importante. El uso de hipótesis cumple su cometido principal como
procedimiento sustitutivo de la inducción en aquellas ciencias donde no es
factible la aplicación directa de los métodos inductivos.

1
7
37
Para esas ciencias, que son las más perfeccionadas o las más complejas, Mill
propone la utilización de un método deductivo, una de cuyas variantes es el
método hipotético. Este método se compone de tres pasos sucesivos:

 Invención selectiva de hipótesis.

 Deducción de los efectos que siguen de las hipótesis asumidas.

 Verificación de las hipótesis mediante la comparación de lo obtenido en


la deducción con los fenómenos observados.

El método hipotético, junto con las otras variedades del método deductivo, está
designado, según Mill, a predominar sobre los métodos inductivos a medida que
las ciencias progresen y perfeccionen.

8. Tras el debate entre Whewell y Mill, la clarificación del papel desempeñado por
las hipótesis de la ciencia se convirtió en un asunto fundamental de análisis en la
filosofía de la ciencia. En general puede decirse que para entonces era
ampliamente reconocida su ineludible peso en la investigación. Lo que podía
ofrecer dudas era el grado de permisividad que había que tener con cierto tipo de
hipótesis de difícil o imposible contrastación experimental. Quien mejor
ejemplifica estas dudas es Ernst Mach. Es de sobre conocido su prolongada
hostilidad a la hipótesis de la existencia de los átomos.

Para Mach la cuestión no era tanto si debían utilizar hipótesis, como si éstas
podían postular entidades inverificables. Mach estimaba, como Comte y Mill, que
sólo aquellas entidades acerca de las cuales puede haber algún tipo de experiencia
son admisibles en la ciencia. Por tanto, cuando una hipótesis acude a entidades
sobre las que esto no es posible, como en el caso de los átomos, dicha hipótesis
debe aceptarse sólo provisionalmente y en la medida en que tenga cierta utilidad
heurística. Tan pronto como cumpla su tarea, permitiendo descubrir nuevas
conexiones fenoménicas, ha de ser abandonada.

Las hipótesis, según Mach, son instrumentos que presentan un servicio auxiliar en
la ciencia, ya que siempre hay quien necesita apoyarse en imágenes para avanzar
en la investigación. Pero para que una hipótesis sea aceptable tiene que
proporcionar utilidades adicionales: debe “sustituir o ahorrar experiencia” y debe
conducir a nuevas experiencias que permitan confirmarla y, así, superarla. Cuando
una hipótesis logra su objetivo de conectar fenoménicos mediante la
determinación precisa de sus relaciones, debe desparecer como tal hipótesis para
dejar como resultado de su aceptación provisional las leyes que se han obtenido
con su ayuda. Peor, en ningún caso, ha de atribuirse durante esta aceptación
provisional un significado ontológico fuerte a las entidades postuladas, como si
se trataran de una especie de “cosa en sí”. Hacer esto sería ir más allá de lo que
permite la experiencia, que es la única que puede dictaminar qué tipo de entidades
existen.

1
8
38
Por lo tanto, Mach considera que el uso de hipótesis es inevitable, pero siempre
que no se olvide que su función es subordinada, provisional, y que lo que importa
de verdad son los hechos. En su obra Desarrollo histórico-crítico de la mecánica,
advertía contra la construcción de hipótesis que no pudieran ser probadas por los
hechos con esta fuerte recomendación:

Si queremos mantenernos fieles al método que condujo a los más grandes


investigadores: Galileo, Newton, Carmot, Faraday, Mayer, a sus mayores éxitos,
debemos limitar nuestra física a la expresión de los hechos, sin construir sobre
ellos hipótesis alguna, de manera que anda puede para ser concebido o probado.

Al leer este pasaje podría parecer que Mach ha vuelto a las posiciones hostiles de
Newton acerca de las hipótesis. Pero Mach no está desterrando aquí las hipótesis,
sino aclarando que no pueden ser el estado final de la investigación y que no
pueden sustituir a los hechos con base de justificación. Por eso, en otro lugar
aclara que “las hipótesis no llegan a ser prejudiciales o peligrosas para el progreso
excepto cuando se deposita más confianza en ellas que en los hechos mismos”.

9. En una posición más abierta se situaron, sin embargo, Henri Poincaré y Pierre
Duhem. El primero de ellos escribía en 1902:

En lugar de pronunciar una condena sumaria, debemos examinar con cuidado el


papel de las hipótesis; reconoceremos entonces no solamente que es un papel
necesario, sino que muy a menudo es legítimo.

Para Poincaré, la experiencia aun con ser la única fuente de verdad y hasta de
certeza del conocimiento, no lo es todo en la ciencia. Es imprescindible elaborar
generalizaciones sobre ella. Poincaré afirma que no se puede experimentar sin
poseer ciertas ideas generales preconcebidas acerca del mundo. Pero resulta que
“toda generalización es una hipótesis”. Nadie, según su criterio, ha rechazado
nunca este papel necesario de las hipótesis, siempre y cando sean explícitamente
formuladas y sometan a verificación lo antes posible. Las que no pasen la prueba
de la verificación han de ser abandonadas, si bien esto debe alegrar al científico,
pues “acaba de encontrar una ocasión inesperada para hacer un descubrimiento”.

Además de las generalizaciones, que exigen verificación, Poincaré señala otros


dos tipos de hipótesis: las “naturales” y las “indiferentes”. Las naturales “forman
por así decir el fondo común de todas las teorías de la física matemática” y son
las últimas que han de abandonarse en caso necesario. Entre ellas están la
suposición de que los cuerpos lejanos tienen una influencia despreciable, la que
los movimientos pequeños obedecen una ley lineal y la de que el efecto es una
función continuade la causa. En cuanto a las hipótesis indiferentes, Poincaré las
considera instrumentos de cálculo no verificables que no por ello deben se
proscritos, pues sirven como metáforas que ayudan a “sostener nuestro
entendimiento con imágenes concretas”. Una hipótesis de este tipo sería la
hipótesis atómica, junto a su rival, la hipótesis de que la materia es continua.

1
9
39
10. Por su parte, Pierre Duhem acepta de Mach la tesis de que las teorías científicas
son instrumentos para economizar experiencias, pero concede la hipótesis una
importancia mayor. Duhem define una teoría científica como “un sistema de
proposiciones matemáticas, deducidas de un pequeño número de principios, y que
tienen por objeto representar tan simple, completa y exactamente como sea
posible, un conjunto de leyes experimentales”. Pues bien, los principios a partir
de los cuales se deducen esas proposiciones tienen para Duhem el carácter de
hipótesis. Éstos no pretenden ser enunciados sore relaciones verdaderas entre
propiedades de los objetos, uno que son formulados de una manera arbitraria,
únicamente en función de su utilidad para derivar consecuencias que concuerden
con los resultados experimentales.

No obstante, en la medida en que podamos descubrir a partir de ellos leyes nuevas


que se vean confirmadas, estamos legitimados para concluir que no son hipótesis
completamente artificiales, pues es razonable pensar entonces que las relaciones
que establecen entre los datos corresponden a relaciones objetivas entre las cosas,
es decir, constituyen lo que Duhem se aleja del convencionalismo y se aproxima
al realismo. Peor no es esta una cuestión que dejara demasiado clara y en otros
muchos lugares de su obra encontramos afirmaciones decididamente
convencionalistas. Duhem reconoce, pues, sin reservas un lugar central a las
hipótesis en la ciencia. El contraste con la posición de Mach queda de manifestó
en el siguiente pasaje:

Es imposible construir una teoría por el método puramente inductivo. Newton y


Ampère fracasaron en ello y, sin embargo, estos dos genios se preciaban de no
haber admitido en sus sistemas nada que no se hubiera obtenido directamente de
la experiencia. Así pues, no nos repugnará en absoluto aceptar entre los
fundamentos sobre los que descansa nuestra física, postulados que no han sido
suministrados por la experiencia.

Las condiciones que Duhem pone para aceptar estas hipótesis son únicamente que
no contengan contradicciones, que no se contradigan unas a otras, y que no
contradigan leyes experimentales aceptadas previamente. El incluso la segunda
condición puede ser obviada si las hipótesis que se contradicen pertenecen a
capítulos diferentes de la física.

11. La actitud cada vez más abierta hacia el uso de hipótesis que venimos
describiendo, e incluso la comprensión de la naturaleza hipotética de la ciencia,
se afianzó aún más a lo largo del siglo XX. Así, Moritz Schlick declaraba en el 34
que “Las leyes de la naturaleza son suposiciones que nuca pierden su carácter
hipotético; nunca podemos estar absolutamente convencidos de su validez. Ni
dispones de medio alguno con el que probar la validez universal de dichas leyes.
Estas palabras, por cierto, desmienten la tan difundida imagen del dogmatismo
neopositivista acerca del carácter absolutamente firme del conocimiento
científico. Otras muy semejantes pueden encontrarse, por ejemplo, en algunos
pasajes de Carnap.

2
0
40
12. Pero es justo destacar el impulso final que en esta evolución imprime, desde
mediados de los 30, y sobre todo a partir d ellos 60, la filosofía falibilista de
Popper. La idea que mejor resume la actitud propperiana es que todas las teorías
científicas tienen un carácter hipotético y jamás podrán ser otra cosa que
conjeturas. La ciencia es doxa, no episteme. Y por este motivo, Popper ya no se
limita afirmar que la formulación de hipótesis sea un paso provisional y que el
desenlace feliz de toda investigación sea la verificación de la hipótesis o, lo que
es igual, su transformación en una verdad establecida. Lo que Popper nos dice es
que una teoría científica no puede aspirar a ser más que una hipótesis, que no hay
posibilidad de probar la verdad definitiva, y ni siquiera la alta probabilidad, de
ningún enunciado empírico por evidente que parezca y que, por consiguiente, las
distintas ciencias son sistemas de hipótesis y no cuerpos de conocimiento.

Hay quien ha llegado a causar a Popper por todo ello de irracionalismo y


escepticismo, sin embargo, como veremos después, nada puede estar más lejos de
sus verdaderas intenciones. Si adoptó una posición tan paradójica en principio
fuer para dar cabida a los cambios espectaculares acontecidos en la física dentro
de una imagen racionalista de la ciencia. Según confiesa, fue el remplazo de la
física newtoniana por la teoría de la relatividad lo que determinó en última
instancia su convencimiento de que las teorías científicas poseen un carácter
hipotético.

Popper caracterizó la ciencia actual en términos contrarios a los de Bacon. Para


él, la ciencia “consiste en anticipaciones, precipitadas y prematuras y en
prejuicios”. Pero esas anticipaciones o conjeturas deben ser sometidas a
contrastaciones sistemáticas y abandonadas en caso de que no las superen, es
decir, en el caso de ser falsadas. Nunca puede probarse la verdad de una hipótesis.
Sin embargo, dado un acuerdo previo y tácito entre científicos ore un conjunto de
enunciados acercade los hechos, hay ocasiones en las que puede determinarse la
falsedad de la hipótesis procede a su desmantelación. De ello se sigue que el
conocimiento científico consiste en simplemente en hipótesis que no han sido
refutadas por el momento, pero que puede serlo en el futuro.

La misión del científico, por tanto, no es defenderlas dogmáticamente de todo


posible ataque, sino por el contrario, intentar derribarlas cuanto antes ensayando
contrastaciones cada vez más fuertes y rigurosas. Si los científicos tienen éxito en
la refutación de una hipótesis, es necesario que haya otras capaces de sustituir a
la que queda refutada. Por ello es también su tarea inventar siempre hipótesis que
pueden dar razón de los éxitos de las anteriores y superar las pruebas que éstas no
pasaron. De esta manera, a pesar de que las teorías científicas seguirán siendo
conjeturas, sabremos que las hipótesis nuevas son mejores que las antiguas.

2
1
41
PUNTO 5: LAS LEYES CIENTÍFICAS

Es habitual entender una ley científica como un enunciado, con frecuencia formulable
como una ecuación matemática simple, que expresa una relación regular y empíricamente
contrastable entre los fenómenos o propiedades seleccionadas de los fenómenos. Si la
regularidad se afirma universalmente y sin excepciones, es decir, si se afirma su
cumplimiento en todos los casos (aunque este cumplimiento sea de forma aproximada),
estamos ante una ley universal o determinista. En cambio, si se afirma solo una
regularidad que se da en una serie de casos, pero no en otros, y que admite por tanto
excepciones, en otras palabras, si el cumplimiento de la relación establecida por la ley se
mantiene en un cierto porcentaje de casos; pero no necesariamente por todos los casos
concretos, o bien si la ley incluye en su misma formulación la probabilidad de que se dé
un suceso, estamos ante una ley probabilística.

La existencia de leyes probabilísticas en la ciencia se debe tanto a las limitaciones


inevitables a la hora de conocer con exactitud las condiciones que determinan a muchos
de los procesos deterministas complejos, como al hecho de que en la naturaleza se dan
fenómenos objetivamente aleatorios o no deterministas. En las ciencias sociales suelen
deberse a lo primero y en la teoría cuántica a lo segundo. Hemos de admitir, pues, que las
probabilidades no se introducen en la ciencia sólo decido a que no podemos conocer hasta
los últimos detalles los fenómenos que nos interesa estudiar, sino a que existe en la
naturaleza un azar intrínseco que resulta ineliminable, incluso en el caso ideal de que
pudiéramos conocer a la perfección todos los detalles.

Otra forma de caracterizar esta diferencia es la que presenta David Lewis en la


terminología de la semántica de mundos posibles. Una ley determinista afirma que no
puede haber dos mundos posibles que sean iguales antes de un tiempo t y que, sin violar
la ley, difieran después de t. En cambio, una ley probabilística permite la existencia de
tales mundos, es decir, permite mundos posibles idénticos antes de t y diferentes después
de t, aun cuando ambos satisfagan la ley. Un ejemplo de ley universal lo tenemos en la
ley de la gravedad: “todo cuerpo ejerce sobre otro una fuerza de atracción que es
directamente proporcional al producto de sus masas e inversamente proporcional al
cuadrado de la distancia que los separa”.

2
2
42
En cuanto a las leyes probabilísticas, el ejemplo que frecuentemente se cita es la ley de
Elster y Gietel sobre la desintegración radioactiva, que dice: “la actividad de una sustancia
radioactiva pura disminuye con el tiempo de forma exponencial”. Sin embargo, el
ejemplo que mejor lo ilustra es el del segundo principio de la termodinámica, que puede
ser formulado del siguiente modo “un sistema aislado tiende a estados de mayor
entropía”. Como se ve por la formulación, no se excluye la posibilidad, aunque su
probabilidad sea extremadamente baja, de una transición espontánea a un estado de menor
entropía. A veces se dice también que la naturaleza tiende a evolucionar desde los estados
de orden hacia los de desorden, o desde los menos probables hacia los más probables.
Algunos manuales de física ocultan el carácter probabilístico del segundo principio de la
termodinámica declarando simplemente que tales transiciones espontáneas hacia estados
de menor entropía son imposibles. Otros, más cautos, señalan el carácter probabilístico
del segundo principio, pero añaden que la probabilidad de que disminuya la entropía en
los sistemas aislados es tan pequeña, que puede considerase como imposible.

A pesar de su papel prominente en la ciencia, el concepto de ley científica es uno de los


de más difícil caracterización y ha generado una amplia discusión entre partidarios de
interpretaciones diversas. Hasta tal punto que, como diremos después, para caracterizarlas
han resultado problemáticas o inadecuados, algunos han negado que existan leyes en el
sentido que le han dado los filósofos.

 Para empezar, parece evidente que no todo enunciado universal o probabilístico


que expresa una regularidad es una ley científica. El enunciado “Todas las
montañas de la Tierra miden menos de 9000 metros de altitud” tiene la misma
estructura que muchas leyes científicas y, sin embargo, pocos estarían dispuestos
a reconocerlo como una ley. Más bien es un ejemplo de generalización accidental.
El hecho de que haga mención a un objeto particular (el planeta tierra) o que
establezca una regularidad localizada en una región espacio-temporal no marca
una diferencia significativa con respecto a las leyes científicas. Las leyes de
Kepler, por ejemplo, no sólo tienen una referencia sumamente localizada, sino
que hacen mención objetos particulares (El Sol), y pese a ello fueron consideradas
como leyes mucho antes de ser derivadas de leyes de la mecánica newtoniana, que
no incluyen este tipo de menciones.

 Además, descartar como leyes a los enunciados acerca de regularidad espacio


temporales localizadas significará excluir de antemano la posibilidad de leyes en
la biología y en la geología. La cuestión entonces es la siguiente: ¿qué es lo que
diferencia a una ley científica genuina de una generalización accidental?

2
3
43
En la tradición filosófica, desde Aristóteles a Locke, se consideraba que las leyes
científicas establecían conexiones necesarias entre propiedades. Esto implicaba aceptar
la existencia de una necesidad natural y objetiva que ligaba entre sí ciertos
acontecimientos y otros no. Como es sabido, Hume criticó desde bases empiristas la idea
de una conexión necesaria entre objetos. Para él la diferencia entre leyes u
generalizaciones de accidentales no era objetivo, sino que dependía de las diferentes
actitudes que mantenemos hacia cada una de ellas. Tanto las unas como las otras no
expresan más que una conjunción constante entre fenómenos. Pero en el caso de las leyes,
un hábito mental basado en esa repetición nos hace esperar el mantenimiento futuro de la
regularidad observada. Habría, en cambio, otras regularidades que no hacen parecer este
hábito de proyectar la regularidad hacia el futuro y que consideramos por ello
accidentales. Hume descartaba, por carecer del más mínimo fundamento en la
experiencia, el que realmente hubiera una conexión necesariamente entre ciertos
fenómenos. Lo único real y observable es la conjunción constante de los fenómenos.
Reconocía que la idea de una conexión necesaria forma parte inevitable de nuestra noción
de causalidad, pero creía que era una proyección de nuestra mente, algo que no podemos
dejar de imaginar pero que no está en los objetos mismos.

Ambas respuestas, sin embargo, resultan problemáticas. La primera por su carga


metafísica. La segunda por el carácter subjetivo que atribuye a las leyes. Si la diferencia
entre las leyes y las generalizaciones accidentales estriba en nuestra actitud epistémica
hacia las mismas, sin que haya ninguna diferencia objetiva entre ellas ¿qué es lo que hace
entonces que tengamos precisamente una actitud epistémica distinta hacia las unas y hacia
las otras? ¿Por qué unas regularidades hacen aparecer un hábito metal que nos lleva a
proyectarlas y otras no? Hume no dio respuesta porque es difícil hacerlo desde dichos
postulados. Ha habido varios intentos de resolver la cuestión

1. Un intento de resolver esta cuestión, muy influyente, aunque nunca consiguiera


una forma acabada, fue el realizado en el seno de la corriente neopositivista. En
un primer momento, los neopositivas no cuestionaron el enfoque extensional de
las leyes científicas provinientes de Hume. Sin embargo, pronto se hizo evidente
que este enfoque era inadecuado. Las leyes científicas, a diferencia de las
generalizaciones accidentales, parecen en principio implicar algo más fuerte que
la afirmación de que hasta el momento se ha observado una regularidad de hecho
entre fenómenos. Una ley científica (en el sentido determinista) lleva aparejada la
idea de que la regularidad afirmada no se cumpla. Es decir, las leyes científicas
aparecen enunciar regularidades de cumplimiento necesario, dadas las
condiciones establecidas en los antecedentes. Es perfectamente posible que
hubiera habido en la Tierra montañas de más de 9.000 metros. Pero si aceptamos
la mecánica newtoniana, no es posible que no se cumpla la ley de gravitación
universal.

2
4
44
Para evitar recurrir a un concepto metafísico de necesidad o de conexión necesaria
y mantenerse fiel al empirismo, los neopositivistas aceptaron una propuesta que
se estimaba compatible con el análisis de Hume (con operadores modales), que
podría evitar la carga metafísica que acarreaba el concepto de necesidad. Según
dicha propuesta, la diferencia fundamental entre una ley científico y una
generalización accidental estribaría en que sólo la primera puede justificar, en
virtud de ciertas características a determinar, los correspondientes enunciados
condiciones subjuntivas o enunciados condicionales contrafácticos.

Un enunciado condicional subjuntivo es un enunciado condicional (aun enunciado


del tipo “Si A, entonces B”) expresado de forma subjuntiva. Cuando se sabe
positivamente que el antecedente A no se da en la realidad, se dice que un
enunciado es contrafáctico. Se supone que las leyes científicas permiten garantizar
la verdad de enunciados de este tipo acerca de los fenómenos englobados bajo la
ley. Tomemos el caso de la ley de caída de los graves de Galileo: v=V0 +gt, donde
v es la velocidad que toma un cuerpo en su caída, V0 es la velocidad inicial y g es
la aceleración en la caída. Esta ley lleva a que consideramos como verdadero un
enunciado como éste: “Si el Apolo XIII hubiera caída sobre la Tierra, su velocidad
al llegar al suelo habría sido igual a su velocidad inicial al comenzar la caída más
9’8 m/s2 multiplicada por el tiempo en segundos que hubiera tardado en caer. En
los dos casos citados la verdad de la ley obliga a aceptar la verdad del enunciado
correspondiente. Esto, sin embargo, no sucede con las generalizaciones
accidentales.

Según el análisis efectuado por los neopositivistas, las leyes científicas pueden
justificar condicionales subjuntivos y contrafácticos porque son enunciados
universales irrestrictos no vacuamente verdaderos (no los hace verdaderos el
hecho de que no haya nada que satisfaga al antecedente) y los elementos de juicio
en su favor no coinciden, a diferencia de las generalizaciones accidentales, con su
ámbito de predicación. Esto les capacita para hacer predicciones y participar en
explicaciones científicas.

Volviendo a los ejemplos citados, la verdad del enunciado “todas las montañas
del planeta Tierra miden menos de 9000 metros de altitud sólo puede establecerse
tras examinar todas las montañas terrestres de gran altura. Los elementos de juicio
para confirmar la ley son todos y cada uno de los casos a los que la ley se refiere.
Con lo cual, una vez aceptado el enunciado una o cabe hacer con él ninguna
predicción, y carece de capacidad explicativa alguna. Sin embargo, por muchos
casos que observamos de caídas de cuerpos sobre la superficie terrestre, quedará
siempre un número indeterminado de casos por examinar. La aceptación de la ley
de Galileo se hace, pues, antes de examinar todos los casos. Y, por tanto, una vez
aceptada, podemos predecir el comportamiento de los casos no observados y
aplicarlo mediante la ley.

2
5
45
Esta propuesta tiene méritos innegables, pero desafortunadamente no puede valor
como una condición necesaria y suficiente de las leyes científicas, por varios
motivos:

 Los enunciados analíticos, que no son leyes científicas, al menos en las


ciencias empíricas, permiten también justificar sus correspondientes
contrafácticos. El enunciado “todos los asnos son acémilas” justifica el
enunciado “Si Mickey Mouse fuera un asno, sería una acémila”.

 Podría interpretarse, entonces, para salvar la propuesta, definir las leyes


científicas como aquellos enunciados no analíticos capaces de justificar
enunciados subjuntivos y contrafácticos. Pero tampoco esto resuelve
definitivamente la cuestión.

 Hay que añadir las objeciones de quienes piensan que la capacidad de


justificación mencionada es dependiente del contexto, y no puede
atribuirse exclusivamente a la naturaleza de las leyes como tales.

 También se ha objetado que la capacidad de ciertas generalizaciones para


justificar enunciados contrafácticos no puede servir para caracterizarlas
como leyes porque es precisamente el hecho de que las consideremos
como leyes científicas lo que no lleva a considerar que pueden justificar
dichos enunciados contrafácticos. Es más, no se ha conseguido por el
momento determinar en qué circunstancias debemos considerar como
verdadero un enunciado contrafáctico si no es implicando en ello a las
leyes científicas. Sólo si el antecedente está ligado mediante una ley al
consecuente podemos garantizar que, dado el primero se dará también el
segundo. Luego se estaría presuponiendo que ya se tiene una noción clara
de lo que son las leyes y se estaría cayendo en una argumentación circular.

Un hecho importante en lo que se refiere a las leyes científicas, y que o cumple


con las generalizaciones accidentales, es que se considera muy deseable que
mantengan conexiones entre sí, esto es, que en lugar de presentarse aisladas unas
de otras, formen una estructura coherente y de apoyo mutuo. Esta interconexión
es lo que permite su integración en teorías más generales, dentro de las cuales
pueden llegar a ordenarse en un sistema jerárquico de leyes en que algunas de
ellas toman el carácter de leyes fundamentales y toras el de leyes derivadas. Así,
en la mecánica newtoniana, las tres leyes del movimiento y la ley de la gravedad
constituirían toda la base del sistema teórico.

2
6
46
En ocasiones, como Nagel reconoció, el que consideremos a un enunciado una ley
científica depende de que esté integrado en un sistema semejante. Este hecho ha
servido también como base para caracterizar a las leyes científicas sin tener que
abandonar el enfoque humeano. Los antecedentes de esta posición pueden
encontrarse en la obra de Mill, pero su defensor más destacado ha sido David
Lewis. Su propuesta, en pocas palabras es esta:

Una generalización contingente es una ley de la naturaleza si y sólo si aparece


como teorema (o axioma) en cada uno de los sistemas deductivas verdaderos que
consiguen una mejor combinación de simplicidad y fuerza.

Así pues, lo esencial es que las leyes son capaces de integrarse en sistemas
deductivos en cierto tipo mientras que las generalizaciones accidentales no lo son.
La diferencia ya no está en nuestra actitud mental hacia unas y otras, sino en un
rasgo independiente de nuestra mente. No obstante, también esta propuesta
adolece de ciertas dificultades. No está claro, por ejemplo, si toda regularidad es
susceptible de integrarse en un sistema deductivo apropiado puede justificar como
se espera de una ley, su correspondiente enunciado contrafáctico. Hay además
quien piensa que la integración en un sistema deductivo sigue siendo una
diferencia demasiado poco objetiva para diferencia leyes y regularidades
accidentales.

2. Frente a estas posiciones humeanas, que han sido predominado a lo largo del siglo
XX, están los que defienden que las leyes científicas van ligadas a algún tipo de
necesidad, aunque sea más débil que la aristotélica. Popper asumió que las leyes
científicas describen necesidades físicas (en el sentido de que se mantienen en
todos los mundos posibles que difieren del real sólo en las condiciones iniciales)
y esto bastaría para explicar porqué permiten justificar condicionales subjuntivos
y contrafácticos. No obstante, la caracterización de Popper fue acusada de
circularidad, pues un mundo posible que sólo difiere del mundo real en las
condiciones iniciales sólo puede entenderse como un mundo en el que se cumplen
las mismas leyes que en el real.

Los defensores más destacados de la idea de que las leyes científicas implican la
idea de necesidad “nómica” han sido fren Dretske, David Armstong y Michael
Tooley. Estos autores consideran que las leyes científicas expresan relaciones
entre propiedades o universales, y por ello se califica a su posición de “realismo
sobre las leyes”. Tomaremos aquí como representativas del grupo las tesis de
Dretske:

Decir que es una ley que los F son G es decir que “todos los F son G” ha de ser
entendido (en la medida en que expresan una ley) no como un enunciado sobre
las extensiones de los predicados F y G, sino como un enunciado singular que
describe una relación entre las propiedades universales de F-idad y de G-idad. En
otras palabras, ha de ser entendida como tenido la forma: La F-idad-->la G-idad.

2
7
47
Según Dretske, las leyes no son, por tanto, enunciados universales acerca de
objetos o situaciones particulares, sino enunciados singulares acerca de
propiedades universales. La ley que afirma que los metales son buenos
conductores de la electricidad no debe entenderse como el enunciado universal
“Todos los metales son buenos conductores de la electricidad”, sino como el
enunciado singular “la propiedad de ser metal implica la propiedad de ser un buen
conductor de la electricidad”. El hecho de que las leyes vayan más allá de los
objetos particulares y se refieran a propiedades es precisamente lo que les permite,
según Dreske, justificar a los contrafácticos. Al ser las propiedades las que están
ligadas, si un objeto adquiera la propiedad F, tendría que adquirir la propiedad G.
El poseer la una exige de alguna manera el poseer la otra.

De este modo, como queda claro en el caso de las generalizaciones accidentales,


sería falaz un razonamiento de este tipo:

 Todos los F son G

Esto es un F

Luego esto ha de ser G

Pero este sería válido

 La F-idad-->la G-idad

Esto es F

Luego esto ha de ser G

En el primer caso, la conclusión tiene un carácter modal que no tiene las premisas.
Se produce un salto ilegítimo, y de ahí que el razonamiento no sea válido. En el
segundo caso, el carácter modal de la conclusión se previa de la relación entre
propiedades establecidas en la primera premisa. En el caso de las generalizaciones
accidentales, es esta relación entre propiedades la que falta. No podemos concluir
que el Mont Noir habría medido menos de 9000 metros. Pero sí podemos concluir
que un trozo de metal encontrado fuera del Sistema Solar sería un buen conductor
de la electricidad, la que la ley establece que una cosa implica la otra.

2
8
48
Se ha objetad que muchas leyes tienen un dominio limitado de aplicación, por lo
que no pueden tratarse de relaciones entre universales: las leyes de la mecánica
no se aplican en velocidades cercanas a las de la luz o a sistemas subatómicas, las
leyes de la relatividad general no se aplican en distancias muy pequeñas, en la que
los efectos cuánticos no son apreciables, etc… Y hasta pueden tratarse de
idealizaciones que no son estrictamente correctas aplicadas a los sistemas reales,
como es el caso de la ley de los gases ideales. Quizá alguna variante del realismo
podrá superar esta dificultad. Pero, en todo caso, el principal problema con la
propuesta de Dretsle es que exige un compromiso con cierto realismo de los
universales que no todos los filósofos de la ciencia están dispuestos asumir. Y,
por si eso no bastara, queda demás el hecho de que ninguna caracterización de la
relación de necesidad entre universales consigue definir qué es lo que hay en ella
que sea empíricamente diferente de una regularidad accidental.

3. No podemos terminar este apartado sin mencionar que a partir de la década de los
80 algunos filósofos de la ciencia han puesto en cuestión la idea de que existan
leyes de la naturaleza universales y necesarias y, en consecuencia, la idea de que
la misión de la ciencia sea descubrir tales leyes. Bas van Frasse, Nancy Carwright
y Ronald Giere, todos ellos adscritos a la concepción semántica de las teorías, han
argumentado de forma independiente que las leyes universales, entendidas como
afirmaciones generales acerca de sistemas reales /y no meramente acerca de
modelos ideales), son en su mayor parte falsas. Los sistemas reales rara vez son
lo suficientemente simples para comportarse de acuerdo con dichas leyes. Por
ejemplo, la ley galileana sobre el movimiento pendular es falsa como afirmación
sobre sistemas reales, puesto que no existe el péndulo ideal en movimiento
perpetuo al que la ley se refiere, y todos los péndulos reales están sometidos a
fuerzas de razonamiento que no aparecen en dicha ley.

No debería por ello concederse al concepto de ley universal el papel central que
todavía hoy se le atribuye por parte de los filósofos para explicar el
funcionamiento de la ciencia. Un papel que, según estos autores, habría perdido
en los escritos de los científicos actuales. Esta posición tiene la ventaja de acercar
más la física a otras ciencias, como la biología o la economía. En ellas, en efecto,
no cabe hablar de leyes en el mismo sentido que la ley de la gravedad o la ley de
Coulomb, pero sí que encontramos modelos formales, frecuentemente
matematizados, o generalizaciones contingentes que cumplen funciones
explicativas. No obstante, debe reconocerse que el concepto de ley tiene un
arraigo muy fuerte tanto en la ciencia como en la filosofía y sigue siendo un
concepto útil para entender lo que hacen los científicos. Es difícil que sea
abandonado o relegado, pese a los problemas señalados.

2
9
49
PUNTO 6: LAS TEORÍAS

En su uso cotidiano se suele entender por teoría todo aquello que está muy alejado de la
práctica o acerca de cuya verdad se duda porque no puede ser comprobado en la realidad.
Esto conduce que algunas personas malinterpreten el significado de expresiones como
“teoría de la evolución” o “teoría de la relatividad” y crean que se trata de cosas que no
se pueden saber con seguridad que carecen de toda prueba, y que por eso “son sólo teoría”.
No es éste, sin embargo, el sentido con que en la ciencia y en la filosofía de la ciencia se
usa el término “teoría”. He aquí, por otro lado, una definición que nos encontramos en un
diccionario contemporáneo de epistemología, y que no es sino una versión resumida de
la que diera Nagel en La estructura de la ciencia:

Una generalización o conjunto de generalizaciones que pretenden hacer referencia a


entidades inobservables, e.g. átomos, genes, quarks, deseos inconscientes. La ley de los
gases ideales, por ejemplo, se refieren sólo a observables tales como la presión, la
temperatura y volumen; la teoría cinético molecular se refiere a moléculas y sus
propiedades (Dancy y Sosa, 1993).

Un problema con esta definición es que da a entender que las leyes sólo hacen referencias
a entidades o propiedades observables, pero no es así. Hay leyes, como la anteriormente
citada de Elster y Geiel, que hacen referencia a inobservables. Precisamente, para salvar
esta diferencia, Carnap y otros autores distinguieron entre leyes empíricas y leyes
teóricas. Y no deja de ser un uso forzado de los términos a emplear, como hacen algunos,
leyes teóricas y teorías como expresiones sinónimas. En la filosofía de la ciencia actual
ha habido dos enfoques distintos y en gran medida opuestas acerca de qué es una teoría
científica y cuál es su estructura: la concepción enunciativa y la concepción semántica o
modelo-teórica.

1. La concepción enunciativa ha sido defendida en diferentes versiones por los


empiristas lógicos, Popper, Kuhn, (aunque éste reconoció las virtudes de la
concepción semántica para construir su propia filosofía), Lakatos, Toumlin,
Feyerabend, Laudan, Putnam y Niinluoto, por citar sólo los nombres más
importantes de una larga lista que incluye a la mayoría de los filósofos de la
ciencia del siglo XX. Para dicha concepción, las teorías son entidades lingüísticas,
es decir, sistemas de hipótesis en forma de enunciados generales más o menos
estructurados jerárquicamente.

 Los empiristas lógicos consideraban que en el caso ideal las teorías de las
ciencias empíricas debían ser formuladas como un sistema de axiomas
susceptibles de una interpretación fáctica. De los axiomas se derivarían
deductivamente otros enunciados (teoremas) que desplegarían el
contenido de la teoría en el dominio correspondiente. La interpretación
que conecta los términos teóricos con términos referidos a fenómenos
observables vendría dada por una serie de reglas de correspondencia
especificarán las aplicaciones de las leyes teóricas (los axiomas) a los
fenómenos y harían posible las predicciones empíricas.

3
0
50
Un ejemplo de regla de correspondencia proporcionada por Carnap es: “Si
se produce una oscilación electromagnética de una frecuencia
determinada, entonces se observará un color azul verdoso de determinado
matiz”. O también: “la temperatura (medida por un termómetro) de un gas
es proporcional a la energía cinética media de sus moléculas”. Ambos
enunciados ponen en conexión cosas inobservables (una oscilación
electromagnética la energía cinética media) con cosas observables (un
color o una señal en un termómetro).

Al componente teórico constituido por los axiomas y teoremas tomados


sin interpretar (los postulados teóricos, en una palabra) se le designa como
T, y a las reglas de correspondencia que proporcionan una interpretación
se las designa como C. La teoría, sería, pues, el conjunto TC de los
axiomas y teoremas deducidos de ellos más la interpretación dada de los
mismos.

En pocas palabras, una teoría sería un cálculo formal interpretado


(parcialmente) por las reglas de correspondencia. En la versión inicial, que
sufrió significativas modificaciones, ofrecida por los neopositivistas, una
teoría científica ha de cumplir las siguientes condiciones:

1. La teoría se formula en un lenguaje de primer orden con identidad, L

2. Los términos de L se dividen en tres clases disjuntas llamadas


vocabularios:

a) El vocabulario lógico, que consta de constantes lógicas y términos


matemáticos.

b) El vocabulario observacional V0, que contiene exclusivamente a los


términos observacionales.

c)El vocabulario teórico Vt, que contiene exclusivamente a los términos


teóricos, es decir, a los que no son observacionales.

3. Los términos V0 se interpretan como referidos a objetos físicos o a


características directamente observables de los objetos físicos.

4. Hay un conjunto de postulados teóricos T cuyos únicos términos no


lógicos pertenecen a Vt. T es el conjunto de axiomas que constituyen las
leyes teóricas de la teoría.

5. Debe haber una definición explícita de los términos de V, en términos


de V mediante reglas de correspondencia C, es decir, para cada término F
de 𝑉𝑡0 debe darse una definición de la siguiente forma:

/\x(Fx=Ox)

3
1
51
Donde “Ox” es una expresión de L que contiene solamente símbolos V0
y posiblemente del vocabulario lógico.

Esto, en esencia, es lo que se conoce como la “Concepción Heredada”, por


ser el modo de entender la ciencia y, en particular, las teorías científicas
en el que se formaron la mayoría de los filósofos de la ciencia hasta los
años 60. Entre las modificaciones principales que experimentó esta
versión inicial estuvieron la inclusión en L de operadores modales,
principalmente para dar cuenta del carácter de las leyes científicas, y la
sustitución de las definiciones de los términos teóricos en función de
términos observacionales por el requisito más débil de proporcionar una
caracterización parcial de los primeros en función de los segundos.

 Tras el declive del neopositivismo, estas estrictas exigencias


formalzidaoras fueron suavizadas o simplemente desestimadas por
aquellos que siguieron defendiendo la concepción enunciativa. No sólo
surgieron dificultades interminables para determinar la naturaleza y
función de las reglas de correspondencia sino que también la distinción
absoluta entre los términos observacionales y los términos teóricos fue
durante criticada.

Que el lenguaje teórico está irremediablemente cargado de teoría se


convirtió en un lugar común en la filosofía de la ciencia. Esto afectaba a
la base misma de la concepción neopositivista, ya que sobre esta distinción
y sobre la posibilidad de establecer reglas de correspondencia entre los
términos teóricos y los observacionales se fundamentaba el que los
términos teóricos fueran cognitivamente significativos. Cada uno de ellos
satisfaría el criterio verificacionista del significado en la medida en que
fueran enteramente abreviaturas de descripciones fenoménicas, es decir,
descripciones que usan únicamente términos observacionales. Pero si los
términos observacionales mismos contienen implicaciones teóricas, esta
posibilidad se desvanecía.

Por otro lado, como señala Javier Echevarría, la mecánica cuántica se


reveló imposible de axiomatizar con un lenguaje de primer orden más
identidad, y lo mismo podría decirse de la teoría de la relatividad. En
realidad, muy pocas teorías en las ciencias empíricas fueron axiomatizadas
siguiendo los preceptos neopositivistas. Para algunos sencillamente no era
adecuado pretender que todas las teorías científicas fueron reconstruidas
como sistemas axiomáticos cuando la axiomatización, ya sea mediante la
lógica de primer orden, ya sea mediante otras herramientas matemáticas,
no es el modo habiual en el que los científicos construyen, presenten o
aprenden las teorías y, por tanto, su papel en las ciencias empíricas es
pequeño.

3
2
52
Aunque, como acabamos de decir, las pretensiones axiomatizadoras
fueron abandonadas por los partidarios posteriores de la concepción
enunciativa, éstos no ofrecieron una caracterización tan elaborada de la
estructura de las teorías como la que ofreció el empirismo lógico. De
hecho, con Popper el problema de la estructura de las teorías pasó a un
lugar secundario en beneficio del problema del progreso científico y del
cambio de teorías.

2. Sin embargo, en torno a los años 60 comenzó a desarrollarse una alternativa a la


concepción enunciativa de las teorías: la concepción semántica. Para dicha
concepción, el problema de la estructura de las teorías seguía siendo fundamental,
pero el modo de enfocarlo y el instrumental analítico era muy diferente. Sus
representantes más destacadas son F. Suppe, B van Frassen, W. Balzer y Ulises
Moulines. Estos dos son defensores de un enfoque más formal dentro de la
concepción semántica al que se conoce como “escuela estructuralista”.

Frederick Suppe sitúa la base de la separación entre la concepción enunciativa y


la semántica en que, mientras que para la primera las teorías versan sobre
fenómenos, para la segunda las teorías versan sobre sistemas físicos, como los
gases ideales, las reacciones entre sustancias químicamente puras, las frecuencias
genotípicas de poblaciones ideales o los patrones estímulo-respuesta en las
conductas de individuos:

 Los sistemas físicos son “réplicas muy abstractas e idealizadas de los


fenómenos, que son una caracterización de cómo se habrían comportado
los fenómenos si se hubieran dado las condiciones idealizadas”. No es que
Suppe afirme con esto que los defensores de la concepción enunciativa
desconozcan la existencia de idealizaciones son el modo en que la teoría
intenta recoger de forma tratable el comportamiento de ciertos fenómenos,
mientras que, para la concepción semántica, las teorías versan sobre esos
sistemas idealizados o modelos, que representan sólo algunos aspectos
concretos de los fenómenos, en lugar de hacerlo directamente sobre los
fenómenos en toda su complejidad. El nombre de concepción semántica
viene precisamente de la importancia que se otorga al concepto semántico
de modelo y a la semántica formal.

 La concepción semántica de las teorías entiende que éstas no son


básicamente entidades lingüísticas, como lo puede ser un sistema
axiomático interpretado. Según dicha concepción, el componente
principal de una teoría es una estructura formal de carácter matemático.
Dependiendo de los autores, esa estructura formal es caracterizada como
un predicado conjuntista (es decir, un predicado que define un conjunto-,
por ejemplo, “es un sistema mecánico clásico”-), un espacio de estados, o
un sistema de relaciones. La estructura formal determina la clase de sus
modelos, esto es, la clase de los sistemas concretos que encajan en ella.
Los modelos proporcionan a su vez contenido empírico de la teoría.

3
3
53
Así, puede decirse que un péndulo ideal sin razonamiento, que satisface
las leyes newtonianas del movimiento, es un modelo de la mecánica
clásica que representa a los péndulos reales, los cuales sí experimentan
fuerzas de rozamiento. Todos los modelos similares que satisfagan estas
leyes formarían el contenido de la mecánica clásica. Una teoría científica
estaría constituida por la estructura matemática compartida por sus
modelos junto con las aplicaciones propuestas de la misma o, como dice
Giere más genéricamente, por lo población de sus modelos junto con
varias hipótesis que conecten estos modelos con sistemas en el mundo real.

En resumen: la teoría define un sistema abstracto. Este sistema es


satisfecho por una serie de modelos; y estos modelos son similares a los
sistemas reales que pretenden ser explicados por la teoría.

 Así pues, en lugar de los axiomas y teoremas junto con las reglas de
correspondencia, que constituían la estructura de una teoría según el
neopositivismo, tenemos un conjunto de modelos y de hipótesis que
señalan qué objetos del mundo real encajan con los modelos. El
neopositivismo aceptaba que las teorías pudieran contener modelos. Para
la concepción semántica una teoría es en realidad el conjunto de sus
modelos. Los modelos no son entidades lingüísticas, aunque puedan ser
formulados lingüísticamente. Entre las ventajas principales de este cambio
está la desaparición de las reglas de correspondencia y de todos los
problemas ligados a su caracterización, no siendo el meno de ellos la
distinción teórico/observacional aplicado a los términos científicos. Esta
distinción es sustituido por la distinción teórico/no-teórico, la cual es
siempre relativa a una teoría concreta, en lugar de ser absoluta y universal.

Al abandonar la distinción teórico/observacional, la concepción semántica


evitar tener que comprometerse con una base empírica para la ciencia
descriptible en términos puramente observacionales. Un compromiso que
resultaba rechazable para teorías avanzadas, en las cuales la determinación
de los términos presupone la validez de ciertas leyes teóricas. Pero al
mismo tiempo queda abierta la posibilidad de que la descripción de unos
datos concretos sea no-teórica en relación con la teoría para los que dichos
datos cuentan como tales, ya que la carga teórica presente en la descripción
puede provenir de otras teorías distintas. Otra ventaja el hecho de que una
misma teoría puede recibir axiomatizaciones diferentes sin dejar de ser la
misma teoría. En cambio, si identificamos a una teoría con un conjunto de
axiomas interpretados, con distintos axiomas tendremos distintas teorías.

3
4
54
Es la escuela estructuralista la que ha conseguido articular de forma más completa
estas ideas, así que haremos una presentación somera de lo que dentro de ella se
entiende por teoría. Dado que sus propuestas han recibido refinamientos
sucesivos, nos atendremos a la caracterización que realizaron Balzer, Moulines y
Sneed en 1987.

Para los estructuralistas, una teoría (ellos lo denominan un elemento teórico) es


un par ordenado <K,I>, en el que K es el núcleo estructural de la teoría e I el
conjunto de aplicaciones intencionales o realmente propuestas de la teoría. Toda
teoría consta, pues, de un componente K puramente formal que “dice algo” sobre
ciertos sistemas físicos I. El núcleo K está constituido a su vez por diversos
elementos, todos los cuales pueden ser caracterizado de forma matemática.
Fundamentalmente son los siguientes:

 Modelos potenciales (Mp): es el conjunto de todas las aplicaciones que


podrían, en principio, ser modelos de la teoría porque cumplen ciertos
requisitos estructurales para ello, aunque no se sepa todavía si satisfacen
realmente la ley o leyes fundamentales de la teoría. Son estructuras que
pueden al menos ser subsumidas bajo el marco conceptual de la teoría. En
otras palaras, Mp, sería el conjunto de los mundos posibles para la teoría.

 Modelos efectivos (M): es el conjunto de todas las estructuras que, además


de cumplir los requisitos anteriores, satisfacen realmente las leyes
empíricas fundamentales. Por tanto, la relación entre la clase de modelos
efectivos y la de los modales potenciales sería M  Mp

 Modelos potenciales parciales (Mpp): son fragmentos de los modelos


potenciales que pueden ser entendidos o interpretados independientemente
de la teoría en cuestión. Podemos decir que son modelos potenciales en
los que se han apartado los componentes teóricos y se han dejado sólo los
que pueden ser descritos mediante términos no-teóricos relativos a dicha
teoría. Constiutyen la base empírica de la teoría.

 Ligaduras (constraints, C): son relaciones que conectan entre sí los


diversos modelos dentro de una misma teoría. Establecen, por ejemplo,
que un objeto tenga las mismas propiedades en diferentes modelos de la
teoría.

 Vínculos (links, L): son conexiones esenciales de los modelos de unas


teorías con los de otras.

3
5
55
 En cuanto a las aplicaciones intencionales I, no pueden ser caracterizadas
de un modo puramente formal. Son los casos o ejemplos de la teoría que
han sido propuestos alguna vez como tales por los científicos. Se trata, por
tanto, de sistemas concretos con las características adecuadas y que se
pueden describir con un vocabulario no-teórico en relación la teoría en
cuestión. En tal sentido, las aplicaciones intencionales son un subconjutno
de los modelos potenciales particulares: I  Mpp

En resumen, una teoría podría ser caracterizada como una estructura descripta por
la tupla

T=<Mp, M, Mpp, C, L, I>

Algunos autores dentro de la concepción enunciativa no creen, sin embargo, que


el enfoque semántico obligue a abandonar la visión de las teorías que ellos
defienden. Niiniluoto piensa que no son incompatibles, pues en la mayor parte de
los casos las estructuras formales compartidas por los modelos pueden ser
definidas mediante un lenguaje suficiente rico. J.H Fetzer escribe al respecto:

Es, de hecho, difícil resistirse a la concusión de que la concepción semántica es


realmente la concepción estándar de un cálculo abstracto del que podrán
proporcionarse varias interpretaciones (parciales o completas), pero donde la
noción de satisfacción de los predicados ha desplazado a la noción de verdad de
los enunciados. Dado que Alfred Tarski ha mostrado que, para estructuras
formalizadas de la mayor parte de los tipos a los que acuden los teóricos de la
concepción semántica, la verdad es reductible a la satisfacción, puede ser difícil
discernir los beneficios de tal cambio.

Es lógico que las cosas no se vean del mismo lado desde la concepción semántica.
Para ésta, los cambios que implican dicha concepción significan una superación
del enfoque anterior y, por tanto, un verdadero progreso filosófico. El enfoque
semántico, que enfatiza la referencia explícita a los modelos más que a los
enunciados, puede parecer una mera revisión del enfoque sintáctico propio de la
concepción Heredada. Es efectivamente una revisión, pues pretende expresar más
adecuadamente una idea ya contenida en la concepción anterior, aunque
insatisfactoriamente expresada. Pero no es una mera revisión si con ello se quiere
sugerir que se trata de una revisión sin importancia. En tanto conceptualización
más satisfactoria de una idea esencialmente correcta pero insatisfactoriamente
conceptualizada con anterioridad, ejemplifica el tipo de progreso al que se puede
aspirar en filosofía.

Más puntalmente, Paul Thagard ha acusado a la concepción semántica de cometer


el mismo error que cometió la concepción heredada. Ambas ofrecen una visión
excesivamente idealizada de lo que son en la práctica real las teorías científicas y
del modo en que son utilizados por los científicos, especialmente fuera de la física.

3
6
56
Una cuestión central que dejaremos para más adelante es la del estatus epistemológica de
las teorías científicas, en particular el modo en que debe entenderse su relación con la
realidad objetiva. Como veremos, hay básicamente dos posiciones enfrentadas: la
instrumentalista y la realista, aunque con numerosas variantes y propuestas intermedias.

1. Para el instrumentalismo, las teorías son herramientas conceptuales útiles para


organizar nuestra experiencia, para predecir experiencias nuevas, para manipular
y para controlar los procesos naturales, para resolver problemas, etc….
Instrumentos de cálculo, en suma, cuyas afirmaciones no deben tomarse como
enunciados verdaderos acerca de la realidad.

2. Para el realismo las teorías científicas bien confirmadas han de aceptarse como
verdades aproximadas; el mundo es en sus estructuras fundamentales como dicen
las teorías científicas.

PUNTO 7: EL CONCEPTO DE MODELO

Detengámonos ahora un poco más en un concepto muy ligado al de teoría y que, como
acabamos de comprobar con la concepción semántica, está recibiendo una atención cada
vez mayor por parte de los filósofos de la ciencia. Me refiero al concepto de modelo. No
hay un uso unívoco de este concepto en la ciencia y cualquier caracterización del mismo
se ve obligada a recoger de algún modo esta pluralidad de usos. Pese a ello, se trata de un
concepto central en la práctica científica, que en algunas disciplinas desplaza incluso al
de teoría. Así, en la biología, en la química, en las ciencias sociales, disponemos de
modelos rigurosos acerca de una gran diversidad de fenómenos, pero en muchos casos se
que las teorías los que dirigen el trabajo de los científicos y los que son utilizados como
base explicativa de los fenómenos. De hecho, los modelos suelen ser una forma de
desarrollar inicialmente una teoría.

1. En lo que respecta a la definición, quizá la distinción más básica que cabe hacer,
y que paradójicamente recoge dos sentidos contrapuestos del término “modelo”,
es la que separa entre modelos matemáticos o formales y modelos semánticas.

 Muchas veces cuando un científico dice que sería muy útil modelizar una
serie de fenómeno lo que quiere decir es que debería lograrse la
elaboración de un conjunto de ecuaciones que permitieran representar el
comportamiento de dichos fenómenos. En tal sentido decimos, por
ejemplo, que el modelo Volterra consigue representar de forma útil y
manejable el sistema de interacciones entre los depredadores y sus presas;
o decimos que los modelos informáticos actuales sobre el tiempo
atmosférico no permiten realizar predicciones fiables que vaya más allá de
cuatro días.

3
7
57
Tanto las ecuaciones del modelo Volterra como los elementos que
constituyen los programas informáticos de simulación del tiempo
atmosférico son modelos matemáticos o formales. Los modelos
matemáticos o formales son particularmente importantes a la hora de
realizar predicciones, ya que éstas se ven facilitadas pro el rigor y la
capacidad deductiva de los mismos.

 Los modelos semánticos son entidades (físicas o abstractas) que satisfacen


un conjunto de ecuaciones o simplemente de enunciados teóricos. Así
pues, podemos decir que un conjunto de ecuaciones sobre un sistema es
un modelo, pero también podemos decir que aquello que satisface esas
ecuaciones es un modelo de las mismas. Las ecuaciones de Volterra
constituyen un modelo matemático sobre las relaciones depredador/presa,
pero también las relaciones entre lobos y conejos en una población
determinada constituyen un modelo de las ecuaciones de Volterra. Los
modelos semánticos puede ser también estructuras matemáticas o
formales. Así, las operaciones de suma y multiplicación son un modelo
del álgebra de Boole.

2. Los modelos también pueden ser entendidos como representaciones simplificadas


de un sistema, y como tales suelen desempeñar en la ciencia fundamentalmente
una función heurística y explicativa. En virtud del modo en que se lleve a cabo
esta función, podemos distinguir entre modelos teóricos y modelos analógicos.

 Los modelos teóricos son un conjunto de supuestos teóricos que intentan


explicar de forma esquemática o idealizada la estructura o el
comportamiento de un sistema. Puede variar enormemente en su
complejidad, yendo desde simples diagramas conceptuales, como los
diagramas de flujos empelados en ecología, hasta constructos cercanos en
su desarrollo a una teoría elaborada, como en el caso del modelo atómico
de Bohr. Ejemplos de modelos teóricos serían el modelo de bicapa lipídica
para la membrana celular o el modelo de operón para la regulación
enzimática de la expresión génica. El modelo de operón fue propuesto por
François Jacob y Jaques Monod en 1961. Un operón es un conjunto de
varios genes estructurales que transcriben juntos y tienen función similar,
además de otras zonas controladores del ADN que son reconducidas por
proteínas represoras o activadores.

3
8
58
 Los modelos analógicos pretenden también proporcionar una explicación
de la estructura o fruncimiento de un sistema, pero no lo hacen mediante
representaciones aplicables únicamente al sistema estudiado, sino
mediante comparación con un sistema análogo que resulte familiar o mejor
conocido. El sistema análogo utilizado se supone que comparte con el
sistema en estudio aspectos relevantes, pero no es representativo de él en
todos los aspectos. Modelos analógicos serían el modelo el modelo de
bolas de billar para los gases, el modelo de la propagación ondulatoria del
sonido por luz, el modelo planetario de Rutherford, etc…Determinados
modelos analógicos pueden funcionar a veces como modelos semánticos,
ya que son susceptibles de proporcionar una interpretación de la teoría, e
incluso como modelos teóricos de pleno derecho

3
9
59
TEMA 3: LA EXPLICACIÓN CIENTÍFICA

PUNTO 1: EL CONCEPTO DE EXPLICACIÓN


De los temas clásicos en filosofía de la ciencia, el de la explicación científica es uno de
los que más discusión ha generado. Wesley Salmon recoge en su revisión de las cuatro
últimas décadas una bibliografía sobre el tema con más de quinientos trabajos. Entre los
objetivos perseguidos por las ciencias empíricas hay dos que suelen citarse como básicos.
Estos objetivos son explicar los fenómenos que despiertan curiosidad en el ser humano y
predecir nuevos fenómenos para, sobre todo, propiciar un control de los mimos. Es decir,
las ciencias empíricas no se conforman con descubrir y descubrir lo que ocurre con una
precisión cada vez mayor, sino que buscan también un conocimiento sistemático que
englobe los fenómenos dispersos y permite encontrar casos similares no observados con
anterioridad. En ocasiones, desde cierto empirismo radical, se sostuvo que la ciencia solo
debe interesarse acerca de cómo suceden las cosas y no por qué suceden. Sin embargo,
esta vieja máxima encierra una grave incomprensión del papel de la ciencia. Cuando fue
propuesta sólo quería decir que la ciencia debiera abandonar toda búsqueda de leyes
causales y convertirse en un memorando de observaciones recogidas en leyes empíricas.
Explicar significa etimológicamente extender, desenvolver, desplegar. En su acepción
corriente se entiende que explicar un hecho es aclarar por qué se produjo; lo que, por lo
general, consiste en señalar la causa del hecho. Aunque también puede consistir en otras
cosas, como dar más detalles sobre el mismo, identificarlo con otro, o analizar sus
componentes estructurales. El resultado de la explicación debe ser siempre una
compresión mejor del hecho, Esto se consigue mediante su incorporación al cuerpo de
conocimientos previos a través de ciertos lazos que lo muestra como algo racionalmente
aceptable dado ese mismo cuerpo de conocimientos junto con las circunstancias que
concurrieron en el caso.
La explicación científica no es radicalmente distinta de la explicación ordinaria; no
obstante, en virtud del mayor rigor del discurso científico, ha de cumplir condiciones más
estrictas. No debe extrañar por ello si ciertas características propias de la explicación
científica no son compartidas por cualquier modalidad de explicación en contextos
extracientíficos. Lo que pueda decirse acerca de explicar científicamente un hecho no
tiene por qué ser aplicable a la explicación del significado de un poema o al acto de
explicarle a alguien que no habla nuestro idioma que se nos ha roto el radiador el coche.
Los filósofos de la ciencia han intento buscar una estructura común a la diversidad de
tipos de explicación en la ciencia, y para ello han formulado diferentes modelos de
explicación. En este capítulo nos dedicaremos al análisis de los principales.

1
60
PUNTO 2: EL MODELO DE EXPLICACIÓN POR COBERTURA LEGAL
El primer modelo general de explicación que se ensayó y que más influencia ha tenido es
el modelo por cobertura legal. Como casi siempre en filosofía, se pueden encontrar
antecedentes clásicos (como Aristóteles), pero los que lo propusieron inicialmente en su
forma actual fueron J. S Mill, Campbell (1920) y K.R Popper (1934/1962) y los que lo
desarrollaron fueron Carl G. Hempel y Paul Oppenheim (1948). Para dicho modelo,
explicar un fenómeno es proporcionar un argumento en el que el fenómeno en cuestión
aparezca como conclusión de unas premisas que incluyan de manera implícita o explícita
al menos una “ley general”.
En otras palabras “la pregunta por qué sucede dicho fenómeno debe interpretarse así: ¿De
acuerdo con qué leyes generales y condiciones antecedentes se produce el fenómeno?”.
De modo similar, si lo que se tata es explicar una ley en lugar de un fenómeno aislado, el
procedimiento a seguir es subsumirla bajo una ley más general. Así pues, explicar
científicamente un fenómeno es derivarlo como caso particular de una ley general junto
con ciertas condiciones iniciales, mientras que explicar científicamente una ley es
derivarla de otras leyes más generales.
Cuando es posible deducir el fenómeno a partir de la ley (o una ley a partir de otra ley
más general) este tipo de explicación recibe el nombre de explicación, deductivo-
nomológico (DN), pero como no siempre es posible esto, hay otros tipos de explicación
perteneciente al modelo de cobertura legal.
De acuerdo con la presentación de Hempel, una explicación deductiva nomológica consta
de dos partes: el explandanum o enunciado descriptivo del fenómeno que se desea
explicar y el explanans o enunciados a partir de los cuales se deriva el explanandum como
conclusión. El explanans está a su vez formada por una o varias leyes generales
(L1,L2,L3,…Ln) y por enunciados que describen las condiciones iniciales cuya
concurrencia provoca la aparición del fenómeno (C1,C2,C3,…Ck). El esquema de este
modelo de explicación sería
L1,L2,L3,…Ln
Explanans
C1,C2,C3,…Ck
-------------------
E Explanandum

2
61
1. La explicación deductivo nomológico cumple dos requisitos que Hempel cree
imprescindibles en cualquier explicación científica: el requisito de la relevancia
explicativa (Explanatory relevance) y el requisito de la contrastabilidad
(testability). El primer exige que la información aducida proporciona una buena
base para creer que el fenómeno que se va a explicar tuvo o ha de tener. El segundo
pide que los eunciados que componen la explicación sean empíricamente
contrastables.

 La explicación deductiva nomológica cumple el primer requisito


(relevancia explicativa) con creces, toda vez que el explanans ofrece el
fundamento lógico más fuerte posible para concluir el explanandum, a
saber, lo implica deductivamente. Por lo tanto, aceptada de hecho la
información contenido en el explanans, ha de concluirse por necesidad el
acontecimiento del fenómeno en cuestión.

 El segundo requisito es también satisfecho, ya que el explanans implica


que el fenómeno ha de producirse bajo ciertas condiciones, y eso es
perfectamente contrastable. Si en tales condiciones el fenómeno no se
produce, la explicación habrá quedado invalidada por la experiencia. En
realidad, según Hempel, toda explicación que cumpla el requisito de la
relevancia cumple también el de contrastabilidad, aunque no a la inversa.

2. En cuanto a las leyes que forman parte de las explicaciones deductivo


nomológicas, habrán de ser enunciados universales verdaderos de la forma: “en
todos los casos en que están dadas las condiciones de tipo F, se dan también las
condiciones de tipo G”. Pero eso sólo no basta. Como explicamos en el capítulo
anterior, no todo enunciado universal verdadero es una ley científica.

3. Una de las características más notables que se atribuye a la explicación de ductiva-


nomológica es que su estructura lógica es la misma que la de la predicción en las
ciencias, con la única salvedad del orden en el procedimiento. Explicación y
predicción serían las dos caras de la misma moneda. En la explicación tenemos el
explanandum (fenómeno concreto) y buscamos el explanans convenientes (leyes
y condiciones iniciales); en la predicción tenemos las leyes y las condiciones
iniciales y buscamos un fenómeno futuro que se siga de ellas. Se afirma así que
tenemos una explicación de un fenómeno si y sólo si lo hubiésemos podido
predecir.

El mismo argumento que nos sirve para explicar el fenómeno una vez que
sabemos que éste se ha producido nos había permitido predecirlo antes de que se
produjera. La diferencia entre explicar y predecir es únicamente pragmática, se
reduce al momento en que se formula el argumento: si se formula antes de conocer
el fenómeno, predecimos si se formula después, explicamos.

3
62
4. Por otra parte, Hempel estima que la explicación deductivo-nomológica
proporciona una aclaración del concepto de causa y de explicación causal. Según
Hempel, por “causa” debemos entender “el conjunto más o menos complejos de
circunstancias y hechos que podría describirse por conjunto de encunados
C1,C2,…Ck”. A su vez, por explicación causal debemos entenderse la que
“afirma implícitamente que hay leyes generales L1, L2,…Ln, en virtud de las
cuales la aparición de los antecedentes causales mencionados en C1, C2,… Ck, es
una condición suficiente para la aparición del hecho señalado en el explanadum.

Así pues, toda explicación causal no es más que una explicación deductivo-
nomológica más o menos disimulada e incompleta. Pero lo contrario no sucede:
no toda explicación deductiva-nomológica es una explicación causal. Por
ejemplo, tal como hemos dicho, también las leyes pueden ser explicadas
deductivo-nomológicamente siendo subsumidas pro leyes más generales. En este
caso, carecería de sentido afirmar que una ley es causa de otra, o que las leyes de
la mecánica de Newton son la causa de las leyes de Kepler.

Por otra parte, hay explicaciones DN de hechos singulares que no son


explicaciones causales. Cuando se explica el hecho de que un péndulo tarde dos
segundos en cada oscilación diciendo que su longitud es de 1 metro y que el
periodo t de un péndulo está relacionado con su longitud l por la ley

𝑡 = 2√𝑙⁄𝑔
donde g es la aceleración de la gravedad, no parece muy correcto concluir que la
longitud de 1 metro sea la causa del período de 2 segundos (nótese que si se hiciera
esto, sería igualmente posible concluir que la causa de que mida 1 metro es que
tiene un periodo de 2 segundos, puesto que la ley expresa una coexistencia de
fenómeno y no una sucesión). Para que una explicación DN sea causal, las leyes
del explanans debe expresar una sucesión entre dos tipos de fenómenos.

Por razones fácilmente apreciables, la explicación deductivo nomológica no es


aplicable en ámbitos de la ciencia, especialmente en la biología y en las ciencias
humanas y sociales. Son raras, según Hempel, las ocasiones en las que logramos
obtener dentro de tales ciencias leyes universales como las anteriormente citadas
que expresen una conexión permanente y sin excepciones entre los hechos. La
mayor parte de las leyes que encontramos en ellas son leyes probabilísticas, o sea,
leyes que expresan una conexión probable entre los hechos.

4
63
PUNTO 3: EL MODELO INDUCTIVO-ESTADÍSTICO (IS)
Cuando, por las razones que sea, sólo se dispone de leyes probabilísticas, estadísticas, las
explicaciones resultantes no serán ya deductivo nomológicas porque el apoyo que el
explanans proporciona al explanandum carecerá de la fuerza necesaria para ello. Hempel
denomina a este tipo de explicaciones “explicaciones probabilísticas” o “inductivo
estadístico” (IS). Existen también explicaciones deductivo estadísticas. Éstas se dan
cuando una ley estadística es explicada por (deriva de) otras leyes estadísticas más
generales.
Las diferencias básicas que las explicaciones I-S presentan con DN son dos: en primer
lugar, los enunciados legaliformes contenidos en el explanans son leyes probabilísticas
en vez de enunciados universales y, en segundo lugar, como consecuencia de ello, los
enunciados del explanans no implican deductivamente el explanandum, sino que lo
apoyan inductivamente. Este carácter inductivo de la explicación probabilística opera un
efecto importa sobre su capacidad para predecir eventos futuros. Una explicación de este
tipo se reduce a predecir un fenómeno dentro de los límites de una probabilidad dada, es
decir, efectúa, una “predicción racional”, pero no una predicción científica en sentido
técnico. Por eso, la no aparición del fenómeno predicho no conduce necesariamente al
rechazo de la ley. El esquema de una explicación probabilística sería como sigue:
P (G/F)=r
i es un caso de F
---------------------- r
i es un caso de G
El primer enunciado del explanans es la ley probabilística y significa que, en una serie de
recurrencias de F, la proporción de casos que han dado como resultado G es igual a r,
donde r es un número comprendido entre 0 y 1. Obsérvese que en este esquema la línea
que separa el explanans del explanandum es doble y lleva junto a ella el número r
encerrado entre corchetes. Ése es el modo de simbolizar que la relación entre ambos no
es deductiva, sino inductiva, y que el grado de probabilidad que los enunciados del
explanans presentan al explanandum es precisamente r. Es de suponer además que, para
que la explicación sea válida, r debe ser mayor de 0,5 y cuanto más cercano a 1 mejor.
Valga como ilustración este ejemplo:
La probabilidad de que sane un individuo que sufre una infección por estreptococo y es
tratado con penicilina es de 0’8.
Juan sufrió una infección por estreptococos y fue tratado con penicilina
---------------------------------------------------------------------------------------------------- 0’8
Juan Sanó

5
64
Hay una diferencia adicional entre las explicaciones IS y las DN que surge del carácter
probabilística de las primeras. Las explicaciones IS adolecen de cierta ambigüedad
epistémica que no se presenta en las explicaciones DN. Imaginemos, por seguir con el
ejemplo, que Juan sufrió una infección por una cepa de estreptococos resistentes a la
penicilina, o bien que Juan es un octogenario de corazón débil. En tales circunstancias, la
probabilidad de que un individuo sane si es tratado con penicilina es muy baja y, por
tanto, la probabilidad de que no sane si es tratado con penicilina es muy alta (0`8). De
ello resulta el siguiente razonamiento explicativo:
La probabilidad de que no sane un individuo que sufre infección por estreptococos
resistentes a la penicilina y es tratado con penicilina es de 0`8.
Juan sufrió una infección por estreptococos resistentes a la penincilina y fue tratado con
penicilina
----------------------------------------------------------------------------------------------------- 0`8
Juan no sanó

Lo paradójico en todo esto es que en ambos casos las premisas son aceptadas como
verdaderas y, sin embargo, dan como casi seguras conclusiones que son contradictorias.
Esto es algo que no podría ocurrir en la explicación DN. En un razonamiento deductivo
si las premisas se aceptan como verdaderas, la conclusión es también verdadera y su
negación falsa, y no cabe derivar este enunciado falso de otras premisas aceptadas a su
vez como verdaderas. En otras palabras, mientras que a partir de premisas que contengan
leyes estadísticas aceptadas como verdaderas es posible atribuir una alta probabilidad a
dos conclusiones contradictorias, no es posible deducir enunciados contradictorios a
partir de premisas verdaderas.
Expresándolo con más precisión, la ambigüedad epistémica de la explicación IS se basa
en el hecho de que en la lógica deductiva se pueden añadir nuevos términos al antecedente
de una implicación sin que ello perturbe su validez, pero no sucede lo mismo en la lógica
inductiva. Si A implica B, entonces la conjunción de A y C implica B. Pero por alta que
sea la probabilidad de B dado A, eso no tiene ninguna influencia sobre la probabilidad de
B dados A y C juntos.

6
65
Para solventar esta dificultad Hempel propone el requisito de la máxima especificación.
No es un requisito formal que deban cumplir las explicaciones IS, se trata más bien de un
requisito para su aplicación en una determinada situación cognitiva. Según dicho
requisito, “sería deseable que una explicación aceptable se basa en un enunciado de
probabilidad estadística perteneciente a la más restringida clase de referencia de la cual
sea miembro el hecho particular en consideración, según nuestra información total”. En
el ejemplo que nos ocupa, si además de saber que Juan sufrió una infección por
estreptococos, sabemos que la cepa que lo infectó es resistente a la penicilina, deberíamos
incluir esta información en los razonamientos explicativos en los que fuera relevante, ya
que hace que Juan pertenezca a una clase de referencia más restringida que la de los
simples infectados por estreptococos, y las generalizaciones estadísticas que se hagan
sobre esta clase restringida podrían ser diferentes de las que se hicieran sobre la clase más
amplia de los infectados comunes. Una vez aceptado este requisito estamos en
condiciones de rechazar el primero de los dos razonamientos explicativos sobre Juan por
no recoger toda la información relevante disponible. En las explicaciones DN el requisito
de la máxima especificación es satisfecho necesariamente, ya que están basados en leyes
universales del tipo “todo A es B” y si todo A es B, no puede haber un subconjunto de A
en el que la probabilidad de B sea distinta de 1. Toda la información relevante en una
explicación DN está incluida en las premisas.
En resumen la explicación IS ha de estar siempre referida a una situación cognitiva
concreta -es lo que Hempel llama “relatividad epistémica de la aplicación estadística”-
Mientras que en las explicaciones D-N el explanans implica el explanandum
independientemente de lo que sepamos en cada momento y su aceptabilidad depende sólo
de verdad de sus premisas.
No obstante, a pesar de las diferencias, la explicación IS conserva grandes similitudes con
la explicación DN. El rasgo más sobresaliente que comparten es el objetivo de subsumir
(Deductiva o inductivamente) u fenómeno bajo una ley (universal o prabilística),
cumpliendo siempre el requisito de la máxima especificación. Por esa razón ambos tipos
de explicación cabe bajo el apelativo de “modelo general de explicación por cobertura
legal”.

7
66
PUNTO 4: CRÍTICAS AL MODELO DE EXPLICACIÓN POR COBERTURA
LEGAL
El modelo que acabamos de exponer fue propuesto por sus defensores como un ideal
lógico mejor o peor encarnado por las explicaciones formuladas normalmente en la
ciencia. Sería vano esperar, de acuerdo con esto, que cualquier explicación científica
venga estructurada exactamente en las formas descritas. Hempel reconoce que es
frecuente encontrar explicaciones elípticas en las que se dan por supuestas ciertas leyes y
no se las menciona en el explanans e incluso explicaciones parciales o esbozos de
explicación, que se encuentran lejos de las explicaciones completas en cuanto a su rigor
y elaboración. Pero, en todos los casos, según Hempel, se presupone el carácter
subsumido del explanandum bajo una ley. Sin embargo, muchos críticos han puesto en
cuestión precisamente que todas las explicaciones científicas se basan explícita o
implícitamente en leyes generales bajo las que quepa subsumir al explanandum. Las
explicaciones de las ciencias humanas y en biología rara vez pueden acudir a dichas leyes,
incluso en forma de leyes estadísticas.
Entre las críticas que se han formulado contra el modelo de explicación por cobertura
legal, las más importantes son las que se centran en el primero de los requisitos que
Hempel exigía toda explicación: el requisito de la relevancia explicativa. Recordemos
que éste pedía que la información explicativa aducida proporcionara una buena ase para
creer que el fenómeno ha ocurrido u ocurrirá.
1. Para empezar, se ha negado que dar una buena ase para creer en la ocurrencia de
algo signifique siempre explicar ese algo. Este es particularmente claro en los
casos de asimetría explicativa, cuando tenemos dos enunciados equivalentes uno
de los cuales sirve para explicar el otro pero no al contrario. Usando un ejemplo
anterior, el tener una longitud de 1 metro explica porqué el periodo del péndulo
es de 2. Pero el tener un periodo de 2 segundos no explica por que el péndulo mide
un metro. Ahora bien, ambos enunciados proporcionan una buena base para creer
en el otro. Por consiguiente, tener un período de 2 segundos proporciona una
buena base para creer que la longitud del péndulo es de 1 metro, pero no “explica
esa longitud.

 Esta crítica afecta a la tesis de la identidad estructural entre explicación y


predicción, pues implica que hay ocasiones en las que podemos predecir
fenómenos para los que no tenemos explicación. A este respecto Israel
Scheffler y Michael Scriven argumentaron que una predicción científica
podría basarse en un conjunto de datos sin necesidad de recurrir a ninguna
ley, careciendo, por tanto, de capacidad explicativa. Pongamos por caso
que después de muchos ensayos con diferentes metales comprobamos la
resistencia ecléctica de todos ellos aumenta conforme aumenta la
temperatura. A partir de ahí es posible predecir que el aumento de la
temperatura de un metal no analizado aun comportará un aumento de su
resistencia eléctrica, y ello sin utilizar ninguna ley científica.

8
67
 Como respuesta a esta crítica podría haberse notar que para Hempel el
requisito de la relevancia explicativa es una condición necesaria, pero no
suficiente, de la explicación científica. Él mismo cita un ejemplo para
mostrar cómo puede darse una buena base para creer algo sin que se esté
dando al mismo tiempo una explicación: el corrimiento hacia la parte roja
del espectro luminoso que experimenta la luz procedente de las galaxias
lejanas proporciona una buena base para creer que esas galaxias se alejan
velozmente de nosotros, pero no explica por qué se alejan. Sin embargo,
lo que Hempel no aclara es por qué e algunas ocasiones en las que
aportamos una buena base para creer que algo ha ocurrido un ocurrirá
estamos explicando y en otras ocasiones no lo estamos haciendo.

2. Una segunda crítica, inversa de la anterior, es la que plantea que no toda


explicación proporciona una buna base para creer que algo sucederá, o lo que es
igual, que no toda explicación es potencialmente una predicción. Consideramos
dos ejemplos discutidos por Hempel.

En 1962, Scriven destacó que cabe explicar un hecho X si se encuentra para él


una respuesta del tipo “la única causa de X es A”. Con eso, esta respuesta no
siempre habría permitido una predicción del hecho si éste no hubiese sido
conocido. Así, sabemos que la única causa de la Paresia (cierto tipo leve de
parálisis) es la sífilis no tratada, por lo que podemos explicar que alguien la
padezca señalando que sufrió de sífilis y no recibió tratamiento. Pero sucede que
sólo un porcentaje reducido de sifilíticos no tratados lo manifiestan, de modo que
no es posible predecir si un sifilítico determinado la desarrollará. Más bien la
predicción que correpsondería hacer es que no la desarrollará, puesto que las
probabilidades de que no la desarrolle son mayores.

 Sobre este mismo punto, Stephen Toumlin adjunto el caso de la teoría de


Darwin. Dicha teoría posee un gran poder explicativo que le permite
explicar el origen de las especies por la variación y la selección natural,
pero no proporciona ningún instrumento para predecir la aparición de una
nueva especie.

 Hempel dio respuesta a estos ejemplos. Con respecto al primero, afirma


que justamente por ser la paresia una secuela muy rara de la sífilis la
infección sifilítica no tratada no puede ser por sí sola una explicación
adecuada de ella, contra lo que Scriven piensa. La sífilis es una condición
necesaria para el desarrollo de la paresia, no una condición suficiente. Y
una “condición que es nómicamente necesaria para la producción de un
hecho, en general, no lo explica”. Sería algo así como explicar que un
hombre ganó la lotería porque había comprado un décimo.

9
68
 En cuanto a la objeción de Toumlin, Hempel intenta eliminarla
distinguiendo entre la historia de la evolución y la teoría de los
mecanismos subyacentes de la mutación y la selección natural. La historia
de la evolución es una narración hipotética que describe las etapas
evolutivas y, por lo tanto, no tiene un carácter explicativo. La teoría de la
selección natural, en cambo, sí lo tiene. Hempel considera que, si
dispusiéramos de los datos pertinentes, dicha teoría podría explicar, por
ejemplo, porqué desaparecieron los dinosaurios, aunque fuera de forma
probabilística, y eso significa que hubiéramos podido predecir su
desaparición proabilísticamete antes de que ésta se produjera.

3. Esta respuesta de Hempel no deja satisfecho a sus críticos. Como dice Van
Frassen, en ella se presupone que, al menos en el nivel macroscópico, vivimos en
un mundo determinista y que, descubriendo todos los factores que desconocemos,
tanto la paresia como la desaparición de los dinosaurios habrían podido ser
predichos con cierta seguridad. Pero existen casos en los que no cabe pensar que
haya una información más completa que nos permita hacer una predicción. La
vida media del Uranio U 238 es de 4’5 X 109 años. La proabilidad de que un trozo
pequeño de uranio emita radiación en un intervalo corto de tiempo es muy bajo.
Supongamos que la emite. Diríamos que ese hecho es explicado por la teoría
atómica, dado que el material era uranio y que, según la mencionada teoría, ese
material posee una determinada estructura atómica que hace posible la
desintegración espontánea. La física atómica está llena de ejemplos en términos
de la estructura. Otro ejemplo contra la tesis de la identidad estructural son los
comúnmente llamado “efecto mariposa”.

4. Por su parte, Salmon ha señalado que el requisito de la máxima especificación


para las explicaciones en IS es insuficiente porque, si bien garantiza que toda la
información relevante sea incluida en la explicación, no segura que solo incluya
información relevante. Puede haber argumentos que cumplan el requisito y
proporcionen un alto grado de probailidad a su conclusión pero que no den lugar
a una explicación científica satisfactoria. Supongamos que se nos dice que las
personas que cogen un resfriado tienen una alta probabilidad de recobrarse en una
quincena si toman vitamina C. Ahora bien, el uso de la vitamina C no explica la
curación del resfriado puesto que casi todos los resfriados desaparecen por sí solos
en dos semanas. En todo caso podría decirse meramente que el uso de la vitamina
C es relevante para la duración y severidad del mismo.

1
0
69
5. En la explicación DN aparece un problema similar en la medida en que también
en ella una información relevante puede proporcionar una buena base para creer
algo y no ser una explicación de ese algo. Salmon lo ilustra con otro ejemplo: Juan
evitó quedarse embarazado durante el año pasado porque estuvo tomando
regularmente las píldoras anticonceptivas de su esposa, y todo hombre que toma
píldoras anticonceptivas evita el embarazo. Aquí se cumplen todos los requisitos
de la explicación DN, incluido el de la relevancia, ya que el explanans está
formado por enunciados verdaderos que implican deductivamente el
explanandum proporcionado con ello una buena base para creer que el
explanandum ha sucedido. Pero la información aducida es realmente irrelevante,
porque Juan no se haría quedado embarazado de todas maneras. Salmon cree que
el requisito de la relevancia debería hacer honor a su nombre y exigir que el
explanans proporciona una base buena y relevante para el explanandum; es decir,
que incluya toda la información relevante y sólo información relevante para el
mismo. Precisamente, el modelo de explicación que él elabora intenta evitar este
tipo de problemas.

6. Una última crítica. Del ejemplo de la paresia citado por Scriven, se sigue que una
alta probabilidad no es condición necesaria para tener una explicación científica
legítima. Del ejemplo de la vitamina C citado por Salmon se sigue que una alta
probabilidad no es una condición suficiente para tener una explicación científica
legítima. La conclusión es obvia: una alta proababilidad del explanandum dado el
explanans no es una condición necesaria ni suficiente para la explicación
metafísica. Por ello, como a continuación veremos, Salmon sustituye este
requisito por el de la relevancia estadística.

1
1
70
PUNTO 4: EL MODELO DE LA RELEVANCIA ESTADÍSTICA
El modelo de la relevancia estadística (S-R) fue propuesto por Wesley C. Salmon como
intento de superar las deficiencias que el modelo de explicación por cobertura legal
presentaba en lo referente sobre todo a la explicación I-S. Aunque está muy ligado al
modelo de Hempel -también es un modelo de cobertura legal el que el explanans está
formado por leyes (estadísticas)- difiere de él en aspectos importantes. Ante todo, para
Salmon, la explicación no es (o no es siempre) un argumento, sino un conjunto de
enunciados, o más precisamente, un conjunto de factores metafísicamente relevantes. Se
establece que un factor C es estadísticamente relevante para un fenómeno B bajo las
circunstancias A si y sólo si la probabilidad de B dado A es distinta de la presencia de C
que en su ausencia:
P(B/AC)P(B/A)
Según el criterio de Hempel (B/AC) debía ser alta para que la explicación fuese válida.
Pero ejemplos como el de la paresia mostraban que este requisito era muy fuerte y que
con una probabilidad baja cabía también hablar de la explicación. El modelo de Salmon
recoge esta crítica al no exigir siquiera que la probabilidad de B dado A en presencia de
C sea mayor que la probabilidad de B dado A. Sólo exige que sea significativamente
distinta. Se comprende entonces por qué para Salmon las explicaciones no son
argumentos. Al abandonarse el requisito de la alta probabilidad, el explanans no permite
inferir, ni siquiera probablemente, que el suceso ocurrió y, por tanto, que el suceso debía
esperarse. Únicamente permite establecer “qué clase de expectativas habrían sido
razonables y bajo qué circunstancias debía esperarse”.
Que la probabilidad del suceso en presencia de un factor C es distinta que en su ausencia
quiere decir que o bien es mayor o bien es menor. Eso significa que habrá factores
positivamente relevantes y factores negativamente relevantes para el fenómeno, y que
ambos serán explicativos con el mismo derecho. No hay dificultad para entender por qué
los factores positivamente relevantes sirven para explicar un fenómeno. Por ejemplo,
fumar treinta cigarrillos diarios es positivamente relevante para sufrir un cáncer de
pulmón, luego en la explicación del cáncer de pulmón desarrollado por un individuo es
lógico que aparezca como el factor el hecho de que era un gran fumador. Pero resulta
complicado entender factor el hecho de que era un gran fumador.
Sin embargo, resulta complicado entender cómo los factores negativamente relevantes
pueden servir ara explicarlo. De nuevo, un ejemplo nos lo aclara. Supongamos que un
mal jugador de golf golpea una bola con el palo dándole una trayectoria desviada, pero,
por un feliz accidente, la bola rebota en una rama y se introduce inesperadamente en el
agujero. Sea A el golpe con el palo de golf, D el choque de la bola con la rama y E la
caída de la bola en el hoyo. Habitualmente, el caso se representaría así
P(E/A) > P(E/AD)
Es decir, la probabilidad de que, jugando al golf, una bola entra en el hoyo es mayor si no
golpea antes una rama que si la golpea. Por lo tanto, el golpe en la rama es negativamene
relevante para su introducción en el hoyo. Sin embargo, en estas circunstancias explica
por qué la bola, que llevaba una trayectoria desviada, entró en él.

1
2
71
1. Para el modelo de Salmon, la manera correcta de demandar una explicación de un
hecho no es mediante la pregunta “¿por qué ocurre que x es B?” sino más bien
mediante esta otra: “¿por qué x, que es un miembro de la clase A, es un miembro
de la clase B?”; y la respuesta adecuada sería: “x es también C, donde C es
relevante para B dado A”. Esto es, en lugar de preguntar “¿por qué x sanó?”,
siendo la respuesta “x fue tratado con penicilina y la penicilina hace saber a los
infectados por estreptococos”.

De acuerdo con todo ello, para Salmon la explicación consiste en un conjunto de


leyes de probabilidad empírica que relacionan las clases A y B, junto con un
enunciado que afirma que x está incluido en una clase C relevante para B dado A:

P(B/AC1) = P1

P(B/AC2) = P2

.
.
.

P(B/AC) = Pn

xCk(1  k  n)

Para que la explicación sea válida debe cumplir además dos condiciones:

 a) Que los valores de probabilidad P…Pn sean todos diferentes

 b) Que cada partición de A (AC, ACz…ACn) sean homogénea con


respecto a B, es decir, que ninguno de las casillas de esta partición sea a
su vez susceptible de subdivisión en algún modo relevante para la
ocurrencia de B.

La condición (a) impide que se introduzcan subdivisiones irrelevantes, dejando


pasar sólo las relevantes. En efecto, teniendo en cuenta que un factor relevante es
el que hace variar la probabilidad “a priori” de que un x que es A sea también B,
si un determinado factor no introduce ninguna variación en la probabilidad con
respecto a otro factor, entonces es irrelevante. La condición (b) es análoga al
requisito hempeliano de la máxima especificación y exige que se introduzcan
todas las subdivisiones relevantes. No obstante, Salmon recalca que esta
condición ofrece una diferencia filosófica fundamental con respecto a Hempel. El
requisito de Hempel era epistémicamente relativo, ya que lo que fuera relevante
dependía de una situación cognitiva dada, en cambio el requisito de Salmon de
que la partición en casillas hecha en el explanans sea objetivamente homogénea,
sin ningún tipo de relatividad epistémica. Vamos a ver ejemplos:

1
3
72
 Aplicando ahora al ejemplo de la infección (¿por qué x, que sufrió una
infección por estreptococos, sanó?), y siendo

A: la clase de los que sufren infección por estreptococos

B: la clase de los que sanan de una infección por estreptotocos.

C1: la clase de los que son tratados con peniciina

C2: la clase de los que no son tratados con penicilina

Entonces sería

P(B/AC1)=0’8

P(B/AC2)=0’4

xC1

En ella se nos dice que x sanó porque pertenecía a la clase C1 de los


tratados con penicilina, y pertenecer a dicha clase es un factor relevante
para que se sane de una infección por estreptococos. Pero no se establece
como la conclusión de una inferencia de ningún tipo. Obsérvese que, si la
probabilidad hubiera sido menor de 0’5, la explicación seguiría siendo
válida.

 Esto se aprecia en el ejemplo de la paresia (¿por qué x, que es un ser


humano, sufrió una paresia?):

Sean

A: la clase de los seres humanos

B: la clase de los que sufren paresia

C1: la clase de los que han padecido sífilis sin tratamiento

C2: la clase de los que no han padecido sífilis sin tratamiento

P(B/AC1)=0’35

P(B/AC2)=0

xC2

1
4
73
Esta explicación muestra que, aunque padecer sífilis sin tratamiento no
autoriza para inferir que sufrirá de paresia, sin embargo, es un factor
relevante que explica que ésta aparezca. No importa tanto que se atribuya
al fenómeno una alta probabilidad como que se aporte información
relevante para su ocurrencia.

 Ahora se puede ver también qué es lo que fallaba, según Salmon, en el


ejemplo de la vitamina C.

Sean

A: la clase de los que padecen resfriado

B: la clase de los que se recuperan del resfriado en una quincena

C1: la clase de los que toman vitamina C

C2: la clase de los que no toman vitamina C

P(B/AC1)=0’99

P(B(AC2)=0’99

xC1

En este ejemplo se incumple la condición (a), puesto que la probabilidad


de recuperarse del resfriado en una quincena es igual se tome vitamina C
o no. Cuando nos encontremos con el caso límite de que una de las
probabilidades Pn de las leyes estadísticas del explanans tiene el valor 1 y
las restantes 0, estaremos ante una situación similar a la explicación DN
de Hempel, pues a todos los efectos prácticos, las leyes universales que
aparecen en la explicación DN podrían ser consideradas como leyes
estadísticas a las que se atribuye probabilidad 1.

1
5
74
2. Ha habido varias objeciones al modelo de Salmon:

 Una posible objeción contra este modelo de explicación es la que sostiene


que las meras correlaciones estadísticas no explican nada en realidad. Un
rápido descenso en el barómetro está altamente correlacionado con la
llegada de una tormenta, pero no explica por qué se produce la tormenta.
La respuesta de Salmon a esta objeción consiste en afirmar que un factor
C, que es relevante para la ocurrencia de B en la presencia de A, puede ser
“apartado” o “apantallado” (screened off) en presencia de otro factor D.

Por ejemplo: dada una serie de días (A) en un lugar determinado, la


probabilidad de que ocurra una tormenta (B) es diferente de la
probabilidad de que ocurra una tormenta si ha habido poco antes un fuerte
descenso barométrico (C). Luego es cierto que C es estadísticamente
relevante para B dado A. Pero si añadíamos el hecho de que en la zona ha
habido también un descenso en la presión atmosférica (D), entonces se
toma irrelevante el que ese descenso haya sido registrado en un barómetro.
En presencia de D y A, C resulta irrelevante para B

P(B/ACD) = P(B/AD)

Cuando un factor irrelevante ha sido “apartado” de esa manera, no debe


ser incluido en el explanans. En resumen, para el modelo SR, explicar la
ocurrencia de un fenómeno consiste en señalar que se dijeron una serie de
factores relevantes para dicho fenómeno. No son, como dijimos, factores
que hacen altamente probable y esperable su ocurrencia, sino factores que
modifican la probabilidad de que el fenómeno se produzca sin ellos.

 Unos años más tarde Salmon cambió sustancialmente de opinión y renegó


del modelo SR como caracterización adecuada de la explicación científica.
Se convención de que se necesita algo más que señalar factores
metafísicamente relevantes para tener una explicación. El cambio tomó
cuerpo especialmente en su libro de 1984 Scientific Explanation and the
Causal Strucutre of the World, donde introdujo modificaciones
importantes en el modelo SR y propuso sustituirlo por un nuevo: el modelo
mecánico/causal.

1
6
75
Siguió reservando un papel para las relaciones estadísticas especificadas
en el modelo SR: constituyen la base metafísica para una explicación
científica. Pero pensaba ahora que “esa base ha de ser complementada por
ciertos factores causales para constituir una explicación científica
satisfactoria”. En el modelo mecánico/causal no basta, pues, con mostrar
los factores estadísticamente relevantes para la producción del fenómeno;
las relaciones estadísticas entre observables tienen por sí solas poca o
ninguna fuerza explicativa. Es necesario mostrar además que esos factores
son relevantes en virtud de ciertas relaciones causales que mantienen con
el fenómeno. La significación explicativa de las relaciones de relevancia
estadística sería indirecta; residiría en el hecho de que constituyen una
evidencia en favor de las relaciones causales escribe Salmon:

Ahora me parece que la explicación es un asunto con dos niveles. En el


nivel más básico es necesario, para los propósitos de la explicación,
subsumir el evento a ser explicado bajo el conjunto apropiado de
relaciones de relevancia metafísica, tal como exigía el modelo SR. En el
segundo nivel, según me parece, las relaciones de relevancia metafísica
invocadas en el primer nivel han de ser explicadas en términos de
relaciones causales. Desde esta postura, la explicación es incompleta
hasta que se hayan proporcionado los componentes causales del segundo
nivel.

3. El modelo de explicación por cobertura legal de Hempel y el modelo erotético de


Van Fraasen, al que aludiremos después, se encuadran en lo que Salmon denomina
en esta obra “concepción epistémica de la explicación”. Para tal concepción
explicar un fenómeno es derivarlo inferencialmente de algunas regularidades que
se dan en la naturaleza, sin que importa realmente qué tipo de mecanismos
subyacentes originan esas regularidades. A esta concepción Salmon opone la
concepción óntica de la explicación, en la que se incluye su modelo
mecánica/causal. Para esta última, explicar “consiste en exhibir el fenómeno a ser
explicado ocupando su lugar en los patrones (patterns) y regularidades.

A esta concepción Salmon opone la concepción óntica de la explicación, en la que


se incluye su modelo mecánico/causal. Para esta última, explicar “consiste en
exhibir el fenómeno a ser explicado ocupando su lugar en los patrones (patterns)
y regularidades que estructuran el mundo”; o dicho de otro modo, consiste en
identificar la causa del fenómeno y “exhibir la relación causal entre esta causa y
el fenómeno que hay que explicar”. La concepción óntica ve el mundo como una
caja negra con inputs y outputs observables. La explicación debe dejar al
descubierto los mecanismos subyacentes de producción y propagación que
conectan los inputs con los outputs. Explicar eventos es mostrar cómo encajan en
la estructura causal del mundo.

1
7
76
Por lo tanto, para la concepción óntica no es suficiente subsumir el fenómeno bajo
una serie de regularidades. Y no es suficiente porque no todas las regularidades
tienen poder explicativo. Antes de Newton los marinos sabían que las mareas
están relacionadas con la posición y las fases de la luna, pero esa regularidad
conocida no tenía capacidad para explicar nada; más bien al contrario, era ella la
que demandaba una explicación, y fue la ley de la gravitación de Newton la que
la proporcionó.

Así, hay regularidades legaliformes con poder explicativo y toras que necesitan
ser explicadas. Es más, hay regularidades que son seudoprocesos y regularidades
que son procesos causales. Los seudoprocesos no pueden explicar nada porque
son parasitarios de los procesos causales y son explicados por éstos. Sólo los
procesos causales explican. La diferencia entre ambos está en que los procesos
causales son capaces de transmitir señales (y, por tanto, son capaces de transmitir
energía, información e influencia causal), mientras que los seudoprocesos no lo
son. También se puede decir que los procesos causales transmiten su propia
estructura y que los seudoprocesos no la transmiten. Un coche circulando por la
carretera en un día soleado es un proceso causal; la circulación de su sombra es
un pseudo-proceso. Si el coche colisiona con un muro, llevará las señales de la
eclosión después de que ésta haya ocurrido. En cambio, si su sombra colisiona
con el muro, se deformará momentáneamente, pero recuperará la forma después.

4. El concepto de causa que Salmon tiene en mente es, según su intención, un


concepto básicamente humeano, elaborado a partir de las ideas que Hans
Reichenbach expuso en su obra The direction of Time. La transmisión o
propagación de una señal en un proceso causal desde un punto A hasta un punto
B dentro del mismo proceso se define como el hecho de que la señala aparezca en
cada punto entre A y B sin interacciones adicionales, hecho que pueda ser visto
como una especie de conjunción constante. Si un proceso es capaz de transmitir
una señal, entonces puede transmitir cambios en su estructura; y si puede
transmitir cambios en su estructura, es capaz de propagar influencias causales. La
propagación de la influencia causal es esa conexión misteriosa entre causa y efecto
de la que Hume hablaba. Al caracterizar la transmisión de una señal en los
términos citados no se viola la teoría de Hume, puesto que no se recurre a ningún
tipo de “poder oculto” proscrito por dicha teoría. Por su parte, si los procesos
causales son los medios a través de los cuales se propaga la influencia causal, la
producción de la señala -el cambio de estructura que consiste esa influencia-
obedece a la interacción de dos procesos causales:

Una señal es una modificación en un proceso, y si esta modificación persiste, la


señal se transmite. Las modificaciones en los procesos ocurren cuando se cruzan
con otros procesos; si las modificaciones persisten más allá del punto de
intersección, entonces la intersección constituye una interacción causal y la
interacción ha producido señales que son transmitidas.

1
8
77
Con ello Salmon da por caracterizados los dos conceptos causales básicos: el de
producción y el de propagación. Hay que puntualizar que con posterioridad
Salmon ha renunciado también a explicar el concepto de causalidad en términos
de transmisión de señales, si bien considera que dicha caracterización puede ser
útil para descubrir procesos causales.

5. Una de las críticas iniciales que recibió el modelo mecánico/causal la realizó Van
Frassen. En una explicación causal, sostiene este autor, no es necesario mencionar
todos los factores estadísticamente relevantes que de una u otra manera forma
parte de la red causal, sino sólo aquellos que son importantes o destacados
(salient), y es a estos a los que llamamos comúnmente la causa del fenómeno. Para
explicar la extensión del alce irlandés, hay una gran cantidad de factores
estadísticamente relevantes, que habrían posibilitado su supervivencia si hubieran
sido distintos, y que, sin embargo, no incluimos en la explicación. Basta con decir
que el proceso de selección sexual favoreció a los machos de grandes cuernas y
que esas cuernas fueron un obstáculo para la supervivencia en el entorno que el
alce ocupaba. Los otros factores citados no son causas espurias ni son “apartados”
por el desarrollo de las grandes cuernas; contribuyeron igualmente a la extinción
del alce, pero no son los factores más destacados.

Ahora bien, ¿cómo saber en cada caso cuáles son los factores destacados que hay
que tener en cuenta para elaborar una explicación? Según Van Frassen, sólo el
contexto nos lo puede decir. Un factor causal es destacado para una persona
dependiendo de su orientación, de sus intereses, etc… No hay un criterio objetivo
para determinar la importancia de un factor causal. Dicha importancia posee una
índole pragmática y contextual. Para apoyar esta tesis, Van Fraasen recurre a un
ejemplo de NR Hanson:

Existen tantas causas de x como explicaciones de x. Adviértase que un médico


podría afirmar que la muerte del peatón paduano acaeció como consecuencia de
una “hemorragia múltiple”, un abogado que ello se debó a “negligencia por parte
del conducir”, un constructor de carros la achacaría a “un defecto de la
construcción de los frenos del carro”, y a la “presencia de arbustos demasiado
altos en aquella curva” el urbanista.

La conclusión que saca Van Fraasen es que los factores explicativos han de ser
elegidos entre une lenco de factores objetivamente relevantes, y que esa elección
viene condicionada por otros factores que dependen del contexto en la explicación
que Salmon no tiene en cuenta, aunque eso no quita para que su modelo tenga
validez en algunos tipos de explicación.

1
9
78
La réplica de Salmon es que malinterpreta realmente la cuestión. Salmon cree
encontrar una respuesta al ejemplo de Hanson diciendo que el médico y el
abogado eligen una clase inicial de inferencia distinta (el médico y el abogado
eligen a los seres humanos, el constructor a los carruajes, el urbanista al mobiliario
urbano), y eso le lleva a una diferente partición del explanandum. Pero considera
que la explicación que todos buscan es la misma, en el sentido de que todos buscan
el mismo conjunto de factores metafísicamente relevantes. Admite que cada uno
está interesado en un determinado factor relevante particular no significa que
ambos estén buscando o encontrado diferentes explicaciones del mismo hecho”.

En cuanto al ejemplo del alce, Salmon lo explica recordando que no todos los
antecedentes son relevantes. Para explicar por qué alguien que duerme se
despierta aduciremos el sonido del despertador, pero no que antes se había ido a
dormir. “la moraleja es simple-escribe-las condiciones necesarias antecedentes
que son relevantes tienen importancia explicativa, si no han sido apartadas; las
condiciones antecedentes irrelevantes no la tienen”.

Sin embargo, lo que Van Fraasen afirma no es que haya condiciones antecedentes
irrelevantes que puedan ser “apartadas” (está claro que las hay), sino que hay
condiciones relevantes, no “apartadas”, que no son usadas en la explicación. No
está decidiendo que el médico, el bogado, el constructor y el urbanista no pueden
ponerse de acuerdo en el conjunto de factores metafísicamente relevantes, no
“apartadas”, que no son usadas en la explicación. No está diciendo que el médico,
el abogado, el constructor y el urbanista no pueden ponerse de acuerdo en el
conjunto de factores metafísicamente relevantes; está diciendo que, en función de
contexto, sólo eligen algunos de ellos para su explicación y que lo que signifique
“A es causa de B” varía en cada situación en la que se pronuncia el enunciado. A
eso, Salmon no da respuesta. Se limita a reconocer la importancia de esos factores
pragmáticos, para la identificación de las cuestiones sobre las que interroga la
explicación, pero añade que “obviamente de todo ello no se sigue que (…) la
explicación misma tenga que encarnar rasgos pragmáticos”.

2
0
79
Contra los modelos que, como el de Salmon, interpretan la explicación científica de un
fenómeno como una elucidación de sus causas se ha aducido también que hay
explicaciones legítimas que no recurren a las causas. Y esto no sólo en las ciencias
formales como la matemática, sino también en las naturales. Philip Kitcher ofrece el
siguiente ejemplo, que adopta de Elliot Sober: supongamos que descubrimos que la
proporción de nacimientos en una ciudad durante un siglo ha sido 1’04 varones por cada
mujer. Podría quizás intentarse una explicación causal de este fenómeno acudiendo a
numerosos detalles de la producción de óvulos y espermatozoides, así como a
característica de todo el proceso reproductivo; pero una explicación científica más
adecuada de ducha proporción se basaría más bien en el hecho de que, por presiones
evolutivas, nuestra especie, como muchas otras, mantiene una proporción 1:1 de
individuos de cada sexo en edad reproductiva, siendo necesario el pequeño exceso de
nacimientos de varones para compensar la mayor tasa de mortalidad en niños que en niñas
hasta llegar ala edad reproductiva. Este hecho, sin embargo, no recoge los mecanismos
causales que producen la mencionada diferencia en el número de nacimientos.

PUNTO 5: EL MODELO EROTÉTICO DE VAN FRAASSEN


El modelo de explicación por cobertura legal se centra en los aspectos lógicos de la
explicación, o, si se quiere, en los aspectos sintácticos y semánticos (los relacionados con
la forma lógica y la verdad de las premisas). Los aspectos pragmáticos (los relacionados
con las personas que intervienen en el proceso explicativo) son explícitamente tenidos
por secundarios. El propósito de Hempel era precisamente “elaborar un concepto no
pragmático de explicación, un concepto abstraído-por así decir- del pragmático”. El
modelo de cobertura legal sería una reconstrucción lógica e idealizada de las
explicaciones que realmente presentan los científicos, obviando las variaciones que los
factores pragmáticos y conceptuales introducirían en ellas. Tampoco el modelo de
Salmon concede un lugar central a esos factores, tal como acabamos de explicar.
Sin embargo, ya en 1962 Michael Scriven había insistido en que, sin incluir los aspectos
pragmáticos de forma suficiente, ningún modelo de explicación podría ser fructífero ni
interesante. Un intento de elaborar una teoría de la explicación que contra con esos
factores fue el de Bas C. Van Fraassen en 1980. Este autor advierte en primer lugar que
el concepto de explicación no tiene porqué depender del concepto de verdad, como
pretendía el modelo de cobertura legal. El enunciado “la teoría T explica el hecho E” no
comporta ninguna afirmación acerca de si la teoría es verdadera, empíricamente adecuada
o aceptable. La teoría del flogisto, por ejemplo, explicaba los fenómenos de combustión
cuando era una teoría errónea. “Por lo tanto, decir que una teoría explica un hecho u otro
es afirmar una relación entre esta teoría y ese hecho que es independiente de la cuestión
de si el mundo real, como un todo, encaja en la teoría” (Van Frassen, 1980, pag.98).

2
1
80
1. Marcando distancias con los modelos anteriores, Van Frassen sostiene que una
explicación no es un argumento (como en el modelo de cobertura legal), ni un
conjunto de enunciados (como en el modelo SR) sino una contestación a la
pregunta por qué.

Es necesario distinguir entre contestación (answer) y respuesta (Response). Casi


todo puede valer como respuesta a una pregunta, pero no toda respuesta es
propiamente una contestación, y hay respuestas que son mejores contestaciones
que otras a una pregunta. Una contestación directa a una pregunta es la que
proporciona suficiente información para contestar a la pregunta, pero no más.

Las preguntas por qué, expresadas por una interrogación en un contexto dado,
vienen determinadas por tres factores:

 El asunto Pk (topic), que es la proposición que aparece en la pregunta.

 La clase de contraste X (contrast-class), que en el conjunto de alternativas


posibles entre las cuales se incluyen el asunto

[X=(Py…Pk…)]

 La relación de relevancia R (Relevance relation), que es el respecto en el


que se pide una razón y que determina lo que contará como un posible
factor explicativo en un contexto dado. La relación de relevancia es
relativa tanto al ausnto como a la clase de contraste. Dicho brevemente,
una proposición A es llamada relevante para Q si A mantiene la relación
R con el par <Pk, X>

Así pues, una pregunta por-qué Q puede ser caracterizado por el triplo

Q = <Pk, X, R>

2
2
81
Imaginemos que se pregunta ¿por qué se ha muerto Juan?

 El asunto Pk de la pregunta sería: “Juan se ha muerto”.

 La clase de contraste X podría ser: “Juan se ha muerto, Pedro se ha muerto,


etc…” o bien “Juan se ha muerto, Juan no se ha muerto”.

 La relación de relevancia R serían los eventos que han conducido a la


muerte de Juan, el suicido, una grave enfermedad, un accidente, el suicido,
e incluso “los hechizos lanzados por las brujas”.

Obsérvese que, si tomamos la primera clase de contraste, la pregunta debería


entenderse como “¿por qué se ha muerto Juan?”, es decir, lo que interesa explicar
en ese contexto es por qué causa murió Juan en concreto, en lugar de Pedro o de
Carlos. En cambio, si tomamos la segunda clase de contraste, la pregunta debería
entenderse “¿Por qué se ha muerto Juan?”, es decir quiere saberse en este caso
por qué no sigue vivo. Una respuesta a la primera pregunta podría ser que Juan
contrajo una grave enfermedad. Una respuesta a la segunda pregunta podría ser
que Juan no consiguió sanar debido a que su sistema inmunitario estaba muy
debilitado. Esto pone de manifestó que los aspectos pragmáticos son, de hecho,
importantes para saber qué la explicación es la que se está demandando, ya que la
misma pregunta puede reclamar respuestas diferentes en diferentes contextos.

En función de ello, se define una contestación directa (direct answer) a la pregunta


Q ¿por qué Pk? Del siguiente modo:

Pk en contraste con (el resto de) X porque A

O, abreviadamente:

Porque A

Donde “porque” significa que A es relevante en este contexto, para la cuestión; es


decir, que A posee la relación R con <Pk X>.

2. Pero, como hemos dicho, no basta con dar una respuesta relevante para contestar
satisfactoriamente a una pregunta. ¿Cómo evaluar entonces i una respuesta es
buena contestación a una pregunta? Toda pregunta surge en un contexto en el que
hay un cuerpo K de teorías aceptadas e información fáctica. Ese contexto
determina si es posible o no plantear la pregunta e incluso qué es lo que se
pregunta.

2
3
82
Preguntas que surgen en un contexto puede carecer de sentido en otro contexto
diferente: la pregunta acerca de por qué sigue la flecha moviéndose después de
ser disparada pierde sentido con el paso de la física aristotélica a la física
newtoniana. La evaluación de las respuestas ha de hacerse, por consiguiente, a luz
del contexto K. Hay al menos tres maneras de evaluar la contestación “porque A”
en el contexto K

 La primera se interesa por evaluar si A misma es aceptable o


probablemente verdadera.

 La segunda se ocupa en qué medida A es favorable para el asunto (del que


se trate) frente a los otros miembros de la clase de contraste.

 La tercera se ocupa de comprar la respuesta porque A con toras posibles


respuestas a la pregunta; y eso en tres aspectos. El primero es ver si A es
más probable que las otras (Dado K); el segundo es ver si es más favorable
para el asunto que las otras; y el tercero es ver si se vuelve total o
parcialmente irrelevante debido a otras respuestas posibles.

Aquí en consonancia con lo dicho por Scriven, la explicación, o más


precisamente, el explanans “porque A” no contienen leyes o regularidades
estadísticas. Éstas pertenecen al background del conocimiento K.

3. Toda esta caracterización vale, según Van Fraassen, tanto para las explicaciones
como para las no científicas. ¿Qué hace entonces que consideramos como
científica a una determinada explicación? Sencillamente que las teorías en las que
se basa para obtener información son teorías científicas y que la evaluación de la
explicación se fundamenta igualmente en teorías científicas. En definitiva, una
explicación es científica porque se da en el contexto de la ciencia.

El error de los modelos anteriores está, según Van Fraassen, en haber concebido
la explicación como una relación diádica entre teoría y hechos, cuando en realidad
es una relación triádica entre teoría, hechos y contexto. Una explicación es una
respuesta a una pegunta por qué y debe ser evaluada en función de la información
que la pregunta demanda. Pero esta información solicitada varía con el contexto.
Decir que una teoría explica un hecho es una manera resumida de decir que “hay
una proposición que es una contestación eficaz, relativa a esa teoría, a la demanda
de información sobre ciertos hechos que cuentan como relevantes para esa
cuestión, y que comporta una comparación entre el hecho que ocurrió y otras
alternativas que no ocurrieron”.

2
4
83
4. El modelo de Van Frassen permite superar las dificultades de las dos anteriores,
pero también tiene sus propios problemas.

 En relación al segundo criterio para la evaluación de las respuestas,


Salmon ha insistido en que no sólo pueden ser explicados los miembros
de la clase de contraste que se ven favorecidos, también puede serlo los
desfavorecidos. Según su ejemplo, tenemos una población de flores de
guisante la que la probabilidad de ser de color rojo es de 3/4, la de ser
blanca es ¼ y es de valores muy pequeños para cualquier otro color. La
clase de contraste X contiene: “la flor es roja”, “la flor es blanca”, “la flor
es de otro color”. El cuerpo previo de conocimientos K contiene la
genética mendeliana. Y la explicación A de por qué una flor es de
determinado color especifica el carácter genético de la población de flores.

Todo ello valía tanto para explicar por qué una determinada flor es roja
como para explicar por qué es blanca. Sin embargo, con los criterios de
Van Fraassen, el color rojo es favorecido en el contexto K, por lo que sólo
podríamos explicar por qué la flor es roja y no de otro color. Se trata, como
vemos, de una objeción similar a la hecha anteriormente contra la tesis de
que sólo las probabilidades altas tienen poder explicativo.

 Por otro lado, Salmon rechaza como errónea la idea que él mismo
compartiera anteriormente de que toda demanda de una explicación puede
ser dirimida como una pregunta por qué. Diversos autores habían ya
señalado que determinadas explicaciones científicas responden más bien
a preguntas cómo es posible, o a preguntas sobre como fue en realidad.

 Además, la caracterización formal que Van Fraassen ofrece de la relación


de relevancia R no impone a ésta ninguna restricción, lo que significa que,
en principio, podríamos decir cualquier relación por peregrina que fuera
entre un asunto Pk, y cualquier proposición verdadera A, y considerar que
“porque A” es una explicación de Pk.

Salmon lo ilustra con un casi en el que Pk es “John F. Kennedy murió el


22 de noviembre de 1963”, R es la influencia astral y A es una descripción
verdadera de la situación de los cuerpos celestes el día del nacimiento de
Kennedy. El considera que los criterios que establece Van Fraassen para
evaluar la respuesta así dada en función del contexto K no sólo no tendrían
porqué descartarla, sino que incluso podrían reforzarla.

2
5
84
En mi opinión, sin embargo, esta objeción de Salmon puede ser contestada
desde los supuestos con los que se valúa toda respuesta dentro del modelo
teorético. Basta con señalar que, dado el contexto cognoscitivo en el que
nos movemos en la actualidad, los tres aspectos que se incluyen en el tercer
criterio de evaluación de la cita de Van Frassen que hemos hecho más
arriba descartarían sin lugar a dudas la respuesta A de este ejemplo. No
obstante, tiene razón Salmon al afirmar que éste no aclara en que consiste
una relación de relevancia satisfactoria.

 También Achinstein piensa que le modelo de Van Fraassen no pasa


algunos de los contraejemplos que afectaban a los otros modelos.
Supongamos que Juan tomó 10 gramos de arsénico y fue inmediatamente
atropellado por coche, muriendo a consecuencia de este. La respuesta
“porque Juan tomó 10 gramos de arsénico” a la pregunta “¿por qué murió
Juan?” cumpliría todas las condiciones propuestas por Van Frassen para
ser una buena respuesta, y no así la respuesta “porque fue atropellado por
un coche”, ya que la probabilidad de morir atropellado es menor que la
probabilidad de morir al tomar 10 gramos de arsénico, con lo que esta
segunda respuesta incumpliría el segundo aspecto del tercer criterio de
evaluación. Pero sabemos que la respuesta correcta es esta última. De ahí
concluye Achinstein que las condiciones de probabilidad que establece
Van Fraassen no son suficientes para garantizar la verdad de las respuestas
a una demanda de explicación.

 Finalmente, podríamos decir que no siempre explicar es explicar desde


una teoría, como defiende Van Fraasen. La investigación desarrollada en
los años 50 por la American Cancer Society mostró que fumar produce
cáncer basándose en la constatación de regularidades estadísticas
empíricas y no en alguna teoría sobre las causas del cáncer. No conocemos
los mecanismos causales mediante los que el tabaco produce el tumor,
pero sabremos al menos que entre las causas del mismo está el fumar
tabaco.

2
6
85
PUNTO 6: LA EXPLICACIÓN COMO UNIFICACIÓN
Una propuesta que ha despertado gran interés en las últimas décadas consiste en tender la
explicación científica como la unificación o sistematización de los fenómenos bajo unos
principios teóricos comunes. La idea está ya en Friedman, pero nos limitaremos aquí a la
versión de Philip Kitcher. Según la concepción unificacioncitsa, una explicación
científica ha de aumentar nuestra comprensión del mundo. Por ello, para contar con una
buena explicación de un fenómeno no es suficiente con inferirlo de una serie de premisas
que incluyan ciertas generalizaciones, sino que estas premisas deben permitir unificar
otros fenómenos bajo los mismos supuestos teóricos. Es decir, el mismo patrón
argumentativo debe servir para subsumir diferentes enunciados aceptados acerca de
diversos fenómenos. Esto significa que deben evaluarse grupos de explicaciones en lugar
de explicaciones aisladas: “captar el concepto de explicación es ver que, si se acepta un
argumento como explicativo, se está obligado a aceptar como explicativos otros
argumentos que ejemplifican el mismo patrón”. Este es, hecho, el modo en que progresa
la ciencia: la ciencia hace avanzar nuestra comprensión de la naturaleza mostrando cómo
hemos de derivar descripciones de muchos fenómenos mediante el uso repetido de los
mismos patrones de derivación, y al mostrar esto, nos enseña cómo reducir el número de
tipos de hechos que hemos de aceptar como últimos (o brutos).
1. Los patrones argumentativos que mejora unifican el conjunto de enunciados
asumidos en una ciencia en un momento dado son denominados por Kitcher la
“reserva” explicativa (explanatory store) de esa ciencia. Un argumento sólo es
aceptable como explicación si el patrón argumentativo que sigue forma parte de
esta reserva explicativa, esto es, si forma parte de un conjunto de inferencias que
son las que mejor unifican una serie de enunciados admitidos por la comunidad
científica. La cuestión central, por tanto, para una teoría de la explicación es
determinar qué condiciones debe cumplir dicha “reserva” explicativa. Y la idea
central que hay tras la respuesta de Kitcher a esta cuestión se resume del siguiente
modo: “la reserva” explicativa acerca de un determinado conjunto de enunciados
admitidos proporciona la mejor unificación de los mismos en la medida en que
consigue minimizar el número de patrones argumentativos empleados y
maximizar el número de conclusiones obtenidas.

Así, por ejemplo, el programa newtoniano tuvo una enorme capacidad unificadora
en la media en que mostró que un mismo patrón de argumentos que incluía lees
acerca de fuerzas actuando sobre corpúsculos materiales permitía derivar un
amplio elenco de enunciados aceptados. Del mismo modo, el darwinismo permitió
unificar numerosos fenómenos biológicos bajo un mismo patrón argumentativo:
la posesión de un rasgo complejo por parte de una especie queda explicada si se
muestra cómo ese rasgo proporciona una ventaja adaptativa a dicha especie.

2
7
86
2. Como ilustración de lo que Kitcher entiende por patrón explicativo podemos citar
el caso que él mismo ofrece de la explicación por parte de Dalton del hecho que
las reacciones químicas se producen de manera que los compuestos químicos
siempre mantienen una proporción constante en los pesos de los componentes
(hecho que conocemos como “ley de las proporciones constates o definidas”):

 Pregunta: ¿Por qué uno de los compuestos entre X e Y contiene siempre


X e y en una proporción de pesos m:n?

 Respuesta:

o 1. Hay un compuesto Z formado por X e Y que tiene la fórmula


Xp Yq.

o 2. El peso atómico de X es x; el peso atóico de Y es y

o 3. La proporción de pesos de X e Y en Z es px:qy (=m;n).

 Instrucciones para completar: X, Y, Z se sustituyen por nombres de


sustancias químicas; p, q se sustityen por números naturales; x, y se
sustituyen por nombres de números reales.

 Clasificación: (1) y (2) son premisas; (3) se deriva de (1) y (2).

Como puede verse, un patrón argumentativo está constituido por:

 Una serie de “enunciados esquemáticos” (en este caso (1), (2) y (3)), que
son enunciados en los que algunos términos no lógicos han sido sustituidos
por variables.

 Un conjunto de “instrucciones para completar”, que indican cómo debe


sustituirse cada variable en los enunciados esquemáticos;

 Una “clasificación”, que describe las inferencias realizadas dentro del


argumento.

Tomemos por ejemplo como compuesto de referencia el CO2, en el que la


proporción de pesos de sus componentes es 3:8, y nos preguntamos por qué es así.
Siguiendo las instrucciones para completar (1), diría que hay un compuesto de
carbono y oxígeno que tiene la fórmula C1O2; diría que el peso atómico del
carbono es 12 y el del oxígeno 16; y (·), que se derivaría de las premisas anteriores,
diría que la proporción de pesos en este caso es 1 X 12: 2 X 16, es decir, 12:32, o
lo que es igual, 3:8.

2
8
87
3. Hay algunas cuestiones a destacar en este punto:

 En primer lugar, Kitcher afirma que este modo de respetar una explicación
científica evita el problema de como caracterizar las leyes científicas, que
tatas dificultades generó dentro del modelo de cobertura legal.
Sencillamente se asume que las premisas universales aceptadas como
premisas en las diversas ejemplificaciones de estos patrones
argumentativos deben ser consideradas como leyes científicas, aun cuando
se trata en muchas ocasiones de “mini-leyes”. En este caso, deberíamos
considerar como una “mini-ley” científica (que ejemplificaría la premisa
2) el que el carbono y el oxígeno se pueden combinar en una proporción
3:8. No entraremos aquí en si realmente Kitcher puede esquivar la
distinción entre leyes científicas y generalizaciones accidentales.
Ciertamente no todos los comentaristas creen que lo consigue.

 En segundo lugar, en este modelo, las explicaciones científicas (y en esto


hay coincidencia con el modelo de cobertura legal) son argumentos, pero
Kitcher considera que la “reserva” explicativa sólo consta de argumentos
deductivos, o, dicho de otro modo, toda explicación científica es una
explicación deductiva. Tampoco nos podemos detener en los argumentos
que Kitcher esgrime para defender esta tesis arriesgada, aunque éste sea
seguramente uno de los aspectos más discutibles de su propuesta.

 Por último, las explicaciones inaceptables como las anteriormente citadas


acerca de la de la evitación del embarazo por parte de Juan o la de la
longitud de un péndulo quedan descartadas, según Kitcher como buenas
explicaciones. Si aceptamos como explicación del hecho de que Juan no
se quede embarazado el que toma la píldora anticonceptiva, tenderemos
que buscar otro patrón argumentativo distinto que permita explicar por qué
no se quedan embarazados otros hombres que no toman la píldora; de
modo que esta explicación será pero que otra que explique la falta de
embarazos en todos los hombres, incluido Juan, apelando por ejemplo a
las características de los órganos reproductores masculinos. Esta última
será más unificadora. De forma análoga, si aceptamos como una
explicación de la longitud de un péndulo el que su período tiene una
magnitud determinada, tendremos que recurrir a otros patrones
argumentativos distintos para explicar la longitud de otros objetos que no
tengan movimiento pendular. Una explicación más unificadora sería la que
apelara a ciertas circunstancias en las que se fabricó el objeto, a los
objetivos de su fabricación y las modificaciones posteriores.

2
9
88
4. Una posible objeción a Kitcher se es que al preferir patrones argumentativos
unificadores sobre aquellos que no lo son estamos presuponiendo que el mundo
está causalmente estructurado u ordenado, que no es un “revoltijo”, y que por eso
los patrones argumentativos unificadores son más explicativos. Ahora bien, este
presupuesto exige una justificación que no se da. Por tanto, el modelo
unifcacionista está lastrado con una carga metafísica que no todos querrán llevar
sobre sus espaldas. Kitcher responden a esta objeción poniendo de relieve que ella
también parte de un presupuesto discutible: que el orden causal de la naturaleza
es independiente de nuestra sistematización teórica de la misma. El rechaza de
plano este presupuesto. No hay un orden causal independiente que haya de ser
captado por nuestras explicaciones. Al contrario, “las nociones causales se derivan
de las nociones explicativas”. De acuerdo con esto, podemos decir que “las
explicaciones correctas son aquellos argumentos que aparecerán en la reserva
explicativa en el límite del desarrollo racional de la práctica científica”.

No obstante, si aceptamos estas tesis de Kitcher, surgen dificultades adicionales.

 Hay, para empezar, unificaciones teóricas en la ciencia que no permiten


derivar conclusiones acerca de relaciones causales, como los esquemas
clasificatorios o los procedimientos estadísticos para manejar grandes
cantidades de información.

 Por otra parte, el hecho de que valoremos como explicativos ciertos


argumentos repdictivos, pero no argumentos retroactivos similares, parece
indicar que, contrariamente a las tesis de Kitcher, nuestras nociones
explicativas se basan en nociones causales y no a la inversa. Por ejemplo,
consideramos que las leyes de la mecánica newtoniana y los datos sobre
las posiciones actuales, las velocidades y las masas de los planetas del
sistema Solar explican las posiciones de dichos planetas en un momento
posterior del tiempo. Pero, aunque esas mismas leyes y una información
similar acerca de las posiciones de los planetas en un momento futuro
permitirían igualmente derivar deductivamente sus posiciones actuales, no
diríamos que esas posiciones actuales quedan explicadas de dicho modo.

Esta diferencia obedece a que consideramos que las posiciones actuales


son la causa de las posiciones futuras y no al contrario. Curiosamente, tras
haber resuelto con otras asimetrías, el modelo unificacionista parece
insensible a ésta, contra la cual también había chocado previamente el
modelo de cobertura legal.

3
0
89
TEMA 4: CAMBIO CIENTÍFICO I.
FALSACIONISMO E INCOMENSURABILIDAD
ENTRE TEORÍAS

PUNTO 1: INTRODUCCIÓN
La ciencia progresa con una gran rapidez. El progreso rápido se ha convertido incluso en
uno de los rasgos distintivos de la ciencia. Este progreso tiene su manifestación más
notable para el gran público en el despliegue impresionante de la tecnología
contemporánea. Pero el aspecto más relevante desde el punto de vista epistemológico es
el del cambio de teorías. Popper pensaba que dar cuenta de este progreso era el problema
fundamental de la epistemología. Una cuestión que ha interesado particularmente a los
filósofos de la ciencia en este punto ha sido la de decidir si el cambio de teorías en la
ciencia se debe exclusivamente a factores racionales, como la argumentación lógica y la
apelación a la evidencia experimental, o por el contrario los factores “irracionales”, tales
como los intereses sociales y personales, o los factores económicos y políticos son, al
menos parcialmente, los motores del cambio de teorías en la ciencia. También se ha
discutido si este cambio es gradual y evolutivo o abrupto y revolucionario.
Asimismo, un problema que lleva camino de convertirse él solo en una industria editorial
en el de si las teorías científicas son o no inconmensurables. Los defensores de la tesis de
la inconmensurabilidad, como Kuhn y Feyerabend, mantienen que no existen criterios
objetivos y neutrales para comparar teorías científicas rivales. Esta cuestión está
estrechamente relacionada con la de la racionalidad del cambio, pues si las teorías
científicas rivales son inconmensurables, los factores puramente racionales o relativos al
contenido de las teorías no serán suficientes para determinar el abandono de una teoría y
la aceptación de la otra.
Tanto la visión neopositivista del progreso científico como la popperiana fueron
racionalistas en el sentido indicado. El cambio de teorías se efectúa en función de los
dictados de la evidencia experimental, que se considera neutral y objetiva. Los científicos
adoptan la teoría mejor a la luz de la dicha evidencia, y esta elección puede ser justificada
acudiendo sólo a la argumentación lógica. Comenzaremos exponiendo estos dos modelos
para pasar a continuación al desafío que para ambos supuso la nueva imagen de la ciencia
elaborada por Kuhn y Feyerabend.

1
90
PUNTO 1: LA VISIÓN NEOPOSITIVISTA DEL CAMBIO CIENTÍFICO
Hemos expuesto ya algunos de los tópicos centrales que caracterizaron la visión
neopositivista de la ciencia, particularmente las tesis de Carnap sobre confirmabilidad de
los enunciados científicos y el modelo de explicación de Hempel. El cuadro quedaría
incompleto si no incluyéramos en él las ideas de Nagel sobre la reducción de teorías. Si
en los dos primeros casos nos situamos en una visión estática de la ciencia, en este último
el punto de vista es el dinámico. Se trata del modo en que, según el neopsitivismo, se
desarrolla la ciencia y unas teorías se incorporan en otras.
Para los neopositivistas la ciencia sigue un proceso acumulativo de desarrollo en el que
las teorías, una vez confirmadas en grado suficiente, van quedando como sedimento
permanente sobre el que se edifican otras teorías posteriores. En una ciencia madura, una
teoría nueva no sustituye sin más a la anterior, sino que conserva lo que hay de verdad en
ella, perfeccionándola, enriqueciéndola o extendiéndola. La teoría especial de la
relatividad no elimina o invalida a la mecánica newtoniana, al contrario, la complemente
y la conserva como caso particular en situaciones en las que las velocidades son muy
bajas comparadas con la velocidad de la luz. Recordemos que, para el neopositivismo, a
medida que las teorías van teniendo en su haber más predicciones exitosas, van
alcanzando un mayor grado de confirmación, de modo que la probabilidad de que sea
verdadera en función de la evidencia disponible es cada vez más alta, siendo
consecuentemente cada vez menor la probabilidad de que sea encontrada alguna vez
como falsa. Esto implica que no hay propiamente cambio científico si por tal se entiende
la sustitución de una teoría bien confirmada por otra que la contradice.
Ahora bien, parece fácil señalar los casos históricos (como el cambio del sistema
ptolemaico al copernicano) en los que una teoría fue sustituida por otra rival que explicaba
mejor los fenómenos y que chocaba frontalmente con la teoría previamente aceptada
¿Cómo se explica esto? La respuesta del neopositivista es simple: sólo en los estadios
iniciales de una ciencia, o en los primeros momentos en los que una teoría es propuesta,
cuando no pasa de ser una mera tentativa, puede ocurrir esta situación radical, que lleve
aparejada una auténtica ruptura con la explicación de los fenómenos que proporcionaba
la teoría que es sustituida. La teoría que afirmaba que la Tierra era el centro en trono al
cual giraban el Sol y todos los planetas no puede ser confirmada jamás. Si fue aceptada
por los científicos y filósofos de la Antigüedad porque la ciencia se encontraba entonces
en una etapa muy primitiva del su desarrollo y se aceptaban teorías sin ser
convenientemente confirmadas. Su aceptación fue, pues, un error temporal fruto de una
fase inmadurez. En cambio, es muy improbable, y a efectos prácticos casi imposible, que
las teorías bien confirmadas propias de las ciencias más desarrolladas se vean
posteriormente refutadas en el ámbito de los fenómenos para los que fueron inicialmente
formuladas.

2
91
Un caso distinto es cuando una teoría ampliamente confirmada es extendida a ámbitos
nuevos de fenómenos, alejados del ámbito para el que fue inicialmente propuesta, y
fracasa en sus nuevas predicciones. Pero entonces un ámbito nuevo de fenómenos, la
teoría debe introducir nuevas reglas de correspondencia que pongan en conexión los
principios teóricos con la nueva base observacional. Pero, de acuerdo con la concepción
neopositivista de las teorías (que las identifica con la conjugación de los principios
teóricos si interpretar y un determinado conjunto de reglas de correspondencia), cambiar
éstas es tanto como cambiar la teoría. Por lo tanto, los fallos predictivos en el nuevo
ámbito de fenómenos no desconfirman a la teoría inicial, sino a una nueva teoría
relacionada con ella.
Este proceso acumulativo de mejoramiento de teorías fue entendido por los
neopositivistas principalmente como un proceso de reducción de teorías, es decir, como
un proceso de integración de teorías en otras más amplias que las incluyen como casos
límite. Corresponde a Ernest Nagel el mérito de haber desarrollado inicialmente este
concepto. Una teoría queda reducida a otra cuando se puede mostrar que es consecuencia
lógica de ella. Según Nagel, esta reducción puede darse de dos modos. Lo que diferencia
a uno de otro es que el primero consiste en una extensión de una teoría dentro de un
mismo dominio de fenómenos mientras que en el segundo consiste en la incorporación
de una teoría en otra más amplia aplicable inicialmente a otro dominio de fenómenos.
1. Es así como Nagel caracteriza al primero:
Una teoría puede formularse inicialmente para un tipo de fenómenos presentados
por una clase de cuerpos restringida de algún modo, aunque posteriormente la
teoría puede extenderse hasta cubrir también estos fenómenos cuando son
manifestados por una clase más amplia de cosas

3
92
Como ejemplo de este tipo de reducción, que puede ser visualizado intuitivamente
en la imagen, Nagel cita el caso de la mecánica clásica de partículas y la mecánica
del sólido rígido. La mecánica de partículas fue desarrollada para explicar el
movimiento de masas puntales, sin considerar las dimensiones de los cuerpos. Sin
embargo, con el tiempo hubo que considerar también los movimientos especiales
debidos a la dimensión de los cuerpos, como la rotación. La mecánica del sólido
rígido se convirtió así en una extensión de la mecánica clásica de partículas y, en
tal sentido, la mecánica clásica de partículas se redujo a la mecánica del sólido
rígido

También puede valer como ejemplo de este tipo de reducción, según Nagel, la
absorción de las leyes de Galileo sobre la caída libre por parte de las teorías de
Newton, que acaba tanto los movimientos terrestres como los celestes. Este es un
caso del primer tipo de reducción porque, aunque en principio los movimientos
de los cuerpos celestes se consideran fenómenos de naturaleza diferente, hasta el
punto de que su estudio se atribuía a disciplinas distintos, no se precisan en
realidad conceptos distintos para explicarlos. En concreto, la caída de una piedra
desde cierta altura y el movimiento de la Luna en torno a la Tierra son ejemplos
de movimientos gravitatorios debidos a la masa de la Tierra.

Lo peculiar de este tipo de reducciones es que ambas teorías, la reductoria y la


reducida, emplean términos homogéneos que son utilizados en un sentido muy
parecido en las dos. No hay por tanto dificultades adicionales debidas al
significado de los términos para mostrar que la teoría reducida puede ser deducida
de la teoría reductoria.

4
93
2. El segundo caso de reducción sí ofrece este tipo de dificultades. En este segundo
caso, la teoría reductoria y la teoría reducida fueron formuladas en un primer
momento para abarcar dominios culitativamente distintos de fenómenos. Debido
a ello, el vocabulario de ambas teorías puede ser muy distante; algunos de los
términos de una pueden ser peculiares y estar ausentes en la otra. Esto obliga a
realizar algún tipo de conexión o traducción entre los términos de una y otra teoría.
Una conexión que frecuentemente resulta sorprendente e inesperada. Nagel afirma
que el primer tipo de reducción puede ser considerado como un caso especial de
este segundo tipo. En las dos modalidades una teoría queda reducida o
incorporada a otra, sin embargo, en el segundo caso los vocabularios de ambas ya
no son homogéneos debido a que los fenómenos a los que se aplicaron
inicialmente eran distintos. Podríamos representar esta reducción del modo en que
se esquematiza en la imagen

El ejemplo que Nagel cita como ilustración de este segundo tipo de reducción es
la incorporación de la termodinámica a la mecánica estadística. La termodinámica
es la teoría que estudia las relaciones entre el calor y el trabajo en los sistemas
físicos. La mecánica estadística, basándose en el hecho de que el número de
moléculas de un sistema es muy grande, predice el comportamiento de las
propiedades macroscópicas del sistema en función del comportamiento
estadístico de las moléculas que lo componen. La termodinámica emplea en su
vocabulario términos que son comunes también en la mecánica, como “volumen”,
“peso” y “presión”, pero posee términos propios que no son usados en la
mecánica, como “temperatura”, “calor” o “entropía”. Durante el siglo XIX, los
trabajos de James Clerk Maxwell y Ludwig Boltzmannn mostraron que la ley de
Boyle-Charles, una ley termodinámica que ponen conexión la presión, el volumen
y la temperatura de un gas (en concreto, la ley se formula así: Pv=kT, donde p es
la presión, V el volumen, T la temperatura y k una constante), podía ser derivada
a partir de supuestos mecánicos acerca del comportamiento de las moléculas de
los gases ideales. Como apunta Nagel, un paso fundamental en este proceso de
reducción fue la interpretación realizada por Boltzmann en 1877 del segundo
principio de termodinámica en términos del comportamiento estadístico de las

5
94
moléculas. Unos años ates, en 1867, Maxwell había ya sugerido que el segundo
principio de la termodinámica debía interpretarse como una ley estadística que
describía el comportamiento de un gran número de moléculas, pero no desarrolló
una formulación precisa del mismo en función de esta idea. Fue Boltzmann quien
lo hizo. Mostró que la entropía de un sistema es proporcional a logaritmo de
número posible de distribuciones moleculares correspondiente a un estado de ese
sistema (S= k log W). El segundo principio de la termodinámico quedaba reducido
con esto a conceptos puramente mecánicos.

Como venimos diciendo, en este segundo tipo de reducción, las leyes de una teoría
contienen términos que no aparecen en las leyes de la ora. Esto hace que la
derivación lógica de una de ellas a partir de la otra no se puede llevar a cabo sin
más.

 Para poder afirmar que cabe la reducción en tal caso deben cumplirse,
entre otras, dos condiciones formales adicionales:

o Condición de conectabilidad: Hay que introducir supuestos nuevos


que postules relaciones entre el significado de los términos teóricos
de una teoría y los de otra. Un ejemplo de ello es la definición de
la temperatura de un cuerpo como la energía cinética media de las
moléculas de dicho cuerpo.

o Condición de deducibilidad: Con ayuda de estas suposiciones, las


leyes de una teoría deben ser deducibles de las leyes de la otra.

 A estas condiciones formales añade otras no formales.


o Entre ellas que la teoría reductora sea fértil en sugerencias para
desarrollar la teoría reducida, de modo que pudiera ser aumentada
o corregida.

o Que ambas teorías pertenezcan a disciplinas que estén en un nivel


comparable de madurez, ya que, en caso contrario, los intentos de
reducción pueden distraer energías de tareas más urgentes. En el
momento actual, dice Nagel, carecería de sentido intentar reducir
la teoría de la evolución a la teoría cuántica.
Resumiendo lo dicho hasta aquí, la imagen del progreso científico ofrecida por el
neopositivismo es la de una acumulación de teorías bien confirmadas que van siendo
enriquecidas y extendidas hasta abarcar cada vez más casos nuevos. Esta imagen
presupone dos ideas que han sido muy cuestionadas pro los filósofos de las ciencias
posteriores, a saber, que las teorías científicas bien confirmadas son prácticamente
inmunes a la desconfianza posterior, al menos e su propio ámbito de fenómenos, y que el
significado de los términos de una teoría no cambia al ser extendida o al ser incorporada
en tora teoría más amplia, o que si cambia, puede encontrarse una traducción neutral y no
problemática entre ellos.

6
95
PUNTO 4: EL CAMBIO CIENTÍFICO SEGÚN KARL POPPER
El modelo de cambio científico que propone el neopositivismo es un modelo racionalista,
en el sentido peculiar de que atribuye a la ciencia una finalidad bien definida y justificable
(el libro de teorías bien confirmadas cada vez más amplias) y considera que hay
procedimientos racionales, como puede ser la lógica inductiva, para determinar en qué
medida se alcanza este objetivo. Además, es un modelo racionalista en el sentido de que
los únicos factores que se tienen en cuenta para la evaluación de las teorías son factores
internos, es decir, factores que atañen sólo al contenido de las teorías y su relación con la
evidencia empírica. Estos factores son básicamente el apoyo inductivo que tenga la teoría
en los fatos observacionales y su capacidad para reducir algunas teorías anteriores. El
modelo de cambio científico propuesto por Karl Popper, aunque muy diferente de éste,
es también un modelo racionalista. Él mismo calificaba su filosofía de “racionalismo
crítico”.
1. Popper cree que tanto el racionalismo clásico como el empirismo están
equivocados, aunque él mismo se considera una mezcla de ambas. En todo caso,
el error está en no distinguir entre el problema del origen del conocimiento y el
problema de su validez. La pregunta de la que parten es, según Popper, más o
menos ésta: ¿cuáles son las mejores fuentes de nuestro conocimiento, las más
fiables, las que no nos conducirán al error, aquéllas a las que podemos y debemos
volver como último tribunal de apelación?” Como es sabido, el racionalismo
contesta a esta pregunta propugnando como fuente de conocimiento a la razón,
mientras que el empirismo contesta con la experiencia. Popper piensa, sin
embargo, que no existen fuentes ideales de conocimiento, del mismo modo que
no existen gobernantes ideales, y que todas las fuentes pueden llevarnos al error.
Por eso propone reemplazar la pregunta anterior por otra diferente: “¿Cómo
podemos confiar en detectar y eliminar el error?”. Su filosofía de la ciencia, y su
epistemología en general, puede ser considerada como un intento contestar a esa
pregunta. El racionalismo crítico se resume justamente en la tesis de que lo que
importa no es justificar o fundamentar nuestro conocimiento en unas fuentes
seguras y últimas, sino examinarlo críticamente para eliminar el error lo antes
posible.

Popper se veía a sí mismo como racionalista en la medida en que pensaba que las
teorías son producidas activamente por nuestra mente en un proceso creativo, y
no las recibimos pasivamente a través de la experiencia. La experiencia, por sí
sola, no puede proporcionar todos los elementos necesarios para formular una
teoría explicativa y general. Cualquier teoría trasciende lo que puede ser obtenido
mediante la experiencia. También era un racionalista porque pensaba que la razón
era el instrumental fundamental para el avance de los conocimientos mediante la
crítica severa de nuestras teorías. Pero Popper combina estos aspectos en el
principio del racionalismo crítico. Este principio exige que “nuestra aceptación o
rechazo de teorías científicas dependan de nuestro racionamiento crítico
(combinando con los resultados de la observación y el experimento)”.

7
96
De acuerdo con todo ello, Popper elaboró una teoría del cambo científico que
difería en puntos sustanciales de la neopositivista. Rechazó de plano la concepción
acumulativa del progreso científico que ésta implicaba. La ciencia no avanza
porque vaya edificando unas teorías sobre otras, en un proceso de extensión o de
incorporación en el que siempre se descansa sobre un sedimento permanente. La
ciencia avanza porque las viejas teorías van quedando falsadas y son sustituidas
por otras que las contradicen en muchos puntos. La mecánica newtoniana quedó
falsada en su momento y fue reemplazada por otra teoría, la mecánica relativista,
que hace afirmaciones sobre el mundo incompatibles con la primera.

La ciencia progresa tan rápidamente debido a que se encuentra en un estado de


revolución permanente. Las teorías científicas son conjeturas arriesgados que se
aceptan provisionalmente en tanto que no son refutadas. Su carácter es siempre
hipotético y revisable. Nunca podemos afirmar haber encontrado una verdad
definitiva. Estas conjeturas son derrocadas de forma revolucionaria por nuevas
conjeturas audaces que entran en conflicto con las anteriores y que son capaces de
pasar nuevos y severos intentos de falsación. Como vimos en el capítulo anterior,
Popper piensa que no hay aprendizaje por inducción propiamente dicho.
Avanzamos en nuestros conocimientos mediante un proceso de ensayo y error,
común a Einstein y a una ameba; mediante un aprendizaje a partir de los errores
cometidos. Este proceso, a diferencia de la inducción, es siempre creativo. El
ensayo es una suposición y el error significa una selección la falsación y
eliminación de algunas suposiciones. El método para la contrastación de teorías
no es, en consecuencia, el inductivo, sino el hipotético-deductivo.

Interesa sobre todo compararlas con enunciados aceptados a partir de la


experiencia (enunciados básicos). Si las conclusiones deducidas de la teoría
sometida a contrastación entrar en conflicto son los enunciados básicos admitidos
por la comunidad científica, entonces la teoría debe ser considerada errónea y, por
tanto, queda refutada y debe ser sustituida por otra mejor. Si, por el contrario,
estas conclusiones no entran en conflicto con ningún enunciado básico admitido,
la teoría ha pasado con éxito la prueba por esta vez. Ha sido corroborada, pero no
por ello puede asegurar su verdad definitiva, ya que los enunciados básicos son
los que se fundamenta la corroboración son a su vez falibles y provisionales.
Permanece como una mera hipótesis, aunque podamos decir que ha demostrado
su “temple”.

2. Cuantas más pruebas y más rigurosas pase una teoría, más aumenta su grado de
corroboración. El grado de corroboración es un informe evaluativo del
rendimiento pasado de una teoría, y no dice nada sobre su rendimiento futuro. No
indica que la teoría sea más probable (de hecho, toda hipótesis universal tiene
siempre, según Popper, una probabilidad lógica igual a cero), ni nos permite estar
más seguros de que la teoría seguirá pasando con éxito los intentos de falsación.
Una teoría con un alto grado de corroboración puede resultar falsada en la
siguiente ocasión en que sea sometida a prueba. En resumen: el grado de
corroboración no tiene un carácter inductivo.

8
97
Ahora bien, entre dos teorías con diferente grado de corroboración debemos
preferir el que tenga el grado de corroboración más alto. Algunos críticos han
señalado que, si nos negamos a aceptar el paso inductivo que val del hecho de que
una teoría ha pasado con éxito intentos severos de falsación a la esperanza de que
seguirá pasándolos con éxito durante un cierto tiempo, las razones por las que un
alto grado de corroboración es algo valioso se desvanecen.

3. En repetidas ocasiones, Popper presenta en sus trabajos este proceso de ensayo y


error, o de conjeturas y refutaciones, de acuerdo con el cual se desarrolla ciencia,
mediante un esquema simple de funcionamiento:

P1-->TT-->EE-->P2

 P1 es el problema del que se parte, puesto que toda investigación comienza


siempre con un problema que hay que resolver, con una pregunta, y no con
un conjunto de observaciones o de datos. El científico no entra en el
laboratorio o sale al campo con el ánimo de observar o de realizar
experimentos para recopilar información la que podemos formar luego una
hipótesis. Cuando realiza observaciones o experimentos lo hace para dar
respuesta a un problema que ya tiene previamente planteado, y las
observaciones o experimentos están guiados por alguna teoría.

 Otra cosa es que en ocasiones la obtención de datos que chocan con las
expectativas formadas a partir de las teorías aceptadas pueda ser el
desencadénate de un nuevo problema. Como solución al problema inicial
se propone una teoría tentativa (TT), o sea, una suposición o conjetura que
intente responder a los interrogantes planteados. O, más exactamente, lo
habitual es que se propongan muchas y que éstas compitan entre sí.

 El siguiente paso es la eliminación de los errores (EE) que pueda contener


esa primera teoría conjetural. Para ello se sigue el pronunciamiento ya
explicado de análisis crítico: se deduce de la teoría alguna consecuencia
particular que sea susceptible de refutación empírica y se intenta por todos
los medios esa refutación.

 En este proceso de crítica y eliminación de errores habrán surgido


problemas nuevos P2, no percibidos con anterioridad o no considerados
hasta entonces como relevantes. Estos problemas reclamarán a su vez
nuevas hipótesis que los expliquen, reiniciándose así el proceso de forma
continua. El progreso puede evaluarse comparado P1 con algunos de los
problemas posteriores Pn.

9
98
4. Con este modelo de cambio científico basado en el ensayo y eliminación del error
Popper proporciona una respuesta distinta a la de los neopositivistas a la cuestión
de los criterios según los cuales se valúan las teorías científicas. Ya no estamos
ante un proceso inductivo en el que las teorías quedan justificados en función del
apoyo que les proporciona evidencia empírica. Lo que encontramos es una dura
competición entre teorías rivales, y los científicos eligen la que sale mejor parada
de la competición. Es un proceso análogo al de la selección natural en las especies
vivas. Sólo sobreviven las más aptas, lo que para Popper significa que aquellas
que son las más falsables y han resistido las contrastaciones más rigurosas. No
hay reducción de una teoría a otra. Lo que hay es la lucha darwiniana en la cual
sólo sobrevive la mejor teoría en cada momento.

Utilizando una imagen de Lakatos, si la sociedad de teorías de Carnap es un estado


de bienes donde no se conocen los asesinatos, la sociedad de teorías de Popper es
una jungla despiadada donde rige la ley de la supervivencia. Popper remarca que,
del mismo modo que las especies que han sido seleccionadas por ser las más aptas,
n tienen garantizada su supervivencia en el futuro, tampoco la tienen garantizada
las teorías seleccionadas, de modo que no hay razones para pensar que nuestras
mejores teorías seguirán resistiendo las contrastaciones en un futuro inmediato.

El progreso científico será más rápido cuantas más teorías entre en competición y
más dura sea ésta. Depende, pues, de que proliferen las teorías rivales. Hay que
buscar siempre respuestas alternativas a los problemas y evitar que alguna teoría
establezca un monopolio que frenaría el progreso. Ésta es precisamente la base de
la discrepancia entre Popper y Kuhn acerca de los períodos de ciencia normal,
como aclararemos después. No obstante, para que haya progreso es también
necesaria una cierta dosis de dogmatismo, es decir, una cierta defensa de las
teorías frente a los intentos de falsarla. Hay que darles a las teorías, especialmente
a las nuevas, la oportunidad de mostrar todo su potencial: “si cedemos demasiado
fácilmente a la crítica, unca descubriremos dónde está la verdadera fuerza de
nuestras teorías”. Digamos de pasada que el reconocimiento de esto por parte de
Popper pone de nuevo en evidencia los problemas de la falsabilidad para cumplir
con su función como criterio de demarcación. ¿Cómo distinguir el dogmatismo
aceptable (y científico) del inaceptable (y seudocientífico)?

1
0
99
Queda claro entonces que para Popper el progreso científico nada tiene que ver
con una acumulación de teorías confirmadas. Ahora bien, su modelo retiene algo
del modelo del progreso neopositivista: la nueva teoría debe poder explicar
aquellas cosas que explicaba con éxito la teoría anterior, y por supuesto otras
nuevas. Hay, pues, un cierto sentido en el que el progreso científico es
acumulativo: la nueva teoría debe conservar el poder explicativo de la teoría
anterior, aunque varíe radicalmente en la forma de explicar los fenómenos. Esto
quiere decir que debe explicar a su modo por qué la teoría anterior tuvo éxito allá
donde lo tuvo. No se conservan teorías o hipótesis exitosas, lo que se conserva en
su capacidad explicativa. La nueva teoría habitualmente explicaría las coas de un
modo muy distinto, e incluso puesto, a la anterior. Esta conservación de la
capacidad explicativa puede ser estimada racionalmente, y de ahí que las
revoluciones científicas tengan siempre un carácter racional. Nunca se rompe del
todo con la tradición anterior. El poder explicativo de las teorías que se abandonan
no se pierde con ellas.

5. Queda ahora una cuestión fundamental: ¿cuál es la meta a la que se dirige el


progreso científico? O, dicho de otro modo, ¿cuál es el objetivo de la ciencia en
vista del cual los científicos aceptan nuevas teorías? Para Popper este objetivo es
fundamentalmente el logro de teorías que posean cada vez mayor verosimilitud,
entendiendo por tal un mayor grado de aproximación a la verdad. Y como esta
noción de aproximación a la verdad puede resultar problemática, Popper aclara
que la identifica con la idea de poseer un elevado contenido de verdad y un bajo
contenido de falsedad.

En Lógica de la investigación científica, Popper intentó mantenerse todo lo


neutral que pudo acerca de si la ciencia debe interpretarse como una búsqueda de
la verdad o como una búsqueda de teorías útiles. Afirma expresamente que en su
concepción del progreso era posible evitar los conceptos de verdadera y falso.
Compartía por entonces los recelos neopositivistas contra la tradicional noción de
la verdad. Consideraba oscura la relación de correspondencia entre enunciados y
hechos que ésta encerraba.

Sin embargo, Popper encontró más tarde en la obra de Alfred Tarski la inspiración
para rescatar y dignificar desde el punto de vista de la filosofía empirista la vieja
teoría de la verdad como correspondencia. Para ello tuvo que hacer compatible
dicha teoría con la tesis, compartida por el neopositivismo, de que sobre
cuestiones de hecho no cabe la verdad absoluta, tesis además agravada por el
rechazo de la inducción, que tampoco le permitía hablar de una verdad probable.
Pero, sobre todo, tuvo que hacerla compatible con su idea de que el destino de las
teorías, hasta las mejores, es el de ser falsadas algún día.

1
1
100
Popper intentó resolver la cuestión reconociendo que la verdad ha de permanecer
siempre en el horizonte sin que podamos nunca afirmar haberla acalzado, pero
arguemnto al mismo tiempo que, incluso con teorías falsas, podemos acercarnos
cada vez más a ella y saber que lo estamos haciendo. Así, desde el conocimiento
de fondo del que hoy día disponemos, podemos decir que tanto la física
aristotélica como la física newtoniana son falsas; pero la sustitución de la primera
por la segunda significó un acercamiento a la verdad. Todas las falsedades no
están igualmente alejadas de la verdad. Unas lo están más que otras, y hay criterios
para saberlo.

A este acercamiento progresivo a una verdad siempre desconocida e inalcanzable


Popper lo denominó “grado de verosimilitud” de una teoría, y lo consideró un
objetivo más claro y realista para la ciencia que la búsqueda de la verdad como
tal. La ciencia busca la verdad, pero en una búsqueda que nunca culmina y que
deja como poso un creciente grado de verosimilitud en las teorías: “somos
buscadores de la verdad, pero sus poseedores”.

La definición que da Popper de la verosimilitud se basa en la noción traskiana de


contenido lógico. Por contenido lógico de un enunciado (o una teoría) se entiende
la clase de todos los enunciados que se desprenden lógicamente de él. El contenido
lógico posee un subcontenido que consta de todas las consecuencias verdaderas
del enunciado en cuestión que no sean tautologías. A este subcontenido lo
denomina “contenido de verdad”. A su vez, de forma análoga, la clase de los
enunciados falsos implicados por un enunciado sería su contenido falsedad. Con
estos elementos elabora Popper la definición intuitiva de verosimilitud:

 Suponiendo que sean comparables el contenido de verdad y el contenido


de falsedad de dos teorías t1 y t2, podemos decir que t2 es más semejante
a la verdad o corresponde lo mejor con los hechos que t3 si y sólo si

o El contenido de verdad, pero no el contenido de falsedad, de t2 es


mayor que el de t1

o El contenido de falsedad de tp pero no su contenido de verdad, es


mayor que el de t2.

Una forma más simple de decirlo es ésta: se considera que t2 es más verosímil
(está más cerca de la verdad) que t1 si y sólo si t2 tiene más consecuencias
verdaderas que t1, pero no más consecuencias falsas, o las mismas consecuencias
verdaderas, pero menos consecuencias falsas.

1
2
101
Popper añade que, suponiendo que se pudiera medir el contenido de verdad y el
contenido de falsedad de una teoría a, la medida de la verosimilitud de dicha teoría
a podría definirse así:

Vs(a)=Ctv(a) – Ctf(a)

Donde Ctv(a) es la medida del contenido de verdad de a y Ctf(a) es la medida de


su contenido de falsedad. Popper no pretende que esto sea un algoritmo en la
práctica para dar un valor numérico al grado de verosimilitud de cada teoría. Su
intención es mostrar que el concepto de verosimilitud o aproximación a la verdad
es viable desde el puto de vista lógico.

6. El concepto de verosimilitud nos indica otro aspecto en el que cabe hablar de


progreso acumulativo según Popper: las nuevas teorías deben ser más verosímiles
que las anteriores; deben contener más verdades y/o menos falsedades que las
teorías a las que sustituyen. Por supuesto, este aumento de la verosimilitud que
caracteriza al progreso científico es también conjetural. No podemos estar
completamente seguros de que lo que en un momento determinado consideramos
falso. Pero hay casos en los que podemos razonablemente creer que se produce
tal aumento de la verosimilitud: si una teoría es más arriesgada que la anterior, y
es capaz de explicar todo lo que ésta explicaba, y no fracasa a la hora de pasar las
pruebas en las que la anterior fracasó, hemos de suponer que está más cerca de la
verdad, ya que teniendo un contenido empírico (y lógico) mayor, su contenido de
falsedad no supera al de la anterior.

Desafortunadamente para Popper, en 1973, los lógicos Pavel Tichy y David Miller
mostraron que el concepto de verosimilitud era inaceptable. La finalidad del
concepto de verosimilitud es la de comparar dos teorías (que se supone como
falsas, y que algún día serán como tales) en lo relativo a sus contenidos de verdad
y falsedad. Tichy y Miller probaron que para cualesquiera dos teorías falsas
diferentes A y B, no puede darse el caso de que A tenga menos verosimilitud que
B, y, por tanto, no es posible su comparación en esos términos. No se puede decir,
sin embargo, que este caso haya sido infructuoso, pues ha motivado una serie de
trabajos importantes con el fin de ofrecer una definición rigurosa de los conceptos
intuitivos de verdad aproximada y verosimilitud que pueda superar las
deficiencias de la definición popperiana. La discusión sigue abierta como uno de
los aspectos centrales entre realistas y antirealistas.

Pero la verdad no es el único objetivo de la ciencia que Popper señala. No solo


buscamos un acercamiento a la verdad, sino que queremos verdades interesantes,
teorías profundas que tengan un gran contenido empírico, gran poder explicativo,
que sean más falsables. Un alto grado de falsabilidad es también un objetivo
primordial de la ciencia.

1
3
102
7. Como resumen de su propuesta, Popper enumera tres requisitos que deben cumplir
una teoría nueva para que significa un desarrollo del conocimiento:

 Debe partir de una idea simple y capaz de unificar fenómenos dispares.

 Debe ser contrastable independientemente, es decir, debe tener nuevas


consecuencias contrastables. De no ser así la nueva teoría sería ad hoc. En
otras palabras, la nueva teoría tiene que tener mayor contenido empírico o
grado de falsabilidad que la anterior.

 Debe pasar con éxito nuevas y severas contrastaciones. La nueva teoría


deber tener mayor grado de corroboración. Para que se dé el progreso
científico no basta con tener refutaciones exitosas, hay que obtener

En conclusión, el modelo de cambio científico que Popper propone pretender ser


un modelo racional, la igual que lo era el modelo neopositivista. Ofrece un
objetivo para la ciencia que se supone que está racionalmente justificado el logro
de teorías más verosímiles y profundas; y considera que hay un criterio racional
de comparación (el grado de corroboración) que permite estimar en qué medida
se está progresando hacia ese objetivo. El proceso de selección de teorías por parte
de los científicos procede así: se buscan teorías con mayor grado de falsabilidad
que las precedentes y que conserven su capacidad explicativa; de las que no hay
resultado falsadas después de haber sido sometidas a rigurosos intentos de
falsación, se preferirá aquello que haya pasado la contrastaciones más severas,
esto es, la que pose mayor grado de corroboración, y al hacerlo así, dado que
presumiblemente tenderemos teorías con mayor contenido empírico peor no
mayor contenido de falsedad, el resultado serán teorías con mayor grado de
verosimilitud. El mayor grado de corroboración puede ser visto por ella como un
índice falible de un mayor grado de verosimilitud.

8. Kuhn, Feyerabend y Laudan han sido los críticos principales de este modelo. En
lo que coinciden es en rechazar la idea de que el progreso científico pueda ser
entendido como un acercamiento gradual a la verdad.

Una dificultad importante en el modelo Popperiano, que fue suscitado por Lakatos
y que ha reafirmado recientemente Newton-Smith, es la relación entre
corroboración y verosimilitud. Por un lado, tenemos que, dado el rechazo de
Popper a la lógica inductiva, el grado de corroboración de una teoría es solo un
informe sobre los éxitos pasados de la misma; un informe con el que no cabe hacer
predicciones sorbe sus éxitos futuros. Pero, por otro lado, tenemos que el grado
de corroboración es un índice de la verosimilitud en un momento dado.

1
4
103
Ahora bien, parece razonable confiar en que el éxito futuro de una teoría con un
alto grado de verosimilitud será mayor que el éxito futuro de otra teoría con un
grado menor de verosimilitud. Si su contenido de verdad es mayor, si tiene más
consecuencias lógicas verdaderas, hará más predicciones exitosas que la de menor
verosimilitud, con lo cual, presumiblemente, pasará con éxito más intentos de
falsación. Pero entonces, a pesar de las intenciones de Popper, podemos realizar
algún tipo de inferencia inductiva sobre el comportamiento futuro de una teoría a
partir de su grado de corroboración.

Es más, como dice Newton-Smith, si no pudiéramos hacer este tipo de inferencias,


no se entendería porque haríamos de basar nuestra elección de teorías en su grado
de corroboración. Después de todo, elegimos una teoría mejor corroborada porque
esperamos que sea la que nos dé mayor poder explicativo y predictivo en futuras
ocasiones. Si no esperáramos esto, el historial de éxitos pasados de una teoría no
tendría más interés que el meramente histórico. Para establecer el vínculo que
Popper mismo concede entre corroboración y verosimilitud no habría más remido
entonces que recurrir a una argumentación inductiva, cosa que, sin embargo, el
modelo popperiano no permite hacer.

Popper terminó sugiriendo que quizá aquí habría que admitir un “soplo de
inductivismo”. Peor, ¿cómo entender esto? Newton-Smith con ironía que más que
un soplo lo que hay es una tormenta en toda regla. De hecho, para muchos de sus
críticos, el principal punto débil de la metodología popperiana está precisamente
en su rechazo a la inducción, que le lleva a conclcusiones tan implausibles como
que, por muchas contrastaciones que haya pasado, no podemos afirmar
legítimamente que nuestra confianza en ella haya aumentado a raíz de ese apoyo
en la experiencia. Este fracaso a la hora de conectar corroboración y verosimilitud
le ha acarreado a Popper la acusación de antirrealista, porque la aceptación o
rechazo de teorías se lleva a cabo en su metodología por criterios que en última
instancia no están realmente en función del descubrimiento de la verdad.

1
5
104
PUNTO 4: EL CAMBIO CIENTÍFICO SEGÚN THOMAS KUHN
Popper se presentó su filosofía como una crítica al neopositivismo, pero las obras de Kuhn
y de Feyerabend mostraron que Popper compartía con éste supuestos comunes que no
resistían un análisis riguroso de la ciencia. Kuhn coincide con Popper en la idea de que el
progreso científico es revolucionario y no acumulativo, pero cree que las revoluciones
presentan discontinuidades más profundas que las señaladas pro Popper y considera
además que estas revoluciones no serían posibles si no hubieran también largos periodos
de estabilidad y de dominio incuestionable de una gran teoría, a los que designa como
períodos de “ciencia normal”.
El modelo de cambio científico expuesto por Kuhn en su famoso libro de 1962 La
estructura de las revoluciones científicas ha tenido una influencia enorme no solo en la
filosofía de la ciencia, sino en otros muchos ámbitos de las humanidades (sociología,
antropología, historia, lingüística, círica literaria, etc….) Kuhn nació en 1922. Era físico
de formación, al igual que Popper, pero pronto pasó al campo de la historia de la ciencia
y, desde ahí, al de la filosofía de la ciencia. Como historiador de la ciencia publicó varios
artículos y dos libros: la revolución copernicana, de 1957, y La teoría del cuerpo negro y
la discontinuidad cuántica, 1894-1912, de 1979. Como puede verse por los títulos, ambos
trataban de grandes revoluciones de la ciencia: la de Copérnico el primero y la de la teoría
cuántica en el segundo. Algunos de sus artículos históricos e historiográficos fueron
recogidos en el libro La tensión esencial, publicado en 1977. Pero la obra que le consagró
fue la consabida Estructura de las revoluciones científicos, su único libro como filósofo
de la ciencia y uno de los libros de filosofía “best-seller”. Kuhn murió en junio de 1996.
Trabajaba entonces intensamente en un libro que significaría una revisión profunda de
algunos de los planteamientos contenidos en esta obra. Comencemos por exponer la
descripción general del desarrollo científico que Kuhn efectúa.
1. En toda ciencia existen dos fases principales de desarrollo: un período de ciencia
inmadura, caracterizado por la ausencia de un paradigma común, y un período de
ciencia madura en el que la investigación se realiza -salvo en los momentos
ocasionales de crisis- bajo el dominio de un paradigma común. A su vez, dentro
de la ciencia madura, el desarrollo se produce fundamentalmente mediante
cambios revolucionarios de paradigma. Al período de investigación bajo un
paradigma Kuhn lo llama “ciencia normal” y al período de crisis revolucionaria
que comporta el cambio de paradigma lo llama “ciencia extraordinaria”.

1
6
105
En la ciencia inmadura existen diversas escuelas rivales compitiendo entre sí, cada
una con su propio conjunto de teorías, métodos, criterios, objetivos, etc… No
existe, por tanto, un consenso suficiente sobre cuestiones básicos y el progreso del
conocimiento. Se hace muy difícil, a no ser que nos limitemos a considerar el
interior de cada una de estas escuelas en disputa. Dentro de ellas, y de acuerdo
con sus propios criterios, sí se realiza algún progreso, pero éste no es reconocido
frecuentemente como tal por las escuelas rivales. Los descubrimientos realizados
por una son ignorados por las otras, de modo que pueden llegar a perderse. La
falta de colaboración entre los miembros de diversas escuelas y la discusión sobre
los fundamentos son una constante en estos períodos: todo se replantea desde el
inicio. No hay una guía fiable y duradera para la investigación que posibilite un
avance rápido de los conocimientos.

Probablemente se nos vengan a la cabeza, leyendo esta caracterización, algunos


casos actuales en las ciencias sociales. Pero Kuhn se limita a ejemplos de las
ciencias naturales en el pasado. Uno de tales ejemplos los encontramos en el
electromagnetismo a comienzos del siglo XVIII. Existían tres grupos de
investigadores en ese campo. Un primer grupo consideraba que los fenómenos
eléctricos fundamentales eran la atracción y la generación por fricción, y veía los
fenómenos de repulsión como un efecto derivado producido por algún tipo de
rebote. Un segundo gripo estimaba que tanto atracción como repulsión eran
manifestaciones iguales de la electricidad. Un tercer grupo creía que la
electricidad era un fluido que circulaba por los cuerpos conductores.

Los dos primeros grupos tenían dificultades para explicar los fenómenos de
conducción, mientras que el tercero las tenía para explicar la atracción y repulsión.
Fueron los trabajos de Benjamin Franklin los que cambiaron este panorama.
Consiguió explicar con su teoría la mayoría de los efectos eléctricos conocidos y
en poco tiempo despertó la adhesión de todos los que investigaban sobre la
electricidad. A partir de entonces encontraron con un paradigma común acerca de
los fenómenos que estudiaban y el debate entre escuelas cesó.

El paso de la ciencia inmadura la ciencia madura el descrito finalmente por Kuhn


no como el surgimiento de un paradigma donde antes no lo había sino como la
victoria completa de un paradigma sobre otros paradigmas rivales. Esta es una
razón por la que no debe interpretarse, como a veces se hace, la posesión de un
paradigma como un criterio de demarcación entre ciencia y no ciencia. También
hay paradigmas en disciplinas no científicas, sólo que ninguno consigue aglutinar
en torno a él a todos los investigadores. Pero esto es algo que sucede también en
la ciencia en los períodos de inmadurez. No obstante, incluso cuando un
paradigma ha vencido a los demás, la adhesión al mismo puede llevar su tiempo.
En un principio puede ocurrir que no todos los científicos se suban al nuevo
paradigma vencedor. Con el tiempo esto disidentes van siendo apartados de los
lugares relevantes de la disciplina, pero eso no significa que su comportamiento
de resistencia al consenso creado sea ilógico, irracional o acientífico.

1
7
106
Cuando un paradigma triunfa, esto es, cuando los científicos aceptan un logro
técnico como un fundamento para su práctica posterior, el progreso se facilita
enormemente. A partir de ese momento el trabajo se vuelve más rutinario, pero
también más efectivo:

Precisamente porque trabaja sólo para una audiencia de colegas, una audiencia
que comparte sus propios valores y creencias, el científico puede dar por sentida
un único conjunto de normas. No tiene ya que preocuparse de lo que pensarán
otros grupos o escuelas y puede, por tanto, deshacerse de un problema y pasar al
siguiente más rápidamente que los que trabajan par aun grupo más heterodoxo.
Y lo que es más importante, el aislamiento de la comunidad científica con
respecto a la sociedad permite al científico individual concentrar su atención en
problemas acerca de los cuales tiene buenas razones para creer que podrá
resolverlos.

Kuhn discrepa aquí profundamente del planteamiento popperiano. No se trata de


que la ciencia progreso hacia teorías cada vez más cercanas a la verdad y de que
eso facilite el consenso a partir de cierto momento. Kuhn no cree que existe en la
ciencia nada parecido a un acercamiento progresivo a la verdad. Se trata más bien
de conseguir primero el consenso, lo cual posibilitará a continuación un rápido
progreso. Si campos como la filosofía o la teología no consiguen ese porgreso, no
se debe a que carezcan de algún instrumento metodológico de que la ciencia
dispone, sino a que no se ha conseguido en ellas eliminar la rivalidad de escuelas
que ponen en cuestión constantemente los fundamentos. Queda entonces por
aclarar cómo se consigue ese consenso y cómo ha de entenderse ese progreso.

2. La ciencia normal

Los períodos de ciencia normal son los que se conforman la mayor parte de la
actividad científica. En ellos, como hemos dicho, la investigación se desarrolla
bajo el dominio de un paradigma. Algo ciertamente muy alejado del principio de
proliferación de teorías y de la constante lucha darwiniana de teorías que Popper
nos presentaba. Peor ha llegado el momento de decir qué entiende Kuhn por
“paradigma”. La respuesta no es simple, porque, pese a la importancia de este
concepto en su filosofía, Kuhn no siempre lo utilizó con precisión. A este respecto
se suele citar casi siempre el trabajo de Margaret Masterman en el que pone de
relieve que La estructura de las revoluciones científicas Kuhn llega a emplear el
término hasta en 21 sentidos diferentes.

1
8
107
Así pues, Kuhn entiende por paradigma básicamente un modelo teórico que
resuelve algún problema destacado y que sirve como ejemplo para resolver otros
problemas más complejos (piénsese en el modo en que la mecánica newtoniana
resuelve el problema de las órbitas planetarias). Aunque, en un sentido más
amplio, los paradigmas incluyen otros componentes de tipo axiológico,
metodológico y ontológico que son la seña de identidad de una comunidad
científica. El término “paradigma” es adoptado por Kuhn de la gramática. En ella
se emplea en un sentido muy próximo al primero de los que acabamos de
mencionar. Un paradigma en gramática es un ejemplo para ilustrar cómo debe
construirse la reflexión de casos análogos.

En su conferencia de 1961 “la función del dogma en la investigación científica”,


pronunciado un año antes de la publicación de La estructura de las revoluciones
científicas, donde adelantaba las conclusiones principales de esta obra, Kuhn
decía: Un paradigma es,

 En primer lugar, un logro o realización científica fundamental que incluye


a la par una teoría y algunas aplicaciones ejemplares a los resultados del
experimento y la observación.

 Y lo que es más importante, es una realización cuyo término quedaba


abierto, que deja aún por hacer toda suerte de investigaciones.

 Y, finalmente, es una realización aceptada en el sentido de ser recibida por


un grupo cuyos miembros no intentan ya rivalizar con ella ni crearle
alternativas.

En la posdata de 1969 a la segunda edición de La estructura de las revoluciones


científicas, Kuhn, precisa más y reconoce que en esta obra había empleado el
término en dos sentidos diferentes. En esta postura de 1969 Kuhn prefiere llamar
a los paradigmas en el sentido amplio “matrices disciplinares”, y éstas incluirían
como componente propio a los paradigmas en el sentido restringido de problemas
resueltos utilizados como modelo. El término “matriz disciplinar” no tomó
finalmente fortuna y no logró imponerse al ya ampliamente difundido de
“paradigma”.

 En el primer sentido, que tendría un carácter sociológico, un paradigma es


“la completa constelación de creencias, valores, técnicas, etc…
compartidos por los miembros de una comunidad dada”.

 En el segundo sentido que es más restringido, un paradigma es uno de los


elementos de esta constelación, a saber: las soluciones concretas a enigmas
que son empleadas como modelos o ejemplos por la comunidad científica
para la solución de otros enigmas en la ciencia normal.

1
9
108
En concreto, Kuhn señala cuatro componentes principales en una matriz
disciplinar o paradigma:

 Generalizaciones simbólicas: son las leyes centrales del paradigma, como


las tres leyes del movimiento de la mecánica newtoniana. Leyes que, en
ocasiones, funcionan como definiciones de ciertos términos, más que
como generalizaciones empíricas. A pesar de su nombre, pueden estar
expresados en forma simbólica a través de palabras. El compromiso sobre
ellas, por parte de la comunidad científica se realiza tomándolas sin
interpretar, es decir, desprovistas de significado empírico. Así, podríamos
añadir todos los científicos aceptan las mismas ecuaciones de la mecánica
cuántica, aunque haya discrepancias en lo que concierne a su
interpretación. En tal sentido “las generalizaciones simbólicas funcionan
todavía como expresiones que se dan dentro de un sistema matemático
puro”.

 Modelos heurísticos y categoriales. Se trata de ciertas analogías utilizadas


para facilitar el desarrollo de la investigación, así como de ciertos
compromisos ontológicos. Un modelo heurístico es, por ejemplo, la
comparación de un circuito eléctrico como un sistema hidrodinámico, o de
las moléculas de un gas con pequeñas bolas de billar en movimiento
aleatorio. Un modelo categorial sería la identificación del calor de un
cuerpo con la energía cinética de sus moléculas, o a la asunción de que
todos los fenómenos se deben al movimiento de los átomos en el vacío.

 Valores. El consenso sobre ellos entre diferentes comunidades de


científicos es mayor incluso que sobre las generalizaciones simbólicas y
sobre modelos, y debido a ello cobra una especial importancia en los
periodos de crisis, cuando la comunidad científica se encuentra divida
sorbe esos elementos. Algunas de tales valores son la exactitud en las
predicciones, la fertilidad en la formulación y solución de enigmas, la
simplicidad, la consistencia (interna y externa), etc… Ahora bien, aunque
esos valores sean ampliamente compartidos, puede haber discrepancias a
la hora de aplicarlos o de evaluar cuáles son más importantes y deben
prevalecer sobre los demás.

2
0
109
 Ejemplares. Son soluciones de problemas concretos aceptados por la
comunidad científica como modelos para resolver otros problemas
similares, es decir, como paradigmas en el senido habitual del término.
Estos ejemplos son lo que Kuhn entedía por “paradigma” en el sentido
más estricto. Suelen aparecen en los libros de texto e invitan al estudiante
a resolver problemas similares basándose en ellos. Juegan, por tanto, un
papel fundamental en la educación científica. Al estudiante de ciencias no
se le enseña un conjunto de reglas, bajo el apelativo de “método científico”
para que con ellas pueda enfrentarse a cualquier problema. Más bien se le
entrena para manejar con sultura un cierto número de ejemplares, y con
ese manejo, el estudiante adquiere la capacidad de aplicar las mismas
generalizaciones simbólicas en situaciones diferentes. En esto la actividad
del estudiante de ciencias no se diferencia demasiado de la del trabajo
investigador del científico profesional durante los períodos de ciencia
normal. Ambos resuelven enigmas o rompecabezas modelándolos sobre
soluciones de enigmas previos:

Galileo descubrió que una bola que rienda por un plano inclinado
adquiere la velocidad suficiente para volver a la misma altura vertical
sobre un segundo plano inclinada con una pendiente cualquiera, y
aprendió a ver esta situación experimental como parecido a la del
balanceo de un péndulo con una masa puntual”. Esto es análogo a lo que
hace el estudiante de física cuando aprende a ver una variedad situaciones
como casos especiales de una misma ley (cuando aprende, por ejemplo,
que f=ma se transforma en 𝑚𝑔 = 𝑚𝑑 2

En los períodos de ciencia normal, por tanto, los científicos no tratan de encontrar
nuevas teorías ni nuevos tipos de fenómenos, y mucho menos tratan de falsar sus
teorías, sino que tratan de encajar cada vez mejor las teorías vigentes con los
fenómenos conocidos. Su tarea es, sobre todo, como dice Kuhn, una “operación
de limpieza” bastante rutinaria consiste en resolver problemas para los cuales se
presupone que hay al menos una solución dentro del paradigma. Kuhn los llama
“enigmas” o “rompecabezas” (puzles) porque lo que hacen es poner a prueba el
ingenio de los científicos. No son necesariamente problemas de gran importancia
práctica o de gran interés público. Son sólo problemas que los científicos
consideran interesantes y resolubles: “los problemas verdaderamente
apremiantes, como la cura del cáncer o el diseño de la para la paz duradera, no
suelen ser enigmas, en buena medida porque pueden no tener ninguna solución”
(Kuhn, 1970).

El paradigma, sin embargo, no tienen que explicar satisfactoriamente todos los


hechos que pueden considerarse bajo su dominio. Basta con que resuelve algunos
problemas especialmente significativos para la comunidad científica. Todos los
paradigmas, sobre todo en sus fases iniciales, tiene problemas sin resolver, y su
éxito es más una promesa que una realidad efectiva. La responsabilidad del
fracaso en la solución de un problema se atribuye en esos momentos al científico,
no al paradigma.

2
1
110
El progreso científico durante los períodos de ciencia normal es muy parecido a
como lo describieron los neopositivistas. Es un progreso acumulativo basado en
la articulación entre la teoría y la experiencia, y aunque no es el más espectacular,
a él está enfocada la mayor parte de la investigación científica. En concreto,
durante los períodos de ciencia normal los científicos se dedican a tres cosas
principalmente:

 Determinar con precisión los hechos significativos dentro del paradigma


(valores de ciertas magnitudes importantes, por ejemplo).

 Acoplar los hechos con la teoría (desarrollando nuevas técnicas


matemáticas o aplicándola a nuevos ámbitos, por ejemplo).

 Articular la propia teoría (dándola más coherencia, más precisión o más


simplicidad, por ejemplo).

3. La ciencia extraordinaria

Pero los períodos de ciencia normal no duran siempre. Cuando se produce el fin
de un periodo de ciencia normal se entra en un periodo de ciencia extraordinaria.
Es importante resaltar en primer lugar que los períodos de ciencia normal son
necesarios para que luego pueda producirse un avance revolucionario. Kuhn no
concibe el desarrollo de la ciencia como una revolución permanente. Las
revoluciones no son posibles si no hay largos períodos de estabilidad sometidos a
una legalidad que finalmente se vuelve inasumible. Sobre el fondo seguro de
expectativas teóricas que proporcionan dichos períodos es más fácil que se
perciban situaciones que las violan. Sin la aceptación pareia de un paradigma no
hay expectativas acerca de los fenómenos y, por tanto, no hay violación de tales
expectativas. El trabajo rutinario dentro de un paradigma es así una condición de
tales expectativas.

El trabajo rutinario dentro de un paradigma es así una condición indispensable


para el progreso científico. No solo porque ese mismo trabajo de ciencia normal
desarrolla la capacidad explicativa para el paradigma, sino porque sin él no sería
posible la detección de los problemas que pueden conducir a un cambio de
paradigma. Existe, pues, una “tensión esencial” en la investigación científica entre
tradición e innovación, entre pensamiento convergente y divergente, una tensión
que provocará rupturas con la tradición cada cierto tiempo.

2
2
111
La misión que Kuhn atribuye al trabajo científico es, en coherencia con esto, muy
distinta de la que se le encomendaba dentro de la visión popperaiana. El científico
no está obligado a ser un revolucionario audaz que intenta siempre encontrar
nuevas ideas opuestas a las teorías vigentes. En general su tarea es mucho más
modesta, pero imprescindible para el progreso de la ciencia: debe resolver
enigmas hasta que tenga la suerte, si es que la tiene, de tropezar con algo mucho
más importante, con un problema que choque con lo que el paradigma autoriza a
esperar. En La tensión esencial, escribe:

El profesional de una ciencia madura desde el principio de su investigación para


su doctorado, continúa trabajado en las regiones a las cuales parecen adaptarse
los paradigmas provenientes de su educación y de las investigaciones de sus
contemporáneos. Es decir, trata de dilucidar detalles topográficos sobre un mapa
cuyas líneas principales ya existen y espera, si es lo suficientemente perspicaz
como para reconocer la naturaleza de su campo, que algún día atacará un
problema dentro del cual no ocurrirá lo previsto, el problema que al apartarse de
lo consabido sugerirá la debilidad fundamental del propio paradigma

Estas violaciones de las expectativas generadas por un paradigma son


denominadas por Kuhn “anomalías”. Cuanto más preciso y amplio sea un
paradigma, tanto más sensible será a la aparición de anomalías y más ocasiones
proporcionará para su cambio.

Cuando un paradigma tropieza con una serie de problemas importantes que no


consigue en un período de crisis en el cual la comunidad científica debilita su
confianza en el paradigma. En ese momento los científicos realizan
modificaciones cada vez más radicales y divergentes del paradigma para
encontrarles solución, llegando la discusión y alcanzar los supuestos filosóficos
del mismo, como ocurría en los periodos preparadigmáticos. Estas modificaciones
equivalen en la práctica a una proliferación de teorías. El consenso dentro de la
comunidad científica acerca de qué modificaciones son o no aceptables se va
debilitando y se genera una inseguridad profesional en el seno de dicha
comunidad. La investigación realizada a partir de entonces ya no tiene las
características de la ciencia normal, puesto que las distintas modificaciones de
paradigma que se propone dividen a la comunidad científica, provocando la
reaparición de las rivalidades que el paradigma había hecho desaparecer.

Los periodos de crisis no tienen por qué terminar en una revolución científica, tal
como puntualizo Kuhn. Lo más frecuente es que as anomalías terminen por ser
explicadas por el paradigma. E incluso si no lo son, los científicos pueden decidir
aparcarlas hasta mejor momento, con la esperanza de que una nueva generación
de científicos con mejores instrumentos lo consiga. Si después de cierto tiempo el
paradigma sigue sin resolver los problemas, si los científicos no están dispuestos
a mirar para otro lado y, sobre todo, si surge un nuevo candidato a paradigma,
estas crisis desembocan finalmente en una revolución científica. Un nuevo
paradigma rival consigue la aceptación generalizada de la comunidad científica y
el viejo paradigma es abandonado. Kuhn se sitúa ahora frente a Popper

2
3
112
 Contra lo que Popper pensaba, el cambio revolucionario no se produce
debido a la aparición de ejemplos falsadores de la vieja teoría. Todo
paradigma tiene problemas que no puede resolver o hechos que no encaja
con él, pero éstos no se convierten en auténticos ejemplos en su contra
hasta que no hay un paradigma rival que pueda sustituirlo. “Rechazar un
paradigma sin sustituirlo simultáneamente por otor es rechazar la ciencia
misma”. De ahí que los científicos simplemente legítimamente, al menos
durante un tiempo, diversas estrategias inmunizadoras, como las hipótesis
ad hoc, para proteger al paradigma.

Lo que diferencia a la ciencia normal de la ciencia en los períodos de crisis


no es que la primera no se enfrente con ejemplos en contra, mientras que
la segunda sí lo haga. La diferencia está en que la ciencia normal se
esfuerza por resolver los problemas defendiendo a toda costa la validez
del paradigma. Si no se logra una solución, eso desacredita al científico,
no a la teoría. En cambio, la ciencia en un periodo de crisis se pone en
cuestión el paradigma y lo culpa de los fracasos.

 El falsacionismo se equivoca también en otro aspecto: la decisión final una


revolución científica no depende de que hay un experimento crucial que
rete a un paradigma y apoye el paradigma rival. Cada paradigma interpreta
la experiencia de modo distinto, e incluso ve el mundo de modo distinto,
y no hay normas de evaluación supra paradigmáticas que puedan dirimir
estas diferencias, ya que las normas y los valores cambian también con el
paradigma. Esto hace que lo que desde un paradigma se considera un
experimento refutador del paradigma rival, desde éste puede ser visto sólo
como una pequeña dificultad superable con las oportunas modificaciones
teóricas. Es a esto a lo que Kuhn se refiere cuando dice que los paradigmas
son inconmensurables.

4. Las revoluciones científicas

Pero si todo paradigma tiene ejemplos en contra, si ninguno puede explicar todos
los hechos que caen bajo su dominio, ¿qué hace que una anomalía o un conjunto
de ellas conduzcan aun período de crisis? ¿Qué factor determina el
desencadenamiento de la crisis? Kuhn es bastante elusivo en la respuesta a esta
cuestión, a pesar de que es una pregunta capital. Hay, según nos dice, varias
circunstancias que pueden provocar esto. Por ejemplo, que las anomalías
propongan en cuestión generalizaciones fundamentalmente del paradigma, que
pase mucho tiempo sin que encuentren una solución, que afectan a aplicaciones
prácticas importantes, que el propio desarrollo de la ciencia normal las vaya
destacando, etc…

2
4
113
Una de las formas en que puede cerrarse una crisis es, como hemos dicho, el
abandono del viejo paradigma y la aceptación de un paradigma rival. En esto
consisten las revoluciones científicas. Los casos que Kuhn cita coinciden en
general con los que la historiografía ha considerado tradicionalmente como
grandes revoluciones científicas: el abandono del sistema ptolemaico en favor del
copernicano, el establecimiento de la mecánica newtoniana, la transición de la
química del flogisto a la química del oxígeno debda fundamentalmente a
Lavoisier, la sustitución de la mecánica newtoniana por la teoría de la relatividad
de Einsten, el surgimiento de la teoría cuántica, etc… En incluye algunos otros
menos conocidos polarmente, como la revolución producida en la física por la
teoría electromagnética de Maxwell.

Las revoluciones científicas implican para Kuhn una ruptura mucho mayor con la
situación precedente que la que había admitido Popper. Para ilustrar hasta qué
punto se produce una discontinuidad radical y una reconstrucción de fundamentos
tras una revolución científica. Kuhn resalta los paralelismos entre éstas y las
revoluciones políticas. En ambas se experimenta un fuerte sentimiento de
insatisfacción con respecto al status quo. En ambas cambian las normas
imperantes hasta el momento y el orden que surge tras ellas es juzgado como
ilegítimo desde las normas prevalecientes en la situación anterior. En ambas se
carece de estructuras institucionales superiores para dirimir las diferencias; la
norma más elevada es la voluntad de la comunidad revolucionaria. En ambas se
debe recurrir a las técnicas de persuasión de masas. En ambas se trata de elegir
entre modos incompatibles de vida de la comunidad. En ambas los argumentos a
factor de cada bando se tornan en buena medida circulares, ya que presuponen los
criterios de evaluación que el otro bando no desea aceptar y que, de hecho,
cuestiona. En ambas es sólo una pequeña vanguardia la que está dispuesta en un
principio a efectuar el cambio, y la revolución se completa hasta que la gran
mayoría la comunidad presta su lealtad al nuevo orden instaurado.

Las revoluciones científicas son para Kuhn algo más que la sustitución de algunas
ideas sobre el mundo por otras: son, como reza el título de uno de los capítulos de
La estructura…, “cambios en la visión del mundo”. Esto significa que tras una
revolución los científicos que ven el mundo objeto de su investigación de una
manera diferente. Es más, dado que el único acceso que tienen a este mundo es a
través de su práctica investigadora, podría decirse que, “aunque el mundo no
camba con el cambio de paradigma, los científicos trabajan después en un mundo
diferente”. El cambio en la visión del mundo es, por tanto, algo más que un cambio
perceptivo o que una simple reinterpretación de los datos sensoriales. Kuhn
argumenta que es como si el mundo se poblara realmente de nuevos objetos. El
mundo en el que trabaja el científico es un mundo donde han cambiado los
referentes, y donde las cosas no se miden, ni se prueban, sin se manipulan del
mismo modo. Es, en cierto modo, un mundo distinto después del cambio de
paradigma.

2
5
114
Para aclarar todo esto un poco, Kuhn mencionaba los cambios de Gestalt que se
dan en situaciones en las que, ante un mismo estímulo sensorial, se perciben
alternativamente dos imágenes distintas. Casos típicos de tales situaciones son en
las que o bien se ven dos caras enfrentadas o bien se ve una copa. De forma
análoga a lo que sucede en situaciones, al mirar a la Luna, donde el astrónomo
anterior a Copérnico veía un planeta, el astrónomo copernicano ve un satélite.
Antes de Galileo los físicos trabajan en un mundo en el que había cosas tales como
piedras que eran entorpecidas por una cuerda en su caída hacia su lugar natural de
reposo; después de Galileo trabaja en un mundo en que había péndulos, esto es,
objetos que repiten incesantemente un movimiento de balanceo. Antes de Dalton
los químicos trabajan en un mundo en el que las soluciones eran compuestos, y
después trabajan en un mundo en el que realizan mezclas. La diferencia está en
que estos cambios no pueden ser invertidos a voluntad, en contraposición a lo que
ocurría con las imágenes de la Gestalt.

Estas afirmaciones acerca de los cambios de mundo y cambios de Gestalt le


costaron a Kuhn muchas críticas, pues parecen sugerir un cierto constructivismo
idealista según el cual el mundo depende de nuestras teorías. Con el tiempo Kuhn
las considerado desafortunadas y declaró que en ningún momento habría
pretendido negar la existencia de una realidad independiente de nuestras teorías.
En sus últimos trabajos, los “cambios de mundo” son identificados con cambios
en la estructura que imponen al mundo léxicos diferentes, o más exactamente, cn
cambios en la referencia de los términos debido a cambios en el sistema de
clasificación que cada paradigma conlleva.

No debe pensarse que las revoluciones científicas son siempre cambios de gran
magnitud y relativamente escasos. Algunas pueden afectar sólo a una
subespecialidad. Otras pueden darse sólo en el seno de estas microcomunidades.
Kuhn considera que las revoluciones han sido difuminadas de la imagen popular
de la ciencia debido a los libros de texto y a las obras de filosofía y de divulgación
científica. En ellos se suele presentar la historia de la ciencia como un proceso
lineal en el que todo lo hecho con anterioridad no ha sido más que un intento
balbuceante para llegar al punto en el que se encuentra la ciencia en la actualidad.
Se describe a la ciencia como si todos los científicos hubieran estado trabajando
siempre en los mismos problemas fundamentales, empleando los mismos métodos
y buscando los mismos objetivos; como si Newton, por ejemplo, no hubiera hecho
más que colocar los cimientos del edificio que terminó Einstein, o por citar un
casi más extremo, como si Demócrito fuera un antecedente muy primitivo de
Dalton y de Bohr. Al presentar estos libros la ciencia del pasado como una mera
preparación para el presente, deben ser reescritos tras cada revolución, ya que
entones Hay que volver a describirla como una preparación para llegar un
paradigma diferente, en varias cosas:

2
6
115
 La ciencia normal proporciona un progreso acumulativo sumamente
valorable. Pero el verdadero avance científico se produce cuando un
paradigma es sustituido por otro en una revolución científica. Ahora bien,
el cambio revolucionario no es acumulativo. En él quedan abandonados o
radicalmente reestrucutrados muchos elementos del viejo paradigma y se
producen pérdidas de ganancias. La nueva tradición de ciencia normal que
surgen tras la revolución ha dejado atrás muchos problemas que la
tradición anterior consideraba importantes.

 Su lenguaje tampoco es ya el mismo, ni lo son sus criterios de evaluación.


Kuhn afirma, sin embargo, que los científicos no adoptan el nuevo
paradigma si no están convencidos de que resuelven algunos problemas
importantes que le viejo no podía resolver, conservando al mismo tiempo
una gran parte de su capacidad para resolver los demás problemas. Esto
parece indicar que los científicos hacen la elección del nuevo paradigma
porque perciben una cierta superioridad del mismo en el sentido indicado.
No obstante, esta percepción de superioridad no es objetiva puesto que las
cosas pueden ser muy distintas si las contemplamos desde el viejo
paradigma. De ahí la necesidad de emplear técnicas de persuasión y la
insuficiencia de los argumentos lógicos pata inducir el cambio.

En consecuencia, no podemos decir que desde un punto de vista neutral el nuevo


paradigma signifique un progreso con respecto al anterior. Sólo podemos decir
que desde el punto de vista que instaura el nuevo paradigma, éste representa un
progreso en comparación con su rival. En realidad, el resultado de una revolución
es siempre necesariamente visto como un progreso, porque el bando vencedor es
el que escribe la historia y la cuenta como una victoria de la razón sobre el error.
Si esta afirmación de Kuhn suena cínica, todavía queda lo más grave. Kuhn
compara explícitamente al científico que trabajo un paradigma con el protagonista
de 1984, la novela de George Orwell. Ambas son víctimas de “una historia
reescrita por los que están en el poder”. Esto equivale a decir que no hay progreso
objetivo, sino una apariencia de que lo hay, pero que no es más que el producto
de una mistificación histórica.

2
7
116
5. Hasta aquí hemos hecho una exposición bastante literal de las ideas de Kuhn.
Vamos a ver alguna crítica

 La crítica al racionalismo:
Podemos comenzar por adelantar que Kuhn no es un racionalista en el
sentido habitual. No marca una meta para la ciencia. Bien al contrario,
piensa que el progreso científico no se mide por su acercamiento a una
meta supuesta, sino por su separación del punto de partida. Tampoco cree
que haya criterios objetivos y neutrales para evaluar las teorías rivales.
Quizá el apelativo “irracionalista” sea excesivo, dado que suele estar
asociado a posiciones más radicales que las de Kuhn. Según parece era
una de las acusaciones que más le molestaban, sobre todo cuando
presuponía con ella que su filosofía no otorgaba ningún papel a la razón
en la investigación o que consideraba a la ciencia como una actividad en
muchos casos contraria a la razón, como sí hizo Feyerabend. De hecho,
Kuhn sostuvo explícitamente que la ciencia es el mejor modelo que
tenemos de racionalidad. En todo caso, no parece que se gane mucho
cambiando este apelativo por el menos comprometido históricamente de
“no-racionalista” o el poco sonoro de “arracionalista”. Basta con que
retengamos que el irracionalismo de Kuhn debe entenderse en un sentido
preciso, y no como la negación de la racionalidad de la ciencia.

Pero utilicemos el apelativo que utilicemos, para algunos de sus críticos la


noción de progreso que Kuhn asume en La estructura… resuelta
problemática. Kuhn, como decimos, rechaza la idea de que el cambio
revolucionario conduzca algún tipo de progreso objetivo hacia una meta.
Cree asimismo que para la comunidad científica termine aceptando que ha
habido un progreso son necesarias técnicas persuasivas, ya que los
argumentos racionales que puedan esgrimirse para sustentar el nuevo
paradigma son circulares. Sin embargo, por otro lado, encontremos
también pasajes que señalan hacia un cierto objetivo en la ciencia. Así,
Kuhn se muestra convencido de que, a lo largo de la historia, la sucesión
de peídos de ciencia normal y revoluciones científicas conduce a una
“comprensión cada vez más detallada y refinada de la naturaleza”. En la
posdata de 1969 parece asumir aún con más claridad esta posibilidad.
Descarta por completo la tesis realista defendida por Popper, a la que
considera incluso carente de sentido. Los cambios de paradigma no llevan
a una paroximación progresiva a la verdad, no ofrecen tampoco una
convergencia ontológica que nos acerque cada vez más al verdadero
mobiliario del mundo. Pero sostiene que hay un progreso “unidireccional
e irreversible” en la capacidad de los paradigmas para resolver problemas.
El progreso científico, al igual que el evolutivo, debe ser visto, no en
función del acercamiento a una meta, sino en función de la separación
desde un punto de partida.

2
8
117
Un intérprete acreditado de Kuhn, Hoynigen-Huene, sintetizando esta
idea, afirma que esta mayor capacidad para resolver problemas que
presentan los nuevos paradigmas tiene tres dimensiones:

o En primer lugar, y lo más importante, la teoría candidata tiene que


ser capaz de hacer frente a los problemas que desencadenaron la
crisis. Si una nueva teoría cumple esta tarea con una exactitud
mayor que su competidora anterior, este éxito es un argumento
fuerte para seleccionar la nueva teoría.

o En segundo lugar, una nueva teoría tiene que ser capaz de resolver
al menos una gran parte de los problemas resueltos por la anterior
con una exactitud comprable o mayor. Sus senderos para estas
soluciones pueden ser, sin embargo, sustancialmente diferentes de
los aceptados previamente.

o En tercer lugar, lo que también cuenta para la capacidad de


resolución de problemas de la nueva teoría es su capacidad para
predecir fenómenos inesperados desde la perspectiva de la vieja
teoría.

Parece, por tanto, que hay en Kuhn una convicción clara de que la ciencia
es una empresa progresiva en algún sentido objetivo. Sin embargo, ¿cómo
compaginar esto con las anteriores afirmaciones acerca del científico
como una victima de una historia contada por los que tienen el poder?
Después de todo, si cabe decir que los cambios de paradigma llevan a una
capacidad creciente para resolver problemas, ¿por qué no pueden apelar a
este aumento de capacidad de los partidos del paradigma vencedor? ¿Por
qué los miembros de la comunidad científica no pueden percibir el
progreso de ese modo y han de ser, en camio, adoctrinados en una
mistificación? ¿Por qué hay necesidad de inventar una historia en la que,
por definición, el paradigma vencedor es el mejor?

La respuesta a estas preguntas, siendo coherentes con las tesis de Kuhn, es


que esa mayor capacidad para resolver problemas será juzgada de
diferentes maneras por los partidarios de cada paradigma rival, sin
posibilidad de llegar a un acuerdo final sobre la cuestión, al menos
utilizando solo argumentos racionales. De acuerdo con sus propios
planteamientos, Kuhn no puede decir que el nuevo paradigma sea
objetivamente mejor que el anterior porque resuelve más o mejores
problemas. Recordemos que el cambio de paradigma implica no sólo un
cambio en las teorías, sino en las normas y en los métodos de
investigación. Esto hace que cambie también la lista de problemas que se
estima necesario resolver y, sobre todo, que cambie lo que se considere
una buena solución a un problema.

2
9
118
De ahí que los partidarios de paradigmas rivales pueden juzgar de manera
diferente los logros y fracasos de cada paradigma. Lo que para unos es una
anomalía demoledora, para otros es una pequeña dificultad pro resolver.
No hay, en consecuencia, posibilidad de comparar objetivamente la
capacidad global de resolución de problemas que tiene cada paradigma.
Sólo la victoria de un paradigma hace luego posible contar la historia de
que el nuevo paradigma tenía más capacidad para resolver problemas.

Pero si aceptamos esto, no hay ningún sentido en el que se pueda hablar


de un progreso auténtico a través de la historia de la ciencia, ni siquiera de
un progreso desde la ignorancia hasta una comprensión mejor de la
naturaleza. Decir que hemos progresado en nuestros conocimientos
científicos se convierte en sinónimo de decir que el paradigma que
aceptamos actualmente ha tenido a los anteriores y que, desde él, todo lo
anterior es visto como algo superado. La cuestión parece entonces
inevitable: hay progreso en la ciencia porque la comunidad científica
conviene en que hay progreso. Es aquí donde algunos han visto uno de los
puntos más discutibles de las ideas de Kuhn.

Un intento de salvar a Kuhn de estas críticas consiste en subrayar los


elementos de paradigma que, según el propio Kuhn, se dan a través de las
revoluciones científicas. No todo cambia con el cambio de paradigma.
Como nos dice en la estructura, “al menos parte de los logros de la ciencia
normal siempre prueba que son permanentes. Un cambio de paradigma
significa que desparecen muchos problemas y surgen otros nuevos, e
igualmente, que se pierde capacidad explicativa en algún punto y se gana
en otro. Pero algunos problemas pueden permanecer inalterados a través
del cambio. El problema de calcular con precisión las órbitas de Marte y
Venus eran común a la teoría Ptolemaica y copernicana. En la medida en
que un paradigma consiga resolver algún problema común que el otro no
resuelve o lo hace de forma menos precisa, cabría hablar de progreso
objetivo. Kuhn mismo afirma que los científicos serán reacios a aceptar
un nuevo paradigma a menos que éste no consiga resolver algún problema
destacado que no haya tenido solución hasta el momento y que no sea
capaz de prometer que conservará una gran parte de la capacidad para
resolver problemas que han desplegado los paradigmas precedentes.

3
0
119
Sin embargo, el crítico tiene todavía razones para dudar. ¿No habíamos
quedado en que para Kuhn la elección de teorías implica el uso de
argumentos circulares, ya que “la importancia de ciertos problemas y la
legitimidad de ciertas soluciones no pueden ser evaluadas en aislamiento
de las teorías sometidas a discusión”¿ Por un lado se nos dice que hay un
progreso objetivo porque aumenta la capacidad para resolver problemas,
y las soluciones a ciertos problemas van siendo mejores con independencia
de la perspectiva teórica, pero otro otro lado Kuhn sostiene que lo que se
considere un problema a resolver y una solución adecuada del mismo
depende de cada paradigma, lo cual impide hacer del recuento de
problemas resueltos un criterio objetivo de comparación de teorías.

Para el defensor de Kuhn no hay contradicción entre ambas cosas. Se trata


sólo de entender que las discontinuidades no son absolutas. El camio de
paradigma implica que muchos problemas cambian y, como las soluciones
son evaludas desde la perspectiva de cada paradigma, no puede haber
procedimientos universales que determinen la elección de paradigma por
parte de los científicos. Pero ocurre también que algunos problemas
permanecen a través del cambio y lo mismo sucede con algunos criterios
de evaluación. Ello permite un juicio comparativo entre paradigmas
rivales que no es ni arbitrario ni caprichoso, sino que obedece a buenas
razones.

Por esto mismo Kuhn protestó contra la acusación de irracionalismo. El


concebía su filosofía como un intento de mostrar que las teorías de
racionalidad existentes no son lo bastante acertadas y que debemos
reajustarlas o cambiarlas para explicar por qué la ciencia trabaja como lo
hace”. Es decir, su propósito era ampliar el concepto de racionalidad más
que desterrarlo o marginarlo. Kuhn reconoce que los científicos utilizan
argumentos racionales para explicar por qué aceptan una teoría en lugar
de la teoría rival. Argumentos que se fundamentan en criterios
tradicionalmente empleados para la evaluación de teorías, como pueden
ser la exactitud, la coherencia, el alcance, la simplicidad y la fecundidad.

El hecho de que, según su descripción del cambio de teorías, los científicos


acudan a la persuasión más que a la demostración no significa que se
comporten irracionalmente, porque la racionalidad no se reduce al uso de
la lógica. Lo que sucede es que la elección de teorías rivales no es algo
que pueda ser equiparado a una inferencia lógica. Los criterios de
evaluación, incluido el apoyo experimental, funcionan como valores, no
como reglas, y no determinan el juicio de los científicos; y los factores
externos influyen también de manera muy notable en dicho juicio.

3
1
120
Él no creía que eso fuera abrir la puerta a la irracionalidad ni hacer de la
elección de teorías una decisión sin base (aunque admite alguna
responsabilidad en haber dado pie a esa confusión). Se trataría sólo de
reconocer que no hay algoritmos de decisión en la elección de teorías y
que los criterios de elección, al funcionar como valores, ni son aceptados
en el mismo orden jerárquico por toda la comunidad científica (lo que da
lugar a conflicto de valores) ni son aplicados del mismo modo por todos
los científicos. En otras palabras, por un lado habrá quien prefiera, por
ejemlo, teorías más simples a teorías más precisas; y, por otro lado, la
simplicidad o la precisión pretendidas de una teoría no serán reconocidas
necesariamente por todos.

Si se dan por buenas estas explicaciones de Kuhn, la acusación de


irracionalismo pierde gran parte de su peso. pero eso no impide que, desde
la fecha de su publicación, muchos lectores de La estructura de las
revoluciones científicas hayan encontrado motivos para pensar que su
autor pretendía consciente y voluntariamente algo más radical que
ensanchar nuestro concepto de racionalidad científica. El racionalismo,
por muy generosamente que sea entendido, no parece encajar con la
comparación de los cambios de paradigma con los cambios de Gestalt; o
con la comparación de las revoluciones científicas con las revoluciones
políticas, en el sentido de que en la elección de paradigma “no hay norma
superior para el asentimiento de la comunidad pertinente”. Kuhn llega a
decir que la experiencia individual de un científico que cambia de
paradigma es similar a una experiencia de conversión. Pero es habitual que
los partidarios de cada paradigma no den su brazo a torcer y que el nuevo
paradigma termine triunfando sencillamente porque, por razones de
promoción profesional, suele contar con el apoyo de los científicos más
jóvenes, y éstos terminan pro ocupar las cátedras que ocupaban los
defensores del viejo paradigma. Nada de esto suena ciertamente a
racionalismo. Por eso hay quien piensa que el último Kuhn está en realidad
desmintiendo al primero.

 Otro aspecto central de la filosofía de Kuhn que ha sido objeto de fuertes


críticas es un concepto de ciencia normal. Entre los críticos están Popper,
Feyerabend y Laudan. El concepto de ciencia normal es algo
completamente opuesto al principio de proliferación de teorías, en cuya
defensa coinciden Popper y Feyerabend. Laudan por su parte aduce
principalmente razones de tipo histórico.

3
2
121
En 1965 se celebró en Londres un congreso internacional sobre la filosofía
de la ciencia que marcó historia. En él se confrontaron de una forma
decidida las diferentes concepciones de la ciencia mantenidas por Kuhn
de un lado, y por Popper, Toumlin, Lakatos y Feyerabend del otro lado.
Una parte de los trabajos de este congreso quedó recogido en el libro
editado por Lakatos y Musgravee titulado La crítica y del desarrollo del
conocimiento. La contribución de Popper llevaba por título “la ciencia
normal y sus peligros” y la del popperiano John Watkins era un más
directa: “contra la ciencia moral”.

Kuhn ha pasado a la historia como el filósofo de las revoluciones


científicas. Pero, si dejamos de lado el tema de la inconmensurabilidad en
dichas revoluciones, no es ésta su aportación más original. El propio
Popper había defendido con anterioridad la tesis de que el cambio
científico se produce mediante rupturas revolucionarias y no mediante
acumulación gradual. En cambio, el concepto de ciencia normal es una
aportación específicamente kuhniana y chocaba tanto con las posiciones
neopositivistas (a pesar de algunas similitudes parciales) como con las
popperianas. Kuhn es el primero en subrayar la existencia de largos
perídos de investigación bajo el dominio incuestionado de una gran teoría;
períodos en los que no se busca la novedad y en los que se producen una
acumulación de conocimientos, pero una acumulación relativa a un
paradigma, de mod que puede desmoronarse por completo en la siguiente
revolución científica.

Estos períodos no tienen por qué se fases aburridas y poco significativas


del desarrollo de la ciencia. Ni los resultados obtenidos en ellos tienen por
qué ser siempre rutinarios o menores. Entre lo que Kuhn entiende por
ciencia normal cabría contar por ejemplo el proyecto Genoma Humano o
las investigaciones sobre computación cuántica y sobre los agujeros
negros. Buena parte de los trabajos que en la actualidad atraen la
imaginación del público a través de los libros de divulgación científica
podrían en principio ser clasificados como propios de la ciencia normal
kuhniano, al menos en el sentido que no buscan romper con el marco
teórico en que surgen, sino resolver enigmas.

De lo que Popper y Feyerabend acusan al concepto de ciencia normal es


precisamente de conservadurismo. Consideran que Kuhn está
promoviendo con él el dogmatismo, la mentalidad acrítica y la sumisión a
la autoridad científica establecida. Lo que a Popper le parece mal es que
Kuhn considere “normal” a la ciencia normal, o sea, que le parezca una
tarea necesaria y encomiable, más que algo digno de censura. Los
científicos normales son personas poco imaginativas que realizan una
tarea de aplicación y no de auténtica creación.

3
3
122
Popper piensa que “pocos, si es que hay alguno, de los científicos que han
pasado a la historia por ser científicos “normales” en el sentido de Kuhn.
Cree además que la distinción entre ciencia normal y ciencia
extraordinaria no debe ser tajante, y que muchos científicos están situados
en una amplia graduación intermedia entre ambos extremos. Según
Popper, el error que está detrás de la noción de ciencia normal kuhniana
como dominio incuestioanado de un paradigma es lo que él denomina “el
mito del marco”.

Consiste en afirmar que no es posible la discusión racional a menos que se


comparta un lenguaje común y un conjunto común de supuestos, y que ese
marco no puede ser sometido él mismo a crítica. Frente a ello, Popper
sostiene que si bien estamos siempre situados en un cierto marco general,
podemos criticarlo y escapar de él en cualquier momento. La discusión
crítica es siempre posible, aunque por desgracia haya habido periodos,
incluso en la ciencia, en los que haya desaparecido. Es dudoso, sin
embargo, que Kuhn pueda ser acusado de algo similar, pues al fin y al cabo
él insiste en que es posible la discusión racional entre defensores de
diferentes paradigmas y sostiene que los paradigmas, una vez se ha entrado
en un periodo de crisis, son objeto de crítica rigurosa.

Por otra parte, cabe argüir que Kuhn no recomendaba ni hacía encomio de
la ciencia normal, sino que se limitaba a describir algo que sucede en la
práctica científica nos guste o no. No sabemos cómo sería una ciencia más
crítica y más democrática, pero en todo caso, según Kuhn, la ciencia real,
la única que tenemos, presenta periodos de ciencia normal, y los presenta
con independencia de lo poco conservadores e intelectualmente
aventurados que quieran ser los científicos de cada momento. En la ciencia
real uno no puede desembarazarse de un paradigma a voluntad; la
revolución permanente que propone Popper es algo que simplemente no
puede existir. Por muy crítico que uno quiera ser, el paradigma no será
abandonado por otro hasta que no se den las condiciones apropiadas. Pero
es que además muy pocos científicos querrán ser críticos con el paradigma
mientras que no haya razones para ello. Este modo de salvar a Kuhn de la
crítica de Popper exige más estudios histórico-sociológicos que puedan
determinar si, en efecto, la ciencia normal que Kuhn dice describir es algo
que puede ser detectado un buen número de episodios históricos concretos.

3
4
123
El caso es que también se ha puesto en cuestión que la historia de la ciencia
le dé la razón a Kuhn. Según Feyerabend, lo que ésta muestra es que no
existe la ciencia normal y que en cualquier período proliferan las teorías
rivales. Feyerabend admite que esta proliferación de teorías se da
mezclada también cierta tenacidad por parte de los científicos. Pero
rechaza que haya periodos sucesivos de tenacidad y de proliferación. En
su sentido similar se expresó también Lakatos. En su libro El progreso y
sus problemas, Laudan declara que “prácticamente todos los periodos
importantes en la historia de la ciencia se caracterizan tanto por la
coexistencia de numerosos paradigmas en competencia, sin que ninguno
ejerza la hegemonía sobre el campo, como por la manera persistente y
continua en que son debatidos por la comunidad científica los supuestos
fundamentales de cada paradigma”; y páginas después añade que Kuhn
“no puede señalar ninguna ciencia importante en la que el monopolio de
un paradigma haya sido la regla, ni en la que el debate sobre fundamentos
haya estado ausente”.

En parte como consecuencia de estas críticas, Kuhn tenido a suavizar el


concepto de ciencia normal. A partir de la posdata de 1969, como hemos
mencionado, habla de la estructura micocomunitaria de la ciencia, y afirma
que las revoluciones no son sucesos raros sino que pueden darse
microrrevoluciones en el sentido de diferentes comunidades con relativa
frecuencia. Esto implica, ciertamente, un acercamiento a Popper, aunque
continúe habiendo diferencias notales, especialmente en el modo en que
se produce la elección de teorías. Y, de nuevo, algunos críticos han
estimado que tal acercamiento sígnifica una disolución en la práctica del
concepto de ciencia normal.

Recientemente, Alexander Bird ha vuelto a cuestionar la plausabilidad


histórica del modelo kuhniano de cambio científico. En especial, si se
toma en sus lazos iniciales de pequeños cambios acumulativos en la
ciencia normal seguidos de grandes cambios revolucionarios. Bird objeta
que no todos los cambios que se producen en la ciencia moral son
acumulativos, ni que todos los cambios revolucionarios implican la
revisión del paradigma. Hay cambios pequeños, que se dan en períodos de
ciencia normal y, por tanto, no viene precedidos por crisis, que implican,
sin embargo, revisiones del paradigma. Bird cita como ejemplos el
descubrimiento de los rayos X por parte de Röngten y el descubrimiento
por parte de Hubble de que el universo está en expansión.

3
5
124
Hay, por otro lado, grandes cambios revolucionarios en un sentido amplio
del término que no llevan a la revisión del paradigma, ni presentan
especiales problemas de inconmensurabilidad. Son revoluciones que
ofrecen un cambo acumulativo. Como ejemplos cita a la teoría
electromagnética de Maxwell, el descubrimiento de la estructura
molecular del ADN, etc… Así pues, no tras las revoluciones científicas
vinieron precedidas de una crisis en la ciencia moral. La teoría especial de
la relatividad de Einstein si vino después de una crisis, pero la teoría de la
relatividad general, que también fue revolucionaria, no lo hizo. El caso de
la estructura del ADN resulta para Bird especialmente revelador de la
influencia del modelo kuhniano: “un descubrimiento que muchos
consideran como el más importante del siglo sencillamente no encaja en
la descripción que Kuhn hace del desarrollo científico”.

Bird señala por ello que la indiferencia entre la ciencia normal y la ciencia
extraordinaria no es siempre tan grande como Kuhn pretende, y que ciertos
episodios históricos sugieren que más bien existe una amplia graduación
intermedios entre ambos extremos. Los casos más innovadores de la
ciencia normal estarían muy próximos a los casos más conservadores de
la ciencia revolucionaria.

PUNTO 5: EL ANARQUISMO EPISTEMOLÓGICO DE PAUL FEYERABEND


El siglo XX no sólo ha presenciado cambios importantes en diferentes disciplinas
científicas, de los que los habidos en la físico, por el momento, los que más impacto
filosófico han tenido. A partir de la segunda guerra mundial se produjo un fenómeno no
menos significativo y amplio en sus efectos. Buena parte de la población mundial
comenzó a experimentar en carne propia como la ciencia, a través de la tecnología, iba
cambiando para bien y para mal, a un ritmo mayor que el que muchos podían asimilar,
las condiciones de su vida y de su entorno.
Desde la primera mitad del siglo XIX la ciencia y la tecnología habían tenido ya
ciertamente efectos muy importantes en la vida de las personas (iluminación eléctrica,
mejoras sanitarias, medios de transporte, industria química), pero estos cambios dejaban
todavía fuera a una gran parte de la población, que seguía viviendo como en los siglos
anteriores, y no fueron lo suficientemente espectaculares o amenazantes como para llamar
la atención más que de algunos artistas y de filósofos de especial sensibilidad histórica,
como Ortega y Heidegger. A partir de la Segunda Guerra mundial, sin embargo, se hizo
evidente que la supervivencia de la humanidad dependía inexorablemente del desarrollo
científico y técnico y que, paradójicamente, nunca como en ese momento había estado
tan amenazada por la existencia humana debido al enorme poder de destrucción que ese
desarrollo ponía en nuestras manos.

3
6
125
La propia investigación científica se fue separando cada vez más del ideal de
conocimiento desinteresado y público que todavía permanecía en la mente de muchos
científicos. Por poner un ejemplo significativo, una buena parte de los biólogos
moleculares norteamericanos son hoy accionistas de empresas biotecnológicas. La unión
entre ciencia, industria y poder político se ha ido estrechando cada vez más. Es hoy
impensable llevar a cabo algunas investigaciones serias en algunas disciplinas científicas
si no es mediante grandes recursos tencnológicos y económicos. A este tipo de
investigación muy diferente de la investigación relativamente individualizada y austera
en su financiación que todavía prevalecía a primeros del siglo pasado, se ha designado
como gran ciencia o incluso tecnociencia. Todo ello ha transformado la imagen pública
de la ciencia. El respeto ha ido cediendo a actitudes críticas que han encontrado amplio
eco en sectores intelectuales y en la población en general.
Paul Feyerabed (1924-1994) fue uno de los primeros filósofos que sintonizaron con los
movimientos sociales que los 60 iniciaron campas de protesta contra el sistema político y
cultural prevaleciente en los estados unidos y en Europa, cuya firmeza atribuían a la
alianza entre le poder militar, el poder político y la ciencia. Feyerabend no presentó un
modelo articulado de progreso científico, entre otras cosas porque llegó al
convencimiento de que la ciencia no era un sistema unificado del que pudieran decirse
cosas en general y, por lo tanto, no tenía siendo proponer un modelo universal de
progreso. Su obra estuvo centrada más bien en una crítica de dichos modelos,
especialmente del neopositivista y el popperiano. Además, con el tiempo se ocupó cada
vez del papel de la ciencia en la sociedad, y de los aspectos políticos y sociales
relacionados con la ciencia, y menos de cuestiones estrictamente epistemológicas. Sin
embargo, Feyerabend hizo también algunas propuestas positivas acerca del modo en que
se produce el cambio científico, como la tesis de la incomensurabilidad de las teorías
rivales, que comparte con Kuhn, el pluralismo metodológico y el principio de
proliferación de teorías.
Feyerabend, formado como astrónomo, atacaba constantemente el mito formado en torno
a la ciencia, en buena medida a causa de los filósofos. El “mito de la ciencia” es un
pequeño “cuento de hadas” que lleva a muchas personas a someterse a la autoridad de la
ciencia en ámbitos en los que no debería tener una especial autoridad, sobre todo en el
político. Ese mito dice que la ciencia posee un método riguroso para alcanzar
conocimientos verdaderos. Feyerabend dedicó buena parte de sus esfuerzos a explicar
que no exista tal método, que la ciencia no dispone de un recurso específico para
garantizar siempre sus resultados. En realidad, lejos de ser un enemigo de la ciencia,
Feyerabend intentó siempre mejorarla haciéndola más humana, menos dogmática y más
democrática.

3
7
126
No obstante, hay que admitir que su estilo sumamente caústico y sus provocaciones
constantes al lector obligan a no tomar literalmente todas sus afirmaciones. En ocasiones
su pretensión no es que se le tome en serio en todo lo que dice, sino poner en ridículo a
su adversario, el filósofo racionalista, ya sea en su variante positivista, ya sea en su
variante popperiana. Hay también ocasiones en las que lo que se desea es poner de
manifiesto las consecuencias a las que llevaría el racionalismo si fuera desarrollado
coherentemente, y que el racionalista se niega a extraer por considerarlas indeseables.
Pero quizás los pasajes más polémicos son aquellos en los que asume directamente la
defensa de posturas antrirracionalistas, como cuando coaliga la ciencia y el mito, o la
medicina y el curanderismo; o cuando propone dejar que los padres elijan en las escuelas
públicas si sus hijos deben estudiar física y astronomía o magia y astrología; o cuando
sugiere que el vudú podía ayudar a enriquecer e incluso revisar nuestros conocimientos
de fisiología.
Creo que estos pasajes deben ser interpretados como una advertencia al racionalista: hay
alternativas que éste ni siquiera se ha parado a considerar y que merecen al menos un
conocimiento mayor en lugar de ser desestimadas como absurdas sin ningún argumento.
En particular, Feyerabend intenta mostrar que hay tradiciones culturales despreciadas o
ignoradas pro el racionalista que se las arreglaron muy bien sin ciencia durante mucho
tiempo y que no merecen ser arrasadas por el imperialismo cultural de Occidente, entre
otras razones porque algunas han ejercido y pueden todavía ejercen una influencia
beneficiosa sobre la propia ciencia. Desde la perspectiva de alguna de estas tradiciones,
logros de la ciencia occidental pueden ser juzgados además de un modo mucho menos
entusiasta del que el racionalista suele hacerlo.
1. La proliferación de las teorías

Feyerabend comenzó siendo primero un positivista y después un popperiano, pero


su alejamiento posterior, en la década de los 60, de ambas filosofías fue creciendo
hasta volverse frontalmente contra ellas a partir de los 70. Aun así, y pese a las
descalificaciones que hizo Popper, algunas de sus propuestas como su rechazo del
inductivismo, el principio de proliferación de teorías y la necesidad de una crítica
constantemente en la ciencia, mantuvieron un claro sabor popperiano. Su primera
obra importante fue un artículo de 1962 titulado “Explicación, reducción y
empirismo”. En él se realiza una crítica profunda de la visión neopositivista de la
reducción de teorías y de la explicación científica, e introduce la noción de
inconmensurabilidad de las teorías. El falsacionismo ingenuo es también criticado
por Feyerabend, quien sostiene que “las teorías comprehensivas no pueden ser
eliminadas por una confrontación directa con los hechos”.

3
8
127
En este artículo esboza ya algo que será un elemento central de su filosofía: el
principio de proliferación de teorías. “Mientras que la unanimidad de opinión -
escribe-puede ser adecuada para una iglesia, o para los seguidores complacientes
de un tirano, o de algún otro tipo de “gran hombre”, la variedad de opiniones es
una necesidad para la ciencia y, a fortiori, para la filosofía”. En obras posteriores
Feyerabend desarrolla la tesis de que tanto la metodología inductivista del
neopositivismo como la metodología falsacionista popperiana son construcciones
que ni favorecen la investigación ni son respetadas realmente por los científicos
que han contribuido al progreso de la ciencia. Éste es, de hecho, el tema de su obra
principal, el Tratado contra el método, publicada en 1975, y en la que nos
basaremos para nuestra exposición de lo que fue su pensamiento maduro.

No existe el Método científico, así con mayúsculas: no hay un conjunto de normas


que sean seguidas universalmente por los científicos para hacer ciencia. En esto
se resume dicha obra. Cualquier conjunto de norma metodológicas que queremos
seleccionar ha sido incumplida en algún momento de la historia de la ciencia. Y,
lo que es más, afortunadamente ha sido así, porque la ciencia progresa gracias a
que la razón y las normas metodológicas son dejadas de lado en muchas ocasiones.
Si alguien, siguiendo los dictados de racionalismo, se empeña en señalar una
norma universal que no inhiba el progreso en la ciencia, esa norma debería ser el
“todo vale”. Feyerabend no está diciendo que cualquier cosa que hagamos puede
pasar por científica y que no haya reglas de ningún tipo en la ciencia. Lo que
afirma es que los científicos son oportunistas metodológicos, es decir, no se atan
a ninguna metodología rígida y permanente, al modo de las ofrecidas por los
filósofos de la ciencia, porque todas tienen sus limitaciones, aunque ciertamente
su trabajo siga en cada caso una metodología particular. Feyerabend defiende,
pues, un pluralismo metodológico: no hay un método en la ciencia, sino una
diversidad de métodos aprovechables en unas circunstancias e inútiles en otras.
Como acertadamente apunta Miguel Ángel Durán, “el principio de todo vale
significa que, en unas determinadas circunstancias histórico-científicas, formas
determinadas de proceder juzgadas epistemológicamente ilícitas por vulnerar una
ley epistemológica establecida podrían; sin embargo, ser beneficiosas para el
desarrollo de la ciencia”.

Según nos dice Feyerabend, este pluralismo metodológico, así como el principio
de proliferación de teorías, tuvieran una de sus fuentes de inspiración en la defensa
de la libertad de expresión y de la tolerancia efectuada a mediados del XIX por
John Stuart Mill en On Liberty. En esta obra Mill aducía como una de las razones
en favor de la libertad de expresión el que, incluso en el caso de que estuviéramos
ya en disposición de la verdad, la presentación detallada de una opinión contraria
podría significar un desafío que ayudara a mejorar nuestros argumentos y a
percibir con más claridad la corrección de nuestras opiniones. “Siempre hay
esperanza cuando las gentes están forzadas a oír las dos partes, cuando tan sólo
oyen una es cuando los errores se convierten en prejuicios y la misma verdad,
exagerada hasta la falsedad, cesa de tener los efectos de la verdad”.

3
9
128
2. Anarquismo epistemológico y contra-inducción

El anarquismo epistemológico que Feyerabend propugna (o dadaísmo


epistemológico) no es, según esto, un rechazo de cualquier regla o cualquier
método en la ciencia. No considera, como el anarquismo ingenuo, que odas las
reglas carecen de valor y deben ser abandonadas. El anarquismo epistemológico
es una defensa de un uso plural y contextualizado de las reglas, siendo siempre
conscientes de que todas las reglas tienen sus limitaciones. A lo que si se opone
radicalmente el anarquista epistemológico es al uso de las ideas universales como
“verdad”, “razón”, “justicia”, etc… El anarquismo epistemológico no debe ser
entendido tampoco como una nueva verdad en la que creer o como una posición
permanentemente válida. Feyerabend lo presenta como una medicina para la
epistemología. Una medicina que debería ser abandonada su la epistemología
consigue curarse y retorna a una forma de racionalidad más ilustrada y liberal.

La proliferación de teorías, incluyendo teorías contrarias a los hechos


supuestamente establecidos, y la oposición a la racionalidad dominante y las
teorías aceptadas son los mejores medios para fomentar el progreso. Por esa razón
Feyerabend propone que, en las ocasiones en que lo necesite, el científico proceda
“contrainductivamente”, esto es, desarrollando precisamente teorías
inconsistentes con las teorías aceptadas y/o hechos establecidos. Hasta el
desarrollo de las teorías falsadas puede ser útil en un momento dado. Adoptar una
metodología pluralista y completamente oportunista, es el mejor modo de hacer
avanzar la ciencia. El proceder contrainductivo viola, evidentemente, la exigencia
neopositivista de que las nuevas teorías sean consistentes con las teorías aceptadas
y bien confirmadas. Pero este principio de consistencia, según Feyerabend, es
contraproducente para el progreso, porque favorece a la teoría más antigua, no a
la mejor. En cambio, el proceder contrainductivo tiene efecto particularmente
saludable: algunos hechos capaces de refutar las teorías aceptadas no podrían
haber sido descubiertos si no hubiera sido desde la perspectiva de una nueva teoría
que entraban en conflicto con las primeras.

Los hechos bien conocidos están constituidos por ideologías más antiguas y el
choque con ellos puede ser una señal de progreso. El desarrollo de teorías
inconsistentes con las teorías y los hechos establecidos permite así evaluar
críticamente los supuestos ocultos que subyacen a las teorías vigentes e impregnan
a las observaciones realizadas desde ellas. Al contemplar una teoría vigente desde
el alejado punto de vista que ofrecen otra teoría inconsistente con ella podemos
detectar en la primera fallos que no hubieran emergido sin esa ayuda exterior. Por
otra parte, toda teoría tiene o tuvo en algún momento hechos en contra, de modo
que no hay que obsesionarse por hacer encajar una nueva teoría con todos los
hechos conocidos.

4
0
129
Es digna de apreciar la inversión que Feyerabend realiza con ello del
planteamiento popperiano. Para Popper, el choque entre teoría y hechos falsa la
teoría, por eso la nueva teoría, que encaja con ellos, significa un progreso. Para
Feyerabend la vieja teoría suele ser la que mejor encaja con los hechos conocidos,
pro eso el choque de una nueva teoría con ellos puede representar un progreso, en
la medida en que la nueva teoría traeran consigo hechos nuevos que no coinciden
con las anteriores.

Como ilustración de estas tesis Feyerabend cita el caso de la defensa del


copernicanismo por parte de Galileo. Los aristotélicos presentaron contra el
copenrnicanismo objeciones interesantes y de difícil réplica. El argumento de la
torre es una de ellas. Si la Tierra girara en torno al Sol, una piedra arrojada desde
una torre no caería al pie de la misma, sino a una gran distancia en la dirección
contraria al movimiento de la Tierra. Según Feyerabend, en su respuesta a este
argumento, Galileo introdujo, sin que se percibieran como novedades teóricas,
como si no fueran más que mero sentido común, interpretaciones naturales que
daban apoyo encubierto al copernicanismo, a saber: la idea de que sólo el
movimiento relativo es operativo o detectable, y la ley de la inercia circular. Estas
interpretaciones naturales son ideas estrechamente conectadas con la observación.
En este caso Galileo consigue introducirlas por su plausibilidad inicial y como
hipótesis ad hoc. Así, Galileo sostuvo que en realidad la piedra cayendo desde la
torre presenta un movimiento con dos componentes, uno vertical hacia el pue de
la torre y otro en dirección del movimiento de la tierra. Sólo percibimos el primero
porque el segundo lo comparte la piedra y el observador.

Galileo empleó técnicas propagandísticas y de persuasión: escribió en italiano en


lugar de en latín, apeló a los gustos populares por las nuevas ideas y oposición a
las viejas. Esto muestra que los procedimientos irracionales son con frecuencia
necesarios para que las nuevas ideas se impongan. La oposición a la razón es
fuente de progreso. El racionalismo tiene, pues, poco que ver con el progreso de
la ciencia. La teoría copernicana, por ejemplo, presentaba, presentaba tantos
problemas como la teoría ptolemaica. Si consiguió triunfar sobre ésta fue por estar
más acorde con una idea aun más problemática que ellas dos: que las imágenes
ofrecidas por telescopio son más fidedignas. Lo racional en este caso habría sido
comportarse como los aristotélicos y no dar por buenas las imágenes del cielo
obtenidas mediante un instrumento cuya finalidad era cuestionable. Muchas ideas
novedosas han sobrevivido precisamente debido al empuje que recibieron de
factores irracionales y porque e impusieron con éxito a los preceptos de la razón.
Si se hubiera seguido dichos preceptos ideas que hoy consideramos esenciales en
la ciencia habrían sido simplemente eliminadas.

4
1
130
3. Ciencia y poder político

Desde la publicación del tratado contra el método, Feyerabend dedicó una


atención creciente a las cuestiones relacionadas con el papel político que
desempeña la ciencia en la sociedad actual y con los efectos negativos que la
autoridad concedía a la misma tiene sobre la democracia. Estas reflexiones fueron
una extensión coherente de su antirracionalismo y su dadaísmo epistemológico y
le proporcionaron un mayor número de lectores del que habría conseguido solo
con sus trabajos históricos o epistemológicos. A ellas debó su amplio
reconocimiento en los movimientos contraculturales.

Feyerabend sostiene que la ciencia no es neutral desde el punto de vista ideológico


y cultural. Como la ciencia se autoidentifica, como lo hace hoy en día, como el
único conocimiento válido, adquiere una función ideológica, ya que busca con
ello imponer sus valores y sus prejuicios sobre otros enfoques alternativos. Debe
ser tratado entonces como cualquier ideología; dejando total libertad a los
individuos para aceptarla o rechazarla. Debe impedirse sobre todo su control
permanente del Estado y del proceso educativo. La ciencia debe separarse del
Estado igual que se consiguió la separación entre Iglesia y Estado. Si se sigue
concediendo a la ciencia una autoridad intelectual que no le corresponde, en parte
se debe al error de pensar que dispone de un método que le priete acceder a la
verdad objetiva y ser juez de todas las ideologías, lo cual es falso.

Pero la alianza con el Estado ha proporcionado a la ciencia además una actividad


social tan poderoso, que se hace necesario volver a situar incluso en su lugar,
incluso por su propio bien, pues de ese modo conseguiríamos una ciencia más
humana, más culta y más acorde con una sociedad libre. Feyerabend entiende por
sociedad libre, no aquella en la que todos los individuos tienen igualdad de
oportunidades para acceder al poder tal como es definido por una determinada
tradición (la tradición de la Ciencia Occidental), sino aquella en la cual todas las
tradiciones culturales tienen iguales derechos e iguales oportunidades de acceso a
la educación y al poder. En esto consiste el relativismo político que él defiende y
que tiene buen cuidado de distinguir del relativismo filosófico que rechaza
explícitamente. El relativismo filosófico sostendría que todas las tradiciones o
todas las teorías son igualmente verdaderas o igualmente falsas.

Frente a la opinión común, Feyerabend no considera que la ciencia sea


intrínsicamente liberadora. Ninguna ideología lo es. Una ideología que durante un
tiempo ha sido liberadora puede convertirse en opresora cuando domina sin
ningún contrapeso y se convierte en un dogma. Y eso es lo que le ha sucedido a
la ciencia, según su opinión. Hubo un tiempo en que sirvió para acabar con el
poder de la religión y de la superstición, pero hoy en día es un gran negocio y un
tirano que merece ser derrocado, aunque para ello haya que recurrir alguna
falsedad.

4
2
131
Urge, pues, un control democrático de la ciencia por parte de los ciudadanos. La
autoridad de los expertos no debe prevalecer en cuestiones que afectan a todos,
como la energía nuclear, la medicina pública, el reparto de fondos para la
investigación, etc… primero porque no haya que haga la ciencia superior a otras
formas de conocimiento, y segundo, porque el juicio de los expertos es siempre
un juicio interesado. Se puede consultar a los expertos sobre estas cuestiones, pero
poniendo siempre en cuestión sus respuestas.

4. El problema del resultado y la imposición cultural

Aparte de por la posesión de un método para alcanzar la verdad, otra razón por la
que se suele considerar que la ciencia es superior a oras tradiciones culturales es
por sus resultados. Se suele pensar que la ciencia consigue resultados prácticos
que no son comprables con los que pueden hallarse en otras tradiciones. Pero,
según Feyerabend, esto es un supuesto que no ha recibido un análisis serio. Otras
tradiciones han proporcionado también importantes resultados prácticos, y
además, desde la perspectiva de éstas, puede que los resultados de la ciencia no
sean tan impresionantes. Al fin y al cabo, responden a problemas y finalidades
que no son lo suyos. Para aquel cuyo objetivo en la vida es salvar su alma, la
ciencia es de poca utilidad. Cuando el racionalista defiende la superioridad de la
ciencia da por sentado los estándares que hacen de la ciencia algo valioso, pero
no se para a pensar que esos estándares son precisamente los que otras tradiciones
no aceptan.

La supuesta superioridad de la ciencia se debe más a las presupones políticas y


militares que a los argumentos. Sencillamente la cultura científico-técnica era la
cultura de los conquistadores. La competencia no fue igualitaria. Por otra parte,
quienes creen en la superioridad práctica de la ciencia sobre otras tradiciones
olvidan lo mucho que deben a estas. Olvidan lo que la ciencia debe al pitagorismo
y al platonismo, o lo que la medicina debe al herbarismo, a las comadronas y
magos. Pero, aunque la ciencia fuera superior a otras culturas, no hay ninguna
razón por la que deba imponerse sobre ellas y constituirse en la base misma de la
sociedad.

5. Estas son, rápidamente, las ideas más originales de Feyerabend. Hagamos ahora
sobre ellas algo de balance. Puede decirse que el pluralismo metodológico ha sido
uno de sus principales legadas. Como escribe Preston:

Hay una cierta corriente del pluralismo metodológico en la filosofía contemporánea de la


ciencia que puede retrotraerse hasta Feyerabend, y que manifiesta un escepticismo hacia
la supuesta “unidad” de la ciencia. Según esta opinión, no debemos exagerar la
uniformidad de las ciencias: ciencias diferentes tienen simultáneamente métodos muy
diferentes, y estadios distintos en la historia de una misma ciencia exhiben también
métodos diferentes.

4
3
132
Esto no quiere decir que los argumentos de Feyerabend a favor del anarquismo
epistemológico hayan sido generalmente aceptados. Más bien al contrario. Una
cosa es aceptar la pluralidad de métodos en la ciencia y otra que la libertad para
seguir cualquier método sea total. Ciertas cosas, pese a todo, no son posibles en
la ciencia. Su visión irracionalista del cambio científico ha sido considerada por
muchos como una exageración basada sólo en algunos casos históricas de
incumplimiento de normas metodológicas que, en realidad, eran normas mucho
más flexibles de lo que Feyerabend querría admitir. E incluso algunos
historiadores han cuestionado la interpretación que ofrece de estos casos
históricos.

Lo que quizá haya tenido una recepción menos complaciente, si exceptuamos los
sectores posmodernos o contraculturales, han sido sus tesis sobre el papel de la
ciencia en la sociedad. Su relativismo cultural adolece de graves dificultades
internas. Una preocupación volcada en conseguir la igualdad de oportunidades
para todas las tradiciones culturales puede ir en detrimento de la defensa de los
derechos del individuo frente a las imposiciones de cualquier tradición cultural.
El peligro de que los individuos quedan atrapados en tradiciones culturales que
imponen sobre ellos constricciones intolerables desde el punto de vista de los
derechos humanos no es hoy en día un riesgo menos desdeñable y extendido que
el de que la ciencia y la tecnología produzcan una homogenización cultural
empobrecedora.

En todo caso, el último Feyerabend matizó de forma significativa las tesis


relativistas que le dieron fama. En alguna de sus obras más tardías reconoció que
la sugerencia de dejar en paz a las tradiciones cultural distintas de la nuestra en un
principio general inútil porque las tradiciones, por su propia naturaleza, intentan
siempre ir más allá de sus fronteras con ayuda del poder militar, económico o
espiritual. Además, las tradiciones nunca están bien definidas, se entrecruzan unas
con otras en redes mundiales. No obstante, Feyerabend propone que aquellas
tradiciones que se ven a sí mismas como tales y en las cuales los propios actores
marcan sus límites sean consideradas como teniendo un valor intrínseco. Si bien
esta recomendación no ha de ser entendido como un principio absoluto. Puede
justificarse la imposición y el uso de la fuerza contra una tradición cultural en
casos extremos, pero siempre después de haber examinado lo más a fondo posible
dicha tradición y habiendo obtenido un conocimiento profundo de ella.
En su autobiografía intelectual, titulada Matando el tiempo, y concluida poco antes de su
muerte, mientras que continúa reivindicando el oportunismo metodológico del Tratado
contra el método, se distancia aun más relativismo allí defendido:
Considerando cuanto han aprendido unas culturas de otras y con qué genio han
transformado los materiales reunidos de ese modo, he llegado a la conclusión de que cada
cultura es en potencia todas las culturas, y que las características culturales especiales son
manifestaciones intercambiables de una sola naturaleza humana (…) El objetivismo y el
relativismo no sólo son insostenibles como filosofías, sino que también son malas guías
para una colaboración cultural fructífera.

4
4
133
PUNTO 6: LA TESIS DE LA INCONMENSURABILIDAD DE LAS TEORÍAS
La inconmensurabilidad es sin duda el problema filosófico más profundo e interesante
ligado a la filosofía de Kuhn y Feyerabend, y probablemente una de las aportaciones más
importantes de la filosofía de la ciencia a la discusión filosófica del siglo XX. Como
escribe Ana Rosa Pérez Ransanz, “en ella se encuentra la raíz de las principales
desviaciones respecto de los enfoques tradicionales en la filosofía de la ciencia”. Y, sin
embargo, es también un asunto sumamente controvertido desde que surgió por primera
vez hasta nuestros días. Por un lado, existen en la literatura nociones muy dispares acerca
de lo que dicho problema significa -propiciados en buena medida por los cambios
efectuados por el propi Kuhn en sus posiciones iniciales-; por otro, se ha dicho que su
influencia ha ido mucho más allá de lo que la tesis realmente da de sí e incluso que no
existe la inconmensurabilidad en absoluto, o que si existe es inocua.
La tesis de la inconmensurabilidad de las teorías científicas apareció formulada por
primera vez en La estructura de las revoluciones científicas y en el ensayo de Feyerabend
Explicación, reducción y empirismo, ambos publicados en 1962. Kuhn ha reconocido que
él y Feyerabend emplearon el término con independencia el uno del otro, pero
coincidiendo en lo sustancial. No obstante, Feyerabend hacía de él un uso más restringido
(lo aplicaba sólo al lenguaje, y no a los problemas métodos y normas, como hacía Kuhn),
a la vez que más radical (afectaba a todos los términos primitivos de las teorías
comprehensivas rivales, y no sólo a unos pocos). Al quedar limitada a los aspectos
lingüísticos de ciertas teorías, la noción de Feyerabend no incluía como incomensurables
casos que sí cabía bajo la de Kuhn, como el de las teorías ptolemaicas y copernicana.
1. La definición

 En la estructura, Kuhn describe así la cuestión:

Los paradigmas sucesivos nos dicen diferentes cosas sobre la población


del universo y sobre el comportamiento de esta población (…) Pero los
paradigmas difieren en algo más que en la sustancia, ya que se dirigen no
sólo a la naturaleza, sino también de vuelta hacia la ciencia que los
produjo. Son la fuente de los métodos, ámbito de problemas y normas de
solución aceptados por una comunidad científica madura en un momento
dado. Como resultado, la recepción de un nuevo paradigma hace
necesaria a menudo una redefinición de la ciencia correspondiente.

Algunos viejos problemas pueden ser relegados a otra ciencia o


declarados como “no científicos” en absoluto. Otros que no existían
practicamente o que era triviales pueden, con un nuevo paradigma,
convertirse en arquetipos mismos de logro científico significativo. Y
cuando los problemas cambian, lo hacen también frecuentemente las
normas que distinguen las oscilaciones científicas reales de una mera
especulación metafísica, un juego de palabras o un pasatiempo
matemático. La tradición de ciencia normal que emerge de una
revolución científica no sólo es incompatible, sino a menudo realmente
inconmensurable con la tradición anterior.

4
5
134
 A su vez Feyerabend afirmaba que toda teoría general nueva implica
cambios en la ontología y en el significado de los términos fundamentales
del lenguaje, tanto teórico como observacional, empleado por las teorías
anteriores. Puede decirse entonces que dos teorías son inconmensurables
en el sentido de que los conceptos de una “no pueden ser definidos sobre
la base de los términos descriptivos primitivos de la segunda, ni
conectados a través de un enunciado empírico correcto”. Intentaba
desmontar así dos principios que subyacían a la concepción neopositivista
del progreso científico como reducción de teorías y que Feyerabend
considera falsos: el principio de deducibilidad o de consistencia y del
principio de invariación del significado. El primero dice, en lo que a
nosotros nos interesa ahora que todas las teorías exitosas en un dominio
dado tienen que ser mutuamente consistentes; el segundo que los cambios
de las teorías no deben cambiar el significado de los principales términos
descriptivos.

En contraste con esto Feyerabend sostiene que las teorías universales


rivales no son lógicamente interconectables, y que el significado de los
términos científicos depende de la teoría en que se encuadran y cambian
cuando camba ésta.

Kuhn y Feyerabend basan la tesis de la inconmensurabilidad en algunos principios


comunes.

 En primer lugar, para ambos la sustitución de una gran teoría por otra en
el sentido de una disciplina científica es un proceso de tipo revolucionario
que rompe drásticamente con la situación cognitiva anterior y en el que no
cabe hablar de acumulación de verdades.

 En segundo lugar, ambos comparten una concepción holista del


significado de los términos científicos. El significado de un ´termino
vendría dado por el papel que desempeña en la teoría y por el sistema de
relaciones conceptuales que establece con los temas términos. Un mismo
término puede significar cosas diferentes en el contexto de teorías
diferentes.

 Finalmente, ambos asumen la tesis de la carga teórica de la observación.


No hay una base puramente observacional que sirva como fundamento
neutral para dirimir disputas teóricas. Toda observación presupone la
validez de una teoría.

4
6
135
La inconmensurabilidad es el resultado de estos tres elementos, sin que ello deba
hacernos perder de vista que Kuhn y Feyerabend llegaron a ella a partir de estudios
históricos y no mediante una reflexión puramente epistemológica. El holismo del
significado implica que el cambio de teorías conlleva un cambio en el significado
de los términos empelados en la ciencia, incluidos los observacionales. La visión
revolucionaria del cambio de teorías implica que estos cambios de significado
pueden ser muy profundos y representar discontinuidades. La tesis de la carga
teórica implica que no es posible acudir a la observación para poder mantener un
terreno común en el que fundamentar la red de relaciones significativas entre los
términos de una teoría; el cambio de teoría conlleva también un cambio en el
significado de los términos observacionales y no sólo en el de los teóricos.

2. Inconmensurabilidad e incomparabilidad

Kuhn toma el término “inconmensurabilidad” de las matemáticas. En geometría


tiene el sentido preciso de la inexistencia de una unidad común de medida con la
que medir dos longitudes determinadas. Por ejemplo, la hipotenusa de un
triángulo rectángulo isósceles es inconmensurable con sus lados. Si disponemos
de una unidad que pueda medir con exactitud uno de sus lados entonces esa unidad
no podrá medir con exactitud la hipotenusa. Quedará un resto que no encajará con
dicha unidad. Del mismo modo, la longitud de un círculo es inconmensurable con
la longitud de su radio. Podemos tomar unidades de medida que sean cada vez
más precisas, y así la comparación entre longitudes será cada vez mejor, pero
nunca será exacta; siempre quedará ese resto que se escapa a la medida común.

Empecemos por aclarar que la inconmensurabilidad de dos teorías no significa la


mera incompatibilidad lógica entre ellas, aunque Kuhn se expresó en ocasiones
de una forma que propiciaba este malentendido. La incompatibilidad lógica
presupone un lenguaje común: una teoría hace afirmaciones que la otra niega. Por
tanto, dos teorías inconmensurables no son teorías que se contradicen. Todo lo
contrario, si se contradicen es porque son conmensurables. Otro error muy común
es confundir la inconmensurabilidad con la incomparabilidad de teorías.

Kuhn y Feyerabend, pero sobre todo el primero, insistieron repetidas veces en que
dos teorías inconmensurables son comparables en muchos sentidos
Evidentemente, estamos hablado de teorías rivales. Dejamos de lado los casos
triviales de inconmensurabilidad que pueden darse entre teorías que nada tiene
que ver entre sí o pertenecientes a disciplinas distintas (por ejemplo, la
inconmensurabilidad entre la teoría de la evolución y la mecánica cuántica).

4
7
136
En uno de estos intentos de aclarar su posición Kuhn escribe: “al aplicar el término
inconmensurabilidad” a las teorías pretendía únicamente insistir en que no existe
ningún lenguaje común en el que ambas pueden ser completamente expresadas y
que pueda ser usado en una comparación punto por punto entre ellas”. Lo que se
excluye es una comparación que venga dando en un lenguaje neutral capaz de
recoger sin distorsiones las consecuencias empíricas de las teorías. Ahora bien,
que dos teorías no puedan ser comparados punto por punto en este sentido no
significa que no puede ser comparadas en absoluto. Kuhn menciona cinco criterios
para la comparación de teorías rivales: exactitud, coherencia, alcance, simplicidad
y fecundidad (los desarrollaremos más adelante)

Feyerabend haca de criterios formales, como la coherencia, la capacidad


predictiva o la economía, y de criterios no formales, como su concordancia con
teorías más básicas o con principios metafísicos. Aunque en otros lugares es más
escéptico y habla sólo de juicios estéticos, juicios de gusto y deseos subjetivos, a
lo cual añade con cierta ironía que las cuestiones de gusto no están fuera del
alcance de la argumentación. Lo que sí rechaza Feyerabend explícitamente es la
comparación de sus contenidos o de su grado de verosimilitud.

La cuestión es que, ni para Kuhn ni para Feyerabend, estos criterios pueden


determinar la decisión por una u otra teoría. Son criterios cuya implementación
tiene un componente inevitablemente subjetivo. Kuhn cree que funcionan como
valores que pueden entrar en conflictos entre sí y que pueden ser estimados o
aplicados de diferentes modos por diferentes científicos en diferentes
circunstancias. Por eso, aun cuando dos científicos comparten estos mismos
criterios, es posible que lleguen a distintas decisiones acerca de qué teoría es
mejor. La elección de teorías es un asunto en el que intervienen una mezcla de
factores objetivos y subjetivos.

En resumen, la incomensurabilidad no debe entenderse como la incomparabilidad


de teorías rivales, sino sólo de cierto tipo de incomparabilidad. Se trata de la
imposibilidad de comparar de forma detallada, objetiva y neutral el contenido de
las teorías en función de la evidencia empírica con el fin de determinar cuál es
definitivamente superior o más verdadera. Ahora bien, este énfasis en los aspectos
subjetivos de la comparación y en el carácter idiosincrásico de las razones de los
científicos para aceptar una teoría en lugar de la otra (dada la diferente aplicación
de los valores compartidos), pone sobre el tapete un problema fundamental que
juicio de algunos ni Kuhn ni Feyerabend consiguen resolver satisfactoriamente:
¿cómo es posible entonces el amplio consenso que se da en la ciencia? Algo más
diremos sobre este asunto cuando expongamos el modelo de cambio científico de
Laudan.

4
8
137
3. Los criterios de la inconmensurabilidad

Hemos ya mencionado más arriba que, pese a las fuertes similitudes, hay
diferencias entre la concepción que tiene Kuhn y la que tiene Feyerabend de la
inconmensurabilidad. Para Feyerabend se trataba fundamentalmente de la
ausencia de conexionen deductivas entre dos teorías generales, como la teoría
medieval del ímpetu y la mecánica newtoniana; o dicho en términos
neopositivistas, de la imposibilidad de reducir la una a la otra. En cambio, para
Kuhn, la inconmensurabilidad presenta una triple faceta; al menos inicialmente,
en La estructura de las revoluciones científicas, pues a partir de los 70 podría el
énfasis sólo en la primera de ellas.

 En primer lugar, la incomensurabilidad es una cuestión semántica, algo


que afecta al vocabulario de las teorías, y en particular al significado de
algunos de sus términos. Kuhn considera que no hay un lenguaje común
en el que expresar teorías rivales. Se equivocaban los neopositivistas al
creer que existe un lenguaje observacional conectado directamente con la
experiencia e incontaminado de toda teoría. La observación es siempre
deudora de una teoría. No hay datos empíricos neutrales entre dos
paradigmas porque precisamente son los paradigmas los que indican qué
es lo que se está observando. Tampoco existe el lenguaje básico
popperiano, impregnado en buna medida de teoría, pero neutral en los
aspectos esenciales con respecto a cualquier sistema teórico. Pero la
inexistencia de este lenguaje neutral al modo neopositivista o al modo
popperiano es sólo una muestra del problema fundamental: los lenguajes
de ambas teorías son intraducibles entre sí.

No es que no quepa intentar ninguna traducción en absoluto; es que


cualquier traducción que se haga traicionará a alguna de las teorías, ya que
será hecha siempre desde el prisma de una de las dos teorías rivales y
violará ciertos principios fundamentales asumidas por la otra. Esta
imposibilidad de una traducción neutral y sin pérdidas entre dos teorías
sucesivas implica que tanto la reducción de teorías de la que hablaba el
neopositivismo como la comparación del grado de corroboración de la que
hablaba Popper son concepciones erróneas del cambio de teoría.

El ejemplo más destacado que Kuhn utiliza en La estructura para mostrar


que, aunque dos paradigmas rivales contengan los mismos términos, su
significado ya no es el mismo que (por ejemplo) el del término “masa” en
la mecánica de Newton y en la teoría de la relatividad. Es habitual suponer
que el término “masa” tiene la misma referencia en ambas teorías, sólo
que la primera nos proporciona una aproximación bastante exacta de lo
que sucede cuando los cuerpos se mueven a velocidades muy alejadas de
la velocidad de la luz.

4
9
138
Sin embargo, con ello se obvia algo esencial: la masa newtoniana se
conserva, mientras que la einsteniana es transformable en energía;
asimismo, la masa newtoniana no se altera con la velocidad, mientras que
la einsteniana sí lo hace. Cierto es que a velocidades bajas los resultados
numéricos de su medición son prácticamente iguales, pero el concepto de
masa newtoniano tiene unas connotaciones que no posee el eisnteniano, y
viceversa. Estas connotaciones no pueden ser eliminadas sin que el
concepto mismo se diluya. Afirmar que la masa newtoniana es la masa
einsteiniana a velocidades pequeñas sería asumir que aquélla puede variar
con la velocidad, y eso es simplemente falso según la física de Newton.

Ahora bien, el hecho de que no se pueda efectuar una traducción adecuada


entre paradigmas rivales no hace imposible la comunicación entre sus
defensores. En otro lugar Kuhn aclara que el partidario de una teoría puede
aprender el lenguaje de la teoría rival y llegar a entender a qué se refieren
sus términos. A partir de entonces lo que hará es pensar también en ese
nuevo lenguaje sin tener que traducirlo al lenguaje propio, “al igual que
uno nota de repente que no está traduciendo, sino pensado en un lenguaje
extranjero”. Un einsteniano puede entender el concepto newtonianao de
masa y manejarlo adecuadamente, pero lo que no puede es incorporarlo a
la teoría que defiende. Como toda persona bilingüe sabe, ha cosas que
pueden ser expresadas en lenguaje y no en otro. Esta intraducibilidad es la
que haría del cambio de teoría una experiencia más parecida a una
conversión que a una elección racional o una prueba lógica. Se trata de
“adoptar un lenguaje nativo diferente y desplegarlo en un mundo
correspondientemente diferente”.

En 1982 Kuhn suaviza de forma notable sus tesis sobre la intraducibilidad


de los lenguajes de teorías rivales. En respuesta a las críticas recibidas
puntualiza que lo que siempre tuvo en mente no fue una intraducibilidad
radical, sino una “inconmensurabilidad local”. Sigue sosteniendo la
imposibilidad de una traducción neutral y sin pérdidas entre dos teorías
rivales, pero subraya que solo algunos términos están afectados por el
cambio de significado por al intraduciblidad consiguiente; el resto, es
decir, la mayoría, funciona de igual manera en ambas teorías.

Con esto se suscita, sin embargo, una nueva dificultad: ¿puede encajarse
la inconmensurabilidad local con el holismo semántico? Si aceptamos el
holismo del significado, unos pocos términos no pueden cambiar sin
afectar a los demás en la medida que sea. Una respuesta sería considerar
que “sólo se alteran aquellos términos que están directamente
interconectados o vinculados, ya sea por pertenecer a un mismo grupo de
contraste o por estar insertos en alguna generalización nómica”. Pero la
coherencia de este “holismo local” es también un problema que permanece
abierto en la filosofía de Kuhn.

5
0
139
 Un segundo aspecto de la inconmensurabilidad es el que refiere al cambio
en las normas para la selección y evaluación de problemas. Es lo que se ha
denominado a veces “inconmensurabilidad metodológica”. Kuhn afirma
al respecto: “al aprender un paradigma, el científico adquiere juntos
teorías, métodos y normas, por lo usual en una mezcla inextricable. Por
tanto, cuando los paradigmas cambian, se da normalmente un cambio
significativo en los criterios para determinar la legitimidad tanto de los
problemas como de las soluciones propuestas”. Y es precisamente este
cambio en las normas de evaluación lo que hará que los argumentos en
favor de cada paradigma sean argumentos circulares, pues “cada
paradigma satisface más o menos los criterios que dicta para sí mismo e
incumple algunos de los dictados por su oponente”.

La inconmensurabilidad metodológica es, pues, la ausencia de normas


metodológicas comunes para juzgar los paradigmas rivales. Por eso, a
diferencia de lo que sucedía en la ciencia moral, en las revoluciones
científicas los argumentos y la apelación a la evidencia empírica ya no
funcia como pruebas, puesto que no precisamente ha desaparecido el
consenso acerca de cómo evaluarlo. No obstante, también aquí introdujo
Kuhn ciertas matizaciones. Recordemos que Kuhn admite la existencia de
criterios para evaluación de teorías rivales, sólo que éstos no funcionan
como reglas, sino como valores, y pueden entrar en conflicto entre sí o ser
aplicados de formas distintas. La inconmensurabilidad metodológica no
consiste en negar tales criterios, sino en creer que “no hay algoritmos
neutros para la elección de teorías”. Ahora bien, entre considerar que los
criterios de evaluación de teorías no son algorítmicos y considerar que los
argumentos a favor de un paradigma son circulares hay un argumentos a
favor de un paradigma son circulares hay una amplia zona intermedia que
Kuhn recorrió en sus trabajos posteriores a la Estructura.

5
1
140
 En tercer lugar, la incomensurabilidad tiene también una dimensión
ontológica. El mundo de un paradigma no puede ser casado con el otro.
Los paradigmas rivales postulan entidades muy dispares en el mundo. “En
un sentido que soy incapaz de explicar mejor -dice Kuhn-, los proponentes
de paradigmas en competencia practican sus investigaciones en mundos
diferentes. Al practicar sus investigaciones en mundos diferentes, los dos
grupos de científicos ven diferentes cosas cuando miran desde el mismo
punto en la misma dirección”. Aunque Feyerabend afirma que su idea de
la inconmensurabilidad se limita sólo a los aspectos semánticos, hay
pasajes donde se expresa de modo parecido a Kuhn en lo que se refiere a
una incomensurabilidad ontológica. Escribe:

Dos teorías inconmensurables (…) se refieren a mundos distintos y (…)


el cambio (de un mundo a otro) ha sido producido por un desplazamiento
de una teoría a otra (…) Sabemos que se dan cambios que no son el
resultado de una interacción causal entre el objeto y el observador, sino
de un cambio en las condiciones mismas que nos permiten hablar de
objetos, situaciones o acontecimientos. Apelamos a esta última clase de
cambios cuando decimos que un cambio de principios universales
ocasiona un cambio en la totalidad del mundo.

Este aspecto de la inconmensurabilidad ha resultado muy controvertido y


la ambigüedad del propio Kuhn ha dado pie a interpretaciones diversas. Si
dejamos de lado a los constructivistas sociales (de los que Kuhn afirmó
explícitamente que le malinterpretaban), no son muchos los filósofos y
científicos que admitirían de buen grado que un cambio de teoría, por
profundo que sea, conlleve en sentido literal un cambio en el mundo. Esto
sería volver a alguna forma inaceptable de idealismo.

o Hoyningen-Huene interpreta estos cambios de mundo de los que


habla Kuhn como cambios en el mundo fenoménico, mientras que
se daría una permanencia en el mundo nouménico o mundo-en-sí.
No hay que olvidar que Kuhn se definió a sí mismo como un
kantiano posdarwinista y que aceptó que tras los cambios en
nuestras representaciones mentales hay un sustrato permanente e
incognoscible. La cuestión en si un cambio de paradigma es
suficiente para producir un cambio en el mundo fenoménico.

o Alexander Bird cree que no. En su opinión, el cambio de conceptos


que lleva aparejado el cambio de paradigma sólo conduce a un
cambio en lo que la gente dice que ve y cree conduce a un cambio
acerca de lo que creemos que vemos y Sakley. Interpretan que lo
que no cambia son los individuos, mientras que lo que cambian son
las clases.

5
2
141
o Sharrock y Read consideran que dicha idea es ante todo una
metáfora y no debe suponerse que hay detrás ninguna tesis
metafísica. Según estos últimos, lo que Kuhn quiere decir en
realidad es que después de una revolución es como si la naturaleza
hubiera cambiado: antes de la revolución los científicos hablaban
de unas cosas y después hablan de otras. Más exactamente, si bien
el mundo no cambia después de una revolución y los científicos
ven las mismas cosas, no es posible expresar de una manera
científica y neutral lo que cada uno ve. El Sol no ha cambiado tras
la revolución copernicana, pero si se dice que cuando se mira hacia
él se ve una estrella, esta afirmación no es neutral, sino que está
comprometida con la teoría copernicana.

Son sobre todo los sentido metodológico y ontológico de la inconmensurabilidad,


junto con la afirmación de que la verdad es una cuestión intraparadigmática, los
que le acarrearon a Kuhn la acusación de relativismo. La inconmensurabilidad
metodológica, en particular, implica que no ay instancia superior de juicio a la que
recurrir por encima de los paradigmas. La valoración que se haga dependerá de la
aceptación previa de un determinado paradigma.

A partir de los años 80 Kuhn introduce una nueva forma de explicar la


incomensrabilidad que le permite cualificar el sentido semántico de la misma, al
tiempo que elimina cualquier interpretación demasiado radical a la que hubiera
dado lugar su referencia a los cambios del mundo. La incomensurabilidad es
entendida desde entonces como cambios de taxonomía, es decir, como el
despliegue por parte de teorías rivales de categorías taxonómicas no homogéneas
acerca de los objetos. La diferencia, por ejemplo, entre la química del flogisto y
la química posterior a Lavoisier, o entre la mecánica newtoniana y la mecánica
relativista, sería que trabajan con taxonomías distintas y, por tanto, clasifican el
mundo de distinta manera, produciéndose una falta de solapamiento parcial entre
dichas taxonomías. Los conceptos de clase que constituyen las categorías
taxonómicas cambian su significado tras una revolución. Objetos que antes caían
bajo un concepto después caben bajo otro: “planeta” no significa lo mismo (no
tiene la misma referencia) en el sistema ptolemaico y en el copernicano; y lo
mismo sucede con “compuesto” y “mezcla” antes y después de Dalton. O bien lo
que un concepto atribuye al mundo en una taxonomía no es lo mismo que le
atribuye en otra: “masa” no significa lo mismo (no implica las mismas
propiedades) en la mecánica de Newton y la de Einstein. También pueden
desaparecer ciertos conceptos, como fue el caso de “flogisto”.

5
3
142
Este cambio taxonómico está en la raíz de la intraducibilidad completa del
lenguaje de las teorías inconmenesurables. Pero no sólo eso, también está en la
raíz de lo que Kuhn venía denominado “cambios de mundo”, porque, como señala
Pérez Ransenz, las categorías taxonómicas pueden ser también consideradas como
constitutivas en cierto sentido de las entidades que pueblan el mundo.
Frecuentemente, los cambios taxonómicos implicados en una revolución
científica pueden dar lugar a algo más que a la aceptación de un nuevo paradigma:
son capaces de generar disciplinas y especializades completamente nuevas. En la
presentación final que Kuhn realiza del núcleo de la tesis de la
inconmensurabilidad en su último trabajo publicado en vida aparecen sintetizados
lo más importantes de los dos elementos mencionados:

Si dos comunidades difieren en sus vocabularios conceptuales, sus miembros


describirán el mundo de forma diferente y harán diferentes generalizaciones sobre
él. A veces estas diferencias pueden resolver parte importante de los conceptos
de una al vocabulario conceptual de la otra. Pero si los términos a importar son
términos de clases que se solapan con otros términos de clase ya existentes, no
será posible ninguna importación, al menos ninguna que permita a ambos
términos retener su significado, su proyectabilidad, su estatus como términos de
clase. Algunas de las clases que pueblan los mundos de las dos comunidades son
entonces irreconciliablemente diferentes, y la diferencia no es ya entre
descripciones, sino entre las poblaciones descritas ¿Es inapropiado en tales
circunstancias decir que los miembros de las dos comunidades viven en mundos
diferentes?

4. Mencionaremos a continuación muy brevemente sólo algunas de las críticas más


influyentes. Nos limitaremos, además, a las que tiene un carácter puramente
filosófico, dejando de lado la acusación, también formulada, de que la tesis de la
inconmensurabilidad no encaja con lo que la historia de la ciencia nos enseña
acerca de los episodios de grandes cambios teóricos

 Ciertamente, y pese a los argumentos de Kuhn, un realista contestaría


afirmativamente a esta pregunta de la cita, dependiendo de lo que
entendiéramos por “mundos diferentes”. El realista distingue claramente
entre un mundo independiente de los sujetos cognoscentes y el mundo tal
como es recogido por un sistema conceptual o taxonómico, un lenguaje,
un paradigma, etc…. Niiniluoto nombra a lo primero como “EL MUNDO”
y a lo segundo como una “L-estructura”.

Sólo puede decirse que las categorías taxonómicas son constitutivas de los
objetos en el sentido de que EL MUNDO” no posee una estructura
ontológica acabada y predeterminada, siendo, por tanto, la atribución de
ontologías algo relativo siempre a una L-estrucutra. Pero hecha tal
distinción, el realista podrá decir que cualquier cambio en nuestras
categorías taxonómicas será a lo sumo un cambio de L-estrucutra, peor no
un cambio en EL MUNDO.

5
4
143
 Donald Davidson argumentó que la idea de un esquema conceptual
radicalmente inconmensurable, es decir, completamente intraducible a
nuestro lenguaje es incoherente. No podemos llamar lenguaje a algo que
no puede ser traducido a otros lenguajes. Y no sale mejor parada la idea
de una intraducibilidad parcial. Davidson adujo que, para poder traducir,
si quiera ser parcialmente, a un lenguaje distinto, hemos de suponer que
compartimos con el hablante del otro lenguaje la mayor parte de las
creencias sólo así podemos decir que compartimos un buen número de
significados: “si queremos entender a otros, hemos de considerar que están
en lo correcto en la mayor parte de los asuntos”. Esto es lo que se conoce
como el principio de caridad.

Ahora bien, si el Principio de Caridad es cierto, la inconmensurabilidad no


puede tener la consecuencia que Kuhn dice. La debilidad de esta réplica
es que resulta dudoso que a Kuhn, especialmente en sus últimos trabajos,
pueda atribuírsele la posición genérica que desestima Davidson, y por otra
parte, el principio de Caridad puede llevar a negar la posibilidad misma de
teorías erróneas.

 La crítica de Hilary Putnam se puede resumir en la idea de que el cambio


de significado no implica cambio de referencia. Por lo tanto, aunque el
cambio de teoría llevara aparejado tal cambio de significados, los refrentes
de los términos empleados podrían seguir siendo los mismos. El término
“masa” puede tener significados diferentes en la teoría de Newton y en la
de Einstein, pero eso no impide que se refieren a la misma propiedad de la
materia, atribuyéndole, eso sí, características diferentes. Para establecer tal
cosa, Putnam se basa en la teoría casual de la referencia. Según esta teoría
la referencia no viene dada por una descripción del referente de un
término, sino por una historia causal que se única en el momento en que
el término es introducido por primera vez. En concreto, el acto original de
bautismo inicial una cadena causal de comunicación que es la responsable
de que un término refiera como lo hace.

Putnam estima que la tesis de la inconmensurabilidad confunde concepto


con concepción. Dos conceptos pueden ser traducibles el uno al otro a
pesar de que estén acompañados de diferentes concepciones sobre aquello
a lo que se refieren. Todos estaríamos dispuestos a conceder que el término
“hierba” se refiere en nuestros días a la misma entidad que hace cien años,
es decir, a un cierto tipo de plantas. Sin embargo, la palabra “planta” está
conectada con un cuerpo de creencias bastante distinto del de hace 100
años. Lo mismo podría decirse de los términos “masa” o “electrón”.

5
5
144
Las creencias que rodeaban al término “electrón” cuando lo utilizaba Bohr
no son las mismas que en la actualidad, pero hay partículas, a las que
llamamos también “electrones”, que encajan aproximadamente en la
descripción que Bohr daba del electrón. Basándose en el Principio de
Caridad de Davidson, Putnam postula un “principio de Beneficio de la
Duda” para concluir que esas partículas son las mismas a las que se refería
Bohr.

Este principio establece que “cuando los hablantes especifican mediante


una descripción un referente para un término que usan y, debido a
creencias facultades erróneas que estos hablantes tienen, esta descripción
falla al referir, debemos suponer aceptarían reformulaciones razonables de
su descripción”. El problema de esta réplica es que la teoría causal de la
referencia para impedería el cambio de referencia a lo largo del tiempo,
cuando es innegable que estos cambios se dan en la realidad. Tampoco
parece adecuada para dar cuenta de los fracasos en la referencia, como en
el caso del término “flogisto”. Sigue estando pendiente el desarrollo de
una teoría de la referencia que permita hablar de una referencia común a
través del cambio de teorías.

 Finalmente, Laudan, pese a coincidir con Kuhn y Feyerabend en descartar


que el logro de la verdad sea la meta de la ciencia y que quepa una
estimación aceptable de la verosimilitud de las teorías, ha sostenido que
hay muchos rasgos de las teorías relevantes para su evaluación que son
susceptibles de comparación neutral sin necesidad de recurrir a una
traducción entre sus enunciados y, por lo tanto, que la imposibilidad de
una traducción perfecta entre teorías rivales no las convierte en
inconmensurables. Incluso suponiendo que es correcta la tesis de la carga
teórica de la observación, que no hay un lenguaje observacional puro, sin
implicaciones teóricas, la comparación objetiva entre teorías rivales
resulta factible en muchos aspectos.

o En primer lugar, las teorías inconmensurables pueden ser


comparadas en su capacidad para resolver problemas. Laudan
considera que en algunas ocasiones podemos afirmar que dos
teorías rivales se refieren al mismo problema. De hecho, los
problemas empíricos, como la redición de los eclipses, la
terminación de las relaciones entre presión y volumen en un gas,
son uno de los principales elementos de continuidad en la ciencia,
y permanecen inalterados incluso después de cambios grandes en
la ontología de la ciencia. Han sido cuestiones que han tenido que
resolver teorías sucesivas.

5
6
145
Es cierto que la tesis ampliamente admitida de la carga teórica de
la observación implica que la caracterización de un problema
depende siempre de un conjunto de supuestos teóricos; pero estos
supuestos no tienen por qué ser los mismos que se utilizan para
resolver el problema. Los supuestos empleados en su solución
pueden ser distintos de los supuestos correspondientes a las dos
teorías rivales. En tales casos, el problema puede ser caracterizado
de forma neutral con respecto a ambas, y puede decirse que ambas
enfrentan el mismo problema. Tomando como base esos
problemas compartidos se puede realizar una comparación
racional y objetiva de las teorías rivales. Ejemplos de problemas
compartidos sería, en el caso de cartesianos y newtonianos, el
problema de la caída libre o el de la dirección en el giro de los
planetas en torno al Sol. Otro ejemplo muy claro propuesto por
Niiniluto es el de las obervaciones telescópicas. Puede defenderse
que están cargadas de teorías de la óptica, pero son neutrales con
respecto a la teoría ptolemaica y a la copernicana.

o En segundo lugar, Laudan cree que, aun cuando no hubiera forma


de determinar nunca que dos paradigmas rivales se refieren al
mismo problema, todavía quedaría sitio para una evaluación
objetiva de sus méritos relativos basada en su efectividad para
resolver problemas propios. Esa comparación tomaría como
elementos de juicio el número y la importancia de los problemas
resueltos dentro de cada uno. Con ello se evita el problema de la
imposibilidad de traducir sin pérdidas una teoría a la otra, puesto
que la vitada efecticidad se entraña en una medición de este tipo.
Una vez que se ha determinado internamente el carácter progresivo
o no de una serie de teorías dentro de un paradigma podría
compararse con el grado de progresividad que presenta el
paradigma rival.

En todo caso, un defensor de la tesis de la incomensurabilidad


podría argumentar que la réplica de Laudan da por sentado lo que
dicha tesis precisamente niega: que haya problemas comunes, al
menos lo suficientemente importantes y numerosos, entre grandes
teorías rivales (pero en realidad, ¿no es esto algo permitido por la
inconmensurabilidad local?). Además, podría poner en duda que la
comparación de la capacidad para resolver sus propios problemas
pueda decir algo significativo sobre los méritos de las teorías
rivales. ¿Cómo determinar, por ejemplo, de forma objetiva la
importancia de los problemas resueltas por cada teoría?

5
7
146
Seguramente quedan muchos aspectos por dilucidar en este asunto, pero hay algo que,
después del tiempo transcurrido y de las discusiones generadas, parece claro: la
inconmensurabilidad ha resultado ser un problema menos grave de lo que en principio
pensaron sus críticos, aunque, por ello mismo, menos desafiante para la filosofía de la
ciencia anterior. Como hemos visto, no implica necesariamente incomunicabilidad, ni
incomparabilidad ni imposibilidad de interpretación, ni ruptura de la racionalidad (al
menos en la intención de Kuhn). Se limita a la falta de solapamiento en ciertas categorías
léxicas que impiden una traducción neutral y sin pérdidas entre ellas. Pero esto no es nada
que un buen traductor no puede solucionar con paráfrasis y glosas más o menos largas y
más o menos partidarias, es decir, con interpretaciones. El problema, en última instancia,
se localiza en unos pocos términos. El resto, que se supone que constituye la mayor parte
del lenguaje de las dos teorías rivales, puede ser traducido son problemas.

5
8
147
TEMA 5: EL CAMBIO CIENTÍFICO II. LOS
PROGRAMAS DE INVESTIGACIÓN Y LA
POSIBILIDAD DEL PROGRESO CIENTÍFICO

PUNTO 1: INTRODUCCIÓN
En los años siguientes a 1962, fecha de la publicación de La estructura de las revoluciones
científicas, filósofos de orientación racionalista intentaron recuperar una imagen del
progreso científico que, incorporando las aportaciones más valiosas de esta obra,
especialmente su enfoque centrado en la historia de la ciencia, evitara las consecuencias
extremas que seguían de la tesis de la inconmensurabilidad y del énfasis kuhniano en las
discontinuidades dentro de los períodos revolucionarios.
Así, a finales de los 60 y comienzos de los 70, tras darse a conocer con sus trabajos de
filosofía de las matemáticas, Imre Lakatos intentó una revisión del falsacionismo
popperiano a la luz de las objeciones de Kuhn. El resultado fue el falsacionismo
metodológico sofisticado. En él las teorías científicas se consideran integradas en
unidades históricas más amplias denominadas “programas de investigación científica”.
Son esas series históricas o teorías y no las teorías individuales las que debían tomarse
como elementos básicos de evaluación en el cambio científico.
Con posterioridad a Lakatos, Larry Laudan elaboró un modelo de cambio científico que,
al igual que el de aquél, pretendía mostrar que el cambio científico es un proceso racional
donde los haya, recogiendo al mismo tiempo algunas de las aportaciones de Kuhn. La
obra principal de Laudan es El progreso y sus problemas de 1977; aunque sus
planteamientos han experimentado desde entonces una notable evolución. Como Kuhn y
Lakatos, Laudan cree también que las unidades de evaluación y análisis del cambio
científico han de ser mayores que las teorías específicas. Él llama a esas unidades más
amplias “tradiciones de investigación” y pone como ejemplos de ellas el aristotelismo, el
cartesianismo, el newtonismo, la teoría de la evolución, la química del flogisto, la teoría
atómica de la materia, la teoría electromagnética de la luz, la psicología freudiana, el
conductismo y el mecanicismo biológico.

1
148
PUNTO 2: IMRE LAKATOS (1922 – 1974)
Lakatos fue, en un sentido importante, un filósofo popperiano. Su propósito fundamental
fue eliminar del falsacionismo, mediante las transformaciones oportunas, sus deficiencias
principales y presentar así un rival más fuerte a los ataques de Kuhn y Feyerabend. Pero
esto no obsta para que su filosofía presente en muchos aspectos una variación sustancial
con respecto a la de Popper. Como ha dicho Ian Hacking, Lakatos es un revisor de Popper
que mira a Kuhn.
Para Lakatos tiene razón Kuhn frente a Popper al pensar que el cambio científico no se
produce por una lucha bilateral entre una teoría y un experimento, sino por una lucha al
menos trilateral entre dos teorías rivales y un experimento. Tiene también razón Kuhn en
que los científicos, en su trabajo cotidiano de investigación, no buscan ante todo la
refutación de las teorías que elaboran o en las que creen, sino más bien en su
confirmación. Tiene razón Kuhn en que los científicos no son dogmáticos e irracionales
cuando en circunstancias normales tienen a ignorar los contraejemplos y ano
considerarlos como casos falsadores, sino como simples anomalías o “casos
recalcitrantes”. Y finalmente, tiene razón Kuhn en que la unidad de evaluación del
progreso científico no deben ser las teorías, sino unidades más amplias.
En cambio, se equivoca Kuhn frente a Popper al pensar que el cambo científico no
obedece a criterios metodológicos objetivos y justificables de forma transteórica; que no
existe una demarcación entre ciencia y seudociencia; que la verdad no puede ser tomada
ni siquiera como meta ideal a la que tienden a acercarse a las teorías a lo largo del
desarrollo de la ciencia; y que en la investigación científica normal un solo paradigma
consigue el monopolio durante largos períodos de tiempo.
En definitiva, para Lakatos, Kuhn tiene razón al rechazar ciertas ingenuidades y
deficiencias en el falsacionismo popperiano, como es, por ejemplo, la rapidez con la que,
según éste, la crítica es capaz de destruir una teoría científica; pero no se da cuenta de que
un falsacionismo mejorado puede escapar a las objeciones. Rivadulla ha destacado dos
formas en el que el falsacionismo lakatsiano pretende mejorar al popperiano: ofreciendo
una solución positiva al problema de la inducción, esto es, una conexión entre
corroboración y verosimilitud, salvando así a Popper de desembocar en el escepticismo y
proponiendo una imagen más racional y más ajustada del desarrollo histórico de la ciencia
al introducir el concepto de programa de la investigación científica.

2
149
1. Lakatos define su postura como “falsacionismo metodológico sofisticado” ¿Qué
quiere decir exactamente eta denominación? En su trabajo “la falsación y la
metodología de los programas de investigación científica”, publicado en 1970,
distingue entre dos tipos generales de falsacionismo: el dogmático y el
metodológico. El falsacionismo dogmático, como Lakatos mismo reconoce,
nunca fue defendido realmente por Popper en ninguna publicación, sino que es el
resultado de una simplificación de la tesis de Popper por sus críticos. Este
falsacionismo, aun cuando admite la falibilidad de todas las teorías, se caracteriza
por considerar la base empírica como infalible. Es decir, para el falsacionista
dogmático, si bien la ciencia no puede probar concluyentemente una teoría, si
puede refutarla concluyentemente, puesto que “existe una base empírica de
hechos absolutamente sólida, que puede utilizarse para refutar teorías”. La
honestidad científica consistiría en adelantar un resultado experimental contrario
a la teoría que, caso de producirse, llevaría al abandono definitivo de la misma.
Este falsacionismo dice Lakatos, es insostenible porque descansa en dos supuestos
falsos y un criterio de demarcación demasiado restringido.

 El primer supuesto falso es que existe una frontera natural entre los
enunciados teóricos y los observacionales.

 El segundo es que la observación puede probar la verdad de los enunciados


observacionales; y el criterio de demarcación diría que sólo son científicas
las teorías que pueden ser refutadas por los hechos.

Lakatos considera que la psicología, la obra de Kant y la de Popper desmienten el


primer supuesto, porque muestras que toda la observación está cargada de
expectativas teóricas y que la mente no es una tabula rasa. Por otra parte, el
segundo supuesto es desmentido por la lógica. La verdad de los enunciados
observacionales no puede ser probada de forma lógica a partir de las
observaciones. En cuanto al criterio de demarcación, tampoco funciona, porque
“precisamente las teorías más admiradas no prohíben ningún acontecimiento
observable”. Esta última afirmación puede sonar extraña en un falsacionista. Si
no prohíben ningún acontecimiento observable ¿cómo podrán ser falsadas alguna
vez?

3
150
La respuesta de Lakatos es que la falsación de tales teorías, de producirse, no se
hará por un choque con los hechos, sino como ya apuntamos en el capítulo cuatro,
porque haya otra teoría mejor que pueda reemplazarlas. No son los hechos los que
falsan a las teorías, sino otras teorías. Esta imposibilidad de refutación meramente
empírica es una consecuencia de lo que acabamos de decir. Si no hay una
separación natural entre enunciados observacionales y teóricos, ya que toda
observación está cargada de teoría y si los enunciados observacionales no pueden
ser probados por los hechos y, por tanto, son siempre falibles, el científico puede
proteger una teoría (o una parte central de a misma) de la falsación negándose a
admitir como verdaderos los enunciados observacionales que chocan con ella o
elaborando hipótesis ad hoc que eliminen ese choque. La ciencia real no encaja,
pues, con el criterio de demarcación del falsacionismo dogmático. El progreso
científico exige tenacidad en la defensa de las teorías frente a los intentos de
falsación, cosa que este falsacionismo no toma en cuenta.

2. El segundo tipo de falsacionismo del que habla Lakatos, el falsacionismo


metodológico, se subdivide en dos especies: el falsacionismo metodológico
ingenuo y el falsacionismo metodológico sofisticado. El primero habría sido
defendido, según Lakatos, por Popper entre la década de 20 y de los 50. Éste es el
Popper de la Lógica de la investigación científica, la miseria del historicismo y La
sociedad abierta y sus enemigos (Popper1, en terminología de Lakatos). El
segundo habría sido defendido parcialmente, ya que siempre retuvo elementos del
falsacionismo metodológico ingenuo, por Popper a partir de los 50; el Popper de
Conjeturas y refutaciones, Conocimiento objetivo y las obres posteriores
(Popper2).

 El falsacionismo metodológico ingenuo, al igual que el sofisticado, asume


un cierto tipo de convencionalismo, y en eso ambos difieren del
dogmático. Para el falsacionista metodológico ingenuo no existe una
separación tajante entre enunciados teóricos y observacionales, y además
el valor de verdad de los enunciados singulares o básicos (lo que
constituyen la “base empírica” de la ciencia) “no puede ser probado por
los hechos, sino que, en algunos casos, puede deducirse por acuerdo”.

A la hora de contrastar las teorías, los enunciados básicos de los que se


sirvan los científicos para efectuar la contrastación son considerados sólo
como conocimiento no problemático aceptado tentativamente: “el
veredicto, de los científicos experimentales suministra la lista de
falsadores aceptados”. Por eso, para el falsacionista metodológico ingenuo
la falsación de una teoría no significa, como para el dogmático, la prueba
de la falsedad de la misma. Una teoría falsada puede ser, sin embargo,
correcta. De modo que el rechazo de una teoría falsada comporta siempre
un riesgo, pues podemos estar abandonado una teoría correcta y aceptado
una falsa.

4
151
El criterio de demarcación que surge ahora es mucho más liberal que el
anterior y deja pasar más teorías. Según el nuevo criterio, son científicas
aquellas teorías que tienen una “base empírica”. Es decir, se consideran
científicas las teorías susceptibles de ser falsadas no por los hechos, no por
enunciados probados a partir de la experiencia, sino por enunciados
básicos aceptados convencionalmente.

El falsacionismo metodológico ingenuo supone un avance con respecto al


falsacionismo dogmático, pero presenta para Lakatos todavía notables
insuficiencia. El destino de las teorías está en manos decisiones
afortunadas, y esto comporta un riesgo de extravío. Riesgo que para
Lakatos es tan grande que urge reducir el elemento convencional. Además
de esto, el falsacionismo ingenuo, como le ocurría también al dogmático,
choca con lo que realmente ha sucedido y sucede en la ciencia, sobre todo
con el hecho de que a veces los científicos se oponen a la falsación de una
teoría a pesar de haber aceptado alguna evidencia en su contra.

 La superación del falsacionismo ingenuo haría sido ya iniciada por el


propio Popper y la pretensión de Lakatos es llevarla a su culminación con
el falsacionismo metodológico sofisticado. Este tipo de falsacionismo
difiere de los anteriores en su criterio de demarcación y en el modo en que
considera que se produce la falsación. Una teoría no queda falsada porque
aceptamos algún enunciado básico que la contradiga, sino porque
disponemos de otra teoría mejor; lo que para Lakatos significa que tiene
más contenido empírico y parte de este exceso de contenido resulta
corroborado. En otras palabras, una teoría queda falsada si disponemos de
tora capaz de predecir hechos nuevos y estas predicciones son verificadas.
EL criterio de demarcación sólo exigirá que las teorías científicas sean
falsables en ese sentido sofisticado.

o La falsación sofisticada depende, por tanto, de la aparición de


nuevas y mejores teorías; no es una relación entre un enunciado
básico y una teoría, sino entre varias teorías rivales y ciertas
evidencias corroboradoras de los contenidos excedentes de las
nuevas teorías. Por eso, lo que importa realmente para el progreso
de la ciencia es la proliferación de teorías, más que la búsqueda de
contraejemplos. Por otra parte, para el falsacionismo sofisticado
una teoría nunca se evalúa por sí sola. Se evalúa junto con una
diversidad de hipótesis auxiliares y condiciones iniciales, y, sobre
todo, en unión de sus predecesores “de forma que se pueda apreciar
la clase de cambio que la originó”.

De ahí que, según Lakatos (y éste como vimos en el capítulo 4, es


un punto central que le aleja de Popper), la falsación posea
fundamental un carácter histórico. Una teoría podría servir para
falsar a una teoría rival en ciertas circunstancias históricas pero no
servir en otras.

5
152
o Otro rasgo distintivo del falsacionismo sofisticado es el papel
crucial que desempeña la corroboración de los nuevos contenidos.
Lo relevante para una nueva teoría no es saber si cuenta con
muchas evidencias a su favor (inductivismo) ni si pasó con éxito
pruebas que las anteriores no superaron (falsacionismo ingenuo),
sino saber si predijo con éxito hechos nuevos. A diferencia de lo
que mantiene el inductivista estricto, el poder probatorio de una
evidencia a factor de una teoría depende de si era conocido o no
antes de proponer dicha teoría. Si la evidencia había sido
anticipada por la teoría y era desconocida con anterioridad, tiene
mucha más fuerza probatoria.

3. El modelo de cambio científico que Lakatos propone como consecuencia de las


tesis del falsacionismo sofisticado es bautizado por él miso como “metodología
de los programas de investigación científica”. Un programa de investigación
científica es una serie de teorías en desarrollo, relacionada entre sí histórica y
lógicamente, de modo que las últimas surgen de las precedentes. Está constituida
por tres componentes básicos:

 Un centro o núcleo firme (hardcore) convencionalmente aceptado y


delimitado y, considerado irrefutable provisionalmente. Esta constituido
por unos pocos postulados teóricos compartidos por las teorías sucesivas
que conforman el programa de investigación. Lakatos llega a hablar en
algún momento de un máximo de cinco postulados.

 Un cinturón protector (protective belt) de hipótesis auxiliares que son


modificadas constantemente y abandonadas en caso de que sea necesaria
para proteger el núcleo de una posible falsación. Son ellas las que reciben
el choque con los hechos y a las primeras que se atribuye la
responsabilidad del mismo. Mientras que el núcleo duro permanece
constante (o casi, ya que puede recibir supuestos añadidos), es el cinturón
protector el que cambia con el tiempo.

 Una heurística o conjunto de herramientas conceptuales y reglas


metodológicas con dos vertientes: positiva y negativa. La heurística
negativa dice qué cosas deben evitarse, e impide fundamentalmente que
se aplique contra el núcleo el impacto de un conflicto con la experiencia,
dirigiéndolo hacia el cinturón protector. La heurística positiva es un
conjunto de técnicas para solucionar y resolver problemas o, si se quiere,
un conjunto de pistas sobre cómo calibrar o modificar el cinturón
protector. La selección de problemas en un programa de investigación
viene dada por la heurística positiva y no por las anomalías que éste pueda
presentar. Sólo cuando se debilita la fuerza de la heurística positiva en una
fase degenerativa del programa, se ocupa los científicos seriamente de las
anomalías.

6
153
Si tomamos como ejemplo el programa de investigación newtoniano, su centro
firme estaría formado por las tres leyes del movimiento más la ley de gravitación;
el cinturón protector incluiría hipótesis auxiliares como la óptica geométrico, la
teoría newtoniana sobre la refracción atmosférica, la masa de los planetas, etc…;
la heurística negativa sería el mandato de no tocar el centro firme, sino las
hipótesis auxiliares, y la heurística positiva incluiría, entre otras cosas, el aparato
matemática del programa (cálculo diferencial) punto con principios ontológicos
tales como “esencialmente los planetas son superficies gravitatorias en rotación
con una forma aproximadamente esférica”.

4. Los programas de investigación científica no se abandonan porque resulten


falsados en el sentido popperiano. Pueden abandonarse sin que haya habido una
falsación previa y pueden mantenerse, como decía Kuhn, pese a contar con
diversos ejemplos falsadores, con diversas anomalías. Todos los programas de
investigación tienen anomalías. La falsación no es ni necesaria ni suficiente para
que se produzca un cambio científico. Veamos a continuación con más detalle
cómo se produce el camio científico según la metodología lakatosiana, es decir,
cómo sustituye un programa de investigación científica a oro, y en especial, si
existen criterios objetivos para decidir esa sustitución.

 Para empezar, Lakatos coinciden con Popper y Feyerabend en mirar con


recelo la posibilidad que un programa de investigación consiga el
monopolio y se convierta en una especie de cosmovisión científica. La
“ciencia normal” de Kuhn debe ser desterrada. De hecho, rara vez ha
sucedido que un programa de investigación domine de ese modo. Escribe:

La historia de la ciencia y debe ser una historia de programas que


compiten, pero no ha sido ni debe convertirse en una sucesión de períodos
de ciencia normal; cuanto antes comience la competencia tanto mejor
para el progreso. El “pluralismo teórico” es mejor que el “monismo
teórico” sobre este tema Popper y Feyerabend tiene razón y Kuhn está
equivocado.

Ahora bien, dada esta competencia constante entre programas de


investigación rivales tiene que haber un modo de decidir cuando uno ha
superado a otro. Lakatos cree que esto no lo puede decidir ningún
experimento crucial, pace Popper. Los experimentos cruciales son
aquellos capaces de falsar un programa y corroborar otro. Popper vio en
ellos el instrumento más destacado para conseguir el cambio de teorías en
la ciencia. Lakatos, sin embargo, cree que no existen, que son puros mitos,
al menos en el modo en que los ve Popper.

7
154
A lo sumo, un experimento crucial puede servir, dentro de un programa,
para decidir entre dos versiones del mismo; no para decidir entre un
programa y su rival. Para entender esto basta con recordar lo que ya hemos
dicho acerca de la crítica de Lakatos contra el falsacionismo ingenuo. Los
científicos tienen a considerar los “contraejemplos” como simples
anomalías, y no abandonan un programa sólo por ellas, pues todas las
presentan. Cuando el programa con el que el experimento entra en
conflicto es por añadidura un programa joven y que está creciendo
rápidamente, el experimento es ignorado sin más.

En realidad, los experimentos cruciales son títulos honoríficos que se les


dan retrospectivamente a ciertos experimentos que fueron considerados en
su día como simples anomalías pero que, con el transcurso del tiempo, el
surgimiento de una teoría mejor, y el abandono de la teoría anterior, son
vistos a una nueva luz y adquieren un rango superior: “la conducta
anómala del perihelio de Mercurio era conocido desde hacia décadas como
una de las muchas dificultades no resueltas del programa de Newton, pero
fue el hecho de que la teoría de Einstein la explico mejor, lo que
transformó a una anomalía vulgar en una refutación brillante del programa
de investigación de Newton”.

 Si no hay experimentos cruciales ¿cómo son evaluados entonces los


programas rivales? La respuesta a esto está en el criterio de progresividad
o regresividad de un programa de investigación, que ya conocemos. Si un
programa explica de forma progresiva más hechos que otro programa rival
(si predice todo lo que predice su rival y algunas cosas más que se ven
luego confirmadas), supera a este último, el cual puede ser abandonado (o
archivado si se prefiere), pues se considera que ha sido “falsado” (en
sentido sofisticado). Las revoluciones científicas se producen de forma
muy distinta a la descrita por Kuhn. Sencillamente ocurre que “si tenemos
dos programas de investigación rivales y uno de ellos progresa, mientras
que el otro degenera, los científicos tienen alinearse con el programa
progresivo”.

Este alineamiento no obedece a la propaganda o a un fenómeno de


conversión análogo a la conversión religiosa, como parece pensar Kuhn.
Obedece a razones objetivas: hay un exceso de contenido confirmando en
el programa progresivo y un despliegue adicional de poder heurístico, esto
es, el programa progresivo es capaz de suscitar nuevos problemas y de
desarrollar nuevos conceptos y teorías. Aunque solo se pueda hacer con
una perspectiva temporal a lo largo plazo, es posible determinar de forma
objetiva si un programa de investigación es progresivo o regresivo frente
a otro. Por lo tanto, según Lakatos, “la historia de la ciencia refuta tanto a
Popper como a Kuhn; cuando son examinados de cerca, resulta que tanto
los experimentos cruciales poperianos como las revoluciones de Kuhn son
mitos”.

8
155
No cabe, sin embargo, una resolución inmediata de estas cuestiones. La
“racionalidad instantánea” es imposible: “pueden trascurrir décadas antes
de que los programas despeguen del suelo y se hagan empíricamente
progresivos”. Por eso se debe ser benévolo con los programas en
desarrollo y darles siempre una oportunidad. Del mismo modo que no hay
porqué ser fiel a un programa de investigación hasta que haya agotado
todo su poder heurístico, tampoco se debe rechazar un programa joven
porque éste no haya podido por el momento ser progresivo y superar a su
rival. Debe existir la ciencia una cierta “tolerancia metodológica” que
permita que los programas más débiles sean protegidos de los más fuertes
durante un tiempo, o , como Lakatos dice, de manera que los programas
puedan recuperarse “de sus enfermedades iniciales, tales como los
fundamentos inconsistentes y las estrategias ocasiones ad hoc”.

 Un aspecto bastante significativo de cambio científico en el que el


falsacionismo sofisticado de Lakatos aspira también a presentarse como
superador del de Popper, aunque es discutible que lo consiga, es el de la
conexión entre la aceptación o el rechazo de las nuevas teorías y la idea de
un acercamiento progresivo a la verdad. Ya vimos que Popper no logró
establecer una conexión satisfactoria entre corroboración y verosimilitud
a pesar de sus intentos. Y no lo consiguió, según Lakatos, porque para ello
es necesario postular una suerte de “principio inductivo”.

¿Qué nos permite afirmar que los éxitos de una teoría deben interpretarse
como señal del crecimiento del conocimiento? ¿Cómo decir que las
victorias del pasado otrorgan apoyo a la teoría y son una cierta garantía
para su futuro? En definitiva, ¿cómo reconocer los indicios de que nos
acercamos a la verdad viendo el historial de las teorías? Esto sólo puede
hacerse afirma Lakatos, “con ayuda de un principio adicional, sintético
inductivo (o si se quiere, cuasi-inductivo) que debe fundamentarse en
alguna correlación entre el “grado de corroboración” y el “grado de
verosimilitud”.

Supongamos que hasta el momento las teorías mejor corroboradas son


también las más verosímiles. Basándose en ello, el principio sostendría
que la corroboración creciente de una teoría es un signo de verosimilitud
creciente, o dicho de otra manera, que las contrastaciones que la teoría ha
superado en el pasado son un indicio de su aptitud para sobrevivir en el
futuro. Se trataría de un principio metafísico aceptado no de modo
apriorístico, sino de modo conjetural y “sin creer en él”. Ello permitiría
evitar que la filosofía de Popper desembocara en el escepticismo y en el
anarquismo feyeradiano.

9
156
Ahora bien, ¿qué significa exactamente esto que afirma Lakatos de aceptar
el principio inductivo pero sin creer en él? Cabría decir con Newton-Smith
que si no se cree en él, no podrá justificar ninguna conexión entre
corroboración y verosimilitud. El problema es que Lakatos asume un
convencionalismo sobre la base empírica de la ciencia similar al de Popper
que le cierra el paso a un inductivismo lo suficientemente fuerte como para
poder justificar dicha conexión.

5. Hay aún una faceta de la metodología de los programas de investigación que


conviene destacar. Esta metodología lleva consigo una forma peculiar de entender
la historia de la ciencia; en concreto, establece una distinción nítida entre la
historia interna y la historia externa de la ciencia, e intenta que dentro de la historia
interna quede tanto como sea posible de la historia real de la ciencia. En este
sentido, la metodología de los programas de investigación científica se declara
capaz de integrar como internos muchos aspectos de la historia de la ciencia que
otras metodologías dejaban como externos. Pero para apreciar esto es necesario
aclarar qué entiende Lakatos por historia interna y externa.

Estos dos conceptos tienen su origen en el debate historiográfico y ocuparon


también un lugar importante en los análisis kuhnianos de la historia. En su trabajo
de 1968 titulado “Historia de la ciencia”, Kuhn había escrito que el enfoque
interno de la ciencia se ocupa de ésta como conocimiento, centrándose en la
relación entre las ideas científicas, y entre éstas y las ideas filosóficas y religiosas.
En una historia puramente intelectual donde lo que cuenta es el contenido de las
teorías y los experimentos. En cambio, la historia externa se ocupa de los
científicos, el sistema educativo, las relaciones entre la ciencia y la sociedad, entre
la ciencia y la industria o la economía, entre la ciencia y el poder político, etc…

Para Kuhn ambos enfoques son distintos y quizá no pueden ser integrados por
completo; pero son enfoques complementarios. La historia interna es hasta ahora
la que ha obtenido más éxito a causa del aislamiento cultural en el que trabajan
los practicantes de una ciencia madura, pero sería erróneo pensar por ello que los
aspectos esenciales del desarrollo científico pertenecen en exclusiva el enfoque
interno. Hay muchos aspectos en los que los factores externos son decisivos. Los
historiadores suelen adscribirse a uno de ambos enfoques. Así, el trabajo de Kuhn
como historiador se encuadra dentro del enfoque internalista.

1
0
157
Lakatos retoma la idea central de esta caracterización pero introduce
modificaciones importantes.

 La historia interna es para él una historia de los aspectos estrictamente


racionales de la ciencia, o, si se prefiere, es una reconstrucción racional y
normativa de la historia real de la ciencia que muestra el modo en que los
casos históricos de progreso científico obedecieron a criterios
metodológicos.

 La historia externa, por el contrario, es la historia empírica de los factores


residuales no-racionales. Dado que la historia real de la ciencia nuca es
completamente racional, todo enfoque interno debe ser completado con
diversas explicaciones provenientes de la historia externa. Ciertos
episodios de la historia de la ciencia sólo pueden encontrar un sentido
desde la perspectiva externalista. Por ejemplo

Ninguna teoría de la racionalidad podrá explicar nunca la desaparición


de la genética mendeliana de la rusia soviética en la década de 1950, o
las razones por las que algunas escuelas de investigación sobre
diferencias raciales genéticas o sobre la economía de la ayuda exterior
quedaron desacreditasen los países anglosajones en la década de 1960.
Más aun, para explicar los diferentes ritmos de desarrollo de los distintos
programas, puede ser necesario utilizar la historia externa.

La historia interna selecciona los hechos y los interpreta metodológicamente,


llegando incluso a ofrecer una versión radicalmente mejorada de lo que sucedió
en realidad. Para la historia externa quedaría explicar los acontecimientos que no
encajan en absoluto en esa reconstrucción racional, o aclarar cómo y por que se
desviaron de lo ofrecido por la reconstrucción racional los acontecimientos que lo
hicieron. Lakatos afirma que un modo de indicar esta desviación es relatar la
historia interna en el texto y aclarar en nota a pie de página los desajustes reales
de la misma.

Como puede fácilmente inferirse de lo dicho, Lakatos considera que la historia es


lo principal. Cuanto menos quede para explicar por la historia externa tanto mejor,
pues tanto más racional será la imagen ofrecida del desarrollo científico, lo cual,
para un racionalista como él, es lo deseable. Esto puede servir, por tanto, como un
criterio meta-metodológico para poner a prueba las distintas metodologías
normativistas propuestas hasta el momento: el inductivismo, el
convencionalismo, el falsacionismo metodológico y su propia metodología de los
programas de investigación científica.

1
1
158
Puesto que todas funcionan como “programas de investigación historiográficos”
y efectúan una reconstrucción racional de la historia de la ciencia, será preferible
aquella que encaje mejor con la historia real de la ciencia, o sea, aquello que deja
menos episodios históricos por explicar racionalmente. Lakatos argumenta que es
la metodología de los programas de investigación científica la que mejor cumple
con este requisito. Es ella la que menos residuos no-racionales deja a la historia
externa, o lo que es igual, la que muestra como racionales más aspectos del
desarrollo de la ciencia. Mucho de lo que para el inductivista, para el
convencionalista o para el falsacionista popperiano es irracional (las influencias
metafísicas en el primer caso, la elección una teoría cuando es discutible que sea
más simple que sus rivales en el segundo caso, la permanencia de programas con
anomalías en el tercero) es perfectamente racional para el defensor de la
metodología de los programas de investigación científica.

No hace falta decir que esta concepción lakatosiana de la historia ha recibido


críticas severas.

 Para algunos, una historia interna que es una visión muy mejorada de lo
realmente sucedido y que ha de ser completada a pie de página con
aclaraciones que en el fondo desmienten lo dicho en el texto no deja de ser
una extraña mistificación carente de verdadero valor como narración
histórica. Es más, no está tan claro por qué habría de ser preferible una
metodología que minimizase la influencia de los factores externos.

Habría que averiguar antes qué papel han desempeñado realmente los
factores externos en la evolución de la ciencia para ver si deben o ser
minimizados. Kuhn argumentó que la historia interna de Lakatos es
demasiado restringida con respecto al modo en que la entiende el
historiador. Deja fuera aspectos que la mayoría de los historiadores
consideraría como internos, tales como la ideosincrasia personal del
científico, el modo en que se produce la creación científica, la forma que
adopta el producto de dicha creación, la ceguera para detectar ciertas
consecuencias de una teoría, la producción de errores, etc…

 Por otra parte, dado que la historia interna de Lakatos no es sino una
selección y reconstrucción de hechos a partir de una determinada
metodología, nada habrá en ella de lo que pueda aprender el filósofo
excepto lo que propiamente éste haya introducido. El filósofo no podrá
corregir ni mejorar su propuesta metodológicamente a la luz de la
evidencia histórica, ya que lo que se considera como un episodio de
racionalidad científica es únicamente lo que dicta su metodología. ¿Qué
puede enseñar acerca de la racionalidad de la ciencia una historia en la que
es declarado como irracional, sin más indagación, todo lo que no encaje
en la metodología preestablecida por el filósofo? Esto presupone además
que la racionalidad científica puede ser juzgada en todo momento desde
los criterios propuestos en la actualidad.

1
2
159
 Pero lo que quizá más hable en contra de la separación tajante entre
historia interna y externa tal como la entiende Lakatos es la dificultad para
separar en la mayor parte de los casos los factores internos de los externos
en la investigación científica. Como también sugiere Kuhn, no hay
siquiera acuerdo acerca de qué considerar como un factor interno y qué
como un factor externo. Y por supuesto, no todos los filósofos están
dispuestos a considerar los factores externos como puramente no-
racionales.

6. Recapitulando, el modelo que propone Lakatos es un modelo racionalista en el


sentido que ya explicamos. Según dicho modelo, la ciencia progresa en la medida
en que se logran programas de investigación científica cuyas teorías se acercan
cada vez más a la verdad (son más verosímiles), y la señal que indica que esto se
produce viene dada por el aumento en el grado de corroboración. Pero, a
diferencia del modelo popperiano, este aumento en la corroboración no se
entiende como el rigor cada vez mayor en los intentos de falsación que una teoría
ha pasado con éxito, sino como la confirmación de los contenidos excedentes de
los nuevos programas, es decir, como la mayor progresividad de dichos
programas. Un programa cuyo exceso de contenido con respecto al anterior resulta
confirmado es un programa progresivo. El criterio de evaluación y comparación
de programas rivales es precisamente el carácter progresivo o regresivo de los
mismos. Y es con ese criterio, basado en factores internos, con el que los
cinetíficos deciden aceptar or echazar un programa, por mcho que la decisión
pueda tomar un largo tiempo.

A pesar del esfuerzo de Lakatos por aunar en un todo coherente lo mejor del
modelo popperiano y de las aportaciones del giro historicista, su modelo nunca
gozó de una aceptación amplia por parte de los filósofos de la ciencia, algo que
no pudo remediar ni siquiera el empeño de seguidores tan notables como John
Worrall o Elie Zahar. Puede que en ello tuviera mucho que ver la prematura
muerte de Lakatos, pero también el hecho de que su filosofía tendía a ser vista por
unos y por otros, de forma seguramente injusta, como una mera ampliación y
desarrollo de las propuestas originales realizadas por Popper, Kuhn o Feyerabend.

1
3
160
Los aspectos que menos simpatías han despertado, dejando de lado el concepto de
historia interna, tienen que ver con la carencia de fuerza normativa del modelo y
con su convencionalismo declarado.

 Sobre el primer asunto ya hicimos algún comentario en el Capítulo 4. Para


no extendemos de nuevo, diremos que el modelo de Lakatos no
proporciona ninguna regla acerca de cuándo habrá que abandonar un
programa regresivo para aceptar otro progresivo, ya que cualquier decisión
al respecto será racionalmente justificable.

 En cuanto al segundo, cabe señalar que hay dificultades para encajar el


elemento convencionalista de la filosofía de Lakatos, que no sólo afecta a
la base empírica, sino que hace irrefutables los núcleos firmes de los
programas de investigación, con el elemento realista heredado de Popper
que sostiene que en la ciencia se da un aumento de la verosimilitud.
También desde un punto de vista histórico resulta implausible el
convencionalismo lakatosiano, pues hay casos en los que los científicos
han abandonado o cuestionado algunos de los postulados teóricos básicos
sin abandonar por ello el programa de investigación en cuyo núcleo se
marcaba dicho postulado.

 La última dificultad la comparte con Popper. Para ambos el progreso en el


conocimiento científico se basa en el aumento del contenido empírico de
las teorías. En el caso de Lakatos este aumento del contenido empírico se
concreta en la predicción de hechos novedosos. Ninguno de los dos
proporciona, sin embargo, una indicación mínimamente útil de cómo
medir el contenido empírico de las teorías de modo que pueda comprarse
el de unas y el de otras, con lo cual la aplicabilidad de icho criterio de
progreso se desvanece.

1
4
161
PUNTO 3: LARRY LAUDAN (1941 – 2022)
En el prólogo a la edición española de El progreso y sus problemas, y en otros lugares,
Larry Laudan sostiene que los estudios históricos sobre la ciencia han puesto de relieve
una serie de características, ya bien establecidas, del progreso científico y que cualquier
modelo normativo de racionalidad científica que pretenda alguna plausibilidad de dar
cuenta de las mismas. Son éstas
1. Las transiciones de teorías son generalmente no acumulativas
2. Las teorías no son rechazadas sólo por tener anomalías ni son aceptadas sólo por haber
sido confirmadas
3. Las cuestiones conceptuales son muy importantes en los cambios de teorías.
4. Los principios específicos de racionalidad científica no son permanentes, sino que han
cambiado con el tiempo.
5. Las gamas de actitudes cognitivas no se reduce a aceptar o rechazar una teoría, sino
que incluye también proseguir, mantener, etc…
6. Existe una variedad de niveles de generalidad en la ciencia que va desde las leyes a los
marcos conceptuales.
7. Resulta imposible caracterizar el progreso científico como un mayor acercamiento a la
verdad.
8. La coexistencia de teorías rivales es la regla y no la excepción, de modo la evaluación
de teorías es un asunto comparativo.

Como es fácil apreciar, estos ocho puntos, recojan o no lo que puede decirse con seguridad
desde la historia de la ciencia, lo que sí recogen son tesis fundamentales de Kuhn, Lakatos
y de otros promotores del giro historicista en filosofía de la ciencia. Aunque no todos
coincidirían en todas ellas. Lakatos rechazaría la tesis 4 y la 7, Kuhn la ocho. Sin embargo,
la 3 y la 5 son presentadas por Laudan como tesis no reconocidas claramente en modelos
anteriores, lo cual es, ciertamente, una exageración. Pero, sobre todo, estas ocho tesis no
dan un buen resumen de las líneas maestras del modelo de cambio científico que propone
el propio Laudan.

1
5
162
1. Siguiendo a Kuhn, con su noción de paradigma, y a Lakatos, con sus programas
de investigación, Laudan considera que las unidades de evaluación acerca del
progreso científico deben ser las tradiciones de investigación, como la teoría
atómica o la teoría de la evolución. Los científicos también emplean la palabra
“teoría” para referirse a ellas, pero a diferencia de las teorías específicas, no son
directamente contrastables, ya que, además de incluir elementos normativos, son
más generales, y por sí mismas no dan lugar a predicciones concretas.

Una tradición de investigación está encarnada por una serie de teorías específicas
relacionadas histórica y conceptualmente. No es necesario que tales teorías sean
consistentes entre sí, puesto que algunas podrán ser rivales de otras. Por ejemplo,
la tradición de investigación mecanicista en la típica del siglo XVII incluía a las
teorías en gran medida incompatibles de Descartes, Hooke, Rohault, Hobbes,
Régis y Hyugens. Dentro de una tradición de investigación, sin embargo, las
teorías comparten al menos una serie de compromisos ontológicos acerca del tipo
de entidades que se dan en el mundo y un conjunto de normas metodológicas
acerca de cómo llevar a cabo una investigación. Estos supuestos ontológicos y
metodológicos son los que caracterizan a las tradiciones de investigación, por eso
Laudan las define como “un conjunto de síes y noes ontológicos y
epistemológicos”. No obstante, como aclararemos después, no deben interpretarse
como supuestos inimitables. Por el contrario, están sujetos a cambios graduales.

Las tradiciones de investigación cumplen las siguientes funciones principales:

 Señalan qué supuestos pueden ser considerados como “conocimiento de


fondo” no controvertido.

 Ayudan a identificar qué partes de una teoría se encuentran en dificultades


y deben ser modificadas.

 Establecen reglas para la recogida de datos y la puesta a prueba de teorías.

 Plantean problemas conceptuales a toda teoría que, dentro de ella, viole


sus postulados ontológicos y epistemológicos.

Las similitudes de las tres primeras funciones con el modelo de Lakatos son
evidentes. En las tradiciones de investigación, como en los programas de
investigación científica, hay supuestos que se aíslan habitualmente de la discusión
y que se asumen sin necesidad de justificación, aunque Laudan cree que incluso
estos componentes centrales pueden cambiar lentamente con el tiempo. Por otra
parte, los supuestos ontológicos y metodológicos que constituyen una tradición de
investigación cumplen una función heurística positiva de Lakatos.

1
6
163
Proporcionan herramientas y estrategias para desarrollar teorías, o para
modificarlas en caso necesario, y permiten delimitar un ámbito de problemas
legítimos, señalando dentro de él cuáles son prioritarios. Finalmente, los
postulados ontológicos y metodológicos de una tradición de investigación
delimitan qué tipos de teorías se puede desarrollar dentro de ella, excluyendo por
anticipado a las que entren en conflicto con dichos postulados, o bien señalando
la existencia de un problema conceptual debido a dicha incompatibilidad.

Las tradiciones de investigación se evalúan en función del éxito de sus teorías


constituyentes para alcanzar los objetivos cognitivos de la ciencia. Los modelos
racionalistas anteriores centraron estos objetivos en el logro de teorías con un
grado creciente de confirmación o con un grado creciente de verosimilitud.
Laudan sostiene que dichos modelos han fracasado en su intento de excelencia,
terminan por dar la impresión de que la ciencia es en el fondo mucho más
irracional de lo que se cree. La verdad o la verosimilitud en especial son metas
utópicas, puesto que ni siquiera tenemos modo alguno de saber si las estamos
alcanzando.

El fracaso de dichos modelos metodológicos obliga al racionalista a buscar una


explicación del progreso científico tomando otros objetivos como referencia. En
otras palabras, si queremos mantener una visión racional del modo en que los
científicos deciden cambiar sus teorías, hemos de renunciar a explicar este cambio
viéndolo como un progreso hacia la verdad o hacia teorías cada vez más
probables. El precio que ay que pagar por evitar el irracionalismo de Kuhn y
Feyerabend sería, por tanto, reconocer con ellos que ni la probabilidad ni la verdad
han sido o son metas de la ciencia. En su lugar Laudan propone que consideramos
como objetivo principal de la ciencia algo mucho más modesto y sobre lo cual sí
cabe hacer una estimación para ver en qué medida lo vamos alcanzando. Dicho
objetivo es el logro de teorías con una gran capacidad para resolver problemas con
eficacia. Con ello Laudan no está afirmando que ése sea le único objetivo de la
ciencia. Su postura en este asunto es pluralista: la ciencia tiene fines diversos y
cambiantes a lo largo de su historia. Pero cree que, si contemplamos el progreso
científico de esta manera, como el hecho de que las nuevas teorías resuelven más
problemas que sus predecesoras, podremos alcanzar una imagen mucho más
satisfactoria que las ofrecidas hasta ahora de la racionalidad de las decisiones de
los científicos.

1
7
164
La propuesta de Laudan de tomar la resolución de problemas como criterio de
estimación del progreso científico no es novedosa. Recordemos que Kuhn cifraba
igualmente el progreso científico en el hecho de que los nuevos paradigmas
resuelven más y mejores problemas que sus predecesores. Y podríamos
mencionar también la tesis popperiana de que la investigación científica no
comienza con observaciones son con problemas que reclaman una solución
tentativa. La diferencia principal entre Laudan y Kuhn en este asunto estaría en
que, mientras que para este última el peso y la importancia que los partidarios de
paradigmas rivales atribuyen a los problemas científicos puede ser muy deferente,
y no cabe al respecto un procedimiento neutral de decisión, para Laudan es posible
dar razones objetivas en favor de la mayor importancia epistémica de unos
problemas sobre otros.

2. Para articular su propuesta, Laudan elabora en primer lugar una detallada


taxonomía de problemas científicos. Éstos se dividen en dos tipos fundamentales:
los problemas empíricos y los problemas conceptuales.

 Un problema empírico necesita para surgir un determinado contexto


teórico que lo defina y sobre cuyo fondo se aprecie su carácter
problemático. Una variación ese contexto puede llevar aparejada una
variación en este tipo de problemas. Además, “un problema (empírico),
para serlo, no necesita describir con precisión un estado de cosas real todo
lo que requiere es que alguien piense que es un estado de cosas real”. Esto
quiere decir que son los científicos quienes, en función del estado de los
conocimientos, determinan qué se considera como un problema empírico
y qué no.

De este modo, problemas que hoy no pueden parecer absurdos o


inexistentes, pero que fueron considerados como problemas serios en el
pasado, deben ser vistos desde un enfoque histórico y filosófico como
problemas científicos genuinos. Así, debemos incluir los detalles de la
generación espontánea entre los problemas científicos empíricos que la
biología de principios del XIX intentaba resolver, aunque hoy neguemos
la existencia de la generación espontánea.

Algunos críticos han objetado que si todo lo que se necesita para que surja
un problema empírico es que alguien lo perciba como problema real,
entonces la ciencia podría plagarse de problemas elegidos arbitrariamente.
No obstante, es importante notar que Laudan también dice que estos
problemas surgen en el seno de una tradición y sobre el fondo de un
contexto teórico, lo cual limita en mucho el tipo de cosas que pueden
tomarse como problemas que hay que considerar. Más adelante
discutiremos, sin embargo, si esta limitación es suficiente. Hay tres tipos
de problemas empíricos:

1
8
165
o Problemas no resueltos: Aquellos para los que aún no hay solución
en ninguna teoría. Son problemas potenciales que, en muchos
casos, no cuentan como auténticos problemas hasta que han sido
resueltos por una teoría. Precisamente cuando encuentran una
solución es cuando se ven como problemas genuinos (ej: el
problema del movimiento browniano durante el siglo XIX).

o Problemas resueltos: Aquellos que han sido resueltos


satisfactoriamente por una teoría. Basta con que la solución sea
aproximada (ej: el problema de las relaciones entre la presión y el
volumen de un gas es resuelto de forma aproximada por la teoría
cinética de los gases, y de forma algo más exacta por las
modificaciones que introduce Van der Waals).

o Problemas anómalos: Aquellos que no han sido resueltos por la


teoría para la que constituyen una anomalía, pero sí lo han sido por
una teoría rival (ejemplo: el hecho de que todos los planetas del
sistema solar giren ela misma dirección no era explicado por la
teoría newtoniana, pero sí por la cartesiana, de modo que era una
anomalía para la primera). Estos problemas no ace inevitable el
abandono de la teoría para la que son anomalías, ni tienen por qué
ser inconscientes con ellas. Y no es tanto su número como su
importancia cognoscitiva (grado de discrepancia, antigüedad,
etc…) lo que ha de tenerse en cuenta.

Según esta caracterización, un problema no resuelto no tiene


porqué ser una anomalía. Sólo lo es cuando ese problema ha sido
resuelto por una teoría rival. De este modo, un contraejemplo de
una teoría puede no ser una anomalía para ella si ninguna otra lo
ha resuelto, y viceversa, un ejemplo no falsador puede ser una
anomalía si la teoría no lo resuelve mientras que otra sí lo hace.

1
9
166
 En cuanto a los problemas conceptuales, Laudan los define simplemente
como los problemas que son presentados por alguna teoría. Se dividen en:

o Problemas conceptuales internos: se dan cuando una teoría T


presentan consistencias internas o los mecanismos teoréticos que
postula son ambiguos o circulares (Ejemplo: en el XIX la teoría
cinético-molecular intento explicar la elasticidad de los gases
postulando componentes elásticos, las moléculas).

o Problemas conceptuales externos: cuando una teoría T está en


conflicto con otra teoría T (o con teorías metodológicas o
metafísicas prevalecientes). Este conflicto puede darse en tres
formas principales:

 Inconsistencia o incompatibilidad: T implica la negación


de (una parte de) T’. En un sentido más amplio, se da este
tipo de problemas cuando T hace suposiciones que van
contra las suposiciones metafísicas prevalecientes o que no
pueden ser garantizadas por las doctrinas epistemológicas
o metodológicas prevalecientes. (Ejemplo: el sistema de
Ptolomeo entraba en contradicción con las teorías físicas y
cosmológicas que dictaban que el movimiento de los
planetas era circular y con velocidad uniforme. Del mismo
modo, el sistema de Copérnico chocaba con la mecánica
aristotélica).

 Inaceptabilidad conjunta de teorías: T implica que (una


parte de) T’ es improbable. Es decir, T es lógicamente
compatible con T’, pero la aceptación de una de ellas hace
menos plausible a la otra. (Ejemplo: la fisiología
mecanicista de inspiración cartesiana era compatible con la
física de Newton, pero ésta hacía muy poco plausible que
un sistema tan complejo como un organismo vivo pudiera
funcionar mediante procesos mecánicos simples).

 Mera compatibilidad ente teorías: T no implica nada acerca


de T’, cuando debería reforzarlo o apoyarla. (Ejemplo: una
teoría química que fuese compatible con la teoría cuántica,
pero que no utilizase sus contos para explicar la formación
de enlaces, sería vista con recelo por los científicos).

2
0
167
3. ¿Cómo resuelve una teoría todos estos problemas? Según Laudan, “una teoría T
ha resuelto un problema empírico, si T funciona (significativamente) en cualquier
esquema de inferencia cuya conclusión es un enunciado del problema”. O, dicho
de otro modo, un problema empírico queda resuelto por una teoría si de ésta, junto
con determinadas condiciones iniciales, se puede derivar un enunciado,
habitualmente sólo aproximado, del problema. El parecido con el modelo
nomológico-deductivo de explicación es claro. En cuanto a los problemas
conceptuales, más que resolverse, se eliminan; lo cual sucede cuando una teoría
no presenta ya una dificultad conceptual que afectaba a su predecesora.

En función de esto, Laudan sostiene que el progreso en la ciencia ha de ser


entendido como el logro de teorías capaces de resolver mayor número de
problemas empíricos importantes y capaces de genera menor número de
anomalías y de problemas conceptuales. El progreso científico no tiene además
por qué ser acumulativo. Una nueva teoría no está obligada a resolver todos los
problemas que resolvía la anterior. Podemos perder capacidad con una nueva
teoría para resolver ciertos problemas, pero si las ganancias explicativas
compensan esa pérdida, sigue siendo un cambio progresivo de teoría. Algunos
problemas pueden incluso carecer de sentido en la nueva teoría simplemente
desaparecen. El progreso científico exige, pues, para su evaluación un análisis de
costes y beneficios, por lo que ha de efectuarse siempre mediante la comparación
de la efectividad de una teoría con la de las teorías rivales; la evaluación de teorías
y de tradiciones de investigación es siempre comparativa, no es un juicio que se
haga sobre determinadas propiedades de la teoría considerada en sí misma.

 Uno de los rasgos principales en el modelo de Ludan es la importancia que


concede a la resolución de los problemas conceptuales en el desarrollo de
la ciencia (algo que, sin embargo, también había hecho Whell y, más
recientemente, Toumlin). Los problemas conceptuales y las anomalías
empíricas son conjuntamente los fallos que pueden presentar las teorías.
Pero, según Laudan, los filósofos empiristas de la ciencia han centrado su
atención en las segundas y han descuidado los primeros. La importancia
de los problemas conceptuales es tal que Laudan considera que podría
hablarse de progreso en el paso de una teoría bien apoyada empíricamente
a otra menos apoyada, siempre y cuando esta última resolviera dificultades
conceptuales que lastraban a la primera.

2
1
168
El descuido de los problemas conceptuales ha obedecido a la creencia en
que lo único relevante que hay que examinar para evaluar el desarrollo
histórico de la ciencia es la evidencia empírica con la que contaba los
científicos acerca de cómo contrastar las teorías y de qué cuenta como una
evidencia en su favor han ido evolucionando a lo largo del tiempo. No sólo
las teorías cambian, sino también los criterios de evaluación de las mismas
y los criterios sobre cómo realizar la investigación. Por ello, para juzgar
sobre la racionalidad de los cambios históricos en la ciencia es necesario
hacer referencia a los criterios de evaluación que compartían los
científicos del momento, en lugar de utilizar los nuestros actuales. Y eso
sólo se puede hacer si se entrega a considerar los problemas conceptuales
de las teorías junto con los empíricos.

 Un segundo aspecto a destacar en el modelo de Laudan es su compromiso


con cierto instrumentalismo. Según dicho modelo, para determinar si una
teoría resuelva o no un problema, “es irrelevante si la teoría es verdadera
o falsa, o si está bien o escasamente confirmada”. La resolución de un
problema empírico por parte de una teoría consiste en una relación
puramente formal entre la teoría y el enunciado del problema y, como tal
relación formal, es independiente de la verdad o falsedad de la teoría, así
como la verdad o la falsedad de la conclusión.

Laudan no niega que los enunciados científicos sean verdaderos o falsos,


ni que podamos hacer juicios relativos a su verdad o falsedad, pero sí
piensa que tales juicios no desempeñan ningún papel en la evaluación de
la efectividad resolutiva de las teorías y, por consiguiente, no sirven para
estimar el progreso. Podemos así decir que una teoría resolvía en el pasado
determinado problema aunque hoy día consideremos que esa teoría en
general o la solución propuesta en particular eran falsas. La costumbre
arraigada de pensar acerca del progreso en términos de verdad o falsedad
puede hacer que esta afirmación parezca sorprendente, y por eso Laudan
intenta justificarla mediante la mención de algunos casos concretos.

2
2
169
4. En lo que respecta al cambio científico, Laudan piensa que los cambios en el
núcleo de la investigación no producen una tradición de investigación diferente.
Cuando los cambios dentro de la tradición no son suficientes para resolver ciertos
problemas, que sí son resueltos por una tradición rival, la tradición es abandonada.
Una tradición rival toma entonces su lugar. Esta sustitución trae consigo el cambio
de las soluciones dadas a muchos problemas, pero una gran parte de los problemas
que son los mismos que tenía que resolver la tradición anterior. Por ejemplo,
cualquier sistema astronómico ha tenido que resolver el problema de los eclipses
y cuáquer teoría sobre los gases ha tenido que explicar las relaciones entre presión
y temperatura.

De acuerdo con el modelo que ofrece Laudan, el cambio científico no es


revolucionario, sino evolutivo. Ha habido, claro está, revoluciones en la ciencia,
pero no han sido tan importantes como creía Kuhn, ni se han diferenciado tanto
de lo que puede en otras fases de la investigación científico. Las revoluciones
científicas frecuentemente consisten en una recombinación nueva de elementos
antiguos, más que en la aparición de novedades radicales. Kuhn habría exagerado
las diferencias entre la ciencia normal y la revolucionaria. En la ciencia
encontramos siempre de facto el debate sobre cuestiones de fundamento y la
coexistencia de grandes teorías rivales. Por otra parte, el cambio científico no
presenta nunca discontinuidades tan radicales que impidan por principio una
explicación racional del mismo. No existe, por tanto, ningún problema de
inconmensurabilidad en la ciencia. Puede siempre evaluarse de forma objetiva
cuál entre dos teorías rivales es más efectiva resolviendo problemas, aunque sólo
sea viendo el número y la importancia de los problemas que cada una resuelve.

Frente a Kuhn, Laudan admite también la posibilidad, si bien la estima remota, de


que el resultado de una revolución no fuera progresivo, sino que los científicos
terminaran aceptando irracionalmente una tradición de investigación peor desde
el punto de vista de su efectividad. Dicho claramente, una revolución podría llevar
el abandono de una tradición de investigación más progresiva por otras menos
progresiva. El resultado de una revolución no es, pues, progresivo por definición.
En cada caso es una cuestión contingente si la revolución ha conducido o no a un
progreso.

2
3
170
Al carácter gradual del cambio contribuye también el que los científicos no se
limiten a aceptar o rechazar teorías. La gama de actitudes cognitivas que éstos
pueden adoptar es más amplia. Hay dos elementos de juicio principales
(sincrónico y diacrónico) para evaluar las tradiciones de investigación:

 La adecuación de la tradición de investigación consiste en la estimación


de tal efectividad para resolver problemas de las últimas teorías de dicha
tradición de investigación.

 La progresividad de la tradición de investigación consiste en la


determinación del aumento o disminución a lo largo del tiempo de la
efectividad de sus teorías componentes para resolver problemas. Cabe
distinguir aquí el progreso general hecho por la tradición de investigación
(comparación de la efectividad de sus teorías últimas con la de sus teorías
más antiguas)

 La tasa de progreso (adecuación de la tradición durante un período


específico). Ésta última es especialmente importante para juzgar
tradiciones de investigación nuevas.

Una tradición de investigación puede ser menos adecuada que otra rival, y sin
embargo, más progresiva. Por eso, las modalidades de evaluación de las
tradiciones de investigación han de darse en dos contextos distintos, siendo la
aceptación y el rechazo modalidades sólo del primero.

 Por un lado, en el contexto de aceptación, la base para aceptar o rechazar


una tradición de investigación se apoya en la idea del progreso efectuado
en la resolución de problemas: se aceptan las tradiciones de investigación
más adecuadas, aquellas que han resuelto más problemas importantes que
sus rivales. Aceptar una teoría o tradición de investigación significa
tratarla “como si fuera verdadera”. Pero eso no implica que los científicos
la acepten porque sea verdadera. La aceptan porque es eficaz resolviendo
problemas.

 Por otro lado, en el contexto prosecución, es racional proseguir y explorar


tradiciones de investigación que tengan una tasa de progreso mayor que
sus rivales, aunque sean menos adecuadas que éstas y no gocen por ello
de la aceptación de los científicos. La teoría atómica de Dalton, por
ejemplo, no podía rivalizar en sus comienzos en la adecuación con la teoría
química de las afinidades electivas, pero era más prometedora. Su mayor
tasa de progreso la hacía merecedora de una seria atención, a pesar de que
muchos científicos no la aceptaran.

2
4
171
En consecuencia, los científicos pueden aceptar una teoría o tradición de
investigación porque resuelva mejor los problemas empíricos y conceptuales que
sus rivales, y al mismo tiempo pueden considerar digna de atención y de desarrollo
otra teoría distinta, incluso incompatible, debido a que, siendo nueva, progreso
muy rápidamente. Pueden estar trabajado así simultáneamente en dos tradiciones
distintas. Todo ello representa, según Laudan, un punto intermedio entre “la
insistencia de Kuhn y de los inductivistas en el que la utilización de alternativas
al paradigma dominante nunca es racional (excepto en los momentos de crisis) y
la afirmación anarquista de Feyerabend y Lakatos de que la utilización de
cualquier tradición de investigación sin importar cuán regresiva sea, puede
siempre ser racional”.

Laudan cree que el hecho de que se despierte entre los científicos un interés grande
por una nueva tradición de investigación y que pasen a considerarla como un
aspirante serio a la lealtad de la comunidad científica es ya suficiente para decir
que se ha producido una revolución en la ciencia. Esto hace que las revoluciones
sean menos traumáticas de lo que habitualmente se supone. Para que se produzca
una revolución no es necesario que toda o la mayor parte de la comunidad
científica dé su apoyo a una nueva tradición de investigación. Basta simplemente
con que la nueva tradición de investigación se desarrolle y los científicos se
sientan obligados a tomarla en consideración.

5. Finalmente, como señalamos, el cambio científico no es acumulativo, o sólo lo es


parcialmente. Una teoría puede representar un progreso sobre otra que no consiga
resolver todos los problemas que ésta resolvía. De hecho, sólo muy raramente lo
consigue. Kuhn y Feyerabend han mostrado con creces que en el cambio de teorías
normalmente se producen pérdidas y ganancias explicativas. Lo importante es que
las ganancias explicativas compensen a las pérdidas. Para ser más preciso, el
progreso no-acumulativo contempla las siguientes posibilidades:

 La nueva teoría resuelve problemas nuevos que no se planteaba en la teoría

 La nueva teoría puede también resolver problemas que se planteaban en la


anterior pero que ésta no resolvía y que, en tal caso, se convierte en
anomalías para ella. por ejemplo, la teoría de la relatividad consigue
resolver el problema del perihelio de Mercurio, que la de Newton no
consiguió resolver.

 Algunos problemas, sobre todo conceptuales, pueden desaparecer, al dejar


de tener sentido en la nueva teoría. Poor ejemplo, con la teoría de la
relatividad desparece el problema de explicar cómo era posible que la
fuerza gravitatoria actuara a distancia, porque la gravitación es vista como
el efecto de una curvatura espacio-temporal.

2
5
172
 Puede haber problemas que sigan siendo significativos en la nueva teoría
y que, habiendo tenido una solución en la teoría anterior, no la tengan, al
menso temporalmente, en la nueva. Por ejemplo, la mecánica celeste
Descartes explicaba por qué las plantas se mueven en la misma dirección
alrededor del Sol, mientras que la de Newton no lo hacía.

6. El resto son problemas que tenían explicación antes del cambio y la tienen también
después. Por ejemplo, tanto la teoría de Ptolomeo como la de Copérnico resolvían
el problema del movimiento de retrogradación de los planetas.

 El concepto de racionalidad científica surge de este modo difiere del modo


en que se caracteriza la racionalidad en modelos anteriores. La
racionalidad científica no consiste ya en aceptar teorías que creemos
verdaderas (o muy probables), ni en ofrecer hipótesis que puedan ser
refutadas, o que aumenten nuestras utilidades. Hacer elecciones racionales
en la ciencia consiste simplemente en hacer elecciones que sean
progresivas, que incrementen la eficacia en la resolución de problemas de
las teorías que aceptamos, sin presuponer nada sobre su verdad.

Con esto Laudan invierte la relación que se establece habitualmente entre


racionalidad y progreso. El progreso no depende de seguir ciertos criterios
de racionalidad; no hacemos progresos en la ciencia porque tomamos
decisiones racionales. Es al contrario: tomar decisiones racionales
significa elegir las teorías que implican un progreso en el sentido
explicado. Es la racionalidad la que es dependiente del progreso.

 Por otra parte, las evaluaciones sobre la eficacia de las teorías para resolver
problemas deben realizarse tomando en cuenta el contexto histórico.
Laudan sostiene que los criterios de racionalidad que determinan si algo
debe considerarse o no un problema conceptual o un problema empírico
digno de atención, los criterios para considerar suficiente el rigor de un
experimento, los criterios para otorgar más peso a unos problemas que a
otros, los criterios para juzgar si una explicación es buena o si algo ha de
considerarse empíricamente corroborado, etc… cambian con el tiempo.

Aunque haya características muy generales de la racionalidad que sean


transtemporales y transculturales, como que es racional aceptar las
tradiciones de investigación más eficaces para resolver problemas, la
racionalidad científica en su conjunto no es intemporal. Lo que pudo ser
una elección racional de teorías en una época puede no serlo en otra. Hubo
un tiempo en que lo racional era elegir teorías que tuvieran una sólida base
metafísica y que no chocaran con las creencias religiosas. Hoy en día, en
cambio, ésos no serían criterios para considerar que la elección de teorías
ha sido la más adecuada.

2
6
173
En todo caso, según el modelo de Laudan, este tipo de factores
extracientíficos pueden intervenir en las decisiones de los científicos sin
que ello las convierta en irracionales. En la medida en que las presiones
culturales que se ejercen sobre la ciencia han de ser tenidas en cuenta para
efectuar decisiones y, por tanto, en la medida en que los parámetros
específicos que constituyen la racionalidad dependen del momento y de la
cultura, el modelo favorece una concepción amplia de la racionalidad que
incluye factores aparentemente “no científicos” en los procesos de
decisión.

Sobre ello Laudan afirma: “Lejos de considerar la introducción en la


ciencia de cuestiones morales, filosóficas y religiosas como el triunfo del
prejuicio, la superstición y la irracionalidad, este modelo sostienen que la
presencia de esos elementos puede ser completamente racional; más aún,
que su supresión puede ser ella misma irracional y prejuicios”. De hecho,
“la opinión de que la ciencia es cuasi-independiente de esas diciplinas
(teología y metafísica) es ella misma una tradición de investigación de
origen relativamente reciente”.

7. Hemos insistido varias veces en que Laudan ha estado entre los críticos
principales de la tesis de la inconmensurabilidad. Pues bien, sobre este asunto y
sobre la racionalidad del cambio científico en general tienen que ver muchas de
sus propuestas filosóficas posteriores a El progreso y sus problemas, la obra que
le dio fama y que venimos comentado. Recordemos que uno de los motivos que
llevó a Kuhn a sostener dicha tesis era el hecho de que las normas de evaluación
(standars) y los fines (goals) cambia cuando cambia el paradigma, lo cual impide
la traducción de una teoría o a tora rival. Sin embargo, estamos viendo que Laudan
reconoce que se dan esos cambios en normas y fines, pero no cree que ello
conduzca a la inconmensurabilidad de las teorías o de las tradiciones de
investigación.

En su libro Science and Values, publicado en 1984, y en otros trabajos posteriores,


Laudan ha intentado mostrar cómo el relativismo kuhniano obedece en realidad a
ciertos presupuestos filosóficos rechazables que proceden del empirismo lógico.
Entre ellos, que las cuestiones relativas a fines o valores son siempre subjetivas,
que las reglas de decisión racional tienen un carácter algorítmico o que las teorías
están infradeterminadas por la evidencia empírica. En estos trabajos Laudan ha
argumentado, apoyándose en la historia de la ciencia, que la decisión racional
entre teorías es posible incluso en los casos en los que los científicos difieren en
sus normas metodológicas y en sus fines o valores. La aportación principal en
Science and Values es su propuesta de un modelo reticular de racionalidad
científica, opuesto al modelo jerárquico de justificación, el cual, según nos dice,
habría sido el aceptado normalmente por los filósofos de la ciencia hasta ese
momento.

2
7
174
 Comienza esta obra afirmando que tanto la sociología de la ciencia como
la filosofía de la ciencia han pasado conjuntamente por dos fases
indiferenciadas.

o Durante los 40 y los 50 los empiristas lógicos y Popper, por un


lado, y la escuela sociológica de Merton, por otro, elaboraron
sendas imágenes de la ciencia que, por encima de los puntos de
vista divergentes, pueden considerarse como complementarias, ya
que compartían una premisa básica y un problema común. La
premisa básica era que la ciencia puede ser demarcada nítidamente
de otros ámbitos culturales, como la filosofía. El problema común
era explicar como se consigue el alto grado de acuerdo que se
observa en la ciencia y que parece ausente en estos otros ámbitos
culturales.

o Los sociólogos y filósofos en los 40 o 50 pensaban que el habitual


acuerdo de los científicos sobre los hechos se explicaba como
resultado del acuerdo previo, también amplio, en un nivel más
profundo: el nivel de los métodos, según los filósofos, o el nivel de
las normas (por ejemplo, el universalismo, comunismo,
desinterés), según los sociólogos. El consenso científico era, pues,
el subproducto de un pacto metodológico y axiológico. Pero esta
visión consensual de la ciencia es errónea, según Laudan.

El consenso no es tan general en la ciencia como presupone, y los


desacuerdos no pueden ser vistos como una mera desviación de la
norma. Además, el acuerdo en el nivel metodológico no garantiza
que también haya acuerdo en el nivel de los hechos. Las mismas
normas metodológicas pueden llevar a los científicos a
conclusiones diferentes según los casos. Y, por si esto no bastara,
los estudios históricos muestran que los científicos no suscribieron
habitualmente los mismos patrones metodológicos y axiológicos,
y que violan en muchas ocasiones los criterios que han propuesto
filósofos y sociólogos.

2
8
175
o A partir de los años 60 y 70, sin embargo, el panorama sufrió una
transformación sustancial, hasta el punto de que a mediados de los
70 la imagen de la ciencia que prevalecía entre sociólogos y
filósofos chocaba frontalmente con la exterior. Ahora el problema
central era buscar una explicación para la existencia de irrupciones
periódicas el desacuerdo en la ciencia. Kuhn y Feyerabend y los
sociólogos posteriores a la escuela mertoniana han desarrollado
una explicación del disenso en la ciencia en cuatro líneas de
argumentación:

 Hay más controversia en la ciencia de lo que señalaba la


anterior opinión

 Las grandes teorías rivales son inconmensurables.

 Los datos no pueden determinar la elección de teorías, es


decir, cabe formular teorías incompatibles que sean
capaces de encajar igualmente bien con la evidencia
empírica. Tal como afirma la tesis Duhem-Quine en una de
sus posibles formulaciones, ninguna teoría puede ser
refutada concluyentemente ni probada por la evidencia
empírica. O, expresado de una forma más amplia, como
Kuhn lo presentaba, los criterios de elección de teorías
nunca permiten determinar dicha elección.

 La conducta contranormal (ignorar la evidencia, tolerar


inconsistencias, mantener estrategias contrainductivas)
conduce a mendo al éxito en la ciencia.

El problema en este caso es, según Laudan, que se cierra la


posibilidad de explicar racionalmente el consenso, al que incluso
se considera indeseable.

Frente a estas dos posturas, Laudan cree que es necesario establecer una
teoría de la racionalidad científica que pueda dar respuesta a estos
problemas conjuntamente, cosa que no pueden hacer ninguna de las
explicaciones ofrecidas. La primera era incapaz de explicar
satisfactoriamente la existencia de desacuerdo y de controversias en la
ciencia, mientras que la segunda tenía problemas para explicar el amplio
consenso que también se produce en ella

2
9
176
 Laudan propondrá sendas críticas a ambos.
o La solución dada por los filósofos y sociólogos de las décadas de
los 40 y 50 al problema del consenso está comprometido con lo
que Laudan llama “modelo jerárquico de justificación”, el cual
estaría presente sobre todo en los trabajos de Popper, Hempel y
Reichenbag. Este modelo se compone de tres niveles
interrelacionados que se puede producir el acuerdo o el
desacuerdo.

 En el nivel más bajo están las disputas sobre cuestiones de


hecho (incluyendo como tales no sólo las discusiones sobre
los eventos directamente observables, sino sobre todo lo
que hay en el mundo, incluidas las entidades teóricas e
inobservables).

 Según este modelo, los científicos también están en


desacuerdo sobre las reglas metodológicas que deben
aplicarse, o sobre cómo deben ser aplicadas. En tales casos,
el desacuerdo sobre los hechos no puede, obviamente,
resolverse apelando a las reglas metodológicos. Eso
muestra que el desacuerdo factual es entonces señal de un
desacuerdo metodológico más profundo.

 Estas disputas metodológicas se resuelven subiendo otro


escalón y haciendo referencia a los propósitos y metas
compartidos (nivel axiológico). Los desacuerdos en este
último nivel se considerar inexistentes (sobre la base de que
los científicos comparten los mismos fines) o irresolubles.

3
0
177
Laudan estima que este modelo de justificación es útil para
explicar muchas de las conductas de los científicos encaminadas a
la formación del consenso, pero hay casos en los que fracasa. Por
ejemplo, como nos mostró la obra de Kuhn, no siempre las reglas
metodológicas compartidas permiten alcanzar un acuerdo sobre los
hechos, ni es posible siempre alcanzar un acuerdo sobre los
métodos sobre la ase de ciertos fines compartidos, ya que métodos
distintos pueden servir para conseguir esos fines. Pero sobre todo
el modelo fracasa en los casos donde los científicos no comparten
los mismos fines. Por ello, no es extraño que los defensores del
modelo, como Popper o Reichenbach, hayan argumentado que los
diferencias sobre fines obedecen a causas subjetivas y emotivas, y
no están abiertas a una resolución racional.

Con lo cual, mal que les pese, introducen un elemento de


irracionalidad en la base misa del progreso científico. Si asumimos
además la tesis de Kuhn de que en el cambio de paradigma el
debate alcanza también a los fines, dado que un nuevo paradigma
suele implicar nuevos fines cognitivos, no encontramos entonces
ante la conclusión inevitable de que la elección entre grandes
teorías rivales no puede resolver racionalmente. Pero esto nos lleva
a un callejón sin salida. Porque el hecho es que “los científicos se
ven a sí mismos como resolviendo la mayor parte de las
controversias de modo lógico y razonable, incluso cuando estas
controversias resultan de opiniones divergentes sobre mentas y
valores de la ciencia”.

o Pero, frente a Kuhn y Feyerabend, Laudan considera que hay


medios para criticar racionalmente los fines cognitivos. Si, por
ejemplo, se consigue mostrar que dos fines son incompatibles, se
puede entonces afirmar que no pueden ser perseguidos
racionalmente de forma conjunta. Cabe también argumentar contra
un fin sobre la base de que es utópico o irrealziable (y aquí
encajaría su propia crítica de la verosimilitud como objetivo de la
ciencia), o bien sobre la base de que no concuerda con los valores
implícitos en las prácticas y juicios de la comunidad científica. A
menudo un científico puede encontrarse defendiendo ciertos fines
que chocan los que de hecho presupone en su trabajo diario como
científico. En tales casos puede argumentarse que no es racional
que siga manteniendo la defensa de dichos fines.

3
1
178
 De conformidad con estas críticas, Lauda propone sustituir el modelo
jerárquico por un modelo reticular de justificación que se presenta como
una alternativa mucho más adecuada a la práctica real de la ciencia. En el
modelo reticular todos los niveles están sujetos a la crítica racional y a la
revisión a partir de los otros, produciéndose un continuo ajuste entre ellos.
Ninguno de los niveles es más fundamental que los demás, puesto que la
justificación entre niveles fluye en todas las direcciones.

En cuanto a los niveles mismos, el modelo reticular mantiene el nivel de


los métodos y el de los fines, pero Laudan prefiere hablar de teorías donde
el modelo jerárquico habla de hechos. El modelo reticular admite, por
ejemplo, que nuestros fines cognitivos permiten justificar por qué son
mejores ciertos métodos de investigación que otros, pero al mismo tiempo
recoge la posibilidad de utilizar nuestros conocimientos sobre los métodos
para juzgar la viabilidad de los fines propuestos. Si mostramos que no hay
ningún método conocido capaz de llevar a cierto fin, éste debe ser
abandonado como irrealizable. De este modo, la justificación fluye
también en sentido contrario al que aparecía en el modelo jerárquico.
Asimismo, el modelo reticular insiste en que nuestros juicios sobre las
teorías pueden ser confrontados con nuestras axiologías explícitas para
revelar las tensiones entre los valores implícitos en las teorías y los
explícitamente mantenidos por los científicos.

Laudan subraya que este modelo sirve para proporcionar una visión
gradualista del cambio científico opuesta a la visión holista de Kuhn.
Mientras que en el modelo kuhniano el cambio de paradigma llevaba
aparejado un cambio global en los tres niveles, surgiendo de ese modelo
el problema de la incomensurabilidad, en el modelo reticular los cambios
son paulatinos y no simultáneos. Cuando se produce un cambio en uno de
los niveles, los otros dos niveles pueden estar provisionalmente fijados. Es
cierto que un cambio en las teorías aceptadas puede llevar a un cambio en
los métodos, pero éste por lo general, se efectuará un tiempo después y
afectará sólo algunas normas metodológicas.

3
2
179
Además, son posibles cambios en las teorías (incluso revolucionarios) que
no impliquen cambios en la metodología, como sucedió en el caso de la
aceptación de la teoría de la relatividad. Esto permite que las teorías
implicadas sean evaluadas con los mismos criterios. Y viceversa, pueden
darse cambios en la metodología sin que eso conlleve cambios en las
teorías aceptadas. De las relaciones entre fines y métodos podría decirse
algo similar.

8. El modelo reticular de justificación científica no es la única modificación de


Laudan en relación con sus propuestas iniciales. En un artículo del 86, “Some
problems facing intuitionist Meta-Methodologies”, abandonó explícitamente el
intuicionismo meta-metdológico que ha defendido en El progreso y sus problemas
como alternativa al convencionalismo de Popper y al elitismo científico de
Lakatos. En su lugar, comienza a desarrollar en este trabajo una concepción
naturalista de la metodología y de la filosofía de la ciencia. El intuicionismo
propugnado inicialmente por Laudan asumía del giro historicista que las
propuestas metodológicas de los filósofos de la ciencia, pese a su carácter
normativo, ni son meras convenciones ni pueden ser establecidas a priori, sino
que han de estar basados en los datos de historia de la ciencia.

En particular, su fuerza normativa descansa en su capacidad para encajar


adecuadamente aquellos casos paradigmáticos de aceptación o rechazo de teorías
ocurridos en el pasado. Casos sobre los cuales filósofos, historiadores, etc…
comparten profundas convicciones -intuiciones preanalíticas-, en principio no
revisables, acerca de su corrección y su racioanlidad. Así, cualquiera que conoca
la historiad e la ciencia sabe que en torno a 1809 era racional decir que el calor
era un fluido. Para merecer aceptación y ser aplicado en la evaluación de otros
casos menos claros, cualquier modelo de racionalidad científica habría de explicar
el mayor número posible de estas intuiciones preanalíticas. Pero sólo de ellas:
ningún modelo de racionalidad científica tendría por qué mostrar como racional
la mayor Proción posible de la historia de la ciencia, como pensaba Lakatos.

La razón principal que Laudan ofrece en el artículo para rechazar este


planteamiento es que en él se da injustificadamente por supuesta la permanencia
y unanimidad de nuestros juicios intuitivos sobre los méritos de las teorías
científicas rivales y que, incluso así, no queda garantizado que tales juicios
permitan efectuar una elección entre metodologías diferentes. En trabajos
posteriores, Laudan insiste en que los fines y las creencias de fondo de los
científicos han cambiado históricamente y, en consecuencia, lo han hecho también
los métodos. No se puede, por tanto, pretender juzgar la racionalidad de los
científicos atendiendo sólo a su utilización de determinados métodos y dejando de
lado la cuestión de sus afines y creencias de fondo.

3
3
180
Ya desde Sciencia and Values, Laudan venía defendiendo una meta-metodología
naturalista que basaba la contrastación empírica de los modelos metodológicos,
no en su capacidad para dar cabida a ningún tipo de intuiciones, por muy aceptadas
que sean, sino en su capacidad para generar normas cuya validez pudiera ser
directamente apoyada por los hechos históricos. En esencia, el naturalismo
normativo de Laudan entiende las normas metodológicas como imperativos
hipotéticos que conectan ciertos medios con ciertos fines epistémicos, lo que
posibilita su comprobación empírica. Para contrastarlas, basta con ver si tales
medios promueven o promovieron en realidad esos fines. Las normas
metodológicas funcionan así como conjeturas falibles y su selección deben seguir
los mismos procedimientos que cualquier teoría científica.

Si queremos, por ejemplo, saber si la regla metodológica que aconseja evitar las
hipótesis ad hoc es una regla aceptable, en lugar de apelar al juicio de la élite
científica, como proponía Lakatos, o acudir a aquellos casos históricos que de
forma intuitiva podamos considerar como paradigmáticos, como ponía el
intuicionismo previo de Laudan, lo que procede es transformar este mando en un
imperativo hipotético, tal como: “se pretende obtener teorías con una alta
fiabilidad predictiva, deben rechazarse las hipótesis ad hoc; y a continuación
comprobar si, en efecto, la historia de la ciencia muestra que la evitación de
hipótesis ad hoc ha sido un buen medio para conseguir el objetivo de la fiabilidad
predictiva”. El naturalismo sobre las normas metodológicas es completado por
Laudan con un naturalismo sobre los fines: los fines de la ciencia han cambio
históricamente y los mecanismos mediante los cuales los científicos varían de
fines son los mismos que deben emplear el epistemólogo para seleccionar las
virtudes epistémicas.

Este naturalismo no surge en oposición total a su trabajo anterior. No sólo está el


hecho de que la propuesta meta-metodológica de El progreso y sus problemas era
ya una propuesta en buena medida naturalista, sino que en 1981 en el trabajo “A
confutation of Converge Realism”, tras interpretar el realismo científico como una
hipótesis empíricamente contrastable al modo de cualquier hipótesis científica,
Laudan aducía una serie de casos históricos que, según su reconstrucción de las
tesis realistas, serían suficientes para descartar el realismo como una explicación
aceptable del éxito de la ciencia.

3
4
181
9. Llegados a este punto, es perceptivo mencionar, como hemos hecho con los demás
modelos de cambio científico, algunas críticas formuladas contra el modelo de
Laudan.

 Quizá la más generalizada, ya que no depende en principio de la adopción


de un específico punto de vista epistemológico, es la que destaca las
dificultades aparentemente insalvables para establecer una medida
objetiva que permita la comparación en la eficacia para resolver problemas
por su parte de dos teorías rivales. No hay modo, por ejemplo, de
homogeneizar medidas para poder restar el peso (negativo) de los
problemas conceptuales del peso (positivo) de los problemas empíricos
resueltos. Los problemas métricos que Laudan imputa al concepto de
verosimilitud no desaparecen, por tanto, en su metodología. Esto debilita
una de las razones fundamentales que Lauda, daba para prescindir de dicho
concepto. Su modelo no nos proporciona siquiera un criterio acerca de
cómo deben ser individualizados los problemas.

No está claro, pongamos por caso, por qué el problema del movimiento
retrógrado de los planetas ha de ser considerado como uno sólo en lugar
de como uno para cada planeta. Laudan afirma sólo que para que algo sea
un problema empírico basta con que sea considerado como tal por los
científicos, que alguien lo perciba como un problema, pero entonces ¿qué
impide que los partidarios de una teoría vean en ella problemas resueltos
donde los partidarios de otra no ven problemas en absoluto? ¿Qué
garantiza que los problemas empíricos sean un elemento de continuidad
entre tradiciones de investigación?

 Desde posiciones antiinstrumentalistas, y especialmente desde el lado


realista, se ha puesto también en cuestión que pueda prescindirse del
concepto de verdad en la explicación del progreso científico, tal como
Laudan pretende. Si se prescinde del concepto de verdad -afirman-, no hay
modo de distinguir entre problemas auténticos y problemas espurios en la
ciencia. No bastaría con decir que un problema científico auténtico es
aquel que es percibido como tal en el seno de una tradición de
investigación, porque, para quien rechaza el relativismo, lo que se
pregunta es justamente por qué razón unos problemas son percibidos como
auténticos y otros como seudoproblemas. Del mismo modo, no habría
criterio para distinguir las soluciones válidas de las inválidas. Y desde
luego, los científicos no se limitan a proporcionar soluciones cualesquiera
a los problemas que les van saliendo al paso, sino que intentan encontrar
soluciones verdaderas a problemas auténticos.

3
5
182
Por otra parte, los problemas conceptuales más graves, como Laudan
reconoce, son las inconsistencia en el seno de una teoría; pero si las
inconsistencias representan un problema ¿no es justamente porque la
teoría en la que aparecen no puede ser verdadera? El realista no tendría
inconveniente en admitir que el progreso científico consiste en el aumento
de la eficacia en la resolución de problemas por parte de las nuevas teorías,
sólo que para él esto es una consecuencia del progreso que se realiza en la
consecución de teorías más cercanas a la verdad.

 También desde posiciones realistas se ha objetado que la imposibilidad de


determinar de manera infalible si nuestras teorías son verdaderas no
significa que no podamos atribuirles de modo fiable cierto grado de
verdad. Niiniluoto ha argumentado que, aunque nunca estemos ciertos de
haber alcanzado la verdad ni haya procedimientos algorítmicos para decir
si se está cerca de ella, es posible ofrecer una caracterización adecuada del
acercamiento progresivo a la verdad sobre la base revisable de la evidencia
disociable en cada momento. Para Niiniluoto la verdad es una meta
inaccesible, en la medida en que no hay un conjunto finito de pasos que
nos lleve hasta ella, pero no es una meta utópica, como mantiene Laudan.

Niiniluoto entiende que una meta es utópica si es inaccesible y además ni


siquiera podemos hacer progresos hacia ella. Un ejemplo de una meta así
sería la de ir caminando hasta la Luna. Pero la verdad es que una meta
sobre lo que sí podemos hacer progresos y efectuar ciertas estimaciones
sobre el mismo. En ese sentido sería como la perfección moral; no
podemos alcanzarla por completo, pero hay cosas que nos indican si
estamos o no más cerca de ella que antes. Perseguir metas utópicas quizá
puede ser irracional, pero no es irracional perseguir metas inaccesibles,
como la verdad, acerca de las cuales sí hay indicios que permiten estimar
el progreso realizado en su consecución.

 Un punto que no ha convencido a algunos racionalistas más fuertes que el


propio Laudan es el de la existencia de desacuerdos fundamentales sobre
cuestiones metodológicos y, menos aún, la existencia de cambios
históricos en las normas metodológicas básicas.

En particular, John Worrall ha afirmado que si lo único transtemporal y


transcultural que se permite en el modelo de racionalidad ofrecido por
Laudan son “ciertas características muy generales”, como que es irracional
para los científicos de una cultura adherirse a una teoría que es menos
adecuada (resuelve menos problemas) que otras “en el seno de esa
cultura”, si no hay, por tanto, principios permanentes de evaluación desde
los cuales mostrar que ha habido progreso objetivo, lo más que se puede
decir es que el progreso es relativo a los estándares aceptados temporal y
culturalmente, y esto es caer en el relativismo que Laudan tan
afanosamente intentaba evitar.

3
6
183
Laudan pensaba que el cambio de método y de fines en la ciencia no es
incompatible con la noción de progreso objetivo (con respecto a un fin
dado), porque para hacer una estimación del progreso no tenemos por qué
utilizar los criterios y fines de los protagonistas del cambio de teoría.
Podemos aplicar nuestros propios criterios, que suponemos mejores por
haber experimentado un mayor proceso de ajuste según el modelo
reticular, y emitir un juicio en fundación de ellos exclusivamente. Worrall
considera, por el contrario, que no podemos decir que nuestros criterios
sean mejores si no es sobre la base de algunos principios permanentes de
evaluación que son constitutivos de la propia racionalidad.

 Finalmente, el naturalismo normativo ha sido criticado por quienes creen


que no es posible una explicación puramente naturalista del cambio
científico, especialmente en lo que se refiere a la lección de los fines.
También se ha dicho que presente una visión limitada de la racionalidad
científica, ya que ésta queda reducida a una racionalidad instrumental. La
justicia de estas últimas críticas es, sin embargo, menos reconocida que la
de las primeras que hemos mencionado.

3
7
184
PUNTO 4: ALGUNAS INDICACIONES SOBRE LA SITUACIÓN ACTUAL
Los modelos de cambio de Lakatos y de Laudan no son los únicos que se han elaborado
en respuesta a las tesis de Kuhn y Feyerabend. Otros modelos dignos de mención el de
Dudley Shapere, el modelo estructuralista, el de Ronald Giera y el de Ikka Niiniluoto).

 El problema del progreso de la ciencia sigue vigente en las corrientes más


actuales de la filosofía de la ciencia. No obstante, puede afirmarse que se
ha producido una reorientación en el modo de abordarlo. En lugar de
proponer modelos filosóficos globales del cambio científico, la tendencia
es la de realizar análisis detallados de aspectos parciales de la práctica
científica. Frecuentemente estos análisis se hacen dentro de una concesión
naturalista de la epistemología. Es decir, toman como base de los
procedimientos, las herramientas conceptuales o los datos de algunas
ciencias empíricas, en particular la sociología, la psicología cognitiva o la
biología evolucionista.

La discusión en torno a los modelos de cambio científico que hemos


expuesto ha dejado un cierto margen para el acuerdo sore algunos puntos
básicos. Hoy es, por ejemplo, ampliamente reconocida la importancia de
la historia de la ciencia para poder elaborar y someter a contrastación de
cualquier propuesta epistemológico acerca de la ciencia. Esto no quiere
decir que todos los autores actuales estén comprometidos con la
epistemología naturalizada. Hay quienes consideran que el carácter
normativo de la epistemología le impide ser una disciplina empírica, al
modo de las ciencias naturales. Pero incluso entre quienes mantienen con
más firmeza este carácter normativo, se admite que cualquier propuesta
filosófica sobre la ciencia debe estar asentada en un conocimiento
profundo de su práctica real y que las prescripciones a priori basadas en
preconcepciones filosóficas no resultan creíbles.

 En segundo lugar, son cada vez más los que admiten que los métodos y
los criterios de evaluación científica han cambiado a lo largo de la historia.
El propio avance en los conocimientos ha propiciado este cambio en los
métodos. Al aprender cosas sobre el mundo hemos aprendido también a
mejorar nuestra forma de conocerlo. Los métodos son en muchas
ocasiones el resultado de la aplicación de los avances en la investigación
empírica. Se discute, sin embargo, la amplitud y alcance de estos cambios,
y si afectan sólo a normas concretas o también a principios muy generales.
En todo caso, el pluralismo metodológico defendido por Kuhn,
Feyerabend y Laudan parece imponerse sobre el monismo metodológico
al estilo del neopositivismo, de Popper y de Lakatos.

3
8
185
 Una cuestión relacionada, pero en la que hay mucho más disenso, es si
también han cambiado los fines de la ciencia a lo largo de su historia.
Mientras Laudan mantiene que así es, y que por ello mismo ningún fin
puede considerarse constitutivo de la ciencia, otros autores mantienen que
los fines cognitivos generales no han cambiado. Entre los candidatos a
estos fines permanentes están la búsqueda de teorías (Aproximadamente)
verdaderas (para los realistas), de teorías empíricamente adecuadas (para
los neopiristas), de teorías con capacidad predictiva (para los
instrumentalistas), etc… Por su parte, David Rsnik ha negado que la
ciencia tenga fines que puedan servir para justificar normas
metodológicas. Los que tienen fines según su opinión, son los científicos,
y estos pueden ser muy diversos. Es una cuestión abierta si caso de haber
cambiado de métodos y de fines, esto conduce o no a una posición
relativista.

 Parece también hacer un cierto acuerdo en que las unidades del análisis
del cambio científico deben ser más amplias que las teorías individuales.
Las diversas modalidades de dicho cambio, así como los matices de cada
una de ellas, sólo pueden ser apreciados si en lugar de ver el cambio como
la sustitución de una teoría por otra, al contemplamos como la transición
de un conjunto de teorías relacionadas (llámese paradigma, programa de
investigación, tradición de investigación, o como sea) a otro distinto. Dado
que estas unidades más amplias tienen una estructura compleja, el cambio
puede darse en ellas en distintos niveles, sin que tenga que cambiar todo
de una vez. Ello permite que unas partes están más expuestas al cambio
que otras.

 Finalmente, aunque el tema de la inconmensurabilidad sigue siendo un


tema candente, la mayoría de los filósofos de la ciencia, incluyendo a los
defensores de la incomensurabilidad, consideran que el cambio en la
ciencia es un cambio racional. Ahora bien, mostrar la racionalidad del
cambio científico no significa que haya que encontrar normas
suprahistóricas de evaluación capaces de encajar bajo ellas todo cambio
producido, ni algoritmos para la toma de decisiones. Basta con mostrar
que los cambios se han guiado por normas racionales, ellas mismas
cambiantes y contextuales. En cuanto al papel de los factores externos
(especiales, políticos económicos, psicológicos, etc…) la visión que
prevalece hoy es que no es ni muchos menos despreciable, pero tampoco
exclusivo. Y, sobre todo, muchos de estos factores externos no deben ser
excluidos del campo de la racionalidad.

3
9
186

También podría gustarte