El Surgimiento de las Geometrías no Euclidianas y su Influencia en la
Cosmología y en la Filosofía de la Matemática*
The Emergence of non-Euclidean Geometries and Their Influence on
Cosmology and Philosophy of Mathematics
Jorge Enrique Senior Martínez**
RESUMEN
En este artículo se describe el nacimiento en el siglo XIX de las geometrías no euclidianas y el
impacto que al doblar el siglo esta revolución matemática tuvo en la reflexión metacientífica
sistemática y, particularmente, en la filosofía de la matemática, generando, desde una concepción
formalista, un nuevo territorio teórico denominado Metamatemática. Asimismo se muestra la
influencia en la cosmología y la lógica-matemática.
Protagonistas de esta historia: Eudoxo, Euclides, Saccheri, Kant, Lobachevsky, Bolyai, Gauss,
Riemann, Beltrami, Klein, Poincaré, Frege, Peano, Hilbert, Russell, Whitehead, Minkowski, Einstein,
Wittgenstein, Carnap, Gödel.
Palabras clave: Geometría no Euclidiana, Lógica matemática, Historia, Cosmología.
ABSTRACT
In this paper it is described the emergence of non-Euclidean geometries in the XIX century and the
impact this mathematical revolution had, turning the century, on systemic metascientific thoughts
and, particularly, in philosophy of mathematics, generating a new theoretical ground called
Metamathematics. Likewise, it is shown its influence in cosmology and mathematical logics.
Main figures in this story: Eudoxo, Euclides, Saccheri, Kant, Lobachevsky, Bolyai, Gauss, Riemann,
Beltrami, Klein, Poincaré, Frege, Peano, Hilbert, Russell, Whitehead, Minkowski, Einstein,
Wittgenstein, Carnap, Gödel.
Key words: Non-Euclidean geometry, Mathematical Logic,
History, Cosmology.
* Este artículo es una versión actualizada de un escrito del autor publicado en la Revista Colombiana de
Filosofía de la Ciencia, Vol. II, Nos. 4 y 5, 2001, pp. 45-63.
** Filósofo. Director Seccional de Investigación de la Universidad Libre Seccional Barranquilla.
jsenior@unilibrebaq.edu.co
Fecha de recepción: 2 de diciembre de 20
• Fecha de aceptación:
de diciembre de 2013
INGENIARE, Universidad Libre-Barranquilla, Año 8, No. 15, pp. 143-155 • ISSN: 1909-2458
1. LOS PRECEDENTES
En los tiempos de Kant había dos teorías que representaban el summun de la ciencia y que fueron
para él referentes fundamentales: la mecánica de Newton y la Geometría de Euclides. La primera
era todavía una novedad en pleno proceso de desarrollo, pero la geometría euclidiana tenía más
de dos milenios (gracias a los árabes que la conservaron pues apenas fue traducida al latín en
1482) y se encontraba más allá de toda duda, representando la esencia misma de la racionalidad.
Thomas Hobbes llegó a de i i luso ue La geo et ía de Eu lides es la ú i a ie ia ue Dios le
ha concedido al ho
e . Hasta la p opia teo ía de Ne to esta a sopo tada e la a tigua
Geometría del genio griego. Esta solidez absoluta se refleja, por ejemplo, en las categorías a priori
kantianas.
En 13 volúmenes con el nombre de Elementos, Euclides reunió el saber geométrico de su época
(finales del siglo IV a.C. e inicios del III a.C.), desarrollando la obra de los grandes matemáticos
griegos, como por ejemplo el compañero de Aristóteles, Eudoxo de Cnido (hoy Turquía) e
incluyendo sus propias aportaciones, exponiéndolas con un impecable método axiomáticodeductivo, que fue su gran legado. Spinoza, por ejemplo, expuso su Ética al modo geométrico
como criterio de rigurosidad.
Posiblemente ese provinciano universal llamado Inmanuel Kant no conoció nunca a Gerolamo
Saccheri, un jesuita italiano nacido en 1667 que inventó, sin saberlo, una geometría diferente a la
de Euclides. Pocos años después de la muerte de Newton, en 1733, cuando Kant era apenas un
niño de nueve años, Saccheri llegaba al final de su vida publicando en Milán un libro asombroso,
que sin embargo no trascendería, y cuyo título era Euclides ab Omni Naevo Vindicatus, lo que
traducido libremente significa: Euclides libre de todo defecto.
Como indica el título, el objetivo de Saccheri era todo lo contrario de lo que logró, esto es, se
proponía fortalecer la geometría euclidiana tratando de reducir al absurdo las posibilidades de
desarrollos geométricos alternativos. Y efectivamente sus resultados fueron tan extraños que él
los consideró absurdos, pero en el sentido coloquial del término. Hoy podemos decir, por el
contrario, que desde el punto de vista lógico (y metamatemático), los teoremas desarrollados por
Saccheri no son absurdos, por más que parezcan bastante raros y anti-intuitivos, pues en verdad
son perfectamente consistentes, carentes de contradicción y, por ende, legítimos teoremas
matemáticos válidos.
El camino explorado por el cura italiano partía de negar el famoso quinto axioma o postulado
euclidiano ue eza: Dada u a lí ea L u pu to P exterior a dicha línea, existe una y solo una
línea M que pasando po P sea pa alela a L o o o a ostu
á a os a e ita e el olegio, po
un punto exterior a u a e ta solo puede t aza se u a e ta pa alela .
La forma como enunciamos aquí el postulado de las paralelas no es la que utilizó Euclides. En los
Elementos apa e e así: “i u a lí ea e ta o ta a dos lí eas e tas de a e a tal ue los dos
ángulos interiores que se formen en el mismo lado no sumen más de dos ángulos rectos, estas
líneas prolongadas continuamente se cortarán a la larga en el lado en el cual los ángulos son
menores que dos á gulos e tos [ ].
Desde los tie pos a tiguos se o side a a ue los a io as e a
e dades e ide tes
ue po
tanto o e esita de ost a ió . De estas verdades generales se derivaban por deducción
teoremas particulares. Los axiomas son así como los pilares del edificio matemático o al menos de
cada teoría.
Ahora bien, este quinto postulado, a diferencia de los demás, no parecía ser tan evidente, ni
tampoco podía ser demostrado o derivado a partir de otros, lo cual resultaba ser fuente de
inquietud o incomodidad en los matemáticos. El propio Euclides fue consciente de este punto
débil. Y es que era muy fácil negar tal axioma, lo cual podía hacerse de dos formas: planteando
que por el punto exterior a la línea o recta no podía pasar ninguna paralela o que podían pasar un
número plural de paralelas. En cualquiera de los dos casos, se estaría negando el axioma # 5 y ello,
supuestamente, conduciría a contradicciones en el sistema.
Este programa de reductio ad absurdum pareció tener éxito inicialmente. Se demostró que asumir
que no había paralelas por el punto externo P llevaba a una contradicción. Visto desde hoy, fue un
resultado equívoco pues incluía como premisa oculta la presunción de que una línea recta tiene
que ser infinitamente larga y nunca se tuvo en cuenta la posibilidad contraria, es decir, que
hubiera un límite a la extensión de una línea recta.
Saccheri exploró el otro camino. Él quería demostrar que asumir que podían pasar más de una
paralela por P también implicaba inconsistencias en el sistema. Como ya dijimos, los teoremas que
el italiano derivó eran extraños pero de ningún modo contradictorios. De hecho, eran teoremas de
una geometría no euclidiana, pero era tal el prestigio milenario de Euclides y el arraigo profundo
de su geometría en la mente de los matemáticos y de los no matemáticos, que tuvieron que pasar
casi 100 años para que alguien diera el siguiente paso.
2. LA REVOLUCIÓN EUCLIDEOCLASTA
La primera persona que desarrolló de manera consciente una geometría no euclidiana,
entendiéndola precisamente como una nueva geometría, fue el matemático ruso Nicolai Ivanovic
Lobachevsky (1792-1856) que en 1829 publicó en el Kazan Bulletin un artículo que desplegaba una
nueva geometría siguiendo la misma dirección que había trabajado Saccheri un siglo antes,
afirmando la pluralidad de paralelas por un punto exterior a una recta. Casi simultáneamente, en
1832, pero en forma independiente, el húngaro János Bolyai (1802-1860, su lugar de origen hoy
queda en Rumania) escribió un apéndice al libro de su padre, Wolfgang Farkas Bolyai, con el título
de La ciencia absoluta del espacio.
A esta geometría se la conoce hoy como hiperbólica o geometría de Bolyai-Lobachevsky en honor
alos dos pioneros, pero en los años 30 del siglo XIX estos trabajos no tuvieron ninguna
repercusión. El gran matemático de dicha centuria, Carl Friedrich Gauss (1777-1855) dijo haber
obtenido resultados similares en 1829, pero lo cierto es que no lo publicó en su momento. Bolyai
no volvió a escribir sobre el tema, en cambio el ruso siguió insistiendo el resto de su vida,
publicando desarrollos de su sistema en francés (1837) y alemán (1840), tratando inútilmente de
superar la barrera idiomática. Antes de morir y sufriendo de ceguera, Lobachevsky publica en 1855
su Pangeometría en francés y ruso.
Realmente, la geometría no euclidiana no fue ampliamente conocida sino después de los trabajos
del alumno de Gauss, Georg Friedrich Bernhard Riemann (1826-1866). Como vimos antes, la otra
aproximación, negando las paralelas, aparentemente había conducido a inconsistencias, por lo
que no es sorprendente que la hazaña de Riemann procediera por un camino diferente a
cuestionar el quinto postulado. Su trabajo de 1854, con el cual aspiraba al cargo de Privatdozen en
Gotinga, titulado Über die Hypothesen, welche der Geometrie zu Grunde liegen (Sobre las hipótesis
que yacen en los fundamentos de la geometría) se basaba en abstracciones desarrolladas a partir
de un antiguo trabajo de Gauss sobre superficies curvas. Lamentablemente, esta conferencia no
fue publicada hasta 1867, tras la edición de la correspondencia de Gauss y Schumacher donde se
mencionaba a dos cuasides conocidos matemáticos llamados Lobachevsky y Bolyai.
En la geometría riemanniana no existen paralelas pues todas las líneas rectas se intersectan y la
extensión de cada recta es finita. Mientras en la geometría euclidiana solo hay una recta entre dos
puntos, en la riemanniana puede haber más de una, incluso infinitas, así que también resulta
posible que dos líneas rectas encierren un área (como veremos más adelante en un ejemplo).
Hasta ahora hemos usado laxamente el concepto de línea recta, definida como la línea que recorre
la distancia más corta entre dos puntos. Un lector acucioso podría argüir –con razón– que no
puede haber líneas rectas en superficies curvas. En efecto, es preciso generalizar el concepto de
línea recta para poder extenderlo a superficies o espacios curvos como los estudiados en las
geometrías no euclidianas. Este concepto generalizado se denomina Geodésica, la trayectoria más
corta entre dos puntos en cualquiera de las geometrías. En el caso de la geometría plana o espacial
de carácter euclidiano, la geodésica corresponde a la línea recta, en la riemanniana sería parte de
una circunferencia o una elipse y en la de Bolyai-Lobachevsky, sería un segmento de hipérbola. La
geometría de Riemann se puede denominar elíptica, la de Euclides, parabólica y la de BolyaiLobachevsky, hiperbólica.
Finalmente entre los años 1868 y 1872, Beltrami y el alemán Félix Klein logran probar
definitivamente la consistencia de las nuevas geometrías (si se parte de la hipótesis de que la
geometría euclidiana es consistente), usando entre otros procedimientos, un método de
sustituciones basado en correlaciones tipo di io a io , pa e ida a la est ategia ue Gödel
utilizara en su famoso teorema de incompletud en 1931 [2]. La vieja geometría euclidiana sigue
vigente, pero reducida a ser solo un caso especial en el marco de una visión generalizada de la
geometría. Se ha producido el descenso de Euclides del pedestal donde perduró durante más de
2.200 años. Esto conllevará al debilitamiento de la visión intuicionista de las matemáticas y a la
crisis de fundamentos, de la cual hablaremos más adelante. Ahora hagamos un examen
comparativo de las distintas geometrías.
3. MUNDOS EXTRAÑOS
La mejor manera de captar la lógica de los sistemas de geometrías curvas es a través de modelos
cotidianos extraídos de nuestro entorno de apariencias tridimensionales euclidianas. Así el modelo
ideal para la métrica riemanniana es la superficie de un balón o, si se quiere ser más abstracto, la
superficie de una esfera. Claro que este modelo alude solo a un caso especial de esta geometría
donde la superficie en consideración tiene una curvatura igual en todos los puntos. Para la
geometría de Bolyai-Lobachevsky el modelo típico es la silla de montar a caballo.
Si tratamos de aplanar la superficie de un balón o incluso de medio balón (o cualquier otra
porción) tendremos que romperla o hacerle unos cortes radiales como hace el cirujano sobre la
córnea del ojo con el bisturí-láser al operar la miopía (un reto similar tendría un modisto al diseñar
unos calzones inelásticos para una mujer esteatopígica, es decir, de prominentes glúteos). En
cambio si tratamos de aplanar una montura equina veremos que esta se arruga como si le
so a a á ea. Y i e e sa, si queremos coser un pedazo de tela plano en un balón veremos que
sobra tela y en el caso de la silla del jinete queda faltando tela.
A la curvatura (riemanniana) del balón o de la alga se le lla a positi a pues sus alo es se á
siempre mayores que cero y a la de la montura (Bolyai-Lo a he sk se le de o i a egati a
puesto que sus valores serán menores que cero. Esta idea de curvatura no se debe confundir,
como sucede a veces de forma intuitiva, con los conceptos de cóncavo y convexo; por ejemplo,
para el caso del balón da lo mismo si se toma la parte de afuera (convexa) o la interna (cóncava).
En cuanto a la curvatura de la geometría euclidiana su valor es cero. En esta última, como se sabe,
los ángulos de un triángulo suman 180 grados. En contraste, en las superficies de curvatura
positiva suman más de 180 y en las negativas, menos de 180.
Más aún, si dibujamos un triángulo en el cuero del balón, no solo comprobaremos lo anterior, sino
que veremos que si amplificamos el triángulo, aumenta la suma de los ángulos y si por el contrario
lo minimizamos, la suma desciende, aproximándose a 180 grados como límite. Lo opuesto
sucederá en la superficie de curvatura negativa, pero igual tenderá a 180 grados la sumatoria de
ángulos al disminuirel tamaño del triángulo.
Esto nos resulta muy familiar si lo referimos al planeta Tierra. Mientras consideremos un terreno
lo suficientemente reducido la geometría euclidiana funciona muy bien, haciendo honor a su
etimología, cuya raíz es la agrimensura. Pero si trabajamos sobre grandes territorios continentales,
como sucede en cartografía, la curvatura del globo terráqueo se hace notable y sus efectos
perceptibles, y entonces la versión euclidiana fallará, como bien lo entendió en el siglo XVI el
flamenco Gerhardus Mercator (1512- 1594), quien fue el primero en enfrentar fecundamente este
problema usando la proyección cilíndrica.
Podemos ver también de manera sencilla cómo el quinto postulado no se cumple en la superficie
de un balón si consideramos la línea recta como la circunferencia de un círculo máximo en la
superficie de la pelota, pues tal línea es la distancia más corta entre dos puntos de una superficie
esférica. Círculos máximos (como el ecuador y los meridianos) son aquellos cuyo centro es el
mismo centro de la esfera. I agi e os ue la lí ea L es el e uado de la ola o ejo aú si los
pintamos y luego pintamos un punto unos centímetros arriba o abajo, por fuera de la línea
ecuatorial. ¿Cuántos círculos máximos podemos dibujar que pasen por el punto y no crucen el
ecuador? Obvio que ninguno, es decir, que por un punto exterior a una recta no pasa ninguna
paralela, negando el quinto postulado.
Ahora miremos cómo dos rectas (o más) pueden unir dos puntos. Por ejemplo, los dos puntos
podrían se el polo o te el polo su
los e idia os las últiples e tas í ulos á i os
que los unen. Escojamos dos y veamos que encierran un área definida, tal y como habíamos
planteado antes.
Lo que sí resulta imposible de visualizar es cuando se trata de curvar, ya no superficies, sino al
espacio de tres dimensiones, pues este espacio se curva en una cuarta dimensión que nosotros no
percibimos. Sin embargo, al igual que un bicho de Planilandia (un ser que vive en un mundo de dos
dimensiones como se narra en la obra de Edwin Abbott) [3] no puede percibir la curvatura en la
tercera dimensión que tiene una esfera o una montura, sí puede, si es que domina las
matemáticas, deducir en qué mundo vive, contrastando las consecuencias observacionales de
cada sistema y viendo cuál encaja con su realidad observada.
4. IMPLICACIONES COSMOLÓGICAS
Las nuevas geometrías, aparentemente estrafalarias y ajenas al mundo real, asombrosamente se
convertirían en las llamadas a describir la arquitectónica del cosmos al iniciarse el siglo XX. Sin
embargo, en 1900, el astrónomo Karl Schwarzchild utilizó las posiciones de ciertas estrellas para
t aza u triángulo celeste y comparar sus propiedades con las de un triángulo euclídeo. Según su
experimento el espacio sideral era euclidiano.
En 1908, tres años después de publicados los trabajos de Einstein sobre la Relatividad Restringida,
el matemático ruso Hermann Minkowski propuso en una famosa conferencia, concebir el mundo
como un continuo de espacio-tiempo cuatridimensional. Es conveniente dejar claro que el aporte
de Minkowski, que tanto ayudó a Einstein, fue la unificación matemática, mas no física, de las
cuatro dimensiones (las tres de espacio y la del tiempo). Este fue el origen de los diagramas de
Minkowski, gráficos de coordenadas en uno de cuyos ejes se representan las tres dimensiones
espaciales y en el otro, la dimensión temporal. Los conos de luz que en este plano se dibujan hacia
el futuro y el pasado de un suceso (representado por un punto) muestran las coordenadas
espaciotemporales de los otros sucesos que se pueden relacionar causalmente con el primero.
Esto es así según la Teoría de la Relatividad, debido a que la velocidad de la luz es en ella una
velocidad límite absoluta.
En noviembre de 1915, cuando Einstein corona sus trabajos sobre la Relatividad General, debe
utilizar una geometría riemanniana cuatridimensional (y cálculo tensorial) para describir nuestro
universo real a gran escala. Sin embargo, hoy por hoy no sabemos cuál es la curvatura del
universo, si este es plano, positivo o negativo. Esto depende de la masa total del universo y de su
densidad promedio, parámetros difíciles de medir, sin que se pueda garantizar su exactitud. Si el
universo tiene una masa crítica, como lo predicen algunos modelos inflacionarios, se expandirá
eternamente pero cada vez más en forma lenta, tendiendo a detenerse en el límite. Si el universo
tiene una masa superior a la crítica, la expansión se detendrá algún día y el universo se contraerá
hasta terminar en un big crunch o g a i plosió ; se dice entonces que el universo es cerrado. Si
por el contrario, la masa es inferior a la crítica, el universo se expandirá eternamente sin detenerse
jamás; se dice entonces que el universo es abierto.
Según las mediciones actuales el universo es abierto y la muerte térmica lo espera al expandirse
infinitamente. Pero es posible que exista lo que se ha dado en llamar la materia oscura o masa
perdida (missing mass), la cual constituye uno de los principales objetivos del trabajo astronómico
presente. Hay muchos candidatos a sumar masa en esta búsqueda: desde planetas hasta agujeros
negros, partículas exóticas de alta o de baja energía (como las llamadas Wimps), neutrinos (si se
comprueba que tienen masa), estrellas neutrón, enanas negras y marrones, gas y polvo
interestelar e intergaláctico, objetos e el halo galá ti o lla ados a hos , et . Medi io es
recientes que muestran la aceleración de la expansión del universo llevaron a postular también la
existencia de energía oscura y la elaboración de nuevos modelos. En una de estas alternativas, la
materia oscura constituiría el 26,8 % de la densidad de masa-energía del universo, la energía
oscura sería responsable del 68,3 % y la materia ordinaria o bariónica apenas el 4,9 %. De todos
modos la descripción de la estructura a gran escala del universo dependerá no solo de las
mediciones cada vez más sofisticadas sino sobre todo de nuevos desarrollos teóricos de la física
fundamental. El juego consiste en construir modelos cosmológicos que hagan consistentes la
teoría y la observación.
5. CRISIS DE FUNDAMENTOS
Acabamos de ver las implicaciones que en la cosmología tuvo la revolución científica que acabó
con una perspectiva milenaria y restringida del sistema axiomático de la geometría. Pues bien, en
lo que se refiere a la concepción de las matemáticas y, en general, de los sistemas formales, las
implicaciones no serían menos radicales y asombrosas. Desde luego, es menester aclarar que otros
admirables desarrollos de la matemática y la lógica en el siglo XIX, también fueron causa del
impacto que estremeció las propias bases de estos sectores de la cultura. Y es que fue
verdaderamente extraordinario el despliegue del conocimiento matemático en el siglo XIX a través
de la inventiva y genialidad de hombres como Fourier, Gauss, Hamilton, Grassmann, Peirce,
Cauchy, Abel, Galois, Weierstrass, Von Staudt, Dirichlet, Bolzano, Boole, Cantor, Poincaré, entre
muchos otros [1].
En este proceso fue clave el concepto de rigor. Las búsquedas generadas por los problemas
matemáticos irresolutos, al igual que sucedería con las exploraciones de las ciencias empíricas,
llevaron muchas veces a reconstruir o replantear las bases antiguamente establecidas para
alcanzar nuevas exigencias de rigurosidad. Esto implicaba hacer explícitas todas las definiciones de
términos, las condiciones ocultas, las reglas y procedimientos utilizados. Lenguaje, axiomas y
reglas fueron puestos bajo la lupa del rigor en un esfuerzo que, a la vuelta del siglo, se
institucionalizaría con Hilbert bajo el nombre de metamatemática.
Desde esta perspectiva no parece tan sorprendente que muchos resultados de estas
investigaciones fuesen notoriamente contra-intuitivos y que implicaran nuevos niveles de
abstracción donde lo antes invisible se tornaba visible, conduciendo a avasalladoras
generalizaciones, al surgimiento de nuevas ramas de las matemáticas o de nuevas conexiones
entre sus teorías y creando paisajes matemáticos que ni la más desbocada imaginación había
soñado jamás.
La historia que narramos en este artículo ocupa un lugar epicéntrico en estos acontecimientos que
marcaron el curso de la aventura humana sobre la faz de este planeta minúsculo. Que el antiguo
sistema de Euclides de Alejandría, aparentemente inexpugnable, hubiese sido conmovido hasta
sus cimientos axiomáticos por los trabajos de Gauss, Lobachevsky, Bolyai, Riemann, Beltrami y
Klein generó una crisis de confianza tal, que puso a las mentes excelsas del final de siglo a
preocuparse por los fundamentos de las diferentes áreas de las matemáticas.
En filosofía es claro que la concepción kantiana que consideraba los enunciados matemáticos
como juicios sintéticos a priori tendría que verse afectada, puesto que se sustentaba en una
valoración absoluta de la geometría euclídea.
En su texto de 1897 que lleva por título An Essay on the Foundations of Geometry (Ensayo sobre
los fundamentos de la geometría), Bertrand Russell, como buen empirista que era en esa época,
considera en oposición a Kant que los axiomas euclidianos son producto de la experiencia, de las
mediciones prácticas en nuestro espacio real, aunque admite que la geometría proyectiva es
totalmente a priori. No sospechaba Russell que pocos años más tarde la Teoría General de la
Relatividad (1915) afirmaría todo lo contrario, esto es, que nuestro espacio real es no-euclidiano.
Sin embargo, en el aspecto filosófico Poppe atiza ía esta idea al señala ue la os ología o
euclidiana es más euclidiana que Euclides Post-scriptum III, p. 7 [4], po ue allí la geo et ía
se usa incluso para describir la distribución de ate ia e el u do , u asgo ue es de esti pe
platónica.
Desde la física, Einstein asestaría entonces el golpe definitivo al espacio absoluto euclidianonewtoniano. Co o asegu a ía Poppe
u has dé adas ás ta de, el desliz lógi o de Ka t o
estaba en el apriorismo sino en la infalibilidad del apriorismo. A fines del siglo XIX la obra de
Darwin tenía ya 40 años de haberse publicado, pero el darwinismo aún no había llegado a la
epistemología para propiciar otra manera de pensar el apriorismo desde una perspectiva
histórico-biológica.
Mucho más profunda y visionaria que el planteamiento de Russell, la crítica convencionalista como
veremos más adelante arremetería contra el apriorismo de Kant, por un lado, y contra el
empirismo por el otro. Su principal vocero sería Henri Poincaré, quien en 1902 publicó La science
et lʼhypotèse (Ciencia hipótesis) donde afirmaría:
¿Cuál es la naturaleza de los axiomas geométricos? ¿Son intuiciones sintéticas a
priori, como asegurara Kant? En tal caso se nos impondrían con tal fuerza que no
podríamos concebir la proposición contraria, ni podríamos construir sobre esta un
edificio teórico. No existiría entonces la geometría no-euclidiana.
Y sobre el empirismo agregaría:
¿Debemos entonces concluir que los axiomas de la geometría son verdades
experimentales? Pero nosotros no hacemos experimentos sobre líneas ideales o
círculos ideales, solo hacemos experimentos sobre objetos materiales.
Este último argumento es un tanto flojo, pues caricaturiza la tesis rival. El secular debate filosófico
entre empirismo y racionalismo seguiría durante la primera mitad del siglo XX, no solo referente a
la filosofía de las matemáticas sino en todos los terrenos del conocimiento, la ciencia y la
percepción. Sin embargo, de la propia matemática surgirían nuevas sorpresas, generando la
metamatemática y la lógica moderna.
La visión intuicionista de la matemática, aunque no desapareció del todo, tuvo que ceder el paso a
dos nuevas concepciones: la lógica-matemática y la línea formalista axiomática. Estos desarrollos
tendrían, en primera instancia, una notable influencia en la filosofía y a largo plazo, un impacto
tremendo en la tecnología y, por ende, en la economía y la forma de vida de todo el mundo, a
través de la computación.
Los grandes protagonistas de este viraje raizal, los tres mosqueteros de esta batalla, serían el
italiano Giuseppe Peano (1858-1932) y los alemanes Gottlob Frege (1848-1925) y David Hilbert
(1862-1943).
6. LA LÓGICA-MATEMÁTICA
Los trabajos de Peano y Frege en las dos últimas décadas del siglo pasado, al adentrarse en
terrenos desconocidos, en las profundidades de la aritmética y en los meandros de la lógica
formal, los obligó a desarrollar novedosas notaciones, creando así, al depurar el lenguaje
matemático, nuevos lenguajes simbólicos. Este es el punto de partida de la lógica simbólica
moderna que Bertrand Russell y Alfred Whitehead consolidarían en Principia mathematica de
1910-1912 y por primera vez se vislumbraría en toda su dimensión la importancia de la
construcción de lenguajes artificiales.
Peano, por ejemplo, como después Carnap, sería un arquitecto de nuevas lenguas para la
comunicación humana, programa que tiene en el esperanto su producto actual más conocido. Sin
embargo, las consecuencias más fecundas se verían en la propia lógica, en la filosofía analítica y la
filosofía de la ciencia, en la computación y, por supuesto, en las matemáticas.
De esta manera se han encontrado por fin, las ciencias manipuladoras de signos o formas: la
matemática, la lógica, la lingüística y la semiótica, las que hoy podríamos denominar ciencias
formales. Frege, por ejemplo, sería el fundador de la semántica moderna. Lenguaje, código,
información, sentido, comunicación, significado, serán algunas de las palabras clave de la nueva
época, que llevaría al siglo XX a se lla ado el “iglo del Le guaje .
Sintaxis, semántica y pragmática, pueden entenderse como los tres componentes del análisis
lingüístico, pero también podrían servir en la perspectiva histórica para caracterizar etapas. Así,
mientras hoy la pragmática está en el centro de las preocupaciones metacientíficas, hace 100 años
lo prioritario era el enfoque sintáctico tanto en versión logicista como en versión formalista, que
en el fondo son dos caras de la misma moneda.
El primer camino fue explorado por Frege y luego por Russell, intentando fundamentar la
matemática en la lógica. Y aunque no podemos decir que haya sido un éxito en cuanto al objetivo
propuesto, sus logros son nada despreciables, pues, como ya dijimos, estos trabajos están en la
base de la lógica moderna, mucho más rigurosa, correcta y potente que la heredada de
Aristóteles, y hoy ramificada en múltiples y feraces vertientes.
7. LA MATEMÁTICA ES UN JUEGO
Mientras Frege, casi silenciosamente, trabajaba en su programa en la Universidad de Jena, en otra
famosa universidad alemana el joven David Hilbert, nacido en Königsberg, la pequeña ciudad de
Kant, desataba su genialidad con enormes proyecciones. Nos referimos a la Universidad de
Gotinga, la misma de Gauss y Riemann, la que después sería de Born y Heisenberg, donde tantos
genios cambiarían la historia de la física.
Hilbert trabajó en numerosos territorios de las matemáticas, como la teoría de números y el
cálculo de variaciones. En 1899 publicó Die Grundlagen der Geometrie (Los fundamentos de la
geometría) donde reconstruyó axiomáticamente la geometría euclidiana partiendo de 21 axiomas
más completos y abstractos que los originales de Euclides. Estos axiomas versan sobre puntos,
líneas y planos y abarcan seis tipos de relaciones que se pueden presentar entre ellos.
Con la axiomatización en vez de la lógica, Hilbert toma un camino diferente a Frege. Pero al igual
que Helmholtz, Clifford, Poincaré y otros matemáticos, Hilbert percibió el carácter convencional de
los axiomas, llevando esa idea hasta sus últimas consecuencias. Lo acontecido con el quinto
postulado de Euclides así lo indicaba. No hay una geometría empíricamente válida per se. Todas
son igual de válidas desde el punto de vista lógico. Escoger una determinada geometría, o sea un
determinado conjunto de axiomas, es cuestión de convención y utilidad.
Poincaré, el más conspicuo representante de la crítica convencionalista, en su texto Ciencia e
hipótesis (1902), afirma:
Los axiomas geométricos no son ni juicios sintéticos a priori ni hechos
experimentales. Son convenciones: nuestra elección entre todas las convenciones
posibles está guiada por los hechos experimentales, pero permanece libre, y solo
está guiada por la necesidad de evitar toda contradicción (...). En otros términos, los
axiomas de la geometría no son sino definiciones disfrazadas.
Los a io as o so e to es e dades e ide tes si o o e io es ue se postula o o
puntos de partida para derivar deductivamente sus consecuencias lógicas en la forma de teoremas
particulares. Todo el conjunto, integrado por lenguaje, axiomas y reglas, constituye el sistema
teó i o es u a o st u ió li e del pe sa ie to o o de ía Ei stei , es de i , se t ata de u
juego, un juego meramente relacional de signos sin significado, pura sintaxis [5].
Un siste a a io áti o así o e ido es pe ti e te lla a lo juego po ue se t ata de u siste a
convenido, inventado e independiente de la realidad, es decir, sin compromiso semántico.
También podríamos decir que es una estructura formal o sintáctica, vacía de contenido, un cálculo
no interpretado. Este as a ó fo al es sus epti le de últiples i te p eta io es estas sí
pueden ser confrontadas con la realidad en busca de utilidad, correspondencia, aplicabilidad.
Esta idea formalista se extendió en la filosofía de la ciencia hasta abarcar las teorías de las ciencias
empíricas o fácticas, especialmente con el Círculo de Viena y demás grupos que asumieron el
positivismo lógico y la visión instrumentalista [6]. Su programa arquitectónico consistiría entonces
en la reconstrucción de las teorías científicas a través de su axiomatización con el instrumental de
la lógica formal. Semejante programa tropezaría con dificultades enormes, pero años después el
estructuralismo sneediano lo retomaría utilizando otra herramienta, la teoría informal de
conjuntos.
Claro que según el estructuralismo anglosajón contemporáneo [7], la estructura no se confronta
con la realidad sino con modelos de realidades particulares o parcelas del universo y resulta
aplicable si tal modelo es isomórfico con el núcleo teórico, es decir, si comparten la misma
estructura. En caso afirmativo ese modelo se incluye en el dominio de aplicaciones de la teoría, en
caso negativo no se incorpora. En ningún momento hay refutación en sentido popperiano.
Sin embargo, el problema semántico, el problema de la verdad, se traslada ahora de la teoría a los
modelos, pues son estos los que deben corresponder con la base empírica, incorporando
parámetros y datos de las mediciones y observaciones (o siendo compatibles con ellos). Claro que
para el instrumentalismo el valor de verdad no interesa, lo importante es que el modelo funcione
dentro de márgenes aceptables desde el punto de vista pragmático [8].
Además de su impacto en la Metaciencia, la línea formalista se encuentra en la base de la teoría
computacional. Un computador tampoco tiene compromiso semántico, es una máquina sintáctica,
manipuladora de signos. Lo único que hace un computador es transformar unos signos en otros de
acuerdo a ciertas reglas prefijadas tanto en su hardware como en su software, algoritmos que
contienen las instrucciones de transformación u operación con tales signos. Las interfaces
hombre-máquina nos permiten o u i a os o el e e o ele t ó i o, pe o so os osot os
quienes atribuimos significado a los signos de entrada y de salida.
Ahora bien, no se debe olvidar que los signos necesitan siempre un soporte físico, desde unas
manchas de grafito en un papel hasta corrientes eléctricas. En efecto, para que el computador sea
un manipulador de signos tiene que ser, en primera instancia, un manipulador de señales
electromagnéticas. La operación de signos entonces debe subordinarse a la física, incluyendo la
segunda ley de la termodinámica: la entropía. Todo esto es válido incluso si no hablamos de
computadores sino del propio cerebro humano.
Volviendo a Hilbert hay otro aspecto que merece destacarse. Él es el primero que diferencia
claramente entre lenguaje objeto y metalenguaje, siendo este último el lenguaje que permite
hablar del primero. Personajes como Russell, Wittgenstein, Carnap, Gödel [9] seguirán su ejemplo
y se lograrán solucionar por fin antiguas paradojas, aporías o antinomias.
La o a ió la a it éti a o es o t adi to ia o pe te e e a la a it éti a, está e u i el
superior, en un orden metamatemático y utiliza por tanto un metalenguaje. Es decir, que la
metamatemática no trabaja sobre problemas específicos en el marco de una teoría sino que
examina la teoría en sí misma, en su conjunto. Hilbert incluso quiso establecer la consistencia
esencial de todas las matemáticas, pero Gödel en su famoso teorema de indecidibilidad de 1931
demostró que tal cosa no se puede demostrar.
Hemos mostrado la influencia que tuvieron algunos de los logros de Hilbert, pero más allá de lo
alcanzado, como un marino en lo más alto del mástil, él señaló el rumbo investigativo de la
matemática cuando al iniciarse el nuevo siglo hizo un balance general del estado del arte en este
campo de la cultura universal y planteó 23 problemas fundamentales por resolver. A este
llamamiento en ocasiones se le llama el Programa de Hilbert. Muchos de estos problemas se han
resuelto a lo largo del siglo XX, pero esa es otra historia.
8. REFERENCIAS BIBLIOGRÁFICAS
[1]
J. Newman, Sigma, el mundo de las matemáticas (seis tomos). Barcelona: Editorial
Grijalbo, 1994.
[2]
K. Gödel, On formally undecidable propositions of principia mathematica and related
systems. New York: Dover Publications, 1992.
[3]
E. Abbott, Planilandia. Barcelona: Olañeta, 1999.
[4]
K. Popper, Teoría cuántica y el cisma en física (Post-scriptum III). Madrid: Tecnos, 1992.
[5]
L. Geymonat, Filosofía y filosofía de la ciencia. Barcelona: Editorial Labor, 1972.
[6]
D. Gillies, Philosophy of science in the twentieth century (four central themes). Oxford:
Blackwell Publishers, 1993.
[7]
J. Echeverría, Introducción a la metodología de la ciencia (la filosofía de la ciencia en el
siglo XX). Barcelona: Editorial Barcanova, 1989.
[8]
J. Senior, Metaciencia (Ensayos sobre ciencia y filosofía de la ciencia), Barranquilla:
Ediciones Embrujo Caribe, 1999.
[9]
K. Gödel, Ensayos inéditos. Barcelona: Ediciones Mondadori, 1994.