La herencia oscura del logicismo
The Dark Heritage of Logicism
José Ferreirós†
Resumen
El logicismo suele figurar de modo estándar en los manuales como una de las principales alternativas en la
fundamentación de las matemáticas, si bien su atractivo disminuyó considerablemente desde aprox. 1950. Bien es
cierto que la corriente neologicista ha revitalizado dicha tendencia sobre la base del Principio de Hume y el Teorema
de Frege, pero aún así el neologicismo se limita a la aritmética y no aspira a dar cuenta de la matemática en su
conjunto. En este trabajo no pretendemos centrarnos en el logicismo clásico de Frege y Dedekind, ni en el período de
Russell y Carnap, ni tampoco en la corriente neologicista, sino que nuestra intención es llamar la atención hacia
determinadas herencias del logicismo que suelen pasar inadvertidas. En las décadas de 1920, 1930 y 1940 aprox., la
tesis logicista estimuló algunas innovaciones de bastante calado en la lógica matemática. Concretamente, puede
argumentarse que dos ideas clave ligadas a la semántica formal tienen su origen en la idea de lógica promovida por el
logicismo: la expansión de la metamatemática operada por Tarski, que abrió el camino hacia la teoría de modelos; y la
insistencia en la semántica “plena” o conjuntista como “estándar” para la lógica de segundo orden. El artículo propone
un análisis de dichas herencias e insiste en que la teoría lógica debería evitar algunas de sus implicaciones.
Palabras clave: fundamentos de las matemáticas - lógica matemática - filosofía de la lógica - teoría de modelos - lógica de
segundo orden - historia de la lógica y las matemáticas
Abstract
Logicism finds a prominent place in textbooks as one of the main alternatives in the foundations of mathematics, even
though it lost much of its attraction from about 1950. Of course the neologicist trend has revitalized the movement on
the basis of Hume’s Principle and Frege’s Theorem, but even so neologicism restricts itself to arithmetic and does not
aim to account for all of mathematics. The present contribution does not focus on the classical logicism of Frege and
Dedekind, nor on the Russell-Carnap period, and also not on recent neologicism; its aim is to call attention to some
forms of heritage from logicism that normally go quite unnoticed. In the 1920s, 1930s and 1940s, the logicist thesis
became a stimulus for some deep innovations in the field of mathematical logic. One can argue, in particular, that two
key ideas linked with formal semantics had their origins in the conception of logic associated with the logicist trend –
the expansion of metamathematics brought about by Tarski, opening the way to model theory, and the insistence on
the “full” set-theoretic semantics as “standard” for second-order logic. The paper proposes an analysis of those
inheritances and argues that that logical theory ought to avoid some of their implications.
Keywords: foundations of mathematics - mathematical logic - philosophy of logic - model theory - second-order logic history of logic and mathematics
Recibido: 4 de abril de 2018. Aceptado con revisiones: 13 de mayo de 2018.
Departamento de Filosofía y Lógica, Universidad de Sevilla, España. Para contactar al autor, por favor, escribir a: josef@us.es.
Metatheoria 10(2)(2020): 19-30. ISSN 1853-2322. eISSN 1853-2330.
© Editorial de la Universidad Nacional de Tres de Febrero.
© Editorial de la Universidad Nacional de Quilmes.
Publicado en la República Argentina.
†
20 | José Ferreirós
1. Introducción
El logicismo es la tesis de que las matemáticas se reducen a la lógica: que los conceptos básicos de las
matemáticas se pueden definir en base a conceptos puramente lógicos, y que los principios de las
matemáticas se pueden deducir de leyes puramente lógicas. Esta tesis fue formulada por vez primera en
los años 1880: Frege la planteó con relación a la aritmética en sus célebres Grundlagen (1884), donde
decía que “incluso una inferencia matemática aparentemente singular, como el paso de ‘n’ a ‘n + 1’,1 se
basa en las leyes lógicas universales”; Dedekind afirmó que “la aritmética (álgebra, análisis) es sólo una
parte de la lógica” en su libro sobre los números naturales (1888). Parece muy probable que el
desencadenante mayor de esta tendencia fueran las reducciones de los números reales a los racionales que
fueron publicadas por varios autores –Dedekind, Cantor, Weierstrass, Heine, Méray– en 1872: dichas
teorías de los números reales reducían el concepto de ℝ y los principios básicos de su aritmética a los
números racionales, empleando esencialmente la noción de conjunto (o nociones reducibles a ella).
Para dejar sólidamente establecida la tesis logicista, fue preciso perfeccionar y ampliar los principios
de la lógica conocidos hasta 1850. Dedekind formuló nociones básicas de la teoría de conjuntos
(siguiendo en parte las ideas de autores como Boole y Schröder) y les añadió novedades importantes
relativas al concepto de aplicación, correspondencia o función (Abbildung) y a la teoría de cadenas. Esta
teoría de cadenas –que son cierto tipo de conjuntos cerrados con respecto a una aplicación– fue lo que
le permitió subsumir e incluso generalizar el principio de inducción matemática. Por su parte, Frege
puso toda su atención en convertir la teoría lógica en una teoría formal en sentido estricto, 2 para lo
cual ideó un sistema o cálculo lógico de orden superior (con cuantificadores, reglas de inferencia
estrictas, etc.). Pueden encontrarse en estos autores los orígenes de la lógica matemática del siglo XX y
de la teoría de funciones recursivas, y por tanto buena parte del impulso que conduciría también al
desarrollo de la computación.
El logicismo experimentó un desarrollo e implantación muy fuerte durante la última década del
XIX,3 pero, como es bien sabido, tropezó contra el escollo de las contradicciones. Tanto la teoría de
conjuntos y aplicaciones de Dedekind como el sistema lógico de Frege se basaban, más o menos
claramente, en el supuesto del principio de comprehensión irrestricto: que, dado un concepto bien definido
cualquiera P(x), existe el conjunto x: P(x) de todos los objetos que caen bajo dicho concepto. Pero,
como demostraron Cantor y Russell, dicho principio irrestricto es contradictorio: si consideramos el
concepto de ‘conjunto que no se pertenece a sí mismo’, nos conduce al conjunto A = x: x x, y
ahora nos vemos envueltos en la contradicción de que A A A A.4 Este grave tropiezo hizo que
Frege abandonara el logicismo, y pese a los grandes esfuerzos de Russell por salvar dicha posición, con
la teoría de tipos, los problemas ligados a principios como el axioma del infinito, el axioma de
reducibilidad y el axioma de elección (ninguno de los cuales es de carácter lógico) llevaron de nuevo al
fracaso.5
Ahora bien, aunque el logicismo estaba claramente en situación de declive a partir de los años
1920, fueron muchos los autores –sobre todo filósofos– que siguieron defendiendo esa posición. En
general, los ligados al positivismo lógico fueron logicistas, cosa bastante natural porque de otro modo
les habría sido difícil seguir defendiendo que las leyes matemáticas son meramente analíticas. Un
ejemplo tardío de esto nos lo da Carl Hempel en su artículo de 1945 “Sobre la naturaleza de la verdad
1
2
3
4
5
Este es el célebre principio de inducción matemática o inducción completa, al que Poincaré consideraba en cambio como intuitivo y
sintético a priori. Para demostrar un teorema (x) de todos los números naturales, basta demostrar: en primer lugar, (1) y, segundo, que
suponiendo (n) se sigue necesariamente (n+1).
Nótese sin embargo que el cálculo de Frege es interpretado, su enfoque no es formalista.
Incluso Hilbert fue partidario del logicismo antes de 1900; ver mi trabajo Ferreirós (2009).
Ya en 1896 y 1897 Cantor había dado con las paradojas llamadas ‘de Cantor’ y ‘de Burali-Forti’; en cuanto a Russell, fue su estudio del
Teorema de Cantor lo que le condujo a la célebre paradoja.
El artículo de Carnap es una magnífica exposición de la situación hacia 1930, aunque quizá no es suficientemente crítico. Mi trabajo
Ferreirós (1997) es un intento de analizar la caída del logicismo tras 1930, centrado especialmente en la obra de Quine.
La herencia oscura del logicismo |21
matemática”. Sin embargo, autores como Quine o Putnam, en la siguiente generación, vieron con toda
claridad que no era posible seguir defendiendo el logicismo.
Curiosamente, en los años intermedios, entre 1920 y 1950 aprox., la tesis logicista estimuló algunas
innovaciones de bastante calado en la lógica matemática. O al menos, esa es la tesis que voy a defender
en este trabajo. Concretamente, puede argumentarse que dos ideas clave ligadas a la semántica formal
tienen su origen en el logicismo: la expansión de la metamatemática operada por Tarski, que abrió el
camino hacia la teoría de modelos; y la insistencia en la semántica “plena” o conjuntista para la lógica
de segundo orden. Estas dos ideas siguen teniendo mucho predicamento en la actualidad, y a través de
ellas se ha filtrado una fuerte herencia del logicismo que pasa inadvertida para muchos autores. En
realidad, en mi opinión esta herencia ha conducido a una considerable confusión conceptual con
respecto a temas clave de la teoría lógica y su filosofía.
Como el lector probablemente sepa, hay otra herencia del logicismo en la actualidad que es mucho
más obvia y conocida: el neologicismo, promovido especialmente desde Escocia con los trabajos de
Crispin Wright y Bob Hale. No es mi intención discutir aquí este movimiento, que fue creciendo
desde los años 1980 y atrae hoy bastante atención (ver Tennant 2014). Baste decir que su origen estuvo
en una observación de Boolos (1986), a saber: que aunque la Ley V de Frege había resultado
insostenible, con todo Frege había logrado demostrar algo importante que hoy suele llamarse el
“teorema de Frege”. En un sistema de lógica de segundo orden es posible definir la relación de
correspondencia biunívoca entre dos conceptos F y G, en el sentido de que a cada objeto-F le
corresponde un y sólo un objeto-G; denotémosla por F G (en lenguaje actual, el conjunto de los F y
el conjunto de los G son biyectables). Esto hace posible introducir en el lenguaje el predicado #F (léase:
el número de los F) por medio del llamado principio de Hume:
#F = #G F G.
La idea es bien intuitiva: el número de los F será igual al número de los G si y sólo si hay una
correspondencia biunívoca entre los objetos que caen bajo cada uno de los conceptos. Es la idea clave
de Cantor en su teoría de los cardinales infinitos, y es la misma idea que –siglos y siglos antes de
Hume– emplearon un número indeterminado de humanos al usar guijarros o simples rayas para llevar
una cuenta.
Pues bien, en los Grundgesetze demuestra Frege formalmente que los axiomas de Peano se deducen
del principio de Hume. Es un teorema notable, que nos dice que empleando la lógica de segundo
orden, la aritmética elemental (de los números naturales) se puede reducir a un único axioma: el
principio de Cantor-Hume (llamémoslo así, tal como ha sugerido Giaquinto 2002). La pregunta es si
esto basta para considerar probada la tesis logicista, o al menos para afirmar que la aritmética elemental
ha quedado reducida lógicamente a una simple verdad analítica. Este es el proyecto que Wright y Hale,
con numerosos seguidores, han venido desarrollando; en torno a ello se han discutido mucho los
principios de abstracción y la cuestión de las verdades analíticas.6
Pasemos pues a los temas prometidos, la herencia oscura del logicismo. Comenzaré discutiendo la
lógica “plena” o conjuntista de segundo orden, y dejaré para la sección 2 la notable inversión de la
metamatemática que Tarski realizó. Por fin, en la última sección haré una propuesta que considero
bien fundada desde el punto de vista de la filosofía de la lógica.
2. Entre lógica y teoría de conjuntos: lógica “plena” de segundo orden
Durante mucho tiempo la lógica de primer orden ha sido el paradigma de
siendo el más estudiado en cursos de lógica matemática (para matemáticos,
sistema tardó mucho en ser aislado: serían Löwenheim y Weyl, en los años
considerarlo como un fragmento natural de la lógica; mientras que Frege
6
sistema lógico, y sigue
al menos). Pero dicho
1910, los primeros en
y otros autores, en la
En mi opinión, la noción de ‘verdad analítica’ es bastante vaga, por lo que podemos afirmar que el principio #F = #G F G es
analítico. Pero, debido a esa misma vaguedad, la tesis correspondiente no resulta de gran interés epistemológico ni semántico.
22 | José Ferreirós
generación anterior, no limitaban sus principios lógicos, que deben interpretarse como de orden
superior. En buena medida, esta situación resulta natural si tenemos en cuenta que entre 1850 y 1900,
de Boole a Russell, fueron muchos los autores que consideraban la teoría de conjuntos como una parte
fundamental de la lógica. (Sin esta idea, si el concepto de conjunto se hubiera visto como puramente
matemático, el logicismo nunca habría sido defendido.)
En realidad, fue hacia 1935 cuando por vez primera comenzó a considerarse la lógica de primer
orden (LPO en lo sucesivo) como el sistema más natural y primario de lógica. El contexto fue un
ambiente centrado en la formalización estricta y cargado de inseguridades, dados los problemas de la
teoría de conjuntos, la presencia de paradojas de muy diversos tipos, las fuertes críticas de los
intuicionistas y los sorprendentes resultados de Gödel (ver Ferreirós 2001). Sin embargo, esa idea
encontró resistencias en algunos lógicos y matemáticos muy influyentes, de los cuales destacan
especialmente Hilbert y Church.
La posición de Hilbert es compleja, como es natural dada la época que le tocó vivir. El axioma de
completitud en geometría (y números reales, 1900) requiere para su formulación modernizada un
sistema lógico de segundo orden (LSO en lo sucesivo); incluso en el libro con Ackermann sobre Lógica
teórica (1928) se tratan sistemas de orden superior, en especial la teoría de tipos bajo el nombre de
“cálculo funcional expandido”; y se expresa la idea de que nociones tales como número, pertenencia y
cardinalidad deben ser formuladas en lógica de orden superior para poder captar su significado
intuitivo. Todo indica que Hilbert nunca llegó a pensar que hubiera una razón fundamental para
restringir la lógica a LPO, lo cual es comprensible dado que sólo en los años 1930 se obtuvieron los
resultados metalógicos de Gödel y otros.
Incluso muchos años más tarde, y pese a considerar plenamente el impacto de la metalógica,
Alonzo Church –en el capítulo final de su Introduction, dedicado a la LSO– pone de manifiesto la
inadecuación de los lenguajes de primer orden para describir las estructuras “pretendidas” (intended)
por el matemático en activo. Y aunque reconoce el problema de introducir una noción de
consecuencia lógica en LSO que no es formalizable (ya que no es recursivamente axiomatizable), piensa
que tal problema no es tan grave. Su argumento: que “el tipo de absolutismo así presupuesto … es ya
inherente a la matemática clásica en general”, y en concreto al análisis o teoría de los reales (Church
1956, 326). Vemos aquí de nuevo, con toda claridad, cómo el sistema lógico es modelado según el
patrón de la matemática avanzada, siguiendo la herencia del logicismo.7
Se debe destacar que, en autores educados en la tradición logicista, resulta natural la idea de que la
lógica de segundo orden debe interpretarse con las variables de 2º orden recorriendo el conjunto
potencia del dominio de individuos. Consideremos de nuevo la reducción de los números reales ℝ al
conjunto de los racionales, ℚ, por ejemplo al modo de Dedekind: mediante cortaduras.8 Pues bien,
para obtener el conjunto ℝ a partir de ℚ, es esencial que consideremos todas las cortaduras posibles,
tanto las que se puedan definir explícitamente como las que no. Esto quiere decir que trabajamos
esencialmente en el contexto de (ℚ), el conjunto potencia o conjunto de partes de ℚ; las cortaduras a
considerar, siguiendo a Dedekind, son todos los elementos de (ℚ) que tienen las propiedades
indicadas en nota. Como digo, en autores entrenados en considerar tales métodos como puramente
lógicos (entrenados en ver la definición de Dedekind como una reducción lógica de ℝ a ℚ), resulta
natural la idea de que las variables de 2º orden han de interpretarse como recorriendo el conjunto
potencia del dominio. Pero también hay motivos muy serios para tener dudas.
Hilbert había manifestado preferencia por la tesis logicista en diversos manuscritos anteriores a
1900, incluyendo el mismo borrador de su famoso texto sobre los fundamentos de la geometría
(Ferreirós 2009). En su conferencia “Axiomatisches Denken” (1918) no solo expresó su admiración por
la “magnífica empresa” abordada por Frege y Russell, sino que escribió literalmente: “dado que el
7
8
También influyente fue Kreisel (1967) al atacar las versiones en LPO de teorías como la aritmética y el análisis, e insistir incluso en que la
verdad o falsedad de la hipótesis del continuo CH está determinada en un sistema axiomático de conjuntos en LSO. Mucho más
recientemente, véase el libro de Shapiro (1991).
Una cortadura es un conjunto (no vacío) de números racionales, acotado superiormente, que está cerrado para la relación < (menor que);
es decir, siendo C una cortadura, si q C, todo x < q también es elemento de C; y existe un p tal que todo x C es menor que p.
La herencia oscura del logicismo |23
examen de la consistencia es una tarea que no puede ser evitada, parece necesario axiomatizar la propia
lógica y demostrar que la teoría de números y la teoría de conjuntos son sólo partes de la lógica” (Hilbert 1918,
1113; énfasis añadido). Esa tendencia se manifestó también en su idea de que el Axioma de Elección
puede verse como un principio lógico, idea que articuló mediante su conocido cálculo-.
Como suele decirse, la LSO tiene la ventaja de su gran capacidad expresiva, a expensas de perder el
carácter plenamente formal o sintáctico de la LPO: la relación de consecuencia en LSO no puede
capturarse recursivamente. Los partidarios de la LSO insisten en que LPO es inadecuado como
expresión del pensamiento de los matemáticos, ya que los matemáticos entienden que hay un único
conjunto ℝ de los números reales (salvo isomorfismo) igual que piensan que el conjunto ℕ de los
naturales es único (salvo isomorfismo) o monomorfo. Ahora bien, si formulamos los axiomas para ℕ
en un cálculo LSO, podemos demostrar su monomorfía o categoricidad tal como lo hiciera ya Dedekind
(1888); y si planteamos los axiomas de ℝ en un sistema LSO, también podemos recuperar la
categoricidad. Asumiendo que ambos sistemas axiomáticos son consistentes, esto demuestra que la
noción de verdad-en-ℕ (resp. verdad-en-ℝ) está perfectamente determinada por los axiomas y la LSO, a
nivel semántico al menos.
Todavía mejor, como demostró Zermelo (1930), un sistema axiomático para la teoría de conjuntos
formulado en LSO permite demostrar la cuasi-categoricidad de V, el universo conjuntista. El universo
V quedaría también perfectamente caracterizado salvo en lo relativo a su ‘altura’ que vendría dada, en
todo caso, por un cardinal fuertemente inaccesible. Esto demostraría que LSO es el sistema mejor si lo
que se pretende es recuperar en el formalismo lógico la capacidad expresiva –y la determinación plena de
las principales estructuras monomorfas– que presupone el matemático ‘normal’ en activo.
Tal manera de pensar es incorrecta, por motivos que paso a especificar. La clave está en advertir
que los teoremas de categoricidad recién citados son muy diferentes entre sí, por tener muy diversas
presuposiciones; que la introducción de la semántica plena altera radicalmente el sentido de las teorías
matemáticas; y que la noción de conjunto arbitrario, que está a la base de la operación conjunto
potencia (X), es puramente matemática y no de naturaleza lógica.
Si se examinan con más cuidado los presupuestos del teorema de categoricidad para ℕ, se advierte
que es posible demostrarlo en un sistema LSO débil, y que ni siquiera exige el recurso a la
impredicatividad de dicho sistema. Basta aceptar que LSO es un sistema natural de lógica, sin presuponer
la semántica “plena” (como propongo aquí por razones que empiezo a explicitar), para poder recuperar
el resultado de Dedekind. Sin embargo, la categoricidad de ℝ, como la del universo V, exigen recurrir
a toda la potencia de la operación (X), y por tanto exigen asumir que, dado un dominio de
individuos cualquiera, la mera lógica nos garantiza dados todos los conjuntos (arbitrarios) de tales
individuos. Voy a argumentar que este supuesto extra-lógico y muy poco razonable tiene su origen en el
logicismo.
De hecho, un primer indicio de que el supuesto es poco razonable viene de considerar cuál es la
situación en teoría de conjuntos avanzada. La operación (X) nunca ha quedado suficientemente
caracterizada –o sometida a control– en teoría de conjuntos, cosa que está íntimamente ligada con la
incapacidad para resolver el problema del continuo de Cantor. En el estudio de modelos de ZFC, es
posible imponer que el valor de verdad de CH sea verdadero, o bien falso, a voluntad: bien pasando a
un modelo interno del dado, o bien empleando métodos de forcing. El estudio de la metateoría de
ZFC durante los últimos 50 años ha dado lugar a una multiciplicidad de resultados de independencia
que no pueden simplemente ser ignorados; el comportamiento de (X) resulta ser, como dijo el gran
especialista R. Jensen, “amorfo”. A la luz de estos resultados, parece extraño asumir la que mera lógica
baste para determinar completamente (X), y que lo haga de tal manera que nos resulte perfectamente
impenetrable a los lógicos y matemáticos de carne y hueso.
El resultado de cuasi-categoricidad de Zermelo es ilusorio, no cabe decir otra cosa. El principal
problema abierto en la teoría de conjuntos es, precisamente, caracterizar con más precisión el
comportamiento de la operación (X). Nuestra falta de control sobre dicha operación es la fuente
primera de las indeterminaciones e independencias que son tan notables en el estudio de ZFC. El
24 | José Ferreirós
resultado de Zermelo viene a significar que, si suponemos que otra teoría más básica lograra determinar
el comportamiento de (X), entonces el universo V quedaría completamente caracterizado. Esto es lo
que se llama una petición de principio. Por insistir y remachar el clavo: la tarea de caracterizar los
dominios de conjuntos arbitrarios es, precisamente, el núcleo de lo que debería hacer –pero todavía no
ha logrado, tras más de un siglo– la teoría de conjuntos.
Consideremos además que el supuesto, de que existe y está plenamente determinada la totalidad de
los subconjuntos (arbitrarios) de un dominio infinito cualquiera, es un postulado de existencia. Asumir
este postulado en la lógica pura supone una violación del principio según el cual la lógica es
ontológicamente neutral, no depende de lo que exista o no en el universo. (Por cierto, también
defender que el Axioma de Elección es un principio lógico depende de asumir que la mera lógica nos
da garantías de la existencia de conjuntos arbitrarios de cosas: de nuevo, es una idea subsidiaria de
pensar que la existencia de conjuntos arbitrarios es asunto de lógica, una herencia del logicismo.)
Para afianzar la idea de qué es razonable asumir en LSO y qué no, preguntémonos cómo es en la
práctica una teoría axiomática presentada en LSO: por ejemplo, la teoría de la aritmética que estableció
Peano. En tal teoría, se asumen dados uno o varios dominios de individuos, y se determinan
explícitamente algunos predicados y relaciones que entrarán en la formulación de los axiomas. Peano
emplea por ejemplo el predicado N(x) que intuitivamente se lee ‘x es un número’, y la operación
binaria (x + y) que intuitivamente es la suma (una relación ternaria); podríamos tener también una
relación (x < y) de orden, binaria. No hay ningún problema en que algún axioma se formule en
segundo orden, como de hecho sucede con el Axioma de Inducción Matemática. Pero el sistema no
depende esencialmente de suponer dado ese “paraíso del lógico” que sería la totalidad de todos los
posibles “predicados” o conjuntos arbitrarios de elementos del dominio de individuos. De hecho, en
una teoría normal, en la práctica, cualquier otro predicado o relación que intervenga más adelante
habrá de ser explícitamente definido en base a los primitivos.
Si ahora imponemos sobre el sistema teórico la LSO con semántica plena, de facto estamos
transformando radicalmente la teoría e imponiendo –por fiat– que haya predicados arbitrarios y
relaciones arbitrarias, determinados ‘en sí mismos’. Más que una semántica estándar, esto parece una
semántica divina. Lo que pretendo resaltar es que el recurso a la semántica plena o conjuntista no
respeta la práctica del matemático en activo, sino todo lo contrario: la violenta y la transforma de una
manera que, además, no podemos controlar con nuestras herramientas conceptuales. El sistema lógico
LSO resulta ahora ‘saber’ muchas cosas que nosotros ignoramos, y que quizá ignoraremos por siempre.
Faltaría explicar con cierto detalle por qué puede afirmarse que la idea de conjunto arbitrario es
propiamente matemática. Para evitar extenderme aún más, remito a Ferreirós (2011), en cuya sección 2
el lector encontrará los detalles; argumenté allí que la introducción de funciones arbitrarias (y por
tanto de conjuntos arbitrarios) resulta de forma natural a partir de una consideración del conjunto de
los números reales. Pero la idea de número real surge del esfuerzo por elaborar una aritmética que
corresponda a las nociones intuitivas de continuo y continuidad, no es un simple producto de la
lógica. Ahora, quizá sea buena idea discutir, a un nivel simple e intuitivo, qué efecto tiene el imponer
la semántica plena.
Consideremos un dominio cualquiera de individuos, D. La lógica LSO con semántica plena es
leibniziana, hiper-racionalista: (i) se cumple necesariamente el principio de que todo individuo de D
está caracterizado por propiedades que son exclusivas de él (esto es sencillo de ver, ya que las
propiedades son aquí meros correlatos de conjuntos, y la semántica exige que estén dados todos los
conjuntos unitarios); (ii) se cumple también que, si elegimos al azar una infinidad de elementos de D,
hay una propiedad dada que define precisamente a esa colección de individuos (la propiedad que
corresponde a ese conjunto arbitrario, el cual está dado por nuestros supuestos semánticos). Esta
característica (ii) es muy extraña, aún en el caso de que nos limitemos a un dominio de individuos
especial donde la característica (i) parezca más razonable, como sucede con los números naturales.
Cada elemento de ℕ tiene propiedades, explicitables en el lenguaje de la aritmética de Peano, que lo
La herencia oscura del logicismo |25
hacen único;9 aún con eso, resulta muy extraño asumir por fiat que toda colección infinita y arbitraria
de números naturales –infinitos números escogidos al azar, digamos, por un dios que echara una
moneda al aire infinitas veces– está definida por una propiedad dada explícitamente.
El lector entrenado en matemáticas dirá: ‘Bueno, pero si eso es fácil: basta con considerar la
propiedad de pertenecer al conjunto arbitrario formado por todos esos números’. Si esta es su
respuesta, estará reforzando mi tesis de que la adopción de la LSO con semántica plena tiene su origen
en haber presupuesto que la teoría de conjuntos y la lógica son coextensas. Lo cual fue una
consecuencia de la propagación de la tesis logicista.
Quine (1970) no estaba en lo cierto al decir que la LSO es “teoría de conjuntos disfrazada”: su
error consistió en dar por hecho que la semántica “natural” para LSO es la semántica plena o
conjuntista. Esto parecía normal a la gente de su generación, que, como el propio Quine, se habían
criado entre ideas logicistas. En cuanto nos damos cuenta de que esa idea no tiene nada de natural,
nos vemos liberados; y esto resulta razonable, ya que es muy natural expresar enunciados en LSO e
incluso reconocer verdades lógicas del sistema LSO. Ya nada se opone a que introduzcamos la LSO –
digamos, con una semántica tipo Henkin– en plena igualdad con otros sistemas lógicos. Claro está
que, bajo estas condiciones, la lógica no hace milagros semánticos u ontológicos: la categoricidad de ℕ
se mantiene, pero no la de ℝ o V.
3. Matematizando la metamatemática: Tarski y la teoría de modelos
Es bien sabido que la metamatemática original de la escuela de Hilbert, en los años 1920 y 30, era
esencialmente sintáctica y finitaria, y por tanto muy diferente de las ideas modelistas o semánticas que
han acabado dominando en la concepción de la lógica durante las últimas décadas. Dado que el
objetivo de Hilbert era justificar la matemática clásica a través de pruebas de consistencia, superando el
obstáculo de las críticas intuicionistas y constructivistas, la escuela de Hilbert restringía los métodos
empleables en metamatemática a cuestiones de combinatoria finita. También se buscaba la plena
mecanización de los procedimientos lógicos, como indica la importancia central que se le concedía al
problema de la decisión. Y así surgió la teoría de la demostración o Beweisstheorie.
No es extraño, pues, que el primer tratado clásico de teoría de la demostración fuera publicado en
los años 1934/39 (Bernays & Hilbert, Grundlagen der Mathematik), mientras que el primer texto clásico
de teoría de modelos apareció unos cuarenta años más tarde (Chang & Keisler 1973). Pero es que la
teoría de modelos, como tal, sólo apareció tras la II Guerra Mundial, y la expresión misma “teoría de
modelos” es de 1954 (ver Ferreirós 2015).
El germen de este desarrollo se encuentra en la notable inversión de la perspectiva metamatemática
que comenzó a introducir Tarski hacia 1930. Encontramos aquí una expansión de los métodos hasta
incluir toda la teoría de conjuntos, es decir, se emplean a nivel metateórico todos los métodos de la
matemática clásica, sin restricciones. Esto es evidente si consideramos que las relaciones clave, como la
verdad de un enunciado en un modelo M ⊨ , o la relación de consecuencia lógica ⊨ ,10 se definen
empleando esencialmente recursos conjuntistas, en particular el concepto de estructura conjuntista.
Para ser más explícito, añado lo siguiente. Antes de 1940, las cuestiones fundamentales en
metamatemática eran asuntos ligados a la investigación fundacional de orientación sintáctica, tales
como los problemas de la consistencia, la completitud, y muy especialmente la decidibilidad en teorías
axiomatizadas y formalizadas. Todavía no había ningún sentido claro de una teoría de modelos, por
más que Tarski estuviera empleando con rigor y vigor la noción de modelo (estructura conjuntista) en
una nueva dirección de libre exploración al estilo de la matemática clásica. Durante los años 1930, fue
9
Recuerdo aquí la anécdota de Hardy y Ramanujan comentando el número 1729: “I remember once going to see him when he was ill at
Putney. I had ridden in taxi cab number 1729 and remarked that the number seemed to me rather a dull one, and that I hoped it was
not an unfavorable omen. ‘No,’ he replied, ‘it is a very interesting number; it is the smallest number expressible as the sum of two cubes
in two different ways.’”
10
Siendo un conjunto de enunciados, posiblemente infinito.
26 | José Ferreirós
publicando su famosa serie de artículos sobre “semántica científica”, en los que rescataba para la lógica
moderna las nociones de verdad (en un lenguaje formalizado),11 de implicación o consecuencia lógica, y
de definibilidad. Como buen producto de la escuela de Varsovia, con su combinación de lógica y
topología, teoría de conjuntos y filosofía, Tarski exploró esos temas tanto en su vertiente lógico-formal
como en la filosófica.
Pero nada de esto suponía aún la aparición de la teoría de modelos. Antes de 1940, eran
claramente muy relevantes una serie de consideraciones filosóficas, como el empirismo estilo Viena o
Berlín, y de modo muy especial el énfasis en la “sintaxis lógica”. Mientras que, tras la II Guerra, se
advierte en la obra de Tarski y su escuela de Berkeley una cada vez mayor desatención a los problemas
filosóficos, para enfatizar más y más los aspectos matemáticos.12 Por ejemplo, la interrelación entre
álgebra y teoría de modelos, tema también muy importante para Abraham Robinson.
Tarski nunca tuvo especial comprensión ni simpatía por el intuicionismo, sino que siempre estuvo
plenamente a favor de la teoría de conjuntos. En este punto, hay un contraste claro con el caso de
Gödel o incluso de Carnap. En su formación se combinó la influencia del logicismo de Whitehead y
Russell con el impacto de las ideas conjuntistas que promovía Sierpinski. Pero quizá al lector le resulte
sorprendente mi sugerencia de que el logicismo puede haber desempeñado un papel en el giro que le
imprimió a la metamatemática. Veamos por qué lo afirmo.
Ya he discutido en otro lugar (Ferreirós 1997) cómo el estupendo libro Introduction to Logic (1940,
versión alemana de 1937) contiene afirmaciones claramente próximas a la tesis logicista. Tarski tenía
grandes expectativas para la lógica, que habría de suministrar “un aparato conceptual unificado que
ofrecería una base común para todo el conocimiento humano” (prefacio). Pero su objetivo más
concreto era mostrar que “los conceptos de la lógica permean toda la matemática, que comprenden como
casos especiales todos los conceptos específicamente matemáticos, y que las leyes lógicas se aplican
constantemente –de forma consciente o inconsciente– en los razonamientos matemáticos” (Tarski
1940, prefacio; énfasis añadido). Así, por ejemplo, la sección 26 trata de los números cardinales y la
“aritmética como parte de la lógica” (1940, p. 79): el principio de inducción, “la noción misma de
número, y también todos los demás conceptos aritméticos, son definibles dentro del campo de la
lógica” (1940, p. 81).
Tarski consideraba que este resultado es “una consecuencia sumamente interesante y con
implicaciones de largo alcance” (1940, p. 81). No contento con esto, más abajo indica que no solo ha
sido posible desarrollar la aritmética, sino también “el álgebra, análisis, etcétera” como partes de la
lógica (y menciona las obras de Frege, Whitehead y Russell). Así pues, cabe afirmar que Tarski
defendió en dicha obra el logicismo, si bien es verdad que reconocía una dificultad clave: la planteada
por el axioma del infinito, “que es intuitivamente menos evidente que los demás” (1940, p. 81).13 De
hecho, incluso en obras mucho más tardías se advierten residuos de logicismo: la famosa propuesta de
Tarski en relación a las constantes lógicas tiene como resultado que la noción de número cardinal sea
estrictamente lógica.
Así pues, planteo la tesis de que el logicismo ‘débil’ de Tarski –según el cual el único axioma de la
matemática es, quizás, el axioma de infinitud– fue un elemento clave en el giro característico que le
imprimió a la metamatemática. Su idea debió ser que las restricciones finitistas de Hilbert estaban muy
bien como estrategia de réplica al escepticismo de los intuicionistas, pero que nada obstaba para poder
investigar otras cuestiones por medios más amplios y abiertos, sobre todo teniendo en cuenta que se
trataba –en su opinión– de medios puramente lógicos. La idea, implícita pero central, es que todo su
El tratamiento clásico, que incluye una definición conjuntista muy precisa para formulas φ de un sistema formal, está en el artículo
[Tarski 1933]. Uno de los objetivos principales de Tarski era mostrar que, para ciertos tipos de lenguaje L, la relación ‘M satisface φ’ es
definible usando sólo teoría de conjuntos, la sintaxis de L, y las nociones expresadas por las constantes de L.
12
Para el desarrollo de la teoría de modelos se requería confianza en la noción general de modelo (cualquier estructura de cualquier
cardinalidad), cosa bien alejada de las perplejas consideraciones sintácticas de Entreguerras. Algunos signos de esto se pueden ver en la
obra de Tarski hacia 1930, como el teorema de Löwenheim-Skolem ascendente o su interés por los grandes cardinales; pero todo ello se
activaría realmente en los 1940.
13
Todo ello es coherente con que Tarski empleara la Teoría de Tipos como sistema lógico básico hacia 1930 (ver Ferreirós 1997, pp. 100101).
11
La herencia oscura del logicismo |27
trabajo metamatemático se hacía dentro de la lógica, a saber, dentro de la teoría de tipos simple (hasta
1935) o dentro de la teoría de conjuntos formalizada en primer orden. 14 Tanto la definición del
aparato sintáctico, como de los medios semánticos, como de las relaciones metateóricas; en una
palabra, todo su proyecto de metodología de las ciencias deductivas era formalizable en ese contexto.
En suma, los fundamentos de todo el pensamiento racional podían ser rigorizados así. De ahí que
el objetivo de la Introduction (1940) fuera “presentar al lego educado […] esa poderosa corriente […] [de]
la lógica moderna […] [que] busca crear una base común para la totalidad del conocimiento humano”.
Advertimos pues, en el origen mismo de la “semántica científica” que acabaría dando lugar a la teoría
de modelos, una clara herencia del logicismo. Herencia que ha quedado posteriormente en la sombra,
en la oscuridad.
Quizá conviene añadir algunas ideas más, para esbozar cómo se llegó a la Teoría de Modelos desde
la nueva comprensión de las matemáticas obtenida hacia 1900. Para entonces, los sistemas axiomáticos
y las estructuras se habían vuelto centrales (Grassmann, Dedekind, Hilbert, llegando luego a los
Bourbaki), y el enfoque de la teoría de modelos se alcanza cuando esas ideas clave se matematizan
plenamente. La noción general de estructura (conjuntista) no fue formulada explícitamente hasta los
años 1930 (Birkhoff en 1935, los Bourbaki en 1939), pero estaba en el aire desde mucho tiempo antes:
desde que existía un tratamiento bastante uniforme de estructuras particulares como los cuerpos de
números, los anillos, los espacios en topología, etc. En cuanto a los sistemas axiomáticos explícitos, es
bien sabido que emergieron de al menos dos tradiciones: 1) la geometría proyectiva y los estudios de
fundamentos, de Pasch y Wiener hasta Hilbert; y 2) la línea de desarrollo de ideas lógicas y axiomáticas
Grassmann – Schröder – Peano (cabría mencionar a Dedekind también). Con Hilbert (1899), las
interrelaciones entre sistemas axiomáticos y modelos estructurales reciben un tratamiento preciso, pero
todavía informal, naciendo una nueva metodología que alguno llamó la “matemática de los axiomas”.
Todos estos elementos influyeron en Tarski y otros lógicos de Entreguerras. La lógica y la teoría de
modelos se encargaron de matematizar y formalizar los distintos elementos que entraban en esa
metodología hilbertiana. Así, el trabajo informal del matemático en activo quedó formalizado gracias a
1. sistemas axiomáticos estrictamente formales (e.g. el de Skolem para ZFC en 1923; Gödel
y Tarski para la teoría de tipos simple en 1930)
2. definiciones conjuntistas precisas de las diversas estructuras (e.g. Bourbaki, Tarski)
3. y nociones explícitas, formuladas con precisión, de interpretación, satisfacción, y verdad (de
un axioma en un modelo).
Mas no bastaba con esto para el proyecto de la teoría de modelos, que requirió además diversas
innovaciones en el camino de la matematización de la metamatemática. Podría uno hablar de un cambio
de paradigma que tuvo lugar en los años 1940 con Tarski como líder (ver Ferreirós 2015).
Resulta curioso: la situación en el período de Entreguerras, en Europa, estuvo marcada por una
atmósfera muy tensa, y esto se aplica no sólo en la esfera de la política, sino también en los estudios de
fundamentos; fue la época de la crisis, de la dura polémica entre intuicionistas y formalistas, de las
dudas existenciales respecto a la fiabilidad de ZFC y sistemas afines. Sin embargo, la situación después
del fin de la Guerra, y sobre todo en EEUU, puede describirse como de libre expansión; lo cual parece
haber sido un factor coadyuvante en el giro hacia la teoría de modelos. En ningún lugar se dejó sentir
tanto esta expansibilidad como en la nueva escuela fundada por Tarski en UC Berkeley; recomiendo a
este respecto la excelente obra de Feferman y Feferman (2004).
4. Una propuesta: lógica sin arbitrariedades
Varias generaciones de lógicos, durante el siglo XX, se han educado en la aceptación de sistemas
lógicos que entremezclan principios matemáticos con principios propiamente lógicos. Tal es el caso de
14
Sobre este giro, que Tarski dio en el epílogo a su (1935), ver Ferreirós (1997).
28 | José Ferreirós
las lógicas de orden superior, cuando se acepta su interpretación denominada (muy significativamente)
“estándar” –pero que, de acuerdo con la tesis defendida aquí, no debería en absoluto considerarse la
interpretación natural o por defecto, sino una interpretación fuertemente matemática, conjuntista (de
facto, una aplicación de ideas matemáticas). La clave está en reconocer que la noción de conjunto
arbitrario, y más aún su ampliación o “totalización” con el supuesto de un dominio de todos los
subconjuntos (determinado unívocamente para cualquier dominio dado de individuos), son principios
ajenos a la tradición lógica. Pese a que Frege fuera padre del logicismo, los conocedores de su obra
saben bien que tal idea de conjunto arbitrario es completamente ajena a las nociones de Frege relativas
a los conceptos y sus extensiones (clases).
Pero la situación indicada hace tiempo que comenzó a cambiar, ya que desde los años 1980 al
menos, numerosos especialistas en lógica han trabajado más próximos a la computación o a la
lingüística que a la matemática contemporánea. Sólo falta dar un paso más y extraer la conclusión
razonable, que permite a la vez conservar la LSO como un sistema natural de lógica, y evitar que ideas
matemáticas avanzadas se cuelen por la puerta falsa. Aun reconociendo que el problema de la
demarcación estricta de la lógica es muy complejo, y quizá no pueda recibir una solución definitiva,
propongo pues lo que parece la solución natural y coherente con la tradición lógica. LSO es un sistema
lógico perfectamente válido, pero debemos restringirnos al sistema dado efectivamente por medio de
reglas. En cuanto a la semántica, debemos evitar considerar la semántica “plena” o conjuntista como
una semántica estándar, sino que la semántica estándar ha de ser de tipo Henkin –o quizá incluso una
restricción predicativa de la misma–.15 Por tanto, la relación de consecuencia que formaliza la LSO no
es esa consecuencia lógica opaca y casi divina que a veces han discutido filósofos como Kreisel, Shapiro
y otros,16 sino que se trata de un sistema naturalmente más débil.
Quiero enfatizar que la LSO débil, del tipo que defiendo, permite sin ningún problema formalizar
los trabajos de Frege –recuperando el teorema de Frege, del que hablamos en la introducción– y
también los de Dedekind –probando inclusive el teorema de categoricidad para la aritmética en
segundo orden–. Sin embargo, la LSO que defendemos no es tan fuerte como para permitirnos
recuperar la “cuasi-categoricidad” del universo conjuntista de Zermelo; lo cual, lejos de ser un defecto,
es en mi opinión muestra de que el sistema tiene el grado de fortaleza justo y adecuado. (El problema
de hacer preciso, si fuera posible, y calibrar el efecto de la operación conjunto potencia, es un
problema de la teoría de conjuntos; no se resuelve por fiat.)
Seguramente es muy natural que haya quien sueñe en sistemas lógicos con una capacidad expresiva
y demostrativa tan fuerte como se nos antoje, a la vista del problema que deseamos tratar; pero hay que
tener cuidado con el wishful thinking. Desde Gödel sabemos que hay límites a lo que un sistema formal
puede abarcar; también debemos aceptar que hay límites a lo que la mera lógica puede establecer o
garantizar.
Quizá el lector piense que las cuestiones que acabo de discutir no tienen demasiada importancia,
porque a fin de cuentas en la práctica sólo se emplean reglas explícitas de la lógica (también en LSO):
los desenfoques a nivel conceptual se quedarían ahí, en un plano más bien ideológico. Pero la
ideología tiene su importancia: desde hace unas décadas, muchos filósofos y lógicos vienen ajustando
sus nociones de lo que es lógica según una perspectiva modelista, sin reflexionar suficientemente en
que dicha perspectiva tiene sus propios presupuestos (que son muy fuertes, ya que la teoría de modelos
presupone la teoría de conjuntos). En mi opinión, la deriva metafísica de buena parte de la filosofía
analítica tiene su origen en la influencia oscura de sistemas lógicos de varios tipos (lógicas de orden
superior inadecuadamente interpretadas, lógicas modales consideradas semánticamente, etc.) que han
impuesto la aceptación de postulados realistas fuertes. Los ejemplos podrían multiplicarse: se toma
15
La semántica tipo Henkin, también llamada semántica general, evita la pretensión de que el conjunto potencia del dominio esté
determinado intrínsecamente, como un recurso fijo y pre-matemático. En su lugar, el rango de los cuantificadores ha de ser indicado
directamente, con ciertas condiciones de clausura. Para más detalles ver Enderton (2015).
16
‘Divina’ porque conoce –o pretende conocer– cosas que están vedadas, quizá para siempre, a la lógica humana (un ejemplo famoso es el
valor de verdad de la Hipótesis del Continuo de Cantor), y ‘opaca’ precisamente por esa imposibilidad de traducir sus supuestas verdades
a algo humanamente manejable.
La herencia oscura del logicismo |29
cualquier idea razonable, que luego, colocada en un contexto de análisis modelo-teóricos de lo que son
el significado y la verdad, lleva de manera aparentemente forzada a interpretaciones ontológicas
sumamente fuertes.
Por estos motivos, la cuestión de la herencia oscura del logicismo no es un mero asunto erudito de
interés para historiadores, sino una cuestión candente con implicaciones filosóficas concretas.
Bibliografía
Boolos, G. (1986), “Saving Frege From Contradiction”, Proceedings of the Aristotelian Society 87: 137-151.
Boolos, G. (1995), “Frege's Theorem and the Peano Postulates”, Bulletin of Symbolic Logic 1: 317-326.
Chang, C. C. y H. J. Keisler (1973), Model Theory, Amsterdam: North- Holland.
Church, A. (1956), Introduction to Mathematical Logic, Princeton, NJ: Princeton University Press.
Dedekind, R. (1888), ¿Qué son y para qué sirven los números?, Madrid: Alianza, 1997.
Enderton, H. B. (2015), “Second-order and Higher-order Logic”, en Zalta, E. N. (ed.), The Stanford Encyclopedia of
Philosophy (Fall 2015 Edition), https://plato.stanford.edu/archives/fall2015/entries/logic-higher-order/.
Feferman, A. y S. Feferman (2004), Alfred Tarski: Life and Logic, Cambridge: Cambridge University Press.
Ferreirós, J. (1997), “Notes on Types, Sets, and Logicism, 1930-1950”, Theoria 12: 91-124.
Ferreirós, J. (2001), “The Road to Modern Logic – An interpretation”, The Bulletin of Symbolic Logic 7: 441-484.
Ferreirós, J. (2009), “Hilbert, Logicism, and Mathematical Existence”, Synthese 170(1): 33-70.
Ferreirós, J. (2011), “On Arbitrary Sets and ZFC”, The Bulletin of Symbolic Logic 17(3): 361-393.
Ferreirós, J. (2015), “Far from Modelisation: The Emergence of Model Theory”, Oberwolfach Reports 12: 2851-2855.
Frege, G. (1884), Die Grundlagen der Arithmetik, Breslau: Max und Hermann Marcus. (Versión castellana de C. Ulises
Moulines: “Los fundamentos de la aritmética”, en Frege, G., Escritos filosóficos, Barcelona: Crítica, 1996, pp. 31–
144.)
Frege, G. ([1893] 1962), Grundgesetze der Arithmetik, Hildesheim: Georg Olms. (Versión castellana de C. Ulises
Moulines de la “Introducción a Las leyes fundamentales de la aritmética” en: Frege, G., Estudios sobre semántica,
Barcelona: Ariel, 1973, pp. 157-162; reimpreso en: Frege, G., Escritos filosóficos, Barcelona: Crítica, 1996, pp. 248252.)
Giaquinto, M. (2002), The Search for Certainty: A Philosophical Account of Foundations of Mathematics, Oxford: Oxford
University Press.
Hilbert, D. (1899), Fundamentos de Geometría, Leipzig: Teubner. (Versión castellana de la 7a ed.: Fundamentos de
Geometría, Madrid: CSIC, 1991. Ver en cambio la edition critique: Les fondements de la Géométrie, Paris: Dunod,
1971.)
Hilbert, D. (1918), “Axiomatisches Denken”, Mathematische Annalen 78: 405-415. (Versión castellana: “Pensamiento
axiomático”, en Hilbert, D., Fundamentos de las matemáticas, México: UNAM, 1993, pp. 23-35.)
Hilbert, D. y W. Ackermann (1928), Grundzüge der theoretischen Logik, Berlin: J. Springer. (Versión castellana de una
edición posterior, con grandes cambios: Elementos de lógica teórica, Madrid: Tecnos, 1962.)
Kreisel, G. (1967), “Informal Rigour and Completeness Proofs”, en Lakatos, I. (ed.), Problems in the Philosophy of
Mathematics, Amsterdam: North-Holland, pp. 138-171.
Quine, W. V. (1970), Philosophy of Logic, Cambridge, MA: Harvard University Press.
Shapiro, S. (1991), Foundations without Foundationalism: A Case for Second-Order Logic, Oxford: Oxford University Press.
Tarski, A. ([1933] 1935), “Der Wahrheitsbegriff in den formalisierten Sprachen”, Studia Philosophica 1 (1935): 261-405.
(Original polaco: Pojęcie prawdy w językach nauk dedukcyjnych, Warszowa: Towarzystwo Naukowe Warszawskie,
30 | José Ferreirós
1933. Referencias a la versión inglesa de Joseph Henry Woodger: “The Concept of Truth in Formalized
Languages”, en Tarski, A., Logic, Semantics, Metamathematics, Oxford: Oxford University Press, 1956, pp. 152-278.)
Tarski, A. (1940), Introduction to Logic and the Methodology of Deductive Sciences, Cambridge, MA: Harvard University
Press. (Versión castellana: Introducción a la lógica y a la metodología de las ciencias deductivas, Madrid: Espasa-Calpe,
1968.)
Tennant, N. (2014), “Logicism and Neologicism”, en Zalta, E. N. (ed.), The Stanford Encyclopedia of Philosophy (Fall 2014
Edition), http://plato.stanford.edu/archives/fall2014/entries/logicism/.
Whitehead, A. N. y B. Russell (1910-1913), Principia Mathematica, Cambridge: Cambridge University Press, 2a ed.
1925-1927, reimpresión 1978.
Zermelo, E. (1930), “Über Grenzzahlen und Mengenbereiche”, Fundamenta Mathematicae 16: 29-47.