Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

La herencia oscura del logicismo

2020, Metatheoria

Resumen El logicismo suele figurar de modo estándar en los manuales como una de las principales alternativas en la fundamentación de las matemáticas, si bien su atractivo disminuyó considerablemente desde aprox. 1950. Bien es cierto que la corriente neologicista ha revitalizado dicha tendencia sobre la base del Principio de Hume y el Teorema de Frege, pero aún así el neologicismo se limita a la aritmética y no aspira a dar cuenta de la matemática en su conjunto. En este trabajo no pretendemos centrarnos en el logicismo clásico de Frege y Dedekind, ni en el período de Russell y Carnap, ni tampoco en la corriente neologicista, sino que nuestra intención es llamar la atención hacia determinadas herencias del logicismo que suelen pasar inadvertidas. En las décadas de 1920, 1930 y 1940 aprox., la tesis logicista estimuló algunas innovaciones de bastante calado en la lógica matemática. Concretamente, puede argumentarse que dos ideas clave ligadas a la semántica formal tienen su origen en la idea de lógica promovida por el logicismo: la expansión de la metamatemática operada por Tarski, que abrió el camino hacia la teoría de modelos; y la insistencia en la semántica "plena" o conjuntista como "estándar" para la lógica de segundo orden. El artículo propone un análisis de dichas herencias e insiste en que la teoría lógica debería evitar algunas de sus implicaciones. Palabras clave: fundamentos de las matemáticas-lógica matemática-filosofía de la lógica-teoría de modelos-lógica de segundo orden-historia de la lógica y las matemáticas Abstract Logicism finds a prominent place in textbooks as one of the main alternatives in the foundations of mathematics, even though it lost much of its attraction from about 1950. Of course the neologicist trend has revitalized the movement on the basis of Hume's Principle and Frege's Theorem, but even so neologicism restricts itself to arithmetic and does not aim to account for all of mathematics. The present contribution does not focus on the classical logicism of Frege and Dedekind, nor on the Russell-Carnap period, and also not on recent neologicism; its aim is to call attention to some forms of heritage from logicism that normally go quite unnoticed. In the 1920s, 1930s and 1940s, the logicist thesis became a stimulus for some deep innovations in the field of mathematical logic. One can argue, in particular, that two key ideas linked with formal semantics had their origins in the conception of logic associated with the logicist trend-the expansion of metamathematics brought about by Tarski, opening the way to model theory, and the insistence on the "full" set-theoretic semantics as "standard" for second-order logic. The paper proposes an analysis of those inheritances and argues that that logical theory ought to avoid some of their implications. Keywords: foundations of mathematics-mathematical logic-philosophy of logic-model theory-second-order logic-history of logic and mathematics  Recibido: 4 de abril de 2018. Aceptado con revisiones: 13 de mayo de 2018.

La herencia oscura del logicismo The Dark Heritage of Logicism José Ferreirós† Resumen El logicismo suele figurar de modo estándar en los manuales como una de las principales alternativas en la fundamentación de las matemáticas, si bien su atractivo disminuyó considerablemente desde aprox. 1950. Bien es cierto que la corriente neologicista ha revitalizado dicha tendencia sobre la base del Principio de Hume y el Teorema de Frege, pero aún así el neologicismo se limita a la aritmética y no aspira a dar cuenta de la matemática en su conjunto. En este trabajo no pretendemos centrarnos en el logicismo clásico de Frege y Dedekind, ni en el período de Russell y Carnap, ni tampoco en la corriente neologicista, sino que nuestra intención es llamar la atención hacia determinadas herencias del logicismo que suelen pasar inadvertidas. En las décadas de 1920, 1930 y 1940 aprox., la tesis logicista estimuló algunas innovaciones de bastante calado en la lógica matemática. Concretamente, puede argumentarse que dos ideas clave ligadas a la semántica formal tienen su origen en la idea de lógica promovida por el logicismo: la expansión de la metamatemática operada por Tarski, que abrió el camino hacia la teoría de modelos; y la insistencia en la semántica “plena” o conjuntista como “estándar” para la lógica de segundo orden. El artículo propone un análisis de dichas herencias e insiste en que la teoría lógica debería evitar algunas de sus implicaciones. Palabras clave: fundamentos de las matemáticas - lógica matemática - filosofía de la lógica - teoría de modelos - lógica de segundo orden - historia de la lógica y las matemáticas Abstract Logicism finds a prominent place in textbooks as one of the main alternatives in the foundations of mathematics, even though it lost much of its attraction from about 1950. Of course the neologicist trend has revitalized the movement on the basis of Hume’s Principle and Frege’s Theorem, but even so neologicism restricts itself to arithmetic and does not aim to account for all of mathematics. The present contribution does not focus on the classical logicism of Frege and Dedekind, nor on the Russell-Carnap period, and also not on recent neologicism; its aim is to call attention to some forms of heritage from logicism that normally go quite unnoticed. In the 1920s, 1930s and 1940s, the logicist thesis became a stimulus for some deep innovations in the field of mathematical logic. One can argue, in particular, that two key ideas linked with formal semantics had their origins in the conception of logic associated with the logicist trend – the expansion of metamathematics brought about by Tarski, opening the way to model theory, and the insistence on the “full” set-theoretic semantics as “standard” for second-order logic. The paper proposes an analysis of those inheritances and argues that that logical theory ought to avoid some of their implications. Keywords: foundations of mathematics - mathematical logic - philosophy of logic - model theory - second-order logic history of logic and mathematics  Recibido: 4 de abril de 2018. Aceptado con revisiones: 13 de mayo de 2018. Departamento de Filosofía y Lógica, Universidad de Sevilla, España. Para contactar al autor, por favor, escribir a: josef@us.es. Metatheoria 10(2)(2020): 19-30. ISSN 1853-2322. eISSN 1853-2330. © Editorial de la Universidad Nacional de Tres de Febrero. © Editorial de la Universidad Nacional de Quilmes. Publicado en la República Argentina. † 20 | José Ferreirós 1. Introducción El logicismo es la tesis de que las matemáticas se reducen a la lógica: que los conceptos básicos de las matemáticas se pueden definir en base a conceptos puramente lógicos, y que los principios de las matemáticas se pueden deducir de leyes puramente lógicas. Esta tesis fue formulada por vez primera en los años 1880: Frege la planteó con relación a la aritmética en sus célebres Grundlagen (1884), donde decía que “incluso una inferencia matemática aparentemente singular, como el paso de ‘n’ a ‘n + 1’,1 se basa en las leyes lógicas universales”; Dedekind afirmó que “la aritmética (álgebra, análisis) es sólo una parte de la lógica” en su libro sobre los números naturales (1888). Parece muy probable que el desencadenante mayor de esta tendencia fueran las reducciones de los números reales a los racionales que fueron publicadas por varios autores –Dedekind, Cantor, Weierstrass, Heine, Méray– en 1872: dichas teorías de los números reales reducían el concepto de ℝ y los principios básicos de su aritmética a los números racionales, empleando esencialmente la noción de conjunto (o nociones reducibles a ella). Para dejar sólidamente establecida la tesis logicista, fue preciso perfeccionar y ampliar los principios de la lógica conocidos hasta 1850. Dedekind formuló nociones básicas de la teoría de conjuntos (siguiendo en parte las ideas de autores como Boole y Schröder) y les añadió novedades importantes relativas al concepto de aplicación, correspondencia o función (Abbildung) y a la teoría de cadenas. Esta teoría de cadenas –que son cierto tipo de conjuntos cerrados con respecto a una aplicación– fue lo que le permitió subsumir e incluso generalizar el principio de inducción matemática. Por su parte, Frege puso toda su atención en convertir la teoría lógica en una teoría formal en sentido estricto, 2 para lo cual ideó un sistema o cálculo lógico de orden superior (con cuantificadores, reglas de inferencia estrictas, etc.). Pueden encontrarse en estos autores los orígenes de la lógica matemática del siglo XX y de la teoría de funciones recursivas, y por tanto buena parte del impulso que conduciría también al desarrollo de la computación. El logicismo experimentó un desarrollo e implantación muy fuerte durante la última década del XIX,3 pero, como es bien sabido, tropezó contra el escollo de las contradicciones. Tanto la teoría de conjuntos y aplicaciones de Dedekind como el sistema lógico de Frege se basaban, más o menos claramente, en el supuesto del principio de comprehensión irrestricto: que, dado un concepto bien definido cualquiera P(x), existe el conjunto x: P(x) de todos los objetos que caen bajo dicho concepto. Pero, como demostraron Cantor y Russell, dicho principio irrestricto es contradictorio: si consideramos el concepto de ‘conjunto que no se pertenece a sí mismo’, nos conduce al conjunto A = x: x  x, y ahora nos vemos envueltos en la contradicción de que A  A  A  A.4 Este grave tropiezo hizo que Frege abandonara el logicismo, y pese a los grandes esfuerzos de Russell por salvar dicha posición, con la teoría de tipos, los problemas ligados a principios como el axioma del infinito, el axioma de reducibilidad y el axioma de elección (ninguno de los cuales es de carácter lógico) llevaron de nuevo al fracaso.5 Ahora bien, aunque el logicismo estaba claramente en situación de declive a partir de los años 1920, fueron muchos los autores –sobre todo filósofos– que siguieron defendiendo esa posición. En general, los ligados al positivismo lógico fueron logicistas, cosa bastante natural porque de otro modo les habría sido difícil seguir defendiendo que las leyes matemáticas son meramente analíticas. Un ejemplo tardío de esto nos lo da Carl Hempel en su artículo de 1945 “Sobre la naturaleza de la verdad 1 2 3 4 5 Este es el célebre principio de inducción matemática o inducción completa, al que Poincaré consideraba en cambio como intuitivo y sintético a priori. Para demostrar un teorema (x) de todos los números naturales, basta demostrar: en primer lugar, (1) y, segundo, que suponiendo (n) se sigue necesariamente (n+1). Nótese sin embargo que el cálculo de Frege es interpretado, su enfoque no es formalista. Incluso Hilbert fue partidario del logicismo antes de 1900; ver mi trabajo Ferreirós (2009). Ya en 1896 y 1897 Cantor había dado con las paradojas llamadas ‘de Cantor’ y ‘de Burali-Forti’; en cuanto a Russell, fue su estudio del Teorema de Cantor lo que le condujo a la célebre paradoja. El artículo de Carnap es una magnífica exposición de la situación hacia 1930, aunque quizá no es suficientemente crítico. Mi trabajo Ferreirós (1997) es un intento de analizar la caída del logicismo tras 1930, centrado especialmente en la obra de Quine. La herencia oscura del logicismo |21 matemática”. Sin embargo, autores como Quine o Putnam, en la siguiente generación, vieron con toda claridad que no era posible seguir defendiendo el logicismo. Curiosamente, en los años intermedios, entre 1920 y 1950 aprox., la tesis logicista estimuló algunas innovaciones de bastante calado en la lógica matemática. O al menos, esa es la tesis que voy a defender en este trabajo. Concretamente, puede argumentarse que dos ideas clave ligadas a la semántica formal tienen su origen en el logicismo: la expansión de la metamatemática operada por Tarski, que abrió el camino hacia la teoría de modelos; y la insistencia en la semántica “plena” o conjuntista para la lógica de segundo orden. Estas dos ideas siguen teniendo mucho predicamento en la actualidad, y a través de ellas se ha filtrado una fuerte herencia del logicismo que pasa inadvertida para muchos autores. En realidad, en mi opinión esta herencia ha conducido a una considerable confusión conceptual con respecto a temas clave de la teoría lógica y su filosofía. Como el lector probablemente sepa, hay otra herencia del logicismo en la actualidad que es mucho más obvia y conocida: el neologicismo, promovido especialmente desde Escocia con los trabajos de Crispin Wright y Bob Hale. No es mi intención discutir aquí este movimiento, que fue creciendo desde los años 1980 y atrae hoy bastante atención (ver Tennant 2014). Baste decir que su origen estuvo en una observación de Boolos (1986), a saber: que aunque la Ley V de Frege había resultado insostenible, con todo Frege había logrado demostrar algo importante que hoy suele llamarse el “teorema de Frege”. En un sistema de lógica de segundo orden es posible definir la relación de correspondencia biunívoca entre dos conceptos F y G, en el sentido de que a cada objeto-F le corresponde un y sólo un objeto-G; denotémosla por F  G (en lenguaje actual, el conjunto de los F y el conjunto de los G son biyectables). Esto hace posible introducir en el lenguaje el predicado #F (léase: el número de los F) por medio del llamado principio de Hume: #F = #G  F  G. La idea es bien intuitiva: el número de los F será igual al número de los G si y sólo si hay una correspondencia biunívoca entre los objetos que caen bajo cada uno de los conceptos. Es la idea clave de Cantor en su teoría de los cardinales infinitos, y es la misma idea que –siglos y siglos antes de Hume– emplearon un número indeterminado de humanos al usar guijarros o simples rayas para llevar una cuenta. Pues bien, en los Grundgesetze demuestra Frege formalmente que los axiomas de Peano se deducen del principio de Hume. Es un teorema notable, que nos dice que empleando la lógica de segundo orden, la aritmética elemental (de los números naturales) se puede reducir a un único axioma: el principio de Cantor-Hume (llamémoslo así, tal como ha sugerido Giaquinto 2002). La pregunta es si esto basta para considerar probada la tesis logicista, o al menos para afirmar que la aritmética elemental ha quedado reducida lógicamente a una simple verdad analítica. Este es el proyecto que Wright y Hale, con numerosos seguidores, han venido desarrollando; en torno a ello se han discutido mucho los principios de abstracción y la cuestión de las verdades analíticas.6 Pasemos pues a los temas prometidos, la herencia oscura del logicismo. Comenzaré discutiendo la lógica “plena” o conjuntista de segundo orden, y dejaré para la sección 2 la notable inversión de la metamatemática que Tarski realizó. Por fin, en la última sección haré una propuesta que considero bien fundada desde el punto de vista de la filosofía de la lógica. 2. Entre lógica y teoría de conjuntos: lógica “plena” de segundo orden Durante mucho tiempo la lógica de primer orden ha sido el paradigma de siendo el más estudiado en cursos de lógica matemática (para matemáticos, sistema tardó mucho en ser aislado: serían Löwenheim y Weyl, en los años considerarlo como un fragmento natural de la lógica; mientras que Frege 6 sistema lógico, y sigue al menos). Pero dicho 1910, los primeros en y otros autores, en la En mi opinión, la noción de ‘verdad analítica’ es bastante vaga, por lo que podemos afirmar que el principio #F = #G  F  G es analítico. Pero, debido a esa misma vaguedad, la tesis correspondiente no resulta de gran interés epistemológico ni semántico. 22 | José Ferreirós generación anterior, no limitaban sus principios lógicos, que deben interpretarse como de orden superior. En buena medida, esta situación resulta natural si tenemos en cuenta que entre 1850 y 1900, de Boole a Russell, fueron muchos los autores que consideraban la teoría de conjuntos como una parte fundamental de la lógica. (Sin esta idea, si el concepto de conjunto se hubiera visto como puramente matemático, el logicismo nunca habría sido defendido.) En realidad, fue hacia 1935 cuando por vez primera comenzó a considerarse la lógica de primer orden (LPO en lo sucesivo) como el sistema más natural y primario de lógica. El contexto fue un ambiente centrado en la formalización estricta y cargado de inseguridades, dados los problemas de la teoría de conjuntos, la presencia de paradojas de muy diversos tipos, las fuertes críticas de los intuicionistas y los sorprendentes resultados de Gödel (ver Ferreirós 2001). Sin embargo, esa idea encontró resistencias en algunos lógicos y matemáticos muy influyentes, de los cuales destacan especialmente Hilbert y Church. La posición de Hilbert es compleja, como es natural dada la época que le tocó vivir. El axioma de completitud en geometría (y números reales, 1900) requiere para su formulación modernizada un sistema lógico de segundo orden (LSO en lo sucesivo); incluso en el libro con Ackermann sobre Lógica teórica (1928) se tratan sistemas de orden superior, en especial la teoría de tipos bajo el nombre de “cálculo funcional expandido”; y se expresa la idea de que nociones tales como número, pertenencia y cardinalidad deben ser formuladas en lógica de orden superior para poder captar su significado intuitivo. Todo indica que Hilbert nunca llegó a pensar que hubiera una razón fundamental para restringir la lógica a LPO, lo cual es comprensible dado que sólo en los años 1930 se obtuvieron los resultados metalógicos de Gödel y otros. Incluso muchos años más tarde, y pese a considerar plenamente el impacto de la metalógica, Alonzo Church –en el capítulo final de su Introduction, dedicado a la LSO– pone de manifiesto la inadecuación de los lenguajes de primer orden para describir las estructuras “pretendidas” (intended) por el matemático en activo. Y aunque reconoce el problema de introducir una noción de consecuencia lógica en LSO que no es formalizable (ya que no es recursivamente axiomatizable), piensa que tal problema no es tan grave. Su argumento: que “el tipo de absolutismo así presupuesto … es ya inherente a la matemática clásica en general”, y en concreto al análisis o teoría de los reales (Church 1956, 326). Vemos aquí de nuevo, con toda claridad, cómo el sistema lógico es modelado según el patrón de la matemática avanzada, siguiendo la herencia del logicismo.7 Se debe destacar que, en autores educados en la tradición logicista, resulta natural la idea de que la lógica de segundo orden debe interpretarse con las variables de 2º orden recorriendo el conjunto potencia del dominio de individuos. Consideremos de nuevo la reducción de los números reales ℝ al conjunto de los racionales, ℚ, por ejemplo al modo de Dedekind: mediante cortaduras.8 Pues bien, para obtener el conjunto ℝ a partir de ℚ, es esencial que consideremos todas las cortaduras posibles, tanto las que se puedan definir explícitamente como las que no. Esto quiere decir que trabajamos esencialmente en el contexto de (ℚ), el conjunto potencia o conjunto de partes de ℚ; las cortaduras a considerar, siguiendo a Dedekind, son todos los elementos de (ℚ) que tienen las propiedades indicadas en nota. Como digo, en autores entrenados en considerar tales métodos como puramente lógicos (entrenados en ver la definición de Dedekind como una reducción lógica de ℝ a ℚ), resulta natural la idea de que las variables de 2º orden han de interpretarse como recorriendo el conjunto potencia del dominio. Pero también hay motivos muy serios para tener dudas. Hilbert había manifestado preferencia por la tesis logicista en diversos manuscritos anteriores a 1900, incluyendo el mismo borrador de su famoso texto sobre los fundamentos de la geometría (Ferreirós 2009). En su conferencia “Axiomatisches Denken” (1918) no solo expresó su admiración por la “magnífica empresa” abordada por Frege y Russell, sino que escribió literalmente: “dado que el 7 8 También influyente fue Kreisel (1967) al atacar las versiones en LPO de teorías como la aritmética y el análisis, e insistir incluso en que la verdad o falsedad de la hipótesis del continuo CH está determinada en un sistema axiomático de conjuntos en LSO. Mucho más recientemente, véase el libro de Shapiro (1991). Una cortadura es un conjunto (no vacío) de números racionales, acotado superiormente, que está cerrado para la relación < (menor que); es decir, siendo C una cortadura, si q  C, todo x < q también es elemento de C; y existe un p tal que todo x  C es menor que p. La herencia oscura del logicismo |23 examen de la consistencia es una tarea que no puede ser evitada, parece necesario axiomatizar la propia lógica y demostrar que la teoría de números y la teoría de conjuntos son sólo partes de la lógica” (Hilbert 1918, 1113; énfasis añadido). Esa tendencia se manifestó también en su idea de que el Axioma de Elección puede verse como un principio lógico, idea que articuló mediante su conocido cálculo-. Como suele decirse, la LSO tiene la ventaja de su gran capacidad expresiva, a expensas de perder el carácter plenamente formal o sintáctico de la LPO: la relación de consecuencia en LSO no puede capturarse recursivamente. Los partidarios de la LSO insisten en que LPO es inadecuado como expresión del pensamiento de los matemáticos, ya que los matemáticos entienden que hay un único conjunto ℝ de los números reales (salvo isomorfismo) igual que piensan que el conjunto ℕ de los naturales es único (salvo isomorfismo) o monomorfo. Ahora bien, si formulamos los axiomas para ℕ en un cálculo LSO, podemos demostrar su monomorfía o categoricidad tal como lo hiciera ya Dedekind (1888); y si planteamos los axiomas de ℝ en un sistema LSO, también podemos recuperar la categoricidad. Asumiendo que ambos sistemas axiomáticos son consistentes, esto demuestra que la noción de verdad-en-ℕ (resp. verdad-en-ℝ) está perfectamente determinada por los axiomas y la LSO, a nivel semántico al menos. Todavía mejor, como demostró Zermelo (1930), un sistema axiomático para la teoría de conjuntos formulado en LSO permite demostrar la cuasi-categoricidad de V, el universo conjuntista. El universo V quedaría también perfectamente caracterizado salvo en lo relativo a su ‘altura’ que vendría dada, en todo caso, por un cardinal fuertemente inaccesible. Esto demostraría que LSO es el sistema mejor si lo que se pretende es recuperar en el formalismo lógico la capacidad expresiva –y la determinación plena de las principales estructuras monomorfas– que presupone el matemático ‘normal’ en activo. Tal manera de pensar es incorrecta, por motivos que paso a especificar. La clave está en advertir que los teoremas de categoricidad recién citados son muy diferentes entre sí, por tener muy diversas presuposiciones; que la introducción de la semántica plena altera radicalmente el sentido de las teorías matemáticas; y que la noción de conjunto arbitrario, que está a la base de la operación conjunto potencia (X), es puramente matemática y no de naturaleza lógica. Si se examinan con más cuidado los presupuestos del teorema de categoricidad para ℕ, se advierte que es posible demostrarlo en un sistema LSO débil, y que ni siquiera exige el recurso a la impredicatividad de dicho sistema. Basta aceptar que LSO es un sistema natural de lógica, sin presuponer la semántica “plena” (como propongo aquí por razones que empiezo a explicitar), para poder recuperar el resultado de Dedekind. Sin embargo, la categoricidad de ℝ, como la del universo V, exigen recurrir a toda la potencia de la operación (X), y por tanto exigen asumir que, dado un dominio de individuos cualquiera, la mera lógica nos garantiza dados todos los conjuntos (arbitrarios) de tales individuos. Voy a argumentar que este supuesto extra-lógico y muy poco razonable tiene su origen en el logicismo. De hecho, un primer indicio de que el supuesto es poco razonable viene de considerar cuál es la situación en teoría de conjuntos avanzada. La operación (X) nunca ha quedado suficientemente caracterizada –o sometida a control– en teoría de conjuntos, cosa que está íntimamente ligada con la incapacidad para resolver el problema del continuo de Cantor. En el estudio de modelos de ZFC, es posible imponer que el valor de verdad de CH sea verdadero, o bien falso, a voluntad: bien pasando a un modelo interno del dado, o bien empleando métodos de forcing. El estudio de la metateoría de ZFC durante los últimos 50 años ha dado lugar a una multiciplicidad de resultados de independencia que no pueden simplemente ser ignorados; el comportamiento de (X) resulta ser, como dijo el gran especialista R. Jensen, “amorfo”. A la luz de estos resultados, parece extraño asumir la que mera lógica baste para determinar completamente (X), y que lo haga de tal manera que nos resulte perfectamente impenetrable a los lógicos y matemáticos de carne y hueso. El resultado de cuasi-categoricidad de Zermelo es ilusorio, no cabe decir otra cosa. El principal problema abierto en la teoría de conjuntos es, precisamente, caracterizar con más precisión el comportamiento de la operación (X). Nuestra falta de control sobre dicha operación es la fuente primera de las indeterminaciones e independencias que son tan notables en el estudio de ZFC. El 24 | José Ferreirós resultado de Zermelo viene a significar que, si suponemos que otra teoría más básica lograra determinar el comportamiento de (X), entonces el universo V quedaría completamente caracterizado. Esto es lo que se llama una petición de principio. Por insistir y remachar el clavo: la tarea de caracterizar los dominios de conjuntos arbitrarios es, precisamente, el núcleo de lo que debería hacer –pero todavía no ha logrado, tras más de un siglo– la teoría de conjuntos. Consideremos además que el supuesto, de que existe y está plenamente determinada la totalidad de los subconjuntos (arbitrarios) de un dominio infinito cualquiera, es un postulado de existencia. Asumir este postulado en la lógica pura supone una violación del principio según el cual la lógica es ontológicamente neutral, no depende de lo que exista o no en el universo. (Por cierto, también defender que el Axioma de Elección es un principio lógico depende de asumir que la mera lógica nos da garantías de la existencia de conjuntos arbitrarios de cosas: de nuevo, es una idea subsidiaria de pensar que la existencia de conjuntos arbitrarios es asunto de lógica, una herencia del logicismo.) Para afianzar la idea de qué es razonable asumir en LSO y qué no, preguntémonos cómo es en la práctica una teoría axiomática presentada en LSO: por ejemplo, la teoría de la aritmética que estableció Peano. En tal teoría, se asumen dados uno o varios dominios de individuos, y se determinan explícitamente algunos predicados y relaciones que entrarán en la formulación de los axiomas. Peano emplea por ejemplo el predicado N(x) que intuitivamente se lee ‘x es un número’, y la operación binaria (x + y) que intuitivamente es la suma (una relación ternaria); podríamos tener también una relación (x < y) de orden, binaria. No hay ningún problema en que algún axioma se formule en segundo orden, como de hecho sucede con el Axioma de Inducción Matemática. Pero el sistema no depende esencialmente de suponer dado ese “paraíso del lógico” que sería la totalidad de todos los posibles “predicados” o conjuntos arbitrarios de elementos del dominio de individuos. De hecho, en una teoría normal, en la práctica, cualquier otro predicado o relación que intervenga más adelante habrá de ser explícitamente definido en base a los primitivos. Si ahora imponemos sobre el sistema teórico la LSO con semántica plena, de facto estamos transformando radicalmente la teoría e imponiendo –por fiat– que haya predicados arbitrarios y relaciones arbitrarias, determinados ‘en sí mismos’. Más que una semántica estándar, esto parece una semántica divina. Lo que pretendo resaltar es que el recurso a la semántica plena o conjuntista no respeta la práctica del matemático en activo, sino todo lo contrario: la violenta y la transforma de una manera que, además, no podemos controlar con nuestras herramientas conceptuales. El sistema lógico LSO resulta ahora ‘saber’ muchas cosas que nosotros ignoramos, y que quizá ignoraremos por siempre. Faltaría explicar con cierto detalle por qué puede afirmarse que la idea de conjunto arbitrario es propiamente matemática. Para evitar extenderme aún más, remito a Ferreirós (2011), en cuya sección 2 el lector encontrará los detalles; argumenté allí que la introducción de funciones arbitrarias (y por tanto de conjuntos arbitrarios) resulta de forma natural a partir de una consideración del conjunto de los números reales. Pero la idea de número real surge del esfuerzo por elaborar una aritmética que corresponda a las nociones intuitivas de continuo y continuidad, no es un simple producto de la lógica. Ahora, quizá sea buena idea discutir, a un nivel simple e intuitivo, qué efecto tiene el imponer la semántica plena. Consideremos un dominio cualquiera de individuos, D. La lógica LSO con semántica plena es leibniziana, hiper-racionalista: (i) se cumple necesariamente el principio de que todo individuo de D está caracterizado por propiedades que son exclusivas de él (esto es sencillo de ver, ya que las propiedades son aquí meros correlatos de conjuntos, y la semántica exige que estén dados todos los conjuntos unitarios); (ii) se cumple también que, si elegimos al azar una infinidad de elementos de D, hay una propiedad dada que define precisamente a esa colección de individuos (la propiedad que corresponde a ese conjunto arbitrario, el cual está dado por nuestros supuestos semánticos). Esta característica (ii) es muy extraña, aún en el caso de que nos limitemos a un dominio de individuos especial donde la característica (i) parezca más razonable, como sucede con los números naturales. Cada elemento de ℕ tiene propiedades, explicitables en el lenguaje de la aritmética de Peano, que lo La herencia oscura del logicismo |25 hacen único;9 aún con eso, resulta muy extraño asumir por fiat que toda colección infinita y arbitraria de números naturales –infinitos números escogidos al azar, digamos, por un dios que echara una moneda al aire infinitas veces– está definida por una propiedad dada explícitamente. El lector entrenado en matemáticas dirá: ‘Bueno, pero si eso es fácil: basta con considerar la propiedad de pertenecer al conjunto arbitrario formado por todos esos números’. Si esta es su respuesta, estará reforzando mi tesis de que la adopción de la LSO con semántica plena tiene su origen en haber presupuesto que la teoría de conjuntos y la lógica son coextensas. Lo cual fue una consecuencia de la propagación de la tesis logicista. Quine (1970) no estaba en lo cierto al decir que la LSO es “teoría de conjuntos disfrazada”: su error consistió en dar por hecho que la semántica “natural” para LSO es la semántica plena o conjuntista. Esto parecía normal a la gente de su generación, que, como el propio Quine, se habían criado entre ideas logicistas. En cuanto nos damos cuenta de que esa idea no tiene nada de natural, nos vemos liberados; y esto resulta razonable, ya que es muy natural expresar enunciados en LSO e incluso reconocer verdades lógicas del sistema LSO. Ya nada se opone a que introduzcamos la LSO – digamos, con una semántica tipo Henkin– en plena igualdad con otros sistemas lógicos. Claro está que, bajo estas condiciones, la lógica no hace milagros semánticos u ontológicos: la categoricidad de ℕ se mantiene, pero no la de ℝ o V. 3. Matematizando la metamatemática: Tarski y la teoría de modelos Es bien sabido que la metamatemática original de la escuela de Hilbert, en los años 1920 y 30, era esencialmente sintáctica y finitaria, y por tanto muy diferente de las ideas modelistas o semánticas que han acabado dominando en la concepción de la lógica durante las últimas décadas. Dado que el objetivo de Hilbert era justificar la matemática clásica a través de pruebas de consistencia, superando el obstáculo de las críticas intuicionistas y constructivistas, la escuela de Hilbert restringía los métodos empleables en metamatemática a cuestiones de combinatoria finita. También se buscaba la plena mecanización de los procedimientos lógicos, como indica la importancia central que se le concedía al problema de la decisión. Y así surgió la teoría de la demostración o Beweisstheorie. No es extraño, pues, que el primer tratado clásico de teoría de la demostración fuera publicado en los años 1934/39 (Bernays & Hilbert, Grundlagen der Mathematik), mientras que el primer texto clásico de teoría de modelos apareció unos cuarenta años más tarde (Chang & Keisler 1973). Pero es que la teoría de modelos, como tal, sólo apareció tras la II Guerra Mundial, y la expresión misma “teoría de modelos” es de 1954 (ver Ferreirós 2015). El germen de este desarrollo se encuentra en la notable inversión de la perspectiva metamatemática que comenzó a introducir Tarski hacia 1930. Encontramos aquí una expansión de los métodos hasta incluir toda la teoría de conjuntos, es decir, se emplean a nivel metateórico todos los métodos de la matemática clásica, sin restricciones. Esto es evidente si consideramos que las relaciones clave, como la verdad de un enunciado en un modelo M ⊨ , o la relación de consecuencia lógica  ⊨ ,10 se definen empleando esencialmente recursos conjuntistas, en particular el concepto de estructura conjuntista. Para ser más explícito, añado lo siguiente. Antes de 1940, las cuestiones fundamentales en metamatemática eran asuntos ligados a la investigación fundacional de orientación sintáctica, tales como los problemas de la consistencia, la completitud, y muy especialmente la decidibilidad en teorías axiomatizadas y formalizadas. Todavía no había ningún sentido claro de una teoría de modelos, por más que Tarski estuviera empleando con rigor y vigor la noción de modelo (estructura conjuntista) en una nueva dirección de libre exploración al estilo de la matemática clásica. Durante los años 1930, fue 9 Recuerdo aquí la anécdota de Hardy y Ramanujan comentando el número 1729: “I remember once going to see him when he was ill at Putney. I had ridden in taxi cab number 1729 and remarked that the number seemed to me rather a dull one, and that I hoped it was not an unfavorable omen. ‘No,’ he replied, ‘it is a very interesting number; it is the smallest number expressible as the sum of two cubes in two different ways.’” 10 Siendo  un conjunto de enunciados, posiblemente infinito. 26 | José Ferreirós publicando su famosa serie de artículos sobre “semántica científica”, en los que rescataba para la lógica moderna las nociones de verdad (en un lenguaje formalizado),11 de implicación o consecuencia lógica, y de definibilidad. Como buen producto de la escuela de Varsovia, con su combinación de lógica y topología, teoría de conjuntos y filosofía, Tarski exploró esos temas tanto en su vertiente lógico-formal como en la filosófica. Pero nada de esto suponía aún la aparición de la teoría de modelos. Antes de 1940, eran claramente muy relevantes una serie de consideraciones filosóficas, como el empirismo estilo Viena o Berlín, y de modo muy especial el énfasis en la “sintaxis lógica”. Mientras que, tras la II Guerra, se advierte en la obra de Tarski y su escuela de Berkeley una cada vez mayor desatención a los problemas filosóficos, para enfatizar más y más los aspectos matemáticos.12 Por ejemplo, la interrelación entre álgebra y teoría de modelos, tema también muy importante para Abraham Robinson. Tarski nunca tuvo especial comprensión ni simpatía por el intuicionismo, sino que siempre estuvo plenamente a favor de la teoría de conjuntos. En este punto, hay un contraste claro con el caso de Gödel o incluso de Carnap. En su formación se combinó la influencia del logicismo de Whitehead y Russell con el impacto de las ideas conjuntistas que promovía Sierpinski. Pero quizá al lector le resulte sorprendente mi sugerencia de que el logicismo puede haber desempeñado un papel en el giro que le imprimió a la metamatemática. Veamos por qué lo afirmo. Ya he discutido en otro lugar (Ferreirós 1997) cómo el estupendo libro Introduction to Logic (1940, versión alemana de 1937) contiene afirmaciones claramente próximas a la tesis logicista. Tarski tenía grandes expectativas para la lógica, que habría de suministrar “un aparato conceptual unificado que ofrecería una base común para todo el conocimiento humano” (prefacio). Pero su objetivo más concreto era mostrar que “los conceptos de la lógica permean toda la matemática, que comprenden como casos especiales todos los conceptos específicamente matemáticos, y que las leyes lógicas se aplican constantemente –de forma consciente o inconsciente– en los razonamientos matemáticos” (Tarski 1940, prefacio; énfasis añadido). Así, por ejemplo, la sección 26 trata de los números cardinales y la “aritmética como parte de la lógica” (1940, p. 79): el principio de inducción, “la noción misma de número, y también todos los demás conceptos aritméticos, son definibles dentro del campo de la lógica” (1940, p. 81). Tarski consideraba que este resultado es “una consecuencia sumamente interesante y con implicaciones de largo alcance” (1940, p. 81). No contento con esto, más abajo indica que no solo ha sido posible desarrollar la aritmética, sino también “el álgebra, análisis, etcétera” como partes de la lógica (y menciona las obras de Frege, Whitehead y Russell). Así pues, cabe afirmar que Tarski defendió en dicha obra el logicismo, si bien es verdad que reconocía una dificultad clave: la planteada por el axioma del infinito, “que es intuitivamente menos evidente que los demás” (1940, p. 81).13 De hecho, incluso en obras mucho más tardías se advierten residuos de logicismo: la famosa propuesta de Tarski en relación a las constantes lógicas tiene como resultado que la noción de número cardinal sea estrictamente lógica. Así pues, planteo la tesis de que el logicismo ‘débil’ de Tarski –según el cual el único axioma de la matemática es, quizás, el axioma de infinitud– fue un elemento clave en el giro característico que le imprimió a la metamatemática. Su idea debió ser que las restricciones finitistas de Hilbert estaban muy bien como estrategia de réplica al escepticismo de los intuicionistas, pero que nada obstaba para poder investigar otras cuestiones por medios más amplios y abiertos, sobre todo teniendo en cuenta que se trataba –en su opinión– de medios puramente lógicos. La idea, implícita pero central, es que todo su El tratamiento clásico, que incluye una definición conjuntista muy precisa para formulas φ de un sistema formal, está en el artículo [Tarski 1933]. Uno de los objetivos principales de Tarski era mostrar que, para ciertos tipos de lenguaje L, la relación ‘M satisface φ’ es definible usando sólo teoría de conjuntos, la sintaxis de L, y las nociones expresadas por las constantes de L. 12 Para el desarrollo de la teoría de modelos se requería confianza en la noción general de modelo (cualquier estructura de cualquier cardinalidad), cosa bien alejada de las perplejas consideraciones sintácticas de Entreguerras. Algunos signos de esto se pueden ver en la obra de Tarski hacia 1930, como el teorema de Löwenheim-Skolem ascendente o su interés por los grandes cardinales; pero todo ello se activaría realmente en los 1940. 13 Todo ello es coherente con que Tarski empleara la Teoría de Tipos como sistema lógico básico hacia 1930 (ver Ferreirós 1997, pp. 100101). 11 La herencia oscura del logicismo |27 trabajo metamatemático se hacía dentro de la lógica, a saber, dentro de la teoría de tipos simple (hasta 1935) o dentro de la teoría de conjuntos formalizada en primer orden. 14 Tanto la definición del aparato sintáctico, como de los medios semánticos, como de las relaciones metateóricas; en una palabra, todo su proyecto de metodología de las ciencias deductivas era formalizable en ese contexto. En suma, los fundamentos de todo el pensamiento racional podían ser rigorizados así. De ahí que el objetivo de la Introduction (1940) fuera “presentar al lego educado […] esa poderosa corriente […] [de] la lógica moderna […] [que] busca crear una base común para la totalidad del conocimiento humano”. Advertimos pues, en el origen mismo de la “semántica científica” que acabaría dando lugar a la teoría de modelos, una clara herencia del logicismo. Herencia que ha quedado posteriormente en la sombra, en la oscuridad. Quizá conviene añadir algunas ideas más, para esbozar cómo se llegó a la Teoría de Modelos desde la nueva comprensión de las matemáticas obtenida hacia 1900. Para entonces, los sistemas axiomáticos y las estructuras se habían vuelto centrales (Grassmann, Dedekind, Hilbert, llegando luego a los Bourbaki), y el enfoque de la teoría de modelos se alcanza cuando esas ideas clave se matematizan plenamente. La noción general de estructura (conjuntista) no fue formulada explícitamente hasta los años 1930 (Birkhoff en 1935, los Bourbaki en 1939), pero estaba en el aire desde mucho tiempo antes: desde que existía un tratamiento bastante uniforme de estructuras particulares como los cuerpos de números, los anillos, los espacios en topología, etc. En cuanto a los sistemas axiomáticos explícitos, es bien sabido que emergieron de al menos dos tradiciones: 1) la geometría proyectiva y los estudios de fundamentos, de Pasch y Wiener hasta Hilbert; y 2) la línea de desarrollo de ideas lógicas y axiomáticas Grassmann – Schröder – Peano (cabría mencionar a Dedekind también). Con Hilbert (1899), las interrelaciones entre sistemas axiomáticos y modelos estructurales reciben un tratamiento preciso, pero todavía informal, naciendo una nueva metodología que alguno llamó la “matemática de los axiomas”. Todos estos elementos influyeron en Tarski y otros lógicos de Entreguerras. La lógica y la teoría de modelos se encargaron de matematizar y formalizar los distintos elementos que entraban en esa metodología hilbertiana. Así, el trabajo informal del matemático en activo quedó formalizado gracias a 1. sistemas axiomáticos estrictamente formales (e.g. el de Skolem para ZFC en 1923; Gödel y Tarski para la teoría de tipos simple en 1930) 2. definiciones conjuntistas precisas de las diversas estructuras (e.g. Bourbaki, Tarski) 3. y nociones explícitas, formuladas con precisión, de interpretación, satisfacción, y verdad (de un axioma en un modelo). Mas no bastaba con esto para el proyecto de la teoría de modelos, que requirió además diversas innovaciones en el camino de la matematización de la metamatemática. Podría uno hablar de un cambio de paradigma que tuvo lugar en los años 1940 con Tarski como líder (ver Ferreirós 2015). Resulta curioso: la situación en el período de Entreguerras, en Europa, estuvo marcada por una atmósfera muy tensa, y esto se aplica no sólo en la esfera de la política, sino también en los estudios de fundamentos; fue la época de la crisis, de la dura polémica entre intuicionistas y formalistas, de las dudas existenciales respecto a la fiabilidad de ZFC y sistemas afines. Sin embargo, la situación después del fin de la Guerra, y sobre todo en EEUU, puede describirse como de libre expansión; lo cual parece haber sido un factor coadyuvante en el giro hacia la teoría de modelos. En ningún lugar se dejó sentir tanto esta expansibilidad como en la nueva escuela fundada por Tarski en UC Berkeley; recomiendo a este respecto la excelente obra de Feferman y Feferman (2004). 4. Una propuesta: lógica sin arbitrariedades Varias generaciones de lógicos, durante el siglo XX, se han educado en la aceptación de sistemas lógicos que entremezclan principios matemáticos con principios propiamente lógicos. Tal es el caso de 14 Sobre este giro, que Tarski dio en el epílogo a su (1935), ver Ferreirós (1997). 28 | José Ferreirós las lógicas de orden superior, cuando se acepta su interpretación denominada (muy significativamente) “estándar” –pero que, de acuerdo con la tesis defendida aquí, no debería en absoluto considerarse la interpretación natural o por defecto, sino una interpretación fuertemente matemática, conjuntista (de facto, una aplicación de ideas matemáticas). La clave está en reconocer que la noción de conjunto arbitrario, y más aún su ampliación o “totalización” con el supuesto de un dominio de todos los subconjuntos (determinado unívocamente para cualquier dominio dado de individuos), son principios ajenos a la tradición lógica. Pese a que Frege fuera padre del logicismo, los conocedores de su obra saben bien que tal idea de conjunto arbitrario es completamente ajena a las nociones de Frege relativas a los conceptos y sus extensiones (clases). Pero la situación indicada hace tiempo que comenzó a cambiar, ya que desde los años 1980 al menos, numerosos especialistas en lógica han trabajado más próximos a la computación o a la lingüística que a la matemática contemporánea. Sólo falta dar un paso más y extraer la conclusión razonable, que permite a la vez conservar la LSO como un sistema natural de lógica, y evitar que ideas matemáticas avanzadas se cuelen por la puerta falsa. Aun reconociendo que el problema de la demarcación estricta de la lógica es muy complejo, y quizá no pueda recibir una solución definitiva, propongo pues lo que parece la solución natural y coherente con la tradición lógica. LSO es un sistema lógico perfectamente válido, pero debemos restringirnos al sistema dado efectivamente por medio de reglas. En cuanto a la semántica, debemos evitar considerar la semántica “plena” o conjuntista como una semántica estándar, sino que la semántica estándar ha de ser de tipo Henkin –o quizá incluso una restricción predicativa de la misma–.15 Por tanto, la relación de consecuencia que formaliza la LSO no es esa consecuencia lógica opaca y casi divina que a veces han discutido filósofos como Kreisel, Shapiro y otros,16 sino que se trata de un sistema naturalmente más débil. Quiero enfatizar que la LSO débil, del tipo que defiendo, permite sin ningún problema formalizar los trabajos de Frege –recuperando el teorema de Frege, del que hablamos en la introducción– y también los de Dedekind –probando inclusive el teorema de categoricidad para la aritmética en segundo orden–. Sin embargo, la LSO que defendemos no es tan fuerte como para permitirnos recuperar la “cuasi-categoricidad” del universo conjuntista de Zermelo; lo cual, lejos de ser un defecto, es en mi opinión muestra de que el sistema tiene el grado de fortaleza justo y adecuado. (El problema de hacer preciso, si fuera posible, y calibrar el efecto de la operación conjunto potencia, es un problema de la teoría de conjuntos; no se resuelve por fiat.) Seguramente es muy natural que haya quien sueñe en sistemas lógicos con una capacidad expresiva y demostrativa tan fuerte como se nos antoje, a la vista del problema que deseamos tratar; pero hay que tener cuidado con el wishful thinking. Desde Gödel sabemos que hay límites a lo que un sistema formal puede abarcar; también debemos aceptar que hay límites a lo que la mera lógica puede establecer o garantizar. Quizá el lector piense que las cuestiones que acabo de discutir no tienen demasiada importancia, porque a fin de cuentas en la práctica sólo se emplean reglas explícitas de la lógica (también en LSO): los desenfoques a nivel conceptual se quedarían ahí, en un plano más bien ideológico. Pero la ideología tiene su importancia: desde hace unas décadas, muchos filósofos y lógicos vienen ajustando sus nociones de lo que es lógica según una perspectiva modelista, sin reflexionar suficientemente en que dicha perspectiva tiene sus propios presupuestos (que son muy fuertes, ya que la teoría de modelos presupone la teoría de conjuntos). En mi opinión, la deriva metafísica de buena parte de la filosofía analítica tiene su origen en la influencia oscura de sistemas lógicos de varios tipos (lógicas de orden superior inadecuadamente interpretadas, lógicas modales consideradas semánticamente, etc.) que han impuesto la aceptación de postulados realistas fuertes. Los ejemplos podrían multiplicarse: se toma 15 La semántica tipo Henkin, también llamada semántica general, evita la pretensión de que el conjunto potencia del dominio esté determinado intrínsecamente, como un recurso fijo y pre-matemático. En su lugar, el rango de los cuantificadores ha de ser indicado directamente, con ciertas condiciones de clausura. Para más detalles ver Enderton (2015). 16 ‘Divina’ porque conoce –o pretende conocer– cosas que están vedadas, quizá para siempre, a la lógica humana (un ejemplo famoso es el valor de verdad de la Hipótesis del Continuo de Cantor), y ‘opaca’ precisamente por esa imposibilidad de traducir sus supuestas verdades a algo humanamente manejable. La herencia oscura del logicismo |29 cualquier idea razonable, que luego, colocada en un contexto de análisis modelo-teóricos de lo que son el significado y la verdad, lleva de manera aparentemente forzada a interpretaciones ontológicas sumamente fuertes. Por estos motivos, la cuestión de la herencia oscura del logicismo no es un mero asunto erudito de interés para historiadores, sino una cuestión candente con implicaciones filosóficas concretas. Bibliografía Boolos, G. (1986), “Saving Frege From Contradiction”, Proceedings of the Aristotelian Society 87: 137-151. Boolos, G. (1995), “Frege's Theorem and the Peano Postulates”, Bulletin of Symbolic Logic 1: 317-326. Chang, C. C. y H. J. Keisler (1973), Model Theory, Amsterdam: North- Holland. Church, A. (1956), Introduction to Mathematical Logic, Princeton, NJ: Princeton University Press. Dedekind, R. (1888), ¿Qué son y para qué sirven los números?, Madrid: Alianza, 1997. Enderton, H. B. (2015), “Second-order and Higher-order Logic”, en Zalta, E. N. (ed.), The Stanford Encyclopedia of Philosophy (Fall 2015 Edition), https://plato.stanford.edu/archives/fall2015/entries/logic-higher-order/. Feferman, A. y S. Feferman (2004), Alfred Tarski: Life and Logic, Cambridge: Cambridge University Press. Ferreirós, J. (1997), “Notes on Types, Sets, and Logicism, 1930-1950”, Theoria 12: 91-124. Ferreirós, J. (2001), “The Road to Modern Logic – An interpretation”, The Bulletin of Symbolic Logic 7: 441-484. Ferreirós, J. (2009), “Hilbert, Logicism, and Mathematical Existence”, Synthese 170(1): 33-70. Ferreirós, J. (2011), “On Arbitrary Sets and ZFC”, The Bulletin of Symbolic Logic 17(3): 361-393. Ferreirós, J. (2015), “Far from Modelisation: The Emergence of Model Theory”, Oberwolfach Reports 12: 2851-2855. Frege, G. (1884), Die Grundlagen der Arithmetik, Breslau: Max und Hermann Marcus. (Versión castellana de C. Ulises Moulines: “Los fundamentos de la aritmética”, en Frege, G., Escritos filosóficos, Barcelona: Crítica, 1996, pp. 31– 144.) Frege, G. ([1893] 1962), Grundgesetze der Arithmetik, Hildesheim: Georg Olms. (Versión castellana de C. Ulises Moulines de la “Introducción a Las leyes fundamentales de la aritmética” en: Frege, G., Estudios sobre semántica, Barcelona: Ariel, 1973, pp. 157-162; reimpreso en: Frege, G., Escritos filosóficos, Barcelona: Crítica, 1996, pp. 248252.) Giaquinto, M. (2002), The Search for Certainty: A Philosophical Account of Foundations of Mathematics, Oxford: Oxford University Press. Hilbert, D. (1899), Fundamentos de Geometría, Leipzig: Teubner. (Versión castellana de la 7a ed.: Fundamentos de Geometría, Madrid: CSIC, 1991. Ver en cambio la edition critique: Les fondements de la Géométrie, Paris: Dunod, 1971.) Hilbert, D. (1918), “Axiomatisches Denken”, Mathematische Annalen 78: 405-415. (Versión castellana: “Pensamiento axiomático”, en Hilbert, D., Fundamentos de las matemáticas, México: UNAM, 1993, pp. 23-35.) Hilbert, D. y W. Ackermann (1928), Grundzüge der theoretischen Logik, Berlin: J. Springer. (Versión castellana de una edición posterior, con grandes cambios: Elementos de lógica teórica, Madrid: Tecnos, 1962.) Kreisel, G. (1967), “Informal Rigour and Completeness Proofs”, en Lakatos, I. (ed.), Problems in the Philosophy of Mathematics, Amsterdam: North-Holland, pp. 138-171. Quine, W. V. (1970), Philosophy of Logic, Cambridge, MA: Harvard University Press. Shapiro, S. (1991), Foundations without Foundationalism: A Case for Second-Order Logic, Oxford: Oxford University Press. Tarski, A. ([1933] 1935), “Der Wahrheitsbegriff in den formalisierten Sprachen”, Studia Philosophica 1 (1935): 261-405. (Original polaco: Pojęcie prawdy w językach nauk dedukcyjnych, Warszowa: Towarzystwo Naukowe Warszawskie, 30 | José Ferreirós 1933. Referencias a la versión inglesa de Joseph Henry Woodger: “The Concept of Truth in Formalized Languages”, en Tarski, A., Logic, Semantics, Metamathematics, Oxford: Oxford University Press, 1956, pp. 152-278.) Tarski, A. (1940), Introduction to Logic and the Methodology of Deductive Sciences, Cambridge, MA: Harvard University Press. (Versión castellana: Introducción a la lógica y a la metodología de las ciencias deductivas, Madrid: Espasa-Calpe, 1968.) Tennant, N. (2014), “Logicism and Neologicism”, en Zalta, E. N. (ed.), The Stanford Encyclopedia of Philosophy (Fall 2014 Edition), http://plato.stanford.edu/archives/fall2014/entries/logicism/. Whitehead, A. N. y B. Russell (1910-1913), Principia Mathematica, Cambridge: Cambridge University Press, 2a ed. 1925-1927, reimpresión 1978. Zermelo, E. (1930), “Über Grenzzahlen und Mengenbereiche”, Fundamenta Mathematicae 16: 29-47.