Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Lenguaje, lógica y matemáticas

7.5. El lenguaje comparado con la lógica y la matemática La descripción específica de las propiedades del lenguaje posibilita ver las principales semejanzas y diferencias entre el lenguaje natural y los sistemas lógicos o matemáticos. Está claro que la diferencia no reside en imposibilidad alguna de una descripción precisa del lenguaje natural: el conjunto sin sinónimos (synonymless set) bajo las operaciones de base incrementales 1 puede describirse de manera precisa, aunque el detalle necesario para una descripción completa resultaría aún prohibitivo. Ni tampoco reside la principal diferencia en la existencia de ambigüedades lingüísticas. Es verdad que, hasta donde sabemos, toda lengua natural tiene frases ambiguas. Pero se sigue de 7.1.3 que puede construirse un sistema que exprese la información transportada en el lenguaje 2 sin ambigüedad. De ahí que la ambigüedad no sea necesaria para el tipo de información acarreada en el lenguaje, por oposición a la acarreada en lógica. Las dificultades en comparar los dos tipos de sistema se aminoran desde el momento en que puede probarse que las preguntas, los imperativos, y otras frases así que están más allá del alcance de la lógica son transformados 3 de aserciones (¡Ven! ← Te pido que vengas), de modo que el conjunto sin paráfrasis (paraphraseless set) de frases contiene sólo aseveraciones. Tanto el lenguaje natural como los sistemas matemáticos tienen variables que pueden adoptar valores en cierto dominio, y secuencias bien formadas de tales variables (y constantes) como formas de aserción elementales. La gran diferencia es que mientras que en lógica y matemáticas se hace corresponder un cierto conjunto de secuencias bien formadas elementales, para todos los valores de sus variables, con los valores V(erdadero) y F(also) (o con un sistema más complejo de valores), en el lenguaje cada una de las secuencias bien formadas de n variables está parcialmente ordenada por las n-tuplas de valores de sus variables; o podemos decir que el conjunto de n-tuplas de valores se aplica al conjunto a de valores de aceptación, 0 < a ≤ 1. Es este ordenamiento parcial lo que da sentido a las secuencias (frases elementales) y a los valores de las variables (esto es, las palabras individuales de una clase) en el lenguaje, mientras que la lógica y la matemática tratan sólo con el valor de verdad. La conservación de este

Zellig Sabbetai Harris | Lenguaje, lógica y matemáticas Lenguaje, lógica y matemáticas* Zellig Sabbetai Harris Traducción y notas a cargo de Javier Arias Navarro 7.5. El lenguaje comparado con la lógica y la matemática La descripción específica de las propiedades del lenguaje posibilita ver las principales semejanzas y diferencias entre el lenguaje natural y los sistemas lógicos o matemáticos. Está claro que la diferencia no reside en imposibilidad alguna de una descripción precisa del lenguaje natural: el conjunto sin sinónimos (synonymless set) bajo las operaciones de base incrementales1 puede describirse de manera precisa, aunque el detalle necesario para una descripción completa resultaría aún prohibitivo. Ni tampoco reside la principal diferencia en la existencia de ambigüedades lingüísticas. Es verdad que, hasta donde sabemos, toda lengua natural tiene frases ambiguas. Pero se sigue de 7.1.3 que puede construirse un sistema que exprese la información transportada en el lenguaje2 sin ambigüedad. De ahí que la ambigüedad no sea necesaria para el tipo de información acarreada en el lenguaje, por oposición a la acarreada en lógica. Las dificultades en comparar los dos tipos de sistema se aminoran desde el momento en que puede probarse que las preguntas, los imperativos, y otras frases así que están más allá del alcance de la lógica son transformados3 de aserciones (¡Ven! ← Te pido que vengas), de modo que el conjunto sin paráfrasis (paraphraseless set) de frases contiene sólo aseveraciones. Tanto el lenguaje natural como los sistemas matemáticos tienen variables que pueden adoptar valores en cierto dominio, y secuencias bien formadas de tales variables (y constantes) como formas de aserción elementales. La gran diferencia es que mientras que en lógica y matemáticas se hace corresponder un cierto conjunto de secuencias bien formadas elementales, para todos los valores de sus variables, con los valores V(erdadero) y F(also) (o con un sistema más complejo de valores), en el lenguaje cada una de las secuencias bien formadas de n variables está parcialmente ordenada por las n-tuplas de valores de sus variables; o podemos decir que el conjunto de n-tuplas de valores se aplica al conjunto a de valores de aceptación, 0 < a ≤ 1. Es este ordenamiento parcial lo que da sentido a las secuencias (frases elementales) y a los valores de las variables (esto es, las palabras individuales de una clase) en el lenguaje, mientras que la lógica y la matemática tratan sólo con el valor de verdad. La conservación de este * El presente texto constituye una traducción de algunos epígrafes (correspondientemente indicados, que van de la página 202 a la 207) del capítulo 7 (“The abstract system”) del libro de Zellig Harris Mathematical Structures of Language, Huntington, New York, Robert E. Krieger Publishing Company, 1979  la edición original, en John Wiley & Sons, Inc., data de 1968 , del que en un día no muy lejano esperamos ofrecer una versión íntegra en español. Hemos conservado la numeración de las referencias internas a capítulos y secciones de la obra. Las notas numeradas corresponden al traductor. Las debidas a Zellig Harris (sólo dos en este texto) las hemos indicado con asteriscos. 1 Se anticipan aquí conceptos que serán centrales en el diseño y evolución de la gramática de operadores (operator gramar) que Harris desarrollará en trabajos posteriores de manera profusa y sistemática, sobre todo en su obra de 1982 A Grammar of English on Mathematical Principles, New York, Wiley/Interscience. 2 Puede el lector, si le complace, jugar a forzar un tanto la expresión the information borne in language para, en analogía con cosas como airborne troops (“tropas aerotransportadas”) dar en algo como “lingüístico-transportado”, que acaso ilumine en algo la cuestión. 3 Optamos por este vocablo para traducir transform, ítem léxico que designa a cada uno de los objetos resultantes de una operación de transformación, y que es, sin ningún lugar a dudas, preferible al engendro “transforma” que a veces se ha usado en nuestra lengua para la ocasión. Fecha de entrada: 27‑09‑2013 Fecha de aceptación: 15‑10‑2013 177 DICIEMBRE 2013 Lenguaje, lógica y matemáticas | Zellig Sabbetai Harris ordenamiento parcial mediante transformaciones lingüísticas asegura que éstas conserven el sentido (meaning) de las frases elementales, al margen de cualquier significado (meaning) que pueda añadir su propio incremento morfémico. La siguiente diferencia considerable relacionada con esto es la existencia en el lenguaje de un número de conectores (connectives) subordinantes C, que requieren que las frases4 S1, S2 que conectan sean parte de una secuencia más larga (pero en parte eliminable, esto es, conmutable o sustituible por cero)5 SCS…CS en la que cada valor de las variables en S1, S2 se dé en al menos dos S. Esto asegura que haya una conexión sustantiva sustancial entre S1 y S2, dado que la repetición de palabras requerida proporciona una cadena de significados (meanings) que conectan las palabras de S1 con las de S2. Aunque aún no se ha completado el análisis de estas binaridades (binaries) en el lenguaje, cabe esperar que podremos decir que si S1 y S2 tienen ciertas semejanzas y diferencias una con otra, entonces, por ejemplo, S1 porque S2 no es un sinsentido (aunque puede ser falsa). Esto contrasta con la implicación material, el conector de los sistemas formales, que por definición sólo alcanza a conservar la verdad de S1 en S2, pero no puede servir para ninguna conexión sustantiva de sentido entre ellas. De esto se sigue que en el lenguaje el efecto de ciertas modalidades sobre la implicación se obtiene no mediante un operador sobre S1 ⊃ S2, sino mediante condiciones que tienen que ser satisfechas por la diferencia de palabras entre S 1 y S 2. Las transformaciones parafrásticas son algo así como las notaciones abreviadas o extendidas en lógica y matemáticas, en contraste con una forma normal para cada expresión. No obstante, las transformaciones de incremento unario φv φs, introducen modificaciones y operaciones sobre el contenido (sentido) de la frase-operando (operand sentence), de un tipo que no se encuentra disponible en el formalismo de la lógica y las matemáticas (aunque una pequeña parte de esto tiene su paralelo en teoría de la probabilidad). El lenguaje tiene también, a diferencia de la lógica y la matemática, una forma frástica –es N (un subconjunto de f 1) que crea frases ″ metalingüísticas dentro del lenguaje. Tomado conjuntamente con las provisiones para CS, esto significa que una frase Si puede llevar CSmeta que efectúen clasificaciones lingüísticas de ella y de sus partes. Esto posibilita usar la linearidad del lenguaje para identificar, en el CSmeta adjunto a Si, las partes de Si, y de ese modo usar este CSmeta para efectuar referencias cruzadas y para asegurar la identidad de referencia; tales efectos se pueden obtener en lógica únicamente colocando las preposiciones afectadas dentro del alcance del mismo cuantificador. 178 DICIEMBRE 2013 4 Optamos por traducir “sentence” como “frase”, que es, sin duda, mucho mejor solución que el frecuente “oración”, tan proclive a provocar nefastos malentendidos conceptuales, y también que el no poco habitual “sentencia”. No obstante, para evitar las confusiones que con el valor de falsedad F pudieran originarse, hemos renunciado a usar, en la notación matemática subsiguiente, la mayúscula inicial del término elegido, prefiriendo conservar la S del inglés, con sus ocasionales indexaciones. 5 Traducimos así el adjetivo zeroable del original. Zellig Sabbetai Harris | Lenguaje, lógica y matemáticas Entre los dos sistemas hay muchos contrastes que pueden estudiarse en los términos del análisis aquí presentado. Por ejemplo, el trabajo de referencias cruzadas (cross-referencing) que se efectúa en lógica y matemática por medio de variables se lleva a cabo en el lenguaje mediante la pronunciación y la eliminación o sustitución por cero (zeroing). Y allí donde en matemáticas las derivaciones permiten juzgar la verdad de un juicio (statement) a partir de la de sus premisas (y, de modo clásico, la falsedad de éstas a partir de aquel) en el lenguaje le permiten a uno juzgar el sentido de un juicio (statement) a partir del de sus premisas. 7.6. Tipos de estructura matemática en el lenguaje Podemos resumir lo que se ha hallado hasta aquí acerca de las estructuras matemáticas del lenguaje. Debería quedar claro, sin embargo, que esto no se refiere a subconjuntos restringidos de frases o a relaciones gramaticales, sino a propiedades de todo el conjunto de frases. Y no se refiere a conjuntos que sólo intersectan el conjunto de frases o lo incluyen como un subconjunto propio. Por ejemplo, no se refiere al conjunto de secuencias de palabras: hay frases que no son secuencias de palabras (aquellas que contienen sonidos no lingüísticos de la clase ‘q’); y hay secuencias de palabras que no son frases; y están las secuencias de palabras que se aplican a diversas frases gramaticalmente diferentes (a saber, las secuencias ambiguas de palabras) Proceso hereditario recurrente. El conjunto de todas las frases gramaticalmente posibles. Se obtuvo como subconjunto de todas las secuencias de fonemas o letras, mediante dos procesos aplicados sucesivamente, habiéndose aplicado el segundo sobre el resultado del primero6. En cada uno de estos definimos un espacio de probabilidad (possibility space) para el conjunto finito de resultados posibles (esto es, el siguiente fonema; o el morfema siguiente) pero hacen caso omiso de los pesos de probabilidad para cada resultado; es decir, tratamos sólo con los resultados que tienen una probabilidad positiva cualquiera. Consideramos el espacio de probabilidad en el punto enésimo como una función de los resultados en los puntos 1, …, n − 1. Se halla entonces que ciertas secuencias de fonemas (y, posteriormente, de morfemas) contienen puntos recurrentes tras los cuales los sucesos más tempranos no tienen efecto alguno en el resultado. Estos son enunciados (utterances) en el lenguaje, y los puntos recurrentes son los límites de morfemas y de frases, respectivamente. Redundancias. Cada restricción en los sucesivos enunciados requeridos para caracterizar el lenguaje, comenzando por la prueba del par mínimo (pair test) y acabando con el análisis del discurso7, introduce una redundancia en el lenguaje. Es característico del lenguaje el que no sólo haya una gran redundancia total, sino que ésta se acumule a partir de un número de restricciones, cada una operando sobre la otra. 179 6 Es precisamente esa lógica la que fundamenta la obra clave de Noam Chomsky y Morris Halle The Sound Pattern of English, Harper & Row, New York, 1968. [Las reediciones posteriores se deben a MIT Press]. 7 Zellig Harris fue pionero en el análisis lingüístico del discurso, esto es, en el estudio de todo aquello que transciende el nivel máximo o superior de la oración. Baste recordar su importante artículo “Discourse analysis”, Language 28, 1952, p.1-30. DICIEMBRE 2013 Lenguaje, lógica y matemáticas | Zellig Sabbetai Harris Transformaciones. Se ha visto que podíamos definir un conjunto de transformaciones, algunas de ellas parciales, a partir del conjunto de frases en sí mismo. Las transformaciones se basan en una relación de equivalencia en el conjunto de frases graduadas, e inducen una partición del conjunto. Cada frase tiene, para cada significado gramatical suyo no ambiguo, una descomposición unívoca, vía dichas transformaciones, en frases elementales. Las transformaciones también pueden verse como operadores sobre el conjunto de frases en sí mismo, o como un conjunto especial de frases primas tales que cada frase tenga una factorización única en estas y las otras frases elementales anteriormente mencionadas. Las propias transformaciones son productos de un conjunto de transformaciones de base8. El conjunto de frases tiene varios subconjuntos con respecto a las transformaciones de base; un tipo de dichos subconjuntos (los subconjuntos temáticos) (the subject-matter subsets) es un sub-lenguaje9. Cadena de Markov. Una gran ventaja de la descomposición única transformativa de base es que el lenguaje puede caracterizarse mediante una cadena de Markov10 de φ (o f), mientras que no es posible caracterización markoviana alguna del lenguaje en términos de palabras o entidades no transformacionales. Enumeración. Cada fase es finita, y uno podría pensar en un primer momento en enumerar las frases como secuencias de fonemas o palabras. Sin embargo, algunas secuencias de palabras se aplican a diversas frases gramaticalmente distintas. Sea como fuere, resulta irrelevante una enumeración de secuencias de palabras. Por el contrario, las estructuras arriba discutidas posibilitan una enumeración de la contribución de cada estructura al conjunto de frases, lo cual revela diversas propiedades de varios subconjuntos interesantes de frases. Se encuentra que hay varios subconjuntos finitos de importancia  las frases elementales, las frases metalingüísticas máximamente clasificatorias (es decir, la gramática finita), las listas elementales de excepciones (incluyendo frases no transformables como Hola.). Las restantes frases se obtienen recursivamente por medio de iteraciones de ciertas clases de transformaciones. A fin de lograr que todo el material numerable del lenguaje provenga únicamente de iteraciones ilimitadas de operadores, es necesario obtener las palabras para los números a partir de un conjunto finito de palabras (que 180 DICIEMBRE 2013 8 Por “transformación de base” (o, también, “transformaciones base” o “transformaciones básicas”) se entiende cada uno de los miembros de un pequeño conjunto de operaciones (en principio no emparentadas entre sí) que comparten una constante. Así, por ejemplo, el añadido, que opera, como transformación, no solo sobre el verbo, sino sobre la totalidad de la frase u oración, de -ing en He is reading it, Every student reading it will get credit, y His reading of it was denied. 9 Se refiere aquí Harris a un concepto de cuño propio, el de “sub-lenguajes de la ciencia”, de notoria importancia en su obra a partir de Language and information, New York, Columbia University Press, 1988, que desemboca en su magna obra A Theory of Language and Information: A Mathematical Approach, Oxford, Clarendon Press, 1991. Una aplicación detallada de la teoría a una disciplina concreta la encuentra el lector en la enorme obra colectiva que, en el campo de la inmunología, llevó a cabo el propio Harris con algunos discípulos y colegas, que cristaliza en el volumen a cargo de Zellig Harris, Michael Gottfried, Thomas Ryckman, Paul Mattick Jr., Anne Daladier, T.N. Harris y S. Harris, The Form of Information in Science: Analysis of an immunology sublanguage, Springer, Boston Studies in the Philosophy and History of Science, Vol. 104. Un precedente insoslayable de algunas de las principales preocupaciones de nuestro autor lo constituye la obra de Yehoshua Bar-Hillel, Language and Information: Selected Essays on Their Theory and Application, Reading, MA, Addison-Wesley, 1964. El lector encontrará una útil introducción al libro de Bar-Hillel en la reseña que de éste efectuó Maurice Gross, antiguo alumno doctorado del propio Zellig Harris en Pennsylvania, en Foundations of Language, vol.2, nº2, 1966, p.192-199. 10 Precisamente al análisis de la insuficiencia del tratamiento del lenguaje en términos de gramática de estado finito o de cadena markoviana se había ya consagrado el celebérrimo discípulo de Harris Noam Chomsky en Syntactic Structures, Mouton, The Hague, 1957, p. 20-23. Zellig Sabbetai Harris | Lenguaje, lógica y matemáticas contenga sólo uno) y a partir de iteraciones de y11 sobre frases que contengan la palabra uno. Recursividad. De lo anterior se sigue que el sistema de K y φ (o de N y f) es finito y caracteriza a un conjunto recursivo de frases. Sin embargo, puede que se necesiten reglas adicionales para afirmar que otras secuencias particulares de palabras o fonemas son también frases. Las reglas adicionales, y las frases, serían ciertamente numerables, pero no se ha probado que deban ser generadas recursivamente. Tipos de operación. Se habían hallado operadores unarios y binarios en el conjunto de frases. Algunos de los operadores binarios son conmutativos y asociativos (aquellos que también se encuentran en lógica: y, o) con respecto a sus conjuntos de paráfrasis; los restantes no son ninguna de las dos cosas. Las operaciones inversas existen sólo de manera restringida. Ordenamiento. Las desigualdades y el ordenamiento aparecen en puntos diferentes. El conjunto primitivo N está ordenado por cada f 1.*. Podemos obtener un ordenamiento parcial carente de todo interés para todas las frases al considerar los argumentos de cada fi1 como siendo no comparables a los argumentos de cada fj1, j≠i. Las desigualdades del ordenamiento bajo f 1 se usan al definir f 2, f 3; pero no se necesita la propiedad transitiva en esta definición. La descomposición de cada frase en transformaciones y frases nucleares (kernel sentences) (o en frases primas) está parcialmente ordenada, y, en concreto, puede disponerse para formar un retículo no modular12. En cuanto al orden lineal, aparece sobre todo en la secuencia de fonemas o letras, y en los límites morfema-segmento, palabra-frase que resultan de los procesos en 3.2 y 3.6. Los puntos de entrada de la cadena (string entry points) (3.5) están ordenados linealmente en una frase, y al igual que lo están las posiciones de las huellas transformativas (transformational traces) (que pueden considerarse, en primer lugar, la concatenación de la huella con su operando, 7.1.2 y en algunos casos la permutación de la huella con algún otro punto del operando). Tipos de conjuntos. En cuanto a los tipos principales de conjuntos cerrados bajo los operadores lingüísticos de los que disponemos: el conjunto de frases constituye un grupoide13 bajo los operadores binarios (no asociativos); el conjunto de transformaciones que son productos de las transformaciones ψ (sin φ-ψ o las analógicas), es un semigrupo o un monoide, si definimos una transformación identidad; el conjunto de palabras formadas en el 11 O, si el lector lo prefiere, de más. * Partiendo de esto obtenemos un ordenamiento para la f 1. Formamos para cada fi1 de un argumento (one-place fi1 ) el conjunto Nacc (i) que consta de aquellos N para los cuales fi1 N es máximo (esto es, la lista de aceptabilidad normal o más elevada N para ese fi1). Puede probarse que para cada par fi1, fj1 hay algún fk1 tal que Nacc(k) contiene a Nacc(i) y a Nacc(j) y es el menor de los conjuntos Nacc que lo contiene. Hay un fp1 cuyo Nacc(p) sirve de elemento universal; este fp1 es la disyunción de pro-predicados como do it, is such. Hay un Nacc(0) que está contenido en todo Nacc, y de ese modo sirve de elemento nulo: este Nacc(0) es simplemente la disyunción de los pronombres (he, she, it). Los sujetos normales de los predicados forman así un retículo (lattice), teniendo en él todos los pro-predicados sujetos, al tiempo que los pronombres son sujetos de cada predicado. 12 El término “retículo” conserva la ambigüedad del término inglés lattice. Harris lo emplea aquí, al igual que en su nota al pie de la página anterior, como extensión de un poset, y no en el sentido de malla. ** En términos generales, los conjuntos que son de interés en la lingüística matemática tienen sólo una operación. Es posible intentar construir un conjunto con dos operaciones, usando φc como una de ellas y definiendo una segunda a partir de las transformaciones unarias. 181 DICIEMBRE 2013 Lenguaje, lógica y matemáticas | Zellig Sabbetai Harris alfabeto de símbolos de relación en la cadena (string-relation symbols) (3.7) es un cuasigrupo (con inversos a la derecha y a la izquierda que no son idénticos) tal que el conjunto de frases gramaticalmente posibles es el conjunto de todas las palabras que cancelan a cero14 (esto es, el núcleo de la aplicación o proyección (mapping) del conjunto de todas las palabras en el conjunto de palabras reducidas) No hay operación inversa con respecto a la cual cualesquiera de estas estructuras sea cerrada; ningún grupo de elementos genera de manera precisa el conjunto de frases. Esto es porque el conjunto de frases no contiene grandes simetrías (salvo aquellas que surgen de la partición inducida por las transformaciones), algo que no es sorprendente en vista del hecho de que las simetrías no contribuyen a la información**. Correspondencias [o aplicaciones] (mappings). Hay un gran número de correspondencias interesantes entre los conjuntos definidos. Hay aplicaciones de los resultantes de un operador sobre los elementos del siguiente (7.3). Están las correspondencias entre el conjunto de frases o subconjuntos de éste y otros subconjuntos. Éstos sirven de base para definir las propiedades esenciales de las frases, tales como las transformaciones, o diversas aplicaciones especiales, tales como las versiones no ambiguas de cada frase. Las relaciones entre las correspondencias o aplicaciones (mappings) apenas se han investigado aún. Hay, está claro, mucho que estudiar acerca de las correspondencias, tanto a fin de definir conjuntos específicos que contienen o están contenidos en el conjunto de frases, o que tienen una estructura nueva, y a fin de ver cómo las relaciones entre las aplicaciones o correspondencias pueden llevar en general a nuevas extensiones o incrustaciones (embeddings) de los conjuntos hasta ahora definidos. No obstante, todas estas estructuras, en su forma presente, son de muy escaso interés matemático. Son insuficientemente regulares, y en algunos casos presentan molestas restricciones. El interés matemático puede residir en especificar cuáles son los puntos esenciales que hacen que estas estructuras se aparten de sus vecinos más próximos dentro de la matemática, y cómo dichas perturbaciones esenciales se relacionan con la carga semántica que sólo el lenguaje humano puede acarrear. 182 DICIEMBRE 2013 14 Del modo en que opera la cancelación de grupos libres en la teoría matemática de grupos. La computación estaría, para Harris, en manos de una suerte de autómata cíclico.