Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                
ARQUITECTURA BIODIGITAL Hacia un nuevo paradigma en la arquitectura contemporánea Fraile, Marcelo Alejandro Arquitectura biodigital : Hacia un nuevo paradigma en la arquitectura contemporánea / Marcelo Alejandro Fraile - 1a ed ilustrada. - Ciudad Autónoma de Buenos Aires : Diseño, 2019. 376 p. : il. ; 29×20 cm. ISBN 978-1-64360-033-8 1. Arquitectura. 2. Arquitectura biodigital. 3. Crítica. I. Título Hecho el depósito que marca la ley 11.723 Impreso en Argentina / Printed in Argentina La reproducción total o parcial de esta publicación, no autorizada por los editores, viola derechos reservados; cualquier utilización debe ser previamente solicitada. Tapa: Reinterpretación de la cabaña primitiva de Laugier, con los 3 paradigmas de la historia: el clásico, el mecánico y el biodigital. Autor. Marcelo Fraile Propiedad Intelectual RE-2018-46295072-APN-DNDA#MJ RL-2018-46294996-APN-DNDA#MJ © 2019 de la edición, Diseño Editorial ISBN 978-1-64360-033-8 Enero de 2019 Este libro fue impreso bajo demanda, mediante tecnología digital Xerox en bibliográfika de Voros S. A. Carlos Tejedor 2885, Munro, Provincia de Buenos Aires. info@bibliografika.com / www.bibliografika.com En venta: LIBRERÍA TÉCNICA CP67 Florida 683 - Local 18 - C1005AAM Buenos Aires - Argentina Tel: 54 11 4314-6303 - Fax: 4314-7135 - E-mail: cp67@cp67.com - www.cp67.com FADU - Ciudad Universitaria Pabellón 3 - Planta Baja - C1428BFA Buenos Aires - Argentina Tel: 54 11 4786-7244 ARQUITECTURA BIODIGITAL Hacia un nuevo paradigma en la arquitectura contemporánea Marcelo Alejandro Fraile INDICE Introducción .................................................................................................. 19 PARTE 1. PRESENTACIÓN DEL PROBLEMA - Un acercamiento al problema ................................................................25 - Estableciendo el marco teórico de acción .............................................29 Una aproximación histórica al término Paradigma ..................................30 Kuhn y la Teoría de los Paradigmas........................................................32 Las Hipótesis de Pepper .........................................................................37 La teoría de Estévez ...............................................................................40 PARTE 2. ALGUNAS IDEAS DE PARADIGMA Y SUS CICLOS - Los paradigmas en la historia .................................................................45 - La etapa preteórica ..................................................................................49 - Las primeras construcciones ................................................................49 - El camino hacia un pensamiento universal...........................................51 - El paradigma clásico ................................................................................55 - El carácter de la mímesis como definidora de belleza..........................55 - La construcción albertiana del paradigma clásico ................................60 - La crisis del paradigma clásico .............................................................72 - El paradigma mecánico ...........................................................................75 - La revolución industrial ......................................................................... 76 - El papel de las vanguardias ..................................................................78 - De la máquina y el habitar ....................................................................80 - Hacia una arquitectura ..........................................................................83 - Tres ejemplos ........................................................................................87 - La evolución mecanizada de los ‘60 .....................................................91 - El comienzo del fin................................................................................93 PARTE 3. EL PUNTO DE INFLEXIÓN - El estado de crisis según Kuhn ..............................................................97 - La fusión de los sólidos ........................................................................97 - El comienzo de la crisis ........................................................................98 - Siete anomalías ................................................................................... 100 - Anomalía 1. Globalización. Juntos pero divididos................................ 101 - De la net a la internet .......................................................................... 103 - El largo camino hacia la virtualización de lo real ................................. 105 - Del ciberespacio a la arquitectura líquida ............................................ 108 - Arquitectura de globalización ............................................................... 111 - Anomalía 2. Las nuevas herramientas digitales de representación ........................................................................................... 115 - La conquista de la curva ..................................................................... 116 - Tras la imagen digital ........................................................................... 125 - La representación digital ...................................................................... 126 - Del pez a la casa Lewis ....................................................................... 131 - La representación en el nuevo milenio ................................................ 133 - Anomalía 3. La materialidad: prefabricación a la carta ........................ 135 - La mecanización consciente................................................................ 136 - Los robots del amanecer ..................................................................... 139 - La fabricación digital ............................................................................ 143 - Self service - Hágalo usted mismo ...................................................... 146 - El futuro es hoy .................................................................................... 148 - Anomalía 4. Las complejas formas biodigitales ................................... 151 - Geometrías Topologías. La abstracción de la forma............................ 151 - El camino hacia las complejas formas de la biología .......................... 167 - Anomalía 5. La ecología: cuando todo es verde................................... 171 - Del high tech al eco-tech ..................................................................... 172 - Modelos de alta eficiencia ................................................................... 176 - Una mirada sustentable al mañana ..................................................... 182 - Anomalía 6. Los Metadiseñadores ......................................................... 185 - Los diseñadores del nuevo paradigma ................................................ 185 - Las jóvenes promesas ......................................................................... 192 - Anomalía 7. El diseño paramétrico ......................................................... 193 - Orígenes de los sistemas paramétricos .............................................. 193 - Los modelos paramétricos digitales como configuradores del proyecto........................................................................................195 - Ventajas y desventajas de los sistemas paramétricos ......................... 196 - Parametricismo digital ......................................................................... 199 - El diseño paramétrico como potenciador de la materialización computacional ........................................................................................200 - Apostillas para el siglo XXI ....................................................................204 - Un ejemplo. Ocho anomalías: el Museo Guggenheim de Bilbao ........205 - El concurso ..........................................................................................205 - Un riguroso programa de necesidades ................................................207 - La representación hibrida de la forma .................................................209 - El proceso de ejecución....................................................................... 212 - La singularidad intrínseca.................................................................... 213 PARTE 4. EL NUEVO PARADIGMA BIOLÓGICO-DIGITAL - El génesis biológico................................................................................ 215 - La lógica de lo líquido ........................................................... 215 - El siglo biológico ................................................................... 217 - La naturaleza, esa diseñadora eficiente. El papel de la biología en el diseño contemporáneo ....................................... 218 - El modelo biológico ................................................................................221 - Morfogénesis .......................................................................................221 - De la teoría de la evolución a las leyes de la herencia genética .........222 - Genética de la evolución .....................................................................224 - A la caza del ADN ................................................................................225 - El alfabeto del ADN ..............................................................................226 - El mensajero de los dioses ..................................................................226 - Mutaciones .........................................................................................228 - Las teorías de D´Arcy Thompson ........................................................230 - La morfogénesis de Alan Turing...........................................................232 - La teoría de la catástrofe de René Thom.............................................234 - El modelo biológico digital.....................................................................237 - Algoritmos ...........................................................................................238 - Primera generación. Los autómatas celulares de Neumann ...............239 - Segunda generación. La vida artificial: el juego de la vida de Conway ..................................................................................................241 - Tercera generación. De los autómatas celulares a la IA ......................243 - Cuarta generación. Los algoritmos genéticos .....................................250 - Morfogénesis digital en arquitectura .....................................................261 - La naturaleza como fuente de inspiración ...........................................261 - La elaboración del modelo digital en arquitectura ...............................263 - Los cuatro caminos de la evolución .....................................................266 - Arquitectura biodiagramática .................................................................267 - Diagramas ...........................................................................................267 - La arquitectura biodiagramática...........................................................269 - Los diagramas de Peter Eisenman .....................................................270 - El Cubo de Agua ..................................................................................278 - Los diagramas del nuevo milenio ......................................................279 - Arquitectura bioalgorítmica ....................................................................283 - El concepto de emergencia en la arquitectura.....................................283 - Trabecuale ...........................................................................................286 - El parásito ............................................................................................288 - La casa embriológica...........................................................................291 - La herencia de la casa embriológica ................................................... 301 - Arquitectura biomimética. ......................................................................303 - Biomímesis ..........................................................................................303 - Los tres caminos de la biomímesis......................................................306 - Teoría de enjambre ..............................................................................323 - Las enseñanzas de la naturaleza para el nuevo milenio .....................329 - Arquitectura genética ..............................................................................333 - Salvador Dalí y la biología ...................................................................333 - El bioarte .............................................................................................334 - La era de las protocélulas ....................................................................337 - Arquitectura genética ...........................................................................340 PARTE 5. CONCLUSIONES La navaja de Ockham ................................................................................349 1. El diseño digital......................................................................................350 2. La prefabricación aditiva ......................................................................352 3. La ingeniería de los materiales inteligentes .......................................353 4. La exploración de nuevas funcionalidades biológicas ......................354 Colofón .......................................................................................................355 PARTE 6. BIBLIOGRAFÍA Bibliografía general ......................................................................................359 Para Nery, Elda y Nilda Narvaez AGRADECIMIENTOS Para el arquitecto Zaera Polo, la construcción de mapas, es una de las formas de producir conocimiento: una herramienta para operar sobre el territorio, un instrumento de polémica, que nunca puede ser entendida como una verdad absoluta. Del mismo modo, este libro, puede ser comprendido como un mapa, una cartografía que busca conectar seis puntos, que son también seis ciudades recorridas durante seis años, en un proceso de investigación que involucró a numerosas personas hasta su concreción definitiva. El primer punto de este mapa corresponde a la ciudad de Buenos Aires: en este lugar comenzarian a definirse los primeros trazos de lo que con el tiempo, se convertiria en el anteproyecto de mi plan de tesis de doctorado. Trabajo que tuvo el auxilio de mi director y amigo el arquitecto Julio Valentino, mi principal crítico, que sin sus correcciones precisas y dedicación constante hubiera sido imposible la redacción de este libro. También mi agradecimiento al Dr. Ángel Navarro, cuya guía y apoyo continuo fueron fundamentales en este proceso. El segundo punto corresponde a la ciudad de Santiago de Chile, y en la persona del Dr. Hugo Mondragón, que conocí a raíz de una publicación de la Maestría de Prefabricación, de la Universidad Católica de Chile, y quien después de leer el anteproyecto de mi tesis, aceptó ser mi codirector, mostrandose siempre dispuesto a colaborar. La producción del arquitecto Mondragón y de su equipo, fueron fundamentales para la elaboración de los contenidos relacionados con la nueva materialización. El tercer punto corresponde a la ciudad de Gijón, en Asturias, España, en donde por invitación del Dr. Ramón Rubio, pude pasar una temporada investigando en la Facultad de Ingeniería de la Universidad de Oviedo, junto con su equipo de trabajo, en especial junto a la Dra. Marlen López Fernández. Allí pude comenzar a delinear los aspectos más representativos del marco metodológico y de las teorías de Biomímesis. El cuarto punto corresponde a la ciudad de Barcelona, en donde por invitación del Dr. Alberto Estévez, de la Universidad Internacional de Catalunya, pude pasar dos temporadas: estudiando primero, e investigando después junto con su equipo de trabajo. Este periodo fue fundamental para encontrar las herramientas teóricas y prácticas que darían cuerpo a mi tesis. El quinto punto corresponde a la ciudad de Londres, y mis visitas a la Architectural Association, en donde pude asistir a diferentes Jury de la Maestría de Proyectos Complejos del Arquitecto Patrick Schumacher, lo que me permitió incorporar una importante carga teórico/tecnológica al proyecto. El sexto punto corresponde a la ciudad de Madrid, en donde pude madurar y comenzar a escribir las conclusiones finales de mi tesis. En esta etapa debo agradecer al Dr. Isidro Moreno Sánchez de la Universidad complutense de Madrid, y su programa de doctorado, asi como tambien a mi amiga Begoña Bilbao por su paciente ayuda. Finalmente, el circulo se cierra donde comenzó, en la ciudad de Buenos Aires, en donde quedarian definidos los ajustes finales de la tesis. Aquí debo mi agradecimiento a todos mis compañeros de trabajo de Teoría, Historia, Introducción a la Arquitectura Contemporanea y Conocimiento Proyectual de la Facultad de Arquitectura, Diseño y Urbanismo, de la Universidad de Buenos Aires, en especial a la Dra. Marta Miras, por su recomendaciones y orientaciones epistemològicas; al equipo de TRP21, en la figura de la arquitecta Sofia Piantanida; así como también, al equipo del Doctorado, en especial a la arquitecta Mabel Trosoli, por su atención y amabilidad en todo lo referente a mi período como estudiante. A todos, muchas gracias. Diciembre de 2018. PRÓLOGO “La actividad teórica, por su naturaleza especulativa, anticipatoria… se refiere en mayor medida a las aspiraciones de la arquitectura que a sus concreciones”. Kate Nesbitt, Theorizing a New Agenda for Architecture, 1996 En las últimas décadas la teoría de la arquitectura se presenta con características de fragmentación y de inestabilidad. Esta es una condición actualmente aceptada y podría definirse como un “estado endémico de ‘crisis teórica’, en el que no dominará la lógica de los límites sino la del hipertexto: el salto repentino de una secuencia a otra”.1 El fenómeno no sólo resulta evidente en el ámbito de la arquitectura, sino que también se manifiesta en el campo de las expresiones sociales y culturales. Si el sociólogo Zygmunt Bauman había utilizado la metáfora de la “modernidad líquida” para definir el estado de “fluidez” y “movilidad” de la cultura de finales del siglo XX, para diferenciarla de los modelos estables de interpretación del mundo, característicos de la etapa anterior de la modernidad, pareciera que hoy se ha pasado a un estado aún más evanescente. Un estado que el filósofo Yves Michaud ha denominado “état gazeux” (estado gaseoso),2 propio de ciertas manifestaciones culturales, donde el cometido es ahora extremadamente evasivo, sin posibilidad de ninguna idea unificadora y, por lo tanto, similar a la ligereza e indefinición del aire. En el caso de la teoría arquitectónica, esta disolución compartida de los límites disciplinares y la “contaminación” con los aportes de otros campos del conocimiento, ha sido un proceso que se ha acentuado a partir de la década de 1960, y que ha asumido manifestaciones o conexiones que han ido variando hasta la actualidad. Los textos teóricos cambian profundamente, ya que proponen “un intercambio de ideas sin precedentes entre disciplinas –las artes, la filosofía, la crítica literaria”. 3 La aseveración del arquitecto Bernard Tschumi pone en evidencia que nunca como antes el campo disciplinar ha ampliado sus alcances y sus vínculos con diferentes saberes. Sin embargo, este intercambio al que alude Tschumi, en el siglo XXI se desplaza hacia otros caminos de hibridación. El vínculo entre arquitectura y ciencia recupera nuevamente intensidad en ciertos desarrollos de la teoría arquitectónica, proponiéndose como uno de los caminos más fértiles de exploración. La jerarquía que en el mundo actual comienzan a tener, entre otros, los parámetros ambientales, económicos y materiales, imponen un uso eficiente de los recursos, modificando tanto los discursos como los propios procesos de ideación y construcción; y la arquitectura parece encontrar especialmente en las ciencias biológicas, la lógica de optimización de los recursos aplicables a sus propios procesos de proyectación. Dentro de esta condición de límites imprecisos es evidente que el pensamiento arquitectónico recorre el universo de la transdisciplina y “el campo de la experimentación con diversos procedimientos proyectuales navega en medio de márgenes amplios y difusos, [condición que] puede quedar representada por la construcción de un nuevo par de términos opuestos: agregación y desagregación: - la agregación de nuevos saberes al territorio disciplinar en el aprovechamiento de elementos detonadores de procesos proyectuales definidos por el pensamiento analógico; - y la no-agregación de los discursos teóricos construidos a un sistema abarcante y ordenador de la teoría disciplinar que supere la condición fragmentaria de aquellos”.4 Esta situación contemporánea expresada en relación al campo disciplinar, se puede verificar tanto como pensamiento arquitectónico y también en otros aspectos como en la relación teoría-práctica, en la concepción del 1 Prestinenza Puglisi, Luigi, “Anything Goes”, AD Theoretical Meltdown, Vol. 79, Nº 1, Enero-Febrero 2009, p. 11. 2 Michaud, Yves, L’art à l’état gazeux. Essai sur le triomphe de l’esthétique, Paris, Ed. Stock, 2003. 3 Tschumi, Bernard, Prefacio a Ockman, Joan, Architecture Culture 1943-1968, New York, Rizzoli International Publication, 1993. 4 Gimenez, C. G., Miras, M., Valentino, J., La arquitectura cómplice, Buenos Aires, nobuko, 2011, pp. 160-161. proyecto, del diseñador y en el uso de las nuevas tecnologías. Aquí cobran un valor central las tecnologías digitales relacionadas con el proyecto y la materialización de la arquitectura. El perfeccionamiento del hardware ha logrado la aparición de softwares cada vez más sofisticados, que permiten el fácil manejo de gran cantidad de variables propias de una situación determinada, permitiendo su cálculo, control y evaluación constante y en tiempo real, con simulaciones que ofrecen alternativas ante la modificación de alguna de ellas. La representación de entidades abstractas, funciones y ecuaciones son herramientas habituales.5 Entonces, en este marco de grandes transformaciones, ¿cuáles serían los nuevos desafíos y enfoques para la disciplina? ¿Cómo podría caracterizarse el proyecto? ¿Cómo se definiría un diseñador, qué saberes deberá considerar? Estos parecen ser, en términos generales, los principales interrogantes que dan origen a este libro: Arquitectura biodigital. Hacia un nuevo paradigma en la arquitectura contemporánea. Paradigmas y anomalías El término paradigma ha sido utilizado en distintas disciplinas, con significados diversos que han ido variando a lo largo del tiempo, desde el propuesto por Platón hasta las consideraciones actuales, tal cual se explica en la primera parte de este libro. De todos modos, el autor toma como referente principal para el sustento de su trabajo, las ideas planteadas por el filósofo Thomas Khun en su influyente texto La estructura de las revoluciones científicas de 1962, donde básicamente cuestiona el modo habitual de concebir la evolución de las ciencias. Para completar la base teórica con la que Fraile desarrolla su análisis, vincula las ideas de Khun con las del filósofo de la ciencia Stephen Pepper, quien en World Hyopotheses: A Study in Evidence (1942), introduce el concepto de metáfora como la manera más adecuada de comprender la realidad. Allí establece cuatro categorías o visiones del mundo: la formista, la mecanicista, la organicista y la contextualista, que ponen en crisis las bases del racionalismo científico. Finalmente, se incluye una tercera fuente: el artículo “Arquitectura Biomórfica” (1998), del profesor Alberto Estévez, quien analiza el desarrollo histórico de la arquitectura según tres estadios: el pasado clásico, el presente moderno y el futuro genético. A partir de la consideración de estas doctrinas, Fraile las analiza, las confronta, adoptando una mirada multidireccional y pluridisciplinar, compleja, cruzando ideas entre campos, que le permite establecer categorías, periodizaciones y puntos de vista para avanzar en el análisis de la realidad contemporánea y en las características novedosas de muchos de sus productos arquitectónicos y urbanos. Finalmente, el autor presenta la situación actual caracterizada por la aparición de un nuevo paradigma que denomina biológico-digital, en el que se concentra su estudio. Sin embargo, ¿cómo se producen los cambios de paradigmas? ¿Qué condiciones deben presentarse para que esto ocurra? ¿Qué ha sucedido para que el paradigma anterior, llamado por el autor mecánico, haya entrado en crisis? Para explicar la situación, recurre nuevamente a la figura y las ideas de Khun, quien propone en referencia a esta cuestión el concepto de anomalía. Sintéticamente, las anomalías son síntomas dentro de un paradigma que evidencian la existencia de cuestiones que no pueden resolverse con las ideas que contiene y lo sustentan; por lo tanto en necesario un cambio de modelo que se adecue al surgimiento de nuevas situaciones, el inicio de una revolución científica, 5 Sobre esta cuestión ver, por ejemplo, Carpo, Mario (ed.), The Digital Turn in Architecture. 1992-2012, Chichester, J. Wiley & Sons, 2013. el desarrollo de nuevos fundamentos que reemplacen a lo anterior, proceso al que Khun denomina inconmensurabilidad. Extrapolando estas consideraciones al campo disciplinar, Fraile encuentra siete anomalías, que estudia y describe con profundidad: la globalización con su proceso de virtualización; las nuevas herramientas digitales; la nueva materialidad con los novedosos procesos de fabricación; las complejas formas biodigitales inspiradas en la naturaleza; la importancia que asume la ecología con el desarrollo de modelos de eficiencia y sustentabilidad; la aparición de los metadiseñadores, nuevos protagonistas de la proyectación con habilidades novedosas; y el diseño paramétrico como un nuevo enfoque en la concepción del proyecto. Las anomalías mencionadas anteriormente son ampliamente sustentadas por textos, ejemplos, obras, tanto pertenecientes al campo disciplinar como a otras disciplinas que permiten una comprensión acabada del planteo. Las mismas, por una cuestión operativa que el autor determina se circunscriben al período 1988 – 2014 en el que concentrará su estudio. Esta parte del libro concluye con el análisis del Museo Guggenheim de Bilbao (1997) de Frank Gehry, en el que Fraile ve ejemplificados los síntomas del cambio que ha descripto y que señalan de manera contundente una nueva concepción de la arquitectura. La arquitectura biológico-digital Como ya se ha mencionado, en este proceso de “contaminación entre la arquitectura y otros saberes, es indudable que en la actualidad el cruce con las denominadas “ciencias de la vida” ha adquirido en la actualidad una relevancia indiscutible. De todos modos, este vínculo puede rastrearse con claridad a lo largo de diferentes etapas de la historia, fundamentalmente a partir del siglo XVII. Este va desde las simples referencias formales al mundo animal o al vegetal hasta la recurrencia a los modelos más avanzados de la genética y de otros estudios de la biología actuales. Inicialmente, el texto explora en esta parte –sin duda la más estimulante– el concepto de morfogénesis, definido genéricamente como la asunción de la naturaleza como fuente de inspiración de los procesos de ideación. Pero esta noción va indisolublemente asociada a otro término: lo digital. Los medios digitales son las herramientas indispensables para el control y la toma de decisiones en estos procedimientos analógicos. Una serie de nuevos términos y procedimientos, ajenos en general hasta ahora al ámbito de la disciplina, se analizan profundamente y ejemplifican como característicos de la nueva situación. La genética de la evolución, las implicancias del descubrimiento del ADN, la teoría de la catástrofe o del enjambre, la vida artificial, la biomímesis, los autómatas celulares, los diagramas, el concepto de emergencia, son ideas y procesos provenientes de campos en principio ajenos al ámbito disciplinar pero que ahora se constituyen en conocimientos y fuentes indispensables para concebir los objetos propios del siglo XXI. Objetos que estarán, pareciera, indisolublemente ligados a las propuestas del desarrollo de las ciencias biológicas y de los procedimientos digitales. Como lo sintetiza el autor, la arquitectura propia de la contemporaneidad debe ser “una arquitectura de materiales avanzados, que incorpora la nanotecnología como respuesta para sacar partido de sus limitaciones. Una arquitectura genética digital, de pieles maleables, de membranas semipermeables, transformables, traslúcidas, capaces de transpirar, que coopera con el entorno, que crea un microclima interno, calentándose en invierno y refrescándose en verano. Una arquitectura desarrollada me¬diante una tecnología de última generación que obtiene sus materiales de los otros reinos. Una arquitectura que integra forma, materia y estructura, para producir un diseño autosuficiente y emergente”. El fin de lo clásico En 1987 el arquitecto Peter Eisenman pronosticaba “el fin de lo clásico”,6 en alusión a una forma de concebir la arquitectura que había permanecido vigente por más de cinco siglos. Ese mismo año realizaba el proyecto para el Biocentro de la Universidad de Frankfurt, donde “difuminando los límites disciplinares”, generaba en su proceso de creación de la obra un vínculo entre arquitectura y biología. ¿Eran estas las primeras señales de un cambio de paradigma? Probablemente, en la que podría ser la primera aparición contemporánea de la articulación de los términos de ese par disciplinar, se encuentre el origen de la gestación de este libro. Un texto que sin duda constituye un aporte invalorable para la reflexión sobre la teoría y la práctica de la arquitectura actuales: su rigurosidad de análisis, la multiplicidad de ejemplos presentados, la amplísima bibliografía consultada dan cuenta de la profundidad y calidad de este estudio. Pero sin duda, el aporte más valioso de la propuesta es su carácter especulativo, cuestionador de la situación actual, las preguntas con respuestas pendientes, la apertura de nuevos caminos de indagación que quedan abiertos. Señales de las aspiraciones y los deseos de lo que, tal vez, ya ha comenzado o está por venir. Julio Valentino, diciembre 2018 6 Rizzi, Renato (ed.), Peter Eisenman. La fine del classico, Venezia, CLUVA Ed., 1987. Marcelo A. Fraile - Arquitectura biodigital INTRODUCCIÓN “Esta vez, no pretendemos aprender sobre la naturaleza, sino aprender de la naturaleza…”. Janine Benyus (2012, p. 13). La rápida e intensiva evolución experimentada por las tecnologías digitales a finales del siglo XX ha traspasado diversos umbrales socioculturales, extendido su presencia a casi todos los ámbitos de nuestra existencia. La incorporación de lo digital ha transformado nuestros hábitos, ya sea en lo cotidiano o en lo laboral. A comienzos del siglo XXI, y superados aparentemente los efectos de la industrialización, un nuevo mundo, ahora “digital”, parece haber nacido: un nuevo mundo que se presenta con importantes transformaciones en nuestros hábitos cotidianos y laborales. Un nuevo mundo, caracterizado por efectos de continuidad y rupturas, de centrifugación y destrucción, en el que nuevas teorías híbridas –entre lo biológico y lo tecnológico, entre lo cultural y lo técnico (Pardo, 2011)–, hacen su aparición bajo una estructura diferente, con nuevos logros pero también con nuevas amenazas. Son eslabones de una larga cadena que pareciera necesitar de leyes físico-matemáticas para explicar sus teorías; un nuevo modo de vida contemporáneo que ha generado entre los individuos sentimientos encontrados que oscilan entre una excesiva confianza en que estos cambios contribuirán a mejorar las condiciones de vida de las generaciones futuras, y un temor desmesurado, frente a la dependencia que estos sistemas nos generan. Dentro de este contexto pluralista, nuestro imaginario se ha desarrollado enormemente hacia lugares impensados; el arte, el diseño y la arquitectura misma no han quedado ajenos a estas circunstancias. En el campo específico del diseño, nuevas tecnologías y tecno-ciencias ofrecen hoy al arquitecto la posibilidad de curvar, torcer, plegar, y deformar el espacio dentro de la pantalla de la computadora (Bustos, 2006, p. 5-51), con lo que desafía las concepciones tradicionales del proyecto para posteriormente poder implementar estos cambios en la vida real. Este libro, contiene cuatro cuestiones o ideas fundamentales que han delimitado a esta investigación. El primero de estos, proyecto, es un término heredado del latín proiectus, y este, del verbo proicere, (pro, ‘hacia delante’; y iacere, ‘lanzar’), es decir “designio o pensamiento de ejecutar algo” (RAE, Asale, 2014), mirando hacia adelante: es un plan, una guía, una intención o propósito para realizar algo o alcanzar determinado objetivo. En el campo de la arquitectura, el concepto de proyecto hace alusión “…al dibujo más o menos detallado mediante el cual se representa la planta, el corte y alzada, o bien de la obra que se quiere erigir conforme a la intención de quien la va a ejecutar” (Quatremère De Quincy, 2007, pp. 218-220). En igual sentido, para el arquitecto Jorge Sarquis, el vocablo proyecto presenta relación con la palabra “… ‘conjetura’ o hipótesis, claramente indicada en la acción de proyectar, respecto de un funcionamiento futuro a verificar en la realidad” (2004, p. 42), esto es, una vez que la obra ha sido ejecutada. Con un origen muy antiguo, la idea de proyecto, tiene su aparición durante el Renacimiento “…se afianza en el Iluminismo, se hace hegemónica y consciente a partir de las teorías de los primeros modernos y herramientas de la experimentación con la primera Bauhaus” (Sarquis, 2004, pp. 41-42). Como instrumento de progreso, el proyecto, se convierte “…en elemento fundamental para que la especie humana complete el proceso que la instituye” (Doberti, 2008, p. 215): su carácter predictivo permite planificar situaciones que toman como base las necesidades humanas. En su condición de mediador, se encuentra entre el sujeto y el objeto. Considerado en todas sus modalidades, “…tiene el mismo rango, el mismo valor identificatorio y primordial que tienen la Ciencia, el Arte y la Tecnología, [es decir] no puede subsumirse en ninguna de las otras posiciones, ni es una mezcla o combinación de ellas” (Doberti, 2008, p. 215). 19 Introducción El segundo término, morfogénesis, es utilizado en disciplinas tan disímiles como la cristalografía, el urbanismo o el arte; sin embargo, su origen está en el campo de la biología y se refiere a aquellos dispositivos subyacentes que se relacionan con las transformaciones o cambios que se producen en el desarrollo de las células y los tejidos (Cowin & Doty, 2007, p. 5 y ss.).Al igual que lo que sucedió con otras disciplinas, esta expresión fue incorporada al campo del diseño. Pero fue complementada con la palabra digital, porque en este ámbito “… se entiende como un conjunto de métodos que emplean los medios digitales no sólo como herramientas de representación para la visualización, sino como herramientas generativas para la derivación de la forma y su transformación” (Roudavski, 2009). Una relación indisoluble entre forma e idea; dos elementos que no pueden separarse en la obra (Doberti, 2008, p. 215). El tercer término, paradigma, proviene del latín paradigma y este del griego παρaδειγμα, que a su vez tiene como raíz dos vocablos παρά (pará, ‘junto’) y δεῖγμα (deīgma, ‘ejemplo’) y se refiere a un modelo, un ejemplo o patrón. De acuerdo con la definición del diccionario de la Real Academia Española, un paradigma es una “Teoría cuyo núcleo central se acepta sin cuestionar y que suministra la base y modelo para resolver problemas y avanzar en el conocimiento; por ejemplo, en la ciencia, las leyes del movimiento y la gravitación de Newton o la teoría de la evolución de Darwin” (RAE, Asale, 2014). Para el filósofo estadounidense Thomas Kuhn, los paradigmas son “realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica” (1962, p. 150). En este sentido, según Kuhn, estaríamos, en nuestra disciplina, en presencia de una “revolución científica”, donde la teoría existente referida a la arquitectura contemporánea, que encuentra sus raíces en la arquitectura racionalista de principios del siglo XX, se halla imposibilitada de explicar muchos de los fenómenos actuales; y, por lo tanto, se comienzan a observar excepciones o anomalías a dicha teoría: las categorías previamente establecidas son abandonadas, y dan paso al nacimiento de un nuevo paradigma (Kuhn, 1962, p. 150). Finalmente, el cuarto concepto, es génesis, proviene del latín, genĕsis, y este del griego γένεσις génesis, cuyo significado hace alusión al “origen o principio de algo”, a una “serie encadenada de hechos y de causas que conducen a un resultado” (RAE, Asale, 2014). 20 Extrapolando estas cuestiones al campo específico de la arquitectura, este trabajo tratará de explicar cómo estos diferentes factores se “entrecruzan” y se transforman, desde un punto de vista “polisémico”, para considerar la génesis de un nuevo modelo de paradigma, bajo un proceso de desarrollo, una serie de “… fragmentos que, organizados y contrastados, intenta[rán] dar cuenta de una posible explicación, [para] construir un mapa, de la situación actual” (Giménez, Miras, & Valentino, 2011, p. 23), mapa que, como señala Zaera Polo, “… es una de las formas de producir conocimiento… Una cartografía no es sino un instrumento de polémica, siempre un panorama personal, nunca una descripción de la verdad absoluta. Y en este sentido, hacer mapas es la única manera de llegar a operar sobre un territorio” (1998, p. 308). En consonancia con lo anterior, y bajo un enfoque analítico, este trabajo se enmarca entre los años 1988 y 2014: un recorte simplificado y acotado de la realidad, una mirada de entre las múltiples posibles. Se trata de un período de 26 años que hace foco en los sucesos u obras desarrolladas en el marco de exposiciones internacionales de arquitectura que han ofrecido visiones en momentos específicos. Para este análisis se toma como comienzo el año 1988, en consonancia con la exposición Deconstructivist Architecture, realizada en el MoMA de Nueva York, y cierra en 2014, juntamente con la Bienal de Arquitectura de Venecia, Fundamentals, una exposición que buscaba investigar el “…estado actual de la arquitectura, e imaginar su futuro” (Quintal, 2014). Un análisis crítico de la arquitectura que en palabras de Rem Koolhaas, busca develar las condiciones de desarrollo “…los talentos individuales, las amistades personales, trayectorias aleatorias y Marcelo A. Fraile - Arquitectura biodigital desarrollos tecnológicos, [de] las arquitecturas que antes eran específicas y locales [y que ahora] se han hecho intercambiables y globales” (2013). Ahora bien, en este contexto, para Marina Waisman, la observación y el análisis de un tema contemporáneo, presente, “…está referido al diario acontecer de la arquitectura; a la identificación de nuevas ideas, a la valoración e interpretación de nuevas obras o propuestas, al descubrimiento de nuevas tendencias, contribuye[ndo], con su reflexión, a la toma de conciencia de situaciones” (1993, p. 30). Observadores de una realidad, que nos posibilite “…descubrir en ella hechos arquitectónicos interesantes y llamar la atención del espectador sobre ellos, suspendiendo momentáneamente el juicio, hasta tanto sea posible construir nuevos parámetros capaces de develar la estructura significativa de los nuevos fenómenos” (Waisman, 1993, p. 30). Ya que como menciona Giorgio Agamben, “La contemporaneidad se inscribe en el presente y lo marca, ante todo, como arcaico, y sólo quien percibe en lo más moderno y reciente los indicios y las marcas de lo arcaico puede ser contemporáneo”, pues su origen no es solo un pasado cronológico, “…él es contemporáneo al devenir histórico y no cesa de actuar en éste, de la misma manera que el embrión sigue actuando en los tejidos del organismo maduro y el niño en la vida psíquica del adulto”1. Son colecciones que enfatizaron la importancia y características de ciertos edificios. Claro está, sería un poco arriesgado pensar en escribir la historia de la arquitectura contemporánea desde el punto de vista de las exposiciones. Sin embargo, lo cierto es que sería difícil poder explicar muchas de las características de la arquitectura contemporánea sin hacer referencia a dichas muestras, que contribuyeron a reunir, divulgar, y proclamar las nuevas tendencias en la arquitectura y su evolución. Para algunos autores, las ideas propuestas en la exposición Deconstructivist Architecture, de 1988, constituyen el precedente histórico más inmediato de la arquitectura producida con herramientas digitales (Novak, 1991, p. 219). Teóricos de la talla de Luis Fernández Galiano (1999, pp. 17-23), Lluís Ortega (2009, pp. 7-13) o Dennis Dollens (2002, p. 22-29-31), entre otros, sitúan el comienzo de las anomalías entre 1989 y 1997. Lo cierto es que, con la introducción, en 1989, de tecnología CAM2 en la obra de la Basílica de la Sagrada Familia de Barcelona por los arquitectos Jordi Bonet y Antoni Caminal y con la inauguración del Museo Guggenheim de Bilbao en 1997, proyectado por el arquitecto canadiense Frank Ghery, se abriría una nueva etapa en el modo de hacer arquitectura. Utilizando CATIA, un software de última generación creado por la empresa Dassault Systems para el diseño y la fabricación de automóviles y aviones de caza, Frank Ghery se convertía en el primer arquitecto que, mediante la utilización de la tecnología digital, había hecho posible la construcción de un edificio formalmente complejo. Casi inmediatamente, los principales estudios de arquitectura del mundo incluían entre sus recursos un sinfín de herramientas digitales de segunda generación como medios de expresión creativa y gestoras de diseño. Sin embargo, no existe un momento exacto, ni un hecho puntual aislado, ni son hechos acumulativos los que generaran esta crisis. En realidad, siguiendo el concepto de paradigma de Kuhn, se trata de “… un proceso intrínsecamente revolucionario que rara vez lleva a cabo una sola persona y nunca de la noche a la mañana” (1962, p. 65). Basados en nuevos métodos de pensamiento, el “efecto Guggenheim” (2005, p. 5), como lo llamó Helio Piñón, produjo un impacto con la aparición de novedosas formas y contenidos. Una arquitectura con protocolos codificados que se materializan a través de nuevas tecnologías, al igual que una arquitectura de cuatro dimensiones: un mundo virtual de formas reducidas a bits. “Las nuevas ciencias de la complejidad – fractales, 1. Agamben, Giorgio, Contemporaneidad: ¿Qué es lo contemporáneo? *Este texto, inédito en español, fue leído en el curso de Filosofía Teorética que se llevó a cabo en la Facultad de Artes y Diseño de Venecia entre 2006 y 2007. Traducción: Verónica Nájera. 2. Computer Aided Manufacturing (CAM). Fabricación asistida por computadora. 21 Introducción dinámicas no-lineales, la nueva cosmología, los sistemas auto-organizables” (Jencks, 2004) provocaron un cambio de perspectiva en la arquitectura del nuevo milenio. Algo inconcebible hace apenas veinte años y que ahora se encuentra al alcance de un clic de ratón. Nada sería igual desde entonces. El edificio realizado por Gehry para el Museo Guggenheim marcó un antes y un después en la arquitectura contemporánea, un punto de inflexión que cambió la concavidad de la curva: el reemplazo del modelo analógico por el modelo digital, que conduciría indefectiblemente hacia el modelo biológico digital. Se iniciaba con esto un universo de nuevos planteos que desafían las concepciones tradicionales del diseño, lo que dio lugar a una arquitectura con una expresión espacial germinal, fluida, en continuo proceso de cambio y de transformación hasta su concreción física final. Se trata de una arquitectura de modelos digitales producidas a través de una amplia gama de herramientas tecnológicas: modelos paramétricos, algoritmos genéticos, tecnologías CAD/CAM, que permiten optimizar los recursos de un modo lógico, más allá de la construcción gráfica o del discurso exclusivamente conceptual. Esto revela el impacto que el empleo de los procesos digitales tiene en la práctica del arquitecto contemporáneo. En ejemplos tales como en el proyecto de la Casa Embriológica (Proyecto 1999-2001) de Greg Lynn, o la Biblioteca Nacional Checa (Proyecto 2006) de Vincent Callebaut, se ha generado una búsqueda de resultados cada vez más eficientes y funcionales a los estímulos del medio. La arquitectura se ha transformado en un objeto de múltiples capas; y en el nuevo modo de proyectación, la materia se ha convertido en información binaria, definida a través de representaciones tridimensionales. Los diseñadores que trabajan con modelos digitales, generan protoformas, con distintos layers de información superpuestas: las formas geométricas son creadas a través de procesos lógicos y matemáticos que tienden a la abstracción y son interpretados a la luz de la razón (Montaner, 1997, p. 7), mediante tecnologías que las transforman continuamente “en tiempo real”. En este marco, emerge un nuevo modo de trabajo intelectual, bajo una mecánica de “… investigación colaborativa, [un] aprendizaje por equipos, [y] estudios comparativos [de] interacción entre disciplinas” (Rugarcía, 1996), que hace indispensable un razonamiento en conjunto, para generar nuevas ideas, resolver preguntas complejas, explorar distintos temas y descubrir soluciones innovadoras que nos conducen hacia nuevos modos de ver, hacer y pensar. 22 Desde este punto de vista, la interdisciplina quizás sea una de las ideas que más ha hecho progresar a la ciencia en los últimos 50 años, al romper el propio aislamiento que la disciplina produce y permitir la articulación de saberes tan disímiles como la matemática, la biología, la arquitectura o la ingeniería. En este contexto, como resulta evidente, la arquitectura contemporánea3 no se encuentra exenta de nuevos planteos: ve cuestionada su especificidad, adoptando teorías y saberes de diversos campos. Esto permite que arquitectos, diseñadores, artistas, biólogos y genetistas se embarquen en una investigación sobre posibles formas de concebir, interpretar, visualizar y materializar arquitectura. 3. A modo ampliatorio, para este trabajo, y dentro del marco teórico considerado, entendemos la arquitectura contemporánea como aquella arquitectura producida a nivel mundial a partir de la década de los años ochenta, que encuentra sus raíces en la arquitectura racionalista de principios del siglo XX. Una arquitectura que Hans Ibelings circunscribe a lo que llama “Supermodernismo”, una de cuyas características es el modo a través del cual el usuario se relaciona con los lugares y el espacio: espacios vacíos controlados, espacios contenedores seguros encerrados dentro de una cáscara flexible. Una arquitectura pluralista, heterogénea, resultado de un proceso generalizado de globalización, con importantes avances tecnológicos y un uso racional de nuevos materiales, capaces de generar una nueva expresión estético-espacial. Su condición de contemporánea, hace alusión también a lo que, para Giorgio Agamben, es su relación singular con el propio tiempo: “… se adhiere a él pero, a la vez, toma distancia de éste; más específicamente, es esa relación con el tiempo [al que adhiere] a través de un desfase y un anacronismo” Agamben, Giorgio, Contemporaneidad: ¿Qué es lo contemporáneo? *Este texto, inédito en español, fue leído en el curso de Filosofía Teorética que se llevó a cabo en la Facultad de Artes y Diseño de Venecia entre 2006 y 2007. Traducción: Verónica Nájera. Marcelo A. Fraile - Arquitectura biodigital El resultado es un diseño automático de “continua diferenciación”4 que apela a distintos conocimientos para llegar a una simbiosis disciplinar, pudiendo así generar formas geométricas complejas a partir de parámetros capaces de modificarse y relacionarse en el tiempo. Estamos en presencia de una nueva forma de concebir el proyecto arquitectónico, ahora bajo una mirada denominada paramétrica, donde el proceso y la generación formal se encuentran teñidos por una búsqueda de optimización, de acuerdo con modelos de perfomance (Leach, 2009, p. 32 y ss.). Algo que Thomas Kuhn denomina el nacimiento de un “nuevo paradigma” (1962), que da lugar a un nuevo lenguaje arquitectónico que abandona la estructura mecanicista para sumergirse y vincularse con la biología. Las formas son el resultado de la interacción con el entorno, con el ambiente, al igual que en los seres vivos. Una arquitectura con “ciclo de innovación adaptativa, reformando la disciplina y adaptándose al entorno arquitectónico” (Schumacher, 2008). A partir de estos supuestos, y haciendo énfasis en los procesos de diseño basados en la morfogénesis digital, este trabajo pretende analizar el proceso de ruptura del viejo paradigma y propone la hipótesis de que uno nuevo, con base en lo “bio-lógico” y lo “tecno-lógico” está surgiendo; un nuevo paradigma que caracteriza el modo de comprender la arquitectura. Este presupuesto aún hoy, tal como lo señala James Stelle ( 2001, p. 5 y ss.), no tiene estudios profundos y consistentes. Es por esto, que el trabajo se propone, a través del estudio de ciertos casos, relevar el peso de lo biológico y de lo digital en la práctica del arquitecto contemporáneo, tema de creciente interés y de aproximaciones que parecieran inagotables. Dentro de la situación contemporánea, donde los límites disciplinares parecieran ser difusos y los cambios globales profundos, algunos afirman que la morfogénesis digital es la nueva vanguardia arquitectónica; otros, que es una moda formalista pasajera que en muy poco tiempo será olvidada. Hasta qué punto constituye dicho marco un nuevo paradigma es aún un tema sometido a debate. ¿“Revolución científica” o “anomalía”? (Ortega Calvo, 2004, p. 5 y ss.). Esta dicotomía presenta un campo abierto que será objeto de esta investigación cuyos límites y consecuencias son impredecibles. 23 4. La autoría de este slogan se debe a Greg Lynn y Jeff Kipnis. Ver Lynn, G. (1999), Animate Form, New York: Princeton Architectural Press, pp. 10 y ss. Marcelo A. Fraile - Arquitectura biodigital UN ACERCAMIENTO AL PROBLEMA “La Arquitectura del futuro será blanda y peluda” . Salvador Dalí (Estévez, 2008). En una primera aproximación sobre el tema, un lugar común en muchos de los textos que abordan el fenómeno de la digitalización en la arquitectura, y más específicamente el de la morfogénesis digital, es el uso de la palabra “paradigma”. Pese a ello, y aunque forma parte de nuestro lenguaje cotidiano, muchas veces, su definición aparece vaga e imprecisa. Para el lingüista suizo Ferdinand de Saussure1, un paradigma, “…es el conjunto formado por una palabra y todas las que pueden aparecer en su lugar en un contexto (sintagma) determinado” (2005). En tanto que Egon Cuba e Yvonna Lincoln, en su artículo “Paradigmas en competencia en la investigación cualitativa” (2002), definen al paradigma como: “… una serie de creencias básicas (o una metafísica) que tiene que ver con los principios últimos o primeros. Representa una visión del mundo que define, para quien la sustenta, la naturaleza del ‘mundo’, el lugar del individuo en él y la extensión de las posibles relaciones con ese mundo y sus partes” (2002, pp. 113-145). Otra visión acerca del concepto de paradigma es la propuesta por Edgar Morin, que lo define “… como un principio de distinción, relaciones-oposiciones fundamentales entre algunas nociones matrices que generan y controlan el pensamiento, es decir, la constitución de teorías y la producción de los discursos de los miembros de una comunidad científica determinada” (1982, p. 23). De un modo análogo, para Cook y Reichardt, las funciones de un paradigma son servir de guía para los profesionales de una disciplina, indicando cuáles son los problemas y las cuestiones importantes con los que esta se enfrenta (1986, p. 5 y ss.). En este sentido, para la doctora Marta Zátonyi, el paradigma “no es un fenómeno concreto sino una abstracción” (2007, pp. 21-24), que solo puede ser aprehendido a través de sus tres componentes fundamentales: la edificación cognoscitiva, el sistema axiológico y el universo simbólico. El primero, la edificación cognitiva, hace referencia “… a todo lo que conocemos y sabemos. Desde los saberes más básicos… hasta los académicos, complejos y renovadores”. Cada generación, como heredera de los conocimientos de humanidades anteriores, irá ligando estos saberes, modificando algunos, olvidando otros, entretejiendo una sólida red “… para contener al sujeto como parte de un contexto donde puede vislumbrar el por qué y el para qué de su existencia”. El segundo es el sistema axiológico y permite establecer, a través de una rigurosa estructura de valores, lo que vale y lo que no “… en el ámbito económico y cultural, en lo simbólico y en los horizontes morales y éticos”. Finalmente, el tercer punto se corresponde con el universo simbólico: es “… el que da cuenta de los saberes y valores, y gracias al cual pueden ser enseñables y comunicables”. Estos tres elementos se integran y entrelazan en una red dinámica y compleja “… de tal manera que resulta ilusorio pensar en uno sin la presencia… [de] los otros dos” (Zátonyi, 2007, pp. 21-24). Finalmente, para el filósofo estadounidense Thomas Kuhn (1922-1996), como ya vimos, los paradigmas son “realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica” (1962, p. 51). Y si bien este modelo aplicado a la arquitectura es cuestionable “…pues no se trata de una actividad científica y, por tanto, … no parece extrapolable de una forma literal” (Ortega & Zaera-Polo, 2009, p. 5 y ss.), estas afirmaciones, entendidas desde un punto metafórico y no analítico, “no menoscaban la importancia del cambio, sino más bien todo lo contrario, lo plantea en sus justos términos… cambios sustanciales en… los que se ha venido sustentando la práctica arquitectónica” (Ortega & Zaera-Polo, 2009, p. 5 y ss.). 1. Ferdinand de Saussure, (1857-1913). De origen suizo, se lo conoce como el padre de la lingüística moderna. 25 Parte I. Presentación del problema En este sentido y en el marco de esta tesis, la idea de paradigma elaborado por Kuhn parece un concepto operativo apropiado, una herramienta útil para explicar nuestra visión sobre la situación en que se halla actualmente la arquitectura contemporánea: un estado de revolución científica. Esto presupone que las teorías existentes en las que se sustentaba el antiguo paradigma contemporáneo –que encontraba sus raíces en la arquitectura racionalista de principios del siglo XX–, se hallan ahora imposibilitadas de explicar muchos de los fenómenos actuales; y, por tanto, se comienzan a observar excepciones o anomalías a dichas teorías. Se produce un efecto de crisis, donde las categorías previamente establecidas son abandonadas, y se da paso al nacimiento de una nueva situación que traerá nuevas teorías que la sustentarán. Y, como todo producto histórico, como objeto cultural, la arquitectura no puede permanecer ajena a los cambios o a las transformaciones que se producen en su propio ámbito o en la sociedad. Actualmente, la teoría y la práctica de la arquitectura aparecen invadidas por el pensamiento de otros campos y, a su vez, estas mismas se han permitido apropiarse de pensamientos diversos. Se ha generado una nueva relación entre ciencia, naturaleza y arquitectura, planteada en un ámbito en donde las nociones tradicionales de estos conceptos se han modificado. Ha surgido un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar el diseño, a través del uso inteligente de las cualidades de los medios electrónicos aplicados a la genética y la biología. Dominada en gran parte por la informática, se ha detectado en la disciplina un desplazamiento significativo desde “…preocupaciones puramente visuales hacia una arquitectura que encuentra su justificación en su performance (eficiencia)” (Leach, 2009, p. 32 y ss.). Para el físico vienés Fritjof Capra (1939), estamos viviendo lo que él llama “el Punto Crucial” (1983, pp. 27-38), que se caracteriza por el surgimiento de una nueva visión de la ciencia que se resiste a encajar en el esquema newtoniano, excesivamente mecanicista del siglo XX, heredado de las ciencias clásicas. Esta nueva concepción no descarta la estructurada geometría euclídea, pero se siente más atraída por un nuevo modo de observar la naturaleza, algo que quizás nos recuerda el manifiesto de Benoît Mandelbrot de 19772. Es decir, una aproximación más abstracta de la que caracteriza a la geometría convencional de tradición euclidiana, y hace referencia al impacto de la geometría fractal en la concepción e interpretación de los objetos que se encuentran en la naturaleza. O lo que Charles Jencks (1939) llama “las nuevas ciencias de la complejidad” (2006, pp. 2-11), que trata de las interacciones entre diversas teorías científicas, apoyadas en el carácter mimético de la naturaleza y las leyes de las nuevas ciencias, como los fractales, los procesos emergentes, la autoorganización y la similaridad. 26 Para el arquitecto Jorge Sarquis (1940), esta situación, puede ser asociada con la idea de acontecimiento, la “…posibilidad [de] instalar una verdad y constituir un sujeto, para lo cual la arquitectura –como saber particular del campo del arte– posee tal condición genérica” (Guba & Lincoln, 2002, p. 43). Desde este punto de vista teórico, “… la obra de Ghery en Bilbao sería un buen ejemplo, ya que la obra y lo que allí ocurre se han transformado en un acontecimiento que escapa a la comprensión de la categoría tradicional de la arquitectura” (Sarquis, 2004, p. 43). Esto es lo que Kuhn llama “anomalías”, y que conduce a lo que para Neil Leach sería el surgimiento de “un nuevo paradigma”, o lo que para De Landa es el nacimiento de un “nuevo materialismo” (Leach, 2009, p. 32 y ss.) que utiliza complejas herramientas capaces de reproducir patrones formales en tres dimensiones, lo que crea espacios arquitectónicos habitables. Espacios que son entendidos por Kolarevic como “espacios geométricos no euclidianos, sistemas cinéticos y dinámicos” (2003, p. 3), formas innovadoras, con características de eficiencia y funcionalidad, con capacidad de respuesta a diferentes estímulos. En este marco, la revolución destruye la continuidad del antiguo paradigma, y acentúa el nacimiento de una nueva generación de diseñadores, jóvenes investigadores, abiertos a los cambios, capaces de producir un nuevo vocabulario de nuevas herramientas. Son los llamados “metadiseñadores” (Pinochet, 2009, p. 37 y ss.) que, con un enfoque interdisciplinario, tratarán de engendrar nuevas teorías para resolver las nuevas anomalías, en una búsqueda incesante de mayor eficiencia, optimización de resultados, disolución de las fronteras de la especificidad, que representan una renovación y ampliación de sus posibilidades. 2. Mandelbrot, B. (1997). The Fractal Geometry of Nature, Barcelona: Tusquets Editores. [1.era edic. 1975], pp. 15 y ss. Marcelo A. Fraile - Arquitectura biodigital Frente a estos cambios, el diseño ha sufrido grandes transformaciones en el nuevo milenio. Su capacidad de innovación, a través del uso de nuevas herramientas digitales, ha producido la evolución del trabajo de los diseñadores hacia derroteros irreconocibles. A esta nueva generación de jóvenes diseñadores, el psicólogo estadounidense Richard Farson (1926-2017) los denominó “metadiseñadores”. El prefijo meta es utilizado, como ‘sobre’, con un sentido superior. El metadiseño se encuentra en un rango superador que el del diseño tradicional; sus protagonistas han evolucionado desde meros creadores a diligentes investigadores; reconocen el valor de los sistemas digitales, “… como una fuerza tecnológica autónoma, imposible de detener y que nos incluye a todos sin excepción”. Para el arquitecto chileno Diego Pinochet (1981), su producción “…no se limita solamente a una forma determinada, sino que pasan a diseñar sistemas, herramientas y el proceso integral del diseño, mediante el cual puede producir MODELOS DE INFORMACIÓN, que incorporan la variable constructiva desde el inicio del proceso” hasta la obtención de resultados. A partir de un pensamiento analítico, los metadiseñadores se transforman en planificadores, adoptan y se apropian de una multiplicidad de herramientas tecnológico-digitales que integran otras disciplinas como la ingeniería informática, pasando por la biología e incluso el arte. Contraria a la excesiva especialización de los diseñadores, los metadiseñadores conciben el diseño integrado en un sistema, que da soporte a la inteligencia colectiva y posibilita el trabajo en equipo para generar nuevas perspectivas en el diseño. Una nueva concepción de la disciplina que sobrepasa sus límites tradicionales, que indaga en sus bordes; un pensar desde fuera, que fortalece la creatividad del diseñador y permite explorar múltiples oportunidades. Esta nueva gama de herramientas tecnológico-digitales permite, según la doctora Elizabeth Sanders, una etapa superior, “…donde la intención es crear algo que no se conoce de antemano”, explorar nuevas formas inspiradas en la naturaleza, que buscan dar respuestas adecuadas a las características del contexto. El periodista Gene Youngblood (1942) considera el metadiseño como el nuevo modo en que las vanguardias se expresan. Es lo que el arquitecto Branco Kolarevic denomina master builder (maestro constructor), en referencia al nuevo modo de producción arquitectónica que utiliza las herramientas CAD/CAM para desarrollar sus obras. En el seno de esta discusión, no es casual que el concepto de morfogénesis digital resuene con fuerza en el camino hacia el desarrollo de lo que pareciera ser este posible cambio de paradigma. Su vigencia surge de líneas concretas de investigación, de la mano de autores tan renombrados como, Greg Lynn, Karl S. Chu, Dennis Dollens o Bernard Cache. En sus obras y escritos, se detecta “…una manera de pensar sobre forma y estructura derivados [del uso] de la tecnología y [de los] organismos vivos” (Dollens, 2003, p. 82). A lo largo de su historia, el hombre siempre intentó asemejar los procesos de diseño a los fenómenos naturales, dependiendo su resolución de las particularidades de cada época. Hoy, gracias a los avances en materia de ciencias biológicas y digitales, se han comenzado a entender estos fenómenos desde sus procesos generativos, para poder después elaborar modelos matemáticos capaces de replicar la complejidad de sus planteos: “Un progreso asumible desde el conocimiento de las lógicas naturales, la experimentación de los crecimientos y formas de orden orgánicos” (Pérez Arnal, 2003, p. 56). En este sentido, la morfogénesis digital se nos presenta como un procedimiento para una arquitectura de avanzada, “… en superación al ecologismo… en superación al uso de ordenadores como mero sustituto del dibujo manual; …un nuevo proyectar ecológico-medioambiental y un nuevo proyectar cibernético-digital” (Estévez, 2003, p. 4). 27 Parte I. Presentación del problema En las últimas publicaciones sobre el tema, se pueden encontrar tres posiciones muy radicales al respecto. Por un lado, algunos diseñadores como Peter Eisenman, Greg Lynn, John Frazer o Iwamotto Scott, con una mirada progresista, entienden la tecnología como un nuevo marco para pensar y hacer arquitectura. Una arquitectura algorítmica, exploratoria, que postula las grandes ventajas que presenta su utilización para organizar estructuras complejas, dinámicas no uniformes (Weinstock, 2006, pp. 34-41), que posibilitan ajustar el modelo “… sin perturbarlo y aumentando su flexibilidad” (Roudavski, 2009, pp. 345-374), con un alto grado de adaptación al medio. Por otro lado, no todos aceptan estas valoraciones positivas sobre este planteo. Por el contrario, diseñadores más conservadores miran estos cambios “…con indiferencia… aceptando el nuevo instrumento, …como una nueva prótesis para el arquitecto” (Ortega Calvo, 2004, p. 5 y ss.). Sus críticas apuntan a “...la utilización superficial de conceptos tomados de otras disciplinas”(Hagan, 2008, p. 25); a lo autorreferencial de sus planteos, como “…un compromiso frívolo… que da por resultado ‘una creatividad falsa’”(Lawson, 1999, pp. 174-179), donde la analogía con la naturaleza es solo a nivel de apariencia. El paradigma anterior continúa, solo estamos ante una fugaz anomalía que pronto será resuelta por la teoría existente. A este debate se suma, en los últimos tiempos, una segunda generación de diseñadores de la talla de Dennis Dollens, Alberto Estévez o Nery Oxman, con una mirada que va más allá de la utilización de la tecnología digital como una herramienta generativa de formas con base en la naturaleza. Tomando prestada la teoría de la evolución por medio de la selección natural de Darwin (1871), estos “…entiende[n] al diseño y [a la] producción digital de arquitectura como proceso[s] genético[s] ,…elementos vivos, materiales constructivos y espacios vivos útiles para la arquitectura” (Estévez, 2003, pp. 4-17). Las superficies “crecen” por medio de un lenguaje genético que considera el muro como una membrana celular en un proceso continuo de crecimiento selectivo con un alto grado de adaptabilidad individual, capaz de automantenerse, de autorreproducirse y, potencialmente, de evolucionar. Esto sugiere un nuevo paradigma, capaz de reemplazar al paradigma anterior y de elaborar su propia teoría: “…una monadología genética de la arquitectura, que utiliza la simbiogénesis como el modo de proceder para la construcción de mundos posibles” (Chu, 2005, p. 142). El paradigma heredado de las ciencias clásicas ha impuesto una mirada estática y determinista que contrasta drásticamente con la complejidad que propone este nuevo enfoque del mundo contemporáneo. 28 ¿Utopía o realidad?, ¿crisis del paradigma o anomalía transitoria? En este complejo panorama, la morfogénesis digital se presenta, para unos, como una pieza clave que podría liberarnos de las concepciones clásicas del diseño; para otros, como una moda pasajera que se olvidará en diez años, cuando otra nueva haga su aparición. Por el momento, todas estas ideas no han cuajado en una teoría unificadora que ratifique o rectifique la cuestión. Pero todavía seguimos teniendo mucho que indagar. Marcelo A. Fraile - Arquitectura biodigital ESTABLECIENDO EL MARCO TEÓRICO DE ACCIÓN “La revolución epistemológica, que aportó una paulatina construcción de un método científico y la apertura del máximo horizonte del racionalismo, había arrancado con Leonardo da Vinci, Copérnico, Giordano Bruno y Kepler, había tenido sus aportaciones trascendentales en Galileo Galilei y Francis Bacon, culminando con la interpretación y síntesis de Isaac Newton a finales de este siglo XVII” . (Montaner, 1997, p. 54). Durante la mayor parte del siglo XX y principios del siglo XXI, se desarrolló un importante debate entre los principales críticos e historiadores de la arquitectura sobre el estado actual de la disciplina arquitectónica. En un claro enfrentamiento contra la arquitectura moderna, se “…reclama la reescritura de una historia reciente construida de manera demasiado homogénea, mecánica y lineal” (Montaner, 1997, p. 8). Neal Leach, por su parte, “…propone ‘repensar la arquitectura’ por fuera del marco de los discursos arquitectónicos tradicionales, a través de una selección de textos escritos exclusivamente por intelectuales ajenos al campo de la disciplina” (Giménez, Mirás, & Valentino, 2011, p. 28). Se hace evidente que vivimos un cambio de época, de reglas. Profundas transformaciones a nivel global se han producido en los últimos tiempos. Para el profesor Ilya Prigogine1, “estamos en un momento apasionante de la historia, tal vez en un punto decisivo de giro… que operará cambios fundamentales sobre los parámetros y conceptos de la arquitectura tal cual actualmente es reconocida y definida” (Ferguson & de Casso, 1994, p. 25). En este sentido, la morfogénesis digital ha generado una nueva relación entre ciencia, naturaleza y arquitectura, planteada en un ámbito donde las nociones tradicionales de estos conceptos se han modificado sustancialmente. Se ha dado paso a un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar el diseño, a un uso inteligente de las cualidades de los medios electrónicos aplicados a la genética y la biología. Esto ha permitido nuevas exploraciones en el campo del proyecto, “… donde los elementos complejos emergen de la combinación de elementos más sencillos [y] se constata que tienen frecuentemente como características ventajosas, la adaptabilidad y la capacidad generativa que les permiten evolucionar” (Costa, 2009, p. 76). Para su análisis, este trabajo, pone en paralelo tres modelos o estructuras que servirán como marco para la investigación futura: el primero de estos se encuentra asociado al concepto de paradigma, desarrollado por Thomas Kuhn en su libro La estructura de las revoluciones científicas (1962)2, idea fundamental que va a enmarcar y guiar esta investigación; el segundo es el concepto de hipótesis de raíz, utilizado por Stephen Pepper en su libro World Hyopotheses: A Study in Evidence (1942), una serie de modelos básicos, o “hipótesis del mundo” aplicados en la observación de los fenómenos del mundo occidental; y finalmente, el concepto de desarrollo biológico temporal del mundo, utilizado por Alberto Estévez, en su libro Arquitectura Genética II: Medios digitales y formas orgánicas (2005, pp. 18-80). Para ello, deberemos extrapolar algunos de estos conceptos al campo de la arquitectura, buscando esclarecer las características de un entrecruzamiento polisémico capaz de generar un nuevo modelo, susceptible de explicar la realidad existente. Este permitirá definir y exponer una arquitectura que es el resultado de un proceso lógico donde la morfogénesis digital ha abierto un abanico de nuevas posibilidades en el proyecto. 1. Ilya Prigogine. (1917-2003), físico, químico y profesor, de origen ruso. Recibió el Premio Nobel de Química en 1977 por sus investigaciones desarrolladas sobre el concepto de “estructuras disipativas”. 2. Thomas Samuel Kuhn, historiador y filósofo de la ciencia, nació en la ciudad de Ohio (Cincinnati, EE.UU.), el 18 de julio de 1922. Comenzó sus estudios de Física en la Universidad de Harvard, obtuvo el Bachelor en 1943, el Master en 1946, y el Doctorado en 1949. A partir de sus estudios, sus investigaciones se fueron circunscribiendo hacia el área de la Historia de la ciencia, permaneció en Harvard donde fue profesor ayudante de Historia de la Ciencia hasta 1956. En 1961, fue contratado por la Universidad de Berkeley, donde ocuparía la Cátedra de Historia de la Ciencia hasta 1964. Luego se desempeñaría en el mismo puesto en la Universidad de Princenton hasta 1979, año en que se instal en Boston y ocupa la Cátedra de Filosofía e Historia de la Ciencia del Massachusetts Institute of Technology. Falleció el 17 de junio de 1996 en su casa de Cambridge, Massachusetts. 29 Parte I. Presentación del problema Una aproximación histórica al término Paradigma “No es sorprendente que la mayoría de las personas a quienes se les pida que definan el término paradigma sean incapaces de ofrecer una expresión clara de su significado”. E. G. Guba (González, 2005). En el estudio del concepto de paradigma, algunos de los elementos fundamentales que encontramos con mayor frecuencia se relacionan con el mundo de la antigua Grecia, y en la figura de dos de sus filósofos más reconocidos: el primero de ellos, Platón, quien en el Timeo desarrolla el concepto de paradigma en torno a una “…ejemplificación del modelo o la regla” (Morin & Sánchez, 1992, p. 216). Para Platón, la creación del universo se produce a través de un “demiurgo” o artesano, el cual toma un modelo “sensible” preexistente sobre el cual el ejecutará su obra. En el sentido estricto, este demiurgo estaría copiando el modelo, obteniendo una copia de la copia del modelo único, eterno, perfecto e inmodificable al cual ha recurrido, a través de la razón y el pensamiento (Velásquez, 2001, pp. 9-21). En el libro VI de La República, Platón amplía los conceptos anteriores al desarrollar la analogía de la línea y establecer una articulación entre “… el orden inteligible y el sensible [que hacen] posible el conocimiento” (Agamben, Costa, & Ruvituso, 2010, p. 32). Platón explica los grados del ser y del conocer el mundo a través de su división en dos partes: por un lado, la episteme o ciencia (el mundo inteligible); y por el otro, la doxa u opiniones (el mundo sensible). El mundo superior de la episteme es el trascendental, independiente e inmutable mundo de las ideas, en contraposición, el mundo de la doxa es el mundo imperfecto, intrascendente, en constante cambio, una copia imperfecta del mundo superior. En este dualismo entre mundos, se encuentra el alma humana, que es aquello que nos conecta con el mundo inteligible. El alma, según Platón, proviene del mundo de las ideas, pero al migrar al mundo sensible pasa por el río del olvido donde “olvida” todo su conocimiento del mundo ideal. Posteriormente, en la doxa, el alma recupera sus conocimientos, una reminiscencia de lo perdido pero que nunca llega a la belleza de las ideas, solo el arte nos acerca brevemente a su belleza (Zátonyi, 2007, p. 115). Por su parte, su discípulo Aristóteles, en su Retórica, desarrolla el concepto de persuasión, a partir de dos 30 elementos fundamentales: el entimema y el paradigma, ambos precisados de acuerdo con su relación con la dialéctica. Para Aristóteles, el entimema, como el silogismo, parte de premisas universales o generales para así llegar a conclusiones particulares diferentes de las premisas iniciales; en tanto que el paradigma, es uno de los principales elementos de la inducción, “… es el argumento que, fundado en un ejemplo, está destinado a ser generalizado” (Morin & Sánchez, 1992, p. 216), sirve para deducir una regla general a partir de distintos casos particulares. En otras palabras: “… genera un nexo persuasivo mediante una relación de semejanza, que, siendo extrínseca al silogismo propiamente dicho, funciona en su interior como una regla” (Iglesias Zoido, 1997, pp. 109-122). Un razonamiento deductivo, que intenta probar la pertenencia del término menor al término mayor: “…’si todos los hombres son mortales’ y ‘Sócrates es hombre’; entonces, ‘Sócrates es mortal’” (Castro, 2015, pp. 53-75). El paradigma, en Aristóteles, “… no funciona como una parte respecto del todo, ni como un todo respecto de la parte, sino como una parte respecto de la parte, puesto que ambos se encuentran bajo lo mismo, pero uno es más conocido que el otro” (Agamben et al., 2010, p. 24), siendo el paradigma una situación, “… que va de lo particular a lo particular” (2010, p. 24). En igual sentido, el paradigma Aristotélico no es contrario al entimema, sino que puede convertirse en un elemento básico de este. De esta forma, un paradigma podría ser considerado un entimema con dos fases, una inductiva y otra deductiva. Marcelo A. Fraile - Arquitectura biodigital Tomemos un ejemplo: “suponiendo que uno de los extremos sea ‘ser longevo’ y el otro, ‘los individuos longevos como el hombre, el caballo, la mula’ y el término medio, ‘estar desprovisto de hiel’; entonces, puedo demostrar que el ‘ser longevo’ pertenece al ‘estar desprovisto de hiel’, mostrando que los individuos longevos carecen de hiel” (Castro, 2015, pp. 53-75). En definitiva, tanto Platón como Aristóteles entienden el paradigma clásico como algo que existe de un modo positivo, enfocado en el conocimiento, que “… aun cuando es un fenómeno singular sensible, contiene de algún modo el ‘eidos’, la forma misma que se trata de definir” (Agamben et al., 2010, pp. 4-11). En cambio, para el filósofo alemán, Immanuel Kant (1724-1804), el concepto de paradigma es bastante complejo, su enunciación “… presupone en realidad la imposibilidad de la regla; pero si esta falta o es informulable, ¿de dónde podrá el ejemplo extraer su valor de prueba? ¿Y cómo es posible proporcionar ejemplos de una regla imposible de asignar?”, por consiguiente, “… la mera exhibición del caso paradigmático la que constituye una regla, que, como tal, no puede ser ni aplicada ni enunciada”, transforma a cada singularidad en “… ejemplar de una regla general que nunca puede formularse a priori” (Agamben et al., 2010, pp. 4-11). En 1935 el filósofo austríaco Karl Popper (1902-1994), uno de los personajes más influyentes y controvertidos del Círculo de Viena, publicaría La lógica de la investigación científica, un fuerte giro en la forma de entender las concepciones filosóficas del siglo XX. Popper había estudiado filosofía en la Universidad de Viena y había desarrollado en su tesis el concepto de falsacionismo, un método científico que considera que las mejores teorías científicas son aquellas que han resistido más intentos por probar que estas son falsas: las teorías mueren cuando se descubre una nueva teoría que falsifica a la anterior, ese sería el motor del progreso científico. En su razonamiento, considera que por más probada que esté una teoría, nunca podremos estar seguros de que la próxima observación no será incompatible. A partir de esto, establece una diferenciación entre lo que es ciencia y lo que no lo es, ya que en el caso de la primera, los enunciados pueden ser refutados, si no es posible refutarla, dicha teoría queda corroborada y puede ser aceptada provisionalmente, pero nunca verificada. El profesor Ingvar Johansson (1943), en A Critique of Karl Popper’s Methodology (1978a, pp. 201-204), publicado en 1978, define nueve de las reglas más importantes de la teoría de Popper, estas son: 1. La naturaleza científica de una teoría se determina por su susceptibilidad a la falsación. 2. Una nueva teoría, para que sea aceptada, deberá siempre contener mayor contenido empírico que sus predecesoras. 3. Una nueva teoría aceptada debería ser capaz de explicar todos los éxitos pasados de sus predecesoras. 4. Las teorías deberían siempre ser contrastadas tan rigurosamente como sea posible. 5. Una teoría que ha sido experimentalmente refutada debería ser rechazada. 6. Cualquier teoría refutada no debería retomarse en una etapa posterior. 7. Una teoría inconsistente es inaceptable. 8. Deberíamos minimizar el número de axiomas por emplear. 9. Cualquier nueva teoría debería ser contrastable independientemente (Johansson, 1978b). Tiempo después, en el año 2008, el filósofo italiano Giorgio Agamben publica Signatura rerum, donde en el capítulo primero aborda a través de un recorrido histórico, no cronológico, el concepto de paradigma, a través del pensamiento de Foucault, en claro contraste con las teorías de Thomas Kuhn. 31 Parte I. Presentación del problema Para Foucault, el concepto de paradigma, al cual prefiere llamar ‘figura epistemológica’ o ‘umbral de epistemología’, designa “… los objetos de sus investigaciones –para distinguirlos de los de las disciplinas históricas–” (Agamben et al., 2010, pp. 4-11). En este sentido, según Dreyfus y Rabinow, el método de Foucault “consiste en describir los discursos como articulaciones históricas de un paradigma, y su modo de concebir el análisis implica que aísla y describe los paradigmas sociales y sus aplicaciones concretas”. Sin embargo, para Agamben, Michel Foucault, pese a mencionar la expresión paradigma, nunca llega a definirla con precisión, incluso en reiteradas ocasiones se distancia de la noción de este. En este sentido, el paradigma foucaultiano, “… es un caso singular que se aísla del contexto del que forma parte sólo en la medida en que, exhibiendo su propia singularidad, vuelve inteligible un nuevo conjunto, cuya homogeneidad él mismo debe constituir”, al transformarse en dos cosas al mismo tiempo: “…no sólo ejemplar y modelo, que impone la constitución de una ciencia normal, sino también y sobre todo ‘exemplum’, que permite reunir enunciados y prácticas discursivas en un nuevo conjunto inteligible y en un nuevo contexto problemático” (Agamben et al., 2010, pp. 4-11). Agamben establece seis características que definen el paradigma: en primer lugar, el paradigma no constituye una forma de conocimiento “… ni inductiva ni deductiva, sino analógica, que se mueve de la singularidad a la singularidad”; en segundo lugar, las nociones de paradigma neutralizan su “…lógica dicotómica por un modelo analógico bipolar”; en tercer lugar, el caso paradigmático “…deviene tal aturdiendo y, a la vez, exponiendo su pertenencia al conjunto, de modo que ya no es posible separar en él ejemplaridad y singularidad”; en cuarto lugar, el conjunto al cual se refiere el paradigma “…permanece inmanente a ellos”; en quinto lugar, no existe en el paradigma un origen mítico, “…todo fenómeno es el origen, toda imagen es arcaica”; finalmente, en sexto lugar, la historicidad del paradigma “…no está en la diacronía ni en la sincronía, sino en el cruce entre ellas” (2010, pp. 4-11). Kuhn y la Teoría de los Paradigmas El Concepto de Paradigma “… lo que antes de una revolución eran patos en el mundo del científico, son conejos después de ella” . (Kuhn, 1962, p. 213). 32 En su libro la Estructura de las Revoluciones Científicas, publicado 1962, Thomas Kuhn desarrolla, desde su teoría, fuertes cuestionamientos tanto a la epistemología del empirismo lógico como al falsacionismo de Popper. Estas teorías se basaban fundamentalmente en las tradiciones formalistas e historicistas que habían dominado la primera mitad del siglo pasado: personajes como Hanson, Lakatos, Feyerabend –junto con el mismo Kuhn–, formaron parte del movimiento que se denominó “filosofía histórica de la ciencia”, y desde distintas ópticas reflejaban “…el malestar frente a los límites del empirismo lógico y del racionalismo crítico” (Cortassa, 2013, pp. 1-13), que ejercía una importante influencia en el desarrollo de la filosofía de la ciencia. El positivismo lógico interpretaba el progreso de la ciencia como un hecho lógico, “…la investigación científica tenía un desenvolvimiento en gran medida acumulativo; así, cuando una teoría más amplia y más precisa reemplazaba a otra, los éxitos que se habían alcanzado no se abandonaban, sino que se incorporaban de algún modo a la nueva teoría” (Caldas Caldas, 2008, p. 12), de este modo las teorías probadas quedaban inmunes a los cambios posteriores. Sin embargo, a comienzos de la década de 1960, el empirismo lógico se vio enfrentado a los trabajos de Toulmin, Hanson, Feyerabend y Kuhn. Muchos eran los puntos que este nuevo grupo no compartía con la teoría precedente: desde el rechazo ante el análisis lógico como metodología para examinar el conocimiento científico, la dicotomía analítico-sintética y, una de las más importantes, la negación de una base empírica neutral: Marcelo A. Fraile - Arquitectura biodigital “…se dejó de lado el papel prioritario de la lógica para acentuar la importancia de los factores sociológicos e históricos para el desarrollo de la ciencia” (Caldas Caldas, 2008, p. 12). En efecto, en sus estudios sobre la historia de la ciencia, Kuhn había detectado un fuerte contraste entre dos concepciones de la ciencia: por un lado, se encontraba una concepción denominada formalista, que entendía la ciencia como una actividad racional, definida fundamentalmente por el Círculo de Viena; y por el otro, una concepción denominada “historicista”, que correspondía con una ciencia entendida como una actividad concreta, definida por su hacer a través de los siglos y que presentaba en cada época peculiaridades y características propias. Sin embargo, debido a reformulaciones teóricas, durante la década del 90, Kuhn se apartaría de estas concepciones filosóficas. Pero regresemos a la Estructura de las Revoluciones Científicas, en este libro Kuhn desarrolla el concepto de paradigma. Para el filósofo estadounidense, el paradigma puede ser entendido como aquellos “…logros científicos universalmente aceptados que durante algún tiempo suministran modelos de problemas y soluciones a una comunidad de profesionales” (1962, p. 50). Es una forma de percepción y explicación del mundo, “…que constituye los modelos para la investigación científica” (Castano Carreño, 2009, pp. 33-60) y puede ser aplicado “… a todo aquello que esté sujeto al consenso de una determinada comunidad científica” (2009, pp. 33-60). Para el físico investigador, la ciencia puede explicarse a través de dos etapas. La primera, denominada “ciencia normal”, se caracteriza por una búsqueda científica que intenta dilucidar las respuestas a los problemas producidos dentro de un determinado marco teórico. Este ha sido establecido por la comunidad científica y está en relación con el paradigma vigente. La segunda etapa, denominada “ciencia revolucionaria”, se genera una vez que el período de ciencia normal entra en conflicto ante la aparición de una o varias situaciones refutatorias denominadas “anomalías”. Esta situación produce la inestabilidad y crisis del modelo, para finalmente romper con la tradición de la ciencia normal al no poder encontrar elementos dentro del paradigma que le permitan solucionar los problemas existentes. Se inicia de este modo la transición a lo que se conoce como “ciencia extraordinaria”. La situación da origen a un nuevo paradigma y a una nueva ciencia “considerada” ahora normal. En este sentido, conviene aclarar que no todas las anomalías son generadoras de crisis. Por lo general, un paradigma está repleto de anomalías. Pero algunas de estas, dado su poco efecto, son generalmente explicadas por la ciencia normal y descartadas sin llegar a ocasionar conflicto; sin embargo, otras –las menos–, provocan molestias en la comunidad científica, casi siempre por razones pragmáticas y agudizadas por condiciones externas: la inhabilitación de una aplicación práctica y significativa, el contraste con algún principio fundamental de las teorías que contiene el paradigma, o cualquier otra cuestión similar que será el preludio en la búsqueda de nuevas anomalías más profundas, lo que conducirá al colapso del paradigma. El cambio es revolucionario, ataca las evidencias más sustanciales y modifica las bases de la cultura. “Es una transformación del modo de pensar, del mundo del pensamiento y del mundo pensado” (Morin & Sánchez, 1992, p. 237). No existe un momento exacto, ni un hecho puntual aislado, ni son hechos acumulativos los que generaran esta crisis. En realidad, se trata de “…un proceso intrínsecamente revolucionario que rara vez lleva a cabo una sola persona y nunca de la noche a la mañana” (Kuhn, 1962, p. 65). En esencia, los paradigmas no se presentan inicialmente de un modo acabado o perfectamente definido. Previamente deben pasar por una etapa denominada preparadigmática, que se caracteriza fundamentalmente “…por la carencia de un marco teórico sólido que afiance y guíe el paradigma en cuestión” (Kuhn, 1962, p. 65). Con el tiempo, este modelo evoluciona hasta elaborar la ciencia normal que será practicada por toda la comunidad científica. En este sentido, la ciencia normal, estará “…dirigida a resolver problemas de acuerdo con las herramientas conceptuales e instrumentales de las que dispone el paradigma” (p. 65). En este proceso, “…no tiene por qué explicar todos los hechos a los que se enfrenta y de hecho nunca lo hace” (p. 81). Aunque es claro que el éxito 33 Parte I. Presentación del problema de una teoría dependerá del mayor o menor acierto que tenga a la hora de resolver los problemas “…que el grupo de científicos practicantes considera urgente” (p. 89). En otras palabras, en su teoría, Kuhn, canoniza los libros, transformándolos en una herramienta “…pedagógica inobjetable” (1962, p. 89). Es en estos donde se recopilan los logros de una determinada disciplina, lo que permite que los científicos, por medio de analogías o semejanzas, puedan buscar la solución a los problemas generados por la ciencia normal. Sin embargo, en general los libros tardan en darse cuenta de los cambios ya que, como vehículo pedagógico, deben reescribirse luego de cada revolución científica. Durante ese período de ciencia normal, los científicos no ponen a prueba las teorías, ni buscan confirmarlas, por el contrario, buscan proponer soluciones a los problemas que van surgiendo en la investigación normal, dentro del paradigma. Es bien claro que este proceso de anomalía, crisis, revolución y nuevo paradigma, permite la renovación científica, al responder a los interrogantes que el mismo paradigma va generando. Y si bien pareciera que, en la mayoría de los casos, las teorías recién enunciadas no sobreviven (Kuhn, 1982, p. 356), durante la crisis los científicos tratarán constantemente de engendrar nuevas teorías para resolver las nuevas anomalías y, de tener éxito, podrán “…descubrir el camino que conduzca a un nuevo paradigma” (Kuhn, 1962, p. 179). Cada revolución altera el mundo, sin embargo, “…hay circunstancias, aunque esporádicas, en las cuales pueden coexistir pacíficamente dos paradigmas” (Kuhn, 1962, p. 52). En este sentido, Kuhn “…deja de lado la individuación y el examen de las reglas que constituyen una ciencia normal para concentrarse en los paradigmas que determinan el comportamiento de los científicos” (Agamben et al., 2010, p. 15) y, de este modo, “separa la ciencia normal del sistema de reglas que la definen” (2010, p. 15). Durante este proceso, la percepción que el científico tiene del mundo también va a cambiar; su mirada con el tiempo será “…reeducada” (Kuhn, 1962, p. 176), para aprender a ver las nuevas formas del paradigma y descubrir un mundo incomparable con el anterior. En este sentido, la tecnología ha desempeñado a menudo una función vital en el surgimiento de nuevas ciencias. 34 La revolución destruye la continuidad del antiguo paradigma, “…las nuevas aseveraciones e ideas no se pueden comparar rigurosamente con las anteriores. Incluso si recurren al mismo vocabulario, su significado ya no es el mismo” (Hacking, 2012, pp. 6-12), no existe alguna medida común que permita evaluar o comparar uno con el otro. Esto es lo que Kuhn llama inconmensurabilidad: término formulado conjuntamente por Kuhn y Feyerabend, en 1962, y que significa “sin medida común”; heredado de la geometría, se refiere a la imposibilidad de establecer relaciones y comparaciones entre magnitudes diferentes. En consecuencia, cada paradigma posee su propio marco de definición e instrumentos, y establece el nivel de percepción: “…vemos las cosas (los fenómenos de la naturaleza) de manera distinta” (Castano Carreño, 2009, p. 33), y por lo tanto no pueden compararse de manera directa. A través del concepto clave de la inconmensurabilidad, Kuhn centrará su objetivo en atacar la concepción acumulativa del desarrollo científico de Popper. Posteriormente, durante los años setenta, Kuhn, intentaría precisar con mayor detalle el término, restringiendo todavía más su significado: para el filósofo estadounidense, dos teorías serían inconmensurables “…cuando están articuladas en lenguajes que no son completamente traducibles entre sí” (Pérez Arnal, 2003, p. 86), sin las consiguientes pérdidas. Bajo un relativismo científico, Kuhn pone en crisis un modelo que había perdurado durante años, donde la investigación se basaba en “…la elección de teorías como una actividad gobernada por principios autónomos y universales de racionalidad” (Caldas Caldas, 2008, p. 5). Kuhn critica el carácter neutral de la observación, Marcelo A. Fraile - Arquitectura biodigital para él, no se puede determinar si una teoría es mejor que otra, ya que los criterios de valoración son relativos y dependen del científico. Un cambio de paradigma es “análogo a un cambio gestáltico”, los mismos objetos se ven desde una perspectiva distinta. En esencia tienen un aspecto destructivo, “…y las teorías sucesoras, a pesar de ser globalmente más exitosas que sus antecesoras, con frecuencia no pueden reproducir todos los logros explicativos de éstas” (Pérez Ransanz, 1999, p. 86). Por esta razón, en principio, serán los jóvenes investigadores quienes estén abiertos a los cambios; nace un nuevo vocabulario de nuevas herramientas. Con el tiempo, las antiguas academias desaparecerán y sus miembros se reconvertirán al nuevo paradigma, sin embargo, algunas personas se aferrarán a “…los viejos puntos de vista y simplemente [serán] eliminadas de la profesión” (Kuhn, 1962, p. 226). Redefiniendo términos: Matriz Disciplinar “… el científico que abraza un nuevo paradigma es como la persona que lleva lentes inversoras. Aunque se enfrenta a la misma constelación de objetos que antes, y sabe que es así, con todo los encuentra transformados completamente en muchos de sus detalles”. (Kuhn, 1962, p. 226). En 1965, la lingüista y filósofa británica Margaret Masterman (1910-1986) presentó en el Coloquio Internacional sobre Filosofía de la Ciencia, celebrado en Londres, un ensayo titulado The Nature of a Paradigm3, en el que desarrolla las veintiuna maneras en que Kuhn emplea la palabra paradigma dentro de sus obras, “… poniendo en evidencia la polisemia con la que el propio Kuhn había utilizado el término paradigma”. Masterman analizó cuidadosamente cada una de las definiciones y las agrupó en tres categorías: la primera, denominada Metafísica o Metaparadigmática, aborda cuestiones filosóficas fundamentales; la segunda, denominada Sociológica, está referida a logros científicos o a las estructuras político-institucionales; y finalmente la tercera, Constructora, se refiere a las herramientas, modelos, lenguaje y reglas de la investigación científica (González, 2005, pp. 13-54). Estas circunstancias obligaron a Kuhn a escribir, en 1969, Algo más sobre los paradigmas4, en donde corregiría y ampliaría su teoría al establecer dos categorías para los paradigmas: una global y otra local. “La primera categoría se basa en la idea de comunidad científica, la segunda está integrada por diversos tipos de ejemplos” (Hacking, 2012, pp. 6-12). De este modo, la palabra paradigma quedaba circunscripta a dos significados: por un lado, “…como un logro, …una forma nueva y aceptada de resolver un problema en la ciencia, que más tarde es utilizada como modelo para la investigación y la formación de una teoría” (González, 2005, pp. 13-54); y, por otra parte, “…como una serie de valores compartidos, …un conjunto de métodos, reglas y generalizaciones utilizadas conjuntamente por aquellos entrenados para realizar el trabajo científico de investigación, que se modela a través del paradigma como logro” (González, 2005, pp. 13-54). Hoy, lamentablemente, la palabra paradigma se ha banalizado y es usada casi en todos lados; algo de lo que se lamentara Kuhn, en la posdata de la publicación de la Estructura..., de 1969: va a reemplazar el concepto de paradigma, por el de matriz disciplinar, “…disciplinar porque alude a la posesión común por parte de los que practican una disciplina concreta, y matriz porque se compone de elementos ordenados de varios tipos, cada uno de los cuales precisa una especificación ulterior” (Castano Carreño, 2009, pp. 33-60). 3. Masterman, M, (1975) “La naturaleza de los paradigmas”. En I. Lakatos y A. Musgrave (Eds.), La crítica y el desarrollo del conocimiento, México: Grijalbo. (Original publicado en 1970 por la Cambridge University Press bajo el título “The Nature of a Paradigm” en I. Lakatos y A. Musgrave (Eds.), Criticism and thegrowth of Knowledge. 4. Que forma parte de la selección de artículo que Kuhn incluyó en La tensión esencial. Estudios selectos sobre la tradición y el cambio en el ámbito de la ciencia, de 1977 (edición consultada México, Fondo de Cultura Económica, 1996). 35 Parte I. Presentación del problema En este sentido, Kuhn “…se refiere al grupo de científicos como la unidad social que reconoce y comparte un logro paradigmático” (González, 2005, pp. 13-54), y es precisamente allí, señala el filósofo francés Edgar Morin (1921), en donde se encuentra la genialidad de Kuhn, al descubrir bajo un presupuesto “…un fondo colectivo de evidencias ocultas e imperativas que el denominó paradigmas”, sosteniendo además “…que las grandes transformaciones de la historia de la ciencia se habían constituido mediante revoluciones paradigmáticas” (1992, p. 217). En su concepción, continúa Morin, Kuhn presentará un presupuesto que tendrá características duales, enérgicas e indefinidas: enérgicas, porque presentan el paradigma con un “…valor radical de orientación metodológica, [conformando] esquemas fundamentales de pensamiento, presupuestos o creencia que tienen un papel clave, …dominador sobre las teorías” (1992, p. 222); e indefinidas, porque oscilarán “…entre sentidos diversos que, in extremis, cubren de forma vaga la adhesión colectiva de los científicos a una visión del mundo” (1992, p. 217). Fenómenos a los que se enfrentarán los jóvenes científicos en su trabajo de resolución de los enigmas que plantea la naturaleza de la ciencia bajo una utilización práctica, una racionalidad lógica e instrumentalista, que amplían la capacidad para resolver enigmas y llegar cada vez más cerca de la verdad. Para Kuhn, se hace indispensable la sociabilización de los logros, de los hallazgos, como un elemento clave para la generación de los cambios paradigmáticos en el mundo científico. En este “…combate permanente entre lo que existe históricamente y lo que hoy se considera moderno” (Zátonyi, 2007, p. 24), en esta lucha encarnizada, ya nadie podrá discutir que cincuenta y seis años después de la publicación de La estructura de las revoluciones científicas, el texto todavía sigue vivo, y marcó una nueva etapa en la historia de la ciencia y la filosofía. En sus textos, Kuhn defiende que el progreso científico no puede establecerse en términos de búsqueda de la verdad última, sino en un proceso sucesivo y en constante evolución producido a lo largo de la historia. Un proceso que se caracteriza por alcanzar una comprensión cada vez más detallada y refinada de la naturaleza; una disciplina científica que pasa por etapas hasta alcanzar su edad madura, desarrollada, consensual, paradigmática. En este sentido, su mirada es contraria a la visión de Karl Popper, ya que para este, la historia de la ciencia es la historia de las continuas “conjeturas y refutaciones”, razón por la cual obligaría a encontrarnos en un estado de revolución permanente. 36 En Kuhn se encuentra el germen del concepto de cambio científico ligado a una epistemología evolucionista, donde el progreso tiene lugar solo en ocasiones, cambios abruptos, absolutamente discontinuos, que ponen en crisis las hipótesis, por lo que sobreviene una revolución. Es lo que Kuhn ha denominado switch gestáltico, donde las teorías y los problemas anteriores son olvidados (las “pérdidas kuhnianas”), para ser reemplazados por otros nuevos, siguiendo una línea no uniforme de resultados. Pese al tiempo transcurrido, los aportes desarrollados por las teorías de Thomas Kuhn son tan importantes que aún hoy subsisten, en el seno de la ciencia, acaloradas discusiones que buscan desentrañar nuevas perspectivas de análisis que permitan en el futuro generar una apertura de pensamiento y producción científica, que contribuya no solo a nuevos conocimientos, sino también a cambios cualitativos en los anteriores. Marcelo A. Fraile - Arquitectura biodigital Las Hipótesis de Pepper El filósofo de la ciencia de origen americano, Stephen Pepper (1891-1972), reconocida autoridad en cuestiones estéticas, axiológicas y metafísicas, publicó en 1942 un libro titulado World Hypotheses: A Study in Evidence (Hipótesis del Mundo: un estudio en evidencia), en donde desarrolla una serie de modelos básicos o “hipótesis” aplicados en la observación de los fenómenos del mundo occidental: un “…intento de caracterizar unas formas paradigmáticas de explicación histórica [de la realidad] como argumento discursivo” (Rosa, Huertas, Blanco, & Travieso, 1999, pp. 49-75), que toma como base la analogía lingüística, expresada a través de la metáfora. En este sentido, las metáforas son creaciones poéticas que permiten encontrar respuestas a preguntas abstractas, cosificadas, “…congeladas en patrones de creencias rígidos” (Botella, 1994). Una postura metafísica, “…que constriñe y a la vez demarca los modelos filosóficos o científicos aplicables a la observación e interpretación del mundo fenoménico” (Botella, 1994). Para Pepper, los sistemas filosóficos se establecen desde una determinada cosmovisión o hipótesis del mundo. Cada una de estas hipótesis se caracteriza por tener dos elementos compositivos: una metáfora raíz y un conjunto de categorías o criterios de verdad (Álvarez, 2006, pp. 1-12). La metáfora raíz es el enfoque mediante el cual el observador intenta definir, comprender y clasificar el mundo en el que habita, de acuerdo a cómo se le presenta en el contexto. Para el psicólogo americano Theodore Sarbin, las metáforas de raíz son utilizadas por los seres humanos como una “…forma de dar sentido a una experiencia novedosa para la que de momento no disponemos de constructos personales diferenciados [permite] reconocer alguna similitud parcial entre el nuevo evento y otros que resulten más familiares” (Botella, 1994); en tanto que un criterio de verdad se refiere a las descripciones del mundo en su totalidad que, posteriormente a su análisis, se le extraen los elementos más relevantes para evaluar la validez de sus objetivos o metas. Para que, en caso de no ser válidos, sean descartados, y el análisis vuelva al inicio, buscando obtener una nueva explicación que le posibilite ahora sí cumplir sus objetivos. En este sentido, para Pepper, una hipótesis cosmológica es “…una hipótesis de alcance ilimitado” (1942, pág. 77), es decir, un “constructo nuclear que constituye la metateoría implícita de la que se derivan las proposiciones teóricas e hipotéticas subordinadas” (Botella, 1994). Sin embargo, conceptualmente, las “hipótesis” de Pepper difieren del estricto concepto científico de hipótesis, en cuanto a la precisión y gama de elementos considerados: en sus teorías, Pepper ignora detalles y desarrolla algunos conceptos con un sentido común, utilizando para ello sus propios términos para describir la mayoría 37 de los principios, abstraído de los detalles, evitando el exceso de significado. En sus escritos, cita muy poco. Es por ello que nosotros utilizaremos la palabra hipótesis como un sinónimo del término de visión del mundo. Cada hipótesis del mundo, es autónoma, y aunque en conjunto es un intento por proporcionar una visión completa del mundo, individualmente crea sus propias reglas, lo que permite una y solo una interpretacion de cada evento de acuerdo a esas reglas, presentado una vision particular en el modo de entender el espacio del hombre. Conceptualmente, esto quiere decir: primero, que no podrá utilizarse una de estas hipotesis del mundo para analizar o criticar a otra teoría del mundo, esto es “ilegítimo e inherente” –para el profesor Arthur Efron, existen buenas razones para creer que muchas de las ideas de Thomas Kuhn derivaron de la obra de Pepper, en especial su teoría sobre inconmensurabilidad (1980)–; segundo, que cada una de estas hipótesis se revela contrastante ante las deficiencias de otra; y tercero, que cada hipótesis implica un conjunto de diferentes categorías conceptuales, muchas de estas, contradictorias. Pepper considera que las hipótesis del mundo son típicamente aprendidas, con conocimiento cognitivo o sin este. El individuo utiliza estas creencias para proveer de sentido a su vida y a la naturaleza. Pese a no ser reconocidas completamente por los científicos, estas creencias genéricas o “metáforas raíces” llegan a ser una fuente importante de sus investigaciones y teorías. Parte I. Presentación del problema Las cuatro visiones del mundo En un intento por dar una explicacion del mundo, Stephen Pepper establece cuatro visiones del mundo que provienen de cuatro metáforas de raíces diferentes, cada una con su propio estilo de pensamiento. Estas cuatro hipótesis son: el formismo, el mecanicismo, el organicismo y el contextualismo. Las hipótesis se encuentran ordenadas desde la más simple (formismo) hasta la más compleja (contextualismo). La primera de las hipótesis es el formismo y los modelos de categorías. Considerada por Pepper como la más básica de las hipótesis del mundo. Tiene como metáfora raíz la similitud, esto implica la repetición de una forma reconocible: contempla una única mirada, una única posibilidad, una verdad incuestionable, es lo uno o lo otro. En su forma de mirar “ prejuiciada del mundo” (Schwartz & Russek, 2012, pp. 7-23), considera a las demás visiones equivocadas, no existiendo más opciones que la suya. Una percepción de dos aspectos diferentes de ese evento, pero que no pueden experimentarse de forma independiente: “…en blanco y negro: las cosas son blancas o negras, estás conmigo o contra mí, no hay más opciones” (Gonzalez Pereda, 2012, p. 56). Bajo una mirada platónica del mundo supraterrenal, perfecto y atemporal, busca la esencia de las cosas a través del conocimiento y la virtud: el formismo considera que la naturaleza está compuesta por categorías independientes de estructuras y funciones. Es decir, que tanto las cosas como los procesos son categorías separadas y distintas. En su investigación, busca identificar las leyes o normas que identifiquen las características específicas de los objetos, de este modo, “…Cuanto más similar sea la definición… más válida se considerará” (Álvarez, 2006). En este sentido, tienen una preferencia por el campo histórico y el significado de sus procesos “…no soportan mucho peso como proposiciones que puedan ser confirmadas o refutadas por medio de datos empíricos” (White & White, 1992, pp. 9-50). Una explicación formista “…se considera completa cuando un determinado conjunto de objetos ha sido adecuadamente identificado y se les ha asignado su clase, su género y los atributos específicos que atestiguan su particularidad” (Rosa et al., 1999, pp. 49-75). La segunda de las hipótesis es el mecanicismo y los modelos de causa y efecto. Tiene como metáfora 38 raíz la máquina, cualquier máquina. Se trata de una hipótesis más compleja que la anterior. Su teoría se enmarca dentro de lo que podríamos denominar “mecanismo universal”, donde el funcionamiento del mundo, por analogía, puede ser considerado como un gran mecanismo matemático, complejo y cerrado: lo que implica que este está formado por partes que interactúan entre sí de un modo determinado. Comúnmente asociada a la física newtoniana, provee los fundamentos de una ciencia clásica que plantea una teoría analítica del mundo, una realidad mecánicamente condicionada y estructurada por el tiempo y el espacio. Su metáfora de raíz presenta una vinculación con el materialismo y el reduccionismo, donde el universo se sujeta a principios que vienen de la física, de las leyes “mecánicas”, donde los elementos o sucesos aislados funcionan como engranajes hacia una dirección determinada, una cadena de relaciones, donde todo tiene una explicación causa-efecto: “…supone que cada cosa en la naturaleza tiene una causa y que en cada caso la causa precede al efecto” (Schwartz & Russek, 2012). El mecanicismo intentará descubrir las leyes que gobiernan el mundo, ambicionando describir el efecto de esas leyes, y donde el espacio y el tiempo tendrán gran importancia en ello. En este sentido, aceptan las nociones de causalidad lineal, unidireccional e independiente de las variables: un análisis lógico de la realidad como una colección de sistemas cerrados. Desde esta perspectiva, la Tierra es una extensión por conquistar y controlar, sin cabida para el mito. Una concepción analítica que concibe la naturaleza como producto de una transmisión de fuerzas. El pensamiento Marcelo A. Fraile - Arquitectura biodigital mecanicista busca explicaciones causales de los fenómenos, encontrar las leyes que los gobiernan, pues los considera productos específicos de estos (Botella, 1994). Bajo un carácter integrador, la metáfora mecanicista ve al universo como un conjunto bajo el cual el todo y sus partes se corresponden. Una máquina que produce sus resultados de acuerdo a la energía aplicada sobre esta: diferentes fuerzas producen diferentes resultados, el objetivo es descubrir las piezas y las relaciones entre estas. La tercera de las hipótesis es el organicismo y los modelos relacionales. Una de las más completas y acabadas hipótesis del mundo. Su hipótesis de raíz considera el ambiente como una fuerza dominante. Bajo este supuesto, Pepper ve el mundo como un gran órgano viviente, un proceso de compleja evolución en el tiempo. Un sistema de partes que se conforma para generar otro sistema aún mayor: “el todo es mayor que la suma de las partes”. A través de este proceso, cada fenómeno es interdependiente; para comprender cualquiera de estos, se hace necesario considerarlo en su evolución. Una interacción de múltiples transformaciones, y estructuras que crecen en complejidad a través de un proceso de integración (Álvarez, 2006). El paradigma organicista, a diferencia del anterior, considera la naturaleza como causa de múltiples efectos: “…las cosas (formas) pueden ser vistas como un todo desde un punto de vista y como una parte desde otro punto de vista (contexto)”. En este sentido, “las cosas pueden ser parte de múltiples categorías, y las cosas pueden tener múltiples funciones en múltiples niveles” (Schwartz & Russek, 2012). Bajo una actitud romántica, que intenta presentar un proceso global integrador, tiende a analizar los principios individuales donde los procesos son tomados como un todo: un sistema de cosas interconectadas e interdependientes en distintos grados. Todas las cosas reflejan una interacción de múltiples estructuras y componentes. Una estrecha relación entre el microcosmos y el macrocosmos. Es el “holón”, acuñado en 1978 por el filósofo húngaro Arthur Koestler (1905-1983) para referirse a esa cosa que es a la vez un todo compuesto de partes y una parte que conforma un todo más grande (Schwartz & Russek, 2012). La hipótesis organicista, “…No elige entre una explicación u otra, sino que integra todas y ‘algo más’ surgido de su suma. De creciente popularidad, la hipótesis organicista es reconocida por su asociación con las ciencias informáticas, ambientales y neurociencias. “Provee los fundamentos para la teoría de la información, la teoría de la autorregulación, la teoría de la complejidad, y la teoría del caos (incluyendo el efecto mariposa)” (Schwartz & Russek, 2012). La cuarta de las hipótesis es el contextualismo y los modelos relativistas. Tiene como metáfora raíz la relación de los sujetos con los acontecimientos históricos. Centrado en el sujeto, el contextualismo reconoce que existen diferentes formas de interpretar el mundo de acuerdo a los factores y al contexto que se consideren. Niega la existencia de una única respuesta (que proponía el formismo), y la supuesta cadena de causa-efecto (propuesta por el mecanicismo). Para el contextualismo, cada fenómeno de la naturaleza puede tener diversas explicaciones, todas las visiones son limitadas, dependiendo estas del punto de vista del observador. En este sentido, “… todas las percepciones y, por lo tanto, todas las observaciones no son completas. Ellas son determinadas por la percepción selectiva del observador y las interacciones del observador con el objeto de interés” (Schwartz & Russek, 2012). En su investigación, el contextualismo niega la existencia de lo absoluto y de los acontecimientos aislados. Una visión que implica la existencia de muchas formas de ver cualquier fenómeno, dependiendo del contexto: “…tienen en cuenta las múltiples capas constitutivas de la realidad” (Botella, 1994). 39 Parte I. Presentación del problema Para la hipótesis contextualista, el mundo está constituido por diferentes efectos simultáneos e interrelacionados: “El por qué ocurrió lo que ocurrió se explicará mediante la puesta de manifiesto de las interrelaciones funcionales entre acontecimientos dentro del espacio histórico que le rodea” (Rosa et al., 1999, pp. 49-75). La vivencia de los hechos aportará una intensidad única e intransferible entre personas que observan el mismo fenómeno. Pepper desarrolló dos nuevas etapas, pero con un nivel secundario: el misticismo y el animismo. Tiempo después, las desestimó al considerarlas inadecuadas por carecer de “precisión en el trato de los hechos individuales”. Resumen, críticas y respuestas Para Pepper las dos primeras hipótesis, formismo y mecanicismo, corresponden con el paradigma de la ciencia clásica, poseen un carácter analítico, implican un análisis del mundo bajo una teoría atomista, reducible a sus partes. Una subordinación del análisis a la síntesis, es decir, una descomposición y reducción de sus componentes a fin de ser comprendidos plenamente; en tanto que las dos hipótesis restantes, organicismo y contextualismo, se corresponden con la ciencia moderna, consideran la síntesis sobre el análisis, al descomponer el fenómeno en subcomponentes, alterando indefectiblemente su integridad esencial y su comprensión. De igual forma, Pepper considera las hipótesis formista y contextualista como teorías disgregantes del mundo, en tanto que las hipótesis mecanicistas y organicistas son teorías integrativas del mundo. En los últimos años, dado el creciente interés que despertaron las teorías de Pepper, diversos investigadores contemporáneos han publicado un número creciente de trabajos relacionados con las posibles secuencias evolutivas de las categorías propuestas en World Hypotheses: A Study in Evidence. Y aunque el libro no trata sobre arquitectura, sus categorías conceptuales pueden ser utilizadas para iluminar algunas categorías dentro de la arquitectura contemporánea. 40 Uno de los trabajos al respecto es el de la arquitecta colombiana Beatriz García Moreno: “La ciudad de los deseos” (2005), que utiliza como referente importante el pensamiento de Stephen Pepper: “Cuatro visiones del mundo en las cuales [se] agrupa el pensamiento occidental, [abriendo] la[s] posibilidad[es] de entender que hay epistemologías diferentes, lógicas diferentes, dominantes unas u otras en diferentes momentos históricos, que conllevan posturas específicas para el acercamiento y desciframiento de la arquitectura” (2006, pp. 31-39). Visiones que permiten examinar en correspondencia con el pensamiento y la política, y posibilitan el seguimiento de las teorías y creencias dominantes. La teoría de Estévez En 1998, el profesor Alberto Estévez, en su artículo “Arquitectura Biomórfica”, propone lo que él llama la primera historia de la arquitectura genética. En un desarrollo cronológico, Estévez establece tres estadios de evolución de la arquitectura: el pasado clásico, el presente moderno y el futuro genético. Paralelamente, en cada uno de estos estadios, Estévez identifica cuatro factores de análisis que le permiten vincularlos transversalmente. Estos factores o sistemas son: el sistema formal, el sistema estructural, el sistema material y el sistema procesual o sistema de producción. Marcelo A. Fraile - Arquitectura biodigital El pasado clásico Sitúa su origen hacia el año 2.800 a.C. en los rastros descubiertos en Saqqara, Egipto, y se desarrollará hasta finales del siglo XIX, más precisamente con las obras del Art Nouveau (fin del historicismo) y de la modernidad del siglo XX. Este primer estadio muestra un sistema formal verticalizante, con estructuras a la compresión. Utiliza un sistema material de piedra, ladrillo y madera. Su sistema de producción es manual, donde cada pieza puede ser individual, distinta o igual. Desde las edificaciones de Imhotep en Egipto, se suceden griegos y romanos en un desarrollo cronológico de una arquitectura calificable como arquitectura de los estilos históricos. Su origen es una “…construcción biomórfica [que acaba] siendo una especie de conjunto de reglas abstractas, que ya no tienen nada que ver más que con la pura composición formal” (Estévez, 2005, pp. 18-80), dictadas formalmente por las normas de la academia, en una fidelidad a Vitruvio y los renacentistas. Desfilaron en pocos años los neoclásicos, neorrománicos, neogóticos, neorrenacentistas, neobarrocos, cerrando por el momento el ciclo de revival en la arquitectura (Estévez, 1996, pp. 281-296). El presente moderno Sitúa su origen a fines del siglo XIX y principios del XX, con las obras del Art Nouveau y del Movimiento Moderno, y se desarrolla hasta principios del siglo XXI, más precisamente con la aparición de las primeras obras biodigitales (biológicas o digitales) como el pabellón l´Orme, de Bernard Cache, de 2001, y el Proyecto Barcelona Genética, de Alberto Estévez, iniciado en 2003. Este segundo estado muestra un sistema formal horizontalizante y estructuras a la tracción. Utiliza un sistema material de hormigón, acero y plástico, y su sistema de producción se realiza a través de máquinas automatizadas en series de piezas todas iguales. “Nuevos materiales permiten nuevas técnicas, ofrecen otras libertades espaciales y formales, distintos lenguajes arquitectónicos en evolución” (Estévez, 2003, pp. 4-19)5. Es una arquitectura que abandona y rompe los modelos historicistas del pasado “…a cambio del uso más o menos figurativo, más o menos literal de la naturaleza, como novedosa fuente de inspiración o de decoración”, como en el caso del Art Nouveau. En su búsqueda por descubrir un nuevo lenguaje más acorde con la arquitectura moderna, surgen “…maneras llenas de sugerentes libertades para romper con la arquitectura clásica” (2005, pp. 18-80). En el capítulo “De Gaudí a Calatrava: sobre el bando perdedor”, Estévez enuncia tres fases en relación con este desafío: En la primera, situada a fines del siglo XIX, la iglesia de la Sagrada Familia o el Palacio Güell de Antoni Gaudí son ejemplos del “…rompimiento con la tradición clásico-historicista y en la invención de una nueva tradición”. Bajo una “…geometría reglada alabeada, de doble curvatura”, desarrolla una audaz arquitectura biomórfica. Muy cerca se encuentran, por ejemplo, Víctor Horta, Henry Van de Velde, Hector Guimard, August Endell, Otto Wagner, Josef Hoffmann, Josef María Olbrich y tantos otros, desarrollando también una arquitectura “…donde el hierro ya danza liberado a sus anchas”. La segunda fase se desarrolla entre los primeros años del siglo XX y el final de la Primera Guerra Mundial. “Desde Bruno Taut, con sus… Glashaus (1914), pabellón de cristal para la exposición del Werkbund, en Colonia, lleno de la fuerza contenida de un etéreo brote vegetal o del capullo de una flor a punto de abrirse” pasando por Erich Mendelsohn y sus “edificios vegetales (1917-1920)”. 5. Todas las citas que aparecen a continuación refieren a este texto. 41 Parte I. Presentación del problema En correspondencia con esta fase, Estévez planteará en su texto el nacimiento de dos bandos enfrentados. Por un lado, los racional-funcionalistas, de la mano de Hermann Muthesius que busca una estandarización y “…cuyo trabajo podía calificarse con los adjetivos ya vistos (funcional, económico, objetivo, material, tectónico, realista, nunca simbólico), acercándose a lo apolíneo, racional, ordenado”; y, por el otro, los sentimental-orgánicos, representado por Henry Van de Velde, con una arquitectura “…que tocaba su opuesto en lo dionisíaco, sentimental, rico en fantasía (y dado a lo simbólico, literario, subjetivo, hasta utópico, onírico, orgánico, expresivo), ¡pero también funcional!, viendo en la naturaleza un extraordinario modelo”. Dos bandos, pero con un mismo enemigo común: el historicismo. Deslumbrados por el maquinismo y la Neue Sachlichkeit, seguirá el período de entreguerras, en los años 20 y 30, desarrollando una arquitectura “…moderna en el mundo entero… claramente dominada por el racionalismo funcional, degenerado en el sucedáneo tópico y barato que ha colmatado tristemente todas nuestras ciudades”. La tercera fase se ubicará al finalizar la Segunda Guerra Mundial, donde Frank Lloyd Wright será uno de los exponentes más radicales, “…hasta llegar últimamente en los años noventa a los peces y serpientes de Frank Gehry y a los ojos y pájaros de Santiago Calatrava”, con un interés por el movimiento que incorporaría “…partes dinámico-plásticas. A veces mediante un estudio de la plegabilidad de determinados elementos arquitectónicos”. Para Estévez, el problema comenzó cuando se consideró a lo funcional “…como una de las máximas aspiraciones de la modernidad, en detrimento de todos los demás intereses”. Esto culmina con la figura de Le Corbusier, bajo la falsa confusión mediante la cual “… los que no seguían la línea racional no tenían preocupaciones sobre la función”. Un estigma difícil de borrar aún hoy, donde todo edificio no racional-funcionalista queda “… automáticamente bajo sospecha de no ser ‘moderno’”. Y el siglo Bilbao”. XX culminará con el Museo Guggenheim de Frank Gehry, “…plateada ballena varada en la ría de El futuro genético Sitúa su origen a comienzos del siglo XXI, más precisamente a partir del año 2000, con la creación de la línea de investigación “Arquitecturas Genéticas”, de la Universitat Internacional de Catalunya, que estudia la aplicación de manera concreta de la genética a la arquitectura. 42 Este tercer estadio tendrá un sistema formal organizante de estructuras vivas. Utilizará un sistema material de vegetales, carnes y huesos. Su sistema de producción será la máquina automatizada de piezas distintas y de crecimiento natural. Un sinnúmero de nuevas posibilidades técnico-digitales posibilitarán “…fabricar piezas reales, a escala 1:1, …de manera directa, ya ‘ni modelos, ni moldes’”. Un enfoque que posiciona las nuevas vanguardias de la arquitectura, en una situación consolidada en el “organicismo digital”: “Nuevos materiales, nuevas herramientas, nuevos procesos, deben dar necesariamente nuevas arquitecturas”. Asistimos a un nuevo modo de proyectar ecológico-medioambiental, postulado por la arquitectura biológica, con un enfoque multidisciplinar que mira a la genética como fuente de inspiración para la creación de nuevos entornos. Una “…exploración morfológica hecha en torno a pieles y membranas ilustran donde la tensegrity se hace orgánica”. Las nuevas realidades científico-tecnológicas posibilitan hoy traspasar la frontera de lo material, “…y descender a un nivel de acción molecular, incidiendo incluso en el diseño genético, en las cadenas de programación que luego desarrollan por si solas elementos vivos naturales”. Arquitectos que se asemejan a genetistas, “creadores de razas de edificios”, en un proceso similar al de cualquier arte “…solo que, cambiando el óleo, el bronce y la piedra por cadenas de ADN”. Marcelo A. Fraile - Arquitectura biodigital Puede decirse “…que genética es la nueva arquitectura en los comienzos del tercer milenio”. Para Estévez sus primeros representantes serían Bernard Cache, Karl S. Chu, Dennis Dollens, Evan Douglis, Mark Goulthorpe, Neal Leach, Greg Lynn, Marcos Novak, Kas Oosterhuis, François Roche, Lars Spuybroek y Mike Weinstock, entre otros. El siguiente paso será la creación de casas vivas: “Edificios cuyas paredes y techos crecerán de carne y piel, o por lo menos de texturas vegetales, que la genética puede llegar a desarrollar, con la calefacción radiante incluida a través de sus venas y sangre refrigerante, aportadora del oxígeno necesario para la respiración, y sin necesidad ya de enyesar, pintar y repintar”. 43 Marcelo A. Fraile - Arquitectura biodigital LOS PARADIGMAS EN LA HISTORIA Dentro de esta lógica propuesta, haciendo una transferencia al campo de la arquitectura de la noción de paradigma desarrollado por Thomas Kuhn (1962) y extrapolando las temporalidades planteada por Steppen Pepper (1942) y Alberto Estévez (2005), la búsqueda se centrará en la conformación y esclarecimiento de aquellos elementos que permitan una construcción temporal de los paradigmas a través de la historia. Una definición y conceptualización de aquellas características más sobresalientes de sus ciclos: etapas de desarrollo (ciencia normal), principales anomalías que identificaron el agotamiento de cada uno de los modelos (crisis) y revoluciones paradigmáticas (ciencia revolucionaria). Evidentemente, no todos aceptan la universalidad de las teorías de Kuhn. Para algunos investigadores, el esquema propuesto por Kuhn difícilmente puede aplicarse a las ciencias blandas, como la arquitectura, esto se debe a la pluralidad de enfoques que caracterizaría a nuestra disciplina, definiéndola como un estado preparadigmático, carente de una ciencia madura, con un solo paradigma y donde los debate sobre los temas fundamentales todavía no han llegado a su fin: en este sentido, quedarían desvirtuados “…los hechos históricos y/o las herramientas conceptuales kuhnianas” (Cerezo, 1987, pp. 237-253). Intentando zanjar el tema, en la segunda edición de “La estructura de las revoluciones científicas”, publicada en 1970, Thomas Kuhn propone una solución al problema al expresar que “…el predominio de un solo paradigma no es condición para que se constituya y alcance la madurez. En consecuencia, la pluralidad de enfoques no significa la pre-paradigmaticidad sino la multi-paradigmaticidad” (Caparrós, 1978, 1980, 1984); “así estamos ante una ciencia consolidada que comprende perspectivas plurales por exigencias de su objeto de estudio” (Cerezo, 1987, pp. 237-253). Y aunque es claro que las nociones teóricas son definidas de acuerdo a las teorías que le dieron origen, “… también es fácil pasar por alto el hecho de que incluso los términos descriptivos adquieren significados diferentes a medida que las teorías cambian” (Waltz, 1988, p. 24). En otras palabras, el concepto de paradigma que desarrollaremos a continuación, no corresponde con exactitud a la definición planteada por Kuhn: ya que desde la perspectiva del neopositivismo1, este modelo aplicado a la arquitectura es cuestionable “…pues no se trata de una actividad científica y, por tanto, … no parece extrapolable de una forma literal” (Ortega & Zaera-Polo, 2009, p. 5 y ss.). Estas afirmaciones, entendidas desde un punto metafórico y no analítico, “no menoscaban la importancia del cambio, sino más bien todo lo contrario, lo plantea en sus justos términos… cambios sustanciales en… los que se ha venido sustentando la práctica arquitectónica” (Ortega & Zaera-Polo, 2009, p. 5 y ss.). A partir de estas precisiones y de acuerdo al marco teórico previamente definido, estableceremos para nuestro trabajo tres paradigmas, más una etapa inicial que denominaremos preteórica: a. La etapa preteórica: es una etapa inicial, donde diversas teorías compiten entre sí, presentando una incapacidad de producir un único cuerpo acumulativo de resultados. No existe un único paradigma que pueda expresar los fenómenos que se producen. Son fragmentos, recortes muchas veces superpuestos, que imposibilitan la generación de un único discurso rector. b. Primer paradigma: al que denominaremos “paradigma clásico”. Adhiere, en cierta medida, a las teorías del “Formismo” de Pepper y del “Pasado Clásico” de Estévez. Este paradigma “…hunde sus raíces en la Antigüedad, en los mundos de Grecia y Roma, en la arquitectura religiosa de Grecia y en la arquitectura militar, civil y religiosa de los romanos” (Summerson, 1979, p. 10), sus 1 Al no poder considerar a la arquitectura una ciencia, ya que es una disciplina que se ocupa de saberes que anteceden al saber de lo que hacen, refiriéndose al proyecto. 45 Parte II. Algunas ideas de paradigma y sus ciclos diferentes vertientes y desarrollos influenciaron y sirvieron de referentes a las generaciones posteriores. Se mantuvieron sin variantes, aunque con matices, hasta el siglo XIX. Bajo un formalismo canónico, durante este período se generó una arquitectura de formas geométricas con estrictas reglas de composición matemática del espacio. Una belleza armónica verificable a través de sus proporciones: una relación entre las diversas dimensiones de un edificio, una relación aritmética simple, donde el todo es más que la suma de sus partes. c. Segundo paradigma: al que nombraremos “paradigma mecánico”. Recoge en cierta medida las teorías del “Mecanicismo” de Pepper y del “Presente Moderno”, de Estévez. Este paradigma, “…tiene sus raíces en las trasformaciones técnicas, económicas y sociales de principios de la modernidad, o sea, del siglo XVII, y que a través de un proceso ideológico se presenta como un conjunto de reglas que permite universalizar el verdadero conocimiento” (De Souza, 2007, p. 95). Tomando como base la producción masiva, ve su representación más fiel y precisa en la fabricación industrial. Por ello, propugnaba un modelo estandarizado-mecanicista, con un sistema de producción prefabricado en masa; una producción de objetos sin variaciones, rigurosamente idénticos, de acuerdo con una estricta geometría euclidiana. Nuevos materiales como el hierro, el vidrio y el hormigón armado, posibilitaron a los diseñadores generar nuevas formas, bajo una limitación compositiva de elementos abstractos. Su arquitectura queda circunscripta al uso de formas platónicas: cilindros, cubos, esferas, conos y pirámides. Una arquitectura basada en “… la amnesia, la negación o la ruptura con el pasado, en la voluntad estética de innovación y la búsqueda de formas de la abstracción y el funcionalismo” (Montaner, 1995, p. 141). d. Tercer paradigma: al que denominaremos “paradigma biológico digital”. Refiere a las teorías del “Organicismo” y del “Contextualismo” de Pepper, y al “Futuro Genético” de Estévez. Invadido por el pensamiento de otros campos disciplinares, y apropiándose de ideologías diversas, este paradigma tiene su fundamento en el uso de teorías morfogenéticas en el diseño. Una proliferación de nuevos conocimientos teóricos que está generando inéditas relaciones entre naturaleza, ciencia y tecnología: un ámbito donde las nociones tradicionales de estos conceptos se han modificado, al surgir un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar el diseño. 46 Esto implica un conjunto de nuevas herramientas biológico-digitales que son utilizadas por los diseñadores no ya como sistemas de representación, sino como poderosos instrumentos para la exploración de formas, inspiradas en la naturaleza, que buscan optimizar los recursos y dar respuestas adecuadas a las características del contexto. Esto puede explicarse ante la aparición de programas y microprocesadores cada vez más poderosos, con gran velocidad de procesamiento de la información, que permitió a los diseñadores contemporáneos acceder a un abanico de nuevas posibilidades dentro del espacio virtual tridimensional del monitor. Nuevas herramientas que han modificado sus capacidades de manera exponencial, permitiendo la exploración de importantes repertorios formales, cada vez más complejos: espacios geométricos no euclidianos, algoritmos genéticos, sistemas cinéticos y dinámicos (Kolarevic, 2003, p. 3), que nos acercan en el modo de producir una nueva arquitectura revolucionaria. Una nueva arquitectura no tipológica, discontinua, amorfa, no perspectiva, ahistórica (Kolarevic, 2003, p. 4). A través del uso de estas herramientas, es posible desarrollar modelos biológico-digitales de avanzada: modelos capaces de procesar en tiempo real, miles y miles de variables, evaluando su comportamiento de acuerdo con una serie de hipótesis preestablecidas. Para ello, los nuevos diseñadores, recurren al auxilio de Marcelo A. Fraile - Arquitectura biodigital script, programas encargados de manejar un número reducido de datos, en procesos repetitivos de un modo desatendido. Un camino para la obtención de infinitas soluciones a un importante número de problemas. Sin embargo, para que esto suceda, antes será necesario indicarle a la máquina lo que debe hacer: un listado de rutinas que determinarán las tareas, los pasos que se deben seguir; una serie de comandos e instrucciones, un código programático que le enseñe a la computadora qué variable deberá procesar y como deberá hacerlo, diferenciando cuáles son los procesos más satisfactorios con el medio, qué puntos deberá conectar y cómo llegará a hacerlo. “No hay magia en la informática”. Según Brady Peters, lo importante en un modelo es “…entender cuáles son los parámetros de un proyecto… y descomponerlos en las reglas definidas” (Freiberger, 2007). Detectado esto, será posible construir matrices, modelos matemáticos, que permitan a partir de estos establecer cómo se relacionan, a fin de poder evaluarlo (Fraile, 2012). 47 Marcelo A. Fraile - Arquitectura biodigital LA ETAPA PRETEÓRICA “Los griegos decían que el asombro es el principio del conocimiento, y si dejamos de asombrarnos corremos el riesgo de dejar de conocer”. (Gombrich, 2002). De acuerdo a lo antes visto, Thomas Kuhn, en su libro la Estructura de las Revoluciones Científicas, desarrolla un abordaje del progreso histórico de la ciencia basado en dos conceptos fundamentales denominados: ciencia normal y ciencia revolucionaria. Sin embargo, previamente al avance de estas disciplinas científicas, Kuhn hace mención a una etapa anterior, denominada preparadigmática: una etapa definida por frecuentes debates sobre problemas, normas y soluciones posibles. Una etapa con abundantes disensos, donde proliferan diversas categorías especulativas e inarticuladas dentro del campo teórico. Para Kuhn, durante este período, diversas teorías compiten entre sí, presentando una incapacidad de producir un cuerpo acumulativo de resultados, no existe un único paradigma, no existe una única explicación teórica que pueda expresar los fenómenos que se producen. El estado de situación es “…demasiado complejo para integrarse en alguna teoría […y] permitir que surja un primer paradigma” (1962, pp. 77-78). Una particularidad de esta etapa, según Kuhn, es que cada investigador debe comenzar sus estudios desde el principio. El desarrollo queda pendiente, ya que no cuenta con ningún marco de referencia donde apoyarse: “… Solo a medida que el experimento y las teorías tentativas se articulan conjuntamente, surgen descubrimientos y la teoría se convierte en un paradigma” (1962, p. 77-78). Las primeras construcciones Un buen ejemplo para graficar estas cuestiones en el campo de la arquitectura puede rastrearse en el valle fértil de Ucrania, al oeste de la ciudad polaca de Cracovia, e incluso en la misma Checoslovaquia. Se trata de lo que los expertos denominan “choza de huesos”, una serie de cabañas con una antiguedad de entre 22.000 y 15.000 años, uno de los refugios más antiguos construidos por el hombre prehistórico. La importancia de este hallazgo, de acuerdo con el Dr. Estévez, se fundamenta en que, por primera vez en su historia, el ser humano se aleja de sus necesidades físicas primarias para comenzar a utilizar aquellos elementos “…que le llevarán a hacer arquitectura que le satisfaga su espíritu” (2005, p. 22). Agrupados en pequeñas poblaciones de cuatro o cinco edificaciones circulares, con un radio de cinco metros aproximadamente, estas comunidades abandonan sus costumbres nómadas de recolección de granos y semillas, para convertirse en sedentarios. Ante la ausencia de cuevas y la escasa madera, resuelven sus principales necesidades de refugio y almacenamiento de productos utilizando los huesos de mamut para construir sus viviendas: incluso los colmillos son utilizados como material estructural, atados con cordones formando una especie de arco que les permitiría posteriormente ser cubiertos con pieles. Estos descubrimientos se conocen desde finales de la década de 1920, pero uno de los más completos se produjo en 1965 en Mezhirich, Mezhyrich o Межиріч, un pueblo en el centro de Ucrania, próximo a la desembocadura del río Rosava con el río Ros. Un agricultor, mientras excavaba su propiedad para ampliar su bodega, desenterró a dos metros del nivel de suelo la mandíbula inferior de un mamut. Posteriormente, quedó revelada la presencia de cuatro cabañas, compuestas por 149 huesos de mamut, que datan de hace unos 15.000 años. Huesos que pertenecieron a aproximadamente noventa y cinco mamuts. Muchos fueron arrastrados entre 350 y 500 kilómetros de su fuente, pese a que el peso de algunos de estos huesos llegaba a los 100 kilos. razón por la cual los obligaba a “…gastar una energía muchísimo mayor de lo que era habitual para construir chozas normales y corrientes” (Estévez, 2005, p. 23). 49 Parte II. Algunas ideas de paradigma y sus ciclos En el interior de la cabaña, pudo encontrarse, además, adornos de ámbar, conchas fósiles, y un cráneo de mamut decorado que servía a modo de tambor. Por primera vez estamos en presencia de un sistema constructivo “… con un cierto orden estético” (Estévez, 2005, p. 23). Su construcción no obedece a razones estrictamente funcionales de cobijo, sino que, a modo de decoración, apilarían los distintos huesos en hileras horizontales, coronándolos mediante bóvedas de colmillos (Estévez, 2005, p. 23). Se afianza la idea de una arquitectura superior al mero concepto de abrigo. Para el 8000 a. de C., la cultura del Neolítico se había extendido y establecido por la actual Siria e Irak, y para el 3500 a. de C. la cultura Sumeria, considerada como la primera y más antigua civilización en el mundo, se había establecido en el valle del Tigris y el Éufrates, donde desarrolló importantes avances en materia de producción de metales, ganadería y Fig. 1. Choza de huesos, con una antiguedad de entre 22.000 y 15.000 años, uno de los refugios más antiguos construidos por el hombre prehistórico. agricultura. Con un lenguaje escrito y profundos conocimientos en astronomía, matemática y medicina, no deben extrañarnos sus importantes avances en arquitectura. Sus primeras construcciones se realizaron a través del apilamiento de elementos tales como piedras sin labrar o, con el avance de la técnica, de ladrillos de cerámica: la arcilla húmeda y colocada en moldes de madera era dejada a secar al sol o cocida en hornos, luego se obtenía una pieza ortoédrica de gran resistencia, el ladrillo cerámico sólido y duradero que utilizaban para construir sus edificios. Entre sus edificios más representativos, se encuentran grandes templos denominados zigurats, realizados con piedra, ladrillos y adobe. Los zigurats eran construcciones como montañas artificiales, que acercaban al hombre, física y simbólicamente, al cielo y a sus dioses. Hacia el 3100 a. de C., el foco de la civilización se había desplazado hacia el nordeste de África. En Egipto, cerca del río Nilo, nacía una gran civilización con importantes avances en materia de medicina, astrono- 50 Marcelo A. Fraile - Arquitectura biodigital mía, ciencia, arte y, fundamentalmente para nosotros, arquitectura. Con la llegada al poder de la III dinastía, se encomienda al arquitecto Imhotep la construcción del conjunto funerario de Zoser, en Saqqara. Una arquitectura desarrollada: “…con el objeto de garantizar que la morada del faraón fuese eterna…construye en piedras lo que tradicionalmente se hacía con juncos, hojas de palma, troncos de madera y esteras” (Estévez, 2005, p. 23). Una revolución que transformaría el muro ensamblado en un elemento monolítico, lo que garantizaría la transmisión de los esfuerzos entre piezas individuales, sin fallas o deformaciones considerables. Una arquitectura plástica donde el espectador, que mire cualquiera de las cuatro caras de una pirámide “…percibe solamente la superficie unitaria del triángulo isósceles, cuyos lados, con su contorno tan definido, no hacen pensar en absoluto en la conjunción que se efectúa detrás” (Riegl, 1997, p. 85). La más pura expresión de una arquitectura funeraria: su interior, queda limitado “…a la construcción de una pequeña cámara sepulcral, cuyas vías de acceso, reducidas al mínimo, casi no pueden apreciarse por quien observa el edificio desde el exterior” (Riegl, 1997, p. 85). Igual desarrollo alcanzarían sus templos y palacios: grandes salas hipóstilas, de altas columnas decoradas con motivos vegetales, distribuidas proporcionalmente siguiendo una malla regular, la cual quedaría encerrada por un muro perimetral, una reproducción de los “…rasgos idealizados del paisaje” (Rykwert, 1997, p. 87): un recinto arquitectónico cubierto, inspirado en las formas y los espacios creados por la naturaleza. Todo en su proyecto, forma, espacio y proporción “… tiene un significado simbólico y ritual” (Giedion, 1997, p. 85). Fig. 2. Zigurats. Establecido por la actual Siria e Irak. 3500 a. de C. El camino hacia un pensamiento universal En este transcurrir a través del tiempo por diversas culturas, hemos podido observar cómo cada una de estas, ante la misma gama de fenómenos culturales, describía e interpretaba el mundo, pero de un modo diferente. 51 Parte II. Algunas ideas de paradigma y sus ciclos Fig. 3. Hacia el 3100 a. de C., cerca del Desde sus orígenes, bajo un concepto epistemológico, cada cultura ha río Nilo, se encomienda al arquitecto intentado identificar los problemas, con un enfoque teórico individual, oscilante, que le permitiera explicar mejor los fenómenos y el modo de resolver sus anomalías. Imhotep la construcción del conjunto funerario de Zoser, en Saqqara. Ante la carencia de un caudal teórico consolidado y aceptado de un modo universal, sus respuestas quedaban circunscriptas a probabilidades, sin consustanciarse en una idea importante, evitando de este modo alcanzar progresos significativos: la ausencia de una medida patrón que llegara a imponerse por sobre las demás, aportando soluciones generales a problemas generales. 52 Un período de abundantes disensos acerca de los métodos, problemas y normas de solución legítimas, donde diferentes posiciones valorativas generaban debates que oscilaban de lo más trivial a lo mas complejo. “No es de extrañar, por tanto, que en los primeros estadios de desarrollo…, distintas personas describan e interpreten de modo[s] diferente[s] el mismo rango de fenómenos” (Kuhn, 1962, p. 80). Y aunque no es tarea fácil determinar el comienzo cronológico que dio lugar a un cambio de pensamiento, sí es posible detectar logros significativos –aunque incompletos–, capaces de resolver problemas parciales, con un efecto puramente práctico. Bajo la idea de una belleza armónica universal, sus resultados quedarían definidos a través de una arquitectura desarrollada con base en el cálculo matemático: un sistema racional y armónico de proporciones que tomaba como módulo el diámetro de la columna medido en su tercio medio. Un sistema arquitectónico de raíz trilítica, con reglas estéticas previamente establecidas, de fácil lectura y equilibrado trazado. Con el tiempo, estas ideas se alinearían con otras tantas para desarrollar una estabilidad en el campo del conocimiento. El nacimiento de una teoría lo suficientemente fuerte que ejercería su poder de atracción, y Marcelo A. Fraile - Arquitectura biodigital daría lugar a un período de normalización en la producción científica: un pensamiento universalmente aceptado, capaz de suministrar modelos de problemas y soluciones a una comunidad científica y dar lugar al nacimiento de una ciencia normal y con esta, al “paradigma clásico”. Figuras Fig. 1. Choza de huesos. https://sites.google.com/site/inventosprehistoricossanti/ home/paleolitico-superior-50-000---10-000-ac https://commons.wikimedia.org/wiki/File:Mammoth_House_(Replica).JPG Fig. 2. Zigurats. https://sobrehistoria.com/los-zigurat-bastiones-de-lamesopotamia/ http://www.historiaantigua.es/imagenessumer/files/page14-1130-full.html Fig. 3. Piramide Zoser. https://www.viajejet.com/monumentos-de-egipto/ piramide-escalonada-de-zoser-saqqara-egipto/ 53 Marcelo A. Fraile - Arquitectura biodigital EL PARADIGMA CLÁSICO: HIPÓTESIS FORMISTA “Bernstein atinadamente le aplicaría la aguda descripción que hace William James de las distintas etapas de la carrera de una teoría: ‘Primero, ustedes saben, una teoría es atacada como absurda; luego se admite que es verdadera, pero obvia e insignificante; finalmente se considerará tan importante que sus adversarios afirmarán que ellos mismos la descubrieron”’ (Pérez Ransanz, 1999, pp. 26-27). A este primer paradigma, lo denominaremos Paradigma Clásico, y recoge, en cierta medida, la “Hipótesis Formista” de Stephen Pepper (1962) y el “Pasado Clásico” de Alberto Estévez (2005). Para Pepper, la hipótesis raíz del formismo era un mundo supraterrenal, perfecto y atemporal, que buscaba la esencia de las cosas, a través del conocimiento y la virtud. Bajo una mirada platónica, este paradigma hacía alusión a un mundo formalista canónico, reflejo de un cosmos ordenado, contenedor de toda belleza y perfección. Un cosmos que generaría una arquitectura de formas geométricas puras, con estrictas reglas de composición matemática del espacio: una búsqueda por lograr una armonía verificable entre sus partes, de acuerdo con ciertos preceptos previos de belleza análoga con las armonías musicales y cómo estas se conseguían mediante las proporciones, “…es decir, asegurando que las relaciones entre las diversas dimensiones de un edificio [sean] funciones aritméticas simples y que los cocientes numéricos entre las diversas partes del edificio [sean] los mismos o estén relacionados entre sí de modo muy directo” (Summerson, 1979, p. 11). En este aspecto, la arquitectura “…cumplía de diferentes maneras, su función de mediadora entre la Tierra y lo desconocido… una conexión entre el mundo de los dioses que está más allá de lo terrenal, y el mundo de los humanos construido en la Tierra” (García Moreno, 2005). Por su parte, el “Pasado Clásico” de Estévez consideraba que este paradigma tendría sus inicios en los templos griegos clásicos del siglo V a.C. y en el desarrollo de una arquitectura en piedra (2005, p. 24). Bajo un valor colectivo, se trataba de una arquitectura regida por el uso de formas geométricas elementales y la reintroducción de los órdenes antiguos, los cuales pasarían a través de la historia desarrollando diferentes manifestaciones artísticas: renacentistas, manieristas, barrocas, neoclásicas, historicistas. Una reutilización, después de un intervalo de casi un milenio, de las formas características del arte clásico, es decir, griego y romano, a través de una articulada integración del pasado con el presente (Conti, 1993, p. 3). Un paradigma que había suscitado un conjunto de reglas racionales, resumidas en un lenguaje común, cuya uti- 55 lización duraría, con vicisitudes alternas, durante más de cuatrocientos años, para acabar siendo a mediados del siglo XIX, un conjunto forzado de normas abstractas carentes del espíritu que las había creado (Conti, 1993, p. 3). El carácter de la mímesis como definidora de belleza De acuerdo con el Diccionario de la Real Academia Española, la palabra mímesis deriva del latín ‘mimēsis’ y este del griego μίμησις, y se refiere a la “…imitación de la naturaleza que como finalidad esencial tiene el arte” (RAE, Asale, 2014). Conceptualmente, la mímesis, en la Antigüedad clásica, tuvo un significado amplio y ambiguo, que alternaba entre las ideas de imitación, representación o reproducción. Aristóteles, en su libro Poética, mencionaba el término mímesis como la base por la cual “las artes imitan la naturaleza”, copiando la apariencia de las cosas a través del ritmo, la armonía y la palabra. La idea de asociar la belleza con la naturaleza es un concepto muy antiguo. Desde tiempos inmemoriales, el hombre ha intentado aprender de esta, conocer sus leyes, las proporciones de sus partes, los rasgos carac- Parte II. Algunas ideas de paradigma y sus ciclos terísticos de su belleza, para luego así poder reproducirlas en sus obras: a partir de la emulación, el hombre es capaz de aprender. La mímesis es considerada como un modo natural de aprender, pues en la práctica proporcionaba conocimiento: “Somos monos de imitación”, apuntaba el filósofo español Fernando Savater (1947), y “es por medio de la imitación por lo que llegamos a ser algo más que monos” (Cotofleac, 2009). En este sentido, el término latino ‘mimēsis’ corresponde a su derivación más común, razón por la cual mímesis se tradujo al castellano como “imitación”. En consecuencia, la mímesis puede ser asociada con los conceptos vertidos por Savater, al considerarla una actividad connatural del hombre, es decir, una característica innata de la naturaleza humana –que desde su infancia imita, y es a través de esta que el hombre satisface su deseo de aprender–. Aristóteles consideraba que la mímesis tenía tres principios fundamentales: el de la verosimilitud, que a través de los artificios vuelve creíble la escena; el del conocimiento, que con la imitación genera conceptos y permite aprender; y el del placer, que a través de la plasticidad misma de los lenguajes miméticos produce un deleite en sí mismo (Tapia, 2007). Sin embargo, desde este punto de vista, la mímesis se diferenciaba de la representación, ya que su uso podía ser entendido como un sinónimo de la analogía, donde existía un parecido o semejanza con el original. En este sentido, la mímesis parecía tener mayor relación con la ilusión que con la verdad, imitando la realidad pero evitando ser comparada con el referente, para su comprensión intentaba construir experiencias análogas pero no equivalentes a lo real: “…lo que cuenta es la generación vívida de la imagen de lo real a través de artificios, habrá mímesis en las palabras, en las imágenes, en los sonidos de la música” (Tapia, 2007). De igual modo, la mímesis no tiene que mostrar la verdad ni reproducir exactamente lo real, evoca las situaciones para que parezcan convincentes, creíbles: si bien “mímesis” es un sinónimo adecuado para “analogía”, en general se habla de mímesis cuando existe un parecido o semejanza más exacta con su original, reservando el concepto de analogía a aquellas situaciones en que simplemente se indica que “…dos o más entidades son similares en uno o más aspectos” (Suñol, 2005, pp. 107-126). No obstante, es importante destacar que Aristóteles no definió explícitamente el concepto de mímesis, por el contrario, sus formulaciones aparecían disgregadas en diversos escritos, situación que se transformó en un foco de discusión durante los siglos posteriores y que recibió diversas interpretaciones a lo largo de la historia. 56 Por su parte, Platón, contrario a los pensamientos de Aristóteles, consideraba que la mímesis poseía un valor meramente artístico de imitación, su uso denotaba una irracionalidad y una falta de discernimiento que nos alejaba de la verdad. En su libro decimo, de La República, Platón desarrollaría una fuerte crítica a la mímesis. En su obra sitúa la poesía y la pintura como imitación (mímesis), y toma el ejemplo de un carpintero que cuando produce una tabla, esta es en realidad una copia del modelo existente en el mundo de las ideas, de allí que, cuando un pintor representa esa tabla, en realidad lo que está haciendo es una copia de la copia, algo muy lejano de la verdad. Para el profesor Ernst Gombrich, la mímesis es un instrumento poderoso de la retórica, una imitación de lo real que permite poner ante los ojos hechos o fenómenos como si estuvieran realmente ahí (2002). En este sentido, la mímesis quedaría asociada al concepto de techné, vocablo de raíz griega τέχνη, que se tradujo como “arte” o “técnica” y que definía al conjunto de procedimientos, reglamentos y pautas que eran utilizados como un medio para arribar a un resultado específico. Desde este punto de vista, el concepto de techné es una noción genérica, comúnmente asociado al trabajo manual, a las habilidades y destrezas de una persona, con referencia al manejo de cualquier tema o material. Marcelo A. Fraile - Arquitectura biodigital Aristóteles ya la había definido como una acción a partir de la cual el hombre producía una realidad que antes no existía. En tanto que, para Heidegger, es una creación, un “producir sapiente”, que para poder crearse requiere no solo de habilidades manuales sino también de conocimientos. En esencia lleva implícito el concepto de sistematización y el uso de herramientas, sean estas físicas o intelectuales. Se encuentra asociada a la necesidad humana que buscaba alterar el medio para adaptarlo a sus necesidades y completar las cosas que la naturaleza había dejado inconclusas: “Si bien es cierto que la naturaleza parece ser capaz de realizar algunas cosas por sí misma, en otros casos necesita de la intervención de la techné”, para que esta cumpla sus fines (Suñol, 2005, pp. 107-126). Bajo este punto de vista, tanto un escultor como un zapatero son considerados artistas, ya que su trabajo es una técnica, una capacidad para producir algo que antes no existía. De lo anterior, podemos inferir que el arte, para los griegos, no podía entenderse como creación espontánea e inventada por el espíritu libre del artista sino, por el contrario, era “…una conquista de la techné”, donde el artista era “…aquel que aplica[ba] en toda su plenitud las leyes establecidas y acordadas” de antemano (Ferri, 1997). Ahora bien, al extrapolar estos conceptos hacia el campo de la arquitectura griega, veremos a continuación cómo la idea de mímesis resuena con fuerza “…al referirse al lenguaje cifrado del arte como el medio por el cual la naturaleza, en sus formas bellas, nos habla ‘figuradamente’” (Cotofleac, 2009). Para algunos autores, la idea de mímesis en la arquitectura se encontraba asociada “…al seguimiento de procedimientos de comprobada eficacia y de formas de reconocida aceptación” (Cotofleac, 2009). Si bien es cierto que tanto Aristóteles como Platón aplicaron el concepto de mímesis solo a las artes imitativas como la pintura o la escultura, pero no a las artes originales como la arquitectura, no obstante, podemos considerar la arquitectura de la Antigüedad clásica con relación a la mímesis, tanto en la teoría como en la práctica. En este sentido, cada objeto arquitectónico era “…presentado del modo más directo, y su comprensión reducida en lo posible a las inmediatas percepciones sensibles” (Benevolo, 1967, p. 22). En otras palabras, la arquitectura griega quedaba definida bajo una regularidad, que se ha convenido en llamar con el nombre de orden: una disposición regular y armónica que posibilitó generar en los edificios una composición bella entre sus partes, y de estas con el todo. Un sistema de proporciones asociado con la naturaleza, una relación numérica concebida a partir de un número fijo predeterminado como módulo, que correspondía con el diámetro de la columna, medido en el tercio medio de su altura. El orden era el encargado de organizar y estructurar el edificio para darle sus características generales y su lenguaje determinado de una manera coherente, armónica y proporcionada, de acuerdo con los preceptos básicos de belleza. Cada orden conformaba una unidad modular, compuesta por dos partes: por un lado, las columnas, subdivididas en base, fuste y capitel; y por el otro, una pieza horizontal denominada entablamento, subdividido en arquitrabe, friso y cornisa. Para el arquitecto español Luis Borobio, los órdenes clásicos solo atendían a las características intrínsecas de sus dimensiones, una relación cerrada de sus partes entre sí y con el todo, sin atender a referencias externas como las proporciones del cuerpo humano (Cotofleac, 2009). En este complejo lenguaje de formas, los griegos solo utilizaron tres órdenes: el dórico, el jónico y el corintio. Cada orden presentaba una compleja serie de relaciones y medidas entre sus partes, pese a ello, ninguna solución era desarrollada de modo taxativo, por el contrario, sus “…reglas ideales, podían traducirse concretamente de muchos modos distintos” y el artista conservaba “…un margen de libertad para adaptarse a cada uno de los casos” (Benevolo, 1967, p. 19). 57 Parte II. Algunas ideas de paradigma y sus ciclos En tal sentido, el uso del orden en la arquitectura permitió, a través de una serie de reglas aproximativas, asegurar un elevado nivel medio en la producción general. Y aunque no todos los proyectistas fueran diestros, proporcionaría un nivel medio como punto de referencia. De igual forma, el sistema garantizaba que frente a un nuevo proyecto, el diseñador no comenzaría desde cero al introducir una serie de términos conocidos que le permitirían concentrarse sobre las incógnitas de su caso (Benevolo, 1967, p. 20); el sistema se transformaba en una selección progresiva de resultados, donde cada nueva solución buscaba perfeccionar aún más la multiplicidad infinita de soluciones a problemas recurrentes: “…porque ninguna imitación sensible ni una serie de imitaciones pueden consumir las virtualidades contenidas en el modelo ideal” (Benevolo, 1967, p. 19). De todos los edificios de la arquitectura clásica, el templo fue, sin lugar a dudas, el edificio que jugó un papel trascendental en la sociedad antigua y se convirtió en una de las construcciones más significativas; es la síntesis de un vocabulario estructural capaz de “…dar expresión práctica a aquellos conceptos espaciales que postula para la creación de un medio formalmente deliberado” (Martienssen, 1961, p. 15). Fig. 1. El orden era el encargado de organizar y estructurar el edificio para darle sus características generales y su lenguaje determinado de una manera coherente, armónica y proporcionada, de acuerdo con los preceptos básicos de belleza. Cada edificio era la materialización de un proyecto, un instrumento de creación que buscaba lo nuevo: “…una oscilación en espiral entre una proposición creativa y una crítica inmediata” (Diez Del Corral, 2005, p. 13), una combinación entre lo estético y lo estructural. Inicialmente concebido de madera, el templo pronto se convertiría en una exaltación de la perfección a través de bloques de piedra unidos sin argamasa, bajo la concepción platónica de belleza. Una sintaxis arquitectónica de lenguaje clásico heredado, donde orden y sistema se yuxtaponen en una organización reconocible y mensurable que permite corregir “… la impresión óptica del espectador mediante ajustes ‘eurítmicos’”, en sus dimensiones (Panofsky, 1997, p. 85). 58 Con el tiempo, estos conceptos de belleza gestados y desarrollados en Grecia se trasladarían al Imperio romano, donde con una claridad histórica serían recopilados por Vitruvio en su tratado. En este sentido, la mímesis, dentro del contexto romano, tendría un carácter de originalidad bajo la idea de que a través del arte podría superarse a la naturaleza. En su arquitectura, Roma representaría un proceso complejo que vinculaba una construcción de gruesos muros y robustos contrafuertes, heredada de los etruscos, con estructuras adinteladas tripartitas, de columnas y arquitrabes, obtenidas de los griegos. Y es precisamente en esta dualidad donde se encontraba la genialidad de los diseñadores, ya que al vincular dos sistemas estructurales diferentes: arcos, bóvedas y cúpulas –con revestimientos no estructurales de columnas clásicas–, posibilitaba el desarrollo de nuevas tipologías arquitectónicas, de mayor escala y complejidad”, … un vínculo entre los órdenes y la caja de mampostería” (Benevolo, 1967, p. 42). Marcelo A. Fraile - Arquitectura biodigital En su tratado, Vitruvio transformaría la geometría en una eficaz herramienta para obtener armonía en sus edificios. En el tercero y cuarto libro, Fig. 2. De todos los edificios de la ar- se ocuparía en particular de los órdenes arquitectónicos: una disposición jerárquica en la que solo desarrolla tres de estos: el dórico, sin base lugar a dudas, el edificio que jugó un y con estrías en el fuste; el jónico y el corintio, mencionando brevemente un orden primitivo o “toscano”, y se abstiene de mencionar algo respecto quitectura clásica, el templo fue, sin papel trascendental en la sociedad antigua y se convirtió en una de las construcciones más significativas. al orden compuesto. A partir del uso de los órdenes, se establecería un complejo sistema de proporciones donde era posible relacionar cada una de sus partes entre sí. En la arquitectura clásica, “…las proporciones eran las que rigidizaban la obra, pero el módulo era el que hacía la diversidad en las obras; este daba la libertad y hacía que cada edificio tuviese su propio carácter, su propio tamaño, en definitiva, su propia dimensión” (González González, 1985, p. 35). Vitruvio había establecido un sistema de proporciones abstractas, cuya unidad de medida era el módulo, una “…medida arbitraria que fija[ba] el arquitecto según las conveniencias de cada caso particular” (García Núñez, 2016, p. 8). Atribuyéndole a los órdenes personalidades ‘humanas’, transmitía a cada uno de estos género y caracteres: “Veía en el dórico un arquetipo de ‘las proporciones, la fuerza y la elegancia del cuerpo del hombre’… Para él, la ‘esbeltez femenina’ caracterizaba al jónico, y el corintio imitaba la ‘ligera figura de una muchacha’” (Summerson, 1979, p. 20). Cada parte importante del edificio estaba convenientemente proporcionada, y cuando estas tenían su lugar dentro de la simetría total, se obtenía la ‘euritmia’, una armonía de las partes entre sí y con el todo. Para Vitruvio la arquitectura descansaba en tres cualidades fundamentales, estas eran la “firmita” (la solidez), la “utilitas” (la utilidad) y la “venustas” (la belleza): esto es lo que se conoce como tríada vitruviana, una imitación en la arquitectura de las relaciones armónicas y equilibradas existentes en la naturaleza1. 1. En sus escritos, Vitruvio trataba de abarcar no solo lo referente a la arqui- 59 Parte II. Algunas ideas de paradigma y sus ciclos Del tratado original, solo se recuperaron los textos, las ilustraciones, si las hubo, se perdieron; incidente que conduciría, más adelante, a diferentes interpretaciones y tergiversaciones en las ediciones posteriores2, que convertirían los órdenes arquitectónicos en rígidos cánones para definir las virtudes arquitectónicas de la época. Porque una vez redescubiertos los órdenes, estos serían empleados como herramientas que “…encarnaba[n] toda la sabiduría de la humanidad en el arte de construir” (Summerson, 1979, p. 13). Su uso quedaba asociado a una construcción gramatical de la arquitectura, necesaria para una correcta y concreta comunicación: utilizando normas racionalizadas de carácter sintáctico, era posible codificar las normas estéticas en “… un lugar tan inamovible como… las cuatro conjugaciones en la gramática latina” (Summerson, 1979, p. 15). La construcción albertiana del paradigma clásico Perdida la naturaleza divina, la arquitectura de mediados del siglo XV buscó sus referentes “…en una geometría cosmológica o antropomórfica… a través de la aplicación de las reglas clásicas de la composición referidas a jerarquía, orden y fin, que conferían una armonía al todo con respecto de las partes” (Eisenman, 1984, pp. 154-172). En este sentido, para el historiador inglés John Summerson (1904-1992), el gran logro del Renacimiento fue “…la reformulación de la gramática de la Antigüedad como una disciplina universal, la disciplina, heredada del pasado remoto y aplicable a todas las empresas constructivas honorables” (Summerson, 1979, p. 32). Bajo un espíritu superador, los arquitectos del Renacimiento buscaban un nuevo lenguaje clásico que sistematizara el conocimiento y permitiera nuevas combinaciones. De modo que, para Alberti, “…la composición no era un proceso de transformación con un final abierto o neutral, sino más bien una estrategia para arribar a un objetivo predeterminado. Era el mecanismo a través del cual la idea de orden, representada por los órdenes, era transformada en una forma específica” (Eisenman, 1984, pp. 154-172). La obra de Alberti y sus posteriores reinterpretaciones constituirían un hito fundamental de la cultura del Renacimiento. En su búsqueda de belleza, su obra revisó y reformuló el corpus teórico necesario para lo que se avecinaba. No existe tratado de arquitectura que no sea deudor de este, su legado puede rastrearse incluso hasta el siglo XIX. 60 De igual forma que Vitruvio, Alberti consideraba que un edificio era bello cuando respondía a las proporciones adecuadas de acuerdo con el modelo de la naturaleza. La belleza se encontraba en la “…concordancia de las partes, basada en el número y la proporción, según las exigencias de la armonía, que es el principio fundamental de la naturaleza” (Cotofleac, 2009). De este modo, los artistas se encargarían de imitar la naturaleza, observando la estructura de las plantas y de los animales, buscando no copiar su apariencia, sino sus leyes. Una representación simbólica de esta, donde quedaba reflejada su diversidad, armonía y perfección: un cosmos geométricamente ordenado que se expresaba en el microcosmos del hombre vitruviano: una manifestación de los valores clásicos de la Antigüedad romana, desarrollada en la armonía de sus partes (Cotofleac, 2009). En este sentido, para Alberti, esta armonía definía lo bello, expresado a través de las concinnitas: “…aquello de lo que no se puede sacar nada, a lo que no se puede agregar nada, en lo cual no se puede cambiar nada sin tectura, sino también aquellas habilidades y conocimientos necesarios para los arquitectos: en su primer libro, distingue las diferencias que existen entre la teoría de la arquitectura –a la que denomina “ratiocinatio”–, de la práctica a la que denomina “fábrica”. Para Vitruvio, el architekton (nombre griego que recibía el director), se debía encargar de llevar ambos conceptos en una coexistencia simultánea. 2. En 1511 se publicaría la versión del arquitecto Fray Giovanni Giocondo, de Verona, pero hubo que esperar hasta 1521 para que Cesare Cesariano, uno de los arquitectos del Duomo de Milán, presentase la primera edición del tratado de Vitruvio traducido al italiano, con dibujos deducidos de edificios contemporáneos como exponentes de las normas vitruvianas. Posteriormente, en 1556, Daniele Barbaro publicaría en Venecia, la cuarta edición del tratado de Vitruvio que contaba con ilustraciones de Andrea Palladio. Marcelo A. Fraile - Arquitectura biodigital descomponer el conjunto” (Zátonyi, 2002, p. 106). Las concinnitas, equivalían a la symmetria griega, que, en arquitectura, presentaba tres elementos constitutivos: numerus, finitio, y collacatio. Numerus correspondía con una aritmética proporción de las partes de cada obra; finitio correspondía a su forma geométrica; y collacatio se refería a su unión con el entorno (Tatarkiewicz, 2004). Un ejemplo interesante al respecto es la fachada de la iglesia de Sant’ Andrea en Mantua, de 1456, en donde Alberti utilizaría esta estructura lógica para adaptar los elementos del templo clásico de columnas y dintel, y concebir las paredes como muros rellenos. Para esto, Alberti no solo adaptaría la idea de arco triunfal para la fachada oeste, sino que también la llevaría al interior para tomarla como modelo para las arcadas de las naves (Summerson, 1979, p. 30). Luego lo revestiría con mármoles de colores en forma de figuras geométricas simples. A partir de una aritmética práctica, derivada de las obras del matemático italiano Leonardo de Pisa (Fibonacci) (1170-1240), Alberti entenderá la belleza en la arquitectura como un sistema modular de proporciones, un proceso racional del proyecto, fijado a través del diámetro de la columna, donde cada parte del edificio estaría en directa relación con el resto; una concepción platónica de subdivisión espacial de partes, matemáticamente proporcionales. La imagen perfecta de la creación de Dios: un esquema de valor absoluto y racional que definía los cánones clásicos de belleza. De acuerdo con el sistema aristotélico, Alberti establecía una clasificación desde lo general a lo particular en el planteo de sus ideas, como un reflejo de la armonía de la naturaleza donde lo macro y lo micro se estructurarían a través de variables matemáticas: conocido el módulo, es posible obtener el templo a través de una suma de sus partes. Desde este punto de vista, Alberti había transformado al orden en un instrumento paramétrico espacial: medida y generador de espacios y volúmenes coordinados sintácticamente. Un sistema de perfeccionamiento de los resultados mediante experiencias sucesivas y reglas fijas. Para el arquitecto estadounidense Peter Eisenman (1932), el siglo XV marcaba el nacimiento del paradigma clásico: antes de este, no existía una concepción del tiempo como una proyección hacia adelante. Bajo una realidad temporal, se comenzaría a construir el lenguaje de la arquitectura de occidente. Una arquitectura que hundía sus raíces en el establecimiento de valores incuestionables y apriorísticos: una irrefutabilidad eterna, divina y natural, donde lo clásico no buscaba representar ni simular nada, lo clásico simplemente era (Eisenman, 1984, pp. 154-172). A partir de esto, tres serán los elementos que caracterizarán este nuevo paradigma, estos son: el valor de la antigüedad como referente para la inspiración; el concepto de sintaxis de los órdenes clásicos; y el papel incuestionable de los tratados como referentes teórico-prácticos. El valor de la Antigüedad como referente para la inspiración A través de un carácter temporal, único e irrepetible, la arquitectura del Renacimiento era concebida a través de las aportaciones de la historia y de las huellas y fragmentos de la memoria: una imitación de los edificios griegos y romanos, donde “…el mensaje del pasado era utilizado para verificar el significado del presente” (Eisenman, 1984, pp. 154-172). Desde este punto de vista, los edificios clásicos obtendrían su valor “…representando una arquitectura que ya tenía un valor precedente, y eran simulacros (representación de representaciones) de edificios antiguos”, en este sentido, “El mensaje del pasado sería utilizado para verificar el significado del presente” (Eisenman, 1984, pp. 154-172). 61 Parte II. Algunas ideas de paradigma y sus ciclos Una correspondencia entre lenguaje y representación, donde solo era necesario identificar el espíritu de la arquitectura dominante para saber qué estilo era apropiado copiar y, de este modo, expresar o revelar ese espíritu (Eisenman, 1984, pp. 154-172). No es casual que Alberti reconociera el verdadero valor de las ruinas como pieza clave de esta nueva arquitectura, aprovechando cada oportunidad para que los vestigios del pasado emergieran con gran fuerza. De ahí que, a través de la observación de los monumentos romanos que todavía se mantenían en pie, León Battista Alberti pudo desarrollar las piezas faltantes del tratado de Vitruvio, añadiendo incluso a los cuatro órdenes conocidos, un quinto: el compuesto, que combinaba rasgos del orden jónico y del corintio. (Summerson, 1979, p. 17). Ejemplo de esto es el diseño de la fachada de la iglesia de San Francisco de Rímini, también llamada templo Malastestiano, construido en 1450. Para el diseño, Alberti tomaría como idea de origen el arco romano de la ciudad, y desarrollaría una fachada dividida en tres partes: en la parte central ubicaría un gran arco de medio punto que encuadraba la puerta principal, y las dos partes laterales quedarían elevadas por un basamento y dos arcos menores ciegos que enmarcarían los sepulcros de Segismundo e Isotta. De este modo, Alberti superponía a la fachada lisa un sistema de arcos, pilastras y arquitrabes clásicos: esto recibió el nombre de ornamentum, un elemento auxiliar de la belleza innata, al que le dedicaría cuatro de los diez libros de su tratado y que sirvió de canon para la arquitectura de las generaciones posteriores. Fig. 3. Iglesia de Sant’ Andrea en Mantua. 1456. Alberti no solo adaptaría la idea de arco triunfal para la fachada oeste, sino que también la llevaría al interior para tomarla como modelo 62 para las arcadas de las naves (Summerson, 1979, p. 30). Señala Alberti: “Si no me equivoco, aplicando ornamentos, empleando afeites y ocultando los aspectos que resultaran desagradables, o arreglando y haciendo resaltar los más hermosos, habrían conseguido que lo desagradable resultara menos ingrato y lo más hermoso más placentero. Si ello es así, el ornamento puede definirse como una especie de ayuda secundaria de la belleza, un elemento complementario. De lo expuesto aquí se evidencia, en mi opinión, que la belleza es una especie de característica propia e innata de todo cuerpo que se considere hermoso; el ornamento, en cambio, es por naturaleza algo accesorio, un aditamento más que un elemento natural” (Alberti, 1485). El concepto de sintaxis de los órdenes clásicos Durante la etapa clásica, el orden representaba la expresión perfecta de la belleza, un sistema numérico-proporcional cuya unidad básica era el semidiámetro de la columna tomado en la proximidad de la base: un valor universal denominado módulo, a partir del cual se deducía el resto de las dimensiones de la composición: fuste, capitel, base, entablamento, etcétera. Marcelo A. Fraile - Arquitectura biodigital Mediante este sistema, se aseguraban que todas las partes estuvieran proporcionadas y en armonía con el conjunto: era el concepto de simetría griega, la recíproca relación del todo con las partes. Cualquier alteración de algunas de estas hubiera obligado a modificar el resto de los elementos de la composición, por ejemplo: “…si ensanchamos el hueco en 30 cm ¿qué ocurriría? Pues que la corona del arco se elevaría unos 15 cm; y suponiendo que quisiera conservar la distancia existente entre el arco y el entablamento, este se elevaría otros 15 cm, con lo cual las columnas tendrían que ser 15 cm más altas y las reglas del orden …obligarían a incrementar las dimensiones de todos los demás elementos que integran el todo” (Summerson, 1979) . Posteriormente, durante el siglo XV, el Renacimiento italiano consideraría las proporciones de los órdenes bajo la concepción pitagórica de “todo es número”, una vuelta a las analogías con la música y el cuerpo humano. Con base en la geometría, Alberti desarrollaría un sistema de proporciones que corregía las dimensiones básicas del espacio, a través de un procedimiento de relaciones aritméticas simples. Un axioma apriorístico materializado mediante una arquitectura considerada como ciencia. En este sentido, para Alberti, las proporciones de los órdenes eran el único elemento capaz de concebir la belleza en una obra de arquitectura: el observador percibiría la perfección del objeto creado como una parte integral de este, “…por lo que no tiene la necesidad de añadir ni quitar nada; [una] belleza intocable” (González González, 1988, p. 70). Como antes vimos, Alberti sería el encargado de reunir los órdenes arquitectónicos de Vitruvio –el dórico, el jónico, el corintio y el toscano–, y añadir un quinto: el compuesto, resultado de las observaciones de las ruinas romanas. Sin embargo, “la actitud de Alberti seguía siendo perfectamente objetiva y vitruviana”. Para Summerson, sería Sebastiano Serlio “quien casi un siglo después, inici[aria] realmente la larga carrera de la canonización de los órdenes clásicos en una autoridad indiscutible, simbólica y casi legendaria” (Summerson, 1979, p. 14). Serlio, conocedor de las reglas de Vitruvio, “compilaría la primera gramática arquitectónica completa y plenamente ilustrada del Renacimiento”. Su tratado comenzaba con un grabado de los cinco órdenes arquitectónicos, “… alineados según su delgadez relativa, …El rechoncho toscano está a la izquierda; viene después el dórico, similar, pero ligeramente más esbelto; el elegante jónico; el altivo y refinado corintio, y finalmente, el aún más alargado y decorado el compuesto” (Summerson, 1979, p. 15). Con gran detalle, Serlio desarrollaría las dimensiones de cada uno de los órdenes, sus partes, y al igual que antes lo había hecho Vitruvio, los personalizaría y recomendaría qué orden utilizar de acuerdo con el tema del encargo: “El dórico …debe usarse en iglesias consagradas a los santos más extrovertidos: San Pablo, San Pedro, San Jorge… el jónico a los santos y santas matronales –ni demasiado duros ni demasiado tiernos– y también a los hombres cultos; el corintio a las vírgenes, y muy especialmente a la Virgen María… mientras que considera el toscano muy adecuado para fortalezaz y prisiones” (Summerson, 1979, p. 15). Ahora bien, los órdenes de Serlio, aunque reflejaban los órdenes de Vitruvio, estaban basados en cierta medida en sus propias observaciones de los monumentos clásicos. Recordemos que el texto de Vitruvio presentaba lagunas que solo mediante las ruinas se podían llenar. Y dado que los órdenes variaban de una obra a otra, en realidad lo que Serlio hacía era extraer de estos “…los rasgos que considera[ba] más idóneo[s] para cada orden a fin de configurar su corintio ideal, su jónico ideal, etcétera” (Summerson, 1979, p. 17). Tiempo después, (1562), los órdenes propuestos por Serlio serían reformulados, recodificados y racionalizados por Vignola, y se los transformaría en conceptos matemáticos fáciles de reproducir sin perder su lógica. 63 Parte II. Algunas ideas de paradigma y sus ciclos Fig. 4. Templo Malastestiano. Alberti desarrollaría una fachada dividida en tres partes: en la parte central ubicaría un gran arco de medio punto que encuadraba la puerta principal, y las dos partes laterales quedarían elevadas por un basamento y dos arcos menores ciegos. En su libro, Vignola establecía como módulo el diámetro inferior de la columna, lo que lo convertía en medida de todo el edificio, una relación de proporciones constantes para cada una de sus partes. En este sentido, las reglas de Vignola constituían un manual con indicaciones simples y precisas de cómo utilizar los órdenes. Una regla coherente que permitía flexibilizar sus aplicaciones. Por su parte, Palladio, conocedor del tratado de Vitruvio, conservaría los órdenes arquitectónicos, pero los utilizaría de un modo que le permitió crear una nueva arquitectura. Tomaría los edificios de la antigüedad romana como modelos, pero a diferencia de Serlio y de Vignola, los depuraría, los “corregiría”, imaginando cuales serían los órdenes más adecuados para cada caso (Arnau Amo, 2008). 64 Palladio establecería los órdenes como patrones de proporción con la arquitectura, a través de un método organizado en tres partes: en primer lugar, la investigación, es decir, la observación, el dibujo y la medición de la antigüedad; en segundo lugar, la normalización, mediante la abstracción de los datos obtenidos que normalizaba en un lenguaje; y finalmente en tercer lugar, la aplicación de estas normas mediante ejemplos de su propio repertorio (Arnau Amo, 2008). A mediados del siglo XVII, se iniciaría en Francia una serie de cuestionamientos con respecto a los órdenes y si estos debían ser utilizados o no en los edificios modernos. En un intento por arrojar luz sobre este eterno conflicto, se crearía, en 1671, la Real Academia de Arquitectura, una empresa verdaderamente ardua que buscaría establecer una doctrina global sobre la edificación, preservando su tradición clásica: un modelo que habría de ser imitado en todo el mundo. Casi al mismo tiempo, el arquitecto francés Claude Perrault, a través de sus escritos, cuestionaría fuertemente el mítico postulado del Renacimiento por el cual la belleza de un edificio estaba garantizada a través de la exactitud y precisión en el uso de los órdenes clásicos. Para el Marcelo A. Fraile - Arquitectura biodigital tratadista francés, tomar al hombre como referencia para definir el orden era un error, ya que la arquitectura no tiene nada que ver con la mímesis de la naturaleza, dado que el cuerpo –como la columna– son muy variables, lo que los hace inadmisibles para poder deducir un sistema de proporciones ideales. Es por esto que no existe una regla absoluta, la belleza es solo un criterio, una “fantasía subjetiva”, una percepción variable, que depende de múltiples factores tales como la moda, la tecnología disponible, la educación o el sitio. Perrault intentaría un acercamiento a los conceptos de orden planteados en el tratado de Vitruvio, desdoblando la definición a partir de dos elementos no relacionados: por un lado, la proporción que determinaba las partes de una columna –como son el capitel, la base o el arquitrabe–; y por el otro, la forma que determinaba su uso, como el dórico, el jónico o el corintio. En este sentido, Perrault consideraba que el orden arquitectónico real sólo era posible de obtener combinando ambas operaciones en una estructura doble, en una única relación proporcional: una progresión numérica simplificada, un conjunto de valores modulares para cada orden, con base en números enteros que representaran los valores medios calculados a partir de los sistemas conocidos. Una especie de regla de aproximación, reunida de manera sencilla, en la cual podrían basarse los arquitectos durante la tarea de proyectar. A finales del siglo XVIII, el relativismo histórico ponía en discusión el valor de los órdenes como lenguaje universal: un nuevo diseño codificado a partir de la razón buscaba desarrollar una arquitectura que representara la verdad, lejos de la visión renacentista de armonía y orden divino (Eisenman, 1984). En su tratado, el abate Laugier desarrollaba el origen de la arquitectura bajo un enfoque naturalista: describía lo que él llamaba la “cabaña primitiva”, en la cual las ramas y troncos que la conformaban sugerían las columnas y frontones que después recrearían el lenguaje arquitectónico clasicista (Maderuelo, 2008, p. 364). Para Laugier, la arquitectura debía estar acorde con la razón, una arquitectura respetuosa de las leyes naturales y relacionadas con las simetrías y proporciones de la arquitectura clásica griega: en franca oposición al estilo barroco y rococó. En consecuencia, Laugier consideraba que el orden no era solamente un objeto ornamental, sino que también creía que era constitutivo. Implícitamente, en sus afirmaciones Laugier establecía que, por una parte, la arquitectura se encontraba constituida por elementos tales como “…columnas, entablamentos, frontones, paredes, puertas y ventanas. Estos elementos son vistos, por tanto, como partes esenciales, como piezas constitutivas del edificio, no como aditamentos meramente encaminados a conferirle orden, articulación y belleza”; en tanto que por otra parte, “…pese a la reducida cantidad de elementos de que dispone, la arquitectura puede dar respuesta a las más 65 variadas –y nuevas– solicitaciones en virtud del número potencialmente infinito de combinaciones de que esos elementos son susceptibles” (Hereu, Montaner, & Oliveras, 1999, p. 21). Finalmente, el golpe de gracia se produciría a principios del siglo XIX, bajo una estricta racionalidad, las nociones tradicionales de los órdenes serían desacreditados por el parisino Jean Nicolás Louis Durand, quien tampoco aceptaba las teorías de Cordemoy, Laugier y de otros tratadistas que consideraban los órdenes bajo una mirada universal. Para Durand, los órdenes “…no forman, en modo alguno, la esencia de la arquitectura; que el gusto se espera de su empleo y de la decoración resultante, no existe; que la propia decoración es una quimera y los gastos que requiere, una auténtica locura” (Benevolo, 1989). El tratado de Durand, difundirá la llegada de una nueva concepción de la arquitectura: “sus figuras se reconocen por el grafismo, [que] anuncian toda la producción de los ingenieros del siglo XIX. Aparecen ya claramente todos los caracteres: la manera de componer por adición mecánica, la independencia entre el conjunto estructural y el acabado de los elementos, que reducen al mínimo el arbitrario del proyectista” (Benevolo, 1989, p. 69). Parte II. Algunas ideas de paradigma y sus ciclos El papel de los tratados Entre los diversos géneros literarios importados de la Antigüedad, se encontraba el Tratado de arquitectura, cuyo principal fin fue el de servir de instrumento para la formación de los arquitectos. Su historia ha sufrido una evolución y transformación a lo largo de 400 años, hasta su extinción definitiva a comienzos del siglo XX. Los tratadistas se encargaron de estudiar las proporciones de los órdenes clásicos, obtenidas a través del relevamiento de los monumentos griegos y romanos, para luego sistematizarlas mediante el cálculo matemático. En esencia, los tratados eran sistemas cerrados, ordenados de lo general a lo particular, y escritos con un lenguaje claro y sencillo, para ser entendido por profesionales de formaciones muy dispares. Fig. 5. Serlio, conocedor de las reglas de Vitruvio, “compilaría la primera gramática arquitectónica completa y plenamente ilustrada del Renacimiento”. (Summerson, 1979, p. 15). Y si bien la estructura de los tratados variaba de acuerdo con el tratadista, por lo general estos estaban constituidos por dos partes distintas y complementarias: una primera parte más teórica, en donde se desarrollaban “las reglas del arte”, que incluían conocimientos de aritmética y de geometría euclidiana, fórmulas exactas, racionales y armónicas; y una segunda parte práctica, generalmente en forma de láminas grabadas, que incluía los órdenes clásicos extensamente desarrollados por sus autores. Estas ilustraciones constituían una parte esencial del libro, ya que a partir de estas era fácil entender los textos. De este modo, el tratado cumplía una función práctica, pero sin olvidar los aspectos teóricos-normativos y de difusión: un corpus general de cómo debía ser la arquitectura de ese período. 66 Muchos fueron los textos de arquitectura producidos por la cultura greco-romana, sin embargo, el único que ha llegado hasta nosotros es el Tratado de Marco Vitruvio Polión, De architectura libri decem, escrito en el siglo I aC en honor del emperador Augusto, fue redescubierto en el monasterio de Saint Gall por Poggio Bracciolini en 1414. De carácter enciclopédico, el Tratado de Vitruvio constituyó una síntesis de los conocimientos teórico-prácticos. Una referencia de primera mano de la Antigüedad grecorromana. Una compilación ordenada y sistemática de los conocimientos sobre la construcción de su época que se transformaría en una referencia ineludible para los artistas del Renacimiento. Al respecto, uno de estos tratados fue Re Aedificatoria, del arquitecto genovés León Battista Alberti (1404-1472), publicado en 1485, en Florencia. Al igual que el Tratado de Vitruvio, el Tratado de Alberti estaba compuesto por diez libros en donde reunía todos aquellos aspectos teóricos y prácticos inherentes a la profesión de la arquitectura. El tratado fue escrito en latín como un modo de establecer su propio vocabulario de la arquitectura, a diferencia del de Vitruvio que estaba escrito en un Marcelo A. Fraile - Arquitectura biodigital lenguaje híbrido de latín y griego. Para la profesora catalana Ana Belén Pérez Onecha, su título De la edificación, puede deberse a la necesidad de distanciarse del Tratado de Vitrubio y remarcar su enfoque mucho más técnico (Perez Onecha, 2012). Con la publicación del Tratado de Alberti, el arquitecto cantero de los tiempos de Vitruvio sería reemplazado por el arquitecto humanista: un intelectual encargado de transmitir sus ideas a los constructores a quienes se les confiaría la materialización de la obra: “el primero posee la conciencia y se reserva la teoría, rehusando confundirla con la práctica” del segundo (Benevolo, 1967, p. 87). A partir de entonces, la disciplina entraría en una nueva era del lenguaje escrito: una sistematización de la arquitectura que requeriría de saberes previos, de la teoría y de reglas explícitas para construir (Sarquis, 2004, p. 48). El proyecto, ahora definido de antemano, jugaría un papel clave en esta Fig. 6. Perrault intentaría un acer- renovación al convertirse en un preciso instrumento para la transmisión de las ideas. El lenguaje quedaba comprometido con la representación “…ya que no era ‘el significado’ sino ‘un mensaje’ lo que se mostraba en el objeto” (Eisenman, 1984, pp. 154-172). Cada dibujo, cada maqueta, debería comunicar lo más claramente posible el proyecto a su constructor: “…haciendo que los problemas formales tomasen la mayor importancia de modo que solamente pudieran ser resueltos por los arquitectos con su nuevo instrumental” (Corona Martínez, 1998, p. 9). camiento a los conceptos de orden A partir del Tratado de Alberti, una nueva generación de tratados buscaría codificar el mensaje clásico, en un proceso por redefinir los parámetros de la nueva arquitectura. Un cuerpo teórico de saberes diversos planteados en el tratado de Vitruvio, desdoblando la definición a partir de dos elementos no relacionados: por un lado, la proporción que determinaba las partes de una columna – como son el capitel, la base o el arquitrabe–; y por el otro, la forma que determinaba su uso, como el dórico, el jónico o el corintio. y complejos que poco a poco se fueron especializando y diversificando. “Pero lo que es la belleza y lo que es el ornato en sí mismo, y qué diferencia hay entre ambas cosas, quizá lo entenderemos mejor con el ánimo, pues no me será fácil explicarlo con palabras. Pero para ser breves la definiremos de este modo y diremos que la belleza es un concierto (concinnitas) de todas las partes reunidas con proporción y razonamiento en el conjunto en que se encuentren, de manera que no se pueda añadir, quitar, o cambiar ninguna cosa que no sea para empeorarlo” (Alberti, 1485). Uno de los pioneros en el manejo de las ilustraciones dentro de los tratados fue el arquitecto italiano Sebastiano Serlio (1475-c.1554), quien a partir de su tratado I Sette libri dell’architettura3, publicado en Venecia en 1540, utilizaría una serie de grabados como información complementaria a los textos, algo de lo que habían carecido los tratados de Alberti y de Vitruvio. Una serie de láminas en donde Serlio codificaría los cinco ordenes clásicos. En su tratado, el arquitecto italiano representaba las ruinas de la Antigüedad romana y edificios de su época para que sirvieran como ejemplos prácticos de aprendizaje. Un repertorio de tipologías arquitectónicas romanas dibujadas detalladamente y que servían como estímulo a la imaginación de los arquitectos del momento. 3. Los siete libros de la Arquitectura. 67 Parte II. Algunas ideas de paradigma y sus ciclos Los siete libros de arquitectura de Serlio se transformarían en un manual didáctico, una guía sistematizada sobre los temas prácticos de la arquitectura, necesario para que los constructores pudieran dar una respuesta a los problemas que se les presentaban en forma cotidiana. Una edición crítica de su contenido, cuyo enfoque teórico-práctico lo llevaría a elaborar sus propias hipótesis, con abundantes notas y opiniones. El tratado de Serlio alcanzaría gran difusión en los siglos posteriores al ser traducido a diversas lenguas y extenderse por países como Francia, España, Alemania, entre otros. Veintidós años después de la publicación del tratado de Serlio, el arquitecto italiano Giacomo Barozzi da Vignola (1507-1573) publicaría Regola Fig. 7. Vignola establecía como módulo el diámetro inferior de la columna, lo que lo convertía en medida de todo el edificio, una relación de proporciones constantes para cada una de sus partes. delli cinque ordini d’architettura4. Uno de los tratados más conocidos y utilizados en la historia de la arquitectura. En poco tiempo se constituiría en un reemplazo del libro IV de Serlio y se transformaría en un auténtico manual sobre los órdenes. A diferencia de otros tratados como el de Alberti o el de Serlio, el de Vignola se componía de abundantes ilustraciones: 29 láminas acompañadas de una breve explicación para su utilización práctica. Vignola racionalizaría la composición de los órdenes mediante la introducción de un sistema numérico-proporcional: un sistema modular que permitía el dimensionado de cada una de las partes de los órdenes y la proporción general del conjunto. En este sentido, las Regola delli cinque ordini d’architettura, se transformaría en un verdadero vademécum, una Fig. 8. Palladio, inspirándose en Vitruvio, investigaba las ruinas del pasado serie de sugerencias necesarias para no equivocarse y producir un gran número de obras correctas, aunque frías y acompasadas (Vagnetti, 1997, p. 250). que tomaba como guía y modelo, demostrando un profundo conocimiento de la arquitectura clásica, ciñéndose “…a la Regola de Vignola hasta en las 68 ilustraciones”. Contemporáneo con Vignola, en 1570, el arquitecto veneciano Andrea di Pietro della Góndola, mejor conocido como Andrea Palladio, escribiría Il quattro libri dell`architettura5: publicado en Venecia. El tratado, escrito en latín vernáculo, presentaba una organización que serviría de modelo para los tratados posteriores. Inspirándose en Vitruvio, investigaba las ruinas del pasado que tomaba como guía y modelo, demostrando un profundo conocimiento de la arquitectura clásica, ciñéndose “…a la Regola de Vignola hasta en las ilustraciones, que seguían la misma disposición metódica… 21 láminas ilustran lo esencial de los cinco órdenes” (Arnau Amo, 2008). Sin embargo, a diferencia de Vignola, utilizaba para ilustrar su tratado: “…plantas y alzados de muchos edificios del pasado”. Y aunque Bramante no pertenecía al período clásico, esto no le impidió citarlo como tal, considerándolo el único continuador de la Antigüedad. Como tampoco fue un obstáculo utilizar sus propias obras como ejemplos, a la altura de los edificios de la Antigüedad: obras corregidas, regularizadas e idealizadas, como un recurso teórico de inspiración. 4. La regla de los cinco ordenes de Arquitectura, 1562. 5. Los cuatro libros de Arquitectura, 1570. Marcelo A. Fraile - Arquitectura biodigital El Tratado de Palladio tendría especial impacto en las islas británicas, en Estados Unidos, en China y en Australia, donde sus teorías se transformarían en complejas herramientas de arquitectura. Esto quizás se deba a la claridad de sus mensajes que serían aplicados, bajo un proceso de experimentación, durante el neoclásico, por arquitectos como Íñigo Jones, Christopher Wren o Nicholas Hawksmoor: una búsqueda de belleza a través de las proporciones geométricas en un ámbito apasionado y polémico que se constituirá en soporte del pensamiento arquitectónico. Con el tiempo, y en especial durante el Iluminismo, se incorporarían diferentes tipos de tratados, manuales y diccionarios de arquitectura, que ocasionarían interminables debates en torno a la estética de la arquitectura, donde las rígidas normas comenzarían a resquebrajarse. Para el historiador del arte francés Louis Hautecœur (1884-1973), la gran pregunta era descubrir si la belleza era la consecuencia de reglas válidas en sí o si nos venía impuesta simplemente por el prestigio de los antiguos. Muchos académicos, incluido François Blondel, “…creían que existía una belleza en sí, una especie de idea platónica, de la que las creaciones humanas eran una sombra, belleza divina de la que la belleza arquitectónica era una hipóstasis” (1997, p. 286). Buscando una solución a esta cuestión, la Real Academia de Arquitectura propuso al arquitecto francés Claude Perrault (1613-1688) la tarea de realizar una nueva traducción al francés del Tratado de Vitruvio. En 1673, Perrault publicaría Les dix livres d’ architecture de Vitruve, corrigez et traduits nouvellement en français avec des notes et des figures, en donde criticaba la arbitrariedad de considerar la belleza asociada al cuerpo humano. Alegando además que las proporciones en la arquitectura son variables. Apenas publicado, el Tratado de Perrault comenzaría a recibir fuertes críticas, esto se debía en parte a que durante mucho tiempo, para algunos teóricos, los textos de Vitruvio y el concepto de arquitectura clásica eran considerados equivalentes. Uno de los más acérrimos opositores a Perrault fue François Nicolás Blondel quien, como respuesta al Tratado de Perrault, escribiría Cours d’architecture6, publicado en 1675, representando los valores más significativos de la tradición. Para Blondel, “La arquitectura posee una belleza objetiva que reside en la naturaleza misma de las cosas, siendo realizada por el arquitecto, pero no inventada por él”. La belleza será “…independiente del tiempo y de las circunstancias” (Tatarkiewicz, 2004), y consistirá en una disposición proporcionada de partes. Ocho años después, en 1683, Perrault escribiría un segundo tratado sobre los órdenes, Ordonnance des cinq espèces de colonnes selon la mèthode des anciens. En este tratado, Perrault expondría el concepto de belleza arquitectónica bajo dos componentes casi simétricos: por un lado, un componente objetivo que el llamaría “belleza positiva” y que se encontraba lejos del concepto de proporciones, ya que abarcaba lo útil, lo cómodo, lo saludable y lo sólido que posee un edificio; y por el otro, una belleza subjetiva, que él llamaría “belleza arbitraria”, y que correspondería con lo bello, lo que gusta a la mayoría de los hombres con educación, independiente de cualquier ley de la naturaleza, una belleza variable, que cambia a través del tiempo y tiene que ver con la moda. Tiempo después, los aspectos constructivos y funcionales propuestos por Perrault serían desarrollados por Michel de Fremin en sus Mémoires critiques d’architecture, publicado en 1702. Una postura que permitió definir la importancia del uso como factor determinante en la arquitectura. Cuatro años después, en 1706, es publicado el Nouveau traité de toute l’architecture del abate francés Jean Louis de Cordemoy (1655-1714), un nuevo tratado sobre los órdenes que seguiría lo planteado por Fremin. En este sentido, Cordemoy pretendía acabar con la utilización decorativa de los órdenes y con lo que él llamaba “arquitectura en relieve”, para que recuperasen su función original. 6. Clases de arquitectura, 1675. 69 Parte II. Algunas ideas de paradigma y sus ciclos En 1753, el jesuita y teórico francés Marc Antoine Laugier (1713-1769) publicaría Essai sur l´Architecture7, en donde por primera vez se ponía en duda la autoridad de los órdenes. Para Laugier, los órdenes no debían utilizarse solo como una decoración, la belleza de la arquitectura radicaba en la aplicación racional de los elementos, él “…deseaba que los arquitectos lo utilizasen con el mismo sentido de verdad constructiva que alentaba en los puntales y vigas de la cabaña primitiva” (Summerson, 1979, p. 69). Desde este punto de vista, la cabaña primitiva había sido la primera morada sagrada, un regalo de los dioses para los hombres que, con su sabiduría, enseñaban el modo de construcción. Esta concepción establecía un paso de la cabaña primitiva al templo, para perfeccionarlo en la versión en madera del dórico, versión que luego fue copiada en piedra, hasta establecerse lo que nosotros conocemos como órdenes. Un modelo para ser imitado por las generaciones posteriores. No obstante, el concepto de cabaña primitiva era una especulación teórica sin fundamentos arqueológicos y apoyada superficialmente en textos especulativos, con una fuerte inclinación clasicista. En su concepción más abstracta, bajo una doctrina racionalista, llevaba implícita la idea de que la arquitectura debía imitar a la naturaleza negando la existencia de reglas absolutas. Fig. 9. Para Laugier, los órdenes no debían utilizarse solo como una decoración, la belleza de la arquitectura radicaba en la aplicación racional de los elementos, él “…deseaba que los arquitectos lo utilizasen con el mismo sentido de verdad constructiva que alentaba en los puntales y vigas de la cabaña primitiva” (Sum- 70 merson, 1979, p. 69). Posteriormente, en 1802, Durand escribiría Précis de lecons d’Architecture donnés a l’Ecole Polytechnique8, un compendio de sus lecciones impartidas en la Ecole Polytechnique de París para sus alumnos de ingeniería militar. En su método, Durand sintetizaba algunos de los planteos más importantes a finales del siglo XVIII: un sistema clásico de composición estandarizado para usarse en el proyecto arquitectónico y que se mantendría vigente durante todo el siglo XIX. Gracias a su simplicidad, versatilidad y aparente neutralidad, su método se constituiría en una base segura de operatividad que permitiría asumir, sin grandes complicaciones, incesantes innovaciones técnicas, tipológicas y formales (Hereu et al., 1999, p. 23). De este modo, Durand elaboraría un método de proyección sistemática de fácil aplicación práctica a través de la resolución de dos tipos de problemas: por un lado, aquellos relacionados con la ‘conveniencia’ –dada cuando se obtiene solidez–, la salubridad y la comodidad; y por el otro, aquellos relativos a la ‘economía’, eficiencia y planificación clara del proyecto y sus métodos de ejecución, mediante la simetría, la regularidad y la sencillez. El concepto de razón se convirtió en el centro de la nueva arquitectura: “Si una arquitectura ‘parecía racional’ –es decir, representaba la racionalidad–, se creía que representaba la verdad” (Eisenman, 1984, pp. 154-172). 7. Ensayo sobre la arquitectura, 1753. 8. Compendio de lecciones de arquitectura, 1802. Marcelo A. Fraile - Arquitectura biodigital Para Durand, el proyecto debía ser elaborado en planta, que era la única solución correcta, considerando ridículo aquellos arquitectos que comenzaban sus diseños desde la fachada. El sistema establecido por Durand partía de un programa preestablecido de tres etapas: en la primera, el diseñador planteaba un análisis del programa y del sitio en donde se establecía una descripción de los elementos con sus propiedades, formas y proporciones (¿el edificio será un bloque macizo o estará ahuecado por patios?); en la segunda parte, se definían los métodos utilizados para vincular los elementos de cada fragmento del edificio (¿cuáles serán sus partes principales y cuales sus secundarias? ¿cuál es el número y tamaño de cada caso? ¿cuáles son sus posiciones absolutas, y relativas?); y finalmente, en la tercera parte, el arquitecto establecía el diseño de los elementos singulares, de los detalles, y de los tipos constructivos. Todo este proceso era organizado bajo una rigurosa simetría axial, capaz de adaptarse a casi cualquier programa de edificación. Para ello, inicialmente se trazaban los ejes principales y los ejes secundarios y se generaba una grilla modular que era usada como base para ordenar y ubicar todos los elementos de arquitectura, muros, estructuras, e instalaciones. Una propuesta con base geométrica, resultado de un esquema matemático; una organización en trama alrededor de varios patios interiores que garantizarían la funcionalidad del edificio. Fig. 10. Para Durand, el proyecto debía ser elaborado en planta, que era la única solución correcta, considerando ridículo aquellos arquitectos que comenzaban sus diseños desde la fachada. En el tratado de Durand, los órdenes son sustituidos por soluciones racionales de sus partes a los problemas funcionales y constructivos. Función y construcción son elementos determinantes en la arquitectura de Durand, que lejos de la tradición clásica, se transformaría en un planteamiento racional de la modernidad y ejercería una enorme influencia en toda una generación de arquitectos durante el siglo XIX. Para Durand, “Los elementos son para la Arquitectura lo que las palabras para el lenguaje, como las notas para la Música, sin su perfecto conocimiento es imposible ir adelante” (Corona Martínez, 1998, p. 19). En esencia, el concepto de composición de Durand se trataba de “… relacionar partes para formar un todo, decidir cuál ha de ser la relación entre esas partes, crear la estructuración del edificio futuro” (Corona Martínez, 1998, p. 19). Una racionalidad de la arquitectura donde el concepto de carácter de una obra no es estático, sino que aparece como uno de los objetivos de la creación proyectual. A través de los procesos compositivos, el pensamiento clásico centraba su atención en las leyes que regían y estructuraban la forma del edificio. Una primacía de las leyes geométricas, que ordenaba y componía las partes entre sí y estas con el todo. Un conjunto de elementos previamente definidos y conjugados que, relacionados coherentemente, brindaban armonía, unidad y proporción a un edificio, de acuerdo con los preceptos clásicos de belleza. 71 Parte II. Algunas ideas de paradigma y sus ciclos La estructuración del proyecto permitía el desarrollo de formas complejas, una composición controlada a través de un sistema de partes vinculadas y ordenadas mediante reglas geométricas y valores capaces de desarrollar un objeto ‘bello’. La arquitectura de Durand revistió de gran trascendencia y se constituyó en la sistematización de un nuevo modo de pensar arquitectónico. Un sistema geométrico racional, bajo una mirada positivista, que creía en el papel de la tecnología como herramienta necesaria para modificar las actividades del hombre de una manera más profunda, en concordancia con la complejidad de los nuevos problemas. La crisis del paradigma clásico A finales del siglo XIX, el mundo había cambiado: luego de años de profundas crisis estilísticas, las viejas composiciones clásicas heredadas de los griegos y de los romanos llegarían a su final: de este modo, una serie de cuestiones referentes a la forma arquitectónica sería dejada de lado para dar paso a otras cuestiones relacionadas con la tecnología, la industrialización, la planificación y la producción en serie (Summerson, 1979, p. 80). Próximo al fin, se comenzaría a vivir un momento en que los valores de la arquitectura clásica se consideraban inciertos. El debate sobre el orden y el ornamento se convertiría en uno de los puntos de referencia para conformar una nueva arquitectura. Para el arquitecto británico Joseph Rykwert (1926), lo clásico había implicado lo atemporal, “…evocaba la idea de ‘antiguo y ejemplar’ y sug[ería] ‘autoridad y distinción’: era un modelo de lo que es excelente o de máximo nivel” (Eisenman, 1984, pp. 154-172). Fig. 11. Todo parecía flotar y desvanecerse en una arquitectura de cajas 72 blancas, ventanas corridas, y volúmenes homogéneos puestos a la luz del sol. Una arquitectura que, con pequeñas variaciones, había perdurado desde el Renacimiento, buscando en sus orígenes, readaptándose, combinando sus partes, en su intento por perdurar a través de la historia. Sin embargo, los nuevos diseños oscilantes ya no soportaban sus herramientas compositivas, elaboradas bajo una secuencia lineal, basadas en el proceso como principio y fin de esta. Su arquitectura parecía haber sufrido un agotamiento del lenguaje clásico, imposibilitado ya de dar una respuesta satisfactoria a las nuevas necesidades de una sociedad mecanizada que pensaba diferente. Ya era tarde, a partir de la Revolución industrial, la piedra daría paso a las construcciones en hierro de un mundo capitalista, de producción en serie. Todo parecía flotar y desvanecerse en una arquitectura de cajas blancas, ventanas corridas, y volúmenes homogéneos puestos a la luz del sol. Las anomalías habían comenzado, y con los años se producirían nuevos cambios y nuevas anomalías. Era el fin de una arquitectura que había sido sostenida a lo largo de quinientos años. Una revolución daría paso a un nuevo paradigma. El paradigma mecanicista había comenzado. Marcelo A. Fraile - Arquitectura biodigital Figuras Fig. 1. Los órdenes clásicos. https://www.vaporustedes.info/la-arquitecturagriega/ Fig. 2. Partenón de Atenas. http://3.bp.blogspot.com/-BUcdkQO2wMc/ VeAi7tYBkMI/AAAAAAAAAN0/ux-wWVOjmZk/s1600/greek_classic_ Parthenon_c450_BCE_large_exterior.jpg Fig. 3. Sant’ Andrea de Mantua. https://es.wikipedia.org/wiki/ Bas%C3%ADlica_de_San_Andr%C3%A9s_(Mantua)#/media/File:Sant_ Andrea_straight.jpg Fig. 4. Templo Malatestiano.https://upload.wikimedia.org/wikipedia/ commons/0/0e/Tempio_malatestiano_in_bianco_e_nero.jpg Fig. 5. Tratado de Sebastiano Serlio. https://upload.wikimedia.org/wikipedia/ commons/c/cf/Serlio_5_orders_peake.png Fig. 6. Tratado de Claude Perrault. http://betonbabe.tumblr.com/ post/3157878297/on-claude-perrault-normative-aesthetics-by Fig. 7. Tratado de Vignola. https://upload.wikimedia.org/wikipedia/ commons/3/3b/VignolaS%C3%A4ulen.jpg Fig. 8. Tratado de Palladio. https://upload.wikimedia.org/wikipedia/ commons/4/4c/Houghton_Typ_525_70.671_I_qvattro_libri_ dell%27architettvra_-_frontispiece.jpg Fig. 9. Tratado de Laugier. http://2.bp.blogspot.com/-Z8LIJsYvzyY/UCet_ ZVZiJI/AAAAAAAAAGU/_UmPATApRQo/s1600/primitive.jpg Fig. 10. Tratado de Jean Nicola Louis Durand. http://iala.udc.es/2011/11/ practica-08-revolucion-industrial.html Fig. 11. La maquina de habitar. http://historia1-weissenhof.blogspot.com. ar/2011/01/le-corbusiersuiza1887-francia-1965-fue.html 73 Marcelo A. Fraile - Arquitectura biodigital EL PARADIGMA MECÁNICO: HIPÓTESIS MECANICISTA “El 25 de mayo de 1916, Henry Ford le decía a un corresponsal del Chicago Tribune: La historia es una pavada. Nosotros no queremos tradición. Queremos vivir en el presente, y nos importa un bledo la historia que no sea la que hacemos hoy”. (Bauman, 1999, p. 139). A este segundo paradigma, lo denominaremos Paradigma Mecánico, y recoge en cierta medida la “Hipótesis Mecanicista” de Stephen Pepper y el “Presente Moderno” de Alberto Estévez. Para Pepper, la hipótesis raíz del mecanicismo es la máquina, un “mecanismo universal” donde el funcionamiento del mundo, por analogía, puede ser considerado como un gran dispositivo matemático, complejo y cerrado: lo que implica que este está formado por partes que interactúan entre sí, de un modo determinado. Comúnmente asociado a la física newtoniana, el paradigma mecánico provee los fundamentos de una ciencia clásica que plantea una teoría analítica del mundo, mecánicamente condicionada y estructurada por los ejes del espacio y del tiempo. En su esencia, aspiraba a descubrir las leyes que gobernaban el mundo, intentando describir sus efectos. En este sentido, aceptaba las nociones de causalidad lineal, unidireccional e independiente de las variables: un análisis lógico de la realidad como una colección de sistemas cerrados. Por su parte, el “Presente Moderno” de Estévez consideraba que este paradigma tendría sus inicios durante el siglo XIX, en coincidencia con las trasformaciones técnicas, económicas y sociales de principios de la Modernidad, al iniciar el camino que conduciría “…hacia el rompimiento con la arquitectura histórica del pasado, mientras se intenta[ba] descubrir cuál debería ser ese desconocido lenguaje de la arquitectura moderna, sin antecedente alguno” (Agkathidis, 2017, pp. 24-49). Con el tiempo, los arquitectos abandonarían los órdenes clásicos y las decoraciones profusas, para describir un espacio matemático con entidades abstractas que, a través de un proceso lógico, se transformaría en un conjunto de reglas para universalizar el verdadero conocimiento (De Souza, 2007, p. 95). Para esto, se requería de un salto sin retorno, que en el caso de la arquitectura representaría una disolución de “…sus tradicionales y académicos límites disciplinares, para afrontar la materialización de nuevos conceptos en torno a los cuales la ciencia, trata[ría] de explicar esa nueva realidad y las artes plásticas de visualizarla” (Ortega Barnuevo, 2015, p. 23). Tomando como base la producción masiva, el nuevo paradigma buscaría en la fabricación industrial su representación más fiel y precisa. Para esto, propugnaba un modelo estandarizado-mecanicista, con un sistema de producción prefabricado en serie; objetos sin variaciones, rigurosamente idénticos, de acuerdo con una estricta geometría euclidiana. Bajo un desarrollo tecnológico positivista, la Modernidad replantearía los oficios artesanales para convertirlos en “…trabajo[s] abstracto[s] reducido[s] a movimientos mecánicos”, donde el sujeto, “…con su deseo no cuenta como tal, …su deseo se le extrae para ponerlo al servicio del sistema” (García Moreno, 2013). Nuevos materiales como el hierro, el vidrio y posteriormente el hormigón armado, se convertirían en los medios para que los diseñadores generasen nuevas formas, bajo una limitación compositiva de elementos abstractos. Una arquitectura amnésica, basada en la negación o la ruptura con el pasado, bajo una voluntad estética de innovación y una búsqueda formal hacia la abstracción y el funcionalismo. 75 Parte II. Algunas ideas de paradigma y sus ciclos La Revolución Industrial Para el historiador español Fernando Chueca Goitia, la Revolución Industrial puede ser considerada el punto de partida de las grandes transformaciones tecnológicas, económicas y fundamentalmente sociales que se producirían a partir del siglo XIX y que influirían en todos los órdenes de la vida durante el siglo XX (1979, pp. 7-13). Conceptualmente, esta Revolución tenía como principio doctrinario las teorías filosóficas del economista escocés Adam Smith (1723-1790), padre de la economía capitalista, que sacudiría al mundo a través de las ideas expuestas en su libro “The Wealth of Nations”1, publicado en 1776. Para Smith, “el mayor avance y perfeccionamiento de la potencia productiva, y la destreza, habilidad y buen juicio con que esta potencia debe ser dirigida o aplicada [es] consecuencia de la subdivisión del trabajo”. Por ejemplo: “Diez personas repartiéndose diversas tareas en un taller pueden fabricar 48.000 alfileres en un día. Una persona sola, haciéndolo todo es imposible que haga la décima parte” (Chueca Goitia, 1979, pp. 7-13). Las teorías de Smith serían retomadas y completadas por los filósofos ingleses Jeremías Bentham (17481832) y Stuart Mill (1806-1873), quienes sentarían los postulados del utilitarismo, por el cual “La industria venía a ser el sistema autorregulador que lograba el equilibrio de todos los esfuerzos, dispersos e inconexos de los individuos, guiados por el incentivo de la ganancia pecuniaria” (Chueca Goitia, 1979, pp. 7-13). En este sentido, fueron fundamentales también los aportes del filósofo positivista francés Auguste Comte (1798-1857), que afirmaba que el único conocimiento auténtico era aquel conocimiento científico, surgido de las hipótesis y obtenido a través del método científico. A su vez, mientras las ideas económicas y filosóficas iban preparando el terreno de la nueva revolución, en el campo de la ciencia, los ingenieros, estaban produciendo avances trascendentales. Uno de los descubrimientos más importantes fue el de la máquina de vapor de James Watt, en 1775, que juntamente con la subdivisión del trabajo y la producción en serie generarían un cambio profundo en el mundo, mucho mayor que la Revolución social en Francia (Giedion, 1941, p. 167). Los nuevos descubrimientos científicos del momento impulsaron cada vez más al hombre decimonónico a romper las barreras que lo aprisionaban. Una modernización de la sociedad de acuerdo con las leyes del capitalismo que daba como resultado un proceso de evolución lineal, sin límites aparentes, donde los seres humanos eran introducidos en una búsqueda de prosperidad infinita, pero que en definitiva y con el tiempo conduciría hacia el camino de la anulación, masificación y anonimato. 76 En el campo de la arquitectura, estos avances impactaron en el desarrollo de nuevos materiales y sistemas constructivos; una sistematización de la antigua disciplina, descomponiendo el problema arquitectónico en sus componentes abstractos, que conduciría hacia una búsqueda de nuevas orientaciones y nuevos métodos. Para el arquitecto español Fernando Chueca Goitia (1911-2004), el puente sobre el río Severn, construido en 1775 en Coalbrookdale, Inglaterra, representa la primera obra de arquitectura realizada íntegramente en hierro colado. Una de las más tempranas anomalías que marcarían el agotamiento del antiguo modelo. Diseñado por el arquitecto inglés Thomas Prichard (1723-1777), el puente no constituía ninguna preocupación artística. Su forma casi semicircular era el resultado de una necesidad funcional realizada mediante una nueva tecnología: “…un solo arco, de 30,15 m de luz y una flecha de 13,5 metros, realizada con cinco nervios de hierro fundido” (Giedion, 1941, pp. 172-173). Al tratarse de hierro colado, permitía el desarrollo de formas caprichosas y estilísticamente complejas. A partir de 1850, algunos constructores comenzarían a experimentar con el hierro laminado, utilizándolo en el desarrollo de vigas y perfiles para la construcción. Un nuevo paradigma comenzaba a vislumbrarse en el 1. La riqueza de las naciones, 1776.. Marcelo A. Fraile - Arquitectura biodigital horizonte y permitía a los proyectistas desarrollar grandes estructuras con fachadas transparentes, permeables a la luz del sol. Una renovación tecnológica que irrumpía en el mundo del siglo XIX y generaba un nuevo lenguaje estilístico que todavía conservaba algunos de los rasgos del viejo paradigma anterior. En los procesos de difusión de estas nuevas ideas, las exposiciones universales constituyeron uno de los rasgos más sobresalientes, “… una exaltación de las hazañas y del poderío industrial de las naciones” (Chueca Goitia, 1979, p. 28). En este sentido, quizás uno de los ejemplos más interesantes al respecto sea el Crystal Palace, erigido por el naturalista y paisajista inglés Joseph Paxton (1803-1865), para albergar “Great Exhibition of the Works of Industry of all Nations”, celebrada en Londres, en 1851. Construido en tan solo seis meses, el Crystal Palace consistía en un gran pabellón de aproximadamente 508 m de largo, 137 m de ancho, 34 m de altura. Fue el primer edificio de esas dimensiones construido con Fig. 1. Puente sobre el río Severn, construido en 1775 en Coalbrookdale, Inglaterra, diseñado por el arquitecto inglés Thomas Prichard. cristal, hierro y madera, y montados sobre armaduras de hierro fundido. Considerado por muchos críticos como el punto de partida de la arquitectura moderna, propició la aparición de nuevas tipologías liberadas de los estilos del pasado. En el proceso, también produjo una separación manifiesta entre el arquitecto y el ingeniero: el arquitecto, apegado a los estilos históricos, fue dejado fuera de uno de los procesos más importantes del mundo moderno. En esencia, estábamos ante el nacimiento de un nuevo proceso histórico, con importantes transformaciones sociales y tecnológicas. Una revolución formal y social, que buscaría conciliar “…el industrialismo, la sociedad y la naturaleza, proyectando para ello prototipos de vivienda colectiva y planes ideales para ciudades enteras” (Curtis, 2012, p. 15). La mecanización sacudiría el mundo de los oficios y aceleraría el fin de las tradiciones vernáculas. Buscando un sentido de orden, los arquitectos tuvieron que optar por alguna de las tres alternativas posibles: algunos, con una posición continuista, “… se limitaban, simplemente, a facilitar los modos de vida tradicionales, y usaron la máquina para proseguir con el eclecticismo tardorromántico”, otros buscaron “…abstraer y clarificar la arquitectura vernácula para dar acomodo a las necesidades funcionales modernas”, finalmente, los miembros de un tercer grupo, “…imbuidos de una inquebrantable confianza en sí mismos e inspirados por una imaginación singularísima, sencillamente inventaron su propio lenguaje” (Roth, 2010, pp. 500-505). Una nueva arquitectura, que debía declarar su singularidad y exaltar para ello “…la iluminación eléctrica, las comunicaciones por radio, el automóvil, el aeroplano. El siglo que alboreaba debía ser el de la máquina, la velocidad y la movilidad, y la arquitectura de la época habría de proclamar sin ambages esta mecanización” (Roth, 2010, p. 501). 77 Parte II. Algunas ideas de paradigma y sus ciclos Fig. 2. El Crystal Palace, erigido por Había comenzado una revolución sin precedentes: “Sus efectos sobre el naturalista y paisajista inglés Joseph Paxton (1803-1865), para albergar “Great Exhibition of the Works of el pensar y el sentir fueron tan profundos que aún hoy día no podemos Industry of all Nations”, celebrada en valorar a cuál profundidad de la íntima naturaleza del hombre llegó a penetrar” (Giedion, 1941, p. 167). Londres, en 1851. El papel de las vanguardias El nuevo paradigma se encargaría de reemplazar los viejos tratados decimonónicos por los manifiestos: una declaración pública de principios (ideológicos y formales) que intentaban acabar con los cánones artísticos tradicionales para construir una utopía que trasvasara todas las fronteras de la vida cotidiana. 78 Bajo un carácter polémico y contestatario, las vanguardias utilizaron este nuevo lenguaje literario, para poner en marcha una renovación en la teoría y la práctica arquitectónica, alterando el equilibrio existente hasta el momento. El artista, en su papel de anticipador, definiría un nuevo escenario de la cultura y del arte como antídoto contra la sintaxis del pasado clásicos. Buscando un nuevo mundo para el futuro, se encontraba obligado a diseñar para las generaciones venideras. En sus textos, en sus cuadros, en sus dibujos, se condensaban sus ideas de progreso y su amor excesivo por la velocidad y la máquina. En este sentido, no se trataría de un arte de imitación, sino un arte de concepción. Términos como dinamismo, simultaneidad, líneas fuerzas, compenetración de planos, serían las palabras que representarían la nueva visión del mundo (Belli, 2010, pp. 19-38). Muchos de los artistas e intelectuales del momento habían comenzado a integrar activamente las filas de las diversas vanguardias europeas, sin que ello significase unidad absoluta de pensamiento: artistas como el ucraniano Kazimir Malevitch (1878-1935), el neerlandés Piet Mondrian (1872-1944), o el ruso Lázar Lissitzky (1890-1941), buscaban, a través Marcelo A. Fraile - Arquitectura biodigital de la abstracción, alertar al pueblo de la gran revolución que estaba por venir (Chueca Goitia, 1979, p. 143). Su intención era romper con las reglas clásicas de composición grecorromanas, extendiendo las fronteras del arte mas allá de la voluntad del diseño propiamente dicho: las relaciones clásicas y equilibradas del mundo conocible fueron dejadas de lado en favor de un mundo de formas geométricas puras, líneas simples e inclinadas. Formas sin más ideología que los materiales y las técnicas apropiadas para su materialización, un movimiento de arte abstracto que buscaba eliminar completamente la cosa, en un deseo de huir de los objetos naturales. Para el pintor ruso Kazimir Malévich (1878-1935), el arte debía rechazar lo convencional para instaurar una supremacía de la sensibilidad pura, bajo una dinámica futurista. De este modo, el universo era reducido a una serie de abstracciones geométricas que no buscaban representar la naturaleza, los objetos se transformaban en un fin en sí mismo, sin contenido alguno. Una yuxtaposición de formas de vivos colores cuya misión era la de simbolizar la esencia misma del arte, lejos de toda emoción o subjetividad del artista. Los trabajos plásticos de Malevich se transformaron en una fuente de inspiración para los ensayos arquitectónicos del escultor ruso Vladimir Tatlin (1885-1955) quien, utilizando “… formas simples, a las que por simple adición, o substracción… iba modificando para producir inestabilidad, intranquilidad, sensación de inseguridad, todo ello en los tres planos di- Fig. 3. Suprematismo, 1915-1916. Kazimir Malevich (1878-1935). reccionales que manejamos en el espacio” (Bernardele, 1994, p. 187). Uno de los teóricos más representativo de estas vanguardias fue el arquitecto ruso Moiséi Guínzburg (1892-1946) quien, en 1924, publicaría el libro Estilo y época. Para Guínzburg, la máquina “… ya ha superado sus límites y se incorpora poco a poco en lo más recóndito de nuestro estilo de vida, transformando nuestra psique y nuestra estética, la que constituye el factor más importante que influye en la concepción de la forma” (p. 81). La máquina había creado una nueva cultura, un nuevo modo de vida, donde lo colectivo prevalecería sobre lo individual. Para Gropius, la industrialización era el problema central en la construcción de su época. De lograrlo con éxito, fácilmente se resolverían el resto de los problemas sociales, económicos, técnicos y, por supuesto, también artísticos (Roth, 2010, p. 512). Conceptos que quedarían claramente plasmados en el nuevo edificio de la Bauhaus en Desaau, diseñada por Gropius y Adolf Meyer (18811929): una demostración de cómo la industria podía inspirar la generación de una nueva arquitectura que reflejara las relaciones directas entre las necesidades funcionales y la forma del edificio. Para Gropius, la tarea de la Bauhaus consistía en convertirse “… en pioneros de la simplicidad, es decir, en encontrar una forma simple para 79 Parte II. Algunas ideas de paradigma y sus ciclos todas las necesidades de la vida, una forma que sea al mismo tiempo respetable y genuina” (Frampton, 1992, p. 128). Estas circunstancias empujarían a los proyectistas lejos de los tradicionales estilos al solidificar una nueva visión del mundo; una asociación experimental entre artesanía, técnica y arte, que conduciría a una relación dinámica con la producción industrial: prototipos repetibles en serie, bajo un número cerrado de elementos que se ensamblaban y montaban para formar un objeto único. Walter Gropius la definió como “la arquitectura total”, un funcionalismo que no buscaba “… contraponer las exigencias funcionales a las formales dentro del viejo sistema de valores, sino de ver las unas y las otras desde un nuevo punto de vista. El gran mérito de Gropius consiste en haber sido el primero en individualizar claramente este concepto y haberlo traducido a términos didácticos adecuados” (Benevolo, 1989, p. 122). De la máquina y el habitar Fig. 4. Para Gropius, la tarea de la Bauhaus consistía en convertirse “… en pioneros de la simplicidad, es decir, en encontrar una forma simple para todas las necesidades de la vida, una forma que sea al mismo tiempo respetable y genuina” (Frampton, 1992, p. 128). De acuerdo a su definición, la palabra máquina proviene de latín machinarĭus, y este a su vez del griego μηχανή, y se refiere al “conjunto de mecanismos dispuestos para producir, aprovechar o regular una energía motriz” (Espasa Calpes, 2001). Por su parte, en una versión extendida, el Diccionario Larousse la define como el “conjunto de mecanismos combinados para recibir una forma determinada de energía, transformarla y restituirla en otra más apropiada, o bien para producir un efecto determinado” (Larousse, 1999). Conceptualmente, la máquina es un elemento artificial, formado por di- 80 ferentes piezas fijas y móviles, combinadas y ordenadas, cuya característica esencial es aprovechar, regular o dirigir determinada energía y transformarla para obtener un trabajo o efecto determinado. La máquina no tiene ornamentación superflua. Históricamente, la máquina ha funcionado como potenciadora de las actividades o trabajos del hombre. Si bien pueden variar, intrínsecamente una máquina tiene tres tipos de componentes: - El accionador: es el dispositivo responsable de hacer funcionar la máquina, para ello transforma la energía en un trabajo o efecto determinado. - Los mecanismos: son los elementos mecánicos encargados de transformar la energía del accionador en el efecto o proceso perseguido. - La estructura de soporte: son los elementos de sujeción que aseguran los mecanismos y el accionador. Sin embargo, durante la ciencia moderna, se cambiaría el concepto mismo de la máquina que dejaría de estar asociada a la idea de movimiento Marcelo A. Fraile - Arquitectura biodigital de la materia. A través de la ciencia, se había abstraído de esta el componente material, razón que permitía aprovechar el concepto de máquina para explicar todos los fenómenos y procesos que se producían en el mundo de la física, de la química e incluso de la biología. Fig. 5. Walter Gropius la definió como Nicolás Copérnico (1473-1543), Galileo Galilei (1564-1642), Isaac Newton (1643-1727) son solo algunos de los que considerarían el Universo como un conjunto mecánico regido por estrictas leyes universales. sino de ver las unas y las otras desde “la arquitectura total”, un funcionalismo que no buscaba “…contraponer las exigencias funcionales a las formales dentro del viejo sistema de valores, un nuevo punto de vista.” (Benevolo, 1989, p. 122). De manera análoga, el filósofo francés René Descartes (1596-1650), bajo la tesis de “animal-máquina”, creía que “los seres vivos, salvo el hombre, son meros mecanismos” (Plaza Guerrero, 1991, p. 5). Por su parte, el médico y filósofo francés Julien Offray de La Mettrie (17091751) no compartía la idea pasiva de Descartes. En 1747, escribió L’homme machine en donde expresaba que tanto el hombre, como todos los seres vivos, pueden ser explicados en términos exclusivamente mecánicos. Maquinas tan perfectas que “se dan cuerda a sí mismas”. Entre 1922 y 1931, el médico y divulgador alemán Fritz Kahn (18881968) explicaba el funcionamiento del cuerpo humano a través de una metáfora maquínica. En una colección de cinco volúmenes llamada La vida del hombre, Kahn desarrollaría una serie de dibujos para explicar el funcionamiento del cuerpo humano como si fuera un artefacto mecánico. Una combinación entre lo científico y lo artístico. Su contribución más importante es el desarrollo de una visualización creativa para explicar las ideas científicas complejas. Uno de sus trabajos más sobresalientes fue un póster dibujado por el arquitecto Fritz Schüler, titulado Der Mensch als Industriepalast2, en donde explora los 6 ciclos de la maquinaria humana a través de una analogía con la fábrica. 2. El hombre como un palacio industrial. 81 Parte II. Algunas ideas de paradigma y sus ciclos Hacia una máquina de habitar En 1911, el ingeniero norteamericano Frederick Taylor (1856-1915) publicaba el libro The Principles of Scientific Management3: una obra pionera en el campo de la administración en la que, bajo una concepción filosófica positivista, intentaba exponer las ventajas de la utilización de un conocimiento científico como un instrumento que contribuiría a obtener la mejor manera de desarrollar un trabajo. En su libro Taylor, “…quería producir una revolución mental en los obreros y los gerentes, mediante la creación de lineamientos claros para mejorar la eficiencia de la producción” (Robbins & Decenzo, 2002, p. 30). Un instrumento que contribuiría a una reforma social y que, curiosamente, en el proceso lograría cautivar a los arquitectos modernos europeos. En principio, el pensamiento de Taylor se apoyaba en una fe absoluta en la razón, esa “…capacidad de la mente humana para percibir, analizar y resolver cualquier problema” (Roth, 2010, p. 525). Una concepción positivista que se difundiría en múltiples ramas del conocimiento y llegaría también al campo de la arquitectura de la mano de las vanguardias a principios del siglo XX. Bajo el mito de una sociedad científica y racionalmente ordenada, que coincidía con la admiración por la belleza y la precisión de la máquina, la casa se transformaría también en un objeto producido en serie, como el automóvil, ese gran paradigma de la industrialización. En consecuencia, a través de esta mirada, todo debía y podía ser producido bajo un sentido racional del trabajo, “…una tendencia inexorable ha- Fig. 6. Entre 1922 y 1931, el médico y divulgador alemán Fritz Kahn (18881968) explicaba el funcionamiento del cuerpo humano a través de una metá- 82 fora maquínica. cia la industrialización: es decir, la producción en serie …y la repetitividad de cada elemento”, que resolvía con mayor eficacia que la artesanía tradicional y permitía que cada objeto pudiera ser reemplazado según la necesidad para, de este modo, eternizar la obra (Montaner, 1997, p. 145). En poco tiempo, Le Corbusier se transformaría en el profeta de esta nueva religión que, con la publicación en París en 1923 de Hacia una arquitectura, definiría una nueva forma de ver el diseño de su tiempo. Una arquitectura que veía en la producción industrial su representación más fiel y precisa, a través de un alejamiento deliberado por cualquier raíz histórica o tradicional. Para Le Corbusier, “…la arquitectura no tiene nada que ver con los ‘estilos’” (1964). En este sentido, los Congresos Internacionales de Arquitectura Moderna (CIAM), desde el principio, actuaron como herramientas de propaganda de estas nuevas ideas que se venían gestando en la Europa de 1920. Un racionalismo arquitectónico que intentaba captar la atención de las élites culturales e industriales capaces de financiar estos proyectos. Quizás el instrumento más representativo de este tipo de pensamiento, fuera el modulor: un vocablo compuesto derivado de “modulo” (es decir, unidad de medida) y section d’or (sección áurea). 3. Taylor, F. (1969). Principios de la Administración Científica, México: Herrero Hnos. S. A. (11.º edición). Marcelo A. Fraile - Arquitectura biodigital En su esencia, propugnaba un modelo estandarizado-mecanicista, con un sistema de producción prefabricado en masa; una elaboración de objetos sin variaciones, rigurosamente idénticos de acuerdo con una estricta geometría euclidiana. Bajo su lema: “la casa, como máquina de habitar”, Le Corbusier, fascinado por el automóvil, establecía una rígida normativa industrial que regulaba el diseño en sus diferentes escalas, “desde la cuchara a la ciudad”. En este sentido, el redescubrimiento del hormigón como material capaz de ofrecer gran plasticidad escultórica por su ductilidad, y las “eternas discusiones” sobre el binomio forma-función, desarrolladas durante el siglo XX, pondrían de manifiesto la importancia de la geometría en el manejo de las formas. Como teórico, Le Corbusier sabía de la diferencia existente entre los sistemas tradicionales de medidas y los sistemas de prefabricación. En efecto, el sistema decimal era rechazado por su arbitrariedad y falta de relación con el cuerpo humano, en tanto que el sistema anglosajón, de carácter antropomórfico, era objetado por su excesiva complejidad. Se precisaba de un tercer sistema proporcional que superara esa división, a través de un único sistema universal que fuera sencillo de usar y versátil en la cantidad de medidas intermedias (Díaz Segura, Alfonso, 2011, p. 55). Sin embargo, en el modulor, todavía subyace la idea vitruviana de que utilizar proporciones humanas traslada la belleza de la naturaleza a la arquitectura (Díaz Segura, Alfonso, 2011, p. 58). Para el diseñador costarricense Franklin Hernández, el error de Le Corbusier fue incurrir en imprecisiones iniciales que invalidaban conceptualmente su teoría: la Fig. 7. Quizás el instrumento más representativo de este tipo de pensamiento, fuera el modulor: un vocablo compuesto derivado de “modulo” (es decir, unidad de medida) y section d’or (sección áurea). idea del hombre tipo. Una mirada tecnócrata que buscaba “…moldear la forma de vida del individuo anónimo” (Díaz Segura, Alfonso, 2011, p. 37). Hacia una arquitectura Para el historiador suizo Sigfired Giedion (1888-1988), “Los artistas funcionan en buena medida como inventores o descubridores científicos: todos ellos buscan nuevas relaciones entre el hombre y su mundo” (Ortega Barnuevo, 2015, p. 47). En sus exploraciones, Giedion analizó los sistemas de producción y las cadenas de montaje, principalmente de las grandes industrias estadounidenses. Sus investigaciones quedarían registradas en su libro Space, Time and Architecture, en donde describía el nacimiento de un nuevo espacio, el cual estaba gobernado por la mecanización y el progreso tecnológico. Un nuevo espacio que conduciría indefectiblemente hacia el progreso social. Para Giedion, es el origen de una revolución en la arquitectura, “…una revolución que supon[ía] una ruptura definitiva con planteamientos precedentes en el campo de las ciencias y de las artes” (Ortega Barnuevo, 2015, p. 21). Por su parte, el arquitecto e historiador italiano Leonardo Benevolo (1923-2017) consideraba que esta arquitectura presentaba tres conceptos principales: en primer lugar, una conexión esencial entre forma y 83 Parte II. Algunas ideas de paradigma y sus ciclos función; en segundo lugar, una alternativa que se alejaba del repertorio de estilos del pasado; y, finalmente, la convergencia en un único movimiento, de las corrientes vanguardistas de la época (1989, p. 118). La indisoluble relación entre la forma y la función En marzo de 1936, el arquitecto alemán Ernst Neufert (1900-1986) publicaba Bauenwurfslehre4, un manual de construcción con detallados dibujos, en donde se enseñaba al proyectista el espacio que necesitaba el hombre “… para desarrollar sus tareas con comodidad, pero sin desperdiciar inútilmente el espacio” (1974). El proyecto de la casa como máquina de habitar debía ser resuelta en planta: una descomposición en unidades mínimas de elementos abstractos que serían reorganizados de acuerdo a un estricto programa de tareas perfectamente coordinadas. Para el arquitecto estadounidense Louis Sullivan (1856-1924), “La forma sigue a la función, y esta es la ley. Donde la función no cambia, la forma no cambia” (1896, pp. 403-409). Bajo un modo racional y económico, se concebían los espacios en planta desde el interior hacia el exterior, de acuerdo con los usos. La forma se transformaba en un contenedor flexible de actividades, que cumpliera eficazmente con la función para la cual había sido concebida. Fig. 8. En marzo de 1936, el arquitecto alemán Ernst Neufert (1900-1986) publicaba Bauenwurfslehre, un manual de construcción con detallados dibujos, en donde se enseñaba al 84 proyectista el espacio que necesitaba el hombre. Posteriormente, se concebiría la fachada, siempre asimétrica, resultado de su correcta correspondencia con las funciones interiores: una arquitectura parlante donde la función debía mostrarse en el exterior del edificio. Una conexión entre forma y función. Su representación debía permitir, “…una definición unívoca de su forma y posición recíproca” (Benevolo, 1989, p. 120). Una arquitectura hilemórfica5, que concebía la materia y su forma como elementos consecutivos y unidireccionales, “sin una interacción dinámica, liberada por fin de la tiranía de la simetría bilateral de la École des Beaux-Arts” (Roth, 2010, p. 523). El espacio de este nuevo paradigma era un espacio funcional que se reproducía en las diferentes escalas, de lo público y lo privado. Un espacio de exposición, “…asociado a la vigilancia, [que] implica[ba] una total vinculación de la cuestión del espacio a una finalidad edificante, era un espacio que cobra[ba] sentido en un futuro optimista” (Ábalos, 2001, p. 75). En la máquina de vivir, “La ambigüedad, la sorpresa y el encanto … fueron descartados por irrelevantes, y la circulación como función social primaria de la arquitectura también fue infravalorada” (Roth, 2010, p. 524). Se había sustituido el mito por la razón, mientras se buscaba abrir un nuevo camino de experimentación formal. 4. Traducido como El arte de proyectar en arquitectura. 5. El hilemorfismo deriva del griego ὕλη hýlē ‘materia’, μορφή morphḗ ‘forma’ e –ismo, es decir “teoría ideada por Aristóteles y seguida por la mayoría de los escolásticos, según la cual todo cuerpo se halla constituido por dos principios esenciales, que son la materia y la forma” (RAE, Asale, 2014). Marcelo A. Fraile - Arquitectura biodigital Para Le Corbusier, en cuanto se hubieran establecido los requerimientos funcionales adecuados, como en el caso del automóvil, la forma apropiada emergería de un modo espontáneo. Era una revolución que pretendía refundar el mundo, resignificarlo para el hombre moderno: lo formal y lo bello se transformarían en funcional y útil, con un contenido social que conduciría indefectiblemente hacia la vivienda digna. Un espacio que transformaría el modo de vivir en las grandes ciudades del mundo. Aprovechando los nuevos materiales y sistemas constructivos, el proyecto debía ser resuelto priorizando los espacios flexibles, capaces de montarse y desmontarse rápidamente, sin añadidos decorativos. La única decoración aceptable partía de los propios elementos constructivos lo que limitaba el uso del color y la textura a sus superficies. Una arquitectura simplificada, de volúmenes puros, cubiertas planas sin cornisa, y con una predominancia de las líneas rectas. Una secuencia de formas moduladas y reguladas mediante leyes geométricas simplistas, que organizaban las diferentes fachadas del edificio: una composición cubista en la que se hace preciso el recorrido del observador para poder entenderla. Espacios libres, fluidos, continuos, transparentes y abstractos, en total contraposición al espacio tradicional. Son formas puras que habían sido depuradas de las reminiscencias históricas, y sus significados habrían de armonizarse con las experiencias específicamente modernas. Sin embargo, aunque abogaba por la flexibilidad continua de los espacios, en esencia, se trataba de una arquitectura acabada, de espacios diseñados milimétricamente, donde “Cualquier modificación perturbaría su perfección formal, su pureza, sus proporciones”. Incluso ni siquiera su materialización es completamente prefabricada, “…no hay posibilidad de desmontaje porque las técnicas con las que se construye no lo permiten” (Díaz Segura, Alfonso, 2011, p. 29). En esencia se trataba de una arquitectura consecuencia de una relación entre función y belleza, utilizada por un arquitecto fascinado ante un maquinismo cuya mecánica desconoce, o no puede utilizar. La amnesia del pasado en la estética de la máquina El nacimiento del siglo XX había definido la conquista de la velocidad por el hombre, por encima y por debajo del mar: ferrocarriles, automóviles, trasatlánticos. El paradigma positivista había presentado una proyección hacia adelante, confiando en el progreso infinito como instrumento de salvación que llevaría al hombre “…hacia una sociedad perfecta, sin conflictos, organizada por la ciencia; traslada[ndo] la trascendencia de la religión a la inmanencia de la vida” (Ábalos, 2001, p. 70). En consecuencia, no es de extrañar que el ornamento fuera considerado como algo superfluo dentro de la arquitectura. De acuerdo a los postulados del arquitecto austriaco Adolf Loos (1870-1933), el ornamento debía ser suprimido de la arquitectura, este ya no pertenecía a nuestra civilización, ya no era expresión de esta, y los ornamentos que se crean en el presente ya no tienen ninguna relación con nosotros ni con nada humano (1974, p. 47). Por esta razón, y con una voluntad estética de innovación, el nuevo paradigma mecanicista presentaría, bajo un carácter amnésico, una ruptura con el repertorio de estilos del pasado, y una búsqueda de formas abstractas y funcionales (Montaner, 1997, p. 141). Para el arquitecto alemán Ludwig Mies van der Rohe, la arquitectura podía ser definida a través de su conocida frase “Less is more”: una arquitectura que buscaba una sencillez lingüística en sus elementos estructurales, en sus formas geométricas puras, y en una ausencia total de elementos ornamentales. 85 Parte II. Algunas ideas de paradigma y sus ciclos El paradigma de la Revolución Industrial había llegado, asumiendo “…cualidades cuasi divinas de perfección geométrica y garantía de superioridad estética” (Díaz Segura, Alfonso, 2011, p. 28). Lejos de los condicionantes historicistas, esta nueva arquitectura se había desecho de la tratadística, y la había reemplazado a través de una expresividad desmedidamente racional, de formas puras, cubiertas planas y una aséptica materialidad, fruto de los nuevos materiales prefabricados. Una arquitectura maquínica, de formas dinámicas y transparentes. Sin embargo, en la realidad, la relación entre arquitectura y prefabricación había quedado relegada a “…una solución de compromiso entre la eficacia industrial y la variabilidad de la forma” (Kottas, 2013, p. 196): sus resultados eran limitados, sus diseños quedaban reducidos a sistemas de prefabricación, donde “…lo óptimo, lo perfecto, no [tenía] por qué ser lo más bello” (Díaz Segura, Alfonso, 2011, p. 14). Para el arquitecto español Alfonso Díaz Segura (1976), el movimiento moderno exhibía fuertes contradicciones en su forma: mientras que por un lado se presentaba ahistórico, defendiendo la utilización de la máquina y de la industria como catalizadores de una nueva estética; por otro lado, establecía nuevas reglas a las que la arquitectura que quisiera ser moderna debería cumplir. En otras palabras, el diseñador debía elegir entre proyectar edificios cuyo lenguaje fuera una consecuencia de los sistemas constructivos independiente de los resultados formales, o proyectar edificios cuya imagen de máquina fuera el objetivo, sin importar que se hubiesen utilizado para esto los sistemas de construcción tradicional (2011, p. 14). Con el tiempo, en su búsqueda de espacios flexibles –transformables, espacios reducidos con precisión milimétricas–, que intentaban producir una arquitectura que cumpliera con las necesidades básicas del hombre a fin de mejorar su calidad de vida, acabó por potenciar una actitud destructiva y ajena a lo que sucedía en el entorno, lo que generó fuertes desequilibrios. La recuperación del concepto de ciudad y medioambiente es una de las grandes deudas de la arquitectura moderna, y la necesidad de una recuperación de la memoria del lugar y de su historia. La convergencia “higiénica” de las vanguardias 86 Inspirado en los escritos del filósofo francés Augusto Comte (1798-1857), los diseñadores racionalistas consideraban que la humanidad marchaba a través de una serie de etapas que la iban perfeccionando. Por consiguiente, “El progreso social era necesario e irresistible a la manera de una ley física” (Ábalos, 2001, p. 73). En este sentido, Le Corbusier no solo buscaba una renovación de la arquitectura, sino también una revolución de toda la sociedad a través de un sistema de construcción en masa para la producción de la vivienda. Bajo el concepto de una especie de darwinismo social invertido, los diseñadores modernos “estaban convencidos de que, si se cambiaba el entorno, si se demolían las barriadas congestionadas y las estrechas calles medievales, sustituyéndolas por resplandecientes bloques de viviendas organizados en hileras… el crimen y la pobreza quedarían erradicados para siempre” (Roth, 2010, p. 524). A través de un discurso especializado en torno a la problemática higienista, había nacido el concepto de producción en serie de unidades idénticas (Solá-Morales, 2003). Un espacio higiénico, con buenas visuales y perfectamente ordenado de volúmenes blancos sobreelevados que dejaban pasar un manto verde de naturaleza por debajo, al tiempo que permitían disfrutar de su cubierta con actividades lúdicas y deportivas. Una tipología con un “…buen aprovechamiento de la parcela para familias tipo, de clase obrera o burguesa” (Ábalos, 2001, p. 21). El espacio maquínico carecía de cualquier reflexión sobre el confort, era un espacio desinfectado, proporcionado por las transparencias, el asoleamiento y la limpieza. Marcelo A. Fraile - Arquitectura biodigital Los materiales y los sistemas constructivos debían manifestarse tal cual eran: “…se exhibían orgullosamente las tuberías, y las blancas celdas cúbicas se iluminaban mediante bombillas desnudas colgadas en el centro de la habitación” (Roth, 2010, p. 524). Un espacio fluido, donde lo privado era expuesto, lo domestico era anulado, y lo íntimo era castigado, una visibilidad convertida en vigilancia (Ábalos, 2001, p. 75). El arquitecto, se había transformado en el intérprete de los deseos y esperanzas de la sociedad (Solá-Morales, 2003). En este sentido, “el jactancioso lema de Le Corbusier de ‘un edificio para todas las naciones y todos los climas’ fue puesto en práctica”. Y de ese modo, los valores culturales occidentales fueron exportados “…a todos los confines del globo; el hecho de si esa arquitectura era la adecuada a las condiciones climáticas y sociales del lugar, carecía de importancia” (Roth, 2010, p. 524). Con el tiempo, la aparente solidez del mecanicismo comenzó a presentar síntomas de deterioro, lo que generó espacios obsesivos que en ocasiones insistían “… demasiado en el uso universal de formas y técnicas constructivas, como la azotea plana, aun en aquellos lugares en que, por razones climáticas, resultaba difícil obtener el debido sellado” (Roth, 2010, p. 523). Tres ejemplos Posiblemente, tres de los ejemplos más paradigmáticos de este tipo de arquitectura sean la Casa Dom-Ino de 1914, la casa Citrohan de 1920 y Villa Savoye de 1930. En consecuencia, para Le Corbusier existiría un proceso evolutivo, un “darwinismo arquitectónico”, un nivel de perfeccionamiento con capacidad de adaptación entre los diseños de la casa Dom-Ino y la Villa Savoye que ofrecería mejores soluciones. En este sentido, quizás el ejemplo más paradigmático de este tipo de arquitectura sea la Casa Dom-Ino. Derivado del megarón mediterráneo, se trata de un prototipo arquitectónico residencial, fuertemente marcado por las teorías positivistas de August Comte. La casa, como pieza de diseño industrial, estaba constituida bajo una composición cartesiana de elementos y partes que se articulaban y ordenaban en una retícula. Su nombre es un juego de palabras: por un lado “domus”, que en latín significa “casa”; y por el otro “dominó”, en correspondencia con el juego de mesa, de piezas móviles. Derivado de esto, Dom-Ino es una fabricación de casas en serie a partir de una estructura de hormigón; una pieza típica del diseño industrializado. En 1909, Jeanneret y Dubois desarrollaron las primeras ideas de lo que ellos llamaron “propuesta-monolito”, un sistema estructural basado en la construcción monolítica. Posteriormente en 1914, con una visión comercial y el sistema dominó ya en camino, Jeanneret buscó patentar el sistema de manera oficial para ser utilizado en la reconstrucción de las viviendas devastadas por la guerra. Le Corbusier, como el mismo lo reconoce, no poseía la formación técnica para abordar este tipo de proyectos, es por ello que se asocia con su amigo de la infancia Max du Bois6, un ingeniero de caminos especialista en hormigón, para que lo ayude a desarrollar este proyecto. Básicamente, el diseño consistía en una estructura en esqueleto, un sistema de marcos cartesianos, independiente de las funciones de la casa, bajo los principios definidos por el profesor y maestro de du Bois, Emil Morsche, que permitía ser realizada con elementos estándares de hormigón armado colado, lo que facilitaba su construcción en pocas semanas. 6. Max du Bois, ingeniero civil licenciado en Zurich, fundó la compañía “Sociéted’Application du Béton Armé” (SABA) que promovía la construcción de hormigón. 87 Parte II. Algunas ideas de paradigma y sus ciclos Gracias al perfeccionamiento del hormigón armado, su estructura7 quedaba materializada por una malla estructural de pórticos. Seis delgadas columnas y tres superficies o losas planas continuas: las inferiores apoyaban sobre la cimentación, estas plataformas estaban conectadas por una escalera de dos tramos. Situación que generaba una planta libre, sin necesidad de muros de carga, que permitía innumerables combinaciones para satisfacer las más diversas necesidades, una “…dislocación entre estructura y cerramiento” (Díaz Segura, Alfonso, 2011, p. 36). En su fachada, ahora independiente, permitía fijar las aberturas a la estructura, para finalmente construir los muros exteriores y los tabiques interiores. De este modo, el sistema constructivo quedaba igualado a la industria, al de una máquina de habitar. Un sistema pensado en la estandarización de una célula elemental para su utilización en múltiples situaciones: “…la casa de producción en masa al alcance de todos”, buscando dar respuestas a las nuevas necesidades, bajo “…la premisa de que la forma es un resultado de la función: el programa, los materiales, [y] el contexto” (Montaner, 1997, p. 58). Una síntesis ideal que busca la primigenia de la arquitectura de la “cabaña primitiva”, planteada por el abate Laugier, pero realizada en hormigón armado y acero (Montaner, 1997, p. 60). En esencia se trata de la expresión de una nueva sociedad, más moderna, basada en la igualdad y la economía, pero que rechaza la historia y la tradición. Fig. 9. Casa Dom-Ino. Su nombre es un juego de palabras: por un lado “domus”, que en latín significa “casa”; y por el otro “dominó”, en correspondencia con el juego de mesa, de piezas móviles. Derivado de esto, DomIno es una fabricación de casas en serie a partir de una estructura de hormigón; una pieza típica del diseño 88 industrializado. Pese a sus principios económicos, el proyecto no pudo llevarse a cabo 100%, y las casas recién pudieron aplicarse en Francia en 1928, a partir de la aprobación de la “Ley Loucheur”, que buscaba construir más de 200.000 viviendas de bajo costo. De cualquier forma, estos conceptos influyeron decisivamente en el proyecto de la casa Citrohan,8 desarrollada a partir de 1920: el nombre de Citrohan es un retruécano de Citroën, la popular marca automovilística francesa. Una casa tan sencilla y económica de construir, como lo era el utilitario (Roth, 2010, p. 517). Su prototipo era un prisma blanco encalado de hormigón realizado in situ, elevado sobre pilares, con cubierta plana, amplias ventanas apaisadas del tipo industrial y escaleras externas. Una forma simbólica de la estética mecanicista, donde el espacio había quedado cuantificado matemáticamente, y la vivienda se reducía a sus elementos esenciales: una sala de estar en doble altura, una cocina, un baño y los dormitorios, “… los coches podían cobijarse en el espacio creado por los soportes de hormigón armado o pilotis, [también existían] terrazas a media altura y en la parte superior” (Curtis, 2012). 7. Perret utilizaba un sistema constructivo basado en una estructura de madera, “… formado por nudos articulados y elementos horizontales de diferentes cantos donde se diferenciaban las vigas y viguetas, según las luces que cubrir y las cargas por soportar”. Posteriormente, Le Corbusier tomaría estos conceptos y los vincularía con un modelo ya ensayado de Juste Schneider, (Díaz Segura, Alfonso, 2011, pp. 30-36). 8. Su nombre deriva de la empresa de automóviles Citroën, un homenaje a la producción en serie de vehículos que había comenzado a desarrollarse en Europa por aquellos tiempos. Marcelo A. Fraile - Arquitectura biodigital Una búsqueda del espacio “…en torno al Existenzminimun para la optimización de tipos estandarizables de viviendas destinadas a familias obreras” (Ábalos, 2001, p. 21), un triunfo del reduccionismo científico del espacio. Un diseño evolutivo, donde la vivienda tuvo tres variantes: las dos primeras entre 1920 y 1922, y una tercera, sobre pilotis, que fue expuesta en el Salon d’Automne de 1922, como una solución a la crisis de la vivienda en los años posteriores a la guerra. Pese a ello, la precoz industrialización de ese momento no estaba en condiciones de ofrecer una solución viable a su planteo: con un importante error conceptual que no discriminaba las condiciones de fabricación y las técnicas utilizadas “…al considerar la prefabricación como si fuera una cadena de montaje de coches en la que las industrias implicadas servían indistintamente chasis de automóviles o armazones para carpinterías” (Díaz Segura, Alfonso, 2011, p. 21). Con el tiempo, estos conceptos se sustanciaron en lo que muchos consideran como la culminación del ciclo de Villas Blancas, la Villa Savoye, también conocida como Les Heures Claires, construida como casa de fin de semana en el pequeño pueblo de Poissy, en las afueras de París, entre 1928 y 1930. Construida para mirar el horizonte y disfrutar de la calma, su resultado es el producto del deseo de unir rigor estructural y libertad espacial. Para esto, la casa fue elevada del terreno a través de una construcción en esqueleto: “…un cubo que se levanta sobre columnas” (Giedion, 1941), una villa en completo aislamiento, que se pone en contacto con la naturaleza. Para Le Corbusier, la arquitectura es una heredera del cubismo, ella se ve afectada por el tiempo y por el cambio de posición del observador. Es por esto que el edificio deja de ser estático, la obra propone giros necesarios que obligan al desplazamiento. Una secuencia cinemática de sucesos. En este sentido, su volumetría no se presenta franca, es capturada en el plano utilizando el contraste de luces y sombras como acentuación de este juego tridimensional. Un proceso de superposición, transparencia de planos y vistas separadas temporalmente que se unifican en múltiples recorridos y dan la sensación de profundidad. Una composición de volúmenes establecidos jerárquicamente y articulados a través de un sistema circulatorio como elemento definitorio, un paseo arquitectónico donde se nos presentan aspectos continuamente variados. Para que esto suceda, durante el diseño, se hizo imprescindible un ajustado programa de necesidades que incluía: en planta baja, un garaje con capacidad para tres automóviles, un vestíbulo de entrada, un cuarto para lavandería, dos cuartos para el servicio y un cuarto para el chofer; en el primer piso, la cocina, una despensa, el salón principal, un cuarto 89 Parte II. Algunas ideas de paradigma y sus ciclos de huéspedes con lavabo, la habitación del hijo con baño, la habitación de los padres con cuarto de baño, y un lavabo, tocador y jardín; en la segunda planta, se ubicaría el solárium; finalmente la composición incluía además un sótano. Un complejo sistema formal/estructural sobre la base de pilotes que ordenaban una malla arquitectónica que parecía evocar los planteos academicistas de Durand. Sin embargo, su concepción era otra: la villa no es una masa sólida. El cuerpo del edificio está perforado en dos de sus lados: tanto en el sudeste como el sudoeste, importantes vacíos permiten el ingreso de luz, lo que produce tanto un nexo entre el interior y el exterior como un maravilloso juego geométrico que otorga dinamismo a las fachadas y transforma el interior, oscuro y frío, en un lugar luminoso y confortable (Montaner, 1997, p. 161). Para que esto suceda, algunos pilotis desaparecen y otros se desplazan ligeramente y permiten la circulación vehicular en planta baja, la cual queda materializada en un panel de cristal curvado, cuyo radio está determinado por el desplazamiento del coche Voisin. El espacio se ha transformado en una extensión matemática-algebraica. Para ello, la cubierta plana se convierte en una azotea ajardinada, una clara influencia de la arquitectura popular mediterránea. Fig. 10. La casa Citrohan, desarrollada a partir de 1920: el nombre de Citrohan es un retruécano de Citroën, la popular marca automovilística francesa. Una casa tan sencilla y económica de construir, como lo era el utilitario (Roth, 2010, p. 517). Desde la recepción en planta baja, se puede acceder al primer piso de la casa, ya sea a través de una escalera helicoidal o mediante una rampa que conduce al centro de la casa. Esta rampa de dos secciones y la escalera en espiral se articulan e interpenetran con la caja y vinculan los diferentes niveles, desde la planta baja hasta la azotea. Una ratificación compositiva “…donde la circulación vertical se formula por fuera de la matriz tridimensional” (Gardinetti, 2013). La rampa es la auténtica espina dorsal de la creación: situada en el eje compositivo, atraviesa la retícula de pilotis. Una secuencia visual que cambia a lo largo del recorrido, se manifiesta gradualmente y permite la vivencia de los espacios cambian- 90 Marcelo A. Fraile - Arquitectura biodigital tes, la promenade architecturale9: una sucesión armoniosa y compleja, donde los espacios se conjugan con la iluminación y producen un modelado secuencial de la forma. La evolución mecanizada de los ‘60 Con la llegada de la década de 1960, la exacerbación del paradigma de la máquina tuvo dos exponentes diametralmente opuestos: por un lado, se encontraban los diseños del arquitecto ingles James Stirling Fig. 11. Para Le Corbusier, la arquitectura es una heredera del cubismo, ella se ve afectada por el tiempo y por el cambio de posición del observador. Fig. 12. Su volumetría no se presenta franca, es capturada en el plano utilizando el contraste de luces y sombras como acentuación de este juego tridimensional. (1926-1992). Una arquitectura de profunda raíz funcionalista, que quedaría perfectamente ejemplificada a través de uno de sus proyectos más emblemáticos: la Escuela de Ingeniería de la Universidad de Leicester. El edificio, presentaba una compleja y fragmentada forma, donde cada uno de los volúmenes correspondía con una función determinada: una extensa nave con cubierta cristalina fue destinada para los talleres, un bloque bajo y vidriado para los laboratorios, una alta y esbelta torre para las oficinas y dos bloques compactos para los auditorios, que conformaban un conjunto perfectamente organizado. Otra mirada diferente, era la desarrollada por Archigram10; un grupo de arquitectos, con sede en Londres, que inspirados en el uso de la tecnología, buscaban desarrollar una nueva realidad futurista. A partir del diseño de una arquitectura de “…estructuras extensibles, películas neumáticas móviles, paredes y pavimentos adaptables, robots de servicio y carretillas eléctricas plegables” (Jencks, 1975, p. 102) imaginaban una nueva sociedad de profundo tinte positivista donde la tecnología transformaría el mundo y a la humanidad. 9. Le Corbusier bautizó ese recorrido como promenade architecturale o “paseo arquitectónico”. 10. Los principales miembros fueron: Peter Cook (1936), Jhoana Mayer, Warren Chalk (1927-1988), Ron Herron (1930-1994), Dennis Crompton (1935), Michael Webb (1937) y David Greene (1937). 91 Parte II. Algunas ideas de paradigma y sus ciclos Conceptualmente, Archigram, extraía sus ideas de todas las partes posibles: “…ojos de insectos de la ciencia ficción, bolsas tubulares de las refinerías de aceite, paredes robot telescópicas de los libros de historietas, y redes tensoras y estructuras espaciales de la tradición arquitectónica”. En lo referente al urbanismo, imaginaron una ciudad dinámica, instantánea, que se apartaba del concepto de ciudad mecanizada de carácter monumental, para acercarse al desarrollo de un “…sistema de control ambiental que ayuda[ra] a la elección personal y respond[iera] al capricho y [al] deseo individual”. Una especie de “… circo ambulante que visitase diferentes ciudades en la[s] provincia[s] e implicara la participación de individuos en la creación de diferentes acontecimientos” (Jencks, 1975, p. 102-104). Uno de sus ejemplos fue Walking City, diseñada en 1964, por el arquitecto inglés, Ron Herron (1930-1994). Una ciudad que podía desplazarse, transportando a su población a cualquier parte del mundo, utilizando para ello una serie de patas “mecánicas” telescópicas: una ciudad de “… redes tensoras sostenidas por globos, grúas, puentes, robots y signos de neón que recuerdan Las Vegas” (Jencks, 1975, p. 102), y que conformaban un nuevo perfil urbano futurista. Desde el punto de vista de Archigram, era más económico mover las cosas que las personas: “… a causa del incremento de las industrias especializadas, tales como la electrónica, puede muy bien ser que el hogar futuro se encargue de muchas de las funciones que hoy se hacen en la fábrica” (Jencks, 1975, p. 103). Fig. 13. Walking City. Entendida como una máquina, la ciudad podía desplazarse, transportando a su población a cualquier parte del mundo, utilizando para ello una serie de patas telescópicas. 92 Otro ejemplo interesante al respecto, fue Plug-in City o “Ciudad enchufable”, diseñada en 1964, por el arquitecto inglés Peter Cook (1937-1995). Una “… estructura básica extensible servida por ferrocarriles, helicópteros y hovercrarfts (colchones de aires)”. Unidades insertadas en el sitio, las cuales podían “… ser seleccionadas y descartadas cuando ya resulta[ran] anticuadas o fuera de uso” (Jencks, 1975, p. 101): la estructura básica, Marcelo A. Fraile - Arquitectura biodigital tenía un periodo de vida de cuarenta años, “… que mant[enia] el sistema Fig. 14. Plug-in City. Una “... estructura en movimiento en un ciclo de veinte años y casas que [podían] ser localizadas de nuevo y fijadas allí cada quince años” (Jencks, 1975, p. 104). básica extensible servida por ferrocarriles, helicópteros y hovercrarfts (colchones de aires)”. (Jencks, 1975, p. 101). Ambas ideas Walking City y Plug-in City, funcionaban complementariamente una de la otra: la primera se movía por el territorio hasta encontrar el lugar adecuado; en tanto que la segunda, conectaba las diferentes ciudades, unas con otras. El comienzo del fin Bajo un lenguaje expresivo de volúmenes simples y de precisas geometrías flotantes, la arquitectura moderna parecía unir la mirada de arquitectos tan diferentes como Le Corbusier o Peter Eisenman. Una arquitectura hilemórfica, de espacios matemáticos, planos interceptados y entidades abstractas, donde la forma era consecuencia de la función a la que albergaba. Un estilo capaz de ser aplicado internacionalmente, con edificios virtualmente idénticos en cada continente (Ibelings, 1998, p. 37). Lejos de las condicionantes historicistas, y bajo una imagen desmedidamente industrial aplicada en la arquitectura, proponían una ruptura con el romántico mundo decimonónico. Una nueva expresividad racional elaborada a partir de formas puras y abstractas, cubiertas planas, formas dinámicas y transparentes, conformadas por nuevos materiales y nuevas tecnologías inspiradas en el universo de la máquina (Montaner, 1997, p. 113). Una arquitectura de dispositivos artificiales formados por piezas fijas y móviles, que se combinan y ordenan para formar un sistema cerrado de partes que interactúan entre sí, sin una clara relación con el entorno. Con una fe ciega en el papel benefactor de la tecnología, los arquitectos modernos habían dejado de preocuparse por su relación con el clima o Fig. 15. De Candela o Frei Otto, una arquitectura formada por piezas fijas y móviles, que se combinan y ordenan para elaborar un sistema cerrado de partes que interactúan entre sí, sin una clara relación con el entorno. 93 Parte II. Algunas ideas de paradigma y sus ciclos con el ambiente. En este sentido, si el edificio era “…demasiado caluroso o demasiado frío, todo se reducía a una cuestión de reforzar el equipo de refrigeración o de calefacción. Si se requería un nuevo material, la industria de fabricación de materiales de construcción suministraría, encantada, el material necesario” (Roth, 2010, p. 525). Sin embargo, no todos los arquitectos pensaban igual, muchos de ellos se quejarían de lo que consideraban era un desatino. Uno de ellos fue el arquitecto americano Frank Lloyd Wright (1867-1959). Para Wright, intentar que un edificio se asemejara a un barco, aeroplano o locomotora, era un esfuerzo infantil y ultrajante: la máquina debería construir el edificio, naturalmente y espléndidamente, “Pero no es necesario por esa razón construir como si el edificio fuese también una máquina, porque, salvo en un sentido muy elemental, no lo es, ni se le parece” (Díaz Segura, Alfonso, 2011, p. 73). Como tampoco lo era su arquitectura de espacios libres, fluidos y flexibles. No es de sorprender que, con el tiempo, esta arquitectura, degenerase “…hasta convertiste en el verdugo de la imaginación… [dando como] consecuencia la repetición constante de idénticas cajas anónimas que domina[sen] enormes áreas de las ciudades contemporáneas” (Ingels, 2009, p. 2). Pese a esto, su arquitectura acabaría “…asociándose a dos principios fundamentales de la modernidad: a la belleza de la construcción siempre que manifieste la tecnología actual moderna, y a la solución estricta de los requerimientos funcionales, como si el goce estético fuera una consecuencia directa de la satisfacción del programa” (Díaz Segura, Alfonso, 2011, p. 15). Para fines de la década del 80, un nuevo cambio se avecinaba en el horizonte. En 1988, el arquitecto Philip Johnson (1906-2005), exdirector del Departamento de Arquitectura y Diseño del Museo de Arte Moderno, se asoció con el arquitecto Mark Wigley, profesor en la Universidad de Princeton, para organizar una exposición en el Museo de Arte Moderno (MOMA) de Nueva York, bajo el título Deconstructivist Architecture11: concebido para examinar la situación actual del diseño, una concatenación de tendencias afines que exploraban una nueva e inquietante mirada de la arquitectura. Si bien existían otros exponentes de esta arquitectura, los arquitectos seleccionados para la muestra fueron siete: Coop Himmelblau12, Peter Eisenman13, Frank Gehry14, Zaha Hadid15, Rem Koolhaas16, Daniel Libeskind17 y Bernard Tschumi18. Se trataba de una propuesta arquitectónica alternativa, donde cada arquitecto poseía su propia teoría, pensamientos y técnicas de cómo hacer arquitectura. 94 Sin embargo, en esencia, todos los proyectos de esta exposición representaban una sensibilidad diferente en la que el antiguo sueño de las formas puras había sido alterado por formas contaminadas. Una desviación del orden estructural. Una concatenación de tendencias afines en varios lugares del mundo, con un fuerte contraste de formas distorsionadas, irregulares, en conflicto. Una inestabilidad compleja, dinámica y elegante, que desmantelaba la tradición del movimiento moderno: “la distorsión es especialmente inquietante porque parece pertenecer a la forma, forma parte de ella. Parece como si siempre hubiese estado allí, latente, hasta que el arquitecto la ha liberado” (Johnson & Wigley, 1988, p. 17). 11. Traducido en su versión castellana como “Arquitectura Deconstructivista”. 12. Rooftop Remodeling, Vienna, 1985; Hamburg Skyline, 1985 y Apartment Building, Vienna, 1986, Coop Himmelblau de Vienna, Wolf D. Prix (b. 1942, Vienna) y Helmut Swiczinksy (b. 1944, Poznan, Poland). 13. The Biology Center for the University of Frankfurt, competition, Peter Eisenman, Frankfurt, 1987. 14. The Gehry House, Santa Mónica, 1977-87 y The Familian Residence, Santa Mónica, 1978, Frank Gehry. 15. The Peak, competition, Zaha Hadid, Hong Kong, 1983. 16. The Rotterdam Building and Tower, commission, Rem Koolhaas, Roterdam, 1981. 17. The City Edge, competition, Daniel Libeskind, Berlín, 1987. 18. Park de la Villette, competition, Bernard Tschumi, París, 1982. Marcelo A. Fraile - Arquitectura biodigital El paradigma de la modernidad se había agotado, sus grietas antes ocultas quedaban visibles y manifestaban muchas de las incongruencias ahora presentes. Internet, sistemas CAD, máquinas CNC, nuevas anomalías afloraban una a una tras los muros de una teoría vetusta, impropia para la dinámica de los nuevos tiempos. Figuras Fig. 1. Puente Shrompshire sobre el Río Severn. http://www.arquitecturaenacero. org/historia/puentes/puente-shrompshire-sobre-el-rio-severn-coalbrookdale-gb Fig. 2. Palacio de Cristal. Londres. https://www.archdaily.com/397949/ad-classicthe-crystal-palace-joseph-paxton https://www.britannica.com/topic/Crystal-Palace-building-London Fig. 3. Kazimir Malevich. http://www.proa.org/esp/exhibicion-kazimir-malevichobras.php Fig. 4. y Fig. 5. Bauhaus. http://www.cultier.es/bauhaus-la-primera-escuela-dediseno-del-siglo-xx/ Fig. 13. En 1988, el arquitecto Philip Fig. 6. Fritz Kahn. https://contentcatnip.com/2016/01/22/fritz-khans-paintings-indreamy-animation/ Mark Wigley, para organizar una expo- Fig. 7. Modulor. http://www.fondationlecorbusier.fr/corbuweb/morpheus.aspx? sysId=13&IrisObjectId=7837&sysLanguage=en-en&itemPos=9&itemSort=enen_sort_string1&itemCount=33&sysParentName=Home&sysParentId=11 (MOMA) de Nueva York, bajo el título Fig. 8. Neufert. https://www.archdaily.com.br/br/623095/o-ser-humano-comomedida-da-arquitetura/537bc8c4c07a80946d0000c5-o-ser-humano-comomedida-da-arquitetura-foto Fig. 9. Casa Dom-Ino. http://www.fondationlecorbusier.fr/corbuweb/morpheus.as px?sysId=13&IrisObjectId=5972&sysLanguage=en-en&itemPos=1&itemSort=enen_sort_string1&itemCount=1&sysParentName=Home&sysParentId=11 Fig. 10. Casa Citrohan. http://www.fondationlecorbusier.fr/ corbuweb/morpheus.aspx?sysId=13&IrisObjectId=5950&sysLa nguage=en-en&itemPos=96&itemSort=en-en_sort_string1%20 &itemCount=215&sysParentName=&sysParentId=65 Fig. 11. y Fig. 12. Villa Savoye. http://www.fondationlecorbusier. fr/corbuweb/morpheus.aspx?sysId=13&IrisObjectId=7380&sysL anguage=en-en&itemPos=74&itemSort=en-en_sort_string1%20 &itemCount=79&sysParentName=&sysParentId=64 Johnson, se asoció con el arquitecto sición en el Museo de Arte Moderno Deconstructivist Architecture. 95 Parte II. Algunas ideas de paradigma y sus ciclos Fig. 13. Walking City. https://jm3studio.com/archigram-sicodelia-arquitectonica/ Fig. 14. Plug-in City. https://jm3studio.com/archigram-sicodelia-arquitectonica/ Fig. 15. Frei Otto - Felix Candela. https://www.plataformaarquitectura.cl/ Fig. 16. Deconstructivist Architecture. https://www.archdaily.com.br/br/623095/o-ser-humano-como-medida-da-arquitetura/ 537bc8c4c07a80946d0000c5-o-ser-humano-como-medida-da-arquitetura-foto 96 Marcelo A. Fraile - Arquitectura biodigital EL ESTADO DE CRISIS SEGÚN KUHN Obtenido de las ciencias físicas e importado dentro del campo disciplinar de la arquitectura, el concepto de paradigma de Thomas Kuhn representa el marco teórico que encuadra esta investigación, el cual define las directrices y estructuras de soporte que posibilita explicar “…el mayor número de observaciones empíricas dentro del mismo marco teórico sin perder la coherencia” (Vidal Climent, 2010, p. 212). Dentro de este modelo de análisis, el concepto de anomalías, es utilizado para definir los desajustes teóricos incapaces de ser explicados mediante el modelo vigente, derivando en un reajuste del paradigma sin que esto signifique una pérdida de la confianza puesta en el marco teórico. Sin embargo, en caso de que estas anomalías se acumulen sin resolver “parte de la comunidad científica menos conservadora advertirá la presencia de una situación de crisis [y] buscará alternativas …a las cuestiones … en las que descansa el paradigma existente” (Vidal Climent, 2010, p. 212). Son las revoluciones científicas de Kuhn: un desarrollo no acumulativo de nuevos fundamentos, que reemplaza el antiguo paradigma por otro nuevo, incompatible con el anterior. Kuhn explica este proceso bajo el concepto de inconmensurabilidad, una “…reconstrucción [discontinua] del campo de investigación a partir de nuevos fundamentos” (Ortega Barnuevo, 2015, p. 28) que reescriben la historia tras cada revolución. En arquitectura, estas anomalías quedarían expresadas en situaciones que no encuentran explicación dentro del paradigma presente y suscitan un estado de crisis general en la que algunos jóvenes diseñadores, no habituados a los comportamientos anteriores, intentarán cambiar el modo de enfrentarse a estos nuevos escenarios, planteando una modificación del lenguaje, de los criterios y el reemplazo de las antiguas herramientas. Durante este período de tiempo, es decir hasta que el nuevo paradigma quede firmemente establecido, su arquitectura será insegura y fluctuante, un desconcierto sin dirección que transitará por diferentes derroteros. Finalmente, en caso de que este nuevo enfoque teórico planteado resista todas las comprobaciones teorías y sea capaz de predecir nuevas observaciones, adquirirá la unidad suficiente como para producir el cambio de paradigma. Asumido el nuevo modelo, ya no será necesario replantearse las cuestiones anteriores, quedando algunas anomalías pendientes de explicación y que en el futuro darán lugar al desarrollo de nuevas teorías. La fusión de los sólidos “Hemos asistido a tantos nacimientos, a tantas muertes y resurrecciones, que hemos aprendido a que estas cuestiones adquieran un valor muy relativo”. (Soriano, 2004, p. 7). Una serie de hechos trascendentales han marcado el fin de la modernidad. Para el arquitecto estadounidense Charles Jencks (1939), la Arquitectura Moderna, “…murió en St. Louis Missouri, el 15 de julio de 1972 a las 3:32 de la tarde (más o menos), cuando a varios bloques del infame proyecto Pruitt-Igoe se le dio el tiro de gracia con dinamita” (2004, p. 9). Una arquitectura que había agotado sus recursos formales y que degeneró en un producto anónimo, “…visualmente empobrecedor, tecnocrático, a gran escala e indiferente por igual a la gente y al entorno” (Ibelings, 1998, p. 13). 97 Parte III. El punto de inflexión Bajo un modelo dominante, caracterizado por una producción seriada, los diseñadores habían reducido las actividades humanas a simples y rutinarios movimientos que debían seguirse de manera mecánica, manteniendo al límite todo indicio de espontaneidad. Un modelo global que había instaurado una visión idealizada de un progreso ilimitado, que explotaba intensivamente sus recursos naturales igualmente inagotables (Montaner, 1997, p. 10). Metáforas tales como “‘cajas de cartón’, ‘cajas de zapatos’, ‘hueveras’, ‘archivadores’ y ‘papel cuadriculado’” (Jencks et al., 2004, p. 40) eran frecuentemente utilizadas de un modo despectivo por el público y por los críticos para referirse a este tipo de arquitectura. Para el arquitecto estadounidense Paul Rudolph (1918-1997), el paradigma moderno –con una mirada simplista–, seleccionaba y determinaba cuáles de todos los problemas existentes iba a poder resolver. Por ejemplo: “Mies construye edificios bellos solo porque ignora muchos aspectos de un edificio. Si resolviese más problemas, sus edificios serían mucho menos potentes. La doctrina ‘menos es más’ deplora la complejidad y justifica la exclusión por razones expresivas” (Venturi & Scully, 1995, p. 28). La contaminación natural, el calentamiento global y un agotamiento de los recursos no renovables habían puesto en crisis el viejo paradigma mecanicista que promovía un progreso y crecimiento ilimitado sin consecuencias. Había llegado la hora de rendir cuentas “…no solo de su capital artificial sino también de su segundo capital no reintegrable, el de la naturaleza” (Venturi & Scully, 1995, p. 40). Inútiles serían los esfuerzos de sus defensores más fieles, como el caso del ex secretario de los CIAM, el arquitecto suizo Sigfried Giedion (1888-1968), que abogaba por una arquitectura moderna que recuperase el sentido espacial colectivo que había tenido en el pasado. El modelo estaba ya agotado, y las vanguardias enardecidas reclamaban “…la reescritura de una historia reciente construida de manera demasiado homogénea, mecánica y lineal” (Montaner, 1997, p. 8). Era necesario una reevaluación de sus logros y un mea culpa de sus fracasos: se requería una reinvención armónica de la tecnología como factor clave para el desarrollo de la humanidad y del planeta. Una nueva concepción desarrollada a partir de una sensibilidad por el lugar, que extendiera sus límites más allá de lo regional y de lo local: una sensibilidad basada en espacios libres, fluidos, ligeros, e infinitos, que se contrapusieran a los espacios tradicionales de formas identificables, delimitadas, cartesianas y estáticas (Montaner, 1997, p. 30). 98 La crisis de una nueva sociedad capitalista y consumista, dejaba “…a nuestro desafortunado arquitecto moderno sin un elevado contenido social que simbolizar” (Jencks et al., 2004, p. 37). Una nueva sociedad, carente de certezas y verdades absolutas, de límites difusos y cambiantes, comienza a evolucionar en múltiples direcciones teñidas por la diversidad de cada contexto. Una nueva sociedad que parece vivir sobre la superficie de un caos eterno mientras intenta unir, reconciliar y yuxtaponer elementos y teorías contrapuestas. El comienzo de la crisis “Somos interrogadores que llevamos gafas con cristales coloreados; pero si lo sabemos, siempre podemos ajustarlas de manera que sea posible ver la naturaleza en sus auténticos colores” (Moratalla, 2006, p. 17). A comienzos de este nuevo siglo, nos encontramos viviendo un momento histórico especialmente sensible. Para Josep María Montaner, estamos en condiciones de “…tener cierta perspectiva para interpretar la evolución de la arquitectura… y detectar las características más destacables del reciente cambio de siglo” (Montaner, 1997, p. 7). Marcelo A. Fraile - Arquitectura biodigital Estamos en presencia de una nueva forma de entender el proyecto arquitectónico, bajo una mirada tecnológico-digital, donde proceso y generación se encuentran teñidos de una búsqueda de optimización y eficiencia desarrolladas en un ámbito de cierta contundencia formal, donde algoritmos matemáticos, sistemas biológicos digitales y avanzados sistemas estructurales intentan despegarse de su pesada carga histórico-eclecticista. Un nuevo paradigma parece comenzar a gestarse en las entrañas de este nuevo siglo XXI. Una nueva visión de la contemporaneidad, que cuestiona los métodos, las teorías y las observaciones tradicionales, y “…nos lleva a considerar nuevas relaciones entre la arquitectura, el cuerpo, la ecología y las diversas situaciones geopolíticas que ahora caracterizan el planeta” (Prestinenza Puglisi, 2009, pp. 5-12). Bajo una obsesión analítica acelerada por una sociedad electrónica, se ha originado una inédita arquitectura, resultado de numerosas fuentes que producen y reproducen formas impresas a través de una permanente cadena de reacciones y mutaciones. “Todo vale” en un mundo dominado por la moda, que se expande a través de las fronteras y produce un incremento de lo irrelevante, de lo arbitrario y lo banal (Prestinenza Puglisi, 2009, pp. 5-12). Una capacidad de lo ordinario en volverse extraordinario se hace presente por encima de una sobrevaloración estética de las técnicas digitales, sin lograr escapar, muchas veces, de las complejas y caprichosas formas vacías de contenido. Un diseño abierto, de prefabricación a la carta, nos augura un futuro libre de los obstáculos y las restricciones de la propiedad y el derecho de autor: formas abrumadoramente barrocas son ensambladas milimétricamente mediante sistemas robot, que aprovechan la sinergia de los colectivos digitales. Un proceso de hibridación constante entre un progreso desmedido y una virtualización electrónica de la vida ha ocasionado una acumulación de anomalías, que conduce al surgimiento de una crisis paradigmática. Es el punto donde se produce el cambio de concavidad de la curva, algo que para Bernard Cache es el punto de inflexión, una singularidad intrínseca, que Leibniz denomina un ‘signo ambiguo’ (Deleuze, 1989, p. 25). Sin embargo, en esta realidad, es complicado poder definir ese sitio preciso, entre dos puntos próximos. En realidad, se trata de “…un ‘foco lineal’, [una] línea que surge de líneas” (Deleuze, 1989, p. 31). Una variación infinita o una curvatura infinitamente variable. Es la curva de Koch: “…que se obtiene a fuerza de redondear los ángulos según la exigencia barroca, haciéndolos proliferar según una ley de homotecia” (Deleuze, 1989, p. 28). Nada es simple en la contemporaneidad. A través del uso de la computadora, las formas puras se han complejizado, abandonando la geometría euclidiana para ser reemplazada por formas irregulares, asimétricas, de planos inclinados e inestables, que alteran la percepción que se tenía del espacio. Un proceso que encuentra en la tecnología digital el sistema operativo necesario para elaborar sus proyectos: es el medio mismo en que se piensa, se construye y habita la arquitectura. Un proceso evolutivo y no lineal que ha conducido a la fragmentación del espacio en trozos y porciones y ha incorporado, posteriormente, entidades adicionales que son reensamblados, con el objeto de elaborar un todo diferente, un objeto nuevo en franco contraste con el modelo arquitectónico tradicional. Desde Gehry a Tshummi, y de Libeskind a Lynn, los arquitectos se han transformado en gestores de proyectos anómalos: un solapamiento de estructuras “contaminadas”, “retorcidas”, radicalmente alteradas. Una “monstruosa” y distorsionada visión de la realidad, de un futuro utópico, que se aleja de la tradición racionalista para generar formas autónomas y extrañas que, como un parásito que habita dentro del anfitrión, infecta la arquitectura y la distorsiona: no puede extirparse el parásito sin matar al anfitrión, ni siquiera mediante una técnica quirúrgica (Johnson & Wigley, 1988, p. 17). Un desafío a los alores mismos de la armonía, proponiendo un cambio de visión de su estructura: primero se altera la forma y después se busca el programa, “…la forma no sigue a la función, sino que ‘la función seguirá, o no a la deformación’” (Bernardele, 1994, p. 189). 99 Parte III. El punto de inflexión Siete anomalías Un recorrido trazado,“…que, como las migas de pan… defin[en] el camino de vuelta”. (Vidal Climent, 2010, p. 211). Desde finales del siglo XX, la arquitectura digital se ha convertido en una invitada cada vez más asidua en las exposiciones internacionales: una mezcla condensada de “…geometrías aparentemente líquidas y organismos biológicos producidos digitalmente”, han generado en algunos casos, proyectos que “…parecen implicar algo más que jugar con la tecnología y mostrar una fascinación por los programas de software” (Vrachliotis, 2008, pp. 232-261). Estamos ante el nacimiento de una nueva arquitectura, que parece rechazar aquellos estilos históricos del pasado al reemplazarlos con una propuesta innovadora y diferente a lo que hasta el momento existía. Las formas punzantes e inclinadas del Deconstructivismo son sustituidas “…por suaves y sensuales curvas, ya anticipadas por Frank Gehry en el proyecto para el museo de la fábrica Vitra en Weil am Rhein, Alemania (1989)” (Prestinenza Puglisi, 2009, pp. 5-12). Edificios livianos, transparentes, como la representación de “…la inmaterialidad de la sociedad de la información” (Prestinenza Puglisi, 2009, pp. 5-12). No es de extrañar, que en estos primeros estadios de desarrollo, distintos diseñadores describan e interpreten de diferentes modos la misma categoría de anomalías. Estos, generalmente, aparecen “…en forma de artículos breves dirigidos exclusivamente a los colegas profesionales, las personas de las que se pueden suponer que tienen conocimiento de un paradigma compartido y que resultan ser las únicas capaces de leer los artículos a ellas dirigidas” (Kuhn, 1962, p. 84). Es lo contemporáneo, el repensar de la disciplina, el motor de cambio en donde se establecen los nuevos posicionamientos teóricos entre el hombre y su producción arquitectónica. Sin una verdad absoluta, la situación existente se presenta indeterminada, de valores volátiles y estímulos cambiantes, donde la sorpresa, las múltiples conjeturas, las infinitas explicaciones, han conducido al nacimiento de las primeras anomalías. En este sentido, el conectar puntos puede ser considerado un método adecuado para su investigación: donde “…se toman datos, se les da una forma mediante la identificación de puntos significativos y luego se dibujan líneas entre ellos, creando una forma sólida” (Iwamotto, 2011, pp. 112-121). Es un intento por responder la pregunta génesis de este pensamiento: si estamos o no ante el nacimiento de un nuevo paradigma en la arquitectura contemporánea. Es por esto que proponemos el estudio de siete conceptos claves, siete anomalías que nos ayuden a com100 prender y “…comprobar qué aspectos han perdido vigencia, cuáles se han renovado y qué conceptos [nuevos]… han aparecido” (Montaner, 2015, p. 7). Estos son: 1. La globalización: juntos pero divididos. 2. Las nuevas herramientas digitales de representación. 3. La materialidad: prefabricación a la carta. 4. Las complejas formas biodigitales. 5. La ecología: cuando todo es verde. 6. Los Metadiseñadores 7. Los modelos paramétricos. Marcelo A. Fraile - Arquitectura biodigital ANOMALÍA 1. GLOBALIZACIÓN: JUNTOS PERO DIVIDIDOS “En un cibercafé ignoto de Barcelona, un estudiante de ciencias tiene abiertas catorce ventadas de su programa explorador de Internet. Comenzó en Google buscando información para un trabajo de su universidad y termino en el MIT, en una monografía que parece contener esa información. Sin embargo, busca más ejemplos e interpretaciones en otros sitios, otros autores y otros trabajos. Las otras doce ventanas parecen tener información tangencial acerca del contenido, pero desea leerlas. No tiene bien en claro dónde va a guardar tantas referencias ni tanta información, ya que debe levantarse de ese ordenador en minutos. Posiblemente nunca guarde esas páginas entre sus `favoritos´ o posiblemente lo haga y no las vuelva a revisar jamás”. (Pimentel, 2004, p. 60). Para el historiador británico Eric Hobsbawm (1917-2012), el “corto”1 siglo XX comenzó a vislumbrar su final la noche del jueves 9 al viernes 10 de noviembre de 1989, con la caída del muro de Berlín y el fin de una Alemania dividida. Un punto trascendental de la historia que marcaba el colapso de la Unión Soviética, la cual vería su final dos años después, en 1991. Era el desenlace de la guerra fría, luego de años de silenciosas y cruentas batallas. Una pesada cortina de hierro se levantaba, y el mundo nuevamente parecía ser solo uno. El capitalismo había vencido al comunismo, y los moscovitas podían saborear una hamburguesa de McDonald’s sentados cerca de la plaza de Pushkin, en Moscú. Sin embargo, el optimismo inicial pronto se vio afectado por un nuevo y terrible conflicto: la guerra del Golfo. Entre 1990 y 1991, una coalición de fuerzas compuestas por 34 países y bajo el mando de Estados Unidos declaraba la guerra a Irak como respuesta a la invasión de Kuwait. Una terrible contienda que mezclaba ideales de libertad con un trasfondo económico-petrolífero que lo enturbiaba todo. 101 La guerra del Golfo fue un nuevo tipo de contienda que marco todo un hito en la historia de los conflictos bélicos. Por primera vez, una guerra era televisada en directo: sentado en la comodidad de su hogar, el telespectador podía ver, por CNN las 24 horas, a las tropas de la coalición libertadora combatiendo y muriendo en las calurosas y desérticas tierras de Kuwait. Gary Shepard, un reportero de la cadena norteamericana de noticias ABC, transmitía en directo desde el hotel Rashid de Bagdad, mientras de fondo podían escucharse las explosiones, los disparos de las baterías antiaéreas y los aviones bombarderos. Bombarderos invisibles que salidos de la nada lanzaban por sorpresa sus misiles inteligentes, para posteriormente desaparecer casi de in1. En alusión a la clasificación desarrollada por Hobsbawm, que consideró que el siglo XX, corresponde a un período de 77 años, comprendido entre el comienzo de la Primera Guerra Mundial (1914) y la caída de la Union Soviética (1991). Hobsbawm, E. (1998). Historia del Siglo XX. Buenos Aires: Crítica. p. 13. Fig. 1. El primer McDonald’s de plaza de Pushkin, en Moscú. Parte III. El punto de inflexión mediato. Una maléfica tecnología había reemplazado “…las invasiones territoriales de las tropas de infantería y el esfuerzo por despojar al enemigo de su territorio” (Bauman, 1999, p. 17). Lamentablemente, la guerra del Golfo fue solo el comienzo en este nuevo siglo. El 11 de septiembre de 2001, los vuelos 11 de American Airlines y 175 de United Airlines se estrellaban contra las torres gemelas del World Trade Center. Un nuevo punto de inflexión, un antes y un después en la historia del mundo contemporáneo. De este modo, Occidente, ingresaba en el siglo XXI, “…bajo el signo del pánico, y nuestra cultura se precipit[aba] en las tinieblas de la historia” (Fernández Galiano, 2010, p. 112). Su influencia aún puede sentirse en cada aeropuerto del planeta: cada pasajero es sometido a una serie de rigorosos escaneos y controles. Por un instante, uno pierde todos sus derechos constitucionales para convertirse en un sospechoso: es despojado de su calzado, cinturón, abrigos y elementos electrónicos, todo en pos de la seguridad general. Uno es culpable hasta que se demuestre su inocencia. Fig. 2. Gary Shepard, un reportero de la cadena norteamericana de noticias ABC, transmitía en directo desde el hotel Rashid de Bagdad, mientras de fondo podían escucharse las explosio- Sumido en las convulsiones de sus transes financieros e institucionales, y que parecen reflejar el declive impreciso de una crisis global que se extiende como una mancha de aceite de continente en continente (Fernández Galiano, 2010, p. 112), el nuevo milenio se nos presenta bajo una “modernización incompleta” (Alonso, 2009, p. 11), falto de encanto, plano, asimétrico, e incapaz de ajustarse a un mundo paralizado e inerte que lucha por salir adelante. Para la filósofa estadounidense Susan Buck-Morss, el nuevo siglo XXI nos ha desilusionado francamente (Alonso, 2009, p. 11), nos había prometido progreso y bienestar pero, en su andar amnésico, hasta el mo- aéreas y los aviones bombarderos. mento solo nos ha mostrado guerras, recesión económica, y un aumento de las desigualdades sociales. Fig. 3. El 11 de septiembre de 2001, Sin embargo, no todo ha sido caos y guerra en el siglo XXI. Con la introducción de internet e importantes avances en materia de micro y nanotecnología, se ha generado un nuevo modo de concebir el universo: nuestro mundo se ha vuelto más pequeño y parece girar cada vez más rápido. El escritor estadounidense Alvin Toffler (1928-2016) lo definía como el “shock del futuro”, “una desastrosa tensión y desorientación que provoca en los individuos (los excesivos cambios) en un lapso de tiempo demasiado breve” (1970). nes, los disparos de las baterías anti- 102 los vuelos 11 de American Airlines y 175 de United Airlines se estrellaban contra las torres gemelas del World Trade Center. El uso de nuevas tecnologías ha transformado la vida de la sociedad contemporánea. Un profundo impacto cultural, con un proceso de renovación que intenta reemplazar el modelo anterior, ahora obsoleto, por uno inspirado en lo digital, en lo tecnológico. Un modelo complejo por naturaleza, que presenta en su esencia una contradicción (real-virtual), consecuencia inevitable de su situación. Zygmunt Bauman (1925-2017) filósofo y ensayista polaco, muy preocupado por los cambios que se están produciendo en la humanidad, en su libro Modernidad líquida relacionaba la sociedad contemporánea con el Marcelo A. Fraile - Arquitectura biodigital fenómeno físico de fluidez “…una disolución de los viejos conceptos, donde antiguas teorías han sido y están siendo refutadas, dando paso a otras nuevas, mucho más complejas y relativas”(1999, pp. 7-20). Una realidad con múltiples puntos de vista, carentes de linealidad, establece nuevos modos de expresar todo tipo de sensaciones a través de infinitas pantallas. Un aluvión efímero de posibilidades, producto de las nuevas tecnologías, emula digitalmente las relaciones de una sociedad individualista, donde el límite solo lo define la imaginación del sujeto. De la net a la internet “Por su parte, el fenómeno extraordinario de la red, que de hecho ha creado la biblioteca infinita de Borges, nos concede a la vez un depósito laberíntico de conocimiento y un archipiélago de información trivial o entretenimiento vacuo. Didáctica o diversidad, esa red digital teje nuestra existencia cotidiana y nuestra experiencia del mundo, pautando las relaciones sociales y laborales lo mismo que potencia y modifica la percepción de la arquitectura”. (Fernández-Galiano, 2009, p. 3). Conceptualmente, la primera red informática fue el sistema SAGE (semi-Automated Ground Environment. Medio Terrestre Semiautomático), un sistema desarrollado por la Fuerza Aérea Norteamericana a fines de Fig. 4. Zygmunt Bauman, preocupado por los cambios que se están produciendo en la humanidad, en su libro Modernidad líquida relacionaba la sociedad contemporánea con el fenómeno físico de fluidez. la década de 1950, para el procesamiento y traducción de los datos generados por los radares. Paralelamente, en 1959, el ingeniero estadounidense Paul Baran (19262011) comienza a trabajar en una red segura, frente al temor de que una explosión nuclear neutralizase las comunicaciones telefónicas. Tres años después, en 1962, el informático estadounidense Joseph C. R. Licklider (1915-1990) desarrollaría el concepto de una red de computadoras comunicadas entre sí. En 1965, durante la Guerra Fría, la Defense Advanced Research Projects Agency (DARPA. Agencia de Proyectos de Investigación Avanzados de Defensa), de Estados Unidos, buscaba desarrollar una red totalmente descentralizada que comunicara las computadoras, inmune a cualquier daño electromagnético que pudiera provocar un ataque nuclear. Como consecuencias de estas investigaciones, en 1969, el Departamento de Defensa de los Estados Unidos, y el Advanced Research Projects Agency (ARPA. Agencia de Proyectos de Investigación Avanzados) desarrollarían ARPANET: una red que conectaba las computadoras de cuatro universidades de la costa oeste: la Universidad de California en Los Ángeles (UCLA), el Stanford Research Institute, la Universidad de Utah y la Universidad de California en Santa Bárbara. Sin embargo, el gran salto tecnológico se produciría cuando ARPANET se extendió e integró el mundo académico. Para septiembre de 1973, el proyecto ya organizaba a más de 40 universidades y diferentes centros de investigación de los Estados Unidos. Una red utilizada por programa- 103 Parte III. El punto de inflexión dores, académicos e informáticos, para enviar mensajes e intercambiar información. La primera vez que se utilizó la palabra Internet (acrónimo de Interconnected Networks. Redes interconectadas) fue en un artículo titulado “Specification Of Internet Transmission Control Program”2, publicado en diciembre de 1974, por los investigadores de la Universidad de Stanford, Vinton Cerf, Yogen Dalal y Carl Sunshine, para describir una red de protocolos globales que permitía enviar información dentro de la red. Cuatro años después, se desarrollaba en la ciudad de Chicago la primera red inalámbrica de transmisión de datos: denominada G1 (generation 1), que consistía en la interconexión de una serie de antenas de radiofrecuencia –denominadas células–, las cuales creaban una red invisible capaz de enviar y recibir datos. Una vez recibida la información, esta era derivada hacia terminales o sistemas telefónicos. Con el tiempo, este sistema evolucionaría y recibiría el nombre de G2, G3, G4, etc. Para la década de 1980, se comienza a experimentar con redes de fibra de vidrio: un sistema que permitía la transferencia de imágenes, sonidos y datos, en múltiples canales. Sin embargo, aún existía un gran inconveniente: cada empresa tenía su propio lenguaje para la transmisión de datos3, los cuales eran incompatibles entre sí, dificultando la vinculación entre compañías. Esto obligaría encontrar con urgencia una serie de protocolos de comunicación que permitieran la comunicación directa entre compañías de diferentes fabricantes. La solución llegaría en 1983, cuando todas las computadoras centrales 104 Fig. 5. Sistema SAGE (semi-Automated Ground Environment. Medio Terrestre Semiautomático), un sistema desarrollado por la Fuerza Aérea Norteamericana a fines de la década de 1950, para el procesamiento y traducción de los datos generados por los radares. de ARPANET, adoptaran el NCP (Networtk Control Protocol. Protocolo de control de red), un protocolo de comunicación que se venía utilizando desde 1970, por el TCP/IP4 (Transmission Control Protocol/Internet Protocol. Protocolo de Control de Transmisión / Protocolo de Internet): un protocolo inventado por el ingeniero Vint Cerf (1943) y el profesor Robert Kahn (1938), que permitía la comunicación de sistemas operativos tan dispares como MS-DOS, Unix, Macintosh, o OS/2. Poco tiempo después, ARPANET quedaba dividida en dos diferentes redes: una de uso exclusivamente militar, la MILNET; y otra de uso civil, que permitiría la comunicación entre universidades, centros de investigaciones, y oficinas del Gobierno. En marzo de 1989, un ingeniero y científico de la computación, el británico Thimothy Berners Lee (1955), buscando resolver un problema práctico en CERN (Conseil Européen pour la Recherche Nucléaire. Consejo Europeo para la Investigación Nuclear), comenzó a esbozar en un ar2. Traducido como “Especificaciones del programa de control de transmisiones en internet”. 3. Por ejemplo, IBM tenía el SNA (System Network Architecture), Honeywell tenía el DSA, (Distributed System Architecture), etcétera. 4. Internet Protocol (IP). “Un protocolo es un conjunto de normas que siguen los ordenadores de una red y que permite que la comunicación entre ellos sea posible”. Groisman, M., “Ciclos, líneas y tramas”, en Montagu, A. (2004). Cultura Digital: comunicación y sociedad, Buenos Aires: Paidós, p. 205. Marcelo A. Fraile - Arquitectura biodigital tículo titulado “Information Management: A Proposal”5, el concepto de un sistema universal que permitiera vincular la información existente en miles de computadoras, mediante la utilización de una tecnología denominada hipertexto. Sin embargo, los conceptos de Berners-Lee no tuvieron gran repercusión y debieron esperar hasta diciembre de 1990, para que el mismo Berners-Lee, junto con el belga Robert Cailliau, pudieran desarrollar la primera comunicación entre una persona y un servidor, a través del uso del protocolo HTTP (HyperText Markup Language): un lenguaje desarrollado para la elaboración de páginas web. Tres años después, en 1993, nacía la World Wide Web (www), un sistema que permitía el trabajo y el intercambio de información dentro de la red. En abril de ese año, el Centro Europeo para la Investigación Nuclear hacía accesible la red a todo el mundo, y para noviembre, el National Center for Supercomputing Applications (Centro Nacional de Aplicaciones de Supercomputación) de EE.UU. lanzaba Mosaic, el primer navegador de acceso público del mundo: un programa que los usuarios utilizaban para acceder a la red. Tiempo después sería adquirido por Microsoft y renombrado como Internet Explorer. En 1994, Berners-Lee funda en el MIT el Consorcio de la World Wide Web (W3C), cuyo objetivo sería supervisar y desarrollar la tecnología en la que se basa el funcionamiento de Internet. Tres de estos elementos serán: el lenguaje HTML (HyperText Markup Language), un lenguaje de etiquetas de hipertexto; el protocolo HTTP (HyperText Transfer Protocol), y el sistema de localización de objetos en la web URL (Uniform Resource Locator). Ese mismo año, aparece Netscape Navigator, un navegador comercial que se convertiría en el navegador universal por excelencia. Pronto, el sistema monodireccional de la web 1.0 sería reemplazado por la web 2.0, una red bidireccional donde el internauta pasaría de ser espectador a protagonista. Una de las herramientas centrales de la web 2.0 sería el desarrollo de los blogs: una plataforma online donde cualquiera podría publicar textos, imágenes, sonidos y videos. Uno de los ejemplos paradigmáticos y más comentados de la utilización de los blogs sucedió en 1991, durante la guerra de Irak, cuando Salam Pax (1973), seudónimo de Salam Abdulmunem, un periodista de origen iraquí, escribía su blog desde Bagdad con noticias de la guerra, mientras afuera de su casa se producían cruentas batallas. En el 2001, la enciclopedia virtual Wikipedia comenzaba a operar, “…con el objetivo expreso de convertirse en una fuente de referencia universal creada y mantenida exclusivamente mediante el esfuerzo voluntario y abierta a todo aquel que quiera colaborar” (Chatfield, 2012, p. 46). Actualmente, internet ha inundado todos los ámbitos de la actividad humana, lo que produjo una auténtica revolución tecnocientífica, donde la información se ha transformado en el elemento clave: una matriz de interconexiones, “…multidireccional, fragmentada e hipertextual”, una representación compleja de un universo en incesante movimiento. El largo camino hacia la virtualización de lo real La Biblioteca de Babel de Borges, tiene su materialización aparente en la red: “…sugiere lo imposible pues insinúa la dicha de lo ilimitado, una realidad sin fronteras”. (Zátonyi, 2007, p. 41). Nuevos modos de comunicación se hacen presentes en la sociedad de la información. Se ha superado la visión clásica del modelo Shannon-Weaver6, que hacía necesario un “emisor”, un “receptor” y un “canal”. Ahora, internet transforma la sociedad, y la interacción entre los individuos varía el registro del conocimiento huma5. Traducido como “Gestión de la información: una propuesta”. 6. En relación con el modelo matemático de la información, desarrollado a finales de la década de 1940 por el matemático, ingeniero y criptógrafo estadounidense Claude Elwood Shannon (1916-2001) y el biólogo e informatólogo estadounidense Warren Weaver (1894-1978). 105 Parte III. El punto de inflexión no: “Los ordenadores, la informática e internet han hecho surgir nuevas formas de trabajo, de aprendizaje y de comunicación” (Orcivoli, 2004, p. 95). Para el profesor Arturo Montagu, vivimos en “sociedades superconectadas”, donde los cables comienzan a ser sustituidos por el wireless7, una nueva tecnología que manipula, almacena e intercambia la información de forma digital. Pantallas digitales se transforman en ventanas hacia el mundo exterior, espejos de una realidad fragmentada y difusa. Una versión de alta tecnología, aislada y protegida por gruesas murallas digitales. Un espacio controlado y monitoreado, que hace 20 años podría haber formado parte de una novela de ciencia ficción, se ha transformado en una realidad: una obra abierta, donde cada sujeto está en condiciones de crear sus propios recorridos. Vivimos en un mundo real, sin embargo, este coexiste con lo digital, y en él se refleja, se comunica y cambia. Estamos en presencia de una virtualización de la realidad, donde el cuerpo físico es codificado en ceros y unos, “…un código binario que podrá ser descodificado, transmitido y tratado por multitud de dispositivos de forma prácticamente instantánea” (Castro Pinzón & Troncoso, 2005). Por momentos, ambas identidades confluyen en algunos puntos en común: mundos reales, observados y vigilados a través de cámaras digitales que crean mundos seguros, protegidos bajo estrictas redes satelitales. Un mundo contemporáneo donde las barreras entre ambos universos parecen desdibujarse continuamente. Fig. 6. Para los fotógrafos Antoine Geiger y Max Cavallari, es innegable la “…omnipresencia de los smartphones en la sociedad actual”. 106 Un ejemplo al respecto, podemos observarlo en la película de ciencia ficción de 1993, Demolition Man8, donde la teniente Lenina Huxley (interpretada por la actriz Sandra Bullock) invita a John Spartan (un policía del pasado siglo XX recientemente descongelado, interpretado por el actor Sylvester Stallone) a su departamento para mantener relaciones íntimas. Sin embargo, la excitación inicial de Spartan se ve rápidamente frustrada cuando la joven teniente extrae de una caja dos “ciber cascos”, los cuales serán los encargados de consumar el acto, claro está, de un modo virtual, es decir, sin tener ningún tipo de contacto físico. Lejos de transformarse en un film de culto, Demolition Man presenta una visión casi caricaturesca del futuro en el 2032, donde sus habitantes han sufrido un proceso de infantilización, careciendo de toda maldad. Sin embargo, esta mirada cinematográfica tendría sus matices de realidad cuando Billie Whitehouse, junto con Ben Moir y Havas Worldwide 7. Wireless (del inglés “sin cables”). Terminología utilizada “…para referirse a la tecnología que opera sin ellos y conecta diferentes partes de los ordenadores (es el caso de los periféricos como el mouse o el teclado wireless) o las computadoras entre sí. …donde las computadoras acceden a Internet a través de esta tecnología”. Montagu, Arturo; Pimentel, Diego; Groisman, Martin, “Introducción” en Montagu, A. (2004), Cultura Digital: comunicación y sociedad, Buenos Aires: Paidós, p. 19-20. 8. Demolition Man (1993) es una película de acción y ciencia ficción, producida por Warner Bros., dirigida por Marco Brambilla y protagonizado por Sylvester Stallone, Wesley Snipes y Sandra Bullock. Marcelo A. Fraile - Arquitectura biodigital desarrollarían Fundawear: una nueva concepción en el diseño de ropa interior de alta tecnología. Fundawear es la primera ropa interior con tecnología portátil. Una fina prenda desarrollada con tela de bambú de gran calidad que oculta en su interior una serie de sensores que permiten sentir el contacto físico al transferir de un modo inalámbrico las caricias de una persona, no importa en qué parte del mundo se encuentre: para ello solo se necesita tener instalada una aplicación codificada en un teléfono inteligente. Con cada toque en el teléfono, se transmite a los sensores de Fundawear una señal que es reproducida físicamente en la piel de quien la utilice y brinda una sensación similar a una caricia. Un cuerpo generado a partir de matrices numéricas, códigos binarios e imágenes provistas por la misma web (Castro Pinzón & Troncoso, 2005, pp. 1-8). Fig. 7. Demolition Man. Película de ciencia ficción de 1993. La teniente Lenina Huxley (Sandra Bullock) invita a John Spartan (Sylvester Stallone) a su departamento para mantener relaciones íntimas de un modo virtual. Una falta de corporeidad que, lejos de transformarse en una experiencia irreal, es una experiencia de curioso voyeur: una red utilizada “…para denunciar las perversidades que el mismo sistema construye” (Evalle, 2006, p. 21). Producto de un ambiente tecnológico, la sociedad contemporánea se encuentra inmersa y vive frente a pantallas, mirando hacia otro lado. Una tecnología capaz de lentificar o acelerar el tiempo, donde cinco minutos se transforman en una eternidad, si se trata de esperar la respuesta de un Whatsapp que ya tiene sus dos tildes celestes. Una red invisible de satélites y antenas nos rastrean permanentemente, ubicando nuestra posición y estado: disponible / no disponible. Una red inmaterial de avenidas y autopistas que establecen una nueva cartografía para el hombre superconectado (Pimentel, 2004, p. 34) de la ciudad digital. Gracias a la tecnología, estamos disponibles y ubicables las 24 horas del día, los 365 días del año, no importa si estamos en el desierto, en una playa nudista o en el mismo infierno, lo que nunca debe faltarnos es un smartphone con su batería suficientemente cargada y una buena conectividad 4G. Una tecnología que posibilita un registro meticuloso de la realidad, al permitir fotografiar y filmar absolutamente todo. El siglo XXI quedará definido como uno de los siglos mejor documentados de la historia: pareciera que nadie percibe directamente la realidad, siempre se requiere de dispositivos electrónicos que actúen a modo de filtros, entre el acontecimiento y el individuo. Nos hemos transformado en cronistas de nuestra vida: los 15 minutos de Warhol9, nos exigen compartir cumpleaños, vacaciones, cirugías y comidas en la red. Nada se descarta. La diferencia entre público o privado en nuestra vida queda determinada por un casillero configurado a veces por default. Una realidad que se reescribe continuamente, una combinación de múltiples imágenes entrecruzadas y superpuestas, donde cada individuo arma 9. En alusión a la cita “en el futuro todos tendrán sus 15 minutos de fama mundial” atribuida al artista plástico Andy Warhol. Fig. 8. Fundawear es la primera ropa interior con tecnología portátil. Oculta en su interior una serie de sensores que permiten sentir el contacto físico al transferir de un modo inalámbrico las caricias de una persona. 107 Parte III. El punto de inflexión su propia versión de la realidad, “…permitiendo seguirlas en una misma línea o eligiendo nuevos caminos de lectura, para volver evidentes las opciones de desarrollo de los recorridos realizados a partir de la pantalla del menú”. Una manipulación intrínsecamente digital que se replantea y es replanteada dentro de un nuevo soporte. Para Manuel Castells, a través de la tecnología digital, estamos transformando nuestra cultura material (La Ferla, 2004, p. 61). Un caos frenético, una sobreabundancia de datos, que hace imposible su catalogación y jerarquización: el gran reto del siglo XXI pareciera ser encontrar un sistema efectivo que permita clasificar toda su información. Para algunos con una visión positivista de la realidad, esta tecnología nos posibilita abrir nuevas ventanas a nuevas realidades, ventanas que nos comunican y relacionan con el resto del mundo; para otros, es una reinterpretación del flautista de Hamelin que, escondido entre las sombras de ceros y unos, hipnotiza a las masas y nos aíslan a los unos de los otros. Del ciberespacio a la arquitectura líquida “No puedo fingir familiaridad con la revolución digital”. (Fernández-Galiano, 2009, p. 3). El término “ciberespacio” fue utilizado por primera vez en 1984 por el escritor estadounidense –pionero de novelas ciberpunk10– William Gibson (1948) en su novela Neuromante. Allí, Gibson describe una sociedad distópica, global, en la cual sus integrantes evaden la realidad, habitando ambientes virtuales a través de la interconexión de una red de millones de computadoras. Fig. 9. El término “ciberespacio” fue utilizado por primera vez en 1984 por el escritor estadounidense William Gibson en su novela Neuromante. 108 A partir de su novela, Gibson contribuiría a generar un universo superador de las simples cuestiones físicas. Introduciendo nuevas palabras como ciberespacio o realidad virtual, crearía todo un vocabulario de términos ciberpunk para describir un nuevo mundo “…creado y nacido de la yuxtaposición de la mente humana y la cibernética” (Orciuoli, 2005, p. 37). En pleno auge de la globalización, frente a un incremento de la velocidad de las conexiones y un aumento de su accesibilidad, el concepto de ciberespacio puede ser entendido como un espacio efímero, virtual, ajeno a los espacios euclidianos; un espacio sin extensión, que permite penetrar, recorrer y “vivir” ilusoriamente el interior de una imagen (Gubern, 1996, p. 167). Un universo concebido digitalmente, en el cual las identidades son mutables dentro de una inagotable base de datos alfanuméricas. Una realidad que nos separa de la realidad cotidiana, para sumergirnos en un mundo lejano y fantástico. Un modelo rizomático donde no existe un centro jerárquico y cualquier elemento puede influir en las características de otros elementos, no importa cuál sea su posición dentro de la estructura. 10. Véase Lawrence Person, “Notas hacia un Manifiesto de Post cyberpunk”, primera publicación en Nova Express edición 16 (1998), posteriormente publicada en Slashdot. Marcelo A. Fraile - Arquitectura biodigital Uno de los ejemplos más representativos al respecto es el pabellón ruso de la XIII Bienal de Arquitectura de Venecia del 2012, un diseño de los arquitectos SPEECH Tchoban & Kuznetsov. Un proyecto destinado al desarrollo y promoción de las ciencias a través de un enfoque innovador: tres habitaciones completamente cubiertas de piso a techo con losetas plásticas retroiluminadas en donde se exhibían códigos QR. El público que recorría la muestra debía contar con un smartphone o tablet, que además estuviera equipado con un software lector de código QR, con el fin de descodificar el mensaje. A través de estas ventanas digitales, los visitantes transitaban los espacios del pabellón y descubrían a su paso una catarata de videos, imágenes y sonidos: una virtualización de la arquitectura que requería de dispositivos digitales para poder descubrirla, para poder entenderla: ya no se distinguían los límites entre lo virtual y lo real. Inundados por este proceso de virtualización, parece estar emergiendo una nueva arquitectura “…para la cual las nociones posmodernas de lugar, contexto e identidad han perdido en buena medida su significado” (Ibelings, 1998, p. 10) para ser reemplazadas por otros sin existencia física. Un espacio binario, donde máquinas y humanos interaccionan, cambiando su configuración como si de líquidos se tratase. Una realidad alternativa, de geometrías topológicas, exentas de las leyes físicas y operada por nuestros cerebros. El arquitecto ateniense Marcos Novak (1957) ha comparado este fenómeno digital con el proceso que sufren los sólidos al transformarse en estado líquido: “…una variabilidad radical dentro de un contínuum que implica una cosa y su opuesto” (Picon, 2004, pp. 114-121). Tiempo después, Novak llevaría este concepto al desarrollo de una arquitectura que denominaría como líquida: término que había sido utilizado en 1991 en el libro “Cyberspace”, de DIrk Benedikt. Fig. 10. Pabellón ruso de la XIII Bienal de Arquitectura de Venecia del 2012, un diseño de los arquitectos SPEECH Tchoban & Kuznetsov. 109 Parte III. El punto de inflexión 110 Fig. 11. A través de estas ventanas digitales, los visitantes transitaban los espacios del pabellón y descubrían a su paso una catarata de videos, imágenes y sonidos. Lejos del espacio físico, Novak va a desarrollar su “arquitectura líquida”, mediante una serie de maquetas virtuales que irá deformando a través de algoritmos matemáticos y funciones paramétricas, utilizando la música como detonante, elaborando perspectivas quiméricas, espacios irreales y un sinnúmero de operaciones plásticas de deformación (Pimentel, 2004, p. 48). Una arquitectura de cuatro dimensiones, lejos de las leyes terrenales, de los colores, las texturas y los materiales convencionales. En su lógica líquida, Novak utiliza los sistemas digitales como un instrumento para la exploración de nuevas realidades. Una herramienta donde los procesos de proyectación se transforman en un fenómeno flexible que fluctúa tanto en el tiempo como en el espacio, cambiando interactivamente. En palabras de Novak “una sinfonía en el espacio”, reducida a bits de información. Una concepción avanzada del pensamiento donde las computadoras son un reflejo de la imaginación del diseñador. Marcelo A. Fraile - Arquitectura biodigital Una cultura arquitectónica “…cada vez más permeable con el llamado ‘pensamiento computacional’” (Vrachliotis, 2008, pp. 232-261), una tecnología que desafía la gravidez, la pérdida de energía y la economía de recursos (Ibelings, 1998, p. 12). Bajo una globalización aparente, el proceso parece unificar formas y escalas; “…bits de un flujo de información que corren por circuitos en forma de impulsos electrónicos…bits sin peso” (Calvino, 2012, p. 9). Arquitectura de globalización “Los testimonios de esta segunda mitad de la historia no están constituidos de textos o de lenguajes, sino de restos silenciosos y brutales tales como bombas, piedras y estatuas” . (Latour, 2007, p. 123). En 1968, el filósofo y escritor francés Guy Debord (1931-1994) vaticinó que “Toda la vida de las sociedades donde rigen las condiciones modernas de producción se manifiestan como una inmensa acumulación de espectáculos” (Casanovas, 2008). Los nuevos diseñadores buscan ese cambio, llevan consigo el germen de la revolución, con “…su lenguaje específico-artístico y con sus conocimientos técnico-científicos simbolizan esta complejidad” (Zátonyi, 2002, p. 52). Una nueva generación de diseñadores, creadores de tendencias, ob- Fig. 12. Marcos Novak. Turbulent Topo- sesionados por la forma y el control, enseñan a la gente cómo habitar logies. sus casas y cómo vivirlas. Son los humanistas del siglo XXI, expertos en múltiples temas, desde matemática hasta botánica o moda11: transformados en rock stars, personifican el glamour y la fama mundial, reciben títulos nobiliarios, son fotografiados frente a presidentes e incluso tienen su propio club de fans. Generadores de una estética de consumo, una “…arquitectura escultórica concebida ‘no para ser útil, sino memorable’” (Von Moos, 2012, p. 112). Las principales capitales del mundo se disputan sus edificios como si de obras de arte se tratara: modas pasajeras que van y vienen a una velocidad vertiginosa, “… son valoradas por los medios de comunicación de acuerdo a la fama y el rango de los actores implicados, y olvidadas tan pronto como dejan de ser algo novedoso” (Von Moos, 2012, p. 112), incluso “…antes de haber tenido tiempo de ser gozados plenamente”. Las ciudades contemporáneas se han transformado en megalópolis, carentes de un centro. Algo que, para la arquitecta francesa Francine Fort, directora de Arc en Rêve-Centre de Arquitecture, “…ha pasado a ser un ‘continuo urbano desterritorializado’” (Arenas, 2010, p. 18): ciudades donde las fronteras tradicionales se han borrado para dar lugar a otras nuevas, por donde circulan flujos de capitales y de productos. Una sociedad fluida, como amebas, con acontecimientos inestables, que se retraen o expanden de acuerdo a las condicionantes de su entorno. 11. En alusión al libro de Cordura Rau, (2008). Why Do Architects Wear Black?, Vienna & New York: Springer Verlag. 111 Parte III. El punto de inflexión Ciudades que imposibilitan desarrollar una infraestructura rígida. Son los “no lugares” de Augè, “…sitios por los cuales nadie siente un apego particular y que no funcionan como puntos de encuentro a la manera tradicional” (Ibelings, 1998, p. 66). Sitios controlados, vigilados mediante cámaras de video, con códigos magnéticos y donde “…parecen hacer sobrante la presencia de personal de carne y hueso” (Ibelings, 1998, p. 66). Símbolos de una era de la globalización, manifestaciones de una Fig. 13. Norman Foster en el Estadio Wembley. homogeneización: espacios donde nos encontramos “…un poco asustados ante la vista de otros seres humanos” (Bauman, 1999, p. 113). El concepto de “aldea global”, donde las nuevas tecnologías permiten que las experiencias puedan ser originadas desde metrópolis muy diversas (Montaner, 1997, p. 117). Una cultura con raíces mestizas que para algunos autores ha perdido su condición de vanguardia, ya que estas “…han perdido la intención programática y defienden una postura de búsqueda empírica y estrictamente individual” (Montaner, 1997, p. 118). Espacios flexibles, limitados, espacios donde el individuo común es trans- Fig. 14. Zaha Hadid y Karl Lagerfeld. Los arquitectos del siglo XXI, transformados en rock stars, personifican el glamour y la fama mundial, reciben títulos nobiliarios, son fotografiados frente a presidentes e incluso tienen su propio club de fans. formado en un pixel visto a través de una cámara de seguridad. Los no lugares de Koolhaas se han transformado en los “lugares pixel” del siglo XXI; lugares vigilados, controlados, inspeccionados. Una representación en imágenes de la ciudad contemporánea a través de múltiples pantallas: “En cada descansillo, frente a la puerta del ascensor, el cartelón del enorme rostro miraba desde el muro. Era uno de esos dibujos realizados de tal manera que los ojos le siguen a uno adondequiera que esté. ‘EL GRAN HERMANO TE VIGILA’, decían las palabras al pie (...)” (Orwell, 1999). Pero el gran hermano también ha mutado, ha delegado su tarea a una creciente fila de Grandes Hermanos y Grandes Hermanas que observan y son observados ávidamente: el acceso a la información se ha transformado en el tesoro más celosamente custodiado de los últimos tiempos (Bauman, 1999, p. 35-165). 112 Figuras Fig. 1. http://www.abc.es/internacional/20140822/abci-mcdonalds-rusiahistoria-201408211737.html Fig. 2. http://cnnespanol.cnn.com/2016/01/19/invasion-a-iraq-25-anos-de-latransmision-en-vivo-de-la-guerra-del-golfo-persico/ Fig. 3. http://www.lostiempos.com/tendencias/viral/20160509/video-viral-torresgemelas-15-anos-despues-del-atentado Fig. 4. Zygmunt Bauman, Modernidad líquida. Fig. 5. Sistema Sage. http://www.computerhistory.org/collections/ catalog/102622740 Fig. 6. Antoine Geiger y Max Cavallari. http://www.abc.es/recreo/abci-cincofotografias-alertan-sobre-nuestra-adiccion-telefonos-moviles-201511171055_ noticia.html Fig. 7. Demolition Man. http://missemmamm.com/2016/02/03/demolitionman/ Fig. 8. Fundawear. http://indiatoday.intoday.in/story/fundawear-long-distancerelationship-smartphones/1/280110.html Fig. 9. William Gibson, Neuromante. Marcelo A. Fraile - Arquitectura biodigital Fig. 10 y Fig. 11. Pabellón Ruso de la XIII Bienal de Arquitectura de Venecia del 2012. http://www.metalocus.es/es/noticias/i-citii-land-pabell%C3%B3n-de-rusiaen-venecia Fig. 12. Marcos Novak. Turbulent Topologies. http://www.artelabonline.com/ articoli/view_article.php?id=2848 Fig. 13. Norman Foster en el Estadio Wembley. http://www. manchestereveningnews.co.uk/news/greater-manchester-news/wembleyarchitect-sir-norman-foster-691068 Fig. 14. Zaha Hadid y Karl Lagerfeld. http://artobserved.com/2008/07/zahahadids-chanel-mobile-art-space-coming-to-central-park-october-20th-tonovember-9th/ 113 Marcelo A. Fraile - Arquitectura biodigital ANOMALÍA 2. LAS NUEVAS HERRAMIENTAS DIGITALES DE REPRESENTACIÓN “…La arquitectura es el juego sabio, correcto y magnífico de los volúmenes reunidos bajo la luz. Nuestros ojos están hechos para ver las formas bajo la luz: las sombras y los claros revelan las formas. Los cubos, los conos, las esferas, los cilindros o las pirámides son las grandes formas primarias que la luz revela bien: la imagen de ellas es clara y tangible, sin ambigüedad. Por esta razón son formas bellas, las más bellas”. (Corbusier, 1964). Desde tiempos inmemoriales el hombre ha necesitado de sistemas “metafóricos” para poder expresar sus ideas: desde el dibujo bidimensional a la maqueta tridimensional, una serie de instrumentos permitían al individuo describir y representar la naturaleza dinámica de la realidad. Las primeras imágenes nacieron en la prehistoria, hace aproximadamente 15.000 años, durante el Paleolítico, cuando el hombre comenzó a dibujar elementales manifestaciones artísticas en las paredes de sus cuevas. Utilizando pigmentos de origen natural, estos individuos primitivos dejaron registros tangibles de su vida: imágenes de personas y animales a base de carbón, sangre, tierra y polvo. Con el tiempo, los dibujos fueron perfeccionándose, los artistas desarrollaron diversos métodos para ayudarse a representar del modo más fidedigno todo lo que veían a su alrededor. Para los arqueólogos, el dibujo geométrico tuvo su origen en la civilización caldea y egipcia: desde las divisiones de la tierra y sus canales de riego, hasta los murales de las tumbas de los faraones. Posteriormente, durante la civilización griega, el dibujo adquiriría un proceso de rigurosidad a través del desarrollo del algebra y de la geometría, donde las figuras geométricas no solo podían ser representadas, sino también calculadas. A pesar de esto, el gran avance en la representación tridimensional del espacio se produciría durante el siglo V, con el descubrimiento de la perspectiva. Teóricos como Brunelleschi (1377-1446) y Alberti (1404-1472) se encargarían de codificar en forma sistemática las experiencias anteriores. En este sentido, no solo supuso una nueva manera de representar el mundo sino, lo que es más importante, significó la matematización del espacio y, con ello, una nueva forma de pensar (Bonet Saumench, Moret Chesa, & Solanellasbertran, 2009, p. 6). Fue el punto de inflexión donde se superó el sistema figurativo medieval que asociaba el espacio con un ámbito sagrado. La perspectiva se había transformado en una herramienta fundamental para la proyectación, representación y, eventualmente, la modificación del espacio arquitectónico. Una construcción científica del sitio que se consigue controlando con exactitud la apariencia de los objetos en el espacio. Un proceso aditivo de complejidad 115 variable donde cada línea, cada trazo se va sumando al anterior a través de un código basado en normas y convenciones que el diseñador establece a priori (Tedeschi, 2014, pp. 15-30). Finalmente, el impulso decisivo se daría durante el siglo XVIII, con la publicación del tratado Géométrie descriptive (1798), del matemático francés Gaspard Monge (1746-1818) en donde se establecían las leyes de la proyectación y representación de elementos geométricos en dos y tres dimensiones. A partir de Monge, fue posible distinguir la obra de arte de la ciencia del dibujo, separándose lo técnico de lo artístico mediante los nuevos sistemas de representación –proyecciones de plantas, cortes y azadas– que adquirieron rigor con el uso de la geometría descriptiva. En el campo específico de la disciplina, el dibujo convencional se constituyó en un instrumento para representar el mundo. Un sistema de símbolos capaces de poder expresar los pensamientos del diseñador, trasmitirlos y posteriormente materializarlos. En este sentido, se trata de un trabajo de traducción entre la “idea tridimensional” en la mente y su “representación” física en el papel. Un modelo complejo donde cada acto creativo se traduce en un alfabeto geométrico, un vínculo directo entre idea y signo (Tedeschi, 2014, pp. 15-30). Parte III. El punto de inflexión El dibujo convencional en la arquitectura posibilitó organizar ideas, espacios y formas; en esencia representó la facultad de predecir el resultado de los diseños (Tedeschi, 2014, pp. 15-30). Y pese a lo limitado de su configuración, el dibujo viabilizó a los arquitectos a desarrollar sus doctrinas y poder construirlas, al transformarse en un medio de comunicación eficaz para explorar alternativas, y soluciones. Para el arquitecto italiano Arturo Tedeschi (1979), la lógica aditiva del dibujo tradicional presenta dos elementos contrastantes. En primer lugar, el acto de dibujar difiere de los mecanismos cognitivos que subyacen en el proceso creativo, y que funcionan mediante el establecimiento de interrelaciones en lugar de añadidos posteriores; y, en segundo lugar, el proceso de dibujo excluye aquellos aspectos físicamente relevantes que en el mundo impulsan el desarrollo de formas, como por ejemplo: la gravedad y las restricciones que afectan y restringen las deformaciones y los desplazamientos (Tedeschi, 2014, pp. 15-30). Con la aparición de las primeras computadoras, durante la década de 1980, y su implementación masiva una década después, nos hemos introducido en un vertiginoso proceso de digitalización de la arquitectura: el campo de la representación gráfica se ha transformado en un área de permanente evolución, lo que posibilita la experimentación con la forma, “…de una manera tan aparentemente sencilla e intuitiva, [que] han despertado en los arquitectos un afán por redescubrir la plasticidad del espacio” (García Núñez, 2016, p. 22). Una nueva generación de imágenes digitales se está abriendo camino en la arquitectura: desde simulaciones hiperrealistas, hasta presentaciones complejas, abstractas y no figurativas. Nuevas imágenes, tan densamente estratificadas y oscuras como cualquier deconstructivista o tan meticulosas como una sección/perspectiva de las Beaux Arts (Rivera Ojeda & Guerra, 1999, p. 15). Una nueva tecnología se hace portadora de un realismo sin precedente y genera una nueva revolución en el modo de hacer y representar la arquitectura. La conquista de la curva De acuerdo con el Diccionario de la Real Academia Española, la palabra curva deriva del latín ‘curvus’, en alusión a una línea, real o imaginaria, la cual se aparta de la dirección recta sin formar ángulos, y que presenta una variación en su dirección que es paulatina y constante (RAE, Asale, 2014). El uso práctico de la curva puede rastrearse hasta los primeros años de la cultura clásica. Utilizada para la construcción de los cascos de los barcos, los romanos, disponían de una serie de plantillas de madera de grandes dimensiones y de distintas curvaturas, que utilizaban para generar las costillas de los barcos: un modo efectivo que evitaba la dificultad de tener que diseñar continuamente las curvaturas de las tablas para 116 los navíos. La curvatura de cada nervio se trazaba a partir de una plantilla maestra reconfigurable. Una serie de marcas graduadas sobre la plantilla indicaban dónde debía colocarse cada pieza móvil para cada costilla. De este modo, el trabajo era sistematizado, ya que permitía utilizar varias veces una misma plantilla. Con el tiempo, este sistema fue perfeccionado por los venecianos entre los siglos XIII y XVI, popularizado por los ingleses durante el 1600, y posteriormente en los escritos del arquitecto naval alemán Horst Nowacki (1933)1 quien describió la geometría necesaria para construir las vigas de madera que serían utilizadas para curvar la tablazón del barco (Farin, 2002, pp. 1-21). La herramienta más común para el trazado de estas curvas era mediante un conjunto de plantillas conocidas como curvas francesas: un instrumento cuidadosamente diseñado, que permitía el trazado de curvas complejas sin la necesidad de calcularlas. Una herramienta de precisión que se utilizaba para dibujar curvas de diferentes radios a través de la unión de varios puntos predeterminados que generaban una línea suave, sin cambios bruscos en su curvatura. 1. H. Nowacki. Splines in shipbuilding. Proc. 21st Duisburg colloquium on marine technology, May 2000. Marcelo A. Fraile - Arquitectura biodigital Ahora, si lo que se deseaba era trazar curvas en escala 1:1, las splines eras las herramientas adecuadas para ello. Las splines consistían en unas delgadas y flexibles tiras de madera o acero, que se curvaban y adaptaban a la forma deseada mediante una serie de pesas de metal, conocidas como patos (del inglés ducks). Estos desarrollos eran realizados a mano y luego relevados, finalmente se obtenían las plantillas de la curva deseada. Cuando era necesario realizar dibujos de grandes dimensiones, se debía recurrir a las buhardillas de los edificios (o lofts), espacios sin divisiones internas que permitían dibujar y almacenar las grandes plantillas (de ahí el origen de la palabra lofting) (Townsend Alastair, 2014). Una representación físicamente óptima de las curvas a través de complicadísimos desarrollos geométricos: las formas eran el resultado de una serie de aproximaciones “…a partir de tangentes de arcos circulares y segmentos en línea recta que se trasladaban del plano a la construcción” (Dunn & Casasnovas, 2012, p. 40). Fig. 1. Este sistema fue perfeccionado por los venecianos entre los siglos XIII y XVI, popularizado por los ingleses durante el 1600, y posteriormente en los escritos del arquitecto naval alemán Horst Nowacki (Farin, 2002, pp. 1-21). Con la evolución de las técnicas de representación, los constructores navales comenzaron a utilizar mejores herramientas para el dibujo y la documentación de las embarcaciones. Sin embargo, en lo referente a curvas de gran escala, se continuó empleando las técnicas tradicionales de lofting y spline. Estas técnicas pasarían a la industria aeronáutica para la construcción eficiente de las curvas de las alas y los fuselajes de los aviones. Para ello, inicialmente era necesario subdividir la línea en formas repetitivas. Un proceso laborioso que no difería en gran medida del uso de las curvas francesas y que requería el almacenaje y la conservación de las plantillas obtenidas. En 1944, Roy Liming, un ingeniero aeroespacial de la compañía de Aviación NAA (North American Aviation) –famosa por haber construido los célebres aviones de combate Mustang–, publicó un libro titulado Practical Analytical Geometry with Application to Aircraft2, en donde desarrollaba toda una serie de algoritmos útiles para la construcción de curvas complejas (Townsend Alastair, 2014). Para Liming, era mucho más eficiente conservar los diseños en forma de datos numéricos que almacenar físicamente las plantillas con las curvas trazadas a partir de los cuales se fabricaban los aviones: los números almacenados en tablas no presentan ambigüedades ni errores en su interpretación, en tanto que las curvas podían dañarse, alterarse o incluso extraviarse (Farin, 2002, pp. 1-21). A mediados de la década de 1950, Liming comenzó a trabajar para la compañía aeronáutica Boing, donde empezó a utilizar curvas y superficies cónicas para el diseño de los fuselajes de sus aviones. Poco después, J. C. Ferguson y D. H. MacLaren, de la misma compañía, a partir 2. Liming, R. (1944) Practical Analytical Geometry with Applications to Aircraft. Macmillan. 117 Parte III. El punto de inflexión de las curvas de Liming, desarrollarían un nuevo tipo de curva para el diseño de las alas de los aviones: uniendo varias curvas cónicas, obtuvieron una curva compuesta diferenciable que permitía interpolar fácilmente un conjunto de puntos dados (Pedraza Gómara, 2009, p. 45). Bautizadas como splines, esta curva “…resultaba de minimizar una función similar a las ecuaciones físicas relacionadas con los splines mecánicos” (Pedraza Gómara, 2009, p. 45). Fig. 2. Las splines consistían en unas delgadas y flexibles tiras de madera o acero, que se curvaban y adaptaban a la forma deseada mediante una serie de pesas de metal, conocidas como patos (del inglés ducks). Con el avance de la tecnología digital, el significado del término spline ha sufrido un cambio sutil: en lugar de referirse a curvas que minimizan ciertas funciones, actualmente son consideradas como curvas constituidas por tramos poligonales o relaciones poligonales, lo que da como resultado trazos suaves y formas redondeadas (Pedraza Gómara, 2009, p. 45). La llegada de las máquinas de control numérico Con la introducción de las primeras computadoras analógicas y de las primeras máquinas de control numérico (NC) en la industria automovilística durante la década de 1950, se hizo necesario una nueva gama de herramientas de representación: nuevos instrumentos que suplieran los antiguos modelos físicos, y que posibilitaran, de una forma matemática y precisa, desarrollar las complejas superficies continuas que se utilizaban para la carrocería de los autos. El problema se intensificaría cuando las computadoras analógicas fueron reemplazadas por las primeras computadoras de estado sólido: se Fig. 3. Una representación físicamente óptima de las curvas a través de complicadísimos desarrollos geométricos: las formas eran el resultado de una serie de aproximaciones. (Townsend 118 Alastair, 2014). requería de un método que permitiera cargar las curvas a través del sistema de tarjetas perforadas, que se utilizaba como mecanismo para programar en las computadoras la trayectoria de la herramienta. Para subsanar este inconveniente, el MIT desarrollaría un lenguaje de programación denominado Automatic Programmed Tool (APT. Herramienta de programa automático): un lenguaje a partir de los planos donde el programador generaba manualmente las instrucciones que posteriormente se introducían en las Computer-Aided Manufacturing (CAM, máquina de control numérico), y permitían la comunicación entre hombre y máquina. Sin embargo, el problema no había sido resuelto completamente. Dada las características de la información, esta era almacenada en tarjetas de papel, lo que ocasionaba algunos problemas a la hora de comunicar la información a la computadora que manejaba la máquina herramienta. Mediante este sistema, el programador solo extraía los puntos significativos y ajustaba la forma utilizando técnicas de interpolación como la de Lagrange, lo que producía que los resultados fueran deficientes para los nuevos procesos de fabricación industrial (Pedraza Gómara, 2009, p. 43). Se requería de un nuevo sistema que pudiera definir de forma precisa las curvas de las superficies complejas, a fin de ser posteriormente fabricadas mediante los sistemas de control numérico CAM. Esto daría Marcelo A. Fraile - Arquitectura biodigital lugar al desarrollo de una nueva generación de herramientas digitales de representación: los sistemas CAD, una nueva herramienta capaz de dibujar las complejas geometrías de un modo eficiente y en un menor tiempo. Paul de Faget de Casteljau En 1959, la compañía automotriz francesa Citroën contrató al joven ma- Fig. 4. Curva de Casteljau. En lugar temático Paul de Faget de Casteljau (1930) para desarrollar un sistema capaz de transformar la información planimétrica en un sistema de ecuaciones matemáticas: un sistema que posibilitaría que las formas de definir una curva a partir de los pudieran ser almacenadas, transmitidas y utilizadas por las computadoras que dirigían las maquinas encargadas de la fabricación. De Casteljau, partiendo de cero, comenzó a desarrollar un sistema cuyo objetivo era el diseño de curvas y superficies, en lugar de centrarse en la reproducción de planos existentes. puntos contenidos en esta, “… el polígono de control que da origen a la curva utiliza puntos que están cerca de ella” . Es decir, “En vez de cambiar la curva en sí, se modifica el polígono de control de manera que se pued[a] cambiar la apariencia de la curva de manera muy intuitiva” (Pedraza Gómara, 2009, p. 43). A partir de la utilización del polinomio de Bernstein para definir curvas y superficies, desarrolló en 1963 lo que hoy se conoce como algoritmo de De Casteljau3. Un instrumento utilizado para el trazado, evaluación y desarrollo de curvas paramétricas (Townsend Alastair, 2014). En lugar de definir una curva a partir de los puntos contenidos en esta, “… el polígono de control que da origen a la curva utiliza puntos que están cerca de ella” . Es decir, “En vez de cambiar la curva en sí, se modifica el polígono de control de manera que se pued[a] cambiar la apariencia de la curva de manera muy intuitiva” (Pedraza Gómara, 2009, p. 43). Pese al fuerte rechazo recibido inicialmente, de Casteljau pudo convencer a la compañía Citroën de su importante descubrimiento, el cual permaneció en un absoluto secreto hasta que, en 1975, W. Boehm obtuvo copias de los trabajos y reconoció su labor al acuñar el término “algoritmo de De Casteljau”. Pierre Bézier En forma paralela a los trabajos de De Casteljau, la firma automotriz Renault encargó al ingeniero Pierre Bézier (1910-1999), director del departamento de diseño, la tarea de transformar las curvas de los modelos en un lenguaje matemático fiable, compatible con las primeras computadoras digitales. Bézier abordó el problema, desarrolló una serie de formulaciones polinómicas en sus diseños, y obtuvo resultados similares a los de De Casteljau, solo variando en las matemáticas utilizadas: la idea inicial de Bézier consistía en desarrollar un método de descripción matemática que pudiera representar una curva como la intersección entre dos cilindros elípticos definidos en el interior de un paralelepípedo; de este modo, las “…transformaciones afines de este paralelepípedo resultaban en corres3. de Casteljau, P. (1963). Courbes et surfaces _a’ poles. Paris: Technical report, A. Citroën. 119 Parte III. El punto de inflexión pondientes transformaciones afines de la curva que generaban” (Pedraza Gómara, 2009, p. 43). En las curvas Bézier, la característica principal es que los diferentes puntos que se introducen para definirlas se transforman en puntos obligatorios de paso de la curva. Es decir que con cada nuevo punto incorporado a la curva, esta cambiará su trayectoria al incorporar a este en el nuevo trazado. Fig. 5. Curva de Bezier. Los principales puntos de una curva Bezier son los denominados “puntos del control” (Control Points), y corresponden con cada uno de los puntos de paso de Los principales puntos de una curva Bezier son los denominados “puntos de control” (Control Points), y corresponden con cada uno de los puntos de paso de la curva, los cuales llevan asociados dos puntos dispuestos sobre una recta tangencial a la curva denominada “manija” dos puntos dispuestos sobre una rec- (Handles). Estas líneas tangentes son solidarias con la curvatura de la línea. De este modo, al “tirar” de los extremos de la tangente en un punto, ta tangencial a la curva denominada genera una modificación de la curvatura. la curva, los cuales llevan asociados “manija” (Handles). Estas líneas tangentes son solidarias con la curvatura de la línea. De este modo, al “tirar” de los extremos de la tangente en un punto, genera una modificación de la curvatura. Estas líneas tangentes presentan una particularidad adicional: la longitud del segmento de su tangente se asocia con la fuerza de atracción hacia la curva, que se traduce en la suavidad de la curva (o steepness). Cuanto más larga sea, mayor será esta fuerza de atracción y las curvas se acercarán más rápidamente a la tangente en los puntos de mayor peso. En este sentido, el trabajo con curvas Béizer puede resultar bastante complicado, ya que para cada punto es necesario controlar tres aspectos básicos: en primer lugar, la posición en el espacio que tiene el vértice o nodo; en segundo lugar, la orientación que tiene cada tangente Bézier; y finalmente, en tercer lugar, la longitud de cada tangente. Sin embargo, la combinación de curvas Bézier posibilita la generación y desarrollo de complejas superficies, aptas para el tratamiento de las carrocerías de los autos y el fuselaje de los aviones. 120 A diferencia de De Casteljau, Renault autorizó a Bézier a que diera a conocer sus hallazgos, los cuales aparecieron publicados en 1962. Con el tiempo, tanto el método de De Casteljau, como el de Bézier fueron reconocidos matemáticamente, y ambos descubridores fueron ampliamente acreditados por sus resultados. Los trabajos de Bézier llamaron la atención de A. R. Forrest, quien los utilizó para escribir un artículo titulado “Interactive interpolation and approximation by Bézier polynomials”4, en donde expresa que las curvas de Bézier podían ser expresadas en términos de los polinomios de Bernstein, como lo había hecho Casteljau. Este artículo contribuyó a la popularización de la utilización de estas curvas (Townsend Alastair, 2014). A partir de los estudios de Bézier, la compañía Renault desarrolló entre 1968 y 1971 el sistema UNISURF: un sistema CAD/CAM pionero en la industria automotriz y que era capaz de construir curvas y superficies Bézier, con el objetivo de reducir el retraso y los costos de producción de la carrocería de los autos. 4. Forrest, A. (1972) Interactive interpolation and approximation by Bézier polynomials. Computer Journal, 15:71–79. Marcelo A. Fraile - Arquitectura biodigital UNISURF trabajaba directamente sobre la geometría de las formas, en lugar de sus cálculos, lo que posibilitaba la rápida generación de las curvas en el espacio y el paso de la maqueta a los planos finales del modelo sin alteraciones intermedias. Este sistema entró completamente en operaciones en 1975 y se mantuvo en uso hasta 1985. El sistema UNISURF tuvo una fuerte influencia en la compañía aeronáutica francesa Dassault y en el desarrollo de su sistema EVE: un programa que, con el tiempo, evolucionaría hasta convertirse en el sistema CATIA (Computer Aided Three-dimensional Interactive Application). Este sistema fue utilizado por el arquitecto norteamericano Frank Gehry para diseñar obras como el Museo Guggenheim de Bilbao, o el Pez Dorado del Puerto Olímpico de Barcelona. Las B-Spline En 1959, la compañía americana General Motor había adquirido una serie de fresadoras de control numérico pero carecía de un lenguaje matemático adecuado para el ingreso de datos dentro de las máquinas, que generaban las complejas partes de sus vehículos, en especial de las aletas traseras del Buick Electra. Esto obligaba a que las partes fueran divididas mediante un sistema tedioso e impreciso que ocasionaba continuas pérdidas de tiempo y errores frecuentes (Townsend Alastair, 2014). Un año después, el matemático estadounidense Carl de Boor (1937) comenzó a trabajar para los laboratorios de la compañía General Motors con el objeto de encontrar una solución a ese problema. Boor, junto con L. Mansfield y M. Cox, idearon un recursivo método para evaluarlas, utilizando para ello B-splines (abreviatura de Basic Spline). El término B-spline o línea polinómica suave básica corresponde con una función matemática concebida en 19465 por el matemático americano Isaac Jacob Schoenberg (1903-1990), un potente y flexible método de cálculo para el trazado de nodos uniformes6. Un año después, en 1947, el matemático y lógico estadounidense Haskell Brooks Curry (1900-1982) generalizó estos conceptos al estudiar los nodos no uniformes7. A partir del algoritmo de Boor, la empresa IBM desarrollaría para la General Motors un nuevo sistema CAD/CAM que culminaría con la creación del DAC-1 (Design Augmented by Computer), lo que para muchos es el primer sistema de CAD. Un avanzado programa de diseño que utilizaba las técnicas de curvas y superficies desarrolladas por Boor y W. Gordon. El DAC-1 permitía introducir las complejas variables geométricas de un automóvil y a continuación, ver el modelo tridimensional desde diferentes ángulos. 5. Aunque su desarrollo matemático se remonta al siglo XIX. 6. Schoenberg, I. (1946) Contributions to the problem of approximation of equidistant data by analytic functions. Quart. Appl. Math., 4:45{99).. 7. Ver Haskell P. Curry papers, 1911-1984 en: https://libraries.psu.edu/findingaids/222.htm 121 Fig. 6. El término B-spline o línea polinómica suave básica corresponde con una función matemática concebida en 1946 por el matemático americano Isaac Jacob Schoenberg, un método de cálculo para el trazado de nodos uniformes. Parte III. El punto de inflexión En marzo de 1974, los estadounidenses Robert Barnhill y Richard Riesenfeld realizaron, en la Universidad de Utah, la Primera Conferencia Internacional sobre Diseño Geométrico Asistido por Computadora, de la que participaron investigadores de Europa y los Estados Unidos. En dicha conferencia, acuñaron el término CAGD (Computer Aided Geometric Design - Diseño Geométrico Asistido por Computador)8. Uno de los presentadores de la conferencia de Utah fue el artista gráfico George Chaikin, quien enseñó un nuevo procedimiento para la generación de curvas a partir de un número limitado de puntos. El algoritmo de Chaikin es un procedimiento que, a partir de un polígono bidimensional cerrado y utilizando un proceso continuo de corte o de “refinamiento de las esquinas”, permite obtener curvas suaves: B-spline cuadráticas uniformes. Tiempo después, en 1987, Boor había descubierto que los algoritmos de Chaikin también eran capaces de producir curvas continuas. Uno de los primeros modelos surgidos en el ámbito de CAGD fue la famosa “tetera de Utah”. En 1975, el matemático irlandés Martin Newell (1910-1985) ideó un modelo con formas tridimensionales complejas: un modelo definido matemáticamente que se ajustaba a su par en el mundo real. Para muchos, la tetera de Utah es considerada como el sexto sólido platónico con el nombre de “Teapotahedron”. El camino hacia las NURBS El estudiante de doctorado Steven A. Coons (1912-1979), de la Universidad de Syracuse, había ampliado el modelo B-spline para ser racional y no uniforme: conocido como Coon’s Patch (el parche de Coons), una forma de geometría de superficie para ser utilizada en el diseño asistido por computadora. Con el tiempo, Ken Versprille ingresó a la Universidad de Syracuse, New York, como alumno de doctorado y se transformó en discípulo de Coons. Pronto se unieron al pequeño grupo selecto, William Gordon, del Laboratorio de Investigación de la General Motors; Robin Forrest, del Laboratorio de Computación de la Universidad de Cambridge; y Rich Riesenfeld, del doctorado de la Universidad de Utah. Este último se asoció con Gordon para el desarrollo de las B-Splines, una generalización del método de Bézier. 122 En 1975, Versprille publicaría la disertación de su tesis doctoral sobre las primeras descripciones de las “Non-uniform Rational B-Splines”, una ampliación de las B-Splines ecuaciones racionales no uniformes. Casi al mismo tiempo, tres equipos comenzaban a investigar sobre las Non-uniform Rational B-Splines. Estos eran: la compañía aeroespacial Boing, Structural Dynamics Research Corporation, y la Universidad de Utah. a. Compañía aeroespacial Boing. Para mediados de la década de 1950, la compañía aeroespacial estadounidense Boing ya contaba con su propio software de diseño para la elaboración de fuselajes. Sin embargo, este sistema presentaba serios problemas de incompatibilidad entre las diferentes secciones de la compañía, lo que hacía que las tareas fueran engorrosas y complejas, con la consiguiente pérdida de tiempo que esto ocasionaba. Buscando una salida a estos inconvenientes, en 1979, la oficina de desarrollo de software de Boing Computer Services (Boing Servicios informáticos), bajo la supervisión de Richard Smith, había comenzado a elaborar su propio sistema CAD/CAM denominado TIGER9. 8. El primer libro relacionado con el tema, recién apareció en 1979 (Faux I. D. and Pratt M. J. (1979) Computational Geometry for Design and Manufacture. New York: Halsted Press, y la revista Computer Aided Geometric Design fue fundada en 1984. http://luispedraza.es/wp-content/uploads/2015/10/tesisluispedraza-slamgeomc3a9trico.pdf 9. El equipo se completaba con Robert Blomgren, Richard Fuhr, George Graf, Peter Kochevar, Eugene Lee, Miriam Lucian y Richard Rice. Marcelo A. Fraile - Arquitectura biodigital Como paso previo, un grupo de matemáticos había seleccionado la representación estándar de once formas de curvas: desde líneas y círculos hasta curvas de Bézier y B-splines. En el proceso de investigación de estas curvas, uno de los matemáticos del equipo, Eugene Lee, había descubierto que la tarea principal –la localización de los puntos de intersección de dos curvas arbitrarias–, podía ser reducida a resolver un problema de localización del punto de intersección de las curvas de Bézier, ya que cualquier curva suave dentro de una determinada zona se puede aproximar con una curva de Bézier. Su trabajo quedó reflejado en un memorándum interno de la empresa fechado en el mes de febrero de 1981, titulado “Treatment of Conics in Parametric Rational Bezier Form”10. A partir de este descubrimiento, el equipo pronto reconoció la necesidad de representar una única curva que lo abarcara todo, en lugar de un juego de 11 curvas independientes. Finalmente, los matemáticos encontraron la manera de combinar las curvas de Bézier racionales y las B-splines no uniformes. Algunos investigadores sugieren que, siendo por aquel entonces profesor del doctorado de la Universidad de Utah, Rich Riesenfeld pudo haber enseñado las teorías de Versprille a uno de sus estudiantes que trabajaba para la empresa Boing. Lo concreto es que, para finales de 1980, Boing contaba con un modo de representar todas las curvas a través de una sola escritura conocida como NURBS11. Con el tiempo y luego de no pocas dificultades, estos conceptos se integrarían en el sistema TIGER con el fin de unificar todos los tipos de curvas en una única representación. Para agosto de 1981, Boing propuso incluir las curvas NURBS en las “Normas Internacionales de Intercambio de Gráficos” IGES (International Graphics Exchange Standard). Curiosamente, a pesar del éxito de NURBS y la gran cantidad de trabajos realizados para su desarrollo, para 1984 Boeing abandonaría definitivamente el sistema TIGER. b. Structural Dynamics Research Corporation (SDCR). En 1967, un grupo de docentes e investigadores del Departamento de Ingeniería Mecánica de la Universidad de Cincinnati, entre los que figuraban Jason Lemon, Albert Peter, Robert Farell, y Jim Sherlock, crearían el SDRC (Structural Dynamics Research Corporation): una compañía consultora de ingeniería que, con el tiempo, se transformaría en una de las principales empresas desarrolladoras de software de diseño mecánico. En 1977, como parte de un proceso de expansión, la compañía invirtió en el futuro e inició la comercialización de SUPERTAB: un sistema que podía ser utilizado en diversos soportes. Un año después, la compañía había comenzado a desarrollar GEOMOD, un modelador que utilizaba las curvas NURBS como una forma de representación. Con el tiempo, y basándose en la tecnología de GEOMOD, SDRC desarrollaría I-DEAS (Integrated Design and Engineering Analysis Software. Software de análisis integrado de diseño e ingeniería): un programa flexible dirigido a la industria automotriz que permitía elaborar desde programación hasta modelado de sólidos o el análisis de elementos finitos. Un hecho poco conocido es que SDRC vendió una versión de I-DEAS para fusionar con los sistemas informáticos IBM: el CAEDS (Computer Aided Engineering Design System. Sistema de diseño de ingeniería asistido por computadora): un programa que funcionaba sobre plataformas IBM. c. Universidad de Utah. En 1973, Rich Riesenfeld, Elaine Cohen y un equipo de investigación de la Universidad de Utah desarrollarían un modelador llamado Alpha_1: un programa que podía representar sólidos de gran capacidad, piezas mecánicas tales como aspas de turbinas, aviones, helicópteros, automóviles, etcétera. 10. Traducido como “Tratamiento de cónicas en forma paramétrica Rational Bezier” 11. Uno de los gerentes de Boing se había cansado de pronunciar “Non-uniform Rational B-Splines”, y acuñó el acrónimo NURBS con que se la conoce. 123 Parte III. El punto de inflexión Con el tiempo, comenzaron a experimentar con una tecnología que les permitiera utilizar curvas NURBS para el desarrollo de sus representaciones. Muchas fueron las compañías que siguieron su camino, una de estas fue Intergraph Corporation, una compañía estadounidense para el desarrollo de software, fundada en 1969 por exingenieros de IBM. Para 1985, Intergraph comenzó a utilizar un nuevo sistema llamado l/EMS, basado enteramente en curvas NURBS. Ese mismo año, la compañía australiana Formation Design Systems creó el software Macsurf12, un software de modelado interactivo mediante geometrías NURBS para PC, una herramienta de alta precisión para el diseño y el análisis de buques y navíos. Las NURBS Las NURBS, acrónimo ingles de la expresión Non Uniform Rational Basic Spline (B-splines racionales no uniformes) son modelos matemáticos de geometría utilizados para generar y representar con precisión todo tipo de formas: desde sencillas líneas o curvas, hasta superficies y sólidos de las más variadas formas y complejidades (Joosen, s. f., p. 128). Para el profesor Branko Kolarevic, las curvas NURBS son un equivalente digital de los pistoletes flexibles (drafting splines) que eran utilizados antiguamente para realizar las complejas curvas (2003, pp. 17-45). Pese a seguir diferentes leyes matemáticas, tanto las “curvas de Bézier”, 124 Fig. 7. Las NURBS, acrónimo ingles de la expresión Non Uniform Rational Basic Spline (B-splines racionales no como las curvas NURBS están definidas bajo los conceptos de unir dos puntos denominados “puntos de anclaje”, “nodos” o “vértices”, mediante una curva que se define a través de unos puntos invisibles denominados “puntos de control”, “manejadores”, “manecillas” o “puntos tiradores”, a través de los cuales es posible forzar su curvatura para que esta sea mayor o menor. Moviendo estos puntos en el espacio, es posible deformar o alterar la conformación de la curva o superficie. Cada punto de control se encuentra asociado a una ecuación polinó- uniformes) son modelos matemáticos mica “…conocida como una función base (la “B” en NURBS, y en las de geometría utilizados para generar B-splines en general). Una B-spline racional (la “R” en NURBS) se y representar con precisión todo tipo define matemáticamente como la relación de dos ecuaciones polinó- de formas: desde sencillas líneas o micas, es decir, dos funciones base. Cada función base afecta sólo curvas, hasta superficies y sólidos de a la sección de curva cercana al punto de control asociado, y estas las más variadas formas y complejida- secciones están delimitados por nodos. En una non-uniforme rational des (Joosen, s. f., p. 128). B-spline la influencia de un punto de control (la función de base asociada) en una curva se puede variar cambiando la ubicación de los nodos a lo largo del segmento de control que une dos puntos de control; es decir, en una non-uniforme rational B-spline el espaciamiento de los nodos es desigual” (Kolarevic, 2003, pp. 17-45). Entre las principales ventajas de las curvas NURBS, se destaca su alto grado de precisión y flexibilidad a la hora de operar con formas analíticas 12. Ahora Maxsurf Software es de la empresa Bentley. Marcelo A. Fraile - Arquitectura biodigital y complejas. Esto se debe a que los puntos de control no son de paso obligado de la curva, (excepto en el caso del primer y último punto), sino que forman un polígono cuyos lados son tangentes a esta. Esto permite una fácil manipulación, aunque requiere de un número mayor de nodos que en el caso de las curvas Bézier, ya que al tener lo que se llama “continuidad de curvatura”, al mover uno de los puntos, la variación de la curvatura afecta un área mayor: “Cada punto de control tiene un [parámetro de] peso asociado, que determina el alcance de su influencia sobre la curva… El aumento del peso de un determinado punto de control acerca la curva o Fig. 8. las NURBS conforman similitu- superficie correspondiente hacia ese punto de control y viceversa” (Kola- en tanto que las T-Spline pueden tener los T-puntos internos, es decir, tener 3 revic, 2003, pp. 17-45). des topológicas de marco rectangular, puntos de referencia en lugar de 4. Las NURBS fueron rápidamente adoptadas por los diseñadores para el desarrollo de complejas geometrías: formas definidas a partir de un conjunto de parámetros distintos que proporcionaban una gran flexibilidad en el diseño, utilizando una cantidad mínima de pasos que podían ser transferidos posteriormente a una máquina CNC para su construcción. Las curvas T-Spline Inventadas por Thomas Sederberg en 2003, las curvas T-splines parecen ser la nueva generación de curvas que reemplazaría las curvas NURBS. Una poderosa herramienta que mejora las propiedades de los diseños asistidos por ordenador. Su principal diferencia con respecto a las NURBS radica en que las NURBS conforman similitudes topológicas de marco rectangular, en tanto que las T-Spline pueden tener los T-puntos internos, es decir, tener 3 puntos de referencia en lugar de 4; situación que los hace muy útiles para el modelado de superficies orgánicas, al reducir el número de puntos en comparación con las NURBS. En 2004, Sederberg formó Inc con el objetivo de facilitar su aplicación comercial. Desde el 2011 quedó en poder de la compañía Autodesk Inc. y su desarrollo prometía un conjunto de herramientas 3D tan poderosas que podrían fusionar la precisión y el control de NURBS con las interfaces intuitivas del modelado de superficie de subdivisión. Tras la imagen digital “En la televisión, en la cabina de mando de los aviones, las salas de cine o los quirófanos, las agencias de arquitectura y los laboratorios de física, no es posible ignorarlas; lo queramos o no, las imágenes digitales están en el ambiente” . (Jullier, 2004, p. 7). En la antigüedad, cuando los artesanos debían definir una figura sobre la superficie de un elemento, utilizaban una grilla de módulos cuadrados: cada casilla era la unidad base más pequeña de la imagen, cada celda podía estar llena o vacía, podía tener o carecer de información (Jullier, 2004, p. 56). 125 Parte III. El punto de inflexión Tiempo después, con la llegada de las tecnologías informáticas, este concepto fue recuperado y adoptado, y se estableció una analogía entre los cuadrados bases que utilizaban los artistas y los puntos de información que utilizaban los sistemas digitales. De este modo, para representar una imagen, una pantalla de computadora utiliza el principio de una grilla invisible, formada por una sucesión de pequeños cuadrados o “píxeles”. De acuerdo a su definición, un pixel13 puede ser entendido como el punto o unidad lógica, no física, que representa una determinada cantidad de información sobre una pantalla (Montagu, Mariño, & Igarzabal De Nistal, 1993, p. 25). En esencia, son componentes abstractos fundamentales de un mosaico que puede ser dibujado a cualquier escala para componer una imagen digital (Jullier, 2004, p. 56). En los dispositivos gráficos, cada uno de los píxeles que conforma una imagen es codificado al asignársele una determinada cantidad de información o bits. De un modo elemental, a través de un bit es posible manejar el color de una pantalla, relacionando el 0 con un color y el 1 con otro; por ejemplo, 0 para el negro y 1 para el blanco. Los primeros monitores de rayos catódicos utilizaban esta metodología para reproducir los gráficos en color verde o ámbar sobre un fondo negro: se trataba de imágenes de baja resolución, imágenes facetadas (pixeladas), donde el dibujo no siempre podía verse bien. Con la evolución y desarrollo de las primeras placas gráficas y el mejoramiento de las pantallas de los monitores, fue posible cambiar la resolución de las imágenes y dotar a los píxeles de una completa gama de tonalidades hasta llegar a reproducir la realidad. Para ello, cada uno de los píxeles es codificado individualmente. El color específico de cada píxel está formado por la combinación de tres componentes14 del espectro de color: rojo, azul y verde (en los sistemas RGB, Red, Green, Blue). Al encontrarse los puntos muy próximos entre sí, el cerebro humano no puede distinguirlos como diferentes y los percibe como un único punto de color y, de este modo, se crea la ilusión necesaria para que sea posible reproducir cualquier color del espectro visible, más sus matices. Cada color equivale a 1 byte de información, cada byte equivale a 8 bit, y 8 bit equivalen a 256 matices de color. De este modo, para producir una diversidad de colores como en una fotografía es preciso procesar 16 millones de colores, donde cada uno de los tres fotóforos de un píxel pueda iluminarse con 256 matices (Jullier, 2004, p. 15). En una imagen digital, el soporte se ha desmaterializado, solo existe dentro de la pantalla de la computadora y solo tendremos acceso a esta mediante una interfaz que puede ser un monitor, una impresora, etc. Su crea126 ción es desarrollada sobre la base de un algoritmo dentro de la computadora, un proceso matemático elegido por el autor. Un conjunto de formas y colores trasladados a un código de números. La representación digital “Los diferentes sistemas de representación utilizados en Arquitectura generan, modifican y/o confirman formas de lectura y de memoria en relación a los mecanismos de percepción y conocimiento…” . (Chiarella et al., 2011). Actualmente nadie puede dudar del papel que desempeñan los sistemas digitales en el campo del diseño, en especial las herramientas CAD15. Su uso en arquitectura es un fenómeno relativamente reciente: a finales de la década de 1980 eran pocos los estudios que utilizaban computadoras, y los que lo hacían, se limitaban 13. Píxel: Acrónimo del inglés Picture Element, que significa “elemento de la imagen”. La palabra “píxel” fue publicada por primera vez en 1965 por el ingeniero americano Frederic C. Billingsley (1921-2002), del Jet Propulsion Laboratory de la NASA, para referirse a los elementos gráficos de las imágenes de video transmitidas por las sondas espaciales. 14. Estos componentes reciben el nombre de fotóforos, en el caso de un monitor de rayos catódicos, de acuerdo al principio de composición aditiva. 15. CAD es un acrónimo del inglés Computer Aided Design. Si bien inicialmente era posible encontrarlo con las siglas CADD (Computer Aided Design and Drafting), con el tiempo se popularizó la denominación CAD, por ser más sencilla de decir y de escribir. Marcelo A. Fraile - Arquitectura biodigital a tareas administrativas tales como el procesamiento de textos o la contabilidad. En general, el proceso de diseño continuaba siendo analógico, a través de los métodos tradicionales como el dibujo a mano alzada o maquetas (Dunn & Casasnovas, 2012, p. 14). RGB Sin embargo, todo iba a cambiar a mediados de la década de 1990 con la popularización de las computadoras personales y el desarrollo de nuevas plataformas digitales más amigables con los usuarios; los estudios de arquitectura comenzarían a adquirir computadoras y nuevas herramientas informáticas. Fig. 9. Cada color equivale a 1 byte de información, cada byte equivale a En este aspecto, uno de los primeros aportes de la tecnología digital en 8 bit, y 8 bit equivalen a 256 matices el diseño, y que sin duda produciría una fuerte influencia en los procesos proyectuales, fue el uso de los sistemas gráficos como “medio de representación” geométrica del espacio. A través del diseño asistido por de color. De este modo, para producir una diversidad de colores como en una fotografía es preciso procesar 16 computadora, fue posible generar y expresar nuevos proyectos que difí- millones de colores, donde cada uno cilmente hubieran podido realizarse utilizando los métodos tradicionales de representación. da iluminarse con 256 matices (Jullier, Inicialmente, estos sistemas CAD eran básicamente herramientas que buscaban simular el proceso de dibujo manual pero, conforme con los cambios en la tecnología de hardware, una nueva generación de programas, cada vez más poderosos y accesibles, permitió la aparición de una arquitectura de complejidad formal y precisión milimétrica. Un nuevo modo de comunicar una idea de forma efectiva, alterando la concepción tradicional de diseño de la misma manera que la perspectiva lo había de los tres fotóforos de un píxel pue2004, p. 15). 256 x 256 x 256 = 16.777.213 colores compuestos (Jullier, 2004, p. 15). hecho durante el Renacimiento (Fernández-Galiano, 2009, p. 3). Sistemas informáticos capaces de construir modelos digitales en dos o tres dimensiones: una representación exacta y completa de la realidad, con la capacidad de asociar a las entidades propiedades cualitativas adicionales, tales como luz, color y textura. Por ejemplo, mediante estas herramientas, era posible adicionar a la superficie del objeto modelizado diferentes texturas de materiales, simular su comportamiento ante la luz en diversas condiciones y predecir sus respuestas. De igual manera, las operaciones de zoom y paneo permiten cambiar el punto de vista del observador, lo que posibilita recorrer e incluso introducir al observador en el interior del modelo para contemplarlo desde dentro. Un cambio de paradigma que ha redefinido el uso de los dibujos bidimensionales reproducidos en el papel para mudar hacia modelos digitales tridimensionales producidos a través de reglas matemáticas, operaciones invisibles desarrolladas mediante algoritmo y que conducen hacia un universo de resultados inimaginables. Se trata de volúmenes complejos con características no cartesianas “de capas y superficies” que Helio Piñon denomina efecto Guggenheim (2005), recuperando lo que Rafael Moneo llamaba las “geometrías olvidadas” y que ahora, gracias a la tecnología digital, pueden ser manipuladas (Kolarevic, 2003, pp. 17-45). 127 Parte III. El punto de inflexión Un nuevo modo de pensamiento hace su irrupción en la arquitectura contemporánea: una arquitectura de vanguardia digital que se aparta de la geometría cartesiana para intentar experimentar con una geometría topológica de superficies curvadas que utiliza NURBS (Non-Uniform Rational B-Splines) y que proporciona un alejamiento de los volúmenes discretos (Kolarevic, 2003, pp. 17-45); una seducción por formas irregulares y flexibles, con una fuerte inspiración en la naturaleza, producidas matemáticamente “…con la misma facilidad que las formas planas, cilíndricas, esféricas y cónicas de la geometría euclidiana” (Kolarevic, 2003, pp. 17-45). Hemos superado la representación tradicional para desarrollar, a través de herramientas digitales, una representación del espacio bajo una mirada utópica de irrealidad. Realidad virtual “…proveyéndonos de un casco ocular (eyephon, calzándonos un guante inteligente (data-glove) y vistiéndonos con un mono inteligente (data-suit) estamos en condiciones de entrar en una realidad ilusoria y de vivirla como si fuese real (o casi real). Ahora estamos en condiciones de explorar desde el interior una realidad que es la contrafigura de la nuestra”. (Maldonado, 1994, pp. 58-59). De acuerdo con el Diccionario de la Real Academia española, el concepto de realidad virtual se refiere a “la representación de escenas o imágenes de objetos producidos por un sistema informático que da la sensación de su existencia real” (RAE, Asale, 2014). Una realidad ilusoria (de illudere: enFig. 10. El concepto de realidad virtual (VR, Virtual Reality) fue acuñado en 1984 por el escritor estadounidense Jaron Lanier (1960), con referencia a una simulación tridimensional interactiva creada por una computadora, donde el usuario podía moverse dentro de esta, utilizando aparatos y sen- 128 sores digitales para su percepción. gañar), pues se trata de una realidad perceptiva en tiempo real, sin soporte objetivo, ya que existe solo dentro del ordenador (Gubern, 1996, p. 156). El concepto de realidad virtual (VR, Virtual Reality) fue acuñado en 1984 por el escritor estadounidense Jaron Lanier (1960), con referencia a una simulación tridimensional interactiva creada por una computadora, donde el usuario podía moverse dentro de esta, utilizando aparatos y sensores digitales para su percepción. En 1968, el pionero de la informática Ivan Sutherland (1938) construyó en el centro experimental de la Universidad de Utah el primer casco de realidad virtual de la historia: este consistía en una placa aceleradora de gráficos y dos pequeños tubos de rayos catódicos montados cerca de los ojos, para simular la visión tridimensional. Trece años después, ya existía en el laboratorio de investigación militar de la base aérea Weight Patterson un simulador de vuelo que utilizaba la tecnología de realidad virtual. En 1986, un grupo de investigadores del programa Virtual Environment Workstation de la NASA en combinación con el departamento de defensa de los EEUU desarrollarían el programa VIEW (Visual Interface Environment Workstation): el primer prototipo capaz de combinar la tecnología de un casco visor en 3D con un guante señalizador para el ingreso de datos a través de este. (Montagu, 2004, pp. 133-134) Marcelo A. Fraile - Arquitectura biodigital En principio, la realidad virtual pone en crisis lo real. Para al profesor francés Laurent Julier (1960), el término realidad virtual es un “oxímoron” por referirse a dos conceptos contradictorios y autoexcluyentes, de allí que algunos autores anglosajones prefieren denominarla como Realidad Artificial (RA, Artificial Reality). Una representación donde la simulación del espacio va más allá de los sentidos visuales y auditivos, abarcando inclusos los sentidos táctiles. La tecnología digital vincula y hace irreconocible el paso de lo real a lo virtual: “…una fuga del mundo real hacia lo virtual…una fuga ascendente liberadora, hacia lo absoluto” (Maldonado, 1994, p. 64). Los nuevos sistemas digitales permiten a la gente crear una realidad nueva: observar un modelo digital por medio de una visualización estereoscópica dinámica e interactiva. Pares de imágenes en movimiento en escala armónica con el observador: “…una gradual pero ineludible ‘desmaterialización’ de nuestra realidad” (Maldonado, 1994, p. 12). Realidad aumentada En 1997, el investigador Ronald Azuma definía la realidad aumentada como la interrelación en tiempo real de elementos reales y virtuales, registrada en 3D y con el agregado de información virtual a la información física ya existente (Zátonyi, 2011, p. 315). Los primeros indicios de realidad aumentada nacieron en la década de 1960 para uso militar. Fue diseñada para permitir a los pilotos mirar los valores de los instrumentos, sin perder de vista los objetivos. Diez años después, estas técnicas se extenderían a los vehículos comerciales para, finalmente, pasar al campo de los videojuegos donde adquirió su protagonismo definitivo. En la realidad aumentada, los elementos del contexto coexisten con los elementos virtuales, aportando información adicional a los primeros por medio de artefactos visuales colocados en el visor: cámaras y sensores permiten percibir el mundo real e integrarlo a la construcción digital, pudiendo interactuar de una forma natural, utilizando manos, ojos y gestos. Una realidad mixta que no busca sustituir la realidad, sino que sobreimprime los datos informáticos sobre el contexto (Zátonyi, 2011, p. 315): el usuario sigue percibiendo la realidad a su alrededor en vez de reemplazar lo real por sus propias informaciones, la completa con nueva información. Bajo un proceso de layerización, en donde se superponen diferentes percepciones mediante una conexión fluida entre máquina y usuario, se construye un nuevo entorno interactivo diseñado por el mismo observador. Fig. 11. Realidad aumentada. Una realidad mixta que no busca sustituir la realidad, sino que sobreimprime los datos informáticos sobre el contexto (Zátonyi, 2011, p. 315). 129 Parte III. El punto de inflexión Fig. 12. Para Dennis Dollens, la escultura del pez de Barcelona fue un protoedificio, un experimento a gran escala que a través de sus curvaturas, plegamientos y escamas, buscaba romper con la geometría tradicional (2002, p. 26). 130 Marcelo A. Fraile - Arquitectura biodigital Del pez a la casa Lewis En 1991, Massimo Colomban, uno de los jefes de Permasteelisa –compañía encargada de la construcción de la torre de acero de Bruce Graham Hotel Arts en la Villa Olímpica de Barcelona–, encargó a Frank O. Gehry y a James Glymph la construcción de una escultura como parte del proyecto que Permasteelisa estaba desarrollando en Barcelona. Para su proyecto, Gehry había trabajado con modelos tridimensionales de papel: una serie de ondas y superficies alabeadas que pronto se fueron convirtiendo en la escultura de un pez16 de 60 x 38 metros. Si bien su equipo estaba acostumbrado a tomar las medidas de las maquetas con reglas y plomadas para sacar los puntos importantes y transformar el modelo en planos convencionales, con el antecedente del Walt Disney Concert Hall fue que se optó por continuar las investigaciones relacionadas sobre el potencial que poseían las herramientas digitales como un camino posible tanto en la producción, como en la visualización de la arquitectura. El uso de la computadora y de los sistemas digitales entró en el estudio de Gehry después de construir el Museo de Diseño Vitra, en 1989. El Museo había tenido una serie de problemas para desarrollar una escalera caracol expresada en la fachada como una espiral hacia arriba. Los resultados obtenidos mediante los sistemas tradicionales de dibujo, a partir de geometría descriptiva, habían desilusionado profundamente a Gehry. A partir de ello, un grupo de sus colaboradores comenzaron a realizar una investigación de las nuevas tecnologías. Inicialmente, la computadora no fue bien recibida y ocasionó continuos cortocircuitos entre los deseos de Gehry y el resultado de los programas empleados. En este sentido, cabe destacar que Gehry no es un arquitecto digital –él comenzó a utilizar las herramientas informáticas no como herramientas de dibujo, sino como herramientas de proyectación y materialización, una nueva materialización que exigía una precisión solo conseguida, a través de una computadora– (Dollens & Planella, 2002, p. 23). Los primeros dibujos comenzaron en AutoCAD, sin embargo, el programa presentaba graves inconvenientes a la hora de acotar y definir las formas curvas diseñadas por Gehry. Por aquel entonces, no existía una plataforma tecnológica lo suficientemente desarrollada como para ser utilizada en arquitectura. Poco tiempo después, Jim Glymph contrataría al arquitecto Rick Smith, un especialista en el modelado 3D, para que se encargara del desarrollo del proyecto del pez de Barcelona, y posteriormente para el proyecto del Museo Guggenheim de Bilbao. 16. La imagen de un pez, para Gehry quedó atribuida a una especie de broma académica: “Todo el mundo estaba citando edificios clásicos antiguos, así que yo decidí citar algo que era cinco millones de años más antiguo que la humanidad”. Zaera, A. (1995). “Conversaciones con Frank O. Gehry”, El Croquis, Frank Gehry, 1991-1995, Nº 74/75. pp. 33. Fig. 13. Diseñada por Frank Gehry –con la colaboración de Philip Johnson–, la casa Lewis se encuentra ubicada en lo alto de Lyndhurst, en las afuera de la ciudad de Cleveland. 131 Parte III. El punto de inflexión Fig. 14. Se utilizó la versión 3 y 4 del programa CATIA. Fue un ir y venir entre la computadora y el modelo. Un proceso interactivo lento, hasta que finalmente se obtuvo lo que Gehry llamó cabeza de caballo. 132 Marcelo A. Fraile - Arquitectura biodigital Luego de una intensa búsqueda, y gracias a la ayuda de Smith, finalmente se decidió utilizar CATIA (Computer Aided Three Dimensional Interactive Application), una plataforma digital creada por la empresa Dassault Systems para el diseño de aviones cazas franceses. Elaborada finalmente la documentación en CATIA, Smith viajó a Italia para ser presentado ante Permasteelisa. Finalmente, el proyecto fue aceptado dada la claridad y precisión de su documentación. Para Dennis Dollens, la escultura del pez de Barcelona fue un protoedificio, un experimento a gran escala que a través de sus curvaturas, plegamientos y escamas, buscaba romper con la geometría tradicional (2002, p. 26). Un ejemplo más evolucionado del tema es la Lewis Residence17. Diseñada por Frank Gehry –con la colaboración de Philip Johnson–, la casa Lewis se encuentra ubicada en lo alto de Lyndhurst, en las afuera de la ciudad de Cleveland. Una superficie aproximada de 2.000 m2 cuyas complejas formas simulan la vela de un barco. En la casa Lewis, Gehry se apoyó en un modelo físico, realizado con tela de terciopelo endurecida con cera: una maqueta abstracta, compuesta rápidamente, destinada a estimular las ideas durante el proceso de diseño (Dollens & Planella, 2002, p. 26). A continuación, el modelo fue digitalizado a partir de un escáner 3D y permitió obtener una lluvia de puntos que podían ser leídos por la computadora (Dollens & Planella, 2002, p. 26). Al igual que con el pez de Barcelona, el modelo fue elaborado en AutoCAD 2D y 3D, para ello se había contratado a Kristin Ragins. Sin embargo, el problema se presentaba cuando se quería desarrollar el modelo y acotar las superficies; el resultado era tan complejo que imposibilitaba hacer la documentación. Finalmente, se utilizó la versión 3 del programa CATIA. En la V3 no existía sombreado dinámico en tiempo real. Para ello se debía congelar la imagen y ejecutar por lote para producir la sombra de una imagen y poder analizar. Caso contrario, se trabajaba con una estructura de alambre. Esto obligó a que se cambiara de versión durante el diseño. La versión V4 incluía el sombreado dinámico, se podía ver el sombreado de las formas en la pantalla, por lo que era posible girar la imagen y ver la sombra en tiempo real. Se obtenía un resultado similar al modelo físico. (Lynn, 2013). Fue un ir y venir entre la computadora y el modelo. Un proceso interactivo lento, hasta que finalmente se obtuvo lo que Gehry llamó cabeza de caballo. La representación en el nuevo milenio Los sistemas digitales están cambiando la manera en la cual se realizan las tareas de diseño, la enorme cantidad de información existente en el mundo contemporáneo hace imposible el manejo de esta sin su ayuda. 133 Su gran valor queda evidente en la posibilidad de explorar y desarrollar una nueva arquitectura que refleje el espíritu presente (Rivera Ojeda & Guerra, 1999, p. 11). Una nueva gama de herramientas comienza a desarrollarse, una serie de interfaces gráficas con la intensión de facilitar a los usuarios el acceso a la información. Guantes hápticos, cascos con visores de realidad virtual, sistemas de realidad aumentada, han reemplazado al lápiz y la escuadra del mundo mecanicista por nuevos instrumentos, ahora “digitales”, lo que permite a los diseñadores descubrir nuevos horizontes de imágenes georreferenciadas, que se superponen al mundo real y lo multiplican, lo potencian y lo resignifican. Métodos digitales que intentan llegar a niveles más avanzados de hacer y pensar la arquitectura –recuperando el hacer del artesano, del escultor–, ahora modelando digitalmente los espacios, pudiendo desarrollar con mayor precisión la generación de sus complejas formas. Ya es tiempo de zanjear la vieja disputa y reconocer como reales los trabajos en espacio digital, el software y los ordenadores (Dollens & Planella, 2002). 17. El proyecto de la Residencia Lewis, comenzó en 1985. Sin embargo, su proceso digital fue posterior al pez de Barcelona y el proyecto concluyó en 1995. Este trabajo, junto con el pez, formaron parte de la exposición Archeology of Digital, del 2013, desarrollada en el Canadian Centre for Architecture, y bajo la curaduría de Greg Lynn. Parte III. El punto de inflexión Figuras Fig. 1. Curvas barcos. http://www.alatown.com/spline-history-architecture/ Fig. 2. Patos. http://www.alatown.com/spline-history-architecture/ Fig. 3. Curvas Francesas. http://www.alatown.com/spline-history-architecture/ Fig. 4. Curva de Casteljau. http://www.alatown.com/spline-history-architecture/ Fig. 5. Curva Bezier. http://www.upload.wikimedia.org/wikipedia/comms/a/ao/Bezier_curve.svg. Fig. 6. B-spline. http://www.alatown.com/spline-history-architecture/ Fig. 7. NURBS. http://www.alatown.com/spline-history-architecture/ Fig. 8. T spline. http://www.alatown.com/spline-history-architecture/ Fig. 9. RGB. http://archive.xaraxone.com/webxealot/workbook35/page_5.htm Fig. 10. http://conceptodefinicion.de/realidad-virtual/ https://otropsicologo.files.wordpress.com/2014/06/realidad-virtual-2.jpg Fig. 11. https://cif.ie/2015/04/01/augmented-reality-and-the-future-of-construction/ https://www.arquitecturayempresa.es/noticia/visuartech-app-de-realidad-aumentada Fig. 12. Casa Lewis. Revista El croquis 74-75. Frank Gehry, 1991-1995. 1995. Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal: Canadian Centre for Architecture. Fig. 13.Casa Lewis. Revista El croquis 74-75. Frank Gehry, 1991-1995. 1995. Fig. 14. Casa Lewis. Revista El croquis 74-75. Frank Gehry, 1991-1995. 1995. Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal: Canadian Centre for Architecture. 134 Marcelo A. Fraile - Arquitectura biodigital ANOMALÍA 3. LA MATERIALIDAD: PREFABRICACIÓN A LA CARTA “Acaba de comenzar una gran época. Existe un espíritu nuevo. La industria, desbordante como el río que corre hacia su destino, nos trae nuevas herramientas, adaptada a estas nuevas épocas animadas de espíritu nuevo”. (Corbusier, 1964). En 1901, el pionero de la industria automovilística estadounidense Ransom Elis Olds (1864-1950) diseñaba su “sistema de montaje progresivo” para construir el Oldmobile Curve Dash, el primer vehículo producido en serie: en el diseño original de Olds, ya estaban presentes algunas de las características de las fábricas actuales, tales como estaciones de trabajo fijas distribuidas a lo largo de la línea, el uso de piezas estandarizadas e intercambiables y el empleo de operarios que realizaban trabajos específicos, simples y repetitivos. Las ideas de Olds fueron rápidamente acogidas y perfeccionadas por Henry Ford (1863-1947), quien las convirtió en un sistema que podía ser adaptado para la fabricación de casi cualquier cosa que la mano del hombre pudiera producir: “desde la cuchara a la ciudad”. Esencialmente, la cadena de montaje desarrollada presentaba tres principios básicos: una cinta transportadora que facilitaba el desplazamiento de los componentes; una racionalidad en las operaciones desarrolladas; y, finalmente, una cadena de montaje que trasladaba el producto a través de los diferentes puestos de trabajo. En poco tiempo, la producción en serie transformaría la industria automovilística en una empresa innovadora, y produciría cambios asombrosos que tendrían sus ecos en el resto de la sociedad. En el campo de la arquitectura, con la publicación en París en 1923 de Hacia una arquitectura, Le Corbusier (1887-1965) establecía una rígida normativa industrial que regulaba el diseño en sus diferentes escalas. Un modelo estandarizado y mecanicista, con un sistema de producción prefabricada; una producción de objetos sin variaciones, rigurosamente idénticos de acuerdo con una estricta geometría euclidiana. Como si de un sueño se tratara, los arquitectos debían diseñar perfectas máquinas de habitar, eficientes y funcionales. Posteriormente, la industria sería la encargada de producir sus partes, que habrían de ensamblarse en el modelo final. Sin embargo, pese a los avances en materia de robótica y automatización de la industria, en el campo de la construcción, los adelantos quedaron restringidos a la fabricación de elementos modulares que requerían de operarios y máquinas para su montaje en obra. Por más increíble que pareciera, en esencia, la construcción a finales de la década del 90 continuaba manteniendo un sistema constructivo con base en el trabajo 135 Fig. 1. En 1901, el estadounidense Ransom Elis Olds (1864-1950) diseñaba su “sistema de montaje progresivo” para construir el Oldmobile Curve Dash. Parte III. El punto de inflexión del hombre. Esto se debía a la ausencia de una tecnología lo suficientemente desarrollada para absorber la gran escala de fabricación, sumado al todavía considerable costo de los equipos y de los materiales. No obstante, con la llegada del nuevo milenio, frescas señales se divisaban en el horizonte: una fabricación inteligente, bajo una raíz tecnológica-digital, nos invitaba a recuperar el antiguo sueño de personalizar la producción. Nuevos programas de modelado paramétrico permitían explorar complejas formas y organizaciones, que con la aplicación de tecnologías CAD/CAM y máquinas de control numérico por computadora (CNC), posibilitaban la combinación de procesos de diseño y técnicas de fabricación para producir objetos físicos. Un modelo estético de vanguardia y experimentación, producido bajo una flexibilidad absoluta; es lo que Mario Carpo denomina “non-standard seriality” (Lynn, 2008), una producción en serie de artículos diferenciados. Una renovada visión del mundo que nos ofrece desconocidos retos sobre los cuales los científicos puedan trabajar en el futuro. La mecanización consciente Fig. 2. En 1920, el escritor Karel Čapek escribía su exitosa obra RUR, en donde utilizaba por primera vez el término robot, una adaptación al inglés de la palabra checa robota, que significaba “trabajo forzado”, “servidumbre”. 136 Desde tiempos inmemoriales, el hombre ha construido máquinas y herramientas que reproducen las actividades humanas: comenzando con los brazos mecánicos egipcios, los sistemas hidráulicos de las esculturas griegas, o las muñecas mecánicas de Henri Maillardert (1745-1830) en 1805; todos estos, en mayor o menor medida, fueron diseñados y construidos para desarrollar múltiples tareas en poco tiempo, facilitando la vida de los hombres. En 1920, el escritor Karel Čapek (1890-1938) escribía su exitosa obra RUR1, en donde utilizaba por primera vez el término robot, una adaptación al inglés de la palabra checa robota, que significaba “trabajo forzado”, “servidumbre”. Con el tiempo, la palabra robot se popularizaría y quedaría asociada a la idea de progreso y futuro. En su libro, Čapek escribía: “Dentro de diez años… los robots producirán tanto trigo, tanto tejidos, tanto de todo, que las cosas carecerán de valor. No habrá pobreza…; además los robots fabricarán ladrillos y construirán edificios para nosotros” (Prieto, 2012). En 1939, casi veinte años después, las ideas de Čapek fueron tomadas por el escritor ruso-estadounidense Isaac Asimov (1920-1992) quien contribuiría a popularizar el término robot, en varias de sus obras2. 1. (RUR). Robots Universales Rossum. 2. A él se le atribuye el haber acuñado las famosas “tres leyes de la robótica”. Primera ley: un robot no puede actuar contra un ser humano, o mediante su inacción un ser humano no puede sufrir daños; segunda ley: un robot debe obedecer las órdenes dadas por los seres humanos, salvo que estén en conflicto con la primera ley; y finalmente la tercera ley: un robot debe proteger su propia existencia, a no ser que esté en conflicto con las dos primeras leyes. Marcelo A. Fraile - Arquitectura biodigital Sin embargo, pese a su popularidad en el campo de la literatura, las investigaciones en torno a la automatización y sus aplicaciones prácticas durante mucho tiempo quedaron circunscriptas exclusivamente al campo de la industria aeronáutica y automovilística. A pesar de esto, dos pasos significativos se producirían a finales de la década de 1980 –tras la unión de un proceso de diseño digital (CAD), con una materialización controlada por computadora (CAM)–, lo que impulsaría la implementación de tecnologías CAD/CAM en el campo de la arquitectura. El primero de estos se produjo en 1985, cuando se encargó al arquitecto catalán Jordi Bonet (1925) la continuación de la obra del templo de la Sagrada Familia de Barcelona, de Antoni Gaudí. Dos años después, en 1987, Bonet se reuniría con Alfons Juyol con el objetivo de comenzar una investigación relacionada a la sistematización de la construcción, a través de la implementación de máquinas controladas mediante computadoras. Bonet buscaba implementar un nuevo sistema de construcción para las columnas, un sistema que permitiera acelerar, abaratar y definir con precisión su fabricación. Juyol se ofreció a investigar en el Reino Unido las máquinas que habían sido utilizadas para la restauración de los baños romanos de la ciudad de Bath: una tecnología que era conocida para la prefabricación de piezas producidas en serie. El problema principal en la Sagrada Familia era la geometría de las columnas: las existentes en Bath eran de orden clásico mientras que las columnas de Gaudí eran helicoidales de doble giro, algo que no se había construido mediante una máquina hasta el momento. Otro inconveniente adicional era el material; en general ese tipo de máquinas herramientas habían sido utilizadas para cortar mármol, en tanto que para las obras del templo de Barcelona se requería que fuera granito, un material de mayor dureza. Luego de diversas investigaciones, Bonet decidió comprar una máquina modelo Sigma -4- CNC, de la firma Van Voorden, una empresa holandesa con experiencia en el mercado de las maquinarias desde 1941. Sin embargo, el trabajo no estaba concluido. Fue necesario la incorporación de nuevos elementos y la reprogramación de diversos componentes para que la máquina comenzara la construcción de la columna en 1989: Antoni Caminal fue uno de los responsables de interpretar numéricamente la Sagrada Familia y establecer la comunicación con la máquina3. La primera columna construida mediante el sistema CAM fue la dedicada a la diócesis de “Lleida”, una de las columnas que formaba parte de la nave central. Los únicos datos que existían al respecto era la base 3. En 1979 Mark Burry visita Barcelona y se entrevista con Isidre Boada y Lluis Bonet i Garí, dos antiguos colaboradores de Antoni Gaudí. A partir de esta reunión, Burry comienza a investigar la geometría oculta de la Sagrada Familia. Posteriormente, en 1986, Jordi Bonet vuelve a encargar a Mark Burry nuevos trabajos sobre las definiciones geométricas de la obra. Fig. 3. Juyol se ofreció a investigar en el Reino Unido las máquinas que habían sido utilizadas para la restauración de los baños romanos de la ciu- dad de Bath. El problema principal en 137 la Sagrada Familia era la geometría de las columnas: las existentes en Bath eran de orden clásico mientras que las columnas de Gaudí eran helicoidales de doble giro, algo que no se había construido mediante una máquina hasta el momento. Parte III. El punto de inflexión estructural de la “columna de Tarragona” de 1921 y la “columna de Barcelona”, construida por Francesc Quintana entre 1954 y 1956. Para 1991, se había finalizado la fabricación de la columna Lleida y se daba comienzo a una nueva etapa en la construcción computarizada: un vínculo preciso entre dibujo tridimensional a través de sistemas CAD y su fabricación utilizando máquinas con tecnología CAM. El segundo hecho se produjo en 1988 cuando se encomendó al arquitecto Frank O. Gehry el proyecto para el Walt Disney Concert Hall, en Los Ángeles. Elegido de un concurso internacional en el que se presentaron más de 70 propuestas. Inicialmente, el proyecto preveía una piel metálica que recubriría el edificio, pero tras una serie de modificaciones en el diseño, se decidió que los muros curvos del exterior debían realizarse en piedra caliza italiana. 138 Fig. 4. La primera columna construida mediante el sistema CAM fue la dedi- cada a la diócesis de “Lleida”, una de las columnas que formaba parte de la nave central. Con el fin de demostrar que la construcción de los muros era posible, Gehry construyó un prototipo a escala real de una de las paredes curvas de piedra que posteriormente digitalizó y exportó como una nube de puntos al sistema CATIA, para ser transformados en un modelo CAD. Finalmente, los archivos digitales fueron llevados a una cantera en Italia, donde los paneles de piedra de doble curvatura serían cortados mediante una tecnología CAM (Kolarevic, 2003, p. 35) –un proceso donde la computadora se comunicaba directamente con la cortadora de piedra, sin pasos intermedios–. En julio de 1998, luego de diversos problemas técnicos y económicos, Gehry decide modificar el material de la fachada, reemplazando la piedra caliza por acero inoxidable. Finalmente, luego de quince años, el edificio es acabado en octubre de 2003. Durante los años de ejecución de la obra, Gehry continuó experimentando con la tecnología CAD/CAM en proyectos paralelos, como el “Fish” de Barcelona en 1992, y el Museo Guggenheim de Bilbao, en 1997 (del que Marcelo A. Fraile - Arquitectura biodigital hablaremos más adelante). Una experimentación que buscaba definir un Fig. 5. Para el Walt Disney Concert vocabulario técnico, que todavía no había evolucionado lo suficiente. Y es que, conceptualmente, la automatización en la construcción seguía Hall, Gehry construyó un prototipo asociada a una serie de operaciones inconexas, solo eran etapas dentro de un proceso todavía convencional. curvas de piedra que posteriormente a escala real de una de las paredes digitalizó y exportó al sistema CATIA. Los archivos digitales fueron llevados a una cantera, donde los paneles de Los robots del amanecer piedra serían cortados mediante una Con la llegada del nuevo milenio, grandes avances en materia de ingenie- problemas, Gehry decide modificar el ría de microprocesadores condujeron a la aparición de sistemas y programas cada vez más eficaces: complejas herramientas de diseño paramétrico se habían unido a la cibernética, en un intento por desarrollar una nueva materialidad que pudiera ser competitiva con la industria convencional. Esto es, una nueva generación de sistemas CAD/CAM, conectados bajo un lenguaje de programación con parámetros variables. En otras palabras, un nuevo idioma que permitiera a los diseñadores controlar la máquina y fabricar sus objetos con mayor precisión y flexibilidad, un medio para traducir las imágenes en un mapa topográfico construible. Para el filósofo mexicano Manuel De Landa es el nacimiento de un “Nuevo materialismo” (Leach, 2009, p. 32 y ss), que utiliza complejas herramientas capaces de reproducir patrones formales en tres dimensiones y crear espacios arquitectónicos habitables. Espacios que son entendidos por Kolarevic como “espacios geométricos no euclidianos, sistemas cinéticos y dinámicos” (2003, p. 3). Estamos inmersos dentro de una nueva revolución industrial, una revolución 2.0 producto de una sociedad superconectada, desilusionada y desencantada del planteo industrial, con síntomas de una modernización incompleta que, como sugiere el crítico estadounidense Fredric Jameson (1934), retoma la temática sobre la prefabricación pero la tiñe de una contemporaneidad que no “… piensa en función de una serie o repetición, sino en versiones o variaciones” (Ortega & Zaera-Polo, 2009). tecnología CAM. Luego de diversos material de la fachada, reemplazando la piedra caliza por acero inoxidable. 139 Parte III. El punto de inflexión Nuevos sistemas de fabricación, provistos de brazos mecánicos o “efectores”, vinculados a un sistema de comando central, que posibilitan una fabricación flexible donde se integra mecánica y electrónica. Una construcción física robotizada, de variaciones automatizadas, había dado muerte a la producción en serie uniforme de la modernidad: da lo mismo construir un objeto o miles, el costo será igual, la cantidad de productos ya no es una limitante a la hora de fabricar. Quizás, uno de los trabajos más interesantes al respecto sea el proyecto para la ampliación de las Bodegas Gantenbein, en la ciudad helvética de Fläsch, un proyecto del 2006 de los arquitectos suizos Fabio Gramazio y Matthias Kohler (2006). El diseño inicial fue desarrollado a partir de un esqueleto estructural de hormigón armado, cerrado con un muro perforado de mampostería que actuaría como filtro y mantendría una temperatura e iluminación constante. Una serie de paneles prefabricados de ladrillo, diseñados a partir de un algoritmo genético, cuyas variables habían sido definidas previamente de acuerdo con los parámetros de luz y asoleamiento, evitaban la entrada de luz directa. Interiormente, el panel estaba recubierto con placas de policarbonato, con el objetivo de evitar la entrada de viento. Para su construcción, los muros fueron manufacturados en el área de investigación de la ETH en Zúrich, mediante KUKA –un brazo robot industrial, que ubicaba con total precisión cada uno de los ladrillos y el Fig. 6. El diseño inicial fue desarrollado a partir de un esqueleto estructural adhesivo, de acuerdo con los algoritmos genéticos programados previamente–: 20.000 ladrillos dispuestos con un ángulo y separación milimétrica, transformaban cada panel en único. de hormigón armado, cerrado con un muro perforado de mampostería que actuaría como filtro y mantendría una temperatura e iluminación constante. 140 Posteriormente, los paneles fueron transportados al sitio para ser instalados mediante grúas: una fachada de 400 m2 y 72 elementos conferían al edificio una curiosa apariencia textil. Marcelo A. Fraile - Arquitectura biodigital Fig. 7. Bajo la abstracción de una cesta llena de uvas, se modeló un conjunto de esferas de diferentes tamaños, dentro de un espacio virtual. Simulando la gravedad digitalmente, se forzó a las “esferas”, a que ocuparan el espacio casi por completo. A continuación, el resultado fue procesado, con el fin de elaborar un mapa topológico con la rotación de los ladrillos (Dunn & Casasnovas, 2012, p. 111). 141 Fig. 8. Un brazo robot industrial, que ubicaba con total precisión cada uno de los ladrillos y el adhesivo, de acuerdo con los algoritmos genéticos programados previamente. Parte III. El punto de inflexión Dos años después, Fabio Gramazio, Matthias Kohler y Raffaello D’Andrea, con ocasión de la Bienal de Arquitectura de Venecia del 2008, se unieron con la ETH de Zurich para realizar la primera instalación arquitectónica diseñada a partir de una serie de algoritmos paramétricos y construida mediante el uso de robots con capacidad para volar. Estos sistemas, denominados ROB, fueron utilizados para construir un muro bucle de 3,5 m de ancho por 6 m de altura, empleando para ello 1.500 ladrillos de espuma de poliestireno prefabricado (Gramazio & Kohler, 2011). Concebida como una estructura arquitectónica vertical, la instalación abordaba inéditas formas de pensar y materializar la arquitectura a través de un proceso de ensamblaje revolucionario: una megaestructura montada mediante “máquinas voladoras”. Todo esto parece confirmar que estamos ante la aparición de una nueva generación de sistemas de prefabricación digital de alta perfomance. Herramientas con precisiones milimétricas han permitido la materialización de nuevas formas: superficies variables, topológicas y estructuralmente optimizadas. Desde complejos proyectos con presupuestos elevados, hasta diseños básicos con costos reducidos, el uso de las tecnologías CAD/CAM han provocado cambios sustanciales en el campo de la producción arquitectónica. En este sentido, Your HOUSE, puede ser entendido como una nueva mirada sobre la construcción de viviendas prefabricadas. Desarrollada por el profesor Larry Sass del Laboratorio de Diseño del MIT, el proyecto consistía en un módulo habitacional estándar de madera contrachapada Fig. 9. Estos sistemas, denominados ROB, fueron utilizados para construir un muro bucle de 3,5 m de ancho por 6 m de altura, empleando para ello 1.500 ladrillos de espuma de poliestireno prefabricado (Gramazio & Kohler, 2011). 142 reciclada, al que se le adiciona una de las cuatro fachadas típicas Shotgun House, de New Orleans. Un proyecto sistematizado, desarrollado mediante tecnología CAD/CAM, permitía que en el plazo de una semana, la casa fuera fabricada y ensamblada mediante encastres a la fricción, eliminando tornillos y clavos. Una tecnología de vanguardia, para desarrollar viviendas prefabricadas de bajo costo (Sass, 2007). En los últimos años, tanto la robótica como la fabricación digital se han convertido en un campo fértil para desarrollar las investigaciones más espectaculares. Nuevos sistemas vinculan la creatividad y flexibilidad de los procesos proyectuales con la economía y velocidad de los sistemas de prefabricación. Mediante un sistema digital, es posible transmitirle a la máquina una cantidad ilimitada de órdenes, definidas a través de líneas de código alfanumérico. El robot ha dejado de ser solo mecanismo dentro de una cadena de producción, para convertirse en el responsable de toda una coreografía, capaz de generar objetos (Prieto, 2012). Marcelo A. Fraile - Arquitectura biodigital La fabricación digital De acuerdo con su definición, el concepto de fabricación digital puede ser entendido como “…cualquier proceso que posibilita la producción de componentes físicos, reales y táctiles que están siendo cibernéticamente controlados a partir de una máquina vinculada a uno o más ordenadores” (Orciuoli, 2011). Una nueva tecnología, íntegramente digital, sin pasos intermedios: conocidos como file-to-factory, (del archivo informático a la fábrica), esto es, del diseño digital a la máquina de fabricación, sin pasos intermedios (Dunn & Casasnovas, 2012, p. 77). Una tecnología cada vez más accesible, que permite a cualquier persona en la intimidad de su casa convertirse en diseñador, fabricante, distribuidor y comercializador de sus productos. Para la diseñadora holandesa Iris Van Herpen (1984), el futuro del planeta, y en especial el de la moda, sufrirán una profunda transformación gracias a los avances tecnológicos: “todo el mundo podrá tener escaneado su propio cuerpo y a partir de [una] impresoras 3D [fabricar su propia] ropa” (Howarth, 2013). Van Herpen es una de las primeras diseñadoras en investigar el potencial de las nuevas tecnologías digitales aplicadas al diseño de la indumentaria. Durante el año 2010, en la semana de la moda de Ámsterdam, presentó su colección Cristalización, la primera colección de prendas de vestir diseñadas utilizando geometrías complejas que imitan los elementos de la naturaleza, materializada íntegramente mediante una impresora 3D. En el 2013, Van Herpen, Rem Koolhaas y la compañía líder Stratasys 3D se asociaron para la creación de 12 pares de zapatos impresos. Esto configura lo que según ella establecerá una nueva frontera en el diseño de moda. De igual modo, en el campo de la medicina, la fabricación digital hace tiempo que se viene utilizando para producir un sinnúmero de objetos anatómicos: desde implantes dentarios hasta “prótesis personalizadas” para trasplantes óseos. Sin embargo, el tema no concluye allí; un equipo de bioingenieros y médicos del Weill Cornell Medical College, de la Universidad de Cornell, liderados por el profesor Lawrence Bonassar, han desarrollado un oído artificial a partir del uso de una impresión en 3D y geles inyectables de células vivas (Ju, 2013). Bonassar y sus colegas desarrollaron, a partir de una imagen digital tridimensional y de una impresora 3D, el molde de la oreja de un hombre. Posteriormente, inyectaron al molde 3D colágeno derivado de cola de rata y a continuación, 250 millones de células de cartílagos extraídos de orejas de vaca. El colágeno actúa como un soporte sobre el cual puede crecer el cartílago que, por no ser vascularizado, no requiere suministro de sangre para sobrevivir. Los investigadores se encuentran actualmente buscando expandir la población de células del cartílago del oído humano, a fin de ser utilizadas Fig. 10. Un proyecto sistematizado, desarrollado mediante tecnología CAD/ CAM, permitía que en el plazo de una semana, la casa fuera fabricada y ensamblada mediante encastres a la fricción, eliminando tornillos y clavos. 143 Parte III. El punto de inflexión en el molde, como un reemplazo del cartílago de vaca. Se espera que en un futuro próximo la tecnología permita utilizar células humanas, especialmente la del mismo paciente, uno de los más importantes avances en materia de medicina regenerativa y de trasplante de órganos, para evitar de este modo el riesgo de posibles rechazos que tienen actualmente dichas intervenciones. Uno de los primeros resultados alentadores en el tema se produjo el 9 de febrero de 2012, cuando los médicos Glenn Green y Scott Hollister, del Hospital CS Mott de Niños de la Universidad de Michigan, colocaron una férula impresa 3D alrededor de las vías respiratorias de Kaiba, un paciente de tres meses de edad con defectos respiratorios congénitos: utilizando una tomografía computarizada de la tráquea, se desarrolló un modelo digital de la férula, que posteriormente fue impresa a partir de un biopolímero llamado policaprolactona. La férula fue cocida alrededor Fig. 11. Un equipo de bioingenieros y médicos del Weill Cornell Medical College, de la Universidad de Cornell, liderados por el profesor Lawrence Bonassar, han desarrollado un oído artificial a partir del uso de una impresión en 3D y geles inyectables de células vivas (Ju, 2013). de las vías respiratorias con el fin de expandir sus bronquios y darle un soporte para su crecimiento adecuado. Con el tiempo, se espera que la férula sea completamente reabsorbida por el cuerpo (Zopf, Ohye, & Nelson, 2013). Ahora bien, paradójicamente, en el ámbito de la arquitectura, todavía es reciente la aparición de la robótica y de la automatización en la construcción. En cualquier caso, el futuro parece prometedor: la compañía D-Shape4, fundada por Enrico Dini, se encuentra desarrollando una impresora 3D a gran escala que utiliza como materia prima un producto similar al hormigón, sobre la base de una mezcla de piedra arenisca y cloro. La impresora cuenta con grúas y elementos para desplazarse por la 144 Fig. 12. Base permanente para cuatro personas en el polo sur de la Luna. Proyecto del estudio de los arquitectos Foster + Partners, y de la Agencia Espacial Europea (ESA). obra, “imprimiendo” los muros con tareas repetitivas, de acuerdo con un diseño previamente cargado. La impresión es realizada en capas, siempre en número par: la primera, de arena con el aglutinante líquido y, la segunda, de arena seca. Si bien todavía la impresora requiere de la atención humana, se prevé que en un futuro próximo la tecnología mejorará considerablemente como para obtener una herramienta absolutamente autónoma, funcional y confiable. Así lo cree el arquitecto holandés Janjaap Ruijssenaars de Universe Architecture, que actualmente se encuentra colaborando con el ingeniero italiano Enrico Dini para construir una casa bajo esta tecnología, con forma de cinta de moebius5: una tira retorcida y unida para formar un bucle de 6 x 9 m, una superficie de una sola cara en una curva continua, sin principio ni fin. Más aún, la apuesta parece redoblarse, con el ambicioso proyecto del estudio de los arquitectos Foster + Partners, quienes se han unido con la Agencia Espacial Europea (ESA) con el fin de construir una base permanente para cuatro personas en el polo sur de la Luna (De Kestelier, 2013). El proyecto consiste en una estructura de protección resuelta con tubos modulares, a modo de esqueleto, vinculados por medio de una cúpula 4. Página web de la empresa https://d-shape.com/. 5. Diagrama estudiado por el astrólogo y matemático August Ferdinand Möbius (1790-1868). Marcelo A. Fraile - Arquitectura biodigital 145 hinchable que se desplegará sobre estos. Por encima, se construirá una estructura sólida, en forma de cúpula, que será edificada por medio de una impresora 3D con brazos robotizados: con cada pasada, la máquina irá “imprimiendo los muros” mediante una ligera espuma conformada principalmente con suelo lunar o “regolito”, sistema que además de ser práctico, generará un ahorro de entre 30% y 50 % en los costos. Para el estudio británico Foster + Partners, la estructura está planeada para poder levantarse en cuestión de horas, a fin de proteger y albergar a sus habitantes de las drásticas y cambiantes temperaturas, de los micrometeoritos y de la radiación gamma de la superficie lunar. De triunfar este proyecto, nadie podrá dudar de la fuerte incidencia que tendrá en el futuro de la construcción arquitectónica. Fig. 13. Una estructura resuelta con tubos modulares, a modo de esqueleto, vinculados por medio de una cúpula hinchable que se desplegará sobre estos. Por encima, se construirá una estructura sólida, por medio de una impresora 3D con brazos robotizados. Parte III. El punto de inflexión Self service - Hágalo usted mismo En 1917, el comerciante norteamericano Claurence Saunders (18811953) desarrolló un nuevo sistema de venta para su tienda Piggly Wiggly de Memphis, Tennessee: allí, los artículos estaban al alcance del comprador, el cual los recogía de los estantes de la tienda y luego los presentaba al cajero para pagar antes de salir. Este procedimiento iba a reemplazar el viejo concepto del empleado como único acceso a los productos, ya que era él quien los buscaba a pedido del cliente. Este sistema se popularizó con el nombre de self service, una voz inglesa que hace referencia al autoservicio, donde el comprador se sirve él mismo. Con el tiempo, el self service se transformó en una realidad cotidiana, su universo se ha incrementado considerable en todo el mundo y en todas las áreas: desde la banca electrónica, las casas de comida rápida, el alquiler de películas o incluso el check in de las aerolíneas comerciales. Fig. 14. Liberator, es la primera arma de fuego de código abierto, capaz de ser fabricada íntegramente por una impresora 3D doméstica. El concepto de self service tácitamente se encuentra asociado con el término, “do it yourself”, que se traduce como “hazlo tú mismo”, y que trae consigo, en su significado, la implicancia de autogestión, que lleva contenida además la satisfacción personal por algo hecho con “mis propias manos”. Fabricar tus propios muebles, construir tu propia casa, o simplemente hacer algún objeto para regalar, otorga satisfacción a ese impulso creador, a esa “…característica humana ineludible que nos ha impulsado a partir de la edad de piedra a la era moderna” (Fernández, 2012). Es la capacidad para moldear nuestro mundo y asegurarnos la supervivencia, creando un ambiente que nos permita sobrevivir. En 2005, Thomas L. Friedman, periodista y autor del libro The wold is flat, aseguraba que la fuerza de esta era se encuentra en las conexiones y la capacidad de los individuos para tomar el control de todo. 146 Tras una industrialización desmesurada de todos los campos del conocimiento, el concepto del objeto único, fabricado o reparado por uno mismo, parece una oferta tentadora. Aparece un rechazo a la idea de tener que comprar artefactos despersonalizados, idénticos. Bajo esta nueva filosofía, inventores y creadores experimentan con nuevas formas, utilizando herramientas de hardware libre para crear prototipos y pequeños artefactos. Un nuevo paradigma que nos impulsa a hacer nuevas cosas, fabricar objetos cuya materialización se realiza por medio del uso de equipos controlados digitalmente. “Hecho por uno mismo”: objetos personalizados, con un valor extra: el del ser único, exclusivo. Estamos ante una materialidad que ha convertido al diseñador contemporáneo nuevamente en artesano: donde innovadores procesos de fabricación le posibilitan materializar sus ideas a escala real, eliminando los intermediarios. Un ejemplo interesante al respecto es el caso de Liberator, la primera arma de fuego de código abierto, capaz de ser fabricada íntegramente Marcelo A. Fraile - Arquitectura biodigital por una impresora 3D doméstica. Su creador, Cody Wilson (1988), un estudiante de segundo año de la carrera de abogacía de la Universidad de Derecho de Texas, había diseñado en 2013 una pistola cuyas partes podían ser impresas en plástico ABS, con la única excepción de un clavo de metal utilizado como percutor. A continuación, un grupo de activistas que defienden el derecho al uso personal de las armas, subieron a la red los planos necesarios para construir el arma denominada Liberator. Esto permitió que cualquiera pudiera descargarlos, copiarlos, modificar el arma o reproducirla libremente, solo por unos pocos dólares (Chalcraft, 2013). Y, en caso de no contar con una impresora 3D, se podía enviar los archivos vía web a algunos de los locales de la mega tienda Staples Easy 3D para su impresión, y luego optar por cuál sucursal pasar a buscar los resultados (Etherington, 2013). Pocos días después de su publicación, la Oficina de Control del Comercio Defensivo del Departamento de Estado de los Estados Unidos retiró los planos de internet, sin embargo, estos todavía pueden encontrarse en algunos sitios piratas de la web como The Pirate Bay. En el año 2013, el museo Victoria y Alberto, y el museo de Ciencias de Londres, compraron dos copias de la pistola Liberator para ser exhibidas entre sus colecciones. Para Kieran Long, curador de la muestra, fue un paso importante en la historia del diseño: “Un no-diseñador ha logrado producir este año, un gran impacto en el diseño” (Lee, 2013). Desde luego, sería demasiado simplista pensar que el tema está terminado; muchos son los interrogantes que quedan por responder y que ponen en discusión viejas polémicas como el control de armas, la propiedad intelectual o el derecho de autor. En cualquier caso, lo que sí queda claro es que continuamente nuevas propuestas hacen su aparición en este mundo digital y rápidamente son absorbidas por los diferentes campos de la vida humana. Nuevos conceptos y nuevos procesos que, gracias al uso de las redes digitales y de la cultura Open Source o “código abierto”, pretenden expandir el conocimiento con una nueva mirada inocente, a una escala mayor. Mediante esta filosofía, uno podría descargar cualquier proyecto, modificarlo, adaptando sus parámetros iniciales de acuerdo con sus necesidades, para después construirlo. En arquitectura, siguiendo esta línea de pensamiento, en 2011, el diseñador británico Alastair Parvin creó junto con el arquitecto Nick Leroridiaconou, WikiHouse: “un proyecto de código abierto que busca reinventar la manera en que se hacen las casas” (2011). Una plataforma en línea, sin fines de lucro, cuyo objetivo es permitir que cualquier persona pueda diseñar su propia casa, luego descargar los planos, “imprimirlos tridimensionalmente”, y posteriormente montar las diferentes partes de la vivienda con un mínimo de requisitos y conocimientos técnicos. En palabras de Parvin, sus instrucciones dicen: “cortar las partes de la casa, ensamblarlas, construir la estructura entre tres o cuatro personas y tener una vivienda básica” (Abad, 2013). 147 Parte III. El punto de inflexión El proyecto prevé, en su portal de internet, una biblioteca compartida de modelos tridimensionales que permiten ser modificados, personalizados y descargados para su utilización de forma gratuita. En resumidas cuentas, una comunidad basada en el intercambio y la colaboración de bienes, una “Wikipedia de la construcción” (Abad, 2013), “una democratización de la industria” (Abad, 2013), que involucra a los usuarios en tareas que tradicionalmente le son propias a los arquitectos. El futuro es hoy Fig. 15. Wiki-House. Una plataforma en línea, cuyo objetivo es permitir que cualquier persona pueda diseñar su propia casa, luego descargar los planos, “imprimirlos tridimensional- 148 mente”, y posteriormente montar las diferentes partes de la vivienda. Los importantes avances en el campo de la tecnología digital han generado una nueva relación entre el diseño y la fabricación, y han permitido obtener resultados en los que el mundo físico se vincula al mundo virtual. Ya nada impide que un estudio ubicado en Buenos Aires se conecte con un estudio colega en Tokio para desarrollar un proyecto online en conjunto. Aprovechando la diferencia horaria y las nuevas plataformas interactivas de diseño paramétrico, ambos estudios podrían trabajar en el proyecto de un modo continuo, ahorrando tiempo y dinero en su ejecución. Concluida la documentación técnica, esta podría ser enviada a través de la nube a una empresa ubicada en Moscú donde –a través de sistemas CAD/CAM, 3D printer, o mediante estructuras automatizadas capaces de aprender–, se encargarían de la fabricación de sus partes: un proceso donde diseñar y construir no son excluyentes. De hecho, muchas veces se retroalimentan bajo una personalización masiva. A continuación, las partes podrían viajar hasta Sídney, en donde serían montadas en obra mediante robots operarios. Una nueva generación de máquinas, con ruedas y brazos mecánicos articulados, capaces de desplazarse por el terreno que será construido, encargándose de la fabricación y del montaje final. Marcelo A. Fraile - Arquitectura biodigital En muy poco tiempo, estos autómatas serán los nuevos obreros de la postmodernidad, incapaces de sufrir cansancio, preparados para trabajar jornadas de 24 horas, más veloces que los sistemas convencionales y cuyos valores de precisión estarán tabulados en milímetros. Ellos serán los encargados de materializar los avanzados proyectos de las futuras generaciones. Figuras Fig. 1. Oldmobile Curve Dash. https://en.wikipedia.org/wiki/Oldsmobile_Curved_Dash#/media/File:Oldsmobile_Curved_ Dash_Runabout_1904_2.jpg Fig. 2. Rur, Karel Čapek (1920). Fig. 3. Termas de bath. http://www.nationalgeographic.com.es/viajes/grandes-reportajes/la-ruta-de-jane-austen-2_7294/2 Fig. 4. Sagrada familia. http://www.sagradafamilia.org/en/geometry/ https://mcburry.files.wordpress.com/2013/02/img_4603.jpg Fig. 5. Walt Disney Concert Hall. https://upload.wikimedia.org/wikipedia/commons/2/2e/Image-Disney_Concert_Hall_by_ Carol_Highsmith_edit.jpg Fig. 6. bodegas Gantenbein. http://www.plataformaarquitectura.cl/cl/02-186060/vinedo-gantenbein-gramazio-kohlerbearth-deplazes-architekten Fig. 7. bodegas Gantenbein. http://www.plataformaarquitectura.cl/cl/02-186060/vinedo-gantenbein-gramazio-kohlerbearth-deplazes-architekten Fig. 8. bodegas Gantenbein. http://www.plataformaarquitectura.cl/cl/02-186060/vinedo-gantenbein-gramazio-kohlerbearth-deplazes-architekten Fig. 9. Instalación realizada por los arquitectos Gramazio y Kohler y Raffaello D’Andrea. http://www.dezeen. com/2011/11/24/flight-assembled-architecture-by-gramazio-kohler-and-raffaello-dandrea/ Fig. 10. Your house. http://prefabcosm.com/blog/2008/01/09/lawrence-sass-and-yourhouse/ Fig. 11. Oído impreso. http://www.news.cornell.edu/stories/2013/02/bioengineers-physicians-3-d-print-ears-look-act-real Fig. 12. Proyecto Base Lunar – Estudio Foster + Partners. https://www.fosterandpartners.com/projects/lunar-habitation/ Fig. 13. Proyecto Base Lunar – Estudio Foster + Partners. https://www.fosterandpartners.com/projects/lunar-habitation/ Fig. 14. Liberator. https://www.dezeen.com/2013/12/06/3d-printed-plastic-guns-us-renews-undetectable-firearms-act/ Fig. 15. Wiki-House. http://www.wikihouse.cc/ 149 Parte III. El punto de inflexión 150 Marcelo A. Fraile - Arquitectura biodigital ANOMALÍA 4. LAS COMPLEJAS FORMAS BIODIGITALES “En 1917 o 1918 le preguntaron a Jujol cómo sería su iglesia de Vistabella, y él respondió a la gente del pueblo que se lo mostraría al día siguiente. A la hora acordada, Jujol se presentó con un trozo de madera que soportaba unos cuantos alambres arqueados. Era su maqueta. Los relatos afirman que el público se quedó perplejo y, sin embargo, esa maqueta de estructura de alambre, aunque esquemática, encerraba la visión arquitectónica que Jujol se proponía construir, y para él era una herramienta de su proyecto de construcción. Representaba toda una serie de superficies deformadas que emergían de unos muros ortogonales. En cierto sentido, era una maqueta protovirtual, ni más ni menos arquitectónica que las maquetas virtuales actuales”. (Dollens & Planella, 2002, p. 32). Para finales del siglo XX, la arquitectura había sufrido un importante proceso de reconfiguración. Con el creciente avance de las computadoras, los sistemas digitales se habían consolidado como una vanguardia en la producción de un nuevo diseño, que viabilizaba la exploración sistemática de las posibilidades geométricas de las formas complejas. Espacios oníricos, volúmenes sin solución de continuidad, curvas enmarañadas y superficies variables, habían sustituido las estables cajas del paradigma mecanicista. Bajo un control riguroso, la arquitectura del nuevo siglo encontraba su inspiración en la física, en la matemática, o en la biología: formas animadas, en constante mutación, sometidas a las fuerzas e interacciones del entorno, que “participan en los flujos dinámicos”, dirigen el movimiento, y les permiten autorregularse. Para el arquitecto holandés Rem Koolhaas (1944), es una arquitectura donde “…la acumulación y la adhesión han reemplazado otras formas de organización, como la jerarquía y la composición” (Ingels, 2009). La computadora contemporánea, “…Lejos de ser una herramienta pasiva e inerte, [se ha trasformado en] un agente activo y dinámico que no solo permite representar ideas creativas, sino también generarlas” (Dunn & Casasnovas, 2012, p. 76). El poder de las nuevas tecnologías ha permitido revelar los secretos del mundo natural y poder trasladarlos al diseño arquitectónico. Estamos pasando de un proceso mecánico a emergente donde la construcción de la forma está siendo reemplazado por el descubrimiento de la forma: “…un proceso de selección similar al de la naturaleza, en el que mínimas mutaciones hacen posible la optimización y una depuración extraordinaria en las formas” (González Cobelo, 2012, p. 9). En el siglo XXI, la arquitectura presenta un nuevo modo de filosofar a través de un renovado lenguaje. El papel de esta nueva arquitectura no finaliza con la exploración de nuevas formas y avanzados sistemas de fabrica- 151 ción: “La arquitectura sigue teniendo una parte de arte… no solo como algo funcional sino también estético y simbólico” (Krauel, 2010, p. 273). En este sentido, no se trata de copiar la naturaleza, sino de tomar en cuenta sus principios. Una arquitectura que intenta establecer un equilibrio armónico entre “…lo funcional, que implica el proceso y el modo de vida; lo constructivo que abarca materiales y tecnologías; y lo estético, donde radica la estructura ideo-emocional” (Senosian Aguilar, 1998, p. 162). Geometrías Topologías. La abstracción de la forma La topología es una de las ramas más jóvenes de la matemática. Conocida inicialmente como “análisis de posición”, sus orígenes se remontan al siglo XVII. El primero en mencionarla fue el filósofo y matemático alemán Gottfried Leibniz (1646-1716), en su libro “Characteristicas Geometrica”, publicado en 1679. De acuerdo con su definición matemática, la topología estudia aquellas propiedades de las formas geométricas, intrínsecas y cualitativas, “… que no son normalmente afectadas por cambios en el tamaño o con- Parte III. El punto de inflexión formación; es decir, que permanecen invariables a través de continuas transformaciones o deformaciones elásticas, tales como el estiramiento o la torsión” (Kolarevic, 2003a). La topología estudia las propiedades de las formas geométricas complejas. Para el escritor y filósofo mexicano Manuel De Landa (1952), la topología “… es la ciencia de formas que pueden ser cambiadas las unas en otras por una secuencia de desdoblamientos y operaciones de deformaciones” (2003). A diferencia de la geometría euclídea –donde un objeto podía ser transformado en otro equivalente a través de operaciones isométricas (rotaciones, traslaciones, reflexiones, etc.) es decir, mediante transformaciones que conserven sus ángulos, longitudes, área y volumen–, en la geometría topológica, un objeto puede ser transformado en otro equivalente mientras esto no genere cortes, ni se junten dos extremos (De Landa, 2003). Para la geometría topológica, dos objetos serán equivalentes si estos tienen el mismo número de partes, de vacíos, de intersecciones, etc. Desde este punto de vista, un cuadrado es “topológicamente semejante” a un rectángulo (ya que tienen el mismo número de aristas, el mismo número de vértices, etc.). Así, uno puede ser transformado en el otro de una manera continua y reversible: extendiendo, achicando, torciendo, o doblando sus partes. Siempre que estas no se corten, se separen sus uniones o se peguen nuevos elementos. Estas propiedades se conocen con el nombre de invariantes topológicas. Tomemos un ejemplo: sobre la superficie de una membrana flexible, dibujemos un cuadrado. Seguidamente, sometamos dicha membrana a diferentes acciones: estiramiento, giro, plegado, etc. Con cada operación notaremos cómo el cuadrado modifica algunas de sus propiedades Fig. 1. Para la geometría topológica, dos objetos serán equivalentes si estos tienen el mismo número de partes, 152 de vacíos, de intersecciones, etcetera. (su forma, la longitud de algunos de sus lados, la distancia entre sus vértices, etc.); sin embargo, existirán otras propiedades que no se modificarán nunca (la figura seguirá siendo continua, no tendrá cortes, no aparecerá otro vértice, etc.) (Macho Stadler, 2010, pp. 5-6). Esto se conoce como “homeomorfismo”, y hace referencia a las transformaciones biunívocas entre los puntos de la figura original y los puntos de la figura transformada. De esto se desprende que una esfera, desde el punto de vista topológico, nunca podrá ser transformada en un toro, ya que, para ello, deberíamos generar sobre la esfera una serie de transformaciones que alterarían sus propiedades homeomórficas, como por ejemplo, romper la continuidad de la figura para generar un orificio en esta. En este sentido, conviene aclarar que la geometría topológica no es sinónimo de formas curvilíneas complejas, ya que estas pueden tener una perfecta ortogonalidad y, sin embargo, pertenecer a dicha familia. En otras palabras, tanto las cajas como las bioformas “…son simplemente casos en una escala de complejidades formales: una caja podría Marcelo A. Fraile - Arquitectura biodigital convertirse en un blob y viceversa, simplemente variando los parámetros espaciales con los que se definen” . (Kolarevic, 2003b, pp. 17-45). Uno de los ejemplos es el edificio de Oficinas Üstra de Gehry en Hannover, Alemania, de 1999. Su forma parte de un prisma simple el cual fue deformado con un proceso de rotación: “… el software de animación añade la posibilidad de expresar, literalmente, el espacio y la forma de la metamorfosis de un objeto”. Una interpolación de puntos donde el diseñador puede elegir el punto exacto de la deformación “…para producir una variedad de formas híbridas que combinan atributos formales del objeto “base” y de “objetivos”” (Kolarevic, 2003b, pp. 17-45). Blobs formas El término blob fue inventado por el arquitecto database estadounidense Jim Starkey (1949), cuando trabajaba en Digital Equipment Corporation (DEC), quien, inspirado en la película de 1958 de Steve McQueen, utilizaba la palabra blob para referirse a “pedazos amorfos de código, de una cadena segmentada” de información (Herrera, 2003). Tiempo después, Terry McKiever, una encargada del Departamento de Marketing de Apollo Computer, ideó el acrónimo blob (Basic Large Object - Objeto grande básico). Curiosamente, la compañía Apollo jamás registró ese nombre, por lo que, con el tiempo, la compañía Informix fue la que finalmente tomó el vocablo e ideó el actual acrónimo Binary Large Objects (Blob. Objetos binarios grandes) para referirse a un gran volumen de datos (imágenes, sonidos o archivos multimedia) almacenados en una base de datos, los cuales cambian de forma de un modo dinámico. En 1995, el arquitecto estadounidense Greg Lynn (1964) adoptó el término blob1, resignificándolo, para referirse a un nuevo y experimental tipo de arquitectura digital, caracterizada por sus formas orgánicas semejantes a las amebas, y que requerían de plataformas algorítmicas digitales para su realización. Para Lynn, un blob “…es cualquier forma que no tenga forma de caja o rectángulo” (Zavalbeascoa, 2007). Una configuración inexacta que se disfraza como una forma exacta aislada de las fuerzas adyacentes. Son formas orgánicas, evolutivas, superficies continuas aerodinámicas, mutaciones que se despliegan en una estructura compleja, cuya conformación es importada del diseño de los autos y de los cascos de los barcos. Como un paisaje topológico, el conjunto de blobs almacena varias combinaciones de superficies, su complejidad implica la fusión de múltiples elementos ensamblados. Son formas concebidas dentro de un espacio virtual en movimiento, formas elásticas, flexibles, moldeables. Un espacio que, como burbujas, se fusiona redefiniéndose mutuamente a través de la unión de sus superfi153 cies, sin un orden simple. Asumiendo estas particularidades, Lynn abandona la geometría euclídea para encontrar inspiración en la geometría topológica un medio para “…curvar, torcer, deformar y diferenciar las estructuras, desafiando las nociones tradicionales preconcebidas de la arquitectura” (1999, p. 130), lo que genera toda una serie de nuevas tipologías inspiradas en formas orgánicas y metáforas digitales. Para ello, Lynn utilizó una plataforma digital (Microstation) a la que bautizó con el nombre ‘blobby’: un sistema de partículas que posibilitaban la generación de una nube de puntos en el espacio. Estos puntos eran capturados por Lynn, se los transformaba en curvas para generar finalmente una arquitectura con cualidades artísticas y formales. Posteriormente, los resultados se exportaban a Maya –un software capaz de plegar el modelo en tres dimensiones, permitiendo además el renderizado de las superficies–, para finalmente desarrollar una maqueta del modelo a través de una impresora de prototipado. 1. En 1998, Greg Lynn escribiría un artículo titulado “Folds, bodies & Blobs: Collected Essays”, el cual fue publicado en la revista “Blobs, o Why Tectonics is Square and Topology is groovy”, en donde se atribuye la creación del término “arquitectura Blob”. Parte III. El punto de inflexión A finales de la década de 1990, el arquitecto estadounidense Wes Jones (1958) acuñaría el término “blobmaster” para referirse al pequeño grupo de arquitectos que desarrollaba un nuevo tipo de arquitectura a partir del uso de software como medio de expresión de formas arquitectónicas. Sin embargo, el término blob recién apareció impreso por primera vez en diciembre de 2002, en un artículo del periodista estadounidense Wiliam Safire (1929-2009), titulado “Defenestration”, publicado en el The New York Times Magazines: On Language. En el artículo, Safire se refería a la arquitectura blob como una creación de Lynn, “…cuando dibujaba una nube aleatoria de puntos que asumían una forma… suelta… como una ameba, que los diseñadores a veces llaman una forma biomórfica” (2002). Bajo una mezcla de ironía y despectiva crítica, Safire relacionaba su significado como un extraño juego de palabras entre “burbuja” y un “glóbulo de líquido parecido a una lágrima”, “un significado extendido de una grosella o un huevo de pato, que los jugadores de cricket tratan como un cero, por lo tanto, un error o una estupidez” (2002). Por el contrario, para Lynn “aunque la arquitectura blob ‘carece de la elegancia, rigor y belleza que viene de módulos, proporciones y simetría… a su debido tiempo, los arquitectos blob descubrirán una nueva forma de belleza y elegancia en la voluptuosidad rítmica y en las formas onduladas del cálculo diferencial” (Safire, 2002). Una estética de “Blobby” que va más allá de las meras cuestiones decorativas. Su reto es precisamente entender la aparición de un nuevo diseño de “…aspectos generativos y de producción con tecnologías digitales” (Kolarevic, 2003b, pp. 17-45): son objetos binarios únicos, no existen formas idénticas, su forma depende de una multiplicidad de variables y del contexto en el que se encuentre. 154 Fig. 2. Blobwall Pabellón. Una innovadora reformulación del concepto de ladrillo tradicional, a través de un objeto modular liviano hecho de plástico de colores. Una nueva arquitectura sin “tipos cerrados” ni “tipologías básicas”, una arquitectura donde el cálculo es sinónimo de cambio, y es utilizado para construir nuevas e inusuales formas: diseños irregulares, superficies NURBS, formas semejantes a gotas de agua o salpicaduras, donde sus estructuras son curvas que llevan implícita la ficción de la forma. El uso de la topología en la arquitectura blob, o blobitectura ha potenciado el proceso creativo al contribuir a la generación de formas innovadoras, formas ligadas al movimiento, a la aparente aleatoriedad de un caos controlado. Uno de los proyectos al respecto es el Blobwall Pavilion2, del 2008. Una colaboración entre Greg Lynn, Machineous (que desarrolló el método de fabricación de los ladrillos) y Panelite (empresa dedicada a la fabricación de paneles ligeros sobre la base de polímeros). 2. El Blobwall Pavilion, de Greg Lynn, fue expuesto en el SCI-Arc Gallery de los Ángeles, para la exposición Skin + BOnes, entre el 30 de mayo y el 13 de julio de 2008. Posteriormente, formó parte de la 11.ª Exposición Internacional de Arquitectura de la Bienal de Venecia del 2008. Marcelo A. Fraile - Arquitectura biodigital Para Lynn, el Blobwall Pavilion es una innovadora reformulación del concepto de ladrillo tradicional, a través de un objeto modular liviano hecho de plástico de colores: el Wall Blob es una forma trilobulada producida en masa robóticamente. Un ladrillo prefabricado mediante un polímero reciclable de baja densidad, resistente a los impactos, que sirve tanto para interiores como para exteriores. El sistema no utiliza la mano de obra humana, en su lugar, cada pieza es cortada robóticamente para luego ser ensamblada con precisión para formar un sistema de paredes independientes: un brazo robot corta sus uniones con precisión, para posteriormente ser soldadas mediante una herramienta que se utiliza para reparar guardabarros de automóviles. El pabellón es un sistema de paredes onduladas, resultado de la interacción de fuerzas direccionales y cambiantes. Una expresión biomórfica y orgánica, bajo una conformación amebaforme, que requirió más de 500 Fig. 3. Blobwall Pabellón. Son formas concebidas dentro de un espacio virtual en movimiento, formas elásticas, flexibles, moldeables. Un espacio que, como burbujas, se fusiona redefiniéndose mutuamente a través de la unión de sus superficies, sin un orden simple. 155 Parte III. El punto de inflexión ladrillos individuales de 10 colores diferentes para configurar sus paredes voluptuosas. Una recuperación de las grutas barrocas. Dada sus características, cada ladrillo podía ser iluminado internamente a través de una pequeña luz controlada mediante una computadora. Luces carmesíes, ciruelas y rosadas, generaban que el pabellón se transformara durante la noche, lo que convertía la pared en una mampostería pixelada. En sus proyectos Lynn desarrolla una relación entre el movimiento y la arquitectura, concebidos dentro de un espacio virtual. Para esto, utiliza las teorías matemáticas y las tecnologías digitales, un tratamiento meFig. 4. Villa Nurbs. Un sistema de su- diante curvas precisas y formas algorítmicas, primero dibujadas para perficies lisas desarrolladas a través luego, pasar a ser materializadas. de geometrías NURBS y tecnología nación de las formas artificiales con Otro de los proyectos interesantes al respecto es la Villa Nurbs, en la localidad costera de Empuriabrava, Gerona. Desarrollada en el 2003, por las orgánicas naturales. Enric Ruiz-Geli + Cloud 9 Team. de avanzada, que posibilita la combi- 156 Marcelo A. Fraile - Arquitectura biodigital Una tipología en forma de óvalo, elaborada en una superficie de 130 metros cuadrados, gracias a la utilización de sistemas CAD/CAM: un sistema de superficies lisas desarrolladas a través de geometrías NURBS y tecnología de avanzada, que posibilita la combinación de las formas artificiales con las orgánicas naturales. La casa se compone de un basamento escalonado de hormigón, cuya parte superior es coronado por una cubierta traslúcida de burbujas de ETFE (Etileno-TetraFluoroEtileno), que sirven de aislamiento térmico y acústico. Su diseño es el resultado de una serie de 406 unidades alabeadas desarrolladas mediante un modelo virtual tridimensional que, consideradas en conjunto, funcionan como si se tratara de una pared de hojas. Dependiendo de la orientación, esta piel posibilita cerrar el edificio ante las condiciones adversas del medioambiente. Un tercer ejemplo interesante al respecto es el caso del museo Kunsthaus de Graz. Ubicado a orillas del río Mur, en el centro histórico de la ciudad austriaca de Graz. El Friendly Aliens3 abrió sus puertas durante el 2003, para conmemorar la elección de esta ciudad como Capital Europea de la Cultura. Obra del grupo Spacelab, dirigido por los arquitectos británicos Sir Peter Cook (1936) y Colin Fournier (1934), fue el proyecto ganador de un concurso organizado en el año 2000. El edificio, concebido como un espacio dedicado a exhibiciones temporales de arte contemporáneo, es una burbuja alargada azul, implantada dentro de un contexto urbano muy homogéneo y tradicional. Una suerte de organismo vivo de extraños ojos, un resabio de forma animal, que contiene varios niveles en su interior y se comunica con un edificio existente. En su interior, una sala de exposiciones es iluminada gracias a 16 lucernarios que, como ojos, están ubicados en el volumen amorfo. Estos lucernarios apuntan a diferentes puntos de vista y permiten no solo llevar la luz y el aire fresco al interior del edificio, sino también enmarcar el paisaje circundante. Su fachada, la BIX Facade4, concebida por el grupo de arquitectos alemanes Realities: united, está compuesta por más de 1000 paneles conformados al vacío y laminados tridimensionalmente, de donde salen las protuberancias cilíndricas que conforman los lucernarios. Los paneles están compuestos por una película de polietileno tereflatalato con la incorporación de hilos de carbono anisótropos a fin de darle mayor resistencia a la tracción, a lo largo de las líneas de tensión, y paneles estructurales de fibra Kevlar-Nomex para la resistencia a la compresión. Estas características le permiten múl- 157 tiples variaciones formales, estructurales (rigidez, opacidad, flexibilidad o transparencia), y abarcar la anchura de la cubierta sin soportes estructurales intermedios. En su interior, se ubican los sistemas audiovisuales, altavoces, elementos de iluminación y una serie de tubos laminados por donde circulan las diferentes canalizaciones necesarias. La forma final fue alterada ligeramente “…después de que el análisis estructural digital, hecho por los ingenieros consultores Bollinger + Grohmann de Frankfurt, revelara que su comportamiento estructural podría mejorarse con pequeños ajustes” (Kolarevic, 2003b, pp. 17-45). Una piel sensible que incorpora dentro de su espesor 930 lámparas fluorescentes de 40 w, de forma circular de diámetro de 40 cm, y sensores a modo de píxeles que se conectan a un sistema informático y transforman la piel del edificio como una gran pantalla urbana, una pantalla de 20 metros de alto por casi 40 metros de ancho, lo que le permite reproducir imágenes y textos en movimiento. 3. Friendly Aliens, del inglés “amigo alienígena”. 4. La palabra BIX nace de la combinación de las palabras “Big”, del inglés: grande; y “Pixel”, píxeles. Parte III. El punto de inflexión Fig. 5. El Friendly Aliens, una burbuja alargada azul, implantada dentro de un contexto urbano muy homogéneo y tradicional. 158 Marcelo A. Fraile - Arquitectura biodigital Fracturas, fragmentos y fracciones De acuerdo al Diccionario de la Real Academia Española, la palabra fractal deriva del adjetivo latino ‘fractus’, que significa fragmento, fractura, fracción, y se refiere a la “estructura iterativa que tiene la propiedad de que su aspecto y distribución estadística no cambian cualquiera que sea la escala con que se observe” (RAE, Asale, 2014). Conceptualmente, un fractal es “… un objeto tal que sus bordes, su superficie o su estructura interna muestran una constitución que, ampliada, aún hasta el infinito, se mantiene invariante” (de Spinadel, 2012, p. 13). Los términos que rigen los fractales fueron introducidos por el matemático polaco Benoît Mandelbrot (19242010) en 1975, en su libro Los objetos fractales, en donde exponía sus primeras ideas sobre el tema. En sus investigaciones, Mandelbrot había descubierto una serie de impredecibles fluctuaciones diarias en los precios del algodón, las cuales se repetían en una escala de tiempo variable. Inicialmente consideradas como puramente al azar pero que, a largo plazo, seguían una simetría en las vacilaciones si se las comparaba con las fluctuaciones a corto plazo (de Spinadel, 2012, p. 12). A partir de esto, Mandelbrot comenzaría a estudiar los fenómenos de la naturaleza tales como la costa de Gran Bretaña, los cráteres en la luna o la distribución de las estrellas en la galaxia, para describir objetos cuya lógica matemática presentara características fractales. En 1977, publicaría La geometría fractal en la naturaleza: un manifiesto en donde revelaba una relación armónica entre el orden y el caos existente en el ecosistema. En los fractales, no existe diferencia entre el detalle y el conjunto “…pues no se hace referencia a un tamaño. Al no existir escala, todo pasa a ser una serie infinita de la que no podemos saber cuál es su origen ni qué partes son ampliaciones de un todo” (Soriano, 2004, pp. 34-35). Mandelbrot descubrió que las partes de un objeto podían ser divididas en N partes idénticas, es decir, una división en N partes autosemejantes, donde cada una de estas está en relación matemática con el todo (Spinadel de, Perera, & Perera, 2007, p. 2). Este concepto de autosemejanza puede ser de dos maneras: la primera, denominada determinista, se caracteriza por ser matemáticamente exacta; en tanto que la segunda es la natural y corresponde con aquella que se encuentra en la naturaleza, y en donde su autosemejanza es aproximada (Bosi, 2012, p. 83). De acuerdo a la doctora Spinadel (2007, p. 2), las propiedades características de un fractal son: - Su estructura fina, la cual posee más detalle cuanto más pequeña es. - Su irregularidad no puede ser descripta mediante la Geometría Euclidiana tradicional. - Poseen una cierta forma de autosemejanza, aproximada o estadística. - Su dimensión fractal es mayor que su dimensión topológica. - En muchos casos, sus formas son simples y recursivas. En el caso de los fractales deterministas, estos constituyen un nuevo tipo de geometría que, de acuerdo con sus características, es demasiado irregular para poder ser descripta mediante la geometría euclidiana tradicional, es decir, posee mayor detalle en escalas arbitrariamente pequeñas. Generalmente, un fractal tiene una cierta forma de autosemejanza, definido con formas muy simples, en su mayoría recursivas (de Spinadel, 2012, p. 15). Sin embargo, en el caso de la naturaleza, cada forma es única, su orden no puede ser completamente previsto por la matemática, lo que da como resultado fractales que solo pueden ser definidos mediante estructuras emergentes y no lineales, de un modo aproximado. 159 Parte III. El punto de inflexión En palabras de Mandelbrot: “Las nubes no son esferas, las montañas no son conos, las líneas de las costas no son círculos, la corteza del árbol no es lisa ni la trayectoria del relámpago es recta” (Jencks & Kropf, 2006, pp. 2-11). La primera conexión desarrollada entre los fractales y la disciplina de la arquitectura viene del mismo libro de Mandelbrot. En su introducción, el matemático polaco mencionaba al arquitecto Mies van der Rohe como el exponente de una geometría euclidiana autosemejante y aburrida, en contraste con la arquitectura desarrollada por la Beaux Arts de París, que a juicio de Mandelbrot presentaba criterios de autosimilitud, es decir, aspectos fractales. Un concepto de retroalimentación no lineal que intenta rastrear y analizar diferentes caminos. Con la popularización de los sistemas digitales, fue posible el estudio de los fractales a partir de una serie de algoritmos recursivos desarrollados mediante una computadora. Uno de los primeros arquitectos en utilizar las teorías fractales en el diseño fue el arquitecto estadounidense Peter Einsenman (1932) que, en 1978, la utilizaría como un instrumento de análisis teórico-conceptual para su proyecto House 11a. Diseñando en un preciso espacio cartesiano, Eisenman utiliza elementos geométricos con forma de “L”, superponiéndolos unos sobre otros hasta llegar a una fragmentación del espacio perceptivo. Tiempo después, en 1996, el arquitecto estadounidense Daniel Libeskind (1946) desarrollaría un proyecto para la ampliación del Museo Victoria y Alberto, de Londres. Fig. 6. House 11a. Eisenman utiliza elementos geométricos con forma de “L”, superponiéndolos unos sobre otros 160 hasta llegar a una fragmentación del espacio perceptivo. Una arquitectura fractal que rompía el paisaje ordenado del contexto: desarrollado bajo una lógica matemática de la que surge del suelo una tira plegada sobre sí misma en una espiral ascendente de seis capas. Seis cajas que se empujan hasta penetrarse en un remolino complejo de principios matemáticos. Un modelo algorítmico elaborado a partir de una tecnología digital avanzada que posibilitaba la generación de un espacio libre de columnas. Muros planos se interceptaban de acuerdo con encumbrados ángulos calculados por el estudio del ingeniero Cecil Balmond. La piel exterior se desarrollaba a partir de un patrón de mosaicos, una geometría derivada de una proporción matemática fractal. Una especie de glaciar, fragmentos geométricos de orientación y tamaño variable que contrastaban con las formas regulares del entorno. En 1998, dos años después del proyecto de Libeskind, los arquitectos suizos Jacques Herzog (1960) y Pierre de Meuron (1950) ganarían el concurso para la construcción del Nuevo Muelle de Enlace de Santa Cruz de Tenerife, en las Islas Canarias, España. Una respuesta innovadora que buscaba adaptarse al entorno, utilizando la geometría fractal de una forma novedosa. Marcelo A. Fraile - Arquitectura biodigital A partir de una fotografía satelital del sitio, la cual fue ampliada hasta su pixelación, desarrollaron un sistema geométrico de formas fractales positivas y negativas, de llenos y vacíos, que posteriormente fueron utilizadas para desarrollar el proyecto. Fig. 7. Ampliación del Museo Victoria 161 y Alberto, de Londres. Una arquitectu- Una asociación entre topografía, fotografía e informática, con el fin de configurar la morfología del edificio. Una búsqueda tectónica, un vínculo inequívoco con el sitio desde la micro a la macro escala, a través de una geometría tridimensional generada por computadora. ge del suelo una tira plegada sobre sí De este modo, el edificio se transformaba en un paisaje matemático-artificial: una manipulación digital que hace referencia a los píxeles ampliados de una pintura del artista pop Roy Lichenstein, ahora transformada en una textura serigrafiada que reviste el edificio (Curtis, 2003, p. 19). Un acercamiento a la naturaleza de un modo minimalista, una visión de la arquitectura a través de una búsqueda que pretende convertir el “lápiz de la naturaleza… en el lápiz de la arquitectura” (Kipnis, 1997, p. 15). ra fractal que rompía el paisaje ordenado del contexto: desarrollado bajo una lógica matemática de la que surmisma en una espiral ascendente de seis capas. Parte III. El punto de inflexión Fig. 8. Nuevo Muelle de Enlace de Santa Cruz de Tenerife. A partir de una fotografía satelital del sitio, ampliada hasta su pixelación, desarrollaron un sistema geométrico de formas fractales positivas y negativas, que fueron utilizadas para desarrollar el proyecto. 162 En la misma dirección que los proyectos anteriores, se encuentra el pabellón de la República de Corea para la exposición de Shanghái del 2010, diseñado por el estudio coreano Mass Studies (Minsuk Cho). Su forma compone 20 letras básicas del alfabeto coreano: una fractalidad del espacio donde los visitantes pueden experimentar un sinfín de sensaciones a lo largo de su recorrido. En el exterior, su fachada fue texturizada a través de 40.000 paneles píxeles artísticos de aluminio de 45 x 45 cm, diseñados por el artista coreano Kang Ik-Joong. Un muro masivo de arte sobre la base de azulejos pintados a mano. La fractalidad se intensifica en la planta baja, a través de un mapa 3D abstracto: una proyección sobre el suelo de imágenes de edificios y montañas de la Ciudad encogida 300 veces. Con el fin de acentuar las sensaciones interiores, cada vez que los visitantes atraviesan ese canal de fotos virtuales, su imagen era proyectada sobre Marcelo A. Fraile - Arquitectura biodigital las paredes curvas del interior e incrementaba la desmaterialización fractal del espacio. Las perforaciones existentes en los muros interiores generan una serie de luces y sombras dinámicas a lo largo del día y crean un mensaje de texto reproducido a gran escala. Una geometría fractal que “… escapa a la percepción directa… son algoritmos que solamente la computadora puede trasladar a formas y estructuras” (Spinadel de et al., 2007). Un contraste interesante lo planteaba el pabellón sueco, presentado también en la misma exposición. Diseñado por el estudio estadounidense Sueco bajo el tema sostenibilidad, innovación y comunicación. Se trata de 3000 metros cuadrados de aluminio y madera. Un cubo fragmentado a través de una modulación algorítmica del espacio, en donde se superponían una serie de líneas directrices a modo de cruce de caminos, una guía en diferentes direcciones que recuerda la estructura viaria de algunas ciudades. Desde este punto de vista, estamos ante las aspiraciones de una nueva arquitectura que no se limita a una copia formal de la naturaleza, sino que, por el contrario, aspira a la aplicación de sus leyes. Un sistema complejo y articulado “…en una red de conexiones que los mantienen unidos estableciendo su organización en una estructura funcional, tanto social como morfológicamente” (Aresta, 2012, p. 21). Caos y complejidad En 1893, el matemático francés Jules Henri Poincaré (1854-1912) publicaba su trabajo “Science et Méthode” en donde desarrollaba sus investigaciones relacionadas con el comportamiento e interacción de tres cuerpos celestes. En su modelo, Poincaré describía cómo una pequeña perturbación en el estado inicial de un sistema podía conducir eventualmente a un estado completamente diferente de este. Una situación que relativizaba los sistemas de medición ya que si estos no podían medir esa variación, resultaría imposible determinar el estado final del sistema. Fig. 9. Pabellón de la República de Corea. Una geometría fractal que “… escapa a la percepción directa… son algoritmos que solamente la computadora puede trasladar a formas y estructuras”. 163 Parte III. El punto de inflexión Fig. 10. Pabellón sueco. Un cubo fragmentado a través de una modulación algorítmica del espacio. Poincaré había utilizado ecuaciones de variación y sistemas dinámicos, un sistema matemático no-lineal que le permitía resolver la primera configuración matemática de la teoría del caos. Tiempo después, el matemático y meteorólogo estadounidense Edward Lorenz (1917-2008) desarrollaría un modelo matemático simplificado de la atmósfera que podría predecir su comportamiento en el tiempo. Al analizar los resultados de los datos atmosféricos, Lorenz descubrió que pequeñas alteraciones en las variables iniciales conducían a soluciones totalmente diferentes. En su trabajo, Lorenz había utilizado una computadora a la cual programó con ecuaciones no-lineales de 3 decimales, pero si en cambio utilizaba 6 decimales, los resultados finales eran drásticamente diferentes, haciendo imposible una previsión fidedigna en el tiempo. En 1963, Lorenz publicaría su trabajo bajo el título “Deterministic Nonperiodic Flow”, en donde exponía sus conclusiones sobre su teo- 164 ría: un sistema caótico no lineal y determinista, donde cada evento se encuentra definido por el evento anterior, aunque en la generalidad estos eventos puedan parecer aleatorios. Es un modelo sensible a las condiciones iniciales. Los sistemas caóticos exhiben irregularidades sostenidas, un sistema recursivo de una serie de variables, presentando patrones que parecen similares, aunque estos no se repiten con precisión: pequeños cambios en las variables alteran el modelo completamente. En un sistema caótico, el conjunto de fases o estados en los que se presenta el fenómeno sensible que modifica las condiciones iniciales Lorenz lo definió como “atractores extraños”: puntos de gran complejidad que alteran la trayectoria hacia las que suelen tender todas las trayectorias normales. Los atractores deterministas son regulares, matemáticamente son predecibles, y pasado un tiempo vuelven a retornar a su situación inicial, sea esta un punto fijo, un ciclo o un conjunto de puntos. Sin embargo, existen otros Marcelo A. Fraile - Arquitectura biodigital atractores extraños que no tienen trayectorias únicas, que nunca se repiten, es decir son deterministas y caóticos al mismo tiempo, estos se conocen con el nombre de “atractor de Lorenz”. En la naturaleza, estos atractores se relacionan a fenómenos de gran complejidad como los producidos en los fenómenos de turbulencia. Los hallazgos de Lorenz dieron por tierra con el universo cartesiano al relativizar y limitar las predicciones de ciertos sistemas. Para el biólogo y astrónomo norteamericano James Gleick (1954), “la nueva ciencia, llamada caos, ofrece un método para ver orden donde antes solo se observaba azar e irregularidad… enlazando especies inconexas de desorden” (2012, p. 2). Sin embargo, las teorías de Lorenz serían olvidadas hasta 1977, fecha en que el físico estadounidense Joseph Ford (1927-1995) y el profesor italiano Giulio Casati (1942) realizarían en la ciudad italiana de Como, el primer Congreso de “una ciencia llamada caos”. A partir de entonces, las teorías del caos reaparecerían con gran ímpetu aplicándose a diferentes campos del conocimiento. Por su parte, la teoría de la complejidad podría ser considerada una subteoría de la teoría del caos. Su estudio, a diferencia de un sistema caótico, no puede ser determinista e imposibilita desarrollar siquiera modelos teóricos: no se puede ni siquiera especular su resultado a partir de las variables iniciales. La teoría de la complejidad es un sistema diverso, resultado de simples reglas que generan complejos resultados a través de la integración no simple de estos. Para el sociólogo francés Edgar Morín (1921), existen siete principios básicos dentro del pensamiento complejo. Estos son: primero, el principio sistémico u organizativo: que se relaciona con el conocimiento de las partes y del todo. Para comprender el todo se debe estudiar las partes, y viceversa. Segundo, el principio holográmatico: en el que el todo está inscripto en las partes, como un reflejo.Tercero, el principio de bucle retroactivo o retroalimentación: donde la causa actúa sobre el efecto y, a su vez, este sobre la causa. Cuarto, el principio del bucle recursivo: donde se supera la noción de regulación, al incluir la autoproducción y la autoorganización. Quinto, el principio de autonomía y dependencia: donde los individuos autoorganizados y autorreproducidos son dependientes del medio (de su entorno). Sexto, el principio dialógico: una integración de lo antagónico como así también de lo complementario en una realidad indisoluble. Séptimo, el principio de reintroducción del sujeto: donde se introduce la incertidumbre en la elaboración del conocimiento; este depende de la cultura y del tiempo determinado (1998). La ciencia de la complejidad estudia los fenómenos del mundo en busca de modelos predictivos, dentro de un contexto fluctuante, un equilibrio inestable. Una relación de elementos simples que se agrupan para generar entidades con un alto grado de complejidad. Un sistema ilimitado de relaciones entre sus partes y con el 165 medioambiente. Un sistema complejo compuesto por elementos que interactúan entre sí en un sistema jerárquico de relaciones. A finales del siglo XX, con la generalización de los sistemas digitales, el concepto de complejidad se fue integrando en todos los ámbitos del conocimiento. En el campo del diseño, las teorías del caos y de la complejidad dieron lugar a modelos imprevisibles, con respuestas desproporcionadas y fragmentadas. Un concepto de subsistemas que interactuaban entre sí pero de un modo simultáneo, superponiéndose a través de capas o layer, para generar una arquitectura dinámica no lineal, de formas espiraladas, de volúmenes deformados que cambian, se torsionan y se pliegan. Una arquitectura computacional que resulta de la interacción de diversas variables, bajo una gramática formal compleja íntimamente relacionada con la naturaleza. En este sentido, uno de los ejemplos interesantes es Soft Office5 –del 2000, del estudio holandés NOX–, una oficina para una productora de televisión inglesa especializada en el público joven. 5. Exposición “Architectures non standard”, celebrada en la Galería Sur del Centro Pompidou de París, entre diciembre del 2003 y marzo del 2004, comisariada por Frédéric Migayrou. Parte III. El punto de inflexión Bajo el concepto de un espacio blando, que le permitiera entrelazar los espacios de trabajo de los adultos con la zona de juego de los niños, NOX exploraría dos técnicas contrapuestas: por un lado, indagaría en la continuidad de filamentos horizontales que se entrelazan, cosen y superponen para generar una red compleja de circulaciones y conductos; por el otro, trabajaría con el espacio perforándolo para generar un sinfín de estructuras alveolares que transformarían finalmente ese espacio en una estructura modelable, fluida y diáfana. NOX se sirve de la tecnología para desarrollar una arquitectura orgánica y flexible. Una arquitectura que oscila entre dos mundos: uno orgánico-biológico y otro metálico-electrónico. Para esto, NOX retomó los experimentos de “‘form finding” desarrollados por Frei Otto, elaborando una maqueta física con laca líquida y una red de cordones plásticos. A continuación, la maqueta fue digitalizada, y el modelo digital resultante pudo ser completado, deformado y corregido, con el objetivo de generar finamente una estructura espacial optimizada. Una composición perforada por innumerables alveolos y filamentos verticales y horizontales en perfecta continuidad. El proyecto definitivo quedó dividido en tres zonas: la frontal, destinada a los juegos infantiles; la central, de geometría variable destinada a las oficinas; y la final, cuatro ramificaciones abiertas a modo de dedos con vista a los jardines. Otro ejemplo interesante sobre el trabajo con estructuras complejas, Fig. 11. Soft Office. Una arquitectura que oscila entre dos mundos: uno orgánico- 166 biológico y otro metálico-electrónico. es la Casa Medusa o Jellyfish house, diseñada por el estudio estadounidense Iwamoto Scott Architecture en 2005. El proyecto se encuentra ubicado en un terreno ganado al mar, más precisamente en la Isla del Tesoro, una isla artificial construida fuera de la isla natural de Yerba Buena, en el centro de la bahía de San Francisco. Concebida intentando semejar una creatura marina, la casa se vincula al entorno, adaptándose a las condiciones que la rodean. El proyecto fue desarrollado a partir de una estructura matemática, una piel mutable, elaborada sobre la base de una malla paramétrica que utiliza para su generación una geometría eficiente de triangulación de Delauney y de diagramas de Voronoi. Un diseño algorítmico donde las aberturas se ubican dentro de una grilla topológica tridimensional. Una composición compleja de partes deformadas visual, estructural y mecánicamente para adaptarse al diseño. Cuatro años después, el estudio Iwamoto-Scott utilizó este tipo de sistemas para el proyecto de la Edgar Street Towers (2011, pp. 112-121), a fin de evaluar el comportamiento de los materiales de acuerdo con las conformaciones geométricas que la estructura adquiría. En caso de que el diseño se alejara de las formas más adecuadas, el sistema estaba diseñado para reconfigurarse a fin de adaptarse a las nuevas tensiones de la superficie modificada, buscando que las fuerzas es- Marcelo A. Fraile - Arquitectura biodigital tructurales encontrasen el camino de menor resistencia hacia la tierra a lo largo de cualquier superficie6. Fig. Casa Medusa. Una estructura matemática, una piel mutable, elaborada sobre la base de una malla Finalmente, un diseño interesante relacionado con el caos y la complejidad en la arquitectura es la propuesta del 2012, para la catedral de Nuestra Señora de Los Ángeles, de Xiaofeng Mei y Xiaotian Gao. paramétrica que utiliza para su generación una geometría eficiente de triangulación de Delauney y de diagramas de Voronoi. Lejos de los ángulos de 90 grados, el edificio se encuentra inspirado en formas biológicas, esqueletos, espinas y escamas de peces: una compleja forma geométrica que reinterpreta el concepto de espiritualidad. Un ambiente complejo pero acogedor que permite a los creyentes reflexionar y meditar. El camino hacia las complejas formas de la biología Significativamente, el final del siglo XX parecía querer sellar un período marcado por una profunda ansiedad y un deseo irrefrenable de cambio, que expresaba la fractura de un mundo acelerado e incierto, bajo un flagrante alejamiento de los volúmenes discretos (Kolarevic, 2003b, pp. 17-45). Un nuevo escenario asoma en el horizonte, entre los fenómenos contradictorios de volúmenes alabeados y una arquitectura monumental con fuertes características comerciales. Nuevas y complejas geometrías, curvas, continuas, fluidas y dinámicas reemplazan las vetustas geometrías euclidianas. La planta deja de tener protagonismo y es reemplazada por una lógica generativa interna: formas complejas, de inspiración orgánica, “‘fibrosas, acuosas, intermedias, ásperas, con huecos, ramificadas, como algas, extrañas, enmarañadas, tortuosas, contorneadas, delgadas, arrugadas‘” (Jencks & Kropf, 2006, pp. 2-11): una síntesis singular desarrollada a partir de un proceso no lineal, una deformación del espacio modelado mediante nuevas 6. Este tipo de trabajos llevó al descubrimiento y patentamiento de nuevos sistemas constructivos como el de una rejilla en diagonal de acero, que fue utilizada en la construcción de The Gherkin (el Pepino) de Norman Foster. 167 Parte III. El punto de inflexión 168 Fig. 12. Catedral de Nuestra Señora de Los Ángeles. El edificio se encuen- herramientas tecnológico-digitales que se ajustan a los cambios de la geometría para explorar la naturaleza. tra inspirado en formas biológicas, esqueletos, espinas y escamas de peces: una compleja forma geométrica que reinterpreta el concepto de espiritualidad. En el nuevo milenio, un nuevo método de pensamiento, con origen en lo tecnológico-digital, desafía las concepciones tradicionales del proyecto y se aparta de la geometría euclidiana y del espacio cartesiano: la caja se había fragmentado, en su reemplazo surgía una nueva arquitectura, de conformaciones complejas, de excentricidades metafóricas, de geometrías topológicas, de superficies NURBS (Non-Uniform Rational B-Splines), una arquitectura de cuatro dimensiones. Una arquitectura que se manifiesta a través de la generación de un nuevo tipo de espacios, nunca antes imaginados por el hombre. Son los aires de los tiempos nuevos, un confuso paisaje en movimiento “… brutal y delicado, de turbia violencia y belleza fugaz. En ese ruedo convulso se representan las ceremonias crueles de las postrimerías del siglo” (Fernández Galiano, 1999, pp. 78-79). Marcelo A. Fraile - Arquitectura biodigital Figuras Fig. 1. Geometria Geometría Topológica. http://enredados.cl/wp-content/ uploads/2014/09/Topo1.jpg Fig. 2. Blobwall Pabellón. https://arcspace.com/exhibition/blobwall-pavilion/ Fig. 3. Blobwall Pabellón. https://arcspace.com/exhibition/blobwall-pavilion/ Fig. 4. Villa Nurbs. http://www.ruiz-geli.com/projects/inprogress/villa-nurbs Fig. 5. Museo Kunsthaus de Graz. http://www.plataformaarquitectura.cl/cl/02273005/museo-kunsthaus-graz-genera-su-propia-energia-en-base-a-panelessolares-dispuestos-en-su-superficie-curva Fig. 6. House 11ª. https://www.facebook.com/217757261604275/photos/ pb.217757261604275.-2207520000.1473470881./1148868948493097/?type=3 &theater Fig. 7. Ampliación del Museo Victoria y Alberto. https://www.archdaily.com/768565/ ad-classics-v-and-a-spiral-daniel-libeskind-plus-cecil-balmond Fig. 8. Ampliación del puerto de Santa Cruz de Tenerife. http://www. puertosdetenerife.org/index.php/es/tf-proyecto-plaza-de-espana#prettyPhoto Fig. 9. Pabellón coreano. https://www.dezeen.com/2009/04/15/korean-pavilion-atexpo-2010-by-mass-studies/ Fig. 10. Pabellón sueco. http://www.tardeotemprano.net/swedish-pavilionshanghai-expo-2010/ Fig. 11. Soft Office, 2000. http://m.frac-centre.fr/_en/collection/art-and-architecturecollection/index-authors/authors/projects-317.html?authID=133&ensembleID=346 Fig. 12. Catedral de Nuestra Señora de Los Ángeles. http://www.formakers.eu/ project-250-xiaofeng-mei-xiaotian-gao-cathedral-of-our-lady-of-the-angels 169 Parte III. El punto de inflexión 170 Marcelo A. Fraile - Arquitectura biodigital ANOMALÍA 5. LA ECOLOGÍA: CUANDO TODO ES VERDE El hombre “… se ha comportado con el ecosistema natural del mismo modo irresponsable que un niño maleducado con una mascota: se entretiene con ella, la utiliza, la menosprecia y la maltrata”. (Garrido de, 2012, p. 14). Desde la década de los años 60, la arquitectura se ha desarrollado bajo la errónea concepción de que los recursos naturales eran para siempre: una cultura de consumo, con edificios climatizados de un modo artificial, bajo formas demasiado definidas, y un vocabulario abstracto, restringido y simplificado (Montaner, 2015, p. 108). En el mundo contemporáneo, donde más de la mitad de la población habita en espacios urbanos, los problemas del medioambiente y la búsqueda de un desarrollo sostenible se han transformado en una preocupación actual y constituyen un tema de constante vigencia en las agendas oficiales. En este sentido, se hace necesario un cambio de enfoque, un giro copernicano capaz de producir una arquitectura sostenible que incluya aquellos aspectos ecológicos y ambientales, pero teniendo presente los aspectos económicos para que los proyectos y las obras sean factibles y perdurables en el tiempo. Un lento, aunque gradual “‘enverdecimiento’ de la arquitectura” (Slessor, 1997, p. 13). Un sinnúmero de normas, reglamentos y procesos con “sello ecológico” han comenzado a ser exigidos en países como Alemania, EEUU y Canadá. La creciente preocupación por el medioambiente ha incrementado la necesidad de transformar los sistemas de producción y consumo, en una búsqueda por optimizar los recursos a fin de que estos tiendan a ser más efectivos y menos contaminantes. Nuevas estrategias apuntan a la conservación de la energía y el agua, la reutilización de estructuras, y el uso de materiales “amigables” con un máximo ahorro energético y una baja emisión de CO2 al ambiente. En este sentido, el concepto de sustentabilidad ha tenido gran repercusión en la arquitectura de los últimos veinte años: por fin somos conscientes de que la naturaleza no es inagotable. Sin embargo, en los últimos tiempos el uso indiscriminado y poco serio del término “sostenibilidad” para “… cualquier edificio en el que se haya tenido en cuenta alguna mejora en relación con el medioambiente –desde la recogida de agua de lluvia hasta el ahorro en el gasto energético, pasando por el uso de materiales ‘ecológicos’–, [ha generado] …que ‘sostenibilidad’ pueda ser todo y no quiera decir nada” (Cuerda & García Moreno, 2013). El color verde es el color políticamente correcto del siglo XXI. Verde, eco, green parecen ser atributos que en 171 su sola esencia representan todo lo positivo de la sostenibilidad. El verde elimina las diferencias, “…los edificios verdes simplemente han de ser Verdes”. El verde “…permite que la sostenibilidad pueda comprarse por metro cuadrado, puede pintarse en una pared, o pegarse a un muro. La sostenibilidad se añadirá a los filtros de photoshop para la siguiente versión”: el verde “…puede ser plástico o pintado” (Ramo, 2010, p. 141). Para la proyectista española Beatriz Ramo (1979), “los edificios Verdes pueden ser tinglados decorados o edificios patos” (2010, p. 142). Por su parte, el arquitecto Renzo Piano considera que “’es necesario que la arquitectura se comprometa con la realidad, con las cuestiones técnicas, sociológicas y antropológicas de un tiempo y un lugar. Ese compromiso, hoy en día, es la sostenibilidad’” (Miceli, 2016, p. 21). Por el contrario, el biólogo francés Jacques Mond sostiene que “…por sus caracteres específicos, es decir, por la relación entre estructuras, morfología y función, todos los productos de los seres vivos son objetos artificiales” (García, 2010, p. 147). Un razonamiento en donde Mond proponía “…una alianza entre el mundo animal y humano, entre lo natural y lo artificial”, en un equilibrio integrador. Abandonando una actitud de protección de la naturaleza, ya que esto implica “…una distancia entre hombre y naturaleza que ahora sabemos que no existe, no debemos hablar de protección, sino de comprensión del correcto engranaje del juego de interac- Parte III. El punto de inflexión ciones general” (Moreno & Olivart, 2010, p. 171). Abordar interpretaciones parciales solo conducirá a obtener resultados parciales. El consumo de energías no renovables ha llegado a valores dramáticos: más de la mitad de la energía que se consume en Europa es destinada al mantenimiento de edificios, siendo la mayor parte de esta generada a partir del consumo de combustibles fósiles no renovables (Slessor, 1997, p. 12). De acuerdo con la US Green Buinding Council (Consejo de la Construcción Verde de Estados Unidos), la industria de la construcción es una de las principales responsables de consumir el 17% del agua potable, el 40% de la energía y el 25% de la madera, lo que produce cerca del 33% de la emisión de CO2. Del high tech al eco-tech Para mediados de la década del 90, una nueva arquitectura se manifestaba en el horizonte. Una evolución de la arquitectura high tech de la década del setenta, hacia una sensibilidad por temas relacionados con la energía, el entorno y la ecología: había nacido el eco-tech. En este sentido, “…el eco-tech a diferencia de high-tech… ha pasado de glorificar irreflexivamente la tecnología a explotarla de forma selectiva para conseguir unos fines muy concretos” (Slessor, 1997, p. 7). Una búsqueda de respuestas válidas a las múltiples exigencias contemporáneas. Una exploración tecnológica, social y arquitectónica, que continúa con la obsesión por la tecnología y la expresión estructural [pero] al mismo tiempo se vuelve más ecológica” (Jencks, López-Manzanares, Chover, Navarro, & Arquitectura, 2004). Un sistema tecnológico de control ambiental capaz de predecir “…las demandas de los usuarios del edificio y responder de acuerdo con ellas” (Slessor, 1997, p. 7). Richard Roger, Renzo Piano, Ken Yeang y Norman Foster compondrían a fines del siglo XX una corta lista de arquitectos que exponían este nuevo modo de ver la arquitectura en relación con el medioambiente. El primero de los proyectos fue la Nueva Terminal 4 de Transporte Aéreo del Aeropuerto Internacional Madrid-Barajas1, del 2004, diseñado por el arquitecto británico Richard Rogers (1933). Producto de un concurso internacional convocado por AENA en 1997, el proyecto resultó ganador por sus características de “funcionalidad, atracción estética, admisión de cambios y ampliaciones futuras” (Sánchez Vidiella, 2011, pp. 16-23). Con una gran utilización de la luz natural, su mayor logro reside en los materiales empleados, “basado en parasoles de bambú y grandes claraboyas de vidrio, así como una cubierta exterior compuesta por una doble camisa de aluminio, semejante a las alas extendidas de un pájaro” (Sánchez Vidiella, 2011, pp. 16-23). 172 Un proyecto diseñado de acuerdo a grandes exigencias energéticas posee un techo ondulado desarrollado mediante un sistema de vigas metálicas, con una serie de láminas de bambú ignífugas, separadas de tal forma que permiten la iluminación natural en los diferentes niveles del aeropuerto. La fachada este-oeste está protegida por una serie de aleros profundos generados por la continuación del techo y que están encargados de proyectar distintas sombras a medida que cambia la posición del sol, mientras que el desarrollo del aeropuerto reduce su impacto con el medioambiente al beneficiarse de su orientación norte-sur. En los muelles se utilizó un sistema de bajo consumo, buscando generar un aeropuerto ecológico en armonía con el entorno. Con una visión ecológica del mundo, para Roger, “…las ciudades futuras pueden ser el trampolín para restaurar la armonía perdida entre la humanidad y su medio” (2015, pp. 11-12). 1. Este proyecto formó parte de la exposición “Richard Rogers + arquitectos. De la casa a la ciudad”. Caixa Forum Madrid, del 9 de julio al 18 de octubre de 2009. La muestra original se había inaugurado en 2007 en el Centro Pompidou de París, luego en el Design Museum de Londres en 2008, y finalmente en el la Caixa Forum Barcelona del 2009, hasta llegar a Madrid. Marcelo A. Fraile - Arquitectura biodigital El segundo de los proyectos es el Centro Cultural Tjibaou2, diseñado por el arquitecto italiano Renzo Piano (1937). Ubicado en Nouméa, fue construido entre 1991 y 1998. Está dedicado a la memoria de Jean-Marie Tjibaou, una activista que luchó por los derechos de la comunidad indígena originaria de Nueva Caledonia, Australia. El proyecto inspirado en las cabañas de la tribu Kanak respeta la tradición y la cultura del lugar a través una serie de diez “casas” de planta circular agrupadas en tres villas, cada una con una función diferente pero conectadas mediante un camino peatonal en forma de espina. La altura de las cabañas en forma de peineta, varía entre los 20 y los 28 m, mientras que su planta oscila entre los 63 m2 las pequeñas, 95 m2 las medianas y 140 m2 las grandes. El proyecto aprovecha los vientos predominantes del océano Pacífico para maximizar la ventilación natural en un clima húmedo. 173 Tanto la fachada exterior como la estructura de los pabellones están construidos con madera de iroko, muy resistente a la putrefacción y los insectos, y capaz de soportar la fuerza de los vientos de los ciclones. En una segunda capa, se ubica un filtro de vidrio: una persiana de láminas de vidrio que se abre o cierra y permite que el aire fluya a través de la construcción. Fig. 1. Nueva Terminal 4 de Transpor- La doble piel del edificio posibilita filtrar el aire caliente hacia la parte superior de la construcción, una función similar a la de una chimenea. minas de bambú ignífugas, separadas Una arquitectura que utiliza la historia como un material para construir, aprovechando los procesos de simulación por computadora, para explorar e inspirarse en nuevas formas, pero sin separarse de la historia y la tradición. del aeropuerto. 2. La exposición Proyectos de Agua. Exposición Renzo Piano Building. Workshop Proyectos de Agua. Desarrollada en el Museo Naval de Pegli, Genova, entre el 26 de septiembre y el 1 de noviembre de 2015. La exposición propone una relación que vincula el agua con los proyectos de Renzo Piano. te Aéreo del Aeropuerto Internacional Madrid-Barajas. Un proyecto diseñado de acuerdo a grandes exigencias energéticas posee un techo ondulado desarrollado mediante un sistema de vigas metálicas, con una serie de láde tal forma que permiten la iluminación natural en los diferentes niveles Parte III. El punto de inflexión El tercero de los proyectos es Editt Tower3, en la ciudad de Singapour, un proyecto de 1998, diseñado por el arquitecto malayo Ken Yeang (1948), reconocido internacionalmente por desarrollar una arquitectura verde. Pionero en el diseño de elementos pasivos para el ahorro de energía en los edificios, Yeang refuta la idea que considera que los edificios altos contribuyen a la destrucción del medioambiente. Para esto, elabora un nuevo concepto de edificio en altura, construido mediante materiales reciclados con el fin de disminuir la huella ecológica. Una estructura de 26 pisos con características de granja verde, que posibilitaría a los propietarios cosechar sus propios alimentos. El proyecto cuenta con una superficie de 855 m2 de paneles fotovoltaicos para captación de energía solar, que le permitiría reducir cerca del 40% de la demanda total de energía del edificio. 174 Fig. 2. Centro Cultural Tjibaou. El proyecto aprovecha los vientos predominantes del océano Pacífico para maximizar la ventilación natural en un clima húmedo. La doble piel del edificio posibilita filtrar el aire caliente hacia la parte superior de la construcción, una función similar a la de una La forma de cada piso, posibilita que el edificio desarrolle grandes superficies verdes a la vez de facilitar la ventilación fluida en cada nivel. Dada la alta frecuencia de lluvias de la ciudad, el edificio cuenta con un depósito que facilita el almacenamiento del agua de lluvia para su posterior utilización en riego y en las descargas de los inodoros, con lo que logra una eficiencia del 55%. Además, en el subsuelo, el edificio cuenta con una planta de tratamiento de residuos sólidos, los cuales son transformados en biogás y fertilizante. chimenea. Para Yeang “Si se desea que las ecoestructuras sean aceptadas por la gente, tienen que ser estéticamente bellas; el edificio verde ideal es aquel que es ecomimético y se integra con el ambiente natural”. 3. La exposición “Hacia otras arquitecturas: 24 proyectos sostenibles” fue desarrollada por la Fundación Canal de Madrid, del 26 de mayo al 25 de julio del 2010. Una exposición de 24 trabajos de los representantes internacionales más destacados en materia de arquitectura sostenible. Marcelo A. Fraile - Arquitectura biodigital Finalmente, el cuarto de los proyectos es 30 St Mary Axe4, de 1997. Ubicado en la ciudad de Londres, fue diseñado por el arquitecto británico Norman Foster (1935). Un proyecto que alberga la sede de Swiss Re. Se trata del primer rascacielos ecológico de la ciudad de Londres, una arquitectura sostenible que maneja las condiciones climáticas, hidrográficas y del ecosistema, para crear un catalizador entre el ambiente y el usuario. Inspirado en la Climatroffice, un proyecto diseñado por Buckminster Fuller en 1971. Con una altura de 180 metros, posee 41 plantas en una superficie de 76.400 m2. Cada planta del edificio se realizó de forma circular y adquirió diferentes dimensiones a lo largo de su altura, midiendo 40 metros en su base, 56,5 metros en su parte más ancha, hasta llegar a los 26,5 metros en el último piso: 7 arcos tangenciales que conforman el perfil geométrico de la estructura. Un modelado digital, elaborado a partir del paquete de aplicaciones de Microstation de Bentley, permitió desarrollar un diseño optimizado, donde la estética es el resultado de la aplicación de los criterios de rendimiento (Hwang, 2007, pp. 50-53). La planta del edificio está formada por “un núcleo central rodeado por un entramado de elementos triangulares de acero, interconectados en diagonal” (Ortiz, 2012, pp. 129-130). La estructura de soporte de la torre está consolidada mediante esta armadura exterior de acero, cuyas piezas fundamentales están formadas por dos potentes V invertidas que tienen la altura de dos niveles: 18 piezas que componen cada anillo estructural, hasta configurar un total de 19 anillos superpuestos. 4. La exposición “Foster + Partner. Architecture, Urbanism, Innovation”, desarrollada en el Mori Art Museum de Tokyo, del 1 de enero al 14 de febrero de 2016. La primera exposición a gran escala sobre los trabajos del estudio londinense. 175 Fig. 3. Editt Tower, Singapour. La forma de cada piso, posibilita que el edificio desarrolle grandes superficies verdes a la vez de facilitar la ventilación fluida en cada nivel. Parte III. El punto de inflexión La grilla externa de la fachada está formada por 5500 paneles de triple espesor (cristales dobles en el exterior y un cristal laminado en el interior), montados en la estructura, salvo en la cúpula. Esto permite optimizar el ingreso de luz solar sin eliminar las vistas, lo que lleva a reducir hasta en 50% el consumo de energía (Ortiz, 2012, pp. 129-130). En cada una de las plantas, se ubicaron seis pulmones que se repiten en toda la altura del edificio y crean conductos de ventilación natural que extraen el aire caliente en verano e inyectan calefacción en invierno. Fig. 4. 30 St Mary Axe. La forma ae- La forma aerodinámica del edificio “favorece el flujo de los vientos alrededor de la fachada, disminuye la presión sobre la estructura y evita que dichos vientos se dirijan hacia el nivel del suelo, donde podrían perjudi- rodinámica del edificio “favorece el car a los peatones” (Ortiz, 2012, pp. 129-130). flujo de los vientos alrededor de la fachada, disminuye la presión sobre la estructura y evita que dichos vientos 176 se dirijan hacia el nivel del suelo, donde podrían perjudicar a los peatones” (Ortiz, 2012, pp. 129-130). Modelos de alta eficiencia Con la irrupción de las cuestiones ambientales en el mundo contemporáneo, se ha presentado un nuevo enfoque en el pensamiento ecológico, una toma de conciencia en el uso eficiente de los recursos naturales, lo que reduce el consumo de energía y favorece el control de la contaminación. La introducción de fachadas verdes, cubiertas ecológicas, materiales naturales, sumado a una fuente de energía renovable como puede ser la radiación solar, el viento, el agua o la vegetación están transformando la arquitectura en un nuevo ecosistema artificial “…mucho más eficiente que el ecosistema natural con respecto a ciertos objetivos concretos. Dicho de otro modo, el ecosistema artificial podría producir estructuras complejas más eficaces, tanto desde un punto de vista energético, como funcional” (Garrido de, 2012, p. 20). En este sentido, las nuevas concepciones en el diseño entienden la arquitectura como un sistema complejo, que involucra las nuevas tecnologías digitales bajo un proceso de adaptación al ambiente que busca generar un entorno saludable para las generaciones futuras. Marcelo A. Fraile - Arquitectura biodigital A través de una gestión eficiente de la energía y de los recursos naturales, algunos arquitectos contemporáneos se encuentran experimentando sobre conceptos innovadores en el proceso proyectual: geometrías topológicas, herramientas paramétricas y nuevas plataformas digitales, buscan desarrollar una arquitectura ecosustentable producida mediante la hibridación de dos mundos: el real y el digital. Una sensibilidad emergente de alta tecnología que explora las posibilidades de los sistemas digitales mediante patrones, proporciones, códigos y símbolos que estructuran la energía y permiten conservarla y aprovecharla, libre de emisión de CO2. Uno de los ejemplos representativos en esta línea de pensamiento son las torres Al Bahr en Abu Dhabi, diseñadas en el 2009 por el estudio búlgaro Aedas que han demostrado cómo la tecnología puede ser entendida como parte del proceso de diseño y no simplemente como una herramienta para su representación. Un nuevo modo de proyectación donde la materia se ha convertido en información binaria, definida a través de un modelo tridimensional. Fig. 5. Las torres Al Bahr en Abu Dhabi. Una protección artificial móvil que impide el sobrecalentamiento y resplandor sobre la fachada del edificio, desarrollada a partir de una red de patrones geométricos triangulares repetitivos, que conforma una trama tridimensional compleja y dinámica. 177 Parte III. El punto de inflexión Una generación de nuevas herramientas que conciben el edificio como un sistema dinámico cambiante, perteneciente a un sistema mayor: un organismo que “…consume recursos, produce desechos y se relaciona de manera sistémica con el entorno” (Miceli, 2016, p. 35). Desde su concepción, los proyectistas elaboraron un diseño contextual y culturalmente sensible sin perder por esto todas las nuevas posibilidades que les aportaba la tecnología, teniendo como referente a la naturaleza para alcanzar los estándares más altos de eficiencia energética, acorde con el clima y el entorno donde se ubicaría. Bajo una geometría simple, el estudio Aedas utilizó una serie de algoritmos paramétricos, a fin de indagar cuál era la relación óptima entre el radio del edificio y la superficie exterior de la envolvente, buscando minimizar la superficie expuesta a la radiación solar. Para ello, desarrollaron una pantalla parcial que cubriera exteriormente las caras directamente expuestas a la incidencia de los rayos del sol: un aprovechamiento pasivo entendido como estrategia de captación, acumulación y distribución de la energía. Inspirada en un elemento tradicional islámico, el mashrabiva5, desarrollaron una piel artificial de alta tecnología que sirve para difuminar la luz solar a lo largo de sus 25 pisos de altura. Una protección artificial móvil que impide el sobrecalentamiento y resplandor sobre la fachada del edificio, desarrollada a partir de una red de patrones geométricos triangulares repetitivos, que conforma una trama tridimensional compleja y dinámica. En su interior, una computadora controla la forma de estos triángulos en relación con los movimientos del sol, abriéndose o cerrándose de acuerdo con la incidencia de la luz sobre estos. Las pantallas evitan el sobrecalentamiento en el interior del edificio mediante la ventilación natural, sin detrimento de su iluminación. Una directa analogía con el comportamiento de plantas nativas: la pantalla se transforma en una membrana permeable que establece una relación simbiótica entre el interior y el exterior, reduciendo en 50 % el uso de sistemas de acondicionamiento de los ambientes. Al llegar la noche, la pantalla se pliega y se guarda, y los sistemas entran en hibernación hasta el día siguiente. En la cubierta orientada al sur, una serie de células fotovoltaicas son las encargadas de producir energía eléctrica renovable que entre otras cosas alimenta los mecanismos de funcionamiento de las membranas: un edificio construido para obtener el máximo rendimiento con el mínimo impacto en el medioambiente. 178 Otro proyecto interesante al respecto, corresponde con el centro de investigaciones Hydra-Tesla, mejor conocido como Hydra Skyscraper. Un proyecto del estudio multidisciplinar de los arquitectos serbios Milos Vlastic, Vuk Djordjevic, Ana Lazovic y Milica Stankovic, quienes obtuvieron una mención de honor en el concurso internacional EVOLO del año 2011. Inspirado en la hydra6, los diseñadores proyectaron un rascacielos cuya estructura está desarrollada a partir del material de grafeno, elemento estructural básico de los alótropos de carbono. Los grafenos tienen una gran conductividad térmica y eléctrica, y una dureza 200 veces superior al acero. Conceptualmente, el edificio es como una gigantesca jaula de Faraday con tentáculos en su parte superior que durante una tormenta eléctrica capta los rayos y conduce la energía hasta la base del edificio, donde es almacenada en megabaterías. Finalmente, la energía es utilizada para producir hidrógeno a través de un proceso llamado “electrólisis del agua”, el cual divide la molécula de agua en O2 y H y utiliza este último como una fuente de energía renovable y limpia necesaria para su funcionamiento. Se trata de una nueva generación de edificios verdes que buscan reducir el impacto ambiental en el sitio bajo un menor consumo de energía utilizada en calefacción, refrigeración e iluminación, sin sacrificar el confort ni las actividades que allí se desarrollan. Edificios optimizados, con una mayor aislación de sus envolventes y 5. Elemento decorativo perforado, tradicional de la arquitectura árabe, generalmente construido en madera tallada de reducida sección, utilizado como tamiz solar. 6. La hydra es un organismo de la familia de las phylum cnidaria, que vive en el agua dulce, posee una forma tubular de simetría radial y una serie de tentáculos en uno de sus extremos con los que captura a sus presas. Marcelo A. Fraile - Arquitectura biodigital una regulación de sus actividades, a fin de proporcionar a los usuarios ambientes con control de iluminación, temperatura y visuales. Edificios con un uso eficaz del agua, con estrategias sustentables de recolección, acumulación y reciclado de aguas grises y de lluvia. Un nuevo referente, creador de una arquitectura marcada por un avanzado instrumental tecnológico-digital y un renovado interés en cuestiones ambientales. En este sentido, es importante destacar que “la nueva tecnología no es opuesta a la naturaleza, sino, al contrario, podría decirse que está creando una nueva especie de naturaleza” (Ito, 2009, p. 177). Finalmente, un tercer proyecto que plantea una mirada renovadora a este problema es el proyecto Asian Cairns, del 2013, del estudio Vincent Callebaut Architectures. Ubicado en el centro de una de las más grandes Fig. 6. Hydra Skyscraper. Un rascacielos cuya estructura está desarrollada a partir del material de grafeno, elemento estructural básico de los alótropos de carbono. Los grafenos tienen una gran conductividad térmica y eléc- metrópolis chinas del delta del río Perla, Shenzhen, el proyecto pretende trica, y una dureza 200 veces superior construir “…un prototipo de ciudad inteligente, verde, densa, conectada al acero. 179 Parte III. El punto de inflexión por los TIC y ecodiseñada a partir de las biotecnologías” (Callebaut, 2014, pp. 52-71). Para Callebaut, las actuales ciudades del mundo consumen cerca del 75% de la energía mundial y producen en el intercambio 80 % de emisión de CO2. El modelo urbano contemporáneo se puede resumir en “…por un lado, consumir energía en exceso y producir a través de la importación de riquezas y de recursos naturales; y por el otro, expedir contaminación y residuos” (Callebaut, 2014, pp. 52-71). Esto podría ser evitado a partir de la introducción del campo y los modelos de producción agrícola en el interior de las ciudades para generar pulmones verdes, rascacielos-granjas, y estaciones de energía solar y eólica. Un nuevo modelo que incorporaría los centros de producción alimenticia y energética dentro de la traza urbana, buscando de este modo reducir la emisión de carbono entre 15 y 20%. Para ello, el proyecto se conforma a partir de tres espirales entrelazadas, una alusión a los tres elementos básicos del universo: fuego, tierra y agua, siendo el aire el nexo entre estos. Cada una de las espirales envuelve dos torres y forma un ecosistema urbano que reintroduce la biodiversidad dentro de la ciudad. Para la forma de las torres, Callebaut se inspiraría en el amontonamiento artificial de piedras que se encuentra en las montañas como señalización del camino (cairns). Seis torres inscriptas dentro de un triángulo or- Fig. 7. Asian Cairns. La fachada se transforma en una piel inteligente, regenerativa y orgánica, donde los jardines no son piezas del edificio, son el edificio mismo: una arquitectura cultivable, comestible y nutritiva. 180 ganizan el proyecto, superponiendo verticalmente una serie de espacios agrícolas que serán cultivados por sus habitantes. Seis torres que reúnen en su interior viviendas, oficinas, espacios de ocio, y circulaciones, superpuestos unos sobre otros a lo largo de un bulevar central vertical que organiza el movimiento de personas, recursos y residuos. Un apilamiento de bloques mixtos que transforman la ciudad en un nuevo ecosistema, un ecobarrio densamente poblado. Una composición que na- Marcelo A. Fraile - Arquitectura biodigital turaliza los espacios públicos y privados, conforma grandes jardines suspendidos y favorece la producción de una biodiversidad orgánica y vertical. Estructuralmente, el proyecto se desarrolla a partir de un anillo de acero que se encierra alrededor de una doble cubierta horizontal. Los anillos se unen a una estructura central mediante vigas Vierendeel para generar una planta en cruz que permite obtener un máximo de flexibilidad y modulación espacial (Callebaut, 2014, pp. 52-71). La fachada se transforma en una piel inteligente, regenerativa y orgánica, donde los jardines no son piezas del edificio, son el edificio mismo: una arquitectura cultivable, comestible y nutritiva. El proyecto busca disminuir la huella ecológica al reducir la necesidad de medios de transporte y el consumo de combustibles fósiles; para esto, se prevé el reciclaje de residuos orgánicos líquidos y sólidos y el desarrollo de energía renovable, mediante una serie de células solares fotovoltaicas y fototérmicas, y la ubicación de un bosque de aerogeneradores. Un año después del proyecto Asian Cairns, Callebaut Architectures desarrollaría Hyperions, un proyecto para la ciudad de Nueva Delhi, India. Iniciado en 2014, se espera que esté terminado para el 2020. El proyecto toma su nombre del árbol Hyperion, uno de los más altos del mundo, una Sequoia Sempervirens encontrada en el norte de California, cuyo tamaño puede alcanzar 115,55 metros. El programa prevé el desarrollo de un sistema de alimentos sustentables en torno a seis torres-jardín, construidas con madera laminada cruzada (CLT) originada de los bosques de Delhi. Cada torre contará con 36 pisos de altura, estará cubierta con jardines de huertos, y será destinada a viviendas y oficinas, buscando una huella ambiental neutra. Un proyecto sostenible cuyo objetivo es reducir la emisión de CO2 en un 40% (Callebaut, 2014, pp. 52-71). Fig. 8. Hyperions. Cada torre contará con 36 pisos de altura, estará cubierta con jardines de huertos, y será destinada a viviendas y oficinas, buscando una huella ambiental neutra. Un proyecto sostenible cuyo objetivo es reducir la emisión de CO2 en 40%. 181 Parte III. El punto de inflexión La estructura fue resuelta a través de un sistema mixto: una subestructura de acero y hormigón para las cimentaciones, zonas de estacionamiento y bases verticales, resistentes a terremotos; y una superestructura hecha de columnas, vigas y paredes de madera maciza, reforzada con hojas de acero en las columnas y vigas. Cada componente estructural de madera laminada es colocado perpendicularmente entre sí, y es unido mediante clavos y aletas, o adhesivos estructurales orgánicos: 25 % de materiales inertes y 75 % de materiales de origen biológico. Una serie de farolas de viento producirán energía eléctrica, gracias a la levitación magnética de aerogeneradores de eje vertical (VAWTs) ubicados en sus soportes. Las torres cuentan además con una serie de escamas de color azul: paneles fotovoltaicos y térmicos que rodean a la fachada siguiendo el recorrido del sol. Los balcones principales y las cúpulas de vidrio de los invernaderos también cuentan con este tipo de paneles, encargados de prever climatización, agua caliente y energía eléctrica al sistema. El proyecto asegura incluso la posibilidad de recargar vehículos eléctricos en tiempo real. Detrás de las fachadas solares, se ubican los espacios flexibles, laboratorios, empresas, salas polivalentes y servicios; en tanto que en el área de balcones, destinados a los diferentes departamentos, se prevé el cultivo de alimentos a través de tecnología acuapónica. Los diferentes espacios quedan unidos entre sí por medio de pasarelas, las cuales están cubiertas bajo un gran techo verde destinado a huertos. Un espacio de encuentro que permite a los residentes moverse entre torres. La ventilación se desarrolla a través de un flujo de aire natural cruzado. Para el riego se utiliza el agua de lluvia y las aguas grises. El sistema prevé el reciclaje de residuos orgánicos, líquidos y sólidos. Una mirada sustentable al mañana A comienzos de este siglo XXI, los términos han mutado y cambiado, en algunos casos sus definiciones se hicieron menores y específicas, en otros globales y generales. Distintas generaciones de arquitectos han venido experimentando desde “…la década de 1970, hasta los ecobarrios contemporáneos, pasando por propuestas de arquitectura ecológica y tecnológica” (Montaner, 2015, p. 108). 182 El nuevo potencial de la tecnología ha sido un elemento clave, como fuerza propulsora del cambio. Para el arquitecto Rogers, estamos ante un nuevo tipo de diseño que incorpora las nuevas tecnologías, rompiendo la antigua idea platónica de un mundo estático, expresado mediante objetos finitos perfectos a los que no puede añadírsele ni quitársele nada. Un nuevo diseño interactivo que posibilita el desarrollo de estructuras, servicios, materiales y ecología para crear una arquitectura que ofrezca una variedad mucho más amplia (Slessor, 1997, p. 7). Un tipo de arquitectura versátil, estrechamente relacionada con el medioambiente, energéticamente autosuficiente. En su esencia aspira a ser una buena arquitectura, una solución a los problemas de su época, un desplazamiento de las características ecológicas de nuestro mundo. En este contexto, sería absurdo pretender que “el diseño salvará al mundo”; por el contrario, lo que se pretende es producir un adecuado diseño de los elementos que componen nuestro entorno, a fin de mejorar nuestra calidad de vida sin que esto genere un impacto nocivo en el medioambiente. Es imperativo un cambio de mentalidad, en donde el diseño en la arquitectura no se conforme con la búsqueda de un ahorro energético, el reciclaje de residuos, o la reducción de la contaminación; se requiere de nuevos proyectos más ambiciosos, que busquen integrarse con el ambiente respondiendo a intereses sociales y a valores económicos aceptables como mecanismos que permitan mejorar la calidad de vida de sus ciudadanos. Marcelo A. Fraile - Arquitectura biodigital Una arquitectura autosuficiente que reemplace la arquitectura pesada y rígida por una nueva de materiales moldeables, en equilibrio con los recursos propios y del entorno. Una serie de formas definidas a través de sistemas digitales sobre las que se ha de operar indirectamente. Para Cristina Díaz Moreno y Efrén García Grinda, son los jardineros digitales, “…los criadores de especies de ceros y unos, [que] definen sus especies y trabajan sobre ellas a través de interfaces, en secuencias de líneas y órdenes escritas” (Díaz Moreno & Garcia Grinda, 2009, p. 240). Una nueva arquitectura, de nuevos materiales, recubierta por una membrana, “…una epidermis flexible y suave, como nuestra piel, que nos proteja del mundo exterior, permitiendo a través de sensores intercambiar información con este” (Ito, 2009, p. 181). Figuras Fig. 1. Nueva Terminal 4 de Transporte Aéreo del Aeropuerto Internacional Madrid-Barajas. https://www.rsh-p.com/ projects/t4-madrid-barajas-airport/ Fig. 2. Centro Cultura Tjibaou. https://www.archdaily.com/600641/ad-classics-centre-culturel-jean-marie-tjibaou-renzopiano/540e037dc07a808f0a000104-ad-classics-centre-culturel-jean-marie-tjibaou-renzo-piano-solar-diagram Fig. 3. Editt Tower. https://www.plataformaarquitectura.cl/cl/02-11126/editt-tower-tr-hamzah-yang Fig. 4. 30 St Mary Axe. https://www.fosterandpartners.com/es/projects/30-st-mary-axe/#gallery Fig. 5. Torres Al Bahar. https://es.wikiarquitectura.com/index.php/Torres_Al_Bahar Fig. 6. Hydra Skyscraper. http://www.evolo.us/competition/hydra-skyscraper/ Fig. 7. Asian Cairns. https://www.dezeen.com/2013/03/21/asian-cairns-by-vincent-callebaut/ Fig. 8. Hyperions. http://vincent.callebaut.org/object/160220_hyperions/hyperions/projects/user 183 Parte III. El punto de inflexión 184 Marcelo A. Fraile - Arquitectura biodigital ANOMALÍA 6. LOS METADISEÑADORES “El futuro cibernético soñado por el maquinismo del siglo XX no ha traído robots, sino la extensión del uso de internet como herramienta de información y comunicación colectiva”. (Carpo, 2009, pp. 19-25). Los diseñadores del nuevo paradigma El siglo XX nos ha legado un mundo en crisis, dinámico y flexible, que ha convertido a los seres humanos en una cibercultura; nuestra vida se ha complejizado como en ningún otro momento que la humanidad haya experimentado previamente. Un mundo donde las relaciones entre ciencia, naturaleza y arquitectura se han modificado y han dado paso a un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar el diseño, a través del uso inteligente de las cualidades de los medios electrónicos. Dentro de este marco, el diseño ha sufrido grandes transformaciones en el nuevo milenio. Su capacidad de innovación, a través del uso de nuevas herramientas digitales, ha producido la evolución del trabajo de los proyectistas hacia derroteros irreconocibles, incluso en problemas convencionales: un modo diferente de pensar los procesos de diseño que permite alcanzar nuevas soluciones. Frente a este planteo, se exige el nacimiento de nuevos diseñadores: jóvenes investigadores abiertos a los cambios, capaces de producir un nuevo vocabulario con nuevas herramientas, y que –con un enfoque interdisciplinario–, tratarán de engendrar nuevas teorías para resolver las nuevas anomalías, en una búsqueda incesante de mayor eficiencia, optimizando los resultados, disolviendo las fronteras de la especificidad que representan una renovación y ampliación de sus posibilidades. A esta nueva generación de jóvenes creadores, el psicólogo americano Richard Farson (1926) los denominó “metadiseñadores”: término que ha sido utilizado a través del tiempo para referirse a diferentes conceptos y matices, pero que aquí es empleado con un sentido superador. El prefijo griego meta es aplicado como ‘sobre’, un rango superior que el del diseño tradicional; sus protagonistas han evolucionado desde meros creadores a diligentes investigadores; reconocen el valor de los sistemas digitales, “…como una fuerza tecnológica autónoma, imposible de detener y que nos incluye a todos sin excepción” (Farson, 1995). Para la doctora holandesa Elisa Giaccardi, presidenta de Diseño de medios interactivos de la Universidad Tec- 185 nológica de Delf, el origen de la palabra metadiseñador puede rastrearse dentro del campo del diseño industrial, más precisamente en el diseñador holandés Andries Van Onck (1928): en 1965, Van Onck había viajado a Brasil con el objeto de dar una serie de cursos titulados “Metadiseño”, en la Faculdade de Arquitetura e Urbanismo da Universidade São Paulo y en la Federação das indústrias do Estado de São Paulo. Aprovechando la visita de Van Onck, la revista “Produto e linguagem” de la ABDI (Associação Brasileira de Desenho Industrial) publicaría un artículo titulado “Metadesign” donde Van Onck definía el metadiseño como una metalengua que precede al proyecto en particular, un diálogo general y abstracto. Utilizando los procesos de diseño de Antoni Gaudí, Max Bill y Gerrit Rietveld, Van Onck lo describía como un “lenguaje visual formal” utilizado por cada diseñador (1965, pp. 27-31). En el siglo XXI, el concepto de metadiseño se relaciona con los procesos de proyecto como una respuesta a los cambios y transformaciones que tienen lugar en el mundo contemporáneo, y promueven una forma de diseño fluida y colaborativa, bajo un replanteo de los límites y las metodologías (Teixeira De Almeida, 2014). Los metadiseñadores contrastan con la excesiva especificidad de los diseñadores convencionales y su incapacidad para enfrentarse a los nuevos problemas del siglo XXI. Conciben el diseño integrado en un sistema que da soporte a la inteligencia colectiva, lo que posibilita el trabajo en equipo para generar nuevas perspectivas en Parte III. El punto de inflexión el proyecto. Una concepción de la disciplina que, invadida por el pensamiento de otros campos, sobrepasa sus límites tradicionales para indagar en sus bordes y amenaza el reformular la arquitectura en forma irreconocible; un pensar desde fuera que fortalece la creatividad del diseñador y permite explorar múltiples oportunidades. Con un enfoque social, estos profesionales contemporáneos requieren de un proceso de readaptación frente a este nuevo contexto, a cambio ofrecen perspectivas más amplias de los modos y los criterios en que los diseñadores trabajan. En este sentido, Giaccardi considera que el metadiseño puede ser definido de tres posibles maneras: 1. “‘detrás / después’, que se refiere al diseño del diseño”, es decir el diseño del proceso de diseño; 2. “‘por’, diseñar juntos”, bajo la modalidad de un diseño interdisciplinario y reflexivo; y 3. “‘entre’, añadiendo conceptos tales como la interactividad y la cocreación” (Teixeira De Almeida, 2014). Conceptualmente, estas definiciones no son contrapuestas, por el contrario “…no solo pueden coexistir, sino que parecen ser complementarias” (Kalwill, 2008, pp. 130-132). Por su parte, el teórico francés Paul Virilio (1932) considera que los diseñadores de la era industrial serán relevados por los metadiseñadores, individuos neurológicamente mejor adaptados a los medios electrónicos (1996, p. 111). Completa esta idea el doctor Ciao Vassão, de la Universidade São Paulo, que considera que el concepto de metadiseño incluye las costumbres y el diálogo social, un “control sutil de los elementos sumergidos en la complejidad de este superorganismo que los teóricos y tecnólogos de emergencia sitúan en la sociedad urbana contemporánea” (Vassão, 2010). Estos metadiseñadores despliegan una mirada que va más allá de lo habitual, que utilizan la tecnología digital como una herramienta generativa de formas con base en la naturaleza; toman prestada la teoría de la evolución por medio de la selección natural de Darwin (1871) para aplicarla al diseño y a la producción digital de una “arquitectura viva”. En este sentido, el epistemólogo evolutivo inglés Ken Fairclough considera que el metadiseño puede asimilarse bajo un carácter ecomimético donde a través del uso de las nuevas tecnologías sería posible imitar la naturaleza de una manera eficaz, como una política de supervivencia a futuro (Teixeira De Almeida, 2014). Desde este enfoque, el muro puede ser considerado como una membrana celular en un proceso continuo de crecimiento selectivo, con un alto grado de adaptabilidad individual, capaz de automantenerse, de autorreproducirse y, potencialmente, de evolucionar. 186 A partir de un pensamiento analítico, los metadiseñadores se transforman en planificadores: adoptan y se apropian de una multiplicidad de herramientas tecnológico-digitales que integran otras disciplinas como la ingeniería informática, pasando por la biología e incluso la pintura. El teórico de las artes digitales Gene Youngblood (1942) considera el metadiseño como el nuevo modo en que las vanguardias se expresan (Sastre Domínguez, 2016, pp. 193-215). Es lo que el profesor Branco Kolarevic denomina master builder (maestro constructor), en referencia al nuevo modo de producción arquitectónica que utiliza las herramientas CAD/CAM para desarrollar sus obras. De manera análoga, el arquitecto chileno Diego Pinochet considera que la producción de estos proyectistas “…no se limita solamente a una forma determinada, sino que pasan a diseñar sistemas, herramientas y el proceso integral del diseño, mediante el cual pueden producir MODELOS DE INFORMACIÓN, que incorporan la variable constructiva desde el inicio del proceso” (Pinochet, 2009, p. 37 y ss.) hasta la obtención de resultados. Para el profesor John Wood, esto se debe a que el metadiseño es cualitativamente diferente del diseño convencional porque es demasiado complejo para ser predictivo (2015): se requiere de ajustes constantes que favorezcan la innovación, apoyados bajo una nueva gama de herramientas. Esta nueva escala de los instrumentos permite, según la doctora Elizabeth Sanders, una etapa superadora “…donde la intención es crear algo que no se conoce de antemano”, explorar nuevas formas inspiradas en la naturaleza, que buscan dar respuestas adecuadas a las características del contexto. Marcelo A. Fraile - Arquitectura biodigital A partir de lo antes enunciado, es posible identificar cuatro características, cuatro ejes que nos permitirán definir con una mayor precisión a esta nueva generación de diseñadores. Estas son: la proyectación digital; los colectivos arquitectónicos; el saber transdisciplinar y el artesano digital. La proyectación digital Como instrumento de proyectación, las computadoras han aportado a la visión convencional de la arquitectura más argumentos para pretender desarrollar formas nuevas, manteniendo un fuerte deseo de control y legitimando la voluntad de situar a sus obras fuera del tiempo. Su utilización ha generado un nuevo diseño, digital por naturaleza, en la que las geometrías complejas y sinuosas surgidas del mundo virtual en la pantalla plantean una pretendida liberación de las formas y espacios mediante una construcción de redes y corrientes, fluidas y transparentes, líquidas y dinámicas, a veces arbitrarias y generalmente poco relacionadas con el contexto (Montaner, 2015, p. 22). Para el arquitecto español Josep María Montaner (1954), el paso del dibujo de tablero al de la computadora –de lo analógico a lo digital en la arquitectura–, ha sido tan crucial como la invención de la perspectiva durante el Renacimiento (2015, p. 22). Una arquitectura inspirada en formas naturales, con base en la matemática, en la biología y en la química. Una propuesta de vanguardia donde las superficies “crecen” mediante la aplicación de teorías morfogenéticas. Formas que evolucionan en tres dimensiones mediante leyes que se atraen o repelen como resultado de agentes ambientales, y generan patrones deseados, de acuerdo con parámetros ajustados por el diseñador. Frente a este enfoque, es de comprender que estamos ante una nueva generación de diseñadores, los llamados “nativos digitales” quienes han comenzado ya a enseñar en las principales universidades del mundo y han introducido los primeros estudios de diseño en los que el papel hace tiempo fue reemplazado por bits de información. Diseñadores emergentes, impulsados por un progreso científico, que han desarrollado importantes mutaciones hacia el mundo de los blobs, las formas complejas y los algoritmos paramétricos. Diseñadores editores, capaces de modificar las leyes internas de los sistemas proyectados, alterar las cualidades estáticas de los espacios perspectivicos, “borrando los límites entre lo animado y lo inanimado, entre el exterior y el interior, entre aquí y allá, entre lo natural y lo artificial” (Prestinenza Puglisi, 2009). En este sentido, para Montaner, “estaban más cerca en la manera de proyectar Andrea Palladio o Karl Freidrich 187 Schinkel y lo arquitectos modernos…, que todos ellos con relación a los arquitectos contemporáneos” (2015, p. 22). De manera análoga, para el profesor estadounidense Nicholas Negroponte (1943), las computadoras actuarían en el diseño como un ayudante cibernético, un catalizador de las creaciones arquitectónicas dentro de un mundo computable y digital. Una guía que conduciría hacia el desarrollo de proyectos dinámicos, fluidos y orgánicos, un modelo evolutivo que buscaba “…abarcar mayores zonas con menos materiales, a ir más rápido con menos consumo de energía, y creando más productos y, por consiguiente, un tipo conservador de libertad con trabajo menos arduo” (Jencks, 2000, p. 15). Los colectivos arquitectónicos Nos guste o no, somos parte de un mundo globalizado, en constante cambio y mutación, un proceso donde la inteligencia colectiva, a través de una participación digital, ha posibilitado una conectividad interactiva a escala mundial. En este proceso, la web ha evolucionado desde las primeras tecnologías de información monodireccionales hasta una red de información totalmente simétrica y bidireccional. Una nueva plataforma en la que la división Parte III. El punto de inflexión entre emisor y receptor, entre usuario y producto, ha desaparecido, “Puesto que ahora cada nodo de la red puede ser al mismo tiempo receptor y emisor de información” (Carpo, 2009, pp. 19-25). La introducción de la tecnología digital en el mundo contemporáneo ha transformado muchas de las disciplinas tradicionales del conocimiento. En arquitectura, la rápida inserción de los sistemas digitales y virtuales ha modificado sustancialmente el modo de diseñar y de acercarse al proceso proyectual. El metadiseñador encuentra en la red una herramienta apta para la exploración, el intercambio y la evolución de sus objetos: una construcción sinérgica, como expresión de un nuevo lenguaje. En este ámbito, la idea de “autor” poco a poco comienza a esfumarse, alejándose del modelo planteado por Leon Battista Alberti (1404-1472) que afirmaba que las obras del intelecto, incluidas las obras de arquitectura, tenían autor y un arquetipo que debían ser reproducidos idénticamente por quienes la ejecutasen; siendo reemplazada por la idea de “colectivo arquitectónico”, donde la identidad de sus creadores se diluye en favor de una producción más seductora y anónima (Carpo, 2009, pp. 19-25). Los nuevos diseñadores parecen resistir el concepto de autor individual en pos de una arquitectura colectiva, virtual, vinculada a las tareas de diferentes profesionales y estudios, ubicados en distintos continentes, con diferentes zonas horarias, lo cual facilita una rápida construcción de documentación y prototipado de objetos y espacios (Maver, 2004, p. 11). En este contexto técnico y cultural, el control del autor sobre la obra proyectada solo podría ser muy leve, y en definitiva la propiedad del diseño original podría llevar a confusiones o, en el peor de los casos, a perderse con el tiempo. En consecuencia, la figura del individuo autor fue reemplazada por un nuevo tipo de símbolo: “los colectivos de arquitectura”, una plataforma participativa de integración digital que en cierta forma evoca los “… modo[s] de construir colectivo[s] y a veces anónimo[s] habitual[es] en las obras medievales antes de la revolución humanista” (Carpo, 2009, pp. 19-25). La palabra colectivo, de acuerdo al Diccionario de la Real Academia Española, proviene del latín collectīvus, “perteneciente o relativo a una agrupación de individuos… un grupo unido por lazos profesionales, laborales, etcétera” (RAE, Asale, 2014), es decir “una agrupación social donde sus integrantes comparten ciertas características o trabajan en conjunto por el cumplimiento de un objetivo común” (Perez Porto & Gardey, 2013). Históricamente, el colectivo fue la estrategia que permitió a los individuos desamparados sobrevivir a su soledad, 188 lo que les posibilitó autoafirmarse como personas (Bauman, 1999, p. 38). El colectivo se organiza a partir de un compromiso comunitario, un cambio de mentalidad que deja el “yo” para reemplazarlo por el “nosotros”: una conexión lejana con las vanguardias revolucionarias y el colectivo creativo de Tatlin (Fernández Galiano, 2012, p. 3). El término colectivo comprende un amplio y complejo fenómeno, surgido en las primeras décadas del siglo XXI, que identifica por lo general a grupos de jóvenes arquitectos y diseñadores, organizados para trabajar, colaborar y aprender en conjunto, de un modo virtual. Un modelo que rechaza la indiferente “arquitectura de autor”, patrocinada por arquitectos rockstars que buscan su reconocimiento internacional a través de la expresión de sus deslumbrantes soluciones formales, “…construyen[do] sus propios horizontes teóricos dentro de los cuales colocarse” (Prestinenza Puglisi, 2009). En contraposición, y bajo una voz anónima, los colectivos experimentan un nuevo modo de hacer arquitectura; su función es la de producir y articular un proceso colectivo de creación, producción y gestión profesional en forma conjunta, un intercambio, social, cultural, económico y político, enfocado en el progreso y la participación de las personas. Marcelo A. Fraile - Arquitectura biodigital Una nueva fórmula de gran éxito entre los arquitectos juniors “…que prefieren aprender por su cuenta lo que otros esperan conocer trabajando en un estudio de prestigio” (Lacalle, 2010, p. 184). Para el arquitecto español Andrés Jaque (1971), estas agrupaciones posibilitan la unión de jóvenes diseñadores con el fin de adquirir experiencia y compartir su banco de ideas en concursos de obras. Profesionales radicalmente distintos de los diseñadores de la era mecanicista desarrollan sus proyectos bajo un trabajo interdisciplinar, potencian la comparación y la confrontación, buscan expandir la profesión hacia nuevos horizontes, reformulan los aspectos esenciales de la práctica del diseño y la generación de nuevas plataformas para compartir sus experiencias disciplinares. Independiente de su geografía, los colectivos pueden operar en cualquier entorno, sea este urbano o rural. Se caracterizan por poseer una estructura absolutamente horizontal, abierta y participativa. Para el filósofo y sociólogo francés Bruno Latour, estamos ante “la interconexión de una nueva clase de objeto y sujeto” (Carpo, 2009, pp. 19-25). Un modelo cultural y profesional nuevo, propio de este tiempo, intensamente influido por los imaginarios de la cultura digital (Estalella, 2015). En este sentido, solo la red parece el medio indicado para resistir la complejidad de las relaciones, intereses y resultados que se están formando. Una herramienta de pensar colectivo que se fue extendiendo por el mundo de la misma manera en que los problemas económicos iban esparciéndose. Uno de los colectivos más antiguos es Zuloark. Ganadores del concurso 2004 para estudiantes, organizado por la revista “Quaderns”, para el diseño de 400.000 viviendas en tres localizaciones de Cataluña. El colectivo cuenta con más de cuarenta personas entre arquitectos y estudiantes de arquitectura, con dos únicas condiciones para formar parte del grupo: en primer lugar, comprometerse a ser generoso con los conocimientos y las habilidades que cada uno atesora; y en segundo lugar, asegurarse de acreditar la producción del grupo únicamente a la marca corporativa Zuloark. Para este colectivo, la decisión la toma siempre el que en ese momento está haciendo el trabajo. Si algo no te convence, ¡añádele algo más! No se trata de consensuar, sino de encontrar fórmulas para desarrollar producciones singulares, y casi siempre individuales, que puedan enlazarse con otras (Lacalle, 2010, p. 184). Desde este punto de vista, hoy en día parece casi imposible considerar el trabajar en solitario. Para el profesor Deen Kith Simonton, investigador de la Universidad de California, este nuevo fenómeno se debe a tres motivos principales: en primer lugar, a lo complejo que se ha convertido el conocimiento; en segundo lugar, a la utilización en algunas áreas de investigación de grandes y costosos equipos experimentales; y finalmente en 189 tercer lugar, al alto grado de especialización al que se ha llegado en la ciencia (Lahoz-Beltra, 2004, pp. 28-35). Sin embargo, con un espíritu crítico, el arquitecto español Carlos Lacalle, profesor de la Universitat Politècnica de València, considera que en realidad no es que el “yo” haya desaparecido definitivamente, y ahora solo tenga validez lo colectivo, quizás sea solo una manera contemporánea de eludir responsabilidades. Lo cierto es que aún no están claros sus compromisos civiles, su encarnación unipersonal, su situación fiscal, o su oportunidad de mercado: “Pero lo que no cabe duda es que sus webs, …tienen más visitas que las de la mayoría de los grandes estudios. Y eso, en los tiempos que corren, algo debe significar” (Lacalle, 2010, p. 184). El saber transdisciplinar De acuerdo con el profesor William H Newell, la transdisciplina es la transformación e integración del conocimiento desde todas las perspectivas interesadas para definir y abordar problemas complejos”. (McDonell, 1998). En 1944, el premio Nobel de física, el austriaco Erwin Schrödinger (1887-1961), publicaba “la dimensión física de la célula viva” donde planteaba desde una óptica físico-química una serie de conceptos relacionados con el campo de la biología. Parte III. El punto de inflexión Bajo un trasfondo teórico, su trabajo sentaba las bases de un nuevo modo de reestructurar el conocimiento desde una perspectiva unificada. Una investigación colaborativa, híbrida, con interacción disciplinar, que cuestionaba el modo de pensar individual de la ciencia. Desde este punto de vista, la antigua mirada estática y determinista, heredada de las ciencias clásicas, contrasta drásticamente con la complejidad que nos proponen estos nuevos enfoques del mundo contemporáneo. Las prácticas proyectuales han debido cambiar para adecuarse a un contexto mucho más confuso, donde intervienen un mayor número de variables que precisan de diversos especialistas para su resolución. En este sentido, es importante destacar que “Ya no se intenta reunir distintos saberes, sino desdibujar sus límites para producir una lectura transversal” (Giménez, Miras, & Valentino, 2011, p. 19). Una nueva posición donde conviven diseñadores, artistas, biólogos e ingenieros, abordando los estudios digitales como herramientas para borrar las fronteras y producir solapes disciplinares. Tal como lo plantea el diseñador mexicano Fernando Martín Juez, el pensamiento simple ya no es suficiente para resolver acabadamente los nuevos problemas de diseño, se requiere de un pensamiento complejo que incluya nuevas estrategias y un trabajo transdisciplinar (Martín Juez, 2002). En consecuencia, el metadiseñador elabora un nuevo modo de trabajo intelectual bajo un formato de interconexión, con una apertura a otros saberes y conocimientos donde lo tecnológico, lo artístico, lo económico, lo constructivo y lo digital se vinculan, influencian e interrelacionan, y dan lugar a un nuevo tipo de arquitectura. El artesano digital De acuerdo al diccionario de la real academia española, la palabra artesano deriva del vocablo italiana “artigiano”, y se refiere a aquella “persona que ejercita un arte u oficio meramente mecánico. U. moFig. 1. Uno de los colectivos más anti- 190 guos es Zuloark. Ganadores del con- curso 2004 para estudiantes, organizado por la revista “Quaderns”, para el diseño de 400.000 viviendas en tres localizaciones de Cataluña. dernamente para referirse a quien hace por su cuenta objetos de uso doméstico imprimiéndoles un sello personal, a diferencia del obrero fabril” (RAE, Asale, 2014). La gran herencia de la Revolución Industrial fue la pérdida de control de los procesos de fabricación que transformó al artesano en un obrero encargado de hacer únicamente tareas repetitivas de partes. El paradigma mecanicista había mudado al artesano “de ese taller en el hogar o cerca de él, para hacerlo ir lejos, a un espacio mucho más grande, a una nave industrial” (Rodríguez De Las Heras, 2016). Sin embargo, con la llegada del siglo XXI, una nueva tecnología se abría camino en un mundo digital en evolución, y aquello que habíamos dado por perdido a causa de los avances de la sociedad mecanicista reapareció para sorpresa nuestra y nos exige reinterpretarlo a la luz de este nuevo contexto (Rodríguez De Las Heras, 2016). Un mundo artificial binario se ha asociado con la fabricación asistida por computadora para dar paso a una nueva generación de artesanos, ahora Marcelo A. Fraile - Arquitectura biodigital digitales, que han borrado la frontera trazada por el “paradigma albertiano” que dividía la obra intelectual de lo puramente mecánico: “…puesto que la línea que separa el diseño de la producción puede cruzarse actualmente a voluntad y en ambas direcciones, sin apenas coste” (Carpo, 2009, pp. 19-25). Un cambio conceptual en la forma de entender la producción que, en lugar de trabajar con materiales como la arcilla, la madera o el hierro, aplican sus habilidades a un material compuesto por ceros y unos (Rodríguez De Las Heras, 2016). En este sentido, para el empresario estadounidense Avi Reichental, la tecnología digital, más que conectarnos con el futuro, supondrá una vuelta a la producción artesanal donde los objetos serán producidos de un modo personalizado, a medida, y fabricados de un modo local en talleres propios (Garcimartin, 2014). En poco tiempo, el diseñador ha pasado de la búsqueda de una integración vertical del CAD/CAM a una integración horizontal interactiva, en un esfuerzo por conectar a todos los agentes (humanos y tecnológicos) que participan en las diferentes fases del proceso de diseño (Carpo, 2009, pp. 19-25). De esta forma, el artesano digital se presenta como un trabajador libre, de tiempo flexibles y autónomo, poseedor de nuevas habilidades y capacidades programáticas para moldear la nueva materia prima compuesta por ceros y unos. Por su parte, el licenciado Antonio Rodríguez De Las Heras (1947), catedrático de la Universidad Carlos III de Madrid, prefiere llamarlos “estilitas digitales”. En el pasado, los estilitas eran eremitas que vivían encima de una columna, prescindiendo del espacio con el objeto de realizar su camino ascético; en tanto que “los estilitas digitales” habitan el espacio sin lugar, sin distancia y sin tiempo de la red, organizan su vida desde esas posibilidades espacio-temporales y miran el mundo desde esa liberación (2016). Una evolución del diseñador, de una posición estable y poco dinámica hacia una hibridación acelerada que, a partir de la información física, digital y técnica, es generador de nuevos medios de producción, nuevos materiales y nuevos espacios (Dollens & Planella, 2002, p. 21). Mediante esta tecnología interactiva, se ha producido un sorprendente salto creativo que permite que las obras puedan reproducirse mediante copias en serie, idénticas o diferenciadas. Las tecnologías digitales han vuelto a unir el proyecto de la producción, algo que el paradigma mecanicista había separado. Una nueva forma de participación en el proyecto donde el metadiseñador –mediante la aplicación de toda una gama de nuevas herramientas, y de acuerdo a un catálogo de infinitas versiones o variaciones de un objeto–, podrá decidir qué formas emergentes serán las más apropiadas para utilizar (Dunn & Casasnovas, 2012, p. 120). Para el licenciado en Derecho, el español Juanjo Caba, existe una relación directa entre la forma de entender el trabajo del artesano digital y la “Ética Hacker”: en ambos casos, las tareas “se realiza[n] con pasión, con independencia, con libertad, con interés. Busca[n] la adaptabilidad, pero no solo del trabajador al puesto de trabajo, sino también del puesto de trabajo a las características y circunstancias de la persona que lo realiza” (Caba, 2016). Es un cambio conceptual en la forma de entender las nuevas relaciones laborales en el mundo contemporáneo. Un espíritu de vanguardia que responde a las variaciones apenas perceptibles por la sociedad presente; un modo de actuar que busca la creación de nuevos medios y formas de expresión, a través de un sistema y un lenguaje renovado (Zátonyi, 2011, p. 73). Un diseño solo accesible para aquellos que cuentan con la tecnología y la formación adecuada, dispuestos a romper con la tradición y, a partir de esto, desarrollar y materializar sus propios diseños, un proceso “…do it yourself” (hazlo tú mismo). 191 Parte III. El punto de inflexión Las jóvenes promesas Hoy parece imposible concebir un mundo sin computadoras. La cultura digital se ha introducido en el mundo contemporáneo y en el ejercicio profesional de la disciplina; ha eliminado los pasos intermedios y ha hecho que el propio diseñador sea el responsable de la idea y de la materialización del proyecto. En muy poco tiempo, las computadoras han sustituido los tableros de dibujo, pasando de representar el espacio, a configurarlo y finalmente a materializarlo. En este sentido, para el arquitecto suizo Gerhard Schimitt (1953), decano de la Facultad de Arquitectura de Zurich, el diseño asistido por computadora ha permitido enriquecer el entorno construido al proporcionar los mejores instrumentos y métodos para la creación de una nueva arquitectura (1999, p. 5). Los nuevos diseñadores han abandonado las plantas y secciones en favor de modelos tridimensionales donde es posible imaginar cualquier espacio, una evolución de la arquitectura virtual, capaz de ser observada, recorrida, experimentada. Una arquitectura que en su fabricación recurre a componentes prefabricados, coordinados y ensamblados, para desarrollar una construcción de precisión milimétrica donde las medidas y las proporciones están pensadas en términos digitales, bajo un control riguroso de su geometría. De igual modo, el mercado laboral también ha cambiado: las nuevas generaciones de arquitectos son plenamente conscientes de la necesidad de adquirir constantemente conocimientos profundos, relacionados con el manejo del software durante el proyecto arquitectónico. En consecuencia, la figura del arquitecto en términos de “productor de objetos” ha cambiado hacia el concepto de “estratega de procesos”. Ahora no se trata de diseñar la forma, sino de propiciar las reglas del juego; los procesos son ahora los que importan (López Fernández, 2009, p. 87). En este sentido, dos miradas se cuestionan el paso de lo digital en la profesión del diseñador. Para algunos, el debate se encuentra entre quienes consideran que estas nuevas tecnologías están cambiando el modo en que se generan los procesos proyectuales, al modificar el punto de vista de la disciplina y generar nuevas formas y nuevos sistemas digitales, a este grupo pertenece el chileno Pedro Alonso o el americano Karl Chu (1950), quienes consideran lo digital no como un cuerpo monolítico de conceptos y saberes, sino más bien como un campo de batalla en el que confluyen una multiplicidad de discursos que entran en disputa continuamente. Sin embargo, para otros, lo verdaderamente revolucionario de lo digital se encuentra en su relación con la materialidad y el desarrollo de nuevos procesos de diseño y construcción, a este grupo pertenecen diseñadores como el chileno Sergio Araya, o el ceilanés nacionalizado británico Cecil Balmond (1943), quienes utilizan lo digital para 192 cuestionar y en cierto sentido dar por superada la idea del proyecto, entendida esta como la composición de elementos conocidos de antemano y puestos en relación a partir de un conjunto fijo y cerrado de reglas y acciones, una racionalización de formas complejas como una herramienta para la construcción (Mondragón, 2009, p. 8). La disputa no ha sido zanjeada aún, tanto la multiplicidad de los campos de aplicación, como su doble enfoque proyectual son un reflejo del estado de crisis contemporáneo. El acceso a la tecnología digital ha supuesto un estímulo a través del cual dar inicio a una nueva revolución en el seno mismo de la arquitectura, así como también un cambio gestáltico en la figura del diseñador que utiliza estos nuevos instrumentos para proyectar. Previamente, será necesario reconocer en la computadora y en la tecnología digital los méritos de una herramienta capaz de proyectar y materializar una arquitectura que hasta hace muy poco tiempo resultaban impensables. Figuras Fig. 1. Colectivo Zuloark. https://www.plataformaarquitectura.cl/cl/tag/zuloark Marcelo A. Fraile - Arquitectura biodigital ANOMALÍA 7. EL DISEÑO PARAMÉTRICO “El arquitecto debe ser un profeta… si no puede ver por lo menos diez años hacia delante, no lo llamen arquitecto”. (Sacriste, 2006). De acuerdo al Diccionario de la Real Academia Española, la palabra paramétrico deriva del vocablo ‘parámetro’, un término procedente de la matemática que hace alusión a un “dato o factor que se toma como necesario para analizar o valorar una situación”, una “variable [independiente] que, en una familia de elementos, sirve para identificar cada uno de ellos mediante su valor numérico, [el cual puede ser modificado a voluntad]” (RAE, Asale, 2014). En este sentido, en un sistema paramétrico, un parámetro es aquella parte del sistema cuya alteración de valores, cambios de estado y/o variaciones, provocarán modificaciones en el resultado obtenido por el sistema al que pertenecen o influyen (Schieda, 2015a, p. 102). Cuando todos los parámetros de un sistema poseen información, el sistema queda completamente definido y se transforma en una instancia particular de ese sistema. Sin embargo, frente a cualquier cambio en los parámetros iniciales, el sistema se redefinirá de acuerdo al nuevo estado paramétrico y producirá una nueva instancia particular del sistema. Para el arquitecto argentino Alejandro Schieda, en un sentido estricto, una plantilla de cálculo puede ser entendida como un sistema paramétrico: esta posee esencialmente celdas capaces de contener datos (parámetros iniciales) y celdas con fórmulas (relaciones entre los parámetros). En cada modificación de los valores en las celdas de datos, el sistema se ajustará de manera acorde y dará un nuevo resultado (2015b, pp. 11-15). De la misma manera, en el caso del diseño paramétrico –a diferencia de los métodos tradicionales de diseño digital–, los arquitectos, en lugar de dibujar la forma específica de cada elemento, diseñan un conjunto de reglas y ecuaciones algorítmicas que les permita generar el proyecto y variar este en el tiempo, según sea necesario. Es decir, en lugar de diseñar un objeto, los arquitectos están diseñando un conjunto de principios codificados capaces de generar una familia de objetos posibles, dentro de límites determinados: un proceso de generación “…cuyos elementos constituyentes no están determinados geométricamente, de un modo estático, sino por medio de variables cuyos valores se especifican en cada caso” (Orciuoli, 2011). En este sentido, el diseño paramétrico es la abstracción de una idea traducida al lenguaje matemático: es 193 un proceso mediante el cual se manipula con precisión una cadena de parámetros, expresadas en variables, a través de una familia de algoritmos, que posibilitan explorar, modificar y resolver la forma de un objeto, en más de un resultado óptimo, de acuerdo con criterios establecidos previamente (Fraile, Piantanida, & Minafro, 2016). Cada vez que el diseñador asigna un valor diferente a esos parámetros, crea un nuevo objeto, una configuración o una estructura diferente. Esta situación lo convierte en una herramienta de gran potencial, lo que constituye y define un nuevo marco teórico que permite introducir una racionalización constructiva desde el inicio del proyecto. Orígenes de los sistemas paramétricos Si bien el diseño paramétrico suele parecer un concepto relativamente reciente, asociado frecuentemente con la industria aeronáutica y automotriz, su uso en el campo del diseño puede rastrearse hasta incluso mediados del siglo XIX. Parte III. El punto de inflexión Uno de los primeros arquitectos que utilizó los modelos paramétricos para sus diseños fue el arquitecto catalán Antoni Gaudí (1852-1926). Utilizando un modelo analógico dinámico de experimentación en escala 1:10.000 compuesto por cuerdas y bolsitas con perdigones, podía calcular las fuerzas de equilibrio de sus obras: los cordones se ordenaban en una armadura estática equivalente a la estructura real del edificio, pero invertida, y en los puntos adecuados colgaba las bolsitas con perdigones –con el peso proporcional que Gaudí, creía habrían de soportar los arcos y los pilares– (Zerbst, 1991, pp. 114-115). Una maqueta polifunicular que podía descomponer los arcos y las bóvedas en sus catenarias resultantes. Gaudí utilizó este sistema tanto en la Cripta de la Colonia Güell (1898) como en el proyecto para la Sagrada Familia de Barcelona (1882). Un nuevo modo de entender y hacer arquitectura. Un diseño inteligente que posibilitaba la combinación de múltiples variables en una exploración dinámica de formas. Posteriormente, en 1939, el arquitecto y urbanista italiano Luigi Walter Moretti (1906-1973) acuñaría el término “arquitectura paramétrica”, para referirse a una arquitectura donde las relaciones entre las dimensiones dependen de varios parámetros (Tedeschi, 2014, pp. 15-30). Moretti se había comprometido con el método científico que utiliza la ciencia para solucionar los problemas complejos. En su proyecto de 1939 para el Estadio Olímpico en el Foro Mussolini, Moretti desarrolló un estudio sobre la distribución de los espectadores en el teatro, en función de fórmulas para calcular las visuales, y elaboró un diseño en donde todos los espectadores pudieran disfrutar del espectáculo. Un profundo estudio Fig. 1. Antoni Gaudí, utilizando un modelo analógico dinámico de experimentación en escala 1:10.000 compuesto por cuerdas y bolsitas con perdigones, podía calcular las fuerzas de equilibrio de sus obras. 194 de 19 parámetros que evaluaba desde el ángulo de visión de los espectadores hasta la viabilidad económica del proyecto: la forma final se generó mediante el cálculo con isocurvas que intentaban optimizar las vistas desde todas las posiciones en el estadio (Tedeschi, 2014, pp. 15-30). En 1957 junto con el matemático italiano Bruno de Finetti (1906-1985), Moretti funda el l’Istituto per la Ricerca Matematica e Operativa applicata all’Urbanistica (IRMOU. Instituto de Investigación Matemática y Operacional aplicado al Urbanismo) para estudiar lo que él llamaba “arquitectura paramétrica”, una nueva teoría que utilizaba la matemática para el diseño urbano. Sus investigaciones se presentaron en 1960 en la decimotercera Trienal de Milán (Milán exposición Triennale). Para Moretti, la informática aplicada al diseño presentaba un enorme potencial para el futuro. Entre 1960 y 1965, diseñó el complejo Watergate, lo que para algunos fue el primer trabajo significativo que utilizó la computadora y los modelos paramétricos: una envolvente dinámica capaz de generar un efecto cubista al ofrecer la visión simultaneas de su fachada frontal y lateral. En sus escritos el arquitecto italiano ponía de manifiesto la necesidad de definir una nueva semántica para los espacios urbanos. Utilizando una computadora alimentada mediante tarjetas perforadas, podía desarrollar un modelo matemático en el que “Los parámetros y sus interrelaciones Marcelo A. Fraile - Arquitectura biodigital se [convertían] en… el código del nuevo lenguaje arquitectónico” (Tedeschi, 2014, pp. 15-30). Otro antecedente importante del diseño paramétrico lo podemos rastrear en los inicios mismos del diseño asistido por computadora, más precisamente en los trabajos de Ivan Sutherland en 1963 para su tesis doctoral, donde “…proponía la primera interfaz gráfica de usuario, que permitía al diseñador dibujar con el ordenador y aplicar cambios al diseño de forma paramétrica” (Dunn & Casasnovas, 2012, p. 54). Lo concreto es que para la década de 1990, fecha en que el uso de la computadora se había generalizado en los estudios de arquitectura, el diseño paramétrico fue importado definitivamente dentro de la disciplina proyectual y llevó a los diseñadores a descubrir nuevas formas, una reformulación de su teoría en relación con los procesos de producción (E. Lyon, 2009, p. 49). Hoy en día, su uso se ha extendido a todas las áreas de la disciplina, desde el diseño de objetos hasta el de grandes extensiones de territorio, y presenta una utilidad indescriptible en la generación de procedimientos teórico-metodológicos. Un sistema que, a diferencia de los sistemas tradicionales, una vez establecido los parámetros iniciales, es posible elaborar un sinnúmero de alternativas sin necesidad de generar nuevos modelos, lo cual permite ahorrar tiempo y esfuerzo. Los modelos paramétricos digitales como configuradores del proyecto En la última década, el diseño paramétrico se ha transformado en una estrategia dentro del proyecto. Su objetivo clave es encontrar las variables o parámetros más relevantes del problema para desarrollar posteriormente un modelo “reconfigurable”, que permita una exploración “delimitada de múltiples soluciones”. Fig. 2. Proyecto para el Estadio Olímpico en el Foro Mussolini. Moretti desarrolló un estudio sobre la distribución de los espectadores en el teatro, en función de fórmulas para calcular las visuales, y elaboró un diseño en donde todos los espectadores pudieran disfrutar del espectáculo. 195 Parte III. El punto de inflexión En este sentido, a través del diseño paramétrico, los diseñadores pueden crear un número infinito de alternativas, “…manifestaciones geométricas de un esquema previamente articulado de vínculos entre variables dimensionales, relacionales u operativas. Cuando a esas variables se les asignan valores específicos, se crean casos particulares” (Kolarevic, 2003, pp. 17-45). Tomemos un ejemplo, supongamos que tenemos que diseñar un edificio de oficinas de 10 pisos, resuelto mediante una estructura convencional de hormigón armado. Una vez desarrollado el proyecto, el cliente solicita modificar la altura de los pisos 3, 5 y 7, e incrementar la sobrecarga de estos pisos aumentándola en 20%. Si el proyecto desarrollado hubiera sido efectuado mediante un sistema tradicional, estas modificaciones tendrían un efecto en cadena sobre el resto del proyecto (altura de cielorraso, ancho de las columnas, sección de armaduras, altura de luminarias, etc.), y obligaría al proyectista a modificar prácticamente todo lo elaborado. Sin embargo, si el proyecto hubiera sido elaborado a través de un modelado paramétrico digital desde el comienzo, las modificaciones anteriores podrían ser resueltas de un modo sencillo. Dado que el diseñador establece al inicio del proyecto los parámetros necesarios y las vinculaciones formales que tendrá el diseño, posteriormente, ante un cambio o alteración de los parámetros iniciales (en este caso la altura de los pisos 3, 5 y 7, y el aumento de la sobrecarga en 20%), el sistema, en función de los nuevos datos ingresados, reconfiguraría automáticamente la forma final del proyecto, pero manteniendo las relaciones geométrico-formales originales. Un cambio de variables que genera un nuevo modelo donde las relaciones predeterminadas se mantienen: “… al igual que una hoja de cálculo vuelve a calcular la totalidad de sus entradas” (Freiberger, 2007). En el diseño paramétrico, se utilizan ecuaciones para describir la relación entre los objetos asociados. Cada variable “…es un espacio al que se le puede asignar una influencia externa, ya sea de manera estática o dinámica” (Kolarevic, 2003, pp. 17-45) Desde esta concepción, la arquitectura paramétrica se puede definir como un nuevo modo racional de entender el proyecto y el diseño. A través del uso de las tecnologías digitales, es posible explorar nuevas soluciones sin repetir procesos, trabajando con certezas, sobre resultados ciertos, dentro de las fronteras de lo virtual. Un modelo predictivo que permite organizar y optimizar las respuestas de acuerdo a las directrices establecidas por el diseñador. Ventajas y desventajas de los sistemas paramétricos 196 Por supuesto, no existe magia en la informática; para que todo esto suceda hay un arduo trabajo de racionalización de los procesos de creación y generación de las formas arquitectónicas: previamente el diseñador deberá establecer las relaciones entre las entidades geométricas y los parámetros que gobernarán el sistema, una serie de protocolos que permitirán una interacción con el usuario, con el fin de dar un mayor número de respuestas a las condicionantes establecidas inicialmente. De este modo, el diseñador ya no necesita acomodar cada uno de los elementos en forma independiente, son las ecuaciones las que describen “…las relaciones entre los objetos, definiendo así una geometría asociativa –la ‘geometría constituyente que se vincula mutuamente’–” (Kolarevic, 2003, pp. 17-45). Una circunferencia puede ser un ejemplo sencillo para clarificar estos conceptos. Matemática y geométricamente, cualquier circunferencia puede ser definida a través de dos parámetros básicos: su centro y su radio. Ahora bien,“Una vez que se hayan especificado estas dos variables la circunferencia genérica pasa a ser una circunferencia concreta situada en una posición determinada, en un contexto determinado y con un tamaño determinado” (Orciuoli, 2011). Pero también podemos, a través de un algoritmo paramétrico, diseñar un sistema que dibuje circunferencias, por ejemplo, en el punto 0,0 con un radio creciente entre 1 y 10. A partir de esto, el sistema dibujará diez circunferencias concéntricas, con centro en el punto 0,0 con un radio que va desde 1 hasta 10. Marcelo A. Fraile - Arquitectura biodigital Para el arquitecto neozelandés Mark Burry (1957), el diseño paramétrico es “como diseñar el diseño” (2003, pp. 147-162), esto implica definir las relaciones geométrico-matemáticas del modelo digital. El diseño paramétrico no es un diseño final ni un proceso cerrado sin cambios, por el contrario, durante el proyecto, los elementos pueden ser modificados para alterar la coherencia del conjunto. En este sentido, el diseño paramétrico posee una exploración de variantes infinitas, donde el diseñador establece la interdependencia entre objetos y el comportamiento de estos bajo transformaciones definidas (Kolarevic, 2003, pp. 17-45), puede editar en cualquier momento los valores o las ecuaciones que forman las relaciones entre los elementos, y detectar en tiempo real los cambios que se van incorporando al sistema. Una tecnología, entendida como parte del proceso de diseño, donde la materia se ha convertido en información binaria y los modelos paramétricos quedan prefigurados como un sistema optimizador de variables, capaces para desarrollar y testear hipótesis. En este sentido, es conveniente aclarar que “…no trata solo de re-presentar (de dibujar algo ya presente) sino de prefigurar, de… proponer, [de] imaginar una transformación de la realidad” (Chiarella et al., 2011). Un sistema digital interactivo en el cual el diseñador se caracteriza por orientar el camino hacia las soluciones, más que generarlas, definiendo condiciones y seleccionando resultados, un rango de posibles alternativas o variables que respondan y se ajusten a los parámetros previamente definidos. Sin embargo, no todos aceptan sus ventajas, algunos profesionales cuestionan su uso y critican la supuesta falta de realidad presente en sus proyectos, donde teñidos de omnipotencia, los objetos parecen no respetar las leyes de la gravedad, adquiriendo formas caprichosamente complejas que se superponen e interpenetran sin una lógica clara. Proyectos quiméricos, con un alto contenido de irrealidad, incapaces de ser construidos, que han legitimado aun la fantasía más descabellada. No obstante, pese a sus críticas, el diseño paramétrico ha generado una profunda renovación en la arquitectura contemporánea. Una evolución en los modelos digitales donde “las formas dejaron de ser dibujadas o representadas para pasar a ser calculadas” (Lynn, 2000). Una exploración creativa de los sistemas digitales de creciente complejidad se ha convertido en el nuevo método que los arquitectos contemporáneos utilizan para hacer sus creaciones. Un modelo predictivo que –a partir de la identificación, definición y evaluación de sus variables–, es capaz de elaborar nuevas formas arquitectónicas. Un proceso de retroalimentación que puede interactuar en tiempo real 197 con el entorno, incorporar variables dinámicas, detectar sus fenómenos físicos más importantes (vientos, radiación solar, flujos peatonales y vehiculares, movimientos sísmicos, etc.) y posibilitar que el sistema organice formas y establezca relaciones. En este sentido, quizás uno de los más antiguos y acabados ejemplos del uso de algoritmos paramétricos en el diseño sea el proyecto de 1993, para la Estación Terminal Internacional de Waterloo, en la ciudad de Londres, diseñada por el arquitecto británico Nicholas Grimshaw (1939). Proyectada con una capacidad para manejar cerca de quince millones de viajeros anuales, se trata de una innovadora resolución formal a un complejo conjunto de problemas. Un sinuoso y acristalado túnel de 400 metros de largo, conformado mediante el trazado de cinco vías curvas, que configura la estructura de un techo de luz variable y que transforma el edificio en una sofisticada pieza de ingeniería. Una estructura compuesta por 36 arcos triarticulados, cuyas luces van disminuyendo gradualmente desde los 48 metros en un extremo hasta los 32,5 metros en su punto más angosto. Parte III. El punto de inflexión 198 Fig. 3. Estación Terminal Internacional de Waterloo. Una estructura compuesta por 36 arcos triarticulados, cuyas luces van disminuyendo gradualmente desde los 48 metros en un extremo hasta los 32,5 metros en su punto más angosto. Cada arco está formado por dos partes curvas unidas mediante una articulación, lo que posibilita que estos puedan adaptarse proporcionalmente a la relación entre la planta curva y la altura libre necesaria. Dada la forma asimétrica de las plataformas, cada arco es único, es por esto que las articulaciones son desplazadas a uno de sus lados, lo que se traduce en que la parte del lado oeste se eleve abruptamente para dejar libre la altura necesaria para el paso de los trenes, mientras que la del lado este, se inclina suavemente sobre los andenes (Slessor, 1997, p. 136). Para el desarrollo del proyecto, se creó un modelo paramétrico digital “…en base a reglas de diseño subyacentes en las que el tamaño de la arcada y la curvatura de los arcos individuales estaban relacionados” (Kolarevic, 2003, pp. 17-45). Un modelo capaz de desarrollar 36 arcos diferentes, pero topológicamente idénticos, calculado para poder resistir el colapso de cualquiera de estos en caso de algún accidente. Marcelo A. Fraile - Arquitectura biodigital Una generación de geometrías complejas e interdependientes en todas las etapas de su desarrollo, desde el diseño conceptual hasta la construcción. Una combinación de paneles de vidrio y tableros de acero inoxidable para generar una piel diseñada por computadora. Parametricismo digital Para el arquitecto alemán Patrick Schumacher (1961), estamos ante el nacimiento de un nuevo paradigma, un período revolucionario de transición que ha penetrado en todos los aspectos de la disciplina. Es el inicio de un nuevo estilo arquitectónico, “el parametricismo”: un ciclo de innovación, de la era postfordista que busca reformular el diseño para generar una arquitectura de vanguardia, capaz de crear complejos entornos urbanos. Una arquitectura que demanda “…un creciente nivel de complejidad articulada mediante la redefinición de sus métodos en base a sistemas de diseño paramétrico” (2008). Bajo esta concepción, todos los elementos intervinientes en el diseño se convierten en variables paramétricas, mutuamente adaptables. Un nuevo repertorio que modifica los términos actuales, facilitado por el desarrollo de herramientas y programas scripts de diseños precisos y efectivos. Un proceso de “continua diferenciación”1, una exploración creativa, resultado de un proceso de fuerzas que interactúan con el medio de un modo similar a como lo hace la naturaleza. Un nuevo proceso de diseño caracterizado por cinco principios básicos que son: 1. Interarticulación de subsistemas: reemplaza el concepto de sistemas simples por “…la asociación de múltiples subsistemas –envolvente, estructura, divisiones internas, recorridos–. La diferenciación de cualquier sistema va seguida de la diferenciación de los otros sistemas”. 2. Acentuación paramétrica: realza una integración orgánica “…hacia intrincadas correlaciones que favorecen una amplificada desviación antes que adaptaciones compensatorias… Esto incluiría la asignación deliberada de umbrales y singularidades… para alcanzar una articulación más rica”. 3. Figuración paramétrica: una configuración compleja, latente y de múltiples lecturas, la cual puede ser construida como un modelo paramétrico: un modelo desarrollado de modo que las variaciones de los parámetros desencadenan cambios en la configuración percibida. 4. Sensibilidad paramétrica: “Los entornos urbanos y arquitectónicos (interiores) pueden ser diseñados con una capacidad cinética que les permita reconfigurarse y adaptarse a los patrones predominantes de uso y ocupación”. Un registro a tiempo real de los parámetros de uso. “El entorno construido adquiere una acción 199 responsable en diferentes escalas temporales”. 5. Urbanismo paramétrico: “…implica que la modulación sistemática de las morfologías edificatorias genera poderosos efectos urbanos y facilita la orientación. El urbanismo paramétrico integraría la acentuación, la figuración y las sensibilidades paramétricas”, en este sentido, “La deformación ya no habla de la ruptura del orden sino de una ordenada estructura de información” (2008). En esencia, el parametricismo implica un cambio ontológico en el que las figuras geométricas ideales son reemplazadas por entidades animadas, dinámicas e interactivas, creadas mediante scripts. El parametricismo rechaza la homogeneidad, las formas rígidas y las repeticiones simples que genera la producción en serie, y el conjunto de elementos aislados, no vinculados; por oposición, busca una composición espacial compleja de formas suaves, inteligentes, e interdependientes. Bajo un programa estilo, desarrolla una serie de reglas metodológicas: las heurísticas negativas indican los caminos que deben evitarse, las restricciones; en tanto que las heurísticas positivas plantean los caminos que se deben seguir, los principios guías. 1. Principio atribuido a Greg Lynn y Jeff Kipnis, expresado a comienzo de la década de 1990. Parte III. El punto de inflexión Las heurísticas negativas son: “evitar las tipologías familiares, evitar los objetos platónicos/herméticos, evitar la diferenciación clara de zonas/territorios, evitar la repetición, evitar líneas rectas, evitar ángulos rectos, evitar esquinas… y lo más importante: no añadir o sustraer sin elaboradas interacciones”. (Schumacher, 2008). El diseño paramétrico como potenciador de la materialización computacional El diseño paramétrico posibilita la utilización de programaciones complejas lo suficientemente amplias como para permitir “…la decodificación, manipulación y eventual reprogramación de los códigos de información” (Castells, 1996, p. 29). Un modelo inicial capaz de ser transformado al modificar los valores de sus variables primitivas, sin la necesidad de reemplazar o redefinir su geometría: soluciones diferentes para variables dependientes. Para el arquitecto francés Bernard Cache, la nueva arquitectura de formas calculadas anuncia “…un punto de quiebre disciplinar que obligaría a enfrentar el hecho de que las matemáticas se han vuelto, efectivamente, un objeto de fabricación” (Alonso, 2009, p. 13). Una coordinación de protocolos codificados; parámetros específicos; leyes de organización, agregación y crecimiento; con una fuerte influencia de cuestiones biológicas y ecológicas; una traducción digital hacia nuevos caminos, “…manifestaciones geométricas de un esquema previamente articulado” (Kolarevic, 2003, pp. 1745), bajo una tendencia de cambio con infinitas posibilidades que ahora sí pueden ser materializadas. En este sentido, un ejemplo interesante es el Pabellón Endesa, un prototipo solar autosuficiente instalado en el muelle de la Marina de Barcelona. Diseñado por los arquitectos españoles Rodrigo Rubio (1978) y Miguel Guerrero, del IAAC (Instituto de Arquitectura Avanzada de Cataluña), como parte del Congreso Internacional Smart City BCN del 2011. El proyecto fue elaborado a partir de una lógica paramétrica que permitía ir adaptando la geometría de cada uno de los módulos de la fachada de acuerdo con el recorrido del sol a lo largo de las estaciones. Un algoritmo definido bajo una relación geométrica entre el alto de la ventana, el vuelo del alerón y la orientación del panel solar ubicado sobre este, que permite dar diferentes respuestas geométricas, adaptadas a las distintas orientaciones de cada punto (Rubio, 2015, pp. 30-35). Un sistema que buscaba capitalizar los procesos de energía natural. De acuerdo con el recorrido solar, la fachada 200 se hacía más permeable al sur, protegiéndose con aleros grandes y horizontales, reduciéndose las aberturas hacia el este y el oeste con protecciones más verticales, para finalmente hacerse plana y hermética hacia el norte. Esto permitía que en verano el espacio interior quedara completamente protegido de la radiación solar, en tanto que en invierno, la ganancia solar fuera constante (Rubio, 2015, pp. 30-35). Constructivamente, el pabellón fue resuelto con un único componente: un marco de madera de pino, sobre paneles de madera reconstituida cortados mediante máquinas de CNC. Un sistema que permitió su prefabricación en una semana, su ensamblado en cuatro días y su desmontaje en uno. Otro caso interesante, es el pabellón temporal (C) Space, de 2007, para la Architectural Association de Londres. Diseñado por los arquitectos Alan Dempsey & Alvin Huang, ganadores del concurso anual organizado por el Design Research Lab (AADRL). Su compleja forma se basó en una curvatura continua y topológica de eficiencia estructural que envuelve al individuo, y en la que los límites se van transformando en asiento, piso y cubierta, a fin de dar respuesta a las actividades temporales que allí se desarrollan. Marcelo A. Fraile - Arquitectura biodigital Dada la trama estructural, producía en la superficie un fuerte contraste que variaba entre opaco y transparente de acuerdo a la posición del observador. Fig. 4. Pabellón Endesa. Constructivamente, el pabellón fue resuelto con un único componente: un marco de ma- El prototipo creado fue el resultado de un modelado paramétrico digital, de 850 paneles de fibra C de 13 mm de espesor, compuestos de hormigón reforzado con fibra de vidrio tipo ‘Grasfibre’, fabricados mediante un proceso de extrusión por la empresa estadounidense Rieder. dera de pino, sobre paneles de ma- Cada costilla fue cortada mediante máquinas de control numérico al agua, y ensambladas a través de más de 2000 encajes resueltos con juntas de neopreno y un empalme cruzado de clavijas, los cuales quedaban sujetos al doblar cada elemento de la unión. y su desmontaje en uno. En este sentido, el diseño paramétrico ha posibilitado la integración entre diseño, teoría y tecnología con el objetivo de lograr la solución más eficaz al problema planteado: una interrelación productiva entre diseño paramétrico y materialización constructiva (A. Lyon, 2009). dera reconstituida cortados mediante máquinas de CNC. Un sistema que permitió su prefabricación en una semana, su ensamblado en cuatro días 201 Parte III. El punto de inflexión Una evolución hacia una producción “no estándar”, personalizada, que “…lejos de alejarnos de los procesos materiales, nos acerca más a ellos de lo que estábamos en la gran industrialización del siglo pasado, aportando flexibilidad, crudeza y maleabilidad al proceso constructivo” (Rubio, 2015, pp. 30-35). Una tecnología que ha posibilitado recuperar el papel del artesano como creador de piezas únicas: un control total que facilita calcular y evaluar una producción seriada de piezas individuales. Otro ejemplo interesante, es el estadio del Centro Deportivo de Hangzhou (Hangzhou Sport Park Stadium), situado en la orilla del río Qiantang, China. Diseñado en el 2009, por el estudio americano de arquitectura NBBJ en asociación con la compañía consultora de arquitectura china CCDI. Con una capacidad para 80.000 personas y una superficie de 400.000 metros cuadrados, el estadio de usos múltiples vincula en tres niveles: los programas deportivos (parte superior), recreativos (planta baja) y comerciales (subsuelo). A partir de la utilización de sistemas paramétricos, el estudio NBBJ pudo modelar el proyecto y generar un diseño estable y optimizado, al eliminar las etapas tradicionales de prueba y error. 202 Fig. 5. Pabellón temporal (C) Space. Un modelado paramétrico digital, de 850 paneles de fibra C de 13 mm de espesor, compuestos de hormigón reforzado con fibra de vidrio tipo ‘Grasfibre’. Para ello, un equipo multidisciplinario integrado por ingenieros, arquitectos y especialistas en materiales buscaron maximizar el proyecto, a partir de un algoritmo que les permitiera vincular diversas variables como el número de filas de asientos, la distancia al centro del campo, los estándares de visión y los parámetros morfológico-ambientales de la envolvente. Otro elemento fundamental durante el proyecto fue la elaboración de modelos de gravedad que posibilitaron realizar un análisis exhaustivo de la ingeniería estructural, visualizando y cuantificando el comportamiento de los materiales. Una herramienta de avanzada que permitió variar el diseño y controlar la forma, estudiando diferentes configuraciones exteriores. Finalmente, el estadio quedo conformado mediante 56 vigas modulares, denominadas pétalos: 28 módulos grandes, idénticos entre sí, que crearon un patrón repetitivo y que encierran formalmente el estadio; y Marcelo A. Fraile - Arquitectura biodigital otros 28 módulos menores que se entrelazan para crear con el marco de acero una estructura compleja. Cada pétalo está conformado por una estructura de acero, recubierta en una de sus caras por una placa de hormigón armado. Un sistema mixto que permitía reducir el voladizo del techo y el uso de acero en 67%, a la vez que maximizaba el rendimiento energético. La morfología de los pétalos fue determinada de acuerdo con las visuales para favorecer el ingreso de luz indirecta por reflexión, a la vez que proporcionaba protección contra el sol y la lluvia. Fig. 6. Estadio del Centro Deportivo de Hangzhou. 56 vigas modulares, deno- Una tecnología que ha provocado nuevas respuestas creativas en el minadas pétalos: 28 módulos grandes, diseño, más allá de los requerimientos tradicionales. idénticos entre sí, que crearon un pa- Un nuevo panorama que hace pensar en lo que para algunos es el nacimiento de una tercera Revolución Industrial que tiene como protagonista un nuevo modo de materialización: un pasaje de la proyectación paramétrica a la materialización digital. trón repetitivo y que encierran formalmente el estadio; y otros 28 módulos menores que se entrelazan para crear con el marco de acero una estructura compleja. 203 Parte III. El punto de inflexión Apostillas para el siglo XXI Mientras que la computadora se incorpora cada vez más a nuestra vida, un nuevo paradigma parece emerger entre las vanguardias del nuevo milenio. Modelos preparados para descifrar y reproducir la complejidad del mundo a través del uso de herramientas digitales, capaces de adaptarse a todas las escalas factibles del problema, viabilizando la detección de anomalías, y sus posibles soluciones futuras. En este sentido, el diseño convencional ya no es suficiente, sus procesos lineales desarrollados mediante tanteo y composición hasta el resultado final solo han dado lugar a diseños sin certezas, que revelan sus errores una vez materializado el proyecto. En contraposición, el diseño paramétrico se beneficia de las tecnologías informáticas para desarrollar nuevas formas de proyectar, bajo un proceso continuo de adaptación donde diferentes elementos se superponen como layer, atrapados en una relación diferencial: una comprobación instantánea de los resultados finales. Un campo interdisciplinario donde arquitectos, ingenieros y especialistas colaboran y desarrollan modelos, no estándares, bajo un proceso generativo que cuestiona la estaticidad proyectual de la arquitectura tradicional y apunta a su capacidad creativa, transformadora y productiva. El diseño paramétrico se transforma en un sistema abierto de retroalimentación constante que describe un espectro de posibilidades en lugar de una solución definitiva. Una combinación de reglas y relaciones, “…que solo tienen validez momentánea hasta que el próximo par de componentes permita redefinir ciertas relaciones emergentes” (Araya, 2009, p. 21). Para Bernard Cache, el mayor reto que deberá superar el diseño paramétrico es el de “…cambiar el concepto mismo del proyecto de arquitectura… [pudiendo] inscribir el edificio en una tipología seriada cuya capacidad de variación permitirá… responder, con más precisión a las necesidades específicas de cualquier implantación” (Cache, 2009, p. 35). Algo que para el arquitecto español Ion Cuervas produciría la participación ciudadana, donde todo el mundo podría ser capaz de diseñar su propia vivienda solo modificando algunos valores iniciales. Una participación a escala urbana. Figuras 204 Fig. 1. Modelo analógico dinámico de Gaudí. https://i.pinimg.com/736x/d1/eb/49/d1eb49a74813f6c0a8e77a6ccd428552gaudi-barcelona.jpg Fig. 2. Proyecto para el Estadio Olímpico en el Foro Mussolini. http://www.stefano-andreani.com/portfolio/architetturaparametrica/ Fig. 3. Estación Terminal Internacional de Waterloo. https://grimshaw.global/projects/international-terminal-waterloo/ Fig. 4. Pabellón Endesa. https://www.plataformaarquitectura.cl/cl/627994/pabellon-endesa-margen-lab Fig. 5. Pabellón temporal (C) Space. http://arquitecturaenred01.blogspot.com.ar/2009/08/case-study-cnc-cut.html Fig. 6. Estadio del Centro Deportivo de Hangzhou. http://www.nbbj.com/work/hangzhou-stadium/ Marcelo A. Fraile - Arquitectura biodigital UN EJEMPLO, OCHO ANOMALÍAS: EL MUSEO GUGGENHEIM DE BILBAO “Son velas; soy marinero… Tengo un barco, ¿sabes? Me encanta navegar y me gustan muchísimo esos cuadros holandeses de veleros, pinturas holandesas del siglo dieciséis”. (Zaera, 1995, p. 31). Para Fredy Massad (1966) y Alicia Guerrero Yeste (1974), con la materialización del Guggenheim, Gehry marcó un punto de inflexión que cambió el siglo XX hacia el siglo XXI, al convertirse en el primer arquitecto que, mediante la utilización de la tecnología digital, hizo posible la construcción de un edificio formalmente complejo, que en caso de haber carecido de esa tecnología, habría resultado difícil o quizás imposible su materialización (2003). Gracias a la utilización de las computadoras y del software, fue posible controlar las complejas geometrías del proyecto y los importantes costos que de su materialización derivaban. En este sentido, para el profesor Sebastián García Núñez, sin CATIA (Computer-Aided Three dimensional Interactive Application) “…el museo se hubiera quedado en meras intenciones de madera y cartón” (2016, pp. 39-46). Las nuevas vanguardias arquitectónicas tomaron la inauguración del Museo Guggenheim en Bilbao, en 1997, como un cambio de rumbo, nuevos aires que vaticinaban la entrada de la arquitectura en un nuevo paradigma donde los pliegues, dobleces y avanzados materiales parecían dar nuevas respuestas a las anomalías de la contemporaneidad. Muy pronto, el efecto Guggenheim, como lo llamó el arquitecto español Helio Piñón (1942), impactó en la aparición de novedosas formas y contenidos (2005). Para Branko Kolarevic, el Guggenheim de Bilbao “es probablemente el ejemplo mejor conocido de un edificio que captura el Zeitgeist de la revolución de la información digital, cuyas consecuencias para la industria de la construcción van a ser seguramente similares a las que comportó la revolución industrial” (2003, p. 3). El concurso Históricamente, la ciudad de Bilbao presenta una importante tradición metalúrgica e industrial; los astilleros, las grúas y los almacenes han configurado su imagen. Durante la década del ochenta, se produjo una fuerte crisis en España que dejó la zona industrial de la ciudad de Bilbao con un panorama de contaminación y abandono. Diez años después, a comienzos de los años noventa, comenzaron los primeros pasos de un ambicioso plan 205 de reconversión de la antigua zona industrial y de los almacenes obsoletos. Dos de las primeras intervenciones fueron la construcción del puente Zubizuri sobre el río Nervión, diseñado por el arquitecto español Santiago Calatrava (1951), y las líneas de Metro desarrolladas por el arquitecto británico Norman Foster (1935). El museo Guggenheim de Bilbao forma parte de ese plan. El Guggenheim es el resultado de una colaboración mixta entre la Administración del País Vasco, que realizó una inversión pública para adquirir la franquicia y obtuvo una importante visibilidad; y de la Fundación Salomón R. Guggenheim1, que organizaría y proveería al Museo de las obras de arte. El edificio de Bilbao sería la primera sucursal del emblemático museo Guggenheim de Nueva York, es por esto que tanto las autoridades vascas como los representantes de la Fundación Salomón R. Guggenheim buscaban 1. Solomon R. Guggenheim, nació en Filadelfia, Estados Unidos en 1861. Fue hijo de un inmigrante judío suizo, que amasó una fortuna gracias a la comercialización de productos importados de su tierra natal. En 1904 se transformó en el presidente de la firma Braden Copper Company que había fundado junto con sus seis hermanos. En 1919, se retiró de los negocios para dedicarse a la colección de obras de arte, principalmente del renacimiento italiano. Tiempo después conoció a Hilla Rebay, una joven alemana que orientó sus gustos sobre arte. En 1937, creó la Fundación Solomon R. Guggenheim para apoyar el desarrollo y difusión del arte moderno. Con el tiempo, la Fundación Guggenheim requirió de un espacio para exhibir las colecciones permanentes y temporales. En 1959 se inauguraba el Museo Solomon R. Guggenheim, obra del arquitecto Frank Lloyd Wright. Sin embargo, Solomon R. Guggenheim no lo pudo ver terminado, ya que había fallecido en New York en 1949. Parte III. El punto de inflexión Fig. 1. Las formas biológicas. Nuevos un edificio “…singular e iconoclasta que, por un lado, repitiese el impacto aires vaticinaban la entrada de la ar- que supuso la construcción de la sede neoyorquina… y, por otro, se con- quitectura en un nuevo paradigma virtiese en un reclamo para las miradas del mundo de la cultura y sirviera donde los pliegues, dobleces y avanzados materiales parecían dar nuevas respuestas a las anomalías de la contemporaneidad. 206 de proyección internacional de la ciudad” (Cuito, 2001, p. 49). El proyecto se inició con un concurso privado al que se invitaron a tres arquitectos para que presentaran sus propuestas. Thomas Krens, director de la Salomón R. Guggenheim Foundation, sería el encargado de seleccionar a estos arquitectos. Se buscaba “una visión global del proyecto, en donde cada arquitecto tenía la libertad de entregar las propuestas utilizando los medios que consideraran necesarios para que se hiciera evidente la influencia del nuevo edificio en el lugar” (García Núñez, 2016, pp. 39-46). Finalmente, los arquitectos seleccionados fueron: Arata Isosaki (1931), como el representante asiático; Frank Gehry (1929), como el representante americano; y al equipo vienés integrado por Wolf D. Prix (1942) y Helmut Swiczinky (1944) de Coop Himmelblau, como representante europeo. Con solo diez días para desarrollar el proyecto, Gehry elaboró un borrador del programa del edificio y, a continuación, comenzó el proyecto desarrollando una serie de maquetas conceptuales, una sucesión de pruebas escultóricas de papel y cartón en las que el arquitecto moldeaba los espacios del modelo (García Núñez, 2016, pp. 39-46). El proyecto inicial estaba constituido por un edificio principal, con elementos secundarios que se adosaban a este a modo de entrada a un gran vestíbulo que partía de la Ciudad. Para la presentación del proyecto, Gehry utilizó las maquetas desarrolladas los días 8, 9 y 10, como un intento por enseñarles la orientación que el proyecto pretendía seguir (Zaera, 1995, p. 30). Luego de extensas deliberaciones, en 1990, el jurado escogió el proyecto de Frank Gehry como la propuesta ganadora. Marcelo A. Fraile - Arquitectura biodigital Un riguroso programa de necesidades Inicialmente, se pretendía rehabilitar el edificio de la Alhóndiga, sin embargo, al poco tiempo se hizo evidente que era imposible general un buen diseño sin demoler prácticamente todo la construcción, dejando solo su cáscara. Debido a esto, el comité del concurso encargó a Gehry buscar un nuevo solar donde ubicar el proyecto. El sitio elegido fue el centro de un triángulo formado por la Universidad, el Ayuntamiento y el Museo de Bellas Artes. (Cuito, 2001, p. 26). De fácil acceso desde los distritos financieros e históricos de la Ciudad, el Museo se encuentra rodeado de un jardín acuático que armoniza el conjunto y lo integra con el río, lo que crea una nueva plaza que organiza la entrada al Museo y lo convierte en la puerta de entrada a la Ciudad. Con increíble pragmatismo, el programa incluye un auditorio para 300 personas, un restaurante, un café y unas tiendas accesibles tanto desde el interior como desde la plaza pública de acceso. Las oficinas administrativas se ubican en otro edificio, también con entrada independiente, permitiendo de este modo una gran flexibilidad ya que estos espacios pueden funcionar en forma independiente de los horarios del Museo. Una vez dentro del museo, un atrio central acristalado, de gran escala2, con grandes columnas en su interior, revela “…un sistema de pasarelas curvilíneas, ascensores de cristal y torres de escaleras [que conectan] las galerías dispuestas a su alrededor en tres niveles” (Levene & Márquez Cecilia, 1998, p. 32). Este espacio central distribuye a los visitantes a través de las salas de exposición. Una danza azarosa, que combina fragmentos del programa con la plasticidad de un artista. De acuerdo a los requisitos solicitados por la Fundación Guggenheim, Gehry desarrolló tres tipos de zonas de exposición. La primera corresponde 2. Este atrio tiene una altura de 50 metros, 1,5 veces el atrio del museo Guggenheim de Nueva York. Fig. 2. Proto-Metadiseñador. Conceptualmente, “Gehry cabalga a horcajadas sobre dos mundos de la arquitectura: el analógico y el digital”. No es un nativo informático, sus proyectos comienzan con maquetas físicas, modelos abstractos de gran escala, una suerte de collage, compuestas rápidamente, semejantes a instantáneas tridimensionales destinadas a provocar o retener una idea, más parecidas a bocetos que a maquetas” (Dollens & Planella, 2002, p. 30). 207 Parte III. El punto de inflexión Fig. 3. Un atrio central acristalado, de gran escala, es iluminado de un modo natural, mediante grandes superficies acristaladas. Gehry realizó un profundo estudio de la iluminación de las salas, con el objeto de crear una atmósfera cálida y continua. 208 a la colección permanente que ocupa tres galerías consecutivas de forma cuadrada, desarrolladas en los niveles segundo y tercero; la segunda corresponde a la colección de artistas vivos seleccionados, compuesta por siete galerías con características espaciales particulares, estas salas tienen una altura libre de entre 6 y 8 metros; finalmente, la colección de exposiciones temporales ubicada en dirección este, por debajo del Puente de la Salve, en una sala de 30 metros de ancho por 130 metros de largo, que permite “…involucrar al puente como parte de la composición arquitectónica y que se remata en su extremo por una torre, un espacio diáfano, sin pilares, que permite al museo exponer obras de arte contemporáneo de gran tamaño, que normalmente suelen estar fuera del alcance de otros museos convencionales” (Levene & Márquez Cecilia, 1995, p. 184). Su compleja y escultural cubierta, realizada a través de un sistema reticular de 3 x 3 metros de acero, recuerda una flor metálica que por su escala se destaca sobre la ría con su altura, superior a los cincuenta metros, e ilumina el atrio a través de una serie de lucernarios (Levene & Márquez Cecilia, 1998, p. 32). Marcelo A. Fraile - Arquitectura biodigital Ya que las obras de arte nunca deben recibir la luz natural de forma directa, Gehry realizó un profundo estudio de la iluminación de las salas, con el objeto de crear una atmosfera cálida y continua. En una serie de pliegues y alabeos, parece una especie de creatura “…emergiendo del agua como un monstruo metálico de perfil inconfundible” (Fernández Galiano, 1999, p. 74). La biblioteca tiene varios niveles donde se guardan una amplia colección de libros de arte, en tanto que la sala de lectura pretende crear “… un ambiente acorde con las sensaciones perceptivas de las áreas de exposiciones” (Cuito, 2001, p. 117). Todas las funciones auxiliares del Museo –carga, descarga, andamiaje, almacenamiento y conservación–, fueron llevadas al sótano del Museo lo que permitió que todas estas contaran con acceso independiente desde una calle de servicio. Además, la funcionalidad del Museo fue pensada para facilitar su mantenimiento. “Un buen ejemplo de ello es la colocación de unos puentes colgantes en el atrio central que facilitan el acceso a la parte interior de la fachada para que puedan limpiarse los cristales sin dificultad” (Cuito, 2001, p. 138). El Museo fue inaugurado oficialmente el 18 de octubre de 1997 e inició un nuevo modo de hacer arquitectura. La representación hibrida de la forma Al introducir la computadora durante el proceso de diseño, Gehry buscaba un instrumento que le permitiera mantener el control sobre los presupuestos de obra y resolver los complejos problemas geométricos (Zaera, 1995, p. 152). Su uso se encuentra relacionado con la materialidad, con la capacidad de realizar un trabajo de fabricación más económico, suministrando al fabricante una documentación más precisa que cualquier documentación tradicional. Esto permitió un ahorro del 18 % del presupuesto original, pese a que la estructura se había incrementado en dos millones. Esta situación convenció a Gehry del valor de la computadora y marcó un hito en la historia de la construcción arquitectónica (Zaera, 1995, pp. 152-153). 209 Fig. 4. Su compleja y escultural forma, recuerda una flor metálica que por su escala se destaca sobre la ría con su altura, superior a los cincuenta metros, e ilumina el atrio a través de una Conceptualmente, “Gehry cabalga a horcajadas sobre dos mundos de la arquitectura: el analógico y el digital”. No es un nativo informático, sus proyectos comienzan con maquetas físicas, modelos abstractos de gran escala, una suerte de collage, compuestas rápidamente, semejantes a instantáneas tridimensionales destinadas a provocar o retener una idea, más parecidas a bocetos que a maquetas” (Dollens & Planella, 2002, p. 30). Posteriormente, mediante la utilización de la tecnología de escáner 3D, captura las características físicas superficiales de la maqueta. Para ello Gehry utilizó una técnica conocida con el nombre de “Ingeniería Inversa”, serie de lucernarios (Levene & Márquez Cecilia, 1998, p. 32). Parte III. El punto de inflexión Fig. 5. La representación digital. Gehry utilizó una técnica conocida con el nombre de “Ingeniería Inversa”, que consiste en el relevamiento de una serie de coordenadas tridimensionales denominadas “nube de puntos”. 210 que consiste en el relevamiento de una serie de coordenadas tridimensionales denominadas “nube de puntos”3. Para el arquitecto Tensho Takemori4, las personas malinterpretan el concepto de digitalización del modelo físico. Consideran que es algo mágico por el cual se obtiene exactamente lo mismo. Sin embargo, el escáner genera una nube de puntos que después un operador, a través de una interfaz gráfica, deberá convertir en líneas, superficies y volúmenes, corrigiendo en el proceso anomalías para replicar finalmente el modelo en 3D lo más cerca posible del modelo físico. Un sistema artesanal que combina la parte física del modelo, con el modelo digital en tres dimensiones (Levene & Márquez Cecilia, 1995, p. 220). 3. Para este relevamiento, fue necesario un brazo digitalizador, un instrumento utilizado originalmente para fijar la herramienta láser durante una cirugía de cerebro, pero ahora programado para escanear la superficie de una maqueta. 4. Takemori se unió a Gehry Partners en 1992, donde ha trabajado en proyectos tales como el Museo Nacional de Arte de China, la expansión del Museo de diseño Vitra, la Residencia Lewis y la Sala de Conciertos Walt Disney. Marcelo A. Fraile - Arquitectura biodigital Al final del proceso, el dispositivo entrega una imagen raster en tres dimensiones, imágenes magníficas, que pueden girar 360 grados, pero inútiles para ser utilizadas en el campo de la arquitectura como objeto proyectual (Zaera, 1995, p. 153). Fig. 8. Globalización. El museo Gu- A continuación, estos datos son introducidos en una computadora, a fin tos “que llevarán el desarrollo de esta de que un software de modelado, en este caso CATIA, permita procesar la información y construir la geometría del edificio, al corregir y reem- arquitectura más lejos, de una forma plazar las anomalías en la superficie creada para obtener finalmente un ggenheim ha transformado la arquitectura contemporánea, “esculpiendo el espacio y abriendo las mentes” de las nuevas generaciones de arquitec- más barata, más arraigada y discreta” (Dollens & Planella, 2002, p. 37). modelo digital preciso del objeto. Una de las ventajas de CATIA es que permitía desarrollar cortes transversales y longitudinales del modelo y facilitaba la elaboración de las diferentes costillas del edificio: “en un modelo tridimensional en CATIA se obtienen infinitas dimensiones, de forma que el constructor puede averiguar cuál es la dimensión que más le conviene para el proceso de fabricación” (Zaera, 1995, p. 155). Cuando el modelo había alcanzado la geometría óptima, se comenzaba su evaluación de acuerdo con las propiedades particulares del diseño, por ejemplo, mediante la maqueta digital, los ingenieros podían analizar el rendimiento estructural, térmico y acústico del Museo. El equipo de Gehry había desarrollado un proceso de análisis del comportamiento de los materiales a partir de los colores que tomaban en el modelo y lo transformó en una herramienta versátil para el diseño. Y si bien CATIA poseía una salida que permitía exportar los archivos para ser empleados en sistemas de CNC o de estereolitografía de objetos laminados, en ese momento su utilización no era rentable dado sus altos costos. Se trataba de una tecnología aeroespacial, con lo cual su uso fue limitado a las etapas finales del proyecto5. 5. Si bien el sistema CATIA optimizaba el proyecto, se trataba de un sistema complicado y demasiado caro para la industria de la construcción. Por este motivo, Gehry crearía Gehry Tecnology y desarrollaría en 1994 una aplicación llamada Digital Proyect: un sistema basado en CATIA V5, al que se le agregaron 211 Parte III. El punto de inflexión El proceso de ejecución El edificio fue cubierto con 33.000 escamas de titanio y se transformó en la primera obra de arquitectura que utilizaba este material para su construcción. Maleable, flexible y duradero, el titanio es un material resistente a la polución y a las agresiones climáticas. Cada placa tiene un espesor de 0.3 mm, esto origina que, frente a la acción de fuertes vientos, las placas sufran un pequeño alabeo, sin embargo, esto no constituye ningún problema estructural. Dado su alto coeficiente de reflexión de la luz, el titanio produce que la fachada cambie de acuerdo al momento del día, evocando la materia prima que se empleaba en los antiguos edificios industriales: “…el museo aparece plateado con los primeros rayos del sol; brillante, casi cegador, a mediodía, y dorado al atardecer” (Cuito, 2001, p. 87). 212 Fig. 6. La nueva materialización. Para el arquitecto americano Dennis Dollens, lo valioso de Gehry es que se ha aprovechado de la tecnología del momento y la ha fusionado con la sensibilidad de un arquitecto, artesano, escultor y artista tradicional” (2002, pp. 28-29). Para Frank Gehry, la forma del edificio tiene como referencia “…la película Metrópolis de Fritz Lang, las esculturas de Brancusi y, sobre todo, el propio vigor y la fuerza contenida que irradia la ciudad de Bilbao” (Cuito, 2001, p. 60). El proyecto se compone de formas tensionadas por fuerzas internas, un extraño artefacto distorsionado que apunta contra la racionalidad de un modo desestabilizador. Una mutación que se adapta y evoluciona. El edificio fue cubierto con 33.000 escamas de titanio y se transformó en la primera obra de arquitectura que utilizaba este material para su construcción. una serie de herramientas para el modelado paramétrico de proyectos arquitectónicos. Cada estación costaba 15.000 dólares, un costo que lo convertía en prohibitivo para la pequeña oficina. Por esta razón, el proyecto terminó siendo un fracaso comercial. Finalmente, la empresa Dassault compró una parte del proyecto para su comercialización. Poco tiempo después, el equipo de Digital Proyect fue contratado para la elaboración del proyecto del edificio Opus para Swire en Hong Kong. Un edificio de 80 pisos. A partir de la implementación de Digital Proyect, durante el diseño, fue posible reducir en 12% los costos de construcción del edificio (Lynn, 2013). Marcelo A. Fraile - Arquitectura biodigital En este sentido, para el arquitecto americano Dennis Dollens (1950), lo valioso de Gehry es que se ha aprovechado de la tecnología del momento y la ha fusionado con la sensibilidad de un arquitecto, artesano, escultor y artista tradicional” (2002, pp. 28-29). El objeto deja de ser arquitectura para transformarse en parte del contexto, es más una escenografía que una obra acabada (Bernardele, 1994, p. 201). Fig. 7. Modelos paramétricos. Una de las ventajas de CATIA es que permitía desarrollar cortes transversales y longitudinales del modelo y facilitaba la elaboración de las diferentes costillas del edificio: “en un modelo tridimensional en CATIA se obtienen infinitas dimensiones, de forma que el cons- La singularidad intrínseca Estrictamente hablando, el museo Guggenheim de Bilbao no puede ser considerado totalmente digital, ya que su materialización fue resuelta mediante una técnica análoga; a pesar de esto, el trabajo de Gehry puede ser considerado un punto de inflexión, al liberarse de las limitaciones tradicionales de la arquitectura. Su proceso digital ponía en crisis “la geometría cartesiana al hundirse, doblarse y plegarse sobre sí misma”, pudiendo en el proceso elaborar, calcular y evaluar las complejas superficies que se desarrollaban en el Museo antes de su construcción (Dollens & Planella, 2002, p. 30). Para los profesores Julio Bermúdez y Roberto Hermanson, se trata de una etapa híbrida que desafía la materialidad de la arquitectura convencional; da paso así a una interpretación líquida y flexible de la forma, más asociada con la cultura de los medios y de lo virtual (1999, p. 10). El museo Guggenheim ha transformado la arquitectura contemporánea, “esculpiendo el espacio y abriendo las mentes” de las nuevas generaciones de arquitectos “que llevarán el desarrollo de esta arquitectura más lejos, de una forma más barata, más arraigada y discreta” (Dollens & Planella, 2002, p. 37). tructor puede averiguar cuál es la dimensión que más le conviene para el proceso de fabricación” (Zaera, 1995, p. 155). 213 Parte III. El punto de inflexión Figuras Fig. 1. Las formas biológicas. https://www.guggenheim-bilbao.eus/el-edificio/ Fig. 2. Proto-metadiseñadores. https://www.guggenheim-bilbao.eus/el-edificio/ Fig. 3. La ecología. https://www.guggenheim-bilbao.eus/el-edificio/ Fig. 4. Su compleja y escultural forma. https://es.wikiarquitectura.com/edificio/guggenheim-bilbao/ Fig. 5. La nueva representación. Zaera, A. (1995). Tecnología informática en Frank O. Gehry & Associates. El Croquis, (Frank Gehry 1991-1995 74/75). http://www.professionistiuniti.it/la-professione-di-architetto-in-europa/ http://www.cca.qc.ca/img/LaP9MEGz4mNk5lAt6Y0qFz3JoE4=/1920x0/9457/8508/Rick_Smith_AoD.jpg Fig. 6. La nueva materialización. https://es.wikiarquitectura.com/edificio/guggenheim-bilbao/ Fig. 7. Modelos paramétricos. Zaera, A. (1995). Tecnología informática en Frank O. Gehry & Associates. El Croquis (Frank Gehry 1991-1995 74/75). Fig. 8. Globalización. https://www.guggenheim-bilbao.eus/el-edificio/ 214 Marcelo A. Fraile - Arquitectura biodigital EL GÉNESIS BIOLÓGICO El corto siglo XX1 fue considerado por investigadores y críticos de la talla del historiador británico Eric Hobsbawm (1917-2012), como el siglo de la física: una etapa en que la ciencia había transformado tanto el mundo como nuestro conocimiento de este (1998, p. 522). El paradigma mecanicista fue el modelo dominante. Bajo la idea de una naturaleza ordenada y precisa, la biología era representada como una maquinaria de reloj, donde los engranajes giraban y se articulaban entre sí con total perfección. El siglo XX se había enorgullecido de su larga lista de descubrimientos teóricos como fuente de inspiración para el desarrollo de sus obras. Una exaltación de los logros de la ciencia que, en esencia, representaban los logros producidos por la mente del hombre. Sin embargo, a finales de 1980, el contexto había cambiado. Como preparándose para el final, el corto siglo XX concluía estrepitosamente y nos dejaba toda una serie de problemas e interrogantes sobre los cuales nadie tenía, ni pretendía tener, una solución (Hobsbawm, 1998, p. 516). Un profundo crecimiento científico-económico había proporcionado como subproductos el efecto invernadero, el calentamiento global, y la emisión de gases nocivos a la atmosfera: problemas que se convertirían en la preocupación de especialistas, políticos y de las generaciones venideras. Atrás quedaba ese hombre confiado y seguro del siglo XX, que no rendía cuentas a nadie de sus actos. Frente a él, cubierto por una densa y espesa niebla, se perfilaba un nuevo camino, no muy claro, caracterizado “…por una gran inseguridad, por una crisis permanente y por la ausencia de cualquier tipo de statu quo” (Hobsbawm, 1998, p. 551). La lógica de lo líquido En su libro Modernidad líquida (1999), el filósofo y ensayista polaco Zygmunt Bauman (1925-2017) desarrollaría una analogía entre la sociedad del mundo contemporáneo y las propiedades físicas de los fluidos. Para Bauman, el concepto de fluidez o liquidez es una metáfora adecuada para aprehender la naturaleza actual de la historia de la modernidad (Bauman, 1999, p. 8). Desde un punto de vista físico-químico, la fluidez es una cualidad de los líquidos y de los gases, “…que ‘en descanso, no pueden sostener una fuerza tangencial o cortante’ y, por lo tanto, ‘sufren un continuo cambio de forma cuando se los somete a esa tensión’” (Bauman, 1999, p. 7). Es decir que los líquidos, a diferencia de los sólidos, no 1. Para Hobsbawm, el siglo XX corresponde a un período de 77 años, comprendido entre el comienzo de la primera Guerra Mundial (1914) y la caída de la Unión Soviética (1991). Fig. 1. Hobsbawn, E. (1994). Historia del siglo XX. Buenos Aires: Grijalbo Mondadori. 215 Parte IV. La génesis de un nuevo paradigma conservan fácilmente su forma: para poder mantenerla requiere de mucha energía, mucho cuidado y vigilancia constante, pese a esto, su éxito no esta asegurado. En esencia, el concepto de liquidez puede ser comparado con el de la levedad, propuesto en 1984 por el escritor italiano Ítalo Calvino en su libro Seis propuestas para el próximo milenio: un pensamiento que “… parece querer demostrar que el mundo se apoya en entidades sutilísimas, como los mensajes de DNA, los impulsos de las neuronas, los quarks, los neutrinos errantes en el espacio desde el comienzo de los tiempos” (2012, p. 20). En esta analogía, la variable importante es el tiempo, donde los fluidos, bajo un fenómeno de levedad, presentan una tendencia a cambiar todo el tiempo, sin conservar su forma, ni fijarse al espacio; en tanto que los sólidos han neutralizado el impacto del tiempo con una precisa dimensión espacial. Siguiendo esta línea de razonamiento, al igual que lo que sucede con los líquidos, nuestra sociedad contemporánea encuentra en el espacio y en el tiempo las variables para discernir su comportamiento. Estamos ante una sociedad de redes frágiles, vulnerables y transitorias, donde la precariedad de los vínculos permite incrementar su fluidez. Una sociedad porosa, de nodos interconectados, carentes de un centro dominante, donde la levedad impide que exista lo eterno. Con una mentalidad a corto plazo, todo se ha convertido en transitorio, instantáneo, se usa, se consume y se tira. En la contemporaneidad, no se desarrollan afectos o compromisos por nada. El “hasta que la muerte nos separe” ha sido reemplazado por situaciones transitorias de “mientras estemos satisfechos” (Bauman, 1999, p. 173). Para el filósofo turco Cornelius Castoriadis (1922-1997), nuestra sociedad es poco proclive a la crítica, ha dejado de cuestionarse a sí misma, “… ya no reconoce la alternativa de otra sociedad, y por lo tanto se considera absuelta del deber de examinar, demostrar, justificar (y más aún probar) la validez de sus presupuestos explícitos o implicados” (Bauman, 1999, p. 28). Una lucha constante entre tiempo y espacio que nos conduciría indefectiblemente a una licuefacción futura. Es debido a esto que nos hemos transformado en una sociedad de consumidores, donde “…todo es a elección, salvo la compulsión a elegir, la compulsión que se convierte en adicción y que por lo tanto deja de percibirse como compulsión” (Bauman, 1999, p. 79). 216 En el mundo de la contemporaneidad, veloces máquinas conquistan el espacio, acortan las distancias y extienden las fronteras. Una velocidad bajo una aceleración creciente, capaz de producir profundas transformaciones políticas, económicas y sociales. Una velocidad que impide tomar la suficiente distancia para reflexionar y pensar: la velocidad nos distrae al conducirnos hacia un consumo veloz y excesivo de la información que dificulta la reflexión y el análisis que son reemplazados por un pensamiento superficial y poco elaborado. En este sentido, el fenómeno de la globalización ha incrementado la velocidad de los cambios: a través de una revolución en los sistemas de transporte y comunicación, se ha alterado la concepción del tiempo y del espacio. Un proceso vertiginoso que simula el estar patinando sobre hielo delgado, “…la seguridad radica en la velocidad… no correr rápido implica la amenaza de ahogarse” (Bauman, 1999, p. 220). En este mundo de la velocidad, los individuos se desenvuelven en lo que el filósofo y catedrático alemán Peter Sloterdijk (1947) denominó “espacio burbuja”, espacios donde cada sujeto representa una burbuja que engloba su mundo y sus relaciones; forman mapas de burbujas que, como una densa espuma, se distribuyen por el sitio (Barrera Puigdollers, 2010, p. 74). Marcelo A. Fraile - Arquitectura biodigital No es de sorprender que este individuo del mundo de la velocidad sea “…un sujeto virtual acostumbrado a los medios electrónicos y digitales, que se comunica sin presencialidad, mediante rastros informáticos y archivos encriptados para su seguridad” (Barrera Puigdollers, 2010, p. 76). Un sujeto donde tan solo el 20% de su comunicación diaria es presencial. En el mundo de la velocidad, la sociedad del panóptico de Foucault ha sido reemplazada por la sociedad de las redes sociales. Espacios donde nuestros datos y nuestros recuerdos se comparten y se cuelgan en la nube: nada es real hasta que haya sido publicado en facebook, twitter, Instagram o snapchat. Para el sociólogo estadounidense Christopher Lasch (1932-1961), la vida contemporánea “…está tan completamente mediada por imágenes electrónicas que no podemos evitar responder a otros como si sus acciones… fueran filmadas y transmitidas simultáneamente a un público invisible, o fueran a guardarse para ser vistas con detenimiento más tarde” (Bauman, 1999, p. 91). La velocidad también ha influido en la arquitectura al establecer una nueva percepción temporal de los espacios que generan nuevas relaciones y nuevas sensaciones. La arquitectura de la velocidad no permanece demasiado tiempo; la idea del reemplazo ilimitado ha transformado la idea de perdurar como un disvalor. Influenciada por las leyes del mercado, la arquitectura ha entrado en la cultura del “use y tire”, lo que reduce a veces su vida útil a la duración de una temporada. El siglo biológico A comienzos del siglo XXI, estamos ante el inicio de una nueva era, pero hace tiempo que hemos pasado el punto de no retorno, un período de expectativas agotadas que nos ha conducido hacia un nuevo escenario, cuyas anomalías nos anuncian un período de crisis y el nacimiento de un nuevo paradigma. Bajo un complejo proceso de transformación, el mundo contemporáneo parece estar fragmentado en una multiplicidad de capas,que en ocasiones se superponen, se mezclan e interactúan, para producir profundos y acelerados cambios. Un nuevo momento histórico donde los modelos de ayer son incapaces de explicar las transformaciones que se están produciendo. Nos encontramos en un paso intermedio entre dos orillas, con una fuerte influencia científica donde la biología se ha perfilado como la ciencia del siglo XXI. Una biología que emplea técnicas tomadas de la física, la química y la matemática, para traspasar las fronteras de la investigación y permitir la expansión del conocimiento. En este sentido, tres grandes descubrimientos producirían una verdadera revolución de la sociedad contemporánea, algo que para el genetista británico Adrian Bird (1947), transformaría esta Era en “la edad de oro de la biología”. El primero de estos se produciría en 1953, de la mano del biólogo norteamericano James Watson (1928) y del neurocientífico británico Francis Crick (1916-2004), al descubrir que el ADN se dispone en forma de una hélice doble. Un modelo mecánico-químico tridimensional, que permite explicar el proceso mediante el cual se produce “la copia de los genes”: “…uno de los logros científicos más importantes del siglo XX, equiparable a la teoría de la relatividad de Einstein y a la desintegración del átomo” (Henderson, 2011, p. 38). El segundo descubrimiento se realizaría en 1990, cuando un grupo de investigadores –financiado por diferentes gobiernos del mundo e instituciones benéficas–, desarrollaría el Proyecto Genoma Humano Internacional: un programa que buscaba cartografiar y descifrar “…los 3.000 millones de pares bases en los que están escritas las instrucciones genéticas de la humanidad” (Henderson, 2011, p. 55). En el año 2004, el consorcio de investigación publicaba la versión final o completa del genoma humano. En palabras del genetista estadounidense Francis Collins (1950), “se iniciaba una nueva era de investigación basada en la genómica que afectaría crucialmente a la biología, a la salud y a la sociedad contemporánea” (Barbadilla, 2015). 217 Parte IV. La génesis de un nuevo paradigma Finalmente, el tercer descubrimiento se produciría el 5 de julio de 1996, cuando el biólogo británico Keith Campbell (1954) y el investigador británico Ian Wilmut (1944), del Instituto Roslin en Edimburgo, obtuvieron el primer embrión de mamífero a partir de la clonación de una célula adulta. Y, aunque ya existían antecedentes de clonaciones de ranas y peces, desarrollados por científicos rusos durante la década de 1980, esta era la primera vez que se extraía “el núcleo de una célula somática (adulta) de una oveja y [se lo introducía] en un óvulo al que previamente habían extraído el núcleo” (Henderson, 2011, p. 150). A partir de estos descubrimientos, un nuevo camino se abría en la ciencia, permitiendo el desarrollo de toda una serie de innovaciones entre las que se destacan los avances en el tratamiento para prevenir las enfermedades mitocondriales en humanos, que se transmiten de la madre a sus hijos. “Como profetizo Diderot en su Sueño de D’Alembert, el futuro experto genético podría trabajar en ‘un local caliente, con estantes de pequeños frascos o viales, cada uno con su etiqueta: guerreros, magistrados, filósofos, poetas, cortesanos, prostitutas, reyes’. Los contenidos de los frascos podrían ser mezclados y, hasta donde la genética determina la personalidad, podrían ser creados tipos de caracteres determinados” (Jencks, 1975, pp. 132-133). La naturaleza, esa diseñadora eficiente. El papel de la biología en el diseño contemporáneo Desdibujando las fronteras de las anomalías A finales del siglo XX, la crisis de la arquitectura contemporánea había llevado a la aparición de siete anomalías dentro de la disciplina. Siete anomalías imposibles de definir con el modelo anterior y que parecen fortalecer de este modo la hipótesis de la génesis de un nuevo paradigma. A dieciocho años del nacimiento de un nuevo milenio, el modelo ha cambiado: las anomalías recluidas dentro de compartimentos estancos, con límites definidos, han mutado. Una nueva visión refleja la fuerte interdependencia que existe entre estas. El nuevo modelo considera las anomalías como un conjunto, pero donde los ejes de la biología, la tecnología y lo digital se resignifican por sobre el resto. Una composición de manchas, con diferentes niveles y sustratos, que se interrelacionan y desdibujan continuamente los bordes de sus fronteras, y alteran el simple concepto de unidad por el de multiplicidad, donde las variables del tiempo y del espacio son imprescindibles. 218 Fragmentación y Contaminación En el marco del pensamiento del siglo XXI, nuevas estructuras se presentan en el horizonte, como herramientas aptas para comprender y articular esta nueva realidad. Para el filósofo francés Jean-François Lyotard (1924-1998), en la contemporaneidad, los grandes relatos han entrado en crisis; el sujeto actual solo puede construir sus pequeños relatos, explicaciones parciales, particulares y hasta a veces contradictorias, en búsqueda de una vida más grata y sencilla. Por su parte, el arquitecto británico Neal Leach considera necesario “…‘repensar la arquitectura’ por fuera del marco de los discursos arquitectónicos tradicionales, a través de una selección de textos escritos exclusivamente por intelectuales ajenos al campo de la disciplina” (Valentino, Giménez, & Miras, 2011, p. 28). De manera análoga, el arquitecto argentino Julio Valentino (1951), en su libro La arquitectura cómplice (2011), considera que los conceptos que caracterizan esta situación contemporánea son: la fragmentación y la contaminación. Para Valentino, el concepto de fragmentación alude “…a la ausencia de cuerpos teóricos definidos, unitarios y completos en donde integrar o vincular los discursos especulativos”. Se caracteriza por la excesiva utilización, Marcelo A. Fraile - Arquitectura biodigital por parte de los diseñadores, de saberes de otros campos: una interconexión de elementos interdependientes, fragmentos teóricos dispersos y parciales que terminan por definir una arquitectura compleja, imperfecta y diversificada (2011, p. 16). Por su parte, el arquitecto italiano Vittorio Gregotti (1927) considera que esta fragmentación, “…no parece presentarse como una condición provisoria; por el contrario, esta fragmentación aparece como un nuevo modo de ser de la reflexión teórica” (2011, p. 13). El segundo concepto propuesto por Valentino es el de contaminación o entrecruzamiento, y se refiere a una apropiación de saberes de otras disciplinas para “cruzarlos” con saberes específicos del campo arquitectónico durante el proceso de diseño. Una búsqueda de posibles interconexiones: “Analizando y cuestionando los bordes del saber disciplinar, [presentes] hoy, en la contemporaneidad, y que alimentan las ideas y las prácticas” (2011, p. 53). Una relación ordenada y jerárquica entre lo natural y lo artificial: una concepción compleja, heterogénea, resultado del control de millones de variables, donde cualquier combinación es posible (Eisenman & Glaister, 1988). Y si bien a lo largo de la historia, la arquitectura ha recurrido a otras ramas del conocimiento, solo basta recordar los escritos de Vitruvio, Laugier, y tantos otros, en los últimos años, esta tendencia se ha acentuado fuertemente y ha dado lugar al desarrollo de una arquitectura particularmente nutrida por el pensamiento de otros campos: una práctica que ha puesto en crisis sus resultados. La R-Evolución biológico-digital en la arquitectura del nuevo milenio Lejos de criterios historicistas, la arquitectura contemporánea ha abandonado las cajas vacías, de líneas rectas y paralelas, para ser reemplazadas por estructuras biomórficas –formas fluidas geométricamente complejas, en continuo cambio y reconfiguración, formas de límites difusos y estructuras mutables, formas que rompen la homogeneidad del espacio euclídeo y lo transforman en espacios blandos, homogéneos y flotantes–. Una arquitectura que para el arquitecto español Luis Arenas, de la Universidad de Zaragoza, es el “punto de vista del ojo de Dios” que explicaría “…la perspectiva adecuada para contemplar obras como el Guggeheim de Bilbao”, una mirada que incluye el “…tacto de sus materiales y el peso de sus espacios” (Arenas, 2010, p. 23). En este sentido, la precisión aritmética abstracta del movimiento moderno impedía desarrollar modelos capaces de evolucionar de acuerdo al contexto. Desde este punto de vista, “…el ‘menos es más’ resulta[ba] peligroso. Para la adaptación al entorno, la exageración no es lujo sino necesidad’” (Arenas, 2010, p. 32). Por consiguiente, se hace ineludible el desarrollo de un nuevo contexto que consienta la relación entre las ciencias biológicas y la arquitectura, un camino fértil para el establecimiento de una lógica proyectual en los 219 procesos de creación: es el reencuentro de la arquitectura “…con esa naturaleza a la que ‘el cuerpo mecánico [le] dio la espalda” (Arenas, 2010, p. 30). Uno de los primeros en anticipar la fuerte incidencia que tendría la biología en la arquitectura contemporánea fue el crítico y arquitecto norteamericano Charles Jencks (1939) quien, en 1969, predijo que la biología se convertiría en la principal metáfora de la década de 1990 y que las escuelas biomórficas se transformarían en la corriente arquitectónica más importante de este siglo (Frazer, 1995). Una reinterpretación de diseño “biológico” que abandona la imitación de las morfologías animales o vegetales del siglo XX para dar paso a una nueva lógica que encuentra en la naturaleza una diseñadora eficiente, de gran rendimiento, que evita lo superfluo, y donde la optimización de sus recursos y de sus medios se define como una de sus condiciones fundamentales. El catedrático de la Universidad de Murcia, el español Francisco Jarauta Marión, en su conferencia inaugural del 1.er Seminario de Arquitectura y Pensamiento2, proponía –a través de un juego de palabras–, transformar 2. Encuentro Miradas para un Cambio de Paradigma, realizado en la ETSA (Escuela Técnica Superior de Arquitectura) entre el 11 y el 13 de noviembre de 2010 en Valencia, España. Parte IV. La génesis de un nuevo paradigma el concepto de “Evolución” en una “R-evolución”: una evolución acelerada, un modo inspirado en la naturaleza, un modelo híbrido biológico-digital, desarrollado bajo un enfoque algorítmico no lineal y virtual que traspasa las fronteras de la imaginación, desciende a niveles celulares para desarrollar cadenas de programación genética. Un camino de exploración de seres digitales, modelos evolutivos, sistemas basados en algoritmos genéticos, en los que se integran y combinan una selección creciente de alternativas optimizadas de acuerdo con parámetros ecosustentables, dentro de un campo que podría definirse como morfogenético. Un principio válido que posibilite restringir las opciones, desechando las no deseadas y optimizando las soluciones. Una arquitectura de avanzada, en superación al ecologismo y al uso de la computadora como mero sustituto del dibujo manual (Estévez, 2003, p. 4). Un interés por el cuidado de los recursos del planeta, modificando los discursos y los procesos de ideación y materialización de la arquitectura de nuestro tiempo. 220 Marcelo A. Fraile - Arquitectura biodigital EL MODELO BIOLÓGICO “Goethe tuvo la capacidad de ver los procesos genéticos activos que operan dentro de las formas y a los que llamo Urforms. Los Urforms no son las formas originales, como se suele pensar, sino que representan una forma básica y sus futuras metamorfosis. Así, la Ur-plant sería un prototipo ideal que contiene todas las plantas del pasado y del futuro” . (Luzarraga Álvarez, 2009). Morfogénesis Uno de los conceptos más importantes que desarrollaremos a continuación es el de morfogénesis. Etimológicamente la palabra morfogénesis tiene su origen en dos palabras griegas: ‘morphe’, que significa forma; y ‘genos’, engendrar o producir, es decir “la aparición de nuevas formas, el origen de las formas”. Morfogénesis es un término utilizado en disciplinas tan disímiles como la cristalografía, el urbanismo o el arte; al igual que con una variedad de usos que van desde lo estrictamente formal a lo bucólico. Sin embargo, su origen se encuentra en el campo de la biología, donde comienza a ser utilizado recién a fines del siglo XIX, y se refiere a aquellos dispositivos subyacentes que se relacionan con las transformaciones o cambios que se producen en el desarrollo de las células y los tejidos (Cowin & Doty, 2007). En este sentido, la palabra morfogénesis puede ser usada tanto “…para referirse a los cambios estructurales observados en los tejidos como en el caso de desarrollo de un embrión, [como así también en alusión a] los mecanismos subyacentes de los cambios estructurales” (Roudavski, 2009, pp. 345-374). En botánica, la palabra morfogénesis “…se entiende como la disposición de la forma y la estructura, relacionadas con un proceso coordinado que involucra cambios en las formas celulares, el aumento del tamaño de las células y la división por mitosis” (Roudavski, 2009, pp. 345-374). Conceptualmente, la morfogénesis es uno de los tres aspectos de la biología del desarrollo, “incluye la forma de los tejidos, de los órganos y de los organismos complejos y las posiciones de varios tipos de células especializadas” (Luzarraga Álvarez, 2009). Es a través del estudio de la morfogénesis que se busca comprender el proceso que controla la distribución organizada de las células. Un proceso continuo, de aceleración progresiva, que aparece durante el desarrollo embrionario de un organismo y genera las formas características de los seres vivos. 221 En otras palabras, la morfogénesis tiene como fin estudiar y analizar las características fundamentales de los entes biológicos, de acuerdo con el medioambiente en que se desenvuelven: un intento por entender los mecanismos que llevan al crecimiento, desarrollo, evolución, y diferenciación de cada ser vivo. Para realizar estos estudios, los biólogos elaboran experimentos mediante la utilización de modelos matemáticos digitales, modelos genéricos en múltiples escalas con el objeto de simular y entender los procesos desarrollados durante la morfogénesis, en lo que respecta al crecimiento y la adaptación de un organismo. Para el escritor norteamericano Steven Johnson (1948), la morfogénesis define la capacidad de todo ser vivo de desarrollar un cuerpo cada vez más complejo, a partir de un origen relativamente simple. “…la división de una célula es el resultado de la eliminación de cuatro paredes y la creación de diez nuevos muros (ocho subdivisiones de las paredes anteriores y dos nuevos muros que separan la nueva célula creada). Las entidades asociadas con los nuevos muros están luego definidas a través de una función de herencia y están asociadas con las dos células heredadas a través de otra” (Roudavski, 2009, pp. 345-374). Parte IV. La génesis de un nuevo paradigma De la teoría de la evolución a las leyes de la herencia genética Para Charles Darwin (1809-1882), el estudio de la morfogénesis posibilita explicar la teoría de la selección1 por la cual la naturaleza regula la variabilidad de las especies. De acuerdo con esta teoría, el origen y la transformación de los seres vivos se produce como una respuesta a las exigencias del ambiente, donde cada especie desarrolla características particulares que las diferencian. Desde este punto de vista, cada elemento de su organismo se encuentra en completa relación sistémica con la estructura total. Para esto, durante la morfogénesis, los organismos individuales heredan las características de sus progenitores con modificaciones: una serie de pequeñas variaciones aleatorias que ayudan a los organismos a competir por el alimento y la copula y que facilitan su supervivencia, transmitiéndose a su descendencia; en tanto que, las variaciones con efecto negativo desaparecen de manera gradual, a medida que los individuos portadores sucumben frente a los individuos mejor adaptados (Henderson, 2011, p. 10). Durante su viaje de exploración a bordo de la fragata Beagle, Darwin había llegado a las islas Galápagos y se sorprendió al ver la gran diversidad de flora y fauna. Una primera explicación fue que quizás: “Las corrientes marinas, con sus cambios periódicos, podrían haber permitido que muchas diferentes especies inmigraran a las islas” (Di Tada, 2002, pp. 15-40). Posteriormente, en las islas, las especies se establecieron y dispersaron, para finalmente comenzar a evolucionar, generando nuevas especies. Uno de esas especies son los pinzones de Darwin:“Los pinzones, probablemente, descendientes de algunos ancestros comunes. Luego, debido al aislamiento en las islas, a fenómenos probabilísticos, a climas diferentes, a características naturales tales como disponibilidad y tipo de alimentos, se derivaron en trece diferentes especies” . Aquellas especies más fuertes y adaptadas sobrevivieron, transmitiendo a sus descendientes sus características,“…aumentando, de esta manera, la fortaleza general de la especie en relación con el entorno” (Di Tada, 2002, pp. 15-40). Sin embargo, a pesar de lo relevante de los descubrimientos de Darwin, su teoría no explicaba cuáles eran esas variaciones individuales que se suponían eran transmitidas de una generación a la siguiente. El naturalista inglés apoyaba la idea de la “pangénesis”, donde los rasgos de cada ser humano eran semejantes a un fluido, y que cada individuo era el resultado de la fusión de las características de cada uno de sus progenitores. Hipótesis que, de ser cierta, implicaría que al cabo de cierto tiempo una población llegaría a tener los mismos rasgos intermedios. Contemporáneo a Darwin, en 1856, Johann Gregor Mendel (1822-1884), un monje agustino del monasterio de 222 St. Thomas de Brünn, comenzó a desarrollar una serie de experimentos sobre la transmisión de los caracteres hereditarios, buscando descubrir las leyes que rigen la herencia genética. Para esto, centró sus trabajos en el estudio de diferentes variedades de plantas de guisantes: conociendo que ciertas plantas “…reproducen realmente sus características, es decir, que transmiten fiablemente a la generación siguiente características como el tamaño o el color” (Henderson, 2011, p. 12). En sus ensayos, Mendel seleccionó siete características de transmisión de los guisantes (conocido como fenotipo) y realizó durante veinte años, el cruzamiento controlado de plantas con estas características, buscando obtener diferentes tipos de especies híbridas. 1. En 1831 Charles Darwin se embarcó en el barco inglés Beagle para realizar una expedición científica alrededor del mundo, durante cinco años. De regreso en Gran Bretaña, y a partir de sus descubrimientos, Darwin publicó en 1842, su teoría sobre la evolución de las especies. Sin embargo, no fue dada a conocer hasta 1858, en que fue presentada en la Royal Society of London, en forma conjunta con Alfred Russel Wallace (1823-1913), un joven naturalista británico que había llegado a las mismas conclusiones que Darwin de un modo independiente. En 1859, Darwin publicaba “El origen de las especies por medio de la selección natural”. La teoría de Darwin estaba influida por las ideas del geólogo inglés Adam Sedgwick (1785-1873) y del naturalista inglés John Stevens Henslow (1796-1861). Marcelo A. Fraile - Arquitectura biodigital Por ejemplo, “…cruzó las especies de guisantes que siempre producían semillas redondeadas con especies que producían semillas arrugadas; las flores de color purpura, con flores de color blanco; y las plantas con tallos largos, con plantas cuyos tallos eran cortos”. En la siguiente generación, a la que denominó F1, solo aparecían algunos de los rasgos (los rasgos predominantes) “…la progenie siempre tenía semillas redondeadas, flores de color purpura o tallos largos”(Henderson, 2011, p. 12). Posteriormente, utilizó cada especie híbrida para autofertilizarla, obtuvo así una nueva generación de guisantes a la que denominó F2, en la que reaparecieron algunos de los rasgos perdidos en la generación anterior, “…el 75% de los guisantes presentaba semillas redondeadas, y el 25% restante, semillas arrugadas” (Henderson, 2011, p. 13). Entre 1956 y 1968, Mendel desarrolló sus experimentos con más de 29.000 especies de guisantes. De sus resultados, elaboraría las tres leyes generales de la herencia: - Primera ley o ley de la uniformidad, sostiene que cada rasgo fenotípico transmitido en la herencia, al que Mendel denomino “factores”2, depende de los alelos procedentes de su progenitor (uno del padre, y uno de la madre). En algunos casos, el individuo puede recibir alelos diferentes: aquel que se expresa en el fenotipo, recibe el nombre de dominante; mientras que el otro, que se mantiene oculto, se llama recesivo. Por ejemplo, si se cruzan dos razas de origen puro, en un determinado carácter, los descendientes de la primera generación serán todos iguales entre sí (igual fenotipo e igual genotipo) e iguales (en fenotipo) a uno de sus progenitores. - Segunda ley o ley de la segregación, sostiene que ”…los genes pueden presentar formas alternativas denominadas alelos que influyen en el fenotipo, como puede ser la configuración de las semillas (o… el color de los ojos de las personas)” (Henderson, 2011, p. 14). Es decir, que los caracteres recesivos, al cruzar dos razas puras, quedarán ocultos en la primera generación, para reaparecer en la segunda, con una proporción de uno a tres con relación a los caracteres dominantes. En la segunda generación, los individuos son híbridos de la primera, ya que estos poseen diferentes fenotipos unos de otros. 223 Fig. 1. Leyes de Mendel 2. En 1889, el botánico holandés Hugo Marie de Vries (1848-1935) utilizó el término “pangén” para definir a la partícula más pequeña, capaz de representar una característica hereditaria. Poco tiempo después, en 1909, el botánico danés Wilhelm Johannsen (1857-1927) propuso la expresión Gen y Genotipo para definir la constitución genética de un organismo, y fenotipo para precisar las características físicas que dan lugar esos genes, es decir, la forma en cómo se manifestarían esos genotipos. En 1924, el genetista inglés Ronald Fisher (1890-1962) propuso que la mayor parte de los rasgos genotípicos no estaban controlados por un único gen, sino por una combinación de genes distintos. Hoy en día, la genética mendeliana es aceptada como el mecanismo a través del cual se produce la evolución planteada por Darwin. Parte IV. La génesis de un nuevo paradigma - Tercera ley o ley de la herencia independiente, sostiene que “…el patrón de herencia correspondiente a un rasgo no influye en el de otro” (Henderson, 2011, p. 14). De este modo, por ejemplo, los genes encargados de configurar el color de los ojos son distintos de los que codifican el color de pelo y no influyen en estos3. En la transmisión los caracteres son independientes y se combinan al azar: cada par de alelos que controla un carácter se transmite de manera independiente de cualquier otro par de alelos que controlan otros caracteres en la segunda generación, y se combinan de diferentes maneras. En 1865 Mendel presentó sus trabajos en la Natural History Society de Brünn, publicándolo al año siguiente con el nombre de Ensayo sobre los híbridos vegetales. Un pequeño boletín en donde exponía la formulación de las leyes de la genética. Sin embargo, un hecho casi trascendental alteraría las investigaciones del monje. En 1868, Mendel fue elegido abad y suspendió definitivamente todas sus investigaciones. Sus teorías serían olvidadas hasta que, en 1900, el botánico holandés Hugo Marie de Vries (1848-1935), el biólogo alemán Carl Correns (1864-1933) y el genetista austriaco Erich von Tschermak (1871-1962) redescubrieran de manera independiente las leyes de la herencia desarrolladas por Mendel, incorporando el concepto de mutación a la teoría evolutiva. Genética de la evolución Desde un punto de vista morfogenético, todos los seres vivos poseen células. Es la unidad más pequeña de un organismo, capaz de actuar de manera autónoma. Cuando una célula se divide, en su etapa de mitosis celular, estas copian su genoma completo y generan células idénticas a la célula progenitora. En su interior, se encuentran los cromosomas, una serie de elementos “…constituidos por cromatina (una combinación de ácido desoxirribonucleico [ADN] y de proteínas), que se localizan en el núcleo de la célula y que son los portadores de la mayor parte de la información genética de la célula” (Henderson, 2011, p. 17). Por lo general, los cromosomas suelen ser representados en forma de bastoncillos, con una zona estrecha y reducida en su parte media, sin embargo, esta configuración solo es adoptada durante la división celular, el resto del tiempo su forma es similar a unos cordones laxos y alargados (Henderson, 2011, p. 17). Los cromosomas fueron descubiertos en la década de 1840, pero su función todavía no era conocida. Los únicos avances al respecto se produjeron en 1902, cuando el biólogo Thoedor Boveri (1862-1915) y el genetista Walter Sutton (1877-1916) propusieran, cada uno por su cuenta, la posibilidad de que los cromosomas fueran 224 portadores del material hereditario. En 1903, el médico y genetista estadounidense Walter Stanborough Sutton (1877-1916) descubrió que durante la meiosis celular, los cromosomas se comportaban de un modo similar a lo que Mendel había elaborado para las plantas, es decir que las leyes de la herencia mendeliana podían ser aplicadas a los cromosomas, a un nivel celular. Mientras tanto, uno de los redescubridores de los trabajos de Mendel, el biólogo británico William Bateson (1861-1926), en 1905 había acuñado el término genética para designar a la ciencia dedicada al estudio de los fenómenos de la herencia y la variación de los seres. Bateson también es el creador de los términos homocigoto y heterocigoto4, y también alelomorfo, el cual fue abreviado en alelo5. 3. En realidad, ninguna de las leyes de Mendel es totalmente correcta. Algunos de los fenotipos sí se encuentran relacionados entre sí y se heredan de forma conjunta. 4. Cuando los miembros del par de genes alelos son iguales en un individuo, para el rasgo hereditario en estudio el individuo es homocigoto, en tanto que, si los miembros del par de genes alelos son distintos, para el rasgo hereditario en estudio el individuo es considerado heterocigoto. 5. De acuerdo al Diccionario de la Real Academia Español, recibe el nombre de alelo, “Cada una de las formas alternativas de un gen que ocupa el mismo lugar en los cromosomas homólogos y cuya expresión determina las características del mismo rasgo de organización, como el color de los ojos” (RAE, Asale, 2014). Marcelo A. Fraile - Arquitectura biodigital Poco tiempo después, en 1908, el genetista estadounidense Thomas Hunt Morgan (1866-1945) comenzó a experimentar con la mosca de la fruta, Drosophila melanogaster, con el fin de evaluar los patrones de herencia y refutar las teorías de Darwin y de Mendel. Sin embargo, luego de una serie de experimentos, Morgan no pudo alcanzar sus objetivos, todo lo contrario: a través de sus investigaciones, logró demostrar no solo “…que los fenotipos se heredan de la forma que proponía Mendel, sino también que las unidades de herencia residen en los cromosomas” (Henderson, 2011, p. 16). A partir de esto, fue posible dilucidar que cada especie posee un número determinado de cromosomas, agrupados en pares. Cada par está compuesto por dos cromosomas: un cromosoma herencia de su padre, y un cromosoma herencia de su madre. En el caso del ser humano posee 23 pares de cromosomas: 22 pares denominados autosomas, y un par de cromosomas sexuales. Los óvulos (herencia de la madre) siempre son portadores de un cromosoma X, en tanto que los espermatozoides (herencia del padre) pueden ser portadores de un cromosoma X o de un cromosoma Y. En caso que el espermatozoide posea un cromosoma X, cuando se una con el ovulo, dará lugar a un gameto femenino; mientras que, si el espermatozoide posee un cromosoma Y, dará lugar a un gameto masculino. Cuando un cromosoma del padre, se fusiona con un cromosoma de la madre, se produce un entrecruzamiento del material genético que genera una combinación única de alelos. En el caso del ser humano, la unión de un espermatozoide masculino y un ovulo femenino constituye la fecundación, y la célula resultante de esto, se denomina “cigoto” o “célula huevo”. A la caza del ADN En 1869, el científico suizo Friedrich Miescher (1844-1895), de un modo accidental, descubrió que los genes son los portadores de los códigos necesarios para la elaboración del ADN. Tiempo después, en 1928, el médico estadounidense Oswald Avery (1877-1955), el genetista estadounidense Maclyn MacCarty (1911-2005) y el genetista canadiense-estadounidense Colin MacLeod (1909-1972) corroboraron las teorías de Miescher, al experimentar con más de 100 litros de bacterias durante más de una década y encontrar la evidencia de la existencia del ADN. Posteriormente, en 1952, el químico austriaco Erwin Chargaff (1905-2002) había realizado una serie de experimentos que daban evidencia que cada célula estaba compuesta por un número determinado de partes que guardaban una estrecha relación estructural y funcional entre sí y con la estructura total del conjunto. Ese mismo año, la biofísica británica Rosalind Francklin (1920-1958), del King’s College de Londres, utilizando un análisis de difracción con rayos X, obtuvo una imagen cristalográfica del ADN. Un año después, en abril de 1953, el neurocientífico británico Francis Crick (1916-2004) y el biólogo norteamericano James Watson (1928) –quienes se encontraban trabajando en el King’s College de Cambridge y conocían la imagen cristalográfica obtenida por Francklin–, publicarían un artículo en la revista “Nature”, donde proponían la estructura de hélice doble del ADN: un mecanismo a través del cual “…el código de la vida se copia a medida que las células se dividen, de forma que cada cadena de ADN proporciona una plantilla a partir de la cual es posible la duplicación de las instrucciones genéticas” (Henderson, 2011, p. 38). Sin embargo, pese a haber encontrado el código genético que producía los 20 aminoácidos que forman las proteínas de la vida, lo que todavía no estaba claro era su significado. Esto iba a cambiar en 1958, cuando Crick (1916-2004) descubriría que “…el ADN se podía traducir en aminoácidos por medio de una ‘molécula adaptadora’… un intérprete que transmitía las órdenes desde los genes hasta los orgánulos celulares que elaboran las proteínas” (Henderson, 2011, p. 42). Dos años después, en 1960, el bioquímico francés Jacques Monod (1910-1976) y su equipo demostrarían que el ADN produce una molécula adaptadora, la cual está 225 Parte IV. La génesis de un nuevo paradigma constituida por un compuesto químico relacionado con el ADN, el cual fue denominado como “ácido ribonucleico” (ARN). El alfabeto del ADN Conceptualmente, cada molécula del ADN se encuentra formada por “…fosfatos y azúcares, que conforman su arquitectura estructural, y por elementos químicos ricos en nitrógenos denominados nucleótidos o bases, que codifican la información genética” (Henderson, 2011, p. 37). Los nucleótidos pueden ser de cuatro tipos: adenina (A), timina (T), citosina (C) y guanina (G). A su vez, cada uno de estos nucleótidos se encuentra unido con su “pareja natural”: la adenina (A) con la timina (T), y la citosina (C) con la guanina (G). Una propiedad de complementariedad que permite que, si una de las hileras dice GAGAG, en la otra solo podrá decir CTCTC. De esto se desprende que, a partir de una hilera es posible reconstruir la otra, y en conjunto conforman las instrucciones con que se redacta el código genético. Su posición dentro de una larga cadena de ADN determinará la información genética, es decir, las instrucciones necesarias para el surgimiento y desarrollo de la vida. Cuando una de estas se divide, la doble hélice se abre por la mitad en sus dos cadenas constituyentes. En consecuencia, cada mitad sirve de plantilla para la replicación, proceso que conduce a la creación de una nueva forma: una encima completa la secuencia añadiendo nuevas bases a las letras de cada cadena, emparejando las A con las T, y las C con las G, lo que da finalmente como resultado la aparición de dos nuevas dobles cadenas de ADN. Una manera fiable de transmitir la herencia y producir otro organismo idéntico al original. 226 Fig. 2. En 1952, la biofísica británica Rosalind Francklin (1920-1958), del King’s College de Londres, utilizando un aná- En este sentido, la secuencia del ADN codifica doblemente la información genética, lo que facilita su copia. Una garantía a la supervivencia a partir de la generación de respuestas a los estímulos externos (exógenos) e internos (endógenos), pudiendo modificar su composición y forma a fin de especializarse en los diferentes órganos y organismos existentes en la naturaleza. Desde las formas poligonales que se encuentran en los vegetales hasta llegar incluso a las delgadas y alargadas células de los músculos en los animales. lisis de difracción con rayos X, obtuvo una imagen cristalográfica del ADN. El mensajero de los dioses Para que el ADN pueda comunicarse con las proteínas, requiere de un intermediario, un mensajero que recibe el nombre de ARN. El ARN (ácido ribonucleico) interviene junto con el ADN en la síntesis de las proteínas y en el traslado de toda la información genética que posee el ADN: el ARN copia la información ubicada en cada gen del ADN, para trasladarla al citoplasma donde esta se une con el ribosoma para dirigir la síntesis de proteínas. Marcelo A. Fraile - Arquitectura biodigital Conceptualmente el ARN es similar al ADN, aunque con algunas diferencias estructurales: a diferencia del ADN, no presenta una base timina, utiliza uracilo (U). Además, el ARN es inestable, presenta “…un ciclo vital Fig. 3. ADN. Conceptualmente, cada molécula del ADN se encuentra formada por “…fosfatos y azúcares, que más breve en la célula y forma muchos tipos diferentes de moléculas que desempeñan funciones especializadas” (Henderson, 2011, p. 43). conforman su arquitectura estructural, El ARN está formado por nucleótidos y cada uno de estos se encuentra compuesto por ribosa, fosfato y cuatro compuestos: adenina (A), guanina (G), uracilo (U) y citosina (C). bases, que codifican la información y por elementos químicos ricos en nitrógenos denominados nucleótidos o genética” (Henderson, 2011, p. 37). En este sentido, a diferencia del ADN, el ARN agrupa sus proteínas en una hélice simple y transmite el código genético almacenado por el ADN: cuando la doble hélice del ADN se separa, “…una de las cadenas es leída para producir una cadena de ARNm que representa una imagen especular de la primera”. En esta transcripción, “…las C de los genes se convierten en G en el ARNm; las T en A; las G en C, y las A en U; es decir, en las moléculas de ARN, el uracilo sustituye a la timina del ADN” (Henderson, 2011, pp. 43-44). Posteriormente estas señales genéticas van a migrar “…desde el núcleo de la célula hasta las estructuras celulares que elaboran las proteínas, denominadas ribosomas, en las que los aminoácidos se ensamblan en cadenas siguiendo un orden… especificado por el código genético” (Henderson, 2011, pp. 43-44). Existen diferentes tipos de ARN: - ARNmensajero (ARNm): una molécula de una sola cadena que posee el código genético necesario para establecer el esquema de los aminoácidos, “…se utiliza para la elaboración de las proteínas mediante un proceso denominado traducción” (Henderson, 2011, p. 43). - ARNtransferencia (ARNt): es el encargado de llevar los aminoácidos a los ribosomas, “…recoge los aminoácidos y los alinea 227 Parte IV. La génesis de un nuevo paradigma en la cadena proteica en la fase de crecimiento” (Henderson, 2011, p. 44). El ARNt también es el encargado de codificar la información que posee el ARNm. - ARNribosómico (ARNr): forma parte de los ribosomas, actuando además en la actividad enzimática al generar enlaces entre aminoácidos adyacentes. Crick descubrió cómo los ribosomas determinan el orden en que se disponen los aminoácidos, así como también determinan los puntos de inicio y finalización de las cadenas proteicas: fundamentado en la combinación de tres letras del ADN, denominadas “triplete”. En 1961, el bioquímico estadounidense Marshall Nirenberg (1927-2010) descifró el primer triplete, y cinco años después, ya se habían identificado todas las combinaciones de las cuatro bases: 64 tripletes (o coFig. 4. El ARN está formado por nucleótidos y cada uno de estos se encuentra compuesto por ribosa, fosfato y cuatro compuestos: adenina (A), guanina (G), uracilo (U) y citosina (C). dones), pese a que solo existen 20 aminoácidos. Esto quiere decir que algunos aminoácidos son utilizados por más de un codón: por ejemplo “…la fenilalanina no solamente está codificada por el codón UUU, sino también por el codón UUC. Cada uno de los aminoácidos luecina, serina y arginina puede ser codificado por seis codones. Solo dos de los 20 aminoácidos están codificados por un codón único: el triptófano (UGG) y la metionina (AUG)” (Henderson, 2011, p. 45). La redundancia ofrece una ventaja muy significativa: los aminoácidos más importantes pueden ser generados por codones múltiples y crear una resistencia ante las mutaciones. Por ejemplo, “…la glicina puede estar codificada por los codones GGA, GGC, GGG, GGU; si la última base Fig. 5. El ARN copia la información ubicada en cada gen del ADN, para trasladarla al citoplasma donde esta se une con el ribosoma para dirigir la síntesis de proteínas. 228 presenta una mutación, el producto sigue siendo el mismo” (Henderson, 2011, p. 45). De este modo se disminuyen las posibilidades de producir errores durante el mecanismo de copia. Para la década de 1970, la ciencia ya había desentrañado la estructura del ADN y los tripletes que codifican la producción de proteínas. Treinta años después, en 1990, se pondría en marcha el Proyecto Genoma Humano Internacional, financiado por gobiernos e instituciones benéficas, bajo la dirección de James Watson, cuyo objeto fundamental era determinar la secuencia de pares de bases químicas que componen el ADN. En el año 2004, el consorcio de investigación publicó la versión final o completa del genoma humano. Mutaciones Actualmente, la teoría genética de Mendel es aceptada como mecanismo a través del cual tiene lugar la evolución darwiniana. Un proceso donde la naturaleza se encargará de concebir en cada generación pequeñas modificaciones en su patrón celular que darán lugar a nuevas variaciones genéticas o nuevos alelos. Una combinación de infinitas posibilidades que le permitirá crear un universo de formas vivas en constante evolución. Pequeñas mutaciones6 que se incorporan gradualmente 6. Por lo general, las grandes mutaciones tienen pocas probabilidades de difun- Marcelo A. Fraile - Arquitectura biodigital al conjunto de individuos de la población: “…los individuos de mayor éxito procedentes de estos conjuntos son los que dan lugar a la generación siguiente” (Henderson, 2011, p. 22). Tomemos el ejemplo de la polilla moteada: “Antes de la Revolución Industrial en Inglaterra, …presentaban un cuerpo uniformemente blanco y moteado, un esquema de color adaptativo que les permitía camuflarse en los líquenes que cubrían los troncos de los árboles. Sin embargo, a lo largo del siglo XIX la polución procedente de las fábricas …hizo que los troncos de los árboles de los bosques cercanos adquirieran una coloración negra con el hollín… la polilla moteada presentó una variante de color negro debido a una mutación en el gen que produce el pigmento melanina… La modificación del medioambiente, en el que ahora predominaban los arboles cubiertos por hollín, había hecho que el alelo que codifica el color oscuro en la polilla tuviera una ventaja adaptativa” (Henderson, 2011, p. 24). Un complejo proceso encargado de controlar la distribución espacial organizada y especializada de las células durante el desarrollo de un sistema en la naturaleza, que produce las características de su forma: estos pequeños errores durante el proceso de copia de las células se transforman en el material básico utilizado durante la evolución. Un mecanismo subyacente responsable de los cambios estructurales. Una distribución desarrollada a partir del fenómeno de autoorganización, es decir, una organización interna, sin agentes o guías externos. Un proceso de diversificación y adaptación por medio de la selección natural de Darwin (1871): donde las formas habrían surgido a partir de las ventajas adaptativas a su ambiente que les dan el tener ciertas características de las que carecen otros seres. dirse, o son letales en sí mismas ya que eliminan al organismo o son tan extremas que imposibilitan al individuo desarrollarse dentro de su ambiente. Fig. 6. En 1990, se pondría en marcha el Proyecto Genoma Humano Internacional, financiado por gobiernos e instituciones benéficas, bajo la dirección de James Watson, cuyo objeto fundamental era determinar la secuencia de pares de bases químicas que componen el ADN. 229 Parte IV. La génesis de un nuevo paradigma Las teorías de D´Arcy Thompson Los cimientos del concepto de Morfogénesis fueron introducidos por el profesor escocés en matemática y zoología de la Universidad de St. Andrews, D´Arcy Wentworth Thompson (1860-1948). En el epílogo de su libro, “On Growth and form”, publicado en 1917, Thompson afirmaba que su propósito principal era el de “…correlacionar mediante la exposición matemática y las leyes físicas, algunos de los fenómenos externos más simples del crecimiento orgánico y la estructura o forma, considerando todo el tiempo, …la estructura del organismo como una configuración material y mecánica” (1961, p. 26). En sus investigaciones, Thompson abordaría el estudio del crecimiento y la forma, desde una geometría pitagórica, intensificada a través de las teorías mecánicas de Newton. Una teoría híbrida utilizada para argumentar cómo las fuerzas físicas del medioambiente modelan las formas de los organismos de un modo directo: para Thompson, “las fuerzas ‘internas’ y genéticas únicamente son responsables de la producción de los materiales brutos” (Gould, 1961, p. 8), el resto de la tarea, recaería sobre las fuerzas del medioambiente. En este sentido, Thompson no niega la selección natural, aunque sugiere que esta “… actúa solo para eliminar a los no aptos [pero] no sirve como una fuerza progresiva [que describa los procesos o mecanismos subyacentes] en [la] evolución” (Bonner, 1961, p. 14). Por ejemplo: “…para explicar la piel manchada de un jaguar, la explicación evolutiva es que la selección natural prefirió este tipo de superficie para que el felino pudiera camuflarse entre la espesa vegetación y acechar más fácilmente a su víctima. Esta explicación, aunque parcialmente cierta, adolece de un defecto: no establece cómo la selección natural conforma ese patrón, o de qué armario de pieles elige la naturaleza la más adecuada para el jaguar, o cómo se adapta a los cambios evolutivos que ha sufrido esta especie a lo largo del tiempo” (Ledesma Durán, 2012, p. 6). Y aunque en su trabajo no llega a cerrar el tema, en sus investigaciones Thompson presentaría un camino alternativo a la selección natural de Darwin, como un factor intrínseco de esa propia evolución. “El hecho de que muchas formas biológicas parezcan seguir reglas matemáticas o geométricas sencillas, indica que la existencia de fuerzas de constricción en su crecimiento es una explicación más parsimoniosa que la selección natural” (Thompson, 1961). A partir de sus indagaciones, Thompson consideró que el crecimiento de los organismos y su forma son esencialmente problemas físico-matemáticos: donde el desarrollo de las células, los tejidos, los huesos, y 230 las hojas obedecen las leyes de la física, y sus partículas se desplazan, se moldean y se ajustan de acuerdo a esta (1961, p. 24). Una explicación que considera los cambios morfológicos de un organismo, como “… a resultante de un conjunto de fuerzas, que representan o simbolizan las manifestaciones de varios tipos de energía” (1961, p. 27). Un compendio de fórmulas científicas que buscan explicar los procesos biológicos de la morfogénesis. Un equilibrio dinámico donde el sistema óseo no es solo una parte estructural: el esqueleto se mantiene unido y articulado a través del sistema muscular, condicionado por las fuerzas actuantes del entorno (como la gravedad, tensión superficial y fuerzas electromagnéticas) que determinan la forma final de los organismos. Un proceso de adaptación que se presentaría de dos modos diferentes: a) cuando un organismo obtiene un buen diseño mecánico, este permanecería en la población mediante selecciones favorables; y b) cuando los efectos directos del ambiente, a través de fuerzas mecánicas o físicas, producirían efectos sobre los organismos (Bonner, 1961, p. 14). A través de una “matematización de la biología”, Thompson intentaba mostrar a los naturalistas los conceptos aritméticos necesarios para desarrollar su trabajo; y a los matemáticos, un nuevo campo de trabajo que les permitiera bosquejar el universo (1961, p. 309). Marcelo A. Fraile - Arquitectura biodigital En este sentido: “… la ecuación de una curva, la descripción de una espuma o de un tejido celular, todo está al alcance de las matemáticas …todos ellos son sumas de otros principios o fenómenos más elementales” (1961, p. 259). Un estudio dinámico, a partir de dos fenómenos asociados: el de crecimiento, y el de la forma. El primero de estos, el de crecimiento, cuya velocidad variable ha producido, “…mediante sus incrementos graduales y desiguales, las etapas sucesivas del desarrollo y la configuración final de toda la estructura material” (1961, pp. 49-50); el segundo, el de la forma, cuyo sistema de fuerzas en equilibrios ha generado “…ventaja[s] para el organismo, de un acrecentamiento de sus posibilidades de supervivencia o perpetuación” (1961, pp. 195-196). Thompson utiliza las deformaciones de una cuadrícula cartesiana plana para demostrar que, desde un punto de vista evolutivo, existen ciertas correspondencias topológicas entre estructuras biológicas próximas: un proceso de comparación de dos o más formas afines. Para esto, inscribe el contorno de un organismo natural en una cuadrícula cartesiana plana: una transformación de la figura del organismo a partir de ejes “x” e “y”. Al someter el sistema regular a una deformación sobre alguna de las direcciones de los ejes, se obtendría una imagen nueva que representaría una deformación proporcional de la anterior figura. Una comparación morfológica de su perfil, una comparación punto por punto, por encima de su genética. Es lo que en la rama de la física se conoce como ‘isotermas’, ya que comúnmente estos mecanismos están asociados a los fenómenos de temperatura y conducción del calor. Para este proceso, existen cuatro alternativas posibles de acción. La primera opción se produce modificando proporcionalmente alguno de sus ejes, de este modo la cuadrícula se transformaría en una retícula proporcional, por ejemplo, del diagrama original, sustituimos la x, por un valor x’= 2x/3; la segunda opción se produce modificando uno de los ejes mediante Fig. 7. “La ecuación de una curva, la descripción de una espuma o de un tejido celular, todo está al alcance de las matemáticas …todos ellos son sumas de otros principios o fenómenos más elementales” (1961, p. 259). 231 Parte IV. La génesis de un nuevo paradigma un sistema proporcional no uniforme en todas las direcciones, por ejemplo, del diagrama original, sustituimos la x por un valor x’=logaritmo de x; la tercera opción se produce modificando las coordenadas rectangulares de un modo oblicuo, por ejemplo, del diagrama original, se modifica la ortogonalidad de los ejes con un cierto ángulo; finalmente, la cuarta opción se produce a través de otras alternativas como pueden ser las deformaciones radiales, desde un punto central, en arcos, circulares, etcétera (1961, p. 264). Un proceso de transformación topológica flexible donde “…cada punto puede cambiar su lugar, cada línea su curvatura, cada área su magnitud”, pero tanto el punto como la línea continuarán existiendo, manteniendo su orden y posición topológica relativa. Una metodología que posibilita develar cómo ciertas estructuras, al ser deformadas por la acción combinada de fuerzas apropiadas, dejan ver su correspondencia con otras estructuras próximas. Un proceso capaz de transformar fácilmente un “…diagrama de coordenadas de [un] cráneo humano en el diagrama correspondiente de [un] cráneo de simio o de babuino” (1961, p. 304). Más adelante, en sus estudios, Thompson reconocería que su trabajo se limita a casos del tipo simples, presentando ciertas dificultades cuando se ejecuta en un animal entero. Esto se debe a la complejidad y cantidad de elementos en juego, ya que muchas de las formas orgánicas existentes no pueden ser todavía definidas a través de las ciencias físicas y matemáticas de nuestro tiempo. La morfogénesis de Alan Turing En 1952, el matemático británico Alan Mathison Turing (1912-1954) publicó un artículo titulado “The chemical basis of morphogenesis”7 en donde desarrollaba de manera novedosa una explicación de la morfogénesis a través de la utilización de modelos químico-matemáticos. En su trabajo postulaba “…la presencia de señales químicas y procesos físico-químicos como la difusión, la activación y la desactivación en el crecimiento celular y orgánico” (Luzarraga Álvarez, 2009). Turing propuso su hipótesis a partir del concepto de “filotaxis geométrica” donde la forma de las plantas quedaba definida a partir de “…una teoría general de la morfogénesis de los entramados cilíndricos” (Weinstock, 2004, pp. 10-17). Para esto, desarrolló sus conjeturas a partir de factores que regulan el comportamiento celular, por ejemplo, cómo dos células idénticas se agrupan y organizan para luego especializarse, hecho que explicaría los patrones irrepetibles de las manchas en ciertos animales. En sus primeros modelos, Turing abordaría la ruptura de la simetría y, por consiguiente, de la homogeneidad 232 en la naturaleza. Para esto, utilizó ecuaciones de reacción-difusión no lineales para generar patrones durante el desarrollo de un embrión. Consideró dos tipos de proteínas denominadas morfógenos que se difunden e interactúan entre sí a través de un tejido celular del mismo linaje: un sistema de reacción-difusión en el que intervienen estas sustancias químicas, una de ‘activación’ que promueve la reacción, y otra de ‘inhibición’ que la suprime. Una serie de productos químicos reaccionan entre sí y se difunden en el tiempo entre las células de un embrión8. Ahora bien, el modelo parecía tener un error: de acuerdo a la segunda ley de la termodinámica, estas variaciones no se propagan de manera completamente aleatoria, sino en anillos concéntricos o espiraciones irradiando hacia fuera, “…estos patrones espaciales se forman por un tiempo limitado hasta que la mezcla deja de reaccionar y desaparece… un proceso homogeneizador que tendería a borrar cualquier diferencia local, es decir, cualquier patrón” (Ledesma Durán, 2012, pp. 5-6). 7. Turing, A. (1952). The chemical basis of morphogenesis, Londres: Philosophical Transactions de la Royal Society of London. 8. Una de las principales y primeras críticas que se le hicieron al trabajo de Turing fue con referencia al concepto de ‘morfógenos’. Turing, en su trabajo, no definía con precisión este término, limitándose a definirlo “…como ‘sustancias productoras de forma’. Aunque más adelante agrega… algunos genes, algunas hormonas o algunos pigmentos de la piel pueden ser ejemplos de morfógenos”. (Sánchez Garduño, 2013, p. 81). Marcelo A. Fraile - Arquitectura biodigital Y es precisamente en este concepto donde se encuentra la genialidad de Turing, al descubrir que, “…si bien ambos procesos (reacción química y difusión molecular) son homogeneizadores por separado (por lo cual cualquier irregularidad está condenada a desaparecer), juntos pueden dar lugar a patrones estacionarios cuando se les combina de una forma especial” (Ledesma Durán, 2012, p. 6). En palabras de Turing: “…un compuesto X lleva a cabo una reacción autocatalítica para generar más de ella misma. La velocidad con la que X se genera dependerá de la cantidad de X preexistente. Pero en este esquema, X también activa la formación de un compuesto Y que inhibe la formación de más X. Si ambas sustancias se difunden con distintas velocidades en el medio, los rangos de sus respectivas influencias pueden variar localmente, es decir, X e Y pueden dominar en distintas regiones. El punto clave es precisamente la difusión diferenciada que permite dominar en distintas regiones. El punto clave es precisamente la difusión diferenciada que permite que la competencia entre ambos compuestos no sea idéntica en toda la región” (Turing, 1952). Conceptualmente, los morfógenos son moléculas solubles que se difunden por el organismo de los animales durante el proceso de formación del embrión. Dependiendo de su concentración y de la velocidad de difusión, será el patrón generado. De este modo, si en una concentración se sobrepasan ciertos valores, la célula expresará un rasgo determinado (por ejemplo, las manchas oscuras en un leopardo), en tanto que si no sobrepasa ese umbral, expresará otros (por ejemplo, un color marrón pleno). Durante la difusión de las reacciones químicas, el sistema presenta cierta inestabilidad (inestabilidad por difusión o inestabilidad de Turing), resultado de patrones de células químicamente diferentes, lo que ocasiono una serie de perturbaciones espaciales complejas. Esta inestabilidad produce un “…rompimiento de la simetría, a través del cual el sistema ha de pasar a fin de llegar a un nuevo estado el cual estará caracterizado por: una distribución espacial no homogénea ‘ordenada’ de los morfógenos” (Sánchez Garduño, 2013, p. 81), directamente relacionada con el tiempo, siendo más estable a medida que este pasa. Buscando comprobar su teoría, Turing utilizó la computadora “Mark I”, de la Universidad de Manchester, para explicar cómo células idénticas se podían romper para formar un patrón específico de dos o más tipos de células espaciales. A partir del modelo de Turing, fue posible explicar la formación y evolución de los tejidos y órganos durante el proceso de morfogénesis, lo que permitió cuantificar esa evolución de acuerdo a las variables implicadas. Para ello, trabajó con un modelo muy restrictivo, utilizando solo ecuaciones diferenciales lineales, para desarrollar un modelo unidimensional con reacciones químicas sencillas. Una herramienta matemática que le 233 permitió establecer cómo un organismo complejo podía desarrollarse sin un plan definido o una dirección determinada. Un modelo donde las células idénticas se diferencian, cambiando de forma para crear patrones a través de un proceso llamado “reacción difusión intercelular”, responsable de diversos fenómenos tales como la formación de pigmentación en la piel de ciertos animales, la asimetría de los vertebrados, el desarrollo de tejidos y cartílagos, entre muchos otros sucesos. A partir de sus investigaciones, Turing pudo descubrir la existencia de seis tipos de patrones diferentes, los cuales dependían de los valores de sus parámetros (las condiciones de su entorno). Tiempo después, inspirándose en los trabajos de Turing, el matemático inglés James Dickson Murray (1921) llegaría a la conclusión de que la sustancia activadora era la melanina, el pigmento de la piel que confiere color oscuro a las zonas en donde este aparece. Murray extendió los estudios de Turing llevándolos a la bidimensión espacial, hecho que le permitió comprobar dos teoremas: Parte IV. La génesis de un nuevo paradigma Teorema 1: “Las serpientes siempre tienen patrones de rayas o anillos, pero no pueden tenerlos de puntos o manchas (es consecuencia de suponer que la piel de la serpiente es un rectángulo muy estrecho y largo)”. Teorema 2. “No puede haber animales con el cuerpo a rayas y la cola a manchas, pero si al revés (esto se debe a que el cuerpo es aproximadamente un rectángulo más ancho que la cola, y como el mecanismo que actúa en todo el cuerpo es el mismo, si los parámetros son tales que producen rayas en el cuerpo, que es más ancho, también tienen que dar rayas en la cola, que es más estrecha” (Sánchez, 2012). En 1995, los científicos Shigeru Kondo y Takashi Miura, investigadores del King’s College de Londres, publicaron un extenso artículo titulado “Reaction-Diffusion Model as a Framework for Understanding Biological Pattern Formation”, en donde confirmaban las teorías propuestas por Turing y descubrían un séptimo patrón diferente. Habían tenido que pasar Fig. 8. Conceptualmente, los morfógenos son moléculas solubles que se difunden por el organismo de los animales durante el proceso de formación del embrión. 43 años “…hasta que la química le prestara atención a los procesos de no equilibrio, y la física-matemática ganara experiencia en el estudio de problemas no lineales” (Ledesma Durán, 2012, pp. 13-14). Tiempo después, en 2012, un equipo de investigadores de la misma institución, dirigidos por el profesor Jeremy Green, publicaría en la revista científica “Nature Genetics”, un artículo titulado “Periodic stripe formation by a Turing mechanism operating at groeth zones in the mammalian palate”, en donde reafirmaban los conceptos formulados previamente por Turing. La teoría de la catástrofe de René Thom 234 En 1972, el matemático francés René Thom (1923-2002) publicaba su libro “Stabilité structurelle et morphogénèse”, en donde desarrollaba la “Teoría de Catástrofe”, como una teoría general sobre la morfogénesis: que “…consiste en afirmar que un fenómeno discontinuo puede emerger de algún modo espontáneamente de un medio continuo” (Hayek, 2006). Como matemático, en su obra Thom se dirigía a los biólogos y a los especialistas de las ciencias humanas, buscando dar una confirmación matemática al libro “On Growth and Form” de D’Arcy Thompson: utilizando para ello como herramientas el cálculo diferencial e integral. Fascinado por las formas naturales y como estas nacen y se desarrollan, Thom consideraba que el problema de la morfogénesis era una de las cuestiones más relevantes de la biología contemporánea: un proceso que involucra un continuo movimiento cíclico de nacimientos, desarrollo y muerte. En su obra, Thom utiliza la teoría de las singularidades de aplicaciones diferenciales, empleándolas en modelos naturales. Su idea consistía en modelar los procesos morfogenéticos en términos matemáticos, “enfatizando los aspectos cualitativos (de ahí el papel clave que ocupa la to- Marcelo A. Fraile - Arquitectura biodigital pología), y encontrar y clasificar los aspectos generales que dichos modelos deberían poseer” (Carrillo, 2012, p. 66). Desde el punto de vista de la sucesión de las formas, “El crecimiento de un organismo era contemplado como una serie de cambios graduales provocados por cambios catastróficos en los procesos bioquímicos del sistema”. Sin embargo, existían otros tipos de cambios, los “cambios suaves”, numerosos y muy cercanos entre sí, imperceptibles individualmente, pero que como parte de un proceso son causantes a su vez “…de la aparición de otras catástrofes” (Carrillo, 2012, p. 66). El modelo de Thom busca clasificar solo los accidentes locales de la morfogénesis, aquellos que el matemático francés denomina “catástrofes elementales” (1987, p. 32): esto se debe a la evolución de los estados internos del modelo, “…cuyo comportamiento cualitativo cambia bruscamente bajo pequeñas variaciones de los parámetros de control, es decir, de fenómenos discontinuos en su evolución” (Outerelo Domínguez, 2000, pp. 253-257). En este sentido, los modelos matemáticos de la morfogénesis propuestos por René Thom no son la descripción de los principios físicos generales, su intención es mostrar las singularidades de un proceso: una discontinuidad del medio estudiado, “…un cambio producido en la disposición, en la superposición, de esas formas elementales” (1987, p. 27). Modelo que destierra dos partes consideradas hasta entonces: por un lado la cinemática, cuyo fin era parametrizar las formas o los estados del proceso considerado; y por el otro, la dinámica, que buscaba describir la evolución temporal entre las formas (1987, p. 27). Esto queda explicado a partir de un modelo donde la dinámica fuera conocida, esto daría las probabilidades de transición entre diferentes estados, por ejemplo, de un estado A parametrizado por “a” en P, y un estado B parametrizado por “b”, consecuencia de “a” en P. Frente a este modelo, el solo dato de una cinemática formalizable implicaría una destrucción en la dinámica (1987, p. 27). Es lo que Thom denomina las “formas informes”, es decir, “…son a la vez formas, que, sin embargo, no han logrado una estabilidad estructural, y no-formas que, sin embargo, ocupan un espacio-tiempo o una dimensión”, en otras palabras, “…son fenómenos que asumen un aspecto inestable, mudable, en transformación… no se pueden localizar con una geometría euclídea, sino que necesitan una geometría ad hoc” (Soriano, 2004, p. 54). Desde este punto de vista, Thom utiliza el concepto de morfogénesis en un sentido más amplio, in abstracta, 235 es decir “…independientemente del sustrato de las formas y de la naturaleza de las fuerzas que las crean” (1987, p. 32). Una evolución “…donde el punto m se encuentra con el conjunto cerrado K [generando] una discontinuidad en la apariencia del sistema, lo cual se interpretará diciendo que hay un cambio de la forma preexistente, por lo tanto, morfogénesis” (Waddington, 1987, p. 17). De acuerdo a la teoría de catástrofes propuesta por Thom, existen siete catástrofes elementales: el pliegue, la cúspide, la cola de milano, la mariposa, las umbílicas elípticas, la hiperbólica y la parabólica. Cada una de estas “…viene asociada un conjunto de catástrofes, representado morfológicamente por una superficie” (Outerelo Domínguez, 2000, p. 253) y su respectiva ecuación matemática. De este modo, las formas que existen en la naturaleza podrían ser reconstituidas a partir de la combinación de las catástrofes elementales, una descripción geométrica mediante un máximo de parámetros, caso contrario el modelo resultaría inestable (Outerelo Domínguez, 2000, p. 253). Parte IV. La génesis de un nuevo paradigma Figuras Fig. 1. Leyes de Mendel. http://www.icarito.cl/2009/12/las-tres-leyes-de-mendel.shtml/ Fig. 2. Rosalind Francklin / Imagen cristalográfica del ADN. http://www.poramoralaciencia.com/2013/04/16/rosalindfranklin-descubridora-del-adn/ Fig. 3. ADN. http://www.chilebio.cl/?page_id=500 Fig. 4. ARN. https://bioquimicadeln.wordpress.com/2015/12/07/adn-y-arn/#jp-carousel-142 Fig. 5. ARN. https://es.wikipedia.org/wiki/%C3%81cido_desoxirribonucleico Fig. 6 Proyecto Genoma Humano. https://www.cancer.gov/images/cdr/live/CDR761781-750.jpg Fig. 7. Thompson, D. https://lismanmex1.files.wordpress.com/2012/10/cranehead-femur.jpg Fig. 8. Morfógenos. http://francis.naukas.com/files/2010/09/dibujo20100923_pattern_evolution_comparison_numerical_ simulation.jpg 236 Marcelo A. Fraile - Arquitectura biodigital MODELO BIOLÓGICO DIGITAL “¡Todo es algoritmo!” . (Chaitin, 2010). En el área de la biología, la astronomía o la matemática, los investigadores recurren constantemente a la construcción de modelos experimentales, lo que constituye un medio efectivo para poder estudiar los sistemas y de este modo simular su comportamiento (Fraile, Minafro, & Tatangeli, 2014). De acuerdo con su definición, “un modelo es una representación de un sistema complejo que se ha simplificado de diferentes maneras para ayudar a entender su comportamiento” (Dartnell, 2012). En general, un modelo es un objeto que mediante su construcción posibilita el análisis, la descripción y/o la simulación de fenómenos o procesos que se están examinando. Los modelos permiten investigar objetos y elementos que de otra forma serían difíciles o imposibles de recrear, ya sea porque aún no existen o porque su observación directa es imposible. Lo esencial en la construcción de cualquier modelo radica en el modo más eficiente de reducir el problema planteado, extrayendo las características esenciales del sistema que investiga –con suficiente detalle como para poder predecir válidamente el comportamiento de este–, e ignorar por completo aquellos datos superfluos. Por ejemplo, un modelo que estudia la trayectoria de una bala disparada debe tener en cuenta el efecto de la acción de la gravedad, pero puede ignorar los efectos leves de la resistencia del aire, ya que este último es un efecto de segundo orden (Darnell, 2007). Desde este punto de vista, un modelo debe presentar tres características básicas: a. ausencia de ambigüedad, donde cada uno de los elementos definidores del modelo posean propiedades y valores específicos; b. verificabilidad, los resultados deben ser consecuencia de pasos explícitos y comprobables que permitan ser analizados de un modo individual en todas sus etapas; c. repetitividad, donde los resultados deben poder ser comprobados tantas veces como se desee. Para que un modelo tenga éxito, este deberá tener jerarquía y una estructura flexible, lo más simple posible, capaz de adaptarse a todas las escalas factibles del problema, pudiendo modificarse en todo momento, para alcanzar los objetivos planteados. Los modelos presentan tres fases de construcción claramente diferenciadas. La primera fase es el análisis de los elementos que conformarán el modelo; la segunda fase es la definición de la estructura que el modelo tendrá, definiendo aquellas situaciones difíciles o imposibles de observar; y finalmente, la tercera fase será la determinación del conjunto de relaciones, que posibilitará el análisis y la obtención de los resultados finales (Fraile, Piantanida, & Minafro, 2016). En los últimos años, con el avance de la ciencia, y en especial con el desarrollo de una nueva generación de dispositivos informáticos, la biología contemporánea posee los mecanismos para reproducir los procesos evolutivos desarrollados durante la morfogénesis: modelos biológicos digitales, compuestos por una infinidad de células binarias, capaces de recrear seres vivos complejos. A través del uso de herramientas informáticas, es factible procesar en tiempo real las millones de variables que se generan durante la mitosis celular: un proceso matemático selectivo y adaptativo mediante el cual el genoma de un organismo (la estructura de ADN subyacente a la morfología) se despoja de su naturaleza ‘genérica’ y alcanza un orden superior de especialización (fenotipo) (Kottas, 2013, p. 188): una manifestación física del código, constatado tanto en la morfología como en los procesos y comportamientos generados. 237 Parte IV. La génesis de un nuevo paradigma Como un método eficaz de acercamiento, los modelos digitales permiten la replicación de organismos vivos. Observando lo imperceptible, posibilitan el estudio de algunos de los sistemas más complejos del mundo natural, visualizando y evaluando elementos fuera del alcance de los sentidos. Una “…armoniosa combinación de partes ‘que conspiran todas juntas para producir este efecto general que nosotros llamamos la vida’” (Senosian Aguilar, 1998, p. 161). Algoritmos De acuerdo al Diccionario de la Real Academia Española, la palabra algoritmo proviene del latín tardío ‘algobarismus’, y este de la abreviación del árabe clásico ‘ḥisābu lḡubār’ (RAE, Asale, 2014). Otros consideran su origen en una derivación del árabe ‘al Jwarizmi’, sobrenombre que recibía el matemático árabe Muhammad Ibn Musa abu Djafar Al’Jwarizmi, que vivió entre el 780 y el 850 de nuestra era. Fue considerado el padre del álgebra, al introducir el actual sistema de numeración indoarábigo (Guerrero Conde, 2010, p. 2). Lo concreto es que, ya sea uno u otro su origen, el término algoritmo, en matemática, es definido como “…un procedimiento de instrucciones lógicas encadenadas en secuencias definidas, finitas y precisas, para resolver un problema o realizar una tarea” (Levis, 2009, p. 14). Un conjunto inequívoco de pasos correctamente definidos que, de ser repetidos, se obtendría el mismo resultado. En el campo específico de la informática, el matemático ruso Andréi Andréyevich Márkov (1856-1922) precisa el concepto de algoritmo “…como una ‘prescripción exacta, que define un proceso de computación, que conduce, de varios datos iniciales, a un resultado deseados’” (Broadbent, 1984, p. 139). Por su parte, para el teórico ruso Peter Weibel (1944) los algoritmos son procesos, un conjunto de instrucciones para realizar una acción, hecho por un numero finito de reglas; una secuencia determinada de estrictas instrucciones elementales que definen el proceder de la solución a un problema específico. Para Markov, existen tres factores importantes que deben tenerse en cuenta en el diseño de un algoritmo. En primer lugar, las instrucciones introducidas: su resultado quedará subordinado a si está definido correctamente o no; en segundo lugar, un conjunto preciso y limitado de entradas: donde cada una debe ser diferente, y requerir una condición previa; finalmente en tercer lugar, una salida perfectamente definida, ya que en caso de presentar ambigüedades, se producirán mensajes de error (Tedeschi, 2014, pp. 15-30). Comúnmente, los algoritmos son utilizados para realizar una tarea en particular, a través de un listado finito 238 de instrucciones básicas predefinidas (Tedeschi, 2014, pp. 15-30). Para ello, el algoritmo divide el problema en una serie de simples instrucciones que se repiten y permiten ser calculadas con facilidad. En este sentido, una receta de cocina podría ser entendida como un algoritmo. Por ejemplo: “Podemos establecer un procedimiento para cocinar un pastel de chocolate, basado en una simple lista de instrucciones” (Tedeschi, 2014, pp. 15-30). Pese a que comúnmente se asocian los algoritmos a los sistemas digitales, estos son independientes de las computadoras. Originariamente, los algoritmos fueron utilizados como herramientas para resolver problemas matemáticos. Para algunos autores, el primer algoritmo escrito para una computadora data de 1842 y fue escrito por la matemática y escritora británica Ada Augusta Byron King (1815-1852), un algoritmo para ser utilizado con la máquina analítica de Babbage. Con la llegada de las computadoras y los innovadores trabajos de Alan Turing y Von Neumann, el procesamiento de los algoritmos se hizo más fluido y veloz, al desarrollar un nuevo modo de elaborar el conocimiento. Marcelo A. Fraile - Arquitectura biodigital Primera generación. Los autómatas celulares de Neumann Los autómatas de Von Neumann pueden ser definidos como un sistema organizado y descentralizado, desarrollado por el matemático húngaro-estadounidense John von Neumann (1903-1957), quien se destacaría por sus contribuciones en materia de máquinas lógicas y computadoras. Bajo el título General and Logical Theory of Automata1, Neumann presentó su tema el 20 de septiembre de 1948 en el Hixon Symposium de Pasadena, California: un modelo teórico “autorreplicante”, que permitía encontrar soluciones posibles a problemas simples, repetitivos y prolongados en el tiempo. Para Neumann este modelo conceptual debía estar compuesto por dos partes: la primera sería el constructor, capaz de utilizar los elementos del medio para autorreplicarse; y la segunda, un programa encargado de desarrollar las instrucciones necesarias para fabricar el modelo. Tomemos un ejemplo, imaginemos una maquina productora de bicicletas con la capacidad de autorreplicarse, es decir, copiarse a sí misma de forma autónoma y crear nuevas generaciones de sí misma, utilizando para ello la materia prima que toma del ambiente que la rodea. Si la primera máquina producía ‘g’ número de bicicletas en un determinado período de tiempo (ciclos), en ‘t’ cantidad de ciclos se obtendrá ‘t x g’ número de bicicletas. Supongamos ahora una segunda etapa, en que la maquina inicial, además de producir bicicletas, produce una segunda máquina (segunda generación); en este punto, estaríamos ante un nuevo valor de ‘g’, considerablemente menor que el inicial, ya que parte del tiempo de producción de bicicletas lo debería destinar para la producción de esta segunda máquina. Sin embargo, al cabo de un tiempo (o generaciones), dispondríamos de dos máquinas trabajando, y a medida que el proceso continuara, el número de máquinas aumentaría de dos a cuatro, luego a ocho máquinas, etc. Y aunque el rendimiento de las máquinas fuera menor al inicial producido por el primer artefacto, la producción, ‘g’ numero de bicicletas, habría crecido exponencialmente. Von Neumann había comenzado el desarrollo de sus autómatas autorreplicantes a partir de ecuaciones diferenciales parciales, sin embargo, al poco tiempo decidió abandonar este camino ante la imposibilidad de encontrar “reglas explícitas y claras que pudiera aplicar en los autómatas autorreplicantes”. De acuerdo con el ingeniero estadounidense Arthur W. Burks (1915-2008), fue el matemático polaco Stanislaw Ulam (1909-1984) quien sugirió a Von Neumann que utilizara un sistema dinámico que evolucionaba a pasos discretos, para el desarrollo de los autómatas autorreplicantes. En otras palabras, un sistema capaz de sopor- 239 tar cambios en el tiempo. Siendo el tiempo un valor constante, de allí que su escala sea de números enteros (Peinado & García, 2008). Ulam estaba estudiando el crecimiento de los cristales y se divertía diseñando juegos de patrones para sus compañeros de los Álamos. Estos consistían en desarrollar modelos cambiantes, a partir de establecer reglas matemáticas fijas, lo que generaba crecimientos similares a los existentes en la naturaleza. Ulam llamó a estos patrones “objetos geométricos de forma recursiva definida”: que en esencia se trataba de un modelo conceptual desarrollado a partir de una grilla infinita similar a un tablero de ajedrez, donde cada patrón o célula podía tener forma cuadrada, triangular o hexagonal. Tanto el crecimiento como los cambios de estado de los patrones eran regidos por reglas simples, que dependían de sus células vecinas. Ulam propuso a Neumann un sistema descentralizado, que podía ser moldeado a partir de una malla regular: una cuadrícula de evolución n-dimensional, comúnmente llamado lattice, donde cada división homogénea o celda representa una célula. El modelo debía poseer un número finito de reglas simples y comunes de 1. Von Neumann, J. (1951). The general and logical theory of automata, cerebral mechanisms in behavior. New York: John Wiley & Sons, Inc, pp. 1-31. Parte IV. La génesis de un nuevo paradigma comportamiento, es decir, el modo en que cada celula evolucionaría, de acuerdo a la relación de esta con sus vecinas. Cada célula podrá adquirir un conjunto finito de estados a través del tiempo, que dependerá de su situación previa y de su relación con sus vecinas: un valor temporal nuevo, elaborado a partir de estos argumentos y aplicado durante su evolución (Peinado & García, 2008). Ahora bien, conceptualmente, los autómatas celulares están compuestos por un número infinito de números enteros, situación que se transformaría en un impedimento a la hora de su aplicación práctica. Es por esta razón que se concibió lo que se conoce como “condición de frontera”: una situación que reduce su vecindad en aquellas células de borde. Pudiendo presentarse cuatro alternativas2: a) frontera abierta, donde las células que están fuera de la cuadrícula poseen el mismo valor; b) frontera reflectora, donde las células que están fuera de la cuadrícula poseen el mismo valor que las células de borde; c) frontera periódica, donde se considera la cuadrícula como una cinta continua, y de este modo el valor de las células también será continuo; y finalmente d) sin fronteras, donde la cuadrícula crecerá de acuerdo con las necesidades del autómata celular. Para 1952, Von Neumann ya había completado su modelo de autómata Fig. 1. Autómatas celulares. En un modelo unidimensional, es decir un mo- 240 delo con vecindad de grado 1, solo se tienen en cuenta las células inmediatas o más cercanas, para ser utilizadas dentro de la ecuación. Esto quiere decir que, al tratarse de modelos de una sola dimensión, cada célula solo podrá tener 2 vecinos (1 arriba y 1 celular. Este presentaba una configuración inicial, a partir de un “genoma” base, un sistema dinámico discreto, un mecanismo capaz de copiar el genoma original, utilizando para ello los recursos reunidos inicialmente. De esta manera, el conjunto de células lograba una autorreplicación dentro de un espacio básico de evolución, según una determinada expresión matemática que es sensible a los estados de las células vecinas, la cual se le conoce como “regla de transición local”. Por ejemplo, en un modelo unidimensional, es decir un modelo con vecindad de grado 1, solo se tienen en cuenta las células inmediatas o más cercanas, para ser utilizadas dentro de la ecuación. Esto quiere decir que, al tratarse de modelos de una sola dimensión, cada célula solo podrá tener 2 vecinos (1 arriba y 1 abajo, o 1 a la izquierda y 1 a la derecha). abajo, o 1 a la izquierda y 1 a la derecha). Imaginemos entonces un autómata celular unidimensional con un grado de vecindad igual a 1, donde cada célula solo presente dos estados (0 y 1), una frontera periódica, un tamaño de 10 células y una función de transición determinada de acuerdo a: - Si ambas células vecinas tienen el mismo valor, en este caso el valor de la célula a la que se aplicará la función cambiará. 2. Las 5 alternativas fueron consultadas de Peinado, J.; García, J. M. “Autómatas Celulares”, abril 2008, En www.enelnombredetux.com/project292f.html?project=autcel (consultado 04/05/2017). Marcelo A. Fraile - Arquitectura biodigital - Si ambas células vecinas tienen diferentes valores, en este caso el estado de la célula a la que se aplicará la función se mantendrá igual. Cuadro resumen Un autómata celular posee: - Una cuadrícula regular que podrá ser unidimensional, bidimensional, o n-dimensional. Donde cada celda es homogénea y recibe el nombre de célula; - Un conjunto de estados: cada célula podrá tomar un único valor de un numero finito de estados; - Una configuración inicial, es decir, el estado inicial de cada una de las células dentro del espacio; - Una serie de vecinos, o células adyacentes a la célula estudiada, así como su posición relativa; - Una función de transición local, que representa la regla de evolución que determina el comportamiento del autómata celular, calculado a partir del estado de cada célula y de los estados de sus células vecinas. Ahora bien, en el modelo bidimensional utilizado por Von Neumann para el desarrollo de sus autómatas el número de vecinos se incrementa considerablemente y llegan a ser 4 (1 arriba, 1 abajo, 1 a la izquierda y 1 a la derecha). De este modo, estamos ante un sistema teórico y matemático autorreplicante: “…no solo un plan predeterminado de comportamiento, sino también la capacidad de reproducirse a sí mismo” (Vrachliotis, 2008, pp. 232-261). Von Neumann describe el procedimiento en su libro Theory of Self-Reproducing Automata3. Un complejo proceso biológico-matemático de adaptación y crecimiento, formalmente representado y explicado a escala biológica-molecular: un conjunto de células capaces de adquirir distintos estados o valores en el tiempo. Más tarde, el modelo conceptual desarrollado por Von Neumann e Ulam, se haría más accesible a través de los trabajos del matemático británico John H. Conway (1937) y su “Juego de la Vida”. Segunda generación. La vida artificial: el juego de la vida de Conway Uno de los autómatas celulares más utilizados en el mundo matemático, dada su simpleza, es The Game of Life, o Juego de la Vida. Fue inventado en 1970, por el matemático británico de la Universidad de Cambridge 241 John Horton Conway (1937). El juego de la vida hizo su aparición pública en la revista de divulgación científica Scientific American, de octubre de 1970, con el título “The fantastic combinations of John Conway’s new solitaire game ‘life’”, en la columna de juegos matemáticos del filósofo de la ciencia estadounidense Martin Gardner (1914-2010). También conocido como Object life, el juego de la vida, conceptualmente, presenta idénticos principios que los autómatas celulares de Von Neumann, pero con reglas mucho más simples: se trata de un juego de cero jugadores ya que una vez establecido el estado inicial no necesita ninguna entrada de datos posteriores. Una de las modificaciones que desarrolla Conway es establecer una vecindad diferente. Conocida como vecindad de Moore, consiste en aplicar 8 vecinos a cada una de las células: a las cuatro vecindades de Von Neumann, le agrega las 4 diagonales respectivas. Un sistema dinámico compuesto por un número determinado de células, las cuales se ubican en un espacio bidimensional con una condición de frontera periódica, y donde cada una de estas puede tener alguno de los 3. Publicado póstumamente por Arthur Walter Burks en 1966. Neumann había fallecido en 1957. Parte IV. La génesis de un nuevo paradigma dos estados posibles. Durante el proceso, cada célula interactúa con sus células vecinas y, según los resultados de esta interacción, modifica su vitalidad y su comportamiento. El juego tiene apenas tres sencillas reglas para su funcionamiento: - Nacimiento: una célula muerta es reemplazada por una viva, si dicha célula tiene exactamente 3 vecinos vivos. - Muerte: una célula viva es reemplazada por una muerta, si dicha célula no tiene más de 1 vecino vivo (muerte por aislamiento), o si tiene más de 3 vecinos vivos (muerte por sobrepoblación). - Supervivencia: una célula viva permanecerá viva, si tiene 2 o 3 vecinos vivos. De acuerdo al comportamiento celular, se han podido descubrir y catalogar algunos tipos de patrones, los más comunes son4: - Estáticos, donde los patrones no varían de una generación a la siguiente, es decir no producen nacimientos o muertes. - Recurrentes, cuando los patrones varían de una posición a otra indefinidamente, es decir tienen un comportamiento periódico. - Con movilidad o reproductores, cuando los patrones se reproducen y se desplazan por toda la cuadrícula. - Matusalenes, cuando los patrones pueden evolucionar durante mucho tiempo o generaciones, tardan muchos pasos en estabilizarse. Con el tiempo se fueron encontrando otras configuraciones tales como ‘Lightweight spaceship’, ‘pulsar’, ‘blinker’, ‘pentadecathlon’, etcétera. Tiempo después, el matemático estadounidense Carter Bays elaboró un modelo sucesorio del juego de la vida, desarrollado en un espacio 242 tridimensional. El modelo, mucho más complejo, continúa utilizando la vecindad de Moore, pero a un nivel tridimensional, y llega a desarrollar veintiseis células vecinas, las cuales presentan diferentes estados y patrones evolutivos. Fig. 2. Ejemplo con valor inicial 0001010011. El juego de la vida desarrollado por Conway permite realizar cómputos universales y puede ser utilizado en infinidad de tareas, como por ejemplo: el reconocimiento óptico de caracteres o la eliminación de ruidos en el procesamiento de imágenes. Pese a sus reglas sencillas, este algoritmo puede llegar a evolucionar a resultados verdaderamente complejos. 4. Las 4 alternativas fueron consultadas de Peinado, J.; García, J.M. “Autómatas Celulares”, abril 2008, En www.enelnombredetux.com/project292f.html?project=autcel (consultado 04/05/2017). Marcelo A. Fraile - Arquitectura biodigital Tercera generación. De los autómatas celulares a la IA Los autómatas celulares de Stephen Wolfram En 1973, el británico Stephen Wolfram (1959)5 –doctorado en Física Teórica por el California Institute of Tecnology–, a la edad de 20 años, comenzó a investigar los sistemas complejos a partir del uso de las primeras computadoras. Rápidamente, sus investigaciones lo convirtieron Fig. 3. Patrones recurrentes más usuales. en un líder en el emergente campo de la informática científica. A finales de 1981, Wolfram centró sus indagaciones en los orígenes de la complejidad existente en la naturaleza, en especial de aquellos patrones complejos que parecían trasgredir la segunda ley de la termodinámica6. Fig. 4. Patrones fijos o estáticos. Para ello, se embarcó en el estudio del comportamiento de un tipo de programa informático: los autómatas celulares. Un modelo matemático simple determinista y discreto, capaz de ser utilizado en la investigación de sistemas físicos, biológicos y computacionales. Para sus primeros trabajos, Wolfram utilizó autómatas celulares unidimensionales: un sistema elemental lineal, dividido en celdas idénticas (células), donde cada una de estas podía alcanzar el valor 0 o 1. Durante el proceso, cada célula evoluciona de manera determinista en el tiempo, de acuerdo con un conjunto de reglas definidas previamente, y que implica el valor de sus vecinos más cercanos: esto se conoce como barrio, y en el caso del modelo unidimensional quedará limitado a dos vecinos adyacentes (uno a la izquierda y uno a la derecha). El proceso comienza con una línea de células que se conoce como estado inicial, a partir del cual el autómata celular comenzará a trabajar un período determinado de tiempo que se conoce como ‘generaciones’. El estado inicial corresponderá con el valor 0, es decir, la generación 0. A continuación, es necesario definir el algoritmo que determinará el valor de cada célula, en un momento ‘t’ determinado. En otras palabras, un algoritmo que determine el valor de cada célula en la generación 1, en la generación 2, etcétera. La reducción del modelo de Wolfram a un sistema unidimensional permitió investigar exhaustivamente todas las posibles configuraciones que podía alcanzar una célula en relación con sus células vecinas. Para esto, definió el barrio a través de un sistema binario de tres celdas que limitarían su valor a 8 posibles combinaciones o estados, dentro de un desarrollo lineal7. 5. Entre 1979 y 1981, Wolfram inició la construcción del SMP (Symbolic Manipulation Program), el primer sistema de álgebra para computadora. A la edad de 21 años, ganó el premio MacArthur “Genius”, lo que lo convirtió en el científico más joven en recibir ese premio. En 1986 inició Wolfram Inc, una empresa de computadoras que en 1988 comenzó a comercializar “Mathematica”, un software para el desarrollo de matemática. 6. La segunda ley de la termodinámica dice que: cuando una parte de un sistema cerrado interactúa con otra parte, la energía tenderá a dividirse por igual hasta que el sistema recobre nuevamente el equilibrio térmico. 7. Wolfram definió a este autómata celular como Regla 110. Esto se debe a la 243 Parte IV. La génesis de un nuevo paradigma 111 110 101 100 011 010 001 000 A continuación, definió el resultado para cada configuración de barrio 111 110 101 100 011 010 001 000 # # # # # # # # 0 1 1 0 1 1 1 0 Ahora bien, el modelo requería, además, definir qué valor tomarían en la siguiente generación las células de los bordes: estas, al carecer de un vecino, quedaban exceptuadas de las reglas anteriores. Para este caso, es posible establecer tres soluciones: a) Bordes constantes: los bordes mantienen su valor de estado, sea 0 o 1. b) Bordes continuos: se establece un sistema donde la célula del borde izquierdo es vecina del derecho y viceversa, lo que crea la apariencia de una red infinita. c) Bordes con diferentes barrios y reglas: se trata de un barrio especial de dos células, con valores particulares. Y dado que cada célula puede presentar dos estados (0 o 1), y como existen 8 posibles combinaciones o estados, obtenemos un total de 28, es decir 256 autómatas celulares elementales. Fig. 5. Wolfram, definió el barrio a través de un sistema binario de tres celdas que limitarían su valor a 8 posibles combinaciones o estados, dentro de un desarrollo lineal. 244 secuencia binaria ‘01101110’, que corresponde con el numero décima 110. En el año 2000, el joven matemático estadounidense Matthew Cook (1970) publicó las pruebas de que este algoritmo era un autómata Turing Completo, es decir, una máquina que puede computar todas las funciones computables de una máquina de Turing, capaz de emularse a sí misma, moviéndose en la frontera entre la estabilidad y el caos. Marcelo A. Fraile - Arquitectura biodigital Posteriormente, Wolfram clasificó en cuatro clases el comportamiento de los autómatas celulares unidimensionales de un modo cualitativo8: - Clase I: son aquellos que evolucionan con una configuración estable y homogénea. Un patrón donde las aleatoriedades iniciales desaparecen, y todas las células llegan a un valor uniforme. - Clase II: son aquellos que evolucionan hasta una estructura estable o periódica. Un patrón donde parte de la aleatoriedad inicial puede permanecer. - Clase III: son aquellos que evolucionan hasta llegar a un patrón caótico. Una estructura donde la estabilidad inicial es rápidamente destruida. - Clase IV: son aquellos que evolucionan en estructuras aisladas que presentan comportamien- tos complejos. Un sistema intermedio entre los completamente caóticos y los completamente ordenados. Finalmente, en 1985, Wolfram publicó los resultados de sus investigaciones bajo el título Two-Dimensional Cellular Automata9. Desde un punto de vista matemático, para Wolfram, tanto el Juego de la Vida, como la regla 110 pueden ser considerados autómatas celulares tipo 4. Es decir, que pese a lo simple y determinista de sus reglas, son capaces de generar un comportamiento complejo. Un modelo capaz de superar el ‘test de aleatoriedad’ siendo su comportamiento impredecible10. De la misma manera, este sistema es capaz de replicar cualquier sistema existente en la naturaleza por medio de algoritmos. Una nueva concepción de la ciencia que involucra la biología y la informática. Sin embargo, para que esto sea posible, los cálculos complejos no pueden ser reducidos o seccionados, no existen resultados intermedios de cálculos. La única forma de obtener resultados ciertos es que el sistema modelado atraviese todas sus etapas hasta el final, es decir, que el sistema evolucione. A este concepto, Wolfram lo llamo “irreducibilidad computacional”. A partir de los resultados obtenidos, Wolfram pudo enunciar lo que denominó el “principio de equivalencia computacional”, en donde establece que los sistemas que están en el mundo natural pueden realizar cálculos hasta un límite máximo determinado por su complejidad. Si el grado de complejidad de un sistema es finito, el sistema computacional puede ser representado mediante un modelo de autómata computacional. Por tanto, todo sistema complejo puede ser representado y eventualmente predecirse mediante un único algoritmo com- 245 putacional (López Fernández, 2009, p. 50). El mismo año que Wolfram publicaba Two-Dimensional Cellular Automata, el científico estadounidense Christopher Langton (1949) propuso utilizar los autómatas celulares para el estudio de la vida artificial. Sin embargo, para Wolfram, las teorías de la selección natural de Darwin no pueden explicar las características complejas de los organismos. Y, aunque los algoritmos genéticos constituyen una base matemática de las teorías de Darwin, “…el enfoque darwiniano de la selección natural, contrariamente a lo que se cree, reduce la complejidad más que la genera” (2002, p. 392). En 2002, Wolfram publica A New Kind of Sciencie11, donde describe empíricamente la teoría de los autómatas celulares: un conjunto pequeño de elementos con reglas simples, pero con la capacidad de producir resulta8. En 1984, Wolfram planteó un estado inicial aleatorio o estado 0. 9. Packard, N., Wolfram, S. (1985). Two-Dimensional Cellular Automata. Journal of Statistical Physics, Vol. 38. Nos. 5/6. 10. Aplicando esta lógica a todas las células, y definiendo el color blanco para el 0 y el color negro para el 1, es posible obtener el triángulo de Sierpinski: una forma fractal descubierta en 1919 por el matemático polaco Waclaw Sierpinski (1882-1969). 11. Wolfram, Stephen, A New Kind of Science, Wolfram Media, United States, 2002 Parte IV. La génesis de un nuevo paradigma dos complejos. En sus escritos, describe cómo todos los procesos producidos por el hombre o por la naturaleza pueden ser verificados a través de cálculos computacionales, o ser reducidos a algoritmos que calculen la interacción entre pequeños programas. De cualquier forma, para finales de los años 90, la utilización de los autómatas celulares se había extendido a numerosas disciplinas que incluían el modelado de flujos vehiculares y peatonales, el modelo de flujos de gases y líquidos e incluso la creación de mutaciones a través de la selección y la herencia. Christopher Langton y el concepto de vida artificial En 1987, con motivo de la 1.st International Conference on the Synthesis and Simulation off Living Systems, organizada por el Laboratorio Nacional de Los Alamos, Nuevo México, el científico estadounidense Christopher Langton (1949) acuñó el término “Artificial Life” (vida artificial) y describe los intentos del hombre buscando “… modelar y explicar la vida mediante la creación de sistemas artificiales que exhiben la conducta de los seres vivos, definiendo su comportamiento en función de un grupo de reglas obtenidas mediante modelos de simulación y uso de herramientas de Ingeniería Computacional” (López Salinas, 2011, p. 3). Para Langton, la Vida Artificial es una nueva disciplina que estudia la vida natural, tratando de recrear los fenómenos biológicos, a partir del desarrollo de modelos matemáticos computarizados y de otros medios “artificiales” tales como el hardware o la bioquímica (1991, pp. 189-241). Un acercamiento a la biología sintética, a través de la aplicación de los conocimientos biológicos al campo de la tecnología y la computación: para ello se utilizan autómatas que se autorreproducen, programas que utilizan los mecanismos de evolución darwiniana para simular el comportamiento biológico. Lamentablemente, hasta el momento, sus resultados no son absolutamente equiparables a los existentes en el mundo natural. Entre sus antecedentes más cercanos, podría rastrearse en las ideas elaboradas por Alan Turing durante la década del 40, quien había postulado la creación de una máquina ideal, compuesta por una cinta infinita dividida en cuadros, sobre la que se realizaban determinadas operaciones: “…la máquina dispone de una cabeza lectora posicionada en cualquier celda de la cinta, donde lee el contenido de dicha celda e interpreta ciertas instrucciones que definen el siguiente comportamiento de la cabeza” (López Salinas, 2011, p. 6). En 1984, Langton creó una especie particular de vida artificial: conocido como “los bucles de Langton”, se trata de un sencillo sistema que intenta reproducir la complejidad del autómata celular de Von Neumann. 246 El material genético va rotando en forma de bucle cuadrado, compacto, con un factor de ¼: el proceso solo requiere de las instrucciones necesarias para generar un lado y una esquina –que al emitirla cuatro veces es posible obtener la copia de un bucle completo–, más un quinto elemento capaz de transmitir su propia autodescripción. En este punto, el bucle presenta un brazo que se prolonga ligeramente con el objeto de alejarse lo necesario para comenzar la construcción de una copia (Ramos Salavert, 1995, p. 140). La construcción se propaga a través del camino en sentido contrario a las agujas del reloj, hasta llegar a un punto de unión en donde el material se duplica entre las dos ramas existentes en ese punto: una se dirige hacia el extremo del brazo y produce su alargamiento; en tanto que la otra realimenta el bucle, de forma que cuando un juego de señales se consume, ya existe otra esperando para transmitirlo (Ramos Salavert, 1995, p. 140). De este modo, el número de instrucciones se reduce a dos: Instrucción 1: indica al brazo de construcción que avance. Instrucción 2: indica al brazo de construcción que gire 90º. Marcelo A. Fraile - Arquitectura biodigital Luego de cuatro interacciones, el brazo se cierra sobre sí mismo y genera el proceso de desconexión de los dos bucles. Posteriormente, una serie de estados especiales construirá un nuevo brazo a cada uno, y se obtendrá finalmente la reproducción completa del patrón inicial. Llegado a este punto, tanto el patrón “descendiente” como el patrón “progenitor” continuarán reproduciéndose hasta que sus cuatro lados queden ocupados por otras estructuras. “De este modo la configuración pronto presenta la apariencia de una colonia en crecimiento, vagamente semejante a las coralinas, pues las estructuras que no tienen espacio para reproducirse quedan inactivas en su parte central” (Ramos Salavert, 1995, p. 140). Dos años después, en 1986, Langton desarrolló lo que se conoce como Langton’s Ant (la hormiga de Langton): una máquina de Turing bidimensional, que opera sobre una grilla cuadrada bidimensional, donde cada celda puede recibir un color blanco o negro. Sobre la grilla, se desplaza una célula denominada hormiga, una cabeza lectora e intérprete de los estados que va encontrando a su paso. Fig. 6. El número de instrucciones se reduce a dos: Instrucción 1: indica al brazo de construcción que avance. Instrucción 2: indica al brazo de construcción que gire 90º. Luego de cuatro interacciones, el brazo se cierra sobre sí mismo y genera el proceso de desconexión de los dos bucles. Cada hormiga puede moverse en sentido vertical u horizontal, pero siempre de a una celda por vez, siguiendo un conjunto de simples reglas: - La hormiga siempre se mueve hacia adelante, una celda por vez. - Si la hormiga encuentra una celda blanca, la pinta de negro, gira 90º a la derecha y avanza una celda. - Si la hormiga encuentra una celda negra, la pinta de blanco, gira 90º a la izquierda y avanza una celda. A su vez, de acuerdo con su comportamiento, una hormiga clásica puede presentar tres tipos de pautas básicas: - Simplicidad: en los primeros cientos de pasos, la hormiga crea patrones sencillos y frecuentemente simétricos. - Caos: en esta segunda etapa, después de varios cientos de pasos, surge un patrón amplio e irregular donde la hormiga sigue un camino azaroso hasta los 10.000 pasos. - Orden emergente: finalmente, después de los 10.000 pasos, la hormiga comienza a construir una avenida, un patrón de 104 pasos que se repite indefinidamente. La hormiga de Langton puede ser definida como un autómata celular, un sistema, donde la grilla se pinta de blanco o negro, en tanto que la hormiga adquiere 8 diferentes colores, dependiendo del color de la celda en que se posicione y de la dirección en la que se mueva. 247 Parte IV. La génesis de un nuevo paradigma Los sistemas de Lindenmayer (Sistemas -L) Los Sistemas de Lindenmayer, mejor conocidos como “Sistemas-L”, fueron descubiertos en 1968 por el biólogo y botánico teórico de la Universidad de Utrecht, el húngaro Aristid Lindenmayer (1925-1989). En sus estudios, Lindenmayer buscaba entender el comportamiento de las plantas y problemas tales como el tipo de información que le permitía a una semilla tomar determinados elementos para usarlos en su crecimiento y descartar otros. Inicialmente, el botánico húngaro comenzó trabajando con levaduras y hongos, estudiando los patrones de crecimiento de estos sistemas. Estudios que le llevaron a inventar, en términos generales, una técnica capaz de modelar y simular el crecimiento de las plantas, lo que proporciona una descripción formal del desarrollo de organismos multicelulares simples (López Salinas, 2011, p. 14). Fig. 7. “De este modo la configuración pronto presenta la apariencia de una colonia en crecimiento, vagamente semejante a las coralinas, pues las estructuras que no tienen espacio para reproducirse quedan inactivas en su parte central” (Ramos Salavert, 1995, p. 140). 248 En realidad, fueron dos estudiantes de Lindenmayer, Ben Hesper y Pauline Hogeweg, quienes en 1970 fueron los primeros en darse cuenta del potencial de los Sistemas-L para representar vegetación. Hesper y Hogeweg crearon el primer programa que, a partir de una secuencia de 5.000 caracteres desarrollados mediante sistemas-L, generaron algo que se parecía mucho a una hoja vegetal (Campos Muñoz, 2011, p. 2). Conceptualmente, un sistema-L es un lenguaje, un conjunto de reglas y símbolos utilizados para modelar los procesos de crecimiento de las plantas. Para poder realizar esto, el sistema utiliza un concepto denominado de reescritura en cadena: “…una técnica para definir objetos complejos reemplazando sucesivamente ‘partes’ de un objeto inicial simple (el axioma), mediante un conjunto de reglas de reescritura o de producción” (Campos Muñoz, 2011, p. 2). En esencia, los sistemas-L son sistemas paramétricos definidos mediante un alfabeto, un conjunto de símbolos fijos, un estado inicial del sistema y, finalmente, por un conjunto de reglas de producción. - Alfabeto: conjunto finito de símbolos, utilizados para componer cadenas. - Conjunto de símbolos fijos: son las constantes o los símbolos terminales. - Estado inicial del sistema: es el axioma o cadena que describe el estado inicial. - Conjunto de reglas de producción: son las transformaciones que serán aplicadas al axioma y a las sucesivas cadenas generadas, es decir, definen cómo las variables son reemplazadas por combinaciones de constantes y otras variables. Marcelo A. Fraile - Arquitectura biodigital A diferencia de la gramática de Chomsky, donde la producción se aplicaba de un modo secuencial, en los sistemas propuestos por Lindenmayer, las reglas de producción se aplican simultáneamente a todos los símbolos de la cadena, “…sea esta el axioma o las cadenas resultantes de cada derivación. Esta propiedad refleja el origen biológico de los sistemas-L, ya que los organismos vivos crecen simultáneamente en ‘todas’ sus partes y no secuencialmente” (Campos Muñoz, 2011, p. 3). Sin embargo, con cada interacción, el sistema aumenta su complejidad, situación que, en modelos con demasiadas derivaciones, puede ocasionar un consumo excesivo de tiempo y un aumento exponencial del nivel de recurrencia del modelo. De acuerdo con el tipo de reglas utilizadas, los cinco tipos más comunes son: determinista, no determinista, libre de contexto, sensitivo al contexto, estocástico. -Determinista: son los más sencillos. Reciben esta clasificación aquellos sistemas en donde existe exactamente una regla para cada símbolo. Un sistema determinista y libre de contexto es denominado como Sistema-D0L (D por determinista, 0 por independiente del contexto y L por Lindenmayer). Estos sistemas, trabajan bajo dos condiciones: “1) El lado izquierdo de la regla de producción debe ser un solo símbolo del alfabeto; 2) Un mismo símbolo no puede producir distintas cadenas del lenguaje” (Campos Muñoz, 2011, p. 4). -No Determinista: reciben esta clasificación cuando hay al menos un símbolo al que le corresponde más de una regla. -Libre de contexto: reciben esta clasificación cuando las reglas se aplican sobre los símbolos individuales, sin tener en cuenta a sus vecinos. Fig. 8. El sistema utiliza un concepto denominado de reescritura en cadena: “…una técnica para definir objetos complejos reemplazando sucesivamente ‘partes’ de un objeto inicial simple (el axioma), mediante un conjunto de reglas de reescritura o de producción” (Campos Muñoz, 2011, p. 2). 249 Parte IV. La génesis de un nuevo paradigma -Sensitivo al contexto: son los opuestos al anterior, reciben esta clasificación cuando las reglas se aplican sobre los símbolos individuales, pero dependiendo también de sus vecinos. -Estocástico: reciben esta clasificación cuando hay varias reglas (mutaciones y aleatoriedades) para un mismo símbolo, y cada una de estas es elegida con una probabilidad determinada. En esencia, un sistema-L no genera ningún tipo de gráfico, solo cadenas de símbolos. Es por esto que, en 1984, Alvin Smith pensó en asociar estos símbolos con un sistema de computación vectorial, capaz de representar gráficamente los procesos. Para ello, empleó el lenguaje LOGO, un lenguaje muy simple inventado por el matemático estadounidense Seymout Papert (1928-2016) para que los niños aprendieran a pensar en las categorías geométricas. Un ejemplo interesante de la utilización de los sistemas-L es el modelo para reproducir el crecimiento de las algas, donde: Axiomas: F, M Constantes ninguna Inicio F Reglas (F=MF), (M=F) Generación Proceso Resultado 0 F F 1 F FM FM 2 FMFMF FMF 3 FMFFMFFM FMFFM 4 FMFFM FMFFMFMF FMFFMFMF 5 FMFFMFMF  FMFFMFMFFZFFZ FMFFMFMFFZFFZ Ahora bien, cuando se mide la longitud de cada cadena, se obtiene la siguiente secuencia de números: 1, 1, 2, 3, 5, 8, 13, … (la serie Fibonacci). Los sistemas-L pueden ser empleados para representar una gran variedad de organismos: la reproducción de células, el crecimiento de las ramas de un árbol, o la mutación de una forma geométrica. 250 Cuarta generación. Los algoritmos genéticos Los algoritmos genéticos de John Henry Holland A mediados del siglo XX, diversos investigadores del campo de la bioquímica y la biología comenzaron a utilizar computadoras digitales con el objeto de realizar simulaciones genéticas. Uno de los primeros fue el biólogo inglés Alex S. Fraser (1923-2002) que, en 1957, publicó un trabajo titulado “Simulation of genetic systems by automatic digital computers”12, un texto donde plantea de un modo innovador el uso de la modelización por computadora para estudiar el tema de la evolución de los sistemas biológicos. Pronto estos conceptos se extenderían hacia las diversas ramas del conocimiento y buscarían desarrollar sus investigaciones a partir de analogías con los sistemas naturales y el uso de modelos computacionales. 12. Fraser, A. (1957). Simulation of genetic systems by automatic digital computers, I Introduction, Australian Journal of Biological Science, 10, pág. 484-491, 1957. Marcelo A. Fraile - Arquitectura biodigital En 1962, el matemático y biofísico germano-estadounidense Hans-Joachim Bremermann (1926-1996) publicaría un trabajo titulado “Optimization through evolution and recombination”13, en donde propone el estudio de la evolución de los sistemas biológicos como un proceso de optimización digital. Para ello, Bremermann desarrollaría una simulación computacional a través de una cadena de números binarios, en donde utilizó un procesamiento de variables a través de reproducción, selección y mutación de la información. A partir de estos estudios, se pudo advertir el importante papel que ocupaba la mutación dentro de la evolución, ya que esta impedía el estancamiento de las futuras generaciones. También en 1962, el investigador alemán Ingo Rechenberg (1934) introduciría el concepto de “estrategias evolutivas”, como un método que posibilitaba la optimización de los parámetros reales utilizados en ciertos mecanismos. Rechenberg desarrollaría una serie de nuevos algoritmos con el objeto de resolver problemas aerodinámicos en el diseño de las alas de los aviones para la compañía Focker: una aplicación práctica de las estrategias evolutivas desarrolladas a partir de modelos computacionales. Cuatro años después, los investigadores estadounidenses Lawrence Jerome Fogel (1928-2007), Alvin J. Owens y Michael John Walsh desarrollarían la “programación evolutiva”, “…una técnica en la cual las candidatas a soluciones a tareas determinadas, eran representadas por máquinas de estados finitos, cuyos diagramas de estados de transición evolucionaban mediante mutación aleatoria, seleccionándose el que mejor se aproximara” (Tolmos Rodríguez-Piñero, 2003, p. 2). Un procedimiento matemático que conduciría en el futuro a lo que se conoce como “algoritmos genéticos”14. La primera mención del término algoritmo genético fue hecha en 1967 por el Dr. John Daniel Bagley en su tesis doctoral “The behavior of adaptive systems which employ genetic and correlation algorithms”15. En esta, Bagley había diseñado un test “…para controlar las tareas a ejecutar en el juego de los seis peones. El algoritmo permit[ía] encontrar el conjunto de parámetros necesarios para usar en una función de evaluación del juego y luego compararlo con algoritmos existentes” (Cerrolaza & Annicchiarico, 1996, p. 46). De cualquier forma, la creación del término algoritmo genético se le atribuye al estadounidense John Henry Holland16 (1929-2015), doctor en Filosofía y Ciencias de la Computación quien en 1970, incorporando programas de computadora, generó un procedimiento matemático que imitaba los criterios de selección y supervivencia de las especies más aptas postulados por Charles Darwin. En 1975, Holland publicó “Adaptation in Natural and Artificial Systems”17, una importante referencia bibliográfica, en donde, respaldado por sus investigaciones, elaboraría pequeños modelos matemáticos capaces de 251 resolver problemas de la misma forma como lo hace la naturaleza, es decir, a través de la evolución (Cerrolaza & Annicchiarico, 1996, p. 48). Y así como la naturaleza resuelve sus dificultades a través de la modificación de los cromosomas, el modelo de Holland resolvería los suyos manipulando el material dentro de los cromosomas digitales (cadenas de dígitos binarios que representan las variables de diseño). 13. Bremermann, Hans (1962). Optimization through evolution and recombination, en Yovitts Marchall et., Self-Organizing Systems, Washington: Spartan books, pp. 93-106. 14. Aunque originalmente esta técnica fue denominada “planes reproductivos”, para 1975 ya se había hecho popular bajo el nombre de “algoritmos genéticos”. 15. Bagley, J. (1967). “The behavior of adaptive systems which employ genetic and correlation algorithms”, Doctoral Dissertation, University of Michigan, Dissertation Abstracts international, Vol. 28, n.º 7. 16. Uno de los fundadores del sistema complejo. A principios de la década del 60, John Holland era profesor de Electrical engineering y Computer science de la University of Michigan, en Ann Arbor, dentro del grupo Logic of Computer. En dicha universidad impartía un curso titulado “Teoría de sistemas adaptativos”, en donde se crearon muchas de las ideas que dieron lugar a los algoritmos genéticos. Inspirado en el libro La teoría genética de la selección natural, del biólogo evolucionista R. A. Fisher, Holland aprendió los aspectos referentes a la evolución y adaptación en la naturaleza. En sus investigaciones, Holland buscaba imitar los procesos adaptativos de los sistemas naturales al diseñar sistemas artificiales bajo la forma de programas digitales. 17. Holland, J. (1975) Adaptation in Natural and Artificial Systems, Michigan: The University of Michigan Press. Parte IV. La génesis de un nuevo paradigma Estos cromosomas digitales son sometidos a acciones semejantes a las que actúan durante la evolución de los organismos (mutación y recombinación genética), así como también una selección de acuerdo a una serie de criterios predefinidos, para así seleccionar cuáles de los individuos mejor adaptados sobrevivirían y cuales, menos adaptados, serían descartados (Cerrolaza & Annicchiarico, 1996, p. 48). Tiempo después, Goldberg (1953), un ingeniero industrial que había sido estudiante de Holland en la Universidad de Michigan, comenzó a utilizar los algoritmos genéticos para resolver problemas industriales, empleando una computadora Apple II. En 1989, Goldberg publicó Genetic Algorithms18, uno de los libros que más contribuyó a la difusión y aplicación de los algoritmos genéticos. En la actualidad, los algoritmos genéticos son utilizados para resolver una amplia gama de problemas complejos, cuya solución sería extremadamente difícil usando otras técnicas. Un método de indagación que puede ser utilizado para solucionar problemas de optimización, permitiendo evaluar y corregir inconvenientes cuyo espacio de acción es demasiado grande. Una búsqueda cambiante, donde cada cromosoma es un candidato potencial a futuras respuestas. Con el fin de simplificar el proceso, las fases de un algoritmo genético simple o canónigo, puede resumirse en: 1. Inicialización El algoritmo genético crea de manera aleatoria un par de criaturas artificiales denominadas padres, progenitores o población inicial. Esta población o generación consiste en un conjunto de individuos definidos a través de sus cromosomas. Cada cromosoma se codifica a través de una cadena de bits de información denominados genes. 252 Fig. 9. El algoritmo genético crea de manera aleatoria un par de criaturas artificiales denominadas padres, pro- Los genes representan una posición en la cadena de información. Cada gen está formado por un conjunto de valores denominado alelo. Los alelos pueden ser de tres tipos: genitores o población inicial. - Binarios: (son los más comunes) constituidos por 0 y 1. Esta población o generación consiste en un conjunto de individuos definidos a través de sus cromosomas. Cada - Enteros: constituidos por un numero entero, por ejemplo 1, 5, -5, etcétera. cromosoma se codifica a través de una cadena de bits de información denominados genes. - Reales: constituidos por un número real, por ejemplo 0,124; 0,5; -0,24; etcétera. - Letras: constituidos por cadenas de letras, por ejemplo A, B, etcétera. El comportamiento del algoritmo genético futuro será dependiente de los parámetros iniciales seleccionados: 18. Goldberg, D. (1989) Genetic Algorithms. In shearch, optimization & Machine Learning. Massachusetts: Addison-Wesley Publishing Company. Marcelo A. Fraile - Arquitectura biodigital - Tamaño de la población: si la población es pequeña, se corre el riesgo de no cubrir la esfera de búsqueda; en tanto que, si es demasiado grande, puede acarrear un aumento considerable de los tiempos y procesos de cálculo. - Aleatoriedad de la población: su combinación debe ser tal que garantice la diversidad estructural de las soluciones, evitando convergencias prematuras. - Numero de generaciones: cada iteración durante el proceso recibe el nombre de generación. Un algoritmo puede tener entre 50 y 500 iteraciones. Cada conjunto de iteraciones recibe el nombre de Serie. - Porcentaje de cruce, porcentaje de mutación, etcétera. 2. Evaluación Una vez formada la población inicial, se calcula y evalúa la aptitud de cada uno de los genes de los individuos (fitness). Se aplicará a cada cromosoma de la población buscando la mejor solución que se codificó. 3. Selección o reproducción Con base en la aptitud, el algoritmo selecciona de la población aquellos algoritmos para efectuar la reproducción, es decir, aquellos cromosomas que serán cruzados en la siguiente generación. Para esto, el sistema seleccionará, entre los cromosomas de la población inicial, aquellos que posean capacidad de reproducción, y entre estos, los que sean más compatibles y produzcan más descendencia que el resto (Tolmos Rodríguez-Piñero, 2003, pp. 2-3). Cuanto mayor sea la adaptación de un individuo al problema, mayor será la probabilidad de ser seleccionado para reproducirse: el más apto sobrevive, el menos Fig. 10. El algoritmo imita la combina- apto muere. ción biológica existente en la naturaleza: un proceso de selección natural, 4. Variaciones análogo a los existentes en los procesos biológicos. Para ello se aplica El algoritmo imita la combinación biológica existente en la naturaleza: un proceso de selección natural, análogo a los existentes en los procesos biológicos. Para ello se aplica sobre la población inicial, los operadores genéticos de reproducción, cruce y mutación, con el fin de concebir la siguiente población. - Operaciones de combinación o cruce: relacionadas con la reproducción sexual, se producen cuando el algoritmo genético selecciona dos individuos que cumplirán el papel de padres. Estos individuos son recombinados, cambiando la secuencia a través de la selección de un punto de corte, para posteriormente intercambiar las secciones que se encuentran a la derecha o izquierda de dicho sobre la población inicial, los operadores genéticos de reproducción, cruce y mutación, con el fin de concebir la siguiente población. 253 Parte IV. La génesis de un nuevo paradigma punto19, por ejemplo “…las cadenas 10010011 y 11111010 pueden cruzarse después del tercer lugar para producir la descendencia 10011010 y 11110011. Imita la recombinación biológica entre dos organismos haploides” (Tolmos Rodríguez-Piñero, 2003, p. 6). Una combinación de las mejores características provenientes de la población inicial, para generar una descendencia mejor adaptada, una convergencia hacia una solución óptima del problema. - Operaciones de mutación: el algoritmo produce una pequeña variación aleatoria de un cromosoma de los individuos vecinos, por ejemplo, “…(la cadena 00011100 puede mutar su segunda posición para dar lugar a la cadena 01011100). La mutación puede darse en cada posición de un bit en una cadena, con una probabilidad, normalmente muy pequeña (por ejemplo 0.001)” (Tolmos Rodríguez-Piñero, 2003, p. 6). 5. Evaluación En esta etapa, el algoritmo calcula la aptitud de los individuos (fitness). Para ello, su espacio de búsqueda deberá está delimitado dentro de ciertos rangos, permitiendo definir qué tan acertada o equivocada es la respuesta. Tiene que ser capaz de condenar las malas soluciones y premiar las buenas, de forma que sean estas últimas las que puedan repetirse con mayor rapidez 6. Condición de término Se pretende que el algoritmo genético detenga su búsqueda cuando alcance la solución óptima, pero dado que este punto se desconoce, se utiliza otro criterio para detenerlo. Las alternativas más usadas son: correr el algoritmo un número máximo de veces (iteración o generaciones), o detenerlo cuando no existan cambios en la población. En caso de haber alcanzado las condiciones de parada, se restituye el mejor individuo encontrado y fin del algoritmo. 7. Nueva iteración Si no alcanzó la condición de parada, el algoritmo vuelve al paso número 3, hasta que la condición de término se satisfaga. Con cada nueva generación, la población evoluciona hacia un resultado óptimo: es lo que se conoce como concepto de convergencia, una progresiva evolución hacia la uniformidad. 254 De acuerdo a las variaciones y el modo en cómo se apliquen los operadores genéticos, el proceso de selección y el reemplazo de los individuos, serán los resultados obtenidos. Sin embargo, su no linealidad y su adaptabilidad permiten una amplia gama de combinaciones con resultados óptimos. Los algoritmos genéticos no presentan soluciones perfectas, tienen ciertas limitaciones; en general sus soluciones son buenas, dependiendo de la definición del problema, del entrecruzamiento de sus elementos y de la especificidad de sus soluciones. Los algoritmos genéticos difieren de los métodos de búsqueda y optimización ya que al trabajar con códigos que codifican el conjunto de parámetros y no sobre las variables, el sistema es más complejo de engañar. A su vez, al trabajar con una población, se reducen las probabilidades de una única opción. Para que el algoritmo genético pueda resolver el problema, la solución debe ser codificada de un modo que resulte fácil su implementación a través de los sistemas digitales. 19. Algunas investigaciones han determinado que el número óptimo de puntos de cruce es dos. Más puntos no representan una mejora sustancial al comportamiento del algoritmo. Marcelo A. Fraile - Arquitectura biodigital El modelo biológico-digital de Dawkins En 1976, el biólogo evolutivo británico Clinton Richard Dawkins (1941), en su libro titulado The Selfish Gene20, introduce el término memes, una abreviatura del griego ‘mimeme’, para desarrollar una visión evolutiva de las especies que hace foco en los genes en lugar de en el individuo. En este sentido, Dawkins utiliza la palabra memes como “…una unidad de transmisión cultural” (1993, p. 219), una analogía al concepto de genes, para explicar la difusión de ideas y fenómenos culturales. Los memes se relacionan con la memoria, son “…tonadas o sones, ideas, consignas, modas en cuanto a vestimenta, formas de fabricar vasijas o de construir arcos”. Y así como los genes transmiten el material genérico a través de los espermatozoides y los óvulos, “…los memes se propagan en el acervo de memes al saltar de un cerebro a otro mediante un proceso que, considerado en su sentido más amplio, puede llamarse de imitación” (Dawkins, 1993, p. 219). Para Dawkins, la selección natural va construyendo la complejidad paso a paso, a través de una cadena de micromutaciones continuas, para llegar de un punto a otro, una “…construcción gradual de la complejidad a través de una ‘suave rampa’ que conduce, desde los seres más sencillos, a los más complejos y organizados” (Aguirre, 2009). En este sentido, estableciendo una analogía con los sistemas genéticos, los rasgos culturales o memes también se replican. Sin embargo, mientras que los cromosomas son unidades independientes, las dimensiones culturales son una construcción general. Al igual que los genes, los memes se caracterizan por tener: longevidad, fecundidad y fidelidad de copiado. Por imitación, los memes son capaces de crear réplicas de sí mismos. Pero, así como no todos los genes que pueden hacer copias lo efectúan con éxito, de la misma forma algunos memes tienen más éxito que otros: proceso análogo al de la selección natural (Dawkins, 1993, p. 221). De esta forma, los memes son transmitidos de una forma alterada, bajo un proceso de mutación y fusión constante. Dawkins propone la existencia de dos procesadores de la información: el primero actúa a nivel genómico, a partir de la replicación de genes a través de las generaciones, una unidad de información heredable que produce efectos concretos; y el segundo, a nivel cerebral, que replica la información cerebral del individuo, la cual se recibe a través de la enseñanza, la imitación, o por simple asimilación. En 1989, el físico argentino Pablo Moscato (1964) publicó un artículo titulado “On Evolution, Search, Optimi- 255 zation, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms”21, en donde utilizaba por primera vez el término “algoritmos meméticos” para referirse a las técnicas de optimización que combinan sinérgicamente técnicas basadas en poblaciones, como en los algoritmos genéticos, y técnicas de búsqueda local, como las realizadas por cada individuo. Sin embargo, en los algoritmos meméticos, el concepto pasivo de individuo es reemplazado por el de agente, un comportamiento activo dirigido a la resolución de un cierto problema (Cotta, 2007). Desde esta mirada, un algoritmo memético puede asociarse con un algoritmo genético al cual se le agregó un paso extra al proceso de cruzamiento y mutación, este paso correspondería con una búsqueda local de cada individuo. Es decir, cada generación, al terminar la iteración, realiza una nueva búsqueda –pero ahora local–, con el fin de descubrir si existe alguna solución “más apta” a la representada dentro del rango local. Un algoritmo que utiliza los memes como unidades de información codificada en representaciones computacionales con el fin de resolver un problema (Aguilar Justo, 2014, p. 7). 20. Dawkins, R. (1976). The selfish gene, Oxford: Oxford University Press. 21. Moscato, P. (1989), On Evolution, Search, Optimization, Genetic Algorithms and Martial Arts: Towards Memetic Algorithms, Pasadena: Caltech Concurrent Computation Program 158-79. Parte IV. La génesis de un nuevo paradigma A diferencia de los algoritmos evolutivos estándar, que comienzan con un numero aleatorio de soluciones, los algoritmos meméticos “arrancan” con un proceso de inicialización. Los algoritmos meméticos buscan desarrollar mejoras individuales de las soluciones, “…en cada uno de los agentes junto con procesos de cooperación y competiciones de tipo poblacional”22. Una interrelación entre los agentes, dentro de un marco de competencia y cooperación, similar a los procesos existentes en la naturaleza entre los individuos de una misma especie. Durante el proceso, cada generación se actualiza utilizando una nueva población obtenida mediante la recombinación de las características de algunos agentes escogidos: la selección es la responsable de elegir de la población actual una muestra de los mejores especímenes; y la actualización o mutación es la encargada de eliminar un cierto número de agentes, con el fin de permitir el ingreso de otros nuevos, enfocando de este modo las tareas de búsqueda. Tanto los procesos de selección como de actualización son estructuras puramente competitivas que posibilitan modificar la distribución de los agentes existentes (Moscato & Cotta, 2003, pp. 131-148). Finalmente, el empleo de estrategias de búsqueda local desarrolla “…una exploración autónoma del espacio de búsqueda, cooperando en ocasiones a través de la recombinación, y compitiendo por recursos computacionales a través de los mecanismos de selección/reemplazo” (Cotta, 2007). Una búsqueda compleja en donde se deberá determinar el modo de representar la solución a ser utilizada. Desde este punto de vista, su implementación puede resumirse en cuatro pasos: 1. Generar la población inicial. Esta podrá ser aleatoria, predeterminada, o a partir de la aplicación de alguna ley heurística. 2. Búsqueda local. Donde cada agente realizará una indagación hasta encontrar un óptimo local, o hasta lograr una mejora determinada. Pese a ser equivalente al proceso de mutación en los algoritmos genéticos, su diferencia radica en que la exploración local es guiada. 3. Interacción entre los agentes. Los agentes interactuarán entre sí a través de la competencia (equivalente a la selección en los algoritmos genéticos) y a través de la cooperación (equivalente al cruzamiento en un algoritmo genético). 256 4. Si el criterio obtenido cumple con los requisitos previamente definidos, finalizar; caso contrario, volver al paso 2. A diferencia de otras técnicas, los algoritmos meméticos fueron concebidos como un sistema abierto a la interacción sinérgica con otras técnicas. Esto produjo su difusión a diversos campos del conocimiento, buscando un máximo aprovechamiento de los recursos computacionales. Doce años después de The Selfish Gene, Dawkins publicaría The blind Watchmaker23: un intento de explicar la Teoría de la Evolución de Darwin mediante un nuevo modelo evolutivo adaptativo, el cual no posee intenciones ni objetivos predefinidos. Un mecanismo que, como un relojero ciego, “…no planifica las consecuencias, no tiene una finalidad en mente” (1988, p. 20). Para explicar este concepto, Dawkins utiliza el conocido teorema del mono infinito, según el cual, “…si le das una computadora a un mono, y lo dejás teclear al azar por suficiente tiempo, eventualmente tecleará las obras completas de Shakespeare” (Fiszbein, Godoy Herz, & Aboud, 2008, p. 2). 22. Moscato, Pablo, Cotta, Carlos, “Una introducción a los algoritmos meméticos”, Vol. 7, número 019, Asociación Española para la Inteligencia Artificial, Valencia, España, 2003, pág. 131-148. En: http://www.aepia.org/revista (consultado 29 de mayo de 2017). 23. Dawkins, R. (1986). The blind Watchmaker. England: Longan cientific & Technical. Marcelo A. Fraile - Arquitectura biodigital A partir de este concepto, Dawkins desarrolla Weasel program, un modelo que utiliza la frase de Shakespeare “ME THINKS IT IS LIKE A WEASEL” (creo que parece una comadreja) como punto de llegada a la solución. Un teclado reducido a 26 letras mayúsculas y el espacio para reproducir una frase de 28 caracteres. De esta manera, el programa actúa analógicamente como el mono infinito para generar miles de millones de combinaciones posibles (Fiszbein et al., 2008, p. 2). Con el asesoramiento de Alan Grafen, el programa fue desarrollado utilizando una computadora Apple Macintosh de 64 K de memoria, bajo lenguaje BASIC que posteriormente fue reemplazado por uno que corría bajo un lenguaje PASCAL. El programa establecía una semejanza con la teoría de la evolución, en donde las letras escritas al azar representaban las mutaciones aleatorias. De este modo, si el sistema escribe la letra correcta y en la posición adecuada, esta quedará visible para la siguiente iteración. En sucesivas etapas, el programa intentará completar solo las letras que no fueron escritas correctamente en el intento anterior. A medida que el tiempo pasa y las iteraciones aumentan, el sistema se va acercando cada vez más a la solución buscada, es decir, la frase de Shakespeare (Fiszbein et al., 2008, p. 2). Cada vez que el programa corre, es una población diferente, con diferentes mutaciones: una ‘n’ cantidad de iteraciones necesarias para escribir la frase correcta. Un algoritmo aleatorio, que no descarta ningún camino a priori, un análisis de micromutaciones, manteniendo las posibilidades de encontrar nuevas soluciones a través de una selección acumulativa. Y aunque el modelo desarrollado por Dawkins es útil para explicar el concepto de selección acumulativa, “…la calidad de las soluciones que genera se juzga comparándola explícitamente con ese resultado especificado de antemano” (Marczyk, 1993). Esto puede inducir al error si se Fig. 11. Dawkins utiliza el conocido teorema del mono infinito, según el cual, “…si le das una computadora a un mono, y lo dejás teclear al azar por suficiente tiempo, eventualmente tecleará las obras completas de Shakespeare” (Fiszbein, Godoy Herz, & Aboud, 2008, p. 2). 257 Parte IV. La génesis de un nuevo paradigma lo relaciona con la naturaleza, ya que en esta, su resultado no es conocido de antemano, y por lo tanto es imposible contar con un elemento de contraste. Dawkins justifica este concepto explicando que la naturaleza, en lugar de utilizar la información conocida para guiar cada paso y realizar las mejoras –tal como lo haría un diseñador humano–, en realidad “…son ‘relojeros ciegos’ que realizan cambios aleatorios en sus soluciones candidatas y luego utilizan la función de aptitud para determinar si esos cambios producen una mejora” (1988, p. 20). Ahora bien, pese a que el modelo inicial de letras y palabras de Dawkins había resultado ser interesante para la investigación de la evolución en la naturaleza, se precisaba reemplazar este modelo por otro más eficiente que permitiera mostrar los resultados de un modo gráfico en la pantalla de una computadora. Sin embargo, el desarrollo de sistemas embrionarios resulta demasiado complejo para poder ser simulado en una computadora. Es por esto que se hizo necesaria una analogía simplificada de la naturaleza: una serie de reglas simples que pudieran trazar su “evolución” pero de un modo gráfico en la pantalla de una computadora. Una simulación de un organismo en dos dimensiones, a las que Dawkins llamó “Biomorfos” 24, dado su parecido con ciertas formas biológicas. Para ello, inicialmente, la computadora comienza dibujando una línea vertical en la pantalla, a continuación, esta línea se ramificará en dos; luego, cada rama se dividirá en dos sub-ramas; el siguiente paso será, que cada sub-rama se dividirá a su vez en dos “sub-sub-ramas” y así sucesivamente. La profundidad de las repeticiones significará el número de “sub-sub…ramas” que dan lugar a una forma grande y frondosa. Una regla de ramificación aplicada localmente en una estructura arboriforme en crecimiento (Dawkins, 1988, p. 37). Por ejemplo, en un modelo de 9 genes (representado por un valor entero), cada uno de estos puede influenciar en alguna particularidad del modelo: uno podría influenciar en el ángulo de ramificación, otro en la longitud de una rama determinada, otro en el número de ramificaciones sucesivas, etcétera. (Dawkins, 1988, p. 39). Durante el proceso de reproducción, cada generación recoge los genes de la generación anterior y los transmite a la generación siguiente, pero con pequeños errores al azar, pequeñas mutaciones que consisten en sumar o restar un valor al gen escogido al azar. Un modelo de evolución capaz de generar bioformas a través de una selección artificial. En este sentido, para Dawkins, la elección arbitraria de los biomorfos permite comprender el rol del azar durante el proceso evolutivo: una selección acumulativa de decisiones del usuario, donde el genoma cambia a 258 través de las sucesivas mutaciones. Sin embargo, durante el proceso de selección en un organismo biológico, la naturaleza no elige los genes de un modo directo, sino por los efectos que los genes tienen sobre los cuerpos, esto se conoce como efectos fenotípicos (Dawkins, 1988, p. 40). Dawkins introduciría el concepto de fenotipo en sus programas, a través de una cadena binaria análoga con la cadena de aminoácidos existentes en los genes de un organismo vivo. De este modo, el algoritmo evaluaría la idoneidad de la respuesta, usando la información proporcionada de antemano para seleccionar qué individuos preexistentes serán reemplazados por los nuevos individuos en la etapa de reproducción, manteniendo siempre la población. Tiempo después, Dawkins agregaría 7 genes adicionales al modelo original de 9 genes, con el fin de simular el proceso de segmentación, facilitando el desarrollo de nuevas estructuras con distintos tipos de simetrías (Lahoz-Beltra, 2004, p. 283). 24. Término originalmente acuñado por el zoólogo británico Desmond Morris (1928): en referencia al tipo de pintura surrealista que el desarrollaba. Marcelo A. Fraile - Arquitectura biodigital Una búsqueda a través de millones de combinaciones, donde los algoritmos encontrarán una gran cantidad de posibles resultados (genotipos), que irán mejorando en las sucesivas iteraciones hacia el óptimo genoma. Sin embargo, no existe garantía de encontrar la mejor solución posible. El algoritmo de Dawkins puede resumirse en: 1. Adoptar una cadena aleatoria inicial. 2. Evaluar la cadena de montaje. 3. Seleccionar la mejor cadena de montaje, a partir de las funciones de aptitud. 4. Reemplazo de la cadena que no cumple los requisitos. 5. El algoritmo se detiene si el resultado es el correcto, caso contrario regresa al ítem 2. A través de sus escritos, Dawkins pretendía demostrar que la selección de un solo paso es absurdamente improbable, siendo producidos los resultados complejos simplemente por el azar, en tanto que en la selección acumulativa, el resultado complejo se construye lentamente a través de un proceso evolutivo de filtrado que preserva las mejoras sin hacer cambios (Marczyk, 1993). A pesar de esto, la selección natural es compleja, y simularla en una computadora es más complejo aún. Las bioformas deberán interactuar dentro de la computadora, una simulación dentro de un ambiente hostil, que “… debería incluir otras bioformas en evolución, ‘depredadores’, ‘presas’, ‘parásitos’, ‘competidores’” (Plaza Leiva, 2013). Un mundo complejo que requiere de poderosos equipos y hábiles programadores. Figuras Fig. 1. Autómatas celulares. http://www.enelnombredetux.com/project292f.html?project=autcel Fig. 2. Autómatas celulares. http://www.enelnombredetux.com/project292f.html?project=autcel Fig. 3. El juego de la vida de Conway. http://www.enelnombredetux.com/project292f.html?project=autcel Fig. 4. El juego de la vida de Conway. http://www.enelnombredetux.com/project292f.html?project=autcel Fig. 5. autómatas celulares de Stephen Wolfram. http://natureofcode.com/book/chapter-7-cellular-automata/ Fig. 6. Bucle de Langton. http://cala.unex.es/cala/epistemowikia/images/e/e3/Bucle_Langton.PNG Fig. 7. Bucle de Langton. http://lslwww.epfl.ch/pages/embryonics/thesis/Thesis-26.gif Fig. 8. Sistemas de Lindenmayer. http://igm.rit.edu/~nd/sims/trees.png http://blog.press.princeton.edu/wp-content/uploads/2011/07/trees.jpg Fig. 9. Algoritmo genético. https://towardsdatascience.com/introduction-to-genetic-algorithms-including-example-codee396e98d8bf3 Fig. 10. Algoritmo genético. https://towardsdatascience.com/introduction-to-genetic-algorithms-including-example-codee396e98d8bf3 Fig. 11. The Weasel program. http://www.i-logic.com/weasel/weasel.htm 259 Marcelo A. Fraile - Arquitectura biodigital MORFOGÉNESIS DIGITAL EN ARQUITECTURA “Las revoluciones discurren con frecuencia en direcciones inesperadas por quienes las iniciaron. Copérnico quería conseguir los mismos resultados que Ptolomeo… Sin embargo, la revolución copernicana llego a término cuando Kepler introdujo sus orbitas elípticas recorridas con movimientos acelerados. También Newton compuso su sistema para llevar a las personas a creer en la divinidad, por lo que redujo la materia a casi nada”. (Solís Santos, 2006, p. 9). La naturaleza como fuente de inspiración La arquitectura tradicional ha venido repitiendo a lo largo del tiempo patrones y mecanismos que han permitido la supervivencia humana desde sus orígenes. Sin embargo, sabemos que el entorno humano se modifica constantemente; de hecho, en los últimos años hemos notado un proceso acelerado de degradación en nuestro ambiente. La especie humana “…se ha comportado con el ecosistema natural del mismo modo irresponsable que un niño maleducado con una mascota” (Garrido De, 2012, p. 14). En respuesta a esa situación, pareciera que nos encontramos en el surgimiento de un nuevo paradigma que ve en lo biológico un método para expandir sus conocimientos. Dentro de este ámbito, las nociones tradicionales del diseño se han modificado para surgir un nuevo diálogo que intenta llegar a niveles más avanzados del hacer y del pensar, a través del uso inteligente de las cualidades de los medios electrónicos, de la genética y de la biología. Invadidos por el pensamiento de otros campos disciplinares y apropiándose de ideologías diversas, de un universo de nuevos sistemas, el concepto de morfogénesis, hacen su aparición en el campo de la arquitectura como un medio de expresión creativa y gestora de un diseño que busca la optimización de los recursos. Aparece un nuevo concepto: el de morfogénesis. Y al igual de lo que sucedió con otras disciplinas, se incorpora al campo del diseño, pero complementada con la palabra “digital”, o “computacional”. Esto está relacionado con que en este ámbito los medios digitales ya no se consideran meras herramientas de representación, sino que son medios para la generación y transformación de la forma, lo que crea un vínculo que no puede escindir la forma de la idea. En arquitectura, la morfogénesis digital puede ser entendida de una manera “…análoga o metafórica con los procesos de morfogénesis en la naturaleza, compartiendo con ella la dependencia del desarrollo gradual, pero 261 no necesariamente adoptando o haciendo referencia a los mecanismos reales de crecimiento y adaptación” (Roudavski, 2009, pp. 345-374). Lo que es claro, ya sea una u otra definición, que su utilización en el campo de la arquitectura se ha convertido en un conjunto de métodos y sistemas que utilizan lo informático para la toma de decisiones. Es decir, una mirada que hace foco en los procesos biológicos-digitales de desarrollo como una herramienta generativa de resultados complejos e innovadores. La arquitectura surge de nuevos planteos capaces de replicar los sistemas existentes en la naturaleza a fin de responder mejor a las condiciones de su ambiente para contribuir al desarrollo de una producción sustentable y de alta performance. Es una arquitectura que está en contacto con el ambiente, que evoluciona y cambia, que interactúa, que respira, que controla su temperatura, sus accesos y su iluminación. Una arquitectura de alta tecnología que no imita a la naturaleza de un modo fotográfico, sino que, por el contrario, sus acciones son el resultado de formas biológicas digitales, híbridos virtuales estructurados de manera autónoma y de un modo jerárquico, una sucesión de sistemas dentro de sistemas. Sus formas fluidas de sugerentes curvas son el resultado de Parte IV. La génesis de un nuevo paradigma modelos matemáticos evolutivos; son como un organismo de vida digital que codifica en su ADN nuevas criaturas autoorganizadas, en un proceso de selección y supervivencia del más apto, en una interacción constante con el entorno. El resultado es un diseño modelado como un organismo que envuelve nuevas concepciones del espacio. Una relación integral entre forma y estructura, en donde se optimizan los recursos de un modo lógico, bajo parámetros bioclimáticos y con un mayor grado de eficiencia energética. Se crea así una “arquitectura de rendimiento”, con una relación lógica y yuxtapuesta que considera los requerimientos ambientales y sostenibles del lugar, superando el criterio conservacionista tradicional. Es por todo esto que podemos afirmar que, a comienzos del siglo XXI, un nuevo paradigma está surgiendo: con principios genético-digitales; con una mirada que ve en los organismos vivos y en la compleja relación con la tecnología, una fuente de inspiración. Trabajando desde lo digital, las ideas evolucionan bajo un nivel de abstracción formal a partir de mutaciones y cruces hasta convertirse en una “especie arquitectónica nueva”, donde el medioambiente y la tecnología, por fin se encuentran en equilibrio. En el campo de la arquitectura, la morfogénesis digital permite al diseñador desarrollar toda una gama de posibilidades. Para Branco Kolarevic, el énfasis de la morfogénesis digital ya no está puesto en el proceso de crear formas, sino en el de encontrarlas, algo que las técnicas generativas digitales fomentan de un modo intencionado (Dunn & Casasnovas, 2012, p. 68). Una concepción contemporánea del diseño que busca en la morfogénesis un tipo excepcional de arquitectura, donde el diseñador se transforma en su descubridor o, mejor aún, su creador, bajo una serie progresiva de acercamientos. Mediante su práctica, se busca encontrar soluciones a problemas que la naturaleza ya ha resuelto. Para esto, se requerirá un mayor compromiso entre tecnología y biología, lo que lleva a la elaboración de propuestas arquitectónicas cada vez más complejas. En este nuevo accionar resulta evidente que los nuevos diseñadores de la contemporaneidad son transformados en metadiseñadores digitales, que consideran la tecnología como una herramienta proyectual. Un nuevo accionar donde lo constante y particular es sustituido por lo variable y diverso; y donde “las formas dejaron de ser dibujadas o representadas para pasar a ser calculadas” (Lynn, 2000). Sin embargo, no todos aceptan estos planteos, y se producen posiciones radicales y enfrentadas. Por un lado, un grupo de diseñadores más conservadores se aferran a los planteos más tradicionales. Para ellos, se trata de una arquitectura que ha interpretado la biología desde un punto de vista estético, extrayendo de esta sus 262 formas como un ornamento decorativo, siendo sus traducciones elementos simbólicos, “…como base para prácticas filosóficas metafóricas o espirituales” (Dunn & Casasnovas, 2012, pp. 345-374), que lejos de ser un organismo digital genéticamente codificado, se trata más bien de un “…proceso de autogeneración de la forma en el interior de un medioambiente” (Weinstock, 2004, pp. 10-17). Por el otro, un pequeño grupo de diseñadores, menos comprometidos con el paradigma tradicional y quizás con “menos credibilidad que perder”, abogan por un cambio. Ellos constituirían la pieza clave que podría liberarnos de las concepciones clásicas del diseño, porque propician una arquitectura bioinspirada, generativa, ya que han adquirido una capacidad de interpretación de las formas naturales que va más allá de la mera aproximación estética. Para el arquitecto Karl Chu, estamos en un punto de inflexión en el que es posible “articular una teoría de la arquitectura más amplia, “…que atienda las demandas impuestas por la convergencia de la computación y la biogenética en la llamada Era Posthumana” (López Fernández, 2009, p. 60). Marcelo A. Fraile - Arquitectura biodigital La elaboración del modelo digital en arquitectura Cada vez que el hombre busca crear objetos nuevos o mejorar su eficiencia, ha recurrido a la naturaleza en busca de inspiración inagotable: un intento por asemejar los procesos de diseño a los fenómenos naturales, dependiendo su resolución de las particularidades de cada época. Hoy, gracias a los avances en materia de ciencias biológicas y digitales, se han comenzado a entender estos fenómenos desde sus procesos generativos, lo que permite aprehender sus mecanismos intrínsecos de actuación, cuyo objetivo principal es la búsqueda de un mejor hábitat para el hombre. A lo largo de 3,6 mil millones de años, la naturaleza ha desarrollado un eficiente proceso de evolución en el que los organismos menos adaptados al medio natural son eliminados; esto da lugar al perfeccionamiento de aquellos que sobreviven. En este sentido, es imprescindible comprender que en la naturaleza no existen sistemas cerrados e inamovibles, por el contrario, se trata de estructuras con una búsqueda de renovación constante. Su comportamiento es el de un sistema inteligente donde las formas biológicas se organizan de maneras autónomas y jerárquicas para generar seres vivos de gran complejidad y diversidad. Asumiendo sus enseñanzas, y frente a la crisis ecológica actual, gran parte de la humanidad lucha por adoptar modos de vida respetuosos del medioambiente que no comprometan el presente y el futuro del planeta. En este sentido, la arquitectura convencional requiere contantemente de recursos para subsistir: energía eléctrica, agua, aire, calefacción; recursos que implican un alto costo de mantenimiento diario de fuentes externas, muchas veces sin considerar los daños que se producen a la posibilidad de lograr un ecosistema autosustentable. Se hace necesario repensar la arquitectura y que incorpore una relación sana entre naturaleza y mundo artificial; una arquitectura novedosa, que no busque parecerse a los organismos biológicos, sino que su objetivo sea “… funcionar como ellos – moverse, transferir aire y humedad, filtrar polución, reorientar sus pieles, modificar el calor y el frío, alertar a los ocupantes de cambiar las condiciones sociales y medioambientales” (Dollens, 2003, p. 84). Se trata de una arquitectura verde, híbrida y experimental que, al igual que la naturaleza, conserva sus proporciones relativas. Estamos ante una nueva propuesta, ante un diseño regenerativo en el que nada se pierde, todo se transforma; a través de la tecnología estamos estableciendo una simbiosis entre el hombre y la naturaleza. Con el auxilio de la tecnología, estamos transformando la arquitectura en un organismo vivo; en un organismo análogo a los sistemas biológicos, con estructuras morfológicamente adaptables, químicamente programables, una arquitectura construida a escala molecular. Todo esto implica un cambio de paradigma en el que se han superado los límites entre lo natural y lo construido. Y del mismo modo que lo harían las células biológicas, estas ‘células químicas inorgánicas’ pueden interactuar entre sí para producir materiales vivos: nuevos materiales, que “…con el tiempo se adaptaría, evolucionaría, mejoraría y abordaría dinámicamente el parámetro de la estabilidad” (Cronin, 2011, pp. 34-43). Permitirán la construcción de edificios capaces de ser programados, utilizando un enfoque descentralizado, que serán capaces de autorrepararse; de modular el ambiente (es decir regular su temperatura, su luminosidad, su humedad); de recolectar, almacenar y distribuir la energía solar; retener el agua de lluvia; e incluso competir con otros organismos por materiales, información o recursos, creando un sistema complejo de construcción a escala molecular (Cronin, 2011, pp. 34-43). 263 Parte IV. La génesis de un nuevo paradigma Estos procesos, surgidos de la utilización de algoritmos genéticos, implican, para Manuel de Landa, el uso de ciertas ideas filosóficas derivadas del pensamiento de Gilles Deleuze y que pueden sintetizarse en tres formas de pensamiento: el pensamiento poblacional, el intensivo y el topológico (2002, pp. 117-120)1. 1. Pensamiento poblacional Es un tipo de razonamiento derivado de las teorías de Charles Darwin y George Mendel, que plantea el concepto de evolución a medida que los genes se propagan de una población a la siguiente para definir una nueva forma. En el modelo, esto será representado a través de una analogía entre el código informático y el material genético de un organismo en particular: una secuencia bien definida de operaciones entre genes digitales y rasgos formales virtuales. En arquitectura, el modelo digital deberá estar compuesto por dos componentes: por un lado, su información geométrica, es decir el conjunto de métodos y herramientas que se utilizan para definir la forma y otras características del objeto; y, por el otro, la información no-geométrica, que permite determinar el comportamiento del modelo (Ramos, 2012). En primer lugar, el diseñador establecerá el material genético básico. Por ejemplo, para la generación de una habitación: largo, ancho, alto, etc.; a continuación, deberá añadirle una secuencia de mutaciones espontáneas que ocurrirán; finalmente, dejará que estas mutaciones se propaguen e interactúen a través de las diferentes generaciones. Para que esto suceda, será necesario indicarle a la máquina lo que debe hacer, es decir, proponer un listado de comandos e instrucciones que determinarán las tareas, los pasos que se deberán seguir. Un código programático que le enseñe a la computadora qué variable deberá procesar y cómo deberá hacerlo, diferenciando cuáles son los procesos más satisfactorios con el medio, qué puntos deberá conectar y cómo llegará a hacerlo. “No hay magia en la informática”. A través del uso de las computadoras y de los algoritmos digitales, será posible entonces abordar directamente un problema de diseño buscando estratégicamente entre múltiples soluciones posibles. En estos procesos, los algoritmos genéticos “…son una parte intrínseca de los programas de diseño digital, que disponen de varias plataformas [desarrollando una] interacción con el propio programa” (Dunn & Casasnovas, 2012, p. 186). Un programa traduce a lenguaje de programación uno o más algoritmos, en una serie de operaciones específicas con un objetivo concreto. 264 2. Pensamiento intensivo Es un concepto derivado de la termodinámica, donde el término “intensivo”, se refiere a valores que no pueden dividirse como tales: la temperatura, la presión o la velocidad. Esto significa, por ejemplo, que un volumen de agua a 90º, si lo dividimos no se convierte en dos a 45º, sino que resultan dos medios volúmenes a 90º. Una diferencia intensiva tiende a anularse al transportar materia y energía, e impulsar los procesos que generan la diversidad de la forma. Por oposición, los procesos extensivos consideran magnitudes como longitudes, áreas, volúmenes, que son más habituales para los arquitectos. Lo intensivo queda representado en los procesos de embriogénesis, donde tras la fecundación del ovulo, el cuerpo humano produce diferentes concentraciones de sustancias químicas. En arquitectura, los procedimientos intensivos requieren que los elementos no pierdan su función. Por ejemplo, si se trata de una columna encargada de transmitir las cargas de compresión, esta no deberá perder su función en la tercera o cuarta generación, o aparecer situada de tal manera que sea incapaz de soportar cargas. 1. Las consideraciones particulares que se hacen a continuación toman como referencia las ideas desarrolladas por el autor en este artículo. Marcelo A. Fraile - Arquitectura biodigital Para ello, el diseño generativo utilizará una serie de algoritmos desarrollados bajo un “lenguaje de Scripts”2, como auxilio para el proyecto, lo que permitirá generar nuevas ideas de diseño. Lo importante en este tipo de modelos es definir cuáles son los parámetros de un proyecto y cuáles son sus reglas. Detectado esto, será posible construir matrices, modelos matemáticos, que permitan a partir de estos establecer cómo se relacionan, a fin de poder evaluarlo. Se establecerá entonces un proceso de selección-evolución, un modelo analítico, disponible “…para el diseño y [la] fabricación de formas arquitectónicas que presentan un comportamiento complejo, y quizás [hasta] incluso inteligente” (Hensel, Menges, & Weinstock, 2010, p. 9 y ss.). Desde este punto de vista, se pretende diseñar una arquitectura desarrollada “…bajo el principio de aproximaciones sucesivas, en donde se afirma que se avanza a pequeños pasos y cada paso es reforzado (premiado) evitando dar el paso siguiente sin tener éxito constante en el paso previo” (Pérez Arnal, 2003, p. 64). Es un proceso integral basado en búsquedas constantes, con objetivos e hipótesis definidas. Durante este proceso, es necesario tomar decisiones de diseño. Por ejemplo, dotar al modelo original de los lugares adecuados en los que se ubicarán los puntos de mutación. Cada forma va evolucionando a partir de la aplicación de algoritmos digitales, desconociendo cuál será el resultado final: en un proceso de autoorganización y supervivencia de partes que utiliza las herramientas informáticas para el desarrollo de un diseño que conjuga arquitectura y genética. 3. El pensamiento topológico Durante la embriogénesis, los vertebrados mutan y cambian en secuencias particulares. Desde un punto de vista conceptual, un vertebrado “…puede verse concretado en estructuras tan diferentes como la pezuña de un caballo, el ala de un pájaro o la mano con pulgar opuesto de un humano”. Deleuze llama a este modelo “diagrama abstracto”, una operación no mensurable, capaz de generar una gran variedad de formas con estructuras y medidas diferentes. Por analogía, en arquitectura, mientras que la forma final tiene medidas, áreas y volúmenes específicos, durante el proceso, el modelo deberá ser tan abstracto como para permitir que se desarrollen numerosas combinaciones distintas. Para su estudio, el proceso comienza con un edificio abstracto que evoluciona de acuerdo a las reglas impuestas por la geometría topológica. Se trata de una geometría compleja, definida a partir de modelos matemáticos donde los diseñadores pueden desarrollar toda una gama de opciones de diseño. Este sistema de autoco265 rrección posibilita la eliminación de comportamientos inadecuados y permite obtener diferentes versiones o variaciones de las soluciones. Son estructuras modeladas a través de software y códigos paramétricos con una precisión deliberada, obtenidas a través de tecnologías CAD/CAM que dan como resultados proyectos anticipatorios a la solución final. 2. De acuerdo a su definición, en informática un script es un conjunto de instrucciones, un algoritmo digital, un subprograma o software adicional al principal (plug in), cuya función es la de automatizar tareas repetitivas, aumentando el rendimiento y las propiedades de los primeros. Estos programas son un conjunto finito, preciso y definido de instrucciones u operaciones que se deben seguir de manera repetitiva, lógica, ordenada y de un modo desatendido, que al actuar en conjunto posibilita reproducir la totalidad de la entidad y de este modo, resolver un problema específico. Los scripts pueden presentar comportamientos complejos, a través de la repetición de operaciones simples repetitivas. Estos presentan tres partes: los datos iniciales necesarios para ser ejecutado; la secuencia de pasos para ejecutar el algoritmo y los resultados obtenidos una vez ejecutado este. Parte IV. La génesis de un nuevo paradigma Los cuatro caminos de la evolución Los trascendentales avances tecnológicos de las últimas décadas han producido una verdadera revolución en la práctica del diseño contemporáneo al redefinir las fronteras de la disciplina. Una serie de innovadoras herramientas digitales tratan de entender y descifrar el orden de la naturaleza, mientras desarrollan en su proceso una realidad líquida, flexible y cambiante. Una matriz oscilante de datos donde las formas son un flujo maleable de información, una adaptación programática con requisitos ajustables por sus creadores. En su afán de experimentación, los jóvenes diseñadores ponen en crisis el viejo modelo racionalista que había perdurado durante años, para dar nacimiento a un nuevo vocabulario de herramientas biológico-digitales que buscan resolver los problemas contemporáneos. Bajo una realidad de múltiples capas, emerge un nuevo modo de proyectación donde la materia se ha transformado en información binaria, definida a través de variables de control que permiten evaluar su comportamiento al reducir costos y desarrollar un diseño bioambiental. Los diseñadores que trabajan con estos modelos generan protoformas de superficies NURBS: un proceso que cuestiona la estaticidad proyectual bajo una poderosa herramienta de exploración que posibilita un mayor control en su desarrollo, adaptándola y estableciendo vínculos con todo aquello que le circunda. Una arquitectura no cartesiana, de espacios híbridos, donde lo virtual se entremezcla con lo real en una reconfiguración de la concepción del diseño: formas digitales crecen y evolucionan hasta generar nuevas alternativas. Una combinación de reglas y relaciones “…que solo tienen validez momentánea hasta que el próximo par de componentes permita redefinir ciertas relaciones emergentes” (Araya, 2009, p. 21). A comienzos del nuevo milenio, nos encontramos con una auténtica revolución del conocimiento humano. Un nuevo mensajero en el papel de la tecnología nos golpea la puerta revelando aquello invisible a nuestros ojos: todo se mueve, cambia y evoluciona en esta realidad contemporánea; es como “Vivir en el estómago palpitante de una ballena… Viejas utopías que ya pueden ser nuevas realidades” (Estévez, 2003, p. 6). En este sentido, el concepto de morfogénesis pareciera desarrollarse en cuatro direcciones diferentes: - La primera, a la que denominaremos arquitectura biodiagramática, se encuentra representada por los arquitectos Peter Eisenman, y PTW Architects; 266 - la segunda, a la que denominaremos arquitectura bioalgorítmica, se encuentra representada por los arquitectos Greg Lynn, Stanislav Roudavski, Jonathan Mackenzie y Supermanoeuvre, (Dave Pigram e Iain Maxwell); - la tercera, a la que denominaremos arquitectura biomimética, se encuentra representada por los arquitectos Dennis Dollens, Neri Oxman, Michael Pawlyn, Kokkugia (Roland Snooks y Robert Stuart-Smith); - y finalmente, la cuarta, a la que denominaremos arquitectura genética, se encuentra representada por los arquitectos Rachel Armstrong, Neil Spiller, Philip Beesley, Karl Chu y Alberto Estévez. Marcelo A. Fraile - Arquitectura biodigital ARQUITECTURA BIODIAGRAMÁTICA “No hay un antes de la forma ni un después de la forma, porque la lógica de la forma es la misma que perfila y sostiene la frágil realidad de nuestros mundos, porque la lógica de la forma constituye y determina lo real, porque solo a través de la forma sustentamos nuestra propia realidad” . (Doberti, 1996). Diagramas De acuerdo al Diccionario de la Real Academia Española, la palabra diagrama proviene del latín tardío diagramma ‘diseño, trazado’, y este del griego διάγραμμα diágramma, y se refiere a “un dibujo geométrico que sirve para demostrar una proposición, resolver un problema o representar de una manera gráfica la ley de variación de un fenómeno”(RAE, Asale, 2014). Con una fuerte raíz histórico-geométrica, el concepto de diagrama ha evolucionado con el tiempo. Su esencia se encuentra ya en los principios del pensamiento lógico de Grecia, en los postulados filosóficos de Gottfried Leibniz, Francis Bacon y en las plantas sistemáticas de Louis Kahn. Una gran diversidad de teorías expresadas de un modo abierto, versátil y diverso (Montaner, 2014, p. 12). Para el arquitecto catalán Josep María Montaner (1954), las primeras definiciones y usos de los diagramas en el sentido convencional de la palabra aparecieron en los escritos del sociólogo y filósofo estadounidense Charles Sanders Pierce (1939-1914). En sus textos, Pierce define los diagramas como “un ícono que hace inteligible las relaciones, a menudo espaciales, que constituyen una cosa”. Con un significado polisémico y evolutivo, estos se transforman en utensilios imaginativos capaces de interpretar los datos de la realidad, transformando conceptos en formas. Un proceso complejo y multidireccional que se retroalimenta y se convierte en un potenciador de la creatividad proyectual: “…un continuo cognitivo en evolución y son de carácter vectorial” (Montaner, 2014, p. 8 y 9). En los diagramas, se incorpora información con el objetivo de transmitirla, se constituyen saberes instrumentales que nutren a las nuevas prácticas. Son herramientas analíticas, explicativas, activas y reflexivas, son dispositivos precisos para reconocer la realidad. A través de estos, es posible producir “…simultáneamente un diagnóstico y una acción, un mapeo y una trayectoria, una notación y una creación” (Montaner, 2014, p. 24). Pese a no tener lenguaje, los diagramas utilizan elementos gráficos para establecer relaciones y poder repre- 267 sentar una idea en proceso de elaboración. Un dispositivo abierto y experimental de indagación, económico y expresivo, capaz de brindar una visión sintética. Su manifestación gráfica es a la vez formal y programática, busca transmitir el contenido, puede no contener medidas o geometrías ya que su fuerza se encuentra en otro lado, se halla en los conceptos por investigar. En su esencia, se encuentra el germen que permite ser asociado no solo con aspectos funcionales, sino también con componentes metodológicos. En el ámbito de la disciplina arquitectónica, durante los años noventa, los diagramas adquirieron gran protagonismo en las obras de arquitectos como Rem Koolhaas, Greg Lynn, MVRD, Ben van Berkel y Peter Eisenman. Pese a utilizarlos de maneras diferentes, todos anhelaban liberar la arquitectura de sus limitaciones, presentando una nueva forma de proyectar (Van der Maas, 2011). De acuerdo con sus características intrínsecas, para el arquitecto holandés Stan van der Maas, los diagramas pueden ser entendidos de dos maneras diferentes: como instrumentalización o como transposición. - Como instrumentalización, los diagramas presentan una función explicativa o de análisis, que busca descubrir e indagar las estructuras y los procesos que suceden en el mundo real. A través de estos diagramas, es posible Parte IV. La génesis de un nuevo paradigma representar la información de alguna manera. Las variables son programáticas y formales, aunque carecen de escala, medidas o proporciones. - Como transposición, los diagramas presentan una función generativa, buscando controlar y analizar los procesos evolutivos de la forma, actuando como intermediarios en el proceso que conduce a la generación de un espacio arquitectónico. Desvían los procesos de creación por caminos teóricos y filosóficos, antes de llegar a la definición del proyecto. Una conversión de elementos no propios de la arquitectura en piezas gráficas. Los diagramas se han transformado en una poderosa herramienta de visualización de fenómenos y flujos que permite identificar situaciones tanto en la realidad como en el proyecto, un intento por “…superar la rigidez y el historicismo del concepto de tipología” (Montaner, 2014, p. 36). Un mecanismo versátil y adaptable, una nueva materialidad híbrida que traspasa las variables de tiempo y espacio y pone en evidencia las relaciones entre los elementos. Dentro de la práctica proyectual, los diagramas son entendidos como herramientas operativas flexibles y adaptables: un evocador de pensamientos nuevos del proyecto, un vehículo para sus ideas que requiere definición y control y, a la vez, permite modificaciones en el transcurso de su desarrollo. Para el arquitecto español Manuel Gausa (1959), un diagrama es “la representación gráfica del curso de un proceso dinámico sintetizado mediante comprensión, abstracción y simulación” (Bruscato Portella, 2006, p. 162). En sentido similar, el arquitecto estadounidense Stan Allen (1956) considera que los diagramas “…no clasifican o representan objetos ya existentes, sino que anticipan nuevas organizaciones y especifican relaciones todavía no realizadas [es decir, el diagrama]…no solo (es) un modelo abstracto de cómo las cosas se comportan en el mundo, sino un mapa de posibles mundos” (Bruscato Portella, 2006, p. 162). 268 Fig. 1. Diagrama de ciudad jardín de Ebenezer Howard de 1898. Los diagramas definen una serie de relaciones potenciales entre elementos, un ensamblaje conceptual que permite fijar y canalizar el pensamiento bajo la certeza de que las entidades se encuentran organizadas dentro de un programa que “…busca la manera más rápida, el camino más corto y el cálculo más eficaz”(Montaner, 2014, p. 39). De este modo, los diagramas se convierten en un recurso gráfico con contenido, en sus variables quedan incluidas tanto las configuraciones formales como las programáticas, en constante fluidez. Para el arquitecto español Federico Soriano (1961), en los diagramas ya existe el germen de la arquitectura, “…no son representaciones sino realidades arquitectónicas. Son generativos de nuevas estructuras” (2004, p. 177). El diagrama elimina los datos superfluos, trabaja mediante la reducción y la abstracción, restringiendo sus estudios a lo esencial del problema (Soriano, 2004, p. 182). A su vez, dadas sus características intrínsecas Marcelo A. Fraile - Arquitectura biodigital de fluidez e inmaterialidad, los diagramas presentan una serie de riesgos y limitaciones. En primer lugar, su excesiva abstracción puede conducir a una desconexión de la realidad, que lleva a resultados formales demasiado arbitrarios; en segundo lugar, su abuso puede conducir a procesos de recolección y análisis de datos excesivamente largos o considerablemente cortos, que terminen en proyectos vacíos o demasiados simples. La arquitectura biodiagramática A finales del siglo XX, el vínculo entre arquitectura y biología volvía a instalarse con fuerza en el ámbito del diseño. Según esta línea de pensamiento, la teoría de la arquitectura posaba su mirada sobre la naturaleza, en búsqueda de referentes para sus proyectos. La complejidad de la sociedad contemporánea había generado que los arquitectos debieran enfrentarse a los nuevos desafíos con más información. En este sentido, con la implementación de los sistemas digitales, comienza a evolucionar una nueva relación entre arquitectura y naturaleza, un desarrollo innovador donde lo digital proporcionaba una mayor abstracción y tecnificación de los resultados. Se intenta abandonar el espacio cartesiano, a través de herramientas informáticas capaces de crear un nuevo léxico proyectual de relaciones formales y estructurales. Una nueva forma de exploración del proyecto, a través del movimiento, la temporalidad y las transformaciones. Sin embargo, para Peter Eisenman, cuando un arquitecto comienza a proyectar, este inicia con un concepto funcional, topológico o formal, que producirá una figura, un perfil o una composición. Un proceso, por tanto, que ha comenzado con alguna regla predefinida, sea esta la gravedad, el espacio, la función o la estética. Un proceso que para el filósofo francés Félix Guattari (1930-1992) ya no es neutral, tiene un deseo, una intencionalidad, y producirá “vectores de ser”, con diferentes resultados. Una intencionalidad que está limitando los resultados del diseñador (Zaera-Polo, 1997, p. 8). Para escapar de este proceso, se precisa de un mecanismo que posibilite “empezar de la nada” (Zaera-Polo, 1997, p. 20), un proceso de diseño generativo que conciba el proyecto sin necesidad de recurrir a los conocimientos acumulados o a la experiencia (técnica o cultural) propia de la disciplina (Zaera-Polo, 1997, p. 11). Una metodología que explore la arquitectura sin la tradición de su historia. Para este fin, Eisenman propone el desarrollo de los proyectos a partir de diagramas, una metodología tecnológica que lleva hacia la alteración radical del espacio. Una arquitectura autónoma, sofisticada y compleja, bajo una mirada totalmente alejada de lo perceptivo y lo sensible, y donde sus resultados no guardan ninguna 269 relación con la funcionalidad ni con el contexto (Zaera-Polo, 1997, p. 62). En este sentido, Eisenman no busca proyectos amorfos o de formas confusas, su objetivo es otro. Él utiliza los diagramas como un instrumento liberador de proyectos. Un instrumento preciso de reconocimiento de la realidad, utilizado durante el proceso proyectual para plantear un desarrollo dinámico, una manipulación algorítmica de la geometría de los sólidos, un ir y venir entre los modelos físicos y los diagramas, con el fin de generar soluciones (Montaner, 2014, p. 24). Una producción arquitectónica, multidisciplinar, centrada en los procesos existentes en la naturaleza, pero desarrollada bajo un repertorio digital que posibilita considerar tipos de procesos azarosos e impredecibles. Un nuevo argumento durante la ideación del proyecto que hasta hace poco solo podía ser obtenido de manera intuitiva. Desde este punto de vista, el diagrama se introduce en el proyecto como un instrumento de pensamiento que busca resultados operativos, capaces de formular multitudes de resultados al mismo tiempo. Parte IV. La génesis de un nuevo paradigma Se trata de una arquitectura biodiagramática, es decir, una arquitectura desarrollada a partir de diagramas digitales que surgen de la acumulación de presiones selectivas de la naturaleza. Una obra abierta e inclusiva, capaz de integrar datos heterogéneos, lo que permite rectificarse de un modo constante (Montaner, 2008, p. 196). Una interpretación colaborativa que utiliza los diagramas digitales como un aparato para diseñar, transformar y configurar el proyecto, bajo un proceso dinámico intelectual. Una traducción ideal de la realidad, desplazando, rotando y escalando componentes, a partir de la utilización de operaciones geométrico-digitales desarrolladas dentro del marco diagramático cartesiano de una retícula ideal. Una manipulación de formas, especies arquitectónicas capaces de proliferar, mutar y evolucionar, como si de un banco genético se tratase, que construyen en el camino un nuevo registro de la génesis del proyecto. Se trata de un prototipo de retroalimentación expresado a través de un proceso que oscila entre la visualización y la interacción de la información. Una arquitectura criada y creada en el ciberespacio, a partir de sistemas abstractos con capacidad para transmitir y evolucionar (Montaner, 2008, p. 196). En el campo de la arquitectura, los diagramas digitales se han transformado en una interface operativa al mostrar las relaciones presentes entre el tiempo real y los flujos de información. Un pensamiento potenciado por los sistemas digitales, y que posibilita la vinculación de dos mundos: el de la naturaleza y la ciencia con el de la arquitectura y el diseño. A partir de Eisenman, se ha transformado una idea abstracta, mediante diagramas geométrico-funcionales, en un instrumento fundamental, capaz de describir y representar un nuevo mundo digital que ha hecho insuficiente la geometría cartesiana. Y así como la Beaux Arts utilizaba la composición y el mecanismo de parti para el desarrollo de sus proyectos, en la contemporaneidad, a partir de los planteos de Eisenman y del desarrollo de la tecnología digital, le correspondería una arquitectura que utiliza como instrumento los diagramas (Montaner, 2014, p. 10). Los diagramas de Peter Eisenman Considerado un precursor de la arquitectura morfogenética, desde su etapa como estudiante de doctorado, el arquitecto y teórico estadounidense Peter Eisenman (1932) ha otorgado un importante peso instrumental a los diagramas. En su tesis “The Formol Bosis of Modern Architecture”1 de 1963, analizaría la obra del arquitecto racionalista italiano Giuseppe Terragni (1904-1943). A través de diagramas, Eisenman desarrollaría una lectura 270 crítica y textual de la obra de Terragni, definiendo formalmente su arquitectura desde un punto de vista estético. A finales de los años sesenta, Eisenman comenzó a trabajar con las teorías del lenguaje de Noam Chomsky (1928), un filósofo y lingüista estadounidense que había publicado en 1957 Syntactic Structure”2, en donde postulaba el concepto de “gramática generativa”, un conjunto de reglas innatas del cerebro humano que permitía la traducción de una combinación de ideas en una combinación de códigos. Bajo una visión hermenéutica, Eisenman desarrollaría un profundo proceso de investigación proyectual en el que los diagramas se transformarían en una herramienta de diseño, una máquina abstracta capaz de engendrar su arquitectura dentro de un contexto operacional (Montaner, 2014, pp. 63-64). A través de sus proyectos, Eisenman buscaba dar forma a las teorías del lenguaje de Chomsky: un sistema generativo utilizado en la arquitectura como una convergencia de biología, informática y electrónica, capaz de producir “algo nuevo”, una “…decodificación, manipulación y eventual reprogramación de los códigos de información de la materia viva” (Vrachliotis, 2008, pp. 232-261). 1. Eisenman, P. (1963). “The Formol Bosis of Modern Architecture”, Dissertation 1963, Facsimile, Baden: Lars Müller Publishers, 2006. 2. Chomsky, N. (1957). Syntactic Structures. Paris: Mouton Publishers. Marcelo A. Fraile - Arquitectura biodigital Biocentro para la Universidad de Frankfurt am Main, República Federal Alemana, 1987 Uno de los ejemplos que mejor define el concepto de arquitectura biodiagramática es el proyecto del Biocentro para la Universidad J. W. Goethe de Frankfurt, de 1987, del arquitecto americano Peter Eisenman y Thomas Leeser3. Premio especial del Concurso Internacional para el desarrollo de un Centro de Investigaciones Biológicas Avanzadas, de la Universidad de Frankfurt. El proyecto preveía la ampliación de los laboratorios y espacios anexos a los edificios ya existentes. Con el fin de cumplir los objetivos requeridos por la Universidad de Frankfurt, Eisenman plantearía su proyecto a partir de tres criterios básicos. En primer lugar, permitir la máxima interacción entre las áreas funcionales y las personas que las utilizan; en segundo lugar, permitir la adaptación a futuros cambios, para posibilitar su crecimiento dentro de 10 años; y finalmente, en tercer término, permitir la conservación del lugar como reserva verde (Eisenman & Glaister, 1988). Establecidos estos conceptos, Eisenman decide abandonar los criterios de la arquitectura tradicional, difuminando los límites interdisciplinares con el fin de explorar otras opciones proyectuales. Para esto, inicialmente comenzó experimentando con geometrías fractales, luego con morphing, hasta que finalmente, a través de un diagrama encontrado dentro de un libro de biología, descubriría los procesos químicos existentes en el ADN: un proceso dinámico e interactivo que posibilitaba la transformación de una cosa en otra totalmente distinta. Partiendo de la representación “gráfica” tradicional que la biología hace del ADN, Eisenman establece una relación entre los procesos biológicos y los procesos arquitectónicos, interpretados en términos geométricos. En otras palabras, establece una codificación genética de las partes del proyecto en diferentes escalas para la generación de la forma. Utilizando la matemática y la tecnología para demostrar sus teorías, Eisenman sustituye la geometría euclidiana clásica por una geometría fraccionaria mucho más compleja: un intento por abrir las puertas a las misteriosas profundidades operativas del ADN. El modelo biológico como “cómplice” del proyecto Como vimos en el capítulo 4.2, cada molécula del ADN se encuentra formada por “…fosfatos y azúcares, que conforman su arquitectura estructural, y por elementos químicos ricos en nitrógeno denominados nucleótidos o bases, que codifican la información genética” (Henderson, 2011, p. 37). 3. El biocentro formó parte de la exposición Deconstructivist Architecture (MoMA) New York, 1988. Fig. 2. Eisenman desarrollaría un proceso de investigación proyectual en el que los diagramas se transformarían en una poderosa herramienta de diseño (Montaner, 2014, pp. 63-64). 271 Parte IV. La génesis de un nuevo paradigma La información del ADN es transmitida a través del ARN en una conexión lineal mediante un alfabeto de cuatro letras: adenina (A), timina (T), citosina (C) y guanina (G). Cuatro aminoácidos que se vinculan para desarrollar organismos vivos. Cada una de estas bases posee una pareja natural para unirse, A con T, y C con G, y viceversa. Una propiedad de complementariedad que permite que si una de las hileras dice GAGAG, en la otra solo podrá decir CTCTC. De esto se desprende que a partir de una hilera es posible reconstruir a la otra, y en conjunto conformar las instrucciones con que se redacta el código genético. Su posición dentro de una larga cadena de ADN determinará la información genética, es decir, las instrucciones necesarias para el surgimiento y desarrollo de la vida. De acuerdo con el modelo biológico, cuando una de estas se divide, la doble hélice del ADN se abre por la mitad en sus dos cadenas constituyentes. Cada mitad sirve de plantilla para la replicación, proceso que conduce a la creación de una nueva forma: una encima añadirá nuevas bases a las letras de cada cadena, emparejando las A con T y las C con G, lo que da finalmente como resultado la aparición de dos nuevas dobles cadenas de ADN. Una manera fiable de transmitir la herencia y producir otro organismo idéntico al original (Henderson, 2011, p. 41). En este sentido, la secuencia del ADN codifica doblemente la información genética, lo que facilita su copia. Una garantía de la supervivencia a partir de la generación de respuestas a los estímulos externos (exógenos) e internos (endógenos), pudiendo modificar su composición y Fig. 3. Descripción y diagramas esquematicos de una porcion del ADN utilizado por Eisenman para el proyecto del Biocentro. C.A. Villee and V. G. 272 Dethier, Biological Principles and processes. Saunders, 1971. forma a fin de especializarse en los diferentes órganos y organismos existentes en la naturaleza: desde las formas poligonales que se encuentran en los vegetales hasta las delgadas y alargadas células de los músculos en los animales. Eisenman utiliza este modelo biológico para establecer una analogía entre biología y arquitectura. En este sentido, no se trata de observar la naturaleza para copiarla, el proceso es más profundo y, por consiguiente, más complejo: toma la representación artificial del ADN desarrollado por los científicos para elaborar un proceso evolutivo, una simulación y modelización de los procesos naturales a través de la computadora. De este modo, el proyecto se apropia de la forma del diagrama, adopta su lógica y organización espacial. La relación entre el proyecto y lo que representa el dibujo es concebida como una nueva manera de organizar el diseño. Del esquema biológico inicial, Eisenman utiliza cuatro formas, cada una con un color que simboliza el código del ADN. Estas formas gráficas presentan particularidades específicas que les permiten unirse en parejas, “codificando” finalmente una larga cadena de doble hélice. Una secuencia de comandos que, como oraciones, podían ser reproducidas para generar el proyecto (Eisenman & Glaister, 1988). Marcelo A. Fraile - Arquitectura biodigital Un proyecto que surge de una geometría genérica y abstracta que se distancia de la construcción arquitectónica a través del manejo de redes; mallas; procesos de multiplicación, giro, división y distorsión, para desarrollar finalmente un universo que le es propio (Cosme Muñoz, 2008, p. 172). El papel de la tecnología en la generación del proyecto Para este diseño, Eisenman utiliza los sistemas digitales no como herramientas de representación, sino como instrumentos para pensar y hacer arquitectura. Un proceso “…que llegue más allá de los límites que impone la tradición y que establezca complicidad con los programas que le dan origen, para enriquecerse con la pluralidad y la diversidad de los saberes de otras disciplinas ajenas a la arquitectura” (Eisenman & Glaister, 1988). Durante el proceso, el diseñador desconoce lo que habrá de desarrollarse, no existe una imagen preconcebida al respecto. Al carecer de una estructura narrativa, la computadora permite una mayor apertura a todas las posibilidades, sin condicionantes previos (Cosme Muñoz, 2008, p. 172). A pesar de esto, el problema no estaba completamente resuelto. Pese a la disponibilidad de algunos programas de modelado, la tecnología para diseñar, tal como la conocemos ahora, no existía en ese momento. Solo había rudimentarias herramientas experimentales que se encontraban en algunas universidades, en los laboratorios de grandes compañías y en las fuerzas armadas de los EE.UU. Fig. 4. La información del ADN es transmitida a través del ARN en una conexión lineal mediante un alfabeto de cuatro letras: adenina (A), timina (T), citosina (C) y guanina (G). Cuatro aminoácidos que se vinculan para desarrollar organismos vivos. Afortunadamente, en la década de 1980, Eisenman se encontraba enseñando en la Universidad Estatal de Ohio donde Chris Yessios4 impartía clases de informática, y Jerry Voss era el director de la Universidad. Voss era un fuerte defensor del uso de las computadoras, había establecido un proyecto conjunto con IBM para que la Universidad pudiera utilizar una IBM 3350 con 16 terminales5. 273 A partir de la conjunción de estos factores, Eisenman convenció a Yessios para que este lo ayudara en el proyecto del Biocentro desarrollando un conjunto de nuevas herramientas informáticas capaces de generar patrones 2D y 3D, un instrumento lingüístico racional que evolucionaría en paralelo con el diseño. 4. Chris Yessios. Doctorado en diseño asistido por ordenador de la Universidad Carnegie Mellon en 1973. Dirigió el Programa de Postgrado en Diseño Asistido por Computadora Arquitectónica en la Universidad Estatal de Ohio donde enseñó desde 1973 hasta 1995. Sus investigaciones dieron lugar a una serie de sistemas de modelado 3D como FormZ y bonzai3d. 5. En 1982, se le encarga a Peter Eisenman el diseño del proyecto para el Wexner Center for the Arts and Fine Arts Library, Columbus, Ohio: un laboratorio internacional para la exploración y desarrollo de las artes contemporáneas. El centro Wexner fue el primer edificio diseñado por Eisenman, con la ayuda de los sistemas digitales. Contó con la ayuda de Jerry Voss y Chris Yessios quien diseñaría una plataforma denominada ArchiModos que después fue rebautizada como FormZ (Lynn, 2013). Fig. 5. Eisenman utiliza este modelo biológico para establecer una analogía entre biología y arquitectura. En este sentido, no se trata de observar la naturaleza para copiarla, el proceso es más profundo y, por consiguiente, más complejo Parte IV. La génesis de un nuevo paradigma Con esta nueva tecnología, Eisenman podía interpretar la escena en tres dimensiones para posteriormente plasmarla en una documentación bidimensional: archivos vectoriales que permitían definir formas regulares dentro de un espacio cartesiano mediante coordenadas y parámetros numéricos. Para Greg Lynn, estamos en presencia de una arquitectura protoparamétrica, un proceso evolutivo no lineal en donde pueden descubrirse las instrucciones, los algoritmos personalizados que generaron el proyecto (2013). Fig. 6. Para este diseño, Eisenman Sin embargo, como Eisenman no sabía nada sobre sistemas informáti- utiliza los sistemas digitales no como cos, el proceso fue desarrollado de una manera híbrida, entre digital y analógico, entre las indicaciones de Eiseman y los códigos de Yessios, que se transformaban en formas ajustables con capacidad de visualiza- herramientas de representación, sino como instrumentos para pensar y hacer arquitectura. ción del espacio. El proyecto se desarrolló entre el laboratorio de la Universidad Estatal de Ohio y el estudio de Eisenman, en donde cada mañana se recibía un paquete de una mensajería privada (FedEx) que contenía en su interior los planos, un modelado alámbrico del proyecto para el Biocentro, impreso en papel Mylar (Lynn, 2013). Posteriormente, se fotocopiaba, ampliaba y marcaba en rojo las modificaciones y las diferentes alternativas para finalmente dictarlas telefónicamente, a través de un complejo código de letras desarrollado para ese fin: un código que terminaba siendo una analogía con los códigos del Fig. 7. Cada mañana se recibía un paquete de una mensajería privada (FedEx) que contenía en su interior los planos, un modelado alámbrico del proyecto para el Biocentro. Posteriormente, se fotocopiaba, ampliaba y marcaba en rojo las modificaciones y las diferentes alternativas impreso en papel Mylar (Lynn, 2013). 274 ADN. Con cada modificación de Eisenman, Yessios debía desarrollar un nuevo código, un proceso casi artesanal que pudiera hacer posible ese tipo de operaciones. Alrededor de 150 variaciones de proyecto, en un ir y venir entre el dibujo manual y el dibujo digital (Lynn, 2013). El Biocentro fue uno de los primeros proyectos en donde se desarrollaron modelos 3D a partir del añadido de una tercera dimensión (Z) a las figuras bidimensionales. Los modelos creados eran simples representaciones lineales de la envolvente del objeto, esto permitía operar Marcelo A. Fraile - Arquitectura biodigital y desarrollar procesos dinámicos de escalado, traslación, reflexión, rotación y corte, tanto uniforme como no uniforme. Durante el proceso, se creaban capas de información para organizar las operaciones. Un palimpsesto donde los diagramas se iban superponiendo en layers diferentes que ofrecían vistas polivalentes, operando con una complejidad similar a los procesos que se pretendía reproducir. En 1997, Alejandro Zaera-Polo le pregunta a Eisenman sobre el uso de las computadoras en el diseño del Biocentro, a lo que responde: “Yo dependo cada vez más de los ordenadores porque a través de ellos podemos producir cosas que no podíamos producir hace veinte años” (Zaera-Polo, 1997, p. 13). Sin embargo, dieciséis años después, en el 2013, Greg Lynn le hace la misma pregunta, a lo que responde: “No se utilizó ningún equipo en el Biozentrum, yo era el equipo” (Lynn, 2013). Pese a esto, planos, archivos y testimonios del resto de los involucrados atestiguan lo contrario. Fig. 8. Eisenman selecciona los cinco pares de figuras ubicados cerca del El diagrama biológico Para el proyecto, Eisenman extiende sobre el terreno las figuras del diagrama biológico, dibujando una línea recta que comienza en la entrada principal del predio: “…una secuencia exacta de la cadena ADN para el colágeno, proteína que produce la resistencia a la tracción necesaria en la estructura biológica” (1988). Una interpretación de los procesos biológicos a través del uso de geometrías fraccionarias, donde “…las formas geométricas crecen por la aplicación de una forma generatriz a una forma base” (Eisenman & Glaister, 1988). edificio de química existente para convertirse en los nuevos laboratorios del proyecto. Eisenman selecciona los cinco pares de figuras ubicados cerca del edificio de química existente para convertirse en los nuevos laboratorios del proyecto. Una descomposición del objeto en sus partes básicas, para luego aplicarle una serie de transformaciones geométricas. Estos pares de figuras son transformados mediante la acción sucesiva de tres procesos similares a los que utiliza el ADN para fabricar proteínas: tres comportamientos propios de la morfogénesis que son adoptados y aplicados sobre las formas geométricas simples. Estos son: la replicación, transcripción y traslación. El primer comportamiento es el de la replicación, un proceso biológico donde la cadena de ADN se divide en dos, y atrae a sus complementarios con el fin de generar dos nuevas cadenas idénticas. Eisenman utiliza este concepto en arquitectura, tomando al código del colágeno como forma base y a su complementario como forma generatriz, de este modo cada figura base queda vinculada a su complementaria (1988). El segundo comportamiento es el de la transcripción, un proceso biológico donde la cadena del ADN se suelta temporalmente y una de las hebras se inserta en el vacío resultante, lo que produce una copia complementaria de solo una de sus hebras expuestas, omitiendo el resto 275 Fig. 9. Eisenman extiende sobre el terreno una secuencia exacta de la cadena ADN para el colágeno, dibujando una línea recta que comienza en la entrada principal del predio (1988). Parte IV. La génesis de un nuevo paradigma (MNRA). Eisenman utiliza este concepto en arquitectura, aplicándolo únicamente a las superficies internas de las hebras inferiores de los cinco pares originales. De este modo “Las figuras producidas en el primer proceso se convierten ahora en la forma base y sus complementarias en la forma generatriz” (Eisenman & Glaister, 1988). Finalmente, el tercer comportamiento es el de la traslación, un proceso biológico donde se transporta la unidad estructural (aminoácidos) al lugar de construcción de la proteína y se la abandona en una cadena de unidades depositadas anteriormente por otras hebras TRNA. Eisenman utiliza este concepto en arquitectura para tratar dos grupos de hebras superiores de figuras originales, desplazándolas y dejando trazos del edificio de biología con las formas rectilíneas del edificio de química. De este modo, “…el proceso de traslación permite que el edificio de química sea leído en su emplazamiento como la cadena de unidades estructurales del polipéptido. La arquitectura del biocentro es trasladada así a la del edificio de química”. (Eisenman & Glaister, 1988). 276 Fig. 10. Pruebas de elevación y perspectiva. Fig. 11. Proceso de replicación. Fig. 12. Proceso de transcripción. El proyecto presenta una serie de colores de acuerdo con el código de matices del modelo biológico: las figuras originales tienen un tono claro; las producidas por replicación, un tono oscuro; y las producidas por transcripción, un tono intermedio; en tanto que los trazos provocados por los procesos de traslación tienen el mismo color que el edificio de química del que proceden. También puede apreciarse en el proyecto una serie de líneas de trazo que simbolizan el proceso de traslación. En este sentido, para Eisenman el proceso es el elemento fundamental del proyecto: “Lo que interesa, más que la propia obra de arquitectura, es la ‘biografía’ del proyecto, y de ahí el interés en que se conserve vivo el testimonio de lo que fue su proceso de gestación” (Cosme Muñoz, 2008, p. 170). Durante el proyecto, el equipo de diseño buscaba desarrollar lo que ellos llamaban macrotransformations, una rutina que agrupara un conjunto de transformaciones como traslación, rotación y extensión: ope- Marcelo A. Fraile - Arquitectura biodigital Fig. 13. Durante el proyecto, el equipo de diseño buscaba desarrollar lo que ellos llamaban macrotransformations, una rutina que agrupara un conjunto de transformaciones como traslación, rotación y extensión: operaciones que pudieran ser aplicadas varias veces sobre las formas y que mediante el cambio de alguno de los parámetros se produjeran múltiples repercusiones. 277 Parte IV. La génesis de un nuevo paradigma raciones que pudieran ser aplicadas varias veces sobre las formas y que mediante el cambio de alguno de los parámetros se produjeran múltiples repercusiones. Lamentablemente, a causa de las actualizaciones de programas y equipos, todos los archivos digitales originales se perdieron. Lo único que permanece son las impresiones matriciales, copias heliográficas, y las ampliaciones de los planos (Lynn, 2013). El Cubo de Agua Otro interesante proyecto es el Centro Acuático Nacional de Beijing, mejor conocido como Water Cube o Cubo de Agua. Con una capacidad para 17.000 espectadores, fue designado como sede de los XXIX Juegos Olímpicos realizados en la ciudad de Beijing, China, en 2008. Una estructura celular a gran escala diseñada por la firma australiana PTW Architects, CSCEC International Design & Arup. Para este proyecto, los diseñadores concibieron el edificio inspirándose en las investigaciones teóricas de los físicos irlandeses Dennis Lawrence Weaire (1942) y Robert Phelan (1936), quienes habían creado conceptualmente en 1993 una estructura geométrica que consistía en la combinación de dos tipos de celdas de igual volumen: un dodecaedro pentagonal irregular, y un tetracaidecaedro con dos hexágonos y doce pentágonos, cuyas caras presentaban una ligera curvatura. Para los autores, el diseño final semeja ser un bloque sólido de agua, una geometría compleja que parece imitar las situaciones arbitrarias y de azar que se encuentran en las formas naturales, como por ejemplo en el agrupamiento de burbujas de jabón (Hwang, Brotons, Galán, & Soriano, 2006, p. 70). 278 Fig. 14. La geometría Weaire-Phelan, consiste en la combinación de dos tipos de celdas de igual volumen: un dodecaedro pentagonal irregular, y un tetracaidecaedro con dos hexágonos y doce pentágonos, cuyas caras presentaban una ligera curvatura. Inicialmente, los diseñadores partieron de una serie infinita de espuma, en la que se cortaron las dimensiones exteriores del edificio: 177 x 177 x 33 m. A continuación, a la forma obtenida se le sustrajeron los tres espacios interiores correspondientes a cada una de las zonas del edificio para posibilitar su delimitación topológica. Finalmente, con la ayuda de complejos algoritmos matemáticos y sistemas digitales CAD, fue posible modelar las geometrías Weaire-Phelan, analizando sus condiciones estructurales y ensayando posibles alternativas de piezas, secciones y nodos. Un examen que incluyó hasta 200 tipos de carga que variaban desde terremotos hasta vientos huracanados, lo que permitió hacer cambios en el modelo hasta que este alcanzó el patrón óptimo de distribución de sus 22.000 elementos de acero, de 10 grosores y 3 longitudes diferentes. Estos elementos se unieron formando un ángulo tetraédrico de 104, 9º, mediante 12.000 conectores esféricos de 4 tipos distintos, para construir un marco espacial, una estructura metálica ligera, en el que se sujetaron 4.000 diferentes paneles burbujas de ETFE, (7 variantes repetidos en la Marcelo A. Fraile - Arquitectura biodigital cubierta y 16 variantes en los muros), con un tamaño de 7 metros y 0,2 mm de espesor6. El ETFE, o etileno-tetra-fluoretileno es un plástico derivado del teflón (PTFE), con una gran resistencia a los agentes químicos y mecánicos, lo que le permite tolerar la exposición a los rayos ultravioletas sin cambiar de color. Fue utilizado por primera vez para el estadio Allianz Arena del Mundial de Fútbol Alemania 2006. A fin de maximizar la eficacia térmica del edificio, cada burbuja de ETFE es inflada constantemente por medio de bombas de baja presión, lo que genera una doble cámara. De este modo, de acuerdo con la presión de cada burbuja, es posible “…controlar los niveles de luz para crear un efecto parecido al paso de la luz por entre los árboles o bajo el agua… o incluso se puede ‘apagar’ por completo” (Hwang et al., 2006, p. 80). Fig. 15. con la ayuda de complejos algoritmos matemáticos y sistemas digitales CAD, fue posible modelar las geometrías Weaire-Phelan, analizando sus condiciones estructurales y ensayando posibles alternativas de piezas, secciones y nodos. Con la intención de conseguir un equilibrio ideal con el clima, la fachada del edificio puede ser configurada para adoptar tres modos de funcionamiento: invierno, verano y entretiempo. En invierno, las burbujas de ETFE actúan produciendo un efecto invernadero: permiten el ingreso de la radiación solar para el calentamiento interior y posibilitan la iluminación natural de los espacios. Situación que reduce el consumo energético del edificio en 30%. En tanto que, en verano, una serie de dibujos punteados dispuestos estratégicamente sobre la superficie del material, con una densidad variable de acuerdo con el sitio, impide el paso de la radiación solar y produce una variación en el sombreado de la fachada que, combinado con una ventilación inteligente de la estructura de soporte, disminuye la energía necesaria para la climatización del edificio. Los diagramas del nuevo milenio El pensamiento diagramático, potenciado a través de los sistemas digitales, se ha transformado en un tema central para la teoría y el diseño. Para el arquitecto español Alejandro Zaera-Polo (1953), el uso de los diagramas en la arquitectura ocupan un papel relevante para reconfigurar el diseño, ya que mediante la comprobación de sus operaciones filogenéticas estas revelan qué rasgos han tenido éxito y bajo qué condiciones (Martínez López & Pueblo Pons, 2010, pp. 96-105). Una nueva sintaxis de relaciones morfogenéticas que posibilitan al diseñador crear y manipular nuevas formas, permitiendo incluir y procesar un sinnúmero de variables que antes hubiera sido imposible manejar. Sistemas proyectuales abiertos y evolutivos que utilizan los diagramas como una herramienta de experimentación, en un intento por superar la rigidez del proceso del diseño tradicional. 6. Los elementos exteriores de la estructura son rectangulares con el fin de proporcionar un marco de fijación a la película ETFE, en tanto que los elementos interiores, son tubulares, con el objetivo de facilitar la construcción y conexión entre estos. 279 Parte IV. La génesis de un nuevo paradigma Fig. 16. Inicialmente, los diseñadores partieron de una serie infinita de espuma, en la que se cortaron las dimensiones exteriores del edificio: 177 x 177 x 33 m. A continuación, a la forma obtenida se le sustrajeron los tres espacios interiores correspondientes a cada una de las zonas del edificio para posibilitar su delimitación topológica. Por su parte, el arquitecto estadounidense William Braham, considera que el verdadero impacto de los diagramas digitales viene dado en su poder para mostrar resultados dinámicos no lineales, donde las influencias particulares de una situación de diseño son mostradas como resultado de un todo. En este sentido, bajo una lógica algorítmica, estos diagramas son capaces de retroalimentarse, lo que posibilita calcular, manipular y presentar en tiempo real, calidades como el movimiento, la transformación o los flujos de información (Martínez López & Pueblo Pons, 2010, pp. 96-105). Fig. 17. A partir de dos células WeairePhelan, el sistema permitió generar un bloque tridimensional de 400 m3 de células anidadas. Posteriormente, 280 el prisma es rotado a partir de un án- gulo con cierto grado de aleatoriedad. A continuación, se realizan una serie de cortes en el bloque para encajar primero en la altura del edificio, y después en su huella. Este proceso permite crear un nuevo bloque con una estructura completamente aleatoria (Hwang et al., 2006, p. 72). Marcelo A. Fraile - Arquitectura biodigital Fig. 18. Con el fin de conseguir un equilibrio ideal con el clima, la fachada del edificio puede ser configurada para adoptar tres modos de funcionamiento: invierno, verano y entretiempo. 281 Fig. 19. Una serie de dibujos punteados dispuestos estratégicamente sobre la superficie del material, con una densidad variable de acuerdo con el sitio, impide el paso de la radiación solar y produce una variación en el sombreado de la fachada que combinado con una ventilación inteligente de la estructura de soporte disminuye la energía necesaria para la climatización del edificio. Parte IV. La génesis de un nuevo paradigma Figuras Fig. 1. Diagrama de ciudad jardín de Ebenezer Howard. http://vaneesterenmuseum.nl/wp-content/uploads/2014/06/ gardencities.jpg Fig. 2. Diagrama utilizado por Peter Eisenman. http://diagramasenarquitectura.blogspot.com.ar/2012/03/estrategias-deproyecto-entrevista.html Fig. 3. a Fig. 7. Biocentro. Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal: Canadian Centre for Architecture. Fig. 8. y Fig. 9. Biocentro. Eisenman, P., & Glaister, C. (1988). Biocentro para la Universidad de Frankfurt. Arquitectura. Revista del Colegio Oficial de Arquitectos de Madrid, (270). Fig. 10. a la Fig. 13. Biocentro. Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal: Canadian Centre for Architecture. Fig. 14. Geometría Weaire-Phelan. https://samjshah.com/2008/08/17/lord-kelvin-bubbles-and-the-olympics/ Fig. 15. Geometría Weaire-Phelan. http://www.chrisbosse.de/watercube/model3.jpg Fig. 16. Cubo de Agua. https://arquidocs.wordpress.com/2008/08/25/water-cube-en-beijing/ Fig. 17. Proceso de diseño. https://samjshah.com/2008/08/17/lord-kelvin-bubbles-and-the-olympics/ Fig. 18. Cubo de Agua. http://www.ptw.com.au/ptw_project/watercube-national-swimming-centre/ Fig. 19. Cubo de Agua. https://ar.pinterest.com/pin/118782508898915904/ 282 Marcelo A. Fraile - Arquitectura biodigital ARQUITECTURA BIOALGORÍTMICA El concepto de emergencia en la arquitectura De acuerdo a las investigaciones del arquitecto británico Michael Weinstock, la palabra emergencia comenzó a utilizarse a comienzo de la década de 1980, para referirse a los hechos de la forma y el comportamiento de los sistemas complejos en el mundo natural, explicados desde una base matemática. Tiempo después, durante la década del 90, el concepto de emergencia quedo definido como “…aquellas propiedades o procesos de un sistema no reducibles a las propiedades o procesos de sus partes constituyentes” (López Fernández, 2009, p. 49). Finalmente, en la última década, el concepto de emergencia quedo delimitado como un concepto científico presente en la naturaleza que permite describir “…el comportamiento de ciertos sistemas de orden superior, los cuales están constituidos por componentes que funcionan con una información relativamente simple que los vincula entre sí y los integra descentralizadamente en un ambiente” (Muñoz Kuri, 2011). Es decir, explica de qué manera se crean sistemas complejos a partir de reglas simples. La emergencia es una ciencia nueva, que implica un proceso evolutivo y explora cómo a partir de los sistemas naturales se pueden crear sistemas artificiales de comportamiento complejo. Esto posibilita una nueva forma de ver y entender la arquitectura, equiparándola con un organismo vivo, a través del uso de las matemáticas, las ciencias biológicas y la genética. Para Weinstock, las propiedades de un sistema emergente no pueden deducirse de sus componentes, “las propiedades emergentes son más que las sumas de sus partes… las cuales tienen propiedades distintivas que emergen a través de los procesos de sucesivas interacciones entre diferentes niveles de organización e integración” (Hensel et al., 2010, pp. 34-41). La emergencia ha generado un proceso que desdibuja las fronteras entre ciencia y arquitectura. Su aplicación ha introducido cambios profundos en el diseño y su materialización. Enfocada desde una óptica biológica, busca simbolizar el espíritu de los tiempos que aprovecha el concepto de una naturaleza en evolución para 283 buscar principios, organizaciones, las leyes matemáticas presentes en los sistemas naturales factibles de ser usadas en los sistemas artificiales. Desde un punto de vista morfogenético, el concepto de emergencia es asociado con “…una fuerza renovadora, mutante, operativa, capaz de transformar por completo las condiciones ambientales de los distintos sistemas ecológicos que engloban la vida en este planeta” (Muñoz Kuri, 2011). Su utilización en la arquitectura posibilita el desarrollo de nuevas estrategias de diseño, derivadas de las propiedades del metabolismo y la evolución de los sistemas vivos y cómo se adaptan a las transformaciones del entorno. Para los profesores belgas Tom de Wolf y Tom Holvoet, de la universidad de Leuven, la autoorganización en un sistema emergente, “…es un proceso dinámico y adaptable en la que los sistemas adquieren y mantienen sus propias estructuras sin control externo” (Hensel et al., 2010, p. 9 y ss.). Los sistemas evolucionan naturalmente para desarrollar una complejidad emergente: un comportamiento colectivo que surge de la interacción de millones de componentes simples. Se trata de un proceso sinérgico que depende del aumento de la variedad (diferencia) y de la dependencia (conexión) de las partes componentes. Parte IV. La génesis de un nuevo paradigma Códigos y comandos permiten desarrollar simulaciones dinámicas, formas variables que responden a las condiciones cambiantes del entorno. Estos nuevos sistemas buscan controlar la materia y la energía, a través de un método de aproximación sucesiva por escalas y niveles de jerarquía, a través de patrones de configuración emergente que involucran nuevos aspectos de materialización. Se trata de un proceso de autoorganización y supervivencia, “…en oposición a los conceptos de reduccionismo y dualismo” (López Fernández, 2009, p. 5); un proceso que se desarrolla en múltiples escalas, que coevolucionan, a través de pequeñas mutaciones aleatorias; un procedimiento capaz de producir, desarrollar y mantener formas o estructuras biodigitales o patrones genéricos de autogeneración, de donde la forma emerge. En síntesis, un proceso “estocástico” que nunca arribará a un mismo resultado. Gordon Pask. Los aportes de la cibernética El psicólogo británico Andrew Gordon Pask (1928-1996) fue uno de los padres fundadores de la cibernética, una ciencia que, a través de un proceso dinámico, buscaba desarrollar una interacción efectiva del hombre con la máquina, en la cual los participantes aprendieran unos sobre otros (Pask, 1975). Preocupado por el papel de las computadoras en la sociedad contemporánea, buscaba en sus trabajos construir un vínculo entre las ciencias naturales, las ciencias sociales y las humanidades, presentando las estrategias inspiradas en la biología y vinculadas con las ideas de la cibernética, la teoría de la información y la tecnología de la información. En 1969, Pask publicó The Architectural Relevante of Cybernetics, un texto en el que aparece un intento por incorporar los principios evolutivos al pensamiento de la arquitectura. Entre las ventajas citadas por Pask, con esta interacción “…era posible utilizar la terminología y los conceptos de la cibernética para observar los procesos físicos, intelectuales y también organizativos y de comunicación arquitectónica como sistemas formalizados” (Vrachliotis, 2008, pp. 232-261). Considerando el potencial de la cibernética en la arquitectura, Pask utilizó el término “metalenguaje” para describir un “…diseño autogenerativo…[un] modelo de simulación de los procesos de crecimiento de espacialidad extendida, no lineales, que se producirían utilizando la teoría cibernética en arquitectura” (Vrachliotis, 2008, pp. 232-261). 284 Este punto de vista generativo considera que el desarrollo de un sistema arquitectónico se logra a través de un conjunto abstracto de reglas simples y repetitivas que interactúan entre sí, una serie de relaciones que responden unas a otras y que devuelven estas interacciones al sistema con un criterio jerárquico. Desde esta óptica, el metalenguaje de Pask puede considerarse como un aporte pionero en el desarrollo de modelos evolutivos aplicados en la arquitectura digital. Centrándose en los principios de autoorganización, el psicólogo británico utiliza un modelo evolutivo en la arquitectura, donde los sistemas, crecen y se desarrollan: “…una abstracción de los conceptos biocibernéticos de la tecnología más que en una actitud intelectual que incluyese una filosofía social o tecnológica” (Vrachliotis, 2008, pp. 232-261)2008, pp. 232-261. Para ello, utiliza una programación dinámica, capaz de reducir el tiempo de ejecución de un algoritmo mediante la utilización de subprogramas superpuestos. Este tipo de programación es atribuido al matemático norteamericano Richard Bellman (1920-1984) quien, en 1953, inventó un sistema para la resolución de problemas complejos donde se necesitará calcular las mejores soluciones consecutivas. Una subestructura óptima para encontrar soluciones a un conjunto de problemas. Dicha programación puede seguir dos enfoques: Top-down, donde el problema se divide en subproblemas que se resuelven recordando las soluciones nuevamente; y Botton-up, donde se resuelven los problemas de Marcelo A. Fraile - Arquitectura biodigital antemano y se usan para resolver problemas mayores. Este último es ligeramente mejor al consumir menos recursos (Vrachliotis, 2008, pp. 232-261). Actualmente el diálogo entre la arquitectura y las computadoras ha crecido de un modo exponencial. Su foco ya no está centrado en el desarrollo de geometrías complejas, sino que el debate se ha desplazado hacia el análisis de ciertos aspectos de los códigos de la materia viva como pueden ser la decodificación, manipulación y posible reprogramación. Para llegar a los objetivos propuestos, el sistema debe presentar cuatro factores que determinen su calidad. En primer lugar, su corrección: un programa es correcto si hace lo que debe hacer tal y como se estableció en las fases previas a su desarrollo; en segundo lugar, su claridad, sencillez y coherencia estructural, ya que es muy importante que el programa sea lo más claro y legible posible para facilitar así su desarrollo y posterior mantenimiento; en tercer lugar, su eficiencia, ya que el programa, además de realizar aquello para lo que fue creado (es decir, que sea correcto), lo tiene que hacer gestionando de la mejor forma posible los recursos que utiliza; y, finalmente, en cuarto lugar, su portabilidad, un programa debe ser portable, es decir, tener la capacidad de poder ejecutarse en una plataforma, ya sea hardware o software, diferente a aquella en la que se elaboró1. El lenguaje genético de la arquitectura de John Frazer En 1995, el arquitecto británico John Frazer (1945) publicó su libro An Evolutionary Architecture2 en donde, estableciendo una analogía con la naturaleza, propone una representacion genética de la arquitectura: una forma de vida artificial, representada a partir de un ADN virtual, un código-guion que conduciría hacia el proceso, el desarrollo y la evolución de las respuestas. A este concepto, Frazer lo describió como “el lenguaje genético de la arquitectura”, es decir, el conjunto de reglas generativas, codificadas digitalmente, para generar una estructura en cadena (ADN digital); una serie de formas similares (pseudo-organismos), las cuales son seleccionadas del conjunto, de acuerdo con criterios predefinidos (Kolarevic, 2003, pp. 17-45). Cada individuo es simbolizado a través de una lista de parámetros que reciben el nombre de “cromosomas” o “genomas”, y son representados por una cadena de datos e instrucciones, donde cada valor 0 o 1 puede representar una forma curva, recta o ambas. Luego de un determinado número de generaciones, se selecciona una cantidad de organismos que mutarán 285 modificando sus valores al azar, pequeños cambios en su “código genético” equivalentes a los que se producen entre los genes en la naturaleza. A continuación, estas nuevas generaciones se cruzarán entre sí para generar una nueva descendencia que mejore la supervivencia: un proceso gradual y adaptable de acercamiento a la solución a través de generaciones, hasta el momento en que los valores sucesivos no produzcan mejores resultados. Frazer combinó las teorías morfogenéticas de Turing con las autoformaciones biológicas de Von Neumann, el metalenguaje de Pask y el juego de Conway, para desarrollar un concepto evolutivo de la arquitectura. Para ello, se utilizó la computadora como una herramienta para investigar la lógica estructural interna de la arquitectura: en lugar de diseñar desde el inicio las formas, se desarrolla un código a partir del cual, a través de un proceso de prueba y error, emergerá finalmente la forma (Frazer, 1995, pp. 9-21). 1. Estos cuatro factores están desarrollados en Orciuoli, A. (2011). La enseñanza de la fabricación digital aplicada a la arquitectura: diseño y producción en la era de la información. Barcelona: ESARQ, UIC. Trabajo de investigación. Programa de doctorado. Director Dr. Alberto T Estévez. 2. El libro fue publicado en enero de 1995 para que coincidiera con la exposición del mismo nombre celebrada en la Architectural Association, FRAZER, J. (1995). An Evolutionary Architecture, London: architectural Association Publications. Parte IV. La génesis de un nuevo paradigma De este modo, la forma es codificada de un modo análogo al crecimiento de un organismo en la naturaleza. Un diseño autogenerativo que ha sustituido la expresión “form-giving” (dar forma) por la de ‘form-generating, (en su sentido original significa, “autoproducción de la forma”) (Vrachliotis, 2008, pp. 232-261). Un proceso dinámico, heterogéneo y no-lineal, capaz de generar formas de una complejidad biológica, a través de la interacción de componentes simples, sin conductas de centralidad. Desde este punto de vista, la imagen del diseñador ha evolucionado hacia la figura de un “editor” de las potencialidades morfogenéticas del sistema diseñado: sus estados intermedios de desarrollo, sus interpolaciones, sus transiciones, y sus transformaciones. Las formas que emerjan de esto se deberán “…principalmente a la sensibilidad estética y plástica del diseñador” (Kolarevic, 2003, pp. 17-45). Para Manuel De Landa, estos nuevos diseñadores que utilizan los algoritmos genéticos digitales se asemejan a una nueva generación de artesanos que moldean un material virtual teniendo en cuenta las propiedades y los procesos. Un proceso plástico de transformaciones coherentes, continuas y mutables, a través de la serie de interacciones de fuerzas externas. La tecFig. 1. Su nombre “trabécula” proviene del latín trabecula, “viga pequeña”, y se refiere a una “estructura alargada que, frecuentemente unida o entrecru- nología digital ha permitido reemplazar la construcción de formas por el descubrimiento de estas. No se trata de una arquitectura de formas “blobs”, son reglas que sistematizan la génesis de los organismos vivos (Kolarevic, 2003, pp. 17-45). zada con otras, sirve de soporte a un órgano o atraviesa una cavidad” (RAE, Asale, 2014). Trabeculae Uno de estos proyectos es Trabeculae: diseñado en 2006, por el estudio 286 de arquitectura australiano Supermanoeuvre (Dave Pigram, Iain Maxwell, Brad Rothenberg, y Ezio Blasetti). Su nombre “trabéculae” proviene del latín trabecŭla, “viga pequeña”, y se refiere a una “estructura alargada que, frecuentemente unida o entrecruzada con otras, sirve de soporte a un órgano o atraviesa una cavidad” (RAE, Asale, 2014). El proyecto Trabeculae busca reinventar el concepto de torres de oficinas: sustituyendo las operaciones de extrusión y repetición tradicional, para reemplazarlas por un sistema de algoritmos genéticos de ramificación heliotrópica, que confiere a los espacios interiores un mayor acceso a la iluminación natural (Krauel, 2010, p. 119). El proceso comienza con una malla estructural, topológicamente libre, desarrollada a partir de un algoritmo de protosíntesis. A continuación, se genera un diseño programático cualitativo que expande el atrio central como elemento definitorio del espacio. Una vez definido los parámetros iniciales, el programa crea un camino de diferentes alternativas y geometrías resultantes. Un proceso que tiene como consecuencia la pérdida del objeto arquitectónico para liberarlo en una exploración creativa superior. De este modo, se obtiene una Marcelo A. Fraile - Arquitectura biodigital arquitectura generativa, desarrollada como respuesta lógica interna a los estímulos externos y las condiciones latentes: una compleja red de aurículas, capaces de concebir diferenciaciones espaciales a través de múltiples niveles de retroalimentación. El proyecto deja de ser una entidad pasiva para convertirse en una máquina tipológicamente libre. Un biomorfo, una estructura tridimensional, recursiva y arbórea. Un sistema que combina la evolución convergente con la evolución divergente, la selección natural con la selección artificial. En este sentido, el diseño algorítmico libera la creatividad del diseñador a través de una manipulación indirecta de la forma, lo que permite obtener en poco tiempo infinita cantidad de soluciones. Fig. 2. El programa crea un camino de diferentes alternativas y geometrías resultantes. Un proceso que tiene como consecuencia la pérdida del objeto arquitectónico para liberarlo en una exploración creativa superior. 287 Parte IV. La génesis de un nuevo paradigma El parásito Fig. 3. Una compleja red de aurículas, capaces de concebir diferenciaciones espaciales a través de múltiples niveles de retroalimentación. Otro de los diseños que utilizan algoritmos genéticos para su creación es “The Parasite”: un proyecto de investigación desarrollado por Stanislav Roudavski y Jonathan Mackenzie para la Bienal Internacional de Arte Contemporáneo, realizada en la ciudad de Praga durante el 2005. El parásito fue desarrollado en el Digital Studio del Departamento de Arquitectura de la Universidad de Cambridge, siendo Georgios Artopoulos, el corresponsable de la imagen, en tanto que los modelos computacionales de la morfogénesis en las plantas se desarrollaron en el laboratorio Jim Haselhoff, del Departamento de Ciencias Vegetales de la Universidad de Cambridge, siendo Jonathan Mackenzie el responsable de la programación del modelo. 288 El Parásito consiste en una estructura física y un sistema audiovisual interactivo, diseñado para operar en el hueco de la escalera principal del Museo de Arte Moderno en Praga. Un espacio performativo que “explora cómo el diseño arquitectónico asistido por computadora, con sus técnicas generativas, de adaptación e invención novedosa, proporciona una ayuda para la creatividad” (Roudavski, 2009, pp. 345-374)3. Inspirado en el modelo de John Holland, se trata de un modelo biológico que considera la adaptación como una modificación progresiva de su estructura, repitiendo ciertos patrones. Un proceso que facilita la manipulación de complejas variables a través de una simulación dinámica que permite desarrollar una relación entre las interpretaciones de la morfogénesis en la biología y la arquitectura. Para ello incorpora metodologías celulares semejantes a las que se encuentran en el reino natural, utilizando técnicas de diseño asistido por computadora. 3. Las consideraciones particulares que se hacen a continuación toman como referencia las ideas desarrolladas por Roudavski, 2009, pp. 345-374. Marcelo A. Fraile - Arquitectura biodigital Inicialmente, el programa genera una serie de puntos sobre la superficie del objeto, puntos que posteriormente serán utilizados como centros de las celdas de un sistema de Voronoi. A continuación, esta estructura formará nuevos puntos, posibilitando su crecimiento y adaptación. Una búsqueda aleatoria que permite obtener soluciones potenciales mediante pequeños cambios graduales dentro de la población a lo largo de varias generaciones. Un proceso híbrido de varias fases que posibilita al diseñador calcular el rendimiento de los resultados y, a partir de esto, seleccionar la solución intermedia para utilizar en la etapa siguiente y recha- Fig. 4. El Parásito consiste en una es- zar el resto. sual interactivo, diseñado para operar Un procedimiento que posibilita ajustar y analizar alternativas estable- del Museo de Arte Moderno en Praga. tructura física y un sistema audiovien el hueco de la escalera principal ciendo variaciones particulares. De acuerdo con los criterios formulados previamente, el diseñador elige una solución de las múltiples y posibles soluciones. Su conformación visual se parece a patrones complejos producidos por organismos biológicos. Para esto, el guion normalizó la matriz de valores de curvatura para adaptarse a un rango entre 0 y 100 y luego mostrar esto a través de un gráfico. Para su construcción, el caparazón fue dividido en una serie de partes que pudieran ser transportadas y posteriormente reensambladas en el hueco de la escalera. El objeto posee una pared celular de ancho constante. Las áreas planas fueron desarrolladas usando cuerpos vacíos basados en partículas, en tanto que las paredes exteriores se desarrollaron con curvas, con obvias diferencias de ancho en la parte superior del armazón. Mediante este sistema, fue posible utilizar la biología como un método de crecimiento flexible y dinámico. Un proyecto generado de manera híbrida (biológica-digital) que busca producir estructuras arquitectónicas complejas. Fig. 5. Inicialmente, el programa genera una serie de puntos sobre la superficie del objeto, puntos que posteriormente serán utilizados como centros de las celdas de un sistema de Voronoi. A continuación, esta estructura formará nuevos puntos, permitiendo su crecimiento y adaptación. 289 Parte IV. La génesis de un nuevo paradigma Fig. 6. Su conformación visual se parece a patrones complejos producidos por organismos biológicos. En otras palabras, lo que estamos desarrollando son las reglas capaces de generar la forma, en lugar de crear la forma propiamente dicha. Estamos definiendo procesos, no componentes; los ladrillos son reemplazados por semillas (Frazer, 1995). El proceso comienza con la selección de las semillas “padres” para la fecundación, a continuación se produce un cruce genético, un intercambio entre dos semillas que se desarrollará de acuerdo con las reglas codificadas en el guion genético: un código de computadora que proporciona una estructura compleja donde los resultados del proceso son mutados a través de una interacción de elementos. Para esto, el programa requiere de dos tipos de información: por un lado, la necesaria para desarrollar un modelo conceptual de información; y por el otro, aquella real, utilizada para las etapas de salida. Para concluir, las células individuales asumen funciones especializadas, un proceso de crecimiento adaptativo que genera dos superficies irregulares, a modo de pieles celulares, las cuales son materializadas a través de una herramienta de producción CNC. 290 Fig. 7. Para su construcción, el caparazón fue dividido en una serie de partes que pudieran ser transportadas y posteriormente reensambladas en el hueco de la escalera. Un modelo homogéneo de superficies y curvas dinámicas. Una “célula material” ideal, desarrollada para generar una forma escultórica bajo patrones complejos producidos mediante fenómenos naturales: las células que forman las paredes del parásito están ensambladas como las células en una planta. Un proceso innovador centrado en el diseño asistido por computadora que permite la construcción de lugares de manera dinámica. Una ayuda a la creatividad bajo un enfoque que se centra en lo transformable y que da prioridad a lo constructivo, sin una mirada hacia el pasado romántico que entiende los lugares de una manera excluyente y esencialista haciendo hincapié en las tradiciones y desconfiando de la tecnología. Marcelo A. Fraile - Arquitectura biodigital Sin embargo, el parásito no poseía posibilidades automatizadas de creci- Fig. 8. El proceso comienza con la se- miento y adaptación: a diferencia de la biología, el modelo requería de la lección de las semillas “padres” para la intervención del diseñador para aprobar o rechazar cada resultado parcial. fecundación, a continuación se produ- El parásito representa un modelo de creatividad arquitectónica que se entre dos semillas que se desarrollará aparta de los modelos tradicionales, sin embargo, sus resultados todavía se apoya en las habilidades humanas para formalizar los conceptos de acuerdo con las reglas codificadas ce un cruce genético, un intercambio en el guion genético. de evaluación y evolución. Durante el proceso, el diseñador tiende a confiar en su intuición, modificando las formas hasta que la obra “funciona”, un sistema que depende de la idoneidad del diseñador. Técnica que puede reducir la eficacia en la solución del problema desarrollado. La casa embriológica 291 Greg Lynn Discípulo de Peter Eisenman y usuario apasionado de las computadoras, el arquitecto norteamericano Greg Lynn (1964) desarrolló una combinación entre los conceptos filosóficos y biológicos, abandonando el espacio euclídeo para encontrar inspiración en la geometría topológica. Con sus proyectos ha generado toda una serie de nuevas tipologías inspiradas en formas orgánicas y metáforas digitales. Utilizando tecnología digital de última generación, ha producido un nuevo lenguaje en el modo de hacer arquitectura, caracterizado por estructuras dinámicas, plásticas y mutables, capaces de transformarse constantemente, hasta su concreción física final. Desde este punto de vista, el rol del arquitecto y sus métodos de trabajo han cambiado. Sin embargo, esto no significa que su papel haya disminuido, por el contrario, sus funciones se han visto extendidas hacia lo Parte IV. La génesis de un nuevo paradigma que Frazer denomina “extended architect”: un proceso donde los arquitectos pueden diseñar y supervisar muchas generaciones de diseños, expresadas en términos de códigos genéticos. Siendo el procesamiento y el montaje real externo al modelo. Un proceso donde: “La materia se une formando órganos, los órganos se reúnen para formar cuerpos, los cuerpos empiezan a articular gestos en respuesta a una constelación de fuerzas resultantes de distintas iteraciones a través de escalas moleculares, celulares, orgánicas y corporales” (Lynn, 2002, p. 96). La reinterpretación del concepto de casa Entre 1998 y el 2001, Lynn desarrolló lo que se conoce como Embryological House4: un proyecto contemporáneo que marcaría un punto de intersección significativo en la arquitectura con los discursos especializados de la biología. El término Embryological House fue tomado prestado por Lynn del campo de la biología, y su significado hace alusión al comportamiento de las “células” generadoras del proyecto, las cuales, al combinarse entre sí son capaces de producir infinitas cantidades de formas. Para ello, Lynn planteó inicialmente tres objetivos: - Replantear el concepto moderno de la casa como ‘kit de partes’, donde usted puede quitar o agregar cosas y transformarlo en un ser bioinspirado, una célula única, orgánica. Un prototipo genético/genérico a partir del cual se puede crear un número infinito de interacciones. - Ampliar la interacción entre “genérica” y “variación” implícita en este replanteo de las nociones de branding y de la satisfacción del consumidor mediante una específica y única versión del producto. - Impulsar las capacidades de las tecnologías de fabricación automatizadas existentes para la producción de formas arquitectónicas no estándar (Velázquez, 2008). 292 Fig. 9. Casa embriológica. Utilizando tecnología digital de última generación, ha producido un nuevo lenguaje en el modo de hacer arquitectura, caracterizado por estructuras dinámicas, plásticas y mutables, capaces de transformarse constantemente, hasta su concreción física final. Desde este punto de vista, para Lynn, la casa embriológica es el futuro de la vivienda, y su producción en serie se conecta: por un lado, con la tradición; y por el otro, con un nuevo escenario contemporáneo donde avanzados materiales, preocupaciones medioambientales y manufactura digital le otorgan un nuevo matiz a este concepto (Dollens & Planella, 2002, p. 100). 4. La casa embriológica fue patrocinada por el Foro Internacional de Diseño de Ulm, Alemania; el Centro para las Artes Wexner, de Columbus, Ohio; la UCLA de Arquitectura de Los Ángeles; y la ETH (Instituto Federal Suizo de Tecnología) Zurich. El modelo en escala fue producido mediante tecnología CNC y donado por CNC DINAMIX AG. Bern, Suiza. Posteriormente, a pedido de Massimiliano Fuksas, fue presentada en la séptima Bienal de Arquitectura de Venecia del año 2000. Marcelo A. Fraile - Arquitectura biodigital La casa embriológica intenta incorporarse en un mercado como el de Estados Unidos, donde más del 40 % de las viviendas son prefabricadas. En el proyecto de Lynn, una familia podría elegir entre diversos diseños de viviendas, escogiendo el número de habitaciones y baños, el tipo de cocina y su disposición, así como también la cantidad de plantas y los acabados internos (Dollens & Planella, 2002, p. 100). Para el proyecto de la casa embriológica, Lynn utilizaría el concepto de morfogénesis elaborado por Alan Turing en 19525. Un modelo matemático que definía el desarrollo de las formas en la naturaleza bajo una concepción biológico-química: dos tipos de proteínas, denominadas morfógenos, que se difunden e interactúan entre sí a través de un tejido celular del mismo linaje. Un proceso que hace evolucionar a la forma a través de ecuaciones de reacción-difusión no lineales. Un sistema flexible y adaptable en una infinita cadena de mutaciones. Una evolución morfogenética donde formas, estructuras y composiciones químicas no son comprendidas como entidades autónomas sino, por el contrario, estas presentan propiedades emergentes: es decir, despliegan una interacción dinámica de retroalimentación con las fuerzas extrínsecas del contexto. El proceso comienza con un esquema preliminar, una forma simple denominada huevo o semilla: una célula básica o genotipo digital de forma esférica, con 12 puntos o parámetros de control. La interacción de estos puntos establecidos entre límites máximos y mínimos proporcionará las infinitas posibilidades de mutación de la semilla (Dery, 2008). Un sistema de evolución biológico-digital, con reglas previamente definidas, que permite dar vida a nuevas formas y perturba la simetría en los procesos de desarrollo. Una emulación digital del ADN para generar formas únicas, maleables y transformables. De acuerdo con el modelo matemático utilizado, una vez introducidos los parámetros iniciales, la célula base comenzará a crecer y evolucionar. El programa desarrollará una serie discreta de elementos, formas animadas, sinuosas o continuas. Un vectorial que transita a través de una doble dirección, “no siempre previstas y, sobre todo, no necesariamente estables” (Arenas, 2010, p. 40). Un proceso digital de mutaciones en etapas que ofrece un modelado de “autogénesis” en el que el diseñador irá evaluando sus efectos en diferentes escenarios que lo conducirán hacia resultados inesperados. Una transmisión dígito-genética de la información, un proceso espacial, que borra los límites disciplinares buscando “Soluciones de diseño ecológicamente eficientes” (Roudavski, 2009, pp. 345-374). Un proceso algorítmico que permite llevar a cabo un diseño no jerárquico ni lineal, que se retroalimenta a 293 través de múltiples factores, sean estos exógenos o endógenos, y con la suficiente capacidad para autoorganizarse: “…una manipulación algorítmica de una estructura interna compuesta por elementos definidos de forma paramétrica” (Krauel, 2010, p. 120). Un comportamiento que considera las fuerzas exteriores como variables, dentro de un sistema paramétrico abierto. De este modo, el “…espacio pasivo de coordenadas estáticas [es reemplazado por] un espacio activo de interacciones” (Kolarevic, 2003b, pp. 17-45). “Al comienzo pueden asemejarse a huevos, …pero cuando estas cosas se vuelven adultas, es decir después de haber sido diseñadas y caracterizadas en función del contexto, del cliente, los caprichos del arquitecto… mutan en verdaderos y absolutos monstruos” (Dery, 2008). 5. Ver capítulo 4.1. El modelo biológico. Parte IV. La génesis de un nuevo paradigma Fig. 10. La Casa embriológica es un Preconceptos y objetivos sistema de evolución biológico-digital, con reglas previamente definidas, Bajo una concepción interdisciplinaria, Lynn se inspira en los trabajos que permite dar vida a nuevas formas de dos especialistas que no pertenecen al campo del diseño: William y perturba la simetría en los procesos Bateson (1861-1926) y su hijo Gregory Bateson (1904-1980). de desarrollo. Una emulación digital del ADN para generar formas únicas, maleables y transformables. El primero, William, fue un biólogo inglés que en 1894 escribió un libro titulado “Materials for the study of variation: treated with special regard to discontinuity in the origin of species”, en donde planteaba los conceptos relacionados con la discontinuidad en el origen de las especies: un postulado que cambiaría las teorías que tenía la genética con respecto a la simetría (ver capitulo El modelo biológico digital). 294 Bateson argumentaba que en el caso de las mutaciones biológicas, estas presentaban altos niveles de simetría, superiores a lo normal, es decir, que en lugar de considerar la simetría como el orden, como lo regular, W. Bateson planteó que esta era consecuencia de la falta de información, “cuando agregamos información a un sistema, se rompe la simetría; ante la falta de información, el sistema retorna a la simetría” (Dery, 2008). El segundo, su hijo Gregory Bateson, fue un antropólogo, lingüista y especialista en cibernética que propició –en el campo de las comunicaciones–, una epistemología evolucionista e interdisciplinaria (Valentino, Giménez, & Miras, 2013). A partir de estos conceptos, y bajo una perspectiva funcionalista-neodarwinista, Lynn describe el proyecto mediante un lenguaje orgánico, con metáforas digitales (Migayrou, 2003). Visualiza la gestación arquitectónica como una evolución biológica que parte de una forma inicial, semejante a un huevo: una estructura embrionaria de forma regular, esférica y simétrica, consecuencia de su falta de información. Posteriormente, bajo un proceso morfogenético de mutación, y con el consiguiente agregado de información al sistema, Marcelo A. Fraile - Arquitectura biodigital la forma irá evolucionando – rompiendo su simetría inicial–, hacia una forma adulta progresivamente compleja. Una ruptura de la simetría inicial a partir de los procesos dinámicos de bifurcación no guiados y de la Fig. 11. El proceso comienza con un esquema preliminar, una forma simple denominada huevo o semilla: una interacción de las fuerzas del entorno. célula básica o genotipo digital de for- Desde este punto de vista, se trata de un nuevo enfoque en la materialización y evolución de la vivienda contemporánea. Para Lynn, el proyecto se convierte en una función parcialmente vacía, un espacio abstracto, producido desde su interior, “…cuyas variables (contextuales, programáticas, económicas, estéticas, climáticas, etc.) serán las que determinen en cada tros de control. La interacción de es- ma esférica, con 12 puntos o parámetos puntos establecidos entre límites máximos y mínimos proporcionará las infinitas posibilidades de mutación de la semilla (Dery, 2008). caso los elementos de una serie que en principio carece de límites” (Arenas, 2010, p. 40). Características del proyecto Para Greg Lynn, el diseño desarrollado en la Embryological House queda definido “…por la presencia simultánea del movimiento y las fuerzas en el momento de la concepción formal” (Kolarevic, 2003b, pp. 17-45). Una evolución darwiniana donde los componentes están interconectados, interactuando para producir infinitas mutaciones. Una casa evolutiva, adaptable para una gama completa de sitios y climas, cuyos mínimos requisitos son: contar con un área de 30,5 metros de diámetro y una pendiente menor de 30 grados. La casa embriológica tiene dos pisos: el superior puede oscilar de los 56 a los 112 metros cuadrados; en tanto que el inferior o planta baja, de los 112 a los 186 metros cuadrados. Se pasa de un nivel a otro a través de rampas o escaleras. Dada su configuración, la casa parece estar enterrada en algunas partes6, mientras que en otras parece flotar. En la parte exterior hundida, se gene6. Un plano semienterrado de aproximadamente la mitad de su altura. Cuando la casa se asienta en el suelo, su volumen desplaza la tierra hacia arriba, rodeándola, lo que genera una conformación similar a la de un nido. 295 Parte IV. La génesis de un nuevo paradigma ran “grietas verdes, de las cuales surge un jardín formal. Estas grietas… están rodeadas por un perímetro de jardines sinuosos que concluyen en un paisaje ondulado de césped” (Dery, 2008). Estos jardines fueron diseñados por el arquitecto y teórico norteamericano Jeff Kipnis (1951). El interior de la casa se asemeja al de una máquina, un automóvil. Sus paredes curvas crean bolsas o espacios llamadas “burbujas”. Volúmenes en formas de ampollas tridimensionales que se inclinan, sobresalen Fig. 12. Lynn visualiza la gestación arquitectónica como una evolución biológica. Un nuevo enfoque en la materialización y evolución de la vivienda contemporánea. o generan cavidades para crear muebles, lugares de almacenamiento, armarios, mesas, sillas, bañeras, etc., y en cuyo interior se pueden empotrar electrodomésticos, mobiliarios y equipos (Dery, 2008). Los pisos de la casa son superficies revestidas con diversos materiales (alfombras, maderas, cueros artificiales, acero inoxidable, goma, cerámicos y plásticos), que contienen las tecnologías y las canalizaciones. En los trabajos de Lynn, el color y la textura ocupan un lugar importante. Múltiples componentes se combinan en una gama de colores brillantes, que podían ser mezclados para acentuar las suaves curvaturas de la superficie de la casa fabricada mediante herramientas CNC (Lynn, 2008). Lynn desarrolló seis prototipos de viviendas, denominadas Houses, acompañadas por las letras A, B, C, D, E o F. En cada una de estas viviendas, los espacios fueron diseñados en forma conjunta, desde el espacio interior hasta el equipamiento de la vivienda. Para Lynn “…no hay una casa embriológica ideal u original, solo un esquema de sus límites y variaciones” (Dollens & Planella, 2002, p. 91). Fig. 13. Bajo un proceso morfogenético de mutación, y con el consiguiente agregado de información al sistema, la forma irá evolucionando – rompiendo su simetría inicial–, hacia una for- 296 ma adulta progresivamente compleja. La conformación material del espacio La casa embriológica es un nuevo concepto de hogar biológico hecho a medida y manufacturado de manera industrial. Un producto híbrido nacido de una simulación por computadora de temas morfogenéticos, pero que en su materialización busca imitar la dinámica de los autos. La casa está compuesta por una cáscara delgada o doble piel: la primera, de aluminio y vidrio, es la encargada de definir su forma; y la segunda, una piel de oscurecimiento, se relaciona con el sistema de aventanamiento. Para el desarrollo de ambas pieles, Lynn tomó los datos de energía solar del entorno y los introdujo en la computadora, con el fin de modelar el rendimiento solar del edificio durante todo el año. Una simulación que permitió calcular la incidencia de la luz y las sombras sobre la forma proyectada (Dery, 2008). A partir de los datos obtenidos, Lynn desarrollaría una serie de ondulaciones y depresiones sobre la doble piel de la casa. Una serie de aletas delgadas orientadas en dirección al sol, en función de las coordenadas geográficas donde se ubicará el edificio. Una piel compuesta que se distorsiona debido a las fuerzas producidas por la naturaleza: la forma arquitectónica no solo es la manifestación de Marcelo A. Fraile - Arquitectura biodigital su lógica interna, sino también es una respuesta a las influencias dinámicas procedentes de su contexto. Buscando evitar perforaciones para las ventanas, se desarrollaron una serie de aberturas finas en la piel exterior, en forma de tiras. Dependiendo de las cercanías entre las tiras, el resultado varía desde algo parecido a una ventana, hacia algo semejante a una pared de vidrio, o pantalla. Se trata de una reinterpretación de la abertura, entendida esta como “un pasaje visible de un lado a otro”. Una superficie topológica definida a partir de una red de curvas en donde se ubicarán las ventanas. Para ello, Lynn define tres posibles caminos: cortes booleanos, a partir de múltiples figuras o superficies; desplazamiento de spline, usando isotermas curvas; y mediante el doblado de facetados en la superficie en dos direcciones U y V. La luz ingresa al interior a través de estas rajas y a través de la pérgola que conforma el sistema de oscurecimiento y genera una percepción que parece “acuosa”, en tanto que la puerta de acceso parece un esfínter que, como el iris de un ojo, se abre y se cierra. Un sistema de contrapesos que requiere vencer la inercia del peso de la puerta (Dery, 2008). Fig. 14. La casa parece estar enterrada en algunas partes, mientras que en El proceso de diseño digital y su fabricación robotizada A partir de la modificación de un programa originalmente pensado para la industria aeroespacial, Lynn desarrollaría una plataforma de diseño digital denominada “Blobby”7. Una herramienta de modelado topológico, vinculada con sistemas de animación capaces de controlar y representar formas geométricas fluidas mediante la introducción de una serie de parámetros iniciales. Una arquitectura definida matemáticamente, a través de curvas y superficies NURBS (Non-Uniform Rational B Spline), representadas computacionalmente a través de códigos binarios. otras parece flotar. En la parte exterior hundida, se generan “grietas verdes”, de las cuales surge un jardín formal. Fig. 15. El interior de la casa se asemeja al de una máquina, un automóvil. Sus paredes curvas crean bolsas o espacios llamadas “burbujas”, que se inclinan, sobresalen o generan cavidades para crear muebles, lugares de almacenamiento, armarios, etcétera. 297 Un sistema que recuerda los procesos de modelado desarrollados por Antoni Gaudí –de formas manipuladas a través de puntos de control, pesos y nudos–, pero que ahora, a través de las computadoras, el diseñador puede crear nuevas formas de superficies continuas. Es lo que el arquitecto neerlandés Lars Spuybroek llama “cuadrícula líquida” (wet grid). Un sistema de modelado desarrollado a través de una malla flexible, cuyos “movimientos se incorporan a la estructura, para formar una red topológica que interactúa con el entorno, reajustándose continuamente”. 7. La utilización de softwares llamados Blobby va a dar lugar a la generación de un tipo de arquitectura conocida como “Arquitectura BLOB”, o “Bloblitecture”, una expresión biomorfa que fue acuñada en 1995. Wes Jones acuñó el término “Blobmeisters” para definir a un grupo de diseñadores que habían comenzado a explorar estos softwares como un punto de partida para la generación de nuevas formas en la arquitectura (otros términos semejantes son CAAD Designers, Napster generation, etc.). En Lynn, G. (2000), “Embriological House, AD. Contemporary Processes in Architecture, Vol. 70, n.°3, junio. pp. 26 y ss. Parte IV. La génesis de un nuevo paradigma Un procedimiento digital inspirado en los análisis gráficos desarrollados por D’arcy Thompson y su modelado topológico. Una nueva arquitectura donde la planta ya no genera el proyecto; los cortes asumen un papel puramente analítico, las grillas pierden su razón de ser, las variabilidad infinita se convierte en algo tan factible como la modulación, y lo individual se presenta como una alternativa a la producción en serie (Kolarevic, 2003b, pp. 17-45). Durante el desarrollo Lynn utilizó el programa Microstation, una plataforma virtual que le permitió modelar la arquitectura como un flujo dinámico; posteriormente, para dar acabado definitivo al modelo utilizó el programa Maya que le permitió generar superficies blandas, flexibles y ondulantes. ... Lynn también se valió de modelos físicos. Los prototipos digitales eran traducidos a un lenguaje de máquina para su posterior materialización, mediante impresoras láser de eje bidimensional. Un proceso sin etapas intermedias donde no existen oportunidades de malinterpretaciones. Fig. 16. Para el desarrollo de ambas pieles, Lynn tomó los datos de energía solar del entorno y los introdujo en la computadora, con el fin de modelar el rendimiento solar del edificio durante todo el año. Una simulación que permitió calcular la incidencia de la luz y las sombras sobre la forma proyectada (Dery, 2008). 298 Desde esta concepción, la casa embriológica es una estructura compleja, proveniente de la industria aeronáutica y automovilística, materializada a través de la combinación de un número constante de componentes y operaciones de montaje: 2048 paneles, únicos en forma y tamaño, realizados mediante tecnología CNC8, 9 marcos de acero, 72 costillas de aluminio y armazones en forma de red, que generan diferentes versiones de casas. Los cambios de tamaño y forma de la casa se consiguen sin añadir o restar elementos. Una fabricación a través de infinitas posibles mutaciones y personalizaciones. Hemos pasado de una arquitectura de módulos fraccionarios a una arquitectura digital, de subdivisión infinitesimal. Un cambio en la estética de las proporciones: reemplazando un módulo abstracto de partes por uno numérico binario capaz de ser calculado y diseñado. Una producción mecanizada con precisión milimétrica que toma el robot como expresión de su momento, esperando incorporarlo también durante el proceso de montaje para dar como resultado estructuras capaces de autoconstruirse. Las críticas a la casa embriológica Con un profundo sentido crítico, para el arquitecto americano Benjamin H. Bratton (1968), la casa embriológica no deja en claro si: “…ya es una arquitectura genética o, más bien, todavía, una arquitectura sobre la genética” (2002). En su esencia, asegura Bratton, sigue teniendo en cuenta ciertos problemas de la arquitectura tradicional, lo que la lleva a presentar una serie de incongruencias. En primer lugar, durante el proceso de evolución de la casa, Lynn no desarrolla un proceso de reproducción sexual (cruce de generaciones), limitándose a realizar 8. Lynn había comenzado a trabajar con las máquinas de CNC primero en la Universidad de Columbia y posteriormente en la UCLA. Marcelo A. Fraile - Arquitectura biodigital solamente una mutación de genes, lo cual reduce potencialmente el número de variaciones genéticas de las formas biológicas; en segundo Fig. 17. Desde esta concepción, la lugar, pese a estar inspirado en lo biológico, su modelo parenteral es drásticamente reducido. En la naturaleza, la evolución requiere de una compleja, proveniente de la industria población mínima para comenzar, múltiples sujetos (la idea de pareja inicial no existe), reducido ese número, la especie comienza a degenerar y desaparecer; finalmente, en tercer lugar, existe una compleja interferencia originada entre los sistemas biológicos y los sistemas digitales casa embriológica es una estructura aeronáutica y automovilística, materializada a través de la combinación de un número constante de componentes y operaciones de montaje. para producir una casa que semeja un animal, tanto en su estructura como en su comportamiento. De cualquier forma, el planteo elaborado por Lynn en la casa embriológica ha alterado el concepto epistemológico de belleza en la arquitectura: una nueva belleza, ahora digital, que emerge mediante un nuevo lenguaje orgánico. Una complejidad matemática sin límites donde a través de un lenguaje biomimético se produce una integración entre lo micro y lo macro. Una belleza que, para algunos, como el crítico estadounidense Herbert Muschamp (1947-2007), corresponde con lo feo, lo grotesco, lo monstruoso, en tanto que para otros, como el diseñador turco-chipriota Hussein Chalayan (1970), se trata de una belleza artística y creativa, rasgos de un diseño eficiente. Lo cierto es que, a través de la utilización de sistemas digitales en la elaboración del proyecto, Lynn ha cambiado la forma de pensar y de diseñar los espacios arquitectónicos en la contemporaneidad. La casa embriológica plantea un nuevo estilo de vida: es como un animal, y el hombre su anfitrión que vive dentro de esta. En la memoria del proyecto, Greg Lynn concluye: “A las 4:15 AM, inspiró. Se despertó con una tenue y candente luz azul que parpadeaba en su garganta y una sensación general de indiges- 299 Parte IV. La génesis de un nuevo paradigma Fig. 18. Una arquitectura digital, de sub- tión. Descansaba de manera irregular, como si hubiera comido algo división infinitesimal. Un cambio en la malo la noche anterior, con la sensación persistente de que un animal estética de las proporciones: reempla- agitado estaba viviendo en su intestino. La irritación que un sonido zando un módulo abstracto de partes sordo y agotador le producía en su interior continuó, hasta que fue por uno numérico binario capaz de ser obvio que el día comenzaría en la oscuridad. Su superficie comenzó calculado y diseñado. a brillar como si impulsos eléctricos cruzaran su piel. El agua caliente comenzó a correr por los tubos capilares debajo de su superficie, y las paredes de su cuerpo comenzaron a irradiar calor. El olor acre de la preparación del café emanaba de sus poros, como si su piel comenzara a expulsar el hedor de la noche anterior. Su piel iridiscente brilló como el rocío de la mañana sobre sus curvas metálicas. Pasarían varias horas antes de que el sol saliese y penetrase en su piel escamosa de protección para las primeras horas del día. Hasta entonces, rechinando con los sonidos del sistema de digestión que se despertaba, temblaría y cantaría en su nido de barro, calentado y activado desde su interior”(Valentino, Giménez, & Miras, 2014, p. 102). 300 La herencia de la casa embriológica Con la incorporación de avanzados sistemas tecnológicos, durante la última década del siglo XX, se ha producido un profundo desarrollo de una nueva generación de modelos digitales, inspirados en los procesos de selección natural de los organismos vivos. Una exploración biológica-proyectual donde el diseñador experimenta con una evolución de la arquitectura, explicada a través del origen y de la transformación de los seres vivos. Una analogía directa con el código de ADN donde cada aminoácido es representado de una manera simplificada a través de una secuencia de números binarios, esto genera lo que se conoce como ADN digital: un modelo abstracto que codifica la estructura del sistema en términos biológicos-arquitectónicos, siendo capaz de reproducirse, cruzarse y mutar. Una equivalencia con los genotipos que producen una reacción fenotípica (es decir la manifestación formal) en la interacción con un ambiente Marcelo A. Fraile - Arquitectura biodigital en particular. Desde este punto de vista, el ADN digital no describe el fenotipo, sino que fabrica las instrucciones que describen el proceso de construcción fenotípica. Una búsqueda que va más allá de un modelo, se trata de una búsqueda teórica que codifica genéticamente la forma, bajo parámetros de selección y replicación. Una arquitectura evolutiva, en relación con el entorno construido. En consecuencia, el concepto de un gen ideal es inútil, su información genética dependerá del contexto en que se encuentre, siendo sus cromosomas seleccionados de acuerdo con el rendimiento relacionado con este. Un desarrollo innovador donde, al igual de lo que sucede en la evolución biológica, este proceso opera sin un preconocimiento de lo que está por venir: su evolución se produce bajo una “táctica ciega”, es decir, una búsqueda sin preconcepciones, una técnica capaz de llegar a lugares que ninguna estrategia soñaría llegar (Frazer, 1995). Sin embargo, para que esto suceda será necesario la ejecución de una serie de comandos e instrucciones, un código programático que le enseñe a la computadora qué variables deberá procesar y cómo deberá hacerlo. Un listado de rutinas que determinarán los pasos que deberán seguirse, diferenciando cuáles son los procesos más satisfactorios con el medio, qué puntos conectar y cómo llegar a hacerlo. Su utilización no implica la ausencia o el reemplazo del “diseñador” que en este modelo de proyectación continúa siendo fundamental para la elaboración de los procesos y las tomas de decisiones. Para Manuel de Landa, el diseñador se transforma en un “criador de formas” que mediante cambios genéticos continuos intentará determinar cuáles son las respuestas mejor adaptadas al entorno. Para Frazer, se trata de una nueva escala de interacción con el mundo, una reinterpretación de la “escala humana”, ya que, a partir de la genética, se produce una conexión molecular entre las formas creadas por la naturaleza y aquellas creadas por el hombre. Figuras Fig. 1. a la Fig. 3. Trabecuale. http://www.evolo.us/architecture/trabeculae-re-imagining-the-office-building/ Fig. 4. a la Fig. 8. The parasite. http://perfomativeplaces.expressivespace.org/index.php?/project/the-parasite/ Fig. 9. Casa embriológica. http://article.sapub.org/10.5923.s.arch.201402.01.html Fig. 10. Casa embriológica. http://housemold.biz/Greg-lynn-embryological-house-project.html Fig. 11. Casa embriológica. http://housemold.biz/Greg-lynn-embryological-house-project.html http://www.glform.com/embryonic/embryonic.htm Fig. 12. Casa embriológica. https://embryology.med.unsw.edu.au/embryology/images/thumb/3/37/Human_Carnegie_ stage_10-23.jpg/600px-Human_Carnegie_stage_10-23.jpg Fig. 13. Casa embriológica. http://www.glform.com/embryonic/embryonic.htm Fig. 14. Casa embriológica. http://www.glform.com/embryonic/Build%20your%20own/surface1/base1_1_1web.htm Fig. 15. Casa embriológica. https://ar.pinterest.com/pin/64880050862034206/ Fig. 16. Casa embriológica. http://future-house-genealogy.blogspot.com.ar/p/embryological-house.html http://archives.docam.ca/en/wp-content/GL/GL6BContents.html Fig. 17. Casa embriológica. http://housemold.biz/Greg-lynn-embryological-house-project.html http://www.cca.qc.ca/en/search/details/collection/object/345792 Fig. 18. Casa embriológica. http://future-house-genealogy.blogspot.com.ar/p/embryological-house.html 301 Parte IV. La génesis de un nuevo paradigma 302 Marcelo A. Fraile - Arquitectura biodigital ARQUITECTURA BIOMIMÉTICA: EL EMERGENTE CAMINO DEL NUEVO MILENIO Biomímesis “La teoría de la evolución explica el origen y la transformación de los seres vivos como producto de la acción de dos principios fundamentales: la selección natural y las posibilidades de combinación (relaciones)”. (Ballestero, 2008, p. 26). El término biomímesis es una palabra compuesta por dos vocablos de origen griego: ‘Bios’ que significa vida, y ‘Mimesis’, imitación (Benyus & Leal, 2012, p. 13). Inicialmente, el concepto de biomímesis fue caracterizado como una ciencia interdisciplinaria que estudiaba los procesos que se desarrollaban en la naturaleza, como fuente de inspiración para ser posteriormente aplicados en las tecnologías del hombre. Sin embargo, actualmente esta noción ha sido reemplazada por el difuso concepto de “resolución de problemas”. Su origen se encuentra asociado al ingeniero e inventor estadounidense Otto Herbert Schmitt (1913-1998) quien, a mediados de la década de 1950, como parte de su tesis doctoral, comenzó a investigar los nervios del calamar, buscando desarrollar un dispositivo ‘activo’ capaz de convertir una señal de entrada analógica en una señal de salida digital: denominado como “disparador de Schmitt”, se trataba de un dispositivo electrónico que replicaría el modo en que se propagan los impulsos eléctricos a través de los nervios de un calamar. Como corolario de esa investigación, en 1969, Schmitt acuñó el término biomímesis en un artículo titulado “Some Interesting and Useful Biomimetic Transforms”1, que fue presentado en Third International Biophysics Congress (Tercer Congreso Internacional de Biofísica). Cinco años después, en 1974, el término biomímesis ya formaba parte del Diccionario estadounidense Webster (An American Dictionary of the English Language). Biomímesis: “…estudio de la formación, estructura o función de sustancias y materiales producidos biológicamente (como enzimas o seda) y mecanismos y procesos biológicos (como la síntesis de proteínas o la fotosíntesis) especialmente con el propósito de sintetizar productos similares mediante mecanismos artificiales que imitan naturales” (Merriam, 2017). Para la tecnóloga urbanista estadounidense Emil Binet Royall, esta definición describe la biomímesis como “… 303 el estudio de tres propiedades de los materiales y de los mecanismos biológicos: la formación, su estructura física y su función” (2011, pp. 12-16). En este sentido, Binet Royall considera que la biomímesis tiene como objetivos generar elementos análogos a la biología en forma, estructura y funcionamiento, a partir del uso de mecanismos artificiales que también deberán imitar a la naturaleza. En otras palabras, para Binet Royall, no solo deberá copiar su forma y su función, sino también los procesos por los cuales estos se generan. Mientras que el zoólogo Julian Vincent, del Centro de Biomimética de la Universidad de Reading, define la biomímesis “…como ‘la abstracción del buen diseño que proviene de la naturaleza’” (Binet Royall, 2011, pp. 12-16). Por su parte, para la autora y naturalista americana Janine Benyus (1958), la naturaleza ha investigado y desarrollado sus organismos por más de 3800 millones de años, sus fracasos “…han quedado fosilizados y lo que nos rodea es el secreto de la supervivencia” (2012, p. 17). En consecuencia, Benyus considera que 1. Schmitt O. (1969) “Some Interesting and Useful Biomimetic Transforms”, Proceeding, Third International Biophysics Congress, Boston, Mass., Aug. 29-Sept. 3. p. 297. Parte IV. La génesis de un nuevo paradigma “…los modelos para el proceso biomimético deben ser tomados directamente del mundo natural, en lugar de ser diseñados artificialmente por métodos computacionales”. Sin embargo, no todos comparten este enfoque restrictivo sobre el tema. Para el arquitecto británico Michael Pawlyn (1967), debemos ir más allá del planteo reduccionista de Janine Benyus, que considera la biomímesis como materia prima y tratamiento, ese camino solo nos conducirá a lo menos malo, pero nunca hacia un bien superador. De manera análoga, el arquitecto británico Philip Steadman plantea la biomímesis “…como el ‘análisis de la ingeniería de los organismos y su comportamiento con miras a aplicar los mismos principios en el diseño’” (2011, pp. 12-16): un fenómeno de evolución, entendido como un proceso de optimización y adaptación al medioambiente. En una línea de pensamiento similar, para el físico Yoseph Bar-Cohen, el simple acto de imitación es arcaico. Bar-Cohen considera que “…los avances en la ciencia y la tecnología han llevado a los seres humanos a ‘actuar más allá de la simple mímesis de la naturaleza’, ya que ‘nunca como ahora podemos inspirarnos en la naturaleza y emplear nuestras herramientas de maneras muy superiores” (2011, pp. 12-16). Desde este punto de vista, la biomímesis supone la aparición de un enfoque radicalmente nuevo, diferente del establecido en la Revolución Industrial, una estrategia “… en la que las formas y funciones biológicas se transponen a los sistemas materiales tradicionales” (Armstrong, 2011, pp. 68-77). Para el arquitecto estadounidense Dennis Dollens, la biomímesis implica una búsqueda de eficiencia, “… mira[r] a la naturaleza, …para sacar ideas de diseño de estructuras y ver cómo se pueden traspasar esas ideas del mundo natural a un proyecto arquitectónico”: no se trata de copiar fielmente el mundo natural, “…no hacemos edificios que parezcan flores, sino que intentamos hacer un edificio que, por ejemplo, use energía solar como lo hace la fotosíntesis en las plantas”. Formalmente “No va a parecer una planta, pero sí podemos decir que funcionará como una planta, tendrá sus principios” (Vidal, 2014, pp. 46-47). La biomímesis sigue los principios de la vida, mantiene una estabilidad dinámica a partir de nueve propiedades importantes: - Utiliza la luz solar; - utiliza solamente la energía imprescindible (en el mundo natural la energía es lo más caro); - ajusta la forma a la función (la forma es gratis, y el material es caro); - lo recicla todo; - recompensa la cooperación (una construcción botton-up, de abajo hacia arriba); - acumula diversidad; - contrarresta los excesos desde el interior; - utiliza la fuerza de los límites; - aprende de su contexto, utilizando la tecnología local (Benyus & Leal, 2012, p. 22). 304 Actualmente, muchas de las soluciones existentes tienden a mitigar el problema ecoambiental, pero se requiere un cambio de actitud mucho más profundo, y es precisamente allí en donde el concepto de biomímesis parece plantear una solución alternativa. En este sentido, Pawlyn considera que la humanidad debe producir tres grandes cambios si pretende continuar en este mundo: el primero de estos es lograr un aumento radical Marcelo A. Fraile - Arquitectura biodigital de la eficiencia de los recursos; el segundo, pasar de una economía de combustibles fósiles a una economía solar; y finalmente, transformar su visión derrochadora de los recursos en forma lineal, a un modelo de circuito cerrado (2011). La biomímesis parece ser el camino más adecuado para obtener los tres. La biomímesis está reconfigurando las fronteras que dividían lo natural de lo artificial, una vía de investigación innovadora que pretende estudiar los modos de traducir soluciones biológicas al campo del diseño. Para el arquitecto americano Evan Douglis, la mímesis biológica es el nuevo paradigma para la producción arquitectónica. Un nuevo proceso “Form-Finding” (encontrando la forma) donde la estética no debe ser entendida como la finalidad, sino más bien como el resultado coherente de un proceso de diseño morfogenético en el que se desarrolla una metodología propia del diseño emergente (Senosian Aguilar, 1998, p. 13). Nuevos modelos provenientes del mundo natural que no requieren de combustibles fósiles, no contaminan, ni consumen los recursos no renovables del medioambiente. Se trata de una versión “…más elegante y menos costosa para el planeta” (Benyus & Leal, 2012, p. 21). La biomímesis es un proceso dinámico que ha sufrido una revisión constante en los últimos cincuenta años: una definición que se ha extendido para incluir ahora también el reino mineral. Su presencia es cada vez más protagonista en el diseño industrial, en la ingeniería y en la fabricación. Sin embargo, en la arquitectura su correcta implementación es reciente y aún muy limitada. Biónica En agosto de 1958, el psiquiatra e ingeniero de la Fuerza Aérea Estadounidense Jack E. Steele acuñó el término biónica, término que viene de dos vocablos griegos, ‘bio’ (vida), e ‘ikos’ (unidad, ciencia de), y se refiere a “…la creación de funciones y formas análogas al comportamiento de los seres vivos. Y esto se logra mediante observación e investigación profunda, análisis y síntesis” (Senosian Aguilar, 1998, p. 13). Dos años después, en septiembre de 1960, se desarrolló en la ciudad estadounidense de Dayton (Ohio) la “I Annual National Aeronautic Electronics Conference” (1ª Conferencia Anual de Electrónica Aeronáutica Nacional), un simposio sobre el tema, en donde se presentaron los trabajos del Mayor Steele: un programa de investigación denominado “biónica”, emprendido en 1959, en el Centro Whright-Patterson de la U.S. Air Force. Esta ciencia interdisciplinaria “…no pretende calcar o copiar, [la naturaleza] sino que maneja como tesis que cualquier modelo tiene una potencialidad para proveer nuevas ideas al diseño de métodos y máquinas que mejoren la existencia” (Senosian Aguilar, 1998, p. 13). 305 La biónica no solo estudia los aspectos físicos y químicos de la naturaleza, sino también la morfología de sus estructuras con el objeto de aplicarlas a la construcción de máquinas y sistemas artificiales que serán utilizados por el hombre. Posteriormente, en 1972, el escritor estadounidense Martin Caidin (1927-1997) escribió la novela de ciencia ficción Cyborg, una clara relación con los trabajos de Steele y donde desarrollaba la idea de un hombre-máquina: tras un accidente un individuo debía reemplazar algunas partes de su cuerpo con fragmentos artificiales los cuales eran operados electrónicamente. Desde entonces, el término biónico fue asociado con el campo de la ciencia ficción, y la comunidad científica abandonó su uso. De acuerdo a su definición, un cíborg es “…una criatura compuesta de elementos orgánicos y dispositivos mecánicos, generalmente con la intención de mejorar las capacidades de la parte orgánica mediante el uso de tecnología artificial” (López Fernández, 2009, p. 26). Conceptualmente, desde un punto de vista estricto, “…una persona a la que se le haya implantado un marcapasos podría considerarse un cíborg, puesto que sería incapaz de sobrevivir sin ese componente mecánico” (López Fernández, 2009, p. 26). Parte IV. La génesis de un nuevo paradigma En este marco, se hace difícil definir qué es realidad y qué ciencia ficción, incluso para algunas publicaciones científicas como la “New Scientist, Architopia o If” en donde vaticinaba que en el futuro próximo los humanos y la tecnología se fusionarían hasta límites casi invisibles. En el campo de la arquitectura, esta línea de pensamiento busca generar un individuo, “un cíborg” que extienda los límites del hombre hacia fronteras prohibidas por nuestra propia humanidad: una mirada que sirva para reestructurar y potenciar al anfitrión a fin de conducirlo más allá de sus propios límites. Los tres caminos de la biomímesis Benyus considera que la biomímesis puede presentar tres roles dentro del diseño: en primer lugar, como modelo, al estudiar la “…naturaleza para imitar o inspirarse en los diseños y procesos biológicos para resolver problemas humanos”; en segundo lugar, como medida, imitando los procesos naturales “…para juzgar la ‘corrección’ de nuestras innovaciones”; y finalmente como mentora, copiando el funcionamiento de los sistemas, “…una nueva manera de contemplar y valorar la naturaleza” (2012, p. 13). La biomímesis como modelo Una de las figuras más importantes relacionadas con la arquitectura biomimética es el profesor estadounidense Dennis Dollens, cuyos trabajos se encuentran orientados a la búsqueda de soluciones ecológico-ambientales para desarrollar estructuras arquitectónicas vivas o, al menos, dotadas con características biológicas. Para Dollens, la biomímesis aplicada en el diseño “…implica la búsqueda en los sistemas naturales de las claves de los procesos naturales y su eficiencia, para poder crear nuevos materiales, productos y entornos basados en principios biológicos” (Dollens, 2006). Una nueva manera de concebir la arquitectura a partir de la introducción de propiedades derivadas de la botánica tales como la filotaxis, la alometría y el fototropismo2. Uno de los proyectos más interesantes al respecto es el Proyecto Arizona Tower, desarrollado por Dollens a mediados del 2006 en los Laboratorios de Urbanismo del arquitecto italiano Paolo Soleri. 306 Arizona Tower es un experimento digital emergente que utiliza la botánica para diseñar: un uso selectivo de los principios biológicos para dar respuestas a nuevos desafíos en el diseño. En este sentido, “… la comparación entre las estructuras arquitectónicas, que son típicamente inmóviles, y las plantas que son también relativamente estáticas parecía menos problemática que con las de… los animales” (Roudavski, 2009, pp. 345-374). En el proyecto, Dollens establece una analogía con los sistemas biológicos al desarrollar una estructura que, a modo de árbol, hunde sus raíces en el terreno para lograr un equilibrio estático de sus partes. Estas “raíces” son utilizadas como cisternas para el almacenamiento, la recolección y la distribución del agua, como sistemas de alcantarillado y como depuración a través de biorreactores. Para el diseño, Dollens utilizó Xfrog, un programa de simulación digital de las estructuras botánicas. Este programa tiene la capacidad de producir formas vegetales basadas en los atributos botánicos, a partir de la información recogida en archivos 3D durante 40 años de investigación. Un programa evolutivo diseñado para ser utilizado por los paisajistas con el objeto de simular computacionalmente la morfogénesis en los vegetales (árboles, arbustos o flores). A través de la modificación de los parámetros de crecimiento, es posible alterar “… la ramificación de los árboles en términos de hibridación digital con el fin de producir formas experimentales de características botánicas” (2009, pp. 94-103). 2. La filotaxis “se refiere al arreglo o disposición que muestran las hojas en el tallo”; la alometría “se refiere a las tasas de crecimiento diferencial”; y el fototropismo “es la respuesta de un vegetal a los estímulos luminosos” (Valentino, Giménez, & Miras, 2013). Marcelo A. Fraile - Arquitectura biodigital Un cambio en la concepción de las plataformas digitales, considerando estas no como herramientas de representación, sino como entes colaboradores en la generación del diseño. Una posibilidad de experimentar en el espacio “sobre los límites de la inmediatez” (Ruiz Millet & Planella, 2003, p. 130), incorporando en esta las variables de la materialidad. Una lógica matemática capaz de desarrollar infinitas variaciones a través de un proceso de replicación. Una adaptación evolutiva que considera la posibilidad de una transferencia experimental entre biología y arquitectura, por encima de lo meramente analógico o metafórico, priorizando la eficiencia por sobre las cuestiones culturales. El concepto de una “serie fija” es reemplazado por una “conducta inteligente”, con capacidad cambiante, para simular la manera en que una estructura arquitectónica puede crecer para buscar la mejor orientación solar, las mejores corrientes de aire, la reducción del consumo energético y de agua. De este modo, cada rama del proyecto se encuentra distribuida de tal forma que maximiza la captación de luz natural a través de una serie de paneles solares. Arizona Tower presenta un diseño donde las vainas y los polígonos crecen de escala para transformarse en espacios y se reprograman para pasar de ser vainas a cubos. El proceso convierte las ramas y raíces en elementos de diseño. Una distribución “ascendente” de paneles que posibilita controlar el flujo del aire y la distribución del calor y la sombra alrededor de la torre cilíndrica. En su fachada, Dollens ubica una serie de sensores y accionadores integrados en las vainas y las hojas, que permiten controlar las condiciones ambientales de los locales. Un edificio activo que contribuye a mantener el aire limpio, a través de una serie de paneles plegables que reproducen la estructura de un árbol, actuando de un modo similar: “…ajustándose, plegándose y reorientándose para reducir la exposición solar en períodos cálidos y la pérdida de calor en épocas frías […facilitando] 307 Fig. 1. Arizona Tower presenta un diseño donde las vainas y los polígonos crecen de escala para transformarse en espacios y se reprograman para pasar de ser vainas a cubos. El proceso convierte las ramas y raíces en elementos de diseño. Parte IV. La génesis de un nuevo paradigma también el intercambio de aire interior gracias a la ventilación pasiva y la filtración de agentes tóxicos” (Dollens, 2009, pp. 94-103). Una nueva arquitectura vegetal que contribuye a retener el carbono, la fotosíntesis, la recuperación de acuíferos, y proporciona al mismo tiempo nuevos hábitats para las aves y la flora urbana. Otro modelo interesante es el de Bio-Tower: un proyecto desarrollado por Dollens en el 2009, para la ciudad de Los Ángeles. Para este diseño, Dollens se centró en el crecimiento de los tallos en flor de la Yucca glauca cuyas espigas florales desarrollan una pauta asimétrica de crecimiento (filotaxis) que describe una espiral de Fibonacci que asciende por el tallo. Una forma helicoidal con hojas digitales que permite experimentar estructuras y redes ramificadas, a través de un procedimiento virtual con características biológicas. Fig. 2. Dollens establece una analogía con los sistemas biológicos al desarrollar una estructura que, a modo de árbol, hunde sus raíces en el terreno para lograr un equilibrio estático de sus partes. Estas “raíces” son utilizadas como cisternas para el almacenamiento, la recolección y la distribución del agua, como sistemas de alcantarillado y como depuración a través de biorreactores. 308 Marcelo A. Fraile - Arquitectura biodigital El proyecto quedó conformado por un núcleo circular en torno al cual ubicó una estructura de ramas “…semejantes a una cesta cilíndrica tejida, de las que brotan una serie de racimos de hojas en espiral y sistemas biomecánicos que actúan como membranas-filtro” (Dollens & Planella, 2002). En su estructura incorporó una serie de sensores ambientales que permiten realizar operaciones de control climático del edificio tales como regular la luz solar y la acción del viento. Una tecnología que transforma la fachada del edificio en una piel híbrida, capaz de reaccionar a las condiciones del ambiente. Una alineación de la forma lógica del edificio, con su forma botánica, desarrollada mediante sistemas digitales para su producción mediante nuevas tecnologías y nuevos materiales biomiméticos. En este sentido, Fig. 3. Dollens se centró en el crecimiento de los tallos en flor de la Yucca glauca cuyas espigas florales desarrollan una pauta asimétrica de crecimiento (filotaxis) que describe una espiral de Fibonacci que asciende por el tallo. la idea no es copiar el mundo natural, sino que expresa la aparición de nuevos sistemas que funcionan como la naturaleza. La biomímesis como medida Para Julian Vincent, en el mundo natural, la producción de materiales es extremadamente costosa, en tanto que la variabilidad de la forma resulta económica; un fuerte contraste con la tecnología material del hombre, donde pasa todo lo contrario. En este sentido, la naturaleza es muy cuidadosa en el uso económico de los materiales, “…esto se logra normalmente a través del ingenio evolucionado de la forma. Mediante el plegamiento, la bóveda, las costillas, la inflación y otras medidas, los organismos naturales han creado formas eficaces que demuestran asombrosa eficiencia” (Pawlyn, 2011). Esta no es la única diferencia que separa el mundo material del mundo natural. Por ejemplo, los materiales tradicionales de construcción son inertes y con el tiempo se degradan, en tanto que en el caso de los materiales biológicos presentan una mirada revolucionaria del tema: son Fig. 4. Una forma helicoidal con hojas digitales que permite experimentar estructuras y redes ramificadas, a través de un procedimiento virtual con características biológicas. 309 Parte IV. La génesis de un nuevo paradigma Fig. 5. El proyecto quedó conformado por un núcleo circular en torno al cual ubicó una estructura de ramas “…semejantes a una cesta cilíndrica tejida, de las que brotan una serie de racimos de hojas en espiral y sistemas biomecánicos que actúan como membranas-filtro” (Dollens & Planella, 2002). 310 capaces de repararse, logran un aumento de la eficiencia desde el rendimiento térmico, acústico e incluso energético. Un uso de estructuras radicales y eficientes, superiores a cualquiera desarrollada por el hombre: un proceso en constante evolución donde los sistemas poco eficaces desaparecen para dar lugar al perfeccionamiento de los que mejor se adaptan a las condiciones del medio natural. Esto se debe a que la presión en la supervivencia obliga a ser eficientes, económicos y evitar errores. En la naturaleza, solo existen cuatro polímeros fibrosos: “…la celulosa en las plantas, el colágeno en los animales, la quitina en los insectos y crustáceos, y las sedas en las telarañas” (Hensel, Menges, & Weinstock, 2010, p. 9 y ss.). La quitina es el segundo biopolímero más abundante en el planeta y una de las estructuras más resistentes de la naturaleza. Cerca de 100 Marcelo A. Fraile - Arquitectura biodigital millones de toneladas se producen cada año por organismos como camarones, cangrejos, escorpiones y mariposas. Fig. 6. Una nueva arquitectura vege- La arquitecta americana-israelí Neri Oxman (1976) se encuentra desa- de acuíferos, y proporciona al mismo rrollando una investigación acerca de nuevos materiales, a través de lo que ella denomina “Ecología de Materiales”; una exploración basada en la intersección de tres ejes: la fabricación digital, las ciencias de los materiales y la biología sintética. tiempo nuevos hábitats para las aves tal que contribuye a retener el carbono, la fotosíntesis, la recuperación y la flora urbana. Un diseño integral desde la micro a la macro escala que conduce a la utilización de formas, texturas y materiales biológicos, en un intento por ampliar la relación entre lo natural y lo construido mediante la utilización de principios inspirados en la naturaleza. Para ello, en el año 2014, el equipo de Oxman desarrolló Water-base Digital Fabrication Platform: un proyecto para la fabricación aditiva robótica de estructuras leves a través de materiales heterogéneos y biodegradables (Oxman, 2014). Inspirado en la formación de materiales acuosos, Water-base ofrece una nueva perspectiva en la fabricación digital: una combinación de agua y materiales derivados de los crustáceos. Para esto, el equipo de Oxman molió cáscaras de camarones y produjo una pasta de quitosano, un material que de acuerdo a su composición puede adquirir diferentes constituciones: oscuros, duros, opacos, suaves o transparentes. A continuación, construyeron un sistema de boquillas de extrusión de múltiples cámaras, controladas mediante un brazo robot que imprimiría utilizando la pasta acuosa de quitosano. El robot podía cambiar las propiedades del material a medida que imprimía y crear diferentes estructuras hechas de un solo material. Un material de gran resistencia que seca y endurece a la temperatura ambiente y se biodegrada en contacto con el agua. Durante el proceso, pequeñas burbujas de aire que quedaban prisioneras permitían el alojamiento de bacterias genéticamente modificadas 311 Parte IV. La génesis de un nuevo paradigma Fig. 8. El equipo de Oxman molió cáscaras de camarones y produjo una pasta de quitosano, un material que de acuerdo a su composición puede adquirir diferentes constituciones: oscuros, duros, opacos, suaves o transparentes. Fig. 7. Un sistema de boquillas de extrusión de múltiples cámaras, controladas mediante un brazo robot que imprimiría utilizando la pasta acuosa de quitosano. 312 para que capturaran el carbono de la atmosfera y lo convirtieran en azúcar. Generaban de este modo una estructura biodegradable que se comportaba como un árbol. Un año después, el equipo de Oxman elaboró el Ocean Pavilion o Pabellón del Océano: una instalación desarrollada para la producción de estructuras a escala arquitectónica. Sobre la base de una pasta de “quitosano”, un polisacárido derivado de la quitina, se fabricaron una serie de hojas de gran escala que imitaban la geometría de las alas de una libélula. Una estructura ligera que aumenta su resistencia al desarrollar a lo largo de su eje una especie de nervios estructurales, obtenidos al modular la rigidez, presión y estratificación del compuesto. Un tercer ejemplo es el Silk Pavilion, diseñado en 2013 por Neri Oxman y un grupo de investigadores del Media Lab MIT, con la colaboración del profesor Fiorenzo Omenetto (Tufts University) y el Dr. James Weaver (Instituto Wyss, Universidad de Harvard). Marcelo A. Fraile - Arquitectura biodigital Fig. 9. Durante el proceso, pequeñas burbujas de aire que quedaban prisioneras permitían el alojamiento de bacterias genéticamente modificadas para que capturaran el carbono de la atmosfera y lo convirtieran en azúcar. Generaban de este modo una estructura biodegradable que se comportaba como un árbol. Fig. 10. El Ocean Pavilion es una instalación desarrollada a base de pasta de quitosano para la producción de estructuras a escala arquitectónica. El Silk Pavilion o Pabellón de seda es una instalación cuyas características principales son: su forma, y el modo en que fue fabricado. Un proyecto destinado a explorar los procesos naturales de construcción y su posible utilización en el campo de la arquitectura. Con el fin de investigar estos procesos, Oxman y su equipo encerraron a un gusano dentro de una cápsula provista de una serie de sensores magnéticos. El gusano poseía un imán adherido a su cabeza el cual era detectado por los instrumentos que almacenaban su recorrido en forma de una nube de puntos espaciales (en tres dimensiones). A continuación, esa información fue procesada y estudiada con el objeto de determinar el movimiento del gusano en el espacio y el modo en que desarrollaba la estructura del capullo3. Después, el equipo de Oxman colocó 3. El gusano comienza a hilar su capullo mediante la combinación de dos proteí- 313 Parte IV. La génesis de un nuevo paradigma Fig. 11. Sobre la base de una pasta de “quitosano”, se fabricaron una serie de hojas de gran escala que imitaban la geometría de las alas de una libélula. Una estructura ligera que aumenta su resistencia al desarrollar a lo largo de su eje una especie de nervios estructurales, obtenidos al modular la rigidez, presión y estratificación del compuesto. 314 Marcelo A. Fraile - Arquitectura biodigital el gusano sobre un soporte plano, donde este continuó desarrollando su estructura en relación con el ambiente, pero ahora su capullo era plano: una estricta relación entre la estructura del capullo y el soporte (Oxman, 2015). En la etapa siguiente de la investigación, Oxman y un equipo del MIT Media Lab llevaron el proceso a una escala arquitectónica. La información obtenida se transformó en una densa red que reproducía digitalmente la malla física creada por el gusano: una visualización virtual compleja de la forma del capullo del gusano de seda. Posteriormente, un brazo robótico fue programado para imitar el modo en que el gusano depositaba la seda para construir sus capullos 3D de un solo hilo. Una impresora digital literalmente “tejió” –utilizando una fibra de nilón de 1Km de largo, sobre un marco metálico poligonal plano–, una estructura que proporcionaba diversos grados de densidad de acuerdo a un algoritmo que evaluaba las condiciones atmosféricas de la zona. El algoritmo asignaba la ubicación, el tamaño y la densidad de las aberturas de acuerdo al movimiento del sol, con el fin de bloquear los rayos de luz natural que entrarían al pabellón desde la elevación sur y este. De igual modo, se ubicó un óculo excéntrico en contra de la elevación del este, con el fin de ser utilizado como un reloj solar. El resultado fue una cúpula simplificada en 26 paneles poligonales de 3,66 m de diámetro. Finalmente, un enjambre de 6500 gusanos de seda fueron alimentados durante cuatro semanas y posteriormente liberados en la base de la semiesfera para que tejieran sus estructuras sobre los hilos de nylon. La estructura fue suspendida en una habitación abierta pero cálida. Los gusanos tejían sus fibras más densas en las zonas más oscuras y menos densas en aquellas más iluminadas. Esto obligó a que los expertos giraran el domo, con el fin de obtener una estructura más homogénea. nas en diferentes concentraciones: una actúa como estructura mientras que la otra se comporta como pegamento, uniendo las fibras entre sí. 315 Fig. 12. Un proyecto destinado a explorar los procesos naturales de construcción y su posible utilización en el campo de la arquitectura. Parte IV. La génesis de un nuevo paradigma Fig. 13. Oxman y su equipo encerraron a un gusano dentro de una cápsu- De este modo, la técnica era afectada por las condiciones espaciales y ambientales, incluyendo la densidad geométrica. la provista de una serie de sensores corrido en forma de una nube de pun- En sus diseños Oxman trata de unir dos visiones del mundo: el artificial y el natural, alejándose del ensamblaje en capas para acercarse al cre- tos espaciales (en tres dimensiones). cimiento de formas sofisticadas. magnéticos, que almacenaban su re- En el 2014, Nery Oxman diseñó Mushtari, las maravillas de Júpiter, un tipo de indumentaria que explora diferentes caminos para el mantenimiento de la vida humana fuera de la Tierra. Una serie de capilares portátiles impresos en 3D, diseñados para interactuar con el entorno específico. Para su investigación, Oxman desarrolló una bacteria virtual, una nueva forma de vida creada digitalmente con capacidad de crecer. Una evolución por diseño que combinó digitalmente dos microorganismos que no interactúan nunca en la naturaleza: la cianobacterias, que viven en los océanos y en los estanques de agua dulce; y el E. Coli, la bacteria que habita en el intestino humano. La primera convierte la luz del sol en azúcar, mientras que la segunda consume azúcar y produce biocombustibles útiles. 316 Fig. 14. Un enjambre de 6500 gusanos de seda fueron liberados en la base de la semiesfera para que tejieran sus estructuras sobre los hilos de nylon. Con el objeto de limitar y conducir el crecimiento de la bacteria digital, crearon un canal semejante al tracto digestivo: las bacterias crecían dentro de estos canales en donde era posible modificar las propiedades del material según la funcionalidad deseada. Una vez que el modelo adquiría su forma definitiva, una impresora aditiva fabricaba el objeto. La biomímesis como mentora De acuerdo al Departamento de Asuntos Económicos y Sociales de Naciones Unidas, “Cerca de 1.200 millones de personas, casi una quinta parte de la población mundial, vive en áreas de escasez física de agua” (ONU, 2014). En este sentido, la insuficiencia del preciado elemento constituye uno de los temas más polémicos de este nuevo milenio. Marcelo A. Fraile - Arquitectura biodigital Fig. 15. La estructura fue suspendida en una habitación abierta pero cálida. Los gusanos tejían sus fibras más densas en las zonas más oscuras y menos densas en aquellas más iluminadas. Fig. 16 El algoritmo asignaba la ubicación, el tamaño y la densidad de las aberturas de acuerdo al movimiento del sol, con el fin de bloquear los rayos de luz natural que entrarían al pabellón desde la elevación sur y este. 317 Parte IV. La génesis de un nuevo paradigma Debido al ritmo de crecimiento de la población, el aumento de las temperaturas, la reducción de las precipitaciones, se hace necesario imaginar alternativas para el acceso a recursos más eficientes y sostenibles. Sin embargo, en algunas áreas con escasez de agua es posible extraerla si recurrimos a la naturaleza: un ejemplo lo realiza el escarabajo atrapaniebla de Namibia (Stenocara gracilipes), un insecto que vive en el desierto de África y obtiene agua de la niebla. Fig. 17. Oxman diseñó Mushtari, las maravillas de Júpiter, un tipo de indumentaria que explora diferentes caminos para el mantenimiento de la vida humana fuera de la Tierra. Una serie de capilares portátiles impresos en 3D, diseñados para interactuar con el entorno específico. Durante la noche, el escarabajo sube a la cima de las dunas y con su caparazón negro mate irradia calor hacia el exterior para tornarse levemente más frío que su alrededor. Cuando corre la briza húmeda del mar, se condensan minúsculas gotas de agua sobre su caparazón, al estar más fresco que el entorno. Posteriormente, antes de que salga el sol, el escarabajo despliega sus alas y genera un canal por donde el agua corre hasta su boca. En su exoesqueleto, el escarabajo posee una serie de protuberancias en forma de cúpula dispuestas de forma hexagonal en las partes traseras, que protegen sus alas. Esas protuberancias son hidrofilias, es decir, actúan como un imán, atrayendo el agua, en tanto que entre las protuberancias, hay un acabado ceroso que las repele y provoca que se formen gotas mucho más móviles de lo que sería una película continua de agua en el caparazón. Un sistema muy eficiente de captación de agua (Benyus & Leal, 2012). Este ejemplo de la naturaleza llevó a un equipo interdisciplinario de arquitectos e ingenieros, dirigidos por el arquitecto británico Michael Pawlyn, a desarrollar en el 2012, The Sahara Forest. Ubicado en el desierto de Qatar, se trata de una instalación agrícola de alta tecnología destinada a revegetalizar el desierto. Inspirado en el escarabajo atrapaniebla de Namibia, el proyecto prevé la construcción de un invernadero que utiliza el agua del mar y la energía solar para proporcionar alimentos, agua dulce y energía limpia. 318 El proyecto se compone de tres partes: 1. La Planta de Concentración Solar (CSP): un conjunto de espejos encargados de enfocar los rayos del sol para crear vapor de agua, que accionan una serie de turbinas productoras de energía eléctrica. Dada las características del sistema, su funcionamiento tiene un consumo nulo de combustibles fósiles. 2. Invernadero refrigerado mediante agua marina: un sistema de refrigeración que funciona sobre la base de la evaporación del agua. Dada las condiciones extremas del clima desértico (calor durante el día, y frío durante la noche), la instalación debe tratar el aire que ingresa al invernadero (enfriándolo o calentándolo) para generar un ambiente estable, con una temperatura interior a 30ºC, con alta humedad. Para ello el invernadero presenta una doble cubierta por donde circula el agua salada y regula la temperatura del interior mediante evaporación, y Marcelo A. Fraile - Arquitectura biodigital como productor de agua limpia. Dadas las características del ambiente, este se transforma en un desinfectante del aire al eliminar los organismos patógenos que podrían afectar los cultivos. 3. Muros de evaporación / condensación: el proyecto sustituye dos de los muros del invernadero por muros especiales formados por paneles de celulosa, con estructuras de celdas, que actúan como paneles de humidificación y de evaporación: uno a barlovento (contra la dirección del viento), y otro a sotavento (a favor de la dirección del viento). El proceso comienza cuando el agua de mar es conducida al muro principal ubicado a barlovento (parrilla de evaporación) para que el agua en contacto con el aire caliente del desierto se evapore. Este proceso enfría y humidifica el aire que ingresa al interior del espacio y genera las condiciones óptimas para el crecimiento de los cultivos y la revegetación. Fig. 18. Inspirado en el escarabajo atrapaniebla de Namibia, el proyecto prevé la construcción de un invernadero que utiliza el agua del mar y la energía solar para proporcionar alimentos, agua dulce y energía limpia. 319 Parte IV. La génesis de un nuevo paradigma Al evaporarse el agua, deja como subproductos reutilizables sal marina, cloruro de magnesio, etcétera. Tras atravesar el invernadero, el aire se encuentra con el segundo muro, en la parte posterior. Este muro, ubicado a sotavento, es enfriado mediante una tubería de polietileno alimentada por agua de mar fría. Cuando el vapor de agua entra en contacto con este muro, este se condensa y genera el agua dulce necesaria para regar los cultivos y limpiar los espejos. Su eficiencia permite generar hasta 20 litros de agua por día por metro cuadrado de invernadero. El agua utilizada para limpieza de los espejos genera en el área cercana un microclima, lo que favorece el crecimiento debajo de los espejos de Jatropha, una vegetación nativa de África, la cual puede ser utilizada como biocombustible. Fig. 19. Un conjunto de espejos encargados de enfocar los rayos del sol para crear vapor de agua, que accionan una serie de turbinas productoras de energía eléctrica. Fig. 20. Un sistema de refrigeración que funciona sobre la base de la evaporación del agua. 320 Marcelo A. Fraile - Arquitectura biodigital El proyecto tiene como objetivos a largo plazo: la producción de energía eléctrica limpia mediante paneles solares, el desarrollo de un invernadero para el cultivo de alimentos, la producción de agua para riego y consumo, la producción de biomasa para combustible, la obtención de subproductos como la sal y la regeneración de áreas desérticas. En el futuro se prevé la instalación de una nueva planta en el desierto de Jordania. Un segundo ejemplo interesante al respecto es el Teatro Acuático de Las Palmas, diseñado por el arquitecto británico Nicholas Grimshaw. El proyecto se encuentra ubicado en la zona portuaria de Santa Catalina, en Las Palmas, Gran Canaria, España. Un diseño biológicamente inspirado, que busca regenerar un área industrial y transformarla en un paseo marítimo con una cubierta ligera de 3 km para crear un parque y un bloque de alojamiento de uso mixto en los embarcaderos (Pawlyn, 2011, pp. 65-75). Fig. 21. El proceso comienza cuando el agua de mar es conducida al muro principal ubicado a barlovento para El proyecto busca explotar los recursos del lugar, utilizando para ello la que el agua en contacto con el aire abrupta pendiente de la playa, su relación con el agua fría cercana del caliente del desierto se evapore. Este mar, y la dirección constante de los vientos. proceso enfría y humidifica el aire que ingresa al interior del espacio. Un sistema autosuficiente (evaporadores y condensadores) que busca convertir el agua de mar en agua potable mediante medios naturales, y desarrollado a través de una tecnología limpia. Para ello, el sistema prevé una serie de altas y verticales “branquias”, ubicadas con orientación noreste (frente al mar y a los vientos constantes). Este procedimiento está compuesto de dos elementos: los evaporadores y los condensadores. 1. Evaporadores: inicialmente, el sistema bombea el agua caliente de la superficie del mar, que pasa a través de las branquias. A medida que el viento sopla a través de las branquias, parte del agua de mar se evapora y deja como subproducto sal de mar. Con el fin de regular el caudal de aire que pasa por el sistema, se ubicaron una serie de persianas metálicas, las cuales incorporan paneles solares que proporcionan el calor necesario para calentar los evaporadores. Esto genera un sistema de energía renovable, de bucle cerrado. 2. Condensadores: el aire limpio y húmedo continúa su recorrido hasta chocar con una nueva serie de tuberías verticales de condensación. Esta tubería se mantiene fresca debido al bombeo de agua fría de mar, tomada a una profundidad superior a los 1000 metros por debajo de su superficie (a esa profundidad, el agua se mantiene a una temperatura constante de 8ºC). A medida que el aire húmedo y caliente choca con la tubería fría, este se condensa y cae a un receptáculo en donde se recoge el agua dulce necesaria para abastecer a un complejo de 70.000 m2. El proceso se completa con un sistema de bombas de agua impulsadas mediante turbinas eólicas. 321 Parte IV. La génesis de un nuevo paradigma Fig. 22. Un sistema autosuficiente (evaporadores y condensadores) que busca convertir el agua de mar en agua potable mediante medios naturales, y desarrollado a través de una tecnología limpia. 322 Fig. 23. El sistema prevé una serie de altas y verticales “branquias”, ubicadas con orientación noreste (frente al mar y a los vientos constantes). Este procedimiento está compuesto de dos elementos: los evaporadores y los condensadores. Marcelo A. Fraile - Arquitectura biodigital Teoría de enjambre Modelos digitales bioinspirados Las abejas se alojan en colmenas con una estricta subdivisión del trabajo: las abejas obreras, los zánganos o la abeja reina, cada uno cumple una función dentro de este perfecto sistema natural. Cada colmena extiende sus dominios a través de un extenso territorio. A fin de optimizar su búsqueda de flores, las abejas exploradoras son las encargadas de buscar alimento e indagar la mayor concentración de flores de un área, tarea que desarrollan instintivamente en un refinado comportamiento aleatorio desarrollado a través del paso de millones de generaciones. Al regresar al panal, las obreras exploradoras realizan un “baile” en una zona determinada de la colmena. Conceptualmente, esta danza configura un lenguaje corporal, denominado “lenguaje de las abejas”, el cual fue descubierto en 1919 por el profesor vienés Karl von Frisch (1886-1982). Mediante movimientos vibratorios del abdomen, las abejas exploradoras informan al resto de las abejas de la colmena dónde se encuentra la fuente de alimento más cercana. En esta danza, las abejas obreras son atraídas a observar el baile a través de un sonido emitido por las exploradoras. De acuerdo con la duración del ritual, las exploradoras expresan, por ejemplo, la distancia de la fuente de alimento; de acuerdo con la orientación del baile, indican la posición del sol respecto del área donde se concentran las flores; y según su insistencia, la calidad del alimento encontrado. Finalizado el espectáculo, las abejas obreras actuarán de acuerdo con las exploradoras que más les impresionaron, que coincide con el mejor alimento encontrado. Su genialidad radica en seguir un complejo lenguaje, pese a su reducida inteligencia, donde una gran cantidad de individuos con mínima capacidad cognitiva son capaces de resolver problemas complejos a través de seguir un número limitado de simples reglas: cada abeja tiene solo noción de su posición y de la de sus inmediatas compañeras, pero como parte del enjambre, cientos de abejas interactúan entre sí, pudiendo cambiar de actitud cuando la situación lo amerite de un modo uniforme, en cuestión de segundos. De esto se desprende el concepto de Swarm Intelligence (SI, inteligencia de enjambre), un término que procede originalmente de la biología y que ha sido adoptado por una rama de la investigación de la inteligencia artificial para explicar el comportamiento colectivo de los sistemas descentralizados, exhibidos por animales de tamaño similar. Sistemas autoorganizados, inspirados “…en la forma colectiva de actuar de sociedades muy poco complejas, com- 323 puestas por individuos muy poco sofisticados” (Duarte Muñoz, Pantrigo Fernández, & Gallego Carrillo, 2007). En la naturaleza, existen numerosos ejemplos de este tipo de sociedades: bancos de peces, colonias de hormigas o bandadas de pájaros, comunidades que se comportan como si fueran un único individuo. Una inteligencia que emerge de entidades simples, con “capacidad censora”, que frente a los estímulos del medio manifiesta una conducta colectiva que le permite resolver problemas con una gran creatividad. En la teoría de inteligencia de enjambre, lo individual es reemplazado por lo comunitario: el comportamiento colectivo viene definido por la interacción local entre agentes, con el fin de obtener un funcionamiento global coherente. Una inteligencia colectiva superior a la suma de sus partes, basada en el concepto de caos de la escalabilidad: un comportamiento no programado, sin una estructura de control centralizada que dirija su conducta, su interacción conduce hacia un actuación global y compleja. En una colonia o enjambre, cada miembro posee una inteligencia reducida, pero en conjunto, como colonia, su conducta es inteligente. Parte IV. La génesis de un nuevo paradigma A diferencia de una estructura jerárquica humana, con directores o supervisores, en un enjambre no existe nadie que gobierne el sistema. Su resultado es la consecuencia de una propiedad emergente, una correlación del funcionamiento individual e independiente de cada parte, ya que al no existir una estructura central de control que determine la estrategia a seguir, cada componente mantiene cierta independencia, salvo la cooperación entre componentes próximos: y “aunque los agentes sean simples, el resultado de su interacción global puede llegar a ser muy complejo (como la realización de movimientos prácticamente al unísono o estrategias de protección frente a depredadores)” (Duarte Muñoz et al., 2007). Inteligencia de enjambre El primero en hablar de inteligencia de enjambre fue el filósofo y escritor de ciencia ficción británico William Olaf Stapledon (1886-1950) en 1930, en su libro “Last and First Men: A Story of the Near and Far Future”4 donde narra una serie de células individuales que se comunicaban entre sí por medio de ondas de radio. Tiempo después, en 1986, el programador de computadoras Craig W. Reynolds desarrollaría Boid5: un programa de vida artificial que permitía visualizar el comportamiento emergente de una bandada de pájaros digitales (boids). En el modelo computarizado, cada boid elegía su propio curso y navegaba en función de la percepción del entorno dinámico que gobernaba su movimiento, el cual estaba regido por las tres reglas básicas de comportamiento de un enjambre: separación, alineación y cohesión. - Separación: capacidad de los entes de mantener una separación mínima con sus vecinos, evitando que estos se amontonen. - Alineación: capacidad de los entes de alinearse con sus vecinos cercanos. 324 - Cohesión: capacidad de los entes de acercarse a otros entes y formar un grupo con los entes cercanos, evitando colisionar con sus vecinos. Fig. 24. Danza de las abejas. Los boids trataban de volar juntos, evitando colisiones entre ellos y con su entorno cambiante. Su comportamiento era el resultado de la interacción de los comportamientos individuales. Un patrón de conducta social desarrollado por animales de tamaño similar agrupados entre sí. Poco tiempo después, en 1989, los profesores estadounidenses de ingeniería eléctrica Gerardo Beni, Susan Hackwood y Jing Wang, introducirían el concepto de inteligencia de enjambre dentro del contexto de los sistemas robóticos móviles para describir el comportamiento colecti4. Stapledon, W. (1930). Last and First Men: A Story of the Near and Far Future, London: Metheus. 5. Acrónimo de “bird-oid object”. Una referencia a un objeto parecido a un ave. Su pronunciación es similar a pájaro, pronunciado con estereotípico acento de Nueva York. Marcelo A. Fraile - Arquitectura biodigital vo emergente. Desde este punto de vista, un enjambre se compone de agentes que establecen relaciones de cooperación entre sí para conseguir un objetivo predefinido. En 2013, los físicos Maksym Romensky y Vladimir Lobaskin de la University College de Dublín, Irlanda, –estudiando la autoorganización dinámica y la transición orden-desorden dentro de un sistema bidimensional de partículas autopropulsadas–, descubrieron nuevas propiedades colectivas de la dinámica de los enjambres. Utilizando simuladores digitales a partir de modelos físicos, comenzaron a estudiar los parámetros de orden de las partículas en relación con sus vecinas. Los científicos analizaron el comportamiento de 10.000 animales digitales individuales moviéndose a una velocidad constante sobre una superficie plana. A partir de estos estudios, Romensky y Lobaskin midieron el comportamiento de estos animales dentro de un enjambre: comportamiento que depende de la cantidad de individuos, de su posición topográfica dentro del modelo y de su proximidad con otros entes. Como resultado de estas investigaciones, una nueva frontera comenzó a adquirir gran relevancia dentro de este contexto tecnológico digital. Un nuevo escenario que podría permitir el desarrollo de una inteligencia artificial que podría ser usada en un sinnúmero de aplicaciones: desde el mapeo de datos hasta el ensamblaje de elementos utilizando nanorrobots. Pese a sus grandes ventajas, este modelo suscita grandes inquietudes relacionadas con su control dado que, a diferencia de un sistema tradicional, al no contar con un control central, una vez iniciado el proceso, sería difícil de apagar. Swarm conduct En esencia, nuestras ciudades son un conjunto de individuos que operan bajo las leyes de un sistema dinámico adaptable, basado en la interacción con sus vecinos. Una población compuesta por un gran número de pequeños elementos discretos, que muestra un comportamiento sofisticado entre sus partes (Leach, 2009, pp. 56-63). Un grupo de personas que, en determinadas situaciones, puede exhibir un comportamiento de enjambre. Steven Johnson, en su libro “Emergence: The Connected Lives of Ants, Cities and Software”6, definió la inteligencia de enjambre como un modelo que podía ser utilizado en múltiples escalas para examinar y comprender el comportamiento de los individuos dentro de un proceso generativo de diseño. Un sistema dinámico adaptable, de interacción, que podía ser capaz de optimizar un objetivo común a través de una búsqueda colaborativa. 6. Johnson, S. (2004). Emergence: The Connected Lives of Ants, Cities and Software, New York: Scribner. 325 Fig. 25. Inteligencia de enjambre: regido por las tres reglas básicas de comportamiento de un enjambre: separación, alineación y cohesión. Parte IV. La génesis de un nuevo paradigma La comprensión de los modos en que la naturaleza se autoorganiza puede conducirnos a predecir patrones de comportamiento colectivo dentro de las ciudades: una técnica para entender los procesos dinámicos desde una serie de operaciones colectivas, centradas en el flujo de la información, el movimiento de vectores y agentes digitales que interactúan dentro de un medioambiente definido. A través del uso de modelos paramétricos digitales “bioinspirados”, es factible ampliar las posibilidades de experimentación, interacción y optimización de variables que permitan entender, predecir, y posteriormente solucionar, toda una serie de problemas dentro de una ciudad contemporánea. En los últimos tiempos, la inteligencia de enjambre fue estudiada por los científicos para hacer frente a emergencias tales como accidentes naturales, incendios, o terrorismo dentro de una ciudad: algoritmos que modelan el comportamiento colectivo de los individuos en una evacuación y que permiten entender su actuación y definir con precisión las rutas más eficientes de salida. Una experimentación incipiente entre lo biológico y lo digital que confluye en un nuevo campo científico y tecnológico. Un proceso artificial complejo donde la autonomía emergente de cada individuo reemplaza la figura de un control centralizado. Una aplicación basada en modelos que utilizan multiagentes virtuales para la planificación de estrategias eficientes en diversas escalas. Modelos variables, sensibles a las condiciones del contexto durante el proceso de diseño: una posibilidad de análisis, simulación y evaluación de múltiples versiones o variaciones. El análisis del espacio urbano se realiza utilizando un gran número de entes virtuales denominados “partículas”. En cada sistema, las partículas pueden representar personas, edificios, vehículos, vías de circulación, espacios públicos, etcétera. Estas partículas se distribuyen sobre el espacio que debe ser analizado y se transforman en un enjambre informal de puntos de referencia. Un enjambre de puntos elementales que siguen, en tiempo real, un conjunto de reglas simples, y que están en proceso de construir relaciones entre sí. Un enjambre de puntos que, al igual que las abejas, actúan como nodos activos, comunicándose con sus compañeros en tiempo real y siguiendo reglas básicas: moverse en la misma dirección que sus vecinos, permanecer cerca y evitar colisionar con estos. En consecuencia, cada agente sigue a su vecino inmediato, calculando estas reglas varias veces por segundo, pero sin tener conocimiento consiente del grupo general. 326 De este modo, la posición de cada punto, determinada por coordenadas, representa los valores que toman las variables de decisión del problema. Cada partícula produce un resultado que estará en función de la posición actual y de la posición esperada. En cada interacción, el algoritmo adoptado modifica la posición del individuo, utilizando un vector de velocidad asociado a la partícula, buscando encontrar caminos a través de un espacio de parámetros que representan posibles soluciones alternativas (Duarte Muñoz et al., 2007). Los puntos se transforman en una malla flexible que permite la inclusión de diferentes tipos de construcciones urbanas para generar redes de infraestructura y circulación, formas fluidas y densas, capaces de acoplar las nuevas estructuras a las estructuras existentes de un modo más eficiente. Dentro de una planificación por enjambre, la ciudad ha dejado de estar formada por objetos estáticos: los diseñadores consideran la ciudad y los edificios como un enjambre de instalaciones interactivas. La inteligencia de enjambre puede ser utilizada para la planificación arquitectónica y urbana a través de un proceso de simulación digital de agentes en el espacio, definiendo y determinando sus limitaciones para llegar al equilibrio del sistema. Marcelo A. Fraile - Arquitectura biodigital Tomemos un ejemplo: utilizando modelos de urbanismo de enjambre, intentaremos situar 1000 viviendas unifamiliares dentro de un área por urbanizar, de baja densidad. Inicialmente, el sistema se organizará de un modo específico, manteniendo ciertas distancias entre los agentes individuales. Un sistema complejo a través de tres reglas simples: 1) Evitar acercarse demasiado a otras viviendas; 2) construir una trama con las viviendas cercanas y; 3) permanecer cerca de las otras viviendas. De acuerdo con una serie de algoritmos paramétricos, cada casa fijará su posición en relación con su vecina. Un comportamiento abierto que permite que si uno de los agentes cambia de posición, el sistema responderá a este nuevo parámetro redefiniéndose. Y dado que este tipo de diseño posibilita que diferentes enjambres interactúen al mismo tiempo durante el proceso, podremos crear un enjambre de calles, otro de plazas y otro de edificios públicos, interactuando entre ellos de forma conjunta hasta llegar a reproducir digitalmente la complejidad de una ciudad contemporánea. El reto en este proceso será encontrar las normas más eficaces para generar dicha complejidad: algunas reglas pueden producir vida, otras aburrimiento, e incluso otras la muerte de la colmena. Un sistema de prueba y error que provocará millones de resultados posibles y un número infinito de versiones o variaciones. Y es precisamente allí donde la tarea del diseñador será fundamental, definiendo la interacción entre los agentes. El diseñador deberá ajustar los parámetros y buscar las reglas para desarrollar un sistema en equilibrio, que permita optimizar el enjambre manteniendo vivo el proceso. Un ejemplo de la inteligencia de enjambre aplicado es Kokkugia. Una plataforma de investigación y desarrollo establecida en 2004, con sede en Londres y Melbourne, dirigida por una red de jóvenes arquitectos australianos: Roland Snooks y Robert Stuart-Smith. Kokkugia tiene como objetivo la exploración de metodologías de diseño generativo desarrolladas a partir de conductas de autoorganización de los sistemas biológicos, sociales y materiales. En 2009, Kokkugia desarrolló el proyecto de remodelación para Docklands, Melbourne, en Australia: una red urbana en crecimiento que se transformaría en la ampliación del distrito de negocios. Una propuesta especulativa flexible que utilizó metodologías de diseño emergente aplicadas en el urbanismo: técnicas de simulaciones basadas en inteligencia de enjambre para generar relaciones programáticas y respuestas arquitectónicas. Un 327 control indirecto que utilizaba algoritmos basados en eventos, a fin de obtener los resultados deseados: propuestas innovadoras que permitieron crear soluciones que incorporan una compleja serie de parámetros de diseño. Conceptualmente, Kokkugia implica la interacción local de agentes autónomos: en lugar de elaborar un plan urbano, los diseñadores programaron un conjunto de agentes capaces de autoorganizarse y generaron un sistema apto para responder de un modo flexible a las cambiantes condiciones políticas, económicas, culturales y sociales del entorno. Para Roland Snooks, Docklands es una comprensión de la naturaleza emergente en los espacios públicos, centrándose en el comportamiento en tiempo real de insectos sociales digitales que actúan de acuerdo a precisas reglas previamente establecidas. Un diseño optimizado de acuerdo al comportamiento de sus vecinos y de las huellas dejadas por estos en el entorno. Una adaptación colectiva que se modifica de acuerdo a las fuerzas exteriores del medioambiente. Para Kokkugia, la preocupación no se encuentra en simular las condiciones actuales, sino en idear las operaciones y procesos que involucren un diseño emergente de las ciudades: un cambio de pensamiento que Parte IV. La génesis de un nuevo paradigma seño optimizado de acuerdo al com- reemplaza los planes maestros por algoritmos-maestros, un proceso flexible que sincroniza las decisiones micro y macro producidas durante portamiento de sus vecinos y de las el diseño. Fig. 26. Melbourne, Australia. Un di- huellas dejadas por estos en el entorno. Una adaptación colectiva que se modifica de acuerdo a las fuerzas exteriores del medioambiente. Poco tiempo después, en 2009, Annie Chan y Yikai Lin desarrollaron “Ant Urbanism”, un proyecto para el área que ocupa actualmente el aeropuerto de la ciudad de Taipéi: utilizando inteligencia de enjambre, Chan y Lin desarrollaron una serie de vías basadas en el principio de los rastros de feromonas que dejan las hormigas en su camino. Un proceso generativo de retroalimentación no lineal capaz de formar a través de un proceso lógico de adaptación un diseño emergente de autoorganización. Un enfoque algorítmico que permite encontrar rápidamente las rutas más cortas tal como lo haría una colonia de hormigas o un enjambre de abejas. 328 Un proceso de evolución que posibilite prever en un futuro inmediato el camino de la evolución de la ciudad. Un instrumento planificador capaz de dar respuesta a los impulsos, interacciones y factores imprevisibles de sus habitantes. Una capacidad de adaptarse a las necesidades cambiantes mediante herramientas de última generación que permiten explorar nuevas teorías urbanas, como el proyecto planteado por David Gerber y Rodrigo Shiordia López para un área contaminada de la ciudad de México, que propone un diseño de la infraestructura a gran escala como un apoyo a la revitalización urbana (Gerber & Shiordia López, 2013). El diseño de Gerber y Shiordia López utiliza un sistema abierto de enjambre compuesto por un grupo de multiagentes robóticos digitales que reacciona a la red de riego de áreas edificables y contaminadas. Una metodología de investigación y experimentación a través de agentes digitales cuyo enfoque generativo propone nuevas posibilidades para la rehabilitación de los espacios contaminados. Marcelo A. Fraile - Arquitectura biodigital Para ello, se despliega un número determinado de agentes, los cuales se dirigirán a las zonas de menor salinidad, ya que es allí el lugar con mayor potencialidad para albergar especies de plantas y promocionar la regeneración natural. Por contraposición, las zonas con alta salinidad serán destinadas para ubicar las áreas urbanas. Desde la ciudad al edificio, la teoría de enjambre es un enfoque emergente que permite tomar decisiones rápidas, sirviéndose de la inteligencia colectiva: un modelo basado en el comportamiento de una población donde individuos digitales con poca inteligencia, bajo nivel de comunicación entre sí, y dentro de un espacio predefinido, exhiben un comportamiento colectivo inteligente y autoorganizado de carácter global que no sigue a un líder o un plan global. Un modelo ideal para ser aplicado para la planificación de transportes, telecomunicaciones y protocolos de red. Un sistema colaborativo, con una interfaz gráfica, que permite la interacción, comunicación y colaboración entre los diferentes agentes digitales. Una exploración de los beneficios del uso de sistemas de enjambres centrados en la infraestructura a partir del uso de algoritmos paramétricos para su optimización analítica. Sistemas adaptativos a las necesidades cambiantes que constituyen la base de la nueva planificación. Herramientas biodigitales que exploran nuevas teorías urbanas y abren la puerta a infinitos resultados. Las enseñanzas de la naturaleza para el nuevo milenio Las actividades humanas han producido un fuerte desequilibrio en el medioambiente, al alterar el ecosistema y ocasionar la extinción de un número alarmante de formas de vida. Para la investigadora norteamericana Janine Benyus, la humanidad se encuentra en una etapa importante de su evolución. Como especie, nos hemos expandido en número y territorio hasta límites extremadamente peligrosos, ahora somos demasiados y nuestro hábitat ya no es sostenible: “…envueltos en nuestra propia versión del conocimiento, hemos sido poco receptivos a la sabiduría del mundo natural” (2012). En este punto, para Benyus, existen cuatro pasos que deberemos seguir, si pretendemos llegar a un futuro biomimético en armonía con el ecosistema. En primer lugar, sumergirnos en la naturaleza, bajo una lógica de reconectarnos con el medioambiente, permitiéndonos aprender de este; en segundo lugar, un acercamiento a pensar el medioambiente desde su flora y su fauna, descubriendo sus talentos, sus trucos de supervivencia y su rol dentro del ecosistema; en tercer lugar, desarrollar un equipo colaborativo entre biólogos e ingenieros, fijando la naturaleza como modelo y como medida; y finalmente, en cuarto lugar, preservar la diversidad de la vida, que es precisamente allí donde se garantiza el equilibrio para llegar a recursos naturales disponibles (Benyus & Leal, 2012). Fig. 27. Ant urbanismo. Un instrumento planificador capaz de dar respuesta a los impulsos, interacciones y factores imprevisibles de sus habitantes. 329 Parte IV. La génesis de un nuevo paradigma Fig. 28. El proyecto ciudad de México utiliza un sistema abierto de enjambre compuesto por un grupo de multiagentes robóticos digitales que reacciona a la red de riego de áreas edificables y contaminadas. Estamos en una carrera de rescate donde no existen los segundos lugares. Desde este punto de vista, la innovación, la tecnología y la biología se revelan como las claves para afrontar el incremento de la demanda energética y el cambio climático de este nuevo milenio. Para el filósofo francés Michel Serres (1930), “estamos frente a una nueva humanidad”, una humanidad que domina la tecnología de la creación, una tecnología que posibilita el nacimiento, la reproducción y la sexualidad, alejándonos cada día más de la muerte. Por su parte, el zoólogo Juliant Vincent considera que todavía estamos en un 10% de transferencia entre biología y tecnología, se precisa de una nueva mirada más audaz que nos permita afrontar estos desafíos. 330 Se necesita de un proceso más eficaz de traducción, un puente que vincule los diseños de la naturaleza con el campo de la tecnología: pues mientras la evolución genera un sistema de control detallado y profundo, la tecnología elabora modelos de respuesta global centrados en la modificación de un reducido número de parámetros. Para la biología, la respuesta se desarrolla en diferentes escalas, en tanto que para la tecnología, esta se da siempre en la misma escala. En el campo de la disciplina, la arquitectura biomimética añade una nueva capa de información. Sistemas especialmente modificados que asocian lo tecnológico con lo ecológico, en un nuevo proceso de diseño y materialización, donde cada proyecto es único e irrepetible. Una realidad híbrida, una realidad de modelos tecnológicos bioinspirados, sistemas nanos, estructuras de crecimiento arborescentes, inteligentes, flexibles y autosuficientes, que desencadenan nuevos procesos y nuevas lógicas de transformación de la realidad física producida por el hombre. Un diseño biológico, donde las computadoras son como los nuevos hornos de los cuales emergen de lo profundo nuevos organismos con sus respuestas. Marcelo A. Fraile - Arquitectura biodigital Figuras Fig. 1. a la Fig. 6. Arizona Tower/ Bio-Tower. www.exodesic.org/TrussImages/ DBA2-150-pdf Fig. 7. a la Fig. 9. Water-base Digital Fabrication Platform. http://matter.media. mit.edu/environments/details/water-based-digital-fabrication-platform Fig. 10. y Fig. 11. Ocean Pavilion. https://www.semanticscholar.org/paper/ DESIGNING-THE-OCEAN-PAVILION-Biomaterial-Templatin-Mogas-SoldevilaDuro-Royo/34637602502a8215bd5828709326c092844b416c Fig. 12. a la Fig. 15 y Fig. 17. Pabellón de Seda. https://www. plataformaarquitectura.cl/cl/02-290166/pabellon-de-seda-mit-media-lab Fig. 16. Mushtari. http://www.materialecology.com/projects/details/ mushtari#prettyPhoto Fig. 18. a la Fig. 21. The Sahara Forest. http://aasarchitecture.com/2012/11/ sahara-forest-project.html Fig. 22. Teatro del agua. http://www.cladglobal.com/architecture-designfeatures?codeid=29664 Fig. 23. Teatro del agua. http://pruned.blogspot.com.ar/2007/06/teatro-del-agua. html Fig. 24. Danza de las abejas. http://ecocolmena.com/wp-content/ uploads/2013/07/Direction-figure.jpg Fig. 25. Inteligencia de enjambre. http://daniel.faus.at/wp-content/ uploads/2014/10/UltimateUrban0.jpg Fig. 26. Proyecto Melbourne, Australia. http://www.kokkugia.com/swarmurbanism http://www.architizer.com/firms/kokkugia Fig. 27. Ant Urbanism. https://neilleach.wordpress.com/teaching/studio-work/anturbanism/ Fig. 28. Proyecto ciudad de México. Gerber, D., Shiordia López, R. (2013) Context-Aware. Multi-Agent Systems. Negotiating Intensive Fields, California: University of Southern California. 331 Marcelo A. Fraile - Arquitectura biodigital ARQUITECTURA GENÉTICA Leonardo Da Vinci, era un gran observador de la naturaleza,“… estaba realmente fascinado por el vuelo de los pájaros… Meditaba continuamente sobre la forma de sus alas, la frecuencia de su movimiento, la estructura interna de sus huesos, piel, plumas, nervios… e intentaba continuamente comprender por qué los pájaros eran capaces de volar”. (De Garrido, 2012). Salvador Dalí y la biología Con frecuencia, el arte se adelanta a la ciencia en su carácter de anticipador y revolucionario. Uno de estos casos es el del pintor español surrealista Salvador Dalí (1904-1989). En Dalí, su relación con la ciencia comenzó desde su adolescencia y se prolongaría a lo largo de toda su vida. Sus pinturas contienen una síntesis, en etapas, de los contenidos extraídos de esta: desde el mundo de los sueños de Sigmund Freud, pasando por la bomba atómica y la fusión del átomo, hasta las influencias producidas durante la década del 60 por la genética, el ADN y su estructura. Con respecto a la genética, Dalí incorporaría estas teorías en diferentes pinturas. Una de las primeras obras al respecto es Butterfly Landscape. The Great Masturbator in a Surrealist Landscape with D.N.A. (Paisaje con mariposas. El Gran Masturbador en paisaje surrealista con ADN) de 1957, en donde aparece una secuencia del ADN alrededor de la cual sobrevuelan algunas mariposas (Urbano, 2016). Para Daniel López del Rincón, profesor de la Universidad de Barcelona, esta obra se trata de un autorretrato doble: por un lado, surrealista (representado en el Gran Masturbador); y por el otro, genético (representado en la estructura del ADN). En esta elucidación, las mariposas revoloteando entre ambas figuras actuarían a modo de mensajero, una alusión al ARN (2015). Otra obra también dedicada al ADN es Galacidalacidesoxiribonucleic, de 1963, donde pinta una reinterpretación de la molécula del ADN a partir de figuras de árabes con fusiles (Urbano, 2016). Formas cubicas regulares que representan el concepto de la creación a través de una perfecta distribución geométrica de sus elementos. Ese mismo año, Dalí desarrolla un collage titulado Homenaje a Crick y Watson, en donde aparecen dos retratos fotográficos de los científicos. En la parte inferior, sitúa una imagen de la estructura molecular del ADN sobre la que dibuja pequeñas figuras humanas con bastones que parecen componer la estructura, desempeñando la función del ARN (López del Rincón, 2015). Posteriormente, en 1975, Dalí pintaría La escalera de Jacob y comenzaría a desarrollar La estructura del ADN, dos claras alusiones al ARN y la molécula del ADN. Fig. 1. Dalí, S. (1957). Butterfly Landscape. The Great Masturbator in a Surrealist Landscape with D.N.A. 333 Parte IV. La génesis de un nuevo paradigma Con el tiempo, estas tendencias biológicas en el arte se extenderían a diversos representantes, experimentando un auge creciente con la llegada de la informática, durante la década de 1990, y con la introducción de herramientas genéticas, a comienzos del siglo XXI, lo que llegó a producir un importante salto hacia lo que se conoce como bioarte. El bioarte En 2014, Ted Lawson (1970), un reconocido artista de origen estadounidense, comenzó a trabajar con una técnica llamada “Drawing Blood” (dibujando con sangre). Esta técnica consiste en un dispositivo que extrae por vía intravenosa la sangre de Lawson y la conduce a una máquina CNC (controlado numéricamente por computadora) modificada, para que dibuje con esta sobre un lienzo, un autorretrato en tamaño natural del artista. Fig. 2. Dalí, S. (1963). Galacidalacidesoxiribonucleic. El dibujo inicial de esta serie, llamado “Ghost In The Machine”, fue el resultado de miles y miles de líneas de código fuente, escritas para que la máquina CNC pudiera imprimir el dibujo. Este y otros trabajos de Lawson fueron expuestos el 11 de septiembre de 2014, en una muestra individual titulada “The Map is Not the Territory” (El mapa no es el territorio), que tuvo lugar en la galería Joseph Gross de Nueva York: “…una exploración de la experiencia existencial humana a través de los modelos imaginarios del universo como la forma física” (Lawson, 2014). Para la producción de esta obra, Lawson debió pasar horas “conectado” a la máquina vertiendo su sangre, mientras el cabezal robot de la “impresora” se movía sigilosamente, desarrollando su trabajo: como una escena futurista salida de una película de Ridley Scott, un ciborg artista sentado en su laboratorio observaba distraídamente mientras creaba abstracciones orgánicas utilizando su líquido vital como materia prima. 334 Claro está, la obra de Lawson no es la primera vez que el arte nos impacta de ese modo: son incontables los momentos en que este y la ciencia se han unido para generar grandes debates en torno de sus creaciones. Artistas de la talla del británico Damien Hirst1, el londinense Neil Harbisson2, o el alemán Gunther von Hagens3 fueron cuestionados, no reconocidos, e incluso rechazados por las singularidades de sus obras. Desde la moda de piercing hasta las cirugías estéticas, son los precursores de una nueva época definida por la “…automodelación genómica” (Bratton, 2002): una de las corrientes artísticas más atrevidas y de mayor vigencia de los últimos años. Inspirado en el uso de la biotecnología, el bioarte o arte transgénico, utiliza materiales orgánicos ajenos o propios, como recursos artísticos para expresarse: animales, plantas, genes u órganos humanos, nada está vedado en su práctica. 1 Mother and Child (Divided), 1993, Damien Hirst. 2 Eyeborg, 2004, Neil Harbisson y Adam Montandon. 3 Body Worlds, 1996, Gunther von Hagens. Marcelo A. Fraile - Arquitectura biodigital Para el profesor López del Rincón, “el término bioarte es un neologismo aparecido a principios del siglo XXI para designar genéricamente a un conjunto de prácticas artísticas que relacionan arte, biología y, muy frecuentemente tecnología” (2015). El primer antecedente conocido de bioarte puede rastrearse hasta 1995, cuando el Dr. Joseph Vacanti (1948), un cirujano especialista en trasplantes de la Universidad de Massachusetts, y Linda Griffith-Cima (1960), una ingeniera química, implantaron un cartílago con forma de oído humano bajo la piel de un roedor calvo: una “…representación de las génesis de una época donde es clara la reestructuración por elección de lo que es el cuerpo visto como máquina, y lo que es la máquina vista como cuerpo” (Bratton, 2002). Y, a pesar de que esta acción respondía exclusivamente a objetivos científicos, lo cierto es que este experimento impactó en un grupo de artistas que vieron en esta tecnología un nuevo modo de manifestarse. Uno de los proyectos mejor conocidos de bioarte de este siglo es Alba, del artista brasileño Eduardo Kac (1962), un conejo modificado genéticamente para brillar en la oscuridad. En una búsqueda de nuevas relaciones con el mundo de la genética, Kac inyectó al conejo proteínas verde fluorescente (GFP), extraídas de las medusas Aequiorea Victoria. Al exponer al animal a la luz azul con un nivel de excitación máximo de 488 nanómetros, este emite una luminiscencia verde4. A través de un progreso tecnológico, el bioarte construye nuevos discursos atrayentes que involucran la ciencia, la biología y el arte, ampliando las fronteras de nuestro conocimiento. Fig. 3. En 2014, Ted Lawson comen- Entre el 2000 y el 2001, Kac desarrolló El octavo día: una obra de arte que investiga esta nueva ecología. El proyecto consistía en una semiesfera en cuyo interior se encontraba una ecología transgénica modificada genéticamente para producir un brillo verde al ser expuesto a la luz azul. Para una investigación más precisa, Kac introdujo un “biobot”: un robot con elementos biológicos activos dentro de su cuerpo, que le permitía tener una perspectiva en primera persona del ecosistema transgénico. en un dispositivo que extrae por vía El bioarte supone para los artistas el nacimiento de una nueva ecología, una manipulación de organismos vivos sin un límite claro al respecto, llevándolos a veces a poner en jaque incluso la propia naturaleza de su cuerpo. Este es el caso del artista de performance australiano Stelios Arcadiou (1946), mejor conocido como Stelarc, quien en 1996 se embarcó en “extra ear”, uno de sus desafíos más audaces y que le llevaría diez años poder concretarlo. El proyecto consistía en el implante de una oreja en 4 El proyecto recibió la colaboración del artista Louis Bec y de los científicos Louis-Marie Houdebine y Patrick Prunet, del Instituto Nacional de la Investigación Agronómica de Francia. Dado el enérgico debate que produjo, los responsables del Instituto de Investigación Agronómica de Francia, donde Alba fue creada, decidieron no entregar el animal a Kac, quien pretendía convertirlo en la mascota de su familia. zó a trabajar con una técnica llamada “Drawing Blood”. Esta técnica consiste intravenosa la sangre de Lawson y la conduce a una máquina CNC modificada, para que dibuje con esta sobre un lienzo, un autorretrato en tamaño 335 natural del artista. Parte IV. La génesis de un nuevo paradigma la parte interna de su antebrazo izquierdo. Para Stelarc “…es un órgano telemático, en vez de biológico. [Su] trabajo no tiene nada que ver con la cirugía estética, ni con la búsqueda de un ideal de belleza, sino con la posibilidad de ampliar el sistema sensorial” (Bosco, 2007). Luego de una cirugía que involucró a tres cirujanos, el artista pudo obtener su implante bajo la piel del brazo: una prótesis biológica hecha de un material biocompatible utilizado comúnmente en la cirugía plástica. Pero esto recién comenzaba; mediante el empleo de células madres, los especialistas deberían hacer crecer el lóbulo y darle forma para que posteriormente fuera posible despegar el pabellón. Finalmente, se instalaría un micrófono que a través de la tecnología bluetooth se conectaría con internet para permitir que la gente de todo el mundo fuera capaz de “sintonizar” las 24 horas del día, lo que el artista escuchaba. Interesado en las posibilidades de repensar y rediseñar el cuerpo humano, Stelarc centra su investigación en la búsqueda de nuevas arquitecturas anatómicas, que en el caso de extra ear replica una estructura del cuerpo, no solo para oír sino también para transmitir. La biología provee una de las más importantes fuentes de inspiración para su investigación. Sin embargo, para el artista australiano, el cuerpo humano es una realidad obsoleta, es por esto que en sus investigaciones cuestiona constantemente la naturaleza: utiliza su organismo y lo combina con partes nanorrobóticas, dispositivos electrónicos, y más recientemente con realidad virtual y tecnología wi-fi. Fig. 4. Kac inyectó al conejo proteínas verde fluorescente (GFP), extraídas de las medusas Aequiorea Victoria. Al exponer al animal a la luz azul con un nivel de excitación máximo de 488 nanómetros, este emite una luminiscen- 336 cia verde. Stelarc considera las prótesis no como algo faltante sino, por el contrario, como el síntoma de un exceso. Así, en lugar de reemplazar una parte carente o en mal funcionamiento, las interfaces y los dispositivos aumentan o amplían la forma y las funciones del cuerpo (Stelarc, 2015). En un mundo con una fuerte impronta tecnológico-genética, donde las fronteras multidisciplinares parecen esfumarse, no es extraño que el bioarte muchas veces sea confundido con el biohacking5. Quizás este sea el caso de las gotas de visión nocturna (biohack de visión nocturna) un compuesto denominado Clorina e6 (Ce6), fotosensible utilizado en ocasiones para el tratamiento contra el cáncer. Este compuesto fue inyectado al investigador Gabriel Licina en los tejidos conjuntivales, junto con unos lentes de contacto negros que le permitieron ver en la oscuridad. Para Licina, su experimento funcionó temporalmente durante seis horas y le permitió ver en condiciones de baja iluminación a una distancia de cincuenta metros. Un caso similar es el del estadounidense Rich Lee, con fuertes problemas auditivos, quien decidió someterse a una operación quirúrgica para implantarse imanes en sus oídos con el fin de mejorar sus habilidades 5. Se define como biohacking a la forma en que las personas modifican o alteran su cuerpo con la intención de ampliar las capacidades humanas: busca acelerar la evolución del Homo Sapiens a través de la tecnología. Desgraciadamente, son procedimientos extremos, los cuales generalmente no son realizados por doctores y se llevan adelante sin las condiciones mínimas de seguridad requeridas, lo que los convierte en extremadamente peligrosos. Marcelo A. Fraile - Arquitectura biodigital auditivas, lo que le permitió conectarse con diferentes equipos electrónicos sin cable. Las nuevas tecnologías biológico-digitales están trastocando la sociedad en la que vivimos, generan incertidumbre, pero también oportunidades para imaginar escenarios nuevos y valiosos: “cada cambio que sucede va a provocar mediatas o inmediatas transformaciones en el todo, cuyo valor y calidad, a su vez, depende de la densidad, la proporción, la cualidad y la presencia de los diferentes componentes” (Zátonyi, 2011). El bioarte, con su carácter innovador, ha permitido explorar diversos caminos y hoy es usado para crear obras polémicas: una nueva generación de artistas que no teme desafiar el paradigma ético de la manipulación genética. Un universo que ha dejado de ser una máquina para convertirse en un organismo. La era de las protocélulas De acuerdo con su definición, un organismo vivo es: “…un ‘conjunto de átomos y moléculas que forman una estructura material organizada y compleja, en la que intervienen sistemas de comunicación molecular, que se relaciona con el ambiente con un intercambio de materia y energía de una forma ordenada, y que tiene Fig. 5. Stelarc considera las prótesis la capacidad de desempeñar las funciones básicas de la vida que trario, como el síntoma de un exceso. son la nutrición, la relación y la reproducción” (Aresta, 2012, p. 17). Así, en lugar de reemplazar una parte De la definición anterior se desprende que, para que un sistema sea considerado como un organismo vivo, este debe cumplir con tres criterios específicos: en primer lugar, requiere de un cuerpo, un contenedor que lo separe del medioambiente a través de una membrana sintética semipermeable que le permita establecer relaciones químicas con el entorno; en segundo lugar, debe poseer un metabolismo, un proceso dinámico mediante el cual el organismo absorbe la energía necesaria para la vida y expulsa los productos de desecho –un proceso químico que convierte los recursos del entorno (materiales), en bloques de construcción para mantenerse y autoconstruirse–; y finalmente debe poseer información heredada, un sistema de almacenamiento de información química, guardada en su ADN o ARN y que transmitirá a su descendencia (Hanczyc, 2011). Un sistema con cuerpo y metabolismo será capaz del autoensamblaje, del movimiento, y de la evolución, pero si además presenta condiciones de información heredada, será posible crear una estructura superior, una especie de vida artificial capaz de evolucionar (Hanczyc, 2011). A este sistema se lo conoce como protocélula, “…un conjunto químico similar a la vida en forma de un sistema de células artificiales que es capaz de mantenerse, autorreproducirse y potencialmente evolucionar” (Spiller & Armstrong, 2011). Un modelo químico simplificado que reduce su complejidad a través de la disminución del número de moléculas que interactúan en cada célula, de millones a decenas (Hanczyc, 2011). no como algo faltante sino, por el con- carente o en mal funcionamiento, las interfaces y los dispositivos aumentan o amplían la forma y las funciones del cuerpo (Stelarc, 2015). Fig. 6. El bioarte, con su carácter inno337 vador, ha permitido explorar diversos caminos y hoy es usado para crear obras polémicas. Parte IV. La génesis de un nuevo paradigma Estamos siendo partícipes de un nuevo modo de contemplar el mundo: “El mundo como un organismo” (Oxman, 2016). Las nuevas tecnologías emergentes definen el comienzo de una nueva revolución. Un nuevo proceso biológico que desarrolla productos naturales sin materiales homogéneos ni ensamblajes. Las protocélulas son una nueva tecnología que semeja el procesamiento de la información existente en la biología: una “…etapa de transición hacia la creación de células completamente artificiales” (Spiller & Armstrong, 2011). Una forma intermedia entre el mundo inorgánico y el orgánico, una forma que posee algunos de los atributos rudimentarios de la vida, a la cual se le irán añadiendo gradualmente otros atributos en el transcurso de su desarrollo gracias a las acciones evolutivas del ambiente (Hanczyc, 2011). Las protocélulas no operan dentro de los procesos biológicos, no son necesariamente vivas, no han sido producidas a través de sistemas regulados mediante el ADN, su campo está gobernado por las leyes de la física y de la química. Y, a diferencia de los sistemas biológicos naturales que evolucionan de acuerdo a la teoría de Darwin, las protocélulas admiten intervenciones programadas “…para acumularse, dispersarse y reconfigurarse” (Iwamotto, 2011, pp. 112-121) lo que permite producir un número infinito de formas. Un sistema simbiótico con la naturaleza, una conexión físico-química que reacciona e interactúa a nivel poblacional con el medioambiente. Un ejemplo interesante al respecto, son las protocélulas basadas en la química del aceite y el agua, unas protocélulas simples que, mediante el autoensamblaje –una capacidad innata de las moléculas de reunirse espontáneamente–, se asocian para formar estructuras cada vez más grandes, hasta finalmente convertirse en un sistema capaz de moverse, sentir, modificarse y construir: un sistema simbiótico que “…en lugar de competir contra los sistemas y materiales existentes… comparten un lenguaje físico común con los sistemas naturales llamado ‘metabolismo’” (Spiller, 2011, pp. 60-67). La protocélula es un nuevo método de diseño: un proceso disruptivo en la arquitectura, concebido en los laboratorios, que permite el desarrollo de estructuras capaces de crecer y autocontrolarse “…a través de quimiotaxis, fototaxis, autoensamblaje y autoorganización” (Clear, 2011, pp. 122-127). Una evolución emergente capaz de reemplazar las tecnologías convencionales, al modificar en su camino la estética arquitectónica, donde el papel del arquitecto se acerca al de un médico o un técnico científico (Slavinsky, 2011, pp. 90-99). 338 Una tecnología que no busca imitar o reproducir la naturaleza, por el contrario, lo que busca es “…producir arquitectura en la forma en que una planta produce su fruto. No queremos representar, queremos producir directamente” (Wiley, 2011). Para la arquitecta británica Rachel Armstrong, “…los sistemas vivos con sus propios metabolismos proporcionan soluciones más emocionantes y de mayor alcance que los materiales de construcción convencionales” (2011, pp. 68-77). Armstrong, junto con el arquitecto británico Neil Spiller, de la Escuela de Arquitectura Bartlett, buscaban desarrollar nuevos materiales metabólicos para la práctica de la arquitectura. En los últimos años, Armstrong incluyó en su equipo al químico Martin Hanczyc, del Laboratorio del Instituto de Física y Química (FLinT) de la Universidad del Sur de Dinamarca, para el desarrollo de protocélulas simples autoconstruidas a través del autoensamblaje. Una protocélula, carente de ADN, pero capaz de desplazarse por su ambiente, seguir gradientes químicos e incluso experimentar reacciones complejas. Para Hanczyc, las protocélulas, “…se crea[n] a partir de sus ingredientes químicos en lugar de despojarse de un sistema biológico preexistente” (2011). Algunas protocélulas permiten desarrollar una nueva generación de materiales inteligentes, capaces de reaccionar ante el clima, almacenar la energía solar a nivel químico, acumular el agua de lluvia, o extraer el dióxido de carbono de la atmosfera y convertirlo en carbonato (Armstrong, 2009). Marcelo A. Fraile - Arquitectura biodigital Un ejemplo interesante al respecto es la remodelación del Puente de Sarajevo de Barcelona, del 2014, del estudio BCQ Arquitectura (Toni Casamor y David Baena). El proyecto busca reducir la contaminación ambiental de la Ciudad, a través de un proceso denominado fotocatálisis: un principio natural por el cual, gracias a la acción de la luz solar en combinación con un agente catalizador (dióxido de titanio), transforma el dióxido de carbono de la atmosfera en sales inertes y solubles en agua. Una ampliación de los límites del sistema, bajo un desarrollo sinérgico entre tecnología y naturaleza: un aprendizaje colaborativo con el medioambiente, de acuerdo con las condiciones cambiantes del entorno. Otro ejemplo análogo al anterior es el pabellón de Canadá de la 12.ª Exposición Internacional de Arquitectura de Venecia del 2010. El proyecto estuvo dedicado a la obra del arquitecto y escultor canadiense Philip Beesley: una variante de su proyecto Hylozoic Ground. De acuerdo a su definición, el hilozoísmo es una doctrina metafísica que considera que toda materia tiene vida. A partir de este concepto, Beesley desarrolló Hylozoic Ground, una nueva visión para el despliegue de una arquitectura receptiva. Una sofisticada tecnología interactiva mediante sensores y comandos “arduinos”, que incluía un sistema de filtrado y sombreado interactivo. Un sistema que emulaba la actividad de un organismo vivo y reaccionaba ante la presencia de un ser humano (luz, humedad y tacto). Fig. 7. El proyecto busca reducir la contaminación ambiental de la Ciudad, a través de un proceso denominado fotocatálisis: un principio natural por el cual, gracias a la acción de la luz solar en combinación con un agente catali- Una serie de microprocesadores y pequeños sensores de proximidad comandaban miles de componentes livianos fabricados digitalmente en zador (dióxido de titanio), transforma acrílico transparente. en sales inertes y solubles en agua. el dióxido de carbono de la atmosfera Para la exposición se utilizó el agua de la laguna de Venecia, contenida en una serie de tubos de diferentes formas. Estos recipientes alojaban también en su interior una suspensión de algas, las cuales aislaban, purificaban y sombreaban los espacios interiores, y otorgaban al ambiente fascinantes características de color y textura. Características que iban cambiando de acuerdo con el ciclo de vida de las algas. 339 Parte IV. La génesis de un nuevo paradigma De este modo, el ambiente se transformaba en un espacio sensible que funcionaba como un pulmón que, junto con los actuadores, “…crea[ban] ondas de movimiento empático, atrayendo a los visitantes hacia las misteriosas y brillantes profundidades de un paisaje mítico, frágil bosque de luz” (Beesley, 2010). Para Beesley, el desafío fue combinar la estructura artificial con un crecimiento orgánico: “…materiales que son ligeros, curativos y [que] potencialmente pueden renovarse” (Rocho, 2010). Poco tiempo después de la Bienal de Venecia, la arquitecta Armstrong junto con el arquitecto Neil Spiller (quienes habían trabajado junto con Beesley) diseñaron Future Venice. Una tecnología que puede ser utilizada para reparar de un modo sostenible los pilotes sumergidos de madera que soportan la Ciudad al transformarlos a través de un proceso químico metabólico en una base mas amplia para soportar las cargas. Un proceso que busca revertir tres siglos de erosión activa, inundada por el aqua alta periódica y desecada por el calor del sol. Un nuevo enfoque centrado en compuestos químicos inorgánicos capaces de ser programados “…para detectar los cambios ambientales, generar energía, autorrepara[rse], cambiar las propiedades e incluso competir con otros materiales de construcción por los recursos” (Cronin, 2011, pp. 34-43). El proyecto plantea una “tecnología viva” de protocélulas activas compuestas por un tejido dinámico que desarrolla una sustancia parecida a la piedra caliza, o bioconcreto cuando este se encuentra en reposo, lejos de la luz del sol. Una serie de “gotas programables” que utilizan el dióxido de carbono y los minerales disueltos en el agua de la laguna para construir una capa protectora de bioconcreto sobre los pilares de madera, lo que detiene su exposición a los agentes atmosféricos. Un crecimiento de arrecifes de piedra caliza artificial bajo la Ciudad que conforma una superficie estructural (microestructuras) alrededor de los pilares de madera (Rocho, 2010). Y, aunque las partículas son independientes, actúan en conjunto a partir de relaciones químicas que se conectan con el mundo biológico. Un diseño de materiales inteligentes, sensibles y adaptativos, capaces de “… alterar la materia en su entorno, reelaborando y reposicionando este material en el tiempo y el espacio” (Spiller & Armstrong, 2011). En este sentido, las protocélulas pertenecen a una nueva generación de materiales bioinspirados: entes discretos preparados para interactuar y organizarse entre sí, que generan procesos metabólicos a través de enlaces físico-químicos. Una tecnología disponible por doquier. Es la química de la tierra, una contraposición a la tecnología victoriana, una nueva tecnología apropiada para países en desarrollo como así también para países del primer mundo. 340 Desde este punto de vista, si el objetivo de la humanidad es avanzar en la revolución de lo sostenible para reducir el consumo de energía y la producción de desechos, la respuesta parece estar en la escala de la molécula y no en la de la articulación mecánica (Khan, 2011, pp. 50-59). En consecuencia, las protocélulas parecen ser el camino para la generación de una nueva arquitectura, una arquitectura imposible de especificar si fue creadas a través de procesos naturales o artificiales. Arquitectura genética A comienzos de un nuevo milenio, los avanzados conceptos en materia de biotecnología se presentan prometedores para algunos investigadores que ven en la genética el germen para una revolución en la arquitectura. Una segunda generación de diseñadores que, con una mirada más allá de la utilización de la tecnología como una herramienta generativa de formas, apoyan su arquitectura en la naturaleza, tomando prestada la teoría de la evolución por medio de la selección natural de Darwin (1871). Estos proyectistas entienden el diseño bajo un lenguaje genético de elementos vivos, donde el muro es transformado en una piel orgánica, una membrana celular bajo un proceso continuo de crecimiento selectivo con un alto grado de adaptabilidad individual, capaz de automantenerse, de autorreproducirse, y de evolucionar. Marcelo A. Fraile - Arquitectura biodigital Fig. 8. Para la exposición se utilizó el agua de la laguna de Venecia, contenida en una serie de tubos de diferentes formas. Estos recipientes alojaban también en su interior una suspensión de algas, las cuales aislaban, purificaban y sombreaban los espacios interiores. 341 Parte IV. La génesis de un nuevo paradigma Fig. 9. Una serie de “gotas programables” que utilizan el dióxido de carbono y los minerales disueltos en el agua de la laguna para construir una capa protectora de bioconcreto sobre los pilares de madera, lo que detiene su exposición a los agentes atmosféricos. 342 Marcelo A. Fraile - Arquitectura biodigital Desde este punto de vista, la arquitectura genética biológica puede ser considerada como “aquella creada e implementada con técnicas biológicas y genéticas reales”, una arquitectura que estudia primordialmente los genes y el ADN encargado de controlar la estructura y el funcionamiento de cada célula (Estévez, 2014). Por su parte, para el arquitecto Karl Chu, el espacio genético puede ser definido como “…una prolongación de lo que él mismo denomina como una nueva concepción cósmica de la razón que evolucionará, a partir de los cambios en la conciencia humana con respecto al espacio-tiempo” (Steele, 2001, p. 141). Un cambio en los modos de proyectación donde el arquitecto ya no busca diseñar la forma física final de su proyecto, sino su proceso de programación; una automatización de variables, un edificio vivo que cambia continuamente. Una arquitectura “…increíblemente perfecta y disponible para las modificaciones cuando se las habita concreta y simbólicamente” (Bratton, 2002). En consecuencia, es importante entender esta arquitectura no como una metáfora, sino como una realidad tangible, diseñada a nivel molecular, “…incidiendo en el diseño genético de las cadenas de programación que luego desarrolla[ra]n por sí solas elementos informativos artificiales y elementos vivos naturales” (Estévez, 2003, pp. 10-17). Para el arquitecto Karl Chu, esta arquitectura biológica considera tres parámetros interrelacionados: en primer lugar, la concepción de formas arquitectónicas genéticamente desarrolladas; en segundo lugar, el modelado de formas físicas recombinadas; y, en tercer lugar, la aplicación de biomateriales artificiales utilizados para la construcción de ambientes edificados (Bratton, 2002). Una arquitectura genética que explora las variaciones y combinaciones que afectan a su forma a través de mutaciones aleatorias, seguidas por una selección natural capaz de elegir cuál transformación sobrevivirá: un espacio genéticamente activo, contenedor de “…múltiples formas… que transmiten procesos puramente biológicos a sistemas biotécnicos más complejos” (Bratton, 2002). Un ejemplo interesante al respecto es el de la compañía canadiense Nexia Biotechnologie Inc, quienes, en el año 2012, desarrollaron Biosteel: una tecnología capaz de producir literalmente bioacero. El proceso consiste en inyectar genes de la araña Nephila clavipes (mejor conocida como araña hilo de oro) en los embriones de la cabra Saanen (Capra aegagrus hircus). El animal “transgénico” obtenido es capaz de producir leche que contiene en su composición proteínas solubles de seda. A continuación, la leche es procesada con el fin de extraer las proteínas Golden Spider Siper, las cuáles serán utilizadas durante la producción del bioacero. Finalmente, el material es forzado a pasar a través de una boquilla que adelgaza el producto y 343 origina una finísima fibra de un solo filamento. Dadas sus propiedades intrínsecas, el bioacero es compatible con el cuerpo humano y puede utilizarse para reparar tejidos biológicos, curar heridas o crear suturas muy sutiles, biodegradables en cirugías de ojos o neurocirugía. En arquitectura, el bioacero podría ser empleado como material en reemplazo del acero como soporte estructural, o incluso como revestimiento. Para el presidente de Biotecnología Nexia, el biólogo molecular Jeffrey Turner, estas fibras son “…mucho más resistente[s] que el acero y tiene[n] una resistencia a la rotura de cerca de 410 toneladas por metro cuadrado. También es un 25 por ciento más liviana que los polímeros sintéticos derivados de petróleo” (Bratton, 2002). En consecuencia, estamos frente a un nuevo tipo de arquitectura que propone sustituir los materiales tradicionales por biomateriales: desarrollados en laboratorios, una nueva gama de materiales con una calidad y precisión asombrosa, capaces de desarrollar una arquitectura verdaderamente sustentable, que “…extiende la responsabilidad del diseño a niveles de materialidad molecular y genética” (Bratton, 2002). Parte IV. La génesis de un nuevo paradigma Una arquitectura que al igual que la naturaleza, no trabaja con líneas rectas, esta “…optimiza las estructuras para minimizar el uso de los recursos” (Watts, 2011, pp. 128-134). Ya no busca la belleza, sino lo real, lo auténtico, y en esta indagación puede llegar a extremos brutales. Una arquitectura que toma elementos vivos y los integra al hecho arquitectónico para crear un bioentorno autosuficiente que pueda entrar en simbiosis con el ser humano. Para el arquitecto americano William Mc Donough (1951) y el químico alemán Michael Braungart (1958), “…los productos pueden ser ‘diseñado[s] desde el principio para que, tras su vida útil, puedan nutrir algo nuevo… que fácilmente puedan volver a incorporarse en el agua, o al Fig. 10. El animal “transgénico” es capaz de producir unas proteínas, las cuáles serán utilizadas durante la producción del bioacero. suelo, sin depositar materiales sintéticos y toxinas” (Bratton, 2002). Un proyecto ejemplificador de esto es el Fab Tree Hab: un diseño desarrollado por los estudiantes Mitchell Joachim, Lara Greden, y Javier Arbona, del Massachusetts Institute of Technology de California6. Basado en un antiguo procedimiento denominado “pleaching” –que consiste en entrelazar las ramas de los árboles para formar arcos vivientes, celosías o pantallas–, el proyecto plantea el “cultivo de viviendas” utilizando árboles nativos que permanecen vivos e integrados con el ecosistema (Antonelli & Myers, 2014, p. 58). Para ello, se desarrolla una estructura-marco de madera contrachapada extraíble, diseñada por computadora y construida mediante tecnología CNC. Este marco sirve de soporte a los árboles y las plantas durante su crecimiento. Una vez que los elementos vivos están interconectados y son estables, el marco de madera se retira y puede ser reutilizado. Los troncos de árboles como el olmo o el roble forman los elementos que soportan las cargas, mientras que las ramas proporcionan un marco continuo entrecruzado para las paredes y el techo. Entrelazados en todo el exterior, por una capa protectora de vides. 344 Las paredes interiores están resueltas con tecnología convencional de tabiques de yeso, en tanto que las aberturas son de bioplástico, que puede adaptarse al crecimiento, manejando el flujo de los nutrientes y garantizando el interior seco y libre de insectos. Dos niveles de ventanas aseguran la ventilación de la casa, en tanto que una serie de tuberías con radiadores solares garantizan el agua caliente y la calefacción. La casa posee un sistema de recolección de agua y reutilización de aguas grises. Dependiendo de las condiciones climáticas y de ubicación, se espera que el proyecto demore siete años. Un enfoque sustentable de la tecnología para el desarrollo de una nueva arquitectura autogenerativa capaz de crecer, autorrepararse, enfriarse, calentarse e incluso responder a los cambios abruptos del entorno. El arquitecto diseña un espacio viviente mutable que se desarrolla en el tiempo de manera flexible: “La imaginación del arquitecto ya no sería 6 Expuestos en el Museum of Modern Art, NY., del 20 de julio al 20 de octubre de 2008. Marcelo A. Fraile - Arquitectura biodigital Fig. 11. El proyecto plantea el “cultivo de viviendas” utilizando árboles nativos que permanecen vivos e integrados con el ecosistema (Antonelli & Myers, 2014, p. 58). 345 estática; evolucionaría de tal manera que la codificación de la estructura cambiaría su papel de arquitecto a creador” (Cronin, 2011, pp. 34-43). Un ejemplo interesante al respecto es el Genetic Barcelona Proyect, desarrollado por el arquitecto Alberto Estévez, de la Universidad Internacional de Catalunya. Un proyecto que comenzó en el año 2000, cuyo objetivo es “…disponer para la ciudad y las casas de luz no eléctrica y natural, obtenida al introducir determinadas proteínas luminiscentes en el ADN del arbolado urbano” (Estévez, 2005). Mediante la inclusión de elementos vivos como parte integral del proyecto, contribuiría a mejorar el funcionamiento físico de los edificios y el funcionamiento de la ciudad, permitiendo un ahorro energético en el consumo destinado a iluminación urbana (Estévez, 2003, p. 10). A partir de la utilización de la proteína GFP (Green Fluorescent Protein), originaria de la medusa Aequorea Victoria, del noroeste del Pacífico, Parte IV. La génesis de un nuevo paradigma Estévez introdujo dicha proteína en el ADN del arbolado urbano: una proteína inocua que ha convertido siete limoneros en una especie bioluminiscente, “…sin polen, o con la GFP en el cloroplasto, para que la polinización no suponga un problema” (Estévez, 2006). Actualmente, el proyecto se encuentra desarrollando su segunda fase que busca hacer más eficiente la bioluminiscencia para uso doméstico y urbano. Una mirada sustentable, “Ante el cada vez más próximo futuro agotamiento de los recursos naturales no renovables …que deben aportarse para impedir el colapso de nuestra civilización” (Estévez, 2006). Un proyecto semejante está siendo desarrollado por la empresa francesa Glowee. Un sistema de iluminación que utiliza bacterias modificadas genéticamente (no tóxicas y no patógenas) para absorber la energía del sol y el dióxido de carbono de la atmosfera y a cambio exhalar oxígeno mientras emiten de forma natural un resplandor fluorescente. Diseñadas y cultivadas, estas bacterias se encapsulan en un receptáculo transparente, junto a un espacio con nutrientes para la vida de las bacterias. Una fría y suave luz, sin necesidad de infraestructura adicional, que aprovecha las capacidades especiales de los microorganismos y que permite un ahorro de energía eléctrica y una reducción de la emisión de CO2 (Rey, 2016). Fig. 12. Genetic Barcelona Proyect. Estévez, Alberto. Mediante la inclusión de elementos vivos como parte integral del proyecto, contribuiría a mejorar el funcionamiento físico de los edificios y el funcionamiento de la ciudad, permitiendo un ahorro energético en el consumo destinado a iluminación urbana (Estévez, 2003, p. 10). 346 En la naturaleza, “Lo que existe, existe porque ha superado alguna clase de selección, [ha] supera[do] una selección que equivale a superar una prueba de compatibilidad con el resto de la realidad” (Wagensberg, 2013, p. 25). Desde este punto de vista, nos encontramos en el inicio de una nueva etapa donde comenzamos a cuestionar los referentes inamovibles del antiguo paradigma y a exigir nuevas respuestas alternativas y poco convencionales. Nuevas respuestas donde gracias a un enfoque interdisciplinario y al uso de los nuevos sistemas digitales estamos estable- Marcelo A. Fraile - Arquitectura biodigital Fig. 13. Genetic Barcelona Proyect. Estévez, Alberto. A partir de la utilización de la proteína GFP (Green Fluorescent Protein), originaria de la medusa Aequorea Victoria, del noroeste del Pacífico, Estévez introdujo dicha proteína en el ADN del arbolado urbano. ciendo una nueva relación con la naturaleza: un sistema perfectamente diseñado de los procesos de interconexión entre energía y nutrientes, para finalmente modificar las concepciones tradicionales del tiempo y del espacio. Para el investigador español Jorge Wagensberg (1948), “La ciencia nunca se cierra definitivamente. En la ciencia, como en la realidad misma, todo está siempre inacabándose” (2013, p. 16) El arquitecto británico Dan Slavinsky, egresado de University College London (UCL), posee una importante producción gráfica de gran difusión en los últimos tiempos, siendo algunos de sus trabajos expuestos, durante el año 2010, en el Victoria & Albert Museum de esa ciudad. Entre sus investigaciones más recientes, se encuentran los bocetos para un nuevo tipo de arquitectura futurista, con fuertes características orgánicas. Una yuxtaposición de formas donde alas, patas y ojos cambian de escala, ayudados por una “tecnología híbrida”, para combinar la arquitectura con la naturaleza. Entre sus proyectos más destacados se encuentra “In Arcadia at the End of Time” (En arcadia al final del tiempo), una propuesta que explora las posibilidades de una arquitectura flexible, sobre las bases de este nuevo enfoque, planteando sistemas centrados en el uso de tecnologías híbridas para integrar mejor nuestra arquitectura con la naturaleza (Slavinsky, 2011, pp. 90-99). Figuras Fig. 1. Paisaje con mariposas. El Gran Masturbador en paisaje surrealista con ADN. https://uploads8.wikiart.org/images/salvador-dali/butterfly-landscape-thegreat-masturbator-in-a-surrealist-landscape-with-d-n-a.jpg Fig. 2. Galacidalacidesoxiribonucleic. http://frankodean.com/2013/02/12/thedali-museum/ 347 Parte IV. La génesis de un nuevo paradigma Fig. 14. “En arcadia al final del tiempo”, se explora las posibilidades de una arquitectura flexible, sobre las bases de este nuevo enfoque, planteando sistemas centrados en el uso de tecnologías híbridas para integrar mejor nuestra arquitectura con la naturaleza (Slavinsky, 2011, pp. 90-99). Fig. 3. Ted Lawson. http://www.tedlawson.com/artwork/ghost-in-the-machine/ 348 Fig. 4. Alba, Eduardo Kac. http://www.ekac.org/gfpbunny.html Fig. 5. Stelarc. http://stelarc.org/?catID=20290 Fig. 6. Visión Nocturna. http://es.engadget.com/2015/03/27/superhumanohombre-vision-nocturna-inyeccion/ Fig. 7. Puente de Sarajevo de Barcelona. https://www.arquitecturayempresa.es/ noticia/bcq-convertira-el-puente-de-sarajevo-de-barcelona-en-una-estructuracapaz-de-disolver-la Fig. 8. pabellón de Canadá de la 12.ª Exposición Internacional de Arquitectura de Venecia del 2010. http://www.philipbeesleyarchitect.com/sculptures/0929_ Hylozoic_Ground_Venice/ Fig. 9. Protocélulas. https://www.dezeen.com/2014/05/30/movie-rachel-armstrongfuture-venice-growing-giant-artificial-reef/ Fig.10. Bioacero. http://agroecologiavenezuela.blogspot.com.ar/2016/05/ glandulas-de-seda-de-una-arana.html Fig. 11. Fab Tree Hab. http://www.archinode.com/fab-tree-hab-3.html Fig. 12. y Fig. 13. Genetic Barcelona Proyect. http://www.albertoestevez.com/ building/tripticobcn_Cimpr.htm Fig. 14. En arcadia al final del tiempo. http://sumaunahoramenos.blogspot.com. ar/2012/07/dan-slavinsky.html Marcelo A. Fraile - Arquitectura biodigital LA NAVAJA DE OCKHAM “¿Por qué temen lo nuevo? ¿Por qué resucitar a los muertos? ¿Por qué tratan de reanimar el brillo de una época pasada por la reconstrucción de un ícono perdido hace mucho tiempo? Toda la disputa es una farsa, la creación de un zombi; carne virtual y elástica es toda lo que queda en nuestro mundo de polímeros”. (Krauel, 2010, p. 328). La Tierra está rodeada por una envoltura gaseosa conocida como atmósfera: una sucesión de capas en movimiento, que conforman una masa de densidad heterogénea, con una altura aproximada de unos 2000 kilómetros. Regidos por la segunda ley de Newton, conocida como “Ley fundamental de la dinámica”, los diferentes gases se desplazan a través de la atmósfera en un proceso complejo –de capas en movimiento que se cruzan, se superponen y se influyen entre sí continuamente–. Para que esto suceda, se requiere de la energía del sol, el cual produce cambios en la temperatura y la presión del aire y modifica su densidad; esto, junto con la rotación de la Tierra, produce un movimiento continuo de los gases en diferentes escalas y capas. Como vimos, a finales del siglo XX, el filósofo y ensayista polaco Zygmunt Bauman (1925-2017) utilizaba el concepto de fluidez como una metáfora adecuada para explicar la sociedad del mundo contemporáneo. Para Bauman, “La ‘fluidez’ es la cualidad de los líquidos y los gases… que ‘en descanso, no pueden sostener una fuerza tangencial o cortante’ y, por lo tanto, ‘sufren un continuo cambio de forma cuando se los somete a esa tensión”. Asociado con el concepto de levedad, los fluidos no conservan su forma durante mucho tiempo: “…no se fijan al espacio ni se atan al tiempo” (1999, p. 7 y 8). Estamos en presencia de una contemporaneidad sin certezas, un proceso que, para el escritor zaragozano Alberto Royo, ha evolucionado de la sociedad “lÍquida” de Bauman, hacia una sociedad “gaseosa”, en la que: “la inmediatez, la búsqueda de rentabilidad, la falta de exigencia y autoexigencia, el desprecio de la tradición, la obsesión innovadora, el consumismo, la educación placebo, el arrinconamiento de las humanidades y de la filosofía, la mediocridad asumida y la ignorancia satisfecha hacen tambalearse aquello que pensábamos que era más consistente” (Royo, 2017, pp. 19-20). Una sociedad “…donde todo es inestable, nada perdura, y prima la inmediatez, la incertidumbre, el materialismo y el relativismo moral” (Salso, 2017). Una sociedad que, al igual que las moléculas de un gas, se interrelaciona entre sí, forma enlaces moleculares, adopta solo de un modo pasajero la forma del recipiente que lo contiene, pudiendo comprimir, o expandir su volumen, de acuerdo con el cambio de temperatura y de presión. 349 Un fenómeno análogo al de las nubes y que, como éstas, se mueve en capas, cambiantes y dinámicas. Se trata de la “muerte de los grandes relatos”, del filósofo francés Jean-François Lyotard (1924-1998), para transformarse en una contemporaneidad con pequeños relatos, a veces hasta contradictorios. Una contemporaneidad sin certidumbres, con propósitos particulares, donde el papel de lo tecnológico está cambiando la idea que se tiene del arquitecto y de la disciplina. Estamos frente a una revolución copernicana, una revolución científica que discurre por direcciones inesperadas. Una acumulación de anomalías que ha conducido hacia un período de crisis donde los problemas requieren de nuevos enfoques aparentemente radicales. Se ha comenzado a desdibujar el antiguo paradigma mecanicista, y se hace necesario un fuerte ajuste de la teoría. Durante este proceso de crisis, se desarrollan diferentes hipótesis especulativas e inarticuladas que indican el cambio. Pese a ello, el paradigma mecanicista no se rinde con demasiada facilidad, aún no se da por vencido. Dentro de un campo no académico, no se renuncia al antiguo modelo que pervive en la memoria colectiva. También algunos investigadores se aferran al viejo paradigma, lo que produce solapamientos parciales, “… Parte V. Conclusiones pero nunca total[es] entre los problemas que se pueden resolver con el viejo y con el nuevo paradigma, [surgiendo nuevas] diferencias en los modos de solucionarlos” (Kuhn, 1962, p. 176). Esta transición que “… dista de ser un proceso acumulativo logrado mediante la articulación o extensión del paradigma viejo” (Kuhn, 1962, p. 176). Es por esto que las diferencias entre modelos sucesivos son irreconciliables. No solo dicen cosas distintas, sino que también, bajo el principio de inconmensurabilidad, las teorías científicas que los sustentan son incompatibles; se hace imposible compararlos. Es preciso un cambio de herramientas. Una visión kuhniana del paradigma, que promete resolver problemas que no se sabe cómo atacar, al poner a trabajar a los investigadores de manera coherente, sin necesidad de reglas explícitas. Los investigadores adoptarán estos nuevos instrumentos que los harán descubrir nuevas cosas. Y, aunque el mundo no cambie con este nuevo paradigma, los científicos trabajarán en un mundo distinto (Kuhn, 1962, p. 227). Vivimos un momento muy especial de la historia, donde confluyen diferentes disciplinas que ofrecen al diseñador una nueva gama de herramientas nunca antes utilizadas en el diseño. El surgimiento de estas nuevas teorías se ven precedidas por un período de inseguridad causado por la destrucción del antiguo patrón. Estamos ante un nuevo modelo de diseño que contrasta con el antiguo –desarrollado por la Revolución Industrial que tenía como paradigma la máquina, la fabricación y la producción en partes diferentes, que serían posteriormente ensambladas–. Se trata de un proceso donde confluyen cuatro disciplinas. Estos campos son: - el diseño digital; - la prefabricación aditiva; - la ingeniería de los materiales inteligentes; - y finalmente, la exploración de nuevas funcionalidades biológicas. 1. El diseño digital Históricamente, la habilidad de dibujar a mano alzada fue considerada como un elemento de valor fundamental en la disciplina arquitectónica. Sin embargo, a partir de la década del 80, con la llegada de los sistemas de representación digital, este concepto comenzó a tener un valor cada vez más relativo. 350 Hoy en día, resulta imposible imaginar el diseño arquitectónico sin el uso de los sistemas digitales. Una tecnología, que “…ha traspasado diversos umbrales socioculturales antes los cuales el Arte, el Diseño y la Arquitectura no han estado ajenos” (D. Cruz, 2013). En este contexto, la disciplina del diseño ha llegado a lugares impensados: una transversalidad que ha hecho evidente diferentes manifestaciones desde el ámbito del pensamiento y la praxis artística, y que ha provocado nuevos modelos de acercamiento y comprensión de la creatividad (D. Cruz, 2013). Ya han pasado treinta años en los que los arquitectos han estado dibujando mediante sistemas digitales: “Los programas CAD han hecho que el dibujo bidimensional sea eficiente, fácil de editar y, con un poco de práctica, sea fácil de hacer” (Iwamoto, 2009). Sistemas de representación cada vez más avanzados que con cada actualización han introducido nuevas mejoras: modelos digitales tridimensionales que han permitido elaborar complejas geometrías, superficies NURBS y mallas poligonales, una realidad virtual que pronto comenzó a tener carácter de “aumentada”. Por esta razón, ya existían suficientes pruebas que demostraban claramente los méritos del uso de la tecnología informática en la arquitectura. Marcelo A. Fraile - Arquitectura biodigital Sin embargo, pese a que el sistema CAD había reemplazado los sistemas tradicionales de dibujo en papel y lápiz, su arquitectura no había evolucionado de la misma manera. Fue necesario un nuevo salto para que los sistemas digitales dejaran de ser considerados meras herramientas de representación y se transformaran en parte importantes del proceso de proyectación. Una nueva mirada audaz y atrevida que liberase la imaginación del diseñador hacia derroteros desconocidos: redefiniendo el papel del arquitecto contemporáneo para que considere la tecnología como una aliada proyectual, donde “las formas dejaron de ser dibujadas o representadas para pasar a ser calculadas” (Dery, 2008) y ahora también impresas. Una realidad reinventada a partir de fórmulas matemáticas, científicas y biológicas, que han permitido el desarrollo secuencial de formas y códigos reeditables; una situación intermedia, un in between, que ha transformado el espacio y el tiempo y deja sus tradicionales definiciones obsoletas. Estamos ante lo que podríamos denominar “…una dimensión quántica… una dimensión fragmentada, que se puede entender como olas. Las implicaciones de esta alteración no son inmediatas”. Sus ecos tardan en llegar y mucho más en hacerse notar: “Los no-lugares, los no-space, los no-time son las condiciones radicalmente fenoménicas que reemplazan la realidad de lo vivido” (Grigoriadou, 2014). Una arquitectura de múltiples capas, donde la materia se ha convertido en información binaria, definida a partir de líneas de código. Lo que para el arquitecto americano George Legendre son formas matemáticas “… basadas en la modelización paramétrica de superficies variables” (Alonso, 2009, p. 13). Un pensamiento algorítmico, sistemático, que utiliza una serie de pasos o etapas previamente establecidas para resolver el problema. Una morfología que remite a lo viviente, a una arquitectura que se “…acomoda [a este fresco] mundo a través de pliegues y dobleces” (Fernández Galiano, 1998), y donde los diseñadores que trabajan con estos modelos digitales generan protoformas, con distintas capas de información superpuestas: formas desarrolladas a través de procesos lógicos, que tienden a la abstracción, y son interpretados a la luz de la razón, bajo procesos que las transforman continuamente. Esto implica un nuevo modo de plantear la relación entre teoría y práctica que está influyendo tanto en la arquitectura, como en la conformación que tendrán las ciudades en los siglos venideros. Modificando de una vez y para siempre la “noción de espacio, que elaboró la Modernidad” (Doberti, 2008, p. 75 y ss.) y que durante mucho tiempo funcionó como marco determinante de nuestra vida. Estamos ante una traducción algorítmica de la información, que reemplaza la importancia de su resultado for- 351 mal. Una realidad líquida, flexible y cambiante, donde una matriz flotante de datos se entrecruza para generar una adaptación programática con requisitos ajustables por sus creadores, evitando la duplicación y redundancia de la información. La expresión de una nueva estética: modelos inteligentes, preparados para reaccionar y relacionar a través de un sinfín de variables –extrayendo particularidades, encontrando relaciones, evaluando su impacto en tiempo real mientras se diseña–, que permiten obtener infinitas versiones dentro de un ambiente controlado. Asistimos, a una búsqueda de resultados cada vez más eficientes y funcionales a los estímulos del medio, bajo una gestión efectiva de la energía y de los recursos naturales en el proceso proyectual, que crea por encima de su apariencia una “arquitectura del rendimiento”. No obstante, el concepto de arquitectura digital no debe ser considerado como un concepto monosémico, su significado se encuentra bajo un proceso de continua mutación y es diferente para cada arquitecto. Para el arquitecto chileno Arturo Lyon, es posible identificar dos posturas diametralmente opuestas: por un lado, algunos diseñadores como Karl Chu consideran la tecnología “…como una herramienta orientada a la Parte V. Conclusiones búsqueda de nuevas formas y organizaciones”, un diseño evolutivo que no busca controlar el efecto final del proyecto, sino el proceso que genera el proyecto; por otro lado, diseñadores como el británico Cecil Balmond (1943) consideran la tecnología digital como una herramienta orientada a la construcción, a través de “…racionalizar [las] formas complejas predefinidas” para facilitar su posterior materialización (2009, p. 31). Por su parte, el profesor americano Kostas Terzidis, en su libro “Algorithmic Architecture”1, aboga por una reinterpretación integral de los modos de usar los sistemas digitales. Para Terzidis, el uso de las computadoras presenta características más complejas que implican “…la exploración de los procesos indeterminados, vagos, poco claros y a menudo indefinidos; dada su naturaleza exploratoria, la computación busca emular o ampliar el intelecto humano” (Dunn & Casasnovas, 2012, pp. 60-61). Sin embargo, aún subsisten importantes vacíos teóricos dejados por los diseñadores que comenzaron a utilizar la tecnología informática. Para Greg Lynn, el diseño digital comenzó a definirse “…como ‘experimental’, sin indicar las hipótesis sobre las que se fundó, haciendo imposible evaluar ningún resultado cualitativamente” (Lynn, 2013). En este sentido, es curioso cómo Frank Gehry afirma que no puede utilizar las computadoras en sus diseños, pero que, sin embargo, ha creado una compañía de software de avanzada para arquitectos, o que Peter Eisenman haya olvidado su profunda utilización durante el diseño del Biozentrum de Frankfurt. A pesar de esto, los sistemas digitales poseen cada vez más relevancia en la arquitectura contemporánea. Un cambio crítico dentro de la disciplina ya que –aunque aún subsista el mito del azar, de los accidentes felices, de los experimentos sin motivación y de la eterna aversión del diseñador por ceder el control del proceso proyectual a un software (Lynn, 2013)–, estamos ante una poderosa herramienta generativa-proyectual que está modificando el modo de “diseñar” y “materializar” la arquitectura del mañana. 2. La prefabricación aditiva En poco menos de 30 años, la incorporación de nuevas tecnologías digitales de producción en el campo de la arquitectura ha generado un punto de inflexión en el diseño contemporáneo. Una tecnología que ha permitido el desarrollo y la fabricación de modelos físicos mediante máquinas a partir de parámetros binarios. El diseñador utiliza las nuevas tecnologías y reabre el viejo debate renacentista que había separado al proyectista del constructor. Para el arquitecto Marco Kolarevic, hemos recobrado el antiguo rol de maestro de obras 352 y restablecido el vínculo entre proyecto y materialización (E. Lyon, 2009, p. 54). Una recuperación, a través de la tecnología, de los deseos de John Ruskin, William Morris y de los Arts and Crafts. Se presenta una nueva forma de interpretar el espacio y su geometría, un viaje entre la macro y la micro escala, que agiliza la producción, y permite el desarrollo eficiente de los procesos, a través de una retroalimentación entre el diseño y la elaboración, “…como si se tratara de artesanos, pero utilizando las herramientas actuales que la tecnología permite” (Orcivoli, 2004, p. 96). Un proceso que facilita la toma de decisiones, la coordinación de diferentes actividades, así como la corrección o redireccionamiento de las tareas, de ser necesario. Una eliminación de los pasos intermedios, en un continuum óptimo donde arquitectos, ingenieros, estructuralistas y especialistas conforman un equipo multidisciplinario para generar un nuevo tipo de arquitectura. Para el arquitecto neozelandés Mark Burry (1957), el uso de las tecnologías digitales de fabricación pueden transformarse en el antídoto contra la estandarización a la que obliga el empeño por reducir los costes de producción, ya que permite desarrollar múltiples versiones e incluso personalizaciones de un producto (Krauel, 2010, p. 119). 1. Tezidis, K. (2006). Algorithmic Architecture, Burlington, Architectural Press, p. XI. Marcelo A. Fraile - Arquitectura biodigital Bajo el slogan de “continua diferenciación”, formulado por Greg Lynn y Jeff Kipnis, la construcción digital ha producido un renacer de la cultura artesanal, mediante una concepción algorítmica. El diseñador, en su búsqueda constante, ha utilizado los programas digitales para elaborar modelos informáticos, manejando variables, para su posterior fabricación. En palabras de Kolarevic, es una “…nueva capacidad para generar información de construcción directamente a partir de información de diseño’” (Iwamoto, 2009). Hoy una producción no-estandarizada ha reemplazado el concepto de producción en serie por el de “personalización masiva”, donde “…la multiplicidad y la complejidad de los elementos de diseño no guardan una relación directa con el coste y la eficiencia del proceso de producción” (Dunn & Casasnovas, 2012, p. 84). En este sentido, cada producto ahora es desarrollado en forma individual, por lo que es igual de eficiente “…fabricar piezas idénticas como fabricar piezas únicas” (Kottas, 2013). Desde cortadoras láser o fresadoras CNC, hasta máquinas de fabricación aditiva, han permitido desarrollar importantes ventajas en el campo de la materialización arquitectónica y han facilitado el paso de lo conceptual a lo práctico: “Ya no se piensa en función de una serie o repetición, sino en versiones o variaciones” (Ortega & Zaera-Polo, 2009). Estructuras de alta complejidad geométrica pueden ser ahora modeladas a través de códigos paramétricos y montadas en obra mediante brazos mecánicos, lo que reduce “…la brecha entre la representación y la construcción, ofreciendo una conexión hipotéticamente perfecta entre diseño y fabricación” (Iwamoto, 2009). En el futuro próximo, dará lo mismo construir en Ámsterdan, Hong Kong o la Luna; la fabricación digital continúa evolucionando para desarrollar resultados sin precedentes y despierta la imaginación de los jóvenes diseñadores. En este sentido, el estudio de Frank Genry y su proyecto para el Museo Guggenheim Bilbao han influenciado a toda una generación de nuevos arquitectos. Sin embargo, “…hay invariablemente lagunas entre los modos de hacer. Y, al igual que con todas las herramientas de producción, las mismas técnicas que abren estas investigaciones tienen sus propios conjuntos de restricciones y engranan modos particulares de trabajar” (Iwamoto, 2009). Pese a esto, en poco tiempo, la fabricación digital ha crecido y ha generado lo que el arquitecto estadunidense Michael Speaks denominó “inteligencia de diseño”, un modo de hacer que en el proceso se transforme en conocimiento o creación inteligente (Iwamoto, 2009). Una avanzada tecnología, mediante plataformas inalámbricas M2M (Machine to machine), que facilita la comunicación máquina a máquina, e involucra en el proceso múltiples dispositivos para desarrollar una infraes- 353 tructura de interacción nodal, interrelacionada a través de la nube, capaz de ser monitoreada y diagnosticada en línea, lo que permite la automatización de los sistemas de fabricación y su posterior montaje mediante servomecanismos. 3. La ingeniería de los materiales inteligentes Inspirados en procesos biomiméticos y a través de la biología sintética, hemos alterado los límites tecnológicos que impedían el desarrollo de estructuras biointeligentes a escala arquitectónica. Una tecnología emergente que, en palabras del filósofo francés Pierre Lévy (1956), está desmaterializando los límites de las disciplinas, para desarrollar un gran mosaico de opciones y de posibilidades (Hight & Perry, 2006). En este sentido, mediante la implementación de procesos ecológicamente amigables, derivados de patrones estructurales de la naturaleza, estamos desarrollando una nueva generación de materiales inteligentes, con capacidad de cambiar sus propiedades de acuerdo con las condiciones ambientales, y con un bajo consumo de energía. Materiales con memoria, una capacidad inherente que les permite recordar sus características iniciales una vez que la acción o el estímulo ha cesado y dar la misma respuesta ante similares excitaciones. Parte V. Conclusiones Materiales que de acuerdo con las características de sus respuestas podrán ser: pasivos, es decir que actúan sin la necesidad de un estímulo externo; o activos, es decir, que responden a los estímulos del exterior. El reto para el futuro será abordar la morfología de los nuevos planteos: una ingeniería de la naturaleza donde los materiales de construcción puedan ser cultivados “…a través de reacciones químicas inducidas biológicamente, y donde las partes de nivel molecular se autoensamblan en estructuras grandes” (Stacey, 2013). Una posición provocativa para desarrollar una arquitectura compleja y coevolucionada. Un diseño con un alto grado de refinamiento e identidad. Biomateriales inteligentes que exhiben mecanismos de “autorreparación”. Es decir, un proceso mediante el cual los materiales controlan sus procesos físicos-químicos y se organizan en estructuras cristalinas, al endurecerse o ablandarse de acuerdo a las acciones del entorno. El nuevo paradigma implica entender los sistemas biológicos como compuestos de unidades modulares montadas (Stacey, 2013). Materiales biológicamente compatibles, adaptados a las necesidades, se han transformado en una conexión con el futuro. Un nuevo sistema que conduce el proyecto a una escala donde el diseño de los detalles se produce manipulando sus ADN. La línea entre lo natural y lo artificial se está borrando progresivamente, bajo un territorio emergente que explora las prácticas biológicas contemporáneas para planificar y diseñar, lo que para el editor estadounidense Kevin Kelly (1952) podría denominarse “neobiológico”, es decir, una biologización de nuestro mundo (M. Cruz & Pike, 2008, pp. 6-16). Superficies activas autolimpiantes, filtros inteligentes para la desalinización del agua salada, turbinas eólicas de alto rendimiento, nanotubos para la captación de energía solar, son parte de una extensa lista de nuevos materiales y técnicas constructivas que están cambiando el panorama del diseño contemporáneo y liberan la imaginación espacial y formal del diseñador en su búsqueda de un nuevo lenguaje para estos tiempos. Desde las plantas luminosas de Antony Evans de la firma Glowing Plants hasta el proyecto Barcelona Genética de Alberto Estévez, cada vez es más común el desarrollo de plantas alteradas genéticamente para que brillen en la oscuridad con luz propia: organismos biológicamente diseñados, tal como lo hace la propia naturaleza, bajo la promesa de una energía limpia, renovable y sostenible. En este contexto, el arquitecto se ha transformado en un promotor de investigaciones sobre los materiales inteligentes. Un metadiseñador que proyecta y experimenta con sus comportamientos, de acuerdo con un proceso 354 de programación: el diseñador ha pasado de escultor a cultivador de materiales (Stacey, 2013). 4. La exploración de nuevas funcionalidades biológicas En los 4 mil millones de años que tiene el planeta, los sistemas naturales han dominado las estrategias de crecimiento, diferenciación, complejidad y evolución en formas localmente especializadas. Dada sus características intrínsecas, los sistemas biológicos exhiben una gran variedad de formas y funciones que representan soluciones óptimas, “…altamente eficientes [en el consumo] de la energía y otros recursos y son capaces de procesos como el autoensamblaje programado y la adaptabilidad” (Stacey, 2013). Es decir, a diferencia del hombre que emplea grandes cantidades de energía para desarrollar sus actividades, los organismos vivos continuamente modifican sus estructuras o comportamiento con el fin de aprovechar el máximo de la energía. Bajo un concepto de homeostasis, estos organismos tienden a mantener las condiciones estables del medio. Marcelo A. Fraile - Arquitectura biodigital No es de extrañar entonces, la fascinación que la naturaleza despierta en los diseñadores contemporáneos, como fuente de inspiración para imitar sus características, funciones o procesos biológicos (Estévez, 2005, p. 017). Un estudio que intenta extraer las reglas morfogenéticas y los parámetros proporcionales y estructurales de los sistemas biológicos para utilizarlos posteriormente, a través de las tecnologías digitales, en el desarrollo de una arquitectura de vanguardia. En este sentido, han resultado relevantes las investigaciones de arquitectos como John Frazer, Karl Chu, o Greg Lynn, que han estudiado la intersección de las computadoras con los códigos genéticos, al entenderla como un mecanismo de exploración para el futuro de la arquitectura. Una indagación del lenguaje y los patrones naturales de la forma, utilizando para ello expresiones matemáticas apoyadas en herramientas informáticas: un ADN digital que crece, se modifica a través de cruzamientos y mutaciones, para definir los parámetros del futuro proyecto. Una búsqueda de soluciones creativas e innovadoras, a través de la introducción de leyes que intentan encontrar la geometría secreta de la naturaleza. Un proceso evolutivo complejo y menos determinista que posibilita a los diseñadores acercarse a formas biológicas y a los procesos de la naturaleza de un modo indeterminado, variable e interactivo: formas criadas por el diseñador (breeding design), siguiendo las leyes de los sistemas dinámicos con el objetivo de enriquecer el proyecto (Alonso, 2009, p. 14). El concepto de lo biológico se ha extendido para generar una arquitectura resultante de la interacción de las fuerzas externas del ambiente, donde la concentración de la materia se da en regiones de grandes cargas y se dispersa en aquellas áreas donde la rigidez no es requerida, lo que efectiviza la estructura y facilita la capacidad principal del material. Dentro de este contexto, la naturaleza sigue siendo hoy en día lo más complejo que conocemos y se transforma en un recurso inagotable de inspiración, imitación y aprendizaje (Estévez, 2014, pp. 8-23). En este sentido, para el arquitecto británico Michael Pawlyn (1967), existen cuatro principios básicos que una solución mimética debe desarrollar: primero, reducir el consumo de energía mediante un diseño eficiente; segundo, poseer una fuente de energía de duración indefinida, abandonando los combustibles fósiles y reemplazándolos por el uso de energías renovables como la energía solar; tercero, desarrollar un proceso de resiliencia por medio de la generación de un diseño diverso e interconectado, es decir, que posea la capacidad de un sistema de redes interconectadas y de alto grado de diversidad, capaz de sobrevivir las perturbaciones; y finalmente cuarto, desarrollar un sistema de recursos no tóxicos y compatibles con el medioambiente, que recolecte y recicle su propia agua, y que elimine eficientemente sus residuos (2011). En pocas palabras, una arquitectura de materiales avanzados, que incorpora nanotecnología como respuesta para sacar partido de sus limitaciones. Una arquitectura genética digital, de pieles maleables, de membranas semipermeables, transformables, traslúcidas, capaz de transpirar, que coopera con el entorno, que crea un microclima interno, calentándose en invierno y refrescándose en verano. Una arquitectura desarrollada mediante una tecnología de última generación que obtiene sus materiales de los otros reinos. Una arquitectura que integra forma, materia y estructura, para producir un diseño autosuficiente y emergente. Colofón Entre el 17 de mayo y el 19 de agosto de 2007, el artista británico, Antony Gormley (1950) presentó su obra Blind Light en la Hayward Gallery en la ciudad de Londres. Blind Light era su primera gran exposición. Estaba compuesta por una gran caja de cristal sin marco de 8 x 10 metros en cuyo interior una serie de humidificadores ultrasónicos oscilaban para crear una espesa y helada niebla que, junto con una poderosa luz fluorescente cuatro veces superior a la normal, desmaterializaba los límites físicos del espacio. 355 Parte V. Conclusiones Tomando el cuerpo como punto de partida, los visitantes de la galería, inmersos en la niebla y con una reducida visibilidad, exploraban dificultosamente el interior de la caja, experimentando diferentes sensaciones tales como desorientación, pánico, ansiedad social o incluso una mayor libertad. Para Gormley: “La arquitectura se supone que es la ubicación de la seguridad y la certeza acerca de donde se encuentra. Se supone que te protege del tiempo, de la oscuridad, de la incertidumbre. BLIND LIGHT socava todo eso. Ustedes entran en este espacio interior que es el equivalente de estar en la cima de una montaña o en el fondo del mar… te convierte en la figura inmersa en un terreno sin fin, literalmente el tema de la obra” (2007). A lo largo de la historia, las exposiciones han sido siempre una de las expresiones significativas para mostras los grandes avances de la humanidad, un “teatro privilegiado” que permite contemplar la novedosa arquitectura mundial, “…arroja[ndo] tanta luz sobre los mecanismos de representación del poder político y sobre los instrumentos para la manufactura de la percepción social como el análisis minucioso de muchas obras monumentales y permanentes” (Fernández Galiano, 2010, pp. 21-25). De manera análoga, hemos desarrollado un recorte de 26 años que hace foco en los sucesos y obras desarrolladas en el marco de exposiciones internacionales de arquitectura que han ofrecido visiones en momentos específicos. Un análisis crítico que inicia en 1988 con la exposición de Arquitectura Deconstructivista del Museo de Arquitectura Moderna de New York, y finaliza con la 14.ª Bienal de Arquitectura de Venecia de 2014. Un proceso enmarcado en un gran número de exposiciones creadoras y finalizadoras de tendencias. Como investigadores, uno de los retos a los que nos podemos enfrentar es intentar escribir la historia de la arquitectura reciente, interpretando un proceso que aún no ha llegado completamente a su fin, y que nos involucra de manera vital. En este contexto, para Marina Waisman, la observación y el análisis de un tema contemporáneo, como este, “…está referido al diario acontecer de la arquitectura; a la identificación de nuevas ideas, a la valoración e interpretación de nuevas obras o propuestas, al descubrimiento de nuevas tendencias, contribuye[ndo], con su reflexión, a la toma de conciencia de situaciones” (1993, p. 30). Observadores de una realidad, que nos posibilite “…descubrir en ella hechos arquitectónicos interesantes y llamar la atención del espectador sobre ellos, suspendiendo momentáneamente el juicio, hasta tanto sea posible construir nuevos parámetros capaces de develar la estructura significativa de los nuevos fenómenos” (Waisman, 1993, p. 30). 356 Ya que como menciona Giorgio Agamben, la contemporaneidad se inscribe en el presente y lo marca, un devenir historico que no cesa de actuar en éste. En consecuencia, este libro, no pretende plantear un tema cerrado, muy por el contrario, debe ser tomado como un punto de apertura. Es un momento de visibilidad de las anomalías, aunque todavia, como es natural, no sea posible definir un único camino: lo digital ya está consolidado, no es nuevo; lo biológico es lo nuevo que, junto con un enfoque digital, está reconfigurando y redefiniendo los contenidos y límites de este nuevo paradigma. Queda claro que este paradigma todavía no se ha conformado completamente. En este proceso, existe una fragmentación teórica de contenidos, un proceso inestable, fluido, de límites difusos que hacen difícil entender los alcances de cada anomalía. Proponiendonos una mirada compleja, reflexiva y crítica sobre el modo de pensar y hacer arquitectura, observamos una hibridación entre lo natural y lo artificial; un entrecruzamiento de diferentes saberes disciplinares, una contaminación de la teoría arquitectónica, a través de la biología y la tecnología. Los procesos de investigación morfogenéticos han transformado la naturaleza en un banco de datos, para crear nuevas formas, nuevos materiales y nuevos modos de fabricación. Marcelo A. Fraile - Arquitectura biodigital Cargado de incertidumbre, más que un cuerpo teórico, el nuevo paradigma presenta situaciones y propuestas novedosas: que “…llega[n] como Fig. 1 Tomando el cuerpo como punto la niebla, penetran por todos los resquicios de lo establecido y lo reblandecen. Así que hay que dar tiempo para que este fenómeno manifieste ría, inmersos en la niebla y con una todo su poder transformador” (Rodríguez De Las Heras, 2016). Bajo un pensamiento biológico digital, la revolución está dando lugar a este nuevo paradigma en la arquitectura. El trabajo del arquitecto del siglo XXI consistirá precisamente en encontrar aquellos vínculos que puedan conectarse para generar este nuevo diseño. Pero solo podrá hacerlo, si deja de lado los viejos sistemas convencionales y se abandona a de partida, los visitantes de la galereducida visibilidad, exploraban dificultosamente el interior de la caja, experimentando diferentes sensaciones tales como desorientación, pánico, ansiedad social o incluso una mayor libertad. la mirada del nuevo modelo: un mensaje que el arquitecto deberá saber leer y practicar. Para Zygmunt Bauman, estamos ante la procrastinación –derivada del latín–, ‘cras’, ‘mañana’, un mañana vago e indefinido, un futuro por llegar, un concepto del tiempo “…vivido como peregrinaje, como movimiento de acercamiento a un blanco” (Bauman, 1999, p. 166). 357 En este contexto, lo que antes eran patos ahora se han transformado en conejos (Kuhn, 1962, p. 213). En consecuencia, tras la revolución, ha cambiado nuestra forma de ver el mundo. Y aunque todavía quedan muchas anomalías por explicar y muchos interrogantes por responder, se hace imposible volver a mirar hoy con los ojos inocentes del paradigma anterior. Al respecto, conviene recordar el principio metodológico y filosófico conocido como la “navaja de Ockham”. Este principio dice que: “en igualdad de condiciones, la explicación más sencilla suele ser la más probable”. En otras palabras, frente al dilema de dos o más teorías, en igualdad de resultados, la teoría más simple tiene más probabilidades de ser la correcta. Figuras En virtud de esto, queda claro que los diseñadores estamos trabajando en un mundo distinto; la génesis de un nuevo paradigma ya ha comenzado. Fig. 1. Blind Light. http://www. antonygormley.com/projects/itemview/id/241 Marcelo A. Fraile - Arquitectura biodigital BIBLIOGRAFÍA GENERAL (CITADA Y CONSULTADAS) Abad, M. (2013, mayo 3). WikiHouse: un kit para construir tú propia casa. Recuperado 8 de julio de 2013, a partir de http://www.yorokobu.es/wikihouse/ Ábalos, I. (2001). La buena vida: visita guiada a las casas de la modernidad (7o edición 2007). Barcelona: Gustavo Gili. Agamben, G., Costa, F., & Ruvituso, M. (2010). Signatura rerum: Sobre el método (2009, 1o edic. en español ed.). Barcelona: Editorial Anagrama S.A. Agkathidis, A. (2017). Arquitectura biomórfica. Diseño orgánico y construcción. Barcelona: Promopress. Aguilar Justo, A. E. (2014, agosto). Un algoritmo basado en la colonia artificial de abejas con búsqueda local para resolver problemas de optimización con restricciones (Maestria). Universidad Veracruzana, México. Aguirre, C. (2009). La ‘suave rampa’ de Richard Dawkins. Organización internacional para el avance científico del diseño inteligente. Recuperado a partir de http://www.oiacdi.org/articulos/La%20Suave%20Rampa.pdf Alberti, L. B. (1485). De Reaedificatoria (2007.a ed.). Madrid: Editorial Akal. Aliata, F., & Shmidt, C. (2007). Diccionario de Arquitectura: voces teóricas. Buenos Aires: Nobuko. Alonso, P. (2009). Post-Digital. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo). Santiago de Chile: Pontificia Universidad Católica de Chile. Álvarez, I. (2006). Aproximación al calidoscopio de la Sociedad de la Información: dificultades y posibilidades educativas. Revista Iberoamericana de Educación, 38(No4). Antonelli, P., & Myers, W. (2014). Bio Design: Nature + Science + Creativity. London: Thames & Hudson. Aparicio Guisado, J. M. (2000). El muro. Buenos Aires: Librería Técnica CP67. Araña, R. (2008). Deconstructivista & Nóiccurtsnoced, Afinidades. En Revista de arte y estética contemporánea. Mérida. Julio-Diciembre, 2008. Araya, S. (2009). Diseño Generativo. En MARQ 04. Fabricación y Tecnología Digital (Mondragón, Hugo). Santiago de Chile: Pontificia Universidad Católica de Chile. Arbelo, M., & Franco, J. (2011, mayo 9). ART TECH MEDIO, Arte y nuevos medios. Recuperado 8 de julio de 2012, a partir de http://www.cceba.org.ar/v3/ficha.php?id=534 Arenas, L. (2010). Hacia una arquitectura liquida. En Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura. Aresta, M. (2012). Arquitectura como organismo vivo. En Forma y matemática II: fractales y forma (de Spinadel, Vera W.). Buenos Aires: Nobuko. Armstrong, R. (2009, julio). Architecture that repairs itself. Presentado en Ted Talks. Recuperado a partir de https://www. ted.com/talks/rachel_armstrong_architecture_that_repairs_itself?language=es Armstrong, R. (2011). How protocells can make ‘stuff’ much more interesting. Architectural Design, (Protocell Architecture, 210). Armstrong, R., & Spiller, N. (2012). Future Venice. Recuperado a partir de www.gre.ac.uk/ach/research/centres/avatar/ research/fv Arnau Amo, J. (2008). Palladio 1508- 2008. Una Visión de la Antigüedad. Valencia: General de Ediciones de Arquitectura. Asimov, I. (1985). El fin de la eternidad. Buenos Aires: Hyspamerica Ediciones. Asimov, I. (2009). Yo, robot / I, Robot. Buenos Aires: Edhasa. Baixas, J. I. (2009). Geometrías de producción. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo). Santiago de Chile: Pontificia Universidad Católica de Chile. Ballestero, J. (2008). Ser Artificial. Glosario practico para verlo todo de otra manera. Barcelona: fundación caja de arquitectos. Barbadilla, A. (2015). Ensayos sobre la ciencia de la Genética. Universitat Autònoma de Barcelona. Recuperado a partir de http://bioinformatica.uab.es/base/base3.asp?sitio=ensayosgenetica&anar=pgh Bar-Cohen, Y. (2011). Biomimetics Biologically Inspired Technologies. Austin: The University of Texas at Austin. Barrera Puigdollers, J. (2010). El trazo como vehículo epistémico, posible, hacia la definición del Plexo simple. En Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura. 359 Bibliografía Barro Ameneiro, S., & Bugarín Diz, A. (2002). Fronteras de la computación. Madrid: Díaz de Santos S.A. Ediciones. Bauman, Z. (1999). Modernidad líquida (8o edición 2007). Buenos Aires: Fondo de Cultura Económica. Beesley, P. (2010). Hylozoic ground. Recuperado 27 de julio de 2017, a partir de http://www.hylozoicground.com/Venice/ project/index.html Belli, G. (2010). Protagosnistas y eventos del Futurismo italiano. En El universo futurista 1909-1936 (Belli, Gabriella). Buenos Aires: Fundación Proa. Benevolo, L. (1967). Introducción a la arquitectura. Buenos Aires: Tekne. Benevolo, L. (1989). Historia de la arquitectura moderna. Barcelona: Gustavo Gili. Benyus, J. (2009, julio). Biomimicry in action. Presentado en TEDGlobal 2009. Recuperado a partir de https://www.ted.com/talks/ janine_benyus_biomimicry_in_action Benyus, J. M., & Leal, A. G. (2012). Biomímesis: Innovaciones inspiradas por la naturaleza. Barcelona: Tusquets Editores S.A. Bermúdez, J., & Hermanson, R. (1999). Cultura virtual & cultura material: una lectora arquitectónica. Morphia, (2). Bernardele, O. A. (1994). Del posmodernismo a la deconstrucción. Buenos Aires: Universidad de Palermo, Librería CP67. Binet Royall, E. (2011, noviembre 30). Posessing the Urpflanze: an Examination of the Nature and Purpose of BiologyDesign Analogy via Biomimetic Practice. The University of Texas at Austin. Recuperado a partir de https://es.scribd.com/ document/77151395/Possesing-the-Urpflanze. BjarkeIngels. (2010). Yes is more. Barcelona: Taschen. Bonet Saumench, E., Moret Chesa, J., & Solanellasbertran, G. (2009). Rendering para arquitectos. Barcelona: Parramón ediciones S.A. Bonner, J. (1961). Introducción. En Sobre el crecimiento y la forma (2003.a ed.). Madrid: Akal. Bosco, R. (2007, diciembre 17). La oreja en el brazo. El país. Recuperado a partir de http://elpais.com/diario/2007/12/17/ catalunya/1197857250_850215.html Bosi, G. (2012). El devenir orgánico de Sierpinski. En Forma y matemática II: fractales y forma. Buenos Aires: Nobuko. Botella, L. (1994). El Ser Humano Como Constructor de Conocimiento: El Desarrollo de las Teorías Científicas y las Teorías Personales. FPCEE Blanquerna. Recuperado a partir de https://www.researchgate.net/publication/238767647_ El_ser_humano_como_constructor_de_conocimiento_el_desarrollo_de_las_teorias_cientificas_y_las_teorias_ personales Bratton, B. (2002, mayo 25). The premise of recombinant architecture, One. The culture Industry, SCI_Arc and UCLA. Recuperado a partir de https://noemalab.eu/wp-content/uploads/2011/08/bratton_recomb_arch.pdf Broadbent, G. (1974). Diseño arquitectónico. Arquitectura y Ciencias Humanas (1976 edición). Barcelona: Gustavo Gili. Broadbent, G. (1984). El lenguaje de la arquitectura: un análisis semiótico. México DF: Limusa. Bucci, F., Mulazzani, M. (2000). Luigi Moretti: obras y escritos. New York: Princeton Architectural Press. Burry, M. (2003). Between intuition and Process: Parametric Design and Rapid Prototyping. En Architecture in the Digital 360 Age: Design and Manufacturing (Kolarevic, Branco). New York: Branko Kolarevic edic. Burry, M. (2007). Configuración de la escena. En Gaudí Unseen: Completing the Sagrada Familia. Berlín: Mark Burry. Burry, J., Burry, M. (2010). Las nuevas matematicas de arquitectura. Londres: Thames and Hudson. Bustos, G. (2006). Lo ‘Glocal’ en la Tecnología digital + S3DI y el asunto de la percepción en los procesos creativos de diseño arquitectónico. Orbis. Revista Científica Ciencias Humanas, 2(5), 5-51. Caba, J. (2016). El emprendedor es el artesano del siglo XXI. En Emprenderalia magazine, (Sánchez Lemus, Francisco Javier). Barcelona: emprenderalia.com. Recuperado a partir de https://www.emprenderalia.com/el-emprendedor-es-elartesano-del-siglo-21 Cache, B. (2009). ¿Después de lo Paramétrico? En Arquitecturas Genéticas III (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC. Caldas Caldas, D. A. (2008, septiembre 1). El relativismo en la obra de Thomas Kuhn. Pontificia Universidad Javeriana, Facultad de Filosofía, Bogotá. Calduch, J. (2001). Temas de composición arquitectónica. Forma y percepción. Alicante: Imprenta Gamma. Recuperado a partir de https://www.editorial-club-universitario.es/pdf/263.pdf Callebaut, V. (2014). Fertile Cities. Hong Kong: Design Media Publishing Limited. Calvino, Í. (2012). Seis propuestas para el próximo milenio. Madrid: Siruela. Marcelo A. Fraile - Arquitectura biodigital Campos Muñoz, D. (2011). Lindenmayer: fractales, autómatas celulares y aplicaciones. En Departamento de Aplicación de Microcomputadoras, Instituto de Ciencias, N. Universidad Autónoma de Puebla. Pueblo. Recuperado a partir de http:// delta.cs.cinvestav.mx/~mcintosh/cellularautomata/Summer_Research_files/Arti_Ver_Inv_2011_DCM.pdf Capra, F. (1983). The Turning Point: Science, Society, and the Rising Culture. New York: Fontana. Carpo, M. (2009). Revolución 2.0. El fin de la autoría humanista. Arquitectura Viva, Banda ancha, (124), 19-25. Carrillo, C. (2012). Matemáticas: la gramática de la naturaleza. El lenguaje de la complejidad y los fenómenos no lineales. México: Siglo XXI Editores. Casacuberta, D. (2008). Reclaim the back bone: repensar internet como espacio público. En Arte y arquitectura digital: net. art y universos virtuales. Barcelona: Grupo de Investigación Arte, Arquitectura y Sociedad Digital. Casanovas, A. (2008). Del cine al móvil: transformaciones contemporáneas de la imagen-movimiento. En Net. Art y Universos Virtuales (A.A. VV.). Barcelona: UIC. Castano Carreño, D. (2009). Dinamismo científico y la enseñanza de las ciencias desde la visión de Thomas S. Kuhn. Colombia Revista Legein De Estudiantes De Filosofía, 9(3), 33-60. Castells, M. (1996a). La era de la información económica, sociedad y cultura. Madrid: Alianza editorial. Castells, M. (1996b). The Rise of the Network Society. Massachussetts: Ed. Blackwell. Castro, E. (2015). Cuestiones de método: la problemática del ejemplo en Foucault y Agamben. Res Publica. Revista de Historia de las Ideas Políticas, (marzo 2015). Recuperado a partir de www.http://revistas.ucm.es/index.php/RPUB/article/ view/47875 Castro Pinzón, E., & Troncoso, J. L. (2005). La virtualización del cuerpo a través del «Cutting» y Body Art Perfomance. Athenea Digital, (7). Recuperado a partir de http://atheneadigital.net/issue/view/n7 Cerezo, M. Á. (1987). La psicología científica desde el análisis Kuhniano y Postkuhniano. Revista de Historia de la Psicología, 8(3), 237-253. Cerrolaza, M., & Annicchiarico, W. (1996). Algoritmos de optimización estructural basados en simulación genetica. Caracas: Universidad Central de Venezuela. Chalcraft, E. (2013, mayo 7). First 3D-printed gun fired. Recuperado 8 de julio de 2013, a partir de www.dezeen. com/2013/05/07/first-3d-printed-gun-fired Chatfield, T. (2012). 50 cosas que hay que saber sobre mundo digital. Ariel. Chiarella, M., Gatica, B., García, L., Castro, C., Barría, P., & Silva, P. (2011). Composiciones Plegadas. Espacios, Superficies y Componentes. Arqo30. Recuperado a partir de http://www.arq.utfsm.cl/talleres/2011-01-taller-3/wp-content/ blogs.dir/48/files_mf/1302652452TPComposicionesPlegadasUTFSMChiarella.pdf Chu, K. (2005). Metafísica de la arquitectura genética y la computación. En Arquitecturas genéticas II: medios digitales & formas orgánicas (Alberto T. Estévez). Barcelona: Consortium Book Sales & Dist. Chueca Goitia, F. (1979). Historia de la arquitectura occidental. V. El siglo XX de la revolución Industrial al racionalismo. Madrid: Editorial Dossat. Clear, N. (2011). Avatar and the politics of protocell architecture. Architectural Design, (Protocell Architecture, no 210), 122127. 361 Collins, P. (1970). Los Ideales de la Arquitectura Moderna. Su Evolución (1750-1950). Barcelona: Gustavo Gili. Coloma Picó, E. (2008). Introducción a la Tecnología BIM. Barcelona: Escola Tècnica Superior d’Arquitectura de Barcelona, Universitat Politècnica de Catalunya. Conti, F. (1993). Como reconocer el arte del Renacimiento. Barcelona: Edunsa. Cook, T., & Reichardt, C. (1986). Métodos Cualitativos y Cuantitativos en la Investigación Evaluativa. Madrid: Morata. Corona Martínez, A. (1998). Ensayo sobre el proyecto. Buenos Aires: Nobuko Sa. Cortassa, C. (2013). Thomas Kuhn: ¿El último de los clásicos o el primer revolucionario? A 50 años de La Estructura de las Revoluciones Científicas. Revista CTS, 8(22). Recuperado a partir de http://www.revistacts.net/files/Volumen%20 8%20-%20N%FAmero%2022/Cortassa_EDITADO.pdf Cosme Muñoz, A. (2008). El proyecto de arquitectura: concepto, proceso y representación. Barcelona: Editorial Reverté. Costa, M. (2009). La ‘Bio-Lógica’ y los Paradigmas de la Era Digital. En Arquitecturas genéticas III: nuevas técnicas biológicas y digitales (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC. Cotofleac, V. (2009). Kant. Arquitectura y mimesis. Revista de Filosofía A Parte Rei, (63). Cotta, C. (2007). Una visión de los algoritmos meméticos. Dept. Lenguajes y Ciencias de la Computación, ETSI, Informática, University of Málaga, Campus de Teatinos, Málaga. Cowin, S., & Doty, S. (2007). Tissue Mechanics. New York: Springer New York. Bibliografía Cronin, L. (2011). Defining new architectural design principles with ‘living’ inorganic materials. Architectural Design: Protocell Architecture, (210), 34-43. Cruz, D. (2013). Tecnologías aplicadas. Santiago de Chile: Escuela de Artes Visuales Universidad Uniacc. Cruz, M., & Pike, S. (2008). Introduction. Neoplasmatic Design. Architectural Design, (78). Cuerda, I., & García Moreno, B. (2013). El análisis de ciclo de vida. Life-Cycle Assessment in Architecture. Arquitectura Viva, (149). Cuito, A. (2001). Guggenheim. Guggenheim. New York, Venice, Bilbao, Berlín. Barcelona: Kliczkowsky. Curtis, W. (2003). Ensayo La Naturaleza del Artificio. Una conversación con Jacques Herzog. El Croquis, (109 – 110). Curtis, W. (2012). La arquitectura moderna desde 1900. New York: Editorial Phaidon. Curtis, William J. R. (1998). Lo único y lo universal: Una perspectiva de historiador sobre arquitectura reciente. El Croquis, … Towards the end of the 20 th Century, No 88/89(Madrid). Darnell, L. (2007). Matrix: Simulating the world Part I - Particle models. +Plus Magazine. Recuperado a partir de https:// plus.maths.org/content/matrix-simulating-world-part-i-particle-models Dartnell, L. (2012). Matrix: Simulating the world Part II: cellular autómata. +Plus Magazine. Recuperado a partir de http:// plus.maths.org/content/matrix-simulating-world-part-ii-cellular-automata Dawkins, R. (1988). El relojero ciego. Barcelona: Editorial Labor. Dawkins, R. (1993). El gen egoísta: las bases biológicas de nuestra conducta. Barcelona: Salvat. De Garrido, L. (2012). Design practice of the new architectural paradigm. Oviedo: Síntesis arquitectura. De Kestelier, X. (2013, enero 31). Foster + Partners to 3D print buildings on the moon Foster + Partners Works With European Space Agency To 3D Print Structures On The Moon [Foster + Partners]. Recuperado 8 de julio de 2013, a partir de http://www.fosterandpartners.com/news/archive/2013/01/foster-partners-works-with-european-space-agency-to-3dprint-structures-on-the-moon/ De Landa, M. (2002). Deleuze and the Use of the Genetic Algorithm in Architecture. En Designing for a Digital World (Leach, Neil, pp. 117-120). London: John Willey & Soon. De Landa, M. (2003). Deleuze y el Algoritmo Genético de la arquitectura. En Filogénesis: las especies de Foreign Office Architects (Foreign Office Architects, Sanford Kwinter). Barcelona: Actar/ MACBA. de Saussure, F., Bally, C., Sechehaye, A., & Riedlinger, A. (2005). Curso de lingüística general. Buenos Aires: Losada. De Souza, M. das G. (2007). Paradigmas de las ciencias humanas e ideología. En El espacio público de las ciencias sociales y humanas: el papel político y los paradigmas : estudio comparativo Francia-América Latina : Jornadas Internacionales, 2006. Buenos Aires: Editores Del Puerto. de Spinadel, V. W. (2012). Introducción. En Forma y matematica II: fractales y forma (de Spinadel, Vera W.). Buenos Aires: Ediciones Fadu. Deleuze, G. (1989). El pliegue. Barcelona: Paidós. 362 Dery, M. (2008). Soft House: Home Grown. artbyte.The magazine of digital art & culture. Recuperado a partir de www.artbyte. com/mag/nov_dec_00 lynn_content.html Di Tada, E. (2002). Algoritmos Genéticos. Revista Ciencia y Tecnología. Universidad de Palermo, (2), 15-40. Díaz Moreno, C., & García Grinda, E. (2003). Complejidad y consistencia. Una conversación con Farshid Moussavi y Alejandro Zaera. El Croquis, (115-116). Díaz Moreno, C., & Garcia Grinda, E. (2009). Atmosfera, material del jardinero digital. En Naturaleza y artificio. El ideal pintoresco en la arquitectura y el paisaje contemporáneo (Ábalos, Iñaki). Barcelona: Gustavo Gili. Díaz Segura, Alfonso. (2011). El concepto de prefabricación en Le Corbusier. Madrid: CEU Ediciones. Diez Del Corral, J. (2005). Manual de crítica de la arquitectura. Madrid: Biblioteca Nueva. Doberti, R. (1996). El decir de la forma. Recuperado 1 de noviembre de 2017, a partir de http://www.asofil.org/web/ paginas/pdf/DOBERTI/CANOA/Doberti%20-%20El%20decir%20de%20la%20forma.pdf Doberti, R. (2008). Espacialidades. Buenos Aires: Infinito. Dollens, D. (2003). Hacia una arquitectura genética. En Arquitecturas Genéticas (Alberto T. Estévez). Barcelona: Escola Tècnica Superior d’Arquitectura, Universitat Internacional de Catalunya. Dollens, D. (2006). Architecture &Biomimetics series #1. Nuevo México: SITES BOOKS. Dollens, D. (2009). Naturaleza Digital, eTREES y Arquitectura Generativa. En Arquitecturas Genéticas III (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC. Dollens, D., & Planella, A. (2002). De lo digital a lo analógico. Barcelona: Gustavo Gili. Marcelo A. Fraile - Arquitectura biodigital Douglis, E. (2005). Auto-Braids. En Arquitecturas Genéticas II (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC. Dreyfus, H. L., & Rabonow, P. (2010). Michel Foucault, Beyond Structuralism and Hermeneutics. With and Afterword by and an Interview with Michel Foucault. En Signatura rerum: Sobre el método (2009-1o edición en español ed.). Barcelona: Editorial Anagrama S.A. Duarte Muñoz, A., Pantrigo Fernández, J. J., & Gallego Carrillo, M. (2007). Metaheurísticas. Madrid: Editorial Dykinson, S.L. Dunn, N., & Casasnovas, C. B. (2012). Proyecto y construcción digital en arquitectura. Barcelona: Art Blume, S.L. Efron, A., & Herold, J. (1980). Root Metaphor: The Live Thought of Stephen C. Pepper. New York: Paunch. Eisenman, P. (1984). The End of the Classical. Perspecta, (21), 154-172. Eisenman, P., & Glaister, C. (1988). Biocentro para la Universidad de Frankfurt. Arquitectura. Revista del Colegio Oficial de Arquitectos de Madrid, (270). Espasa Calpes. (2001). Diccionario Espasa Calpe. Recuperado 23 de agosto de 2017, a partir de http://diccionarios. elmundo.es/diccionarios/cgi/diccionario/lee_diccionario.html?busca=maquina&diccionario=1&submit=Buscar Espina, J., & Rincón, F. (2007). Simulación como herramientas de planificación urbana: Plaza Baralt. SIGRADI México. Recuperado a partir de http://papers.cumincad.org/data/works/att/sigradi2007_af107.content.pdf Estalella, A. (2015). Colectivos de arquitectura: otra sensibilidad urbana. Prototyping. Recuperado a partir de http://www. prototyping.es/destacado/colectivos-de-arquitectura-otra-sensibilidad-urbana Estévez, A. (1996). De Gaudí a Calatrava: sobre el bando perdedor. D’ Art: Revista del Departament d’Historia de l’Arte, (22), 281-296. Estévez, A. (2003a). Arquitecturas Genéticas. Barcelona: Escola Tècnica Superior d’Arquitectura, Universitat Internacional de Catalunya. Estévez, A. (2003b). Arquitecturas Genéticas. El nuevo proyectar ecológico-medioambiental y el nuevo proyectar cibernético-digital. En Arquitecturas Genéticas. Barcelona: Escola Tècnica Superior d’Arquitectura, Universitat Internacional de Catalunya. Estévez, A. (2004). La fascinación de la velocidad en la arquitectura y el diseño. En BCN Speed and friction. The Catalunya circuit city. Barcelona: Lumen, Inc./SITES Books. Estévez, A. (2005a). Arquitectura Biomorfica. En Arquitecturas genéticas II: medios digitales & formas orgánicas (Estévez, Alberto). Barcelona: Consortium Book Sales & Dist. Estévez, A. (2005b). Proyecto Barcelona Genética. Metalocus, (017). Estévez, A. (2006). Arquitectura genética (Proyecto Barcelona Genética): ‘La casa perfecta’, o una casa no es una caja…. En Arte y Arquitectura en la Sociedad Digital: Ciudad actual, ciudad genética, Universitat de Barcelona, Barcelona. Barcelona: Universitat de Barcelona. Estévez, A. (2008, diciembre). Arquitectura biodigital. SIGRADI Cuba. Recuperado a partir de http://cumincades.scix.net/ data/works/att/sigradi2008_172.content.pdf Estévez, A. (2009). Arquitecturas genéticas III: nuevas técnicas biológicas y digitales. Barcelona: Editorial Lumen, ESARQ, UIC. Estévez, A. (2014a). Aprendiendo de la naturaleza. En 2nd International Conference of Biodigital Architecture & Genetics (Estévez, Alberto, pp. 8-23). Barcelona: ESARQ, UIC. Estévez, A. (2014b). Concretando sobre la arquitectura genética. Barcelona: UIC. Estévez, A. T. (2005). Arquitecturas genéticas II: medios digitales & formas orgánicas. Barcelona: Consortium Book Sales & Dist. Etherington, R. (2013, marzo 13). Wiki Weapon firm launches 3D printing Pirate Bay. Recuperado 8 de julio de 2013, a partir de https://www.dezeen.com/2013/03/13/defcad-3d-printing-pirate-bay-launched-defense-distributed-cody-wilsonsxsw/ Evalle, V. (2006). Señor: ¿Usted habla de informática? En ¿Realidad virtual? (Zátonyi, Marta). Buenos Aires: Nobuko. Farin, G. (2002). A history of curves and surfaces in CAGD. En Handbook of Computer Aided Geometric Design (G. Farin, J. Hoschek and M.-S. Kim). Amsterdam: Elsevier. Farson, R. (1995). Metadiseño. Hacia una redefinición del diseño. Revista Domus, (772). Ferguson, M., & de Casso, P. (1994). La conspiración de acuario: transformaciones personales y sociales en este fin de siglo (2007.a ed.). Barcelona: Kairós. Fernández Galiano, L. (1998). Placeres del pliegue. La ultima vanguardia holandesa. Arquitectura Viva, (69). 363 Bibliografía Fernández Galiano, L. (1999a). 1994. Tiempos de mala memoria. El fin de siglo y sus signos. Arquitectura Viva, (La década digital. Una cronica de los noventa no 69). Fernández Galiano, L. (1999b). 1996. Formas de lo informe. Arte y arquitectura bajo el signo de Bataille. Arquitectura Viva, (69), 82-83. Fernández Galiano, L. (1999c). Hosanna Guggenheim. Un exorcismo para Bilbao. Arquitectura Viva, (“La década Digital. Una crónica de los noventa” 69). Fernández Galiano, L. (1999d). Split-screen. Arquitectura Viva, La década digital, (69), 17-23. Fernández Galiano, L. (1999e). Un pulpo de acero. Guggenheim Bilbao: arte de la negociación. Arquitectura Viva, (“La década Digital. Una crónica de los noventa” 69), 74. Fernández Galiano, L. (2010). Cero más diez. Un balance del 11 de septiembre. Arquitectura Viva, (129). Fernández Galiano, L. (2010). España y su fantasma. Representación e identidad en las exposiciones universales. Arquitectura Viva, (129). Fernández Galiano, L. (2012). Colectivos necesarios. Arquitectura Viva, (145), 3. Fernández, M. (2012). Estudio e integración de sistemas de bajo coste para el diseño digital y el prototipado rápido. Valencia: Universidad Politécnica de Valencia. Fernández-Galiano, L. (2009). El diluvio digital. Arquitectura Viva, (124), 3. Ferri, S. (1997). La concepción artística de los griegos. En Antología Critica (Patteta, Luciano). Madrid: Celeste Ediciones. Fiszbein, A., Godoy Herz, M., & Aboud, M. (2008). Algoritmos genéticos. Facultad de Ciencias exactas. Universidad de Buenos Aires. Recuperado a partir de http://users.df.uba.ar/gsolovey/fisica2/tp_especiales/Algoritmos%20 gen%C3%A9ticos%20-%20Aboud,Fiszbein,GodoyHerz.pdf Fraile, M. (2012, septiembre). El nuevo paradigma contemporáneo. Del Diseño Paramétrico a la Morfogénesis Digital. XXVI Jornadas de Investigación y VIII Encuentro Regional SI + PI. Recuperado a partir de http://www.academia. edu/2146376/El_nuevo_paradigma_contempor%C3%A1neo._Del_dise%C3%B1o_param%C3%A9trico_a_la_ morfog%C3%A9nesis_digital Fraile, M., Minafro, M., & Tatangeli, D. (2014, septiembre). Modelos paramétricos digitales. Una herramienta proyectual para la generación de una arquitectura de Alta Perfomance. SI. FADU. UBA. Recuperado a partir de http://www.academia. edu/11314001/MODELOS_PARAM%C3%89TRICOS_DIGITALES._UNA_HERRAMIENTA_PROYECTUAL_para_la_ GENERACI%C3%93N_DE_UNA_ARQUITECTURA_DE_ALTA_PERFOMANCE_ Fraile, M., Piantanida, S., & Minafro, M. (2016, septiembre). Arquitectura Siglo XXI: El uso de modelos paramétricos digitales para la ideación del proyecto contemporáneo. SI. FADU. UBA. Recuperado a partir de http://www.academia. edu/29011292/ARQUITECTURA_SIGLO_XXI_EL_USO_DE_MODELOS_PARAM%C3%89TRICOS_DIGITALES_PARA_ LA_IDEACI%C3%93N_DEL_PROYECTO_CONTEMPOR%C3%81NEO Frampton, kenneth. (1992). Historia critica de la arquitectura moderna. Barcelona: Gustavo Gili. Frazer, J. (1995). An Evolutionary Architecture. London: Architectural Association. 364 Freiberger, M. (2007). Perfect buildings: the maths of modern architecture. +Plus Magazine. Recuperado a partir de https://plus.maths.org/content/perfect-buildings-maths-modern-architecture García, M. (2010). Arquitectura, naturaleza, representación. En Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura. García Melero, J. E. (2012). Literatura española sobre artes plásticas / 1: Bibliografía aparecida en España entre los siglos XVI y XVIII, Volumen 1 de Literatura española sobre artes plásticas / 1. García Moreno, B. (2005). La ciudad de los deseos. Universidad Nacional de Colombia. García Moreno, B. (2006). Fuentes bibliográficas provenientes de otras disciplinas en indagaciones sobre arquitectura y lugar. En Seminario fuentes no convencionales: escritos de profesores”, Arte, Documento de Historia y teoría. Textos 15 (pp. 31-39). Bogotá: Universidad Nacional de Colombia. García Moreno, B. (2013). Las ciudades, las instituciones y los sujetos de deseo. Una propuesta para el estudio de la ciudad. Seminario Doctorado. FADU. UBA. García Núñez, S. (2016). La maqueta instrumental: Cambios de escala hacia la experimentación tectónica, espacial y formal. Escuela Técnica Superior de Arquitectura, Universidad Politécnica de Madrid. Garcimartin, M. (2014, septiembre 2). La impresión 3D nos convertirá de nuevo en artesanos. TED 2014, Vancouver. Recuperado a partir de http://www.media-tics.com/noticia/4525/tecnologias-emergentes/3-la-impresion-3d-nosconvertira-de-nuevo-en-artesanos.html Gardinetti, M. (2013). Le Corbusier, Villa en Rambouillet. Tecne, (386). Recuperado a partir de www.tecnne.com Garrido de, L. (2012). La práctica proyectual del nuevo paradigma en arquitectura. Teoría, diseño y procesos constructivos. Oviedo: Síntesis Arquitectura. Marcelo A. Fraile - Arquitectura biodigital Gerber, D., & Shiordia López, R. (2013). Context-Aware. Multi-Agent Systems. Negotiating Intensive Fields. University of Southern California. Giedion, S. (1941). Space, Time and Architecture: The Growth of a New Tradition. Cambridge: Harvard University Press. Giedion, S. (1997). La monumentalidad en la arquitectura egipcia. En Historia de la Arquitectura. Antología critica. Madrid: Ediciones Celeste. Gleick, J. (2012). Caos. La creación de una ciencia. Barcelona: Editorial Crítica. Gombrich, E. H. (2002). Arte e ilusión: estudio sobre la psicología de la representación pictórica (1979.a ed.). Barcelona: Gustavo Gili. Gómez, M. L. (2008). Ciberespacio y tiempo real: lo virtual más allá de la pantalla. En Arquitectura digital, Net. Art y Universos Virtuales (Autores Varios). Barcelona: UIC. González Cobelo, J. L. (2012). La máscara y el vértigo. El Croquis, (57). González, F. (2005). ¿Qué es un paradigma? Análisis teórico, conceptual Y Psicolingüístico del término. Revista: Investigación y Postgrado, (20). Recuperado a partir de Revista: Investigación y Postgrado. González González, S. (1985a). La escala. Cuadernos de Arquitectura Escala, (10). González González, S. (1985b). La medida. Cuadernos de Arquitectura Escala, (11). González González, S. (1988). La belleza. Cuadernos de Arquitectura Escala, (15). Gonzalez Pereda, J. (2012). Conciencia. De la ciencia a la conciencia. Madrid: Bubok Publishing. Gormley, A. (2007). www.antonygormley.com/projects/item-view/id/241. Recuperado 12 de noviembre de 2017, a partir de www.antonygormley.com/projects/item-view/id/241 Gould, S. J. (1961). Prefacio. En Sobre el crecimiento y la forma (2003.a ed.). Madrid: Akal. Gramazio, F., & Kohler, M. (2006). Fassade Weingut Gantenbein, Fläsch, Schweiz. Recuperado 26 de julio de 2017, a partir de http://www.gramaziokohler.com/web/d/bauten/52.html Gramazio, F., & Kohler, M. (2011). Flight Assembled Architecture. Recuperado 26 de julio de 2017, a partir de http://www. gramaziokohler.com/web/d/installationen/209.html Granados Majarrés, M. (2012). Fractus. De fractales y Sistemas-L (Spinadel, Vera W. de). Buenos Aires: Nobuko. Grigoriadou, M. (2016). El imaginario en la génesis del proyecto arquitectónico. Buenos Aires: Diseño. Guba, E., & Lincoln, Y. (2002). Paradigmas en competencia en la investigación cualitativa. En Por los rincones. Antología de métodos cualitativos en la investigación social (enman, Catalina, Haro, Jesús (comps.), pp. 113-145). Sonora: El Colegio de Sonora. Hermosillo. Gubern, R. (1996). Del bisonte a la realidad virtual: la escena y el laberinto. Barcelona: Anagrama. Guerrero Conde, H. E. (2010). La culpa es del programmer versión 1.0. Bogotá: Compar. Guínzburg, M. (1924). Le style et l’Epoque. Problémes de l’Architecture Moderne. Llège y Bruxelles: Pierre Mardaga Edit. Hacking, I. (2012). 50 años de La estructura. La Gaceta del Fondo de Cultura Económica, (501). Recuperado a partir de https://www.fondodeculturaeconomica.com/subdirectorios_site/gacetas/sep_2012.pdf Hadid, Z. (2004). Forms of indetermination / Landscape as a plan. En El croquis nº52+73+103. 1983-2004. Hagan, S. (2008). Digitalia: Architecture and the Digital, the Environmental and the Avant-garde. London: Routledge. Hanczyc, M. (2011, mayo). The line between life and not life. Presentado en Ted Talks, TED Salon London. Recuperado a partir de https://www.ted.com/talks/martin_hanczyc_the_line_between_life_and_not_life?language=es Hautecoeur, L. (1997). Blondel . Perrault: La «querelle des anciens et des modernes» (1660-1680. En Historia de la Arquitectura. Antologia Critica (Patteta, Luciano). Madrid: Celeste Ediciones. Hayek, N. (2006). Una biografía de René Thom ilustradas con comentarios sobre su vida y su obra científica. Revista digital Matematicalia, 2(4). Recuperado a partir de http://www.matematicalia.net/index.php?option=com_ content&task=view&id=289&Itemid=186 Heatherwick, T. (2009). Catedral de semillas. Pabellón del Reino Unido. Arquitectura Viva, (129). Henderson, M. (2011). 50 cosas que hay que saber sobre genética. Buenos Aires: Ariel. Hensel, M., Menges, A., & Weinstock, M. (2010). Emergent technologies and design: toward a biological paradigm for architecture. New York: Routledge. Hereu, P., Montaner, J. M., & Oliveras, J. (1999). Textos de arquitectura de la modernidad. Madrid: Editorial Nerea SA. Herrera, L. (2003, septiembre 23). La historia del Blob [Página personal]. Recuperado 14 de febrero de 2017, a partir de http://leus.epublish.cl/articles/epublish_LosBlobs.html 365 Bibliografía Hight, C., & Perry, C. (2006). Introduction: Collective Intelligence in Design. Architectural Design, (183). Hobsbawm, E. (1998). Historia del siglo XX, 1914-1991. Buenos Aires: Crítica. Howarth, D. (2013, abril 24). Everybody could have their body scanned and order clothes that fit perfectly. Recuperado 8 de julio de 2013, a partir de http://www.dezeen.com/2013/04/24/iris-van-herpen-interview/ Hwang, I. (2007). Verbs Natures. Barcelona: Editorial Actar. Ibelings, H. (1998). Supermodernismo. Arquitectura en la era de la globalización. Barcelona: Editorial Gustavo Gili. Iglesias Zoido, J. C. (1997). Paradigma y entimema: El ejemplo histórico en los discursos deliberativos de Tucídides. Emérita, Tomo 65 (Fascículo 1). Ingels, B. (2009). Yes is More: An Archicomic on Architectural Evolution. Barcelona: Taschen. Ito, T. (2009). Tarzanes en el bosque de los medios. En Naturaleza y artificio. El ideal pintoresco en la arquitectura y el paisaje contemporáneo (Ábalos, Iñaki). Barcelona: Gustavo Gili. Ito, T. (2014). Toyo Ito. Imaginería y materialización. En Toyo Ito. Imaginería y materialización (Lerner, Federico). Buenos Aires: Diseño. Iwamoto, L. (2009). Digital Fabrications. Architectural and material techniques. New York: Princenton Architectural Press. Iwamotto, L. (2011). Line Array. Protocells as Dynamic Structure. AD Protocell Architecture, 81(2), 112-121. Jarzombek, M. (2009). The state of theory. En Architecture & Theory. Production and reflection. (King, L.). Hamburg: Junius Verlag GmbH. Jencks, C. (1975). Arquitectura 2000: predicciones y métodos. Barcelona: Blume. Jencks, C. (1984). El signo arquitectónico. En El lenguaje de la arquitectura: un análisis semiótico (Broadbent, Geoffrey). México: Limusa. Jencks, C. (2000). The Century is Over, Evolutionary Tree of Twentieth-Century Architecture. Architectural Review. Jencks, C., & Kropf, K. (2006). The Volcano and the Tablet. En Theories and Manifestoes of Contemporary Architecture (Jencks, Charles, Kropf, Karl, pp. 2-11). Chichester: Wiley. Jencks, C., López-Manzanares, F. V., Chover, J. L. B., Navarro, F. A., & Arquitectura, U. P. de V. E. T. S. de. (2004). El nuevo paradigma en la arquitectura contemporánea. Ediciones Generales de la Construcción. Johansson, I. (1978a). A Critique of Karl Popper’s Methodology. The British Journal for the Philosophy of Science, 29(2), 201-204. Johnson, P., & Wigley, M. (1988). Deconstructivist Architecture (Wigley Mark). Barcelona: Editorial Gustavo Gili. Johnson, S. (2001). Emergence The connected lives of ants, Brain, Cities, and Sotware. New York: Ed. Scribner. Joosen, G. (s. f.). El control es la clave. En BCN Speed and friction. The Catalunya circuit city (Oosterhuis, Kas; Lénard, Ilona, Estévez, Alberto). Barcelona: ESARQ. Ju, A. (2013, febrero 20). Bioengineers, physicians 3-D print ears that look, act real. Recuperado 25 de mayo de 2015, a partir de http://news.cornell.edu/stories/2013/02/bioengineers-physicians-3-d-print-ears-look-act-real o 366 Jullier, L. (2004). La imagen digital: de la tecnología a la estética (1 Edición en francés 1998). Buenos Aires: La Marca. Kalwill, M. (2008). La idea del metadiseño y la necesidad de un nuevo enfoque. Abre el Ojo, Revista del IED Madrid, (9), 130-132. Khan, O. (2011). An architectural chemistry. Architectural Design, (Protocell Architecture, no 210). Khoshnevis, B., & Leach, N. (2009). Contour Crafting. Una revolución en la construcción con hormigón. En Arquitecturas Genéticas III (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC. Kipnis, J. (1997). Una conversación con Jacques Herzog. El Croquis, (El Croquis, Herzog& de Meuron, 1993-1997, No 84). Kolarevic, B. (2003a). Architecture in the Digital Age: Design and Manufacturing. New York: Branko Kolarevic edic. Kolarevic, B. (2003b). Digital Morphogenesis. En Architecture in the Digital Age: Design and Manufacturing. New York: Branko Kolarevic edic. Kondo, S., & Miura, T. (2010). Reaction-Diffusion Model as a Framework for Understanding Biological Pattern Formation, Review. Science, (329), 1616-1620. Koolhaas, R. (2013, enero 25). Fundamentals. Recuperado a partir de http://www.domusweb.it/ es/noticias/2013/01/25/ fundamentals-rem-koolhaas-presenta-su-biennale.html Kottas, D. (2013). Arquitectura Digital. Nuevas Aplicaciones. Barcelona: Links Books. Koza, J. (2007). Genetic Programming. On the programming of computers by means of natural selection. Cambridge: The MIT Press. Krauel, J. (2010). Arquitectura Digital: Innovación y Diseño. Barcelona: Editorial Links. Marcelo A. Fraile - Arquitectura biodigital Kuhn, T. (1962). La estructura de las revoluciones científicas (2006 tercera edic. en español). México: Fondo de la Cultura Económica. Kuhn, T. (1982). XIII: Objetividad, Juicios de Valor y elección de teoría. En The Essential Tension: Selected Studies in Scientific Tradition and Change. México: Fondo de la Cultura Económica. La Ferla, J. (2004). Artes audiovisuales: La cuestión de lo digital sobre el Hipertexto ´validez around the world´. En ¿Realidad virtual? (Zátonyi, Marta). Buenos Aires: Nobuko. Lacalle, C. (2010). Flâneurs v.21 (o las personas que se mueven en las arquitecturas). En Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura. Lahoz-Beltra, R. (2004). Bioinformática: Simulación, vida artificial e inteligencia artificial. Madrid: Editorial Díaz de Santos, S.A. Lahoz-Beltra, R. (2013). Alan Turing y los orígenes de la investigación disciplinar. Encuentros Multidisciplinares, 15(4), 28-35. Lakatos, I., & Musgrave, A. (1975). La crítica y el desarrollo del conocimiento: actas del Coloquio Internacional de Filosofía de la Ciencia celebrado en Londres en 1965. México: Grijalbo. Langton, C. (1991). Artificial Life. En Complex Systems, Santa Fe Institute Studies in the Science of Complexity (pp. 189241). California: Adisson Wesley. Larousse. (1999). Diccionario El pequeño Larousse ilustrado. Barcelona: Larousse. Latour, B. (2007). Nunca fuimos modernos: ensayo de antropología simétrica. Buenos Aires: Siglo XXI Editores Argentina S.A. Lawson, B. (1999). “Fake” and “Real” creativity Using Computer Aided Design: Some Lessons from herman Hertzberger. New York: ACM Press. Lawson, T. (2014). Art Discoverer. Recuperado 12 de noviembre de 2017, a partir de http://www.artdiscover.com/es/ artistas/ted-lawson-id2622 Le Corbusier. (1964). Hacia una arquitectura (2006.a ed.). Buenos Aires: Poseidón. Le Corbusier (1945). Principios de Urbanismo. Carta de Atenas (editorial 1971). Barcelona Editorial Ariel. Le Corbusier (1954). Una pequeña casa. (1º edición español 2005). Buenos Aires: Infinito. Leach, N. (2009a). Digital Morphogenesis. Architectural Design, 79(1), 32 y ss. Leach, N. (2009b). Swarm Urbanism. Diseño Arquitectónico, 4(79). Ledesma Durán, A. (2012, diciembre). Patrones de Turing en sistemas biológico (Tesis de Maestro en Ciencias Matemáticas Aplicadas e Industriales). Universidad Autónoma Metropolitana - Iztapalapa División De Ciencias Básicas e Ingeniería, México DF. Recuperado a partir de http://mat.izt.uam.mx/mcmai/documentos/tesis/Gen.10-O/Ledesma-DATesis.pdf Lee, F. (2013, septiembre 16). 3-D Printed Gun Goes on Display at London Museum. Recuperado 25 de mayo de 2015, a partir de https://artsbeat.blogs.nytimes.com/2013/09/16/3-d-printed-gun-goes-on-display-at-london-museum/?_r=0 Leroridiaconou, N., & Parvin, lastair. (2011). Support wikihouse development [WikiHouse]. Recuperado 8 de julio de 2013, a partir de https://wikihouse.cc Levene, R., & Márquez Cecilia, F. (1995). Frank Gehry, 1991-1995. El Croquis, (74/75). Levene, R., & Márquez Cecilia, F. (1998). … Towards the end of the 20 th Century. El Croquis, (88/89). Levis, D. (2009). La pantalla ubicua: televisores, computadoras y otras pantallas. Buenos Aires: La Crujía Ediciones. Liernur, J. (2010). Arquitectura en teoría. Escritos 1986-2010. Buenos Aires: SCA. Nobuko. Loos, A. (1974). Ornamento y delito. Barcelona: Gustavo Gili. López del Rincón, D. (2015). Bioarte. Arte y vida en la era de la biotecnología. Madrid: Akal. López Fernández, M. (2009). Arquitectura biodigital Emergente (Tesis Master Arquitectura Biodigital). ESARQ, Universitat Internacional de Catalunya, Barcelona. López Salinas, A. M. (2011). Introducción a la vida artificial y autómatas celulares. México: Instituto de Investigaciones sociales UNAM. Recuperado a partir de http://uncomp.uwe.ac.uk/genaro/Papers/Veranos_McIntosh_files/vida_artificial_Miriam.pdf Luzarraga Álvarez, M. (2009). Distopias Genéticas. Hacia una ciencia computacional de la naturaleza. ESARQ, UIC. Barcelona. Lynn, G. (1999). Animate form. New York: Princenton Architectural. Lynn, G. (2000a). Embriological house. Recuperado 20 de octubre de 2017, a partir de http://archives.docam.ca/en/wpcontent/GL/GL3ArchSig.html 367 Bibliografía Lynn, G. (2000b). Greg Lynn: Embryological houses. AD “Contemporary Processes in Architecture”, (70). Lynn, G. (2002). Folds, Bodies & Blobs: Collected Essays. En De lo digital a lo analógico (Dollens, Dennis). Barcelona: Gustavo Gili. Lynn, G. (2008). Form. New York: Random House Incorporated. Lynn, G. (2013). Archaeology of the Digital: Peter Eisenman, Frank Gehry, Chuck Hoberman, Shoei Yoh. Montreal: Canadian Centre for Architecture. Lyon, A. (2009). Entwined: Materializaciones Generativas. Exploración en Pieles Estructurales; entre el diseño paramétrico y algoritmos generativos. En MARQ 4, Fabricación y tecnología digital (Hugo Mondragón). Santiago de Chile: Pontificia Universidad Católica de Chile. Lyon, E. (2009). Diseño y Fabricación digital. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo). Santiago de Chile: Pontificia Universidad Católica de Chile. Macho Stadler, M. (2010). Fundamentos de Topología. País Vasco: Universidad del País Vasco. Departamento de Matemáticas. Recuperado a partir de http://www.ehu.eus/~mtwmastm/FT1011.pdf Maderuelo, J. (2008). La idea del espacio en la arquitectura y el arte contemporáneo 1960-1989. Madrid: Editorial AKA. Maldonado, T. (1994). Lo real y lo virtual (2o edición 1999). Barcelona: Gedisa. Mandelbrot, B. B. (1977). The Fractal Geometry of Nature. W. H. Freeman. Marczyk, A. (1993). Algoritmos genéticos y computación evolutiva. En Computer Based Learning Unit (Drakos, Nikos). Leeds: University of Leeds. Recuperado a partir de http://the-geek.org/docs/algen Martienssen, R. (1961). La idea del espacio en la arquitectura griega (1o Edición Witwaterstand University Press, 1956). Buenos Aires: Ediciones Nueva visión. Martín Juez, F. (2002). Contribuciones para una antropología del diseño. Barcelona: Gedisa. Martínez López, V. M., & Pueblo Pons, J. (2010). El diagrama como estrategia del proyecto arquitectónico contemporáneo. Revista Expresión Gráfica Arquitectónica, (16), 96-105. Massad, F., & Guerrero Yeste, A. (2003). Arquitectura en la era de la Revolución Digital. Experimenta, (45). Masterman, M. (1975). La naturaleza de los paradigmas. En La crítica y el desarrollo del conocimiento: actas del Coloquio Internacional de Filosofía de la Ciencia celebrado en Londres en 1965. México: Grijalbo. Maturana, H. (1997). Metadesign. Instituto de Terapia Cognitiva Post-Racionalista Inteco. Recuperado a partir de http:// www.inteco.cl/1997/08/01/metadesign/ Maver, T. (2004). Prologo. En Cultura Digital: comunicación y sociedad (Montagu, Arturo). Buenos Aires: Paidos. McDonell, G. J. (1998). ¿Qué es la transdisciplinariedad? Simposio Internacional de Transdisciplinariedad. UNESCO. Merriam, W. (2017). Diccionary Merriam-Webster. Merriam-Webster. Recuperado a partir de https://www.merriamwebster.com/dictionary/biomimetics Miceli, A. (2016). Arquitectura sustentable. Más que una nueva tendencia una necesidad. Buenos Aires: Diseño. 368 Midant, J. P. (2004). Diccionario Akal de la Arquitectura del siglo XX. Madrid: Ediciones Akal. Migayrou, F. (2003). Architecture Non Standard. París: Editions Centre Pompidou. Molina, Á. (2004). Le déjeuner sur Dalí. Manifiestos visuales y cultura de masa. Arquitectura Viva, (94/95), 118-125. Mondragón, H. (2009). Editorial. Fabricación y Tecnología Digital. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo). Santiago de Chile: Pontificia Universidad Católica de Chile. Montagu, A. (2004a). El tercer momento de la sociedad contemporánea. En Cultura Digital: comunicación y sociedad (Montagu, Arturo). Buenos Aires: Paidos. Montagu, A. (2004b). Introducción. En Cultura digital: comunicación y sociedad (Montagu, Arturo; Pimentel, Diego; Groisman, Martin). Paidós. Montagu, A., Mariño, M., & Igarzabal De Nistal, M. (1993). El aporte de la informática en la arquitectura, el diseño y el urbanismo. Buenos Aires: Dir. Investigación, Sec. De Inv. y Post. FADU. UBA. Montaner, J. M. (1995). El racionalismo como método de proyectación: progreso y crisis. Temes de disseny, (12). Recuperado a partir de https://dialnet.unirioja.es/servlet/articulo?codigo=2783078 Montaner, J. M. (1997). La modernidad superada: arquitectura, arte y pensamiento del siglo XX. Barcelona: Gustavo Gili. Montaner, J. M. (1999). Después del Movimiento Moderno: Arquitectura de la segunda mitad del siglo XX. Barcelona: Gustavo Gili. Montaner, J. M. (2008). Sistemas arquitectónicos contemporáneos. Barcelona: Editorial Gustavo Gili, S.L. Marcelo A. Fraile - Arquitectura biodigital Montaner, J. M. (2014). Del diagrama a las experiencias, hacia una arquitectura de la acción. Barcelona: Editorial Gustavo Gili. Montaner, J. M. (2015). La condición contemporánea de la arquitectura. Barcelona: Gustavo Gili. Moratalla, N. L. (2006). Repensar la ciencia. Madrid: Ediciones Internacionales Universitarias. MRDV. (2003). Stacking and layering, artificial ecologies. En El croquis 111. 1997-2002. Moreno, J., & Olivart, R. (2010). Infordiversidad ecosistémica y desarrollo sostenible. En Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura. Morin, E. (1982). Para salir del siglo XX. Barcelona: Kairós. Morín, E. (1998). El pensamiento complejo. Barcelona: Editorial Gedisa S.A. Morin, E., & Sánchez, A. (1986). El Método 3: El conocimiento del Conocimiento (1999.a ed.). Madrid: Cátedra. Morin, E., & Sánchez, A. (1992). El Método 4: Las ideas (2006.a ed.). Madrid: Cátedra. Moscato, P., & Cotta, C. (2003). Una introducción a los algoritmos meméticos. Inteligencia Artificial. Revista Iberoamericana de Inteligencia Artificial, 7(019), 131-148. Munárriz Ortiz, J. (2006). Imagen digital. Madrid: Tursen S.A. - H. Blume. Muñoz Kuri, R. (2011). Arquitectura Genética. El nuevo proyectar cibernético-digital y el nuevo proyectar ecológicoambiental (Maestria). ESARQ, UIC, Barcelona. Negroponte, N. (1995). El Mundo digital: [el futuro que ha llegado]. Barcelona: Eds B. Neufert, E. (1974). El Arte de proyectar en arquitectura. Barcelona: Gustavo Gili. Novak, M. (1991). Liquid Architecture in Cyberspace. En Cyberspace: First Steps (Benedikt, Michael). Cambridge, Mass. ONU. (2014, noviembre 24). Departamento de Asuntos Económicos y Sociales de Naciones Unidas. Recuperado 26 de julio de 2017, a partir de http://www.un.org/spanish/waterforlifedecade/scarcity.shtml Oosterhuis, K., & Barcelona, E. T. S. de A. de. (2004). BCN speed and friction: the Catalunya Circuit city. Barcelona: Lumen, Inc./SITES Books. Orciuoli, A. (2005). Cibernética de Wiener a Gibson. En Apuntes de Arquitectura (Arranz, Félix). Buenos Aires: Nobuko. Orciuoli, A. (2011). La enseñanza de la fabricación digital aplicada a la arquitectura: diseño y producción en la era de la información. ESARQ, UIC, Barcelona. Orcivoli, A. (2004). Digital Tools: la aplicación de sistemas de información a la arquitectura. En BCN speed and friction: the Catalunya Circuit city (Kas Oosterhuis). Barcelona: Lumen, Inc./SITES Books. Ortega Barnuevo, G. (2015). Resonancias de la ciencia en la arquitectura. El paradigma de la Escuela de Madrid. Buenos Aires: Diseño. Ortega Calvo, Á. (2004). Teoría del Caos. ¿Un nuevo paradigma para la Lingüística? En Nuevas Investigaciones Lingüísticas (p. 5 y ss). Madrid: Universidad Complutense de Madrid. Ortega, L., & Zaera-Polo, A. (2009). La digitalización toma el mando. Barcelona: Editorial Gustavo Gili, S.L. Ortiz, I. (2012). Norman Foster. Arquitectura para el mundo. Madrid: Tikal. Orwell, G. (1999). 1984. México DF: Gerrero editor. Outerelo Domínguez, E. (2000). Teoría de catástrofes. Las matemáticas del siglo XX. Una mirada en 101 artículos, (4344). Oxman, R., Oxman, R. (2010). The new structuralism. Design, engineering and architectural technologies. AD Profile, nº 206. julio/agosto. Oxman, N. (2014). Water-base Digital Fabrication Platform. Recuperado 25 de julio de 2017, a partir de http://matter. media.mit.edu/environments/details/water-based-digital-fabrication-platform Oxman, N. (2015, marzo). Design at the intersection of technology and biology. TED2015. Recuperado a partir de https:// www.ted.com/talks/neri_oxman_design_at_the_intersection_of_technology_and_biology Oxman, N. (2016). Towards a material ecology. World Economic Forum. Recuperado a partir de https://www.weforum.org/ agenda/2016/01/towards-a-material-ecology/ Panofsky, E. (1997). La teoría de las proporciones en el arte clásico griego. En Historia de la Arquitectura. Antología critica (Patteta, Luciano). Madrid: Ediciones Celeste. Pardo, J. L. (2011, junio 18). Análisis | La vida y la máquina. EL PAÍS. Recuperado a partir de http://elpais.com/ diario/2011/06/18/babelia/1308355935_850215.html Pask, G. (1975). Conversation Theory: Applications in Education and Epistemology. Michigan: Elsevier Science Limited. 369 Bibliografía Pawlyn, M. (2011). Biomimicry in architecture. London: RIBA Publishing. Pedraza Gómara, S. (2009). Geometrico con Modelado basado en curvas splines (Tesis doctoral). Politécnica de Madrid. Escuela Técnica Superior De Ingenieros Industriales, Madrid. Peinado, J., & García, J. M. (2008, abril). Autómatas Celulares. Recuperado 23 de octubre de 2017, a partir de http://www. enelnombredetux.com/project292f.html?project=autcel Pepper, S. C. (1942). World Hypotheses: A Study in Evidence. Los Angeles: University of California Press. Pérez Arnal, I. (2003). Ecología y Construcción. En Arquitecturas Genéticas (Alberto T. Estévez). Barcelona: Escola Tècnica Superior d’Arquitectura, Universitat Internacional de Catalunya. Perez Onecha. (2012). Una nueva aproximación al De re aedificatoria (sobre la edificación) de León Battista Alberti. Los conocimientos constructivos y sus fuentes (Tesis doctoral). Universidad Politécnica de Cataluña, Barcelona. Perez Porto, J., & Gardey, A. (2013). Colectivos. Recuperado 5 de marzo de 2017, a partir de www.definicion.de/colectivo Pérez Ransanz, A. R. (1999). Kuhn y el cambio científico. México: Fondo de Cultura Económica. Perrault. (2004). Ordonnance des cinq espéces de Colonnes selon la méthode des anciens, 1683, préface. En Historia de la estética III: La estética moderna, 1400-1700 (Tatarkiewicz, Wladyslaw). Ediciones Akal. Picon, A. (2004). Architecture and the Virtual: Towards a New Materiality? Praxis 6. Pigram, D., Maxwell, I., Rothenberg, B., & Blasetti, E. (2010, mayo 28). Trabeculae: Re-imagining the Office Building. Recuperado a partir de http://www.evolo.us/architecture/trabeculae-re-imagining-the-office-building/ Pimentel, D. (2004). Superconectados. En Cultura Digital: comunicación y sociedad (Arturo Montagu). Buenos Aires: Paidos. Pinninghoff, M. A., Matthews, E., & Díaz, H. (2004). Diseño de redes viales urbanas usando algoritmos genéticos. Revista ingeniería informática, (10). Recuperado a partir de http://www.inf.udec.cl/revista Pinochet, D. (2009). Forma Digital / Forma construida. Diseño y Construcción de Sistemas Emergentes a partir de Algoritmos Generativos. En MARQ 04 Fabricación y Tecnología Digital (Mondragón, Hugo, p. 37 y 22). Santiago de Chile: Pontificia Universidad Católica de Chile. Piñon, H. (2005). La Forma y la mirada. Buenos Aires: Nobuko. Plaza Guerrero, R. (1991). La comunicación hombre-máquina. Jaén: Universidad de Jaén. Plaza Leiva, V. (2013, febrero). Implementación del algoritmo UEGO sobre el entorno Matlab como alternativa al toolbox de optimización (Trabajo Fin de Máster). Universidad de Almería, Almería. Recuperado a partir de http://repositorio.ual. es/handle/10835/1867?show=full Prestinenza Puglisi, L. (2009). Anything Goes. AD Theoretical Meltdown, 79(1). Prieto, E. (2012). Yo robot. Arquitectura Viva, (147). Quatremère De Quincy, A. C. (2007). Diccionario de arquitectura: voces teóricas. Buenos Aires: Nobuko. Recuperado a partir de http://biblio.uade.edu.ar:8080/client/es_ES/biblioteca/search/detailnonmodal/ent:$002f$002fSD_ ILS$002f0$002fSD_ILS:318408/ada?qu=DICCIONARIOS&ic=true&ps=300 370 Quintal, B. (2014, marzo 11). Bienal de Venecia 2014 ‘Fundamentals’: Koolhaas Revela Últimos Detalles. Recuperado a partir de http://www.plataformaarquitectura.cl/cl/02-343030/bienal-de-venecia-2014-fundamentals-koolhaas-revelaultimos-detalles RAE, Asale. (2014). Diccionario de la lengua española - Edición del Tricentenario. Recuperado 19 de septiembre de 2017, a partir de http://dle.rae.es/?w=diccionario Rahim, A. (2000). Systemic Dealy: breaking the mold. En AD Profile, nº 45, junio. Rambla, W. (2007). Estética y diseño. Salamanca: Universidad de Salamanca. Ramírez, J. A. (2004). Dalí, cuerpo y arquitectura. Metáforas orgánicas de una biografía artística. Arquitectura Viva, (94/95). Ramo, B. (2010). Oh Verde Todopoderoso. En Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura. Ramos, R. (2012). Informática Grafica. EPS de Ingeniería de Gijón, Universidad de Oviedo, Oviedo. Ramos Salavert, I. (1995). Vida artificial. Castilla. La Mancha: Servicio de Publicaciones de la Universidad de Castilla-La Mancha. Reas, C., McWilliams, C., & Lust. (2010). Form + Code in design, art and architecture. New York: Princenton Architectural Press. Rey, S. (2016). Are you familiar with bioluminescence? Recuperado a partir de http://www.glowee.eu/ Marcelo A. Fraile - Arquitectura biodigital Riegl, A. (1997). El espacio en la arquitectura egipcia. En Historia de la Arquitectura. Antología critica. Madrid: Ediciones Celeste. Riechmann, J. (2004). Biomímesis: un concepto clave para pensar la sustentabilidad. En Les dimensions socials de la crisi ecológica. Illes Balears: Edicions UIB. Rigotti, A. M. (2011). Moisei Ginzburg: fundar el estilo contemporáneo. En Materiales de la arquitectura moderna. Cuatro Libros (Rogotti, Ana María; Pampinella, Silvia). Rosario: A&P ediciones. Rivera Ojeda, O., & Guerra, L. H. (1999). Maquetas virtuales de arquitectura. Benedikt Taschen. Robbins, S., & Decenzo, D. (2002). Fundamentos de administración: conceptos esenciales y aplicaciones. México: Pearson educación. Rocho, L. (2010, julio 29). Un canadiense trae la luz a Venecia. The Globe and Mail. Recuperado a partir de https://www. theglobeandmail.com/arts/a-canadian-brings-the-light-to-venice/article1387968/?service=print Rodríguez De Las Heras, A. (2016, febrero 20). Los nuevos artesanos digitales. Bez. Lo que debes saber, edición fin de semana. Recuperado a partir de http://www.bez.es/58361096/Los-nuevos-artesanos-digitales.html Rogers, R. (2015). Ciudades para un pequeño planeta. Barcelona: Gustavo Gili. Rosa, A., Huertas, J. A., Blanco, F., & Travieso, D. (1999). Argumentando sobre el cambio historico. Explicaciones sobre el pasado, el presente y el futuro de España. Psicología Política, (Número 18). Recuperado a partir de http://www.uv.es/ garzon/psicologia%20politica/N18-4.pdf Rosenberg, A. (2010). Presentación. En El universo futurista 1909-1936 (Belli, Gabriella). Buenos Aires: Fundación Proa. Roth, L. (2010). Entender la arquitectura. Sus elementos, historia y significado. Barcelona: Gustavo Gili. Roudavski, S. (2009). Towards Morphogenesis in Architecture. International Journal of Architecture Computing, 7(3), 345374. Royo, A. (2017). La sociedad gaseosa. Plataforma editorial. Rubio, R. (2015). Materia y código, la construcción del espacio en la emergencia de lo digital. Arquis, (No3 Universo paramétrico). Rugarcía, A. (1996). La Interdisciplinariedad: El reino de la confusión. Revista de Educación Superior, 05(98). Recuperado a partir de http://resu.anuies.mx/archives/revistas/Revista98_S1A4ES.pdf Ruiz Millet, J., & Planella, A. (2003). Una experiencia Abierta. En Arquitecturas Genéticas (Estévez, Alberto). Barcelona: Editorial Lumen, ESARQ, UIC. Rykwert, J. (1997). La simbología en la arquitectura egipcia. En Historia de la Arquitectura. Antología critica. Madrid: Ediciones Celeste. Safire, W. (2002, diciembre 1). Defenestration. The New York Times Magazines: On Language. Recuperado a partir de http://www.nytimes.com/2002/12/01/magazine/the-way-we-live-now-12-01-02-on-language-defenestration.html Salso, J. (2017). De la modernidad liquida al posthumanismo gaseoso. Manifiesto Vital. Recuperado a partir de www. manifiestovital.com Sánchez, A. (2012, octubre 17). Turing y sus patrones: el pionero de la biología matemática. Recuperado 1 de junio de 2015, a partir de http://nadaesgratis.es/anxo-sanchez/turing-y-sus-patrones-el-pionero-de-la-biologia-matematica Sánchez Garduño, F. (2013). Sobre la teoría morfogenética de Turing. Miscelánea Matemática, (56). Sánchez Vidiella, Á. (2011). Arquitectura del siglo XXI. Amplia selección de obras contemporáneas. Madrid: Ilus books. Sarbin, T. R. (1986). Narrative Psychology: The Storied Nature of Human Conduct. New York: Praeger. Sarquis, J. (2004). Itinerarios del proyecto: Ficción de lo real. Buenos Aires: Nobuko. Sass, L. (2007). YourHouse. Recuperado 30 de octubre de 2017, a partir de http://web.mit.edu/yourhouse/ yourHOUSE%20brochure.pdf Sastre Domínguez, P. (2016). Perfomatividad y arte computacional. Hacia una ‘DIY society’. Revista Teoknokultura, 13(1), 193-215. Schieda, A. (2015a). Glosario. Arquis, (No3 Universo paramétrico), 101-103. Schieda, A. (2015b). Mapa Móvil. Arquis, (No3 Universo paramétrico), 11-15. Schmitt, G. (1999). Information Architecture. Future and Basis of CAAD. Basilea: Birkhäuser. Schulz, C. (1999). Arquitectura Occidental. Barcelona: Gustavo Gili. Schumacher, P. (2008). Parametricismo como estilo – manifiesto parametricista. En Club Dark Side. Londres. Recuperado a partir de http://www.urbanismo.com/arquitecturayurbanismo/manifiesto-parametricista-patrik-schumacherestructura-el-estilo-digital/ 371 Bibliografía Schumacher, P. (2013). Adaptive Ecologies - Correlated Systems of Living. London: AA Publications. Schwartz, G. E., & Russek, L. G. (2012, octubre 12). El desafío de una medicina: teorías de la salud y ocho. « «Hipótesis del mundo. Polis. Revista Latinoamericana. Recuperado a partir de http:// polis.revues.org/7011 Senosian Aguilar, J. (1998). Bio-arquitectura. En busca de un espacio. México DF: Grupo Noriega Editores. Shmidt, C. (1993, mayo). El Carácter arquitectónico y la ruptura de la tradición clásica. Instituto de arte americano e investigaciones estéticas. Recuperado a partir de www.iaa.fadu.uba.ar/publicaciones/critica/0035.pdf Slavinsky, D. (2011). Authorship at risk: the role of the architect. Architectural Design, (Protocell Architecture, no 210), 9099. Slessor, C. (1997). Eco-Tech. Arquitectura high-tech y sostenibilidad. Barcelona: Gustavo Gili. Solá-Morales, I. (2003). Practicas teóricas, practicas históricas, practicas arquitectónicas. En Inscripciones. Barcelona: Gustavo Gili. Soleri, P. (2017). Arcosanti: An urban laboratory. Recuperado 30 de octubre de 2017, a partir de www.arcosanti.org Solís Santos, C. (2006). Una revolución del siglo XX. En La estructura de las Revoluciones Científicas (Kuhn, Thomas). México: Fondo de lCultura Económica. Soriano, F. (2004). Sin tesis. Barcelona: Gustavo Gili. Spiller, N. (2011). Protocells: The universal solvent. Architectural Design, (Protocell Architecture, no 210). Spiller, N., & Armstrong, R. (2011). It’s a Brand New morning. Architectural Design, (Protocell Architecture, no 210). Spinadel de, V., Perera, J. G., & Perera, J. H. (2007). Geometría fractal. Buenos Aires: Nueva Librería. Spinadel de, V. (2011). Forma y matemática. La familia de números metálicos en diseño. Buenos Aires: Nobuko. Spinadel de, V. (2012). Forma y matemática II. Fractales y forma. Buenos Aires: Nobuko. Stacey, M. (2013, mayo). Proto-materials: Material Practices in architecture at molecular and celular scales. Prototyping Architectura: The conference. Recuperado a partir de https://www.researchgate.net/publication/261108036_Protomaterials_Material_Practices_at_Molecular_and_Cellular_Scales Stapledon, W. O. (1930). Last and First Men: A Story of the Near and Far Future. London: Metheus. Steadman, P. (2011). The evolution of designs: Biological analogy in architecture and the applied arts. En Posessing the Urpflanze: an Examination of the Nature and Purpose of Biology-Design Analogy via Biomimetic Practice (Royal Binet, Emily). Austin: The University of Texas at Austin. Steele, J. (2001). Arquitectura y revolución digital. Barcelona: Gustavo Gili. Stelarc. (2015, octubre 25). Página web oficial de Stelarc. Stuart-Smith, R. (2004). Kokkugia, computation. Recuperado 3 de marzo de 2016, a partir de http://www.robertstuartsmith.com/filter/research Sullivan, L. (1896). The tall office Office Building Arstistically Considered. Lippincott’s Magazine, 403-409. 372 Summerson, J. (1979). El Lenguaje clásico de la arquitectura: de L.B. Alberti a Le Corbusier (1a edición 1963). Barcelona: Gustavo Gili. Suñol, V. (2005). La mimesis Aristotélica más allá de los límites de la poética. Phaos, Revista de Estudos Clássicos, 5, 107 – 126. Tapia, A. (2007). Mímesis y persuasión. Universidad Autónoma Metropolitana. Recuperado a partir de http:// elarboldelaretorica.blogspot.com.ar/2007/04/mmesis-y-persuasin.html Tatarkiewicz, W. (2004). Historia de la estética III: La estética moderna, 1400-1700. Madrid: Ediciones Akal. Tedeschi, A. (2014). AAD Algorithms-aided Design: Parametric Strategies Using Grasshopper. Italia: Le Penseur. Teixeira De Almeida, C. C. (2014). O conceito de Metadesign. O Colloquium on Metadesign, na Universidade Goldsmiths em Londres. SIGRADI 2014. DESIGN IN FREEDOM, 1(8). Recuperado a partir de wwwproceedings.blucher.com.br/ evento/sigradi2014 Tezidis, K. (2006). Algorithmic Architecture. Burlington: Architectural Press. Thom, R. (1987). Estabilidad estructural y morfogénesis: ensayo de una teoría general de los modelos. Barcelona: Gedisa. Thompson, D. (1961). Sobre el crecimiento y la forma (2003.a ed.). Madrid: Ediciones Akal. Toffler, A. (1970). El «shock» del futuro. Barcelona: Plaza y Janés. Tolmos Rodríguez-Piñero, P. (2003). Introducción a los algoritmos genéticos y sus aplicaciones. Madrid: Universidad Rey Juan Carlos. Recuperado a partir de https://dialnet.unirioja.es/servlet/libro?codigo=185891 Marcelo A. Fraile - Arquitectura biodigital Turing, A. (1952). The chemical basis of morphogenesis. Philosophical Transactions de la Royal Society of London. Townsend, A. (2014). On the Spline: A Brief History of the Computational Curve. En International Journal of Interior Architecture + Spatial Design, Applied Geometries. Recuperado a partir de http://www.alatown.com/spline-historyarchitecture/ Urbano, J. (2009). Gaudí-Dalí. En Arquitectura Genética III. Barcelona: Lumen, Inc./SITES Books ESARQ-UIC. Urbano, J. (2016). Gaudí, Dalí y el origen de la arquitectura génetica. TRP21, (4. Teoría). Recuperado a partir de www. trp21.com.ar/trp4/jurbano.html Vagnetti, L. (1997). El tratado (o ‘manual’) Vignola. En Historia de la arquitectura. Antología critica (Celeste Ediciones). Madrid: Patteta, Luciano. Valentino, J., Giménez, C., & Miras, M. (2011). La arquitectura cómplice. Buenos Aires: Nobuko. Valentino, J., Giménez, C., & Miras, M. (2013). Las analogías biológicas desde la perspectiva de la teoría contemporánea. Critica 185, Instituto de Arte Americano, FADU, UBA. Valentino, J., Giménez, C., & Miras, M. (2014). Arquitectura + Biología: teorías, analogias y proyectos. Buenos Aires: Teoría de la Arquitectura. Van der Maas, S. (2011). El diagrama en la arquitectura. Dearq. El medio como fin, (08). Recuperado a partir de www. diagramasenarquitectura.blogspot.com.ar Van Onck, A. (1965). Metadesign. Produto e linguagem, 1(2), 27-31. Vassão, C. (2010). Metadesign: ferramentas, estratégias e ética para a complexidades. San Paulo: Bluche. Velásquez, O. (2001). La significación del paradigma en el Timeo de Platón y su carácter articulador. Diadokhé Revista de estudios de filosofía platónica y cristiana. Recuperado a partir de http://diadokhe.olea.biz/wp-content/ uploads/2016/03/paradigma.pdf Velázquez, R. (2008). Greg Lynn. Recuperado 8 de noviembre de 2017, a partir de https://sites.google.com/site/ cursoopcionaldiagramas/momentos/momento-analitico/textos-1 Venturi, R., & Scully, V. (1995). Complejidad y contradicción en la arquitectura (2o edición 1978). Barcelona: Gustavo Gili. Vidal Climent, I. (2010). El sentido de un paradigma en arquitectura. En Miradas para un cambio de paradigma (Barrera Puigdollers, José; Catalán, Pilar). Valencia: General de Ediciones de Arquitectura. Vidal, M. (2014). Presente: Dennis Dollens, arquitecto biomimético. Revista digital IF, (58). Recuperado a partir de http:// www.infonomia.com/wp-content/uploads/2014/05/if_58.pdf Virilio, P. (1996). El arte del motor. Aceleracion y realidad virtual. Buenos Aires: editorial manantial. Vitruvio, M. L. (s. f.). Los diez libros de arquitectura (edic. 1997) Madrid:Iberia. Von Moos, S. (2012). Decoros anacrónicos. Una respuesta a Vittorio M. Lampugnani. Arquitectura Viva, (143). Vrachliotis, G. (2008). The Leap from Linear to Computational Consciousness: Evolutionary Models of Thought and Architecture. En Precisions. Architecture between Sciences and the Arts (Ole W. Fischer, pp. 232-261). Berlin: Jovis. Waddington, W. (1987). Prefacio de la primera edición. En Estabilidad estructural y morfogénesis. Ensayo de una teoría general de los modelos (Thom, René). Barcelona: Editorial Gedisa S.A. Wagensberg, J. (2013). La rebelión de las formas. Buenos Aires: Tusquets Editores S.A. Waisman, M. (1993). El interior de la historia: historiografía arquitectónica para uso de latinoamericanos. ESCALA. Walker, E. (2010). Lo ordinario. Barcelona: Gustavo Gili. Waltz, K. (1988). Teoría de la política internacional: Kenneth N. Waltz (1998.a ed.). Buenos Aires: Grupo Editor Latinoamericano. Watts, B. (2011). Bettering biology? Architectural Design, (Protocell Architecture, no 210). Weinstock, M. (2004). Morphogenesis and the Mathematics of Emergence. AD Emergence: Morphogenetic Design Strategies, 74(3), 10-17. Weinstock, M. (2006). Self-Organisation and the Structural Dynamics of Plants. Architectural Design, (76), 34-41. White, H. V., & White, H. (1992). Metahistoria: la imaginación histórica en la Europa del siglo XIX (1973.a ed.). México: Fondo de Cultura Económica. Williams, H. (2003). Zoomorphic. New Animal architecture. Londres: Laurence King Publishing. Wiley, J. (2011). A manifesto for protocell architecture: against biological formalism. Architectural Design, (Protocell Architecture, no 210). Wolfram, S. (2002). New Kind of Science: Notes from the Book. Illinois: Wolfram Media. 373 Bibliografía Wood, J. (2015). Collective Metamorphosis. A combinatorial approach to transformation design. En Transformation Design. Perspectives on a New Design Attitude (Wolfgang, Jonas; Zerwas, Sarah, Von Anshelm, Kristof). Suiza: Birkhäuser. Zaera – Polo, A. (1997). Una Conversación con Peter Eisenman. El Croquis, Peter Eisenman, 1990-1997(83). Zaera, A. (1995). Tecnología informática en Frank O. Gehry & Associates. El Croquis, (Frank Gehry 1991-1995 74/75). Zaera Polo, A. (1998). Un mundo lleno de agujeros. El croquis, 88,89, 308. Zátony, M. (2003). ¿Realidad virtual? Buenos Aires: Nobuko Sa. Zátonyi, M. (2002). Una Estética del arte y del diseño de imagen y sonido. Buenos Aires: Libreria Técnica CP67. Zátonyi, M. (2007). Arte y creación: los caminos de la estética. Buenos Aires: Capital Intelectual S A. Zátonyi, M. (2011a). Arquitectura y diseño. Análisis y teoría. Buenos Aires: Nobuko. Zátonyi, M. (2011b). Juglares y Trovadores: derivas estéticas (1 ed.). Buenos Aires: Capital Intelectual. Zavalbeascoa, A. (2007, septiembre 15). Entrevista: Arquitectura. Greg Lynn. Recuperado 3 de mayo de 2009, a partir de https://notiarquitectura.wordpress.com/category/lynn/ Zerbst, R. (1991). Antoni Gaudi. Barcelona: Taschen. Zopf, D., Ohye, R., & Nelson, M. (2013, mayo 22). Baby’s life saved with groundbreaking 3D printed device from University of Michigan that restored his breathing. Recuperado 25 de mayo de 2015, a partir de http://www.mottchildren.org/news/ archive/201305/baby%E2%80%99s-life-saved-groundbreaking-3d-printed-device Zumthor, P. (2006). Atmosferas. Barcelona: Gustavo Gili. Zumthor, P. (2009). Pensar en Arquitectura. Barcelona: Gustavo Gili. 374